JP2010191487A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2010191487A
JP2010191487A JP2009032027A JP2009032027A JP2010191487A JP 2010191487 A JP2010191487 A JP 2010191487A JP 2009032027 A JP2009032027 A JP 2009032027A JP 2009032027 A JP2009032027 A JP 2009032027A JP 2010191487 A JP2010191487 A JP 2010191487A
Authority
JP
Japan
Prior art keywords
target
unit
information
content
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009032027A
Other languages
English (en)
Other versions
JP5347549B2 (ja
Inventor
Shingo Tsurumi
辰吾 鶴見
Takuro Noda
卓郎 野田
Akiko Terayama
晶子 寺山
Eijiro Mori
栄二郎 森
Kenichi Okada
憲一 岡田
Atsushi Koshiyama
篤 越山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009032027A priority Critical patent/JP5347549B2/ja
Priority to EP09252904.9A priority patent/EP2219134A3/en
Priority to US12/698,884 priority patent/US8659649B2/en
Priority to CN2010101122385A priority patent/CN101807370B/zh
Publication of JP2010191487A publication Critical patent/JP2010191487A/ja
Application granted granted Critical
Publication of JP5347549B2 publication Critical patent/JP5347549B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ターゲットの状況の変化に応じて、ターゲットに適したコンテンツをタイミングよく提供する情報処理装置を提供する。
【解決手段】本発明の情報処理装置100は、撮像部120と、表示部130と、表示部130に対するターゲットの位置を検出する位置検出部212と、撮像された画像から顔を検出する顔検出部232と、顔検出部232による検出結果に基づいてターゲットの属性情報を取得する属性取得部240と、検出されたターゲットの少なくとも属性情報に基づいてターゲットの属するグループを判定するグループ判定部242と、ターゲットの属性情報またはターゲットのグループ情報のうち少なくともいずれか1つの情報に基づいてターゲットに提供するコンテンツを決定するコンテンツ決定部250と、ターゲットに提供するコンテンツに関するコンテンツ情報をターゲットの位置に応じた表示形式で表示部130に表示する表示処理部260とを備える。
【選択図】図3

Description

本発明は、情報処理装置および情報処理方法に関し、より詳細には、デジタルサイネージを提供する情報処理装置および情報処理方法に関する。
近年、ネットワーク技術やディスプレイ性能の向上に伴い、ディスプレイに映像や情報を表示してターゲットに情報を伝達するデジタルサイネージというしくみが注目されている。デジタルサイネージは、既存のポスターや看板等と比較して高い表現力を有しており、また、場所や時間に合わせたコンテンツを表示することが可能である。このようなデジタルサイネージを用いることにより、ターゲットに対して強い印象を与え、直接的に情報を伝達することができる。
ここで、ターゲットに対してより効果的なコンテンツを配信するため、ターゲットに関する情報を取得することは有効である。例えば、ターゲットの性別、年齢により興味を抱くコンテンツは異なると考えられる。ターゲットの情報を取得する方法として、例えば、特許文献1には、ターゲットの顔画像を解析することにより、性別、年齢、人種等の顔の属性を判定する方法が開示されている。また、特許文献2には、複数人の挙動に基づいて、ターゲットの性別や年齢等の属性情報からターゲットのグループの形態を判定する方法が開示されている。
そして、特許文献3には、顔の属性情報を取得して、その結果を利用してターゲットに情報やコンテンツを提供するシステムが開示されている。かかるシステムは、例えば、ターゲットの顔を撮影し、その顔の属性判定の結果表示までの一連の処理に娯楽性を持たせた娯楽装置に適用することができる。
特開2008−282089号公報 特開2006−092396号公報 特開2007−080057号公報
しかし、上記特許文献3に開示されたシステムは、ターゲットの顔画像の解析結果に基づいてターゲットに適したコンテンツを提供するものであり、ターゲットの状況に応じてタイミングよくコンテンツを提供するものではなかった。例えば、ターゲットの構成やディスプレイとの位置関係に応じてターゲットの状況は刻々と変化する。このような変化に応じてコンテンツを提供することで、ターゲットに対してより効果的なコンテンツを配信できると考えられる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ターゲットの状況の変化に応じて、ターゲットに適したコンテンツをタイミングよく提供することが可能な、新規かつ改良された情報処理装置および情報処理方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、画像を撮像する撮像部と、画像を表示する表示部と、表示部に対するターゲットの位置を検出する位置検出部と、撮像部により撮像された画像から顔を検出する顔検出部と、顔検出部により検出された検出結果に基づいて、ターゲットの属性情報を取得する属性取得部と、顔検出部により検出されたターゲットの少なくとも属性情報に基づいて、ターゲットの属するグループを判定するグループ判定部と、ターゲットの属性情報またはターゲットの属するグループを示すグループ情報のうち少なくともいずれか1つの情報に基づいて、ターゲットに提供する1または2以上のコンテンツを決定するコンテンツ決定部と、ターゲットに提供するコンテンツに関するコンテンツ情報をターゲットの位置に応じた表示形式で表示部に表示する表示処理部とを備える、情報処理装置が提供される。
本発明によれば、顔検出部により顔の検出されたターゲットの属性情報を取得し、位置検出部によりターゲットの位置情報を取得する。そして、少なくともターゲットの属性情報に基づいて、顔の検出されたターゲットが属するグループを判定する。コンテンツ決定部は、ターゲットの属性情報またはグループ情報に基づき、ターゲットに適したコンテンツを決定する。そして、表示処理部は、ターゲットの位置情報に応じて変化する表示形式で表示部にコンテンツ情報を表示する。これにより、ターゲットの状況の変化に応じて、ターゲットに適したコンテンツをタイミングよく提供することができる。
ここで、表示処理部は、ターゲットと表示部との距離が第1の距離以下となったとき、顔認識されているターゲットの属性情報に基づいて、複数のコンテンツ情報からなるアイテム群を表示部に表示するようにしてもよい。
また、グループ判定部は、ターゲットと表示部との距離が第1の距離より小さい第2の距離以下となったとき、顔認識されているターゲットのグループを判定するようにしてもよい。そして、コンテンツ決定部は、グループ情報に基づいてターゲットに提供するコンテンツを決定する。
さらに、表示処理部は、ターゲットと表示部との距離が第2の距離より小さい第3の距離以下となったとき、コンテンツ情報をターゲットが操作する操作状態で表示部に表示するようにしてもよい。
また、表示処理部は、ターゲットと表示部との距離が第1の距離以下かつ第3の距離より大きいとき、コンテンツ情報が動くように表示部に表示してもよい。そして、ターゲットと表示部との距離が第3の距離以下となったとき、コンテンツ情報の動きを停止して表示してもよい。
さらに、表示処理部は、顔検出部により検出された顔を切り出し、切り出された顔画像を表示部に表示することもできる。表示処理部は、顔画像の周囲に顔枠を表示し、顔枠にターゲットの属性情報またはグループ情報のうち少なくともいずれか一方の情報を示すようにしてもよい。また、表示処理部は、予め設定された顔画像の最大サイズおよび最小サイズの範囲内で、切り出した顔画像を拡大して表示することもできる。さらに、表示処理部は、顔画像を表示部の上側に表示し、コンテンツ情報を表示部の下側に表示するようにしてもよい。
また、グループ判定部は、顔検出部により検出されたターゲットの属性情報から取得されるターゲットの性別および年齢区分と、検出されたターゲットの数とに基づいて、ターゲットの属するグループを判定するようにしてもよい。このとき、グループ判定部は、さらに位置検出部により検出されたターゲット間の距離に基づいて、ターゲットの属するグループを判定することもできる。
さらに、本発明の情報処理装置は、1または2以上のコンテンツ情報を提示する第1のモードと、提示されたコンテンツ情報から選択された1のコンテンツ情報に対応するコンテンツを提供する第2のモードと切り換えるモード切換部を備えることもできる。モード切換部は、位置検出部により検出されたターゲットの位置情報からターゲットの動作を判定して、第1のモードから第2のモードへ切り換える。そして、モード切換部は、あらかじめ設定された第2のモードの終了条件に基づいて、第2のモードから第1のモードへ切り換える。
また、上記課題を解決するために、本発明の別の観点によれば、画像を撮像するステップと、表示部に画像を表示するステップと、表示部に対するターゲットの位置を位置検出部により検出するステップと、撮像された画像から顔を検出するステップと、検出された顔の情報に基づいて、ターゲットの属性情報を取得するステップと、顔が検出されたターゲットの少なくとも属性情報に基づいて、ターゲットの属するグループを判定するステップと、ターゲットの属性情報またはターゲットの属するグループを示すグループ情報のうち少なくともいずれか1つの情報に基づいて、ターゲットに提供するコンテンツを決定するステップと、ターゲットに提供するコンテンツに関するコンテンツ情報をターゲットの位置に応じた表示形式で表示部に表示するステップとを含む、情報処理方法が提供される。
以上説明したように本発明によれば、ターゲットの状況の変化に応じて、ターゲットに適したコンテンツをタイミングよく提供することが可能な情報処理装置および情報処理方法を提供することができる。
本発明の第1の実施形態にかかる情報処理装置の概略構成を示す説明図である。 同実施形態にかかる制御部のハードウェア構成を示すブロック図である。 同実施形態にかかる情報処理装置を示す機能ブロック図である。 同実施形態にかかる情報処理装置の機能を概略的に示す説明図である。 同実施形態にかかるコンテンツ提供機能の処理を示すフローチャートである。 同実施形態にかかるコンテンツ提供機能の処理を示すフローチャートである。 同実施形態にかかるコンテンツ提供機能の処理を示すフローチャートである。 同実施形態にかかるコンテンツ提供機能の処理を示すフローチャートである。 表示部に表示される画像の画面構成を示す説明図である。 グループ属性判定処理を示すフローチャートである。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 同実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。 スマイルレベルによるアイテム表示の例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.情報処理装置の構成(情報処理装置の概略構成、制御部のハードウェア構成、情報処理装置の機能構成)
2.情報処理装置によるコンテンツ提供処理(コンテンツ提供機能の基本構成、コンテンツ提供機能の一処理例、グループ属性判定処理、効果、スマイルレベルによるアイテム表示、コンテンツ提供処理の拡張)
<1.情報処理装置の構成>
[情報処理装置の概略構成]
まず、図1に基づいて、本発明の実施形態にかかる情報処理装置100の概略構成について説明する。以下では、情報処理装置100として、ターゲットに対してコンテンツを提供可能な情報処理装置である。かかる情報処理装置100は、図1に示すように、制御部110と、撮像部120と、表示部130と、操作部140とから構成される。
制御部110は、ターゲットの属性や状況に応じてコンテンツを提供する制御を行う機能部であって、例えば制御処理を実行可能なコンピュータを用いることができる。制御部110は、撮像部120により取得した映像や操作部140から取得した操作情報に基づいて、コンテンツを提供する当該情報処理装置を制御したり、表示部130に表示される画面の構築処理を実行したりする。
撮像部120は、映像を取得する機能部である。撮像部120は、例えば、撮像センサと、被写体の画像を撮像センサに入射させる光学部材とから構成することができる。撮像センサには、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementry Metal Oxide Semiconductor)イメージセンサ等を用いることができる。
表示部130は、ターゲットに対してコンテンツなどの情報を提供する。表示部130は、例えば液晶パネルディスプレイ等であって、制御部110により生成された画像を表示する。
操作部140は、ターゲットによる操作情報を取得する機能部である。操作部140としては、例えば非接触式のセンサーパネルを用いることができる。これにより、操作部140は、ターゲットが操作部140に接触あるいは近接したか否かについて操作位置を三次元座標(x、y、z)として検出することができる。また、操作部140は、表示部130の表面側に、表示部130と重ねて配置される。これにより、表示部130に表示される画像を直接操作する感覚をターゲットに提供することができる。
制御部110と、撮像部120、表示部130および操作部140とは、例えばケーブル150により有線接続され、通信可能に設けられている。なお、これらは無線接続してもよい。また、本実施形態にかかる情報処理装置100は、音声を出力するスピーカ等の出力部(図示せず。)を備えている。
以上、本実施形態にかかる情報処理装置100の概略構成について説明した。次に、図2に基づいて、本実施形態にかかる情報処理装置100を構成する制御部110のハードウェア構成についてより詳細に説明する。なお、図2は、本実施形態にかかる制御部110のハードウェア構成を示すブロック図である。
[制御部のハードウェア構成]
本実施形態の制御部110は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ホストバス104aとを備える。また、制御部110は、ブリッジ104と、外部バス104bと、インタフェース105と、入力装置106と、出力装置107と、ストレージ装置(HDD)108と、ドライブ109と、接続ポート111と、通信装置112とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って制御部110内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス104aにより相互に接続されている。
ホストバス104aは、ブリッジ104を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス104bに接続されている。なお、必ずしもホストバス104a、ブリッジ104および外部バス104bを分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置106は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。制御部110のユーザは、該入力装置106を操作することにより、制御部110に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置107は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置107は、スピーカおよびヘッドホンなどの音声出力装置を含む。かかる出力装置107は、情報処理装置100を構成する表示部130とは別個の装置であって、制御部110を操作するための情報を表示するために用いられる。
ストレージ装置108は、制御部110の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置108は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置108は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置108は、ハードディスクを駆動し、CPU101が実行するプログラムや各種データを格納する。
ドライブ109は、記憶媒体用リーダライタであり、制御部110に内蔵、あるいは外付けされる。ドライブ109は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM103に出力する。
接続ポート111は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置113は、例えば、通信網10に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置112は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、本実施形態にかかる制御部110のハードウェア構成について説明した。このような制御部110を用いて、本実施形態にかかる情報処理装置100は、ターゲットの属性や状況に応じてターゲットにコンテンツを提供する。そこで、以下、図3および図4に基づいて、本実施形態にかかる情報処理装置100の機能について説明する。なお、図3は、本実施形態にかかる情報処理装置100を示す機能ブロック図である。図4は、本実施形態にかかる情報処理装置100の機能を概略的に示す説明図である。
[情報処理装置の機能構成]
まず、図3に基づいて、本実施形態にかかる情報処理装置100の機能構成について説明する。本実施形態の情報処理装置100は、図3に示すように、入出力部210、撮像部220、画像処理部230、属性取得部240、コンテンツ決定部250、表示処理部260、再生処理部270、選択判定部280、モード切換部290等の機能部を備える。
入出力部210は、ターゲットの情報を取得したり、ターゲットに対して情報を提供したりする機能部である。入出力部210は、位置検出部212と、表示部214と、音声出力部216とを備えることができる。位置検出部212は、図1の操作部140に対応しており、操作部140とターゲットとの間の距離(z)や、操作部140における操作部の位置(x、y)をターゲットの位置情報として検出する。位置検出部212は、検出した位置情報を、属性取得部240、グループ判定部242、選択判定部280およびモード切換部290へ出力する。表示部214は、図1の表示部130に対応しており、制御部110の機能である表示処理部260により生成された画像を表示する。音声出力部216は、例えばスピーカ等の出力装置であって、制御部110の機能である再生処理部270により再生された音楽等を出力する。
撮像部220は、画像を取得する機能部であり、図1の撮像部120に対応する。撮像部220は、上述したように、レンズなどの光学部材と、撮像センサとからなる。撮像部220は、光学部材によって入射した被写体の光像を撮像センサにより光電変換し、撮像信号を生成する。撮像部220は、生成した撮像信号を画像処理部230へ出力する。
画像処理部230は、撮像部220から入力された撮像信号を処理する機能部である。画像処理部230は、次処理を行うのに適した状態となるように撮像信号を処理した後、撮像信号を表示処理部260および顔検出部232へ出力する。
顔検出部232は、撮像信号で表わされる画像から、顔を検出する機能部である。顔検出部232は、撮像部220により撮像した画像から人物を検出するため、顔の検出を行う。顔の検出処理は、従来の手法を用いて行うことができる。顔検出部232は、画像中から人物の顔を検出すると、顔追跡部234および表示処理部260へ検出された顔の情報(顔情報)を出力する。
顔追跡部234は、画像から検出された人物の顔情報に基づいて、当該顔に対して追跡処理を行う機能部である。顔追跡部234は、追跡した顔についての顔情報を属性取得部240へ出力する。
属性取得部240は、画像から検出された人物の属性を取得する機能部である。属性取得部240は、人物の属性として、例えば性別や年齢、人種等の情報を取得する。属性取得部240は、さらに、笑顔等の人物の顔の表情や、眼鏡をかけている等の付属情報を取得することもできる。属性判定部240は、取得した属性情報をグループ判定部242およびコンテンツ決定部250へ出力する。
グループ判定部242は、画像から検出された人物をグループ化する処理を行う機能部である。グループ判定部242は、人物の属性情報から、所定のグループに人物を分類する。グループ分類としては、例えばカップル、家族、友達等がある。グループ判定部242は、画像中の人物の属するグループを判定し、判定結果をグループ情報としてコンテンツ決定部250へ出力する。
コンテンツ決定部250は、ターゲットに提供するコンテンツを決定する機能部である。コンテンツ決定部250は、ターゲットとなる人物を決定し、その人物の属性情報およびグループ情報に基づいて当該ターゲットに提供するコンテンツを決定する。コンテンツを決定する処理の詳細については、後述する。コンテンツ決定部250は、提供するコンテンツを決定すると、コンテンツ取得部252に対してコンテンツを取得する指示を出力する。
コンテンツ取得部252は、コンテンツ情報をコンテンツ記憶部254から取得する機能部である。コンテンツ取得部252は、コンテンツ決定部250および選択判定部280からのコンテンツ取得指示に基づいて、該当するコンテンツおよびコンテンツに関する情報をコンテンツ記憶部254から取得する。コンテンツ取得部252は、取得した情報を表示処理部260および再生処理部270へ出力する。
コンテンツ記憶部254は、情報処理装置100により提供可能なコンテンツを記憶する記憶部である。コンテンツ記憶部254は、例えば、音楽情報、映画やドラマなどの映像情報、本や雑誌などの書籍情報など、様々なコンテンツを記憶する。コンテンツ記憶部254は、インタフェース部(図示せず。)を介してネットワークにより外部のコンテンツ提供サーバと接続することも可能であり、記憶されたコンテンツを更新することもできる。
表示処理部260は、表示部214に表示する画像を生成する機能部である。表示処理部260は、画像処理部230、顔検出部232およびコンテンツ取得部252から入力された情報に基づいて、表示させる画像を生成する。表示処理部260は、生成した画像を表示部214へ出力する。
再生処理部270は、音声出力部216から出力させる音声を生成する機能部である。再生処理部270は、コンテンツ取得部252から入力されたコンテンツの音声を再生するよう処理し、音声出力部216へ出力する。
選択判定部280は、ターゲットが選択したコンテンツを判定する処理部である。選択判定部280は、位置検出部212により取得したターゲットの位置情報に基づいて、表示部214に表示されたコンテンツからターゲットが選択したコンテンツを判定する。そして、選択判定部280は、判定結果をコンテンツ取得部252へ出力する。
モード切換部290は、情報処理装置100における処理モードの切り換えを行う機能部である。モード切換部290は、所定の条件に基づいて、情報処理装置100における処理モードの切り換えを制御する。本実施形態では、モード切換部290は、位置検出部212から入力された位置情報や、再生処理部270から入力されるコンテンツの再生情報、タイマー部292による処理時間等に基づいて、処理モードの切り換えを判定する。そして、モード切換部290は、判定結果に応じて、表示処理部260や再生処理部270へ指示を行う。
タイマー部292は、時間をカウントすることの可能な機能部である。本実施形態のタイマー部292は、モード切換部290が処理モードの切り換えを判定するための情報として時間をカウントする。例えば、タイマー部292は、所定の機能部における所定の処理が開始されてから経過した時間をカウントして、モード切換部290へ出力する。
<2.情報処理装置によるコンテンツ提供処理>
[コンテンツ提供機能の基本構成]
以上、本実施形態にかかる情報処理装置100の機能構成について説明した。このような本実施形態にかかる情報処理装置100は、図4に示すように、ターゲットを検出して提供するコンテンツを探索する操作モード302と、コンテンツを提供するポスターモード304との2つの処理モードを有する。操作モード302は、撮像部220により撮像された画像中からコンテンツを提供するターゲットを検出し、ターゲットの位置情報からコンテンツの提示状態を変化させながらコンテンツを提供するモードである。一方、ポスターモード304は、ターゲットの選択したコンテンツを提供するモードである。
情報処理装置100は、操作モード302を基本モードとして実行し、操作モード302においてターゲットによりコンテンツ(アイテム)が選択されると、操作モード302からポスターモード304に切り換える。情報処理装置100は、ポスターモード304を実行するとポスターモード304を終了するか否かを判定し、終了条件を具備したと判定すると操作モード302に戻る。ポスターモード304の終了条件としては、例えばターゲットが操作部140に接触したか否か、ポスターモード304に切り換わってから所定の時間が経過したか否か、再生したコンテンツが終了したか否か、等を設定することができる。終了条件を満たさない間は、情報処理装置100はポスターモード304を実行し続ける。
以下、図5A〜図8Hに基づいて、本実施形態にかかる情報処理装置100によるコンテンツ提供機能の一例について詳細に説明する。なお、図5A〜図5Dは、本実施形態にかかるコンテンツ提供機能の処理を示すフローチャートである。図6は、表示部130に表示される画像の画面構成を示す説明図である。図7は、グループ属性判定処理を示すフローチャートである。図8A〜図8Hは、本実施形態にかかるコンテンツ提供機能の一処理例を示す説明図である。図8A〜図8Hにおいて、上図は表示部130とターゲットとの距離関係を示す側面から見た状態を示し、下図は表示部130に表示される画像を示す。また、以下では、「コンテンツ」を「アイテム」として説明する。
[コンテンツ提供機能の一処理例]
本実施形態にかかる情報処理装置100は、上述したように、まず、操作モード302を起動させる(ステップS100)。操作モード302では、撮像部120(220)により撮像された現在の画像が表示部130(214)に表示されている。
ここで、表示部130に表示される画像は、図6に示す4つのレイヤーから構成されている。すなわち、背景レイヤー132、カメラレイヤー134、人物レイヤー136およびアイテムレイヤー138の4つのレイヤーである。背景レイヤー132には、現在選択中のアイテムに関する情報が表示される。カメラレイヤー134には、撮像部120により撮像された現在の画像が表示される。本実施形態では、撮像部120による撮像画像を左右反転させたのち、さらに透過処理した画像をカメラレイヤー134に表示させる。人物レイヤー136には、撮像部120により撮像した画像から検出した人物が表示される。そして、アイテムレイヤーには、コンテンツなどのターゲットに提供するアイテムの情報が表示される。
操作モード302が起動された状態では、表示部130には、撮像部120により撮像された現在の画像が表示される背景レイヤー132の画像のみが表れていることになる。このように、撮像部120の画像を表示部130に表示させることで、ターゲットの興味を引くことができ、表示部130がターゲットを認識していることを伝達する効果が生ずる。
次いで、顔検出部232は、撮像部120により撮像した画像から人物の顔の検出を行う(ステップS102)。顔検出部232が画像から人物の顔を検出するまでは、当該処理を繰り返す。このとき、例えば図8Aの下図に示すように、撮像部120により撮像された現在の画像が左右反転処理および透過処理された後、表示部130に表示されている。なお、かかる表示状態は、操作モード302の起動時の表示状態と同一である。このとき、人物の顔が検出されない状態であることから、図8Aの上図に示すように、ターゲットは、位置検出部212によりターゲットを検出可能な範囲には存在していないことが多いと考えられる。
そして、ステップS102にて顔検出部232が画像から人物の顔を検出すると、認識した人物の属性情報を検出する(ステップS104)。このとき、顔認識部232により検出された顔に対して顔追跡部234による追跡処理が行われる。顔追跡部234により検出した顔を追跡して、顔情報を所定のタイミングで取得することにより、平均的な顔情報を取得することができる。これにより、見え方などによって一時的に検出された顔情報を用いて誤った処理を行うことを防止することができる。そして、ステップS104では、属性取得部240により、検出した人物の顔情報として性別、年齢、人種等の情報を取得する。本実施形態では、例えば、人物の顔情報から、大人男性、大人女性、子供の3つの人物属性情報を取得する。なお、人物属性情報は、用途や顔情報の種類に応じてさらに細かな年齢区分や人種の違い等を表現することもできる。
さらに、ステップS104で取得した人物属性情報に基づいて、認識した人物の顔枠を表示する(ステップS106)。ステップS106では、撮像画像から認識した人物の顔画像を切り出し、背景レイヤー132に表示された対応する人物の上部付近に表示させる。切り出した顔画像は、例えば検出した顔の周囲の約1.6倍の範囲を円形に切り出したものであり、当該顔画像の周囲には二重の顔枠が表示される。顔枠のうち、内側の枠は人物属性情報に基づく色で表示される。例えば、大人男性であれば黒色、大人女性であれば白色、子供であれば黄色で表わされる。一方、顔枠のうち、外側の枠は人物の属するグループに基づく色で表示される。グループ属性の詳細については後述する。なお、切り出した顔画像の大きさや形状は、かかる例に限定されず、画面の大きさや形状、人物属性情報などに応じて適宜変更可能である。
例えば、図8Bの上図に示すように、大人男性Mと大人女性Fとが表示部130に接近してきたとする。このとき、撮像部120により撮像された画像から二人の人物の顔が検出されると、図8Bの下図に示すように、大人男性Mと大人女性Fの顔画像310a、310bが切り出されて、それぞれの頭部付近に表示される。そして、大人男性Mの顔画像310aの内側の枠312aは、例えば黒色で表示され、大人女性Fの顔画像310bの内側の枠312bは白色で表示される。なお、人物のグループ属性はまだ判定されていないため、外側の顔枠は表示されない。この顔画像310a、310bは、人物レイヤー134に表示される。
また、顔画像の下側には、後述するアイテム群が表示される。このため、顔画像は、画面の上側3分の1程度の範囲に表示されるようにする。なお、アイテム群の表示位置は、顔画像の上側に限定されず、例えば、顔画像の下側や顔画像の周囲に表示することも可能である。この際、ターゲットがアイテムを選択する操作を行いやすい位置にアイテム群を表示させるのがよい。さらに、顔画像が大きすぎたり小さすぎたりしたいように、顔画像のサイズに対して最大サイズおよび最小サイズを設定するようにしてもよい。顔画像のサイズは、距離に応じてターゲットが視認しやすいように大きさを適宜変化させるようにしてもよい。
その後、ターゲットと表示部130との間の距離が第1の距離以下になったか否かを判定する(ステップS108)。すなわち、ステップS108では、ターゲットが表示部130へ近づいてきたか否かを検出する。ターゲットと表示部130との間の距離は、撮像部120により撮像された画像の解析結果を用いたり、位置検出部212により検出したりすることができる。本実施形態では、位置検出部212によってはその距離を検出できない状態においては、簡易的に処理するために、顔検出により検出された顔の大きさから当該距離を近似して算出された値を利用している。このとき、顔の大きさについて、ターゲットの年齢にかかわらず同一の閾値を利用して距離を判定してもよいが、年齢による顔の大きさを考慮することで、距離算出の精度を向上させることもできる。また、より正確な距離を取得するためには、複数の撮像部を設けてターゲットとの距離を測定すればよい。
ターゲットと表示部130との間の距離が第1の距離以下となるまでは、表示部130には図8Bに示した状態の画像が表示される。一方、ターゲットと表示部130との間の距離が第1の距離以下となると、アイテム群が表示部130に表示される(ステップS110)。ターゲットが表示部130に接近したことから、よりターゲットの興味を引くために、ターゲットの人物属性情報に応じたアイテム群を表示する。アイテム群は、それぞれの人物やグループにお勧めする複数のアイテムの画像からなる。例えば、アイテムを音楽とする。このとき、図8Cに示すように、大人男性Mと大人女性Fの顔画像310a、310bの下側にアイテム群320a、320bが表示される。アイテム群320aは、大人男性Mにお勧めする音楽のCDジャケットから構成され、アイテム群320bは、大人女性Fにお勧めする音楽のCDジャケットから構成される。
ここで、アイテム群320a、320bを構成するアイテムは、対応する顔画像310a、320bの位置に応じて揺動するよう表示させてもよい。また、アイテムを所定の範囲内で能動的に動くように表示することで、アイテムの浮遊感を表現することもできる。このようなアイテム群の表示方法により、ターゲットの興味をより引くことができる。さらに、1つのアイテム群の周囲に、顔画像310a、310bと同様に枠を表示させるようにしてもよい。このとき、枠を顔枠と同一色とすることにより、表示されたアイテムをお勧めするターゲットをわかりやすくすることができる。
次いで、図5Bに示すように、ターゲットと表示部130との間の距離が第2の距離以下になったか否かを判定する(ステップS112)。第2の距離は、第1の距離よりも小さく、ターゲットが表示部130に接触するにはさらに表示部130に接近する必要はあるものの、表示部130に表示された情報を認識可能な程度の距離とすることができる。ターゲットと表示部130との間の距離が第2の距離以下となるまでは、表示部130には図8Cに示した状態の画像が表示される。
一方、ターゲットと表示部130との間の距離が第2の距離以下となると、グループ判定部242によりグループ属性判定処理が実行される(ステップS114)。グループ属性判定処理は、例えば、図7に示す方法により行うことができる。
[グループ属性判定処理]
図7に示すグループ属性判定処理では、カップル、家族、その他の3つのグループおよび中間状態としてのカップル判定中グループのいずれかにターゲットを分類する。かかるグループ属性判定処理では、まず、大人男女一人ずつが顔検出されており、かつ子供が存在しないか否かを判定する(ステップS210)。ステップS210にて、大人男女一人ずつが顔検出されており、かつ子供が存在しないと判定された場合、男女間の距離を判定する(ステップS220)。そして、男女間の距離が所定の距離以下である場合には、「カップル」であると判定する(ステップS230)。一方、男女間の距離が所定の距離より大きい場合には、「カップル判定中」と判定する(ステップS240)。
ここで、「カップル」状態と「カップル判定中」状態とは、男女間の距離に応じて随時遷移することが可能である。すなわち、「カップル判定中」の状態から男女間の距離が十分に近づくと「カップル」と判定される。逆に、「カップル」の状態から男女間の距離が離れた場合には「カップル判定中」の状態となる。なお、ステップS220の判定処理は、男女間の距離だけではなく、顔情報から取得可能な人物の笑顔度合に基づいて判定してもよい。例えば、男女間の距離が所定の距離以下であって、男女の笑顔度合がともに所定の値以上であるとき、「カップル」と判定してもよい。
図7のフローに戻り、ステップS210にて、大人男女一人ずつが顔検出されており、かつ子供が存在しない状態ではないと判定された場合、大人男女一人以上が顔検出されており、かつ子供が存在するか否かを判定する(ステップS250)。ステップS250では、子供と大人を含むグループであるか否かを判定している。ステップS250で大人男女一人以上が顔検出されており、かつ子供が存在すると判定した場合には、グループ判定部242は、「家族」であると判定する(ステップS260)。一方、ステップS250で大人男女一人以上が顔検出されており、かつ子供が存在する状態ではないと判定した場合、グループ判定部242は「その他のグループ」であると判定する(ステップS270)。その他のグループとしては、例えば、友達グループなどがある。
図5Bに戻り、ステップS114にてグループ属性が判定されると、そのグループ属性に応じたアイテム群が表示されるようになる(ステップS116)。例えば、ステップS114で「カップル」と判定されると、カップルにお勧めのアイテムからなるアイテム群が表示され、「家族」と判定されると、家族にお勧めのアイテムからなるアイテム群が表示される。ここで、表示部130に表示されるアイテム群は、人物属性情報に基づくアイテム群よりもグループ属性に基づくアイテム群を優先して表示させることができる。
例えば、大人男女が一人ずつ顔検出されており、かつ子供が存在しない状態では「カップル」状態と判定され、図8Dの下図に示すように、カップルにお勧めのアイテムからなるアイテム群320cが表示されるようになる。このとき、同一グループに分類された人物の顔画像を包囲するグループ枠330を表示させるようにしてもよい。このグループ枠330は、上述した顔枠のうち外側の枠に相当する。顔枠と同様に、グループ属性に応じてグループ枠330の色を変更することにより、ターゲットの属するグループをわかりやすくすることができる。
また、大人男女一人ずつの顔が検出されていた場合、「カップル」状態においてはグループ枠330により男女の顔枠310a、310bを包囲する。これに対し、「カップル判定中」状態では、男女の顔枠310a、310bの外側の枠が互いに引き寄せらせるような形状で表示するようにしてもよい。そして、男女が近づき、「カップル判定中」の状態から「カップル」状態と判定されたときに、男女の顔枠310a、310bの外側の枠がくっつくような形状で表示してもよい。
その後、ターゲットと表示部130との間の距離が第3の距離以下になったか否かを判定する(ステップS118)。ここで、第3の距離は、ターゲットが表示部130に接触可能な程度の距離とする。ターゲットと表示部130との間の距離が第3の距離以下となるまでは、表示部130には図8Dに示した状態の画像が表示される。一方、ターゲットと表示部130との間の距離が第3の距離以下となると、アイテム群の動作が停止する(ステップS120)。アイテム群を構成するアイテムは、上述したように顔画像に合わせて絶えず動いているが、ターゲットが操作しようとすると、操作しやすいようにアイテムの動きを停止させる。また、アイテムが動いている状態では、図8Cに示すようにアイテムが重なって表示されていたが、アイテムの動きが停止された操作状態となると、図8Eに示すように、アイテムの重なりが少なくなるように表示させるようにしてもよい。このような表示により、アイテムの表示内容が明確になるため、ターゲットがアイテムを選択しやすくなる。
このとき、最もターゲットが接近しているアイテムの表示を拡大し、アイテムについての説明文を表示させるようにしてもよい(ステップS122)。これにより、ターゲットがアイテムをより選択しやすくなる。
例えば、図8Eの上図に示すように、大人男性Mが表示部130に指を近づけたとする。このとき、表示処理部260は、アイテムの動きを停止させる。そして、位置検出部212は、大人男性Mの指の位置を検出し、その指の位置340に対応するアイテム322cを拡大して表示する。そして、アイテム322cの説明文として、再生処理部270により当該アイテム322cに対応する曲のサビ部分を再生するようにしてもよい。このように、アイテムに関する情報をターゲットに提供することで、アイテムの選択を容易にすることができる。
次いで、ターゲットが表示部130に接触したか否かを判定する(ステップS124)。ここで、ターゲットが実際に接触するのは表示部130の前面に設けられた操作部140であるが、以下では操作部140への接触を検出したときに表示部130に接触したものとして説明する。ステップS124においてターゲットが表示部130に接触していないと判定された場合には、当該処理を繰り返す。一方、ターゲットが表示部130に接触したと判定した場合には、背景レイヤー132の表示を変更し、ターゲットが接触したアイテムの詳細情報を表示する(ステップS126)。
例えば、図8Fの上図に示すように、大人男性Mが表示部130に指を接触させたとする。このとき、表示処理部260は、大人男性Mが接触した位置340に対応するアイテム324cの拡大画像350をアイテムレイヤー138に表示するとともに、当該アイテム324cの説明文を説明エリア352に表示させる。こうして、アイテムに関するより詳細な情報をターゲットに提供することができる。
さらに、ターゲットが表示部130との接触を解除したか否かを判定する(ステップS128)。ステップS124の動作と一連の動作としてみると、ステップS128ではターゲットが表示部130に表示されたアイテムをクリックしたか否かを判定している。ステップS128においてターゲットが表示部130に接触した状態が継続していると判定された場合には、当該処理を繰り返す。一方、ステップS128でターゲットが表示部130との接触を解除したと判定されると、モード切換部290は、操作モード302からポスターモード304へ処理モードを切り換える(ステップS130)。
ステップS130では、ターゲットが表示部130に接触して、その接触状態を解除することにより、1つのアイテムが選択されたと判定する。すなわち、ターゲットの動作により操作モード302からポスターモード304の切り換えが行われる。処理モードが操作モード302からポスターモード304に切り換わると、表示処理部260は、背景レイヤー132の画像を非表示にする。そして、再生処理部270は、選択されたアイテムの曲を最初から再生する(ステップS132)。
したがって、操作モード302からポスターモード304へ切り換わると、例えば図8Gの下図に示すように、撮像部120により撮像された現在の画像が表示されなくなる。そして、表示部130には、人物レイヤー135の顔画像310a、310bと、アイテムレイヤー138のアイテムの拡大画像350および説明エリア352とが表示される。このとき、選択されたアイテムの曲が最初から再生される。
その後、ポスターモード304の終了条件を満たすか否かを判定する(ステップS134)。ポスターモード304の終了条件は、例えば、ターゲットによる表示部130への接触があったり、アイテムの曲の再生が終了したり、ポスターモード304に遷移後所定の時間が経過したりすること等と設定することができる。終了条件は、1つのみ設定してもよく、複数設定してもよい。複数設定した場合には、例えばいずれか1つの終了条件を満たしたときにポスターモード304を終了するようにしてもよい。ポスターモード304の終了条件を満たすまでは、当該処理を繰り返す。そして、ステップS134にてポスターモード304の終了条件を満たしたと判定した場合には、ポスターモード304から操作モード302へ遷移する(ステップS136)。
ステップS136にて操作モード302に遷移すると、表示部130とターゲットとの間の距離に応じて、続けて行う処理を決定することができる。すなわち、表示部130とターゲットとの間の距離が第2の距離以下であれば、ステップS114に戻り、処理を行う(ステップS138)。また、表示部130とターゲットとの間の距離が第1の距離以下であれば、ステップS110に戻り、処理を行う(ステップS140)。そして、ステップS140にて表示部130とターゲットとの間の距離が第1の距離より大きいと判定された場合には、ステップS102に戻り、新たに人物の顔を検出するまで背景レイヤー132の画像のみ表示させる。例えば、図8Hに示すように、ターゲットが表示部130から離れた状態では、図8Aに示した状態と同じ処理状態となり、撮像部120により撮像された現在の画像のみが表示部130に表示される。
[本実施形態にかかるコンテンツ提供処理による効果]
以上、本実施形態にかかるコンテンツ提供処理の一例について説明した。本実施形態にかかるコンテンツ提供処理は、撮像部120により取得したターゲットの顔情報からターゲットをさらにグループ化する。また、位置検出部212により表示部130とターゲットとの位置関係を取得する。そして、ターゲットの属性情報、グループ情報および位置情報に基づいて、ターゲットに提示するコンテンツを状況に応じてタイミングよく提供する。
すなわち、ターゲットの顔情報からターゲットをグループ化することでターゲットの属性をより理解することができ、各ターゲットに適したコンテンツを提供することが可能となる。また、表示部130とターゲットとの位置関係においては、表示部130から十分に離れた第1の状態、操作部140を操作可能な程度に表示部130に接近した第3の状態、そして、その間である第2の状態の3つの状態を認識し、コンテンツの表示形式を変化させている。なお、コンテンツの表示形式には、提供するコンテンツの内容や、提供するコンテンツ情報の量、これらの情報の表示の仕方などを含む。
表示部130とターゲットとの間の距離が第1の距離より大きい第1の状態では、表示部130には撮像部120による撮像画像のみ、あるいは顔検出された場合には顔画像が表示される。表示部130とターゲットとの間の距離が第1の距離以下となると、表示部130にターゲットの人物属性に応じたアイテム群が表示される。そして、表示部130とターゲットとの間の距離が第2の距離以下となると、グループ属性判定処理が行われ、グループ属性に応じたアイテム群が表示部130に表示される。表示部130とターゲットとの間の距離が第1の距離以下であり、かつ第3の距離より大きいとき、第2の状態となり、コンテンツを表示する状態となる。さらに、表示部130とターゲットとの間の距離が第3の距離以下となると第3の状態となり、揺動するように表示されていたアイテムの動きが停止し、ターゲットがアイテム選択しやすい表示状態に切り換わる。
つまり、表示部130とターゲットとの位置関係に応じて、撮像部120により撮像された背景画像やターゲットの顔画像を表示する第1の状態、ターゲットに提供するアイテム群を表示する第2の状態、ターゲットがアイテムを選択する第3の状態を提供する。このように、ターゲットと表示部130との距離やターゲット間の距離、顔の表情などに応じてインタラクティブにコンテンツを変化させることで、ターゲットの興味を引くことができる。
また、このようなコンテンツの提供方法により、情報処理装置100がターゲットを理解しているということをターゲットに対して伝達することができる。さらに、撮像部120を用いてターゲットを撮像することによっても、サイネージに対して注目を集める効果が期待できる。このように、ターゲットに対して効果的にコンテンツを提供することができる。
[スマイルレベルによるアイテム表示]
上述した本実施形態にかかるコンテンツ提供処理の一例では、アイテム群は、図8Cや図8Dに示すように、ターゲットと表示部130との距離に応じて表示されたり非表示とされたりしていた。このアイテム群を表示する際に、他の情報をさらに考慮してアイテム群を構成するアイテムの数を変化させるようにすることもできる。
例えば、図9に示すように、ターゲットの笑顔度合(スマイルレベル)を利用することができる。アイテム群320は、複数のアイテム322、324、・・・から構成される。なお、アイテム群320の表示位置は、上述した例と同様、ターゲットの顔画像の下側としてもよく、図9のように顔画像の上側としてもよい。撮像部120によりターゲットの顔が検出されると、属性取得部240によりターゲットの笑顔度合が属性情報として取得される。そして、コンテンツ決定部250は、取得された笑顔度合を示す値に応じて、アイテム群320を構成するアイテム322、324、・・・の数を変化させる。
例えば、笑顔度合を示す値が小さい場合には、アイテム群320を構成するアイテム322、324、・・・の数を少なくし、笑顔度合を示す値が大きくなるにつれてアイテム群320を構成するアイテム322、324、・・・の数を多くする。このように、笑顔度合に応じて表示するアイテム322、324、・・・の数を変化させることにより、ターゲットのコンテンツあるいは当該装置に対する興味をより引くことができる。
[コンテンツ提供処理の拡張]
本実施形態にかかる情報処理装置100によるコンテンツ提供処理は、アイテムとして音楽を用いたが、かかる例に限定されず、他のアイテムの提供にも用いることができる。例えば、ファッションアイテムや書籍等のほか、飲食店やアミューズメントスポットなど、個人やグループに推薦したいアイテムに適用することができる。また、上記例では顔検出部232から取得可能な顔情報に基づいてお勧めするアイテムを決定しているが、当該処理はかかる例に限定されない。例えば、ターゲットの服装について、色ヒストグラムの分布などを用いて服装の傾向を取得し、その傾向に基づいてお勧めするアイテムを決定するようにしてもよい。また、顔情報として取得可能な人種情報から、外国人には洋楽を優先的にお勧めすることも可能である。
さらに、本実施形態にかかる情報処理装置100は、撮像部120により撮像した画像からターゲットの属性情報やグループ属性情報を判定することができるとともに、ターゲットが選択したコンテンツを操作部140から認識することができる。そこで、どのような属性の人がどのようなコンテンツを視聴したかという操作記録を蓄積し、ターゲットに推薦するコンテンツに反映させることができる。また、操作記録をネットワーク経由でサーバに送信することで、コンテンツに対する属性毎、あるいはグループ毎の嗜好情報を収集することも可能である。そしてかかる情報は、現実に設置された撮像部120や表示部130から取得されるものであるから、時間帯や曜日、地域ごとに分析することにも意義がある。さらに、撮像部120により撮像された画像から顔を認識することが可能である場合には、実際に表示部130に近づかなかった人の傾向、すなわち、興味を示さなかった人の傾向等を分析することも可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、グループ枠は同一グループに属するターゲットの顔枠を包囲するように表示させたが、本発明はかかる例に限定されない。例えば、同一グループに属するターゲットの顔枠を線などで連結して表示してもよい。これにより、同一グループに属するターゲットをわかりやすく表示することができる。
また、上記実施形態では、ステップS126においてターゲットが表示部130に接触したときに背景画面を変更し、ステップS128においてその接触状態を解除したときに音楽を最初から再生したが、本発明はかかる例に限定されない。例えば、ターゲットが表示部130に手をかざした時点で再生する曲や背景画面を変更してもよい。
100 情報処理装置
110 制御部
120、220 撮像部
130、214 表示部
140 操作部
210 入出力部
212 位置検出部
216 音声出力部
230 画像処理部
232 顔検出部
234 顔追跡部
240 属性取得部
242 グループ判定部
250 コンテンツ決定部
252 コンテンツ取得部
254 コンテンツ記憶部
260 表示処理部
270 再生処理部
280 選択判定部
290 モード切換部
292 タイマー部
310a、310b 顔画像
312a、312b 顔枠
320、320a、320b、320c アイテム群
322、324、322c、324c アイテム
330 グループ枠
340 選択位置
350 拡大画像
352 説明エリア

Claims (13)

  1. 画像を撮像する撮像部と、
    画像を表示する表示部と、
    前記表示部に対するターゲットの位置を検出する位置検出部と、
    前記撮像部により撮像された画像から顔を検出する顔検出部と、
    前記顔検出部により検出された検出結果に基づいて、ターゲットの属性情報を取得する属性取得部と、
    前記顔検出部により検出されたターゲットの少なくとも前記属性情報に基づいて、ターゲットの属するグループを判定するグループ判定部と、
    前記ターゲットの属性情報またはターゲットの属するグループを示すグループ情報のうち少なくともいずれか1つの情報に基づいて、ターゲットに提供する1または2以上のコンテンツを決定するコンテンツ決定部と、
    ターゲットに提供する前記コンテンツに関するコンテンツ情報を前記ターゲットの位置に応じた表示形式で前記表示部に表示する表示処理部と、
    を備える、情報処理装置。
  2. 前記表示処理部は、ターゲットと前記表示部との距離が第1の距離以下となったとき、顔認識されているターゲットの前記属性情報に基づいて、複数の前記コンテンツ情報からなるアイテム群を前記表示部に表示する、請求項1に記載の情報処理装置。
  3. 前記グループ判定部は、ターゲットと前記表示部との距離が第1の距離より小さい第2の距離以下となったとき、顔認識されているターゲットのグループを判定し、
    前記コンテンツ決定部は、前記グループ情報に基づいてターゲットに提供するコンテンツを決定する、請求項2に記載の情報処理装置。
  4. 前記表示処理部は、ターゲットと前記表示部との距離が第2の距離より小さい第3の距離以下となったとき、前記コンテンツ情報をターゲットが操作する操作状態で前記表示部に表示する、請求項3に記載の情報処理装置。
  5. 前記表示処理部は、
    ターゲットと前記表示部との距離が前記第1の距離以下かつ前記第3の距離より大きいとき、前記コンテンツ情報が動くように前記表示部に表示し、
    ターゲットと前記表示部との距離が前記第3の距離以下となったとき、前記コンテンツ情報の動きを停止して表示する、請求項4に記載の情報処理装置。
  6. 前記表示処理部は、前記顔検出部により検出された顔を切り出し、切り出された顔画像を前記表示部に表示する、請求項1〜5のいずれかに記載の情報処理装置。
  7. 前記表示処理部は、前記顔画像の周囲に顔枠を表示し、前記顔枠にターゲットの前記属性情報または前記グループ情報のうち少なくともいずれか一方の情報を示す、請求項6に記載の情報処理装置。
  8. 前記表示処理部は、予め設定された前記顔画像の最大サイズおよび最小サイズの範囲内で、前記切り出した顔画像を拡大して表示する、請求項6または7に記載の情報処理装置。
  9. 前記表示処理部は、前記顔画像を前記表示部の上側に表示し、前記コンテンツ情報を前記表示部の下側に表示する、請求項6〜8のいずれかに記載の情報処理装置。
  10. 前記グループ判定部は、前記顔検出部により検出されたターゲットの属性情報から取得される前記ターゲットの性別および年齢区分と、前記検出されたターゲットの数とに基づいて、前記ターゲットの属するグループを判定する、請求項1〜9のいずれかに記載の情報処理装置。
  11. 前記グループ判定部は、さらに前記位置検出部により検出されたターゲット間の距離に基づいて、ターゲットの属するグループを判定する、請求項10に記載の情報処理装置。
  12. 1または2以上の前記コンテンツ情報を提示する第1のモードと、前記提示されたコンテンツ情報から選択された1のコンテンツ情報に対応するコンテンツを提供する第2のモードと切り換えるモード切換部をさらに備え、
    前記モード切換部は、
    前記位置検出部により検出されたターゲットの位置情報から前記ターゲットの動作を判定して、前記第1のモードから前記第2のモードへ切り換え、
    あらかじめ設定された第2のモードの終了条件に基づいて、前記第2のモードから前記第1のモードへ切り換える、請求項1〜11のいずれかに記載の情報処理装置。
  13. 画像を撮像するステップと、
    表示部に画像を表示するステップと、
    前記表示部に対するターゲットの位置を位置検出部により検出するステップと、
    前記撮像された画像から顔を検出するステップと、
    前記検出された顔の情報に基づいて、ターゲットの属性情報を取得するステップと、
    顔が検出されたターゲットの少なくとも前記属性情報に基づいて、ターゲットの属するグループを判定するステップと、
    前記ターゲットの属性情報またはターゲットの属するグループを示すグループ情報のうち少なくともいずれか1つの情報に基づいて、ターゲットに提供するコンテンツを決定するステップと、
    ターゲットに提供する前記コンテンツに関するコンテンツ情報を前記ターゲットの位置に応じた表示形式で前記表示部に表示するステップと、
    を含む、情報処理方法。

JP2009032027A 2009-02-13 2009-02-13 情報処理装置および情報処理方法 Expired - Fee Related JP5347549B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009032027A JP5347549B2 (ja) 2009-02-13 2009-02-13 情報処理装置および情報処理方法
EP09252904.9A EP2219134A3 (en) 2009-02-13 2009-12-24 Information processing apparatus and information processing method
US12/698,884 US8659649B2 (en) 2009-02-13 2010-02-02 Information processing apparatus and information processing method
CN2010101122385A CN101807370B (zh) 2009-02-13 2010-02-08 信息处理装置和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009032027A JP5347549B2 (ja) 2009-02-13 2009-02-13 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2010191487A true JP2010191487A (ja) 2010-09-02
JP5347549B2 JP5347549B2 (ja) 2013-11-20

Family

ID=42164204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009032027A Expired - Fee Related JP5347549B2 (ja) 2009-02-13 2009-02-13 情報処理装置および情報処理方法

Country Status (4)

Country Link
US (1) US8659649B2 (ja)
EP (1) EP2219134A3 (ja)
JP (1) JP5347549B2 (ja)
CN (1) CN101807370B (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215369A (ja) * 2010-03-31 2011-10-27 Fujitsu Ltd 広告装置、広告方法および広告出力プログラム
JP2012103746A (ja) * 2010-11-05 2012-05-31 Avix Inc 見る人の関心を惹きつける表示制御の方法、デジタルサイネージシステム、コンピュータープログラム
JP2013003650A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及びプログラム
JP2013246184A (ja) * 2012-05-23 2013-12-09 Sharp Corp 表示装置
JP2014132408A (ja) * 2013-01-07 2014-07-17 Toshiba Tec Corp 電子メニュー装置及び電子メニュープログラム
JP2015216518A (ja) * 2014-05-12 2015-12-03 富士通株式会社 情報処理方法、プログラム及び情報処理装置
JP6021089B2 (ja) * 2014-03-25 2016-11-02 パナソニックIpマネジメント株式会社 情報表示システム及び情報表示方法
US9710967B2 (en) 2011-08-31 2017-07-18 Nintendo Co., Ltd. Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique
JP2018205100A (ja) * 2017-06-02 2018-12-27 チームラボ株式会社 位置測定用の端末装置,コンピュータプログラム,及びシステム
KR20200093016A (ko) * 2018-02-08 2020-08-04 알리바바 그룹 홀딩 리미티드 활성/비활성 상태 검출 방법 및 장치
JP2020170522A (ja) * 2020-06-10 2020-10-15 パラマウントベッド株式会社 表示制御装置
JP2020197954A (ja) * 2019-06-03 2020-12-10 Jx金属株式会社 対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法
JP2020197953A (ja) * 2019-06-03 2020-12-10 Jx金属株式会社 対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法
US11070622B2 (en) 2015-09-18 2021-07-20 Kabushiki Kaisha Toshiba Street information processing system, client and server applied to street information processing system, and method and program of the same
JP2022510225A (ja) * 2018-11-30 2022-01-26 エシロール・アンテルナシオナル アイウェア器具を選択するためのサーバ、方法、及びコンピュータ可読記憶媒体
JP7229843B2 (ja) 2013-03-06 2023-02-28 ジトー,アーサー ジェイ.ジュニア マルチメディアプレゼンテーションシステム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130155308A1 (en) * 2011-12-20 2013-06-20 Qualcomm Incorporated Method and apparatus to enhance details in an image
US20130195322A1 (en) * 2012-01-27 2013-08-01 Soma Sundaram Santhiveeran Selection of targeted content based on content criteria and a profile of users of a display
US20150020086A1 (en) * 2013-07-11 2015-01-15 Samsung Electronics Co., Ltd. Systems and methods for obtaining user feedback to media content
US20170092150A1 (en) * 2015-09-30 2017-03-30 Sultan Hamadi Aljahdali System and method for intelligently interacting with users by identifying their gender and age details
CN108292418B (zh) * 2015-12-15 2022-04-26 日本时尚造型师协会 信息提供装置及信息提供方法
CN108228122B (zh) * 2016-12-22 2020-12-25 华为技术有限公司 一种表盘呈现的方法、装置和智能手表

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134225A (ja) * 1999-08-26 2001-05-18 Toppan Printing Co Ltd 広告提供装置及び広告提供装置用の記憶媒体、展示具、表示パネル、表示ケース
JP2004227158A (ja) * 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法
JP2006053646A (ja) * 2004-08-10 2006-02-23 Nec Corp 店舗案内情報提供システム,方法,店舗情報提供サーバおよびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6288704B1 (en) * 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
US20020046100A1 (en) * 2000-04-18 2002-04-18 Naoto Kinjo Image display method
US20030032890A1 (en) * 2001-07-12 2003-02-13 Hazlett Richard L. Continuous emotional response analysis with facial EMG
US7113916B1 (en) * 2001-09-07 2006-09-26 Hill Daniel A Method of facial coding monitoring for the purpose of gauging the impact and appeal of commercially-related stimuli
CN100398065C (zh) * 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
EP1566788A3 (en) * 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
JP4506381B2 (ja) 2004-09-27 2010-07-21 沖電気工業株式会社 単独行動者及びグループ行動者検知装置
JP4632250B2 (ja) 2005-09-15 2011-02-16 Kddi株式会社 顔による属性判定娯楽装置
US8218080B2 (en) * 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
JP5087867B2 (ja) * 2006-07-04 2012-12-05 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4888217B2 (ja) 2007-05-08 2012-02-29 オムロン株式会社 人物属性推定装置
JP4966778B2 (ja) 2007-07-26 2012-07-04 シャープ株式会社 表示装置
US8401248B1 (en) * 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134225A (ja) * 1999-08-26 2001-05-18 Toppan Printing Co Ltd 広告提供装置及び広告提供装置用の記憶媒体、展示具、表示パネル、表示ケース
JP2004227158A (ja) * 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法
JP2006053646A (ja) * 2004-08-10 2006-02-23 Nec Corp 店舗案内情報提供システム,方法,店舗情報提供サーバおよびプログラム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215369A (ja) * 2010-03-31 2011-10-27 Fujitsu Ltd 広告装置、広告方法および広告出力プログラム
JP2012103746A (ja) * 2010-11-05 2012-05-31 Avix Inc 見る人の関心を惹きつける表示制御の方法、デジタルサイネージシステム、コンピュータープログラム
JP2013003650A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及びプログラム
US9710967B2 (en) 2011-08-31 2017-07-18 Nintendo Co., Ltd. Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique
JP2013246184A (ja) * 2012-05-23 2013-12-09 Sharp Corp 表示装置
JP2014132408A (ja) * 2013-01-07 2014-07-17 Toshiba Tec Corp 電子メニュー装置及び電子メニュープログラム
JP7229843B2 (ja) 2013-03-06 2023-02-28 ジトー,アーサー ジェイ.ジュニア マルチメディアプレゼンテーションシステム
JP6021089B2 (ja) * 2014-03-25 2016-11-02 パナソニックIpマネジメント株式会社 情報表示システム及び情報表示方法
JP2015216518A (ja) * 2014-05-12 2015-12-03 富士通株式会社 情報処理方法、プログラム及び情報処理装置
US11070622B2 (en) 2015-09-18 2021-07-20 Kabushiki Kaisha Toshiba Street information processing system, client and server applied to street information processing system, and method and program of the same
JP2018205100A (ja) * 2017-06-02 2018-12-27 チームラボ株式会社 位置測定用の端末装置,コンピュータプログラム,及びシステム
KR20200093016A (ko) * 2018-02-08 2020-08-04 알리바바 그룹 홀딩 리미티드 활성/비활성 상태 검출 방법 및 장치
CN111652197A (zh) * 2018-02-08 2020-09-11 阿里巴巴集团控股有限公司 入离场状态检测方法和装置
CN111652197B (zh) * 2018-02-08 2023-04-18 创新先进技术有限公司 入离场状态检测方法和装置
US11102458B2 (en) 2018-02-08 2021-08-24 Advanced New Technologies Co., Ltd. Active/inactive state detection method and apparatus
KR102366681B1 (ko) * 2018-02-08 2022-03-21 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. 활성/비활성 상태 검출 방법 및 장치
JP7520834B2 (ja) 2018-11-30 2024-07-23 エシロール・アンテルナシオナル アイウェア器具を選択するためのサーバ、方法、及びコンピュータ可読記憶媒体
JP2022510225A (ja) * 2018-11-30 2022-01-26 エシロール・アンテルナシオナル アイウェア器具を選択するためのサーバ、方法、及びコンピュータ可読記憶媒体
JP2020197954A (ja) * 2019-06-03 2020-12-10 Jx金属株式会社 対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法
JP2020197953A (ja) * 2019-06-03 2020-12-10 Jx金属株式会社 対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法
JP7328011B2 (ja) 2019-06-03 2023-08-16 Jx金属株式会社 電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法
JP7328012B2 (ja) 2019-06-03 2023-08-16 Jx金属株式会社 電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法
JP7113045B2 (ja) 2020-06-10 2022-08-04 パラマウントベッド株式会社 表示制御装置
JP2020170522A (ja) * 2020-06-10 2020-10-15 パラマウントベッド株式会社 表示制御装置

Also Published As

Publication number Publication date
EP2219134A2 (en) 2010-08-18
JP5347549B2 (ja) 2013-11-20
CN101807370A (zh) 2010-08-18
US8659649B2 (en) 2014-02-25
CN101807370B (zh) 2013-07-10
US20100208051A1 (en) 2010-08-19
EP2219134A3 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
JP5347549B2 (ja) 情報処理装置および情報処理方法
US11650626B2 (en) Systems and methods for extending a keyboard to a surrounding surface using a wearable extended reality appliance
JP5857450B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN102301316B (zh) 用户界面装置以及输入方法
KR101730759B1 (ko) 의도를 통한 증강 현실에서의 가상 객체의 조작
JP6044079B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2012248070A (ja) 情報処理装置、メタデータ設定方法、及びプログラム
CN101833391A (zh) 信息处理设备、信息处理方法及程序
JP2012042507A (ja) 映像表示装置
WO2022170221A1 (en) Extended reality for productivity
JPWO2018235595A1 (ja) 情報提供装置、情報提供方法及びプログラム
JP2011065278A (ja) 電子機器、画像検索方法およびコンテンツ再生プログラム
JP2005107546A (ja) インタラクティブ表示装置
JP2011254232A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

LAPS Cancellation because of no payment of annual fees