JP7389240B2 - コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム - Google Patents

コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム Download PDF

Info

Publication number
JP7389240B2
JP7389240B2 JP2022518132A JP2022518132A JP7389240B2 JP 7389240 B2 JP7389240 B2 JP 7389240B2 JP 2022518132 A JP2022518132 A JP 2022518132A JP 2022518132 A JP2022518132 A JP 2022518132A JP 7389240 B2 JP7389240 B2 JP 7389240B2
Authority
JP
Japan
Prior art keywords
content
person
selection
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022518132A
Other languages
English (en)
Other versions
JPWO2021221126A1 (ja
Inventor
政哉 隅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp NEC Display Solutions Ltd
Original Assignee
Sharp NEC Display Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp NEC Display Solutions Ltd filed Critical Sharp NEC Display Solutions Ltd
Publication of JPWO2021221126A1 publication Critical patent/JPWO2021221126A1/ja
Application granted granted Critical
Publication of JP7389240B2 publication Critical patent/JP7389240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラムに関する。
本願は、2020年4月30日に出願されたPCT/JP2020/018322に基づき優先権を主張し、その内容をここに援用する。
従来、デジタルサイネージ等の表示装置におけるコンテンツの表示を制御するための技術が各種提案されている。
例えば、下記特許文献1には、歩行者の動きに合わせた広告を表示装置に表示させる技術が開示されている。当該技術では、例えば、歩行者の歩行速度と属性に応じた内容の広告が表示装置に表示される。
日本国特開2017-123120号公報
しかしながら、特許文献1の技術では、歩行速度が速い歩行者に対しても広告の表示を行うため、広告が歩行者の目に留まりにくい。例えば、表示装置に対して、歩行速度が速い歩行者の属性に合わせた広告が表示されているとする。歩行速度が速い歩行者は、急いでいるために表示された広告を見ない恐れがある。また、歩行速度が遅い歩行者は、表示された広告が自分の属性に合っていないために表示された広告を見ない恐れがある。
上述の課題を鑑み、本発明の目的は、表示装置に表示するコンテンツを歩行者の目に留まりやすくすることが可能なコンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラムを提供することにある。
上述の課題を解決するために、本発明の一態様に係るコンテンツ選定装置は、人を撮像する撮像装置によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、を有する。
本発明の一態様に係るコンテンツ表示システムは、人を撮像する撮像部と、前記撮像部によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、前記選定されたコンテンツを表示する表示部と、を有する。
本発明の一態様に係るコンテンツ選定方法は、人を撮像する撮像装置によって撮像された画像を取得し、前記画像に含まれる人を検出し、検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する。
本発明の一態様に係るコンテンツ選定プログラムは、コンピュータに、人を撮像する撮像装置によって撮像された画像を取得する画像取得ステップと、前記画像に含まれる人を検出する人検出ステップと、前記人検出ステップによって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定ステップと、を実行させる。
本発明の一態様に係るコンテンツ選定装置は、人を撮像する撮像装置によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、を有する。
本発明の一態様に係るコンテンツ表示システムは、人を撮像する撮像部と、前記撮像部によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、前記選定されたコンテンツを表示する表示部と、を有する。
本発明の一態様に係るコンテンツ選定方法は、人を撮像する撮像装置によって撮像された画像を取得し、前記画像に含まれる人を検出し、検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する。
本発明の一態様に係るコンテンツ選定プログラムは、コンピュータに、人を撮像する撮像装置によって撮像された画像を取得する画像取得ステップと、前記画像に含まれる人を検出する人検出ステップと、前記人検出ステップによって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定ステップと、を実行させる。
本発明によれば、表示装置に表示するコンテンツを歩行者の目に留まりやすくすることができる。
各実施形態に係るコンテンツ表示システムの構成の一例を示す図である。 第1の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。 第1の実施形態に係るコンテンツ管理装置の機能構成の一例を示すブロック図である。 第1の実施形態に係るコンテンツ表示システムにおける処理の流れの一例を示すフローチャートである。 第2の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。 第2の実施形態に係るコンテンツ選定処理の一例を示す図である。 第2の実施形態に係るコンテンツ表示システムにおける処理の流れの一例を示すフローチャートである。 第3の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。 第3の実施形態に係るコンテンツ選定処理の一例を示す図である。 第3の実施形態に係るコンテンツ表示システムにおける処理の流れの一例を示すフローチャートである。 第4の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。
以下、図面を参照しながら本発明の各実施形態について詳しく説明する。図面には、必要に応じて相互に直交するX軸、Y軸、及びZ軸が示されている。X軸、Y軸、及びZ軸は全図において共通である。各軸において、矢印が延びる方向を「正方向」、正方向と逆の方向を「負方向」と称する。
<<1.第1の実施形態>>
まず、本発明の第1の実施形態について説明する。
<1-1.コンテンツ表示システムの構成>
図1を参照して、第1の実施形態に係るコンテンツ表示システムの構成の一例について説明する。図1は、各実施形態に係るコンテンツ表示システムの構成の一例を示す図である。図1に示すように、コンテンツ表示システム1は、撮像装置10、コンテンツ選定装置20、サーバ装置30、コンテンツ管理装置40、及び表示装置50を有する。
コンテンツ表示システム1が有する各装置は、ネットワークNWを介して、互いに情報の送受信が可能に接続されている。
例えば、コンテンツ選定装置20とサーバ装置30との間、サーバ装置30とコンテンツ管理装置40との間は、ワイドエリアネットワーク(Wide Area Network:WAN)によって接続されている。WANは、例えば、インターネット接続により実現される。
また、例えば、撮像装置10とコンテンツ選定装置20との間、コンテンツ選定装置20とコンテンツ管理装置40との間、コンテンツ管理装置40と表示装置50との間は、ローカルエリアネットワーク(Local Area Network:LAN)によって接続されている。LANは、有線接続によって実現されてもよいし、Bluetooth(登録商標)、Wi-Fi(登録商標)等の無線接続によって実現されてもよい。
なお、撮像装置10は、コンテンツ表示システム1が有する「撮像部」の一例である。表示装置50は、コンテンツ表示システム1が有する「表示部」の一例である。
(1)撮像装置10
撮像装置10は、人を撮像した画像(以下、「撮像画像」とも称される)を取得する装置である。撮像装置10は、例えば、カメラである。撮像装置10は、ネットワークNWを介して、撮像画像をコンテンツ選定装置20へ送信する。
第1の実施形態における人は、例えば、任意の移動速度を有する人である。当該人は、移動速度に応じて、歩いている人(歩行者)、走っている人、立ち止まっている人(即ち移動速度が0である人)のいずれであってもよい。以下、第1の実施形態では、人が歩行者2(2a、2b、2c)であり、移動速度が歩行者2の歩行速度である例について説明する。なお、人は、移動体(例えば自動車や自転車等)に乗っている人等であってもよい。また、撮像装置10が撮像する歩行者の数は、歩行者2a~歩行者2cの3人に限定されない。撮像装置10は、任意の人数の歩行者を撮像してよい。
歩行者2は、任意の方向に任意の速度で歩行する人である。例えば、図1に示すように、歩行者2aは、X軸の正方向に歩行速度va1で歩行している。歩行者2bは、X軸の正方向に歩行速度vb1で歩行している。歩行者2cは、X軸の正方向に歩行速度vc1で歩行している。
(2)コンテンツ選定装置20
コンテンツ選定装置20は、表示装置50に表示させるコンテンツを選定する端末である。例えば、コンテンツ選定装置20は、撮像装置10から受信する撮像画像に基づき、表示装置50に表示させるコンテンツを選定する。コンテンツ選定装置20は、ネットワークNWを介して、コンテンツの選定結果をコンテンツ管理装置40へ送信する。ここで、コンテンツは、例えば、広告を示す画像(静止画/動画)である。なお、コンテンツ選定装置20で行われる処理は、サーバ装置30で行われてもよい。
本実施形態では、コンテンツを選定するための選定条件として、コンテンツに対して、人の属性が関連付けられる。人の属性は、人の特徴を示す情報である。人の属性の一例として、性別、年齢層、職業、服装、所持品等が挙げられる。コンテンツには、少なくとも1つの人の属性が関連付けられる。コンテンツ選定装置20は、撮像画像に基づき人の属性を検出し、検出した属性が選定条件として関連付けられたコンテンツを、表示装置50に表示させるコンテンツとして選定する。なお、人の属性が複数検出された場合、コンテンツ選定装置20は、検出された複数の属性のうち、少なくともいずれか1つの属性が選定条件として関連付けられたコンテンツを、表示装置50に表示させるコンテンツとして選定する。以下、人の属性とコンテンツが関連付けられた情報は、「関連情報」とも称される。
(3)サーバ装置30
サーバ装置30は、各種条件及びコンテンツに関する処理を行う装置である。
例えば、サーバ装置30は、コンテンツ選定装置20で用いられる各種条件、人の属性、及び関連情報等の情報を生成する。サーバ装置30は、生成した情報をコンテンツ選定装置20へ送信し、保存させる。サーバ装置30は、コンテンツ選定装置20に保存された情報を更新してもよい。
各種条件には、例えば、選択条件、優先条件、及び選定条件が含まれる。
選択条件は、複数ある優先条件のうちいずれの優先条件を用いるかを指定するための条件である。
優先条件は、複数あるコンテンツのうち、いずれのコンテンツを優先して表示装置50に表示させるかを選定するための条件である。優先条件には、例えば、コンテンツを優先して選定する属性(選定条件)が定められている。
また、例えば、サーバ装置30は、コンテンツ管理装置40で管理されるコンテンツを生成する。サーバ装置30は、生成したコンテンツをコンテンツ管理装置40へ送信し、保存させる。サーバ装置30は、コンテンツ管理装置40に保存されたコンテンツを更新してもよい。
(4)コンテンツ管理装置40
コンテンツ管理装置40は、表示装置50に表示させるコンテンツの管理を行う装置である。例えば、コンテンツ管理装置40は、サーバ装置30から受信するコンテンツを保存する。また、例えば、コンテンツ管理装置40は、コンテンツ選定装置20から受信する選定結果に基づき、表示装置50に表示させるコンテンツを再生する。コンテンツ管理装置40は、再生しているコンテンツの映像信号を表示装置50へ送信する。なお、コンテンツ管理装置40で行われる処理は、サーバ装置30で行われてもよい。
(5)表示装置50
表示装置50は、コンテンツ管理装置40から受信する映像信号に基づき、コンテンツを表示画面52に表示する装置である。表示装置50は、例えば、デジタルサイネージであり、広告を示すコンテンツを表示する。表示画面52は、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Organic Electro-Luminescence)ディスプレイ等のいずれかである。また、デジタルサイネージは、プロジェクタからスクリーンにコンテンツを投影することでコンテンツの表示を行う装置によって実現されてもよい。
<1-2.コンテンツ選定装置の機能構成>
以上、第1の実施形態に係るコンテンツ表示システム1の構成の一例について説明した。続いて、図2を参照して、第1の実施形態に係るコンテンツ選定装置の機能構成の一例について説明する。図2は、第1の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。図2に示すように、コンテンツ選定装置20-1は、選択条件入力部210-1、通信部220-1、制御部230-1、及び、記憶部240-1を備える。
(1)選択条件入力部210-1
選択条件入力部210-1は、ユーザ(例えばシステム管理者)が入力する選択条件に基づき、複数ある優先条件のうちいずれの優先条件を用いるかを指定する。
選択条件は、例えば、ユーザによるキーボード、マウス、マイクロフォン(以下、「マイク」とも称される)等の入力装置の操作によって入力される。選択条件入力部210-1は、複数ある優先条件のうち、ユーザに入力された選択条件が示す優先条件をコンテンツの選定に用いると指定する。
例えば、ユーザが優先条件を直接指定する選択条件を入力した場合、選択条件入力部210-1は、ユーザが直接指定した優先条件をコンテンツの選定に用いると指定する。また、ユーザが複数の選択条件を入力した場合、選択条件入力部210-1は、選択条件の組み合わせに基づき、コンテンツの選定に用いる優先条件を指定してもよい。
優先条件の指定後、選択条件入力部210-1は、コンテンツの選定に用いると指定した優先条件を示す情報を制御部230-1へ入力する。
(2)通信部220-1
通信部220-1は、各種情報の送受信を行う。例えば、通信部220-1は、撮像装置10へ制御信号を送信し、撮像装置10から撮像画像を受信する。通信部220-1は、受信した撮像画像を制御部230-1へ入力する。また、通信部220-1は、制御部230-1から入力されるコンテンツを表示装置50へ送信する。
(3)制御部230-1
制御部230-1は、コンテンツ選定装置20-1の動作全体を制御する。制御部230-1は、コンテンツ選定装置20-1がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。図2に示すように、制御部230-1は、画像取得部231-1、検出部233-1、及び選定部237-1を備える。
(3-1)画像取得部231-1
画像取得部231-1は、撮像装置10によって撮像された撮像画像を取得する。例えば、画像取得部231-1は、ネットワークNWを介して、撮像装置10から送信される撮像画像を取得する。画像取得部231-1は、取得した撮像画像を検出部233-1へ入力する。
(3-2)検出部233-1
検出部233-1は、各種検出処理を行う。図2に示すように、検出部233-1は、人検出部2331-1、向き検出部2333-1、及び速度検出部2335-1を備える。
(3-2-1)人検出部2331-1
人検出部2331-1は、撮像画像に含まれる人を検出する。例えば、人検出部2331-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、撮像画像に含まれる人を検出する。なお、人検出部2331-1が検出する人の数は特に限定されず、1人であってもよいし複数人であってもよい。人を検出した場合、人検出部2331-1は、検出した人に対する画像認識処理によって、検出した人の属性をさらに検出する。
人検出部2331-1が撮像画像から人及び属性を検出する処理は、以下では、「人検出処理」とも称される。
人検出処理によって人を検出した場合、人検出部2331-1は、検出結果を向き検出部2333-1及び選定部237-1へ入力する。一方、人検出処理によって人を検出しなかった場合、人検出部2331-1は、検出結果を選定部237-1へ入力する。
(3-2-2)向き検出部2333-1
向き検出部2333-1は、撮像画像に含まれる人に関する向きの検出を行う。例えば、向き検出部2333-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、人検出部2331-1が検出した人の移動方向を検出する。人の移動方向を検出した場合、向き検出部2333-1は、検出した移動方向が表示装置50の方向と対応する方向である人をさらに検出する。また、向き検出部2333-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、人検出部2331-1が検出した人の顔の向きを検出してもよい。人の顔の向きを検出した場合、向き検出部2333-1は、検出した顔の向きが表示装置50の方向と対応する方向である人をさらに検出する。
向き検出部2333-1が撮像画像から移動方向が表示装置50の方向と対応する方向である人、顔の向きが表示装置50の方向と対応する方向である人を検出する処理は、以下では、「向き検出処理」とも称される。
ここで、検出された移動方向が表示装置50の方向と対応する方向の一例を示す。例えば、人の視野に表示装置50が含まれる場合、検出された移動方向は、表示装置50の方向と対応する方向である。また、例えば、表示装置50に向かう方向である場合、検出された移動方向は、表示装置50の方向と対応する方向である。
また、検出された人の顔の向きが表示装置50の方向と対応する方向の一例を示す。例えば、検出された人の顔の向きを基準とした当該人の視野に表示装置50が含まれる場合、検出された人の顔の向きは、表示装置50の方向と対応する方向である。また、検出された人の顔の向きが表示装置50の方向を向いている場合、検出された人の顔の向きは、表示装置50の方向と対応する方向である。
向き検出処理によって、移動方向または顔の向きが表示装置50の方向と対応する方向である人を検出した場合、向き検出部2333-1は、検出結果を速度検出部2335-1及び選定部237-1へ入力する。一方、向き検出処理によって移動方向または顔の向きが表示装置50の方向と対応する方向である人を検出しなかった場合、向き検出部2333-1は、検出結果を選定部237-1へ入力する。なお、向き検出部2333-1が各部へ入力する検出結果には、人検出部2331-1の検出結果が含まれてもよい。
(3-2-3)速度検出部2335-1
速度検出部2335-1は、撮像画像に含まれる人の移動速度を検出する。例えば、速度検出部2335-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、人検出部2331-1が検出した歩行者の歩行速度を検出する。なお、速度検出部2335-1は、向き検出部2333-1が検出した表示装置50の方向と対応する方向を向いている歩行者の歩行速度のみを検出してもよい。速度検出部2335-1は、検出結果を選定部237-1へ入力する。なお、速度検出部2335-1が選定部237-1へ入力する検出結果には、人検出部2331-1及び向き検出部2333-1の検出結果が含まれてもよい。
速度検出部2335-1が撮像画像から人の移動速度を検出する処理は、以下では、「速度検出処理」とも称される。
(3-3)選定部237-1
選定部237-1は、検出された人の属性に応じた、表示装置50に表示させるコンテンツを選定する処理(以下、「コンテンツ選定処理」とも称される)を行う。選定部237-1は、選定結果を通信部220-1からコンテンツ管理装置40へ送信させる。
例えば、選定部237-1は、検出部233-1から入力される検出結果に基づき、検出部233-1に検出された少なくとも1人の人の属性に応じたコンテンツを、表示装置50に表示するコンテンツとして選定する。
一例として、選定部237-1は、人検出部2331-3によって検出された複数の人のうち、少なくとも他の1人よりも歩行速度(移動速度)が遅い人の属性に応じたコンテンツを選定する。例えば、選定部237-1は、速度検出部2335-1から入力される検出結果が示す人の歩行速度に基づき、人検出部2331-1に検出された人のうち、相対的に歩行速度が遅い人の属性に関連付けられたコンテンツを選定する。相対的に歩行速度が遅い人は、具体的に、人検出部2331-1に検出された人の中で歩行速度が最も遅い人である。
なお、コンテンツ選定処理を行うにあたり、選定部237-1は、人の選定を行ってもよい。例えば、選定部237-1は、検出部233-1から入力される検出結果に基づき、検出部233-1に検出された少なくとも1人の人からコンテンツの選定対象となる人を選定する。そして、選定部237-1は、選定した人の属性に応じたコンテンツを、表示装置50に表示するコンテンツとして選定するコンテンツ選定処理を行う。
まず、人の選定において、選定部237-1は、人検出部2331-3によって検出された複数の人のうち、少なくとも他の1人よりも歩行速度(移動速度)が遅い人を選定する。例えば、選定部237-1は、速度検出部2335-1から入力される検出結果が示す人の歩行速度に基づき、人検出部2331-1に検出された複数の人のうち、相対的に歩行速度が遅い人を選定する。相対的に歩行速度が遅い人は、例えば、人検出部2331-1に検出された人の中で歩行速度が最も遅い人である。なお、相対的に歩行速度が遅い人は、複数の人のうち、最も歩行速度が速い人に対して遅い人であれば任意の人であってもよい。また、選定部237-1が選定する人数は、1人に限定されず複数人であってもよい。例えば、人検出部2331-1に検出された人の人数が4人である場合、選定部237-1は、歩行速度が最も速い人を除く、歩行速度が最も遅い人、2番目に遅い人、及び3番目に遅い人のうちの少なくとも1人の人を選定する。
次いで、コンテンツ選定処理において、選定部237-1は、選定した人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。例えば、選定部237-1は、選定した人の属性に関連付けられたコンテンツを選定する。選定した人が複数人である場合、選定部237-1は、例えば各人で共通する属性に関連付けられたコンテンツを選定する。
これにより、選定部237-1は、歩行速度が相対的に速くて表示装置50に表示されたコンテンツを見ない可能性が高い人をコンテンツの選定対象から除外することができる。
よって、選定部237-1は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
ここで、属性とコンテンツの関係の一例を示す。
例えば、属性として性別が検出された場合、選定部237-1は、性別に応じて男性向けのコンテンツや女性向けのコンテンツ等を選定する。
また、属性として年齢が検出された場合、選定部237-1は、年齢に応じて子供向けのコンテンツや大人向けのコンテンツ等を選定する。
また、属性として職業が検出された場合、選定部237-1は、職業に応じて会社員向けのコンテンツや主婦向けのコンテンツ等を選定する。
また、属性として所持品が検出された場合、選定部237-1は、所持品に応じたコンテンツを選定する。所持品の一例としてキャリーバッグが検出された場合、選定部237-1は、旅行者向けのコンテンツを選定する。
なお、選定部237-1が選定するコンテンツは、人検出部2331-1によって検出された人(あるいは選定部237-1が選定した人)のうち、さらに、表示装置50へ近づいている人の属性に応じたコンテンツである。この場合、選定部237-1は、人検出部2331-1から入力される検出結果が示す人(あるいは選定部237-1が選定した人)の移動方向に基づき、表示装置50へ近づいている人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。
これにより、選定部237-1は、例えば、表示装置50から離れる方向へ移動している人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
よって、選定部237-1は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
一例として、選定部237-1は、人検出部2331-1によって検出された人(あるいは選定部237-1が選定した人)のうち、相対的に歩行の遅い人かつ表示装置50へ近づいている人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。
選定部237-1が選定するコンテンツは、人検出部2331-1によって検出された人(あるいは選定部237-1が選定した人)のうち、さらに、表示装置50に顔を向けている人の属性に応じたコンテンツであってもよい。この場合、選定部237-1は、人検出部2331-1から入力される検出結果が示す人(あるいは選定部237-1が選定した人)の顔の向きに基づき、表示装置50に顔を向けている人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。
これにより、選定部237-1は、例えば、下を見ながら歩いている人、他の人と顔を合わせて会話しながら歩いている人、スマートフォンを操作しながら歩いている人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
よって、選定部237-1は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
一例として、選定部237-1は、人検出部2331-1によって検出された人(あるいは選定部237-1が選定した人)のうち、相対的に歩行の遅い人かつ表示装置50に顔を向けている人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。
選定部237-1は、優先条件に基づき、コンテンツを選定してもよい。例えば、選定部237-1は、優先条件に応じた属性(選定条件)に基づくコンテンツを選定する。優先条件により、コンテンツの選定に用いる属性が詳細に指定される。これにより、選定部237-1は、人の特徴に合ったコンテンツをより精度高く選定することができる。
表示装置50が設けられた場所付近を通行する人の属性は、曜日や時間帯によって異なり得る。そこで、優先条件の一例として、コンテンツを表示する曜日または時間帯のうち少なくともいずれか1つと属性との組み合わせが定められた条件が挙げられる。選定部237-1は、当該優先条件に基づいて、当該優先条件に応じた属性に基づくコンテンツを選定する。これにより、選定部237-1は、曜日や時間帯に応じた人向けのコンテンツを選定し、表示装置50に表示させることができる。
曜日または時間帯のうち少なくともいずれか1つと属性との組み合わせの一例として、「通勤」の時間帯と「会社員」の属性の組み合わせが挙げられる。この場合、選定部237-1は、通勤の時間帯に会社員向けのコンテンツを選定して表示装置50に表示させることができる。
また、店舗等では、店員向けのコンテンツが表示されないことが望ましい。そこで、優先条件の他の一例として、コンテンツを選定する対象から除外する属性が定められた条件が挙げられる。選定部237-1は、当該優先条件に基づいて、当該優先条件によって示される除外対象の人を除外した残りの人の属性に基づいてコンテンツを選定する。これにより、選定部237-1は、表示装置50が設けられた場所に応じた人向けのコンテンツを選定し、表示装置50に表示させることができる。
例えば、店舗において、コンテンツを選定する対象から除外する属性の一例として、「店員」が挙げられる。属性が店員であるか否かは、例えば、顔認証や、画像認識により判定される。画像認識では、例えば、人の服装やネームプレートの有無等が判定される。店員が除外対象である場合、選定部237-1は、店員の属性に応じたコンテンツを、コンテンツの選定対象から除外する。これにより、選定部237-1は、店舗において客向けのコンテンツを表示装置50に表示させることができる。
なお、人検出処理にて人が検出されなかった場合、または向き検出処理にて移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合、選定部237-1は、予めスケジュールされたコンテンツを選定する。
ここで、再度、図1を参照して、第1の実施形態における相対的に歩行の遅い人の一例について説明する。なお、歩行者2aの歩行速度va1、歩行者2bの歩行速度vb1、及び歩行者2cの歩行速度vc1の大小関係は、vc1>vb1>va1の関係にあるとする。この場合、相対的に歩行の遅い人は、歩行速度が最も速い歩行者2cを除いた残りの歩行者である。即ち、図1における相対的に歩行の遅い人は、歩行速度が最も遅い歩行者2aと歩行速度が2番目に遅い歩行者2bの2人である。
なお、選択条件入力部210-1から入力された選択条件に基づき、コンテンツの選定に用いられる属性が定められているとする。この場合、選定部237-1は、検出された人の属性のうち、選択条件を満たす属性を用いてコンテンツを選定する。
(4)記憶部240-1
記憶部240-1は、記憶媒体、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成される。記憶部240-1は、例えば、不揮発性メモリを用いることができる。
記憶部240-1は、各種情報を記憶する。例えば、記憶部240-1は、サーバ装置30から受信する選択条件、優先条件、選定条件、人の属性、関連情報等を記憶する。また、記憶部240-1は、画像取得部231-1が取得した撮像画像を記憶してもよい。
<1-3.コンテンツ管理装置の機能構成>
以上、第1の実施形態に係るコンテンツ選定装置20-1の構成の一例について説明した。続いて、図3を参照して、第1の実施形態に係るコンテンツ管理装置の機能構成の一例について説明する。図3は、第1の実施形態に係るコンテンツ管理装置の機能構成の一例を示すブロック図である。図3に示すように、コンテンツ管理装置40は、通信部410、コンテンツ再生部420、及び記憶部430を備える。
(1)通信部410
通信部410は、各種情報の送受信を行う。例えば、通信部410は、コンテンツ選定装置20-1からコンテンツの選定結果を受信し、コンテンツ再生部420へ入力する。また、通信部410は、コンテンツ再生部420から入力されるコンテンツの映像信号を、表示装置50へ送信する。
(2)コンテンツ再生部420
コンテンツ再生部420は、表示装置50に表示させるコンテンツを再生する。例えば、コンテンツ再生部420は、通信部410から入力されるコンテンツの選定結果が示すコンテンツを再生する。コンテンツ再生部420は、記憶部430に記憶されたコンテンツを再生する。再生後、コンテンツ再生部420は、再生しているコンテンツの映像信号を通信部410へ入力する。コンテンツ再生部420が再生しているコンテンツの映像信号を通信部410から表示装置50へ送信させ、表示装置50にコンテンツを表示させる処理は、以下では、「コンテンツ表示処理」とも称される。
(3)記憶部430
記憶部430は、記憶媒体、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成される。記憶部430は、例えば、不揮発性メモリを用いることができる。
記憶部430は、各種情報を記憶する。例えば、記憶部430は、サーバ装置30から受信するコンテンツを記憶する。
<1-4.処理の流れ>
以上、第1の実施形態に係るコンテンツ管理装置40の機能構成の一例について説明した。続いて、図4を参照して、第1の実施形態に係るコンテンツ表示システム1における処理の流れの一例について説明する。図4は、第1の実施形態に係るコンテンツ表示システム1における処理の流れの一例を示すフローチャートである。
図4に示すように、まず、コンテンツ選定装置20-1の画像取得部231-1は、撮像装置10から撮像画像を取得する(S102)。
次いで、コンテンツ選定装置20-1の人検出部2331-1は、人検出処理を行う(S104)。
人検出処理後、人検出部2331-1は、撮像画像から人が検出されたか否かを判定する(S106)。
撮像画像から人が検出されなかった場合(S106/NO)、コンテンツ選定装置20-1の選定部237-1は、予めスケジュールされたコンテンツを選定する(S108)。コンテンツの選定後、コンテンツ選定装置20-1は、後述するS120の処理を行う。
一方、撮像画像から人が検出された場合(S106/YES)、コンテンツ選定装置20-1の向き検出部2333-1は、向き検出処理を行う(S110)。
向き検出処理後、向き検出部2333-1は、移動方向が表示装置50の方向と対応する方向である人が検出されたか否かを判定する(S112)。
移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合(S112/NO)、選定部237-1は、予めスケジュールされたコンテンツを選定する(S108)。コンテンツの選定後、コンテンツ選定装置20-1は、後述するS120の処理を行う。
一方、移動方向が表示装置50の方向と対応する方向である人が検出された場合(S112/YES)、コンテンツ選定装置20-1の速度検出部2335-1は、速度検出処理を行う(S114)。
速度検出処理後、コンテンツ選定装置20-1の選定部237-1は、歩行速度が相対的に遅い人を選定し、選定した人の属性を取得する(S116)。
属性取得後、選定部237-1は、取得した属性に基づき、コンテンツ選定処理を行う(S118)。
コンテンツ選定処理後、コンテンツ管理装置40のコンテンツ再生部420は、コンテンツ表示処理を行い(S120)、表示装置50にコンテンツを表示させる。
コンテンツ表示処理後、コンテンツ選定装置20-1は、S102から処理を繰り返す。
以上説明したように、第1の実施形態に係るコンテンツ選定装置20-1は、歩行者(人)を撮像する撮像装置によって撮像された撮像画像を取得する。コンテンツ選定装置20-1は、撮像画像に含まれる人を検出する。そして、コンテンツ選定装置20-1は、検出された複数の人のうち、少なくとも他の1人よりも歩行速度(移動速度)が遅い人を選定し、前記選定した人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。
かかる構成により、第1の実施形態に係るコンテンツ選定装置20-1は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
よって、第1の実施形態に係るコンテンツ選定装置20-1は、表示装置50に表示するコンテンツを歩行者の目に留まりやすくすることができる。
<<2.第2の実施形態>>
以上、本発明の第1の実施形態について説明した。続いて、本発明の第2の実施形態について説明する。第1の実施形態では、歩行速度が相対的に遅い人を選定し、選定した人の属性に応じたコンテンツを選定する例について説明したが、かかる例に限定されない。第2の実施形態では、歩行速度が相対的に遅い人のうち、表示装置50の表示画面52に相対的に近い位置にいる人を選定し、選定した人の属性に応じたコンテンツを選定する例について説明する。なお、以下では、第1の実施形態における説明と重複する説明については、適宜、省略される。
<2-1.コンテンツ表示システムの構成>
第2の実施形態に係るコンテンツ表示システムの構成は、図1を参照して説明したコンテンツ表示システム1の構成と同一である。
<2-2.コンテンツ選定装置の機能構成>
続いて、図5を参照して、第2の実施形態に係るコンテンツ選定装置の機能構成の一例について説明する。図5は、第2の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。図5に示すように、コンテンツ選定装置20-2は、選択条件入力部210-2、通信部220-2、制御部230-2、及び記憶部240-2を備える。
(1)選択条件入力部210-2
選択条件入力部210-2の機能は、図2を参照して説明した第1の実施形態に係る選択条件入力部210-1の機能と同一である。
(2)通信部220-2
通信部220-2の機能は、図2を参照して説明した第1の実施形態に係る通信部220-2の機能と同一である。
(3)制御部230-2
制御部230-2は、コンテンツ選定装置20-2の動作全体を制御する。制御部230-2は、コンテンツ選定装置20-2がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。図5に示すように、制御部230-2は、画像取得部231-2、検出部233-2、及び選定部237-2を備える。
(3-1)画像取得部231-2
画像取得部231-2の機能は、図2を参照して説明した第1の実施形態に係る画像取得部231-1の機能と同一である。
(3-2)検出部233-2
検出部233-2は、各種検出処理を行う。図5に示すように、検出部233-2は、人検出部2331-2、向き検出部2333-2、速度検出部2335-2、及び距離検出部2337-2を備える。
(3-2-1)人検出部2331-2
人検出部2331-2の機能は、図2を参照して説明した第1の実施形態に係る人検出部2331-1の機能と同一である。
(3-2-2)向き検出部2333-2
向き検出部2333-2の機能は、図2を参照して説明した第1の実施形態に係る向き検出部2333-1の機能と同一である。
(3-2-3)速度検出部2335-2
速度検出部2335-2の機能は、図2を参照して説明した第1の実施形態に係る速度検出部2335-1の機能と同一である。
(3-2-4)距離検出部2337-2
距離検出部2337-2は、撮像画像に含まれる人から表示装置50までの距離を検出する。例えば、距離検出部2337-2は、画像取得部231-2から入力される撮像画像に対する画像認識処理によって、人検出部2331-2が検出した人から表示装置50までの距離を検出する。なお、距離検出部2337-2は、向き検出部2333-2が検出した表示装置50の方向と対応する方向を向いている人のみから表示装置50までの距離を検出してもよい。距離検出部2337-2は、検出結果を選定部237-2へ入力する。
距離検出部2337-2が撮像画像に含まれる人から表示装置50までの距離を検出する処理は、以下では、「距離検出処理」とも称される。なお、距離検出部2337-2は、撮像画像に含まれる人から表示装置50の表示画面52までの距離を検出してもよい。
(3-3)選定部237-2
選定部237-2は、図2を参照して説明した第1の実施形態に係る選定部237-1と同様にコンテンツ選定処理を行う。選定部237-2は、距離検出部2337-2の検出結果に基づき、コンテンツ選定処理を行う機能をさらに有する。
例えば、距離検出部2337-2の検出結果に基づき選定部237-2が選定するコンテンツは、人検出部2331-2によって検出された人(あるいは選定部237-2が選定した人)のうち、さらに、表示装置50に近い位置にいる人の属性に応じたコンテンツである。この場合、選定部237-2は、距離検出部2337-2から入力される検出結果が示す人(あるいは選定部237-2が選定した人)から表示装置50までの距離に基づき、表示装置50に近い位置にいる人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。
これにより、選定部237-2は、例えば、表示装置50から遠い位置にいる人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
よって、選定部237-2は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
一例として、選定部237-2は、人検出部2331-2によって検出された人(あるいは選定部237-2が選定した人)のうち、相対的に歩行の遅い人かつ表示装置50に相対的に近い位置にいる人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。なお、表示装置50に相対的に近い位置にいる人は、具体的に、人検出部2331-2に検出された人(あるいは選定部237-2が選定した人)の中で表示装置50に最も近い位置にいる人である。
なお、選定部237-2は、距離検出部2337-2から入力される検出結果が示す人(あるいは選定部237-2が選定した人)から表示装置50の表示画面52までの距離に基づき、表示画面52に近い位置にいる人を選定し、選定した人の属性に関連付けられたコンテンツを選定してもよい。
一例として、選定部237-2は、人検出部2331-2によって検出された人(あるいは選定部237-2が選定した人)のうち、相対的に歩行の遅い人かつ表示画面52に相対的に近い位置にいる人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。なお、表示画面52に相対的に近い位置にいる人は、具体的に、人検出部2331-2に検出された人(あるいは選定部237-2が選定した人)の中で表示画面52に最も近い位置にいる人である。
ここで、図6を参照して、第2の実施形態におけるコンテンツ選定処理の一例について説明する。図6は、第2の実施形態に係るコンテンツ選定処理の一例を示す図である。図6には、各歩行者2から表示装置50の表示画面52までの距離に基づき、コンテンツが選定される例が示されている。なお、歩行者2aから表示画面52までの距離La2、歩行者2bから表示画面52までの距離Lb2、及び歩行者2cから表示画面52までの距離Lc2の大小関係は、Lb2>La2>Lc2の関係にあるとする。
図6に示す例では、距離La2、距離Lb2、及び距離Lc2の大小関係より、各歩行者のうち、歩行者2cが表示画面52に相対的に近い位置にいる。よって、選定部237-2は、表示画面52に相対的に近い位置にいる歩行者2cの属性に関連付けられたコンテンツを選定する。
(4)記憶部240-2
記憶部240-2の機能は、図2を参照して説明した第1の実施形態に係る記憶部240-1の機能と同一である。
<2-3.コンテンツ管理装置の機能構成>
第2の実施形態に係るコンテンツ管理装置の構成は、図3を参照して説明したコンテンツ管理装置40の構成と同一である。
<2-4.処理の流れ>
以上、第2の実施形態に係るコンテンツ選定装置20-2の機能構成の一例について説明した。続いて、図7を参照して、第2の実施形態に係るコンテンツ表示システム1における処理の流れの一例について説明する。図7は、第2の実施形態に係るコンテンツ表示システム1における処理の流れの一例を示すフローチャートである。
図7に示すように、まず、コンテンツ選定装置20-2の画像取得部231-2は、撮像装置10から撮像画像を取得する(S202)。
次いで、コンテンツ選定装置20-2の人検出部2331-2は、人検出処理を行う(S204)。
人検出処理後、人検出部2331-2は、撮像画像から人が検出されたか否かを判定する(S206)。
撮像画像から人が検出されなかった場合(S206/NO)、コンテンツ選定装置20-2の選定部237-2は、予めスケジュールされたコンテンツを選定する(S208)。コンテンツの選定後、コンテンツ選定装置20-2は、後述するS222の処理を行う。
一方、撮像画像から人が検出された場合(S206/YES)、コンテンツ選定装置20-2の向き検出部2333-2は、向き検出処理を行う(S210)。
向き検出処理後、向き検出部2333-2は、移動方向が表示装置50の方向と対応する方向である人が検出されたか否かを判定する(S212)。
移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合(S212/NO)、選定部237-2は、予めスケジュールされたコンテンツを選定する(S208)。コンテンツの選定後、コンテンツ選定装置20-2は、後述するS222の処理を行う。
一方、移動方向が表示装置50の方向と対応する方向である人が検出された場合(S212/YES)、コンテンツ選定装置20の速度検出部2335-2は、速度検出処理を行う(S214)。
速度検出処理後、コンテンツ選定装置20-2の距離検出部2337-2は、距離検出処理を行う(S216)。
距離検出処理後、コンテンツ選定装置20-2の選定部237-2は、歩行速度が相対的に遅く、表示装置50に相対的に近い位置にいる人を選定し、選定した人の属性を取得する(S218)。
属性取得後、選定部237-2は、取得した属性に基づき、コンテンツ選定処理を行う(S220)。
コンテンツ選定処理後、コンテンツ管理装置40のコンテンツ再生部420は、コンテンツ表示処理を行い(S222)、表示装置50にコンテンツを表示させる。
コンテンツ表示処理後、コンテンツ選定装置20-2は、S202から処理を繰り返す。
以上説明したように、第2の実施形態に係るコンテンツ選定装置20-2は、歩行者(人)を撮像する撮像装置によって撮像された撮像画像を取得する。コンテンツ選定装置20-2は、撮像画像に含まれる人を検出する。そして、コンテンツ選定装置20-2は、検出された複数の人のうち、少なくとも他の1人よりも歩行速度(移動速度)が遅い人を選定し、選定した人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。
かかる構成により、第2の実施形態に係るコンテンツ選定装置20-2は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
また、第2の実施形態に係るコンテンツ選定装置20-2は、撮像画像に含まれる人から表示装置50までの距離を検出し、当該距離に基づきコンテンツを選定する構成をさらに有する。
かかる構成により、選定部237-2は、検出された人のうち、表示装置50に相対的に近い位置にいる人を選定し、選定した人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。これにより、コンテンツ選定装置20-2は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
よって、第2の実施形態に係るコンテンツ選定装置20-2は、表示装置に表示するコンテンツを歩行者の目に留まりやすくすることができる。
<<3.第3の実施形態>>
以上、本発明の第2の実施形態について説明した。続いて、本発明の第3の実施形態について説明する。第2の実施形態では、歩行速度が相対的に遅い人のうち、表示装置50の表示画面52に相対的に近い位置にいる人を選定し、選定した人の属性に応じたコンテンツを選定する例について説明したが、かかる例に限定されない。第3の実施形態では、再生中のコンテンツの終了時点に基準位置へ到達する人を選定し、選定した人の属性に応じたコンテンツを選定する例について説明する。なお、以下では、第1の実施形態及び第2の実施形態における説明と重複する説明については、適宜、省略される。
<3-1.コンテンツ表示システムの構成>
第3の実施形態に係るコンテンツ表示システムの構成は、図1を参照して説明したコンテンツ表示システム1の構成と同一である。
<3-2.コンテンツ選定装置の機能構成>
続いて、図8を参照して、第3の実施形態に係るコンテンツ選定装置の機能構成の一例について説明する。図8は、第3の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。図8に示すように、コンテンツ選定装置20-3は、選択条件入力部210-3、通信部220-3、制御部230-3、及び記憶部240-3を備える。
(1)選択条件入力部210-3
選択条件入力部210-3の機能は、図2を参照して説明した第1の実施形態に係る選択条件入力部210-3の機能と同一である。
(2)通信部220-3
通信部220-3の機能は、図2を参照して説明した第1の実施形態に係る通信部220-3の機能と同一である。
(3)制御部230-3
制御部230-3は、コンテンツ選定装置20-3の動作全体を制御する。制御部230-3は、コンテンツ選定装置20-3がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。図8に示すように、制御部230-3は、画像取得部231-3、コンテンツ情報取得部232-3、検出部233-3、及び選定部237-3を備える。
(3-1)画像取得部231-3
画像取得部231-3の機能は、図2を参照して説明した第1の実施形態に係る画像取得部231-3の機能と同一である。
(3-2)コンテンツ情報取得部232-3
コンテンツ情報取得部232-3は、コンテンツに関する情報を取得する。例えば、コンテンツ情報取得部232-3は、表示装置50に表示されているコンテンツの再生状況を示す再生状況情報を取得する。一例として、コンテンツ情報取得部232-3は、表示装置50に表示されたコンテンツの再生時間の経過状況を示す情報を再生状況情報として取得する。
コンテンツの再生時間の経過状況は、例えば、コンテンツの再生時間、コンテンツの再生開始時刻を含む。また、コンテンツの再生時間の経過状況は、コンテンツの再生が開始されてからの経過時間、あるいはコンテンツの残りの再生時間を含んでもよい。コンテンツ情報取得部232-3は、取得した再生状況情報を選定部237-3へ入力する。
(3-3)検出部233-3
検出部233-3は、各種検出処理を行う。図8に示すように、検出部233-3は、人検出部2331-3、向き検出部2333-3、速度検出部2335-3、及び距離検出部2337-3を備える。
(3-3-1)人検出部2331-2
人検出部2331-3の機能は、図2を参照して説明した第1の実施形態に係る人検出部2331-1と同一である。
(3-3-2)向き検出部2333-3
向き検出部2333-3の機能は、図2を参照して説明した第1の実施形態に係る向き検出部2333-1の機能と同一である。
(3-3-3)速度検出部2335-3
速度検出部2335-3は、図2を参照して説明した第1の実施形態に係る速度検出部2335-1と同様の機能を有する。速度検出部2335-3は、検出結果を選定部237-3へさらに入力する。
(3-3-4)距離検出部2337-3
距離検出部2337-3は、図5を参照して説明した第2の実施形態に係る距離検出部2337-2と同様に、検出された人から表示装置50または表示画面52までの距離を検出する。距離検出部2337-3は、撮像装置10が撮像する領域(以下、「撮像領域」とも称される)にて検出された人が撮像領域から表示装置50または表示画面52まで移動する距離(以下、「移動距離」とも称される)を検出する機能をさらに有する。
距離検出部2337-3は、例えば、撮像画像に対する画像認識処理に基づき、撮像領域にて人が検出された検出位置から表示装置50または表示画面52を基準とした基準位置までの移動距離を検出する。距離検出部2337-3は、検出した移動距離を選定部237-3へ入力する。
(3-4)選定部237-3
選定部237-3は、図2を参照して説明した第1の実施形態に係る選定部237-1と同様にコンテンツ選定処理を行う。選定部237-3は、距離検出部2337-3の検出結果に基づき、コンテンツ選定処理を行う機能をさらに有する。
例えば、距離検出部2337-3の検出結果に基づき選定部237-3が選定するコンテンツは、選定部237-3がコンテンツを選定する際に、表示装置50に表示されているコンテンツの再生が終了した後に表示されるコンテンツである。さらに、当該コンテンツは、人検出部2331-3によって検出された人(あるいは選定部237-3が選定した人)のうち、表示装置50に表示されているコンテンツの再生が終了する際に、表示装置50に近い位置にいる人の属性に応じたコンテンツである。この場合、選定部237-3は、検出された人(あるいは選定部237-3が選定した人)のうち、移動距離と、再生状況情報と、歩行速度とに基づき、表示装置50に表示されているコンテンツの再生が終了する際に表示装置50に近い位置にいる人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。
これにより、選定部237-3は、例えば、表示装置50から遠い位置にいる人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
よって、選定部237-3は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
より具体的に、まず、選定部237-3は、歩行速度と移動距離とに基づき、検出された人が基準位置に到達するまでにかかる移動時間を算出する。
次いで、選定部237-3は、再生状況情報に基づき、コンテンツの残りの再生時間を取得する。再生状況情報にコンテンツの残りの再生時間が含まれている場合、選定部237-3は、再生状況情報に含まれているコンテンツの残りの再生時間を取得する。
一方、再生状況情報にコンテンツの残りの再生時間が含まれていない場合、選定部237-3は、再生状況情報に含まれている情報に基づき、コンテンツの残りの再生時間を算出する。
例えば、選定部237-3は、現在の時刻と、再生状況情報に含まれるコンテンツの再生時間及びコンテンツの再生開始時刻に基づき、コンテンツの残りの再生時間を算出する。
また、選定部237-3は、再生状況情報に含まれるコンテンツの再生時間及びコンテンツの再生が開始されてからの経過時間に基づき、コンテンツの残りの再生時間を算出してもよい。
選定部237-3は、算出した移動時間と、取得したコンテンツの残りの再生時間とを比較し、移動時間とコンテンツの残りの再生時間とが一致する人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。移動時間とコンテンツの残りの再生時間とが一致する人は、即ち、再生中のコンテンツの終了時点において基準位置に到達する人である。
なお、再生中のコンテンツの終了時点において基準位置に到達する人が存在しない場合、選定部237-3は、予めスケジュールされたコンテンツを選定する。
ここで、図9を参照して、第3の実施形態におけるコンテンツ選定処理の一例について説明する。図9は、第3の実施形態に係るコンテンツ選定処理の一例を示す図である。図9には、撮像領域IAにて各歩行者2が検出された位置から基準位置RPに到達する移動時間に基づき、コンテンツが選定される例が示されている。なお、図9に示す基準位置RPは、X軸の負方向側にある表示装置50の端部が基準となっている。
まず、選定部237-3は、各歩行者2の歩行速度と移動距離とに基づき、各歩行者2が基準位置に到達するまでにかかる移動時間を算出する。図9に示す例の場合、歩行者2aの移動時間tはLa3/va3、歩行者2bの移動時間tはLb3/vb3、歩行者2cの移動時間tはLc3/vc3である。
次いで、選定部237-3は、再生状況情報に基づき、コンテンツの残りの再生時間を取得する。図9に示す例では、取得されるコンテンツの残りの再生時間がtであるとする。
次いで、選定部237-3は、算出した移動時間と取得したコンテンツの残りの再生時間とを比較し、移動時間とコンテンツの残りの再生時間とが一致する人を選定し、選定した人の属性に関連付けられたコンテンツを選定する。歩行者2aの移動時間tとコンテンツの残りの再生時間tとが一致した場合、選定部237-3は、歩行者2aを選定し、当該歩行者2aの属性に関連付けられたコンテンツを選定する。
歩行者2bの移動時間tとコンテンツの残りの再生時間tとが一致した場合、選定部237-3は、歩行者2bを選定し、当該歩行者2bの属性に関連付けられたコンテンツを選定する。
歩行者2cの移動時間tとコンテンツの残りの再生時間tとが一致した場合、選定部237-3は、歩行者2cを選定し、当該歩行者2cの属性に関連付けられたコンテンツを選定する。
(4)記憶部240-3
記憶部240-3の機能は、図2を参照して説明した第1の実施形態に係る記憶部240-1の機能と同一である。
<3-3.コンテンツ管理装置の機能構成>
第3の実施形態に係るコンテンツ管理装置の構成は、図3を参照して説明したコンテンツ管理装置40の構成と同一である。
<3-4.処理の流れ>
以上、第3の実施形態に係るコンテンツ選定装置20-3の機能構成の一例について説明した。続いて、図10を参照して、第3の実施形態に係るコンテンツ表示システム1における処理の流れの一例について説明する。図10は、第3の実施形態に係るコンテンツ表示システム1における処理の流れの一例を示すフローチャートである。
図10に示すように、まず、コンテンツ選定装置20-3の画像取得部231-3は、撮像装置10から撮像画像を取得する(S302)。
次いで、コンテンツ選定装置20-3の人検出部2331-3は、人検出処理を行う(S304)。
人検出処理後、人検出部2331-3は、撮像画像から人が検出されたか否かを判定する(S306)。
撮像画像から人が検出されなかった場合(S306/NO)、コンテンツ選定装置20-3の選定部237-3は、予めスケジュールされたコンテンツを選定する(S308)。コンテンツの選定後、コンテンツ選定装置20-3は、後述するS324の処理を行う。
一方、撮像画像から人が検出された場合(S306/YES)、コンテンツ選定装置20-3の向き検出部2333-3は、向き検出処理を行う(S310)。
向き検出処理後、向き検出部2333-3は、移動方向が表示装置50の方向と対応する方向である人が検出されたか否かを判定する(S312)。
移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合(S312/NO)、選定部237-3は、予めスケジュールされたコンテンツを選定する(S308)。コンテンツの選定後、コンテンツ選定装置20-3は、後述するS324の処理を行う。
一方、移動方向が表示装置50の方向と対応する方向である人が検出された場合(S312/YES)、コンテンツ選定装置20-3の速度検出部2335-3は、速度検出処理を行う(S314)。
速度検出処理後、コンテンツ選定装置20-3の距離検出部2337-3は、距離検出処理を行う(S316)。
距離検出処理後、コンテンツ選定装置20-3の選定部237-3は、再生中のコンテンツの終了時点に基準位置へ到達する人を選定し、選定した人の属性を取得する(S318)。
属性取得処理後、選定部237-3は、属性を取得できたか否かを判定する(S320)。
属性を取得できなかった場合(S320/NO)、選定部237-3は、予めスケジュールされたコンテンツを選定する(S308)。コンテンツの選定後、コンテンツ選定装置20-3は、後述するS324の処理を行う。
一方、属性を取得できた場合(S320/YES)、選定部237-3は、取得した属性に基づき、コンテンツ選定処理を行う(S322)。
コンテンツ選定処理後、コンテンツ管理装置40のコンテンツ再生部420は、コンテンツ表示処理を行い(S324)、表示装置50にコンテンツを表示させる。
コンテンツ表示処理後、コンテンツ選定装置20-3は、S302から処理を繰り返す。
以上説明したように、第3の実施形態に係るコンテンツ選定装置20-3は、歩行者(人)を撮像する撮像装置によって撮像された撮像画像を取得する。コンテンツ選定装置20-3は、撮像画像に含まれる人を検出する。そして、コンテンツ選定装置20-3は、検出された複数の人のうち、少なくとも他の1人よりも歩行速度(移動速度)が遅い人を選定し、選定した人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。
かかる構成により、第3の実施形態に係るコンテンツ選定装置20-3は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
よって、第3の実施形態に係るコンテンツ選定装置20-3は、表示装置50に表示するコンテンツを歩行者の目に留まりやすくすることができる。
また、第3の実施形態に係るコンテンツ選定装置20-3は、検出された人のうち、移動距離と、再生状況情報と、歩行速度とに基づき、再生中のコンテンツの終了時点において基準位置に到達する人を選定し、選定した人の属性に応じたコンテンツを選定する構成をさらに有する。
かかる構成により、選定部237-3は、現在再生中のコンテンツの再生が終了したら、再生中のコンテンツの終了時点において基準位置に到達する人の属性に応じて選定したコンテンツを表示装置50に表示(再生)させることができる。
よって、選定部237-3は、現在再生中のコンテンツの表示(再生)が途中で途切れないように、次のコンテンツを表示装置50に表示(再生)させることができる。
<<4.第4の実施形態>>
以上、本発明の第3の実施形態について説明した。続いて、図11を参照して、本発明の第4の実施形態について説明する。図11は、本発明の第4の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。
図11に示すように、第4の実施形態に係るコンテンツ選定装置20-4は、少なくとも画像取得部231-4、人検出部2331-4、及び選定部237-4を備えていればよい。
画像取得部231-4は、歩行者(人)を撮像する撮像装置によって撮像された画像を取得する。
人検出部2331-4は、画像取得部231-4が取得した画像に含まれる人を検出する。
選定部237-4は、検出された複数の人のうち、少なくとも他の1人よりも歩行速度(移動速度)が遅い人を選定し、選定した人の属性に応じたコンテンツを表示装置に表示するコンテンツとして、選定する。
かかる構成により、第4の実施形態に係るコンテンツ選定装置20-4は、検出された歩行者のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
よって、第4の実施形態に係るコンテンツ選定装置20-4は、表示装置50に表示するコンテンツを歩行者の目に留まりやすくすることができる。
以上、本発明の各実施形態について説明した。なお、上述した各実施形態におけるコンテンツ表示システム1の全部または一部の機能をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
1 コンテンツ表示システム
2 歩行者
10 撮像装置
20-1、20-2、20-3、20-4 コンテンツ選定装置
30 サーバ装置
40 コンテンツ管理装置
50 表示装置
52 表示画面
210-1、210-2、210-3 選択条件入力部
220-1、220-2、220-3 通信部
230-1、230-2、230-3 制御部
231-1、231-2、231-3、231-4 画像取得部
232-3 コンテンツ情報取得部
233-1、233-2、233-3 検出部
237-1、237-2、237-3、237-4 選定部
240-1、240-2、240-3 記憶部
410 通信部
420 コンテンツ再生部
430 記憶部
2331-1、2331-2、2331-3、2331-4 人検出部
2333-1、2333-2、2333-3 向き検出部
2335-1、2335-2、2335-3 速度検出部
2337-2、2337-3 距離検出部

Claims (18)

  1. 人を撮像する撮像装置によって撮像された画像を取得する画像取得部と、
    前記画像に含まれる人を検出する人検出部と、
    前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、
    を有する、コンテンツ選定装置。
  2. 人を撮像する撮像装置によって撮像された画像を取得する画像取得部と、
    前記画像に含まれる人を検出する人検出部と、
    前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、
    を有する、コンテンツ選定装置。
  3. 前記選定部が選定する前記コンテンツは、さらに、少なくとも他の1人よりも移動速度が遅い人の属性に応じたコンテンツである、
    請求項1又は請求項2に記載のコンテンツ選定装置。
  4. 前記選定部が選定する前記コンテンツは、前記人検出部によって検出された人のうち、さらに、前記表示装置へ近づいている人の属性に応じたコンテンツである、
    請求項1又は請求項2に記載のコンテンツ選定装置。
  5. 前記選定部が選定する前記コンテンツは、前記人検出部によって検出された人のうち、さらに、前記表示装置に近い位置にいる人の属性に応じたコンテンツである、
    請求項1から請求項のいずれか1項に記載のコンテンツ選定装置。
  6. 前記選定部が選定する前記コンテンツは、さらに、前記選定部が選定する際に前記表示装置に表示されているコンテンツの再生が終了した後に表示するコンテンツである
    請求項1から請求項3のいずれか1項に記載のコンテンツ選定装置。
  7. 前記選定部が選定する前記コンテンツは、前記人検出部によって検出された人のうち、さらに、前記表示装置に顔を向けている人の属性に応じたコンテンツである、
    請求項1から請求項のいずれか1項に記載のコンテンツ選定装置。
  8. 前記選定部は、コンテンツを優先して選定する属性が条件として定められた優先条件に基づいて、前記少なくとも他の1人よりも移動速度が遅い人の属性のうち当該優先条件に応じた属性に基づくコンテンツを選定する、
    請求項に記載のコンテンツ選定装置。
  9. 前記選定部は、コンテンツを表示する曜日または時間帯のうち少なくともいずれか1つと属性との組み合わせが定められた優先条件に基づいて、当該優先条件に応じた属性に基づくコンテンツを選定する、
    請求項に記載のコンテンツ選定装置。
  10. 前記選定部は、コンテンツを選定する対象から除外する属性が定められた優先条件に基づいて、当該優先条件によって示される除外対象の人を除外した残りの人の属性に基づいてコンテンツを選定する、
    請求項に記載のコンテンツ選定装置。
  11. 前記選定部は、前記移動速度が相対的に最も遅い人の属性に応じたコンテンツを選定する、
    請求項に記載のコンテンツ選定装置。
  12. 複数ある優先条件のうちいずれの優先条件を用いるかを指定する選択条件入力部を有し、
    前記選定部は、前記選択条件入力部から入力される選択条件を満たす属性から前記コンテンツを選定する、
    請求項から請求項11のいずれか1項に記載のコンテンツ選定装置。
  13. 人を撮像する撮像部と、
    前記撮像部によって撮像された画像を取得する画像取得部と、
    前記画像に含まれる人を検出する人検出部と、
    前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、
    前記選定されたコンテンツを表示する表示部と、
    を有する、コンテンツ表示システム。
  14. 人を撮像する撮像装置によって撮像された画像を取得し、
    前記画像に含まれる人を検出し、
    検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する、
    コンテンツ選定方法。
  15. コンピュータに、
    人を撮像する撮像装置によって撮像された画像を取得する画像取得ステップと、
    前記画像に含まれる人を検出する人検出ステップと、
    前記人検出ステップによって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人を選定し、前記選定した人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定ステップと、
    を実行させるためのコンテンツ選定プログラム。
  16. 人を撮像する撮像部と、
    前記撮像部によって撮像された画像を取得する画像取得部と、
    前記画像に含まれる人を検出する人検出部と、
    前記人検出部によって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定部と、
    前記選定されたコンテンツを表示する表示部と、
    を有する、コンテンツ表示システム。
  17. 人を撮像する撮像装置によって撮像された画像を取得し、
    前記画像に含まれる人を検出し、
    検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する、
    コンテンツ選定方法。
  18. コンピュータに、
    人を撮像する撮像装置によって撮像された画像を取得する画像取得ステップと、
    前記画像に含まれる人を検出する人検出ステップと、
    前記人検出ステップによって検出された複数の人のうち、表示装置に表示されているコンテンツの再生が終了する際に前記表示装置に近い位置にいる人の属性に応じたコンテンツを前記表示装置に表示するコンテンツとして選定する選定ステップと、
    を実行させるためのコンテンツ選定プログラム。
JP2022518132A 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム Active JP7389240B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPPCT/JP2020/018322 2020-04-30
PCT/JP2020/018322 WO2021220487A1 (ja) 2020-04-30 2020-04-30 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
PCT/JP2021/017076 WO2021221126A1 (ja) 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム

Publications (2)

Publication Number Publication Date
JPWO2021221126A1 JPWO2021221126A1 (ja) 2021-11-04
JP7389240B2 true JP7389240B2 (ja) 2023-11-29

Family

ID=78331874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022518132A Active JP7389240B2 (ja) 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム

Country Status (4)

Country Link
US (1) US20230024797A1 (ja)
JP (1) JP7389240B2 (ja)
CN (1) CN115427937A (ja)
WO (2) WO2021220487A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016156887A (ja) 2015-02-23 2016-09-01 株式会社Nvc 電子機器及びその表示制御方法
JP2017111286A (ja) 2015-12-16 2017-06-22 株式会社東芝 情報表示方法および情報表示システム
JP2018156195A (ja) 2017-03-15 2018-10-04 株式会社Nttファシリティーズ サイネージシステム、制御方法、及びプログラム
JP2020052486A (ja) 2018-09-25 2020-04-02 トヨタ自動車株式会社 情報システム、情報処理方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123120A (ja) * 2016-01-08 2017-07-13 日本ユニシス株式会社 広告評価装置、広告評価システム、広告評価方法、および、広告評価プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016156887A (ja) 2015-02-23 2016-09-01 株式会社Nvc 電子機器及びその表示制御方法
JP2017111286A (ja) 2015-12-16 2017-06-22 株式会社東芝 情報表示方法および情報表示システム
JP2018156195A (ja) 2017-03-15 2018-10-04 株式会社Nttファシリティーズ サイネージシステム、制御方法、及びプログラム
JP2020052486A (ja) 2018-09-25 2020-04-02 トヨタ自動車株式会社 情報システム、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中澤 満,通行客の閲覧可能性を考慮したファッションサイネージの配信,第24回インタラクティブシステムとソフトウェアに関するワークショップ [online],日本,日本ソフトウェア科学会インタラクティブシステムとソフトウェア研究会,2016年12月16日,第1頁-第2頁

Also Published As

Publication number Publication date
JPWO2021221126A1 (ja) 2021-11-04
WO2021220487A1 (ja) 2021-11-04
US20230024797A1 (en) 2023-01-26
WO2021221126A1 (ja) 2021-11-04
CN115427937A (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
US10511731B1 (en) Smart glasses and virtual objects in augmented reality and images
US20210200423A1 (en) Information processing apparatus, method, and non-transitory computer readable medium that controls a representation of a user object in a virtual space
US10972562B2 (en) Information processing apparatus, information processing method, and program
US20160195405A1 (en) Learning and predictive navigation system
JP5643543B2 (ja) 情報提示システム及びその制御方法、プログラム
JP2013200793A (ja) 情報処理装置、情報処理方法およびプログラム
CN103760968A (zh) 数字标牌显示内容选择方法和装置
US20160092034A1 (en) Kiosk Providing High Speed Data Transfer
TW202127319A (zh) 狀態識別方法、裝置、電子設備及電腦可讀儲存介質
WO2021103610A1 (zh) 展示对象的控制方法与装置、电子设备及存储介质
JPWO2012063561A1 (ja) 情報報知システム、情報報知方法、情報処理装置及びその制御方法と制御プログラム
JP7389240B2 (ja) コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
JP5651639B2 (ja) 情報処理装置、情報表示装置、情報処理方法およびプログラム
JP4110323B2 (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
US20200065427A1 (en) Edge metadata
KR101840597B1 (ko) 복수의 사용자들이 모이기 위한 장소를 추천하는 어플리케이션의 동작 방법
US20160364756A1 (en) Method and apparatus for providing advertisement content and recording medium
US9940583B1 (en) Transmitting content to kiosk after determining future location of user
JP6607310B2 (ja) 出力制御装置、情報出力システム、出力制御方法、およびプログラム
CN101959033A (zh) 广播接收装置
US20180232193A1 (en) Object-Based Presentation System
JP5542469B2 (ja) 情報提示装置及び方法及びプログラム
US20200202138A1 (en) Advertisement delivery using audience grouping and image object recognition
JP7342973B2 (ja) コンテンツ表示方法
EP4332872A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7389240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150