JP2020086845A - Information processor, control method thereof, program, and storage medium - Google Patents
Information processor, control method thereof, program, and storage medium Download PDFInfo
- Publication number
- JP2020086845A JP2020086845A JP2018219421A JP2018219421A JP2020086845A JP 2020086845 A JP2020086845 A JP 2020086845A JP 2018219421 A JP2018219421 A JP 2018219421A JP 2018219421 A JP2018219421 A JP 2018219421A JP 2020086845 A JP2020086845 A JP 2020086845A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- display area
- content
- information processing
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
この発明は所定領域に存在するオブジェクトの関心を集めることを目的にコンテンツを提供する技術に関する。 The present invention relates to a technique for providing contents for the purpose of attracting the interest of objects existing in a predetermined area.
近年、移動している人に対し、広告、案内等の情報を発信する方法として、看板や大型ディスプレイが配置されている。中には大型表示領域にプロジェクタを用いて画像を投射して広告や案内を行う装置もある。そのような背景のもと、広告や案内等のコンテンツを表示する領域の近くに存在する複数のオブジェクトのそれぞれに対し、個別のオブジェクトの属性に応じた広告等のコンテンツを表示する技術がある。例えば、特許文献1では、表示領域の近くに存在する複数の歩行者それぞれに付随して、コンテンツを個別に表示する。それにより、歩行者やエスカレータ搭乗者等移動するオブジェクトに対して、オブジェクトに応じたコンテンツを効果的に表示することが可能になる。 In recent years, signboards and large displays have been arranged as a method of transmitting information such as advertisements and guidance to people who are moving. There is also a device that projects an image on a large display area using a projector to perform advertisement or guidance. Under such a background, there is a technique for displaying contents such as advertisements according to the attributes of individual objects for each of a plurality of objects existing in the vicinity of a region where contents such as advertisements and guidance are displayed. For example, in Patent Document 1, contents are individually displayed in association with each of a plurality of pedestrians existing near the display area. As a result, it is possible to effectively display the content corresponding to the moving object such as a pedestrian or an escalator passenger.
特許文献1では、大型表示領域等の所定の表示領域近くが混雑している場合、全体に表示される情報が過多になるために、個々のコンテンツの認識されやすさが低下するという課題までは考慮されていなかった。 In Patent Document 1, when the vicinity of a predetermined display area such as a large display area is congested, there is too much information to be displayed as a whole, so that it is difficult to recognize individual contents. Was not considered.
そこで、本発明は、所定の表示領域近くに存在するオブジェクトに対して、オブジェクトの属性に応じたコンテンツを提供する場合に、混雑時でも効果的にコンテンツを提供することを目的とする。 Therefore, it is an object of the present invention to effectively provide content even in a crowded state when providing content according to an attribute of an object to an object existing near a predetermined display area.
上記課題を解決するため、本発明に係る情報処理装置は、所定の表示領域の近くに存在するオブジェクトを検出する検出手段と、検出された複数のオブジェクトによる前記所定の表示領域の近くの混雑状況を取得する取得手段と、前記複数のオブジェクトのうち、取得された前記混雑状況に応じて特定されるオブジェクトの属性に基づくコンテンツを、前記所定の表示領域に表示する表示制御手段と、を備える。 In order to solve the above problems, an information processing apparatus according to the present invention is a detection unit that detects an object existing near a predetermined display area, and a congestion situation near the predetermined display area due to a plurality of detected objects. And display control means for displaying, in the predetermined display area, the content based on the attribute of the object specified according to the acquired congestion status among the plurality of objects.
本発明によれば、所定の表示領域近くに存在するオブジェクトに対して、オブジェクトの属性に応じたコンテンツを提供する場合に、混雑時でも効果的にコンテンツを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, when providing the content according to the attribute of an object with respect to the object which exists in the vicinity of a predetermined display area, even if it is crowded, a content can be provided effectively.
以下、図面を参照しながら本発明の好適な実施形態について説明する。ただし、この実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention thereto.
<第1の実施形態>
本実施形態では、所定の表示領域近くに存在あるいは表示領域近くを通過する不特定多数の人物のそれぞれに向けた広告を提示するサイネージシステムの例を説明する。特に本実施形態では、表示領域の近くが混雑している場合、より効果的に広告を見せられるように、広告を提示する人物を、提示された広告に対して注目しやすい状態にある人物に限定する。
<First Embodiment>
In the present embodiment, an example of a signage system that presents an advertisement to each of an unspecified number of persons who exist near a predetermined display area or pass near the display area will be described. In particular, in the present embodiment, when the vicinity of the display area is congested, the person presenting the advertisement is changed to a person who is in a state where it is easy to pay attention to the presented advertisement so that the advertisement can be shown more effectively. limit.
図1は本実施形態を採用するサイネージシステムの構成の一例を表す。図1において、表示領域100は、本実施形態のプロジェクタ101から映像が投影されるスクリーンである。プロジェクタ101、カメラ102及び距離センサ103は、PC104に有線または無線で接続される。カメラ102、距離センサ103は、表示領域の近くの状況を検知するためのデバイスである。PC104は、接続された101から104の各種デバイスを制御する。また、図1において、オブジェクト105は、表示領域の近くに存在する歩行者や立ち止まっている人である。以下、表示領域近くに存在する人や物をオブジェクトと呼ぶ。コンテンツ106は、個別のオブジェクトに関連して表示される広告である。本実施形態では、コンテンツ106は、オブジェクト105の動きに付随して動くように表示される。例えば、オブジェクト105が表示領域100の前に現れると、オブジェクト105の位置に応じて、表示領域にコンテンツ106が表示される。即ち、オブジェクト105が移動すると、オブジェクト105の移動に追従してコンテンツ106も同様に移動する。なお、本実施形態において、プロジェクタ101とカメラ102と距離センサ103とPC104をそれぞれ別装置としたがこれに限るものではない。プロジェクタ101とカメラ102と距離センサ103とPC104のうち1以上を組み合わせた一体型の装置を使用してもよい。ただし、本実施形態はプロジェクションを利用するサイネージシステムに限らず適用することができる。
FIG. 1 shows an example of the configuration of a signage system adopting this embodiment. In FIG. 1, the
図2は、本実施形態に係る情報処理装置200のハードウェア構成図である。なお以下で説明する情報処理装置200は、図1のサイネージシステムの例であればPC104に相当する。CPU201は、CPU(Central Processing Unit)であり、各種処理のための演算や論理判断等を行い、システムバス208に接続された各構成要素を制御する。この情報処理装置200には、プログラムメモリとデータメモリを含むメモリが搭載されている。ROM(Read−Only Memory)202は、プログラムメモリであって、後述する各種処理手順を含むCPUによる制御のためのプログラムを格納する。RAM(Random Access Memory)203は、データメモリであり、CPU201の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域等を有する。なお、情報処理装置200に接続された外部記憶装置等からRAM203にプログラムをロードすることで、プログラムメモリを実現しても構わない。HDD204は、本実施形態に係る複数の電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバ装置等であってもよい。入力I/F205は、カメラ102や距離センサ103等から各種信号を取得し、バス208を介して情報処理装置200に入力する。出力I/F206は、CPU201で生成された出力信号を、本実施形態の出力装置であるプロジェクタ101に出力する。
FIG. 2 is a hardware configuration diagram of the
図3は、本実施形態に係る情報処理装置200の機能構成の一例を示すブロック図である。情報処理装置200は、オブジェクト検出部301、属性情報検出部302、混雑状況取得部303、オブジェクト特定部304、コンテンツ決定部305、表示制御部306を有する。これらの各機能部は、CPU201が、ROM202に格納されたプログラムをRAM203に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また、記憶部307は、ROM202またはHDD204の機能部である。以下、各要素について説明する。
FIG. 3 is a block diagram showing an example of the functional configuration of the
オブジェクト検出部301は、入力装置であるカメラから取得した撮像画像を用いて、表示領域の近くで、カメラの画角に収まる所定の範囲(以下、単に「表示領域の近く」という)に存在するオブジェクトの数やオブジェクトの位置情報を検出する。混雑状況取得部303は、オブジェクト検出部301が検出した位置情報を用いて、表示領域近くの混雑度を検出する。例えば、表示領域の近くに定義された範囲におけるオブジェクトの密度を混雑度として取得する。本実施形態では、表示領域の長さ(1次元の範囲)におけるオブジェクトの密度を算出する。
The
オブジェクト特定部304は、検出されたたオブジェクトの移動速度や向いている向き、表示領域からオブジェクトまでの距離情報をもとに、検出されているオブジェクトのうち少なくとも一部のオブジェクトを、広告を提示する対象として特定する。本実施形態では、カメラから取得した撮像画像や、距離センサから取得した距離情報を用いて、オブジェクトの移動速度やオブジェクトが向いている向き、表示領域からオブジェクトまでの距離情報を検出して利用する。属性情報検出部302は、カメラから取得した撮像画像を用いて、オブジェクトの属性を検出する。本実施形態において、属性とは、具体的には、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、同行するペットの有無、親子が同行しているか否かを示す情報の少なくともいずれかを含む。ただし、これらに限るものではない。例えば、犬であるか否か、バルーンであるか否か等を動物や無生物に関する情報を属性として検出してもよい。本実施形態では、属性情報検出部302は、オブジェクト特定部304により特定された少なくとも一部のオブジェクトのそれぞれに関して、属性情報を検出する。
The
コンテンツ決定部305は、属性情報検出部302が検出したオブジェクトの属性に基づいて、各オブジェクトに対して提示するコンテンツを決定する。本実施形態では、それぞれのオブジェクトに提示されるコンテンツは、予め対象者の属性が定義された複数パターンの広告の中から、個別のオブジェクトの属性に応じて選択される。表示制御部306は、プロジェクタ101に表示させる表示画像を生成し出力する機能部である。本実施形態では、オブジェクト検出部301が検出したオブジェクトの位置情報に基づいてコンテンツの表示位置を決定し、その位置にコンテンツを表示するように制御する。
The
記憶部307は、オブジェクトの位置情報、オブジェクトの属性情報、オブジェクトが向いている向きや表示領域からオブジェクトまでの距離を含む状況情報、オブジェクトに対し提示しているコンテンツ等を記憶する。また、直前のオブジェクトの位置情報や位置情報の履歴を記憶してもよい。また、システム起動時までに予め混雑度と各判定基準の関係を記憶しておいてもよい。なお、本実施形態の情報処理装置200が有する記憶部307はRAM203の機能部である。また、本発明は、これらの機能部をハードウェアで実現する情報処理装置によっても同様に実現可能である。
The
次に図4〜図6を参照して、本実施形態に係るサイネージシステムの動作を具体的に説明する。まず、図4(a)と図4(b)は、図1に示したサイネージシステムの動作例の一態様を示す。図4(b)は図4(a)のΔt時間後の様子を示す。なお、図1で説明したのと同じ構成には同じ番号を付し、説明を省略する。オブジェクト401〜405は、表示領域近くで検出される人物である。また、コンテンツ406はオブジェクト401に、コンテンツ407はオブジェクト403に、コンテンツ408はオブジェクト405に対応するように表示されている。本実施形態では、所定の表示領域の近くの混雑状況に応じて、各オブジェクトに対して属性に応じた個別のコンテンツを提供するか否かが切り替えられる。例えば、図1に示されるようにオブジェクトの数が3である状況は、混雑状況は基準を超えるほどではないと判定し、オブジェクトのそれぞれに対して個別にコンテンツが提供される。一方で、図4(a)及び図4(b)で示されたオブジェクトの数が5である状況では、基準を超えるほど混雑していると判定し、5つのオブジェクトのうち、よりコンテンツに注目しやすい状態にあるオブジェクトにコンテンツを提供する。例えば混雑状況を、表示領域近くにおけるオブジェクトの密度(以下、混雑度と称する)の値として取得し、閾値処理によってこのような切り替えを行う。また、本実施形態では、オブジェクトの移動速度がある程度遅いこと、オブジェクトの顔の向きが表示領域を視認しやすい方向に向いていること、表示領域から離れすぎていないことを、「よりコンテンツに注目しやすいオブジェクト」の条件として扱う。例えば、基準を超えるほど混雑した状況にあっても、全てのオブジェクトがよりコンテンツに注目しやすい状態にあるとみなされる場合には、本実施形態では、全てのオブジェクトに対して個別のオブジェクトが提供される。
Next, the operation of the signage system according to the present embodiment will be specifically described with reference to FIGS. 4 to 6. First, FIGS. 4A and 4B show one mode of an operation example of the signage system shown in FIG. FIG. 4B shows the state after Δt time in FIG. The same components as those described with reference to FIG. 1 are designated by the same reference numerals and the description thereof will be omitted.
図5(a)と図5(b)は、混雑時にコンテンツを提供するオブジェクトを特定する処理のために、記憶部307が記憶している情報の一例を表す。図5(a)は、オブジェクト検出部301によって検出される1以上のオブジェクトに関して、記憶部307に記憶される情報の一例を示すテーブルである。ID_1はオブジェクト401、ID_2はオブジェクト402、ID_3はオブジェクト403、ID_4はオブジェクト404、ID_5はオブジェクト405を一意に示すIDである。図5(a)のテーブルでは、各オブジェクトのIDと、現在の位置情報、過去の位置情報、向き、表示領域からの距離、属性、及び、各コンテンツに提供されるコンテンツを示す情報が対応付けて格納される。
FIG. 5A and FIG. 5B show an example of information stored in the
図5(b)に段階的な混雑度と、コンテンツを提供するオブジェクトを特定する段階的な判定基準の対応関係の一例を示すテーブルである。図5(b)のテーブルの内容は、システムの設計時あるいは設置時、メンテナンス時等において定義され、記憶部307に記憶される。図5(b)が示すように、本実施形態では、混雑度が1.0未満であまり混雑していない場合には、ジョギングする人や自転車で移動する人等のオブジェクトも含め、すべてのオブジェクトに対し情報を提示する対象とするように移動速度の判定基準を設定する。混雑度が1.0以上2.5未満であり少々混雑している場合には、立ち止まっている人、ゆっくり歩く人、早歩きの人等のオブジェクトに対し情報を提示する対象とするように移動速度の判定基準を設定する。混雑度が2.5以上であり混雑している場合には、立ち止まっている人、ゆっくり歩く人等のオブジェクトに対し情報を提示する対象とするように移動速度の判定基準を設定する。また、混雑すればするほど、表示領域がある方向に向いているオブジェクトや表示領域の近くに存在するオブジェクトのみを提示対象とするように、オブジェクトの向きや表示領域からオブジェクトまでの距離の判定基準を設けている。なお、混雑度と各判定基準の関係はこれに限るものではない。
FIG. 5B is a table showing an example of a correspondence relationship between the gradual congestion degree and the gradual determination criteria for specifying the object providing the content. The contents of the table in FIG. 5B are defined at the time of system design, installation, maintenance, etc., and are stored in the
図6は、情報処理装置が実行する処理の一例を表すフローチャートである。以下、各工程(ステップ)は、それら符号の先頭にSを付与して説明することとする。図6(a)を用いて、情報処理装置が実行するメイン処理の流れを説明する。本情報処理装置の起動後、本処理が繰り返し実行される。例えば、入力装置であるカメラが30fpsで画像を取得する場合、1/30秒毎に本処理が繰り返し実行される。これに限るものではなく、例えば、カメラの画像取得間隔にかかわらず、所定時間ごとに本処理を繰り返し実行してもよい。 FIG. 6 is a flowchart showing an example of processing executed by the information processing device. Hereinafter, each process (step) will be described by adding S to the head of the reference numerals. A flow of main processing executed by the information processing apparatus will be described with reference to FIG. After starting the information processing apparatus, this processing is repeatedly executed. For example, when a camera as an input device acquires an image at 30 fps, this process is repeatedly executed every 1/30 seconds. The present invention is not limited to this, and for example, this processing may be repeatedly executed at predetermined time intervals regardless of the image acquisition interval of the camera.
S601において、オブジェクト検出部301がカメラ102から取得した撮像画像を用いて、オブジェクトの位置情報(x,y)を検出する。具体的には、撮像画像を用いて顔の位置や頭の位置、目の位置のいずれかを検出する。なお座標系の原点は、表示領域100に向かって左下に当たる頂点であるとし、x軸は壁に沿って右に向かう方向、y軸は高さ方向に設定される。例えば、図4(b)に示す場面では、オブジェクト401の位置(103,150)、オブジェクト402の位置(259,150)、オブジェクト403の位置(400,180)を検出する。また、オブジェクト404の位置(254,102)、オブジェクト405の位置(51,150)を検出する。そして、記憶部307に記憶されている情報を更新する。図4(b)の場合、Δt秒前に当たる図4(a)の場面で検出された位置情報が先に「現在の位置情報」として記憶されているので、現在の位置情報として記憶されていた各オブジェクトの位置情報を過去の位置情報として改めて記憶する。例えば、図4(b)のΔt=1/30秒前である図4(a)の状態で現在の位置情報としてオブジェクト401の位置(100,150)、オブジェクト402の位置(250,150)、オブジェクト403の位置(400,180)を記憶している。また、オブジェクト404の位置(250,100)、オブジェクト405の位置(50,150)を記憶している。記憶部307は、それらの位置情報を過去の位置情報として図5(a)が示すように記憶する。なお、本実施形態においては、位置(100,150)から位置(103,150)への移動は、x軸方向に3cm、y軸方向に0cm移動したことを示すとする。次に、記憶部307は、図5(a)が示すように現在の位置情報としてオブジェクト検出部301が検出した位置情報を記憶する。S602において、属性検出部は、カメラ102から取得した撮像画像を用いて、属性を検出する。例えば、属性としてBaby, Youth, Middle−age, Seniorの4つの年齢層のうちいずれかを検出する。ここで、図5(a)が示すようにオブジェクト401とオブジェクト402はYouth、オブジェクト403はMiddle−age、オブジェクト404とオブジェクト405はSeniorと検出する。S603において、混雑状況取得部303は混雑状況を取得する。
In step S601, the
本実施形態では、オブジェクト検出部301が検出したオブジェクト数と表示領域のサイズを用いて、表示領域に対するオブジェクトの密度を、混雑状況の指標である混雑度として算出する。表示領域である表示領域100の横幅が3m、オブジェクト数が5である場合、混雑度=(オブジェクト数)/(表示領域のサイズ)=5/3となる。S604において、混雑状況取得部303が、所定の基準を超えるほど混雑しているか否かを判定する。具体的には、混雑度が予め定められた閾値以上であれば混雑していると判定する(S604:Yes)。基準値未満であれば混雑していないと判定する(S604:No)。S604において、混雑していると判定された場合(S604:Yes)、S605に進み、提示対象を決定する。混雑度の閾値は、例えば1.5とする。この場合、図1に示されたオブジェクトの数が3で混雑度=(オブジェクト数)/(表示領域のサイズ)=3/3という状況であれば、混雑状況は基準を超えるほどではないので、オブジェクトのそれぞれに対してコンテンツが提供される。一方で、図4(a)及び図4(b)で示されたオブジェクトの数が5で混雑度=5/3という状況では、基準を超えるほど混雑しているので、コンテンツを提供するオブジェクトの数が5より小さい数に絞り込まれている。
In the present embodiment, the number of objects detected by the
ここで図6(b)は、S605で実行される、提示対象(のオブジェクト)を特定する処理の一例を表すフローチャートである。S611において、オブジェクト特定部304は、オブジェクトの移動速度とオブジェクトの向きと表示領域からオブジェクトまでの距離を取得する。例えば、オブジェクト特定部304は、記憶部307に記憶されている現在の位置情報と過去の位置情報を用いて移動速度を算出する。具体的には、オブジェクト401は位置(100,150)から位置(103,150)に時間1/30秒で移動すると、移動速度は時速3.2kmと算出される。同様に、オブジェクト402は時速9.7km、オブジェクト403は時速0km、オブジェクト404は時速4.8km、オブジェクト405は時速1.1kmと検出する。次に、オブジェクト特定部304はカメラ102から取得した撮像画像を用いてオブジェクトの向きを検出する。具体的には、例えば画像処理により、オブジェクトとして検出されている人物の顔や頭の向きを検出する。また、可視カメラや赤外カメラを用いて、オブジェクトの目の目頭や角膜反射、瞳孔の位置関係により視線方向を検出してもよい。本実施形態においては、オブジェクトに対し北方向に表示領域がある場合、オブジェクトが北を向いているときは向き0度、オブジェクトが南を向いているときは向き180度と定義する。ただしこれに限るものではない。図4(b)において、オブジェクト401は80度、オブジェクト402は90度、オブジェクト403は180度、オブジェクト404は90度、オブジェクト405は5度と検出する。続いて、オブジェクト特定部304は表示領域からオブジェクトまでの距離を取得する。具体的には、距離センサ103から取得した距離画像を用いて、表示領域からオブジェクトまでの距離を取得する。図4(b)において、オブジェクト401は80cm、オブジェクト402は100cm、オブジェクト403とオブジェクト405は50cm、オブジェクト404は300cmと取得する。オブジェクト特定部304は、取得した各オブジェクトの移動速度と向き、表示領域からオブジェクトまでの距離を記憶部307に記憶する。S612において、オブジェクト特定部304は、混雑状況取得部303が取得した混雑度に応じて、提示対象を決定するために使用する移動速度の判定基準と向きの判定基準と表示領域からオブジェクトまでの距離の判定基準を決定する。
Here, FIG. 6B is a flowchart showing an example of the process of identifying (the object of) the presentation target, which is executed in S605. In step S611, the
具体的には、例えば、図5(b)に示すように記憶部307に予め記憶してある混雑度と各判定基準の関係に基づいて決定する。本実施形態では、混雑度が5/3であるので、移動速度の判定基準は時速6km以下、向きの判定基準は−120度以上120度以下、表示領域からオブジェクトまでの距離の判定基準は200cm未満と決定する。ここで移動速度の判定基準は、移動速度が広告に注目する余裕がある程度に遅いとみなされるオブジェクトが提示対象として決定されるように設定される。また、向きの判定基準は、表示領域に向かう方向を見ているとみなされるオブジェクトが提示対象として決定されるように設定される。表示領域からオブジェクトまでの距離の判定基準は、広告の内容を視覚的に認識できる程度に表示領域に近いとみなされるオブジェクトが提示対象として決定されるように設定される。
Specifically, for example, as shown in FIG. 5B, the determination is made based on the relationship between the congestion degree and each determination criterion stored in advance in the
S613において、オブジェクト特定部304はすべてのオブジェクトに対して処理したか否かを判定する。オブジェクト401、オブジェクト402、オブジェクト403、オブジェクト404、オブジェクト405に対して処理が終わっていないため(S613:No)、S614に進む。S614において、オブジェクト特定部304は処理が終わっていないオブジェクト、ここではオブジェクト401を選択する。S615において、オブジェクト特定部304は選択したオブジェクトの移動速度が判定基準を満たしているか否かを判定する。オブジェクト401の移動速度時速3.2kmは時速6km以下であるので、判定基準を満たす(S615:Yes)。S616において、オブジェクト特定部304は、選択したオブジェクトの向きが判定基準を満たすか否かを判定する。オブジェクト401の向き80度は−120度以上120度以下であるので判定基準を満たす(S616:Yes)。S617において、オブジェクト特定部304は表示領域から選択したオブジェクトの距離が判定基準を満たすか否かを判定する。オブジェクト401の距離80cmは200cm未満であるため、判定基準を満たす(S617:Yes)。したがって、S618において、オブジェクト特定部304は選択したオブジェクト、すなわち、オブジェクト401を提示対象として決定する。
In S613, the
続いて、S613において、オブジェクト特定部304はすべてのオブジェクトに対して処理したか否かを判定し、オブジェクト402、オブジェクト403、オブジェクト404、オブジェクト405についても提示対象であるか否かを決定していく。S614において、オブジェクト特定部304がオブジェクト402を選択した場合、S615において、オブジェクト402の時速9.7kmは時速6km以下でないので判定基準を満たさないと判定される(S615:No)。したがって、S619において、提示対象でないと決定する。続いて、S614において、オブジェクト特定部304がオブジェクト403を選択した場合、S615において、オブジェクト402の時速0kmは時速6km以下であるので判定基準を満たすと判定される(S615:Yes)。しかし、S616においてオブジェクト403の向き180度は−120度以上120度以下でないので判定基準を満たさない(S616:No)。従って、S619において、提示対象でないと決定する。
Subsequently, in S613, the
続いて、S614において、オブジェクト特定部304がオブジェクト404を選択した場合、S615において、オブジェクト404の時速4.8kmは時速6km以下であるので判定基準を満たすと判定される(S615:Yes)。また、S616においてオブジェクト404の向き90度は−120度以上120度以下であるので判定基準を満たす(S616:Yes)。しかし、S617において、オブジェクト404の距離300cmは200cm未満でないため、判定基準を満たさない(S617:No)。したがって、S619において、提示対象でないと決定する。続いて、S614において、オブジェクト特定部304がオブジェクト405を選択した場合、オブジェクト401と同様に、S615とS616とS617において各判定基準を満たすため、S618において提示対象であると決定する。このように、オブジェクト特定部304は、検出されている複数のオブジェクトのうちコンテンツを提示する対象となる少なくとも一部のオブジェクトを特定する。
Subsequently, when the
オブジェクト401、オブジェクト402、オブジェクト403、オブジェクト404、オブジェクト405に対して処理を終了する(S613:Yes)と、図6(a)のS607aに進む。S607において、コンテンツ決定部305は、オブジェクト特定部304が決定した提示対象であるオブジェクトに対しコンテンツを決定する。具体的には、例えば、提示対象であるオブジェクトの属性に応じてコンテンツを決定する。図4(b)において、オブジェクト401には記憶部307に記憶されている属性Youthから、コンテンツ決定部305は若者向けのテーマパークの広告Aを提示することを決定する。また、オブジェクト405には記憶部307に記憶されている属性がSeniorであることから、コンテンツ決定部305はシニア向けのリゾートの広告Bを提示することを決定する。S608において、表示制御部306は、記憶部307に記憶されているオブジェクトの位置情報に応じて、各オブジェクトに対するコンテンツを表示する表示位置を決定する。例えば、図4(b)において、記憶部307に記憶されているオブジェクト401の現在の位置情報(103,150)から、オブジェクトの目に入りやすいように30cm先の位置(133,150)に表示すると決定する。同様に、オブジェクト405には現在の位置情報(51,150)に基づいて位置(81,150)に表示すると決定する。S609において、表示制御部306はコンテンツを表示する。図4(b)においては、オブジェクト401に対し広告Aを位置(133,150)に、オブジェクト405に対し広告Bを位置(81,150)に表示する。以上がS604において混雑していると判定された場合の処理の流れである。
When the processing is completed for the
続いて、S604において混雑していないと判定された場合の処理の流れを説明する。混雑していないと判定した場合、S606において、オブジェクト特定部304はすべてのオブジェクトを提示対象であると決定する。S607において、コンテンツ決定部305は、提示対象であるすべてのオブジェクトに対し、記憶部307に保持されている各オブジェクトの属性に応じてコンテンツを決定する。S608において、表示制御部306は、記憶部307に記憶されているオブジェクトの位置情報に応じて、各オブジェクトに対するコンテンツを表示する表示位置を決定する。S609において、表示制御部306は、各オブジェクトに対するコンテンツを表示位置に応じて表示する。
Next, the flow of processing when it is determined in S604 that the traffic is not congested will be described. When it is determined that the objects are not crowded, the
<変形例>
第1の実施形態では、プロジェクションを利用してオブジェクトに追従する広告を表示するサイネージシステムを説明したが、これは一例にすぎない。例えば大型ディスプレイを搭載した掲示板、店舗などの看板、あるいは自動販売機において、近くで検出されたオブジェクトの属性に応じた広告などのコンテンツを提供するシステムにも本実施形態を適用することができる。
<Modification>
In the first embodiment, the signage system that displays the advertisement that follows the object using the projection has been described, but this is merely an example. For example, the present embodiment can be applied to a system that provides contents such as advertisements according to the attribute of an object detected nearby, such as a bulletin board equipped with a large-sized display, a signboard in a store, or a vending machine.
なお、本実施形態において、属性検出部は年齢層を属性として検出したが、これに限るものではない。例えば、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、ペットの有無、親子であるか否かのうち1以上を検出してもよい。ペットの有無は、例えば、画像処理により犬等の動物を検出し、動物であるオブジェクトの所定範囲以内にいるオブジェクトの属性をペット有としてもよい。親子であるか否かは、例えば、年齢層がBabyまたはYouthであるオブジェクトと、Middle−ageであるオブジェクトが所定範囲以内の位置に存在すれば、2つのオブジェクトの属性を親子であるとしてもよい。 Although the attribute detection unit detects the age group as an attribute in the present embodiment, the present invention is not limited to this. For example, one or more of age, age group, gender, race, hair color, body type, clothing color, presence of hat, presence of beard, presence of glasses, presence of pet, presence or absence of parent and child is detected. You may. As for the presence/absence of a pet, for example, an animal such as a dog may be detected by image processing, and the attribute of an object within a predetermined range of the object that is an animal may be a pet presence. For example, if an object whose age group is Baby or Youth and an object that is Middle-age exist in a position within a predetermined range, it may be determined whether or not the object is a parent and child. ..
なお、本実施形態において、コンテンツ決定部305は属性である年齢層に応じてコンテンツを決定したがこれに限るものではない。例えば、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、ペットの有無、親子であるかのうち1以上を用いてコンテンツを決定してもよい。また、温度センサや湿度センサ、時計を用いて、天候、気温や湿度、日時情報等の環境情報を検出し、環境情報に応じてコンテンツを決定してもよい。環境情報は、ネットワークやクラウドサーバを介して取得してもよい。また、クラウドサーバ等のネットワークと通信し、イベント情報や天候情報、災害情報等を取得し、取得した情報に応じてコンテンツを決定してもよい。被写体の温度を検出することが可能なカメラ等を用いてオブジェクトの体温を検出する等、オブジェクトの身体情報に応じてコンテンツを決定してもよい。オブジェクトが所有するデバイス、例えばスマートフォンやタブレット等に記憶されているオブジェクトの嗜好情報や商品の購入履歴情報等を取得し、取得した情報に応じて、コンテンツを決定してもよい。
In addition, in the present embodiment, the
また、オブジェクトの属性と環境情報、ネットワーク通信により取得した情報、オブジェクトの身体情報、オブジェクトが所有するデバイスから取得した情報等のうち1以上を組み合わせてコンテンツを決定してもよい。例えばコンテンツ決定部305は、環境情報として、天候が晴れ・気温が30度等、真夏日を示す情報を検出し、オブジェクトの体温が高い場合に飲み物や飲食店の広告、熱中症に対する注意喚起等の広告を提示する。このように、環境情報に応じた情報を提示することもできる。
Further, the content may be determined by combining one or more of the attribute of the object and environment information, information acquired by network communication, physical information of the object, information acquired from the device owned by the object, and the like. For example, the
また、例えば、属性として人種のうちAsian, Caucasian, African, Indianのいずれかを検出した場合、検出した人種に応じて広告の言語を設定したり、関連地域のニュースを提示したり、人種に応じた情報を提示してもよい。また例えば、属性がペット有と検出された場合、動物同行可能な飲食店の広告や、ペットのケア用品の広告等、同行する動物に関する広告を提示する等、ペットの有無に応じた情報の提示を決定してもよい。また、オブジェクトである動物に対し、その動物に関連するコンテンツを提示する等オブジェクトの種別に応じた情報の提示を決定してもよい。また、属性として検出された服の色や髪の色(例えば、Black, Blond, Brown, Grayのいずれかを検出)に応じて、色に似あう色の服や装飾品の広告を提示する等、オブジェクトから検出した色に応じた情報の提示を決定してもよい。また、例えば、属性として帽子有と検出された場合は、帽子店の広告を提示する等、オブジェクトの装飾品に応じた情報を提示することを決定してもよい。 Further, for example, when any one of Asian, Caucasian, African, and Indian is detected as an attribute, the language of the advertisement is set according to the detected race, the news of the relevant area is presented, or Information may be presented according to the species. Further, for example, when the attribute is detected as having a pet, presentation of information according to the presence or absence of a pet, such as advertisement of a restaurant that can accompany animals, advertisement of pet care products, etc. May be determined. Further, the presentation of information according to the type of the object such as presenting the content related to the animal may be determined for the animal that is the object. In addition, according to the clothes color or hair color detected as an attribute (for example, any one of Black, Black, Brown, and Gray is detected), an advertisement of clothes or ornaments of a color similar to the color is presented, etc. The presentation of information according to the color detected from the object may be determined. Further, for example, when it is detected that a hat is present as an attribute, it may be decided to present information according to the ornament of the object, such as presenting an advertisement of a hat store.
また、例えば、環境情報として真夏日であることと、属性として帽子無を検出した場合は、熱中症に対する注意の広告や、帽子等の熱中症対策用品に関する広告を提示する等、環境情報と属性を組み合わせてそれに応じた情報を提示すると決定してもよい。また、例えば、属性が親子であると検出された場合、日時情報に応じて、親子向けのイベントの広告を提示する等、属性と環境情報、イベント情報等ネットワークから取得した情報に応じて、コンテンツを決定してもよい。また、例えば、髭の有無を示す属性としてMoustache,Beard,5 o’clock shadowのいずれかを検出する。その場合、時刻が夕方で属性が5 o’clock shadowであれば髭剃り用品の広告を出す等、時刻と属性に応じた広告を提示してもよい。例えば、オブジェクトが所有するデバイスから購入履歴情報を取得し、購入頻度が高い店のクーポンを提示する等、オブジェクトが所有するデバイスから取得した情報に応じてコンテンツを決定してもよい。 In addition, for example, when it is midsummer day as environmental information and when hatless is detected as an attribute, an advertisement of attention against heat stroke and an advertisement regarding heatstroke countermeasure products such as hats are presented, and environmental information and attributes It may be determined that the information is presented in combination with. In addition, for example, when the attribute is detected to be a parent and child, the advertisement of the event for the parent and child is presented according to the date and time information, the attribute and the environmental information, the event information, and the like according to the information acquired from the network. May be determined. Further, for example, any of Mustache, Beard, and 5 o'clock shadow is detected as an attribute indicating the presence or absence of a beard. In this case, if the time is in the evening and the attribute is 5 o'clock shadow, an advertisement corresponding to the time and the attribute may be presented, such as an advertisement for shaving equipment. For example, the purchase history information may be acquired from the device owned by the object, and the coupon of a shop with a high purchase frequency may be presented, or the content may be determined according to the information acquired from the device owned by the object.
また、本実施形態において、コンテンツ決定部305は属性に応じてコンテンツを決定するとしたが、コンテンツに関する過去の履歴情報を記憶部307に記憶し、履歴情報に応じてコンテンツを決定してもよい。具体的には、例えば、コンテンツ決定部305は、オブジェクトAに提示するコンテンツを決定した際に、オブジェクトAに対応付けてコンテンツに関する情報を記憶部307に記憶させる。次フレームで、コンテンツ決定部305がオブジェクトAに対するコンテンツを決定する際に、記憶部にコンテンツに関する情報が記憶されていたら、記憶されているコンテンツを提示すると決定する。これにより、オブジェクトの属性検出精度が低くフレーム毎に異なる属性が検出される場合にも、オブジェクトは同じコンテンツを見続けることが可能になる。
Further, in the present embodiment, the
なお、本実施形態において、表示制御部306はオブジェクトの現在の位置情報に応じてコンテンツの表示位置を決定するとしたが、これに限るものではない。例えば、オブジェクトの位置情報と、オブジェクトの移動速度、オブジェクトの移動方向、オブジェクトの向き、表示領域からオブジェクトまでの距離、オブジェクトの身長等の外形情報のうち1以上を用いてコンテンツの表示位置を決定してもよい。例えば、オブジェクトの移動速度がゆっくりである場合はオブジェクトの近くにコンテンツを表示させ、オブジェクトの移動速度が速い場合はオブジェクトから少し離れた位置にコンテンツを表示させてもよい。また、例えば、オブジェクトの移動速度が0に近い場合等オブジェクトが静止している状態の場合、オブジェクトが移動していたとしても、コンテンツの表示位置を過去、例えば1フレーム前の表示位置と同じ位置に表示してもよい。また、例えばオブジェクトの移動速度が0に近い値で、かつ、表示領域のほうに向いていた場合、広告を見ているとみなし、オブジェクトが移動していたとしても、コンテンツの表示位置を過去、例えば1フレーム前の表示位置と同じ位置に表示してもよい。
Although the
また、表示制御部306は、例えばオブジェクトの身長に応じて、コンテンツの表示位置の高さを決定してもよい。また、表示制御部306は、例えば、オブジェクトの向きまたは移動方向に基づいて、オブジェクトが移動する先にコンテンツを表示させるよう表示位置を決定してもよい。表示制御部306は、例えば、オブジェクトがすれ違う場合等、複数のコンテンツの表示位置が重なる場合、コンテンツの表示サイズを小さくして重ならないようにしてもよい。また、コンテンツが重ならないように表示位置の高さを決定してもよい。また、例えば、表示領域により近い位置に存在するオブジェクトや、より表示領域の方向を向いているオブジェクトを優先してコンテンツを表示してもよい。その場合、オブジェクト同士がすれ違っている間は優先するオブジェクトに対するコンテンツのみ表示するが、オブジェクト同士が離れた時点で再び各オブジェクトに対するコンテンツを表示する。
In addition, the
なお、本実施形態において、オブジェクト検出部301はカメラ102から取得した撮像画像を画像処理することで、オブジェクトの位置や属性を検出するとしたが、これに限るものではない。例えば、オブジェクトが所有するデバイスと通信してオブジェクトの位置情報を取得してもよい。具体的には、スマートフォンやタブレット等に搭載されているGPSや、加速度センサ、地磁気センサ、ジャイロセンサ等各種センサを用いて、オブジェクトが存在する位置情報を検出する。また、Wi−Fiのアクセスポイントや、キャリアの基地局、ビーコン等を用いて位置情報を検出してもよい。
In the present embodiment, the
なお、本実施形態において、属性情報検出部302はカメラ102から取得した撮像画像を画像処理することで、オブジェクトの位置や属性を検出するとしたが、これに限るものではない。例えば、オブジェクトが所有するデバイスと通信して、予めデバイスにインストールされたアプリから、予めオブジェクトによって登録してある属性の情報を取得してもよい。
In the present embodiment, the attribute
なお、本実施形態において、オブジェクト特定部304はカメラ102や距離センサ103から取得した撮像画像を画像処理することで、オブジェクトの移動速度や向き、表示領域からオブジェクトまでの距離を検出するとしたが、これに限るものではない。例えば、オブジェクトが所有するデバイスと通信してオブジェクトの移動速度や向き、表示領域からオブジェクトまでの距離を取得してもよい。具体的には、スマートフォンやタブレット等に搭載されているGPSや、加速度センサ、地磁気センサ、ジャイロセンサ等各種センサを用いて、オブジェクトが存在する位置情報や向きを検出する。本実施形態で説明したように位置情報から移動速度を検出する。また、予め表示領域の位置情報を記憶部307に記憶しておき、表示領域の位置情報とオブジェクトの位置情報をもとに、表示領域からオブジェクトまでの距離を検出する。なお、Wi−Fiのアクセスポイントや、キャリアの基地局、ビーコン等を用いて位置情報を検出してもよい。
In the present embodiment, the
以上により、個々のオブジェクトに付随して個別に提供情報を表示する装置において、混雑していても、オブジェクトやその周囲の状況に応じて情報を提示することで、コンテンツの視認性を向上させることができる。なお、本実施形態において、距離センサ103は距離画像を取得するとしたが、これに限るものではない。例えば、赤外線や超音波により距離を測定するセンサ等を用いて距離情報を取得してもよい。
As described above, in the device that individually displays the provided information associated with each object, the visibility of the content can be improved by presenting the information according to the situation of the object and its surroundings even when the device is crowded. You can Although the
以上説明したように、第1の実施形態および変形例によれば、所定の表示領域近くが混雑している場合は、個別にコンテンツを提示するオブジェクトを、コンテンツに注目しやすい状態にあるオブジェクトに絞り込む。これにより、有限の表示領域上にコンテンツの数が増えすぎて(密度が高まりすぎて)1つ1つのコンテンツの内容が認識されにくくなることを防ぐことができる。その結果、近くが混雑する場合でも効果的に個別のオブジェクトに対応するコンテンツを提供できる。 As described above, according to the first embodiment and the modification, when the vicinity of a predetermined display area is congested, an object presenting content individually is changed to an object in a state in which it is easy to pay attention to the content. Narrow down. As a result, it is possible to prevent the number of contents on the finite display area from increasing too much (the density being too high) to make it difficult to recognize the contents of each content. As a result, contents corresponding to individual objects can be effectively provided even when the vicinity is crowded.
<第2の実施形態>
第2の実施形態では、所定の表示領域近くが混雑している場合は、表示領域の近くに存在するオブジェクトをグルーピングし、1グループに1つコンテンツを提示することで、表示領域に表示されるコンテンツの数が増えすぎないように制御する。さらには、コンテンツの表示サイズを大きくしたり、表示位置を高い位置にしたりする。これにより、第2の実施形態では、速いスピードで移動中であったり表示領域から離れた位置にいたりするオブジェクトにも注目されやすくなり、混雑時でもコンテンツの提供を効果的に行うことが可能になる。以下では、第1の実施形態と同様に、図1に示したサイネージシステムを例に第2の実施形態を説明する。
<Second Embodiment>
In the second embodiment, when the vicinity of a predetermined display area is congested, objects existing near the display area are grouped, and one content is presented to one group to be displayed in the display area. Control so that the number of contents does not increase too much. Furthermore, the display size of the content is increased or the display position is set to a high position. As a result, in the second embodiment, it becomes easier to pay attention to an object that is moving at a high speed or that is far from the display area, and it is possible to effectively provide the content even when it is crowded. Become. Hereinafter, as with the first embodiment, the second embodiment will be described by taking the signage system shown in FIG. 1 as an example.
図7は本実施形態に係る情報処理装置200の機能構成の一例を示すブロック図である。ただし、図3の機能構成と同一の機能部には同じ番号を付し、詳細な説明は省略する。グルーピング部701は、CPU201等の機能部であり、表示領域の近くに存在するオブジェクトのうち、少なくとも1以上のオブジェクトを1つのグループにグルーピングする。第2の実施形態においても、記憶部307には、オブジェクトの位置情報、オブジェクトの属性情報、オブジェクトが向いている向きや表示領域からオブジェクトまでの距離を含む状況情報、オブジェクトに対し提示しているコンテンツ等が記憶される。さらに、オブジェクトが所属するグループの情報や、各グループの位置とグループに所属するメンバ数が記憶される。また、記憶部307は、直前のオブジェクトの位置情報や位置情報の履歴を記憶してもよい。また、システム起動時までに予め混雑度とグループの規模の関係を記憶しておいてもよい。
FIG. 7 is a block diagram showing an example of the functional configuration of the
図8は、図1に示したサイネージシステムの動作例の一態様を示す。オブジェクト801〜807は、表示領域100近くで検出されたオブジェクトである。コンテンツ809は、オブジェクト807に対して提示されたコンテンツである。コンテンツ810は、オブジェクト801とオブジェクト802のグループに対して提示されたコンテンツである。コンテンツ811は、オブジェクト803とオブジェクト804とオブジェクト805のグループに対して提示されたコンテンツである。コンテンツ812はオブジェクト806のグループに対して提示されたコンテンツである。
FIG. 8 shows one mode of an operation example of the signage system shown in FIG.
第2の実施形態において情報処理装置200が実行するメインの処理の流れは、第1の実施形態で説明した図6(a)のフローチャートに示された処理に準じるため、説明は省略する。ただし、第2の実施形態では、S605で実行される、提示対象のオブジェクトを特定する処理の内容が異なる。図9は、第2の実施形態において、S605で実行される処理の一例を表すフローチャートである。なお、図6(b)のフローチャートで説明したのと同じ内容のステップに対しては同じ場合を付し、説明を省略する。
The flow of the main processing executed by the
S901においてグルーピング部701は、混雑状況取得部303が取得した混雑状況(混雑度)に応じてグループの規模を決定する。グループの規模とは、例えば、グループに所属するメンバ数の最大値である。ここで、S603で混雑状況取得部303が取得した混雑度は、表示領域である表示領域100の横幅が3m、オブジェクト数が7である場合、混雑度=(オブジェクト数)/(表示領域のサイズ)=7/3となる。例えば、混雑度7/3のとき、グループの規模としてグループに所属するメンバ数の最大値を3とする。
In step S<b>901, the
S902において、グルーピング部701はすべてのオブジェクトに対し処理したか否かを判定する。いずれのオブジェクトに対しても処理していないのでNoと判定されS903に進む。S903において、オブジェクト特定部304はオブジェクト807を選択する。S904においてグルーピング部701はオブジェクトが移動しているか否かを判定する。具体的には、例えば、オブジェクトの移動速度が所定値以上であるか否かを判定する。オブジェクトの移動速度は記憶部307に記憶しているオブジェクトの現在の位置情報と、過去の位置情報に基づいて算出する。ここで、判定に使用する移動速度が時速1.0km、オブジェクト807の移動速度が時速0.3である。この場合、グルーピング部701はオブジェクト807が移動していないと判定する。S913において、オブジェクト特定部304はオブジェクト807を提示対象と決定する。これにより、移動していないオブジェクトはグルーピングされないため、ほかのオブジェクトの移動にかかわらず同じコンテンツを同じ場所で見続けることが可能になる。
In step S902, the
続いて、S903において、オブジェクト特定部304はオブジェクト801を選択する。ここで、オブジェクト801の移動速度が時速3.0kmである。S904において、グルーピング部701は、オブジェクト801が時速1.0km以上であるので移動していると判定する。S905においてグルーピング部701は、記憶部307からグループの情報を取得し、グループが存在しているか否か判定する。ここではグループが作成されていないため、存在していないと判定される(S905:No)。S912において、グルーピング部701は新しいグループを作成し選択したオブジェクトをそのグループのメンバとする。すなわち、グルーピング部701はグループAを作成し、オブジェクト801をグループAのメンバとする。記憶部307は、グループと、そのグループのメンバとしてオブジェクト801を記憶する。S911においてグルーピング部701はグループの位置を決定する。具体的には、例えば、グループのメンバとなっている各オブジェクトの現在の位置情報に基づいて、各オブジェクトの中央位置を算出し、中央位置をグループの位置として決定する。ここで、オブジェクト801の現在の位置情報が(103,150)である。グループAのメンバはオブジェクト801のみなので、グループAの位置は(103,150)となる。
Subsequently, in S903, the
続いて、S903においてオブジェクト特定部304はオブジェクト802を選択する。ここで、オブジェクト802の移動速度が時速3.0kmである。S904において、グルーピング部701は、オブジェクト802が時速1.0km以上であるので移動していると判定する。S905においてグルーピング部701は、記憶部307にグループAの情報があるため、グループが存在していると判定する(S905:Yes)。S906において、グルーピング部701はすべてのグループに対し処理したか否かを判定する。ここで、グループAに対して処理していないため、S907に進む。S907において、グルーピング部701はグループAを選択する。S908において、グルーピング部701は、グループに所属するオブジェクト数が、S901で決定したグループのメンバ数の最大値以上であるか否かを判定する。グループのメンバ数の最大値は3であり、グループAのメンバはオブジェクト801のみなのでメンバ数は1である。したがって、グループAに所属するメンバ数は、グループのメンバ数の最大値未満であると判定される(S908:No)。S909において、グルーピング部701は選択したオブジェクトが選択したグループの位置の所定範囲内に存在するか否かを判定する。オブジェクト802の現在の位置情報が(105,170)、グループの位置の所定範囲を半径1m以内であるとすると、オブジェクト802はグループAの位置(103,150)から半径1m以内であるので、S910に進む(S909:Yes)。S910において、グルーピング部701は、選択したオブジェクト選択したグループのメンバとする。すなわち、オブジェクト802をグループAのメンバとする。S911において、グルーピング部701はグループAのメンバであるオブジェクト801とオブジェクト802の現在の位置情報に基づいてグループAの位置を算出する。具体的には、オブジェクト801の位置(103,150)とオブジェクト802の位置(105,170)の平均値を求める。したがって、グループAの位置は(104,160)となる。
Then, in step S903, the
続いて、S903において、オブジェクト特定部304はオブジェクト803を選択する。グルーピング部701は、S904においてオブジェクト803が移動していると判定する。また、グルーピング部701はS905においてグループAに対して処理していないのでS907に進み、グループAを選択する。S908において、グルーピング部701は、グループAに所属するメンバ数2は、グループのメンバ数の最大値3以上ではないと判定する(S908:No)。ここで、オブジェクト803の現在の位置情報が(205,170)である。その場合、S909において、グルーピング部701はグループAの位置(104,160)の半径1m以内にオブジェクト803が存在しないと判定する。S906において、グルーピング部701は、記憶部307からグループはグループAのみ存在することを取得する。グループAに関しては処理したため、すべてのグループに対し処理したと判定する(S906:Yes)。S912において、グルーピング部701は新しいグループBを作成し、オブジェクト803をグループBのメンバとする。S911において、グルーピング部701はグループBのメンバはオブジェクト803のみであるためグループBの位置をオブジェクト803の現在の位置情報とする。続いて、オブジェクト804とオブジェクト805も上述の処理と同様の処理を行い、グループBのメンバになる。
Subsequently, in S903, the
次に、S903において、オブジェクト特定部304がオブジェクト806を選択する。グループAとグループBに対して処理していないためS906においてNoと判定する(S906:No)。S907においてグルーピング部701がグループAを選択すると、グループAのメンバ数は2であり、グループのメンバ数最大値3であるためS908においてNoと判定される(S908:No)。ここで、オブジェクト806の現在の位置情報が(270,150)である。グループAの位置は(104,160)であるため、S909において、グルーピング部701は、オブジェクト806はグループAの半径1m以内に存在しないと判定する(S909:No)。次に、グルーピング部701がS907においてグルーピング部701がグループBを選択すると、グループBのメンバ数は3であり、グループのメンバ数最大値3であるためS908においてYesと判定される(S908:Yes)。グループAとグループBに対し処理したため、グルーピング部701はS906においてすべてのグループに対し処理したと判定する(S906:Yes)。S912において、グルーピング部701は新しいグループCを作成し、オブジェクト806をグループCのメンバとする。S911において、グルーピング部701はグループCのメンバはオブジェクト806のみであるためグループCの位置をオブジェクト806の現在の位置情報とする。
Next, in S903, the
続いて、S902において、すべてのオブジェクトに対し処理したのでS914にすすむ(S902:Yes)。S914において、オブジェクト特定部304はすべてのグループ、即ち、グループAとグループBとグループCを提示対象であると決定する。S607において、コンテンツ決定部305は、グループAとグループBとグループCとオブジェクト807それぞれに対しコンテンツを決定する。例えば、オブジェクト807に対しては、オブジェクト807の属性に応じてコンテンツを決定する。グループに対するコンテンツはメンバの属性に応じてコンテンツを決定する。例えば、オブジェクト803とオブジェクト804の属性がYouthであり、オブジェクト805の属性がMiddle−ageだとする。その場合、より多くのオブジェクトに共通する属性を優先しコンテンツを決定する。グループBはMiddle−ageのオブジェクトよりもYouthのオブジェクトのほうが多いため、グループの属性をYouthとし、Youth向きの広告をコンテンツとして決定する。S608において、表示制御部306は、提示対象それぞれに対し、提示対象の位置情報に応じてコンテンツの表示位置を決定する。具体的には、例えば、オブジェクト807に対するコンテンツの表示位置はオブジェクト807の現在の位置情報に応じて決定する。また、グループAに対するコンテンツの表示位置はグループAの位置に応じて決定する。S609において、表示制御部306はグループAとグループBとグループCとオブジェクト807それぞれに対しコンテンツを表示する。
Subsequently, in S902, since all the objects have been processed, the process proceeds to S914 (S902: Yes). In S914, the
ただし、第2の実施形態のS904において移動速度による判定を行うのは一例に過ぎない。オブジェクトの顔の向きや表示領域からの距離等、他のオブジェクトの状態の情報に基づいて個別のコンテンツを提供する対象のオブジェクトと、グルーピングするオブジェクトを決めてもよい。また、第2実施形態では、検出されているオブジェクトの状態によっては、全てのオブジェクトが、S904の処理において個別のコンテンツを提供する対象とならず、グルーピングの対象となる場合もある。つまり、オブジェクト全てが1つのグループに分類され、その中でより多くのオブジェクトに共通する属性に応じた1つのコンテンツが提供される場合も、第2の実施形態に含まれる。さらにグルーピングされた複数のオブジェクトのうち1以上のオブジェクトの状態が変化し、個別のコンテントを提示する対象に変われば、その時点から新たなコンテンツを提供してもよい。例えばオブジェクトの顔の向きが表示領域の方を向いていない場合にグルーピングの対象とする場合、表示領域に背を向けていたオブジェクトが振り向いて広告を視認可能になれば、グルーピングの対象を外れ、個別のコンテントを提示する対象となる。このとき、既に表示されている広告が、そのオブジェクトの個別の属性に応じたものであれば、その広告の内容をより詳細化したりオブジェクトに近づけたりすることが可能である。また、既に表示されている広告が、そのオブジェクトの個別の属性に応じたものでなければ、オブジェクトの属性に応じたより適切な広告などのコンテンツを提供し、関心を持たせることが可能となる。 However, the determination based on the moving speed in S904 of the second embodiment is merely an example. The object to be provided with individual content and the object to be grouped may be determined based on the information on the state of other objects such as the orientation of the face of the object and the distance from the display area. Further, in the second embodiment, depending on the state of the detected object, not all objects may be targets for providing individual contents in the processing of S904, but may be targets for grouping. That is, the case where all the objects are classified into one group and one content according to the attribute common to more objects in the group is provided is also included in the second embodiment. Further, if the state of one or more objects among the plurality of grouped objects changes and changes to a target for presenting individual content, new content may be provided from that point. For example, in the case where the direction of the object's face is not facing the display area, if the object is grouped, if the object that turned its back to the display area turns around and the advertisement can be viewed, it will be excluded from the grouping target. It is a target for presenting individual content. At this time, if the advertisement that has already been displayed corresponds to the individual attribute of the object, it is possible to further refine the content of the advertisement or bring it closer to the object. Also, if the advertisement that is already displayed does not correspond to the individual attribute of the object, it is possible to provide more appropriate content such as advertisement according to the attribute of the object and make it interesting.
<変形例>
なお、コンテンツ決定部305はオブジェクトやグループの属性に応じてコンテンツを決定するとしたが、記憶部307にコンテンツ決定部305が決定したコンテンツを記憶しておき、直前に提示したコンテンツを提示すると決定してもよい。また、オブジェクトがコンテンツを見るために立ち止まる等、直前までグループのメンバであったオブジェクトが移動しなくなった場合、グループのメンバから外れ、オブジェクト個体が提示対象になる。その場合、コンテンツ決定部305は、グループに所属していた時のコンテンツを記憶部307に記憶しておき、オブジェクト個体がグループのメンバから外れても、オブジェクトの属性にかかわらず、グループに所属していた時のコンテンツを提示してもよい。
<Modification>
Although the
また、表示制御部306は、グループのメンバ数に応じて、グループに対するコンテンツの表示位置や表示サイズを決定してもよい。例えば、グループのメンバ数が1のグループよりも、グループのメンバ数2のグループのほうがコンテンツの表示サイズを大きくする。
In addition, the
なお、グルーピング部701は、グループの規模としてグループに所属するメンバ数の最大値を決定するとしたがこれに限るものではない。例えばグループに所属するメンバ数の最小値をグループの規模として決定してもよいし、メンバ数の最小値と最大値両方をグループの規模として決定してもよい。また、混雑度に応じてグループのメンバ数を制限するのではなく、グループの領域の範囲を制限してもよい。具体的には、任意の場所や任意のオブジェクトの位置情報を中心にして、その中心地から一定の範囲以内にいるオブジェクトすべてを1つのグループにグルーピングする場合、グループの規模として、範囲を混雑度に応じて決定してもよい。
Although the
また、本実施形態において、グルーピング部701はオブジェクトの位置情報に基づいて、近くに存在するオブジェクトを1つのグループとしてグルーピングしたがこれに限るものではない。例えば、オブジェクトの位置情報と、オブジェクトの向きや移動方向、移動速度とのうち1以上を組み合わせてグルーピングしてもよい。具体的には、近くにいるオブジェクト同士であり、かつ、移動方向やオブジェクトが向いている向きが等しい、あるいは、近似している場合は1つのグループにグルーピングする。また、近くにいるオブジェクト同士であり、かつ、移動速度が近似しているオブジェクト同士を1つのグループとしてグルーピングしてもよい。
Further, in the present embodiment, the
また、グルーピング部701は、オブジェクトの属性に基づいてグルーピングしてもよい。例えば、属性が女性であるオブジェクト複数が一定の範囲以内にまとまって存在する場合、そのオブジェクト複数を1つのグループとしてグルーピングする。
The
また、グルーピング部701は、オブジェクトの移動軌跡に基づいてグルーピングしてもよい。一般に、歩行者Aに同行者Bがいる場合、歩行者Aと同行者Bの移動軌跡は似ているといえる。そこで、移動軌跡が似ているオブジェクトを1つのグループとしてグルーピングしてもよい。
Further, the
以上説明したように、第2の実施形態および変形例によれば、所定の表示領域近くのオブジェクトに対してコンテンツを提供する場合、一部のオブジェクトにはグループごとのコンテンツを表示することで混雑時でも効果を損なわない情報提供が可能になる。 As described above, according to the second embodiment and the modified example, when content is provided to objects near a predetermined display area, the content of each group is displayed on some objects, resulting in congestion. It is possible to provide information without impairing the effect even at times.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、出力方法は、ユーザに提示するための表示部への表示の代わりに、音声等によりユーザに報知するような変形も可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Further, the output method may be modified such that the user is informed by voice or the like, instead of being displayed on the display unit to be presented to the user.
301 オブジェクト検出部
302 属性情報検出部
303 混雑状況取得部
304 オブジェクト特定部
305 コンテンツ決定部
306 表示制御部
301
Claims (17)
検出された複数のオブジェクトによる前記所定の表示領域の近くの混雑状況を取得する取得手段と、
前記複数のオブジェクトのうち、取得された前記混雑状況に応じて特定されるオブジェクトの属性に基づくコンテンツを、前記所定の表示領域に表示する表示制御手段と
を備えることを特徴とする情報処理装置。 Detection means for detecting an object existing near a predetermined display area,
An acquisition unit that acquires a congestion situation near the predetermined display area due to a plurality of detected objects;
An information processing apparatus, comprising: display control means for displaying, in the predetermined display area, content based on an attribute of an object specified according to the acquired congestion status among the plurality of objects.
前記特定手段は、前記複数のオブジェクトによって前記表示領域の近くが基準を超えるほど混雑しない状況では、前記複数のオブジェクトの全てを前記対象として特定し、
前記複数のオブジェクトによって前記表示領域の近くが前記基準を超えるほど混雑する状況では、前記複数のオブジェクトのうち、各オブジェクトの状態に基づく少なくとも一部のオブジェクトを前記対象として特定することを特徴とする請求項1に記載の情報処理装置。 Further comprising a specifying unit that specifies a target for displaying the content among the plurality of objects according to the congestion situation,
The specifying unit specifies all of the plurality of objects as the target in a situation where the vicinity of the display area is not crowded by a plurality of objects and exceeds a reference,
In a situation where the vicinity of the display area is crowded by the plurality of objects so as to exceed the reference, at least a part of objects among the plurality of objects based on a state of each object is specified as the target. The information processing apparatus according to claim 1.
前記基準とは、前記混雑度の閾値であることを特徴とする請求項2乃至6のいずれか1項に記載の情報処理装置。 The acquisition unit acquires a congestion degree, which is a density of a plurality of objects detected by the detection unit, in a range defined near the predetermined display area,
The information processing apparatus according to claim 2, wherein the reference is a threshold value of the congestion degree.
前記表示制御手段は、
前記複数のオブジェクトによって前記所定の表示領域の近くが前記基準を超えるほど混雑する状況では、さらに、前記グルーピング手段によって1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを表示することを特徴とする請求項9に記載の情報処理装置。 Further comprising grouping means for grouping one or more objects of the plurality of objects based on respective states of the plurality of objects,
The display control means,
In a situation where the vicinity of the predetermined display area is congested by the plurality of objects so as to exceed the reference, the one or more objects are further grouped with respect to one or more objects grouped into one group by the grouping unit. The information processing apparatus according to claim 9, wherein one content determined based on an attribute common to more objects among the attributes that the information processing apparatus has is displayed.
前記表示制御手段は、
前記複数のオブジェクトのうち移動速度が所定の判定基準より小さいオブジェクトには各オブジェクトに対応するコンテンツを表示するとともに、
前記グルーピング手段によって1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを表示することを特徴とする請求項10に記載の情報処理装置。 In a situation where the vicinity of the predetermined display area is crowded by the plurality of objects so that the plurality of objects exceeds the reference, the grouping unit determines the position information of each of the plurality of objects whose moving speed is larger than a predetermined determination reference. Grouped into one or more groups based on
The display control means,
Among the plurality of objects, the object whose moving speed is smaller than a predetermined criterion is displayed with the content corresponding to each object,
For one or more objects grouped into one group by the grouping unit, one content determined based on an attribute common to more objects among attributes of the one or more objects is displayed. The information processing apparatus according to claim 10, wherein:
検出された複数のオブジェクトの状態に基づいて、前記複数のオブジェクトのうち1以上のオブジェクトをグルーピングするグルーピング手段と、
前記グルーピング手段によって1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを前記所定の表示領域に表示する表示制御手段と、
を備えることを特徴とする情報処理装置。 Detection means for detecting an object existing near a predetermined display area,
Grouping means for grouping one or more objects among the plurality of objects based on the detected states of the plurality of objects;
For one or more objects grouped into one group by the grouping means, one content determined based on an attribute common to more objects among attributes of the one or more objects is given as the predetermined content. Display control means for displaying in the display area of
An information processing apparatus comprising:
取得手段により、検出された複数のオブジェクトによる前記表示領域の近くの混雑状況を取得する工程と、
前記複数のオブジェクトのうち、取得された前記混雑状況に応じて特定されたオブジェクトの属性に基づくコンテンツを、表示制御手段により前記所定の表示領域に表示する工程と
を備えることを特徴とする情報処理装置の制御方法。 A step of detecting an object existing near a predetermined display area by the detecting means;
A step of acquiring the congestion status near the display area by the plurality of detected objects by the acquisition means;
Displaying the content based on the attribute of the object specified according to the acquired congestion status among the plurality of objects in the predetermined display area by the display control means. Device control method.
グルーピング手段により、検出された複数のオブジェクトの状態に基づいて、前記複数のオブジェクトのうち1以上のオブジェクトをグルーピングする工程と、
1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを、表示制御手段により前記所定の表示領域に表示する工程と、
を備えることを特徴とする情報処理装置の制御方法。 A step of detecting an object existing near a predetermined display area by the detecting means;
Grouping one or more objects of the plurality of objects based on the detected states of the plurality of objects by grouping means;
With respect to one or more objects grouped into one group, one content determined based on an attribute common to more objects among attributes of the one or more objects is displayed by the display control means. A step of displaying in a predetermined display area,
A method of controlling an information processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219421A JP2020086845A (en) | 2018-11-22 | 2018-11-22 | Information processor, control method thereof, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219421A JP2020086845A (en) | 2018-11-22 | 2018-11-22 | Information processor, control method thereof, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020086845A true JP2020086845A (en) | 2020-06-04 |
Family
ID=70908204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018219421A Pending JP2020086845A (en) | 2018-11-22 | 2018-11-22 | Information processor, control method thereof, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020086845A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7516498B2 (en) | 2022-09-30 | 2024-07-16 | PayPay株式会社 | Application program, service providing system, and information providing method |
JP7521049B2 (en) | 2022-12-27 | 2024-07-23 | PayPay株式会社 | APPLICATION PROGRAM, SERVICE PROVIDING SYSTEM, SERVER DEVICE, AND INFORMATION PROVIDING METHOD |
-
2018
- 2018-11-22 JP JP2018219421A patent/JP2020086845A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7516498B2 (en) | 2022-09-30 | 2024-07-16 | PayPay株式会社 | Application program, service providing system, and information providing method |
JP7521049B2 (en) | 2022-12-27 | 2024-07-23 | PayPay株式会社 | APPLICATION PROGRAM, SERVICE PROVIDING SYSTEM, SERVER DEVICE, AND INFORMATION PROVIDING METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11282389B2 (en) | Pedestrian detection for vehicle driving assistance | |
KR102282738B1 (en) | system that supports a shopping mall platform that provides a plurality of recommended products to users | |
US11062609B2 (en) | Information processing apparatus and information processing method | |
JP7477616B2 (en) | Transportation Hub Information System | |
US11614803B2 (en) | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor | |
CN108369482B (en) | Information processing apparatus, information processing method, and program | |
US9639887B2 (en) | In-store object highlighting by a real world user interface | |
CN105339868B (en) | Vision enhancement based on eyes tracking | |
US8953841B1 (en) | User transportable device with hazard monitoring | |
CN105874528B (en) | Message Display Terminal, information display system and method for information display | |
JP6747551B2 (en) | Eyeglass-type wearable terminal, its control program, and notification method | |
US11748992B2 (en) | Trigger regions | |
JP6734602B2 (en) | Tracking method and tracking device for smart glasses, smart glasses, and storage media | |
WO2019097595A1 (en) | Vehicle external communication apparatus, vehicle external communication method, information processing device, and vehicle external communication program | |
JP6320942B2 (en) | Weight matrix learning device, gaze direction prediction system, warning system, and weight matrix learning method | |
WO2017043056A1 (en) | Driving assistance method and driving assistance device and program using same | |
US11921920B2 (en) | Method for controlling display device including transparent screen, and display device therefor | |
JP2017071284A (en) | Display control device, projection device, and display control program | |
JP2020086845A (en) | Information processor, control method thereof, program, and storage medium | |
JPWO2018198503A1 (en) | Information processing apparatus, information processing method, and program | |
US20170256166A1 (en) | Information processing apparatus, information processing method, and computer program product | |
JP2018045099A (en) | Information processor, information processing method, and information processing program | |
EP3244293B1 (en) | Selection option information presentation system and method | |
JP5843943B2 (en) | Information processing apparatus, information display apparatus, information processing method, and program | |
JP2019082822A (en) | Information processing apparatus, information processing method, and program |