JP2020086845A - Information processor, control method thereof, program, and storage medium - Google Patents

Information processor, control method thereof, program, and storage medium Download PDF

Info

Publication number
JP2020086845A
JP2020086845A JP2018219421A JP2018219421A JP2020086845A JP 2020086845 A JP2020086845 A JP 2020086845A JP 2018219421 A JP2018219421 A JP 2018219421A JP 2018219421 A JP2018219421 A JP 2018219421A JP 2020086845 A JP2020086845 A JP 2020086845A
Authority
JP
Japan
Prior art keywords
objects
display area
content
information processing
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018219421A
Other languages
Japanese (ja)
Inventor
愛理 安井
Airi Yasui
愛理 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018219421A priority Critical patent/JP2020086845A/en
Publication of JP2020086845A publication Critical patent/JP2020086845A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processor that effectively furnishes contents, when contents are provided to an object existing near a predetermined display region, even when the contents are crowded, in a signage system.SOLUTION: An information processor detects objects (401 to 405) existing near a predetermined display region, acquires congestion status near the display region due to the plurality of detected objects, and displays, in the predetermined display region, contents (406 to 408) on a basis of an attribute of the objects specified according to the congestion status, among a plurality of contents.SELECTED DRAWING: Figure 4

Description

この発明は所定領域に存在するオブジェクトの関心を集めることを目的にコンテンツを提供する技術に関する。 The present invention relates to a technique for providing contents for the purpose of attracting the interest of objects existing in a predetermined area.

近年、移動している人に対し、広告、案内等の情報を発信する方法として、看板や大型ディスプレイが配置されている。中には大型表示領域にプロジェクタを用いて画像を投射して広告や案内を行う装置もある。そのような背景のもと、広告や案内等のコンテンツを表示する領域の近くに存在する複数のオブジェクトのそれぞれに対し、個別のオブジェクトの属性に応じた広告等のコンテンツを表示する技術がある。例えば、特許文献1では、表示領域の近くに存在する複数の歩行者それぞれに付随して、コンテンツを個別に表示する。それにより、歩行者やエスカレータ搭乗者等移動するオブジェクトに対して、オブジェクトに応じたコンテンツを効果的に表示することが可能になる。 In recent years, signboards and large displays have been arranged as a method of transmitting information such as advertisements and guidance to people who are moving. There is also a device that projects an image on a large display area using a projector to perform advertisement or guidance. Under such a background, there is a technique for displaying contents such as advertisements according to the attributes of individual objects for each of a plurality of objects existing in the vicinity of a region where contents such as advertisements and guidance are displayed. For example, in Patent Document 1, contents are individually displayed in association with each of a plurality of pedestrians existing near the display area. As a result, it is possible to effectively display the content corresponding to the moving object such as a pedestrian or an escalator passenger.

特許第3784796号公報Japanese Patent No. 3784796

特許文献1では、大型表示領域等の所定の表示領域近くが混雑している場合、全体に表示される情報が過多になるために、個々のコンテンツの認識されやすさが低下するという課題までは考慮されていなかった。 In Patent Document 1, when the vicinity of a predetermined display area such as a large display area is congested, there is too much information to be displayed as a whole, so that it is difficult to recognize individual contents. Was not considered.

そこで、本発明は、所定の表示領域近くに存在するオブジェクトに対して、オブジェクトの属性に応じたコンテンツを提供する場合に、混雑時でも効果的にコンテンツを提供することを目的とする。 Therefore, it is an object of the present invention to effectively provide content even in a crowded state when providing content according to an attribute of an object to an object existing near a predetermined display area.

上記課題を解決するため、本発明に係る情報処理装置は、所定の表示領域の近くに存在するオブジェクトを検出する検出手段と、検出された複数のオブジェクトによる前記所定の表示領域の近くの混雑状況を取得する取得手段と、前記複数のオブジェクトのうち、取得された前記混雑状況に応じて特定されるオブジェクトの属性に基づくコンテンツを、前記所定の表示領域に表示する表示制御手段と、を備える。 In order to solve the above problems, an information processing apparatus according to the present invention is a detection unit that detects an object existing near a predetermined display area, and a congestion situation near the predetermined display area due to a plurality of detected objects. And display control means for displaying, in the predetermined display area, the content based on the attribute of the object specified according to the acquired congestion status among the plurality of objects.

本発明によれば、所定の表示領域近くに存在するオブジェクトに対して、オブジェクトの属性に応じたコンテンツを提供する場合に、混雑時でも効果的にコンテンツを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, when providing the content according to the attribute of an object with respect to the object which exists in the vicinity of a predetermined display area, even if it is crowded, a content can be provided effectively.

情報処理装置を含むサイネージシステムの一例を表す図Diagram showing an example of a signage system including an information processing device 情報処理装置のハードウェア構成の一例を表す図The figure showing an example of the hardware constitutions of an information processing apparatus. 情報処理装置の機能構成の一例を説明する図Diagram illustrating an example of a functional configuration of an information processing device 情報処理装置の動作例を表す図Diagram showing an example of the operation of the information processing device 情報処理装置の記憶部で保持する情報を表す図A diagram showing information held in the storage unit of the information processing device 情報処理装置の処理の一例を表すフローチャートFlowchart showing an example of processing of the information processing apparatus 情報処理装置の機能構成の一例を表す図Diagram showing an example of a functional configuration of the information processing apparatus 情報処理装置の動作例を表す図Diagram showing an example of the operation of the information processing device 情報処理装置の処理の一例を表すフローチャートFlowchart showing an example of processing of the information processing apparatus

以下、図面を参照しながら本発明の好適な実施形態について説明する。ただし、この実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention thereto.

<第1の実施形態>
本実施形態では、所定の表示領域近くに存在あるいは表示領域近くを通過する不特定多数の人物のそれぞれに向けた広告を提示するサイネージシステムの例を説明する。特に本実施形態では、表示領域の近くが混雑している場合、より効果的に広告を見せられるように、広告を提示する人物を、提示された広告に対して注目しやすい状態にある人物に限定する。
<First Embodiment>
In the present embodiment, an example of a signage system that presents an advertisement to each of an unspecified number of persons who exist near a predetermined display area or pass near the display area will be described. In particular, in the present embodiment, when the vicinity of the display area is congested, the person presenting the advertisement is changed to a person who is in a state where it is easy to pay attention to the presented advertisement so that the advertisement can be shown more effectively. limit.

図1は本実施形態を採用するサイネージシステムの構成の一例を表す。図1において、表示領域100は、本実施形態のプロジェクタ101から映像が投影されるスクリーンである。プロジェクタ101、カメラ102及び距離センサ103は、PC104に有線または無線で接続される。カメラ102、距離センサ103は、表示領域の近くの状況を検知するためのデバイスである。PC104は、接続された101から104の各種デバイスを制御する。また、図1において、オブジェクト105は、表示領域の近くに存在する歩行者や立ち止まっている人である。以下、表示領域近くに存在する人や物をオブジェクトと呼ぶ。コンテンツ106は、個別のオブジェクトに関連して表示される広告である。本実施形態では、コンテンツ106は、オブジェクト105の動きに付随して動くように表示される。例えば、オブジェクト105が表示領域100の前に現れると、オブジェクト105の位置に応じて、表示領域にコンテンツ106が表示される。即ち、オブジェクト105が移動すると、オブジェクト105の移動に追従してコンテンツ106も同様に移動する。なお、本実施形態において、プロジェクタ101とカメラ102と距離センサ103とPC104をそれぞれ別装置としたがこれに限るものではない。プロジェクタ101とカメラ102と距離センサ103とPC104のうち1以上を組み合わせた一体型の装置を使用してもよい。ただし、本実施形態はプロジェクションを利用するサイネージシステムに限らず適用することができる。 FIG. 1 shows an example of the configuration of a signage system adopting this embodiment. In FIG. 1, the display area 100 is a screen onto which an image is projected from the projector 101 of this embodiment. The projector 101, the camera 102, and the distance sensor 103 are wired or wirelessly connected to the PC 104. The camera 102 and the distance sensor 103 are devices for detecting a situation near the display area. The PC 104 controls various connected devices 101 to 104. Further, in FIG. 1, the object 105 is a pedestrian or a person standing still near the display area. Hereinafter, people and things existing near the display area are called objects. The content 106 is an advertisement displayed in association with an individual object. In the present embodiment, the content 106 is displayed so as to move along with the movement of the object 105. For example, when the object 105 appears in front of the display area 100, the content 106 is displayed in the display area according to the position of the object 105. That is, when the object 105 moves, the content 106 also moves following the movement of the object 105. Although the projector 101, the camera 102, the distance sensor 103, and the PC 104 are separate devices in this embodiment, the invention is not limited to this. An integrated device in which one or more of the projector 101, the camera 102, the distance sensor 103, and the PC 104 are combined may be used. However, the present embodiment can be applied without being limited to the signage system using projection.

図2は、本実施形態に係る情報処理装置200のハードウェア構成図である。なお以下で説明する情報処理装置200は、図1のサイネージシステムの例であればPC104に相当する。CPU201は、CPU(Central Processing Unit)であり、各種処理のための演算や論理判断等を行い、システムバス208に接続された各構成要素を制御する。この情報処理装置200には、プログラムメモリとデータメモリを含むメモリが搭載されている。ROM(Read−Only Memory)202は、プログラムメモリであって、後述する各種処理手順を含むCPUによる制御のためのプログラムを格納する。RAM(Random Access Memory)203は、データメモリであり、CPU201の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域等を有する。なお、情報処理装置200に接続された外部記憶装置等からRAM203にプログラムをロードすることで、プログラムメモリを実現しても構わない。HDD204は、本実施形態に係る複数の電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバ装置等であってもよい。入力I/F205は、カメラ102や距離センサ103等から各種信号を取得し、バス208を介して情報処理装置200に入力する。出力I/F206は、CPU201で生成された出力信号を、本実施形態の出力装置であるプロジェクタ101に出力する。 FIG. 2 is a hardware configuration diagram of the information processing device 200 according to the present embodiment. The information processing apparatus 200 described below corresponds to the PC 104 in the example of the signage system in FIG. The CPU 201 is a CPU (Central Processing Unit), performs calculations and logical judgments for various types of processing, and controls each component connected to the system bus 208. The information processing device 200 is equipped with a memory including a program memory and a data memory. A ROM (Read-Only Memory) 202 is a program memory and stores a program for control by the CPU including various processing procedures described later. A RAM (Random Access Memory) 203 is a data memory, and has a work area for the program of the CPU 201, a data save area for error processing, a load area for the control program, and the like. The program memory may be realized by loading the program into the RAM 203 from an external storage device or the like connected to the information processing device 200. The HDD 204 is a hard disk for storing a plurality of electronic data and programs according to this embodiment. An external storage device may be used to play the same role. Here, the external storage device can be realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the medium. As such a medium, for example, a flexible disk (FD), a CD-ROM, a DVD, a USB memory, an MO, a flash memory and the like are known. Further, the external storage device may be a server device or the like connected via a network. The input I/F 205 acquires various signals from the camera 102, the distance sensor 103, etc. and inputs them to the information processing apparatus 200 via the bus 208. The output I/F 206 outputs the output signal generated by the CPU 201 to the projector 101 which is the output device of this embodiment.

図3は、本実施形態に係る情報処理装置200の機能構成の一例を示すブロック図である。情報処理装置200は、オブジェクト検出部301、属性情報検出部302、混雑状況取得部303、オブジェクト特定部304、コンテンツ決定部305、表示制御部306を有する。これらの各機能部は、CPU201が、ROM202に格納されたプログラムをRAM203に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また、記憶部307は、ROM202またはHDD204の機能部である。以下、各要素について説明する。 FIG. 3 is a block diagram showing an example of the functional configuration of the information processing apparatus 200 according to this embodiment. The information processing device 200 includes an object detection unit 301, an attribute information detection unit 302, a congestion status acquisition unit 303, an object identification unit 304, a content determination unit 305, and a display control unit 306. Each of these functional units is realized by the CPU 201 expanding a program stored in the ROM 202 into the RAM 203 and executing processing according to each of the flowcharts described later. The storage unit 307 is a functional unit of the ROM 202 or the HDD 204. Each element will be described below.

オブジェクト検出部301は、入力装置であるカメラから取得した撮像画像を用いて、表示領域の近くで、カメラの画角に収まる所定の範囲(以下、単に「表示領域の近く」という)に存在するオブジェクトの数やオブジェクトの位置情報を検出する。混雑状況取得部303は、オブジェクト検出部301が検出した位置情報を用いて、表示領域近くの混雑度を検出する。例えば、表示領域の近くに定義された範囲におけるオブジェクトの密度を混雑度として取得する。本実施形態では、表示領域の長さ(1次元の範囲)におけるオブジェクトの密度を算出する。 The object detection unit 301 exists in a predetermined range within the angle of view of the camera (hereinafter, simply referred to as “near the display area”) near the display area, using the captured image acquired from the camera that is the input device. Detects the number of objects and object position information. The congestion status acquisition unit 303 detects the congestion degree near the display area using the position information detected by the object detection unit 301. For example, the density of objects in a range defined near the display area is acquired as the congestion degree. In the present embodiment, the density of objects in the length of the display area (one-dimensional range) is calculated.

オブジェクト特定部304は、検出されたたオブジェクトの移動速度や向いている向き、表示領域からオブジェクトまでの距離情報をもとに、検出されているオブジェクトのうち少なくとも一部のオブジェクトを、広告を提示する対象として特定する。本実施形態では、カメラから取得した撮像画像や、距離センサから取得した距離情報を用いて、オブジェクトの移動速度やオブジェクトが向いている向き、表示領域からオブジェクトまでの距離情報を検出して利用する。属性情報検出部302は、カメラから取得した撮像画像を用いて、オブジェクトの属性を検出する。本実施形態において、属性とは、具体的には、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、同行するペットの有無、親子が同行しているか否かを示す情報の少なくともいずれかを含む。ただし、これらに限るものではない。例えば、犬であるか否か、バルーンであるか否か等を動物や無生物に関する情報を属性として検出してもよい。本実施形態では、属性情報検出部302は、オブジェクト特定部304により特定された少なくとも一部のオブジェクトのそれぞれに関して、属性情報を検出する。 The object identifying unit 304 presents an advertisement to at least some of the detected objects based on the detected moving speed, facing direction, and distance information from the display area to the objects. Specify as the target. In this embodiment, the moving speed of the object, the direction in which the object is facing, and the distance information from the display area to the object are detected and used by using the captured image acquired from the camera and the distance information acquired from the distance sensor. .. The attribute information detection unit 302 detects the attribute of the object using the captured image acquired from the camera. In the present embodiment, the attributes are, specifically, age, age group, sex, race, hair color, body type, clothing color, presence/absence of hat, presence/absence of beard, presence/absence of eyeglasses, accompanying pets. It includes at least one of information indicating presence/absence and presence/absence of a parent/child. However, it is not limited to these. For example, information about animals or inanimate objects may be detected as attributes such as whether a dog or a balloon. In this embodiment, the attribute information detection unit 302 detects attribute information for each of at least some of the objects identified by the object identification unit 304.

コンテンツ決定部305は、属性情報検出部302が検出したオブジェクトの属性に基づいて、各オブジェクトに対して提示するコンテンツを決定する。本実施形態では、それぞれのオブジェクトに提示されるコンテンツは、予め対象者の属性が定義された複数パターンの広告の中から、個別のオブジェクトの属性に応じて選択される。表示制御部306は、プロジェクタ101に表示させる表示画像を生成し出力する機能部である。本実施形態では、オブジェクト検出部301が検出したオブジェクトの位置情報に基づいてコンテンツの表示位置を決定し、その位置にコンテンツを表示するように制御する。 The content determination unit 305 determines the content to be presented to each object based on the attribute of the object detected by the attribute information detection unit 302. In the present embodiment, the content presented to each object is selected from among a plurality of patterns of advertisement in which the attributes of the target person are defined in advance, according to the attributes of the individual objects. The display control unit 306 is a functional unit that generates and outputs a display image to be displayed on the projector 101. In this embodiment, the display position of the content is determined based on the position information of the object detected by the object detection unit 301, and the content is controlled to be displayed at that position.

記憶部307は、オブジェクトの位置情報、オブジェクトの属性情報、オブジェクトが向いている向きや表示領域からオブジェクトまでの距離を含む状況情報、オブジェクトに対し提示しているコンテンツ等を記憶する。また、直前のオブジェクトの位置情報や位置情報の履歴を記憶してもよい。また、システム起動時までに予め混雑度と各判定基準の関係を記憶しておいてもよい。なお、本実施形態の情報処理装置200が有する記憶部307はRAM203の機能部である。また、本発明は、これらの機能部をハードウェアで実現する情報処理装置によっても同様に実現可能である。 The storage unit 307 stores the position information of the object, the attribute information of the object, the situation information including the orientation of the object and the distance from the display area to the object, the content presented to the object, and the like. Further, the position information of the immediately preceding object and the history of the position information may be stored. Further, the relationship between the congestion degree and each determination criterion may be stored in advance by the time the system is activated. The storage unit 307 included in the information processing apparatus 200 according to the present embodiment is a functional unit of the RAM 203. Further, the present invention can be similarly realized by an information processing device that realizes these functional units by hardware.

次に図4〜図6を参照して、本実施形態に係るサイネージシステムの動作を具体的に説明する。まず、図4(a)と図4(b)は、図1に示したサイネージシステムの動作例の一態様を示す。図4(b)は図4(a)のΔt時間後の様子を示す。なお、図1で説明したのと同じ構成には同じ番号を付し、説明を省略する。オブジェクト401〜405は、表示領域近くで検出される人物である。また、コンテンツ406はオブジェクト401に、コンテンツ407はオブジェクト403に、コンテンツ408はオブジェクト405に対応するように表示されている。本実施形態では、所定の表示領域の近くの混雑状況に応じて、各オブジェクトに対して属性に応じた個別のコンテンツを提供するか否かが切り替えられる。例えば、図1に示されるようにオブジェクトの数が3である状況は、混雑状況は基準を超えるほどではないと判定し、オブジェクトのそれぞれに対して個別にコンテンツが提供される。一方で、図4(a)及び図4(b)で示されたオブジェクトの数が5である状況では、基準を超えるほど混雑していると判定し、5つのオブジェクトのうち、よりコンテンツに注目しやすい状態にあるオブジェクトにコンテンツを提供する。例えば混雑状況を、表示領域近くにおけるオブジェクトの密度(以下、混雑度と称する)の値として取得し、閾値処理によってこのような切り替えを行う。また、本実施形態では、オブジェクトの移動速度がある程度遅いこと、オブジェクトの顔の向きが表示領域を視認しやすい方向に向いていること、表示領域から離れすぎていないことを、「よりコンテンツに注目しやすいオブジェクト」の条件として扱う。例えば、基準を超えるほど混雑した状況にあっても、全てのオブジェクトがよりコンテンツに注目しやすい状態にあるとみなされる場合には、本実施形態では、全てのオブジェクトに対して個別のオブジェクトが提供される。 Next, the operation of the signage system according to the present embodiment will be specifically described with reference to FIGS. 4 to 6. First, FIGS. 4A and 4B show one mode of an operation example of the signage system shown in FIG. FIG. 4B shows the state after Δt time in FIG. The same components as those described with reference to FIG. 1 are designated by the same reference numerals and the description thereof will be omitted. Objects 401 to 405 are persons detected near the display area. Further, the content 406 is displayed so as to correspond to the object 401, the content 407 is displayed so as to correspond to the object 403, and the content 408 is displayed so as to correspond to the object 405. In this embodiment, whether or not to provide individual contents according to attributes to each object is switched according to the congestion situation near a predetermined display area. For example, in the situation where the number of objects is 3 as shown in FIG. 1, it is determined that the congestion situation does not exceed the standard, and the content is individually provided to each of the objects. On the other hand, in the situation where the number of objects shown in FIGS. 4(a) and 4(b) is 5, it is determined that the object is too crowded to exceed the standard, and attention is focused on the content of the 5 objects. Providing content to objects that are in a good state. For example, the congestion status is acquired as a value of the density of objects near the display area (hereinafter, referred to as congestion degree), and such switching is performed by threshold processing. Further, in the present embodiment, the fact that the moving speed of the object is slow to some extent, that the orientation of the object's face is in a direction in which the display area is easily visible, and that the object is not too far from the display area It is treated as a condition of "easy to perform". For example, if all the objects are considered to be in a state where it is easier to pay attention to the content even in a situation where the objects are overcrowded, the present embodiment provides individual objects to all the objects. To be done.

図5(a)と図5(b)は、混雑時にコンテンツを提供するオブジェクトを特定する処理のために、記憶部307が記憶している情報の一例を表す。図5(a)は、オブジェクト検出部301によって検出される1以上のオブジェクトに関して、記憶部307に記憶される情報の一例を示すテーブルである。ID_1はオブジェクト401、ID_2はオブジェクト402、ID_3はオブジェクト403、ID_4はオブジェクト404、ID_5はオブジェクト405を一意に示すIDである。図5(a)のテーブルでは、各オブジェクトのIDと、現在の位置情報、過去の位置情報、向き、表示領域からの距離、属性、及び、各コンテンツに提供されるコンテンツを示す情報が対応付けて格納される。 FIG. 5A and FIG. 5B show an example of information stored in the storage unit 307 for the processing of specifying an object that provides content when the content is crowded. FIG. 5A is a table showing an example of information stored in the storage unit 307 regarding one or more objects detected by the object detection unit 301. ID_1 is an object 401, ID_2 is an object 402, ID_3 is an object 403, ID_4 is an object 404, and ID_5 is an ID uniquely indicating an object 405. In the table of FIG. 5A, the ID of each object is associated with the current position information, the past position information, the orientation, the distance from the display area, the attribute, and the information indicating the content provided for each content. Stored.

図5(b)に段階的な混雑度と、コンテンツを提供するオブジェクトを特定する段階的な判定基準の対応関係の一例を示すテーブルである。図5(b)のテーブルの内容は、システムの設計時あるいは設置時、メンテナンス時等において定義され、記憶部307に記憶される。図5(b)が示すように、本実施形態では、混雑度が1.0未満であまり混雑していない場合には、ジョギングする人や自転車で移動する人等のオブジェクトも含め、すべてのオブジェクトに対し情報を提示する対象とするように移動速度の判定基準を設定する。混雑度が1.0以上2.5未満であり少々混雑している場合には、立ち止まっている人、ゆっくり歩く人、早歩きの人等のオブジェクトに対し情報を提示する対象とするように移動速度の判定基準を設定する。混雑度が2.5以上であり混雑している場合には、立ち止まっている人、ゆっくり歩く人等のオブジェクトに対し情報を提示する対象とするように移動速度の判定基準を設定する。また、混雑すればするほど、表示領域がある方向に向いているオブジェクトや表示領域の近くに存在するオブジェクトのみを提示対象とするように、オブジェクトの向きや表示領域からオブジェクトまでの距離の判定基準を設けている。なお、混雑度と各判定基準の関係はこれに限るものではない。 FIG. 5B is a table showing an example of a correspondence relationship between the gradual congestion degree and the gradual determination criteria for specifying the object providing the content. The contents of the table in FIG. 5B are defined at the time of system design, installation, maintenance, etc., and are stored in the storage unit 307. As shown in FIG. 5B, in the present embodiment, when the congestion degree is less than 1.0 and there is not much congestion, all objects including objects such as people jogging and people moving by bicycle are also included. The moving speed determination criterion is set so as to be an object for which information is presented. If the congestion level is 1.0 or more and less than 2.5 and slightly congested, move so as to present information to objects such as people standing still, people walking slowly, people walking fast etc. Set the speed judgment standard. When the degree of congestion is 2.5 or more and it is congested, the moving speed determination standard is set so as to present information to an object such as a person standing still or a person walking slowly. In addition, the criteria for determining the orientation of an object and the distance from the display area to the object to be presented are such that the more crowded the object is, the more the display area faces in a certain direction or the objects existing near the display area are targeted. Is provided. Note that the relationship between the congestion degree and each criterion is not limited to this.

図6は、情報処理装置が実行する処理の一例を表すフローチャートである。以下、各工程(ステップ)は、それら符号の先頭にSを付与して説明することとする。図6(a)を用いて、情報処理装置が実行するメイン処理の流れを説明する。本情報処理装置の起動後、本処理が繰り返し実行される。例えば、入力装置であるカメラが30fpsで画像を取得する場合、1/30秒毎に本処理が繰り返し実行される。これに限るものではなく、例えば、カメラの画像取得間隔にかかわらず、所定時間ごとに本処理を繰り返し実行してもよい。 FIG. 6 is a flowchart showing an example of processing executed by the information processing device. Hereinafter, each process (step) will be described by adding S to the head of the reference numerals. A flow of main processing executed by the information processing apparatus will be described with reference to FIG. After starting the information processing apparatus, this processing is repeatedly executed. For example, when a camera as an input device acquires an image at 30 fps, this process is repeatedly executed every 1/30 seconds. The present invention is not limited to this, and for example, this processing may be repeatedly executed at predetermined time intervals regardless of the image acquisition interval of the camera.

S601において、オブジェクト検出部301がカメラ102から取得した撮像画像を用いて、オブジェクトの位置情報(x,y)を検出する。具体的には、撮像画像を用いて顔の位置や頭の位置、目の位置のいずれかを検出する。なお座標系の原点は、表示領域100に向かって左下に当たる頂点であるとし、x軸は壁に沿って右に向かう方向、y軸は高さ方向に設定される。例えば、図4(b)に示す場面では、オブジェクト401の位置(103,150)、オブジェクト402の位置(259,150)、オブジェクト403の位置(400,180)を検出する。また、オブジェクト404の位置(254,102)、オブジェクト405の位置(51,150)を検出する。そして、記憶部307に記憶されている情報を更新する。図4(b)の場合、Δt秒前に当たる図4(a)の場面で検出された位置情報が先に「現在の位置情報」として記憶されているので、現在の位置情報として記憶されていた各オブジェクトの位置情報を過去の位置情報として改めて記憶する。例えば、図4(b)のΔt=1/30秒前である図4(a)の状態で現在の位置情報としてオブジェクト401の位置(100,150)、オブジェクト402の位置(250,150)、オブジェクト403の位置(400,180)を記憶している。また、オブジェクト404の位置(250,100)、オブジェクト405の位置(50,150)を記憶している。記憶部307は、それらの位置情報を過去の位置情報として図5(a)が示すように記憶する。なお、本実施形態においては、位置(100,150)から位置(103,150)への移動は、x軸方向に3cm、y軸方向に0cm移動したことを示すとする。次に、記憶部307は、図5(a)が示すように現在の位置情報としてオブジェクト検出部301が検出した位置情報を記憶する。S602において、属性検出部は、カメラ102から取得した撮像画像を用いて、属性を検出する。例えば、属性としてBaby, Youth, Middle−age, Seniorの4つの年齢層のうちいずれかを検出する。ここで、図5(a)が示すようにオブジェクト401とオブジェクト402はYouth、オブジェクト403はMiddle−age、オブジェクト404とオブジェクト405はSeniorと検出する。S603において、混雑状況取得部303は混雑状況を取得する。 In step S601, the object detection unit 301 detects the position information (x, y) of the object using the captured image acquired from the camera 102. Specifically, one of the face position, head position, and eye position is detected using the captured image. Note that the origin of the coordinate system is the apex that hits the lower left corner toward the display area 100, the x-axis is set to the right direction along the wall, and the y-axis is set to the height direction. For example, in the scene shown in FIG. 4B, the position (103, 150) of the object 401, the position (259, 150) of the object 402, and the position (400, 180) of the object 403 are detected. Further, the position (254, 102) of the object 404 and the position (51, 150) of the object 405 are detected. Then, the information stored in the storage unit 307 is updated. In the case of FIG. 4B, since the position information detected in the scene of FIG. 4A corresponding to Δt seconds before is previously stored as the “current position information”, it is stored as the current position information. The position information of each object is stored again as past position information. For example, the position of the object 401 (100, 150), the position of the object 402 (250, 150) as the current position information in the state of FIG. 4A that is Δt=1/30 seconds before in FIG. 4B, The position (400, 180) of the object 403 is stored. Further, the position (250, 100) of the object 404 and the position (50, 150) of the object 405 are stored. The storage unit 307 stores the positional information as past positional information as shown in FIG. In the present embodiment, the movement from the position (100, 150) to the position (103, 150) indicates that the movement is 3 cm in the x-axis direction and 0 cm in the y-axis direction. Next, the storage unit 307 stores the position information detected by the object detection unit 301 as the current position information, as shown in FIG. In step S602, the attribute detection unit detects an attribute using the captured image acquired from the camera 102. For example, any one of four age groups of Baby, Youth, Middle-age, and Senior is detected as an attribute. Here, as shown in FIG. 5A, the object 401 and the object 402 are detected as Youth, the object 403 is Middle-age, and the objects 404 and 405 are detected as Senior. In step S603, the congestion status acquisition unit 303 acquires the congestion status.

本実施形態では、オブジェクト検出部301が検出したオブジェクト数と表示領域のサイズを用いて、表示領域に対するオブジェクトの密度を、混雑状況の指標である混雑度として算出する。表示領域である表示領域100の横幅が3m、オブジェクト数が5である場合、混雑度=(オブジェクト数)/(表示領域のサイズ)=5/3となる。S604において、混雑状況取得部303が、所定の基準を超えるほど混雑しているか否かを判定する。具体的には、混雑度が予め定められた閾値以上であれば混雑していると判定する(S604:Yes)。基準値未満であれば混雑していないと判定する(S604:No)。S604において、混雑していると判定された場合(S604:Yes)、S605に進み、提示対象を決定する。混雑度の閾値は、例えば1.5とする。この場合、図1に示されたオブジェクトの数が3で混雑度=(オブジェクト数)/(表示領域のサイズ)=3/3という状況であれば、混雑状況は基準を超えるほどではないので、オブジェクトのそれぞれに対してコンテンツが提供される。一方で、図4(a)及び図4(b)で示されたオブジェクトの数が5で混雑度=5/3という状況では、基準を超えるほど混雑しているので、コンテンツを提供するオブジェクトの数が5より小さい数に絞り込まれている。 In the present embodiment, the number of objects detected by the object detection unit 301 and the size of the display area are used to calculate the density of objects with respect to the display area as a congestion degree that is an index of the congestion situation. When the width of the display area 100, which is a display area, is 3 m and the number of objects is 5, the congestion degree=(the number of objects)/(the size of the display area)=5/3. In step S604, the congestion status acquisition unit 303 determines whether the congestion status exceeds the predetermined criterion. Specifically, if the congestion degree is equal to or higher than a predetermined threshold value, it is determined that the congestion is present (S604: Yes). If it is less than the reference value, it is determined that there is no congestion (S604: No). When it is determined in S604 that the traffic is congested (S604: Yes), the process proceeds to S605 and the presentation target is determined. The threshold value of the congestion degree is, for example, 1.5. In this case, if the number of objects shown in FIG. 1 is 3 and the degree of congestion=(the number of objects)/(size of the display area)=3/3, the congestion status does not exceed the standard. Content is provided for each of the objects. On the other hand, in the situation where the number of objects shown in FIGS. 4A and 4B is 5 and the degree of congestion is 5/3, the congestion is so high as to exceed the standard. The number is narrowed down to less than five.

ここで図6(b)は、S605で実行される、提示対象(のオブジェクト)を特定する処理の一例を表すフローチャートである。S611において、オブジェクト特定部304は、オブジェクトの移動速度とオブジェクトの向きと表示領域からオブジェクトまでの距離を取得する。例えば、オブジェクト特定部304は、記憶部307に記憶されている現在の位置情報と過去の位置情報を用いて移動速度を算出する。具体的には、オブジェクト401は位置(100,150)から位置(103,150)に時間1/30秒で移動すると、移動速度は時速3.2kmと算出される。同様に、オブジェクト402は時速9.7km、オブジェクト403は時速0km、オブジェクト404は時速4.8km、オブジェクト405は時速1.1kmと検出する。次に、オブジェクト特定部304はカメラ102から取得した撮像画像を用いてオブジェクトの向きを検出する。具体的には、例えば画像処理により、オブジェクトとして検出されている人物の顔や頭の向きを検出する。また、可視カメラや赤外カメラを用いて、オブジェクトの目の目頭や角膜反射、瞳孔の位置関係により視線方向を検出してもよい。本実施形態においては、オブジェクトに対し北方向に表示領域がある場合、オブジェクトが北を向いているときは向き0度、オブジェクトが南を向いているときは向き180度と定義する。ただしこれに限るものではない。図4(b)において、オブジェクト401は80度、オブジェクト402は90度、オブジェクト403は180度、オブジェクト404は90度、オブジェクト405は5度と検出する。続いて、オブジェクト特定部304は表示領域からオブジェクトまでの距離を取得する。具体的には、距離センサ103から取得した距離画像を用いて、表示領域からオブジェクトまでの距離を取得する。図4(b)において、オブジェクト401は80cm、オブジェクト402は100cm、オブジェクト403とオブジェクト405は50cm、オブジェクト404は300cmと取得する。オブジェクト特定部304は、取得した各オブジェクトの移動速度と向き、表示領域からオブジェクトまでの距離を記憶部307に記憶する。S612において、オブジェクト特定部304は、混雑状況取得部303が取得した混雑度に応じて、提示対象を決定するために使用する移動速度の判定基準と向きの判定基準と表示領域からオブジェクトまでの距離の判定基準を決定する。 Here, FIG. 6B is a flowchart showing an example of the process of identifying (the object of) the presentation target, which is executed in S605. In step S611, the object identifying unit 304 acquires the moving speed of the object, the direction of the object, and the distance from the display area to the object. For example, the object specifying unit 304 calculates the moving speed using the current position information and the past position information stored in the storage unit 307. Specifically, when the object 401 moves from the position (100, 150) to the position (103, 150) in 1/30 seconds, the moving speed is calculated to be 3.2 km/h. Similarly, it is detected that the object 402 is 9.7 km/h, the object 403 is 0 km/h, the object 404 is 4.8 km/h, and the object 405 is 1.1 km/h. Next, the object specifying unit 304 detects the orientation of the object using the captured image acquired from the camera 102. Specifically, for example, the orientation of the face or head of a person detected as an object is detected by image processing. In addition, a visual camera or an infrared camera may be used to detect the line-of-sight direction based on the positional relationship between the inner corners of the eyes, corneal reflections, and pupils of the object. In the present embodiment, when the display area is in the north direction with respect to the object, the direction is defined as 0 degree when the object faces north, and the direction is 180 degrees when the object faces south. However, it is not limited to this. In FIG. 4B, it is detected that the object 401 is 80 degrees, the object 402 is 90 degrees, the object 403 is 180 degrees, the object 404 is 90 degrees, and the object 405 is 5 degrees. Then, the object specifying unit 304 acquires the distance from the display area to the object. Specifically, the distance from the display area to the object is acquired using the distance image acquired from the distance sensor 103. In FIG. 4B, the object 401 is 80 cm, the object 402 is 100 cm, the objects 403 and 405 are 50 cm, and the object 404 is 300 cm. The object specifying unit 304 stores the acquired moving speed and direction of each object, and the distance from the display area to the object in the storage unit 307. In step S612, the object identification unit 304 determines, according to the congestion degree acquired by the congestion status acquisition unit 303, a moving speed determination criterion, an orientation determination criterion, and a distance from the display area to the object used to determine the presentation target. Determine the criteria.

具体的には、例えば、図5(b)に示すように記憶部307に予め記憶してある混雑度と各判定基準の関係に基づいて決定する。本実施形態では、混雑度が5/3であるので、移動速度の判定基準は時速6km以下、向きの判定基準は−120度以上120度以下、表示領域からオブジェクトまでの距離の判定基準は200cm未満と決定する。ここで移動速度の判定基準は、移動速度が広告に注目する余裕がある程度に遅いとみなされるオブジェクトが提示対象として決定されるように設定される。また、向きの判定基準は、表示領域に向かう方向を見ているとみなされるオブジェクトが提示対象として決定されるように設定される。表示領域からオブジェクトまでの距離の判定基準は、広告の内容を視覚的に認識できる程度に表示領域に近いとみなされるオブジェクトが提示対象として決定されるように設定される。 Specifically, for example, as shown in FIG. 5B, the determination is made based on the relationship between the congestion degree and each determination criterion stored in advance in the storage unit 307. In this embodiment, since the congestion degree is 5/3, the moving speed determination criterion is 6 km/hour or less, the orientation determination criterion is −120° or more and 120° or less, and the distance from the display area to the object is 200 cm. Determined to be less than. Here, the criterion for determining the moving speed is set so that an object whose moving speed is considered to be slow enough to pay attention to an advertisement is determined as a presentation target. In addition, the orientation determination criterion is set such that an object that is considered to be looking in the direction toward the display area is determined as a presentation target. The criterion for determining the distance from the display area to the object is set so that the object that is considered to be close to the display area to the extent that the content of the advertisement can be visually recognized is determined as the presentation target.

S613において、オブジェクト特定部304はすべてのオブジェクトに対して処理したか否かを判定する。オブジェクト401、オブジェクト402、オブジェクト403、オブジェクト404、オブジェクト405に対して処理が終わっていないため(S613:No)、S614に進む。S614において、オブジェクト特定部304は処理が終わっていないオブジェクト、ここではオブジェクト401を選択する。S615において、オブジェクト特定部304は選択したオブジェクトの移動速度が判定基準を満たしているか否かを判定する。オブジェクト401の移動速度時速3.2kmは時速6km以下であるので、判定基準を満たす(S615:Yes)。S616において、オブジェクト特定部304は、選択したオブジェクトの向きが判定基準を満たすか否かを判定する。オブジェクト401の向き80度は−120度以上120度以下であるので判定基準を満たす(S616:Yes)。S617において、オブジェクト特定部304は表示領域から選択したオブジェクトの距離が判定基準を満たすか否かを判定する。オブジェクト401の距離80cmは200cm未満であるため、判定基準を満たす(S617:Yes)。したがって、S618において、オブジェクト特定部304は選択したオブジェクト、すなわち、オブジェクト401を提示対象として決定する。 In S613, the object identifying unit 304 determines whether or not all objects have been processed. Since the processing has not been completed for the object 401, object 402, object 403, object 404, and object 405 (S613: No), the process proceeds to S614. In step S<b>614, the object identification unit 304 selects an object that has not been processed, here, the object 401. In S615, the object specifying unit 304 determines whether or not the moving speed of the selected object satisfies the determination criterion. Since the moving speed of the object 401, 3.2 km/h, is 6 km/h or less, the criterion is satisfied (S615: Yes). In S616, the object identifying unit 304 determines whether or not the orientation of the selected object satisfies the criterion. Since the orientation 80 degrees of the object 401 is −120 degrees or more and 120 degrees or less, the determination criterion is satisfied (S616: Yes). In S617, the object specifying unit 304 determines whether or not the distance of the selected object from the display area satisfies the criterion. Since the distance 80 cm of the object 401 is less than 200 cm, the criterion is satisfied (S617: Yes). Therefore, in S618, the object specifying unit 304 determines the selected object, that is, the object 401 as the presentation target.

続いて、S613において、オブジェクト特定部304はすべてのオブジェクトに対して処理したか否かを判定し、オブジェクト402、オブジェクト403、オブジェクト404、オブジェクト405についても提示対象であるか否かを決定していく。S614において、オブジェクト特定部304がオブジェクト402を選択した場合、S615において、オブジェクト402の時速9.7kmは時速6km以下でないので判定基準を満たさないと判定される(S615:No)。したがって、S619において、提示対象でないと決定する。続いて、S614において、オブジェクト特定部304がオブジェクト403を選択した場合、S615において、オブジェクト402の時速0kmは時速6km以下であるので判定基準を満たすと判定される(S615:Yes)。しかし、S616においてオブジェクト403の向き180度は−120度以上120度以下でないので判定基準を満たさない(S616:No)。従って、S619において、提示対象でないと決定する。 Subsequently, in S613, the object identification unit 304 determines whether or not all objects have been processed, and determines whether or not the objects 402, 403, 404, and 405 are also presentation targets. Go When the object identifying unit 304 selects the object 402 in S614, it is determined in S615 that the determination criterion is not satisfied because the speed 9.7 km/h of the object 402 is not 6 km/h or less (S615: No). Therefore, in S619, it is determined that it is not a presentation target. Subsequently, when the object specifying unit 304 selects the object 403 in S614, it is determined in S615 that the determination criterion is satisfied because the 0 km/h of the object 402 is 6 km/h or less (S615: Yes). However, the orientation 180 degrees of the object 403 is not −120 degrees or more and 120 degrees or less in S616, so the determination criterion is not satisfied (S616: No). Therefore, in S619, it is determined that the object is not the presentation target.

続いて、S614において、オブジェクト特定部304がオブジェクト404を選択した場合、S615において、オブジェクト404の時速4.8kmは時速6km以下であるので判定基準を満たすと判定される(S615:Yes)。また、S616においてオブジェクト404の向き90度は−120度以上120度以下であるので判定基準を満たす(S616:Yes)。しかし、S617において、オブジェクト404の距離300cmは200cm未満でないため、判定基準を満たさない(S617:No)。したがって、S619において、提示対象でないと決定する。続いて、S614において、オブジェクト特定部304がオブジェクト405を選択した場合、オブジェクト401と同様に、S615とS616とS617において各判定基準を満たすため、S618において提示対象であると決定する。このように、オブジェクト特定部304は、検出されている複数のオブジェクトのうちコンテンツを提示する対象となる少なくとも一部のオブジェクトを特定する。 Subsequently, when the object specifying unit 304 selects the object 404 in S614, it is determined in S615 that the judgment criterion is satisfied because the speed 4.8 km/h of the object 404 is 6 km/h or less (S615: Yes). Further, in S616, the orientation 90 degrees of the object 404 is not less than -120 degrees and not more than 120 degrees, so the determination criterion is satisfied (S616: Yes). However, in S617, the distance 300 cm of the object 404 is not less than 200 cm, so the determination criterion is not satisfied (S617: No). Therefore, in S619, it is determined that it is not a presentation target. Subsequently, in S614, when the object specifying unit 304 selects the object 405, the determination criteria are satisfied in S615, S616, and S617 as in the case of the object 401, and thus it is determined to be a presentation target in S618. In this way, the object identifying unit 304 identifies at least a part of the objects for which the content is to be presented among the plurality of detected objects.

オブジェクト401、オブジェクト402、オブジェクト403、オブジェクト404、オブジェクト405に対して処理を終了する(S613:Yes)と、図6(a)のS607aに進む。S607において、コンテンツ決定部305は、オブジェクト特定部304が決定した提示対象であるオブジェクトに対しコンテンツを決定する。具体的には、例えば、提示対象であるオブジェクトの属性に応じてコンテンツを決定する。図4(b)において、オブジェクト401には記憶部307に記憶されている属性Youthから、コンテンツ決定部305は若者向けのテーマパークの広告Aを提示することを決定する。また、オブジェクト405には記憶部307に記憶されている属性がSeniorであることから、コンテンツ決定部305はシニア向けのリゾートの広告Bを提示することを決定する。S608において、表示制御部306は、記憶部307に記憶されているオブジェクトの位置情報に応じて、各オブジェクトに対するコンテンツを表示する表示位置を決定する。例えば、図4(b)において、記憶部307に記憶されているオブジェクト401の現在の位置情報(103,150)から、オブジェクトの目に入りやすいように30cm先の位置(133,150)に表示すると決定する。同様に、オブジェクト405には現在の位置情報(51,150)に基づいて位置(81,150)に表示すると決定する。S609において、表示制御部306はコンテンツを表示する。図4(b)においては、オブジェクト401に対し広告Aを位置(133,150)に、オブジェクト405に対し広告Bを位置(81,150)に表示する。以上がS604において混雑していると判定された場合の処理の流れである。 When the processing is completed for the object 401, the object 402, the object 403, the object 404, and the object 405 (S613: Yes), the process proceeds to S607a in FIG. In step S<b>607, the content determination unit 305 determines content for the object that is the presentation target determined by the object identification unit 304. Specifically, for example, the content is determined according to the attribute of the object to be presented. In FIG. 4B, the content determination unit 305 determines to present the advertisement A of the theme park for young people based on the attribute “Youth” stored in the storage unit 307 in the object 401. Since the attribute stored in the storage unit 307 of the object 405 is “Senior”, the content determination unit 305 determines to present the resort advertisement B for seniors. In step S<b>608, the display control unit 306 determines the display position for displaying the content for each object according to the position information of the object stored in the storage unit 307. For example, in FIG. 4B, the current position information (103, 150) of the object 401 stored in the storage unit 307 is displayed at a position (133, 150) 30 cm ahead so that the object can easily see it. Then decide. Similarly, the object 405 is determined to be displayed at the position (81, 150) based on the current position information (51, 150). In step S609, the display control unit 306 displays the content. In FIG. 4B, the advertisement A is displayed at the position (133, 150) for the object 401, and the advertisement B is displayed at the position (81, 150) for the object 405. The above is the flow of processing when it is determined in S604 that the traffic is congested.

続いて、S604において混雑していないと判定された場合の処理の流れを説明する。混雑していないと判定した場合、S606において、オブジェクト特定部304はすべてのオブジェクトを提示対象であると決定する。S607において、コンテンツ決定部305は、提示対象であるすべてのオブジェクトに対し、記憶部307に保持されている各オブジェクトの属性に応じてコンテンツを決定する。S608において、表示制御部306は、記憶部307に記憶されているオブジェクトの位置情報に応じて、各オブジェクトに対するコンテンツを表示する表示位置を決定する。S609において、表示制御部306は、各オブジェクトに対するコンテンツを表示位置に応じて表示する。 Next, the flow of processing when it is determined in S604 that the traffic is not congested will be described. When it is determined that the objects are not crowded, the object identifying unit 304 determines that all the objects are presentation targets in S606. In step S<b>607, the content determination unit 305 determines content for all objects to be presented according to the attributes of each object stored in the storage unit 307. In step S<b>608, the display control unit 306 determines the display position for displaying the content for each object according to the position information of the object stored in the storage unit 307. In step S609, the display control unit 306 displays the content for each object according to the display position.

<変形例>
第1の実施形態では、プロジェクションを利用してオブジェクトに追従する広告を表示するサイネージシステムを説明したが、これは一例にすぎない。例えば大型ディスプレイを搭載した掲示板、店舗などの看板、あるいは自動販売機において、近くで検出されたオブジェクトの属性に応じた広告などのコンテンツを提供するシステムにも本実施形態を適用することができる。
<Modification>
In the first embodiment, the signage system that displays the advertisement that follows the object using the projection has been described, but this is merely an example. For example, the present embodiment can be applied to a system that provides contents such as advertisements according to the attribute of an object detected nearby, such as a bulletin board equipped with a large-sized display, a signboard in a store, or a vending machine.

なお、本実施形態において、属性検出部は年齢層を属性として検出したが、これに限るものではない。例えば、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、ペットの有無、親子であるか否かのうち1以上を検出してもよい。ペットの有無は、例えば、画像処理により犬等の動物を検出し、動物であるオブジェクトの所定範囲以内にいるオブジェクトの属性をペット有としてもよい。親子であるか否かは、例えば、年齢層がBabyまたはYouthであるオブジェクトと、Middle−ageであるオブジェクトが所定範囲以内の位置に存在すれば、2つのオブジェクトの属性を親子であるとしてもよい。 Although the attribute detection unit detects the age group as an attribute in the present embodiment, the present invention is not limited to this. For example, one or more of age, age group, gender, race, hair color, body type, clothing color, presence of hat, presence of beard, presence of glasses, presence of pet, presence or absence of parent and child is detected. You may. As for the presence/absence of a pet, for example, an animal such as a dog may be detected by image processing, and the attribute of an object within a predetermined range of the object that is an animal may be a pet presence. For example, if an object whose age group is Baby or Youth and an object that is Middle-age exist in a position within a predetermined range, it may be determined whether or not the object is a parent and child. ..

なお、本実施形態において、コンテンツ決定部305は属性である年齢層に応じてコンテンツを決定したがこれに限るものではない。例えば、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、ペットの有無、親子であるかのうち1以上を用いてコンテンツを決定してもよい。また、温度センサや湿度センサ、時計を用いて、天候、気温や湿度、日時情報等の環境情報を検出し、環境情報に応じてコンテンツを決定してもよい。環境情報は、ネットワークやクラウドサーバを介して取得してもよい。また、クラウドサーバ等のネットワークと通信し、イベント情報や天候情報、災害情報等を取得し、取得した情報に応じてコンテンツを決定してもよい。被写体の温度を検出することが可能なカメラ等を用いてオブジェクトの体温を検出する等、オブジェクトの身体情報に応じてコンテンツを決定してもよい。オブジェクトが所有するデバイス、例えばスマートフォンやタブレット等に記憶されているオブジェクトの嗜好情報や商品の購入履歴情報等を取得し、取得した情報に応じて、コンテンツを決定してもよい。 In addition, in the present embodiment, the content determination unit 305 determines the content according to the age group that is the attribute, but the content determination unit 305 is not limited to this. For example, using one or more of age, age group, gender, race, hair color, body type, clothing color, presence of hat, presence of beard, presence of glasses, presence of pet, parent and child content May be determined. Further, environmental information such as weather, temperature and humidity, date and time information may be detected using a temperature sensor, a humidity sensor, and a clock, and the content may be determined according to the environmental information. The environment information may be acquired via a network or a cloud server. Alternatively, the content may be determined by communicating with a network such as a cloud server to acquire event information, weather information, disaster information, and the like, and determining the content according to the acquired information. The content may be determined according to the physical information of the object, such as detecting the body temperature of the object using a camera or the like that can detect the temperature of the subject. You may acquire the preference information of the object, the purchase history information of the product, and the like stored in the device owned by the object, such as a smartphone or a tablet, and determine the content according to the acquired information.

また、オブジェクトの属性と環境情報、ネットワーク通信により取得した情報、オブジェクトの身体情報、オブジェクトが所有するデバイスから取得した情報等のうち1以上を組み合わせてコンテンツを決定してもよい。例えばコンテンツ決定部305は、環境情報として、天候が晴れ・気温が30度等、真夏日を示す情報を検出し、オブジェクトの体温が高い場合に飲み物や飲食店の広告、熱中症に対する注意喚起等の広告を提示する。このように、環境情報に応じた情報を提示することもできる。 Further, the content may be determined by combining one or more of the attribute of the object and environment information, information acquired by network communication, physical information of the object, information acquired from the device owned by the object, and the like. For example, the content determination unit 305 detects, as the environmental information, information indicating a midsummer day such as a sunny weather and a temperature of 30 degrees, and when the body temperature of the object is high, an advertisement for a drink or a restaurant, a warning for heat stroke, etc. Present an advertisement. In this way, it is possible to present information according to the environmental information.

また、例えば、属性として人種のうちAsian, Caucasian, African, Indianのいずれかを検出した場合、検出した人種に応じて広告の言語を設定したり、関連地域のニュースを提示したり、人種に応じた情報を提示してもよい。また例えば、属性がペット有と検出された場合、動物同行可能な飲食店の広告や、ペットのケア用品の広告等、同行する動物に関する広告を提示する等、ペットの有無に応じた情報の提示を決定してもよい。また、オブジェクトである動物に対し、その動物に関連するコンテンツを提示する等オブジェクトの種別に応じた情報の提示を決定してもよい。また、属性として検出された服の色や髪の色(例えば、Black, Blond, Brown, Grayのいずれかを検出)に応じて、色に似あう色の服や装飾品の広告を提示する等、オブジェクトから検出した色に応じた情報の提示を決定してもよい。また、例えば、属性として帽子有と検出された場合は、帽子店の広告を提示する等、オブジェクトの装飾品に応じた情報を提示することを決定してもよい。 Further, for example, when any one of Asian, Caucasian, African, and Indian is detected as an attribute, the language of the advertisement is set according to the detected race, the news of the relevant area is presented, or Information may be presented according to the species. Further, for example, when the attribute is detected as having a pet, presentation of information according to the presence or absence of a pet, such as advertisement of a restaurant that can accompany animals, advertisement of pet care products, etc. May be determined. Further, the presentation of information according to the type of the object such as presenting the content related to the animal may be determined for the animal that is the object. In addition, according to the clothes color or hair color detected as an attribute (for example, any one of Black, Black, Brown, and Gray is detected), an advertisement of clothes or ornaments of a color similar to the color is presented, etc. The presentation of information according to the color detected from the object may be determined. Further, for example, when it is detected that a hat is present as an attribute, it may be decided to present information according to the ornament of the object, such as presenting an advertisement of a hat store.

また、例えば、環境情報として真夏日であることと、属性として帽子無を検出した場合は、熱中症に対する注意の広告や、帽子等の熱中症対策用品に関する広告を提示する等、環境情報と属性を組み合わせてそれに応じた情報を提示すると決定してもよい。また、例えば、属性が親子であると検出された場合、日時情報に応じて、親子向けのイベントの広告を提示する等、属性と環境情報、イベント情報等ネットワークから取得した情報に応じて、コンテンツを決定してもよい。また、例えば、髭の有無を示す属性としてMoustache,Beard,5 o’clock shadowのいずれかを検出する。その場合、時刻が夕方で属性が5 o’clock shadowであれば髭剃り用品の広告を出す等、時刻と属性に応じた広告を提示してもよい。例えば、オブジェクトが所有するデバイスから購入履歴情報を取得し、購入頻度が高い店のクーポンを提示する等、オブジェクトが所有するデバイスから取得した情報に応じてコンテンツを決定してもよい。 In addition, for example, when it is midsummer day as environmental information and when hatless is detected as an attribute, an advertisement of attention against heat stroke and an advertisement regarding heatstroke countermeasure products such as hats are presented, and environmental information and attributes It may be determined that the information is presented in combination with. In addition, for example, when the attribute is detected to be a parent and child, the advertisement of the event for the parent and child is presented according to the date and time information, the attribute and the environmental information, the event information, and the like according to the information acquired from the network. May be determined. Further, for example, any of Mustache, Beard, and 5 o'clock shadow is detected as an attribute indicating the presence or absence of a beard. In this case, if the time is in the evening and the attribute is 5 o'clock shadow, an advertisement corresponding to the time and the attribute may be presented, such as an advertisement for shaving equipment. For example, the purchase history information may be acquired from the device owned by the object, and the coupon of a shop with a high purchase frequency may be presented, or the content may be determined according to the information acquired from the device owned by the object.

また、本実施形態において、コンテンツ決定部305は属性に応じてコンテンツを決定するとしたが、コンテンツに関する過去の履歴情報を記憶部307に記憶し、履歴情報に応じてコンテンツを決定してもよい。具体的には、例えば、コンテンツ決定部305は、オブジェクトAに提示するコンテンツを決定した際に、オブジェクトAに対応付けてコンテンツに関する情報を記憶部307に記憶させる。次フレームで、コンテンツ決定部305がオブジェクトAに対するコンテンツを決定する際に、記憶部にコンテンツに関する情報が記憶されていたら、記憶されているコンテンツを提示すると決定する。これにより、オブジェクトの属性検出精度が低くフレーム毎に異なる属性が検出される場合にも、オブジェクトは同じコンテンツを見続けることが可能になる。 Further, in the present embodiment, the content determination unit 305 determines the content according to the attribute, but the history information about the past may be stored in the storage unit 307 and the content may be determined according to the history information. Specifically, for example, when the content determination unit 305 determines the content to be presented to the object A, the content determination unit 305 stores information about the content in the storage unit 307 in association with the object A. When the content determination unit 305 determines the content for the object A in the next frame and the information about the content is stored in the storage unit, it is determined to present the stored content. This allows the object to continue to view the same content even when the attribute detection accuracy of the object is low and different attributes are detected for each frame.

なお、本実施形態において、表示制御部306はオブジェクトの現在の位置情報に応じてコンテンツの表示位置を決定するとしたが、これに限るものではない。例えば、オブジェクトの位置情報と、オブジェクトの移動速度、オブジェクトの移動方向、オブジェクトの向き、表示領域からオブジェクトまでの距離、オブジェクトの身長等の外形情報のうち1以上を用いてコンテンツの表示位置を決定してもよい。例えば、オブジェクトの移動速度がゆっくりである場合はオブジェクトの近くにコンテンツを表示させ、オブジェクトの移動速度が速い場合はオブジェクトから少し離れた位置にコンテンツを表示させてもよい。また、例えば、オブジェクトの移動速度が0に近い場合等オブジェクトが静止している状態の場合、オブジェクトが移動していたとしても、コンテンツの表示位置を過去、例えば1フレーム前の表示位置と同じ位置に表示してもよい。また、例えばオブジェクトの移動速度が0に近い値で、かつ、表示領域のほうに向いていた場合、広告を見ているとみなし、オブジェクトが移動していたとしても、コンテンツの表示位置を過去、例えば1フレーム前の表示位置と同じ位置に表示してもよい。 Although the display control unit 306 determines the display position of the content according to the current position information of the object in the present embodiment, the present invention is not limited to this. For example, the display position of the content is determined using one or more of the position information of the object, the moving speed of the object, the moving direction of the object, the direction of the object, the distance from the display area to the object, and the external shape information such as the height of the object. You may. For example, when the moving speed of the object is slow, the content may be displayed near the object, and when the moving speed of the object is fast, the content may be displayed at a position slightly away from the object. Further, for example, when the object is stationary, such as when the moving speed of the object is close to 0, even if the object is moving, the display position of the content is the same as the display position in the past, for example, one frame before. May be displayed in. Further, for example, when the moving speed of the object is close to 0 and is directed to the display area, it is considered that the advertisement is being viewed, and even if the object is moving, the display position of the content is For example, it may be displayed at the same position as the display position one frame before.

また、表示制御部306は、例えばオブジェクトの身長に応じて、コンテンツの表示位置の高さを決定してもよい。また、表示制御部306は、例えば、オブジェクトの向きまたは移動方向に基づいて、オブジェクトが移動する先にコンテンツを表示させるよう表示位置を決定してもよい。表示制御部306は、例えば、オブジェクトがすれ違う場合等、複数のコンテンツの表示位置が重なる場合、コンテンツの表示サイズを小さくして重ならないようにしてもよい。また、コンテンツが重ならないように表示位置の高さを決定してもよい。また、例えば、表示領域により近い位置に存在するオブジェクトや、より表示領域の方向を向いているオブジェクトを優先してコンテンツを表示してもよい。その場合、オブジェクト同士がすれ違っている間は優先するオブジェクトに対するコンテンツのみ表示するが、オブジェクト同士が離れた時点で再び各オブジェクトに対するコンテンツを表示する。 In addition, the display control unit 306 may determine the height of the display position of the content according to, for example, the height of the object. Further, the display control unit 306 may determine the display position so that the content is displayed at the destination of the object movement based on, for example, the orientation or the moving direction of the object. The display control unit 306 may reduce the display size of the contents so that they do not overlap when the display positions of the plurality of contents overlap, for example, when objects pass each other. Further, the height of the display position may be determined so that the contents do not overlap. Further, for example, the object existing closer to the display area or the object further facing the display area may be prioritized to display the content. In that case, while the objects pass each other, only the content for the priority object is displayed, but when the objects are separated from each other, the content for each object is displayed again.

なお、本実施形態において、オブジェクト検出部301はカメラ102から取得した撮像画像を画像処理することで、オブジェクトの位置や属性を検出するとしたが、これに限るものではない。例えば、オブジェクトが所有するデバイスと通信してオブジェクトの位置情報を取得してもよい。具体的には、スマートフォンやタブレット等に搭載されているGPSや、加速度センサ、地磁気センサ、ジャイロセンサ等各種センサを用いて、オブジェクトが存在する位置情報を検出する。また、Wi−Fiのアクセスポイントや、キャリアの基地局、ビーコン等を用いて位置情報を検出してもよい。 In the present embodiment, the object detection unit 301 detects the position and the attribute of the object by performing image processing on the captured image acquired from the camera 102, but the present invention is not limited to this. For example, the position information of the object may be acquired by communicating with a device owned by the object. Specifically, the position information of the object is detected using GPS, an acceleration sensor, a geomagnetic sensor, a gyro sensor, etc. mounted on a smartphone, a tablet, or the like. Alternatively, the position information may be detected using a Wi-Fi access point, a carrier base station, a beacon, or the like.

なお、本実施形態において、属性情報検出部302はカメラ102から取得した撮像画像を画像処理することで、オブジェクトの位置や属性を検出するとしたが、これに限るものではない。例えば、オブジェクトが所有するデバイスと通信して、予めデバイスにインストールされたアプリから、予めオブジェクトによって登録してある属性の情報を取得してもよい。 In the present embodiment, the attribute information detection unit 302 detects the position or attribute of the object by performing image processing on the captured image acquired from the camera 102, but the present invention is not limited to this. For example, the attribute information registered in advance by the object may be acquired from the application installed in the device by communicating with the device owned by the object.

なお、本実施形態において、オブジェクト特定部304はカメラ102や距離センサ103から取得した撮像画像を画像処理することで、オブジェクトの移動速度や向き、表示領域からオブジェクトまでの距離を検出するとしたが、これに限るものではない。例えば、オブジェクトが所有するデバイスと通信してオブジェクトの移動速度や向き、表示領域からオブジェクトまでの距離を取得してもよい。具体的には、スマートフォンやタブレット等に搭載されているGPSや、加速度センサ、地磁気センサ、ジャイロセンサ等各種センサを用いて、オブジェクトが存在する位置情報や向きを検出する。本実施形態で説明したように位置情報から移動速度を検出する。また、予め表示領域の位置情報を記憶部307に記憶しておき、表示領域の位置情報とオブジェクトの位置情報をもとに、表示領域からオブジェクトまでの距離を検出する。なお、Wi−Fiのアクセスポイントや、キャリアの基地局、ビーコン等を用いて位置情報を検出してもよい。 In the present embodiment, the object specifying unit 304 detects the moving speed and direction of the object and the distance from the display area to the object by performing image processing on the captured image acquired from the camera 102 or the distance sensor 103. It is not limited to this. For example, the moving speed and direction of the object and the distance from the display area to the object may be acquired by communicating with the device owned by the object. Specifically, the position information and the orientation of the object are detected by using various sensors such as a GPS, an acceleration sensor, a geomagnetic sensor, and a gyro sensor mounted on a smartphone or a tablet. As described in this embodiment, the moving speed is detected from the position information. Further, the position information of the display area is stored in advance in the storage unit 307, and the distance from the display area to the object is detected based on the position information of the display area and the position information of the object. The position information may be detected using a Wi-Fi access point, a carrier base station, a beacon, or the like.

以上により、個々のオブジェクトに付随して個別に提供情報を表示する装置において、混雑していても、オブジェクトやその周囲の状況に応じて情報を提示することで、コンテンツの視認性を向上させることができる。なお、本実施形態において、距離センサ103は距離画像を取得するとしたが、これに限るものではない。例えば、赤外線や超音波により距離を測定するセンサ等を用いて距離情報を取得してもよい。 As described above, in the device that individually displays the provided information associated with each object, the visibility of the content can be improved by presenting the information according to the situation of the object and its surroundings even when the device is crowded. You can Although the distance sensor 103 acquires the distance image in the present embodiment, the present invention is not limited to this. For example, the distance information may be acquired using a sensor or the like that measures a distance with infrared rays or ultrasonic waves.

以上説明したように、第1の実施形態および変形例によれば、所定の表示領域近くが混雑している場合は、個別にコンテンツを提示するオブジェクトを、コンテンツに注目しやすい状態にあるオブジェクトに絞り込む。これにより、有限の表示領域上にコンテンツの数が増えすぎて(密度が高まりすぎて)1つ1つのコンテンツの内容が認識されにくくなることを防ぐことができる。その結果、近くが混雑する場合でも効果的に個別のオブジェクトに対応するコンテンツを提供できる。 As described above, according to the first embodiment and the modification, when the vicinity of a predetermined display area is congested, an object presenting content individually is changed to an object in a state in which it is easy to pay attention to the content. Narrow down. As a result, it is possible to prevent the number of contents on the finite display area from increasing too much (the density being too high) to make it difficult to recognize the contents of each content. As a result, contents corresponding to individual objects can be effectively provided even when the vicinity is crowded.

<第2の実施形態>
第2の実施形態では、所定の表示領域近くが混雑している場合は、表示領域の近くに存在するオブジェクトをグルーピングし、1グループに1つコンテンツを提示することで、表示領域に表示されるコンテンツの数が増えすぎないように制御する。さらには、コンテンツの表示サイズを大きくしたり、表示位置を高い位置にしたりする。これにより、第2の実施形態では、速いスピードで移動中であったり表示領域から離れた位置にいたりするオブジェクトにも注目されやすくなり、混雑時でもコンテンツの提供を効果的に行うことが可能になる。以下では、第1の実施形態と同様に、図1に示したサイネージシステムを例に第2の実施形態を説明する。
<Second Embodiment>
In the second embodiment, when the vicinity of a predetermined display area is congested, objects existing near the display area are grouped, and one content is presented to one group to be displayed in the display area. Control so that the number of contents does not increase too much. Furthermore, the display size of the content is increased or the display position is set to a high position. As a result, in the second embodiment, it becomes easier to pay attention to an object that is moving at a high speed or that is far from the display area, and it is possible to effectively provide the content even when it is crowded. Become. Hereinafter, as with the first embodiment, the second embodiment will be described by taking the signage system shown in FIG. 1 as an example.

図7は本実施形態に係る情報処理装置200の機能構成の一例を示すブロック図である。ただし、図3の機能構成と同一の機能部には同じ番号を付し、詳細な説明は省略する。グルーピング部701は、CPU201等の機能部であり、表示領域の近くに存在するオブジェクトのうち、少なくとも1以上のオブジェクトを1つのグループにグルーピングする。第2の実施形態においても、記憶部307には、オブジェクトの位置情報、オブジェクトの属性情報、オブジェクトが向いている向きや表示領域からオブジェクトまでの距離を含む状況情報、オブジェクトに対し提示しているコンテンツ等が記憶される。さらに、オブジェクトが所属するグループの情報や、各グループの位置とグループに所属するメンバ数が記憶される。また、記憶部307は、直前のオブジェクトの位置情報や位置情報の履歴を記憶してもよい。また、システム起動時までに予め混雑度とグループの規模の関係を記憶しておいてもよい。 FIG. 7 is a block diagram showing an example of the functional configuration of the information processing apparatus 200 according to this embodiment. However, the same numbers are given to the same functional units as those in the functional configuration of FIG. 3, and detailed description will be omitted. The grouping unit 701 is a functional unit such as the CPU 201, and groups at least one object among objects existing near the display area into one group. Also in the second embodiment, the storage unit 307 presents the position information of the object, the attribute information of the object, the situation information including the orientation of the object and the distance from the display area to the object, and the object. Contents and the like are stored. Further, information on the group to which the object belongs, the position of each group and the number of members belonging to the group are stored. Further, the storage unit 307 may store the position information of the immediately preceding object and the history of the position information. Further, the relationship between the congestion degree and the group size may be stored in advance by the time the system is started.

図8は、図1に示したサイネージシステムの動作例の一態様を示す。オブジェクト801〜807は、表示領域100近くで検出されたオブジェクトである。コンテンツ809は、オブジェクト807に対して提示されたコンテンツである。コンテンツ810は、オブジェクト801とオブジェクト802のグループに対して提示されたコンテンツである。コンテンツ811は、オブジェクト803とオブジェクト804とオブジェクト805のグループに対して提示されたコンテンツである。コンテンツ812はオブジェクト806のグループに対して提示されたコンテンツである。 FIG. 8 shows one mode of an operation example of the signage system shown in FIG. Objects 801 to 807 are objects detected near the display area 100. The content 809 is the content presented to the object 807. The content 810 is the content presented to the group of the object 801 and the object 802. The content 811 is the content presented to the group of the object 803, the object 804, and the object 805. Content 812 is content presented to a group of objects 806.

第2の実施形態において情報処理装置200が実行するメインの処理の流れは、第1の実施形態で説明した図6(a)のフローチャートに示された処理に準じるため、説明は省略する。ただし、第2の実施形態では、S605で実行される、提示対象のオブジェクトを特定する処理の内容が異なる。図9は、第2の実施形態において、S605で実行される処理の一例を表すフローチャートである。なお、図6(b)のフローチャートで説明したのと同じ内容のステップに対しては同じ場合を付し、説明を省略する。 The flow of the main processing executed by the information processing apparatus 200 in the second embodiment is the same as the processing shown in the flowchart of FIG. 6A described in the first embodiment, so description thereof will be omitted. However, in the second embodiment, the content of the process of identifying the object to be presented, which is executed in S605, is different. FIG. 9 is a flowchart showing an example of the processing executed in S605 in the second embodiment. The steps having the same contents as those described in the flowchart of FIG. 6B are given the same cases, and the description thereof will be omitted.

S901においてグルーピング部701は、混雑状況取得部303が取得した混雑状況(混雑度)に応じてグループの規模を決定する。グループの規模とは、例えば、グループに所属するメンバ数の最大値である。ここで、S603で混雑状況取得部303が取得した混雑度は、表示領域である表示領域100の横幅が3m、オブジェクト数が7である場合、混雑度=(オブジェクト数)/(表示領域のサイズ)=7/3となる。例えば、混雑度7/3のとき、グループの規模としてグループに所属するメンバ数の最大値を3とする。 In step S<b>901, the grouping unit 701 determines the group scale according to the congestion status (congestion degree) acquired by the congestion status acquisition unit 303. The group size is, for example, the maximum number of members belonging to the group. Here, the congestion degree acquired by the congestion status acquisition unit 303 in S603 is the congestion degree=(the number of objects)/(the size of the display area) when the width of the display area 100, which is the display area, is 3 m and the number of objects is 7. )=7/3. For example, when the congestion degree is 7/3, the maximum number of members belonging to the group is set to 3 as the size of the group.

S902において、グルーピング部701はすべてのオブジェクトに対し処理したか否かを判定する。いずれのオブジェクトに対しても処理していないのでNoと判定されS903に進む。S903において、オブジェクト特定部304はオブジェクト807を選択する。S904においてグルーピング部701はオブジェクトが移動しているか否かを判定する。具体的には、例えば、オブジェクトの移動速度が所定値以上であるか否かを判定する。オブジェクトの移動速度は記憶部307に記憶しているオブジェクトの現在の位置情報と、過去の位置情報に基づいて算出する。ここで、判定に使用する移動速度が時速1.0km、オブジェクト807の移動速度が時速0.3である。この場合、グルーピング部701はオブジェクト807が移動していないと判定する。S913において、オブジェクト特定部304はオブジェクト807を提示対象と決定する。これにより、移動していないオブジェクトはグルーピングされないため、ほかのオブジェクトの移動にかかわらず同じコンテンツを同じ場所で見続けることが可能になる。 In step S902, the grouping unit 701 determines whether all objects have been processed. Since no processing has been performed on any of the objects, the determination is No and the process proceeds to S903. In step S903, the object specifying unit 304 selects the object 807. In step S904, the grouping unit 701 determines whether the object is moving. Specifically, for example, it is determined whether or not the moving speed of the object is equal to or higher than a predetermined value. The moving speed of the object is calculated based on the current position information of the object stored in the storage unit 307 and the past position information. Here, the moving speed used for the determination is 1.0 km/h, and the moving speed of the object 807 is 0.3 h/hour. In this case, the grouping unit 701 determines that the object 807 has not moved. In step S913, the object identification unit 304 determines the object 807 as a presentation target. As a result, objects that have not moved are not grouped, so that the same content can be continuously viewed at the same location regardless of the movement of other objects.

続いて、S903において、オブジェクト特定部304はオブジェクト801を選択する。ここで、オブジェクト801の移動速度が時速3.0kmである。S904において、グルーピング部701は、オブジェクト801が時速1.0km以上であるので移動していると判定する。S905においてグルーピング部701は、記憶部307からグループの情報を取得し、グループが存在しているか否か判定する。ここではグループが作成されていないため、存在していないと判定される(S905:No)。S912において、グルーピング部701は新しいグループを作成し選択したオブジェクトをそのグループのメンバとする。すなわち、グルーピング部701はグループAを作成し、オブジェクト801をグループAのメンバとする。記憶部307は、グループと、そのグループのメンバとしてオブジェクト801を記憶する。S911においてグルーピング部701はグループの位置を決定する。具体的には、例えば、グループのメンバとなっている各オブジェクトの現在の位置情報に基づいて、各オブジェクトの中央位置を算出し、中央位置をグループの位置として決定する。ここで、オブジェクト801の現在の位置情報が(103,150)である。グループAのメンバはオブジェクト801のみなので、グループAの位置は(103,150)となる。 Subsequently, in S903, the object specifying unit 304 selects the object 801. Here, the moving speed of the object 801 is 3.0 km/h. In step S904, the grouping unit 701 determines that the object 801 is moving because it is 1.0 km/h or more. In step S905, the grouping unit 701 acquires group information from the storage unit 307 and determines whether the group exists. Here, since the group has not been created, it is determined that the group does not exist (S905: No). In step S912, the grouping unit 701 creates a new group and sets the selected object as a member of the group. That is, the grouping unit 701 creates the group A and makes the object 801 a member of the group A. The storage unit 307 stores a group and the object 801 as a member of the group. In step S911, the grouping unit 701 determines the position of the group. Specifically, for example, the center position of each object is calculated based on the current position information of each object that is a member of the group, and the center position is determined as the position of the group. Here, the current position information of the object 801 is (103, 150). Since the object of the group A is only the object 801, the position of the group A is (103, 150).

続いて、S903においてオブジェクト特定部304はオブジェクト802を選択する。ここで、オブジェクト802の移動速度が時速3.0kmである。S904において、グルーピング部701は、オブジェクト802が時速1.0km以上であるので移動していると判定する。S905においてグルーピング部701は、記憶部307にグループAの情報があるため、グループが存在していると判定する(S905:Yes)。S906において、グルーピング部701はすべてのグループに対し処理したか否かを判定する。ここで、グループAに対して処理していないため、S907に進む。S907において、グルーピング部701はグループAを選択する。S908において、グルーピング部701は、グループに所属するオブジェクト数が、S901で決定したグループのメンバ数の最大値以上であるか否かを判定する。グループのメンバ数の最大値は3であり、グループAのメンバはオブジェクト801のみなのでメンバ数は1である。したがって、グループAに所属するメンバ数は、グループのメンバ数の最大値未満であると判定される(S908:No)。S909において、グルーピング部701は選択したオブジェクトが選択したグループの位置の所定範囲内に存在するか否かを判定する。オブジェクト802の現在の位置情報が(105,170)、グループの位置の所定範囲を半径1m以内であるとすると、オブジェクト802はグループAの位置(103,150)から半径1m以内であるので、S910に進む(S909:Yes)。S910において、グルーピング部701は、選択したオブジェクト選択したグループのメンバとする。すなわち、オブジェクト802をグループAのメンバとする。S911において、グルーピング部701はグループAのメンバであるオブジェクト801とオブジェクト802の現在の位置情報に基づいてグループAの位置を算出する。具体的には、オブジェクト801の位置(103,150)とオブジェクト802の位置(105,170)の平均値を求める。したがって、グループAの位置は(104,160)となる。 Then, in step S903, the object specifying unit 304 selects the object 802. Here, the moving speed of the object 802 is 3.0 km/h. In step S904, the grouping unit 701 determines that the object 802 is moving because it is 1.0 km/h or more. In S905, the grouping unit 701 determines that the group exists because the storage unit 307 has the information of the group A (S905: Yes). In step S906, the grouping unit 701 determines whether all groups have been processed. Here, since the processing is not performed on the group A, the process proceeds to S907. In step S907, the grouping unit 701 selects group A. In step S908, the grouping unit 701 determines whether the number of objects belonging to the group is equal to or larger than the maximum value of the number of members of the group determined in step S901. The maximum value of the number of members of the group is 3, and the number of members of the group A is 1 because the object 801 is the only member. Therefore, it is determined that the number of members belonging to the group A is less than the maximum value of the number of members of the group (S908: No). In step S909, the grouping unit 701 determines whether the selected object exists within the predetermined range of the position of the selected group. If the current position information of the object 802 is (105, 170) and the predetermined range of the position of the group is within a radius of 1 m, the object 802 is within a radius of 1 m from the position of the group A (103, 150). (S909: Yes). In step S910, the grouping unit 701 sets the selected object as a member of the selected group. That is, the object 802 is a member of group A. In step S911, the grouping unit 701 calculates the position of the group A based on the current position information of the objects 801 and 802 that are members of the group A. Specifically, the average value of the positions (103, 150) of the object 801 and the positions (105, 170) of the object 802 is calculated. Therefore, the position of group A is (104, 160).

続いて、S903において、オブジェクト特定部304はオブジェクト803を選択する。グルーピング部701は、S904においてオブジェクト803が移動していると判定する。また、グルーピング部701はS905においてグループAに対して処理していないのでS907に進み、グループAを選択する。S908において、グルーピング部701は、グループAに所属するメンバ数2は、グループのメンバ数の最大値3以上ではないと判定する(S908:No)。ここで、オブジェクト803の現在の位置情報が(205,170)である。その場合、S909において、グルーピング部701はグループAの位置(104,160)の半径1m以内にオブジェクト803が存在しないと判定する。S906において、グルーピング部701は、記憶部307からグループはグループAのみ存在することを取得する。グループAに関しては処理したため、すべてのグループに対し処理したと判定する(S906:Yes)。S912において、グルーピング部701は新しいグループBを作成し、オブジェクト803をグループBのメンバとする。S911において、グルーピング部701はグループBのメンバはオブジェクト803のみであるためグループBの位置をオブジェクト803の現在の位置情報とする。続いて、オブジェクト804とオブジェクト805も上述の処理と同様の処理を行い、グループBのメンバになる。 Subsequently, in S903, the object specifying unit 304 selects the object 803. The grouping unit 701 determines in step S904 that the object 803 is moving. Further, since the grouping unit 701 has not processed the group A in step S905, the process advances to step S907 to select the group A. In S908, the grouping unit 701 determines that the number of members 2 belonging to the group A is not greater than or equal to the maximum value 3 of the members of the group (S908: No). Here, the current position information of the object 803 is (205, 170). In that case, in S909, the grouping unit 701 determines that the object 803 does not exist within the radius 1 m of the position (104, 160) of the group A. In step S906, the grouping unit 701 acquires from the storage unit 307 that only the group A exists. Since the group A has been processed, it is determined that all groups have been processed (S906: Yes). In step S912, the grouping unit 701 creates a new group B and makes the object 803 a member of the group B. In step S911, the grouping unit 701 sets the position of the group B as the current position information of the object 803 because the member of the group B is only the object 803. Subsequently, the object 804 and the object 805 also perform the same processing as described above, and become a member of the group B.

次に、S903において、オブジェクト特定部304がオブジェクト806を選択する。グループAとグループBに対して処理していないためS906においてNoと判定する(S906:No)。S907においてグルーピング部701がグループAを選択すると、グループAのメンバ数は2であり、グループのメンバ数最大値3であるためS908においてNoと判定される(S908:No)。ここで、オブジェクト806の現在の位置情報が(270,150)である。グループAの位置は(104,160)であるため、S909において、グルーピング部701は、オブジェクト806はグループAの半径1m以内に存在しないと判定する(S909:No)。次に、グルーピング部701がS907においてグルーピング部701がグループBを選択すると、グループBのメンバ数は3であり、グループのメンバ数最大値3であるためS908においてYesと判定される(S908:Yes)。グループAとグループBに対し処理したため、グルーピング部701はS906においてすべてのグループに対し処理したと判定する(S906:Yes)。S912において、グルーピング部701は新しいグループCを作成し、オブジェクト806をグループCのメンバとする。S911において、グルーピング部701はグループCのメンバはオブジェクト806のみであるためグループCの位置をオブジェクト806の現在の位置情報とする。 Next, in S903, the object specifying unit 304 selects the object 806. Since processing is not performed on the group A and the group B, it is determined as No in S906 (S906: No). When the grouping unit 701 selects the group A in step S907, the number of members in the group A is 2, and the maximum value of the number of members in the group is 3, so that a determination of No is made in step S908 (S908: No). Here, the current position information of the object 806 is (270, 150). Since the position of the group A is (104, 160), in S909, the grouping unit 701 determines that the object 806 does not exist within the radius of 1 m of the group A (S909: No). Next, when the grouping unit 701 selects the group B in S907, the number of members in the group B is 3, and the maximum value of the number of members in the group is 3, which is determined as Yes in S908 (S908: Yes). ). Since the group A and the group B have been processed, the grouping unit 701 determines that all groups have been processed in S906 (S906: Yes). In step S912, the grouping unit 701 creates a new group C and makes the object 806 a member of the group C. In step S911, the grouping unit 701 sets the position of the group C as the current position information of the object 806 because the member of the group C is only the object 806.

続いて、S902において、すべてのオブジェクトに対し処理したのでS914にすすむ(S902:Yes)。S914において、オブジェクト特定部304はすべてのグループ、即ち、グループAとグループBとグループCを提示対象であると決定する。S607において、コンテンツ決定部305は、グループAとグループBとグループCとオブジェクト807それぞれに対しコンテンツを決定する。例えば、オブジェクト807に対しては、オブジェクト807の属性に応じてコンテンツを決定する。グループに対するコンテンツはメンバの属性に応じてコンテンツを決定する。例えば、オブジェクト803とオブジェクト804の属性がYouthであり、オブジェクト805の属性がMiddle−ageだとする。その場合、より多くのオブジェクトに共通する属性を優先しコンテンツを決定する。グループBはMiddle−ageのオブジェクトよりもYouthのオブジェクトのほうが多いため、グループの属性をYouthとし、Youth向きの広告をコンテンツとして決定する。S608において、表示制御部306は、提示対象それぞれに対し、提示対象の位置情報に応じてコンテンツの表示位置を決定する。具体的には、例えば、オブジェクト807に対するコンテンツの表示位置はオブジェクト807の現在の位置情報に応じて決定する。また、グループAに対するコンテンツの表示位置はグループAの位置に応じて決定する。S609において、表示制御部306はグループAとグループBとグループCとオブジェクト807それぞれに対しコンテンツを表示する。 Subsequently, in S902, since all the objects have been processed, the process proceeds to S914 (S902: Yes). In S914, the object identifying unit 304 determines that all groups, that is, the group A, the group B, and the group C, are the presentation targets. In step S607, the content determination unit 305 determines content for each of the group A, the group B, the group C, and the object 807. For example, for the object 807, the content is determined according to the attribute of the object 807. The content for the group is determined according to the attribute of the member. For example, it is assumed that the attributes of the objects 803 and 804 are Youth and the attribute of the object 805 is Middle-age. In that case, the content common to more objects is prioritized to determine the content. Since the group B has more objects of Youth than the objects of Middle-age, the attribute of the group is set to Youth and the advertisement for Youth is determined as the content. In step S608, the display control unit 306 determines the display position of the content for each of the presentation targets according to the position information of the presentation target. Specifically, for example, the display position of the content with respect to the object 807 is determined according to the current position information of the object 807. Further, the display position of the content with respect to the group A is determined according to the position of the group A. In step S609, the display control unit 306 displays the content for each of the group A, the group B, the group C, and the object 807.

ただし、第2の実施形態のS904において移動速度による判定を行うのは一例に過ぎない。オブジェクトの顔の向きや表示領域からの距離等、他のオブジェクトの状態の情報に基づいて個別のコンテンツを提供する対象のオブジェクトと、グルーピングするオブジェクトを決めてもよい。また、第2実施形態では、検出されているオブジェクトの状態によっては、全てのオブジェクトが、S904の処理において個別のコンテンツを提供する対象とならず、グルーピングの対象となる場合もある。つまり、オブジェクト全てが1つのグループに分類され、その中でより多くのオブジェクトに共通する属性に応じた1つのコンテンツが提供される場合も、第2の実施形態に含まれる。さらにグルーピングされた複数のオブジェクトのうち1以上のオブジェクトの状態が変化し、個別のコンテントを提示する対象に変われば、その時点から新たなコンテンツを提供してもよい。例えばオブジェクトの顔の向きが表示領域の方を向いていない場合にグルーピングの対象とする場合、表示領域に背を向けていたオブジェクトが振り向いて広告を視認可能になれば、グルーピングの対象を外れ、個別のコンテントを提示する対象となる。このとき、既に表示されている広告が、そのオブジェクトの個別の属性に応じたものであれば、その広告の内容をより詳細化したりオブジェクトに近づけたりすることが可能である。また、既に表示されている広告が、そのオブジェクトの個別の属性に応じたものでなければ、オブジェクトの属性に応じたより適切な広告などのコンテンツを提供し、関心を持たせることが可能となる。 However, the determination based on the moving speed in S904 of the second embodiment is merely an example. The object to be provided with individual content and the object to be grouped may be determined based on the information on the state of other objects such as the orientation of the face of the object and the distance from the display area. Further, in the second embodiment, depending on the state of the detected object, not all objects may be targets for providing individual contents in the processing of S904, but may be targets for grouping. That is, the case where all the objects are classified into one group and one content according to the attribute common to more objects in the group is provided is also included in the second embodiment. Further, if the state of one or more objects among the plurality of grouped objects changes and changes to a target for presenting individual content, new content may be provided from that point. For example, in the case where the direction of the object's face is not facing the display area, if the object is grouped, if the object that turned its back to the display area turns around and the advertisement can be viewed, it will be excluded from the grouping target. It is a target for presenting individual content. At this time, if the advertisement that has already been displayed corresponds to the individual attribute of the object, it is possible to further refine the content of the advertisement or bring it closer to the object. Also, if the advertisement that is already displayed does not correspond to the individual attribute of the object, it is possible to provide more appropriate content such as advertisement according to the attribute of the object and make it interesting.

<変形例>
なお、コンテンツ決定部305はオブジェクトやグループの属性に応じてコンテンツを決定するとしたが、記憶部307にコンテンツ決定部305が決定したコンテンツを記憶しておき、直前に提示したコンテンツを提示すると決定してもよい。また、オブジェクトがコンテンツを見るために立ち止まる等、直前までグループのメンバであったオブジェクトが移動しなくなった場合、グループのメンバから外れ、オブジェクト個体が提示対象になる。その場合、コンテンツ決定部305は、グループに所属していた時のコンテンツを記憶部307に記憶しておき、オブジェクト個体がグループのメンバから外れても、オブジェクトの属性にかかわらず、グループに所属していた時のコンテンツを提示してもよい。
<Modification>
Although the content determination unit 305 determines the content according to the attribute of the object or the group, the content determined by the content determination unit 305 is stored in the storage unit 307, and the content presented immediately before is determined to be presented. May be. Also, when an object that has been a member of the group until just before, such as when the object stops to view the content, does not move, it is removed from the members of the group and the object individual becomes the presentation target. In that case, the content determination unit 305 stores the content when it belonged to the group in the storage unit 307, and even if the object individual is removed from the members of the group, the content determination unit 305 belongs to the group regardless of the attribute of the object. You may present the content when it was on.

また、表示制御部306は、グループのメンバ数に応じて、グループに対するコンテンツの表示位置や表示サイズを決定してもよい。例えば、グループのメンバ数が1のグループよりも、グループのメンバ数2のグループのほうがコンテンツの表示サイズを大きくする。 In addition, the display control unit 306 may determine the display position and the display size of the content for the group according to the number of members of the group. For example, the content display size of the group having the number of members of 2 is made larger than that of the group having the number of members of 1 is 1.

なお、グルーピング部701は、グループの規模としてグループに所属するメンバ数の最大値を決定するとしたがこれに限るものではない。例えばグループに所属するメンバ数の最小値をグループの規模として決定してもよいし、メンバ数の最小値と最大値両方をグループの規模として決定してもよい。また、混雑度に応じてグループのメンバ数を制限するのではなく、グループの領域の範囲を制限してもよい。具体的には、任意の場所や任意のオブジェクトの位置情報を中心にして、その中心地から一定の範囲以内にいるオブジェクトすべてを1つのグループにグルーピングする場合、グループの規模として、範囲を混雑度に応じて決定してもよい。 Although the grouping unit 701 determines the maximum value of the number of members belonging to the group as the size of the group, the present invention is not limited to this. For example, the minimum value of the number of members belonging to the group may be determined as the scale of the group, or both the minimum value and the maximum value of the number of members may be determined as the scale of the group. Further, the range of the area of the group may be limited instead of limiting the number of members of the group according to the congestion degree. Specifically, when grouping all the objects within a certain range from the center centering on the location information of an arbitrary place or an arbitrary object into one group, the range of the group is set as the congestion degree. May be determined according to

また、本実施形態において、グルーピング部701はオブジェクトの位置情報に基づいて、近くに存在するオブジェクトを1つのグループとしてグルーピングしたがこれに限るものではない。例えば、オブジェクトの位置情報と、オブジェクトの向きや移動方向、移動速度とのうち1以上を組み合わせてグルーピングしてもよい。具体的には、近くにいるオブジェクト同士であり、かつ、移動方向やオブジェクトが向いている向きが等しい、あるいは、近似している場合は1つのグループにグルーピングする。また、近くにいるオブジェクト同士であり、かつ、移動速度が近似しているオブジェクト同士を1つのグループとしてグルーピングしてもよい。 Further, in the present embodiment, the grouping unit 701 groups the objects existing in the vicinity as one group based on the position information of the objects, but the present invention is not limited to this. For example, grouping may be performed by combining at least one of the position information of the object, the direction, the moving direction, and the moving speed of the object. Specifically, when the objects are close to each other and the moving directions and the directions of the objects are the same or similar, the objects are grouped into one group. Further, objects that are close to each other and have similar moving speeds may be grouped as one group.

また、グルーピング部701は、オブジェクトの属性に基づいてグルーピングしてもよい。例えば、属性が女性であるオブジェクト複数が一定の範囲以内にまとまって存在する場合、そのオブジェクト複数を1つのグループとしてグルーピングする。 The grouping unit 701 may also perform grouping based on the attributes of objects. For example, when a plurality of objects having an attribute of female are grouped within a certain range, the plurality of objects are grouped as one group.

また、グルーピング部701は、オブジェクトの移動軌跡に基づいてグルーピングしてもよい。一般に、歩行者Aに同行者Bがいる場合、歩行者Aと同行者Bの移動軌跡は似ているといえる。そこで、移動軌跡が似ているオブジェクトを1つのグループとしてグルーピングしてもよい。 Further, the grouping unit 701 may perform grouping based on the movement trajectory of the object. In general, when the pedestrian A has an accompanying person B, it can be said that the moving loci of the pedestrian A and the accompanying person B are similar. Therefore, objects having similar movement loci may be grouped as one group.

以上説明したように、第2の実施形態および変形例によれば、所定の表示領域近くのオブジェクトに対してコンテンツを提供する場合、一部のオブジェクトにはグループごとのコンテンツを表示することで混雑時でも効果を損なわない情報提供が可能になる。 As described above, according to the second embodiment and the modified example, when content is provided to objects near a predetermined display area, the content of each group is displayed on some objects, resulting in congestion. It is possible to provide information without impairing the effect even at times.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、出力方法は、ユーザに提示するための表示部への表示の代わりに、音声等によりユーザに報知するような変形も可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Further, the output method may be modified such that the user is informed by voice or the like, instead of being displayed on the display unit to be presented to the user.

301 オブジェクト検出部
302 属性情報検出部
303 混雑状況取得部
304 オブジェクト特定部
305 コンテンツ決定部
306 表示制御部
301 Object Detecting Section 302 Attribute Information Detecting Section 303 Congestion Status Acquiring Section 304 Object Identifying Section 305 Content Determining Section 306 Display Control Section

Claims (17)

所定の表示領域の近くに存在するオブジェクトを検出する検出手段と、
検出された複数のオブジェクトによる前記所定の表示領域の近くの混雑状況を取得する取得手段と、
前記複数のオブジェクトのうち、取得された前記混雑状況に応じて特定されるオブジェクトの属性に基づくコンテンツを、前記所定の表示領域に表示する表示制御手段と
を備えることを特徴とする情報処理装置。
Detection means for detecting an object existing near a predetermined display area,
An acquisition unit that acquires a congestion situation near the predetermined display area due to a plurality of detected objects;
An information processing apparatus, comprising: display control means for displaying, in the predetermined display area, content based on an attribute of an object specified according to the acquired congestion status among the plurality of objects.
前記混雑状況に応じて、前記複数のオブジェクトのうち前記コンテンツを表示する対象を特定する特定手段を更に備え、
前記特定手段は、前記複数のオブジェクトによって前記表示領域の近くが基準を超えるほど混雑しない状況では、前記複数のオブジェクトの全てを前記対象として特定し、
前記複数のオブジェクトによって前記表示領域の近くが前記基準を超えるほど混雑する状況では、前記複数のオブジェクトのうち、各オブジェクトの状態に基づく少なくとも一部のオブジェクトを前記対象として特定することを特徴とする請求項1に記載の情報処理装置。
Further comprising a specifying unit that specifies a target for displaying the content among the plurality of objects according to the congestion situation,
The specifying unit specifies all of the plurality of objects as the target in a situation where the vicinity of the display area is not crowded by a plurality of objects and exceeds a reference,
In a situation where the vicinity of the display area is crowded by the plurality of objects so as to exceed the reference, at least a part of objects among the plurality of objects based on a state of each object is specified as the target. The information processing apparatus according to claim 1.
前記状態には、前記オブジェクトの移動速度と、前記オブジェクトが向いている方向と、前記所定の表示領域から前記オブジェクトまでの距離と、のうち少なくとも1以上が含まれることを特徴とする請求項2に記載の情報処理装置。 3. The state includes at least one of a moving speed of the object, a direction in which the object is facing, and a distance from the predetermined display area to the object. The information processing device described in 1. 前記複数のオブジェクトによって前記所定の表示領域の近くが前記基準を超えるほど混雑する状況では、前記特定手段は、前記複数のオブジェクトのうち移動速度が所定の判定基準より小さいオブジェクトを、前記対象として特定することを特徴とする請求項2または3に記載の情報処理装置。 In a situation where the vicinity of the predetermined display area is congested by the plurality of objects so as to exceed the reference, the specifying unit specifies, as the target, an object whose moving speed is smaller than a predetermined determination reference among the plurality of objects. The information processing apparatus according to claim 2, wherein the information processing apparatus comprises: 前記混雑状況が前記基準を超えるほどの混雑である場合、前記特定手段は、前記複数のオブジェクトのうち前記所定の表示領域から該オブジェクトまでの距離が所定の判定基準より小さいオブジェクトを、前記対象として特定することを特徴とする請求項2乃至4のいずれか1項に記載の情報処理装置。 When the congestion situation is such that the congestion exceeds the reference, the specifying unit sets the object, from among the plurality of objects, whose distance from the predetermined display area to the object is smaller than a predetermined determination criterion as the target. The information processing device according to claim 2, wherein the information processing device is specified. 前記混雑状況が前記基準を超えるほどの混雑である場合、前記特定手段は、前記複数のオブジェクトのうち向きが前記所定の表示領域に向かう方向であるとみなされるオブジェクトを、前記対象として特定することを特徴とする請求項2乃至5のいずれか1項に記載の情報処理装置。 When the congestion situation is so crowded as to exceed the reference, the specifying unit specifies, as the target, an object that is considered to have a direction toward the predetermined display area among the plurality of objects. The information processing apparatus according to any one of claims 2 to 5, characterized in that. 前記取得手段は、前記検出手段により検出された複数のオブジェクトの、前記所定の表示領域の近くに定義された範囲における密度である混雑度を取得し、
前記基準とは、前記混雑度の閾値であることを特徴とする請求項2乃至6のいずれか1項に記載の情報処理装置。
The acquisition unit acquires a congestion degree, which is a density of a plurality of objects detected by the detection unit, in a range defined near the predetermined display area,
The information processing apparatus according to claim 2, wherein the reference is a threshold value of the congestion degree.
前記特定手段は、前記混雑度によって段階的に異なる複数の判定基準と前記複数のオブジェクトのそれぞれの状態とに基づいて前記複数のオブジェクトのうち前記対象とするオブジェクトを特定することを特徴とする請求項7に記載の情報処理装置。 The identifying unit identifies the target object among the plurality of objects based on a plurality of determination criteria that differ stepwise according to the congestion degree and respective states of the plurality of objects. Item 7. The information processing device according to item 7. 前記表示制御手段は、前記特定されたオブジェクトのそれぞれに対して、前記特定されたオブジェクトのそれぞれの属性に基づく個別のコンテンツを表示させることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 9. The display control means causes each of the specified objects to display individual content based on the attribute of each of the specified objects. The information processing device described. 前記複数のオブジェクトのそれぞれの状態に基づいて、前記複数のオブジェクトのうち1以上のオブジェクトをグルーピングするグルーピング手段を更に備え、
前記表示制御手段は、
前記複数のオブジェクトによって前記所定の表示領域の近くが前記基準を超えるほど混雑する状況では、さらに、前記グルーピング手段によって1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを表示することを特徴とする請求項9に記載の情報処理装置。
Further comprising grouping means for grouping one or more objects of the plurality of objects based on respective states of the plurality of objects,
The display control means,
In a situation where the vicinity of the predetermined display area is congested by the plurality of objects so as to exceed the reference, the one or more objects are further grouped with respect to one or more objects grouped into one group by the grouping unit. The information processing apparatus according to claim 9, wherein one content determined based on an attribute common to more objects among the attributes that the information processing apparatus has is displayed.
前記グルーピング手段は、前記複数のオブジェクトによって前記所定の表示領域の近くが前記基準を超えるほど混雑する状況では、前記複数のオブジェクトのうち移動速度が所定の判定基準より大きいオブジェクトのそれぞれを、位置情報に基づいて1以上のグループにグルーピングし、
前記表示制御手段は、
前記複数のオブジェクトのうち移動速度が所定の判定基準より小さいオブジェクトには各オブジェクトに対応するコンテンツを表示するとともに、
前記グルーピング手段によって1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを表示することを特徴とする請求項10に記載の情報処理装置。
In a situation where the vicinity of the predetermined display area is crowded by the plurality of objects so that the plurality of objects exceeds the reference, the grouping unit determines the position information of each of the plurality of objects whose moving speed is larger than a predetermined determination reference. Grouped into one or more groups based on
The display control means,
Among the plurality of objects, the object whose moving speed is smaller than a predetermined criterion is displayed with the content corresponding to each object,
For one or more objects grouped into one group by the grouping unit, one content determined based on an attribute common to more objects among attributes of the one or more objects is displayed. The information processing apparatus according to claim 10, wherein:
前記オブジェクトの属性とは、年齢、年齢層、性別、人種、髪の色、体型、服の色、帽子の有無、髭の有無、眼鏡の有無、同行するペットの有無、親子が同行しているか否かを示す情報の少なくともいずれかを含むことを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 The attributes of the object include age, age group, sex, race, hair color, body type, clothing color, presence/absence of hat, presence/absence of beard, presence/absence of glasses, presence/absence of pets to be accompanied, parents and children accompanying them. The information processing apparatus according to claim 1, further comprising at least one of information indicating whether or not the information is present. 所定の表示領域の近くに存在するオブジェクトを検出する検出手段と、
検出された複数のオブジェクトの状態に基づいて、前記複数のオブジェクトのうち1以上のオブジェクトをグルーピングするグルーピング手段と、
前記グルーピング手段によって1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを前記所定の表示領域に表示する表示制御手段と、
を備えることを特徴とする情報処理装置。
Detection means for detecting an object existing near a predetermined display area,
Grouping means for grouping one or more objects among the plurality of objects based on the detected states of the plurality of objects;
For one or more objects grouped into one group by the grouping means, one content determined based on an attribute common to more objects among attributes of the one or more objects is given as the predetermined content. Display control means for displaying in the display area of
An information processing apparatus comprising:
検出手段により、所定の表示領域の近くに存在するオブジェクトを検出する工程と、
取得手段により、検出された複数のオブジェクトによる前記表示領域の近くの混雑状況を取得する工程と、
前記複数のオブジェクトのうち、取得された前記混雑状況に応じて特定されたオブジェクトの属性に基づくコンテンツを、表示制御手段により前記所定の表示領域に表示する工程と
を備えることを特徴とする情報処理装置の制御方法。
A step of detecting an object existing near a predetermined display area by the detecting means;
A step of acquiring the congestion status near the display area by the plurality of detected objects by the acquisition means;
Displaying the content based on the attribute of the object specified according to the acquired congestion status among the plurality of objects in the predetermined display area by the display control means. Device control method.
検出手段により、所定の表示領域の近くに存在するオブジェクトを検出する工程と、
グルーピング手段により、検出された複数のオブジェクトの状態に基づいて、前記複数のオブジェクトのうち1以上のオブジェクトをグルーピングする工程と、
1つのグループにグルーピングされた1以上のオブジェクトに対して、該1以上のオブジェクトが有する属性のうち、より多くのオブジェクトに共通する属性に基づいて決定される1つのコンテンツを、表示制御手段により前記所定の表示領域に表示する工程と、
を備えることを特徴とする情報処理装置の制御方法。
A step of detecting an object existing near a predetermined display area by the detecting means;
Grouping one or more objects of the plurality of objects based on the detected states of the plurality of objects by grouping means;
With respect to one or more objects grouped into one group, one content determined based on an attribute common to more objects among attributes of the one or more objects is displayed by the display control means. A step of displaying in a predetermined display area,
A method of controlling an information processing apparatus, comprising:
コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1乃至13のいずれか1項に記載の情報処理装置として機能させるプログラム。 A program that causes a computer to function as the information processing apparatus according to claim 1, when the program is read and executed by a computer. 請求項16に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 16.
JP2018219421A 2018-11-22 2018-11-22 Information processor, control method thereof, program, and storage medium Pending JP2020086845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219421A JP2020086845A (en) 2018-11-22 2018-11-22 Information processor, control method thereof, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219421A JP2020086845A (en) 2018-11-22 2018-11-22 Information processor, control method thereof, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2020086845A true JP2020086845A (en) 2020-06-04

Family

ID=70908204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219421A Pending JP2020086845A (en) 2018-11-22 2018-11-22 Information processor, control method thereof, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2020086845A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7516498B2 (en) 2022-09-30 2024-07-16 PayPay株式会社 Application program, service providing system, and information providing method
JP7521049B2 (en) 2022-12-27 2024-07-23 PayPay株式会社 APPLICATION PROGRAM, SERVICE PROVIDING SYSTEM, SERVER DEVICE, AND INFORMATION PROVIDING METHOD

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7516498B2 (en) 2022-09-30 2024-07-16 PayPay株式会社 Application program, service providing system, and information providing method
JP7521049B2 (en) 2022-12-27 2024-07-23 PayPay株式会社 APPLICATION PROGRAM, SERVICE PROVIDING SYSTEM, SERVER DEVICE, AND INFORMATION PROVIDING METHOD

Similar Documents

Publication Publication Date Title
US11282389B2 (en) Pedestrian detection for vehicle driving assistance
KR102282738B1 (en) system that supports a shopping mall platform that provides a plurality of recommended products to users
US11062609B2 (en) Information processing apparatus and information processing method
JP7477616B2 (en) Transportation Hub Information System
US11614803B2 (en) Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
CN108369482B (en) Information processing apparatus, information processing method, and program
US9639887B2 (en) In-store object highlighting by a real world user interface
CN105339868B (en) Vision enhancement based on eyes tracking
US8953841B1 (en) User transportable device with hazard monitoring
CN105874528B (en) Message Display Terminal, information display system and method for information display
JP6747551B2 (en) Eyeglass-type wearable terminal, its control program, and notification method
US11748992B2 (en) Trigger regions
JP6734602B2 (en) Tracking method and tracking device for smart glasses, smart glasses, and storage media
WO2019097595A1 (en) Vehicle external communication apparatus, vehicle external communication method, information processing device, and vehicle external communication program
JP6320942B2 (en) Weight matrix learning device, gaze direction prediction system, warning system, and weight matrix learning method
WO2017043056A1 (en) Driving assistance method and driving assistance device and program using same
US11921920B2 (en) Method for controlling display device including transparent screen, and display device therefor
JP2017071284A (en) Display control device, projection device, and display control program
JP2020086845A (en) Information processor, control method thereof, program, and storage medium
JPWO2018198503A1 (en) Information processing apparatus, information processing method, and program
US20170256166A1 (en) Information processing apparatus, information processing method, and computer program product
JP2018045099A (en) Information processor, information processing method, and information processing program
EP3244293B1 (en) Selection option information presentation system and method
JP5843943B2 (en) Information processing apparatus, information display apparatus, information processing method, and program
JP2019082822A (en) Information processing apparatus, information processing method, and program