JP2022142623A - Information processing system, information processing method and program - Google Patents

Information processing system, information processing method and program Download PDF

Info

Publication number
JP2022142623A
JP2022142623A JP2021042868A JP2021042868A JP2022142623A JP 2022142623 A JP2022142623 A JP 2022142623A JP 2021042868 A JP2021042868 A JP 2021042868A JP 2021042868 A JP2021042868 A JP 2021042868A JP 2022142623 A JP2022142623 A JP 2022142623A
Authority
JP
Japan
Prior art keywords
information
attention
person
information presentation
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021042868A
Other languages
Japanese (ja)
Inventor
拓二 中澤
Takuji Nakazawa
亮 山谷
Akira Yamatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellingece Design Inc
Original Assignee
Intellingece Design Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intellingece Design Inc filed Critical Intellingece Design Inc
Priority to JP2021042868A priority Critical patent/JP2022142623A/en
Publication of JP2022142623A publication Critical patent/JP2022142623A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a technology which can evaluate visibility of an outdoor advertisement etc., by analyzing movement of each of people who actually exist near the outdoor advertisement etc.SOLUTION: An information processing system according to one embodiment of the invention is configured to execute the steps of: receiving captured images including a human in time series; estimating a travel direction of the human for each predetermined time, on the basis of the time-series change of the captured images; and calculating a degree of attention the human pays to an information presenting article, by applying predetermined first processing, with respect to a plurality of the travel directions for each predetermined time.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理方法およびプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

近年、看板その他の各種屋外広告や交通広告等の広告的効果を評価するためのシステムを提供する技術が開示されている(特許文献1)。 In recent years, there has been disclosed a technique for providing a system for evaluating the advertising effectiveness of billboards and other outdoor advertisements, traffic advertisements, and the like (Patent Document 1).

特開2000-48070号公報JP-A-2000-48070

しかしながら、上記の従来技術では、通行量に基づいて、対象となる屋外広告や交通広告等を見たと推定される有効人数を演算することにより、広告的効果を評価していた。すなわち、従来技術では、屋外広告や交通広告等の近傍に実際にいる人間の行動分析による評価方法ではなかったため、信頼性の高い評価結果が得られていなかった。 However, in the conventional technology described above, the advertising effect is evaluated by calculating the effective number of people who are estimated to have seen the target outdoor advertisement, traffic advertisement, or the like, based on the traffic volume. That is, in the prior art, since the evaluation method was not based on behavioral analysis of people actually in the vicinity of outdoor advertisements, traffic advertisements, etc., highly reliable evaluation results were not obtained.

本発明では上記事情を鑑み、屋外広告等の近傍に実際にいる人間一人ひとりの移動を分析することにより、屋外広告等の視認性を評価することができる技術を提供することとした。 In view of the above circumstances, the present invention provides a technique capable of evaluating the visibility of an outdoor advertisement or the like by analyzing the movement of each individual person who is actually in the vicinity of the outdoor advertisement or the like.

本発明の一態様によれば、情報処理システムが提供される。この情報処理システムは、次の各ステップを実行するように構成される。受付ステップでは、ヒトを含む撮像画像を時系列で受け付ける。推定ステップでは、撮像画像の時系列変化に基づいて、所定時間ごとのヒトの移動方向を推定する。第1の算出ステップでは、複数の、所定時間ごとの移動方向に対して、予め定められた第1の処理を適用することで、ヒトの、情報提示物への注目度を算出する。 According to one aspect of the invention, an information processing system is provided. This information processing system is configured to perform the following steps. In the receiving step, captured images including humans are received in chronological order. In the estimating step, the moving direction of the person is estimated for each predetermined time based on the time-series change of the captured image. In the first calculation step, a predetermined first process is applied to a plurality of moving directions at predetermined time intervals to calculate the degree of human attention to the information presentation object.

本開示によれば、屋外広告等の近傍に実際にいる人間一人ひとりの移動を分析することにより、屋外広告等の視認性を評価する技術を提供することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to provide a technique for evaluating the visibility of an outdoor advertisement or the like by analyzing the movement of each person actually present in the vicinity of the outdoor advertisement or the like.

本実施形態に係る情報処理システム1を表す構成図である。1 is a configuration diagram showing an information processing system 1 according to this embodiment; FIG. 情報処理装置3のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of the information processing device 3; FIG. 情報処理装置3(制御部33)によって実現される機能を示すブロック図である。3 is a block diagram showing functions realized by the information processing device 3 (control unit 33); FIG. 情報提示物IGの前の一定領域が撮像された、時系列の撮像画像IMを概念的に複数重ね合わせた、重ね合わせ画像4の一例である。It is an example of a superimposed image 4 obtained by conceptually superimposing a plurality of time-series captured images IM in which a certain area in front of the information presentation object IG is captured. 所定時間におけるヒトの移動方向の一例である。It is an example of the moving direction of a person at a predetermined time. 記憶部32に予め記憶された参照情報6を説明するための概念図である。4 is a conceptual diagram for explaining reference information 6 pre-stored in a storage unit 32. FIG. 情報処理システム1によって実行される情報処理の流れの一例を示すアクティビティ図である。3 is an activity diagram showing an example of the flow of information processing executed by the information processing system 1; FIG. 所定時間における車両の移動方向の一例である。It is an example of the movement direction of the vehicle in a predetermined time. 情報処理システム1によって実行される情報処理の流れの一例を示すアクティビティ図である。3 is an activity diagram showing an example of the flow of information processing executed by the information processing system 1; FIG.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments shown below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for realizing the software appearing in this embodiment may be provided as a non-transitory computer-readable medium (Non-Transitory Computer-Readable Medium), or may be downloaded from an external server. It may be provided as possible, or may be provided so that the program is activated on an external computer and the function is realized on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現され得るソフトウェアの情報処理とを合わせたものも含み得る。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0または1で構成される2進数のビット集合体としての信号値の高低、または量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行され得る。 Further, in the present embodiment, the term "unit" may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be specifically realized by these hardware resources. . In addition, various information is handled in the present embodiment, and these information include, for example, physical values of signal values representing voltage and current, and signal values as binary bit aggregates composed of 0 or 1. Represented by high and low, or quantum superposition (so-called qubits), communication and operations can be performed on circuits in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、およびメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 A circuit in a broad sense is a circuit realized by at least appropriately combining circuits, circuits, processors, memories, and the like. Application Specific Integrated Circuits (ASICs), programmable logic devices (e.g., Simple Programmable Logic Devices (SPLDs), Complex Programmable Logic Devices (CPLDs), and field It includes a programmable gate array (Field Programmable Gate Array: FPGA).

1.ハードウェア構成
本節では、第1の実施形態(以下、本実施形態と称する)のハードウェア構成について説明する。
1. Hardware Configuration This section describes the hardware configuration of the first embodiment (hereinafter referred to as the present embodiment).

1.1 情報処理システム1
図1は、本実施形態に係る情報処理システム1を表す構成図である。情報処理システム1は、撮像装置2と、情報処理装置3とを備え、これらがネットワークを通じて接続されている。これらの構成要素についてさらに説明する。ここで、情報処理システム1に例示されるシステムとは、1つまたはそれ以上の装置または構成要素からなるものである。
1.1 Information processing system 1
FIG. 1 is a configuration diagram showing an information processing system 1 according to this embodiment. The information processing system 1 includes an imaging device 2 and an information processing device 3, which are connected via a network. These components are further described. Here, the system exemplified by the information processing system 1 consists of one or more devices or components.

1.2 撮像装置2
撮像装置2は、外界の情報を撮像可能に構成される、いわゆるビジョンセンサ(カメラ)である。撮像装置2は、例えば、情報提示物IGの前の一定領域を情報提示物IG側から撮像できるように、情報提示物IGの近傍に設置されているカメラである。撮像装置2として、エッジAIカメラを用いてもよいし、サーバやクラウド側で映像や画像のAI処理を行うカメラを用いることもできる。
1.2 Imaging device 2
The imaging device 2 is a so-called vision sensor (camera) configured to be capable of imaging information of the outside world. The imaging device 2 is, for example, a camera installed near the information presentation object IG so that a certain area in front of the information presentation object IG can be imaged from the information presentation object IG side. As the imaging device 2, an edge AI camera may be used, or a camera that performs AI processing of videos and images on the server or cloud side may be used.

撮像装置2は、情報提示物IGの前の一定領域を撮影することで撮像画像IMを生成するように構成される。撮像装置2は、後述の情報処理装置3における通信部31とネットワークを介して接続され、撮像画像IMを情報処理装置3に転送可能に構成される。なお、撮像装置2と情報処理装置3とを直接接続するように実施してもよい。 The imaging device 2 is configured to generate a captured image IM by capturing a certain area in front of the information presentation object IG. The imaging device 2 is connected to a communication unit 31 of the information processing device 3 (to be described later) via a network, and is configured to be capable of transferring the captured image IM to the information processing device 3 . Note that the imaging device 2 and the information processing device 3 may be directly connected.

撮像装置2のフレームレートは、特に限定されないが、例えば10fps以上であり、好ましくは、30fps以上であり、より好ましくは60fps以上であり、具体的には例えば、10,20,30,40,50,60,70,80,90,100,110,120,130,140,150,160,170,180,190,200,210,220,230,240,250fpsであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。フレームレートを高くすることで、ヒトの動作に対しての頑健性が向上し、後述のヒトの移動や顔の向きの特定の精度を向上させることができる。 The frame rate of the imaging device 2 is not particularly limited, but is, for example, 10 fps or higher, preferably 30 fps or higher, more preferably 60 fps or higher. , 60, 70, 80, 90, 100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200, 210, 220, 230, 240, 250 fps, and any of the numerical values exemplified here or within a range between the two. By increasing the frame rate, the robustness against human motion is improved, and the accuracy of specifying the movement of the human and the orientation of the face, which will be described later, can be improved.

また、撮像装置2として、可視光だけではなく紫外域や赤外域といったヒトが知覚できない帯域を計測可能なものを採用してもよい。このような撮像装置2を採用することによって、暗視野であっても本実施形態に係る情報処理システム1を実施することができる。 Further, as the imaging device 2, a device capable of measuring not only visible light but also bands such as an ultraviolet region and an infrared region that cannot be perceived by humans may be adopted. By adopting such an imaging device 2, the information processing system 1 according to this embodiment can be implemented even in a dark field.

1.3 情報処理装置3
図2は、情報処理装置3のハードウェア構成を示すブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。各構成要素についてさらに説明する。
1.3 Information processing device 3
FIG. 2 is a block diagram showing the hardware configuration of the information processing device 3. As shown in FIG. The information processing device 3 has a communication section 31 , a storage section 32 and a control section 33 , and these components are electrically connected via a communication bus 30 inside the information processing device 3 . Each component will be further described.

通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。すなわち、情報処理装置3は、通信部31を介して、撮像装置2とネットワークを介して種々の情報を通信する。特に、情報処理装置3は、ヒトを含む撮像画像IMを撮像装置2から受け付けるように構成される。これらの詳細は後述する。 The communication unit 31 preferably uses wired communication means such as USB, IEEE1394, Thunderbolt, wired LAN network communication, etc., but wireless LAN network communication, mobile communication such as LTE/3G, Bluetooth (registered trademark) communication, etc., can be used as necessary. may be included. That is, it is more preferable to implement as a set of these communication means. That is, the information processing device 3 communicates various information with the imaging device 2 via the communication unit 31 and the network. In particular, the information processing device 3 is configured to receive a captured image IM including a person from the imaging device 2 . Details of these will be described later.

記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、撮像画像IM、ヒトの位置情報、参照情報6等を記憶する。記憶部32は、これ以外にも制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶している。 The storage unit 32 stores various information defined by the above description. For example, it can be used as a storage device such as a solid state drive (SSD) for storing various programs related to the information processing device 3 executed by the control unit 33, or as a temporary storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that stores information (arguments, arrays, etc.) required for the . A combination of these may also be used. In particular, the storage unit 32 stores the captured image IM, human position information, reference information 6, and the like. The storage unit 32 also stores various programs related to the information processing device 3 that are executed by the control unit 33 .

制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。すなわち、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行されうる。これらについては、次節においてさらに詳述する。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 33 processes and controls overall operations related to the information processing device 3 . The control unit 33 is, for example, a central processing unit (CPU) (not shown). The control unit 33 implements various functions related to the information processing device 3 by reading a predetermined program stored in the storage unit 32 . That is, information processing by software stored in the storage unit 32 can be specifically realized by the control unit 33 which is an example of hardware, and can be executed as each function unit included in the control unit 33 . These are further detailed in the next section. Note that the control unit 33 is not limited to a single unit, and may be implemented to have a plurality of control units 33 for each function. A combination thereof may also be used.

2.機能構成
本節では、本実施形態の機能構成について説明する。前述の通り、記憶部32に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行されうる。
2. Functional Configuration This section describes the functional configuration of this embodiment. As described above, information processing by software stored in the storage unit 32 is specifically realized by the control unit 33, which is an example of hardware, so that each function unit included in the control unit 33 can be executed.

図3は、情報処理装置3(制御部33)によって実現される機能を示すブロック図である。具体的には、情報処理システム1の一例である情報処理装置3(制御部33)は、受付部331と、推定部332と、検出部333と、算出部334とを備える。 FIG. 3 is a block diagram showing functions realized by the information processing device 3 (control unit 33). Specifically, the information processing device 3 (controller 33 ), which is an example of the information processing system 1 , includes a receiver 331 , an estimator 332 , a detector 333 , and a calculator 334 .

受付部331は、種々の情報を受け付けるように構成される。例えば、受付部331は、撮像装置2で撮像された撮像画像IMを受け付けるように構成される。詳細については、後述する。 The reception unit 331 is configured to receive various information. For example, the reception unit 331 is configured to receive the captured image IM captured by the imaging device 2 . Details will be described later.

推定部332は、受付部331が受け付けた撮像画像IMに基づいて、ヒトの移動方向、移動速度および顔の向きと、ヒトの目の位置と情報提示物IGとの間の距離および高さの差と、ヒトが滞在している場所の属性とを推定するように構成される。詳細については、後述する。 Based on the captured image IM received by the receiving unit 331, the estimating unit 332 estimates the movement direction, movement speed, and face orientation of the person, and the distance and height between the position of the person's eyes and the information presentation object IG. It is configured to estimate the difference and attributes of the place where the human is staying. Details will be described later.

検出部333は、撮像画像IMに含まれる、ヒトの視線を遮る障害物を検出するように構成される。詳細については、後述する。 The detection unit 333 is configured to detect an obstacle blocking the line of sight of a person included in the captured image IM. Details will be described later.

算出部334は、ヒトの、情報提示物IGへの注目度DAを算出するように構成される。第1の算出部の一例である算出部334は、情報提示物IGへの注目度DAをヒトごとに算出するように構成される。第2の算出部の一例である算出部334は、大衆の情報提示物IGへの注目度DAを算出するように構成される。詳細については、後述する。 The calculation unit 334 is configured to calculate the attention level DA of a person to the information presentation object IG. The calculation unit 334, which is an example of the first calculation unit, is configured to calculate the degree of attention DA to the information presentation object IG for each person. The calculation unit 334, which is an example of the second calculation unit, is configured to calculate the degree of public attention DA to the information presentation object IG. Details will be described later.

3.情報処理方法
本節では、前述した情報処理システム1の第1の実施形態(以下、本実施形態と称する)に係る情報処理方法について説明する。
3. Information Processing Method In this section, an information processing method according to the first embodiment (hereinafter referred to as the present embodiment) of the information processing system 1 described above will be described.

また、本節で参照する各図は、以下の通りである。図4は、情報提示物IGの前の一定領域が撮像された、時系列の撮像画像IMを概念的に複数重ね合わせた、重ね合わせ画像4の一例である。図5は、所定時間におけるヒトの移動方向の一例である。図6は、記憶部32に予め記憶された参照情報6を説明するための概念図である。図7は、情報処理システム1によって実行される情報処理の流れの一例を示すアクティビティ図である。 The figures referred to in this section are as follows. FIG. 4 is an example of a superimposed image 4 obtained by conceptually superimposing a plurality of time-series captured images IM in which a certain area in front of the information presentation object IG is captured. FIG. 5 is an example of the moving direction of a person at a predetermined time. FIG. 6 is a conceptual diagram for explaining the reference information 6 pre-stored in the storage unit 32. As shown in FIG. FIG. 7 is an activity diagram showing an example of the flow of information processing executed by the information processing system 1. As shown in FIG.

ここで、情報提示物IGには、大衆への情報の提供を目的としたあらゆる物品が含まれる。例えば、情報提示物IGとして、屋外広告物、特定屋内広告物、駅構内や屋内の大規模展示場内に表示または設置される広告および掲示物が挙げられる。 Here, the information presenter IG includes any article intended to provide information to the public. Examples of the information presentation material IG include outdoor advertisements, specific indoor advertisements, and advertisements and notices displayed or installed in station premises or indoor large-scale exhibition halls.

以下では、図7のアクティビティ図に沿って、情報処理システム1によって実行される情報処理の流れを説明するものとする。なお、図7において、kは、ヒトの移動方向の推定回数を表し、tは時刻を表す。 In the following, the flow of information processing executed by the information processing system 1 will be described along the activity diagram of FIG. In FIG. 7, k represents the number of estimations of the moving direction of a person, and t represents time.

ところで、本情報処理方法を実行するにあたっては、第1の算出部334は、撮像画像IMを撮像した撮像装置2と、情報提示物IGとの位置関係にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出することが好ましい。具体的には、このような位置関係を予め取得しておいて、適宜、後述の参照情報6をキャリブレーションするように実施してもよいし、撮像画像IMにおけるヒトの態様から推定して、情報処理システム1の動作中にキャリブレーションするように実施してもよい。このような態様によれば、撮像装置2と情報提示物IGとの位置関係を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 By the way, in executing this information processing method, the first calculation unit 334 further calculates the information presentation object of the human based on the positional relationship between the imaging device 2 that captured the captured image IM and the information presentation object IG. It is preferable to calculate the degree of attention DA to the IG. Specifically, such a positional relationship may be acquired in advance, and the reference information 6 described later may be calibrated as appropriate, or estimated from the human aspect in the captured image IM, The calibration may be performed while the information processing system 1 is in operation. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the positional relationship between the imaging device 2 and the information presentation object IG.

しかしながら、本態様では、より説明をわかりやすくするため、情報提示物IGが撮像装置2を備えている場合、つまり、撮像装置2と情報提示物IGとが同一位置に位置するとみなせるか、または、撮像装置2が情報提示物IGに包含される位置関係にある場合について説明する。このような態様であれば、後述の参照情報6のキャリブレーションがほとんど不要となり、より容易に情報提示物IGの注目度DAを評価できるためである。 However, in this aspect, in order to make the explanation easier to understand, when the information presentation object IG is provided with the imaging device 2, that is, the imaging device 2 and the information presentation object IG can be regarded as being positioned at the same position, or A case where the imaging device 2 is in a positional relationship included in the information presentation object IG will be described. This is because, in such a mode, calibration of the reference information 6, which will be described later, is almost unnecessary, and the attention level DA of the information presentation object IG can be evaluated more easily.

まず、情報処理装置3の制御部33において、ヒトの移動方向の推定1回目として、k=1が設定される(アクティビティA100)。次いで、制御部33において、ヒトの移動を分析する所定期間の始まりとして、t=0が設定される(アクティビティA101)。 First, in the control unit 33 of the information processing device 3, k=1 is set as the first estimation of the moving direction of the person (activity A100). Next, in the control unit 33, t=0 is set as the beginning of a predetermined period for analyzing human movement (activity A101).

一方、撮像装置2は、情報提示物IGの前の一定領域を、一定のフレームレートで撮像を継続している(アクティビティA102)。なお、撮像装置2の撮像が開始されるのは、情報処理装置3の制御部33においてt=0が設定される前であってもよい。 On the other hand, the image pickup device 2 continues to image a certain area in front of the information presentation object IG at a certain frame rate (activity A102). Note that the imaging by the imaging device 2 may be started before t=0 is set in the control unit 33 of the information processing device 3 .

情報処理装置3の制御部33において、t=0が設定されると、受付部331は、ヒトを含む撮像画像IMを時系列で受け付ける。つまり、情報処理装置3における通信部31が、撮像画像IMを撮像装置2から受信し、情報処理装置3における制御部33が、受信した撮像画像IMを時系列で記憶部32に記憶させる(アクティビティA103)。 When t=0 is set in the control unit 33 of the information processing device 3, the reception unit 331 receives captured images IM including humans in chronological order. That is, the communication unit 31 in the information processing device 3 receives the captured image IM from the imaging device 2, and the control unit 33 in the information processing device 3 stores the received captured image IM in the storage unit 32 in chronological order (activity A103).

続いて、情報処理装置3の制御部33は、1フレーム毎の撮像画像IMに基づいて、当該領域中に含まれるヒトを抽出し、ヒトごとにラベリング処理を行って識別する。ヒトの抽出に関するアルゴリズムとしては、例えば撮像画像IMを二値化したものをテンプレートと比較するテンプレートマッチング処理を採用してもよいし、予め撮像された背景を減算する背景差分処理を採用してもよい。好ましくは、予め撮像画像IM中におけるヒトの特徴を学習させた学習済みモデルに基づいて、ヒトを抽出するとよい。このような手法を用いることで、認識遅延の少ない、ほぼリアルタイムの抽出を実現することができる。 Subsequently, the control unit 33 of the information processing device 3 extracts a person included in the region based on the captured image IM for each frame, and performs labeling processing for each person to identify them. As an algorithm for human extraction, for example, a template matching process that compares a binarized captured image IM with a template may be employed, or a background subtraction process that subtracts a pre-captured background may be employed. good. Preferably, the person is extracted based on a trained model in which the features of the person in the captured image IM are learned in advance. By using such a technique, almost real-time extraction with little recognition delay can be realized.

例えば、図4に示されるように、1フレーム中に5人のヒトが存在する場合、ヒトの色、大きさ、高さ等の特徴に基づいて、ヒト41a、ヒト41b、ヒト41c、ヒト41dおよびヒト41eを識別する。そして、情報処理装置3の制御部33は、ヒト41a、ヒト41b、ヒト41c、ヒト41dおよびヒト41eの当該領域中における座標を位置情報として、ヒトごとに特定する。情報処理装置3の制御部33は、このようなヒトの識別情報と位置情報とを時系列で記憶部32に記憶させる(アクティビティA104)。 For example, as shown in FIG. 4, when there are five people in one frame, human 41a, human 41b, human 41c, and human 41d are determined based on the characteristics of the human, such as color, size, and height. and human 41e. Then, the control unit 33 of the information processing device 3 specifies the coordinates of the person 41a, the person 41b, the person 41c, the person 41d, and the person 41e in the region as position information for each person. The control unit 33 of the information processing device 3 causes the storage unit 32 to store such human identification information and position information in chronological order (activity A104).

上述したアクティビティA103およびA104の情報処理を、ヒトの移動を分析する所定期間が終わるまで、すなわち、t≧τとなるまで繰り返す(アクティビティA105)。 The information processing of the activities A103 and A104 described above is repeated until the predetermined period for analyzing the movement of the person ends, that is, until t≧τ (activity A105).

ここで、τは、特に限定されないが、例えば、1,2,3,4,5,10,15,20,25,30,35,40,45,50,55,60,65,70,75,80,85,90,95,100,105,110,115,120秒であり、ここで例示した数値の何れか2つの間の範囲内であってもよい。なお、ヒトの平均的な歩行速度を考慮すると、τ=5秒であることが好ましい。 Here, τ is not particularly limited, but for example, , 80, 85, 90, 95, 100, 105, 110, 115, 120 seconds, and may be in the range between any two of the values exemplified herein. Considering the average walking speed of humans, it is preferable that τ=5 seconds.

ヒトの移動を分析する所定期間が終わると、すなわち、時間条件t≧τが満たされると、情報処理装置3の推定部332は、撮像画像IMの時系列変化(図5)に基づいて、所定時間ごとのヒトの移動方向を推定する(アクティビティA106)。 When the predetermined period for analyzing the movement of the person ends, that is, when the time condition t≧τ is satisfied, the estimating unit 332 of the information processing device 3 calculates a predetermined Estimate the direction of movement of a person over time (activity A106).

ここで、図5の例を使用して、所定時間におけるヒトの移動方向の推定について説明することとする。図5において、ヒト51とヒト52は同一人物であって、t=0で撮像された当該人物を示すのがヒト51であり、t=τで撮像された当該人物を示すのがヒト52である。ヒト51の位置とヒト52の位置とを結ぶことによって得られるものが、ベクトル54である。すなわち、ベクトル54は、0≦t≦τという所定期間における移動方向を示す。また、情報提示物IGに垂直なベクトルが、ベクトル53である。そして、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とは、角度θをなす。このようにして、推定部332は、所定時間ごとのヒトの移動方向の推定結果を、角度θとして表すことが、好ましい。 Here, using the example of FIG. 5, the estimation of the moving direction of a person at a predetermined time will be described. In FIG. 5, the person 51 and the person 52 are the same person, the person 51 is the person imaged at t=0, and the person 52 is the person imaged at t=τ. be. A vector 54 is obtained by connecting the positions of the person 51 and the position of the person 52 . That is, the vector 54 indicates the direction of movement in a predetermined period of 0≤t≤τ. A vector 53 is a vector perpendicular to the information presentation object IG. A moving direction vector 54 and a vector 53 perpendicular to the information presentation object IG form an angle θ. In this manner, the estimating unit 332 preferably expresses the estimation result of the moving direction of the person at each predetermined time as the angle θ.

上述したアクティビティA101~A106の情報処理を、移動方向の推定が所定回数終わるまで、すなわち、k=nとなるまで繰り返す(アクティビティA107)。 The information processing of activities A101 to A106 described above is repeated until the movement direction is estimated a predetermined number of times, that is, until k=n (activity A107).

ここで、nは、特に限定されないが、例えば、2,3,4,5,6,7,8,9,10,20,30,40,50,60,70,80,90,100回であり、ここで例示した数値の何れか2つの間の範囲内に含まれる整数値であってもよい。なお、移動方向の推定を3回行ったk=3の場合が、図4に示されている。 Here, n is not particularly limited, but is, for example, 2, 3, 4, 5, 6, 7, 8, 9, 10, 20, 30, 40, 50, 60, 70, 80, 90, 100 times. Yes, and may be an integer value that falls within a range between any two of the numerical values exemplified herein. FIG. 4 shows the case of k=3 in which the moving direction is estimated three times.

移動方向の推定が所定回数行われると、すなわち、回数条件k=nが満たされると、情報処理装置3の第1の算出部334は、複数の、所定時間ごとの移動方向に対して、予め定められた第1の処理を適用することで、ヒトの、情報提示物IGへの注目度DAを算出する(アクティビティA108)。 When the movement direction is estimated a predetermined number of times, that is, when the number of times condition k=n is satisfied, the first calculation unit 334 of the information processing device 3 preliminarily calculates a plurality of movement directions every predetermined time. By applying the predetermined first process, the degree of human attention DA to the information presentation object IG is calculated (activity A108).

ここで、第1の処理は、複数の移動方向のベクトル54と情報提示物IGに垂直なベクトル53とがなす角度θに関して、平均角度を算出し、平均角度と、予め設定された参照情報6とに基づいて、情報提示物IGへの注目度DAを求める処理であることが好ましい。なお、参照情報6は、角度θと、情報提示物IGへの注目度DAとが対応付けられた情報であり、例えば、ルックアップテーブル等のデータベースとして実施されうる。このような態様によれば、所定時間の間の移動を平均角度として捉え、平均角度に基づいて注目度DAを算出することにより、情報提示物IGに向かった移動であるほど、注目度DAが高く算出されるようにすることができる。 Here, the first process is to calculate the average angle with respect to the angle θ formed by the vectors 54 of the plurality of moving directions and the vector 53 perpendicular to the information presentation object IG, and calculate the average angle and the preset reference information 6 It is preferable that the process obtains the degree of attention DA to the information presentation object IG based on the above. The reference information 6 is information in which the angle θ and the degree of attention DA to the information presentation object IG are associated with each other, and can be implemented as a database such as a lookup table, for example. According to this aspect, the movement during the predetermined time period is regarded as an average angle, and the attention level DA is calculated based on the average angle. It can be highly calculated.

本態様の第1の処理を、図4の具体例を使用して説明することとする。また、説明の都合上、5秒間の移動の分析による移動方向の推定を3回行った場合、すなわち、τ=5秒かつn=3回の場合を想定する。これに伴い、図4では、k=1のt=0からの経過時間をTとして、T=0、T=5、T=10、T=15において撮像された4枚の撮像画像IMを概念的に重ね合わせた重ね合わせ画像4が示されているものとする。 The first processing of this aspect will be described using the specific example of FIG. Also, for the convenience of explanation, it is assumed that the movement direction is estimated three times by analysis of movement for 5 seconds, that is, τ=5 seconds and n=3 times. Along with this, in FIG. 4, the elapsed time from t=0 at k=1 is set to T, and four captured images IM captured at T=0, T=5, T=10, and T=15 are conceptually Assume that a superimposed image 4 is shown which has been superimposed on the other.

図4に示されているように、情報提示物IGの前の一定領域内には、5人のヒト、すなわち、ヒト41a、ヒト41b、ヒト41c、ヒト41dおよびヒト41eが存在する。0≦T≦5における移動方向は、移動をしなかったヒト41eを除き、ヒト41a、ヒト41b、ヒト41c、ヒト41dそれぞれについて、移動方向42a、移動方向42b、移動方向42c、移動方向42dとして示されている。同様に、5≦T≦10における移動方向は、ヒト41a、ヒト41b、ヒト41c、ヒト41dそれぞれについて、移動方向43a、移動方向43b、移動方向43c、移動方向43dとして示されている。10≦T≦15における移動方向は、ヒト41a、ヒト41b、ヒト41c、ヒト41dそれぞれについて、移動方向44a、移動方向44b、移動方向44c、移動方向44dとして示されている。 As shown in FIG. 4, within a certain region in front of information presenter IG, there are five humans, namely human 41a, human 41b, human 41c, human 41d and human 41e. The movement directions at 0≦T≦5 are defined as movement directions 42a, 42b, 42c, and 42d for humans 41a, 41b, 41c, and 41d, respectively, except for the person 41e who did not move. It is shown. Similarly, the movement directions for 5≦T≦10 are indicated as movement directions 43a, 43b, 43c, and 43d for humans 41a, 41b, 41c, and 41d, respectively. The movement directions at 10≦T≦15 are shown as movement directions 44a, 44b, 44c, and 44d for humans 41a, 41b, 41c, and 41d, respectively.

ヒト41aの移動方向42a、移動方向43a、移動方向44aそれぞれについて、情報提示物IGに垂直なベクトル53となす角度θは、順に120度、200度、200度である。ヒト41bの移動方向42b、移動方向43b、移動方向44bそれぞれについて、情報提示物IGに垂直なベクトル53となす角度θは、順に180度、220度、180度である。ヒト41cの移動方向42c、移動方向43c、移動方向44cそれぞれについて、情報提示物IGに垂直なベクトル53となす角度θは、順に140度、140度、140度である。ヒト41dの移動方向42d、移動方向43d、移動方向44dそれぞれについて、情報提示物IGに垂直なベクトル53となす角度θは、順に300度、20度、100度である。 The angles θ between the moving direction 42a, moving direction 43a, and moving direction 44a of the person 41a and the vector 53 perpendicular to the information presentation object IG are 120 degrees, 200 degrees, and 200 degrees, respectively. The angles θ between the moving direction 42b, moving direction 43b, and moving direction 44b of the person 41b and the vector 53 perpendicular to the information presentation object IG are 180 degrees, 220 degrees, and 180 degrees, respectively. The angles θ between the moving direction 42c, moving direction 43c, and moving direction 44c of the person 41c and the vector 53 perpendicular to the information presentation object IG are 140 degrees, 140 degrees, and 140 degrees, respectively. The angles θ between the moving direction 42d, moving direction 43d, and moving direction 44d of the person 41d and the vector 53 perpendicular to the information presentation object IG are respectively 300 degrees, 20 degrees, and 100 degrees.

これらの各移動方向の角度θから求められる平均角度は、以下の通りである。ヒト41aについて、平均角度は、(120+200+200)÷3=173度である。ヒト41bについて、平均角度は、(180+220+180)÷3=193度である。ヒト41cついて、平均角度は、(140+140+140)÷3=140度である。ヒト41dついて、平均角度は、(300+20+100)÷3=140度である。 The average angle obtained from the angle θ of each movement direction is as follows. For human 41a, the average angle is (120+200+200)/3=173 degrees. For human 41b, the average angle is (180+220+180)/3=193 degrees. For human 41c, the average angle is (140+140+140)/3=140 degrees. For human 41d, the average angle is (300+20+100)/3=140 degrees.

次いで、このように算出された平均角度と、予め設定された参照情報6とに基づいて、情報提示物IGへの注目度DAを求める処理について説明することとする。ここで、参照情報6(図6)は、情報提示物IGを基準として移動方向が正面方向61f、背面方向61b、斜め方向61dおよび横方向61hにある場合と、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とが角度θをなさない場合、例えば滞留61sの場合とに対して、それぞれ情報提示物IGへの注目度DAが対応付けられた情報であることが好ましい。このような態様によれば、移動方向の情報を角度θの情報に変換し、さらに、角度θの情報から注目度DAを算出することができる。 Next, the process of obtaining the degree of attention DA to the information presentation object IG based on the average angle calculated in this manner and the preset reference information 6 will be described. Here, the reference information 6 (FIG. 6) is based on the information presentation object IG, and the movement direction is the front direction 61f, the back direction 61b, the oblique direction 61d, and the lateral direction 61h. It is preferable that the information is information in which the degree of attention DA to the information presentation object IG is associated with each case where the vector 53 perpendicular to the object IG does not form an angle θ, for example, the case of stay 61s. According to such an aspect, it is possible to convert information on the moving direction into information on the angle θ, and to calculate the degree of attention DA from the information on the angle θ.

好ましい参照情報6の一例である図6の参照情報6によれば、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とがなす角度θについて、160°<θ≦200°が正面方向61f、0°≦θ≦90°および270°<θ≦360°が背面方向61b、120°<θ≦160°および200°<θ≦240°が斜め方向61d、90°<θ≦120°および240°<θ≦270°が横方向61hである。そして、注目度DAは、正面方向61fが100ポイント、背面方向61bが0ポイント、斜め方向61dが75ポイント、横方向61hが50ポイントとして設定されている。また、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とが角度θをなさない場合、例えば滞留61sの場合は、200ポイントとして設定されている。 According to the reference information 6 in FIG. 6, which is an example of preferable reference information 6, the front direction is 160°<θ≦200° with respect to the angle θ formed by the vector 54 in the movement direction and the vector 53 perpendicular to the information presentation object IG. 61f, 0°≦θ≦90° and 270°<θ≦360° are the back direction 61b, 120°<θ≦160° and 200°<θ≦240° are oblique directions 61d, 90°<θ≦120° and 240°<θ≦270° is the horizontal direction 61h. The degree of attention DA is set to 100 points in the front direction 61f, 0 points in the back direction 61b, 75 points in the diagonal direction 61d, and 50 points in the horizontal direction 61h. Further, when the vector 54 of the movement direction and the vector 53 perpendicular to the information presentation object IG do not form an angle θ, for example, in the case of a stay 61s, 200 points are set.

ここで、滞留とは、異なる時点で撮像された撮像画像IMを重ね合わせて得られる重ね合わせ画像4において、同一人物と識別されたヒトの位置の変化が、所定のピクセル数以下である場合を指す。所定のピクセル数は、例えば、1,2,3,4,5,6,7,8,9,10である。好ましくは、所定のピクセル数は、情報提示物IGの設置場所や、撮像装置2と情報提示物IGとの位置関係等を考慮して定められる。 Here, staying means a case where the change in the position of a person identified as the same person in the superimposed image 4 obtained by superimposing the captured images IM captured at different times is equal to or less than a predetermined number of pixels. Point. The predetermined number of pixels is, for example, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. Preferably, the predetermined number of pixels is determined in consideration of the installation location of the information presentation object IG, the positional relationship between the imaging device 2 and the information presentation object IG, and the like.

このような参照情報6に基づき、図4に示されているヒトごとに注目度DAを求めると、以下のようになる。ヒト41aについては、平均角度が173度であるため、移動方向は、正面方向61fとなり、注目度DAは、100ポイントであると求められる。ヒト41bについては、平均角度が193度であるため、移動方向は、正面方向61fとなり、注目度DAは、100ポイントであると求められる。ヒト41cついては、平均角度が140度であるため、移動方向は、斜め方向61dとなり、注目度DAは、75ポイントであると求められる。ヒト41dついては、平均角度が140度であるため、移動方向は、斜め方向61dとなり、注目度DAは、75ポイントであると求められる。ヒト41eは、5秒間の移動の分析による移動方向の推定を3回行っている間、移動をしていないため、滞留61sの場合となり、注目度DAは、200ポイントであると求められる。 Based on such reference information 6, the degree of attention DA for each person shown in FIG. 4 is obtained as follows. As for the person 41a, since the average angle is 173 degrees, the direction of movement is the front direction 61f, and the degree of attention DA is calculated to be 100 points. As for the person 41b, since the average angle is 193 degrees, the direction of movement is the front direction 61f, and the degree of attention DA is calculated to be 100 points. As for the person 41c, since the average angle is 140 degrees, the direction of movement is the oblique direction 61d, and the degree of attention DA is calculated to be 75 points. As for the person 41d, since the average angle is 140 degrees, the direction of movement is the oblique direction 61d, and the degree of attention DA is calculated to be 75 points. The person 41e does not move while the direction of movement is estimated three times by analysis of movement for 5 seconds.

このようにして、撮像画像IMに複数のヒトが含まれている場合において、ヒトごとに情報提示物IGへの注目度DAが算出されると、第2の算出部334は、ヒトごとに算出された情報提示物IGへの注目度DAそれぞれに対して、予め定められた第2の処理を適用することで、大衆の情報提示物IGへの注目度DAを算出する(アクティビティA109)。このような態様によれば、人間一人ひとりの移動の分析に基づいて、大衆の情報提示物IGへの注目度DAを算出することができる。 In this way, when a plurality of people are included in the captured image IM, when the degree of attention DA to the information presentation object IG is calculated for each person, the second calculation unit 334 calculates By applying a predetermined second process to each attention level DA to the information presentation object IG thus obtained, the public attention level DA to the information presentation object IG is calculated (activity A109). According to this aspect, it is possible to calculate the degree of public attention DA to the information presentation object IG based on the analysis of movement of each person.

ここで、第2の処理は、情報提示物IGへの注目度DAと、その注目度DAを有するヒトの人数とを掛け合わせて得られる値を全ての注目度DAについて足し合わせ、得られた合計値をヒトの人数で割る処理であることが好ましい。このような態様によれば、大衆の情報提示物IGへの注目度DAを、平均の注目度DAにより表すことができる。 Here, in the second process, the value obtained by multiplying the attention level DA to the information presentation object IG by the number of people having the attention level DA is added for all the attention levels DA, and the obtained It is preferable to divide the total value by the number of people. According to this aspect, the attention level DA of the general public to the information presentation object IG can be represented by the average attention level DA.

本態様の第2の処理を、図4の具体例を使用して説明することとする。上記で算出されたヒトごとの注目度DAをまとめると、ヒト41aが100ポイント、ヒト41bが100ポイント、ヒト41cが75ポイント、ヒト41dが75ポイント、ヒト41eが200ポイントである。よって、75ポイントが2人、100ポイントが2人、200ポイントが1人である。したがって、第2の処理をこれらの値に適用すると、大衆の情報提示物IGへの注目度DAは、(75×2+100×2+200×1)÷5=110と求められる。 The second processing of this aspect will be described using the specific example of FIG. Summarizing the attention degree DA for each person calculated above, the person 41a is 100 points, the person 41b is 100 points, the person 41c is 75 points, the person 41d is 75 points, and the person 41e is 200 points. Therefore, 2 people have 75 points, 2 people have 100 points, and 1 person has 200 points. Therefore, when the second processing is applied to these values, the degree of public attention DA to the information presentation object IG is obtained as (75×2+100×2+200×1)/5=110.

以上をまとめると、本実施形態の情報処理方法は、受付ステップと、推定ステップと、第1の算出ステップとを備える。受付ステップでは、ヒトを含む撮像画像IMを時系列で受け付ける。推定ステップでは、撮像画像IMの時系列変化に基づいて、所定時間ごとのヒトの移動方向を推定する。第1の算出ステップでは、複数の、所定時間ごとの移動方向に対して、予め定められた第1の処理を適用することで、ヒトの、情報提示物IGへの注目度DAを算出する。 In summary, the information processing method of this embodiment includes a receiving step, an estimating step, and a first calculating step. In the receiving step, captured images IM including humans are received in chronological order. In the estimation step, the moving direction of the person is estimated for each predetermined time based on the time-series change of the captured image IM. In the first calculation step, a predetermined first process is applied to a plurality of moving directions at predetermined time intervals, thereby calculating the degree of human attention DA to the information presentation object IG.

本実施形態によれば、屋外広告等の近傍に実際にいる人間一人ひとりの移動を分析することにより、屋外広告等の視認性を評価することができる。 According to this embodiment, the visibility of an outdoor advertisement or the like can be evaluated by analyzing the movement of each individual person who is actually in the vicinity of the outdoor advertisement or the like.

続いて、その他の好ましい第1の処理について、以下詳述する。 Next, other preferred first processing will be described in detail below.

第1の処理は、複数の移動方向それぞれに関して、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とがなす角度θと、予め設定された参照情報6とに基づいて、情報提示物IGへの注目度DAを求め、求められた複数の注目度DAのうち、最大値の注目度DAを、ヒトの、情報提示物IGへの注目度DAとして決定する処理であることも好ましい。このような態様によれば、情報提示物IGへ最も注目していたと考えられる所定期間の移動に基づいて、情報提示物IGへの注目度DAを算出することができる。 In the first process, for each of a plurality of moving directions, based on the angle θ between the moving direction vector 54 and the vector 53 perpendicular to the information presenting object IG, and the preset reference information 6, the information presenting object It is also preferable that the attention level DA to the IG is obtained, and the maximum attention level DA among the obtained plural attention levels DA is determined as the human attention level DA to the information presentation object IG. According to this aspect, it is possible to calculate the degree of attention DA to the information presentation object IG based on the movement of the information presentation object IG during the predetermined period when the user is considered to have paid the most attention to the information presentation object IG.

ここで、本態様の第1の処理を、図4の具体例を使用して説明することとする。上述したように、ヒト41aの移動方向を、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とがなす角度θで表すと、120度、200度および200度である。これらの角度θそれぞれについて、図6に示される参照情報6に基づいて注目度DAを求めると、50ポイント、100ポイント、100ポイントとなる。よって、最大値の注目度DAは、100ポイントであるため、ヒト41aの情報提示物IGへの注目度DAは、100ポイントであると決定される。 Here, the first processing of this aspect will be described using the specific example of FIG. As described above, the movement direction of the person 41a is 120 degrees, 200 degrees, and 200 degrees when represented by the angle θ between the movement direction vector 54 and the vector 53 perpendicular to the information presentation object IG. For each of these angles .theta., the degree of attention DA obtained based on the reference information 6 shown in FIG. 6 is 50 points, 100 points, and 100 points. Therefore, since the maximum attention level DA is 100 points, the attention level DA of the person 41a to the information presentation object IG is determined to be 100 points.

同様にして、ヒト41bの移動方向は、角度θで表すと、180度、220度および180度である。これらの角度θそれぞれについて注目度DAを求めると、100ポイント、75ポイント、100ポイントとなる。よって、最大値の注目度DAは、100ポイントであるため、ヒト41bの情報提示物IGへの注目度DAは、100ポイントであると決定される。 Similarly, the moving directions of the person 41b are 180 degrees, 220 degrees and 180 degrees when represented by an angle θ. Obtaining the degree of attention DA for each of these angles θ yields 100 points, 75 points, and 100 points. Therefore, since the maximum attention level DA is 100 points, the attention level DA of the person 41b to the information presentation object IG is determined to be 100 points.

同様にして、ヒト41cの移動方向は、角度θで表すと、140度、140度および140度であり、同一の角度となる。また、140度の角度θから求められる注目度DAは、75ポイントである。よって、最大値の注目度DAは、75ポイントであるため、ヒト41cの情報提示物IGへの注目度DAは、75ポイントであると決定される。 Similarly, the moving directions of the person 41c are 140 degrees, 140 degrees, and 140 degrees when represented by an angle θ, which are the same angle. Also, the degree of attention DA obtained from the angle θ of 140 degrees is 75 points. Therefore, since the maximum attention level DA is 75 points, the attention level DA of the person 41c to the information presentation object IG is determined to be 75 points.

同様にして、ヒト41dの移動方向は、角度θで表すと、300度、20度および100度である。これらの角度θそれぞれについて注目度DAを求めると、0ポイント、0ポイント、50ポイントとなる。よって、最大値の注目度DAは、50ポイントであるため、ヒト41dの情報提示物IGへの注目度DAは、50ポイントであると決定される。 Similarly, the moving directions of the person 41d are 300 degrees, 20 degrees and 100 degrees when represented by angles θ. When the degree of attention DA is obtained for each of these angles θ, 0 points, 0 points, and 50 points are obtained. Therefore, since the maximum attention level DA is 50 points, the attention level DA of the person 41d to the information presentation object IG is determined to be 50 points.

ヒト41eについては、5秒間の移動の分析による移動方向の推定を3回行っている間、移動をしていないため、3回の推定で常に滞留61sの場合となり、注目度DAは、200ポイントで一定であると求められる。よって、最大値の注目度DAは、200ポイントであるため、ヒト41eの情報提示物IGへの注目度DAは、200ポイントであると決定される。 The person 41e does not move while the direction of movement is estimated three times by analysis of movement for 5 seconds. is required to be constant at . Therefore, since the maximum attention level DA is 200 points, the attention level DA of the person 41e to the information presentation object IG is determined to be 200 points.

さらに、第1の処理は、複数の移動方向それぞれに関して、移動方向のベクトル54と情報提示物IGに垂直なベクトル53とがなす角度θと、予め設定された参照情報6とに基づいて、情報提示物IGへの注目度DAを求め、求められた複数の注目度DAのうち、頻度が最も高い注目度DAを、ヒトの、情報提示物IGへの注目度DAとして決定する処理であることも好ましい。このような態様によれば、得られた複数の注目度DAのうち頻度が高い注目度DAを採用することにより、人間の一定ではない対象への注目の度合いを適正に評価することができる。 Furthermore, the first processing is based on the angle θ formed by the vector 54 in the moving direction and the vector 53 perpendicular to the information presentation object IG and the preset reference information 6 for each of the plurality of moving directions. The attention level DA to the presentation object IG is obtained, and the attention level DA with the highest frequency among the obtained plural attention levels DA is determined as the human attention level DA to the information presentation object IG. is also preferred. According to this aspect, by adopting the attention level DA with the highest frequency among the obtained attention levels DA, it is possible to properly evaluate the degree of human attention to an object that is not constant.

ここで、本態様の第1の処理を、図4の具体例を使用して説明することとする。上述したように、ヒト41aについて、各移動方向から求められる注目度DAは、50ポイント、100ポイント、100ポイントである。よって、頻度が最も高い注目度DAは、100ポイントであるため、ヒト41aの情報提示物IGへの注目度DAは、100ポイントであると決定される。 Here, the first processing of this aspect will be described using the specific example of FIG. As described above, for the person 41a, the degree of attention DA obtained from each movement direction is 50 points, 100 points, and 100 points. Therefore, since the attention level DA with the highest frequency is 100 points, the attention level DA of the person 41a to the information presentation object IG is determined to be 100 points.

同様にして、ヒト41bについて、各移動方向から求められる注目度DAは、100ポイント、75ポイント、100ポイントである。よって、頻度が最も高い注目度DAは、100ポイントであるため、ヒト41aの情報提示物IGへの注目度DAは、100ポイントであると決定される。 Similarly, for the person 41b, the degree of attention DA obtained from each movement direction is 100 points, 75 points, and 100 points. Therefore, since the attention level DA with the highest frequency is 100 points, the attention level DA of the person 41a to the information presentation object IG is determined to be 100 points.

同様にして、ヒト41cについて、移動方向から求められる注目度DAは、3回の推定で常に75ポイントである。よって、頻度が最も高い注目度DAは、75ポイントであるため、ヒト41aの情報提示物IGへの注目度DAは、75ポイントであると決定される。 Similarly, for the person 41c, the degree of attention DA obtained from the direction of movement is always 75 points in three estimations. Therefore, since the attention level DA with the highest frequency is 75 points, the attention level DA of the person 41a to the information presentation object IG is determined to be 75 points.

同様にして、ヒト41dについて、各移動方向から求められる注目度DAは、0ポイント、0ポイント、50ポイントである。よって、頻度が最も高い注目度DAは、0ポイントであるため、ヒト41aの情報提示物IGへの注目度DAは、0ポイントであると決定される。 Similarly, for the person 41d, the attention levels DA obtained from each moving direction are 0 points, 0 points, and 50 points. Therefore, since the attention level DA with the highest frequency is 0 points, the attention level DA of the person 41a to the information presentation object IG is determined to be 0 points.

ヒト41eについては、3回の推定で常に注目度DAは、200ポイントである。よって、頻度が最も高い注目度DAは、200ポイントであるため、ヒト41aの情報提示物IGへの注目度DAは、200ポイントであると決定される。 For human 41e, the degree of attention DA is always 200 points in three estimations. Therefore, since the attention level DA with the highest frequency is 200 points, the attention level DA of the person 41a to the information presentation object IG is determined to be 200 points.

続いて、推定部332が移動方向以外についても推定を行う態様について、以下詳述する。 Next, a mode in which the estimating unit 332 estimates other than the movement direction will be described in detail below.

推定部332は、撮像画像IMの時系列変化に基づいて、ヒトが移動を停止する前の所定時間におけるヒトの停止前移動方向をさらに推定することが好ましい。本態様では、第1の算出部334は、停止前移動方向にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、ヒトの停止前移動方向が情報提示物IGを基準として正面方向61fである場合、当該人物は、情報提示物IGを見るために立ち止まった可能性が高いため、その他の場合と比べて相対的に注目度DAが高くなるように注目度DAを算出する。このような態様によれば、人間が立ち止まる直前の移動方向を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimating unit 332 further estimates the movement direction of the person before stopping at a predetermined time before the person stops moving, based on the time-series change of the captured image IM. In this aspect, the first calculator 334 calculates the attention level DA of the person to the information presentation object IG further based on the pre-stop movement direction. For example, when the movement direction before stopping of a person is the front direction 61f with reference to the information presentation object IG, the person is likely to have stopped to see the information presentation object IG. The degree of attention DA is calculated so that the degree of attention DA is generally high. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into consideration the moving direction immediately before the person stops.

推定部332は、撮像画像IMの時系列変化に基づいて、所定時間のヒトの移動距離から移動速度をさらに推定することが好ましい。本態様では、第1の算出部334は、移動速度にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、ヒトの移動速度が速い場合、当該人物は、情報提示物IGを見ていない可能性が高いため、移動速度が速い場合は、移動速度が遅い場合に比べて、注目度DAが低くなるように注目度DAを算出する。このような態様によれば、移動速度を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the moving speed from the moving distance of the person for a predetermined time based on the time-series change of the captured image IM. In this aspect, the first calculator 334 calculates the degree of human attention DA to the information presentation object IG further based on the moving speed. For example, when the moving speed of a person is fast, there is a high possibility that the person is not looking at the information presentation object IG. Therefore, when the moving speed is fast, the attention level DA is lower than when the moving speed is slow. The degree of attention DA is calculated as follows. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the moving speed.

推定部332は、撮像画像IMに基づいて、ヒトの顔の向きを推定することが好ましい。本態様では、第1の算出部334は、ヒトの顔の向きにさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、ヒトの顔が情報提示物IGの方向を向いている場合、当該人物は、情報提示物IGを見ている可能性が高いため、その他の場合と比べて相対的に注目度DAが高くなるように注目度DAを算出する。このような態様によれば、顔の向きを加味することにより、情報提示物IGの視認性をより適正に評価することができる。 The estimation unit 332 preferably estimates the orientation of the human face based on the captured image IM. In this aspect, the first calculator 334 calculates the attention level DA of the person to the information presentation object IG further based on the orientation of the person's face. For example, when a person's face faces the information presentation object IG, the person is likely to be looking at the information presentation object IG. The degree of attention DA is calculated so that According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the orientation of the face.

推定部332は、撮像画像IMに基づいて、ヒトの目の位置と、情報提示物IGとの間の距離をさらに推定することが好ましい。本態様では、第1の算出部334は、この距離にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、ヒトの目の位置と、情報提示物IGとの間の距離が大きいほど、ヒトにとって情報提示物IGは見えにくくなると考えられるため、距離が大きいほど、注目度DAが低くなるように注目度DAを算出する。このような態様によれば、人間と情報提示物IGとの距離を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the distance between the position of the human eye and the information presentation object IG based on the captured image IM. In this aspect, the first calculator 334 calculates the degree of human attention DA to the information presentation object IG further based on this distance. For example, the greater the distance between the position of the human eye and the information presentation object IG, the more difficult it is for humans to see the information presentation object IG. Calculate the degree DA. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the distance between the person and the information presentation object IG.

推定部332は、撮像画像IMに基づいて、ヒトの目の位置と、情報提示物IGとの高さの差をさらに推定することが好ましい。本態様では、第1の算出部334は、この高さの差にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、ヒトの目の位置と、情報提示物IGとの高さの差が大きいほど、ヒトの視線が情報提示物IGを捉えにくくなり、ヒトが情報提示物IGに気づきにくくなると考えられるため、高さの差が大きいほど、注目度DAが低くなるように注目度DAを算出する。このような態様によれば、人間の目線と情報提示物IGとの高さの差を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the height difference between the position of the human eye and the information presentation object IG based on the captured image IM. In this aspect, the first calculator 334 calculates the attention level DA of the person to the information presentation object IG further based on this height difference. For example, the greater the difference between the position of the human eye and the height of the information presentation object IG, the more difficult it becomes for the human's line of sight to catch the information presentation object IG, making it difficult for the human to notice the information presentation object IG. The degree of attention DA is calculated so that the degree of attention DA decreases as the height difference increases. According to this aspect, the visibility of the information presentation object IG can be evaluated more properly by taking into consideration the height difference between the line of sight of the person and the information presentation object IG.

推定部332は、撮像画像IMと、予め設定されたエリア情報とに基づいて、ヒトが所定時間滞在している場所の属性をさらに推定することが好ましい。本態様では、第1の算出部334は、この場所の属性にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、ヒトが喫煙所にいる場合、喫煙所に集まっている人々は、周りを見渡す行動をとる傾向が一般的に見られるため、当該人物は、情報提示物IGに気づく可能性が高い。よって、ヒトが喫煙所にいる場合、その他のエリアにいる場合よりも相対的に注目度DAが高くなるように注目度DAを算出する。このような態様によれば、人間がいるエリアの属性を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the attribute of the place where the person is staying for the predetermined time based on the captured image IM and preset area information. In this aspect, the first calculator 334 calculates the attention level DA of the person to the information presentation object IG further based on the attribute of this place. For example, when a person is in a smoking area, it is highly likely that the person will notice the information presentation object IG because people gathered in the smoking area generally tend to look around. Therefore, the attention level DA is calculated so that the attention level DA is relatively higher when the person is in the smoking area than when the person is in other areas. According to such an aspect, the visibility of the information presentation object IG can be evaluated more appropriately by adding the attribute of the area where the person is present.

4.第2の実施形態
本節では、第2の実施形態(以下、本実施形態と称する)に係る情報処理システム1について説明する。ただし、第1の実施形態に係る情報処理システム1と略同様の構成や機能については、その説明を省略する。
4. Second Embodiment In this section, an information processing system 1 according to a second embodiment (hereinafter referred to as this embodiment) will be described. However, descriptions of configurations and functions that are substantially the same as those of the information processing system 1 according to the first embodiment will be omitted.

また、本節で参照する各図は、以下の通りである。図8は、所定時間における車両の移動方向の一例である。図9は、情報処理システム1によって実行される情報処理の流れの一例を示すアクティビティ図である。 The figures referred to in this section are as follows. FIG. 8 is an example of the moving direction of the vehicle at a predetermined time. FIG. 9 is an activity diagram showing an example of the flow of information processing executed by the information processing system 1. As shown in FIG.

本実施形態の情報処理方法は、受付ステップと、推定ステップと、第1の算出ステップとを備える。受付ステップでは、ヒトが運転する車両を含む撮像画像IMを時系列で受け付ける。推定ステップでは、撮像画像IMの時系列変化に基づいて、所定時間ごとの車両の移動方向を推定する。第1の算出ステップでは、複数の、所定時間ごとの移動方向に対して、予め定められた第1の処理を適用することで、ヒトの、情報提示物IGへの注目度DAを算出する。 The information processing method of this embodiment includes a receiving step, an estimating step, and a first calculating step. In the receiving step, captured images IM including a vehicle driven by a person are received in chronological order. In the estimation step, the moving direction of the vehicle is estimated for each predetermined time based on the time-series change of the captured image IM. In the first calculation step, a predetermined first process is applied to a plurality of moving directions at predetermined time intervals, thereby calculating the degree of human attention DA to the information presentation object IG.

ここで、車両とは、道路を走るための車両であって、例えば、自転車、原動機付自転車、自動二輪車、自動車等である。 Here, a vehicle is a vehicle for running on a road, and includes, for example, a bicycle, a motorized bicycle, a motorcycle, an automobile, and the like.

以下では、図9のアクティビティ図に沿って、情報処理システム1によって実行される情報処理の流れを説明するものとする。なお、図9において、kは、車両の移動方向の推定回数を表し、tは時刻を表す。 In the following, the flow of information processing executed by the information processing system 1 will be described along the activity diagram of FIG. In FIG. 9, k represents the number of estimations of the direction of movement of the vehicle, and t represents time.

アクティビティA200~A202は、第1の実施形態のアクティビティA100~A102と同様のため、説明を省略する。 The activities A200 to A202 are the same as the activities A100 to A102 of the first embodiment, so their explanations are omitted.

アクティビティA203では、情報処理装置3の制御部33において、t=0が設定されると、受付部331は、ヒトが運転する車両を含む撮像画像IMを時系列で受け付ける。 In activity A203, when t=0 is set in the control unit 33 of the information processing device 3, the reception unit 331 receives captured images IM including a vehicle driven by a person in chronological order.

アクティビティA204では、情報処理装置3の制御部33は、1フレーム毎の撮像画像IMに基づいて、当該領域中に含まれる車両を抽出し、車両ごとにラベリング処理を行って識別する。例えば、車両の色、形状、大きさ、高さ等の特徴に基づいて、車両を識別する。そして、情報処理装置3の制御部33は、当該領域中における座標を位置情報として、車両ごとに特定する。情報処理装置3の制御部33は、このような車両の識別情報と位置情報とを時系列で記憶部32に記憶させる。 In activity A204, the control unit 33 of the information processing device 3 extracts vehicles included in the area based on the captured image IM for each frame, and performs labeling processing for each vehicle to identify them. For example, vehicles are identified based on characteristics such as vehicle color, shape, size, and height. Then, the control unit 33 of the information processing device 3 identifies each vehicle by using coordinates in the area as position information. The control unit 33 of the information processing device 3 causes the storage unit 32 to store such vehicle identification information and position information in chronological order.

アクティビティA205では、上述したアクティビティA203およびA204の情報処理を、車両の移動を分析する所定期間が終わるまで、すなわち、t≧τとなるまで繰り返す。 In activity A205, the information processing of activities A203 and A204 described above is repeated until the predetermined period for analyzing the movement of the vehicle ends, that is, until t≧τ.

ここで、τは、特に限定されないが、車両の平均的な走行速度を考慮して定めることが好ましい。 Here, τ is not particularly limited, but is preferably determined in consideration of the average running speed of the vehicle.

アクティビティA206では、車両の移動を分析する所定期間が終わると、すなわち、時間条件t≧τが満たされると、情報処理装置3の推定部332は、撮像画像IMの時系列変化に基づいて、所定時間ごとの車両の移動方向を推定する。 In activity A206, when the predetermined period for analyzing the movement of the vehicle ends, that is, when the time condition t≧τ is satisfied, the estimating unit 332 of the information processing device 3 calculates a predetermined Estimate the direction of movement of the vehicle over time.

ここで、図8の例を使用して、所定時間における車両の移動方向の推定について説明することとする。図8において、車両71と車両72は同一車両であって、t=0で撮像された当該車両を示すのが車両71であり、t=τで撮像された当該車両を示すのが車両72である。車両71の位置と車両72の位置とを結ぶことによって得られるものが、ベクトル74である。すなわち、ベクトル74は、0≦t≦τという所定期間における移動方向を示す。また、情報提示物IGに垂直なベクトルが、ベクトル73である。そして、移動方向のベクトル74と情報提示物IGに垂直なベクトル73とは、角度φをなす。このようにして、推定部332は、所定時間ごとの車両の移動方向の推定結果を、角度φとして表すことが、好ましい。 Here, using the example of FIG. 8, the estimation of the moving direction of the vehicle at a predetermined time will be explained. In FIG. 8, the vehicle 71 and the vehicle 72 are the same vehicle, the vehicle 71 is the vehicle imaged at t=0, and the vehicle 72 is the vehicle imaged at t=τ. be. A vector 74 is obtained by connecting the positions of the vehicle 71 and the vehicle 72 . That is, the vector 74 indicates the direction of movement in a predetermined period of 0≤t≤τ. A vector 73 is perpendicular to the information presentation object IG. A vector 74 in the movement direction and a vector 73 perpendicular to the information exhibiting object IG form an angle φ. In this manner, the estimating unit 332 preferably represents the estimation result of the moving direction of the vehicle for each predetermined time as an angle φ.

アクティビティA207~A209は、第1の実施形態と同様のため、説明を省略する。なお、上述の第1の実施形態におけるアクティビティA107~A109に関する説明は、ベクトル53をベクトル73に、ベクトル54をベクトル74に、ベクトル角度θを角度φに置き換えれば、第2の実施形態におけるアクティビティA207~A209の説明となる。 Activities A207 to A209 are the same as those in the first embodiment, so descriptions thereof are omitted. Note that the description of the activities A107 to A109 in the first embodiment can be applied to the activity A207 in the second embodiment by replacing the vector 53 with the vector 73, the vector 54 with the vector 74, and the vector angle θ with the angle φ. ~A209 will be explained.

このように、本実施形態によれば、屋外広告等の近傍を実際に通過している車両一台一台の移動を分析することにより、車両に乗っている人間の屋外広告等への注目度を推定し、屋外広告等の視認性を評価することができる。 As described above, according to the present embodiment, by analyzing the movement of each vehicle actually passing near the outdoor advertisement, etc., the degree of attention of the people riding in the vehicle to the outdoor advertisement, etc., can be calculated. can be estimated and the visibility of outdoor advertisements can be evaluated.

続いて、推定部332が移動方向以外についても推定を行う態様について、以下詳述する。 Next, a mode in which the estimating unit 332 estimates other than the movement direction will be described in detail below.

推定部332は、撮像画像IMの時系列変化に基づいて、所定時間の車両の移動距離から移動速度をさらに推定することが好ましい。本態様では、第1の算出部334は、移動速度にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、車両の移動速度が速い場合、当該車両に乗っている人物は、情報提示物IGを見ていない可能性が高いため、移動速度が速い場合は、移動速度が遅い場合に比べて、注目度DAが低くなるように注目度DAを算出する。このような態様によれば、移動速度を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the moving speed from the moving distance of the vehicle for a predetermined time based on the time series change of the captured image IM. In this aspect, the first calculator 334 calculates the degree of human attention DA to the information presentation object IG further based on the moving speed. For example, when the moving speed of the vehicle is fast, there is a high possibility that the person riding in the vehicle is not looking at the information presentation object IG. The attention degree DA is calculated so that the degree DA becomes low. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the moving speed.

推定部332は、撮像画像IMに基づいて、車両と、情報提示物IGとの間の距離をさらに推定することが好ましい。本態様では、第1の算出部334は、この距離にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、車両と、情報提示物IGとの間の距離が大きいほど、車両に乗っている人物にとって情報提示物IGは見えにくくなると考えられるため、距離が大きいほど、注目度DAが低くなるように注目度DAを算出する。このような態様によれば、車両と情報提示物IGとの距離を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the distance between the vehicle and the information presentation object IG based on the captured image IM. In this aspect, the first calculator 334 calculates the degree of human attention DA to the information presentation object IG further based on this distance. For example, the greater the distance between the vehicle and the information presentation object IG, the more difficult it is for a person riding in the vehicle to see the information presentation object IG. An attention level DA is calculated. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into consideration the distance between the vehicle and the information presentation object IG.

推定部332は、撮像画像IMに基づいて、車両と、情報提示物IGとの高さの差をさらに推定することが好ましい。本態様では、第1の算出部334は、この高さの差にさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。例えば、車両と、情報提示物IGとの高さの差が大きいほど、車両に乗っているヒトの視線が情報提示物IGを捉えにくくなり、当該人物が情報提示物IGに気づきにくくなると考えられるため、高さの差が大きいほど、注目度DAが低くなるように注目度DAを算出する。このような態様によれば、車両と情報提示物IGとの高さの差を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 It is preferable that the estimation unit 332 further estimates the height difference between the vehicle and the information presentation object IG based on the captured image IM. In this aspect, the first calculator 334 calculates the attention level DA of the person to the information presentation object IG further based on this height difference. For example, the greater the difference in height between the vehicle and the information presentation object IG, the more difficult it is for a person riding in the vehicle to catch the information presentation object IG, making it difficult for the person to notice the information presentation object IG. Therefore, the attention level DA is calculated so that the attention level DA decreases as the height difference increases. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the height difference between the vehicle and the information presentation object IG.

5.その他
情報処理システム1に関して、以下のような態様を採用してもよい。
5. Others Regarding the information processing system 1, the following aspects may be adopted.

本実施形態の態様は、プログラムであってもよい。このプログラムは、コンピュータに、情報処理システム1の各ステップを実行させる。 An aspect of this embodiment may be a program. This program causes the computer to execute each step of the information processing system 1 .

撮像装置2として、複数台のカメラを使用してもよい。このような態様によれば、奥行きを含む三次元の情報も取得可能となるため、より精度の高いヒトの移動方向の推定を行うことができる。 A plurality of cameras may be used as the imaging device 2 . According to this aspect, it is possible to obtain three-dimensional information including depth, so that the direction of movement of a person can be estimated with higher accuracy.

アクティビティA104において、ヒトの位置は、ヒトの重心としてもよいし、頭部としてもよいし、足元としてもよく、ヒトの位置情報を得るために、ヒトの身体の各部位を特定対象とすることができる。 In activity A104, the position of the person may be the center of gravity of the person, the head, or the feet. can be done.

アクティビティA204において、車両の位置は、車両の重心としてもよいし、前輪としてもよいし、後輪としてもよく、車両の位置情報を得るために、車両の各部を特定対象とすることができる。 In activity A204, the position of the vehicle may be the center of gravity of the vehicle, the front wheels, or the rear wheels.

推定部332は、ヒトまたは車両の移動方向を1フレームごとに推定してもよい。さらに、推定部332は、1フレームごとのヒトまたは車両の移動方向の推定結果を、角度θまたは角度φとして表してもよい。 The estimation unit 332 may estimate the moving direction of a person or a vehicle for each frame. Furthermore, the estimation unit 332 may represent the estimation result of the moving direction of the person or vehicle for each frame as an angle θ or an angle φ.

本実施形態では、参照情報6がルックアップテーブル等のデータベースであるものとし、それに含まれる詳細な項目を説明したが、あくまでも一例でありこの限りではない。さらに、参照情報6は、そもそもルックアップテーブル等のデータベースに限定されず、複数の情報を数学的に関係づけた数理モデルでもよいし、さらに好ましくは、複数の情報の相関性を予め機械学習させた学習済みモデルであってもよい。すなわち、参照情報6は、AIによる機械学習により生成または更新されてもよい。 In the present embodiment, the reference information 6 is assumed to be a database such as a lookup table, and detailed items included therein have been described, but this is merely an example and is not limited to this. Furthermore, the reference information 6 is not limited to a database such as a lookup table in the first place, and may be a mathematical model in which a plurality of pieces of information are mathematically related. It may be a trained model. That is, the reference information 6 may be generated or updated by AI machine learning.

情報処理システムは、検出部333をさらに備えてもよい。検出部は、撮像画像IMに基づいて、ヒトの目の位置または車両と、情報提示物IGとの間に存在する、大きさが所定の閾値を超えている物体を検出する。本態様では、第1の算出部334は、検出された物体の大きさにさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。このような態様によれば、人間の視線を遮る物の存在を加味することにより、情報提示物IGの視認性をより適正に評価することができる。 The information processing system may further include a detector 333 . Based on the captured image IM, the detection unit detects an object whose size exceeds a predetermined threshold and exists between the position of the human eye or the vehicle and the information presentation object IG. In this aspect, the first calculator 334 calculates the attention level DA of the person to the information presentation object IG further based on the size of the detected object. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the presence of an object that blocks the line of sight of a person.

第1の算出部334は、情報提示物IGの大きさにさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出してもよい。このような態様によれば、情報提示物IGの大きさを加味することにより、情報提示物IGの視認性をより適正に評価することができる。 The first calculator 334 may calculate the degree of attention DA of the person to the information presentation object IG further based on the size of the information presentation object IG. According to this aspect, the visibility of the information presentation object IG can be evaluated more appropriately by taking into account the size of the information presentation object IG.

受付部331は、ヒトの属性情報をさらに受け付けてもよい。本態様では、第1の算出部334は、属性情報と、情報提示物IGが提供する情報とにさらに基づいて、ヒトの、情報提示物IGへの注目度DAを算出する。ここで、ヒトの属性情報とは、例えば、性別、年齢、居住地、職業等である。また、属性情報は、撮像画像IMから推定されたものであってもよい。あるいは、情報提示物IGが双方向性を持つインタラクティブ型デジタルサイネージである場合、属性情報は、情報提示物IGがヒトから直接入手した情報であってもよいし、ヒトから得た情報に基づき情報提示物IGが推定した情報であってもよい。このような態様によれば、情報提示物IGが提供する情報が、人間の属性に適合する程度を加味することにより、情報提示物IGの注意喚起力を適正に評価することができる。 The reception unit 331 may further receive human attribute information. In this aspect, the first calculator 334 calculates the degree of attention DA of the person to the information presentation object IG further based on the attribute information and the information provided by the information presentation object IG. Here, the human attribute information is, for example, gender, age, place of residence, occupation, and the like. Also, the attribute information may be estimated from the captured image IM. Alternatively, when the information presentation object IG is interactive digital signage, the attribute information may be information obtained directly from the person by the information presentation object IG, or may be information based on information obtained from the person. It may be information estimated by the presentation IG. According to this aspect, the ability of the information presentation object IG to draw attention can be properly evaluated by taking into consideration the extent to which the information provided by the information presentation object IG matches the attributes of humans.

さらに、次に記載の各態様で提供されてもよい。
前記情報処理システムにおいて、前記第1の処理は、前記複数の移動方向のベクトルと前記情報提示物に垂直なベクトルとがなす角度に関して、平均角度を算出し、前記平均角度と、予め設定された参照情報とに基づいて、前記情報提示物への注目度を求める処理であり、前記参照情報は、前記角度と、前記情報提示物への注目度とが対応付けられた情報である、もの。
前記情報処理システムにおいて、前記第1の処理は、前記複数の移動方向それぞれに関して、前記移動方向のベクトルと前記情報提示物に垂直なベクトルとがなす角度と、予め設定された参照情報とに基づいて、前記情報提示物への注目度を求め、求められた複数の前記注目度のうち、最大値の注目度を、前記ヒトの、情報提示物への注目度として決定する処理であり、前記参照情報は、前記角度と、前記情報提示物への注目度とが対応付けられた情報である、もの。
前記情報処理システムにおいて、前記第1の処理は、前記複数の移動方向それぞれに関して、前記移動方向のベクトルと前記情報提示物に垂直なベクトルとがなす角度と、予め設定された参照情報とに基づいて、前記情報提示物への注目度を求め、求められた複数の前記注目度のうち、頻度が最も高い注目度を、前記ヒトの、情報提示物への注目度として決定する処理であり、前記参照情報は、前記角度と、前記情報提示物への注目度とが対応付けられた情報である、もの。
前記情報処理システムにおいて、前記参照情報は、前記情報提示物を基準として前記移動方向が正面方向、背面方向、斜め方向および横方向にある場合と、前記移動方向のベクトルと前記情報提示物に垂直なベクトルとが角度をなさない場合とに対して、それぞれ前記情報提示物への注目度が対応付けられた情報である、もの。
前記情報処理システムにおいて、第2の算出ステップをさらに実行するように構成され、前記撮像画像に含まれる前記ヒトは、複数のヒトであり、前記第2の算出ステップでは、前記ヒトごとに算出された前記情報提示物への注目度それぞれに対して、予め定められた第2の処理を適用することで、大衆の前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記第2の処理は、前記情報提示物への注目度と、その注目度を有するヒトの人数とを掛け合わせて得られる値を全ての注目度について足し合わせ、得られた合計値を前記ヒトの人数で割る処理である、もの。
前記情報処理システムにおいて、前記第1の算出ステップでは、前記撮像画像を撮像した撮像装置と、前記情報提示物との位置関係にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理装置において、前記情報提示物が前記撮像装置を備えている場合、前記撮像装置と前記情報提示物とが同一位置に位置するとみなすか、または、前記撮像装置が前記情報提示物に包含される位置関係にあるとする、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像の時系列変化に基づいて、前記ヒトが移動を停止する前の所定時間における前記ヒトの停止前移動方向をさらに推定し、前記第1の算出ステップでは、前記停止前移動方向にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像の時系列変化に基づいて、所定時間の前記ヒトの移動距離から移動速度をさらに推定し、前記第1の算出ステップでは、前記移動速度にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記報処理システムにおいて、前記推定ステップでは、前記撮像画像に基づいて、前記ヒトの顔の向きを推定し、前記第1の算出ステップでは、前記ヒトの顔の向きにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像に基づいて、前記ヒトの目の位置と、前記情報提示物との間の距離をさらに推定し、前記第1の算出ステップでは、前記距離にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像に基づいて、前記ヒトの目の位置と、前記情報提示物との高さの差をさらに推定し、前記第1の算出ステップでは、前記高さの差にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像と、予め設定されたエリア情報とに基づいて、前記ヒトが所定時間滞在している場所の属性をさらに推定し、前記第1の算出ステップでは、前記場所の属性にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、検出ステップをさらに実行するように構成され、前記検出ステップでは、前記撮像画像に基づいて、前記ヒトの目の位置と、前記情報提示物との間に存在する、大きさが所定の閾値を超えている物体を検出し、前記第1の算出ステップでは、検出された前記物体の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記第1の算出ステップでは、前記情報提示物の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記受付ステップでは、前記ヒトの属性情報をさらに受け付け、前記第1の算出ステップでは、前記属性情報と、前記情報提示物が提供する情報とにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記受付ステップでは、前記ヒトが運転する車両を含む撮像画像を時系列で受け付け、前記推定ステップでは、前記車両の移動方向を推定する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像の時系列変化に基づいて、所定時間の前記車両の移動距離から移動速度をさらに推定し、前記第1の算出ステップでは、前記移動速度にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像に基づいて、前記車両と、前記情報提示物との間の距離をさらに推定し、前記第1の算出ステップでは、前記距離にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記推定ステップでは、前記撮像画像に基づいて、前記車両と、前記情報提示物との高さの差をさらに推定し、前記第1の算出ステップでは、前記高さの差にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、検出ステップをさらに実行するように構成され、前記検出ステップでは、前記撮像画像に基づいて、前記車両と、前記情報提示物との間に存在する、大きさが所定の閾値を超えている物体を検出し、前記第1の算出ステップでは、検出された前記物体の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
前記情報処理システムにおいて、前記第1の算出ステップでは、前記情報提示物の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、もの。
情報処理方法であって、前記情報処理システムの各ステップを備える、方法。
プログラムであって、コンピュータに、前記情報処理システムの各ステップを実行させる、もの。
もちろん、この限りではない。
Furthermore, it may be provided in each aspect described below.
In the information processing system, the first process calculates an average angle with respect to angles formed by the vectors in the plurality of moving directions and the vector perpendicular to the information presentation object, and calculates the average angle and a preset and reference information, wherein the reference information is information in which the angle and the degree of attention to the information presentation are associated with each other.
In the information processing system, the first processing is based on an angle formed by a vector in the moving direction and a vector perpendicular to the information presentation object and preset reference information for each of the plurality of moving directions. and determining the degree of attention to the information presentation object, and determining the maximum attention degree among the obtained plurality of attention degrees as the degree of attention of the person to the information presentation object, The reference information is information in which the angle and the degree of attention to the information presentation object are associated with each other.
In the information processing system, the first processing is based on an angle formed by a vector in the moving direction and a vector perpendicular to the information presentation object and preset reference information for each of the plurality of moving directions. A process of determining the degree of attention to the information presentation object, and determining the degree of attention with the highest frequency among the plurality of attention degrees obtained as the degree of attention of the person to the information presentation object, The reference information is information in which the angle and the degree of attention to the information presentation object are associated with each other.
In the information processing system, the reference information includes a case where the direction of movement is a front direction, a back direction, an oblique direction, and a lateral direction with respect to the information presentation object, and a vector of the movement direction and a direction perpendicular to the information presentation object. is information in which the degree of attention to the information presentation item is associated with each other with respect to the case where the vector does not form an angle with the vector.
The information processing system is configured to further execute a second calculation step, wherein the persons included in the captured image are a plurality of persons, and in the second calculation step, calculation is performed for each person. calculating the degree of public attention to the information presentation object by applying a predetermined second process to each of the attention degrees to the information presentation object.
In the information processing system, the second processing is performed by adding together the values obtained by multiplying the degree of attention to the information presentation object by the number of people who have that degree of attention for all the degrees of attention. which is a process of dividing the total value obtained by dividing by the number of people.
In the information processing system, in the first calculation step, the degree of attention of the person to the information presentation object is calculated further based on the positional relationship between the imaging device that captured the captured image and the information presentation object. Things to calculate.
In the information processing device, when the information presentation object includes the imaging device, the imaging device and the information presentation object are assumed to be located at the same position, or the imaging device is included in the information presentation object. A thing that is in a positional relationship to be.
In the information processing system, the estimating step further estimates a pre-stop moving direction of the person at a predetermined time before the person stops moving, based on a time series change of the captured image, and In the calculating step, the degree of attention of the person to the information presentation object is calculated further based on the movement direction before stopping.
In the information processing system, the estimating step further estimates the moving speed from the moving distance of the person for a predetermined time based on the time series change of the captured image, and the first calculating step estimates the moving speed. Furthermore, based on this, the degree of attention of the person to the information presentation is calculated.
In the information processing system, the estimation step estimates the orientation of the human face based on the captured image, and the first calculation step further calculates the orientation of the human face based on the orientation of the human face. , which calculates the degree of attention to the information presentation.
In the information processing system, the estimation step further estimates a distance between the position of the human eye and the information presentation object based on the captured image, and the first calculation step further estimates the distance further based on calculating the degree of attention of the person to the information presentation.
In the information processing system, the estimation step further estimates a height difference between the position of the human eye and the information presentation object based on the captured image; Further based on the difference in height, the degree of attention of the person to the information presentation object is calculated.
In the information processing system, the estimating step further estimates an attribute of a place where the person is staying for a predetermined time based on the captured image and preset area information, and the first calculating step Then, the degree of attention of the person to the information presentation object is calculated further based on the attribute of the location.
The information processing system is configured to further perform a detection step, wherein the detection step includes a size existing between the position of the human eye and the information presentation object based on the captured image. is greater than a predetermined threshold, and in the first calculation step, further based on the size of the detected object, the degree of attention of the person to the information presentation is calculated; thing.
In the information processing system, in the first calculating step, the degree of attention of the person to the information presentation object is calculated further based on the size of the information presentation object.
In the information processing system, the receiving step further receives the attribute information of the person, and the first calculating step calculates the attribute information of the person further based on the attribute information and the information provided by the information presentation object. , which calculates the degree of attention to the information presentation.
In the information processing system, the receiving step receives captured images including the vehicle driven by the person in time series, and the estimating step estimates a moving direction of the vehicle.
In the information processing system, the estimating step further estimates the moving speed from the moving distance of the vehicle for a predetermined time based on the time series change of the captured image, and the first calculating step estimates the moving speed. Furthermore, based on this, the degree of attention of the person to the information presentation is calculated.
In the information processing system, the estimation step further estimates a distance between the vehicle and the information presentation object based on the captured image, and the first calculation step further estimates a distance based on the distance. , which calculates the degree of attention of the person to the information presentation.
In the information processing system, the estimation step further estimates a height difference between the vehicle and the information presentation object based on the captured image, and the first calculation step further estimates the height difference. further based on calculating the degree of attention of the person to the information presentation.
The information processing system is configured to further execute a detection step, in which, based on the captured image, a threshold of a predetermined size existing between the vehicle and the information presentation object , and in the first calculating step, the degree of attention of the person to the information presentation object is calculated further based on the size of the detected object.
In the information processing system, in the first calculating step, the degree of attention of the person to the information presentation object is calculated further based on the size of the information presentation object.
A method of information processing, comprising steps of the information processing system.
A program that causes a computer to perform each step of the information processing system.
Of course, this is not the only case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, while various embodiments of the invention have been described, these have been presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1 :情報処理システム
2 :撮像装置
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :受付部
332 :推定部
333 :検出部
334 :算出部
4 :重ね合わせ画像
41a :ヒト
42a :移動方向
43a :移動方向
44a :移動方向
41b :ヒト
42b :移動方向
43b :移動方向
44b :移動方向
41c :ヒト
42c :移動方向
43c :移動方向
44c :移動方向
41d :ヒト
42d :移動方向
43d :移動方向
44d :移動方向
41e :ヒト
51 :ヒト
52 :ヒト
53 :ベクトル
54 :ベクトル
6 :参照情報
61b :背面方向
61d :斜め方向
61f :正面方向
61h :横方向
61s :滞留
71 :車両
72 :車両
73 :ベクトル
74 :ベクトル
DA :注目度
IG :情報提示物
IM :撮像画像
1: information processing system 2: imaging device 3: information processing device 30: communication bus 31: communication unit 32: storage unit 33: control unit 331: reception unit 332: estimation unit 333: detection unit 334: calculation unit 4: superimposition Image 41a: Human 42a: Moving direction 43a: Moving direction 44a: Moving direction 41b: Human 42b: Moving direction 43b: Moving direction 44b: Moving direction 41c: Human 42c: Moving direction 43c: Moving direction 44c: Moving direction 41d: Human 42d : Movement direction 43d : Movement direction 44d : Movement direction 41e : Human 51 : Human 52 : Human 53 : Vector 54 : Vector 6 : Reference information 61b : Back direction 61d : Diagonal direction 61f : Front direction 61h : Lateral direction 61s : Retention 71 : Vehicle 72 : Vehicle 73 : Vector 74 : Vector DA : Attention degree IG : Information presentation IM : Captured image

Claims (26)

情報処理システムであって、
次の各ステップを実行するように構成され、
受付ステップでは、ヒトを含む撮像画像を時系列で受け付け、
推定ステップでは、前記撮像画像の時系列変化に基づいて、所定時間ごとの前記ヒトの移動方向を推定し、
第1の算出ステップでは、複数の、前記所定時間ごとの前記移動方向に対して、予め定められた第1の処理を適用することで、前記ヒトの、情報提示物への注目度を算出する、
もの。
An information processing system,
configured to perform each of the following steps,
In the receiving step, captured images including humans are received in chronological order,
In the estimating step, estimating the moving direction of the person at predetermined time intervals based on the time-series change of the captured image,
In the first calculation step, a predetermined first process is applied to a plurality of moving directions at predetermined time intervals to calculate the degree of attention of the person to the information presentation object. ,
thing.
請求項1に記載の情報処理システムにおいて、
前記第1の処理は、前記複数の移動方向のベクトルと前記情報提示物に垂直なベクトルとがなす角度に関して、平均角度を算出し、前記平均角度と、予め設定された参照情報とに基づいて、前記情報提示物への注目度を求める処理であり、
前記参照情報は、前記角度と、前記情報提示物への注目度とが対応付けられた情報である、
もの。
In the information processing system according to claim 1,
The first process calculates an average angle with respect to angles formed by the vectors in the plurality of moving directions and the vector perpendicular to the information presentation object, and calculates the average angle based on the average angle and preset reference information. , a process for obtaining the degree of attention to the information presentation,
The reference information is information in which the angle and the degree of attention to the information presentation object are associated with each other,
thing.
請求項1または請求項2に記載の情報処理システムにおいて、
前記第1の処理は、前記複数の移動方向それぞれに関して、前記移動方向のベクトルと前記情報提示物に垂直なベクトルとがなす角度と、予め設定された参照情報とに基づいて、前記情報提示物への注目度を求め、求められた複数の前記注目度のうち、最大値の注目度を、前記ヒトの、情報提示物への注目度として決定する処理であり、
前記参照情報は、前記角度と、前記情報提示物への注目度とが対応付けられた情報である、
もの。
In the information processing system according to claim 1 or claim 2,
In the first processing, with respect to each of the plurality of moving directions, based on an angle between a vector in the moving direction and a vector perpendicular to the information presenting object, and preset reference information, the information presenting object A process of determining the degree of attention to the object, and determining the maximum value of the degree of attention among the plurality of degrees of attention obtained as the degree of attention of the person to the information presentation,
The reference information is information in which the angle and the degree of attention to the information presentation object are associated with each other,
thing.
請求項1または請求項2に記載の情報処理システムにおいて、
前記第1の処理は、前記複数の移動方向それぞれに関して、前記移動方向のベクトルと前記情報提示物に垂直なベクトルとがなす角度と、予め設定された参照情報とに基づいて、前記情報提示物への注目度を求め、求められた複数の前記注目度のうち、頻度が最も高い注目度を、前記ヒトの、情報提示物への注目度として決定する処理であり、
前記参照情報は、前記角度と、前記情報提示物への注目度とが対応付けられた情報である、
もの。
In the information processing system according to claim 1 or claim 2,
In the first processing, with respect to each of the plurality of moving directions, based on an angle between a vector in the moving direction and a vector perpendicular to the information presenting object, and preset reference information, the information presenting object A process of determining the degree of attention to the object, and determining the degree of attention with the highest frequency among the plurality of degrees of attention obtained as the degree of attention of the person to the information presentation,
The reference information is information in which the angle and the degree of attention to the information presentation object are associated with each other,
thing.
請求項2~請求項4の何れか1つに記載の情報処理システムにおいて、
前記参照情報は、前記情報提示物を基準として前記移動方向が正面方向、背面方向、斜め方向および横方向にある場合と、前記移動方向のベクトルと前記情報提示物に垂直なベクトルとが角度をなさない場合とに対して、それぞれ前記情報提示物への注目度が対応付けられた情報である、
もの。
In the information processing system according to any one of claims 2 to 4,
The reference information includes a case where the direction of movement is the front direction, the back direction, the oblique direction, and the lateral direction with respect to the information presentation object, and the angle between the vector of the movement direction and the vector perpendicular to the information presentation object. Information in which the degree of attention to the information presentation item is associated with each case,
thing.
請求項1~請求項5の何れか1つに記載の情報処理システムにおいて、
第2の算出ステップをさらに実行するように構成され、
前記撮像画像に含まれる前記ヒトは、複数のヒトであり、
前記第2の算出ステップでは、前記ヒトごとに算出された前記情報提示物への注目度それぞれに対して、予め定められた第2の処理を適用することで、大衆の前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 5,
configured to further perform a second calculating step;
The humans included in the captured image are a plurality of humans,
In the second calculating step, by applying a predetermined second process to each of the degrees of attention to the information presentation item calculated for each person, it is possible to determine the public's interest in the information presentation item. Calculate attention,
thing.
請求項6に記載の情報処理システムにおいて、
前記第2の処理は、前記情報提示物への注目度と、その注目度を有するヒトの人数とを掛け合わせて得られる値を全ての注目度について足し合わせ、得られた合計値を前記ヒトの人数で割る処理である、
もの。
In the information processing system according to claim 6,
In the second process, a value obtained by multiplying the degree of attention to the information presentation item by the number of people having the degree of attention is added for all the degrees of attention, and the obtained total value is It is a process of dividing by the number of people,
thing.
請求項1~請求項7の何れか1つに記載の情報処理システムにおいて、
前記第1の算出ステップでは、前記撮像画像を撮像した撮像装置と、前記情報提示物との位置関係にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 7,
In the first calculation step, the degree of attention of the person to the information presentation object is calculated further based on the positional relationship between the imaging device that captured the captured image and the information presentation object,
thing.
請求項8に記載の情報処理装置において、
前記情報提示物が前記撮像装置を備えている場合、前記撮像装置と前記情報提示物とが同一位置に位置するとみなすか、または、前記撮像装置が前記情報提示物に包含される位置関係にあるとする、
もの。
In the information processing device according to claim 8,
When the information presentation object includes the imaging device, the imaging device and the information presentation object are assumed to be located at the same position, or the imaging device is included in the information presentation object. to be
thing.
請求項1~請求項9の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像の時系列変化に基づいて、前記ヒトが移動を停止する前の所定時間における前記ヒトの停止前移動方向をさらに推定し、
前記第1の算出ステップでは、前記停止前移動方向にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 9,
In the estimating step, further estimating a pre-stop movement direction of the person at a predetermined time before the person stops moving, based on time-series changes in the captured images;
In the first calculating step, further based on the movement direction before stopping, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項1~請求項10の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像の時系列変化に基づいて、所定時間の前記ヒトの移動距離から移動速度をさらに推定し、
前記第1の算出ステップでは、前記移動速度にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 10,
In the estimating step, further estimating the movement speed from the movement distance of the person for a predetermined time based on the time series change of the captured image,
In the first calculating step, further based on the moving speed, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項1~請求項11の何れか1つに記載の報処理システムにおいて、
前記推定ステップでは、前記撮像画像に基づいて、前記ヒトの顔の向きを推定し、
前記第1の算出ステップでは、前記ヒトの顔の向きにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 11,
In the estimating step, estimating the orientation of the human face based on the captured image,
In the first calculation step, further based on the orientation of the face of the person, the degree of attention of the person to the information presentation is calculated;
thing.
請求項1~請求項12の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像に基づいて、前記ヒトの目の位置と、前記情報提示物との間の距離をさらに推定し、
前記第1の算出ステップでは、前記距離にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 12,
In the estimating step, further estimating a distance between the position of the human eye and the information presentation object based on the captured image;
In the first calculating step, further based on the distance, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項1~請求項13の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像に基づいて、前記ヒトの目の位置と、前記情報提示物との高さの差をさらに推定し、
前記第1の算出ステップでは、前記高さの差にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 13,
In the estimating step, further estimating a height difference between the position of the human eye and the information presentation object based on the captured image;
In the first calculating step, further based on the height difference, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項1~請求項14の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像と、予め設定されたエリア情報とに基づいて、前記ヒトが所定時間滞在している場所の属性をさらに推定し、
前記第1の算出ステップでは、前記場所の属性にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 14,
In the estimating step, further estimating an attribute of a place where the person is staying for a predetermined time based on the captured image and preset area information;
In the first calculating step, the degree of attention of the person to the information presentation is calculated further based on the attribute of the location;
thing.
請求項1~請求項15の何れか1つに記載の情報処理システムにおいて、
検出ステップをさらに実行するように構成され、
前記検出ステップでは、前記撮像画像に基づいて、前記ヒトの目の位置と、前記情報提示物との間に存在する、大きさが所定の閾値を超えている物体を検出し、
前記第1の算出ステップでは、検出された前記物体の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 15,
configured to further perform a detection step,
In the detection step, based on the captured image, an object whose size exceeds a predetermined threshold and which exists between the position of the human eye and the information presentation object is detected;
In the first calculating step, further based on the size of the detected object, the degree of attention of the person to the information presentation is calculated;
thing.
請求項1~請求項16の何れか1つに記載の情報処理システムにおいて、
前記第1の算出ステップでは、前記情報提示物の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 16,
In the first calculating step, further based on the size of the information presentation, the degree of attention of the person to the information presentation is calculated.
thing.
請求項1~請求項17の何れか1つに記載の情報処理システムにおいて、
前記受付ステップでは、前記ヒトの属性情報をさらに受け付け、
前記第1の算出ステップでは、前記属性情報と、前記情報提示物が提供する情報とにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 1 to 17,
The receiving step further receives attribute information of the human,
In the first calculation step, further based on the attribute information and information provided by the information presentation, the degree of attention of the person to the information presentation is calculated.
thing.
請求項1~請求項9の何れか1つに記載の情報処理システムにおいて、
前記受付ステップでは、前記ヒトが運転する車両を含む撮像画像を時系列で受け付け、
前記推定ステップでは、前記車両の移動方向を推定する、
もの。
In the information processing system according to any one of claims 1 to 9,
In the receiving step, captured images including the vehicle driven by the person are received in chronological order;
In the estimation step, the moving direction of the vehicle is estimated.
thing.
請求項19に記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像の時系列変化に基づいて、所定時間の前記車両の移動距離から移動速度をさらに推定し、
前記第1の算出ステップでは、前記移動速度にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to claim 19,
In the estimating step, further estimating a moving speed from the moving distance of the vehicle for a predetermined time based on the time-series change of the captured image;
In the first calculating step, further based on the moving speed, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項19または請求項20の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像に基づいて、前記車両と、前記情報提示物との間の距離をさらに推定し、
前記第1の算出ステップでは、前記距離にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 19 and 20,
In the estimating step, further estimating a distance between the vehicle and the information presentation object based on the captured image;
In the first calculating step, further based on the distance, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項19~請求項21の何れか1つに記載の情報処理システムにおいて、
前記推定ステップでは、前記撮像画像に基づいて、前記車両と、前記情報提示物との高さの差をさらに推定し、
前記第1の算出ステップでは、前記高さの差にさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 19 to 21,
In the estimating step, further estimating a height difference between the vehicle and the information presentation object based on the captured image;
In the first calculating step, further based on the height difference, the degree of attention of the person to the information presentation object is calculated.
thing.
請求項19~請求項22の何れか1つに記載の情報処理システムにおいて、
検出ステップをさらに実行するように構成され、
前記検出ステップでは、前記撮像画像に基づいて、前記車両と、前記情報提示物との間に存在する、大きさが所定の閾値を超えている物体を検出し、
前記第1の算出ステップでは、検出された前記物体の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 19 to 22,
configured to further perform a detection step,
In the detection step, based on the captured image, an object that exists between the vehicle and the information presentation object and whose size exceeds a predetermined threshold is detected;
In the first calculating step, further based on the size of the detected object, the degree of attention of the person to the information presentation is calculated;
thing.
請求項19~請求項23の何れか1つに記載の情報処理システムにおいて、
前記第1の算出ステップでは、前記情報提示物の大きさにさらに基づいて、前記ヒトの、前記情報提示物への注目度を算出する、
もの。
In the information processing system according to any one of claims 19 to 23,
In the first calculating step, further based on the size of the information presentation, the degree of attention of the person to the information presentation is calculated.
thing.
情報処理方法であって、
請求項1~請求項24の何れか1つに記載の情報処理システムの各ステップを備える、
方法。
An information processing method,
Each step of the information processing system according to any one of claims 1 to 24,
Method.
プログラムであって、
コンピュータに、請求項1~請求項24の何れか1つに記載の情報処理システムの各ステップを実行させる、
もの。
a program,
causing a computer to execute each step of the information processing system according to any one of claims 1 to 24,
thing.
JP2021042868A 2021-03-16 2021-03-16 Information processing system, information processing method and program Pending JP2022142623A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021042868A JP2022142623A (en) 2021-03-16 2021-03-16 Information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021042868A JP2022142623A (en) 2021-03-16 2021-03-16 Information processing system, information processing method and program

Publications (1)

Publication Number Publication Date
JP2022142623A true JP2022142623A (en) 2022-09-30

Family

ID=83426446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021042868A Pending JP2022142623A (en) 2021-03-16 2021-03-16 Information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP2022142623A (en)

Similar Documents

Publication Publication Date Title
CN108725440B (en) Forward collision control method and apparatus, electronic device, program, and medium
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
US9805266B2 (en) System and method for video content analysis using depth sensing
US10009579B2 (en) Method and system for counting people using depth sensor
US9536153B2 (en) Methods and systems for goods received gesture recognition
WO2017159060A1 (en) Information processing device, control method, and program
US20190294890A1 (en) Method and apparatus for surveillance
US9177214B1 (en) Method and apparatus for an adaptive threshold based object detection
CN108363953B (en) Pedestrian detection method and binocular monitoring equipment
JP6549400B2 (en) System and method for video-based detection of drive and pedestrian walk-offs in trains of vehicles and pedestrians
KR101667835B1 (en) Object localization using vertical symmetry
CN106937532A (en) System and method for detecting actual user
CN111160220A (en) Deep learning-based parcel detection method and device and storage medium
Pramerdorfer et al. Fall detection based on depth-data in practice
Ziran et al. A contactless solution for monitoring social distancing: A stereo vision enabled real-time human distance measuring system
JP7069725B2 (en) Suspicious person detection device, suspicious person detection method and computer program for suspicious person detection
Peláez et al. Road detection with thermal cameras through 3D information
Shinmura et al. Estimation of Human Orientation using Coaxial RGB-Depth Images.
KR20170007070A (en) Method for visitor access statistics analysis and apparatus for the same
CN106651921B (en) Motion detection method and method for avoiding and tracking moving target
Yun et al. Video-based detection and analysis of driver distraction and inattention
JP7263094B2 (en) Information processing device, information processing method and program
JP2022142623A (en) Information processing system, information processing method and program
Hariyono et al. Estimation of collision risk for improving driver's safety
KR102407202B1 (en) Apparatus and method for intelligently analyzing video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240301

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240527