JP2023082568A - Evaluation device, evaluation method and program - Google Patents

Evaluation device, evaluation method and program Download PDF

Info

Publication number
JP2023082568A
JP2023082568A JP2021196431A JP2021196431A JP2023082568A JP 2023082568 A JP2023082568 A JP 2023082568A JP 2021196431 A JP2021196431 A JP 2021196431A JP 2021196431 A JP2021196431 A JP 2021196431A JP 2023082568 A JP2023082568 A JP 2023082568A
Authority
JP
Japan
Prior art keywords
advertisement
occupant
information indicating
vehicle
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021196431A
Other languages
Japanese (ja)
Inventor
圭淳 根建
Yoshiaki Nedachi
惇也 小野
Junya Ono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021196431A priority Critical patent/JP2023082568A/en
Publication of JP2023082568A publication Critical patent/JP2023082568A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an evaluation device, an evaluation method and a program for an advertisement that can appropriately perform evaluation associated with the advertisement.SOLUTION: A server device 20 that functions as an evaluation device which evaluates an effect of an advertisement installed near a road, comprises: an acquisition unit 21b; a determination unit 21c; and a creation unit 21d. The acquisition unit 21b acquires gaze information indicating an object around a vehicle gazed by an occupant for each of a plurality of vehicles traveling the road and attribute information indicating an attribute of the occupant. The determination unit 21c determines whether or not the advertisement is gazed by an occupant of each of the plurality of vehicles on the basis of the gaze information acquired by the acquisition unit 21b. The creation unit 21d creates statistical information indicating a gazing degree of an advertisement for each attribute of the occupant as an evaluation index of the effect of the advertisement on the basis of a determination result in the determination unit 21c.SELECTED DRAWING: Figure 1

Description

本発明は、広告の評価装置、評価方法、およびプログラムに関する。 The present invention relates to an advertisement evaluation device, an evaluation method, and a program.

特許文献1には、広告に対する運転者の注視度と運転者の消費行動とを対比し、それらの適合度に基づいて広告の価値を算出することが開示されている。 Patent Literature 1 discloses comparing the driver's degree of attention to an advertisement and the driver's consumption behavior, and calculating the value of the advertisement based on the matching degree.

特開2021-36366号公報Japanese Patent Application Laid-Open No. 2021-36366

道路の近傍に広告を出す事業者や企業は、当該道路を走行する車両の乗員など、できるだけ多くの人に広告を見てもらうことを望んでおり、広告の内容や位置についての検討材料を必要としている。 Businesses and companies that advertise near roads want their advertisements to be viewed by as many people as possible, such as the passengers of vehicles traveling on the road, so they need materials to consider the content and position of advertisements. and

そこで、本発明は、広告に関する評価を適切に行うことが可能な技術を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a technology capable of appropriately evaluating advertisements.

上記目的を達成するために、本発明の一側面としての評価装置は、道路の近傍に設置された広告の効果を評価する評価装置であって、前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、乗員の属性を示す属性情報とを取得する取得手段と、前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断手段と、前記判断手段での判断結果に基づいて、乗員の属性ごとの前記広告の注視度を示す統計情報を、前記広告の効果の評価指標として作成する作成手段と、を備えることを特徴とする。 In order to achieve the above object, an evaluation device as one aspect of the present invention is an evaluation device for evaluating the effect of advertisements installed near a road, wherein for each of a plurality of vehicles traveling on the road, acquisition means for acquiring gaze information indicating an object around the vehicle gazed at by an occupant and attribute information indicating an attribute of the occupant; and based on the gaze information acquired by the acquisition means, each of the plurality of vehicles determining means for determining whether or not the advertisement has been watched by the passenger; and statistical information indicating the degree of attention to the advertisement for each attribute of the passenger, based on the determination result of the determining means, for determining the effectiveness of the advertisement. and creating means for creating the evaluation index.

本発明によれば、例えば、広告に関する評価を適切に行うことが可能な技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can perform evaluation regarding advertisement appropriately can be provided, for example.

評価システムの構成例を示すブロック図Block diagram showing a configuration example of an evaluation system 第1実施形態における注視情報を説明するための図A diagram for explaining gaze information in the first embodiment. 第1実施形態における所定エリアを説明するための図A diagram for explaining a predetermined area in the first embodiment. 第1実施形態における統計情報の作成方法を示すフローチャートFlowchart showing a method of creating statistical information in the first embodiment 第1実施形態における統計情報の一例を示す図A diagram showing an example of statistical information in the first embodiment 第2実施形態における注視度の算出を説明するための図A diagram for explaining the calculation of the gaze degree in the second embodiment. 第2実施形態における広告の設置位置の決定方法を示すフローチャートFlowchart showing a method for determining an advertisement installation position in the second embodiment

以下、本発明の実施形態について図を参照しながら説明する。本発明は、以下の実施形態に限定されるものではなく、本発明の趣旨の範囲内での構成の変更や変形も含む。また、本実施形態で説明されている特徴の組み合わせの全てが本発明に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、その説明を省略する。 Embodiments of the present invention will be described below with reference to the drawings. The present invention is not limited to the following embodiments, and includes changes and modifications in configuration within the scope of the present invention. Also, not all combinations of features described in the present embodiment are essential to the present invention. The same reference numerals are given to the same components, and the description thereof is omitted.

<第1実施形態>
道路の近傍に広告(例えば看板)を設置している事業者や企業は、当該道路を走行する車両の乗員によって当該広告がどれだけ注視しているのか(即ち、広告の効果)を把握することを望んでいる。特に、事業者等は、道路の近傍に設置している広告を、どのような人(性別、年代、居住地など)が、どのような状況(季節、時間帯、天候、場所など)で注視しているのかを把握することを望んでおり、そのような広告の効果を適切に把握することができれば、今後における広告のデザインや形状、広告を設置する場所に反映することが可能となる。そこで、第1実施形態では、道路の近傍に設置された広告の効果を評価する例について説明する。
<First embodiment>
Business operators and companies that install advertisements (for example, billboards) near roads can grasp how much the advertisements are watched by the passengers of vehicles traveling on the roads (that is, the effectiveness of the advertisements). hopes for In particular, business operators, etc. should be aware of what kind of person (gender, age, place of residence, etc.) and under what circumstances (season, time of day, weather, place, etc.) are watching advertisements placed near roads. If we can properly grasp the effect of such advertisements, it will be possible to reflect them in the design and shape of advertisements and the place where advertisements will be installed in the future. Therefore, in the first embodiment, an example of evaluating the effect of advertisements placed near roads will be described.

図1は、本発明に係る第1実施形態の評価システム100の構成例を示すブロック図である。本実施形態の評価システム100は、道路の近傍に設置された広告の効果を評価するシステムであり、複数の車両10とサーバ装置20とによって構成されうる。複数の車両10とサーバ装置20とは、ネットワークNTWを介して互いに接続される。本実施形態において、複数の車両10の各々は、四輪車であってもよいし、自動二輪車や自動三輪車などの鞍乗型車両であってもよい。以下の説明では、車両10を四輪車として説明する。 FIG. 1 is a block diagram showing a configuration example of an evaluation system 100 according to the first embodiment of the invention. The evaluation system 100 of this embodiment is a system that evaluates the effectiveness of advertisements installed near roads, and can be configured by a plurality of vehicles 10 and a server device 20 . A plurality of vehicles 10 and server device 20 are connected to each other via network NTW. In this embodiment, each of the plurality of vehicles 10 may be a four-wheeled vehicle, or may be a straddle-type vehicle such as a motorcycle or a three-wheeled vehicle. In the following description, the vehicle 10 will be described as a four-wheeled vehicle.

まず、車両10の構成例について説明する。図1に示す例では、複数の車両10のうち1つの車両についての構成例を示しているが、他の車両においても同様の構成を有しうる。車両10は、車載装置として、例えば、処理部11と、記憶部12と、通信部13と、撮影部14と、視線センサ15と、位置センサ16とを備えうる。 First, a configuration example of the vehicle 10 will be described. Although the example shown in FIG. 1 shows a configuration example of one vehicle among a plurality of vehicles 10, other vehicles may have the same configuration. The vehicle 10 can include, for example, a processing unit 11, a storage unit 12, a communication unit 13, an imaging unit 14, a line-of-sight sensor 15, and a position sensor 16 as in-vehicle devices.

処理部11は、CPU(Central Processing Unit)に代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェースなどを含む。処理部11は、車両10の各部を制御するECU(Electronic Control Unit)の一部として構成されてもよい。記憶部12には、車両10を制御するためのプログラムやデータ等が格納されており、処理部11は、記憶部12に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。また、通信部13は、ネットワークNTWを介してサーバ装置20と通信(送信、受信)を行うためのユニットである。 The processing unit 11 includes a processor represented by a CPU (Central Processing Unit), a storage device such as a semiconductor memory, an interface with an external device, and the like. The processing section 11 may be configured as part of an ECU (Electronic Control Unit) that controls each section of the vehicle 10 . The storage unit 12 stores programs, data, and the like for controlling the vehicle 10, and the processing unit 11 can read the programs stored in the storage unit 12 to a storage device such as a memory and execute them. . The communication unit 13 is a unit for communicating (transmitting and receiving) with the server device 20 via the network NTW.

撮影部14は、例えば車両10の周囲を撮影するカメラである。本実施形態では、撮影部14は、車両10の前方を撮影するカメラであるが、車両10の後方および/または側方を撮影するカメラを含んでもよい。視線センサ15は、車両10の乗員(特に顔)を撮影して当該の視線の方向(ベクトル)を検知するセンサである。車両10の乗員としては、運転席に着座している乗員(即ち運転者)、助手席に着座している乗員、および/または、後部座席に着座している乗員が含まれうる。視線センサ15は、車両10の各席に着座している乗員の視線の方向を検知するように構成されうる。また、位置センサ16は、例えばGPS(Global Positioning System)センサを含み、車両10の現在位置および姿勢を検知する。位置センサ16は、車両10の加速度を検知する加速度センサ、および/または、車両10の角速度(回転運動)を検知するジャイロセンサを含むものとして理解されてもよい。 The photographing unit 14 is, for example, a camera that photographs the surroundings of the vehicle 10 . In this embodiment, the photographing unit 14 is a camera that photographs the front of the vehicle 10 , but may include a camera that photographs the rear and/or sides of the vehicle 10 . The line-of-sight sensor 15 is a sensor that captures an image of the occupant (especially the face) of the vehicle 10 and detects the direction (vector) of the line of sight. Occupants of vehicle 10 may include an occupant seated in the driver's seat (ie, the driver), an occupant seated in a front passenger seat, and/or an occupant seated in the rear seat. The line-of-sight sensor 15 can be configured to detect the line-of-sight direction of an occupant seated in each seat of the vehicle 10 . Also, the position sensor 16 includes, for example, a GPS (Global Positioning System) sensor, and detects the current position and orientation of the vehicle 10 . Position sensor 16 may be understood to include an acceleration sensor that detects acceleration of vehicle 10 and/or a gyro sensor that detects angular velocity (rotational motion) of vehicle 10 .

次に、サーバ装置20の構成例について説明する。サーバ装置20は、例えばコンピュータによって構成され、処理部21と、記憶部22(データベース)と、通信部23とを含みうる。本実施形態のサーバ装置20は、道路の近傍に設置された広告の効果を評価する評価装置として機能しうる。 Next, a configuration example of the server device 20 will be described. The server device 20 is configured by a computer, for example, and can include a processing unit 21 , a storage unit 22 (database), and a communication unit 23 . The server device 20 of this embodiment can function as an evaluation device that evaluates the effectiveness of advertisements placed near roads.

処理部21は、CPU(Central Processing Unit)に代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェースなどを含む。処理部21は、車両10の各部を制御するECU(Electronic Control Unit)の一部として構成されてもよい。記憶部22には、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されており、処理部21は、記憶部22に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。本実施形態の場合、記憶部22には、道路の近傍に設置された広告の効果を評価するためのプログラム(以下では、効果評価プログラムと表記することがある)が格納されており、処理部21は、記憶部22に記憶された効果評価プログラムを読み出して実行しうる。効果評価プログラムは、CD-ROMやDVD等の記憶媒体に記憶され、当該記憶媒体からサーバ装置20にインストールされてもよいし、ネットワークNTWを介して外部サーバからダウンロードされてサーバ装置20にインストールされてもよい。通信部23は、ネットワークNTWを介して複数の車両10の各々と通信(送信、受信)を行うためのユニットである。 The processing unit 21 includes a processor represented by a CPU (Central Processing Unit), a storage device such as a semiconductor memory, an interface with an external device, and the like. The processing section 21 may be configured as part of an ECU (Electronic Control Unit) that controls each section of the vehicle 10 . The storage unit 22 stores programs executed by the processor and data used by the processor for processing. The processing unit 21 reads the programs stored in the storage unit 22 to a storage device such as a memory and executes them. be able to. In the case of this embodiment, the storage unit 22 stores a program for evaluating the effect of advertisements placed near the road (hereinafter sometimes referred to as an effect evaluation program), and the processing unit 21 can read and execute the effect evaluation program stored in the storage unit 22 . The effect evaluation program may be stored in a storage medium such as a CD-ROM or DVD and installed in the server device 20 from the storage medium, or may be downloaded from an external server via the network NTW and installed in the server device 20. may The communication unit 23 is a unit for communicating (transmitting and receiving) with each of the plurality of vehicles 10 via the network NTW.

また、本実施形態の処理部21は、生成部21aと、取得部21bと、判断部21cと、作成部21dと、決定部21eと、算出部21fとを含みうる。なお、算出部21fは、後述する第2実施形態で用いられるユニットであるため、ここでの説明を省略する。 Further, the processing unit 21 of the present embodiment can include a generation unit 21a, an acquisition unit 21b, a determination unit 21c, a creation unit 21d, a determination unit 21e, and a calculation unit 21f. Note that the calculation unit 21f is a unit used in the second embodiment, which will be described later, so description thereof will be omitted here.

生成部21aは、車両10の視線センサ15で検知された乗員の視線の情報と、車両10の撮影部14で得られた車両周囲(例えば車両前方)の画像データとを通信部23を介して車両10から取得する。そして、視線センサ15で検知された乗員の視線と撮影部14で得られた車両周囲の画像とに基づいて、乗員が注視した車両周囲の対象物(注視点)を示す注視情報を生成する。図2は、注視情報を説明するための図であり、車両10の乗員から見える範囲を示している。図2では、車両10のフロントガラス1、ハンドル2、フロントピラー3、ダッシュボード4、メータパネル5、撮影部14および視線センサ15が図示されている。そして、フロントガラス1を通して見える車両前方の風景において道路Rおよび広告Sが図示されている。生成部21aは、撮影部14で得られた画像と、視線センサ15で検知された乗員に視線とに基づいて公知の画像処理等を行うことにより、図2において注視点31~34で示されるように、車両10の乗員が注視した対象物(注視点)を特定し、注視情報を生成することができる。 The generating unit 21 a transmits information on the line of sight of the occupant detected by the line of sight sensor 15 of the vehicle 10 and image data around the vehicle (for example, in front of the vehicle) obtained by the photographing unit 14 of the vehicle 10 via the communication unit 23 . Acquired from vehicle 10 . Based on the line of sight of the occupant detected by the line of sight sensor 15 and the image of the surroundings of the vehicle obtained by the photographing unit 14, gaze information is generated that indicates an object (gazing point) around the vehicle gazed at by the occupant. FIG. 2 is a diagram for explaining gaze information, and shows a range that can be seen by an occupant of the vehicle 10. As shown in FIG. In FIG. 2, a windshield 1, a steering wheel 2, a front pillar 3, a dashboard 4, a meter panel 5, an imaging unit 14, and a line-of-sight sensor 15 of the vehicle 10 are illustrated. A road R and an advertisement S are illustrated in the scenery in front of the vehicle seen through the windshield 1 . The generation unit 21a performs known image processing or the like based on the image obtained by the imaging unit 14 and the line of sight of the occupant detected by the line of sight sensor 15, so that the points of gaze 31 to 34 shown in FIG. As described above, it is possible to identify an object (gazing point) gazed at by the occupant of the vehicle 10 and generate gaze information.

ここで、「注視」は、車両10の乗員が視線を所定時間以上向けることとして定義され、「対象物(注視点)」は、車両10の乗員が視線を所定時間以上向けた物体(位置)として定義されうる。当該所定時間は、任意に設定されうるが、人が物体を認識することができる時間(例えば1秒以上、3秒以上など)に設定されるとよい。また、図2では、説明を分かり易くするため、フロントガラス1を通して見える車両前方の風景上に注視点31~34を図示したが、実際には、注視点31~34は、当該風景上に図示されるものではなく、撮影部14で得られた画像データ上で特定されるものである。 Here, the "gazing" is defined as the sight line directed by the occupant of the vehicle 10 for a predetermined time or longer, and the "object (gazing point)" is an object (position) to which the occupant of the vehicle 10 directs the line of sight for a predetermined time or longer. can be defined as The predetermined time can be set arbitrarily, but it is preferable to set the time (for example, 1 second or more, 3 seconds or more, etc.) during which a person can recognize the object. In addition, in FIG. 2, in order to make the explanation easier to understand, the gaze points 31 to 34 are illustrated on the scenery in front of the vehicle seen through the windshield 1, but in reality, the gaze points 31 to 34 are illustrated on the scenery. It is specified on the image data obtained by the photographing unit 14 .

取得部21bは、生成部21aで生成された注視情報を取得する。本実施形態では、注視情報を生成する生成部21aがサーバ装置20の処理部21に設けられているが、生成部21aは、車両10の処理部11に設けられてもよく、この場合、取得部21bは、車両10の処理部11に設けられた当該生成部から注視情報を取得しうる。また、取得部21bは、車両10の乗員の属性を示す属性情報、および/または、広告Sの周囲状況を示す状況情報を取得する。属性情報は、例えば、車両10の乗員の属性として、乗員の性別、年代、居住地の少なくとも1つを示す情報、および/または、車両10における各乗員の乗車位置(運転席、助手席、後部座席)を示す情報を含む。属性情報は、車両10の入力デバイスを介して乗員により入力(登録)された情報であってもよいし、車両10の購入時に車両10の所有者により登録された情報であってもよい。属性情報は、車内を撮影する車内カメラで得られた画像に対して公知の画像処理を行うことで得られた情報であってもよい。状況情報は、広告Sの周囲状況として、現在(即ち、広告Sの近傍を車両10が走行しているとき)の季節、時間帯、天候、場所の少なくとも1つを示す情報を含みうる。なお、状況情報における「場所を示す情報」は、例えば、広告Sが設置されている場所が交差点の付近であるのか、または、高速道路の付近であるのかなど、広告Sが設置されている道路の種類として理解されてもよい。 The acquisition unit 21b acquires the gaze information generated by the generation unit 21a. In the present embodiment, the generation unit 21a that generates gaze information is provided in the processing unit 21 of the server device 20, but the generation unit 21a may be provided in the processing unit 11 of the vehicle 10. In this case, the acquisition The unit 21 b can acquire gaze information from the generation unit provided in the processing unit 11 of the vehicle 10 . In addition, the acquisition unit 21b acquires attribute information indicating attributes of the occupants of the vehicle 10 and/or situation information indicating surrounding situations of the advertisement S. The attribute information is, for example, information indicating at least one of sex, age, and place of residence of the occupant as an attribute of the occupant of the vehicle 10, and/or the boarding position of each occupant in the vehicle 10 (driver's seat, passenger's seat, rear seats). The attribute information may be information input (registered) by an occupant via an input device of the vehicle 10, or may be information registered by the owner of the vehicle 10 when the vehicle 10 is purchased. The attribute information may be information obtained by performing known image processing on an image obtained by an in-vehicle camera that captures the interior of the vehicle. The situation information can include information indicating at least one of the current season, time zone, weather, and location as the circumstances surrounding the advertisement S (that is, when the vehicle 10 is running in the vicinity of the advertisement S). In addition, the "information indicating the location" in the status information is, for example, whether the location where the advertisement S is installed is near an intersection or near a highway. may be understood as a type of

判断部21cは、取得部21bで取得された注視情報に基づいて、車両10の乗員により広告Sが注視されたか否かを判断する。図2に示す例では、乗員が注視した車両周囲の対象物を示す注視点31~34のうち注視点31が広告Sに配置されており、この場合、判断部21cは、当該乗員が広告Sを注視したと判断することができる。 The determination unit 21c determines whether or not the advertisement S has been watched by the occupant of the vehicle 10 based on the gaze information acquired by the acquisition unit 21b. In the example shown in FIG. 2, the gaze point 31 among the gaze points 31 to 34 indicating the objects around the vehicle gazed at by the passenger is arranged on the advertisement S. can be determined to have been observed.

作成部21dは、判断部21cでの判断結果に基づいて、乗員の属性ごと(例えば、性別ごと、年代ごと、居住地ごと、乗車位置ごと)の広告Sの注視度を示す第1統計情報を、広告Sの効果の評価指標として作成する。また、作成部21dは、第1統計情報に加えて又は代わりに、判断部21cでの判断結果に基づいて、広告Sの周囲状況ごと(例えば、季節ごと、時間帯ごと、天候ごと、場所ごと)の広告Sの注視度を示す第2統計情報を、広告Sの効果の評価指標として作成する。作成部21dで作成された第1統計情報および第2統計情報は、広告Sを設置している事業者等に提供されてもよい。ここで、注視度は、広告Sを視認ことができる道路Rの所定エリアAを走行する車両10の総数(または乗員の総数)に対する、判断部21cで広告Sが注視されたと判断された車両10の数(または乗員の数)の比率として定義されうる。所定エリアAは、任意に設定されうるが、図3に示されるように、広告Sに向かう走行レーンのうち広告Sを視認することができる道路R上の範囲として定義されうる。 The creation unit 21d creates first statistical information indicating the attention degree of the advertisement S for each occupant attribute (for example, each sex, each age group, each place of residence, and each boarding position) based on the determination result of the determination unit 21c. , as an evaluation index of the effectiveness of the advertisement S. Further, in addition to or instead of the first statistical information, the creation unit 21d may also create information based on the determination result of the determination unit 21c for each surrounding situation of the advertisement S (for example, each season, each time zone, each weather, each location ) is created as an evaluation index of the effectiveness of the advertisement S. The first statistical information and the second statistical information created by the creation unit 21d may be provided to the business operator or the like who has installed the advertisement S. Here, the degree of gaze is the total number of vehicles 10 (or the total number of passengers) traveling in the predetermined area A of the road R where the advertisement S can be visually recognized, and the vehicles 10 determined by the determination unit 21c to have been gazed at the advertisement S. (or number of occupants). The predetermined area A can be arbitrarily set, but can be defined as a range on the road R in which the advertisement S can be visually recognized among the driving lanes toward the advertisement S, as shown in FIG.

決定部21eは、作成部21dで作成された評価指標(第1統計情報および/または第2統計情報)に応じて、広告Sに表示すべき表示内容を決定する。広告Sがデジタルサイネージである場合、決定部21eは、作成部21dで作成された評価指標に基づいて、デジタルサイネージに表示する広告内容を決定することができる。例えば、決定部21eは、作成部21dで作成された第1統計情報に基づいて、広告Sを視認することができる道路Rの所定エリアAを通る車両10において最も多い乗員の属性を決定し、複数の広告内容のうち当該属性を広告対象とする広告内容を、デジタルサイネージに表示する広告内容として決定することができる。また、決定部21eは、作成部21dで作成された第2統計情報に基づいて、広告Sの周囲状況に応じて、複数の広告内容の中からデジタルサイネージに表示する広告内容を決定することができる。 The determining unit 21e determines display content to be displayed in the advertisement S according to the evaluation index (first statistical information and/or second statistical information) created by the creating unit 21d. When the advertisement S is digital signage, the determination unit 21e can determine advertisement content to be displayed on the digital signage based on the evaluation index created by the creation unit 21d. For example, the determination unit 21e determines the attributes of the most occupants in the vehicle 10 passing through the predetermined area A of the road R on which the advertisement S can be visually recognized, based on the first statistical information created by the creation unit 21d, Among the plurality of advertisement contents, the advertisement contents whose advertisement target is the attribute can be determined as the advertisement contents to be displayed on the digital signage. Further, the determination unit 21e can determine the advertisement content to be displayed on the digital signage from among a plurality of advertisement contents according to the circumstances surrounding the advertisement S based on the second statistical information created by the creation unit 21d. can.

次に、サーバ装置20(評価装置)において統計情報を作成する方法について説明する。図4は、統計情報の作成方法を示すフローチャートである。図4に示すフローチャートは、効果評価プログラムが実行されたときにサーバ装置20の処理部21で実行されうる。なお、以下では、第1統計情報および第2統計情報の両方を作成する例を説明するが、第1統計情報および第2統計情報のいずれか一方のみが作成されてもよい。 Next, a method for creating statistical information in the server device 20 (evaluation device) will be described. FIG. 4 is a flow chart showing a method of creating statistical information. The flowchart shown in FIG. 4 can be executed by the processing unit 21 of the server device 20 when the effect evaluation program is executed. Although an example in which both the first statistical information and the second statistical information are created will be described below, only one of the first statistical information and the second statistical information may be created.

ステップS11では、処理部21は、所定エリアAを走行する車両10を特定したか否かを判断する。例えば、処理部21は、車両10の位置センサ16で検知された位置情報に基づいて、当該車両10が所定エリアAを走行しているか否かを判断することができる。所定エリアAを走行しているか否かの判断は、事前に登録されてサーバ装置20と通信可能に接続された各車両10に対して行われうる。特定エリアAを走行する車両10を特定した場合にはステップS12に進む。 In step S11, the processing unit 21 determines whether or not the vehicle 10 traveling in the predetermined area A has been identified. For example, the processing unit 21 can determine whether the vehicle 10 is traveling in the predetermined area A based on the position information detected by the position sensor 16 of the vehicle 10 . A determination as to whether or not the vehicle is traveling in the predetermined area A can be made for each vehicle 10 registered in advance and communicably connected to the server device 20 . When the vehicle 10 traveling in the specific area A is specified, the process proceeds to step S12.

ステップS12では、処理部21(取得部21b)は、ステップS11で特定された車両10(以下、特定車両10と表記することがある)についての注視情報および属性情報を取得する。取得部21bは、注視情報がサーバ装置20の生成部21aで生成された場合には当該生成部21aから注視情報を取得し、注視情報が車両10の処理部11で生成された場合には当該処理部11から注視情報を取得しうる。本ステップS12で取得される注視情報は、所定エリアAの走行中に特定車両10の撮影部14および視線センサ15で検知された結果から生成された注視情報である。また、属性情報は、前述したように、特定車両10における乗員の性別、年代、居住地の少なくとも1つを示す情報、および/または、特定車両10における各乗員の乗車位置を示す情報を含む。 In step S12, the processing unit 21 (acquisition unit 21b) acquires gaze information and attribute information about the vehicle 10 identified in step S11 (hereinafter sometimes referred to as the specific vehicle 10). The acquisition unit 21b acquires the gaze information from the generation unit 21a when the gaze information is generated by the generation unit 21a of the server device 20, and obtains the gaze information from the generation unit 21a when the gaze information is generated by the processing unit 11 of the vehicle 10. Gaze information can be obtained from the processing unit 11 . The gaze information acquired in this step S12 is gaze information generated from the results detected by the imaging unit 14 and the line-of-sight sensor 15 of the specific vehicle 10 while traveling in the predetermined area A. FIG. In addition, as described above, the attribute information includes information indicating at least one of sex, age, and place of residence of the occupants in the specific vehicle 10 and/or information indicating the boarding position of each occupant in the specific vehicle 10.

ステップS13では、処理部21(取得部21b)は、特定車両10が所定エリアAを走行しているときの広告Sの周囲状況を示す状況情報を取得する。状況情報は、前述したように、季節、時間帯、天候、場所の少なくとも1つを示す情報を含む。 In step S<b>13 , the processing unit 21 (acquisition unit 21 b ) acquires situation information indicating the circumstances surrounding the advertisement S when the specific vehicle 10 is traveling in the predetermined area A. FIG. The status information includes information indicating at least one of season, time zone, weather, and location, as described above.

ステップS14では、処理部21(判断部21c)は、ステップS12で取得された注視情報に基づいて、特定エリアAの走行中に特定車両10の乗員が広告Sを注視したか否かを判断する。例えば、前述したように、判断部21cは、ステップS12で取得された注視情報に含まれる複数の注視点のいずれかが広告Sに配置されている場合に、乗員が広告Sを注視したと判断することができる。本ステップS14は、特定車両10に複数の乗員が乗車している場合には、当該複数の乗員の各々に対して行われうる。 In step S14, the processing unit 21 (determining unit 21c) determines whether or not the occupant of the specific vehicle 10 gazed at the advertisement S while traveling in the specific area A, based on the gaze information acquired in step S12. . For example, as described above, the determination unit 21c determines that the passenger has gazed at the advertisement S when any of the plurality of gaze points included in the gaze information acquired in step S12 is arranged on the advertisement S. can do. This step S<b>14 can be performed for each of the plurality of passengers when the specific vehicle 10 has a plurality of passengers.

ステップS15では、処理部21(作成部21d)は、ステップS12で取得された属性情報とステップS14での判断結果とに基づいて、乗員の属性ごとの広告Sの注視度を示す第1統計情報を作成する。また、本ステップS15において、処理部21は、ステップS13で取得された状況情報とステップS14での判断結果とに基づいて、広告Sの周囲状況ごとの広告Sの注視度を示す第2統計情報を作成する。ここで、第1統計情報および第2統計情報の各々は、所定エリアAを走行する車両10が特定される度に更新されうる。 In step S15, the processing unit 21 (creation unit 21d) generates first statistical information indicating the attention degree of the advertisement S for each passenger attribute based on the attribute information acquired in step S12 and the determination result in step S14. to create Also, in step S15, the processing unit 21 generates second statistical information indicating the degree of attention to the advertisement S for each surrounding situation of the advertisement S based on the situation information acquired in step S13 and the determination result in step S14. to create Here, each of the first statistical information and the second statistical information can be updated each time the vehicle 10 traveling in the predetermined area A is identified.

図5は、ステップS15において作成部21dにより作成される統計情報の一例を示す図である。図5(a)は、性別および年代ごとの広告Sの注視度を示す第1統計情報を示しており、図5(b)は、乗員の乗車位置ごとの広告Sの注視度を示す第1統計情報を示している。また、図5(c)は、広告Sの周囲状況ごとの広告Sの注視度を示す第2統計情報を示している。このように作成された統計情報は、広告Sを設置している事業者等に提供されてもよいし、デジタルサイネージで構成された広告Sの広告内容を決定するために使用されてもよい。 FIG. 5 is a diagram showing an example of statistical information created by the creation unit 21d in step S15. FIG. 5(a) shows the first statistical information indicating the degree of attention to the advertisement S for each gender and age group, and FIG. 5(b) shows the first statistical information indicating the degree of attention to the advertisement S for each passenger position. Shows statistics. Moreover, FIG.5(c) has shown the 2nd statistical information which shows the degree of attention of the advertisement S for every surrounding situation of the advertisement S. FIG. The statistical information created in this way may be provided to the business operator or the like who installed the advertisement S, or may be used to determine the advertisement content of the advertisement S configured by digital signage.

上述したように、本実施形態の評価システム100(サーバ装置20)は、広告Sの近傍の道路を走行する車両10を特定し、当該車両10の乗員の属性ごとの広告Sの注視度を示す第1統計情報、および/または、広告Sの周囲状況ごとの広告Sの注視度を示す第2統計情報を作成する。このように作成された第1統計情報および/または第2統計情報により、広告Sを設置している事業者等は、当該広告Sを、どのような人(性別、年代、居住地など)が、どのような状況(季節、時間帯、天候、場所など)で注視しているのかを把握することが可能となる。 As described above, the evaluation system 100 (server device 20) of the present embodiment identifies the vehicle 10 traveling on the road near the advertisement S, and indicates the attention degree of the advertisement S for each attribute of the occupant of the vehicle 10. First statistical information and/or second statistical information indicating the degree of attention to the advertisement S for each surrounding situation of the advertisement S is created. Based on the first statistical information and/or the second statistical information created in this way, the business operator installing the advertisement S can determine what kind of person (gender, age, place of residence, etc.) , it is possible to grasp under what circumstances (season, time zone, weather, location, etc.) the user is watching.

<第2実施形態>
道路の近傍に広告(例えば看板)を設置しようとしている事業者や企業は、当該広告を設置するための複数の候補位置のうち、どの候補位置に広告Sを設置すれば多くの人に当該広告Sを注視してもらえるのかを把握することを望んでいる。そこで、第2実施形態では、道路の近傍において広告を設置する位置を評価する例について説明する。なお、第2実施形態は、第1実施形態を基本的に引き継ぐものであり、以下で説明する事項以外は第1実施形態で説明したとおりである。
<Second embodiment>
A business operator or a company that intends to install an advertisement (for example, a signboard) near a road asks which candidate positions among a plurality of candidate positions for installing the advertisement S to install the advertisement S to many people. I want to know if I can get S to look at me. Therefore, in the second embodiment, an example of evaluating a position where an advertisement is installed in the vicinity of a road will be described. The second embodiment basically inherits the first embodiment, and is the same as the first embodiment except for the items described below.

本実施形態のサーバ装置20は、道路の近傍において広告を設置する位置を評価する評価装置として機能しうる。本実施形態の場合、記憶部22には、道路の近傍において広告を設置する位置を評価するためのプログラム(以下では、位置評価プログラムと表記することがある)が格納されており、処理部21は、記憶部22に記憶された位置評価プログラムを読み出して実行しうる。位置評価プログラムは、CD-ROMやDVD等の記憶媒体に記憶され、当該記憶媒体からサーバ装置20にインストールされてもよいし、ネットワークNTWを介して外部サーバからダウンロードされてサーバ装置20にインストールされてもよい。また、本実施形態のサーバ装置20では、乗員による注視度を算出する算出部21fが処理部21に追加され、決定部21eは、算出部21fで算出された注視度に基づいて、複数の候補位置の中から広告Sを設置する位置を決定する。 The server device 20 of this embodiment can function as an evaluation device that evaluates the position where the advertisement is installed near the road. In the case of this embodiment, the storage unit 22 stores a program for evaluating the position where the advertisement is to be installed near the road (hereinafter sometimes referred to as a position evaluation program), and the processing unit 21 can read and execute the position evaluation program stored in the storage unit 22 . The position evaluation program may be stored in a storage medium such as a CD-ROM or DVD and installed in the server device 20 from the storage medium, or may be downloaded from an external server via the network NTW and installed in the server device 20. may Further, in the server device 20 of the present embodiment, a calculation unit 21f that calculates the gaze degree of the passenger is added to the processing unit 21, and the determination unit 21e selects a plurality of candidates based on the gaze degree calculated by the calculation unit 21f. A position where the advertisement S is to be installed is determined from among the positions.

算出部21fは、複数の車両10の各々について取得部21bで取得された注視情報に基づいて、複数の候補位置の各々について注視度を算出する。算出部21fは、取得部21bで取得された属性情報に更に基づいて乗員の属性ごとに注視度を算出してもよいし、取得部21bで取得された状況情報に基づいて周囲状況ごとに注視度を算出してもよい。図6は、注視度の算出を説明するための図であり、車両10の乗員から見える範囲を示している。図6では、車両10のフロントガラス1、ハンドル2、フロントピラー3、ダッシュボード4、メータパネル5、撮影部14および視線センサ15が図示されている。そして、フロントガラス1を通して見える車両前方の風景において、広告Sを設置するための複数の候補位置CP~CPと、車両10の乗員による注視点31~34とが図示されている。算出部21fは、複数の候補位置CP~CPの各々について注視点が配置されているか否かを判断することにより、各候補位置CP~CPの注視度を算出することができる。図6に示す例では、候補位置CPに注視点31が配置されており、他の候補位置CP~CPには注視点が配置されていない。ここで、1つの候補位置についての注視度は、複数の候補位置CP~CPが設定される道路Rの所定エリアを走行する車両10の総数(または乗員の総数)に対する、当該1つの候補位置に注視点を配置した車両10の数(または乗員の数)の比率として定義されうる。 The calculation unit 21f calculates the degree of gaze for each of the plurality of candidate positions based on the gaze information acquired by the acquisition unit 21b for each of the plurality of vehicles 10 . The calculation unit 21f may calculate the gaze degree for each attribute of the occupant further based on the attribute information acquired by the acquisition unit 21b, or may calculate the degree of gaze for each surrounding situation based on the situation information acquired by the acquisition unit 21b. degrees can be calculated. FIG. 6 is a diagram for explaining the calculation of the degree of gaze, and shows the range that can be seen by the occupant of the vehicle 10. As shown in FIG. FIG. 6 shows a windshield 1, a steering wheel 2, a front pillar 3, a dashboard 4, a meter panel 5, an imaging unit 14, and a line-of-sight sensor 15 of the vehicle 10. FIG. In the scenery in front of the vehicle seen through the windshield 1, a plurality of candidate positions CP 1 to CP 3 for installing the advertisement S and gaze points 31 to 34 of the occupants of the vehicle 10 are illustrated. The calculation unit 21f can calculate the gaze degree of each of the candidate positions CP 1 to CP 3 by determining whether or not the gaze point is arranged for each of the plurality of candidate positions CP 1 to CP 3 . In the example shown in FIG. 6, the point of gaze 31 is arranged at the candidate position CP 1 , and no points of gaze are arranged at the other candidate positions CP 2 to CP 3 . Here, the gaze degree for one candidate position is the total number of vehicles 10 (or the total number of passengers) traveling in a predetermined area of the road R on which a plurality of candidate positions CP 1 to CP 3 are set. It can be defined as the ratio of the number of vehicles 10 (or number of occupants) that placed the point of regard at the location.

決定部21eは、複数の候補位置CP~CPの各々について算出部21fで算出された注視度に基づいて、複数の候補位置CP~CPの中から、広告Sを設置する位置を決定する。例えば、決定部21eは、複数の候補位置CP~CPのうち算出部21fで算出された注視度が最も高い候補位置を、広告Sを設置する位置として決定することができる。また、算出部21fにおいて乗員の属性ごとに注視度が算出された場合には、決定部21eは、複数の候補位置CP~CPのうち、設置する予定の広告Sが広告対象とする属性についての注視度が最も高い候補位置を、広告Sを設置する位置として決定してもよい。 The determining unit 21e selects a position to install the advertisement S from among the plurality of candidate positions CP 1 to CP 3 based on the degree of attention calculated by the calculating unit 21f for each of the plurality of candidate positions CP 1 to CP 3 . decide. For example, the determining unit 21e can determine the candidate position with the highest degree of gaze calculated by the calculating unit 21f among the plurality of candidate positions CP 1 to CP 3 as the position where the advertisement S is to be installed. Further, when the degree of attention is calculated for each attribute of the occupant in the calculation unit 21f, the determination unit 21e determines the attribute of the advertisement S to be installed among the plurality of candidate positions CP 1 to CP 3 . A candidate position with the highest degree of attention for may be determined as the position where the advertisement S is to be installed.

次に、サーバ装置20(評価装置)において広告の設置位置を決定する方法について説明する。図7は、広告の設置位置の決定方法を示すフローチャートである。図7に示すフローチャートは、位置評価プログラムが実行されたときにサーバ装置20の処理部21で実行されうる。 Next, a method for determining an advertisement installation position in the server device 20 (evaluation device) will be described. FIG. 7 is a flow chart showing a method of determining an advertisement installation position. The flowchart shown in FIG. 7 can be executed by the processing unit 21 of the server device 20 when the position evaluation program is executed.

ステップS21では、処理部21は、複数の候補位置が設定されている道路Rの所定エリアを走行する車両10を特定したか否かを判断する。例えば、処理部21は、車両10の位置センサ16で検知された位置情報に基づいて、当該車両10が所定エリアを走行しているか否かを判断することができる。所定エリアを走行しているか否かの判断は、事前に登録されてサーバ装置20と通信可能に接続された各車両10に対して行われうる。特定エリアを走行する車両10を特定した場合にはステップS22に進む。 In step S21, the processing unit 21 determines whether or not the vehicle 10 traveling in a predetermined area of the road R on which a plurality of candidate positions are set has been identified. For example, the processing unit 21 can determine whether the vehicle 10 is traveling in a predetermined area based on position information detected by the position sensor 16 of the vehicle 10 . A determination as to whether or not the vehicle is traveling in a predetermined area can be made for each vehicle 10 registered in advance and communicably connected to the server device 20 . When the vehicle 10 traveling in the specific area is identified, the process proceeds to step S22.

ステップS22では、処理部21(取得部21b)は、ステップS21で特定された車両10(以下、特定車両10と表記することがある)についての注視情報を取得する。取得部21bは、注視情報がサーバ装置20の生成部21aで生成された場合には当該生成部21aから注視情報を取得し、注視情報が車両10の処理部11で生成された場合には当該処理部11から注視情報を取得しうる。本ステップS22で取得される注視情報は、所定エリアの走行中に特定車両10の撮影部14および視線センサ15で検知された結果から生成された注視情報である。また、取得部21bは、後のステップS24において乗員の属性ごとに注視度を算出する場合には、本ステップS22において特定車両10から属性情報を取得してもよいし、後のステップS24において周囲状況ごとに注視度を算出する場合には、本ステップS22において特定車両10から状況情報を取得してもよい。 In step S22, the processing unit 21 (acquisition unit 21b) acquires gaze information about the vehicle 10 identified in step S21 (hereinafter sometimes referred to as the specific vehicle 10). The acquisition unit 21b acquires the gaze information from the generation unit 21a when the gaze information is generated by the generation unit 21a of the server device 20, and obtains the gaze information from the generation unit 21a when the gaze information is generated by the processing unit 11 of the vehicle 10. Gaze information can be obtained from the processing unit 11 . The gaze information acquired in this step S22 is gaze information generated from the results detected by the imaging unit 14 and the line-of-sight sensor 15 of the specific vehicle 10 while traveling in a predetermined area. Further, when the degree of gaze is calculated for each attribute of the occupant in later step S24, the acquiring unit 21b may acquire the attribute information from the specific vehicle 10 in this step S22, or may acquire the attribute information from the specific vehicle 10 in later step S24. When calculating the gaze degree for each situation, the situation information may be acquired from the specific vehicle 10 in step S22.

ステップS23では、処理部21は、取得した注視情報の数(即ち、注視情報を取得した車両または乗員の数)が閾値以上か否かを判断する。閾値は、任意に設定されうるが、例えば、後のステップS24において注視度を精度よく算出することができる注視情報の数に設定されうる。取得した注視情報の数が閾値以上である場合にはステップS24に進み、閾値未満である場合にはステップS21に戻る。 In step S23, the processing unit 21 determines whether or not the number of acquired gaze information (that is, the number of vehicles or occupants acquiring gaze information) is equal to or greater than a threshold. The threshold can be set arbitrarily, but can be set, for example, to the number of pieces of attention information that allows the degree of attention to be calculated accurately in step S24 later. If the number of acquired gaze information is equal to or greater than the threshold, the process proceeds to step S24, and if the number is less than the threshold, the process returns to step S21.

ステップS24では、処理部21(算出部21f)は、複数の車両10(乗員)の各々について取得した注視情報に基づいて、複数の候補位置の各々についての注視度を算出する。算出部21fは、ステップS22で属性情報が取得された場合、複数の候補位置の各々について乗員の属性ごとに注視度を算出してもよい。また、ステップS22で状況情報が取得された場合、複数の候補位置の各々について周囲状況ごとに注視度を算出してもよい。 In step S24, the processing unit 21 (calculating unit 21f) calculates the gaze degree for each of the plurality of candidate positions based on the gaze information acquired for each of the plurality of vehicles 10 (passengers). When the attribute information is acquired in step S22, the calculation unit 21f may calculate the gaze degree for each of the plurality of candidate positions for each occupant attribute. Further, when the situation information is acquired in step S22, the gaze degree may be calculated for each of the plurality of candidate positions for each surrounding situation.

ステップS25では、処理部21(決定部21e)は、ステップS22で各候補位置について算出された注視度に基づいて、複数の候補位置の中から、広告Sを配置する位置を決定する。例えば、決定部21eは、前述したように、複数の候補位置のうち注視度が最も高い候補位置を、広告Sを設置する位置として決定しうる。乗員の属性ごとに注視度が算出された場合には、広告Sが広告対象とする属性についての注視度が最も高い候補位置を、広告Sを設置する位置として決定してもよい。 In step S25, the processing unit 21 (determination unit 21e) determines the position where the advertisement S is to be placed from among the plurality of candidate positions based on the degree of attention calculated for each candidate position in step S22. For example, the determining unit 21e can determine the candidate position with the highest degree of attention among the plurality of candidate positions as the position at which the advertisement S is to be installed, as described above. When the degree of attention is calculated for each attribute of the occupant, the candidate position with the highest degree of attention for the attribute targeted by the advertisement S may be determined as the position where the advertisement S is installed.

上述したように、本実施形態の評価システム100(サーバ装置20)は、広告Sを設置するための複数の候補位置の各々について注視度を算出し、当該注視度に基づいて、複数の候補位置の中から、広告Sを設置する位置を決定する。これにより、広告Sを設置しようとしている事業者等は、当該広告を設置するための複数の候補位置のうち、どの候補位置に広告Sを設置すれば多くの人に当該広告Sを注視してもらえるのかを把握することが可能となる。 As described above, the evaluation system 100 (server device 20) of the present embodiment calculates the degree of attention for each of the plurality of candidate positions for installing the advertisement S, and based on the degree of attention, the plurality of candidate positions The position where the advertisement S is installed is determined from among. As a result, the business operator or the like who intends to install the advertisement S can find out which of the candidate positions for installing the advertisement S should install the advertisement S at which many people will pay attention to the advertisement S. It will be possible to know what you will get.

<実施形態のまとめ>
1.上記実施形態の評価装置は、
道路(例えばR)の近傍に設置された広告(例えばS)の効果を評価する評価装置(例えば20)であって、
前記道路を走行する複数の車両(例えば10)の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、乗員の属性を示す属性情報とを取得する取得手段(例えば21b)と、
前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断手段(例えば21c)と、
前記判断手段での判断結果に基づいて、乗員の属性ごとの前記広告の注視度を示す統計情報を、前記広告の効果の評価指標として作成する作成手段(例えば21d)と、
を備える。
この実施形態によれば、広告を設置している事業者等は、作成された統計情報を参照することにより、当該広告を、どのような人が注視しているのかを把握することが可能となる。
<Summary of embodiment>
1. The evaluation device of the above embodiment is
An evaluation device (e.g. 20) for evaluating the effect of an advertisement (e.g. S) installed near a road (e.g. R),
Acquisition means (e.g. 21b) for acquiring, for each of the plurality of vehicles (e.g. 10) traveling on the road, gaze information indicating objects around the vehicle gazed at by the occupant and attribute information indicating attributes of the occupant;
determination means (e.g. 21c) for determining whether or not the advertisement has been gazed at by each passenger of the plurality of vehicles based on the gaze information acquired by the acquisition means;
creating means (e.g., 21d) for creating statistical information indicating the degree of attention of the advertisement for each occupant's attribute as an evaluation index of the effect of the advertisement, based on the determination result of the determination means;
Prepare.
According to this embodiment, by referring to the created statistical information, the business operator or the like who has installed the advertisement can grasp what kind of people are watching the advertisement. Become.

2.上記実施形態において、
前記属性情報は、乗員の属性として、乗員の性別、年代、居住地の少なくとも1つを示す情報を含む。
この実施形態によれば、乗員の性別ごと、年代ごと、および/または居住地ごとに、広告の注視度を示す統計情報を作成することができるため、事業者等は、当該広告を、どのような性別、年代、および/または居住地の人が注視しているのかを把握することが可能となる。
2. In the above embodiment,
The attribute information includes information indicating at least one of sex, age, and place of residence of the occupant as attributes of the occupant.
According to this embodiment, it is possible to create statistical information indicating the degree of attention paid to an advertisement for each sex, age, and/or place of residence of each occupant. It becomes possible to grasp whether people of various genders, ages, and/or residences are watching.

3.上記実施形態において、
前記属性情報は、車両における乗員の乗車位置を示す情報を含む。
この実施形態によれば、事業者は、広告を、車両におけるどの乗車位置の人が注視しているのかを把握することが可能となる。
3. In the above embodiment,
The attribute information includes information indicating the passenger's boarding position in the vehicle.
According to this embodiment, it is possible for the business operator to grasp which boarding position in the vehicle the person is watching the advertisement.

4.上記実施形態において、
前記取得手段は、前記広告の周囲状況を示す状況情報を取得し、
前記作成手段は、前記広告の周囲状況ごとの前記広告の注視度を示す第2統計情報を、前記評価指標として更に作成する。
この実施形態によれば、広告を設置している事業者等は、作成された統計情報を参照することにより、当該広告がどのような状況で注視されているのかを把握することが可能となる。
4. In the above embodiment,
The acquisition means acquires situation information indicating a surrounding situation of the advertisement,
The creating means further creates, as the evaluation index, second statistical information indicating the degree of attention of the advertisement for each surrounding situation of the advertisement.
According to this embodiment, by referring to the created statistical information, it becomes possible for the business operator or the like who has installed the advertisement to understand under what circumstances the advertisement is being watched. .

5.上記実施形態の評価装置は、
道路(例えばR)の近傍に設置された広告(例えばS)の効果を評価する評価装置(例えば20)であって、
前記道路を走行する複数の車両(例えば10)の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、前記広告の周囲状況を示す状況情報とを取得する取得手段(例えば21b)と、
前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断手段(例えば21c)と、
前記判断手段での判断結果に基づいて、前記広告の周囲状況ごとの前記広告の注視度を示す第2統計情報を、前記広告の効果の評価指標として作成する作成手段(例えば21d)と、
を備える。
この実施形態によれば、広告を設置している事業者等は、作成された統計情報を参照することにより、当該広告がどのような状況で注視されているのかを把握することが可能となる。
5. The evaluation device of the above embodiment is
An evaluation device (e.g. 20) for evaluating the effect of an advertisement (e.g. S) installed near a road (e.g. R),
Acquisition means (e.g. 21b) for acquiring, for each of the plurality of vehicles (e.g. 10) traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant and situation information indicating a surrounding situation of the advertisement. and,
determination means (e.g. 21c) for determining whether or not the advertisement has been gazed at by each passenger of the plurality of vehicles based on the gaze information acquired by the acquisition means;
creating means (for example, 21d) for creating, as an evaluation index of the effectiveness of the advertisement, second statistical information indicating the degree of attention to the advertisement for each surrounding situation of the advertisement, based on the determination result of the determination means;
Prepare.
According to this embodiment, by referring to the created statistical information, it becomes possible for the business operator or the like who has installed the advertisement to understand under what circumstances the advertisement is being watched. .

6.上記実施形態において、
前記状況情報は、前記広告の周囲状況として、季節、時間帯、天候、場所の少なくとも1つを示す情報を含む。
この実施形態によれば、季節ごと、時間帯ごと、天候ごと、および/または場所ごとに、広告の注視度を示す統計情報を作成することができるため、事業者等は、当該広告がどのような季節、時間帯、天候、および/または場所で注視されているのかを把握することが可能となる。
6. In the above embodiment,
The situation information includes information indicating at least one of season, time zone, weather, and location as the surrounding situation of the advertisement.
According to this embodiment, it is possible to create statistical information that indicates the degree of attention paid to an advertisement for each season, time period, weather, and/or location. It becomes possible to grasp whether or not it is watched in various seasons, time zones, weather, and/or places.

7.上記実施形態において、
前記広告は、デジタルサイネージであり、
前記作成手段で作成された前記評価指標に応じて、前記デジタルサイネージに表示する表示内容を決定する決定手段(例えば21e)を更に備える。
この実施形態によれば、乗員の属性および/または広告の周囲状況に応じて、多くの人が注視するように、デジタルサイネージの表示内容を適切に変更することができる。
7. In the above embodiment,
The advertisement is digital signage,
It further comprises a determining means (for example, 21e) for determining display contents to be displayed on the digital signage according to the evaluation index created by the creating means.
According to this embodiment, it is possible to appropriately change the display content of the digital signage according to the attributes of the occupants and/or the circumstances surrounding the advertisement so that many people will pay attention to it.

8.上記実施形態において、
前記複数の車両の各々は、乗員の視線を検知するセンサ(例えば14)と、車両周囲を撮影するカメラ(例えば15)とを有し、
前記評価装置は、前記センサで検知された乗員の視線と前記カメラで得られた車両周囲の画像とに基づいて前記注視情報を生成する生成手段(例えば21a)を更に含み、
前記取得手段は、前記生成手段から前記注視情報を取得する。
この実施形態によれば、車両で注視情報が生成されない場合に、車両で得られた乗員の視線と車両周囲の画像に基づいて、評価装置(サーバ装置)で注視情報を生成することができる。
8. In the above embodiment,
Each of the plurality of vehicles has a sensor (e.g. 14) that detects the line of sight of an occupant and a camera (e.g. 15) that captures the surroundings of the vehicle,
The evaluation device further includes generating means (for example, 21a) for generating the gaze information based on the line of sight of the occupant detected by the sensor and the image of the surroundings of the vehicle obtained by the camera,
The acquisition means acquires the gaze information from the generation means.
According to this embodiment, when gaze information is not generated in the vehicle, gaze information can be generated by the evaluation device (server device) based on the line of sight of the occupant and the image around the vehicle obtained in the vehicle.

9.上記実施形態において、
前記複数の車両の各々は、乗員の視線を検知するセンサ(例えば14)と、車両周囲を撮影するカメラ(例えば15)とを有するとともに、前記センサで検知された乗員の視線と前記カメラで得られた車両周囲の画像とに基づいて前記注視情報を生成し、
前記取得手段は、前記複数の車両の各々から前記注視情報を取得する。
この実施形態によれば、車両で得られた乗員の視線と車両周囲の画像に基づいて車両で注視情報が生成される場合において、当該注視情報を評価装置(サーバ装置)で新たに作成することなく取得することができる。
9. In the above embodiment,
Each of the plurality of vehicles has a sensor (for example, 14) that detects the line of sight of an occupant and a camera (for example, 15) that captures the surroundings of the vehicle. generating the gaze information based on the captured image of the surroundings of the vehicle;
The acquiring means acquires the gaze information from each of the plurality of vehicles.
According to this embodiment, when gaze information is generated in the vehicle based on the line of sight of the occupant and the image of the surroundings of the vehicle, the gaze information can be newly created by the evaluation device (server device). can be obtained without

10.上記実施形態の評価装置は、
道路(例えばR)の近傍において広告(例えばS)を設置する位置を評価する評価装置(例えば20)であって、
前記道路を走行する複数の車両(例えば10)の各々について、乗員が注視した車両周囲の対象物を示す注視情報を取得する取得手段(例えば21b)と、
前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員による注視度を、前記広告を設置するための複数の候補位置(例えばCP~CP)の各々について算出する算出手段(例えば21f)と、
前記算出手段で算出された前記注視度に基づいて、前記複数の候補位置の中から、前記広告を設置する位置を決定する決定手段(例えば21e)と、
を備える。
この実施形態によれば、広告を設置しようとしている事業者等は、当該広告を設置するための複数の候補位置のうち、どの候補位置に広告を設置すれば多くの人に当該広告を注視してもらえるのかを把握することが可能となる。
10. The evaluation device of the above embodiment is
An evaluation device (e.g. 20) for evaluating the position of placing an advertisement (e.g. S) in the vicinity of a road (e.g. R),
Acquisition means (e.g. 21b) for acquiring, for each of the plurality of vehicles (e.g. 10) traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant;
Based on the gaze information acquired by the acquisition means, the degree of gaze by each passenger of the plurality of vehicles is calculated for each of a plurality of candidate positions (for example, CP 1 to CP 3 ) for installing the advertisement. A calculating means (for example, 21f) for
determination means (e.g., 21e) for determining a position at which the advertisement is to be installed, from among the plurality of candidate positions, based on the degree of attention calculated by the calculation means;
Prepare.
According to this embodiment, a business operator, etc., who intends to install an advertisement, can install the advertisement in which candidate position among a plurality of candidate positions for installing the advertisement so that many people will pay attention to the advertisement. It will be possible to grasp whether the

本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。 The present invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the present invention.

10:車両、11:処理部、14:撮影部(カメラ)、15:視線センサ、16:位置センサ、20:サーバ装置(評価装置)、21:処理部、21a:生成部、21b:取得部、21c:判断部、21d:作成部、21e:決定部、21f:算出部、100:評価システム 10: vehicle, 11: processing unit, 14: imaging unit (camera), 15: line-of-sight sensor, 16: position sensor, 20: server device (evaluation device), 21: processing unit, 21a: generation unit, 21b: acquisition unit , 21c: determination unit, 21d: creation unit, 21e: determination unit, 21f: calculation unit, 100: evaluation system

Claims (14)

道路の近傍に設置された広告の効果を評価する評価装置であって、
前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、乗員の属性を示す属性情報とを取得する取得手段と、
前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断手段と、
前記判断手段での判断結果に基づいて、乗員の属性ごとの前記広告の注視度を示す統計情報を、前記広告の効果の評価指標として作成する作成手段と、
を備えることを特徴とする評価装置。
An evaluation device for evaluating the effectiveness of advertisements installed near a road,
Acquisition means for acquiring, for each of the plurality of vehicles traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant and attribute information indicating an attribute of the occupant;
determination means for determining whether or not the advertisement has been gazed at by occupants of the plurality of vehicles based on the gaze information acquired by the acquisition means;
creation means for creating, as an evaluation index of the effect of the advertisement, statistical information indicating the degree of attention to the advertisement for each passenger attribute based on the determination result of the determination means;
An evaluation device comprising:
前記属性情報は、乗員の属性として、乗員の性別、年代、居住地の少なくとも1つを示す情報を含む、ことを特徴とする請求項1に記載の評価装置。 2. The evaluation apparatus according to claim 1, wherein the attribute information includes information indicating at least one of sex, age, and place of residence of the occupant as attributes of the occupant. 前記属性情報は、車両における乗員の乗車位置を示す情報を含む、ことを特徴とする請求項1又は2に記載の評価装置。 3. The evaluation apparatus according to claim 1, wherein said attribute information includes information indicating a passenger's boarding position in the vehicle. 前記取得手段は、前記広告の周囲状況を示す状況情報を取得し、
前記作成手段は、前記広告の周囲状況ごとの前記広告の注視度を示す第2統計情報を、前記評価指標として更に作成する、ことを特徴とする請求項1乃至3のいずれか1項に記載の評価装置。
The acquisition means acquires situation information indicating a surrounding situation of the advertisement,
4. The method according to any one of claims 1 to 3, wherein said creating means further creates, as said evaluation index, second statistical information indicating the degree of attention of said advertisement for each surrounding situation of said advertisement. evaluation equipment.
道路の近傍に設置された広告の効果を評価する評価装置であって、
前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、前記広告の周囲状況を示す状況情報とを取得する取得手段と、
前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断手段と、
前記判断手段での判断結果に基づいて、前記広告の周囲状況ごとの前記広告の注視度を示す第2統計情報を、前記広告の効果の評価指標として作成する作成手段と、
を備えることを特徴とする評価装置。
An evaluation device for evaluating the effectiveness of advertisements installed near a road,
acquisition means for acquiring, for each of the plurality of vehicles traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant and situation information indicating a surrounding situation of the advertisement;
determination means for determining whether or not the advertisement has been gazed at by occupants of the plurality of vehicles based on the gaze information acquired by the acquisition means;
creating means for creating, as an evaluation index of the effectiveness of the advertisement, second statistical information indicating the degree of attention to the advertisement for each surrounding situation of the advertisement based on the determination result of the determination means;
An evaluation device comprising:
前記状況情報は、前記広告の周囲状況として、季節、時間帯、天候、場所の少なくとも1つを示す情報を含む、ことを特徴とする請求項4又は5に記載の評価装置。 6. The evaluation apparatus according to claim 4, wherein said situation information includes information indicating at least one of season, time period, weather, and place as surrounding situation of said advertisement. 前記広告は、デジタルサイネージであり、
前記作成手段で作成された前記評価指標に応じて、前記デジタルサイネージに表示する表示内容を決定する決定手段を更に備える、ことを特徴とする請求項1乃至6のいずれか1項に記載の評価装置。
The advertisement is digital signage,
7. The evaluation according to any one of claims 1 to 6, further comprising determining means for determining display content to be displayed on said digital signage according to said evaluation index created by said creating means. Device.
前記複数の車両の各々は、乗員の視線を検知するセンサと、車両周囲を撮影するカメラとを有し、
前記評価装置は、前記センサで検知された乗員の視線と前記カメラで得られた車両周囲の画像とに基づいて前記注視情報を生成する生成手段を更に含み、
前記取得手段は、前記生成手段から前記注視情報を取得する、ことを特徴とする請求項1乃至7のいずれか1項に記載の評価装置。
Each of the plurality of vehicles has a sensor that detects the line of sight of an occupant and a camera that captures the surroundings of the vehicle,
The evaluation device further includes generating means for generating the gaze information based on the occupant's line of sight detected by the sensor and the image of the surroundings of the vehicle obtained by the camera,
8. The evaluation apparatus according to claim 1, wherein said acquisition means acquires said gaze information from said generation means.
前記複数の車両の各々は、乗員の視線を検知するセンサと、車両周囲を撮影するカメラとを有するとともに、前記センサで検知された乗員の視線と前記カメラで得られた車両周囲の画像とに基づいて前記注視情報を生成し、
前記取得手段は、前記複数の車両の各々から前記注視情報を取得する、ことを特徴とする請求項1乃至7のいずれか1項に記載の評価装置。
Each of the plurality of vehicles has a sensor that detects the line of sight of an occupant and a camera that captures an image of the surroundings of the vehicle. generating the gaze information based on;
8. The evaluation apparatus according to any one of claims 1 to 7, wherein said acquisition means acquires said gaze information from each of said plurality of vehicles.
道路の近傍に設置された広告の効果を評価する評価方法であって、
前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、乗員の属性を示す属性情報とを取得する取得工程と、
前記取得工程で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断工程と、
前記判断工程での判断結果に基づいて、乗員の属性ごとの前記広告の注視度を示す統計情報を、前記広告の効果の評価指標として作成する作成工程と、
を含むことを特徴とする評価方法。
An evaluation method for evaluating the effectiveness of an advertisement placed near a road,
an acquisition step of acquiring, for each of the plurality of vehicles traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant and attribute information indicating an attribute of the occupant;
a determination step of determining whether or not the advertisement has been gazed at by each occupant of the plurality of vehicles based on the gaze information acquired in the acquisition step;
a creation step of creating, as an evaluation index of the effect of the advertisement, statistical information indicating the degree of attention to the advertisement for each passenger attribute based on the determination result of the determination step;
An evaluation method characterized by comprising
道路の近傍に設置された広告の効果を評価する評価方法であって、
前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報と、前記広告の周囲状況を示す状況情報とを取得する取得工程と、
前記取得工程で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員により前記広告が注視されたか否かを判断する判断工程と、
前記判断工程での判断結果に基づいて、前記広告の周囲状況ごとの前記広告の注視度を示す第2統計情報を、前記広告の効果の評価指標として作成する作成工程と、
を含むことを特徴とする評価方法。
An evaluation method for evaluating the effectiveness of an advertisement placed near a road,
an acquisition step of acquiring, for each of the plurality of vehicles traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant and situation information indicating a surrounding situation of the advertisement;
a determination step of determining whether or not the advertisement has been gazed at by each occupant of the plurality of vehicles based on the gaze information acquired in the acquisition step;
a creation step of creating, as an evaluation index of the effect of the advertisement, second statistical information indicating the degree of attention of the advertisement for each surrounding situation of the advertisement based on the determination result of the determination step;
An evaluation method characterized by comprising
道路の近傍において広告を設置する位置を評価する評価装置であって、
前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報を取得する取得手段と、
前記取得手段で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員による注視度を、前記広告を設置するための複数の候補位置の各々について算出する算出手段と、
前記算出手段で算出された前記注視度に基づいて、前記複数の候補位置の中から、前記広告を設置する位置を決定する決定手段と、
を備えることを特徴とする評価装置。
An evaluation device for evaluating a position where an advertisement is installed in the vicinity of a road,
acquisition means for acquiring, for each of the plurality of vehicles traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant;
calculation means for calculating, based on the gaze information acquired by the acquisition means, the gaze degree of each passenger of the plurality of vehicles for each of a plurality of candidate positions for installing the advertisement;
determining means for determining a position where the advertisement is to be installed from among the plurality of candidate positions based on the degree of attention calculated by the calculating means;
An evaluation device comprising:
道路の近傍において広告を設置する位置を評価する評価方法であって、
前記道路を走行する複数の車両の各々について、乗員が注視した車両周囲の対象物を示す注視情報を取得する取得工程と、
前記取得工程で取得された前記注視情報に基づいて、前記複数の車両の各々の乗員による注視度を、前記広告を設置するための複数の候補位置の各々について算出する算出工程と、
前記算出工程で算出された前記注視度に基づいて、前記複数の候補位置の中から、前記広告を設置する位置を決定する決定工程と、
を含むことを特徴とする評価方法。
An evaluation method for evaluating a position where an advertisement is installed in the vicinity of a road,
an acquisition step of acquiring, for each of the plurality of vehicles traveling on the road, gaze information indicating an object around the vehicle gazed at by an occupant;
a calculation step of calculating, based on the gaze information acquired in the acquisition step, the gaze degree of each passenger of the plurality of vehicles for each of a plurality of candidate positions for installing the advertisement;
a determination step of determining, from among the plurality of candidate positions, a position where the advertisement is to be installed, based on the degree of attention calculated in the calculation step;
An evaluation method characterized by comprising
請求項10、11及び13のいずれか1項に記載の評価方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the evaluation method according to any one of claims 10, 11 and 13.
JP2021196431A 2021-12-02 2021-12-02 Evaluation device, evaluation method and program Pending JP2023082568A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021196431A JP2023082568A (en) 2021-12-02 2021-12-02 Evaluation device, evaluation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021196431A JP2023082568A (en) 2021-12-02 2021-12-02 Evaluation device, evaluation method and program

Publications (1)

Publication Number Publication Date
JP2023082568A true JP2023082568A (en) 2023-06-14

Family

ID=86728587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021196431A Pending JP2023082568A (en) 2021-12-02 2021-12-02 Evaluation device, evaluation method and program

Country Status (1)

Country Link
JP (1) JP2023082568A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7417686B2 (en) 2021-10-08 2024-01-18 ウーブン・バイ・トヨタ株式会社 Vehicle occupant gaze detection system and usage method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7417686B2 (en) 2021-10-08 2024-01-18 ウーブン・バイ・トヨタ株式会社 Vehicle occupant gaze detection system and usage method

Similar Documents

Publication Publication Date Title
JP6310531B2 (en) System and method for providing augmented virtual reality content in an autonomous vehicle
US20190394097A1 (en) Vehicle application store for console
US9098367B2 (en) Self-configuring vehicle console application store
CN110942332B (en) Information processing apparatus and information processing method
US20170032673A1 (en) Driver behavior sharing
US20200104881A1 (en) Vehicle control system, vehicle control method, program, and vehicle management system
US20190340448A1 (en) Event prediction system, event prediction method, program, and recording medium having same recorded therein
JP2023074043A (en) Information processing method, information processing device, and program
JP2009098900A (en) Looking aside status determination device
US8958978B2 (en) Method and device for monitoring a vehicle occupant
JP7155750B2 (en) Information systems and programs
US20150317523A1 (en) Vehicle-related video processing system
US20230332915A1 (en) Navigation device linked to vehicle, ar platform apparatus, ar platform system comprising same, and operation method
US20180186288A1 (en) Digital License Plate With Camera System
JP2022511802A (en) Adaptive content filtering systems and methods
JP2017194948A (en) Information presentation control device, automatic operation vehicle, and automatic operation vehicle supporting system
KR20190114854A (en) Method, apparatus and computer readable storage medium having instructions for providing contents for display to an occupant of a motor vehicle
US9194710B1 (en) Parked car location
US20230391353A1 (en) Augmented reality notification system
JP6930274B2 (en) Digital signage control device, digital signage control method, program, recording medium
JP2023082568A (en) Evaluation device, evaluation method and program
US20200377004A1 (en) Vehicle imaging and advertising using an exterior ground projection system
Kim et al. The usefulness of augmenting reality on vehicle head-up display
US11654921B2 (en) Systems and methods for limiting driver distraction
US20230116185A1 (en) User preview of rideshare service vehicle surroundings