JP2020140456A - Advertisement result evaluation method, device and program - Google Patents

Advertisement result evaluation method, device and program Download PDF

Info

Publication number
JP2020140456A
JP2020140456A JP2019035648A JP2019035648A JP2020140456A JP 2020140456 A JP2020140456 A JP 2020140456A JP 2019035648 A JP2019035648 A JP 2019035648A JP 2019035648 A JP2019035648 A JP 2019035648A JP 2020140456 A JP2020140456 A JP 2020140456A
Authority
JP
Japan
Prior art keywords
user
context
reaction
evaluation
advertising performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019035648A
Other languages
Japanese (ja)
Other versions
JP7084887B2 (en
Inventor
直也 東條
Naoya Tojo
直也 東條
統 新井田
Osamu Araida
統 新井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019035648A priority Critical patent/JP7084887B2/en
Publication of JP2020140456A publication Critical patent/JP2020140456A/en
Application granted granted Critical
Publication of JP7084887B2 publication Critical patent/JP7084887B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To enable quantitative evaluation based on user's recognition capacity even though it is difficult to evaluate an advertisement result on the basis of perception and response of the user.SOLUTION: An advertisement result evaluation device 1 includes a user state identification part 10 for identifying a user's state, and an advertisement result determination part 11 for determining an advertisement result on the basis of an identification result of the user state, and further includes various sensors such as a camera 12, a microphone 13 and a human detection sensor 14. The user state identification part 10 includes a recognition capacity evaluation part 103. The recognition capacity evaluation part 103 includes a recognition capacity prediction model 103a, a context table 103b and a recognition capacity evaluation value calculation part 103c, estimates a context of the user by applying each sensor output to a context prediction model 102a, and acquires a recognition capacity of the user by applying an estimation result of the context to the context table 103b. The advertisement result determination part 11 evaluates an advertisement result on the basis of the user's recognition capacity.SELECTED DRAWING: Figure 1

Description

本発明は、広告成果評価方法、装置およびプログラムに係り、特に、広告視聴ユーザの認知容量に基づいて広告成果を評価する広告成果評価方法、装置およびプログラムに関する。 The present invention relates to an advertisement performance evaluation method, a device and a program, and more particularly to an advertisement performance evaluation method, a device and a program for evaluating an advertisement performance based on the cognitive capacity of an advertisement viewing user.

テレビやラジオを通して配信される広告の成果を広告視聴ユーザの視覚の状況や反応の程度に応じて評価し、広告報酬を決定するシステムが知られている。特許文献1には、ユーザのバイタルデータを収集し、配信された広告に対してユーザが反応を示したか否かに基づいて、広告の対象となった商品やサービスの将来の売り上げを予測する技術が開示されている。 There is known a system that evaluates the results of advertisements delivered through television and radio according to the visual condition and the degree of reaction of the advertisement viewing user, and determines the advertisement reward. Patent Document 1 is a technique for collecting vital data of a user and predicting the future sales of the product or service targeted for the advertisement based on whether or not the user responds to the delivered advertisement. Is disclosed.

特許第6434177号Patent No. 6434177

上田健揮, et al. "ユーザ位置情報と家電消費電力に基づいた宅内生活行動認識システム." 情報 処理学会論文誌 57.2 (2016): 416-425.Kenki Ueda, et al. "Home life behavior recognition system based on user location information and power consumption of home appliances." Information Processing Society of Japan Journal 57.2 (2016): 416-425. Yacoob, Yaser, and Michael J. Black. "Parameterized modeling and recognition of activities." Computer Vision and Image Understanding 73.2 (1999): 232-247.Yacoob, Yaser, and Michael J. Black. "Parameterized modeling and recognition of activities." Computer Vision and Image Understanding 73.2 (1999): 232-247. Jianming Wu, Toshiyuki Hagiya, Yujin Tang, and Keiichiro Hoashi. 2017. Effects of objective feedback of facial expression recognition during video support chat. In Proc. MUM '17. 293-297.Jianming Wu, Toshiyuki Hagiya, Yujin Tang, and Keiichiro Hoashi. 2017. Effects of objective feedback of facial expression recognition during video support chat. In Proc. MUM '17. 293-297.

ユーザの反応をバイタルデータに基づいて取得するためには、各ユーザにバイタルデータを取得する専用のセンサを装着しなければならない。このため、ユーザに負担を強いることになり、また、大量の情報を簡易的に取得することが難しい。加えて、ユーザの知覚や反応のみからは、広告成果を正確に評価できない場合がある。 In order to acquire the user's reaction based on the vital data, each user must be equipped with a dedicated sensor for acquiring the vital data. For this reason, it imposes a burden on the user, and it is difficult to easily acquire a large amount of information. In addition, it may not be possible to accurately evaluate advertising performance based solely on user perception and reaction.

図10は、ユーザの広告に対する知覚および反応の程度と当該ユーザに対する広告成果との関係を模式的に示した図である。 FIG. 10 is a diagram schematically showing the relationship between the degree of perception and reaction of a user to an advertisement and the advertisement result for the user.

ユーザが広告に対して明確な反応を示したと認められる場合は十分な広告成果を期待できる一方、明確な反応を示したと認められない場合でも広告成果を期待できる場合がある。また、ユーザが広告を知覚できていないと認められる場合は広告成果を期待できない一方、知覚できていると認められる場合でも、それだけでは十分な広告成果を期待できるとは判断できない。 Sufficient advertising results can be expected if the user is recognized as having a clear reaction to the advertisement, while advertising results may be expected even if the user is not recognized as having a clear reaction. In addition, if it is recognized that the user cannot perceive the advertisement, the advertising result cannot be expected, but even if it is recognized that the user can perceive the advertisement, it cannot be judged that sufficient advertising result can be expected by itself.

このように、広告成果をユーザの反応や知覚のみで評価すると、十分な広告成果を期待できる状況や広告成果を全く期待できない状況は評価できるが、その中間すなわちユーザが広告を知覚できる状況にあるが明確な反応を示していない場合などに広告成果を定量的に評価することができなかった。 In this way, if the advertising results are evaluated only by the user's reaction and perception, the situation where sufficient advertising results can be expected and the situation where the advertising results cannot be expected at all can be evaluated, but in the middle, that is, the situation where the user can perceive the advertisement. Could not quantitatively evaluate the advertising results, such as when there was no clear response.

本発明の目的は、上記の技術課題を解決し、広告成果をユーザの知覚や反応に基づいて評価することが難しい場合でもユーザの認知容量の評価値に基づいて定量的に評価できる広告成果評価方法、装置およびプログラムを提供することにある。 An object of the present invention is to solve the above technical problems, and even when it is difficult to evaluate the advertising performance based on the user's perception and reaction, the advertising performance evaluation can be quantitatively evaluated based on the evaluation value of the user's cognitive capacity. To provide methods, equipment and programs.

上記の目的を達成するために、本発明は、ユーザに対する広告の成果を評価する広告成果評価方法、装置およびプログラムにおいて、以下の手段を講じた点に特徴がある。 In order to achieve the above object, the present invention is characterized in that the following means are taken in the advertising performance evaluation method, device and program for evaluating the performance of the advertisement to the user.

(1) ユーザの認知容量の評価値に基づいて広告成果を評価するようにした。 (1) Advertisement performance is evaluated based on the evaluation value of the user's cognitive capacity.

(2) ユーザのコンテキストの推定結果に基づいて認知容量を評価できるようにした。 (2) The cognitive capacity can be evaluated based on the estimation result of the user's context.

(3) ユーザの状況を検知するセンサの出力信号に基づいてコンテキストを推定するコンテキスト予測モデルを用意し、ユーザの状況を検知するセンサの出力信号をコンテキスト予測モデルに適用してコンテキストを推定するようにした。 (3) Prepare a context prediction model that estimates the context based on the output signal of the sensor that detects the user's situation, and apply the output signal of the sensor that detects the user's situation to the context prediction model to estimate the context. I made it.

(4) ユーザの知覚を評価して知覚評価値を求める知覚評価手段を更に設け、ユーザの認知容量の評価値および知覚評価値に基づいて広告成果を評価するようにした。 (4) A perceptual evaluation means for evaluating the user's perception and obtaining the perceptual evaluation value was further provided, and the advertising result was evaluated based on the user's cognitive capacity evaluation value and the perceptual evaluation value.

(5) ユーザの反応を評価して反応評価値を求める反応評価手段を更に設け、ユーザの認知容量の評価値および反応評価値に基づいて広告成果を評価するようにした。 (5) A reaction evaluation means for evaluating the user's reaction and obtaining the reaction evaluation value was further provided, and the advertising result was evaluated based on the user's cognitive capacity evaluation value and the reaction evaluation value.

(6) ユーザの知覚を評価して知覚評価値を求める知覚評価手段およびユーザの反応を評価して反応評価値を求める反応評価手段を更に設け、ユーザの認知容量の評価値、知覚評価値および反応評価値に基づいて広告成果を評価するようにした。 (6) A perceptual evaluation means for evaluating the user's perception and obtaining a perceptual evaluation value and a reaction evaluation means for evaluating the user's reaction to obtain a reaction evaluation value are further provided, and the user's cognitive capacity evaluation value, perceptual evaluation value, and The advertising performance is evaluated based on the reaction evaluation value.

(7) ユーザの知覚を音のSN比および広告発信源とユーザとの相対位置に基づいて評価するようにした。 (7) The user's perception is evaluated based on the signal-to-noise ratio of the sound and the relative position between the advertisement source and the user.

(8) ユーザの反応を音声およびカメラ映像に基づいて評価するようにした。 (8) The user's reaction is evaluated based on the audio and camera image.

本発明によれば、以下のような成果が達成される。 According to the present invention, the following results are achieved.

(1) ユーザの認知容量の評価値に基づいて広告成果を評価するので、広告成果をユーザの知覚や反応に基づいて評価することが難しい場合でも定量的に評価できるようになる。 (1) Since the advertising performance is evaluated based on the evaluation value of the user's cognitive capacity, it becomes possible to quantitatively evaluate the advertising performance even when it is difficult to evaluate it based on the user's perception and reaction.

(2) ユーザの認知容量と相関の高いコンテキストに基づいて認知容量を求めるようにしたので、ユーザの認知容量を正確に評価できるようになる。 (2) Since the cognitive capacity is calculated based on the context that is highly correlated with the cognitive capacity of the user, the cognitive capacity of the user can be evaluated accurately.

(3) ユーザの状況を検知するセンサの出力信号をコンテキスト予測モデルに適用して当該ユーザのコンテキストを推定するようにしたので、ユーザの状況に基づいてコンテキストを正確に推定できるようになる。 (3) Since the output signal of the sensor that detects the user's situation is applied to the context prediction model to estimate the user's context, the context can be estimated accurately based on the user's situation.

(4) ユーザの認知容量の評価値および知覚評価値に基づいて広告成果を評価するようにしたので、ユーザが広告を知覚できている場合の広告成果を認知容量の評価値に基づいて定量的に評価できるようになる。 (4) Since the advertising performance is evaluated based on the user's cognitive capacity evaluation value and perceptual evaluation value, the advertising performance when the user can perceive the advertisement is quantitatively evaluated based on the cognitive capacity evaluation value. You will be able to evaluate it.

(5) ユーザの認知容量の評価値および反応評価値に基づいて広告成果を評価するようにしたので、ユーザが明確な反応を示していない場合の広告成果を認知容量の評価値に基づいて定量的に評価できるようになる。 (5) Since the advertising performance is evaluated based on the user's cognitive capacity evaluation value and reaction evaluation value, the advertising performance when the user does not show a clear reaction is quantified based on the cognitive capacity evaluation value. You will be able to evaluate it.

(6) ユーザの認知容量の評価値、知覚評価値および反応評価値に基づいて広告成果を評価するようにしたので、ユーザが広告を知覚できているが明確な反応を示していない場合の広告成果を認知容量の評価値に基づいて定量的に評価できるようになる。 (6) Since the advertisement performance is evaluated based on the user's cognitive capacity evaluation value, perceptual evaluation value, and reaction evaluation value, the advertisement when the user can perceive the advertisement but does not show a clear reaction. Results can be evaluated quantitatively based on the evaluation value of cognitive capacity.

(7) 音のSN比および広告発信源とユーザとの相対位置に基づいてユーザの知覚が評価されるのでユーザの多様な知覚を評価できるようになる。 (7) Since the user's perception is evaluated based on the SN ratio of the sound and the relative position between the advertisement source and the user, the user's various perceptions can be evaluated.

(8) ユーザの音声およびカメラ映像に基づいて当該ユーザの反応が評価されるのでユーザの多様な反応を評価できるようになる。 (8) Since the reaction of the user is evaluated based on the voice of the user and the camera image, various reactions of the user can be evaluated.

本発明の一実施形態に係る広告成果評価装置の機能ブロック図である。It is a functional block diagram of the advertisement performance evaluation apparatus which concerns on one Embodiment of this invention. 認知容量の評価方法を模式的に示した図である。It is a figure which showed typically the evaluation method of the cognitive capacity. 知覚評価部の機能ブロック図である。It is a functional block diagram of the perception evaluation part. 反応評価部の機能ブロック図である。It is a functional block diagram of the reaction evaluation part. 認知容量評価部の機能ブロック図である。It is a functional block diagram of the cognitive capacity evaluation unit. 反応テーブルの一例を示した図である。It is a figure which showed an example of the reaction table. コンテキストテーブルの一例を示した図である。It is a figure which showed an example of the context table. 本発明の一実施形態の動作を示したフローチャートである。It is a flowchart which showed the operation of one Embodiment of this invention. 映像ベース知覚評価値の求め方の一例を示した図である。It is a figure which showed an example of how to obtain the image-based perception evaluation value. ユーザの広告に対する知覚および反応と広告成果との関係を示した図である。It is a figure which showed the relationship between the user's perception and reaction to an advertisement, and the advertisement result.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る広告成果評価装置1の主要部の構成を、その適用環境と共に示した機能ブロック図である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of a main part of the advertising performance evaluation device 1 according to the embodiment of the present invention together with its application environment.

広告成果評価装置1は、広告配信事業設備2が配信し、テレビTVやラジオ等を通して発信する広告を対象にその視聴ユーザUの状況を識別するユーザ状況識別部10と、ユーザ状況の識別結果に基づいて当該ユーザに対する広告成果を決定する広告成果決定部11とを主要な構成とし、さらにユーザ状況を検知するセンサ群として、カメラ12、マイク13および人感センサ14などの各種センサを備えている。なお、ユーザが携帯するスマートフォンやタブレットなどのモバイル端末15のマイク機能を前記マイク13と共に又は前記マイク13に代えて用いることもできる。 The advertisement performance evaluation device 1 is based on the user status identification unit 10 that identifies the status of the viewing user U for the advertisement distributed by the advertisement distribution business facility 2 and transmitted through TV TV, radio, or the like, and the user status identification result. The main configuration is the advertisement result determination unit 11 that determines the advertisement result for the user based on the above, and various sensors such as a camera 12, a microphone 13, and a human sensor 14 are provided as a sensor group for detecting the user situation. .. The microphone function of a mobile terminal 15 such as a smartphone or tablet carried by a user can be used together with or in place of the microphone 13.

前記ユーザ状況識別部10は、知覚評価部101、反応評価部102および認知容量評価部103を含む。知覚評価部101は、ユーザの広告に対する知覚を評価する。反応評価部102は、ユーザの広告に対する反応を評価する。認知容量評価部103は、ユーザの広告に対する認知容量を評価する。 The user situation identification unit 10 includes a perception evaluation unit 101, a reaction evaluation unit 102, and a cognitive capacity evaluation unit 103. The perception evaluation unit 101 evaluates the user's perception of the advertisement. The reaction evaluation unit 102 evaluates the reaction of the user to the advertisement. The cognitive capacity evaluation unit 103 evaluates the cognitive capacity of the user's advertisement.

このような広告成果評価装置1は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。 Such an advertisement result evaluation device 1 can be configured by implementing an application (program) that realizes each function on a general-purpose computer or server. Alternatively, it can be configured as a dedicated machine or a single-purpose machine in which a part of the application is made into hardware or software.

図2は、前記認知容量評価部103における認知容量の評価方法を模式的に示した図である。各ユーザは所定の認知容量を有しているが、「歩行」、「睡眠」、「読書」などのコンテキストごとに認知容量が消費される。そこで、本実施形態ではユーザのコンテキストを分析し、コンテキストにより消費された後に残った認知容量をユーザが広告の認知に割ける容量として評価する。 FIG. 2 is a diagram schematically showing an evaluation method of cognitive capacity in the cognitive capacity evaluation unit 103. Each user has a predetermined cognitive capacity, but the cognitive capacity is consumed for each context such as "walking", "sleeping", and "reading". Therefore, in the present embodiment, the user's context is analyzed, and the cognitive capacity remaining after being consumed by the context is evaluated as the capacity that the user can devote to the recognition of the advertisement.

宅内のユーザに対してテレビやラジオから放送される広告の当該ユーザへの成果を評価対象とする場合、前記広告成果評価装置1は、例えばAIアシスタント機能を持つスピーカー(スマートスピーカ)や対話型ロボットに実装されて稼働される。また、前記カメラ12、マイク13および人感センサ14等のセンサ群は、各居室、台所、廊下、トイレ、風呂などにそれぞれ分散配置される。 When the result of an advertisement broadcast from a television or radio to a user in the house is to be evaluated, the advertisement result evaluation device 1 is, for example, a speaker (smart speaker) having an AI assistant function or an interactive robot. It is implemented and operated in. Further, the sensor group such as the camera 12, the microphone 13, and the motion sensor 14 are distributed and arranged in each living room, kitchen, corridor, toilet, bath, and the like.

前記カメラ12は、その設置空間内を撮影したカメラ映像をセンサ出力として広告成果評価装置1へ送信する。マイク13は、その設置空間内で検知した音響信号をセンサ出力として広告成果評価装置1へ送信する。人感センサ14は、その設置空間内での人物の検知結果をセンサ出力として広告成果評価装置1へ送信する。各センサ出力の広告成果評価装置1への送信は、無線または有線のLANあるいはモバイル通信網を中継して行われる。 The camera 12 transmits the camera image captured in the installation space as a sensor output to the advertisement result evaluation device 1. The microphone 13 transmits the acoustic signal detected in the installation space as a sensor output to the advertisement result evaluation device 1. The motion sensor 14 transmits the detection result of a person in the installation space as a sensor output to the advertisement result evaluation device 1. The output of each sensor is transmitted to the advertisement performance evaluation device 1 via a wireless or wired LAN or a mobile communication network.

前記知覚評価部101は、図3に示したように、知覚の指標値として音のSN比を計測するSN比計測部101aおよびテレビとユーザとの相対位置を計測する相対位置計測部101bを含み、さらに前記SN比および相対位置に基づいて知覚評価値p(x)を計算する評価値計算部101cを含む。 As shown in FIG. 3, the perception evaluation unit 101 includes an SN ratio measurement unit 101a that measures the SN ratio of sound as an index value of perception and a relative position measurement unit 101b that measures the relative position between the television and the user. Further, the evaluation value calculation unit 101c for calculating the perceptual evaluation value p (x) based on the SN ratio and the relative position is included.

前記SN比計測部101aは、テレビが出力する音声信号(S)と環境騒音(N)との比(S/N)を計算する。本実施形態では、ユーザが携帯するスマートフォン15のマイク機能を用いることでユーザ近傍のS/Nを計測できる。あるいは、カメラ映像および人感センサ14の出力に基づいてユーザの居場所を推定し、推定された居場所に設置したマイク13の音声信号に基づいてS/Nを計測しても良い。あるいは、マイクとユーザとの距離およびスピーカからの出力に基づいてS/Nを推定しても良い。 The SN ratio measuring unit 101a calculates the ratio (S / N) of the audio signal (S) output by the television to the environmental noise (N). In the present embodiment, the S / N in the vicinity of the user can be measured by using the microphone function of the smartphone 15 carried by the user. Alternatively, the user's location may be estimated based on the camera image and the output of the motion sensor 14, and the S / N may be measured based on the audio signal of the microphone 13 installed at the estimated location. Alternatively, the S / N may be estimated based on the distance between the microphone and the user and the output from the speaker.

前記相対位置計測部101bは、カメラ12が出力する映像出力および人感センサ14の出力に基づいてテレビ及びユーザを識別し、その居場所を推定したうえで、テレビとユーザとの距離を計算する。 The relative position measurement unit 101b identifies the television and the user based on the video output output by the camera 12 and the output of the motion sensor 14, estimates the location of the television, and then calculates the distance between the television and the user.

前記反応評価部102には、図4に示したように、反応予測モデル102aおよび反応テーブル102bが予め登録されている。本実施形態では、ユーザの反応形態の候補として「返事をする」、「うなずく」、「視線を向ける」、「表情を変える」、「作業を中断する」などが予め登録されており、これらの反応候補ごとまたはその組み合わせごとに各センサ出力を機械学習することで、各センサ出力からユーザの反応を推定する反応予測モデル102aを構築する。前記反応テーブル102bには、図6に示したように、ユーザの反応と重み値との対応付けが予め登録されている。 As shown in FIG. 4, the reaction prediction model 102a and the reaction table 102b are registered in advance in the reaction evaluation unit 102. In the present embodiment, "reply", "nod", "look at", "change facial expression", "interrupt work", etc. are registered in advance as candidates for the user's reaction form. By machine learning each sensor output for each reaction candidate or a combination thereof, a reaction prediction model 102a that estimates the user's reaction from each sensor output is constructed. In the reaction table 102b, as shown in FIG. 6, the correspondence between the user's reaction and the weight value is registered in advance.

評価値計算部102cは、マイク13等が検知した音声信号および前記カメラ映像から分析したユーザの挙動を反応予測モデル102aに適用してユーザの反応を推定し、さらに反応の推定結果を前記反応テーブル102bに適用することで反応ごとに重み値を求める。そして、各反応に対応した重み値を全て乗じることで反応評価値r(x)を計算する。なお、反応の具体的な推定方法については、非特許文献1に開示されている。 The evaluation value calculation unit 102c estimates the user's reaction by applying the audio signal detected by the microphone 13 or the like and the user's behavior analyzed from the camera image to the reaction prediction model 102a, and further estimates the reaction estimation result in the reaction table. By applying to 102b, the weight value is obtained for each reaction. Then, the reaction evaluation value r (x) is calculated by multiplying all the weight values corresponding to each reaction. A specific method for estimating the reaction is disclosed in Non-Patent Document 1.

前記認知容量評価部103には、図5に示したように、認知容量予測モデル103aおよびコンテキストテーブル103bが予め登録されている。本実施形態では、コンテキスト候補として「歩行」、「入浴」、「食事」、「テレビ視聴」、「料理」などが定義されており、予めコンテキスト候補ごとに各センサ出力を機械学習することで、各センサ出力からコンテキストを推定する認知容量予測モデル103aが構築される。前記コンテキストテーブル103bには、図7に示したように、コンテキストと認知容量との対応付けが予め登録されている。 As shown in FIG. 5, the cognitive capacity prediction model 103a and the context table 103b are registered in advance in the cognitive capacity evaluation unit 103. In this embodiment, "walking", "bathing", "meal", "watching TV", "cooking", etc. are defined as context candidates, and by machine learning each sensor output for each context candidate in advance, A cognitive capacity prediction model 103a that estimates the context from each sensor output is constructed. As shown in FIG. 7, the association between the context and the cognitive capacity is registered in advance in the context table 103b.

評価値計算部103cは、前記各センサ出力を前記コンテキスト予測モデル102aに適用することでユーザのコンテキストを推定し、コンテキストの推定結果をコンテキストテーブル103bに適用することで認知容量を求める。なお、コンテキストの具体的な推定方法は、非特許文献2,3に開示されている。 The evaluation value calculation unit 103c estimates the user's context by applying each sensor output to the context prediction model 102a, and obtains the cognitive capacity by applying the context estimation result to the context table 103b. Specific methods for estimating the context are disclosed in Non-Patent Documents 2 and 3.

図8は、本発明の一実施形態に係る広告成果評価装置1の動作を示したフローチャートであり、ステップS1では、予めスケジューリングされた広告配信のタイミングに先立って、前記各センサ12,13,14の出力信号が取得される。各出力信号の取得は、これ以降も所定のサンプリング周期で繰り返される。 FIG. 8 is a flowchart showing the operation of the advertisement result evaluation device 1 according to the embodiment of the present invention. In step S1, prior to the timing of advertisement distribution scheduled in advance, the sensors 12, 13, 14 are shown. Output signal is acquired. The acquisition of each output signal is repeated in a predetermined sampling cycle thereafter.

ステップS2では、知覚評価部101が各センサの出力信号に基づいて知覚指標値を計測する。本実施形態では、前記SN比計測部101aにより音のSN比が計測され、前記相対位置計測部101bによりテレビとユーザとの相対距離が計測される。 In step S2, the perception evaluation unit 101 measures the perception index value based on the output signal of each sensor. In the present embodiment, the SN ratio measuring unit 101a measures the SN ratio of the sound, and the relative position measuring unit 101b measures the relative distance between the television and the user.

ステップS3では、前記認知容量評価部103がユーザのコンテキストを推定する。本実施形態では、各センサの出力信号をコンテキスト予測モデル103aに適用することでコンテキストが推定される。なお、本実施形態では複数のコンテキストを同時に推定できるように予測モデル103aが構築されており、ユーザが歩きながら読書をしていると、コンテキストとして「歩行」および「読書」が推定される。 In step S3, the cognitive capacity evaluation unit 103 estimates the user's context. In the present embodiment, the context is estimated by applying the output signal of each sensor to the context prediction model 103a. In the present embodiment, the prediction model 103a is constructed so that a plurality of contexts can be estimated at the same time, and when the user is reading while walking, "walking" and "reading" are estimated as the contexts.

ステップS4では、評価対象の広告が発信されたか否かが判断される。発信が発行されるまでは、ステップS1へ戻って上記の各処理が繰り返され、知覚指標値およびユーザのコンテキストが最新の情報に更新される。 In step S4, it is determined whether or not the advertisement to be evaluated has been transmitted. Until the call is issued, the process returns to step S1 and each of the above processes is repeated, and the perceptual index value and the user's context are updated with the latest information.

広告が発信されると、ステップS5では、前記知覚評価部101の評価値計算部101cが、前記ステップS2で計測した知覚指標値に基づいて知覚評価値p(x)を計算する。本実施形態では、広告に応じて音声に対する知覚と映像に対する知覚とに区別して評価するものとし、ラジオ広告のような音声広告であれば音声ベースの知覚評価値p1(x)のみが求められる。これに対して、テレビ広告のように音声および映像の組み合わせで構成される広告であれば音声ベースの知覚評価値p1(x)および映像ベース知覚評価値p2(x)が求められる。 When the advertisement is transmitted, in step S5, the evaluation value calculation unit 101c of the perception evaluation unit 101 calculates the perception evaluation value p (x) based on the perception index value measured in step S2. In the present embodiment, the perception of sound and the perception of video are evaluated separately according to the advertisement, and in the case of a voice advertisement such as a radio advertisement, only the voice-based perception evaluation value p1 (x) is required. On the other hand, in the case of an advertisement composed of a combination of audio and video such as a television advertisement, an audio-based perceptual evaluation value p1 (x) and a video-based perceptual evaluation value p2 (x) are required.

前記SN比については、その値を0〜1.0の範囲で正規化することで音声ベース知覚評価値p1(x)が求められる。SN比を0〜1.0の範囲に変換する手法としては、明瞭度指数の改良版として1997年にANSIにより標準化された手法(SII)を用いることができる。SIIでは、値が大きくなるほど明瞭度が高くなる。 For the signal-to-noise ratio, the speech-based perception evaluation value p1 (x) can be obtained by normalizing the value in the range of 0 to 1.0. As a method for converting the signal-to-noise ratio into the range of 0 to 1.0, the method (SII) standardized by ANSI in 1997 as an improved version of the intelligibility index can be used. In SII, the higher the value, the higher the intelligibility.

一方、前記相対位置に関しては、図9に示したように、広告発生源であるテレビを基準にユーザとの距離に応じて映像ベース知覚評価値p2(x)が求められる。本実施形態では、テレビからの距離が2メートル以内であればp2(x)=1.0、10メートル以上であればp2(x)=0とし、その間では距離に応じてp2(x)を線形に変化させる関数を用いて計算される。 On the other hand, with respect to the relative position, as shown in FIG. 9, a video-based perception evaluation value p2 (x) is obtained according to the distance to the user with reference to the television as the advertisement source. In the present embodiment, p2 (x) = 1.0 if the distance from the television is within 2 meters, p2 (x) = 0 if the distance is 10 meters or more, and p2 (x) is linearly set according to the distance between them. Calculated using a changing function.

以上のようにして、音声ベース知覚評価値p1(x)および映像ベース知覚評価値p2(x)が求まると、各知覚評価値p1(x),p2(x)を次式(1)に適用することで映像広告に対する知覚評価値p(x)が求められる。
p(x)= (p1(x) + p2(x))/2 …(1)
When the audio-based perception evaluation value p1 (x) and the video-based perception evaluation value p2 (x) are obtained as described above, the respective perception evaluation values p1 (x) and p2 (x) are applied to the following equation (1). By doing so, the perceptual evaluation value p (x) for the video advertisement can be obtained.
p (x) = (p1 (x) + p2 (x)) / 2… (1)

ステップS6では、前記認知容量評価部103がユーザのコンテキストを認知容量指標値として認知容量評価値c(x)を求める。本実施形態では、前記ステップS3で推定されたユーザのコンテキストに基づいてコンテキストテーブル103bを参照することで当該ユーザの認知容量が求められる。 In step S6, the cognitive capacity evaluation unit 103 obtains the cognitive capacity evaluation value c (x) using the user's context as the cognitive capacity index value. In the present embodiment, the cognitive capacity of the user can be obtained by referring to the context table 103b based on the user's context estimated in step S3.

本実施形態では、図7に示したように、コンテキストテーブル103bではコンテキストごとに0から1.0の認知容量が登録されている。そして、前記図2を参照して説明したように、認知容量の初期値を最大値1.0とし、ここからコンテキストの推定結果に対応した認知容量を減算することでユーザの現在の認知容量が計算される。 In the present embodiment, as shown in FIG. 7, the cognitive capacity of 0 to 1.0 is registered for each context in the context table 103b. Then, as explained with reference to FIG. 2, the initial value of the cognitive capacity is set to the maximum value of 1.0, and the cognitive capacity corresponding to the estimation result of the context is subtracted from this to calculate the current cognitive capacity of the user. To.

例えば、前記各センサの出力信号に基づいてユーザが歩いていると推定されると、コンテキストとして「歩行」が推定されるので、次式(2)に基づいて、当該ユーザの現在の認知容量c(x)は0.9となる。
c(x) = 1.0−0.1 = 0.9 …(2)
For example, if it is estimated that the user is walking based on the output signal of each of the sensors, "walking" is estimated as the context. Therefore, based on the following equation (2), the user's current cognitive capacity c. (x) is 0.9.
c (x) = 1.0−0.1 = 0.9… (2)

また、ユーザが歩きながら読書をしていると推定されると、コンテキストとして「歩行」および「読書」が推定されるので、次式(3)に基づいて、当該ユーザの現在の認知容量c(x)は0.2となる。
c(x) = 1.0−0.1−0.7 =0.2 …(3)
Further, if it is estimated that the user is reading while walking, "walking" and "reading" are estimated as contexts. Therefore, based on the following equation (3), the user's current cognitive capacity c ( x) is 0.2.
c (x) = 1.0−0.1−0.7 = 0.2… (3)

さらに、ユーザが掃除をしながら読書をしていると、コンテキストとして「掃除」および「読書」が推定されるので、次式(4)に基づいて、ユーザの現在の認知容量c(x)は−0.4となる。ただし、この場合はオーバーフロー状態と認定されるので認知容量c(x)は0となる。
c(x) = 1.0−0.7−0.7 = −0.4 …(4)
Furthermore, when the user is reading while cleaning, "cleaning" and "reading" are estimated as contexts, so the user's current cognitive capacity c (x) is based on the following equation (4). It becomes -0.4. However, in this case, the cognitive capacity c (x) is 0 because it is recognized as an overflow state.
c (x) = 1.0−0.7−0.7 = −0.4… (4)

なお、ユーザのコンテキストと認知容量との関係は、広告の種類すなわち音声広告および映像広告のいずれであるかに応じて異なる可能性がある。したがって、音声広告用のコンテキストテーブルと映像広告のコンテキストテーブルとを設けてコンテキストと認知容量との関係を異ならせ、広告の種類に応じて各コンテキストテーブルを使い分けるようにしても良い。 The relationship between the user's context and the cognitive capacity may differ depending on the type of advertisement, that is, whether it is an audio advertisement or a video advertisement. Therefore, a context table for audio advertisement and a context table for video advertisement may be provided to make the relationship between the context and the cognitive capacity different, and each context table may be used properly according to the type of advertisement.

ステップS7では、前記マイク13の出力信号から分析された音声信号および前記カメラ映像から分析されたユーザの反応に基づいて当該ユーザの反応評価値r(x)が計算される。本実施形態では、反応の推定結果に基づいて反応テーブル102bを参照することで重み値が求められる。そして、推定された反応に対応した重み値を全て乗じることで反応評価値r(x)が求められる。 In step S7, the reaction evaluation value r (x) of the user is calculated based on the audio signal analyzed from the output signal of the microphone 13 and the reaction of the user analyzed from the camera image. In the present embodiment, the weight value is obtained by referring to the reaction table 102b based on the estimation result of the reaction. Then, the reaction evaluation value r (x) is obtained by multiplying all the weight values corresponding to the estimated reaction.

例えば、ユーザが広告に対して返事をしながら表情を変える反応が推定されると、反応評価値r(x)が次式(5)に基づいてr(x)=1.32として求まる。
r(x)=1.2×1.1=1.32 …(5)
For example, if a reaction in which the user changes facial expressions while replying to an advertisement is estimated, the reaction evaluation value r (x) is obtained as r (x) = 1.32 based on the following equation (5).
r (x) = 1.2 × 1.1 = 1.32… (5)

なお、ユーザの反応と重み値との関係も広告の種類に応じて異なる可能性があるので、音声広告用の反応テーブルと映像広告の反応テーブルとを設けて反応と重み値との関係を異ならせ、広告の種類に応じて各反応テーブルを使い分けるようにしても良い。 Since the relationship between the user's reaction and the weight value may differ depending on the type of advertisement, if a reaction table for voice advertisement and a reaction table for video advertisement are provided and the relationship between the reaction and the weight value is different, However, each reaction table may be used properly according to the type of advertisement.

ステップS8では、前記知覚評価値p(x)、認知容量評価値c(x)および反応評価値r(x)に基づいて広告成果が計算される。本実施形態では、次式(6)に示すように、全ての評価値を乗じることで広告成果vが計算される。
v= p(x)×c(x)×r(x) …(6)
In step S8, the advertising result is calculated based on the perceptual evaluation value p (x), the cognitive capacity evaluation value c (x), and the reaction evaluation value r (x). In this embodiment, as shown in the following equation (6), the advertising result v is calculated by multiplying all the evaluation values.
v = p (x) × c (x) × r (x)… (6)

このように、本実施形態では知覚評価値p(x)、認知容量評価値c(x)および反応評価値r(x)に基づいて広告成果が求められるが、反応評価値r(x)は必ず1.0以上の値をとるので、広告に対するユーザの反応が認められない場合でも、知覚評価値p(x)および認知容量評価値c(x)に基づいて広告成果を定量的に評価できるようになる。 As described above, in the present embodiment, the advertising result is obtained based on the perceptual evaluation value p (x), the cognitive capacity evaluation value c (x), and the reaction evaluation value r (x), but the reaction evaluation value r (x) is Since the value is always 1.0 or more, even if the user's reaction to the advertisement is not recognized, the advertisement result can be quantitatively evaluated based on the perceptual evaluation value p (x) and the cognitive capacity evaluation value c (x). Become.

また、本実施形態ではユーザが広告を知覚できない場合は知覚評価値p(x)が0となるので、ユーザが広告を知覚することが物理的に不可能な場合には、認知容量評価値c(x)にかかわらず広告成果を0とすることができる。 Further, in the present embodiment, the perceptual evaluation value p (x) becomes 0 when the user cannot perceive the advertisement. Therefore, when it is physically impossible for the user to perceive the advertisement, the cognitive capacity evaluation value c. The advertising result can be set to 0 regardless of (x).

1…広告成果評価装置,2…広告配信事業設備,10…ユーザ状況識別部,11…広告成果決定部,12…カメラ,13…マイク,14…人感センサ,15…モバイル端末,101…知覚評価部,101a…SN比計測部,101b…相対位置計測部,101c…評価値計算部,102…反応評価部,102a…反応予測モデル,102b…反応テーブル,102c…評価値計算部,103…前記認知容量評価部,103a…認知容量予測モデル,103b…コンテキストテーブル,103c…評価値計算部 1 ... Advertising performance evaluation device, 2 ... Advertising distribution business equipment, 10 ... User status identification unit, 11 ... Advertising performance determination department, 12 ... Camera, 13 ... Mike, 14 ... Human sensor, 15 ... Mobile terminal, 101 ... Perception Evaluation unit, 101a ... SN ratio measurement unit, 101b ... Relative position measurement unit, 101c ... Evaluation value calculation unit, 102 ... Reaction evaluation unit, 102a ... Reaction prediction model, 102b ... Reaction table, 102c ... Evaluation value calculation unit, 103 ... The cognitive capacity evaluation unit, 103a ... cognitive capacity prediction model, 103b ... context table, 103c ... evaluation value calculation unit

Claims (12)

ユーザに対する広告の成果を評価する広告成果評価装置において、
ユーザの認知容量を評価する手段と、
前記ユーザの認知容量に基づいて当該ユーザに対する広告成果を評価する手段とを具備したことを特徴とする広告成果評価装置。
In the advertising performance evaluation device that evaluates the performance of advertisements for users
A means of assessing a user's cognitive capacity
An advertising performance evaluation device comprising a means for evaluating an advertising performance for the user based on the cognitive capacity of the user.
前記ユーザのコンテキストを推定する手段を更に具備し、
前記ユーザの認知容量を評価する手段は、前記コンテキストの推定結果に基づいてユーザの認知容量を評価することを特徴とする請求項1に記載の広告成果評価装置。
Further provided with means for estimating the user's context,
The advertising performance evaluation device according to claim 1, wherein the means for evaluating the cognitive capacity of the user is to evaluate the cognitive capacity of the user based on the estimation result of the context.
前記ユーザのコンテキストを推定する手段は、ユーザの状況を検知するセンサの出力信号に基づいてコンテキストを推定するコンテキスト予測モデルを具備し、
ユーザの状況を検知するセンサの出力信号を前記コンテキスト予測モデルに適用して当該ユーザのコンテキストを推定することを特徴とする請求項2に記載の広告成果評価装置。
The means for estimating the user's context includes a context prediction model that estimates the context based on the output signal of the sensor that detects the user's situation.
The advertising performance evaluation device according to claim 2, wherein an output signal of a sensor that detects a user's situation is applied to the context prediction model to estimate the user's context.
ユーザの知覚を評価して知覚評価値を求める知覚評価手段を更に具備し、
前記広告成果を評価する手段は、前記ユーザの認知容量および知覚評価値に基づいて広告成果を評価することを特徴とする請求項1ないし3のいずれかに記載の広告成果評価装置。
Further equipped with a perception evaluation means for evaluating the user's perception and obtaining the perception evaluation value,
The advertising performance evaluation device according to any one of claims 1 to 3, wherein the means for evaluating the advertising performance evaluates the advertising performance based on the cognitive capacity and the perceptual evaluation value of the user.
ユーザの反応を評価して反応評価値を求める反応評価手段を更に具備し、
前記広告成果を評価する手段は、前記ユーザの認知容量および反応評価値に基づいて広告成果を評価することを特徴とする請求項1ないし3のいずれかに記載の広告成果評価装置。
Further provided with a reaction evaluation means for evaluating the user's reaction and obtaining the reaction evaluation value,
The advertising performance evaluation device according to any one of claims 1 to 3, wherein the means for evaluating the advertising performance evaluates the advertising performance based on the cognitive capacity and the reaction evaluation value of the user.
ユーザの知覚を評価して知覚評価値を求める知覚評価手段と、
ユーザの反応を評価して反応評価値を求める反応評価手段とを更に具備し、
前記広告成果を評価する手段は、前記ユーザの認知容量、知覚評価値および反応評価値に基づいて広告成果を評価することを特徴とする請求項1ないし3のいずれかに記載の広告成果評価装置。
Perceptual evaluation means that evaluates the user's perception and obtains the perceptual evaluation value,
Further provided with a reaction evaluation means for evaluating the reaction of the user and obtaining the reaction evaluation value,
The advertising performance evaluation device according to any one of claims 1 to 3, wherein the means for evaluating the advertising performance evaluates the advertising performance based on the cognitive capacity, the perceptual evaluation value, and the reaction evaluation value of the user. ..
前記知覚評価手段は、音のSN比および広告発信源とユーザとの相対位置に基づいて当該ユーザの知覚を評価することを特徴とする請求項4または6に記載の広告成果評価装置。 The advertising performance evaluation device according to claim 4 or 6, wherein the perception evaluation means evaluates the perception of the user based on the SN ratio of sound and the relative position between the advertisement source and the user. 前記反応評価手段は、ユーザの音声およびカメラ映像に基づいて当該ユーザの反応を評価することを特徴とする請求項5または6に記載の広告成果評価装置。 The advertising performance evaluation device according to claim 5 or 6, wherein the reaction evaluation means evaluates the reaction of the user based on the voice of the user and the camera image. ユーザに発信した広告の成果をコンピュータに評価させる広告成果評価方法において、
コンピュータが、
ユーザの認知容量を評価し、
前記ユーザの認知容量に基づいて当該ユーザに対する広告成果を評価することを特徴とする広告成果評価方法。
In the advertising performance evaluation method that allows the computer to evaluate the performance of the advertisement sent to the user
The computer
Evaluate the user's cognitive capacity
An advertising performance evaluation method characterized by evaluating the advertising performance for the user based on the cognitive capacity of the user.
前記ユーザのコンテキストを推定し、
前記コンテキストの推定結果に基づいて前記ユーザの認知容量を評価することを特徴とする請求項9に記載の広告成果評価方法。
Estimate the user's context and
The advertising performance evaluation method according to claim 9, wherein the cognitive capacity of the user is evaluated based on the estimation result of the context.
ユーザに発信した広告の成果を評価する広告成果評価プログラムにおいて、
ユーザの認知容量を評価する手順と、
前記ユーザの認知容量に基づいて当該ユーザに対する広告成果を評価する手順とを、コンピュータに実行させる広告成果評価プログラム。
In the advertising performance evaluation program that evaluates the performance of advertisements sent to users
Procedures for evaluating user cognitive capacity and
An advertising performance evaluation program that causes a computer to execute a procedure for evaluating an advertising performance for the user based on the cognitive capacity of the user.
ユーザのコンテキストを推定する手順を更に含み、
前記コンテキストの推定結果に基づいてユーザの認知容量を評価することを特徴とする請求項11に記載の広告成果評価プログラム。
Further includes steps to estimate the user's context
The advertising performance evaluation program according to claim 11, wherein the user's cognitive capacity is evaluated based on the estimation result of the context.
JP2019035648A 2019-02-28 2019-02-28 Advertising performance evaluation methods, devices and programs Active JP7084887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019035648A JP7084887B2 (en) 2019-02-28 2019-02-28 Advertising performance evaluation methods, devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019035648A JP7084887B2 (en) 2019-02-28 2019-02-28 Advertising performance evaluation methods, devices and programs

Publications (2)

Publication Number Publication Date
JP2020140456A true JP2020140456A (en) 2020-09-03
JP7084887B2 JP7084887B2 (en) 2022-06-15

Family

ID=72264944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019035648A Active JP7084887B2 (en) 2019-02-28 2019-02-28 Advertising performance evaluation methods, devices and programs

Country Status (1)

Country Link
JP (1) JP7084887B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7031727B1 (en) 2020-12-24 2022-03-08 三菱電機株式会社 Advertising space value calculation device and advertising space value calculation program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288527A (en) * 2001-03-26 2002-10-04 Casio Comput Co Ltd Advertising terminal, advertising terminal processing program, advertisement management device, advertisement management method and advertisement management processing program
JP2010532515A (en) * 2007-06-29 2010-10-07 チョン・ユギュン Mobile advertising method using mobile terminal, mobile terminal for mobile advertising and mobile advertising system capable of implementing the same
WO2012043291A1 (en) * 2010-09-30 2012-04-05 日本電気株式会社 Device for specifying person to whom advertisement is to be distributed, and advertisement distribution device
WO2014207833A1 (en) * 2013-06-26 2014-12-31 株式会社fuzz Advertisement effectiveness analysis system, advertisement effectiveness analysis device, and advertisement effectiveness analysis program
JP2015505087A (en) * 2011-12-07 2015-02-16 アフェクティヴァ, インコーポレイテッドAffectiva, Inc. Evaluation of advertising effectiveness based on emotion
JP2016212793A (en) * 2015-05-13 2016-12-15 ヤフー株式会社 Prediction device, terminal, prediction method and prediction program
JP2019008378A (en) * 2017-06-20 2019-01-17 株式会社村田製作所 Advertisement system and advertisement method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288527A (en) * 2001-03-26 2002-10-04 Casio Comput Co Ltd Advertising terminal, advertising terminal processing program, advertisement management device, advertisement management method and advertisement management processing program
JP2010532515A (en) * 2007-06-29 2010-10-07 チョン・ユギュン Mobile advertising method using mobile terminal, mobile terminal for mobile advertising and mobile advertising system capable of implementing the same
WO2012043291A1 (en) * 2010-09-30 2012-04-05 日本電気株式会社 Device for specifying person to whom advertisement is to be distributed, and advertisement distribution device
JP2015505087A (en) * 2011-12-07 2015-02-16 アフェクティヴァ, インコーポレイテッドAffectiva, Inc. Evaluation of advertising effectiveness based on emotion
WO2014207833A1 (en) * 2013-06-26 2014-12-31 株式会社fuzz Advertisement effectiveness analysis system, advertisement effectiveness analysis device, and advertisement effectiveness analysis program
JP2016212793A (en) * 2015-05-13 2016-12-15 ヤフー株式会社 Prediction device, terminal, prediction method and prediction program
JP2019008378A (en) * 2017-06-20 2019-01-17 株式会社村田製作所 Advertisement system and advertisement method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7031727B1 (en) 2020-12-24 2022-03-08 三菱電機株式会社 Advertising space value calculation device and advertising space value calculation program
JP2022100457A (en) * 2020-12-24 2022-07-06 三菱電機株式会社 Advertisement frame value calculating apparatus, and advertisement frame value calculating program

Also Published As

Publication number Publication date
JP7084887B2 (en) 2022-06-15

Similar Documents

Publication Publication Date Title
US8403105B2 (en) Estimating a sound source location using particle filtering
Chen et al. A fall detection system based on infrared array sensors with tracking capability for the elderly at home
JP5720491B2 (en) Information processing apparatus, information processing method, and program
JP2008269215A (en) Unique pattern detection system, model learning device, unique pattern detector method, and computer program
JP2012249797A (en) System, program and method for stress analysis
JP6540962B2 (en) Diagnostic device, diagnostic system and program
JP6713057B2 (en) Mobile body control device and mobile body control program
JP2015002477A (en) Information processing apparatus, information processing system, and information processing method
JP7084887B2 (en) Advertising performance evaluation methods, devices and programs
JP2014191616A (en) Method and device for monitoring aged person living alone, and service provision system
JP7407271B2 (en) AI control device, server device connected to the AI control device, and AI control method
JP6214334B2 (en) Electronic device, determination method and program
JP2021033359A (en) Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method and emotion estimation system
Siriwardhana et al. Classification of activities of daily living based on depth sequences and audio
JP6545950B2 (en) Estimation apparatus, estimation method, and program
CN106169057A (en) Information processor and method
JP6749164B2 (en) Service providing system and program
EP3839909A1 (en) Detecting the presence of an object in a monitored environment
JP6890304B2 (en) Evaluation system, evaluation method, and program
JP6345155B2 (en) Video surveillance system and program
KR20160135865A (en) User group activity sensing in service area and behavior semantic analysis system
Braun et al. Low-cost indoor localization using cameras–evaluating ambitrack and its applications in ambient assisted living
CN110530494B (en) Voiceprint detection device and method
JP7237895B2 (en) Information processing device, information processing program and information processing method
JP2019045527A (en) Voice processing program, voice processing method and voice processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220603

R150 Certificate of patent or registration of utility model

Ref document number: 7084887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150