WO2017038574A1 - 影響度測定装置および影響度測定方法 - Google Patents

影響度測定装置および影響度測定方法 Download PDF

Info

Publication number
WO2017038574A1
WO2017038574A1 PCT/JP2016/074635 JP2016074635W WO2017038574A1 WO 2017038574 A1 WO2017038574 A1 WO 2017038574A1 JP 2016074635 W JP2016074635 W JP 2016074635W WO 2017038574 A1 WO2017038574 A1 WO 2017038574A1
Authority
WO
WIPO (PCT)
Prior art keywords
influence
target
determination unit
unit
degree
Prior art date
Application number
PCT/JP2016/074635
Other languages
English (en)
French (fr)
Inventor
準 小林
信一 阿南
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017537779A priority Critical patent/JP6802170B2/ja
Priority to US15/750,915 priority patent/US20180225704A1/en
Publication of WO2017038574A1 publication Critical patent/WO2017038574A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to an influence degree measuring apparatus and an influence degree measuring method for measuring the degree of influence by a person or an object (influencer) that has a great influence on others in Internet media or the like.
  • This application claims priority based on Japanese Patent Application No. 2015-169784 for which it applied to Japan on August 28, 2015, and uses the content here.
  • Digital signage is also known as a video display device installed outdoors or in stores, displaying guidance information, advertisements, etc. to nearby people or people passing by and digitizing signs and posters. ing. Furthermore, a system for measuring a viewer's response to information displayed on a digital signage or the like has been developed.
  • Patent Document 1 discloses a technique for performing person tracking and interactive advertising in an advertising station that provides advertising content to potential customers.
  • a potential customer who is looking at a display that provides advertisement content is photographed with a camera, and the interest level of the potential customer with respect to the advertisement content is determined based on the method of gaze and the body posture direction of the potential customer.
  • Patent Document 2 discloses an influence degree calculating device and an influence degree calculating method for calculating the influence degree of writing information in social media or the like.
  • Patent Document 3 discloses an advertisement distribution system that can count CTR (Click Through Rate) of advertisement information in a digital signage system.
  • CTR Click Through Rate
  • Patent Literature 4 discloses an influencer extraction apparatus and an influencer extraction method that extract a user who has transmitted writing information that is widely propagated in social media as an influencer.
  • Patent Document 5 discloses a degree-of-interest measurement apparatus and a degree-of-interest measurement method that can measure the degree of attention of people to media information such as advertisement media based on a captured image of a camera installed in the vicinity of the advertisement media posting device. ing.
  • the degree of interest of a potential customer for advertising information displayed on a non-moving object such as a display or digital signage is determined, and the degree of interest of a potential customer for information indicated by a moving object such as a person or an advertising vehicle is determined.
  • the technology for judging is not realized.
  • the present invention has been made to solve the above-described problems, and an object thereof is to provide an influence degree measuring apparatus and an influence degree measuring method for measuring the degree of influence of an influencer on others.
  • an influence measuring apparatus including a measuring unit that measures the degree of influence of a moving first object on a second object, and an output unit that outputs the degree of influence measured by the measuring unit. It is.
  • the second aspect of the present invention is an influence measurement method for measuring the influence of a moving first object on the second object and outputting the measured influence.
  • the present invention it is possible to measure the degree of influence of a moving first target such as a person or an advertising vehicle on a second target such as a person.
  • FIG. 3 is a flowchart illustrating a processing procedure of the influence degree measuring apparatus according to the first embodiment. It is a block diagram of the influence degree measuring apparatus which concerns on Example 2 of this invention. It is a block diagram which shows the structure which applied the function of the influence degree measuring apparatus which concerns on Example 2 to the advertising vehicle and the flying body. It is a block diagram of the influence degree measuring apparatus which concerns on Example 3 of this invention.
  • FIG. 1 is a block diagram of the network system 3.
  • the network system 3 includes a sensor 101, an edge server 30, and a cloud server 40.
  • the edge server 30 is installed near the end user, and the cloud server 40 operates a plurality of servers as one server.
  • the edge server 30 is installed near the sensor 101, and the cloud server 40 is connected to the edge server 30.
  • the edge server 30 is connected to each of the sensors 101, and a plurality of edge servers 30 are connected to the cloud server 40.
  • the edge server 30 may be provided with the function of the influence measuring device 10.
  • a plurality of functional units included in the influence degree measuring apparatus 10 may be distributed to the plurality of edge servers 30.
  • a plurality of functional units included in the influence measurement device 10 may be distributed to each of the edge server 30 and the cloud server 40.
  • the function of the influence measuring device 10 is not limited to being realized by the edge server 30 or the cloud server 40 in the network system 3. You may implement
  • a discount coupon or Points may be provided to the first object.
  • the first target is referred to as “measurement target (or object to be measured)” of the influence measuring apparatus 10
  • the second target is referred to as “influence target (or target)”.
  • a to-be-measured body (influencer) can purchase goods at a low price by the influence degree with respect to object.
  • companies such as manufacturers and distributors that provide products purchased using discount coupons and points can increase profits and gain profits through product advertisements to the target by the measured object.
  • FIG. 2 is a block diagram of the influence measuring apparatus 10.
  • the influence measuring device 10 includes a sensor 101, a sensor information analysis unit 102, a measured object specifying unit (specifying unit) 103, an environment determining unit (first determining unit) 104, and a response determining unit (second determining unit).
  • the sensor information analysis unit 102, the measured object specifying unit 103, the environment determination unit 104, the response determination unit 105, and the influence degree calculation unit 106 are collectively referred to as a measurement unit.
  • the sensor 101 detects a physical quantity for extracting a target affected by the measured object.
  • the sensor 101 is an image sensor that detects light and converts it into image information.
  • the sensor information analysis unit 102 performs processing on the detection information related to the physical quantity detected by the sensor 101. For example, when the sensor 101 is an image sensor, the sensor information analysis unit 102 acquires image information from the sensor 101, performs image analysis such as face recognition on the image information, and extracts a person.
  • the measured object specifying unit 103 specifies a measured object that may have an influence on a person or the like.
  • the correspondence relationship between the identification information (ID) of the influence measuring device 10 and the identification information (ID) of the measurement object is stored in the storage unit 107 in advance.
  • the measured object specifying unit 103 acquires the ID of the influence degree measuring device 10 and reads the correspondence between the influence degree measuring device 10 and the measured object from the storage unit 107.
  • the measured object specifying unit 103 specifies the sensor 101 provided in the influence measuring apparatus 10 indicated by the ID described in the correspondence relationship, and the object provided with the sensor 101 may have an influence on the target. Identifies the measurement object.
  • the environment determination unit 104 determines whether or not there is an environment in which an object affected by the measured object specified by the measured object specifying unit 103 exists, that is, the measured object specified by the measured object specifying unit 103 has an influence. It is determined whether there is a target that may be given. For example, when the sensor information analysis unit 102 extracts a person from the detection information, the environment determination unit 10 determines that there is an environment in which there is a target that the measured object may affect. In addition, when the sensor information analysis unit 102 does not extract a person, the environment determination unit 104 determines that there is no target in which an object to be measured may affect, that is, the target does not exist. .
  • the environment determination unit 104 determines that the environment in which the target exists is present, it can be said that there is a possibility that the measured object may affect the target in the real world. In addition, when the environment determination unit 104 determines that the environment in which the target exists does not exist, there is no target that may affect the measured object in the real world, and thus the measured object affects the target. It can be said that there is no need to carry out the activity itself.
  • the response determination unit 105 determines whether or not there is a reaction from the target affected by the measured object. For example, the response determination unit 105 specifies the face orientation of each person extracted by the sensor information analysis unit 102 using an image analysis technique. Specifically, the face of a model person is photographed from various angles (directions), and each angle is stored in association with a face including the positional relationship of facial parts such as eyes and mouth at each angle. Stored in the unit 107 in advance. The response determination unit 105 compares each person's face extracted by the sensor information analysis unit 102 with the face recorded in the storage unit 107 in advance, and the positional relationship between the facial parts among the faces stored in the storage unit 107 is determined. Identify matching faces.
  • the response determination unit 105 determines the angle associated with the identified face as the face orientation. The response determination unit 105 determines that there is a reaction from the target when the orientation of the specified face is facing the sensor 101. Then, the response determination unit 105 determines that the more the number of persons extracted by the sensor information analysis unit 102 faces their face to the sensor 101, the more reaction from the target. In addition, the response determination unit 105 determines that there is no reaction from the target when the orientation of the specified face does not face the sensor 101.
  • the influence calculation unit 106 calculates an influence score indicating the influence degree (that is, an example of information indicating the influence of the moving measurement object on the target) based on the response of the target determined by the response determination unit 105. . For example, when the number of target reactions determined by the response determination unit 105 is 100, the impact calculation unit 106 calculates “100” as the impact score. Further, the influence degree calculation unit 106 calculates “123” as the influence degree score when the number of target reactions determined by the response determination unit 105 is 123.
  • the storage unit 107 stores various information necessary for processing executed by the influence measuring apparatus 10.
  • the storage unit 107 stores a correspondence relationship between the ID of the influence measuring device 10 and the ID of the measurement target.
  • FIG. 3 shows a state in which the influence degree measuring apparatus 10 is provided in the advertising vehicle 1 that is a measured object
  • FIG. 4 shows a processing procedure of the influence degree measuring apparatus 10.
  • the sensor 101 and the sensor information analysis unit 102 are built in the camera 20 provided so as to be able to photograph an object in front of the advertisement displayed on the advertising vehicle 1. That is, the sensor 101 is an image sensor built in the camera 20.
  • the measured object specifying unit 103 reads from the storage unit 107 the correspondence relationship between the influence measuring device 10 and the advertising vehicle 1 that determines the influence given to the object from the measured object using the influence measuring device 10. Based on the correspondence read from the storage unit 107, the measured object specifying unit 103 specifies that the advertising vehicle 1 including the sensor 101 is a measured object that may affect the target (step S1). ).
  • the advertising vehicle 1 travels on an arbitrary route including the stop position.
  • the camera 20 starts capturing an object in front of the advertisement.
  • the sensor 101 detects light and converts it into image information.
  • the sensor information analysis unit 102 acquires image information from the sensor 101 at regular intervals.
  • the sensor information analysis unit 102 performs image analysis such as face recognition on the image information and specifies a target (person) (step S2).
  • the sensor information analysis unit 102 transmits the person extraction result to each of the environment determination unit 104 and the response determination unit 105.
  • the environment determination unit 104 receives the person extraction result from the sensor information analysis unit 102. Based on the person extraction result, the environment determination unit 104 determines whether or not the environment in which the target affected by the measurement object exists is present (step S3). Specifically, the environment determination unit 104 determines that the target exists in the environment when the sensor information analysis unit 102 extracts a person. In addition, the environment determination unit 104 determines that there is no target environment when the sensor information analysis unit 102 does not extract a person.
  • step S3 If the environment determination unit 104 determines that there is no environment in which an object affected by the measurement object exists (determination result “NO” in step S3), the flow returns to step S2. On the other hand, when the environment determination unit 104 determines that the target exists in the environment (the determination result “YES” in step S3), the environment determination unit 104 transmits a target presence signal indicating that the target exists in the environment to the response determination unit 105. To do.
  • the response determination unit 105 receives the target presence signal from the environment determination unit 104. When receiving the target presence signal, the response determination unit 105 determines whether there is a reaction from the target (person) based on the person extraction result received from the sensor information analysis unit 102 (step S4). Specifically, the response determination unit 105 identifies the face orientation of each person extracted by the sensor information analysis unit 102 using image analysis technology. The response determination unit 105 determines that there is a response from the person when the specified face direction is facing the sensor 101. And the response determination part 105 determines with there being more reaction from the person, so that there are many persons who have faced the sensor 101 which a person extraction result shows. In addition, the response determination unit 105 determines that there is no response from the person when the specified face direction is not facing the sensor 101.
  • the flow returns to step S2.
  • the response determination unit 105 determines that there is no response from the target (person) (the determination result “NO” in step S4)
  • the response determination unit 105 transmits the determination result of the reaction from the target to the influence degree calculation unit 106.
  • the influence degree calculation unit 106 receives the reaction determination result from the response determination unit 105.
  • the influence degree calculation unit 106 calculates an influence degree score based on the reaction determination result (step S5). Specifically, the influence degree calculation unit 106 calculates the number of target reactions indicated by the reaction determination result as an influence degree score.
  • the influence degree calculation unit 106 calculates “100” as the influence degree score when the number of reactions indicated by the reaction determination result is 100. Further, the influence degree calculation unit 106 calculates “123” as the influence degree score when the number of reactions indicated by the reaction determination result is 123.
  • the influence degree calculation unit 106 outputs and displays the influence degree score on a display device such as a display (step S6).
  • the output unit from which the impact calculation unit 106 outputs the impact score is not limited to a display device, and may be a speaker.
  • the influence degree calculation unit 106 converts the influence degree score into sound by a speaker and outputs it.
  • the influence degree calculation unit 106 may record the influence degree score in another output unit (for example, the storage unit 107).
  • the influence degree score recorded in the storage unit 107 may be displayed on a display device such as a display by a function unit different from the influence degree calculation unit 106.
  • the influence degree score recorded in the storage unit 107 may be voiced by a speaker and output by a function unit different from the influence degree calculation unit 106.
  • the measured object specifying unit 103 specifies a measured object that may have an influence on a target such as a person.
  • the environment determination unit 104 determines whether or not there is an environment in which a target affected by the measurement target specified by the measurement target specifying unit 103 exists.
  • the response determination unit 105 determines whether or not there is a reaction from the target affected by the measurement target specified by the measurement target specifying unit 103.
  • the influence degree calculation unit 106 calculates an influence degree score indicating the degree of influence given to the target based on the reaction of the target determined by the response determination unit 105.
  • the influence degree calculation unit 106 outputs the influence degree score to a predetermined output unit.
  • the influence measuring apparatus 10 can measure the influence of various measured objects including moving objects such as people and advertising vehicles on objects existing in the vicinity.
  • the influence measuring apparatus 10 When the function of the influence measuring device 10 is distributed and realized in the network system 3 shown in FIG. 1, the functional unit provided in the measured object and the functional unit provided in the device other than the measured object communicate with each other. In order to do this, it is necessary to specify the object to be measured. Therefore, the influence measuring apparatus 10 needs to execute step S1 shown in FIG. However, when the entire function of the influence measuring apparatus 10 is provided in the measurement object, information is transmitted and received in the influence measuring apparatus 10, and therefore the influence measuring apparatus 10 does not necessarily execute step S1. There is no need.
  • the measured object is not limited to the advertising vehicle 1 shown in FIG.
  • the object to be measured for example, audibly outputs a visually noticeable person wearing accessories, clothing, hairstyle, etc., a perceptually noticeable person wearing perfume, and information for publicizing a new store opening. It may be an auditory conspicuous person with a speaker. Alternatively, the object to be measured may be an animal or an object other than a person. Furthermore, the measured object may be three-dimensionally acting like a speaker.
  • FIG. 5 is a block diagram of the influence measuring apparatus 10 according to the second embodiment. Similar to the influence measurement apparatus 10 according to the first embodiment, the influence measurement apparatus 10 according to the second embodiment includes the constituent elements 101 to 107 and the first communication unit 108 and the second communication unit 109. Specifically, the influence measuring device 10 includes a first influence measuring device 10a and a second influence measuring device 10b. The first influence measuring apparatus 10a includes a sensor 101, a sensor information analysis unit 102, and a first communication unit 108. Further, the second influence measuring apparatus 10b includes a measured object specifying unit 103, an environment determining unit 104, a response determining unit 105, an influence calculating unit 106, a storage unit 107, and a second communication unit 109. Prepare.
  • the sensor 101 detects a physical quantity for extracting a target affected by the measured object.
  • the sensor 101 is an image sensor that detects light and converts it into image information.
  • the sensor information analysis unit 102 performs processing on the detection information indicating the physical quantity detected by the sensor 101. For example, when the sensor 101 is an image sensor, the sensor information analysis unit 102 acquires image information from the sensor 101, performs image analysis such as face recognition on the image information, and extracts a person.
  • the measured object specifying unit 103 specifies a measured object that may have an influence on a target such as a person.
  • a target such as a person.
  • the correspondence relationship between the ID of the influence measuring device 10 and the ID of the measured object is stored in the storage unit 107 in advance, and the measured object specifying unit 103 reads the correspondence relationship from the storage unit 107 and sends it to the target.
  • a measurement object (measurement object provided with the sensor 101) that may have an influence is specified.
  • the environment determination unit 104 determines whether or not there is an environment in which a target affected by the measured object exists. For example, the environment determination unit 104 determines that the target environment exists when the sensor information analysis unit 102 extracts a person from the detection information of the sensor 101. The environment determination unit 104 determines that there is no environment in which the target exists when the sensor information analysis unit 102 does not extract a person from the detection information.
  • the response determination unit 105 determines whether or not there is a reaction from a target (person) affected by the measured object. For example, the response determination unit 105 determines the orientation of each person's face extracted from the detection information by the sensor information analysis unit 102 using image analysis technology. The response determination unit 105 determines that there is a response from the person when the face of the person faces the sensor 101. Then, the response determination unit 105 determines that the more the number of persons turning their faces toward the sensor 101 extracted by the sensor information analysis unit 102, the more reactions from the person. The response determination unit 105 determines that there is no response from the person when the face of the person is not facing the sensor 101.
  • the influence degree calculation unit 106 calculates an influence degree score indicating the degree of influence of the measured object on the person based on the reaction of the person determined by the response determination unit 105. For example, the influence degree calculation unit 106 calculates “100” as the influence degree score when the number of person reactions determined by the response determination unit 105 is 100. Further, the influence degree calculation unit 106 calculates “123” as the influence degree score when the number of person reactions determined by the response determination unit 105 is 123.
  • the storage unit 107 stores various information necessary for processing executed by the influence degree measuring apparatus 10.
  • the storage unit 107 stores a correspondence relationship between the ID of the influence measuring device 10 and the ID of the measurement target.
  • the first communication unit 108 performs wireless communication with the second communication unit 109. For example, the first communication unit 108 transmits the person extraction result from the sensor information analysis unit 102 to the second communication unit 109. The second communication unit 109 receives the person extraction result from the first communication unit 108.
  • the second influence measuring device 10 b is provided in the advertising vehicle 1 that is the measured object
  • the first influence measuring device 10 a is provided in the flying vehicle 2 that automatically tracks the advertising vehicle 1.
  • the advertising vehicle 1 and the flying object 2 perform wireless communication with each other, and the flying object 2 has a function of automatically tracking the advertising vehicle 1.
  • the processing procedure of the influence measuring apparatus 10 according to the second embodiment is the same as the processing procedure of the influence measuring apparatus 10 according to the first embodiment illustrated in FIG.
  • the second embodiment is implemented by providing a process in which the flying object 2 automatically tracks the advertising vehicle 1 and a process in which various information is transmitted and received between the first communication unit 108 and the second communication unit 109. Different from Example 1.
  • a camera 20 including a sensor 101 and a sensor information analysis unit 102 is provided on the flying object 2.
  • Example 2 when the advertising vehicle 1 starts traveling according to a predetermined route, the camera 20 starts photographing.
  • the flying object 2 tracks the advertising vehicle 1.
  • the advertising vehicle 1 and the flying object 2 each have a GPS function.
  • the flying object 2 acquires position information of the flying object 2 and the advertising vehicle 1 by the GPS function.
  • a control unit provided in the flying object 2 itself so that the flying object 2 tracks and flies behind the advertising vehicle 1 by a predetermined distance relative to the position at each time indicated by the position information of the advertising vehicle 1. It is controlled by.
  • the person extraction result of the sensor information analysis unit 102 is transmitted to the second communication unit 109 via the first communication unit 108 by step S2 of FIG.
  • the environment determination unit 104 receives the person extraction information of the sensor information analysis unit 102 via the second communication unit 109.
  • the measured object specifying unit 103 specifies a measured object that may have an influence on a target such as a person.
  • the environment determination unit 104 determines whether or not there is an environment in which a target affected by the measurement target specified by the measurement target specifying unit 103 exists.
  • the response determination unit 105 determines whether or not there is a reaction from the target affected by the measurement target specified by the measurement target specifying unit 103.
  • the influence degree calculation unit 106 calculates an influence degree score indicating the degree of influence of the measured body on the person based on the reaction of the person determined by the response determination unit 105.
  • the impact calculation unit 106 outputs the impact score to an output unit (display, speaker, etc.).
  • the influence measuring apparatus 10 can measure the influence which various to-be-measured bodies including moving bodies, such as a person and an advertisement vehicle, have on the surrounding object.
  • FIG. 7 is a block diagram of the influence measuring apparatus 10 according to the third embodiment.
  • the influence measuring apparatus 10 according to the third embodiment includes the same components 101 to 109 as the influence measuring apparatus 10 according to the second embodiment.
  • the influence measuring apparatus 10 according to the third embodiment includes a third influence measuring apparatus 10c and a fourth influence measuring apparatus 10d.
  • the third influence measuring apparatus 10c includes a sensor 101, a sensor information analysis unit 102, an environment determination unit 104, and a first communication unit 108.
  • the fourth influence measuring apparatus 10d includes a measured object specifying unit 103, a response determining unit 105, an influence calculating unit 106, a storage unit 107, and a second communication unit 109.
  • the sensor 101 detects a physical quantity for extracting a target affected by the measured object.
  • the sensor 101 is an image sensor that detects light and converts it into image information.
  • the sensor information analysis unit 102 performs processing on information indicating the physical quantity detected by the sensor 101. For example, when the sensor 101 is an image sensor, the sensor information analysis unit 102 acquires image information from the sensor 101, performs image analysis such as face recognition on the image information, and extracts a person.
  • the environment determination unit 104 determines whether or not there is an environment in which a target affected by the measured object exists. For example, when the sensor information analysis unit 102 extracts a person from the detection information of the sensor 101, the environment determination unit 104 determines that the environment affected by the measurement target exists. Further, the environment determination unit 104 determines that there is no target environment when the sensor information analysis unit 102 does not extract a person from the detection information.
  • the response determination unit 105 determines whether or not there is a reaction from the target affected by the measured object. For example, the response determination unit 105 determines the orientation of each person's face extracted from the detection information by the sensor information analysis unit 102 using image analysis technology. The response determination unit 105 assumes a straight line extending in the direction of the faces of a plurality of persons, and determines a location where a plurality of straight lines intersect a predetermined number or more. Then, the response determination unit 105 determines that there is a reaction from the target when an object is present at a location where a plurality of straight lines intersect a predetermined number or more. At this time, the response determination unit 105 determines that the greater the number of intersecting straight lines, the greater the number of reactions from the target.
  • the response determination unit 105 determines that there is no reaction from the target when there is no object at a location where a plurality of straight lines intersect a predetermined number (predetermined threshold) or more. This is a determination process in consideration of performing an operation of directing a face to a measured object when the target is a person and the person pays attention to the measured object.
  • the influence degree calculating unit 106 calculates an influence degree score indicating the degree of influence that the measured body has on the object based on the reaction of the object determined by the response determining unit 105. For example, the influence degree calculation unit 106 calculates “100” as the influence degree score when the number of straight lines intersecting the specific portion determined by the response determination unit 105 is 100. Further, the influence degree calculation unit 106 calculates “123” as the influence degree score when the number of straight lines intersecting the specific portion determined by the response determination unit 105 is 123.
  • the measured object specifying unit 103 specifies a measured object that is affecting the object based on the reaction from the object. For example, the measured object specifying unit 103 specifies an object corresponding to an influence score greater than or equal to a predetermined threshold calculated by the influence calculating unit 106 as a measured object affecting the target.
  • the storage unit 107 stores various information necessary for processing executed by the influence measuring apparatus 10. For example, the storage unit 107 stores a threshold used by the response determining unit 105 for the determination process and a threshold used by the measured object specifying unit 103 for the specifying process.
  • the first communication unit 108 communicates with the second communication unit 109.
  • the first communication unit 108 transmits to the second communication unit 109 the result of the sensor information analysis unit 102 extracting a person from the detection information.
  • the second communication unit 109 receives the person extraction result of the sensor information analysis unit 102 via the first communication unit 108.
  • the first communication unit 108 transmits a target presence signal to the second communication unit 109 when the environment determination unit 104 determines that the environment exists in which the target exists.
  • the second communication unit 109 receives the target presence signal via the first communication unit 108.
  • FIG. 8 shows a system in which the third influence measuring device 10c is provided in a shopping mall, and the fourth influence measuring device 10d is incorporated in a server located away from the third influence measuring device 10c.
  • FIG. 9 shows a processing procedure when the influence measuring apparatus 10 according to the third embodiment is applied to the system shown in FIG.
  • the sensor 101 and the sensor information analysis unit 102 are built in the camera 20 provided so as to be able to photograph an object existing in the shopping mall, and the sensor 101 is an image sensor built in the camera 20.
  • the processing procedure of the influence measuring apparatus 10 will be described on the assumption that the measured object that may have an influence on the object is a person.
  • the camera 20 starts shooting.
  • the sensor 101 converts light detected in a range where a plurality of persons can be photographed by the camera 20 provided in the shopping mall into image information.
  • the sensor information analysis unit 102 acquires image information from the sensor 101 at regular intervals.
  • the sensor information analysis unit 102 performs image analysis such as face recognition on the image information and extracts a person (step S1).
  • the sensor information analysis unit 102 transmits the person extraction result to the second communication unit 109 via the first communication unit 108. Further, the sensor information analysis unit 102 transmits the person extraction result to the environment determination unit 104.
  • the response determination unit 105 receives the person extraction result via the second communication unit 109.
  • the environment determination unit 104 receives the person extraction result from the sensor information analysis unit 102. Based on the person extraction result, the environment determination unit 104 determines whether or not there is an environment in which there is a target affected by the measured object (step S2). Specifically, the environment determination unit 104 determines that the target environment exists when the sensor information analysis unit 102 extracts a person from the detection information of the sensor 101. Further, the environment determination unit 104 determines that there is no target environment when the sensor information analysis unit 102 does not extract a person from the detection information.
  • the environment determination unit 104 returns the flow to step S1 when it is determined that there is no environment in which an object affected by the measured object exists (determination result “NO” in step S2).
  • the first communication unit 108 transmits a target presence signal indicating that the target exists in the environment. Is transmitted to the second communication unit 109.
  • the response determination unit 105 receives the target presence signal from the environment determination unit 104 via the second communication unit 109.
  • the response determination unit 105 determines whether there is a reaction from the target based on the person extraction result received from the sensor information analysis unit 102 (step S3).
  • the response determination unit 105 determines the orientation of each person's face extracted by the sensor information analysis unit 102 using image analysis technology.
  • the response determination unit 105 assumes a straight line extending in the direction of the person's face, and specifies a location where the straight line intersects a predetermined number (a predetermined threshold) or more. Then, the response determination unit 105 determines that the number of human reactions increases as the number of intersecting straight lines increases. In addition, the response determination unit 105 determines that there is no human reaction when the straight lines do not intersect with a predetermined number (predetermined threshold) or when there is no object at the intersection of the straight lines.
  • the response determination unit 105 specifies the face orientation of each of the persons A, B, C, D, and E. That is, the response determination unit 105 performs the straight line a extending in the direction of the face of the person A, the straight line b extended in the direction of the face of the person B, the straight line c extended in the direction of the face of the person C, and the direction of the face of the person D. And a straight line e extending in the direction of the face of the person E is specified.
  • the response determination unit 105 identifies a location where the straight lines a, b, c, d, and e intersect a predetermined number (a predetermined threshold) or more. For example, when the predetermined number (predetermined threshold value) is three, the response determination unit 105 identifies the position P that is a location where the straight lines b, c, and d intersect. The response determination unit 105 determines whether or not a person exists at the position P based on the image analysis result. As illustrated in FIG. 8, the response determination unit 105 determines that the person E exists at the position P, and determines that there is a reaction from a plurality of objects (that is, persons B, C, and D).
  • step S3 determines that there is no reaction from the target affected by the measured object (the determination result of step S3 is “NO”), the flow returns to step S1.
  • the response determination unit 105 determines that there is a reaction from the target (the determination result “YES” in step S ⁇ b> 3)
  • the response determination unit 105 transmits the determination result of the reaction from the target to the influence degree calculation unit 106.
  • the influence degree calculation unit 106 receives the reaction determination result from the response determination unit 105.
  • the influence degree calculation unit 106 calculates an influence degree score based on the reaction determination result (step S4).
  • the influence degree calculation unit 106 calculates “100” as the influence degree score when the number of straight lines intersecting the specific portion determined by the response determination unit 105 is 100. Further, the influence degree calculation unit 106 calculates “123” as the influence degree score when the number of straight lines intersecting the specific portion determined by the response determination unit 105 is 123. In the case of FIG. 8, the influence calculation unit 106 obtains a response determination result that the three lines b, c, and d intersect at the position P from the response determination unit 105 and that the person E exists at the position P. get. The influence degree calculation unit 106 calculates an influence degree score “3” for the person E based on the reaction determination result of the response determination unit 105.
  • the measured object specifying unit 103 specifies a measured object that affects the target based on the reaction from the target. For example, the measured object specifying unit 103 specifies that an object corresponding to an influence score equal to or greater than a predetermined threshold calculated by the influence calculating unit 106 is a measured object affecting the target (step S5). .
  • the influence degree calculation unit 106 outputs and displays the influence degree score on a display device such as a display (step S6).
  • the environment determination unit 104 determines whether or not the environment affected by the measured object exists.
  • the response determination unit 105 determines whether or not there is a reaction from a target affected by the measurement object.
  • the influence degree calculation unit 106 calculates an influence degree score indicating the degree of influence that the measured body has on the target based on the reaction of the target determined by the response determination unit 105.
  • the measured object specifying unit 103 specifies a measured object that is affecting the target based on the influence score calculated by the influence calculating unit 106.
  • the influence degree calculation unit 106 outputs the influence degree score to an output unit (for example, a display device).
  • the influence measurement apparatus 10 according to the third embodiment can measure the influence of various measured objects including moving objects such as people and advertising vehicles on surrounding objects.
  • the method for determining whether or not the environment determination unit 104 is in an environment in which an object affected by the measurement object exists is not limited to the above-described determination method.
  • the environment determination unit 104 may determine whether or not there is an environment in which an object to be affected exists based on at least one of the position and time of the measurement object.
  • the device under test includes a device capable of specifying a position such as GPS.
  • the environment determination unit 104 acquires position information from a position-identifiable device. For example, when the object to be measured is moving in a place where a large number of people (that is, objects) exist regardless of time, such as Shinjuku and Shibuya in Tokyo, Japan, the environment determination unit 104 determines the object to be measured.
  • the environment affected by the target exists.
  • the object to be measured is moving in a place where no person exists, such as a forest or a tree sea, it is determined that there is no environment in which an object affected by the object to be measured exists.
  • a device capable of specifying the position may be provided in the sensor 101 of the influence measuring device 10.
  • the storage unit 107 stores in advance the relationship between each time of day and the number of objects in the shopping mall.
  • the environment determination unit 104 reads the relationship between each time of day and the number of objects in the shopping mall from the storage unit 107. Specifically, the environment determination unit 104 reads the time from a timer at the determination timing. The environment determination unit 104 reads the relationship between the time read from the timer and the number of objects from the storage unit 107. The environment determination unit 104 reads the number of objects corresponding to the time read from the timer in the relationship read from the storage unit 107.
  • the environment determination unit 104 determines that there is an environment in which there are targets affected by the measured object. Further, when the number of targets read from the storage unit 107 is zero, the environment determination unit 104 determines that there is no environment in which there is a target affected by the measured object.
  • the object to be measured includes a device capable of specifying a position such as GPS.
  • the storage unit 107 stores in advance the relationship between each time of day and the number of objects at each position.
  • the environment determination unit 104 reads the relationship between each time of day and the number of objects at each position from the storage unit 107. Specifically, the environment determination unit 104 acquires position information from a device whose position can be specified. The environment determination unit 104 reads the time from the timer at the determination timing. The environment determination unit 104 reads a relationship that matches the position information from the storage unit 107.
  • the environment determination unit 104 refers to the relationship read from the storage unit 107 based on the time read from the timer and the position information, and identifies the number of objects corresponding to the time and position. When the number of objects described in the relationship read from the storage unit 107 is not zero, the environment determination unit 104 determines that there is an environment in which there are targets that are affected by the measured object. On the other hand, when the number of objects is zero, the environment determination unit 104 determines that there is no environment in which an object affected by the measurement object exists. Note that if the object to be measured cannot be specified in advance, a device capable of specifying the position may be provided in the sensor 101 of the influence measuring device 10.
  • the environment determination unit 104 may determine whether there is an environment in which an object affected by the measured object exists based on a sound situation around the measured object.
  • the device to be measured includes a device for acquiring ambient sounds such as a microphone.
  • the environment determination unit 104 acquires volume information from a device that acquires sound around the measured object, and when the volume is equal to or higher than a predetermined threshold, the environment determining unit 104 is in an environment where there is a target affected by the measured object. Is determined.
  • the sound volume is less than a predetermined threshold, the environment determination unit 104 determines that there is no environment in which an object affected by the measured object exists. Note that if the object to be measured cannot be specified in advance, a device that acquires sound around the object to be measured may be provided in the sensor 101 of the influence measuring device 10.
  • the environment determination unit 104 may determine whether there is an environment in which a target affected by the measurement target exists based on a communication state around the measurement target.
  • a device to be measured and a target are each provided with a device capable of short-range communication.
  • the short-range communication device provided for the target determines in advance a procedure for transmitting a communication start notification signal for notifying the environment determination unit 104 of the start of communication.
  • the environment determination unit 104 determines that there is an environment in which an object affected by the measurement object exists.
  • the environment determination unit 104 determines that there is no environment in which an object affected by the measurement target exists.
  • the environment determination unit 104 determines that the object to be measured is present when there are short-range communication devices that are communicating simultaneously with a number of short-range communication devices equal to or greater than a predetermined threshold. It is determined that the environment affected by the target exists.
  • the environment determination unit 104 if there is no short-range communication device that is communicating simultaneously with a number of short-range communication devices equal to or greater than the predetermined threshold, the environment determination unit 104 is not in an environment where there is an object affected by the measured object. judge.
  • the environment determination unit 104 is in an environment where there is an object that is affected by the measurement object based on whether or not a device that can distribute information about the measurement object exists around the measurement object. It may be determined whether or not.
  • a “button image” that is operated when a device capable of delivering information on a measurement object has a good impression of the measurement object is distributed to the target by short-range communication.
  • the subject is equipped with a device capable of near field communication.
  • the short-range communication device included in the target determines in advance a procedure for transmitting a reception notification signal that notifies reception of the “button image” to the environment determination unit 104.
  • the environment determination unit 104 determines that the environment in which the target affected by the measured object exists. On the other hand, the environment determination unit 104 determines that there is no environment in which an object affected by the measured object exists when the reception notification signal is not received.
  • the method by which the response determination unit 105 determines whether or not there is a reaction from the target affected by the measurement object is not limited to the above-described determination method.
  • the response determination unit 105 may determine whether or not there is a reaction from the target based on the communication status around the measured object.
  • the response determination unit 105 may determine whether or not there is a reaction from the target based on the sound situation around the measured object.
  • the device under test includes a device that acquires ambient sounds such as a microphone.
  • the response determination unit 105 acquires a volume from a device that acquires sound around the measured object, and determines that there is a reaction from a target affected by the measured object when the volume is equal to or higher than a predetermined threshold. . On the other hand, the response determination unit 105 determines that there is no response from the target when the volume is less than a predetermined threshold. Note that if the object to be measured cannot be specified in advance, a device that acquires sound around the object to be measured may be provided in the sensor 101 of the influence measuring device 10.
  • the response determination unit 105 may determine whether or not there is a reaction from the target based on the communication status around the measured object.
  • each of the measurement object and the object includes a device capable of short-range communication.
  • the short-range communication device provided for the target determines in advance a procedure for transmitting a communication start notification signal to notify the start of communication to the response determination unit 105.
  • the response determination unit 105 determines that there is a reaction from the target affected by the measured object.
  • the response determination unit 105 determines that there is no reaction from the target when the communication start notification signal is not received.
  • the response determination unit 105 responds from the target when there are short-range communication devices that are simultaneously communicating with a number of short-range communication devices equal to or greater than a predetermined threshold. It is determined that there is. On the other hand, the response determination unit 105 determines that there is no response from the target when there is no short-range communication device that performs communication simultaneously with the number of short-range communication devices equal to or greater than the predetermined threshold.
  • the response determination unit 105 performs an operation of directing the face to the measurement object when the target focuses on the measurement object, similarly to the response determination unit 105 according to the third example. Whether or not there is a reaction from the subject may be determined based on the above.
  • FIG. 10 is a block diagram showing the minimum configuration of the influence measuring apparatus 10 according to the present invention.
  • the influence measuring apparatus 10 includes at least a measuring unit 201 and an output unit 202.
  • the measuring unit 201 measures the influence of the moving first object on the second object.
  • the output unit 202 outputs information related to the influence of the first target on the second target.
  • the information regarding the influence is, for example, the measurement result of the measurement unit 201 that measures the influence of the moving first object on the second object.
  • FIG. 11 is a flowchart showing a processing procedure of the influence measuring apparatus 10 shown in FIG.
  • the measurement unit 201 measures the influence of the moving first object on the second object (step S11).
  • the measurement unit 201 sends the measurement result to the output unit 202.
  • the output unit 202 When receiving the measurement result from the measurement unit 201, the output unit 202 outputs the measurement result (step S12).
  • the storage unit 107 may be provided anywhere within a range where desired information can be transmitted and received.
  • the storage unit 107 may store a plurality of pieces of data within a range in which desired information can be transmitted and received.
  • the influence measuring apparatus 10 has a computer system therein.
  • the above-described processing procedure is stored in a computer-readable storage medium in a program format.
  • the computer reads out the program from the storage medium and executes it, whereby the above-described processing procedure is performed.
  • the computer-readable storage medium is a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • a computer program may be distributed to a computer via a communication line so that the computer executes the program.
  • the above program may realize a part of the function of the influence measuring device 10. Moreover, what can implement
  • the present invention relates to an influence measuring device and an influence measuring method for measuring the influence of an advertising medium (such as a person or an advertising vehicle) on a target (person or the like), but to an information transmission source other than the advertising medium. You may measure the influence which it has on.
  • an advertising medium such as a person or an advertising vehicle
  • a target person or the like

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

影響度測定装置は、人や広告車両などの移動する第1の対象が人物などの第2の対象に与える影響度を測定する。影響度測定装置は、少なくとも影響度を測定する測定部と、影響度を出力する出力部とを備える。具体的には、影響度測定装置は、第1の対象が影響を与える可能性がある第2の対象が存在するか否かを判定するとともに、第2の対象から反応があるか否かを判定し、その判定結果に基づいて第1の対象が第2の対象に与える影響度を測定する。また、カメラで第1の対象から第2の対象を撮影した画像データを解析することにより、第2の対象の存在や第2の対象からの反応を判定してもよい。

Description

影響度測定装置および影響度測定方法
 本発明は、インターネットメディアなどにおいて他者に大きな影響を及ぼす人や物(インフルエンサー)による影響の度合いを測定する影響度測定装置および影響度測定方法に関する。
 本願は、2015年8月28日に日本国に出願された特願2015-169784号に基づき優先権を主張し、その内容をここに援用する。
 近年、インターネットマーケティングの分野、特に、ブログや動画サイト、ソーシャルネットワーキングサービスを始めとする消費者発信型メディアにおいて、他者へのクチコミの影響力が大きいキーパーソンとしてインフルエンサーが知られている。また、屋外や店頭などに設置された映像表示装置であって、その近辺の人や通りすがりの人に案内情報や広告などを表示し、看板やポスターなどを電子化したものとしてデジタルサイネージが知られている。さらに、デジタルサイネージなどに表示される情報に対する閲覧者の反応を測定するシステムも開発されている。
 上述のインフルエンサーやデジタルサイネージに関して種々の技術が開発されている。特許文献1は、潜在顧客に広告コンテンツを提供する広告ステーションにおいて人物トラッキング及びインタアクティブ広告を行なう技術を開示している。この技術は、広告コンテンツを提供するディスプレイを見ている潜在顧客をカメラで撮影し、潜在顧客の視線方法および身体姿勢方向に基づいて広告コンテンツに対する潜在顧客の関心度を判定する。特許文献2は、ソーシャルメディアなどにおいて書き込み情報の影響度を算出する影響度算出装置および影響度算出方法を開示している。特許文献3は、デジタルサイネージシステムにおいて広告情報のCTR(Click Through Rate)をカウント可能な広告配信システムを開示している。特許文献4は、ソーシャルメディアにおいて広く伝播されている書き込み情報を発信したユーザをインフルエンサーとして抽出するインフルエンサー抽出装置およびインフルエンサー抽出方法を開示している。特許文献5は、広告メディア掲示装置の近傍に設置されたカメラの撮像画像に基づいて、広告メディアなどのメディア情報に対する人々の注目度を測定可能な注目度測定装置および注目度測定方法を開示している。
特開2013-050945号公報 特開2012-203499号公報 特開2012-098991号公報 特開2012-078933号公報 特開2010-108257号公報
 上述の技術では、ディスプレイやデジタルサイネージなどの非移動物体に表示される広告情報に対する潜在顧客の関心度を判定しており、人や広告車両などの移動物体が示す情報に対する潜在顧客の関心度を判定する技術は実現されていない。
 本発明は、上述の課題を解決するためになされたものであり、インフルエンサーによる他者への影響の度合いを測定する影響度測定装置および影響度測定方法を提供することを目的とする。
 本発明の第1の態様は、移動する第1の対象が第2の対象に与える影響度を測定する測定部と、測定部が測定した影響度を出力する出力部とを備える影響度測定装置である。
 本発明の第2の態様は、移動する第1の対象が第2の対象に与える影響度を測定し、測定した影響度を出力する影響度測定方法である。
 本発明によれば、人や広告車両などの移動する第1の対象が人物などの第2の対象に与える影響度を測定することができる。
本発明に係る影響度測定装置の機能を実現するネットワークシステムのブロック図である。 本発明の実施例1に係る影響度測定装置のブロック図である。 実施例1に係る影響度測定装置を備えた広告車両のブロック図である。 実施例1に係る影響度測定装置の処理手順を示すフローチャートである。 本発明の実施例2に係る影響度測定装置のブロック図である。 実施例2に係る影響度測定装置の機能を広告車両と飛行体とに適用した構成を示すブロック図である。 本発明の実施例3に係る影響度測定装置のブロック図である。 実施例3に係る影響度測定装置の機能をサーバとの協働で実現したときの構成を示すブロック図である。 実施例3に係る影響度測定装置の処理手順を示すフローチャートである。 本発明に係る影響度測定装置の最小構成を示すブロック図である。 影響度測定装置の処理手順を示すフローチャートである。
 本発明に係る影響度測定装置および影響度測定方法について実施例とともに添付図面を参照して詳細に説明する。まず、本発明に係る影響度測定装置10の機能を実現するネットワークシステム3について説明する。
 図1は、ネットワークシステム3のブロック図である。ネットワークシステム3は、センサ101と、エッジサーバ30と、クラウドサーバ40とを備える。エッジサーバ30はエンドユーザの近くに設置されており、クラウドサーバ40は複数のサーバを1つのサーバのように動作させるものである。図1に示すネットワークシステム3の場合、エッジサーバ30はセンサ101の近くに設置されており、クラウドサーバ40はエッジサーバ30に接続されている。
 図1のネットワークシステム3では、センサ101の各々にエッジサーバ30が接続され、複数のエッジサーバ30がクラウドサーバ40に接続されている。この場合、例えば、影響度測定装置10の機能をエッジサーバ30に備えるようにしてもよい。或いは、影響度測定装置10に含まれる複数の機能部を複数のエッジサーバ30に分散して備えてもよい。また、影響度測定装置10に含まれる複数の機能部をエッジサーバ30とクラウドサーバ40のそれぞれに分散してもよい。なお、影響度測定装置10の機能はネットワークシステム3内のエッジサーバ30やクラウドサーバ40により実現されることに限定されるものではない。影響度測定装置10の機能をサーバやセンサを一体化した装置により実現してもよい。
 影響度測定装置10の機能をネットワークシステム3で実現する場合、第1の対象(例えば、インフルエンサー)の第2の対象(例えば、人や動物など)への影響度に基づいて、割引クーポンやポイントを第1の対象に提供するようにしてもよい。以下、第1の対象を影響度測定装置10の「測定対象(又は、被測定体)」とし、第2の対象を「影響対象(又は、対象)」とする。これにより、被測定体(インフルエンサー)は、対象に対する影響度により、低価格で商品を購入することができる。また、割引クーポンやポイントを用いて購入された商品を提供する製造業者や販売業者などの企業は、被測定体による対象への商品宣伝を通じて、商品売上げが増加し、利益を得ることができる。
 本発明の実施例1に係る影響度測定装置10について説明する。図2は、影響度測定装置10のブロック図である。影響度測定装置10は、センサ101と、センサ情報解析部102と、被測定体特定部(特定部)103と、環境判定部(第1の判定部)104と、レスポンス判定部(第2の判定部)105と、影響度算出部106と、記憶部107とを備える。なお、センサ情報解析部102と、被測定体特定部103と、環境判定部104と、レスポンス判定部105と、影響度算出部106とを測定部と総称する。
 センサ101は、被測定体により影響を受ける対象を抽出するための物理量を検出する。例えば、センサ101は、光を検出して画像情報に変換するイメージセンサである。
 センサ情報解析部102は、センサ101が検出した物理量に係る検知情報に対して処理を施す。例えば、センサ情報解析部102は、センサ101がイメージセンサである場合、センサ101から画像情報を取得し、その画像情報に対して顔認識などの画像解析を行なって、人物を抽出する。
 被測定体特定部103は、人物などへ影響を与えている可能性のある被測定体を特定する。例えば、影響度測定装置10の識別情報(ID)と被測定体の識別情報(ID)との対応関係が記憶部107に予め記憶されている。被測定体特定部103は、影響度測定装置10のIDを取得して、影響度測定装置10と被測定体との対応関係を記憶部107から読み出す。被測定体特定部103は、対応関係に記述されたIDが示す影響度測定装置10に備えられるセンサ101を特定し、そのセンサ101を備えるものを対象に影響を与えている可能性がある被測定体であると特定する。
 環境判定部104は、被測定体特定部103が特定した被測定体により影響を受ける対象が存在する環境にあるか否か、すなわち、被測定体特定部103が特定した被測定体が影響を与える可能性がある対象が存在するか否かを判定する。例えば、環境判定部10は、センサ情報解析部102が検知情報から人物を抽出した場合に、被測定体が影響を与える可能性がある対象が存在する環境にあると判定する。また、環境判定部104は、センサ情報解析部102が人物を抽出しない場合に、被測定体が影響を与える可能性がある対象が存在する環境にない、すなわち、当該対象が存在しないと判定する。環境判定部104が対象の存在する環境にあると判定した場合には、被測定体が実世界において対象に影響を与える可能性があるということができる。また、環境判定部104が対象の存在する環境にないと判定した場合には、被測定体が実世界において影響を与える可能性がある対象が存在しないため、被測定体は対象に影響を与える活動自体を行なう必要がないということができる。
 レスポンス判定部105は、被測定体からの影響を受ける対象から反応があるか否かを判定する。例えば、レスポンス判定部105は、画像解析技術を用いてセンサ情報解析部102が抽出した各人物の顔の向きを特定する。具体的には、モデルとなる人物の顔を様々な角度(方向)から撮影し、それぞれの角度と、それぞれの角度における目や口などの顔の部位の位置関係を含む顔とを関連付けて記憶部107に予め記憶する。レスポンス判定部105は、センサ情報解析部102が抽出した各人物の顔と、予め記憶部107に記録した顔とを比較し、記憶部107が記憶する顔の中から顔の部位の位置関係が一致する顔を特定する。レスポンス判定部105は、特定した顔に関連付けられている角度を顔の向きと判定する。レスポンス判定部105は、特定した顔の向きがセンサ101を向いている場合に、対象から反応があると判定する。そして、レスポンス判定部105は、センサ情報解析部102が抽出した人物であって、センサ101に顔を向けている人物の数が多い程、対象からの反応が多いと判定する。また、レスポンス判定部105は、特定した顔の向きがセンサ101を向いていない場合に、対象からの反応がないと判定する。
 影響度算出部106は、レスポンス判定部105が判定した対象の反応に基づいて、影響度を示す影響度スコア(即ち、移動する被測定体が対象に与える影響を示す情報の一例)を算出する。例えば、影響度算出部106は、レスポンス判定部105が判定した対象の反応の数が100個の場合に、影響度スコアとして「100」を算出する。また、影響度算出部106は、レスポンス判定部105が判定した対象の反応の数が123個の場合に、影響度スコアとして「123」を算出する。
 記憶部107は、影響度測定装置10が実行する処理に必要な種々の情報を記憶する。例えば、記憶部107は、影響度測定装置10のIDと被測定体のIDとの対応関係を記憶する。
 次に、実施例1に係る影響度測定装置10の処理について図3及び図4を参照して説明する。図3は、影響度測定装置10が被測定体である広告車両1に設けられた様子を示し、図4は、影響度測定装置10の処理手順を示す。なお、センサ101およびセンサ情報解析部102は、広告車両1に表示される広告の前方にいる対象を撮影できるように設けられたカメラ20に内蔵されている。つまり、センサ101はカメラ20が内蔵するイメージセンサである。
 被測定体特定部103は、影響度測定装置10と、影響度測定装置10を用いて被測定体から対象に与えられる影響度を判定する広告車両1との対応関係を記憶部107から読み出す。被測定体特定部103は、記憶部107から読み出した対応関係に基づいて、センサ101を備える広告車両1が対象へ影響を与えている可能性のある被測定体であると特定する(ステップS1)。
 広告車両1は、停車位置を含む任意のルートを走行する。広告車両1がルートに従って走行を開始すると、カメラ20は、その広告の前方にいる対象の撮影を開始する。センサ101は、光を検出して画像情報に変換する。
 センサ情報解析部102は、一定時間毎にセンサ101から画像情報を取得する。センサ情報解析部102は、画像情報に対して顔認識などの画像解析を行い、対象(人物)を特定する(ステップS2)。センサ情報解析部102は、人物の抽出結果を環境判定部104とレスポンス判定部105とのそれぞれに送信する。
 環境判定部104は、センサ情報解析部102から人物抽出結果を受信する。環境判定部104は、人物抽出結果に基づいて、被測定体から影響を受ける対象が存在する環境にあるか否かを判定する(ステップS3)。具体的には、環境判定部104は、センサ情報解析部102が人物を抽出した場合に、対象が存在する環境にあると判定する。また、環境判定部104は、センサ情報解析部102が人物を抽出しない場合に、対象が存在する環境にないと判定する。
環境判定部104は、被測定体からの影響を受ける対象が存在する環境にないと判定した場合(ステップS3の判定結果「NO」)、フローをステップS2に戻す。一方、環境判定部104は、対象が存在する環境にあると判定した場合(ステップS3の判定結果「YES」)、対象が存在する環境にあることを示す対象存在信号をレスポンス判定部105に送信する。
 レスポンス判定部105は、環境判定部104から対象存在信号を受信する。レスポンス判定部105は、対象存在信号を受信すると、センサ情報解析部102から受信した人物抽出結果に基づいて、対象(人物)から反応があるか否かを判定する(ステップS4)。具体的には、レスポンス判定部105は、画像解析技術を用いてセンサ情報解析部102が抽出した各人物の顔の向きを特定する。レスポンス判定部105は、特定した顔の向きがセンサ101を向いている場合に、その人物から反応があると判定する。そして、レスポンス判定部105は、人物抽出結果が示すセンサ101に顔を向けている人物の数が多い程、その人物からの反応が多いと判定する。また、レスポンス判定部105は、特定した顔の向きがセンサ101を向いていない場合に、その人物から反応がないと判定する。
 レスポンス判定部105は、対象(人物)から反応がないと判定した場合(ステップS4の判定結果「NO」)、フローをステップS2に戻す。一方、レスポンス判定部105は、対象(人物)から反応があると判定した場合(ステップS4の判定結果「YES」)、対象からの反応の判定結果を影響度算出部106に送信する。影響度算出部106は、レスポンス判定部105から反応判定結果を受信する。影響度算出部106は、反応判定結果に基づいて、影響度スコアを算出する(ステップS5)。具体的には、影響度算出部106は、反応判定結果が示す対象の反応の数を影響度スコアとして算出する。例えば、影響度算出部106は、反応判定結果が示す反応数が100個である場合に、影響度スコアとして「100」を算出する。また、影響度算出部106は、反応判定結果が示す反応数が123個である場合に、影響度スコアとして「123」を算出する。影響度算出部106は、影響度スコアをディスプレイなどの表示装置に出力して表示させる(ステップS6)。
 なお、影響度算出部106が影響度スコアを出力する出力部は、表示装置に限定されるものではなく、スピーカであってもよい。この場合、影響度算出部106は、影響度スコアをスピーカで音声化して出力する。また、影響度算出部106は、影響度スコアを他の出力部(例えば、記憶部107)に記録してもよい。また、影響度算出部106とは別の機能部により、例えば、記憶部107に記録された影響度スコアをディスプレイなどの表示装置に表示させてもよい。また、影響度算出部106とは別の機能部により、例えば、記憶部107に記録された影響度スコアをスピーカで音声化して出力させてもよい。
 上述のように、影響度測定装置10において、被測定体特定部103は、人物などの対象へ影響を与えている可能性がある被測定体を特定する。環境判定部104は、被測定体特定部103が特定した被測定体により影響を受ける対象が存在する環境にあるか否かを判定する。レスポンス判定部105は、被測定体特定部103が特定した被測定体により影響を受ける対象から反応があるか否かを判定する。影響度算出部106は、レスポンス判定部105が判定した対象の反応に基づいて、対象に与えられる影響度を示す影響度スコアを算出する。影響度算出部106は、影響度スコアを所定の出力部に出力する。これにより、影響度測定装置10により、人や広告車両などの移動体を含む様々な被測定体が周囲に存在する対象に与える影響を測定することができる。
 影響度測定装置10の機能を図1に示すネットワークシステム3において分散して実現する場合には、被測定体が備える機能部と、被測定体以外の装置などに備えられる機能部とが通信を行うため、被測定体を特定する必要がある。そのため、影響度測定装置10は図4に示すステップS1を実行する必要がある。しかし、影響度測定装置10の全体の機能が被測定体に備えられる場合には、影響度測定装置10内で情報の送受信が行なわれるため、影響度測定装置10は、必ずしもステップS1を実行する必要はない。
 また、被測定体は、図3に示す広告車両1に限定するものではない。被測定体は、例えば、アクセサリー、衣類、ヘアスタイルなどを身に着けた視覚的に目立つ人物、香水などをつけた臭覚的に目立つ人物、店舗の新規開店を広報する情報を音声化して出力するスピーカを備える聴覚的に目立つ人物、などであってもよい。或いは、被測定体は、人物以外の動物や物体であってもよい。さらに、被測定体は、演説者のように三次元的に行動するものであってもよい。
 本発明の実施例2に係る影響度測定装置10について説明する。図5は、実施例2に係る影響度測定装置10のブロック図である。実施例2に係る影響度測定装置10は、実施例1に係る影響度測定装置10と同様に、構成要素101~107を備えるとともに、第1通信部108および第2通信部109を備える。具体的には、影響度測定装置10は、第1影響度測定装置10aと、第2影響度測定装置10bとを備える。第1影響度測定装置10aは、センサ101と、センサ情報解析部102と、第1通信部108とを備える。また、第2影響度測定装置10bは、被測定体特定部103と、環境判定部104と、レスポンス判定部105と、影響度算出部106と、記憶部107と、第2通信部109とを備える。
 センサ101は、被測定体により影響を受ける対象を抽出するための物理量を検出する。例えば、センサ101は、光を検出して画像情報に変換するイメージセンサである。
 センサ情報解析部102は、センサ101が検出した物理量を示す検知情報に対して処理を実行する。例えば、センサ情報解析部102は、センサ101がイメージセンサである場合、センサ101からの画像情報を取得し、その画像情報に対して顔認識などの画像解析を行なって、人物を抽出する。
 被測定体特定部103は、人物などの対象に影響を与えている可能性がある被測定体を特定する。例えば、影響度測定装置10のIDと被測定体のIDとの対応関係が記憶部107に予め記憶されており、被測定体特定部103は、記憶部107から対応関係を読み出して、対象へ影響を与えている可能性がある被測定体(センサ101を設ける被測定体)を特定する。
 環境判定部104は、被測定体から影響を受ける対象が存在する環境にあるか否かを判定する。例えば、環境判定部104は、センサ情報解析部102がセンサ101の検知情報から人物を抽出した場合に、対象が存在する環境にあると判定する。環境判定部104は、センサ情報解析部102が検知情報から人物を抽出しない場合に、対象が存在する環境にないと判定する。
 レスポンス判定部105は、被測定体から影響を受ける対象(人物)から反応があるか否かを判定する。例えば、レスポンス判定部105は、画像解析技術を用いてセンサ情報解析部102が検知情報から抽出した各人物の顔の向きを判定する。レスポンス判定部105は、人物の顔の向きがセンサ101を向いている場合に、その人物から反応があると判定する。そして、レスポンス判定部105は、センサ情報解析部102が抽出したセンサ101に顔を向けている人物の数が多い程、その人物からの反応が多いと判定する。また、レスポンス判定部105は、人物の顔の向きがセンサ101を向いていない場合に、その人物から反応がないと判定する。
 影響度算出部106は、レスポンス判定部105が判定した人物の反応に基づいて、被測定体がその人物に与える影響度を示す影響度スコアを算出する。例えば、影響度算出部106は、レスポンス判定部105が判定した人物の反応の数が100個の場合に、影響度スコアとして「100」を算出する。また、影響度算出部106は、レスポンス判定部105が判定した人物の反応の数が123個の場合に、影響度スコアとして「123」を算出する。
 記憶部107は、影響度測定装置10が実行する処理に必要な様々な情報を記憶する。例えば、記憶部107は、影響度測定装置10のIDと被測定体のIDとの対応関係を記憶する。
 第1通信部108は、第2通信部109と無線通信を行う。例えば、第1通信部108は、センサ情報解析部102からの人物の抽出結果を第2通信部109に送信する。第2通信部109は、第1通信部108から人物抽出結果を受信する。
 次に、実施例2に係る影響度測定装置10の処理手順について説明する。図6に示すように、第2影響度測定装置10bが被測定体である広告車両1に設けられ、第1影響度測定装置10aが広告車両1を自動追跡する飛行体2に設けられるものとする。ここで、広告車両1と飛行体2とは相互に無線通信を行っており、飛行体2には広告車両1を自動追跡する機能が備えられている。
 実施例2に係る影響度測定装置10の処理手順は、図4に示した実施例1に係る影響度測定装置10の処理手順と同様である。しかし、飛行体2が広告車両1を自動追跡する処理と、第1通信部108と第2通信部109との間で種々の情報を送受信する処理とを設けたことで、実施例2は実施例1と異なっている。また、センサ101とセンサ情報解析部102とを備えたカメラ20が飛行体2に設けられている。
 実施例2において、広告車両1が所定のルートに従って走行を開始すると、カメラ20は撮影を開始する。また、飛行体2は、広告車両1を追跡する。例えば、広告車両1と飛行体2とがそれぞれGPS機能を備えている。飛行体2は、GPS機能により飛行体2と広告車両1のそれぞれの位置情報を取得する。飛行体2は、広告車両1の位置情報が示す時間毎の位置に相対して所定の距離だけ広告車両1の上空でその後方を追跡して飛行するように、飛行体2自体が備える制御部により制御されている。
 図4のステップS2により、センサ情報解析部102の人物抽出結果が第1通信部108を介して、第2通信部109に送信される。また、環境判定部104は、センサ情報解析部102の人物抽出情報を第2通信部109を介して受信する。
 上述のように、実施例2に係る影響度測定装置10において、被測定体特定部103は、人物などの対象へ影響を与えている可能性がある被測定体を特定する。環境判定部104は、被測定体特定部103が特定した被測定体により影響を受ける対象が存在する環境にあるか否かを判定する。レスポンス判定部105は、被測定体特定部103が特定した被測定体により影響を受ける対象から反応があるか否かを判定する。影響度算出部106は、レスポンス判定部105が判定した人物の反応に基づいて、被測定体が人物に与える影響度を示す影響度スコアを算出する。影響度算出部106は、影響度スコアを出力部(ディスプレイやスピーカなど)に出力する。これにより、影響度測定装置10は、人や広告車両などの移動体を含む様々な被測定体が周囲の対象に与える影響を測定することができる。
 本発明の実施例3に係る影響度測定装置10について説明する。図7は、実施例3に係る影響度測定装置10のブロック図である。実施例3に係る影響度測定装置10は、実施例2に係る影響度測定装置10と同様の構成要素101~109を備えている。実施例3に係る影響度測定装置10は、第3影響度測定装置10cと第4影響度測定装置10dとを備えている。第3影響度測定装置10cは、センサ101と、センサ情報解析部102と、環境判定部104と、第1通信部108とを備える。第4影響度測定装置10dは、被測定体特定部103と、レスポンス判定部105と、影響度算出部106と、記憶部107と、第2通信部109とを備える。
 センサ101は、被測定体により影響を受ける対象を抽出するための物理量を検出する。例えば、センサ101は、光を検出して画像情報に変換するイメージセンサである。
 センサ情報解析部102は、センサ101が検出した物理量を示す情報に対して処理を施す。例えば、センサ情報解析部102は、センサ101がイメージセンサである場合、センサ101から画像情報を取得し、その画像情報に対して顔認識などの画像解析を行なって、人物を抽出する。
 環境判定部104は、被測定体から影響を受ける対象が存在する環境にあるか否かを判定する。例えば、環境判定部104は、センサ情報解析部102がセンサ101の検知情報から人物を抽出した場合に、被測定体から影響を受ける対象が存在する環境にあると判定する。また、環境判定部104は、センサ情報解析部102が検知情報から人物を抽出しない場合に、対象が存在する環境にないと判定する。
 レスポンス判定部105は、被測定体から影響を受けた対象から反応があるか否かを判定する。例えば、レスポンス判定部105は、画像解析技術を用いてセンサ情報解析部102が検知情報から抽出した各人物の顔の向きを判定する。レスポンス判定部105は、複数の人物の顔の向きに延ばした直線を想定し、複数の直線が所定の本数以上交差する箇所を判定する。そして、レスポンス判定部105は、複数の直線が所定の本数以上交差する箇所に物体が存在する場合に、対象から反応があると判定する。このとき、レスポンス判定部105は、交差する直線の数が多い程、対象からの反応の数が多いと判定する。また、レスポンス判定部105は、複数の直線が所定の本数(所定の閾値)以上交差する箇所に物体が存在しない場合に、対象からの反応がないと判定する。これは、対象が人物であり、その人物が被測定体に対して注目するときに、顔を被測定体に向ける動作を行なうことを考慮した判定処理である。
 影響度算出部106は、レスポンス判定部105が判定した対象の反応に基づいて、被測定体が対象に与える影響度を示す影響度スコアを算出する。例えば、影響度算出部106は、レスポンス判定部105が判定した特定箇所に交差する直線の数が100本の場合に、影響度スコアとして「100」を算出する。また、影響度算出部106は、レスポンス判定部105が判定した特定箇所に交差する直線の数が123本の場合に、影響度スコアとして「123」を算出する。
 被測定体特定部103は、対象からの反応に基づいて、対象へ影響を与えている被測定体を特定する。例えば、被測定体特定部103は、影響度算出部106が算出した所定の閾値以上の影響度スコアに対応する物体を対象へ影響を与えている被測定体と特定する。
 記憶部107は、影響度測定装置10が実行する処理に必要な種々の情報を記憶する。例えば、記憶部107は、レスポンス判定部105が判定処理に用いる閾値と、被測定体特定部103が特定処理に用いる閾値とを記憶する。
 第1通信部108は第2通信部109と通信を行う。例えば、第1通信部108は、センサ情報解析部102が検知情報から人物を抽出した結果を第2通信部109に送信する。第2通信部109は、第1通信部108を介してセンサ情報解析部102の人物抽出結果を受信する。また、第1通信部108は、環境判定部104が対象が存在する環境にあると判定した場合に、対象存在信号を第2通信部109に送信する。第2通信部109は、第1通信部108を介して対象存在信号を受信する。
 次に、実施例3に係る影響度測定装置10の処置手順について説明する。図8は、第3影響度測定装置10cがショッピングモールに設けられ、第3影響度測定装置10cから離れた位置にあるサーバに第4影響度測定装置10dが組み込まれたシステムを示している。図9は、実施例3に係る影響度測定装置10を図8に示すシステムに適用した場合の処理手順を示している。なお、センサ101とセンサ情報解析部102とはショッピングモール内に存在している対象を撮影できるように設けられたカメラ20に内蔵されており、センサ101はカメラ20に内蔵されるイメージセンサである。ここでは、対象に影響を与えている可能性がある被測定体が人物であるものとして、影響度測定装置10の処理手順について説明する。
 まず、カメラ20は撮影を開始する。センサ101は、ショッピングモールに設けられたカメラ20により複数の人物の撮影が可能な範囲において検出した光を画像情報に変換する。
 センサ情報解析部102は、一定時間毎にセンサ101から画像情報を取得する。センサ情報解析部102は、画像情報に対して顔認識などの画像解析を行い、人物を抽出する(ステップS1)。センサ情報解析部102は、人物抽出結果を第1通信部108を介して第2通信部109に送信する。また、センサ情報解析部102は、人物抽出結果を環境判定部104に送信する。
 レスポンス判定部105は、第2通信部109を介して人物抽出結果を受信する。環境判定部104は、センサ情報解析部102から人物抽出結果を受信する。環境判定部104は、人物抽出結果に基づいて、被測定体から影響を受ける対象が存在する環境にあるか否かを判定する(ステップS2)。具体的には、環境判定部104は、センサ情報解析部102がセンサ101の検知情報から人物を抽出した場合に、対象が存在する環境にあると判定する。また、環境判定部104は、センサ情報解析部102が検知情報から人物を抽出しない場合に、対象が存在する環境にないと判定する。
 環境判定部104は、被測定体から影響を受ける対象が存在する環境にないと判定した場合(ステップS2の判定結果「NO」)、フローをステップS1に戻す。一方、環境判定部104は、対象が存在する環境にあると判定した場合(ステップS2の判定結果「YES」)、その対象が存在する環境にあることを示す対象存在信号を第1通信部108を介して第2通信部109に送信する。レスポンス判定部105は、環境判定部104から第2通信部109を介して対象存在信号を受信する。レスポンス判定部105は、対象存在信号を受信すると、センサ情報解析部102から受信した人物抽出結果に基づいて、その対象から反応があるか否かを判定する(ステップS3)。具体的には、レスポンス判定部105は、画像解析技術を用いてセンサ情報解析部102が抽出した各人物の顔の向きを判定する。レスポンス判定部105は、人物の顔の向きに延ばした直線を想定し、その直線が所定の本数(所定の閾値)以上交差する箇所を特定する。そして、レスポンス判定部105は、交差する直線の本数が多い程、人物の反応の数が多いと判定する。また、レスポンス判定部105は、直線が所定の本数(所定の閾値)以上交差しない場合、または、直線の交差する箇所に物体が存在しない場合に、人物の反応がないと判定する。
 例えば、図8で示すようにカメラ20の撮影範囲に人物A、B、C、D、Eが存在する場合について説明する。レスポンス判定部105は、人物A、B、C、D、Eのそれぞれの顔の向きを特定する。つまり、レスポンス判定部105は、人物Aの顔の向きに延ばした直線a、人物Bの顔の向きに延ばした直線b、人物Cの顔の向きに延ばした直線c、人物Dの顔の向きに延ばした直線d、人物Eの顔の向きに延ばした直線eを特定する。レスポンス判定部105は、直線a、b、c、d、eが所定の本数(所定の閾値)以上交差する箇所を特定する。例えば、所定の本数(所定の閾値)が3本の場合、レスポンス判定部105は、直線b、c、dが交差する箇所である位置Pを特定する。レスポンス判定部105は、位置Pに人物が存在するか否かを画像解析結果に基づいて判定する。図8に示すように、レスポンス判定部105は、位置Pに人物Eが存在すると判定し、複数の対象(すなわち、人物B、C、D)から反応があると判定する。
 レスポンス判定部105は、被測定体から影響を受ける対象から反応がないと判定した場合(ステップS3の判定結果「NO」)、フローをステップS1に戻す。一方、レスポンス判定部105は、対象から反応があると判定した場合(ステップS3の判定結果「YES」)、対象からの反応の判定結果を影響度算出部106に送信する。影響度算出部106は、レスポンス判定部105から反応判定結果を受信する。影響度算出部106は、反応判定結果に基づいて、影響度スコアを算出する(ステップS4)。具体的には、影響度算出部106は、レスポンス判定部105が判定した特定箇所に交差する直線の数が100本の場合に、影響度スコアとして「100」を算出する。また、影響度算出部106は、レスポンス判定部105が判定した特定箇所に交差する直線の数が123本の場合に、影響度スコアとして「123」を算出する。図8の場合、影響度算出部106は、レスポンス判定部105から位置Pで3本の直線b、c、dが交差しており、位置Pに人物Eが存在しているという反応判定結果を取得する。影響度算出部106は、レスポンス判定部105の反応判定結果に基づいて、人物Eについて影響度スコア「3」を算出する。
 被測定体特定部103は、対象からの反応に基づいて、その対象に影響を与えている被測定体を特定する。例えば、被測定体特定部103は、影響度算出部106が算出した所定の閾値以上の影響度スコアに対応する物体を対象へ影響を与えている被測定体であると特定する(ステップS5)。影響度算出部106は、影響度スコアをディスプレイなどの表示装置に出力して表示させる(ステップS6)。
 上述のように、実施例3に係る影響度測定装置10において、環境判定部104は、被測定体により影響を受ける対象が存在する環境にあるか否かを判定する。レスポンス判定部105は、被測定体により影響を受ける対象から反応があるか否かを判定する。影響度算出部106は、レスポンス判定部105が判定した対象の反応に基づいて、被測定体が対象に与える影響度を示す影響度スコアを算出する。被測定体特定部103は、影響度算出部106が算出した影響度スコアに基づいて、対象へ影響を与えている被測定体を特定する。影響度算出部106は、影響度スコアを出力部(例えば、表示装置)に出力する。このように、実施例3に係る影響度測定装置10により、人や広告車両などの移動体を含む様々な被測定体が周囲の対象に与える影響を測定することができる。
 なお、実施例3において、環境判定部104が被測定体から影響を受ける対象が存在する環境にあるか否かを判定する方法は、上述の判定方法に限定されるものではない。例えば、環境判定部104は、被測定体の位置または時刻の少なくとも一方に基づいて影響を受ける対象が存在する環境にあるか否かを判定してもよい。具体的には、被測定体がGPSなどの位置を特定可能な装置を備える。環境判定部104は、位置特定可能な装置から位置情報を取得する。例えば、被測定体が日本国の東京都内の新宿や渋谷など時間に関係なく多数の人々(即ち、対象)が存在する場所を移動している場合には、環境判定部104は、被測定体から影響を受ける対象が存在する環境にあると判定する。一方、被測定体が森林や樹海など人が存在しない場所を移動している場合には、被測定体から影響を受ける対象が存在する環境にないと判定する。なお、被測定体を予め特定できない場合には、位置特定可能な装置を影響度測定装置10のセンサ101に設ければよい。
 次に、環境判定部104が適用される具体例について説明する。例えば、記憶部107が1日の各時刻とショッピングモールにおける対象の数との関係を予め記憶する。環境判定部104は、1日の各時刻とショッピングモールにおける対象の数との関係を記憶部107から読み出す。具体的には、環境判定部104は、判定を行なうタイミングにおいてタイマーから時刻を読み取る。環境判定部104は、タイマーから読み取った時刻について対象の数との関係を記憶部107から読み出す。環境判定部104は、記憶部107から読み出した関係において、タイマーから読み取った時刻に対応する対象の数を読み出す。環境判定部104は、記憶部107から読み出した対象の数がゼロでない場合に、被測定体から影響を受ける対象が存在する環境にあると判定する。また、環境判定部104は、記憶部107から読み出した対象の数がゼロの場合に、被測定体から影響を受ける対象が存在する環境にないと判定する。
 別の具体例として、被測定体がGPSなどの位置特定可能な装置を備える。記憶部107は、1日の各時刻と各位置における対象の数との関係を予め記憶する。環境判定部104は、1日の各時刻と各位置における対象の数との関係を記憶部107から読み出す。具体的には、環境判定部104は、位置特定可能な装置から位置情報を取得する。環境判定部104は、判定を行なうタイミングにおいて、タイマーから時刻を読み取る。環境判定部104は、位置情報に一致する関係を記憶部107から読み出す。環境判定部104は、タイマーから読み取った時刻と位置情報とに基づいて記憶部107から読み出した関係を参照し、その時刻及び位置に対応する対象の数を特定する。環境判定部104は、記憶部107から読み出した関係に記述される対象の数がゼロでない場合に、被測定体から影響を受ける対象が存在する環境にあると判定する。一方、環境判定部104は、対象の数がゼロの場合に、被測定体から影響を受ける対象が存在する環境にないと判定する。なお、被測定体を予め特定できない場合には、位置特定可能な装置を影響度測定装置10のセンサ101に設ければよい。
 他の具体例として、環境判定部104は、被測定体の周囲の音状況に基づいて被測定体から影響を受ける対象が存在する環境にあるか否かを判定してもよい。ここでは、被測定体がマイクなどの周囲の音を取得する装置を備える。環境判定部104は、被測定体の周囲の音を取得する装置から音量情報を取得し、その音量が所定の閾値以上である場合に、被測定体から影響を受ける対象が存在する環境にあると判定する。一方、環境判定部104は、音量が所定の閾値未満である場合に、被測定体から影響を受ける対象が存在する環境にないと判定する。なお、被測定体を予め特定できない場合には、被測定体の周囲の音を取得する装置を影響度測定装置10のセンサ101に設ければよい。
 他の具体例として、環境判定部104は、被測定体の周囲の通信状況に基づいて被測定体から影響を受ける対象が存在する環境にあるか否かを判定してもよい。ここでは、被測定体と対象とがそれぞれ近距離通信可能な装置を備える。被測定体と対象とが通信を開始すると、対象の備える近距離通信装置は、環境判定部104に通信の開始を報知する通信開始報知信号を送信するような手順を予め決めておく。環境判定部104は、通信開始報知信号を受信した場合に、被測定体から影響を受ける対象が存在する環境にあると判定する。一方、環境判定部104は、通信開始報知信号を受信しない場合に、被測定体から影響を受ける対象が存在する環境にないと判定する。なお、被測定体を予め特定できない場合には、環境判定部104は、所定の閾値以上の台数の近距離通信装置と同時に通信を行っている近距離通信装置が存在する場合に、被測定体から影響を受ける対象が存在する環境にあると判定する。一方、所定の閾値以上の台数の近距離通信装置と同時に通信を行っている近距離通信装置が存在しない場合、環境判定部104は、被測定体から影響を受ける対象が存在する環境にないと判定する。
 他の具体例として、環境判定部104は、被測定体に関する情報を配信できる装置が被測定体の周囲に存在するか否かに基づいて被測定体から影響を受ける対象が存在する環境にあるか否かを判定してもよい。例えば、被測定体に関する情報を配信できる装置が被測定体に対して良い印象を持った場合に操作する「ボタン画像」を対象に対して近距離通信で配信する。対象は、近距離通信可能な装置を備えている。対象の備える近距離通信装置は、「ボタン画像」を受信すると、その「ボタン画像」の受信を報知する受信報知信号を環境判定部104に送信する手順を予め決めておく。環境判定部104は、受信報知信号を受信すると、被測定体から影響を受ける対象が存在する環境にあると判定する。一方、環境判定部104は、受信報知信号を受信しない場合に、被測定体から影響を受ける対象が存在する環境にないと判定する。
 上述の実施例において、レスポンス判定部105が被測定体から影響を受ける対象から反応があるか否かを判定する方法は、上述の判定方法に限定されるものではない。例えば、レスポンス判定部105は、被測定体の周囲の通信状況に基づいて対象から反応があるか否かを判定してもよい。或いは、レスポンス判定部105は、被測定体の周囲の音状況に基づいて対象から反応があるか否かを判定してもよい。具体的には、被測定体がマイクなどの周囲の音を取得する装置を備える。レスポンス判定部105は、被測定体の周囲の音を取得する装置から音量を取得し、その音量が所定の閾値以上である場合に、被測定体から影響を受ける対象から反応があると判定する。一方、レスポンス判定部105は、音量が所定の閾値未満である場合に、対象から反応がないと判定する。なお、被測定体を予め特定できない場合には、被測定体の周囲の音を取得する装置を影響度測定装置10のセンサ101に設ければよい。
 また、レスポンス判定部105は、被測定体の周囲の通信状況に基づいて対象から反応があるか否かを判定してもよい。ここでは、被測定体と対象のそれぞれが近距離通信可能な装置を備える。被測定体と対象との間で通信が開始されると、対象の備える近距離通信装置は、通信の開始を報知する通信開始報知信号をレスポンス判定部105に送信する手順を予め決めておく。レスポンス判定部105は、通信開始報知信号を受信した場合に、被測定体から影響を受ける対象から反応があると判定する。一方、レスポンス判定部105は、通信開始報知信号を受信しない場合に、対象から反応がないと判定する。なお、被測定体を予め特定できない場合には、レスポンス判定部105は、所定の閾値以上の台数の近距離通信装置と同時に通信を行っている近距離通信装置が存在する場合に、対象から反応があると判定する。一方、レスポンス判定部105は、所定の閾値以上の台数の近距離通信装置と同時に通信を行っている近距離通信装置が存在しない場合に、対象から反応がないと判定する。
 なお、実施例1及び実施例2に係るレスポンス判定部105が、実施例3におけるレスポンス判定部105と同様に、対象が被測定体を注目するときに顔を被測定体に向ける動作を行なうことに基づいて対象から反応があるか否かを判定してもよい。
 次に、本発明に係る影響度測定装置10の最小構成について説明する。図10は、本発明に係る影響度測定装置10の最小構成を示すブロック図である。影響度測定装置10は、少なくとも測定部201と出力部202とを備える。測定部201は、移動する第1の対象が第2の対象に与える影響を測定する。出力部202は、第1の対象が第2の対象に与える影響に関する情報を出力する。ここで、影響に関する情報とは、例えば、移動する第1の対象が第2の対象に与える影響を測定する測定部201の測定結果である。
 図11は、図10に示す影響度測定装置10の処理手順を示すフローチャートである。影響度測定装置10において、測定部201は、移動する第1の対象が第2の対象に与える影響を測定する(ステップS11)。測定部201は、測定結果を出力部202に送出する。出力部202は、測定部201から測定結果を受信すると、その測定結果を出力する(ステップS12)。
 なお、上述の実施例において、記憶部107は、所望の情報の送受信可能な範囲においてどこに備えられてもよい。また、記憶部107は、所望の情報の送受信可能な範囲において、複数設けてデータを分散して記憶するようにしてもよい。
 なお、上述の実施例における処理手順は、本発明に係る影響度測定装置10の機能を達成することができる限りにおいて、処理の順番を適宜入れ替えてもよい。
 本発明に係る影響度測定装置10は、コンピュータシステムを内部に有している。そして、上述の処理手順は、プログラム形式でコンピュータ読み取り可能な記憶媒体に記憶されている。コンピュータがプログラムを記憶媒体から読み出して実行することによって、上述の処理手順が実施される。ここで、コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、コンピュータプログラムを通信回線によってコンピュータに配信し、そのコンピュータがプログラムを実行するようにしてもよい。
 上記のプログラムは、影響度測定装置10の機能の一部を実現するものであってもよい。また、影響度測定装置10の機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分プログラム(差分ファイル)であってもよい。
 最後に、本発明は上述の実施例及び具体例に限定されるものではなく、添付した請求の範囲に規定される発明の範囲内における設計変更や改変をも包含するものである。
 本発明は、広告媒体(人や広告車両等)が対象(人物等)に与える影響度を測定する影響度測定装置及び影響度測定方法に関するものであるが、広告媒体以外の情報発信源が対象に与える影響度を測定してもよい。
1 広告車両
2 飛行体
10 影響度測定装置
10a 第1影響度測定装置
10b 第2影響度測定装置
10c 第3影響度測定装置
10d 第4影響度測定装置
20 カメラ
30 エッジサーバ
40 クラウドサーバ
101 センサ
102 センサ情報解析部
103 被測定体特定部(特定部)
104 環境判定部(第1の判定部)
105 レスポンス判定部(第2の判定部)
106 影響度算出部
107 記憶部
108 第1通信部
109 第2通信部
201 測定部
202 出力部

Claims (15)

  1.  移動する第1の対象が第2の対象に与える影響度を測定する測定部と、
     前記測定部が測定した影響度を出力する出力部と、
     を備えることを特徴とする影響度測定装置。
  2.  前記測定部は、前記第1の対象が影響を与える可能性がある前記第2の対象が存在するか否かを判定する第1の判定部と、
     前記第2の対象から反応があるか否かを判定する第2の判定部と、
     を備えることを特徴とする請求項1に記載の影響度測定装置。
  3.  前記第2の対象からの反応に基づいて、前記第1の対象を特定する特定部をさらに備えることを特徴とする請求項2に記載の影響度測定装置。
  4.  前記第1の判定部は、所定時間毎に、前記第1の対象が影響を与える可能性がある前記第2の対象が存在するか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  5.  前記第1の判定部は、前記第1の対象の位置または時刻の少なくとも一方に基づいて、前記第1の対象が影響を与える可能性がある前記第2の対象が存在するか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  6.  前記第1の判定部は、
     前記第1の対象の周囲の音状況に基づいて、前記第1の対象が影響を与える可能性がある前記第2の対象が存在するか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  7.  前記第1の判定部は、
     前記第1の対象の周囲の通信状況に基づいて、前記第1の対象が影響を与える可能性がある前記第2の対象が存在するか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  8.  前記第1の判定部は、
     前記第1の対象に関する情報を配信できる装置が前記第1の対象の周囲に存在するか否かに基づいて、前記第1の対象が影響を与える可能性がある前記第2の対象が存在するか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  9.  前記第2の判定部は、
     前記第2の対象を撮影した画像データから検出した所定の動作に基づいて、前記第2の対象から反応があるか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  10.  前記第2の判定部は、
     前記画像データから検出した前記第2の対象が前記第1の対象の方向に向く動作に基づいて、前記第2の対象から反応があるか否かを判定することを特徴とする請求項9に記載の影響度測定装置。
  11.  前記画像データは、前記第1の対象から前記第2の対象を観察した画像を示すことを特徴とする請求項9に記載の影響度測定装置。
  12.  前記第2の判定部は、
     前記第1の対象に関する情報を配信できる装置からの通信データに基づいて、前記第2の対象から反応があるか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  13.  前記第2の判定部は、
     前記第1の対象の周囲の音情報に基づいて、前記第2の対象から反応があるか否かを判定することを特徴とする請求項2に記載の影響度測定装置。
  14.  移動する第1の対象が第2の対象に与える影響度を測定し、
     前記測定した影響度を出力することを特徴とする影響度測定方法。
  15.  コンピュータに請求項14に記載の影響度測定方法を実行させることを特徴とするプログラム。
PCT/JP2016/074635 2015-08-28 2016-08-24 影響度測定装置および影響度測定方法 WO2017038574A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017537779A JP6802170B2 (ja) 2015-08-28 2016-08-24 影響度測定装置、影響度測定方法およびコンピュータプログラム
US15/750,915 US20180225704A1 (en) 2015-08-28 2016-08-24 Influence measurement device and influence measurement method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015169784 2015-08-28
JP2015-169784 2015-08-28

Publications (1)

Publication Number Publication Date
WO2017038574A1 true WO2017038574A1 (ja) 2017-03-09

Family

ID=58187331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/074635 WO2017038574A1 (ja) 2015-08-28 2016-08-24 影響度測定装置および影響度測定方法

Country Status (3)

Country Link
US (1) US20180225704A1 (ja)
JP (2) JP6802170B2 (ja)
WO (1) WO2017038574A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204223A1 (en) * 2017-01-13 2018-07-19 International Business Machines Corporation Determining audience interest levels during presentations based on user device activity
JP6687795B1 (ja) * 2019-09-02 2020-04-28 株式会社Nttドコモ 行動変容促進装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153977A (ja) * 1997-11-20 1999-06-08 Fujitsu General Ltd 広告効果確認システム
JP2013020432A (ja) * 2011-07-11 2013-01-31 Toyota Central R&D Labs Inc 広告提示装置、システム、及びプログラム
US20130304565A1 (en) * 2012-05-11 2013-11-14 Admobilize Llc. System and method for advertising on mobile platforms
JP2014130500A (ja) * 2012-12-28 2014-07-10 Kyocera Document Solutions Inc 広告システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
US20080059994A1 (en) * 2006-06-02 2008-03-06 Thornton Jay E Method for Measuring and Selecting Advertisements Based Preferences
KR100824069B1 (ko) * 2007-06-29 2008-04-22 정유균 이동단말기를 이용한 모바일 광고 방법 및 이를 실행할 수있는 모바일 광고용 이동단말기 및 모바일 광고 시스템
WO2009038149A1 (ja) * 2007-09-20 2009-03-26 Nec Corporation 映像提供システム、および映像提供方法
US8138930B1 (en) * 2008-01-22 2012-03-20 Google Inc. Advertising based on environmental conditions
US20100312609A1 (en) * 2009-06-09 2010-12-09 Microsoft Corporation Personalizing Selection of Advertisements Utilizing Digital Image Analysis
JP2011014065A (ja) * 2009-07-06 2011-01-20 Nec Corp 携帯端末、商品情報源特定システム、及び商品情報源特定方法
JP5704158B2 (ja) * 2010-02-24 2015-04-22 日本電気株式会社 効果測定装置、効果測定方法、および効果測定プログラム
US20120005016A1 (en) * 2010-06-30 2012-01-05 Uri Graff Methods and System for Providing and Analyzing Local Targeted Advertising Campaigns
US9143571B2 (en) * 2011-03-04 2015-09-22 Qualcomm Incorporated Method and apparatus for identifying mobile devices in similar sound environment
KR101542124B1 (ko) * 2011-04-13 2015-08-13 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 동적 광고 컨텐츠 선택
JP2013196158A (ja) * 2012-03-16 2013-09-30 Sony Corp 制御装置、電子機器、制御方法、及びプログラム
JP5994397B2 (ja) * 2012-06-01 2016-09-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20140095306A1 (en) * 2012-09-28 2014-04-03 Jose A. Avalos Digital sign advertisement selection based on mobile device activity
US9224174B2 (en) * 2012-11-28 2015-12-29 Facebook, Inc. Determining influence in a social networking system
JP2014164439A (ja) * 2013-02-22 2014-09-08 Kddi Corp 広告効果予測装置、広告効果予測方法、およびシステム
US20140278910A1 (en) * 2013-03-15 2014-09-18 Ford Global Technologies, Llc Method and apparatus for subjective advertisment effectiveness analysis
US20140337090A1 (en) * 2013-05-08 2014-11-13 Visa International Service Association Systems and methods to measure influcence power
JP2015005175A (ja) * 2013-06-21 2015-01-08 ソニー株式会社 情報処理装置、通信システムおよび情報処理方法
JP6191278B2 (ja) * 2013-06-26 2017-09-06 カシオ計算機株式会社 情報処理装置、コンテンツ課金システム及びプログラム
DE102014109079A1 (de) * 2013-06-28 2014-12-31 Harman International Industries, Inc. Vorrichtung und verfahren zur erfassung des interesses eines fahrers an einer werbeanzeige durch die verfolgung der blickrichtung des fahrers
JP5984144B2 (ja) * 2013-11-28 2016-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理方法、及び、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153977A (ja) * 1997-11-20 1999-06-08 Fujitsu General Ltd 広告効果確認システム
JP2013020432A (ja) * 2011-07-11 2013-01-31 Toyota Central R&D Labs Inc 広告提示装置、システム、及びプログラム
US20130304565A1 (en) * 2012-05-11 2013-11-14 Admobilize Llc. System and method for advertising on mobile platforms
JP2014130500A (ja) * 2012-12-28 2014-07-10 Kyocera Document Solutions Inc 広告システム

Also Published As

Publication number Publication date
JP6802170B2 (ja) 2020-12-16
JPWO2017038574A1 (ja) 2018-06-14
JP2019135661A (ja) 2019-08-15
US20180225704A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP2018500621A (ja) 分散広告システム及び使用方法
US20130293581A1 (en) Back-to-Back Video Displays
US11074608B2 (en) Systems, methods and programmed products for dynamically tracking delivery and performance of digital advertisements in electronic digital displays
US9898749B2 (en) Method and system for determining consumer positions in retailers using location markers
US10311463B2 (en) Method and apparatus for encouraging consumption of a product
US20150015609A1 (en) Method of augmented reality communication and information
JP2015005175A (ja) 情報処理装置、通信システムおよび情報処理方法
CN105047112A (zh) 展示物品及其媒体播放的系统及方法
US9589189B2 (en) Device for mapping physical world with virtual information
JP6455040B2 (ja) 店舗集客支援システム、サーバ装置、プログラムおよび方法
JP2022062248A (ja) 端末装置、情報処理装置、情報出力方法、情報処理方法、接客支援方法及びプログラム
CN110969480A (zh) 一种多媒体背包广告信息播放控制方法及其装置
JP2015004848A (ja) 情報処理装置、通信システムおよび情報処理方法
JP2019135661A (ja) 影響度測定装置および影響度測定方法
JPWO2019059213A1 (ja) 商品案内システム、商品案内方法及びプログラム
JP6359704B2 (ja) イベントに関連付けられる情報を人に供給するための方法
JP2018501547A (ja) サイネージ装置の閲覧者に報酬を提供するための工程
JP5422638B2 (ja) 電子装置及び情報配信方法
Torrens Smart and sentient retail high streets
US20140005806A1 (en) Information processing device, information display apparatus, information processing method, and computer program product
CN110661825B (zh) 用于实现消息推送的方法以及装置
JP2021108071A5 (ja) プログラム、情報処理方法、端末
CN110892437A (zh) 用于使用自主车辆来促进动态品牌推广的系统和方法
US20220066550A1 (en) System and method for determining user interactions with visual content presented in a mixed reality environment
US20150112832A1 (en) Employing a portable computerized device to estimate a total expenditure in a retail environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16841606

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017537779

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15750915

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16841606

Country of ref document: EP

Kind code of ref document: A1