WO2012039015A1 - 課金電子広告システム - Google Patents
課金電子広告システム Download PDFInfo
- Publication number
- WO2012039015A1 WO2012039015A1 PCT/JP2010/066278 JP2010066278W WO2012039015A1 WO 2012039015 A1 WO2012039015 A1 WO 2012039015A1 JP 2010066278 W JP2010066278 W JP 2010066278W WO 2012039015 A1 WO2012039015 A1 WO 2012039015A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- billing
- electronic advertisement
- output
- electronic
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44204—Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/04—Billing or invoicing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2543—Billing, e.g. for subscription services
- H04N21/2547—Third Party Billing, e.g. billing of advertiser
Definitions
- the present invention relates to an electronic advertisement system in which an advertisement fee is charged to a sponsor only when a predetermined advertisement effect desired by the sponsor is confirmed.
- Electronic signboards that transmit various video and text information over the Internet are conventionally known.
- a camera is installed, an image of a customer's face is analyzed based on video taken by the camera, and an advertisement is switched based on the analysis result.
- an information processing apparatus including a video analysis unit that extracts and quantifies facial expressions of a person taken with a digital camera is conventionally known (see, for example, Patent Document 1).
- a program technique for generating a two-dimensional or three-dimensional object based on video data by a computer program and controlling the generated object is conventionally known (see, for example, Patent Document 2).
- an advertiser requests an advertising agency to broadcast advertising video and audio data, and an advertising fee is generally paid from the advertiser to the advertising agency under a contract between the two.
- the advertiser must pay an advertising fee, regardless of whether the ad is effective, and it ’s not easy to see what effect the ad resulted in, It was extremely economic risky.
- the present invention aims to solve the above problems.
- the present invention includes an electronic advertisement transmission side computer having a built-in electronic advertisement creation program and a program for processing electronic advertisement data generated by the electronic advertisement transmission side computer.
- a receiving-side computer that outputs video and audio of electronic advertisement data as output data through a display; and an electronic device that inputs a situation around the display as input data to the receiving-side computer.
- the program built in the computer has billing tag adding means for adding a tag comprising information describing the billing conditions to the electronic advertisement data, and the program built in the receiving computer stores the electronic advertisement data output. Analyzing input data from the electronic device to determine whether accounting conditions have been achieved It has an input image analysis unit that, when the charging condition is achieved, is characterized in that so as to generate billing data for processing to the electronic advertisement sending computer.
- the present invention is also characterized in that the electronic advertisement transmitting side computer and the receiving side computer are connected via a network.
- the electronic advertisement data generated by the electronic advertisement transmitting computer is supplied to the receiving computer via a recording medium, and the billing data generated by the receiving computer is transmitted via the recording medium.
- the electronic advertisement transmission side computer is supplied.
- the present invention is characterized in that the charging condition includes at least one numerical value among the number of passers-by who turned to the advertisement output screen and the number of passers-by who laughed at the advertisement output screen.
- the electronic advertisement data includes a unique word, authentication data including a sender ID code and a receiver ID code, charging guarantee data including a charging amount and charging conditions, a main scenario, and a plurality of units.
- the present invention is characterized in that the input video analysis means has an information analysis function for recognizing the direction of the human face around the display and the facial expression from the video information of the electronic device and converting it to electronic information. To do. Further, according to the present invention, a program built in the receiving computer reconstructs the scenario of the electronic advertisement data so as to achieve a charging condition based on the analysis result of the input video analysis means, Is output from the display. In addition, according to the present invention, the program built in the electronic advertisement transmitting computer has a function of receiving the billing request data, verifying whether or not the billing condition is achieved, and paying the billing bill when the verification is successful. It is characterized by.
- a program built in the electronic advertisement transmission side computer generates an output object from the output data, generates an input object from the input data, and the input object is in a direction satisfying the charging condition.
- the scene in which the output object appears is reconstructed, and the change of the scene guides the input object in a direction that satisfies the charging condition.
- the present invention records the scene as corrected output data when the input object is guided by the output object in a direction that satisfies the charging condition, and the corrected output data is used for reconstruction of the scene. It is characterized by being used.
- the advertiser pays the advertisement insertion fee only when the accounting condition is achieved by sending the advertising video / audio data with the accounting tag to the advertising publisher side. Against the risk of paying advertising fees.
- FIG. 3 shows a hardware configuration diagram of the present system, and the billing electronic advertisement creation system 2 which is an advertiser side (sender side) system is composed of a workstation 4.
- the billing electronic advertisement posting system 6 which is an advertising agency side (recipient side) system includes a computer including a network interface 8, a hard disk 10, a memory 12, a CPU 14, an internal bus 16, and a 1/0 interface 18, and the computer 1
- a speaker 20, a video display 22, a digital camera 24 for capturing moving images and still images, and a microphone 26 are connected via the / 0 interface 18.
- the camera 24 photographs the passerby 204 together with the scenery in front of the display 22.
- the system 6 receives the digital output of the camera 24 and generates a person object (input object) of a passer-by 204, which will be described later.
- the output of the microphone 26 can be used as an audio signal or the like of a passerby according to a charging condition described later.
- the computers of the billing electronic advertisement creation system 2 and the billing electronic advertisement posting system 6 are connected to each other via a network.
- FIGS. 4 and 5 show the format of billing-tagged data used in this system.
- FIG. 4 shows tagged data 28 sent from the advertiser (sender) to the advertising agency (recipient).
- Reference numeral 5 denotes tagged data 30 sent from the advertising agency (sender) to the advertiser (recipient).
- the data 28 includes a unique word 32, a tag 34, and a data block 36.
- the tag 34 includes a header 38, an authentication data unit 40, a charging guarantee data unit 42, and a tag check code 44.
- the authentication data unit 40 includes a header. 46 and authentication data 48
- the charging guarantee data unit 42 includes a header 50 and charging guarantee data 52.
- the data block 36 includes a header 54, advertising video / audio data 56, and a data block / check code 58.
- the advertising video / audio data 56 includes a main scenario 60 and a large number of unit data 62.
- the main scenario 60 includes a header. 64 and data 66, and each unit of the unit data 62 includes a header 68 and data 70.
- the unique word 32 is composed of an identification synchronization code of the data 28 with charging tag.
- the header 38 indicates the number of bytes of the tag 34.
- the authentication data 48 includes an advertiser ID code (sender) and an advertising agency ID code (receiver).
- the header 50 indicates the number of bytes of the charging guarantee data 52.
- the charging guarantee data 52 is composed of the serial number of the charging tagged data 28, the charging amount, and the charging conditions.
- the billing condition is a condition for obtaining the advertising effect desired by the advertiser, and is, for example, how many passers-by the passers-by and how many smiles.
- the tag check code 44 is composed of an error detection and correction code of the tag header 38, the authentication data part 40, and the charge guarantee data part 42.
- the header 54 is composed of the number of bytes of the data block 36.
- the header 64 is composed of the number of bytes of the main scenario 60.
- the data 66 includes an execution procedure of the unit data 62 and link information to the unit data 62.
- the header 68 indicates the number of bytes of each unit data 62
- the data 70 is composed of video / audio data of the unit data 62.
- the data block check code 58 includes a header 54 of the data block 36 and an error detection / correction code of the advertisement video data 56.
- the tagged data 30 includes a unique word 72, a tag 74, and a data block 76.
- the tag 74 includes a header 75, authentication data 78, a billing data section 80, and a tag check code 82.
- the authentication data part 78 is composed of a header 84 and authentication data 86.
- the billing data section 80 includes a header 88 and billing data 90.
- the data block 76 includes a header 92, an advertisement result data portion 94, and a data block check code 96.
- the advertisement result data section 94 includes a header 98 and advertisement result data 100.
- the unique word 72 is composed of the identification synchronization code of the data 30 with charging tag
- the header 75 indicates the number of bytes of the tag 74
- the header 84 indicates the number of bytes of the authentication data 86
- the authentication data 86 includes the advertisement agency ID. It consists of a code (sender) and an advertiser ID code (receiver).
- the header 88 indicates the number of bytes of the billing data 90
- the billing data 90 is composed of the serial number of the billing-tagged data 28, the billing amount, and billing conditions.
- the tag check code 82 includes a header 75 of the tag 74, an authentication data portion 78, and an error detection and correction code of the billing request data portion 80.
- the header 92 indicates the number of bytes of the data block 76
- the header 98 indicates the number of bytes of the advertisement result data 100
- the advertisement result data 100 includes a recognition result, an advertisement effect, and a log.
- the data block check code 96 includes a header of the data block 76 and an error detection / correction code of the advertisement result data portion 94.
- FIG. 6 shows the structure of data used in this system.
- the data structure of the video / sound recognition data 102 shown in FIG. 6 is as follows.
- the background data 102a is video data from a camera input other than video information that seems to be a human image, and is background extraction data subjected to statistical processing and the like.
- the person model data 102b is a person model having a universal feature amount obtained from a large number of person images by statistical processing or the like.
- the face model data 102c is a face model having a universal feature amount obtained from a large number of human face images by statistical processing or the like.
- the eye / pupil model data 102d is an eye / pupil model having a universal feature amount obtained by statistical processing or the like from a large number of human eyes and pupil images.
- the smile model data 102e is a smile model having a universal feature amount obtained by statistical processing or the like from smile images of a large number of persons.
- the face object data 102f is various pieces of object recognition information for each face tracking processing unit.
- the face object data 102f includes, for example, passer A's face object data and passer B's face object data.
- the passer A's face object data includes the object recognition history and recognition information of the passer A's face tracking process. It is.
- the face object data of the passer-by B is an object recognition history and recognition information of the passer-by B's face tracking process.
- the feature amount is a numerical value of the shape feature of a person, face, eyes, smile, etc., and the relative amount of each organ such as eyelids, eyelids, pupils, lips, teeth of a human face. Such as position, shape, degree of correlation, and speed of change.
- the data structure of the recognition analysis result data 104 is as follows. Recognition analysis result data Serial No. : 00000001 Project code: PrjctCd00-01 Electronic advertising media No. : EastStreet97 Date: 20100808-23: 00.00-20100808-23: 59.59 Number of smiles: xxxx Number of people turning around: yyyy
- the data structure of the advertisement result data 100 is as follows.
- Ad result data Data serial number with charging tag KTD0001 Electronic advertising media No. : EastStreet97 Date: 20100808-23: 00.00-20100808-23: 59.59 Number of smiles: xxxx Number of people turning around: yyyy
- Block 106a Output correction data Serial No. : 00000001 Project code: PrjctCd00-01 Scenario code: ABCD-0001 Scenario / script link information: Correction video / audio information for stimulation Parent link information: 00000001 Child link information: 00000003 Video / audio data block 106b: Output correction data Serial No. : 00000002 Project code: PrjctCd00-01 Scenario code: ABCD-0001 Scenario / script link information: Correction video / audio information for stimulation Parent link information: 00000001 Child link information: 00000003 Video / audio data block 106c: Output correction data Serial No. 00000003 Project code: PrjctCd00-01 Scenario code: ABCD-0001 Scenario / script link information: Correction video / audio information for stimulation Parent link information: 00000001 Child link information: 00000003 Video / audio data block 106c: Output correction data Serial No. 00000003 Project code: PrjctCd00-01 Scenario code: ABCD-000
- each block 108a, 108b, 108c of the output data 108 is as follows.
- the data structure of the authentication data 48 is as follows.
- Authentication data The data structure of the advertiser ID code and advertisement agency ID code billing guarantee data (example) 52 is as follows.
- Data serial number with charging tag KTD0001 Billing amount: ⁇ 200,000- Billing conditions:
- Smile threshold Smile Billing smile threshold: N Rotation direction judgment direction threshold: Whole area charging Rotation direction number threshold: M
- the data structure of the billing request data (example) 90 is as follows.
- Data serial number with charging tag KTD0001 Billing amount: ⁇ 200,000- Billing conditions: Smile threshold: Smile Billing smile threshold: N Rotation direction judgment direction threshold: Whole area charging Rotation direction number threshold: M judgment result:
- the data structure of the story information (example) 110 is as follows. Story information: 1 person in the room. Find a baby or mother. A baby with a crying face. Anxious music. Crying. Mom comes. Turn around the baby. Ask the baby a word. Smiling baby. Raise laughter. Resting music. A catch phrase flows. (repetition)
- the data structure of the advertisement video / audio data (example) 56 is as follows.
- FIG. 2 is an explanatory block diagram of the billing electronic advertisement creation system 2 on the advertiser side (sender side). The operation of the system 2 will be described below with reference to the flowchart shown in FIG. In FIG. 7, the operations relating to the creation, tag addition, and transmission of advertisement video / audio data in the advertiser side system 2 are entered from the label R1.
- the advertiser-side system 2 creates the story information 110 based on the story information of the advertisement.
- the story information 110 is composed of a plurality of stages (strokes).
- the video / audio creation program 114 creates video / audio unit data 62 constituting each stage based on each stage of the story information 110.
- step S ⁇ b> 3 the scenario creation program 116 creates a main scenario 66 developed for each stage based on the story information 110.
- step S ⁇ b> 4 the overall program 112 synthesizes the main scenario 66 and the video / audio unit data 62 to create advertisement video / audio data 56.
- the billing program 118 creates billing guarantee data 52 based on the input data related to billing guarantee.
- the authentication program 120 creates authentication data 48 based on the input data related to authentication.
- step S ⁇ b> 7 the overall program 112 creates the tag 34 from the charging guarantee data 52 and the authentication data 48.
- step S ⁇ b> 8 the overall program 112 generates accounting-tagged data 28 from the advertisement video / audio data block 36 and the tag 34.
- step S9 the overall program 112 sends the charging-tagged data 28 to the charging electronic advertisement posting system 6 via the network, and completes the transmission process of the advertiser side system 2.
- FIG. 8 shows the billing request data reception processing of the advertiser side system 2.
- the advertiser side system 2 enters the start of billing data network reception processing from the label R2.
- step S1 the advertiser side system 2 verifies the authentication data 86 received from the billing electronic advertisement posting system 6.
- the authentication program 120 determines whether or not the authentication data 86 has been verified in step S2. If a negative determination is made in step S2, the process returns to step S1 and if a positive determination is made, the charging program 118 separates the charging billing data 90 from the tag 74 in step S3.
- the overall program 112 separates the advertisement result data 100 from the data block 76.
- the result verification program 122 verifies the advertisement result data 100.
- the result verification program 122 determines whether or not the advertisement result data 100 has been verified in step S6. If a negative determination is made in step S6, the advertiser side system 2 ends the process. If the result verification program 122 determines affirmative in the determination step S6, in step S7, the overall program 112 settles the charge request and ends the process.
- the advertising agency side system 6 enters the processing operation of receiving data with a billing tag from the label R3.
- the authentication program 124 separates and verifies the authentication data 48 of the received data 28 with the billing tag in step S1.
- the authentication program 124 determines whether or not the authentication data 48 has been verified. If the determination is affirmative, in step S3, the charging program 126 stores the charging guarantee data 52 of the received charging-tagged data. Separation, verification and storage.
- step S4 the overall program 128 sets a determination item and a threshold as charging determination conditions from the charging conditions of the charging guarantee data 52.
- step S5 the overall program 128 separates and stores the advertisement video / audio data 56 of the received data 28 with the charge tag, and stores the main scenario 60 and the video / audio unit data 62 from the advertisement video / audio data 56. Separate and save.
- step S6 the overall program 128 constructs a story from the main scenario 60 and the charging conditions, and creates a story end frequency condition.
- step S7 the overall program 128 generates an output object under the output control program 130 based on the unit data 62, generates an input object under the analysis program 132 based on the video and audio input, It manages communication between these objects.
- the input object is generated by recognizing and analyzing input video data of the camera 24.
- a method for generating an output object and an input object based on output data and input data is a conventionally known program technology (see Patent Document 2). In the present embodiment, a conventionally known program generation technology is used. Yes.
- the program part in charge of object generation / control in the overall program 128 is referred to as a story manager for convenience.
- step S7 The processing in step S7 will be described in detail below with reference to the flowchart shown in FIG.
- the start of step S7 shown in FIG. 9 is entered from label R5 in FIG.
- the overall program 128 organizes the video / audio unit 62 based on the scenario, configures each stage, sets a threshold value for reactivity, and starts the first stage.
- step S2 the scene of the output object corresponding to each stage is managed.
- the output control program 130 constitutes a scene.
- step S3 the display / sound output program 134 generates a display / sound output for each object in the scene.
- step S ⁇ b> 5 the display / sound output program 134 outputs the synthesized screen to the display 22 and outputs the output synthesized sound to the speaker 20.
- step S ⁇ b> 6 the overall program 128 checks the reactivity of the person object (input object) generated by the analysis program 132.
- the degree of reactivity means the number of people turning around, the number of smiling faces, etc., as shown in the examples described later.
- step S7 the output control program 130 determines whether or not the stage has ended, and if affirmative is determined, the process proceeds to step S9. If a negative determination is made in step S7, it is determined in step S8 whether or not the reactivity is equal to or higher than a threshold value. If an affirmative determination is made, the process proceeds to step S9. If a negative determination is made in step S8, in step S13, the output control program 130 searches the output correction data 106 for a registered scene based on the stage, object, stimulus level, and response level.
- step S14 the output control program 130 determines whether or not there is a scene with a high degree of stimulation and reactivity in the output correction data 106. If a negative determination is made, the output control program 130 determines the brightness, contrast, and volume. The animation morphing or the like is changed to correct the current stimulus scene more greatly, and the process proceeds to step S16. If affirmative determination is made in step S14, in step S16, the output control program 130 reconstructs the story in a scene with a high degree of stimulation and response, and proceeds to step S4. If it is determined affirmative in step S8, the output control program 130 registers the scene as the output correction data 106 together with the reactivity.
- step S10 the output control program 130 determines whether or not the story is at the end stage. If the determination is negative, the output control program 130 starts the next stage in step S11 and proceeds to step S2. If an affirmative decision is made in step S10, a log including the advertisement effect data 100, that is, the number of persons turned around and the number of smiling faces is generated in step S12, which is sent to the overall program 128, and the process ends. In the person object reactivity check in step S6, parallel processing of face recognition and face tracking is executed.
- Step S1 the human face detection process by the video / sound recognition program 136 starts.
- step S2 the video / sound recognition program 136 starts the person recognition process from the video data by the camera input and the sound data by the microphone input.
- step S3 the background is erased from the video input data, and an object having a large number of universal feature amounts based on the person model data above the threshold is detected as a person object.
- step S4 an object having a universal feature amount based on face model data greater than a threshold value is detected as a face object.
- step S5 face tracking processing corresponding to each face object is generated as an object that is generated, disappeared, moved, or changed.
- step S6 an object having a universal feature amount by eye / pupil model data larger than a threshold value is detected as an eye / pupil object.
- step S7 the line of sight and the direction thereof are detected based on the position of the pupil in the eye / pupil object with respect to the eyes.
- step S8 the face tracking process detects an object having a universal feature amount based on smile model data more than a threshold value as a smile object.
- step S9 the video / sound recognition program 136 investigates whether or not the face object tracked by the face tracking process has more than a threshold number of universal features based on the face model data.
- step S10 the video / sound recognition program 136 determines whether or not the universal feature amount of the face object is equal to or greater than a threshold value. If the determination is negative, in step S11, the process of tracking an object less than the threshold value is deleted. Then, the process proceeds to step S12.
- step S12 the overall program 28 acquires parameters such as the degree of response of the person object from the video / sound recognition program, and analyzes the face object, its line-of-sight direction, and smile object. It passes to 132 and a process is complete
- step S8 the overall program 128 determines whether or not the story has ended. If affirmation is determined, it is then determined in step S9 whether or not the number of stories has ended. If determination is negative, the process returns to step S7. If determination is affirmative, the process proceeds to step S10.
- step S10 the overall program 128 receives the advertisement result data 100 from the story manager.
- step S11 the overall program 128 determines whether the advertisement result data 100 satisfies charging conditions, for example, the number of people turning around M and the number of smiling people N.
- step S12 it is determined whether or not the determination result is satisfactory. If the determination is affirmative, in step S13, the analysis program 132 analyzes the recognition analysis result data analyzed based on the video / sound recognition data 140. 138 is saved and a charging start event is generated. If a negative determination is made in step S12, the process ends.
- the charging program 126 creates charging request data 90 in step S1.
- the authentication program 124 creates authentication data 86.
- the overall program 128 creates a tag 74 from the billing request data 90 and the authentication data 86.
- the overall program 128 creates advertisement result data 100 from the recognition analysis result data 138.
- the overall program 128 creates billing-tagged data 30 from the data block 76 including the advertisement result data 100 and the tag 74.
- the overall program 128 sends the billing-tagged data 30 to the billing electronic advertisement creation system 2 on the advertiser side through the network, and ends the process.
- an output object is generated under the output control program 130, and an input object is generated under the analysis program 132.
- a catch phrase object 142 (see FIG. 17), a baby object 144, a background BGM object 146, and a mother object 148 are generated as output objects, and passersby (persons) are input objects.
- An object 150 is generated.
- step S1 when the processing of the catch phrase object indicated by the label 6 in FIG. 13 is started, the overall program 128 judges in step S1 whether or not there is a catch phrase scene in the scenario.
- the story manager creates a catch phrase object 142.
- step S2 a catch phrase output is generated in the display / sound output program 134.
- step S4 the overall program 128 determines whether there is a person object (passerby object) 150. If the determination is affirmative, the overall program 128 communicates with the person object 150 in step S5.
- step S6 it is determined whether or not the line of sight of the person object 150 has been pointed somewhere. If the determination is affirmative, the catch phrase 142 is moved in the line of sight direction in step S7.
- step S8 it is determined whether or not the line of sight of the person object 150 is directed in the direction in which the catch phrase 142 has moved. If the determination is affirmative, in step S9, the line of sight of the person object 150 is caught in a different direction. Move the copy 142.
- step S10 it is determined whether or not the line of sight is directed in the direction in which the catch phrase 142 has moved. If the determination is affirmative, in step S11, the human objects 150 pointing the line of sight are counted. In step S12, the number of people turning around is reported to the story manager.
- label 7 indicates processing related to the baby object.
- step S1 it is determined in step S1 whether or not there is a baby scene in the scenario, and if affirmative is determined, a baby object 144 is generated in step S2.
- step S 3 a baby output is generated in the display / sound output program 134.
- step S4 it is determined whether or not there is a person object 150. If affirmative is determined, communication with the person object 150 is performed in step S5.
- step S6 the baby's “crying voice and crying face” is output to the screen as a stimulation scene.
- step S7 it is determined whether or not the line of sight of the person object is directed to the screen. If affirmative is determined, it is determined whether or not there is a mother object in step S8. The baby's “laughter and smile” is output to the screen.
- step S10 it is determined whether or not the person object 150 is smiling. If the determination is affirmative, the smiling person object 150 is counted. In step S12, the number of smiling faces is reported to the story manager.
- a label R8 indicates processing related to the background BGM object.
- step S1 it is determined in step S1 whether or not there is a background BGM scene in the scenario. If the determination is affirmative, then a background BGM object 146 is generated in step S2. Next, a background BGM output is generated in the display / sound output program 134 in step S3.
- step S4 “an uneasy background BGM” 152 is output.
- step S5 it is determined whether or not the mother object 148 is present, and if affirmative determination is made, "relaxing background BGM” 176 is output in step S6.
- a label R9 indicates processing related to the mother object.
- step S1 it is determined in step S1 whether or not there is a mother's scene in the scenario. If the determination is affirmative, a mother object 148 is generated in step S2. Next, a mother output is generated in the display / sound output program 134 in step S3. Next, in step S4, a scene in which the mother “calls” the baby is output. Next, in step S5, it is determined whether or not the baby object 144 is smiling, and if an affirmative determination is made, the baby's "smile scene” is output in step S6.
- FIG. 17 to FIG. 20 are diagrams for explaining the operation of the overall program of the advertising agency side system.
- the advertisement video / audio output is composed of a plurality of stages.
- a baby object 144 and a background object 146 are output in step S1
- the background object 146 is composed of an anxious BGM 152
- the baby object 144 is composed of an anxious search face 154.
- this turning action 156 is determined in the decision block 158 by communication between the objects. To be judged.
- the passer-by A object 150 does not turn around, the baby's uneasy looking face 154 is continuously output.
- the process proceeds to the second stage shown in FIG.
- the baby object 144 changes to a crying video 160.
- the crying video 160 changes to the actions 162 and 164 in which the passer B object 150 and the passer n object 150 turn around in the direction of the screen, the number of the passerby objects 150 turned around is determined by the decision blocks 166 and 168. Be recognized.
- the mother object generation process starts in step S2. A scene of an operation 170 in which the mother object 148 “calls” the baby object 144 is output.
- the scene of the action 172 in which the baby object 144 “sees the mother” is output to the screen.
- “Relax BGM” 176 is output on the screen.
- the mother object 148 is changed to a smiling action 182 by being stimulated by the smiling and laughing face action 180 of the baby object 144.
- the passerby A object 150 changes to a smiling face action 184 by this stimulus, this action is sent as a smiling face number to the decision block 178 by the transfer processing 186, where it is judged as a passerby smile face number 1.
- the catch phrase object generation process starts in step S3, and the character string of the catch phrase object 142 is output to the screen (block 188).
- the decision block 190 determines whether the line of sight of the passer-by A, B, n object 150 is directed to the character string output 188 based on the “line of sight” operation 194, 196, 198 of each passer-by object 150.
- a character string moving operation 192 is performed.
- step S4 the story manager reports the smile, the number of people, and the number of people turning around from the transferred data to the overall program 128, reports the end of the story, and the fourth stage ends.
- the data created by the advertiser side system is transmitted to the receiving system on the advertising agency side via the network.
- the present invention is not particularly limited to this embodiment.
- a so-called offline configuration may be employed in which the created data is directly input to the storage device of the advertisement agency side system via the recording medium.
- the billing data is sent from the advertising agency side system to the advertiser side system via the network. This also applies to the recording medium in which the billing data is recorded directly on the advertiser side. It is good also as what is called an offline structure input into a side system.
- the data communication between the computer of the advertiser side system and the computer of the advertisement agency side system may be an offline method.
- the billing conditions are not particularly limited to those shown in the present embodiment, and the number of passersby who make the corresponding utterances to the display 20 using the voice data of the microphone 26 is specified. It can be set arbitrarily on the advertiser side.
- Billing electronic advertisement creation system 4 Workstation 6 Billing electronic advertisement posting system 8 Network interface 10 Hard disk 12 Memory 14 CPU 16 Internal bus 18 1/0 interface 20 Speaker 22 Video display 24 Video camera 26 Microphone 28 Tagged data 30 Tagged data 32 Unique word 34 Tag 36 Data block 38 Header 40 Authentication data section 42 Unique word 44 Tag 46 Data block 48 Authentication data part 50 Charge request data part 52 Tag check code 54 Header 56 Authentication data 58 Header 60 Charge request data 62 Header 64 Advertisement result data part 68 Header 70 Data 72 Unique word 74 Tag 76 Data block 78 Authentication Data Portion 80 Billing Billing Data Portion 82 Tag Check Code 84 Header 86 Authentication Data 88 Header 90 Billing Billing Data 92 Header 9 Advertisement result data 96 Data block / check code 98 Header 100 Advertisement result data 102 Video / sound recognition data 104 Recognition analysis data 106 Output correction data 108 Output data 110 Story information 112 Overall program 114 Video / sound creation program 116 Scenario creation program
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
この場合、広告主は、広告の効果のあるなしにかかわらず、広告掲載料を支払わなければならず、しかも、広告の結果、どのような効果があったかについては容易に確認することができず、きわめて、経済的リスクを伴うものであった。
本発明は上記問題点を解決することを目的とするものである。
また本発明は、前記電子広告送信側コンピュータと前記受信側コンピュータとがネットワークを介して接続されていることを特徴とする。
また本発明は、前記電子広告送信側コンピュータの生成した電子広告データが、記録媒体を介して前記受信側コンピュータに供給され、前記受信側コンピュータの生成した課金請求データが、記録媒体を介して、前記電子広告送信側コンピュータに供給されるようにしたことを特徴とする。
また本発明は、前記課金条件が、広告出力画面に振り向いた通行人の人数、広告出力画面に向かって笑った通行人の人数の中の少なくとも1つの数値を内容とすることを特徴とする。
また本発明は、前記電子広告データは、ユニークワードと、送信者のIDコードと受信者のIDコードからなる認証データと、課金金額と課金条件を含む課金保証データと、メインシナリオと複数のユニットデータを含む広告映像音声データとを備えたことを特徴とする。
また本発明は、前記入力映像解析手段は、前記電子機器の映像情報から表示器の周囲の人間の顔の向きや、顔の表情を認識し電子情報化する情報解析機能を有することを特徴とする。
また本発明は、前記受信側コンピュータに内蔵されたプログラムは、前記入力映像解析手段の解析結果に基いて、前記電子広告データのシナリオを課金条件を達成できるように再構成し、再構成映像音声を前記表示器から出力するようにしたことを特徴とする。
また本発明は、前記電子広告送信側コンピュータに内蔵されたプログラムは、前記課金請求データを受信すると、課金条件が達成されたか否か検証し、検証できたときに課金請求を精算する機能を備えていることを特徴とする。
また本発明は、前記電子広告送信側コンピュータに内蔵されたプログラムは、前記出力データから出力オブジェクトを生成し、前記入力データから入力オブジェクトを生成し、前記課金条件を満足させる方向に前記入力オブジェクトが変化しないとき、前記出力オブジェクトの登場する場面を再構成し、この場面の変更によって、前記入力オブジェクトを前記課金条件を満足させる方向に誘導するようにしたことを特徴とする。
また本発明は、前記入力オブジェクトが、前記出力オブジェクトによって前記課金条件を満足させる方向に誘導されたとき、その場面を、補正出力データとして記録し、該補正出力データを、前記場面の再構成に用いるようにしたことを特徴とするものである。
図3は、本システムのハードウェア構成図を示し、広告主側(送信者側)システムである課金電子広告作成システム2は、ワークステーション4から構成される。広告代理店側(受信者側)システムである課金電子広告掲示システム6は、ネットワークインターフェイス8、ハードディスク10、メモリ12、CPU14、内部バス16、1/0インターフェイス18からなるコンピュータと、該コンピュータと1/0インターフェイス18を介して接続するスピーカ20、映像表示器22、動画及び静止画撮影用のデジタルカメラ24、マイクロフォン26とから構成されている。カメラ24は、表示器22の前方の風景とともに通行人204を撮影する。システム6は、このカメラ24のデジタル出力を受信し、後述する通行人204の人物オブジェクト(入力オブジェクト)を生成する。マイクロフォン26の出力は、後述する課金条件に応じて、通行人等の音声信号等として利用することができる。課金電子広告作成システム2と課金電子広告掲示システム6の各コンピュータは、ネットワークを介して互いに接続している。
データ28は、ユニークワード32、タグ34、データブロック36から成り、タグ34は、ヘッダ38、認証データ部40、課金保証データ部42、タグ・チェックコード44から成り、認証データ部40は、ヘッダ46、認証データ48から構成され、課金保証データ部42は、ヘッダ50、課金保証データ52から構成されている。
図6は本システムで使用されるデータの構造を示している。
背景データ102aは、人物像と思われる映像情報以外のカメラ入力からの映像データで、統計処理などを施した背景抜き取り用データである。
人物モデル・データ102bは、多数の人物画像から統計処理などによって得た普遍的な特徴量を持つ人物モデルである。
顔モデル・データ102cは、多数の人物の顔画像から統計処理などによって得た普遍的な特徴量を持つ顔モデルである。
目、瞳モデル・データ102dは、多数の人物の目、瞳画像から統計処理などによって得た普遍的な特徴量を持つ目、瞳モデルである。
笑顔モデル・データ102eは、多数の人物の笑顔画像から統計処理などによって得た普遍的な特徴量を持つ笑顔モデルである。
顔オブジェクトデータ102fは、顔追跡処理単位毎のオブジェクト認識の各種情報である。顔オブジェクトデータ102fは、例えば、通行人Aの顔オブジェクトデータや通行人Bの顔オブジェクトデータから成り、通行人Aの顔オブジェクトデータは、通行人Aの顔追跡処理のオブジェクト認識の履歴、認識情報である。 また、通行人Bの顔オブジェクトデータは、通行人Bの顔追跡処理のオブジェクト認識の履歴、認識情報である。
認識解析結果データ104のデータ構造は、以下の通りである。
認識解析結果データ・シリアルNo.:00000001
プロジェクト・コード:PrjctCd00-01
電子広告媒体No.:EastStreet97
日時:20100808-23:00.00-20100808-23:59.59
笑顔人数:xxxx
振り向き人数:yyyy
広告結果データ100のデータ構造は、以下の通りである。
広告結果データ:
課金タグ付きデータ・シリアルNo.KTD0001
電子広告媒体No.:EastStreet97
日時:20100808-23:00.00-20100808-23:59.59
笑顔人数:xxxx
振り向き人数:yyyy
ブロック106a:
出力補正用データ・シリアルNo.:00000001
プロジェクト・コード:PrjctCd00-01
シナリオコード:ABCD-0001
シナリオ・スクリプトリンク情報:刺激用修正映像・音声情報
親リンク情報:00000001
子リンク情報:00000003
映像・音声データ
ブロック106b:
出力補正用データ・シリアルNo.:00000002
プロジェクト・コード:PrjctCd00-01
シナリオコード:ABCD-0001
シナリオ・スクリプトリンク情報:刺激用修正映像・音声情報
親リンク情報:00000001
子リンク情報:00000003
映像・音声データ
ブロック106c:
出力補正用データ・シリアルNo.00000003
プロジェクト・コード:PrjctCd00-01
シナリオコード:ABCD-0001
シナリオ・スクリプトリンク情報:刺激用修正映像・音声情報
親リンク情報:00000001
子リンク情報:None
映像・音声データ
ブロック108a:
出力データシリアルNo.:T00000001
作成プロセスID:PC00001
映像・音声リングアドレス情報:T00000002,T00000003
映像・音声データ
ブロック108b:
出力データシリアルNo.:T00000002
作成プロセスID:PC00001
映像・音声リングアドレス情報:T00000003
映像・音声データモード:MPEG4
映像・音声データ
ブロック108c:
出力データシリアルNo.:T00000003
作成プロセスID:PC00001
映像・音声リンクアドレス情報:None
映像・音声データモード:MPEG4
映像・音声データ:
認証データ:
広告主IDコード、広告代理店IDコード
課金保証データ(実施例)52のデータ構造は、以下の通りである。
課金タグ付きデータ・シリアルNo.:KTD0001
課金金額:¥200,000-
課金条件:
笑顔判定閾値:微笑
課金笑顔人数閾値:N
振り向き判定方向閾値:画面全域
課金振り向き人数閾値:M
課金請求データ(実施例)90のデータ構造は、以下の通りである。
課金タグ付きデータ・シリアルNo.:KTD0001
課金金額:¥200,000-
課金条件:
笑顔判定閾値:微笑
課金笑顔人数閾値:N
振り向き判定方向閾値:画面全域
課金振り向き人数閾値:M
判定結果:
ストーリー情報:
部屋に1人。赤ちゃん、お母さんを探す。
泣き顔になる赤ちゃん。不安な音楽。泣声。
お母さんが来る。赤ちゃん振り向く。
赤ちゃんに言葉を囁く。笑顔の赤ちゃん。笑い声
を上げる。安らぐ音楽。
キャッチコピーが流れる。
(繰り返し)
ユニットデータ62のデータ:
映像音声ユニット#-#n
U#100:部屋
U#200:お母さん、呼びかけの顔、声
U#201:お母さん、笑顔
U#250:赤ちゃん、お母さんを探す顔
U#251:赤ちゃん、お母さんを見つける顔
U#300:赤ちゃん、泣き顔
U#310:赤ちゃん、笑顔
U#350:赤ちゃん、泣き声
U#351:赤ちゃん、泣き声(中)
U#352:赤ちゃん、泣き声(強)
U#360:赤ちゃん、笑い声
U#400:キャッチコピー、文字AAAA
U#410:キャッチコピー、音声aaaa
U#500:背景BGM(不安な響き)
U#510:背景BGM(安らぐ響き)
メイン・シナリオ60のデータ:
メイン・シナリオ:
ステージ数/ストーリー:4
ストーリー回数:16
課金対象ステージ:全ステージ
ステージ時間:1分、1分、1分、1分
第1ステージ:(U#100+U#250)+U#500
第2ステージ:(U#300+U#350)+U#500
第3ステージの1:(U#200)+(U#300+U#350)
第3ステージの2:(U#200)+(U#310+U#360)
第4ステージの1:(U#310+U#360+U#510)
第4ステージの2:(U#310+U#360+U#510)+(U#400+U#410)
刺激場面(刺激度 小から大へ):U#350->U#351->U#352
以下にこのシステム2の動作を図7に示すフローチャートを参照して説明する。
図7において、広告主側システム2の、広告映像・音声データの作成、タグ付加、送信に関する動作は、ラベルR1から入る。広告主側システム2は、ステップS1で、統括プログラム112は、広告のストーリー情報に基いてストーリー情報110を作成する。このストーリー情報110は、複数のステージ(行程)から構成されている。
次に、ステップS2で、映像・音声作成プログラム114は、ストーリー情報110の各ステージに基づき、各ステージを構成する映像・音声のユニットデータ62を作成する。
次にステップS5で、課金プログラム118は、課金保証に関する入力データに基づき、課金保証データ52を作成する。次にステップS6で、認証プログラム120は、認証に関する入力データに基づき、認証データ48を作成する。次に、ステップS7で、統括プログラム112は、課金保証データ52と、認証データ48とからタグ34を作成する。
図8は、広告主側システム2の課金請求データ受信の処理を示している。
図8において、広告主側システム2は、課金請求データのネットワーク受信処理のスタートをラベルR2から入る。広告主側システム2は、ステップS1で、認証プログラム120は、課金電子広告掲示システム6から受信した認証データ86を検証する。
図9において、広告代理店側システム6は、課金タグ付きデータ受信の処理動作をラベルR3から入る。
広告代理店側システム6のデータ受信処理がスタートすると、ステップS1で、認証プログラム124は、受信した課金タグ付きデータ28の認証データ48を分離・検証する。次にステップS2で、認証プログラム124は、認証データ48の検証ができたか否か判断し、肯定を判断すると、ステップS3で、課金プログラム126は、受信した課金タグ付きデータの課金保証データ52を分離、検証、保存する。
図9に示すステップS7のスタートは、図10のラベルR5から入る。統括プログラム128は、ステップS1で、シナリオに基づき、映像音声ユニット62を編成して各ステージを構成、反応度の閾値を設定し、第1ステージをスタートする。次に、ステップS2で、ステージ毎に該当する出力オブジェクトの場面の管理を行う。次に、ステップS2で、出力制御プログラム130は、場面を構成する。次に、ステップS3で、表示・音出力プログラム134は、場面のオブジェクト毎に、表示・音出力を生成する。次に、ステップS5で、表示・音出力プログラム134は、合成画面を表示器22に出力し、出力合成音をスピーカ20に出力する。
顔認識・追跡処理がラベルR6からスタートすると映像・音認識プログラム136による人物の顔検出処理がスタートする。(ステップS1)。次に、ステップS2で、映像・音認識プログラム136は、カメラ入力による映像データ、マイク入力による音データから人物認識処理をスタートする。次に、ステップS3で映像入力データから背景を消去し、人物モデルデータによる普遍的特徴量を閾値以上に多く持つオブジェクトを人物オブジェクトとして検出する。次に、ステップS4で、顔モデルデータによる普遍的特徴量を閾値以上に多く持つオブジェクトを顔オブジェクトとして検出する。
ステップS8で、統括プログラム128は、ストーリーが終了したか否か判断する。肯定を判断すると、次に、ステップS9で、ストーリー回数が終了したか否か判断し、否定を判断するとステップS7に戻り、肯定を判断すると、ステップS10に移行する。
ラベルR4から課金開始イベントがスタートすると、ステップS1で、課金プログラム126は、課金請求データ90を作成する。次に、ステップS2で、認証プログラム124は、認証データ86を作成する。次に、ステップS3で、統括プログラム128は、課金請求データ90と認証データ86とから、タグ74を作成する。次に、ステップS4で、統括プログラム128は、認識解析結果データ138から、広告結果データ100を作成する。次に、ステップS5で統括プログラム128は、広告結果データ100を含むデータブロック76とタグ74から課金タグ付きデータ30を作る。次に、ステップS6で統括プログラム128は、課金タグ付きデータ30をネットワークを通して、広告主側の課金電子広告作成システム2に送出し、処理を終了する。
図9のステップS7に示すように出力制御プログラム130下に出力オブジェクト、解析プログラム132下に入力オブジェクトが生成される。この出力オブジェクトとして、図13乃至図16に示す実施例では、キャッチコピーオブジェクト142(図17参照)、赤ちゃんオブジェクト144、背景BGMオブジェクト146、お母さんオブジェクト148が生成され、入力オブジェクトとして、通行人(人物)オブジェクト150が生成される。
まず、図13のラベル6に示されるキャッチコピー・オブジェクトの処理がスタートすると、ステップS1で統括プログラム128は、シナリオにキャッチコピーの場面が有るか否か判断し、肯定を判断すると、ステップS2でストーリー・マネージャーは、キャッチコピーオブジェクト142を生成する。次に、ステップS2で、表示・音出力プログラム134にキャッチコピー出力を生成する。次に、ステップS4で統括プログラム128は、人物オブジェクト(通行人オブジェクト)150が有るか否か判断し、肯定を判断すると、ステップS5で人物オブジェクト150と通信する。次にステップS6で人物オブジェクト150の視線がどこかに向けられたか否か判断し、肯定を判断すると、ステップS7で、視線方向にキャッチコピー142を移動する。
図15において、ラベルR8は、背景BGMオブジェクトに関する処理を示している。この処理がスタートすると、ステップS1で、シナリオに背景BGMの場面が有るか否か判断し、肯定を判断すると、次にステップS2で背景BGMオブジェクト146を生成する。次に、ステップS3で、表示・音出力プログラム134に背景BGM出力を生成する。次に、ステップS4で、「不安な背景BGM」152を出力する。次にステップS5でお母さんオブジェクト148が有るか否か判断し、肯定を判断すると、ステップS6で「安らぐ背景BGM」176を出力する。
広告映像音声出力は、複数のステージで構成される。図17の第1ステージでは、ステップS1で赤ちゃんオブジェクト144と、背景オブジェクト146が出力され、背景オブジェクト146は、不安なBGM152から構成され、赤ちゃんオブジェクト144は、不安げな探し顔154から構成される。画面の不安なBGM152と赤ちゃんオブジェクト144の不安げな探し顔154によって、通行人Aのオブジェクト150が表示器の画面の方向に振り向くと、この振り向く動作156がオブジェクト間の通信により、判断ブロック158で判断される。通行人Aオブジェクト150が振り向かない場合は、赤ちゃんの不安げな探し顔154の出力を継続する。
また、上記実施形態では、課金データは、広告代理店側システムからネットワークを介して、広告主側システムに送られるが、これも、同様に課金データが記録された記録媒体を、直接、広告主側システムに入力するいわゆるオフライン構成としても良い。即ち、広告主側システムのコンピュータと広告代理店側システムのコンピュータ間のデータの交信はオフライン方式でも良い。
また、課金条件は、本実施形態に示すものに特に限定されるものではなく、マイクロフォン26の音声データを利用して、表示器20に向けて、呼応する発声を行う通行人の数などを指定するものや、その他、広告主側で任意に設定することができる。
4 ワークステーション
6 課金電子広告掲示システム
8 ネットワークインターフェース
10 ハードディスク
12 メモリ
14 CPU
16 内部バス
18 1/0インターフェイス
20 スピーカ
22 映像表示器
24 ビデオカメラ
26 マイクロフォン
28 タグ付きデータ
30 タグ付きデータ
32 ユニークワード
34 タグ
36 データブロック
38 ヘッダ
40 認証データ部
42 ユニークワード
44 タグ
46 データブロック
48 認証データ部
50 課金請求データ部
52 タグ・チェックコード
54 ヘッダ
56 認証データ
58 ヘッダ
60 課金請求データ
62 ヘッダ
64 広告結果データ部
66 データブロック・チェックコード
68 ヘッダ
70 データ
72 ユニークワード
74 タグ
76 データ・ブロック
78 認証データ部
80 課金請求データ部
82 タグ・チェックコード
84 ヘッダ
86 認証データ
88 ヘッダ
90 課金請求データ
92 ヘッダ
94 広告結果データ
96 データブロック・チェックコード
98 ヘッダ
100 広告結果データ
102 映像・音認識データ
104 認識解析データ
106 出力補正用データ
108 出力データ
110 ストーリー情報
112 統括プログラム
114 映像・音声作成プログラム
116 シナリオ作成プログラム
118 課金プログラム
120 認証プログラム
122 結果検証プログラム
124 認証プログラム
126 課金プログラム
128 統括プログラム
130 出力制御プログラム
132 解析プログラム
134 表示・音出力プログラム
136 映像・音認識プログラム
138 認識解析結果データ
140 映像・音認識データ
142 キャッチコピーオブジェクト
144 赤ちゃんオブジェクト
146 背景BGMオブジェクト
148 お母さんオブジェクト
150 通行人オブジェクト
152 不安なBGM
154 不安げな探し顔
156 振り向く動作
158 判断ブロック
160 泣き声映像
162 振り向く動作
164 振り向く動作
166 判断ブロック
168 判断ブロック
170 呼びかける動作
172 お母さんを見る動作
174 判断ブロック
176 安らぐBGM
178 判断ブロック
180 笑顔と笑い声の動作
182 笑顔の動作
184 笑顔の動作
186 転送処理
188 ブロック
190 判断ブロック
192 移動動作
194 視線が向く動作
196 視線が向く動作
198 視線が向く動作
200 判断ブロック
202 転送処理
204 通行人
206 視線が追う動作
208 視線が追う動作
210 視線が追う動作
Claims (10)
- 電子広告作成用プログラムを内蔵した電子広告送信側コンピュータと、前記電子広告送信側コンピュータの生成した電子広告データを処理するプログラムを内蔵し該コンピュータの処理した電子広告データの映像と音声を出力データとして表示器を通して出力する受信側コンピュータと、前記表示器の周囲の状況を入力データとして前記受信側コンピュータに入力する電子機器とを備え、前記電子広告送信側コンピュータに内蔵されたプログラムは、電子広告データに課金条件が記載された情報からなるタグを付加する課金タグ付加手段を有し、前記受信側コンピュータに内蔵されたプログラムは、出力した電子広告データの課金条件が達成されたか否かを前記電子機器からの入力データを解析して判断する入力映像解析手段を有し、前記課金条件が達成されたとき、前記電子広告送信側コンピュータに処理させるための課金請求データを生成するようにしたことを特徴とする課金電子広告システム。
- 前記電子広告送信側コンピュータと前記受信側コンピュータとがネットワークを介して接続されていることを特徴とする請求項1に記載の課金電子広告システム。
- 前記電子広告送信側コンピュータの生成した電子広告データが、記録媒体を介して前記受信側コンピュータに供給され、前記受信側コンピュータの生成した課金請求データが、記録媒体を介して、前記電子広告送信側コンピュータに供給されるようにしたことを特徴とする請求項1に記載の課金電子広告システム。
- 前記課金条件が、広告出力画面に振り向いた通行人の人数、広告出力画面に向かって笑った通行人の人数の中の少なくとも1つの数値を内容とすることを特徴とする請求項1に記載の課金電子広告システム。
- 前記電子広告データは、ユニークワードと、送信者のIDコードと受信者のIDコードからなる認証データと、課金金額と課金条件を含む課金保証データと、メインシナリオと複数のユニットデータを含む広告映像音声データとを備えたことを特徴とする請求項1に記載の課金電子広告システム。
- 前記入力映像解析手段は、前記電子機器の映像情報から表示器の周囲の人間の顔の向きや、顔の表情を認識し電子情報化する情報解析機能を有することを特徴とする請求項1に記載の課金電子広告システム。
- 前記受信側コンピュータに内蔵されたプログラムは、前記入力映像解析手段の解析結果に基いて、前記電子広告データのシナリオを課金条件を達成できるように再構成し、再構成映像音声を前記表示器から出力するようにしたことを特徴とする請求項1に記載の課金電子広告システム。
- 前記電子広告送信側コンピュータに内蔵されたプログラムは、前記課金請求データを受信すると、課金条件が達成されたか否か検証し、検証できたときに課金請求を精算する機能を備えていることを特徴とする請求項1に記載の課金電子広告システム。
- 前記電子広告送信側コンピュータに内蔵されたプログラムは、前記出力データから出力オブジェクトを生成し、前記入力データから入力オブジェクトを生成し、前記課金条件を満足させる方向に前記入力オブジェクトが変化しないとき、前記出力オブジェクトの登場する場面を再構成し、この場面の変更によって、前記入力オブジェクトを前記課金条件を満足させる方向に誘導するようにしたことを特徴とする請求項1に記載の課金電子広告システム。
- 前記入力オブジェクトが、前記出力オブジェクトによって前記課金条件を満足させる方向に誘導されたとき、その場面を、補正出力データとして記録し、該補正出力データを、前記場面の再構成に用いるようにしたことを特徴とする請求項7に記載の課金電子広告システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/805,131 US8732736B2 (en) | 2010-09-21 | 2010-09-21 | Billing electronic advertisement system |
PCT/JP2010/066278 WO2012039015A1 (ja) | 2010-09-21 | 2010-09-21 | 課金電子広告システム |
JP2010548690A JP4698770B1 (ja) | 2010-09-21 | 2010-09-21 | 課金電子広告システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2010/066278 WO2012039015A1 (ja) | 2010-09-21 | 2010-09-21 | 課金電子広告システム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2012039015A1 true WO2012039015A1 (ja) | 2012-03-29 |
Family
ID=44237050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/066278 WO2012039015A1 (ja) | 2010-09-21 | 2010-09-21 | 課金電子広告システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8732736B2 (ja) |
JP (1) | JP4698770B1 (ja) |
WO (1) | WO2012039015A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001326928A (ja) * | 2000-05-18 | 2001-11-22 | Sony Corp | 大型映像装置 |
JP2002288509A (ja) * | 2001-03-23 | 2002-10-04 | Seiko Epson Corp | 情報提供システム、プログラムおよび情報記憶媒体 |
JP2002354446A (ja) * | 2001-05-30 | 2002-12-06 | Hitachi Ltd | 広告出力方法および装置 |
JP2007018218A (ja) * | 2005-07-07 | 2007-01-25 | Ntt Facilities Inc | 広告効果評価支援方法、広告効果評価支援装置 |
JP2009140238A (ja) * | 2007-12-06 | 2009-06-25 | Zeo System:Kk | 宣伝効果評価システムおよびそのシステムに適用される宣伝効果評価装置ならびにプログラムならびに広告訴求度測定装置 |
JP2010039095A (ja) * | 2008-08-04 | 2010-02-18 | Seiko Epson Corp | 音声出力制御装置、音声出力装置、音声出力制御方法、及び、プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002318948C1 (en) * | 2001-08-02 | 2009-08-13 | Opentv, Inc. | Post production visual alterations |
US20100070987A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Mining viewer responses to multimedia content |
-
2010
- 2010-09-21 WO PCT/JP2010/066278 patent/WO2012039015A1/ja active Application Filing
- 2010-09-21 JP JP2010548690A patent/JP4698770B1/ja not_active Expired - Fee Related
- 2010-09-21 US US13/805,131 patent/US8732736B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001326928A (ja) * | 2000-05-18 | 2001-11-22 | Sony Corp | 大型映像装置 |
JP2002288509A (ja) * | 2001-03-23 | 2002-10-04 | Seiko Epson Corp | 情報提供システム、プログラムおよび情報記憶媒体 |
JP2002354446A (ja) * | 2001-05-30 | 2002-12-06 | Hitachi Ltd | 広告出力方法および装置 |
JP2007018218A (ja) * | 2005-07-07 | 2007-01-25 | Ntt Facilities Inc | 広告効果評価支援方法、広告効果評価支援装置 |
JP2009140238A (ja) * | 2007-12-06 | 2009-06-25 | Zeo System:Kk | 宣伝効果評価システムおよびそのシステムに適用される宣伝効果評価装置ならびにプログラムならびに広告訴求度測定装置 |
JP2010039095A (ja) * | 2008-08-04 | 2010-02-18 | Seiko Epson Corp | 音声出力制御装置、音声出力装置、音声出力制御方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2012039015A1 (ja) | 2014-02-03 |
US20130104157A1 (en) | 2013-04-25 |
JP4698770B1 (ja) | 2011-06-08 |
US8732736B2 (en) | 2014-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112889108B (zh) | 使用视听数据进行说话分类 | |
CN107728780A (zh) | 一种基于虚拟机器人的人机交互方法及装置 | |
US11836183B2 (en) | Digital image classification and annotation | |
US20220198468A1 (en) | Speech information communication management method and apparatus, storage medium, and device | |
CN111488433A (zh) | 一种适用于银行的提升现场体验感的人工智能交互系统 | |
CN114187547A (zh) | 目标视频的输出方法及装置、存储介质及电子装置 | |
CN113158148A (zh) | 基于区块链的多模态数字人版权管理方法及系统 | |
TW202019188A (zh) | 網路裝置、影像處理方法及電腦可讀媒體 | |
CN111724199A (zh) | 基于行人主动感知的智慧社区广告精准投放方法及装置 | |
JP4966436B1 (ja) | 課金電子広告システム | |
CN112542172A (zh) | 基于在线会议的沟通辅助方法、装置、设备及介质 | |
JP4698770B1 (ja) | 課金電子広告システム | |
Bijhold et al. | Forensic audio and visual evidence 2004-2007: A review | |
US20230048330A1 (en) | In-Vehicle Speech Interaction Method and Device | |
WO2017052831A1 (en) | Expression recognition tag | |
KR20190002386A (ko) | 캐릭터 서비스 시스템에서의 캐릭터 서비스를 제공하기 위한 장치 | |
CN112261321B (zh) | 字幕处理方法、装置及电子设备 | |
US11682204B2 (en) | Recognition assistant | |
CN115171673A (zh) | 一种基于角色画像的交流辅助方法、装置及存储介质 | |
US10893232B1 (en) | Controlled-environment facility video communications monitoring system | |
CN114390306A (zh) | 一种直播互动摘要生成方法和装置 | |
CN110163043B (zh) | 面部检测方法、装置、存储介质及电子装置 | |
US20200089325A1 (en) | Input Commands via Visual Cues | |
JP2012027603A (ja) | サーバ装置、掲載判定方法、掲載判定プログラム及び記録媒体 | |
CN116738407B (zh) | 一种非生物用户的确定方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 2010548690 Country of ref document: JP |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10857510 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13805131 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10857510 Country of ref document: EP Kind code of ref document: A1 |