WO2012176931A1 - 映像処理システム、広告取得方法、映像処理装置、および、その制御方法 - Google Patents

映像処理システム、広告取得方法、映像処理装置、および、その制御方法 Download PDF

Info

Publication number
WO2012176931A1
WO2012176931A1 PCT/JP2012/066313 JP2012066313W WO2012176931A1 WO 2012176931 A1 WO2012176931 A1 WO 2012176931A1 JP 2012066313 W JP2012066313 W JP 2012066313W WO 2012176931 A1 WO2012176931 A1 WO 2012176931A1
Authority
WO
WIPO (PCT)
Prior art keywords
advertisement information
video
frame feature
frame
feature amount
Prior art date
Application number
PCT/JP2012/066313
Other languages
English (en)
French (fr)
Inventor
原田 大生
直毅 藤田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US14/126,818 priority Critical patent/US20140115618A1/en
Publication of WO2012176931A1 publication Critical patent/WO2012176931A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/377Scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/63Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for services of sales
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the present invention relates to a technique for acquiring an advertisement for a video being played back.
  • Patent Document 1 feature amounts of content including moving images and metadata of captions and audio commentary are registered in advance in association with each other, and captions and audio commentary are based on the feature amounts extracted from the content to be reproduced. And a technique for reproducing contents and subtitles and audio descriptions in synchronization with each other.
  • Patent Document 2 discloses a technique for extracting a frame feature amount that characterizes a frame image with a small amount of information from each frame of video content.
  • An object of the present invention is to provide a video processing system, an advertisement acquisition method, a video processing device, and a control method thereof that solve the above-described problems.
  • the video processing system can store advertisement information in association with a frame feature amount that characterizes a frame included in a video, and can search for the advertisement information corresponding to the frame feature amount.
  • An advertisement information database frame feature amount extraction means for extracting a frame feature amount from a frame of a video being played back, and the advertisement information corresponding to the frame feature amount extracted by the frame feature amount extraction means from the advertisement information database Advertising information acquisition means for acquiring.
  • an advertisement acquisition method extracts a frame feature amount from a frame of a video that is being played back, and a frame feature that characterizes a frame included in the video in accordance with the extracted frame feature amount.
  • Advertisement information is stored in association with the amount, and the advertisement information is acquired from an advertisement information database that can search for the advertisement information corresponding to the frame feature amount.
  • the video processing apparatus can store advertisement information in association with a frame feature amount that characterizes a frame included in a video, and can search for the advertisement information corresponding to the frame feature amount.
  • Advertisement information acquisition means for acquiring the advertisement information.
  • a control method of a video processing apparatus receives a frame feature amount extracted from a frame of a video being played back, and includes it in the video corresponding to the received frame feature amount.
  • the advertisement information is stored in association with the frame feature value that characterizes the frame, and the advertisement information is acquired from the advertisement information database that can search for the advertisement information corresponding to the frame feature value.
  • a program according to the present invention includes a frame feature amount receiving process for receiving a frame feature amount extracted from a frame of a video being played back, and a frame feature amount received in the frame feature amount receiving process.
  • an advertisement that stores advertisement information in association with a frame feature amount that characterizes a frame included in the video, and acquires the advertisement information from an advertisement information database that can search for the advertisement information corresponding to the frame feature amount. causes the computer to execute information transmission processing.
  • FIG. 1 is a block diagram showing an example of the configuration of a video processing system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of the configuration of a video processing system according to the second embodiment of the present invention.
  • FIG. 3 is a sequence diagram showing an example of an operation procedure of the video processing system according to the second embodiment of the present invention.
  • FIG. 4A is a block diagram illustrating an example of a configuration of a frame feature amount extraction unit according to the second embodiment of the present invention.
  • FIG. 4B is a diagram showing processing in the frame feature amount extraction unit according to the second embodiment of the present invention.
  • FIG. 4C is a diagram illustrating an extraction region in the frame feature amount extraction unit according to the second embodiment of the present invention.
  • FIG. 5 is a block diagram showing an example of a hardware configuration of a video processing apparatus according to the second embodiment of the present invention.
  • FIG. 6 is a diagram showing an example of the configuration of the advertisement information DB according to the second embodiment of the present invention.
  • FIG. 7 is a flowchart showing an example of a processing procedure of the video processing apparatus according to the second embodiment of the present invention.
  • FIG. 8 is a sequence diagram showing an example of an operation procedure of the video processing system according to the third embodiment of the present invention.
  • FIG. 9 is a sequence diagram showing an example of an operation procedure of the video processing system according to the fourth embodiment of the present invention.
  • FIG. 10 is a diagram showing an example of the configuration of the advertisement information DB according to the fourth embodiment of the present invention.
  • FIG. 11 is a diagram showing an example of the configuration of the advertisement information DB according to the fifth embodiment of the present invention.
  • a video processing system 100 as a first embodiment of the present invention will be described with reference to FIG.
  • the video processing system 100 includes an advertisement information database 110, a frame feature amount extraction unit 120, and an advertisement information acquisition unit 130.
  • the advertisement information database 110 stores the advertisement information 110a in association with the frame feature amount 120a that characterizes the frame included in the video. Further, the advertisement information database 110 can search for the advertisement information 110a corresponding to the frame feature amount 120a.
  • the frame feature amount extraction unit 120 receives a frame of the video being played and extracts (searches) the frame feature amount 120a from the frame.
  • the advertisement information acquisition unit 130 acquires the advertisement information 110a from the advertisement information database 110 corresponding to the frame feature amount 120a extracted by the frame feature amount extraction unit 120.
  • the video processing system 100 can provide various advertisements in association with the scene being reproduced. The reason is that in the video processing system 100, the frame feature amount extraction unit 120 extracts the frame feature amount 120a from the frame of the video being played back, and the advertisement information acquisition unit 130 corresponds to the extracted frame feature amount 120a. This is because the advertisement information 110a is acquired from the advertisement information database 110.
  • the video processing apparatus 210 of the present embodiment is in real time during playback of video content on the video viewing terminals 230 to 250, corresponding to the advertising information database 213 (corresponding to the advertising information database 110 in FIG. To send advertising information registered in advance.
  • the video processing system 200 of the present embodiment can transmit desired advertisement information during playback of video content.
  • the video processing system 200 of this embodiment sets a transmission condition for advertisement transmission, and searches for advertisement information in consideration of this transmission condition.
  • the video processing system 200 of this embodiment can manage the transmission of advertisement information based on the transmission conditions.
  • the video processing system 200 includes a video processing device 210, an advertisement information input unit 220, a video viewing terminal 230, a video viewing terminal 240, a video viewing terminal 250, and a video content distribution server 260. , And network 270.
  • the video processing device 210 includes a communication control unit 211, a frame feature amount storage unit 212, an advertisement information DB 213, an advertisement information search unit 214, an advertisement information registration unit 215, and an advertisement information transmission unit 216.
  • the advertisement information DB 213 corresponds to the advertisement information database 110 of FIG. 1 and stores frame feature quantities that characterize each frame of video content and advertisement information associated with the frame feature quantities to be collated.
  • the format of information stored in the advertisement information DB 213 is not particularly limited. However, in the following description, the advertisement information DB 213 will be described as using the advertisement information DB 213 shown in FIG. 6 (see FIG. 6).
  • the collation of the frame feature values of the present embodiment is not limited to perfect matching.
  • the collation of the frame feature amount according to the present embodiment may be based on, for example, a comparison between a difference distance and a threshold value as to whether or not a part of the match is similar to the whole. Therefore, in the present embodiment, a derived scene obtained by processing a scene composed of a series of frames may be regarded as a match.
  • the communication control unit 211 communicates with the video content distribution server 260 and the video viewing terminals 230 to 250 via the network 270.
  • the communication of the communication control unit 211 may be wired or wireless, and is not particularly limited.
  • the communication control unit 211 also functions as a “frame feature amount receiving unit” that receives frame feature amounts from the video viewing terminals 230 to 250.
  • the frame feature amount storage unit 212 stores a series of frame feature amounts of video content received by the communication control unit 211.
  • the advertisement information search unit 214 collates the frame feature amount stored in the frame feature amount storage unit 212 with the frame feature amount of the advertisement information DB 213, searches for advertisement information associated with the matched frame feature amount, and The data is output to the information transmission unit 216.
  • the advertisement information search unit 214 corresponds to the advertisement information acquisition unit 130 of FIG.
  • the advertisement information registration unit 215 registers the frame feature amount, advertisement information, transmission conditions, and the like input from the advertisement information input unit 220 in the advertisement information DB 213.
  • the advertisement information transmission unit 216 transmits the advertisement information searched by the advertisement information search unit 214 to the video viewing terminals 230 to 250 connected to the network 270 via the communication control unit 211.
  • the advertisement information input unit 220 receives information necessary for the video processing system 200 from another device (not shown) and transmits the information to the video processing device 210. Alternatively, necessary information is received based on an input operation of a predetermined worker using an input device such as a keyboard or a mouse, and transmitted to the video processing device 210.
  • the advertisement information input unit 220 may be included in the video processing device 210. In addition, this embodiment may be provided with the following structures.
  • the video processing device 210 provides the scene to the advertisement information input unit 220.
  • the advertisement information input unit 220 associates the received advertisement information with the frame feature amount of the received scene and sends it back to the video processing apparatus 210.
  • the video processing apparatus 210 registers the received frame feature amount and advertisement information in the advertisement information DB 213. In this configuration, since the video processing device 210 does not need to handle the frame feature amount, the advertisement information can be easily registered.
  • Video viewing terminals 230 to 250 in FIG. 2 are video playback devices, and play back video content downloaded via the network 270.
  • the video viewing terminals 230 to 250 may play back video content stored in a storage medium such as a DVD (Digital Versatile Disc).
  • the video viewing terminal 230, the video viewing terminal 240, and the video viewing terminal 250 of the present embodiment each include a frame feature amount extraction unit 230a that extracts a frame feature amount of each frame from the video being played back, and a frame feature amount. It has the extraction part 240a and the frame feature-value extraction part 250a.
  • the frame feature amount extraction units 230a to 250a correspond to the frame feature amount extraction unit 120 in FIG.
  • the video content distribution server 260 distributes video content to the video viewing terminals 230 to 250.
  • the network 270 is a communication network that connects each device included in the video processing system 200.
  • FIG. 3 is a sequence diagram showing an operation procedure 300 of the video processing system 200 according to the present embodiment. Details of initialization of each device are omitted.
  • any of the video viewing terminals 230 to 250 starts playback of video content.
  • the frame feature amount extraction units 230a to 250a of the video viewing terminals 230 to 250 extract the frame feature amount of the reproduction frame of the video content (S310).
  • the video viewing terminals 230 to 250 transmit the extracted frame feature amount to the video processing device 210 via the network 270 (S303).
  • the video processing apparatus 210 that has received the frame feature amount collates the received frame feature amount with the frame feature amount in the advertisement information DB 213, and searches whether there is advertisement information to be transmitted (S305).
  • the video processing device 210 determines that there is advertisement information if there is a matched frame feature amount (S307). If it is determined that the advertisement information is present (YES in S307), the video processing apparatus 210 uses the advertisement information registered in association with the matched frame feature value as the video viewing terminals 230 to 250 that are the transmission source of the corresponding frame feature value. (S309). Note that the video processing apparatus 210 may determine whether the transmission condition matches in addition to the matching of the frame feature amount in the search for advertisement information. When it is determined that there is no advertisement information (NO in S307), the video processing device 210 ends the operation without performing any particular processing.
  • the video viewing terminals 230 to 250 that are the transmission source of the frame feature amount that has received the advertisement information superimposes the advertisement information and notifies (S311). For example, if the advertisement information is text, the video viewing terminals 230 to 250 superimpose the text of the advertisement information on the playback screen. If the advertising information is audio, video, or image, the video viewing terminals 230 to 250 superimpose and reproduce the advertising information in a method that does not hinder the viewer's viewing. Alternatively, the video viewing terminals 230 to 250 reproduce the advertising video at the end of the designated scene. Also, the video viewing terminals 230 to 250 may replace and play the advertising video instead of the specified specific scene. ⁇ Configuration and Processing of Frame Feature Extraction Unit >> FIG.
  • the frame feature amount extraction units 230a to 250a applied in the present embodiment are functional configuration units that extract video signatures adopted in, for example, MPEG7 (Moving Picture Experts Group) standardization.
  • the frame feature amount extraction units 230a to 250a include a dimension determination unit 410, an extraction region acquisition unit 420, a region feature amount calculation unit 430, and a region feature amount difference encoding unit 440.
  • the frame feature amount 450 is not particularly limited. As an example, the output frame feature value 450 in FIG.
  • the dimension determination unit 410 determines the number (dimension) of region pairs and notifies the extraction region acquisition unit 420 of the number. Here, one dimension corresponds to one region pair. Based on the dimension determined by the dimension determination unit 410 and the dimension extraction region information acquired in advance, the extraction region acquisition unit 420 acquires a pair of regions of each dimension for calculating the frame feature amount. Then, the extraction region acquisition unit 420 transmits information on the extraction region to be paired (extraction region information) to the region feature amount calculation unit 430.
  • the region feature amount calculation unit 430 includes a first region feature amount calculation unit 431 and a second region feature amount calculation unit 432. Each of the first region feature quantity calculation unit 431 and the second region feature quantity calculation unit 432 is based on the extracted region information, and is an area feature quantity (here, one type) of one area of each dimension area pair. Average brightness) is calculated.
  • the region feature amount calculation unit 430 transmits the region feature amount to the region feature amount difference encoding unit 440.
  • the region feature amount difference encoding unit 440 obtains a difference between the region feature amounts (here, average luminance) of the region pair, and performs quantum encoding (here, ternary) according to the threshold to obtain a frame feature amount 450. ,Output.
  • FIG. 4B is a diagram showing processing in the frame feature amount extraction units 230a to 250a according to the present embodiment.
  • 420B in FIG. 4B shows an example of the region pair acquired by the extraction region acquisition unit 420 in FIG. 4A.
  • the outer frame indicates a frame
  • each internal rectangle indicates a paired area.
  • the region feature amount calculation unit 430 calculates the region feature amount (here, the average luminance of the pixels) included in each region.
  • the region feature amount difference encoding unit 440 calculates the difference between the region feature amounts.
  • the area where the difference is taken is indicated by an arrow connecting the centers of the areas.
  • 440a in FIG. 4B shows a state where the calculated difference is quantum-encoded. In 440a, the difference obtained by subtracting the second region feature amount from the first region feature amount in FIG.
  • the region feature value difference encoding unit 440 sets “0” as an output value (frame feature value 450) of the quantum encoding. If the difference is a positive (+) value larger than the position of the broken line on the right side of the figure, the region feature amount difference encoding unit 440 sets “+1” as the output value of the quantum encoding. If the difference is a negative ( ⁇ ) value smaller than the broken line position on the left side of the figure, the region feature amount difference encoding unit 440 sets “ ⁇ 1” as the output value of the quantum encoding.
  • the multi-dimensional code such as “ ⁇ 1”, “0”, and “+1” is used to facilitate the separation of the frame feature amount and to achieve the frame feature amount. This is to reduce the amount of calculation for collation. Therefore, the present embodiment need not be limited to the above three-value example.
  • the threshold indicated by the broken line may be selected based on the ratio of “0” to the difference value to be quantized and the difference value to be quantized.
  • the region feature amount difference encoding unit 440 selects a value such that the ratio of the difference value to be quantized to “0” is 50%.
  • Reference numeral 450a in FIG. 4B shows an example of a frame feature quantity 450 generated by collecting the results of the differential quantum coding.
  • the frame feature value 450 is obtained by arranging the differentially quantized values in a one-dimensional direction in a dimensional order.
  • the frame feature value 450 is not limited to one in which the difference quantum-encoded values are simply arranged in the one-dimensional direction in the dimensional order, but may be one in which the difference is arranged in the multi-dimensional direction or further added.
  • the values shown in FIG. 4B are not limited.
  • FIG. 4C is a diagram showing extraction regions in the frame feature amount extraction units 230a to 250a according to the present embodiment. In 420a of FIG. 4B, each dimension region pair is represented by two rectangular regions. However, in order to calculate a frame feature amount that appropriately represents a frame, a shape other than a rectangle may be desirable.
  • first and second extraction regions may not be one region.
  • the extraction region illustrated in FIG. 4C illustrates the first and second region pairs including a rectangular region or a non-rectangular extraction region.
  • the video processing apparatus 210 according to the present embodiment based on the ternarization of each dimension, as shown by 440a in FIG. 4B, the frame of the video content that is a set of frame feature quantities in real time and a set of frame feature quantities. Even when collating feature quantity groups, several hundred dimensions can be set.
  • FIG. 5 is a block diagram illustrating an example of a hardware configuration of the video processing apparatus 210 according to the present embodiment.
  • the video processing apparatus 210 includes a CPU (Central Processing Unit) 510, a ROM (Read Only Memory) 520, a RAM (Random Access Memory) 540, a storage 550, and a communication control unit 211.
  • the CPU 510 is a processor for arithmetic control, and realizes the functions of the functional components shown in FIG. 2 based on the execution of the program.
  • the ROM 520 stores fixed data such as initial data and a program.
  • the communication control unit 211 communicates with the video viewing terminals 230 to 250 or the video content distribution server 260. The communication of the communication control unit 211 may be wireless or wired.
  • the RAM 540 is a memory used by the CPU 510 as a work area for temporary storage.
  • the necessary data includes, for example, the following data.
  • the received frame feature value 541 is a received frame feature value that has already been converted into a frame feature value from the transmission destination.
  • the advertisement information transmission flag 542 is a flag that is set when the received frame feature value 541 matches the frame feature value of the advertisement information DB 213.
  • the advertisement information for transmission 543 is advertisement information for transmission to be transmitted to the video viewing terminals 230 to 250 that have transmitted the frame feature amount when the advertisement information transmission flag 542 is set.
  • the registration advertisement information 544 is registration advertisement information for registration in the advertisement information DB 213.
  • the transmission condition information 545 is transmission condition information indicating an advertisement information transmission condition, which is optionally set.
  • the transmission condition information 545 is set with video viewing terminals 230 to 250 for transmitting advertisement information, viewers, and a period (effective period) for transmitting advertisement information.
  • the storage 550 stores the advertisement information DB 213, various parameters, and the following modules and programs necessary for realizing the present embodiment.
  • the storage 550 stores, for example, the following modules and programs.
  • the video processing program 551 is a program for executing the entire processing.
  • the advertisement information registration module 552 is a module for registering advertisement information in the video processing program 551.
  • the advertisement information search module 553 is a module that searches for advertisement information to be transmitted.
  • the advertisement information transmission module 554 is a module that transmits the searched advertisement information.
  • FIG. 6 is a diagram illustrating an example of the information configuration of the advertisement information DB 213 according to the present embodiment.
  • advertisement information 602 (corresponding to the advertisement information 110a in FIG. 1) is registered in association with the frame feature quantity 601 (corresponding to the frame feature quantity 120a in FIG. 1).
  • the number of frame feature values 601 is not limited to one, and a plurality of frame feature values 601 may be associated with the advertisement information 602 as shown in FIG.
  • the frame feature quantity 601 may register both a frame feature quantity of a certain frame and a frame feature quantity of a scene derived from the frame. Based on such advertisement information DB 213, the video processing apparatus 210 can transmit the advertisement information 602 also to the derived scene. In the present embodiment, the transmission of the advertisement information 602 for the derived scene can be realized even if the matching condition of the frame feature amount is relaxed.
  • the advertisement information DB 213 may further store options.
  • the advertisement information DB 213 illustrated in FIG. 6 stores a transmission condition 603 as an example of an option.
  • the transmission condition 603 is, for example, a valid period of a viewer ID (Identifier) for identifying a viewer and advertisement information 602. However, the option is not limited to this.
  • FIG. 7 is a flowchart showing a processing procedure of the video processing apparatus 210 according to the present embodiment.
  • This flowchart is a processing procedure when, for example, the CPU 510 in FIG. 5 operates while using the RAM 540 and realizes the functions of the respective functional components shown in FIG.
  • step S ⁇ b> 711 the video processing device 210 determines whether registration of the advertisement information 602 is instructed from the advertisement information input unit 220. When the registration of the advertisement information 602 is instructed (YES in step S711), the video processing apparatus 210 proceeds to step S713 and processes the registration of the advertisement information 602.
  • step S711 When the registration of the advertisement information 602 is not instructed (NO in step S711), the video processing apparatus 210 proceeds to step S721 and determines whether or not the frame feature quantity 601 has been received from the video viewing terminals 230 to 205. If the frame feature quantity 601 has been received (YES in step S721), the video processing apparatus 210 proceeds to step S720 and processes transmission of the advertisement information 602. When the frame feature amount 601 is not received (NO in step S721), the video processing device 210 returns to step S711. ⁇ Registration of advertising information 602> When the registration of the advertisement information 602 is instructed (YES in step S711), the video processing apparatus 210 registers the advertisement information 602.
  • the video processing apparatus 210 proceeds to step S713 and receives the frame feature quantity 601 from the advertisement information input unit 220.
  • step S ⁇ b> 715 the video processing apparatus 210 receives advertisement information 602 registered in association with the frame feature quantity 601.
  • the video processing device 210 processes steps S713 and S715. You don't have to.
  • the video processing apparatus 210 receives the option (for example, transmission condition 603).
  • step S719 the video processing apparatus 210 registers the advertisement information 602 received in step S715 in the advertisement information DB 213 in association with the frame feature quantity 601. ⁇ Transmission of advertisement information 602> If the frame feature amount 601 has been received (YES in step S721), the video processing apparatus 210 proceeds to step S723 and processes transmission of the advertisement information 602. First, the video processing apparatus 210 stores the received frame feature quantity 601 in step S723. Next, in step S725, the video processing apparatus 210 collates the received frame feature value 601 with the frame feature value 601 of the advertisement information DB 213.
  • the video processing apparatus 210 may store the received frame feature value 601 in a shift register and sequentially compare it with the frame feature value 601 of the advertisement information DB 213 while shifting the shift register.
  • the video processing device 210 determines whether there is a matching frame feature quantity 601. If they do not match (NO in step S727), the video processing device 210 ends the process. If they match (YES in step S727), the video processing device 210 determines whether or not the transmission condition is satisfied in step S729. If the transmission condition is not satisfied (NO in step S729), the video processing device 210 ends the process.
  • the video processing device 210 sends the advertisement information 602 to the video viewing terminals 230 to 250 that transmitted the frame feature value in step S731. Send. Then, the video processing device 210 ends the process.
  • the video processing system 200 and the video processing device 210 according to the second embodiment can provide (reproduce) various advertisement information 602 in association with a scene viewed by a viewer. The reason is as follows.
  • the video viewing terminals 230 to 250 of the video processing system 200 extract the frame feature quantity 601 from the frame of the video being reproduced and send it to the video processing device 210.
  • the video processing device 210 acquires the advertising information 602 corresponding to the received frame feature quantity 601 from the advertising information DB 213 and sends it back to the video viewing terminals 230 to 250. This is because the video viewing terminals 230 to 250 superimpose and receive (reproduce) the received advertisement information 602.
  • a video processing system 200 according to the third embodiment of the present invention controls the video viewing terminals 230 to 250 so that the subsequent video cannot be reproduced (viewed) unless the advertisement information 602 is output. It is different. Since other configurations and operations are the same as those in the second embodiment, descriptions other than the operation procedure of the video processing system 200 already described are omitted.
  • FIG. 8 is a sequence diagram showing an operation procedure 800 of the video processing system 200 according to the present embodiment.
  • the sequence from S301 to S309 is the same as that in FIG.
  • the video viewing terminals 230 to 250 temporarily stop the playback of the video content (S801). Then, the video viewing terminals 230 to 250 notify the viewer that the advertisement information 602 is present and that the reproduction is resumed if the advertisement information 602 is seen.
  • the notification may be any of text, sound, and image.
  • the video viewing terminals 230 to 250 determine whether or not the viewer has watched the advertisement information 602 (S803).
  • the judgment of the video viewing terminals 230 to 250 is not particularly limited.
  • the video viewing terminals 230 to 250 may detect a viewer's key operation.
  • the video viewing terminals 230 to 250 may reproduce the advertisement information 602 based on the elapse of a predetermined time from the notification as this determination.
  • the video viewing terminals 230 to 250 make the determination until it is determined to view (reproduce). repeat.
  • the video viewing terminals 230 to 250 proceed to step S805 to resume playback of the video content To do.
  • the video viewing terminals 230 to 250 are illustrated so as to perform the processing after the reproduction is stopped by themselves.
  • the video viewing terminals 230 to 250 may download and execute a program for performing viewing confirmation together with the advertisement information 602 in step S309.
  • the video processing system 200 of the third embodiment can obtain the effect that the viewer always sees the advertisement information 602 transmitted to the video viewing terminals 230 to 250. .
  • the advertisement information DB 213-2 stores the output program 1004 and the output target frame feature quantity 1005 in relation to the frame feature quantity 601 as compared with the second embodiment. It is different. Further, the video processing apparatus 210 transmits the output program 1004 of the advertisement information 602 and the output target frame feature quantity 1005 to the video viewing terminals 230 to 250 as the advertisement information 602 in addition to the information of the advertisement itself. It is different.
  • the video viewing terminals 230 to 250 are different in that the received output program 1004 is activated. Then, the output program 1004 collates the output target frame feature quantity 1005 transmitted by the video processing device 210 with the frame feature quantity 601 appearing in the video to be reproduced now, and the frame feature quantity that matches the output target frame feature quantity 1005.
  • This is a program that outputs advertisement information 602 when 601 appears. Since the other configuration and operation of the video processing system 200 according to the present embodiment are the same as those of the second embodiment, descriptions of the operation procedure of the video processing system 200 of the present embodiment and the advertisement information DB 213-2 are omitted. To do.
  • FIG. 9 is a sequence diagram showing an operation procedure 900 of the video processing system 200 according to the present embodiment. Note that S301 to S307 are the same as those in FIG.
  • the video processing apparatus 210 transmits the output target frame feature quantity 1005 and the output program 1004 to the video viewing terminals 230 to 250 as advertisement information 602 in addition to the data of the advertisement itself (S901).
  • the video viewing terminals 230 to 250 activate the output program 1004 (S903).
  • FIG. 10 is a diagram illustrating an example of the configuration of the advertisement information DB 213-2 according to the present embodiment. Similarly to FIG. 6, the advertisement information DB 213-2 stores advertisement information 602 and transmission conditions 603 in association with the frame feature amount 601. Further, the advertisement information DB 213-2 stores an output program 1004 and an output target frame feature quantity 1005.
  • the video processing system 200 of the fourth embodiment can obtain the effect of reducing the difference between the video reproduced on the video viewing terminals 230 to 250 and the advertisement information 602.
  • the reason is as follows.
  • the video processing device 210 of the video processing system 200 according to the fourth embodiment transmits the output target frame feature quantity 1005 and the output program 1004 to the video viewing terminals 230 to 250 in addition to the advertisement data itself.
  • the video viewing terminals 230 to 250 activate the received output program 1004.
  • the output program 1004 determines whether or not the frame feature value 601 of the frame reproduced by the video viewing terminals 230 to 250 matches the received output target frame feature value 1005, and when they match, the advertisement information 602 is displayed. This is for output.
  • FIG. 11 is a diagram illustrating an example of the configuration of the advertisement information DB 213-3 according to the present embodiment.
  • the advertisement information DB 213-3 stores the frame feature quantity 601 of the scene in which the person appears as a group in association with the video person ID 1101 of the person appearing in the video. Then, the advertisement information DB 213-3 stores advertisement information 602 and an optional transmission condition 603 that are transmitted if any of the frame feature values 601 is matched.
  • the description has been given using the person appearing in the video, but the present invention is not limited to this.
  • the advertisement information DB 213-3 may use, as the association information of the frame feature quantity 601, a travel advertisement in a characteristic landscape video and an event advertisement in a specific building video.
  • the present embodiment can be extended to various applications, and these extensions are also included in the present embodiment.
  • the video processing system 200 of the fifth embodiment can obtain the effect of outputting the advertisement information 602 when a character appears in the playback video. This is because the video processing system 200 of the present embodiment stores the frame feature quantity 601 in association with the video person ID 1101.
  • the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where a control program that realizes the functions of the embodiments is supplied directly or remotely to a system or apparatus.
  • a control program installed in the computer a medium storing the control program, and a WWW (World Wide Web) server for downloading the control program are also included in the scope of the present invention.
  • a control program installed in the computer a medium storing the control program, and a WWW (World Wide Web) server for downloading the control program are also included in the scope of the present invention.
  • a WWW World Wide Web
  • Video processing system 110 Advertising information database 110a Advertising information 120 Frame feature-value extraction part 120a Frame feature-value 130 Advertising information acquisition part 200
  • Video processing system 210 Video processing apparatus 211 Communication control part 212 Frame feature-value memory
  • Advertising information transmission unit 220 Advertising information input unit 230 Video viewing terminal 230a Frame feature extraction unit 240 Video viewing terminal 240a Frame feature extraction unit 250 Video viewing terminal 250a Frame feature Quantity extraction unit 260 Video content distribution server 270 Network 300 Operation procedure 410 Dimension determination unit 420 Extraction area acquisition unit 430 Area feature quantity calculation section 431 First area feature quantity calculation section 432 Second area feature quantity calculation section 440 Area feature quantity difference code Conversion unit 450 frame feature 510 CPU 520 ROM 540 RAM 541 Received frame feature amount 542 Advertisement information transmission flag 543 Transmission advertisement information 544 Registration advertisement information 545 Transmission condition information 550 Storage 551 Video processing program 552 Advertise

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 再生中のシーンに多様な広告情報を紐付けて提供する。 映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、フレーム特徴量に対応する広告情報を検索可能な広告情報データベースと、再生中の映像のフレームからフレーム特徴量を抽出するフレーム特徴量抽出部と、フレーム特徴量抽出部が抽出したフレーム特徴量に対応して広告情報データベースから広告情報を取得する広告情報取得部とを含む。

Description

映像処理システム、広告取得方法、映像処理装置、および、その制御方法
 本発明は、再生中の映像に対する広告を取得するための技術に関する。
 特許文献1には、動画を含むコンテンツの特徴量と、字幕や音声解説のメタデータとを対応付けてあらかじめ登録しておき、再生するコンテンツから抽出された特徴量に基づいて、字幕や音声解説を検索し、コンテンツと字幕や音声解説とを同期して再生する技術が開示されている。また、特許文献2には、映像コンテンツの各フレームから少ない情報量でフレーム画像を特徴付けるフレーム特徴量を抽出する技術が開示されている。
特開2008−166914号公報 国際公開2010/084714号公報
 しかしながら、上記特許文献1に記載の技術では、コンテンツ単位に、字幕や音声解説のメタデータを対応付けるものであり、コンテンツの一部を構成するフレームの特徴量に対応付けて処理できない問題点があった。
 また、上記特許文献2に記載の技術では、再生中の映像に対して広告を送信しようとした場合に、再生しているシーンに多様な広告を紐付けて提供できない問題点があった。
 本発明の目的は、上述の課題を解決する映像処理システム、広告取得方法、映像処理装置、および、その制御方法を提供することにある。
 上記目的を達成するため、本発明に係る映像処理システムは、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースと、再生中の映像のフレームからフレーム特徴量を抽出するフレーム特徴量抽出手段と、前記広告情報データベースから前記フレーム特徴量抽出手段が抽出したフレーム特徴量に対応して前記広告情報を取得する広告情報取得手段とを含む。
 上記目的を達成するため、本発明に係る広告取得方法は、再生中の映像のフレームからフレーム特徴量を抽出し、抽出した前記フレーム特徴量に対応して、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースから前記広告情報を取得する。
 上記目的を達成するため、本発明に係る映像処理装置は、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースと、再生中の映像のフレームから抽出されたフレーム特徴量を受信するフレーム特徴量受信手段と、前記フレーム特徴量受信手段が受信したフレーム特徴量に対応して前記広告情報データベースから前記広告情報を取得する広告情報取得手段とを含む。
 上記目的を達成するため、本発明に係る映像処理装置の制御方法は、再生中の映像のフレームから抽出されたフレーム特徴量を受信し、受信した前記フレーム特徴量に対応して、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースから前記広告情報を取得する。
 上記目的を達成するため、本発明に係るプログラムは、再生中の映像のフレームから抽出されたフレーム特徴量を受信するフレーム特徴量受信処理と、前記フレーム特徴量受信処理において受信したフレーム特徴量に対応して、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースから前記広告情報を取得する広告情報送信処理とをコンピュータに実行させる。
 本発明によれば、再生しているシーンに多様な広告を紐付けて提供できる。
図1は、本発明における第1実施形態に係る映像処理システムの構成の一例を示すブロック図である。 図2は、本発明の第2実施形態に係る映像処理システムの構成の一例を示すブロック図である。 図3は、本発明の第2実施形態に係る映像処理システムの動作手順の一例を示すシーケンス図である。 図4Aは、本発明の第2実施形態に係るフレーム特徴量抽出部の構成の一例を示すブロック図である。 図4Bは、本発明の第2実施形態に係るフレーム特徴量抽出部における処理を示す図である。 図4Cは、本発明の第2実施形態に係るフレーム特徴量抽出部における抽出領域を示す図である。 図5は、本発明の第2実施形態に係る映像処理装置のハードウェア構成の一例を示すブロック図である。 図6は、本発明の第2実施形態に係る広告情報DBの構成の一例を示す図である。 図7は、本発明の第2実施形態に係る映像処理装置の処理手順の一例を示すフローチャートである。 図8は、本発明の第3実施形態に係る映像処理システムの動作手順の一例を示すシーケンス図である。 図9は、本発明の第4実施形態に係る映像処理システムの動作手順の一例を示すシーケンス図である。 図10は、本発明の第4実施形態に係る広告情報DBの構成の一例を示す図である。 図11は、本発明の第5実施形態に係る広告情報DBの構成の一例を示す図である。
 以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらに限定する趣旨のものではない。
 [第1実施形態]
 本発明の第1実施形態としての映像処理システム100について、図1を用いて説明する。
 図1に示すように、映像処理システム100は、広告情報データベース110と、フレーム特徴量抽出部120と、広告情報取得部130とを含む。
 広告情報データベース110は、映像に含まれるフレームを特徴付けるフレーム特徴量120aに対応付けて、広告情報110aを記憶する。また、広告情報データベース110は、フレーム特徴量120aに対応する広告情報110aを検索可能である。
 フレーム特徴量抽出部120は、再生中の映像のフレームを受信し、フレームからフレーム特徴量120aを抽出(検索)する。
 広告情報取得部130は、フレーム特徴量抽出部120が抽出したフレーム特徴量120aに対応して広告情報データベース110から広告情報110aを取得する。
 本実施形態の映像処理システム100は、再生しているシーンに多様な広告を紐付けて提供できる。
 その理由は、映像処理システム100は、フレーム特徴量抽出部120が、再生中の映像のフレームからフレーム特徴量120aを抽出し、広告情報取得部130が、抽出したフレーム特徴量120aに対応して広告情報データベース110から広告情報110aを取得するからである。
 [第2実施形態]
 次に、本発明の第2実施形態に係る映像処理システム200について説明する。本実施形態の映像処理装置210は、映像視聴用端末230~250における映像コンテンツの再生中に、実時間で、広告情報データベース213(図1の広告情報データベース110に相当。以下、広告情報DB213と言う)にあらかじめ登録された広告情報を送信する。本実施形態の映像処理システム200は、映像コンテンツの再生中に所望の広告情報が送信できる。さらに、本実施形態の映像処理システム200は、広告送信に対して送信条件を設定し、この送信条件を考慮して広告情報を検索する。本実施形態の映像処理システム200は、送信条件に基づき広告情報の送信を管理できる。
 《映像処理システムの構成》
 図2は、本実施形態に係る映像処理システム200の構成を示すブロック図である。
 図2において、映像処理システム200は、映像処理装置210と、広告情報入力部220と、映像視聴用端末230と、映像視聴用端末240と、映像視聴用端末250と、映像コンテンツ配信サーバ260と、ネットワーク270とを含む。
 映像処理装置210は、通信制御部211と、フレーム特徴量記憶部212と、広告情報DB213と、広告情報検索部214と、広告情報登録部215と、広告情報送信部216とを含む。
 広告情報DB213は、図1の広告情報データベース110に相当し、映像コンテンツの各フレームを特徴付けるフレーム特徴量と、照合するフレーム特徴量に対応付けた広告情報とを蓄積する。本実施形態において、広告情報DB213が蓄積する情報の形式は、特に制限はない。ただし、以下の説明において、広告情報DB213は、図6に示す広告情報DB213を用いるとして説明する(図6参照)。なお、本実施形態のフレーム特徴量の照合は、完全な一致に限らない。本実施形態のフレーム特徴量の照合は、例えば、一部の一致や、全体として類似しているか否かを差分距離と閾値との比較に基づいてもよい。したがって、本実施形態において、一連のフレームからなるシーンを加工した求めた派生シーンも、合致と見なしてもよい。
 通信制御部211は、ネットワーク270を介して、映像コンテンツ配信サーバ260や映像視聴用端末230~250と通信する。なお、通信制御部211の通信は、有線でも無線でも構わず、特に制限はない。そして、通信制御部211は、映像視聴用端末230~250からフレーム特徴量を受信する「フレーム特徴量受信部」としても機能する。
 フレーム特徴量記憶部212は、通信制御部211が受信した映像コンテンツの一連のフレーム特徴量を記憶する。
 広告情報検索部214は、フレーム特徴量記憶部212が記憶するフレーム特徴量と、広告情報DB213のフレーム特徴量とを照合し、合致したフレーム特徴量に対応付けられた広告情報を検索し、広告情報送信部216に、出力する。広告情報検索部214は、図1の広告情報取得部130に相当する。
 広告情報登録部215は、広告情報DB213に、広告情報入力部220から入力されたフレーム特徴量や広告情報、送信条件などを登録する。
 広告情報送信部216は、広告情報検索部214が検索した広告情報を、通信制御部211を介して、ネットワーク270に接続する映像視聴用端末230~250に送信する。
 広告情報入力部220は、図示しない他の装置から映像処理システム200に必要な情報を受け取り、映像処理装置210に送信する。あるいは、キーボードやマウスなどの入力機器を用いた所定の作業者の入力作業を基に、必要な情報を受け取り、映像処理装置210に送信する。なお、広告情報入力部220は、映像処理装置210に含まれてもよい。
 なお、本実施形態は、次のような構成を備えてもよい。映像処理装置210が、広告情報入力部220にシーンを提供する。広告情報入力部220は、受け取った広告情報を受け取ったシーンのフレーム特徴量に紐付けして映像処理装置210に送り返す。映像処理装置210は、広告情報DB213に、受け取ったフレーム特徴量と広告情報を登録する。この構成は、映像処理装置210が、フレーム特徴量を扱う必要がないため、広告情報の登録を容易にできる。
 図2の映像視聴用端末230~250は、映像再生装置であり、ネットワーク270を介してダウンロードした映像コンテンツを再生する。なお、映像視聴用端末230~250は、DVD(Digital Versatile Disc)などの記憶媒体の映像コンテンツを再生してもよい。本実施形態の映像視聴用端末230、映像視聴用端末240、および、映像視聴用端末250は、それぞれ再生中の映像から各フレームのフレーム特徴量を抽出するフレーム特徴量抽出部230a、フレーム特徴量抽出部240a、および、フレーム特徴量抽出部250aを有する。フレーム特徴量抽出部230a~250aは、図1のフレーム特徴量抽出部120に相当する。
 映像コンテンツ配信サーバ260は、映像視聴用端末230~250に映像コンテンツを配信する。
 ネットワーク270は、映像処理システム200に含まれる各装置を接続する通信網である。
 《映像処理システムの動作手順》
 図3は、本実施形態に係る映像処理システム200の動作手順300を示すシーケンス図である。なお、各装置の初期化などの詳細は、省略する。
 まず、いずれかの映像視聴用端末230~250が、映像コンテンツの再生を開始する。再生が開始すると、映像視聴用端末230~250のフレーム特徴量抽出部230a~250aは、映像コンテンツの再生フレームのフレーム特徴量を抽出する(S310)。
 映像視聴用端末230~250は、ネットワーク270を介して、映像処理装置210に抽出したフレーム特徴量を送信する(S303)。
 フレーム特徴量を受信した映像処理装置210は、受信したフレーム特徴量を広告情報DB213のフレーム特徴量と照合し、送信する広告情報があるか否かを検索する(S305)。
 映像処理装置210は、合致したフレーム特徴量があれば広告情報有りと判断する(S307)。
 広告情報有りと判断した場合(S307でYES)、映像処理装置210は、合致したフレーム特徴量に対応付けて登録された広告情報を対応するフレーム特徴量の送信元の映像視聴用端末230~250へ送信する(S309)。
 なお、映像処理装置210は、広告情報の検索において、フレーム特徴量の合致に加え、送信条件の合致を判定してもよい。
 広告情報なしと判断した場合(S307でNO)、映像処理装置210は、特に処理せず動作を終了する。
 広告情報を受信したフレーム特徴量の送信元の映像視聴用端末230~250は、広告情報を重畳して報知する(S311)。例えば、広告情報が文字であれば、映像視聴用端末230~250は、再生画面に広告情報の文字を重畳する。広告情報が音声や映像、画像であれば、映像視聴用端末230~250は、視聴者の視聴を妨げない方法で広告情報を重畳して再生する。あるいは、映像視聴用端末230~250は、指定されたシーンの終了時に広告用映像を再生する。また、映像視聴用端末230~250は、指定された特定シーンの代わりに広告用映像をおきかえて再生してもよい。
 《フレーム特徴量抽出部の構成と処理》
 図4Aは、本実施形態に係るフレーム特徴量抽出部230a~250aの構成の一例を示すブロック図である。本実施形態で適用されるフレーム特徴量抽出部230a~250aは、例えば、MPEG7(Moving Picture Experts Group)の標準化で採用されているビデオシグネチャを抽出する機能構成部である。
 フレーム特徴量抽出部230a~250aは、次元決定部410と、抽出領域取得部420と、領域特徴量算出部430と、領域特徴量差分符号化部440とを含む。
 本実施形態において、フレーム特徴量450は、特に制限はない。一例として示す図4Aにおける出力されるフレーム特徴量450は、撮影された映像の各フレーム画像中に多数のサイズの大小や形状の異なる領域対を設け、この領域間の領域特徴量の一種である平均輝度値の差分を量子化(例えば、3値に)し、符号化したものである。
 次元決定部410は、領域対の数(次元)を決定し、抽出領域取得部420に通知する。ここで、1次元は、1領域対に相当する。
 抽出領域取得部420は、次元決定部410が決定した次元と予め取得した次元抽出領域情報と基に、フレーム特徴量を算出する各次元の領域の対を取得する。そして、抽出領域取得部420は、領域特徴量算出部430に対となる抽出領域の情報(抽出領域情報)を送信する。
 領域特徴量算出部430は、第1領域特徴量算出部431と第2領域特徴量算出部432とを含む。第1領域特徴量算出部431と第2領域特徴量算出部432とは、それぞれ、抽出領域情報を基に、各次元の領域対の一方の領域の領域特徴量(ここでは、その一種である平均輝度)を算出する。領域特徴量算出部430は、領域特徴量を領域特徴量差分符号化部440に送信する。
 領域特徴量差分符号化部440は、領域対のそれぞれの領域特徴量(ここでは平均輝度)の差分を求め、その差分を閾値に従って量子符号化(ここでは3値)し、フレーム特徴量450として、出力する。
 なお、本実施形態の説明では、以下、平均輝度を領域特徴量の代表として説明する。しかし、本実施形態の領域特徴量は、領域の平均輝度に限定されない。領域特徴量は、例えば、輝度の他の処理や輝度以外のフレームの特徴量も適用できる。
 図4Bは、本実施形態に係るフレーム特徴量抽出部230a~250aにおける処理を示す図である。
 図4Bの420aは、図4Aの抽出領域取得部420が取得した領域対の例を示している。420aにおいて、外枠がフレームを示しており、内部の各矩形が対となる領域を示している。
 図4Bの430aは、フレーム画像内において、抽出領域取得部420が抽出した対となる領域と、その領域間の差分を取る関係を表現したものである。抽出領域取得部420が、フレーム画像内に領域対を抽出する。そして、領域特徴量算出部430が、それぞれの領域に含まれる領域特徴量(ここでは、画素の平均輝度)が算出する。そして、領域特徴量差分符号化部440が、領域特徴量の差分を算出する。差分を取る領域は、各領域の中心を結ぶ矢印で示している。
 図4Bの440aは、算出された差分を量子符号化する様子を示したものである。440aでは、図4Aにおける第1領域特徴量から第2領域特徴量を差し引いた差分が、差分“0”(平均輝度が等しい場合に相当)を中心とする上記閾値を示す破線で示した差分内であれば、領域特徴量差分符号化部440は、“0”を量子符号化の出力値(フレーム特徴量450)とする。差分が図の右側の破線位置よりも大きな正(+)の値であれば、領域特徴量差分符号化部440は、“+1”を量子符号化の出力値とする。差分が図の左側の破線位置よりも小さい負(−)の値であれば、領域特徴量差分符号化部440は、“−1”を量子符号化の出力値とする。このように、本実施形態において、符号を“−1”、“0”、“+1”の3値のように多次元とするのは、フレーム特徴量の分離を容易にし、かつ、フレーム特徴量の照合の計算量を削減するためである。したがって、本実施形態は、上記3値の例に限定する必要はない。なお、破線で示す閾値は、使用される全次元の差分値の分布に対する“0”と量子化する差分値の割合を基に選定すればよい。一例として、本実施形態の領域特徴量差分符号化部440は、“0”と量子化する差分値の割合を50%にするような値を選定する。
 図4Bの450aは、差分の量子符号化の結果を集めて生成されたフレーム特徴量450の一例を示している。フレーム特徴量450は、簡単な例としては、差分の量子符号化された値を一次元方向に次元順に並べたものである。なお、フレーム特徴量450は、単純に差分の量子符号化された値を一次元方向に次元順に並べたものに限らず、多次元方向に並べたものやさらに追加の演算を加えたものでもよく、図4Bに示す値には限定されない。
 図4Cは、本実施形態に係るフレーム特徴量抽出部230a~250aにおける抽出領域を示す図である。
 図4Bの420aにおいて、各次元の領域対は、2つの矩形領域で示した。しかし、フレームを適切に表現するフレーム特徴量を算出するためには、矩形以外の形状が、望ましい場合もある。また、第1および第2の抽出領域のいずれかまたは両方とも、1つの領域でない場合もある。図4Cに示す抽出領域は、矩形領域または矩形でない抽出領域場合を含む第1および第2の領域対を例示している。本実施形態に係る映像処理装置210は、図4Bの440aで示したように各次元の3値化を基に、実時間のフレーム特徴量の照合やフレーム特徴量の集合である映像コンテンツのフレーム特徴量群の照合を実現する場合でも、数百次元を設定できる。
 《映像処理装置のハードウェア構成》
 図5は、本実施形態に係る映像処理装置210のハードウェア構成の一例を示すブロック図である。
 図5において、映像処理装置210は、CPU(Central Processing Unit)510と、ROM(Read Only Memory)520と、RAM(Random Access Memory)540と、ストレージ550と、通信制御部211とを含む。
 CPU510は、演算制御用のプロセッサであり、プログラムの実行を基に図2で示した各機能構成部の機能を実現する。
 ROM520は、初期データなどの固定データおよびプログラムを記憶する。
 通信制御部211は、映像視聴用端末230~250あるいは映像コンテンツ配信サーバ260と通信する。なお、通信制御部211の通信は、無線でも有線でもよい。
 RAM540は、CPU510が一時記憶のワークエリアとして使用するメモリである。RAM540には、本実施形態の実現に必要なデータを記憶する領域が確保されている。必要なデータとは、例えば、次のようなデータを含む。受信フレーム特徴量541は、送信先から既にフレーム特徴量に変換されて受信した受信フレーム特徴量である。広告情報送信フラグ542は、受信フレーム特徴量541と広告情報DB213のフレーム特徴量が合致した場合にセットされるフラグである。送信用広告情報543は、広告情報送信フラグ542がセットされた場合に、フレーム特徴量を送信してきた送信元の映像視聴用端末230~250に送信する送信用広告情報である。登録用広告情報544は、広告情報DB213に登録するための登録用の広告情報である。送信条件情報545は、オプションでセットされる、広告情報の送信条件を示す送信条件の情報である。例えば、送信条件情報545には、広告情報を送信する映像視聴用端末230~250や視聴者や、広告情報を送信する期間(有効期間)がセットされる。なお、もちろん、送信条件情報545は、これらに限定されない。
 ストレージ550は、広告情報DB213、並びに、各種のパラメータ、本実施形態の実現に必要な以下のモジュールおよびプログラムを記憶する。ストレージ550は、例えば、以下のモジュールおよびプログラムを格納する。映像処理プログラム551は、全体の処理を実行させるプログラムである。広告情報登録モジュール552は、映像処理プログラム551において、広告情報を登録するためのモジュールである。広告情報検索モジュール553は、送信する広告情報を検索するモジュールである。広告情報送信モジュール554は、検索された広告情報を送信するモジュールである。
 なお、図5は、本実施形態に関するデータやプログラムの一例を示し、汎用のデータやOSなどの一般的なプログラムの図示を省略した。
 〈広告情報DB〉
 図6は、本実施形態に係る広告情報DB213の情報の構成の一例を示す図である。
 広告情報DB213は、フレーム特徴量601(図1のフレーム特徴量120aに相当)に対応付けて、広告情報602(図1の広告情報110aに相当)が登録されている。なお、フレーム特徴量601は、1つでなく、図6に示すように、複数のフレーム特徴量601を広告情報602に対応付けてもよい。例えば、フレーム特徴量601は、あるフレームのフレーム特徴量とそのフレームから派生するシーンのフレーム特徴量とを共に登録してもよい。このような広告情報DB213を基に、映像処理装置210は、派生シーンに対しても、広告情報602を送信できる。なお、本実施形態において、かかる派生シーンに対する広告情報602の送信は、フレーム特徴量の合致条件を緩和しても実現できる。
 広告情報DB213は、さらに、オプションを記憶してもよい。図6に示す広告情報DB213は、オプションの一例として、送信条件603を記憶している。送信条件603は、例えば、視聴者を識別する視聴者ID(Identifier)や広告情報602の有効期間である。ただし、オプションは、これに限定されない。
 《映像処理装置の処理手順》
 図7は、本実施形態に係る映像処理装置210の処理手順を示すフローチャートである。このフローチャートは、例えば、図5のCPU510がRAM540を使用しながら動作し、図2に示す各機能構成部の機能を実現する場合の処理手順である。
 まず、ステップS711において、映像処理装置210は、広告情報入力部220から、広告情報602の登録が指示されたか否かを判定する。
 広告情報602の登録を指示された場合(ステップS711でYES)、映像処理装置210は、ステップS713に進んで、広告情報602の登録を処理する。
 広告情報602の登録を指示されない場合(ステップS711でNO)、映像処理装置210は、ステップS721に進み、映像視聴用端末230~205からフレーム特徴量601を受信したか否かを判定する。
 フレーム特徴量601を受信した場合(ステップS721でYES)、映像処理装置210は、ステップS720に進み、広告情報602の送信を処理する。
 フレーム特徴量601を受信しない場合(ステップS721でNO)、映像処理装置210は、ステップS711に戻る。
 〈広告情報602の登録〉
 広告情報602の登録を指示された場合(ステップS711でYES)、映像処理装置210は、広告情報602を登録する。
 まず、映像処理装置210は、ステップS713に進んで、広告情報入力部220から、フレーム特徴量601を受信する。
 次に、ステップS715において、映像処理装置210は、フレーム特徴量601に対応付けて登録する広告情報602を受信する。なお、前述した如く、映像処理装置210から広告情報入力部220に映像のシーンを提供して、このシーンに対して広告情報602を紐付ける場合、映像処理装置210は、ステップS713およびS715を処理しないでもよい。
 オプションを使用する場合、ステップS717において、映像処理装置210は、オプション(例えば、送信条件603)を受信する。なお、映像処理装置210がオプションを使用しないまたは他の装置(例えば、映像視聴用端末230~250)から受信する場合、このステップは、不要となる。
 ステップS719において、映像処理装置210は、ステップS715において受信した広告情報602を、フレーム特徴量601に対応付けて広告情報DB213に登録する。
 〈広告情報602の送信〉
 フレーム特徴量601を受信した場合(ステップS721でYES)、映像処理装置210は、ステップS723に進み、広告情報602の送信を処理する。
 まず、映像処理装置210は、ステップS723において、受信したフレーム特徴量601を記憶する。
 次に、ステップS725において、映像処理装置210は、受信したフレーム特徴量601と広告情報DB213のフレーム特徴量601とを照合する。かかる照合において、映像処理装置210は、例えば、シフトレジスタに受信したフレーム特徴量601を記憶し、シフトレジスタをシフトしながら、順次、広告情報DB213のフレーム特徴量601と比較してもよい。
 ステップS727において、映像処理装置210は、合致するフレーム特徴量601があったか否かを判断する。
 合致しない場合(ステップS727でNO)、映像処理装置210は、処理は終了する。
 合致した場合(ステップS727でYES)、映像処理装置210は、ステップS729において送信条件を満足するか否かを判定する。
 送信条件を満足しない場合(ステップS729でNO)、映像処理装置210は、処理を終了する。
 フレーム特徴量が合致し、送信条件を満足する場合(ステップS729でYES)、映像処理装置210は、ステップS731において、フレーム特徴量の送信元の映像視聴用端末230~250に、広告情報602を送信する。そして、映像処理装置210は、処理を終了する。
 第2実施形態の映像処理システム200および映像処理装置210は、視聴者が視聴しているシーンに多様な広告情報602を紐付けて提供(再生)できる。
 その理由は、次のとおりである。映像処理システム200の映像視聴用端末230~250は、再生中の映像のフレームからフレーム特徴量601を抽出して映像処理装置210に送る。映像処理装置210は、広告情報DB213から、受信したフレーム特徴量601に対応した広告情報602を取得し、映像視聴用端末230~250に送り返す。映像視聴用端末230~250は、受信した広告情報602を重畳して報知(再生)するからである。
 [第3実施形態]
 次に、本発明の第3実施形態に係る映像処理システム200について説明する。本実施形態に係る映像処理システム200は、上記第2実施形態と比べると、映像視聴用端末230~250において広告情報602を出力しないと、続きの映像を再生(視聴)できないように制御する点で異なる。なお、その他の構成および動作は、第2実施形態と同様のため、既に説明した映像処理システム200の動作手順以外の説明を省略する。
 本実施形態の映像処理システム200は、映像視聴用端末230~250において送信した広告情報602を必ず視聴者が見るように制御できる。そのため、本実施形態の映像処理システム200を用いる広告主は、広告効果をより期待できる。
 《映像処理システムの動作手順》
 図8は、本実施形態に係る映像処理システム200の動作手順800を示すシーケンス図である。図8において、S301~S309までのシーケンスは、図3と同様であるので、説明を省略する。
 映像視聴用端末230~250は、映像コンテンツの再生を一時停止する(S801)。そして、映像視聴用端末230~250は、視聴者に対して、広告情報602の存在と広告情報602を見れば再生を再開する旨を通知する。通知は、文字、音声、画像のいずれでもよい。
 そして、映像視聴用端末230~250は、視聴者が広告情報602を視聴したか否かを判断する(S803)。映像視聴用端末230~250の判断は、特に制限はない。例えば、映像視聴用端末230~250は、視聴者のキー操作を検出しても良い。なお、映像視聴用端末230~250は、この判断として、通知からの所定の時間の経過を基に広告情報602を再生したとしてもよい。
 視聴者が広告情報602を視聴しない(または、広告情報602を再生していない)と判断した場合(S803でNO)、映像視聴用端末230~250は、視聴(再生)と判断するまで判断を繰り返す。
 視聴者が広告情報602を視聴した(または、広告情報602を再生した)と判断した場合(S803でYES)、映像視聴用端末230~250は、ステップS805に進んで、映像コンテンツの再生を再開する。
 なお、図8では、映像視聴用端末230~250は、自分で再生停止後の処理をするように図示されている。しかし、映像視聴用端末230~250は、ステップS309において、広告情報602と共に、視聴確認を実施するプログラムをダウンロードし、実行してもよい。
 第3実施形態の映像処理システム200は、第2実施形態の映像処理システム200の効果に加え、映像視聴用端末230~250に送信した広告情報602を必ず視聴者が見る効果を得ることができる。
 その理由は、映像視聴用端末230~250は、視聴者が広告情報602を視聴したと判断できるまで、映像コンテンツの再生を停止するためである。
 [第4実施形態]
 次に、本発明の第4実施形態に係る映像処理システム200について説明する。本実施形態に係る映像処理システム200は、上記第2実施形態と比べると、広告情報DB213−2が、フレーム特徴量601に関連して、出力プログラム1004と出力ターゲットフレーム特徴量1005を記憶する点で異なる。さらに、映像処理装置210が、映像視聴用端末230~250に、広告情報602の送信として、広告そのものの情報に加え、広告情報602の出力プログラム1004と出力ターゲットフレーム特徴量1005とを送信する点で異なる。さらに、映像視聴用端末230~250は、受信した出力プログラム1004を起動する点で異なる。そして、出力プログラム1004は、映像処理装置210が送信した出力ターゲットフレーム特徴量1005と今から再生される映像に現れるフレーム特徴量601とを照合し、出力ターゲットフレーム特徴量1005と合致するフレーム特徴量601が現れた時点で広告情報602を出力するプログラムである。なお、本実施形態に係る映像処理システム200のその他の構成および動作は、第2実施形態と同様のため、本実施形態の映像処理システム200の動作手順と広告情報DB213−2以外の説明を省略する。本実施形態の映像処理システム200は、映像視聴用端末230~250で再生される映像と広告情報602とのズレを少なくし、広告情報602を出したいタイミングで出力できる。
 《映像処理システムの動作手順》
 図9は、本実施形態に係る映像処理システム200の動作手順900を示すシーケンス図である。なお、S301~S307は、図3と同様であるので、説明を省略する。
 映像処理装置210は、映像視聴用端末230~250に、広告情報602として、広告そのもののデータに加え、出力ターゲットフレーム特徴量1005および出力プログラム1004を送信する(S901)。
 映像視聴用端末230~250は、出力プログラム1004を起動する(S903)。
 出力プログラム1004は、映像視聴用端末230~250が再生するフレームのフレーム特徴量601と出力ターゲットフレーム特徴量1005とが合致するか否かを判定する。合致すれば、出力プログラム1004は、ステップS907に進んで、広告情報602を出力する(S905)。
 〈広告情報DB〉
 図10は、本実施形態に係る広告情報DB213−2の構成の一例を示す図である。
 広告情報DB213−2は、図6と同様に、フレーム特徴量601に対応付けて、広告情報602、送信条件603を記憶する。さらに、広告情報DB213−2は、出力プログラム1004と出力ターゲットフレーム特徴量1005とを記憶する。
 第4実施形態の映像処理システム200は、第2実施形態の効果に加え、映像視聴用端末230~250で再生される映像と広告情報602とのズレを少なくする効果を得ることができる。
 その理由は、次のとおりである。第4実施形態の映像処理システム200の映像処理装置210は、映像視聴用端末230~250に、広告そのもののデータに加え、出力ターゲットフレーム特徴量1005および出力プログラム1004を送信する。映像視聴用端末230~250は、受信した出力プログラム1004を起動する。出力プログラム1004は、映像視聴用端末230~250が再生するフレームのフレーム特徴量601と受信した出力ターゲットフレーム特徴量1005とが合致するか否かを判定し、合致したときに、広告情報602を出力するためである。
 [第5実施形態]
 次に、本発明の第5実施形態に係る映像処理システム200について説明する。本実施形態に係る映像処理システム200の広告情報DB213−3は、上記第2実施形態の広告情報DB213と比べると、照合対象のフレーム特徴量601が、映像中に登場する人物に基づきグループ分けされている点で異なる。さらに、第5実施形態に係る映像処理システム200は、その登場人物が再生映像に登場した時点で広告情報602を出力する点で異なる。なお、その他の構成および動作は、第2実施形態と同様のため、広告情報DB213−3以外の説明を省略する。
 〈広告情報DB〉
 図11は、本実施形態に係る広告情報DB213−3の構成の一例を示す図である。
 広告情報DB213−3は、映像に登場する人物の映像人物ID1101に対応付けて、その人物が登場するシーンのフレーム特徴量601をグループとして記憶する。そして、広告情報DB213−3は、そのフレーム特徴量601のいずれかに合致すれば送信される広告情報602とオプションの送信条件603とを記憶する。
 なお、本実施形態では、映像に登場する人物を用いて説明したが、これに限らない。例えば、広告情報DB213−3は、フレーム特徴量601の対応づけ情報として、特徴的な風景の映像において旅行の広告、特定の建物の映像において催し物の広告を用いてもより。このように、本実施形態は、様々な用途への拡張が可能であり、これらの拡張も、本実施形態に含まれる。
 第5実施形態の映像処理システム200は、第2実施形態の効果に加え、登場人物が再生映像に登場した時点で広告情報602を出力する効果を得ることができる。
 その理由は、本実施形態の映像処理システム200は、フレーム特徴量601を映像人物ID1101に対応付けて記憶するためである。
 [他の実施形態]
 本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされる制御プログラム、あるいはその制御プログラムを格納した媒体、その制御プログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年6月23日に出願された日本出願特願2011−139338を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100 映像処理システム
 110 広告情報データベース
 110a 広告情報
 120 フレーム特徴量抽出部
 120a フレーム特徴量
 130 広告情報取得部
 200 映像処理システム
 210 映像処理装置
 211 通信制御部
 212 フレーム特徴量記憶部
 213 広告情報DB
 213−2 広告情報DB
 213−3 広告情報DB
 214 広告情報検索部
 215 広告情報登録部
 216 広告情報送信部
 220 広告情報入力部
 230 映像視聴用端末
 230a フレーム特徴量抽出部
 240 映像視聴用端末
 240a フレーム特徴量抽出部
 250 映像視聴用端末
 250a フレーム特徴量抽出部
 260 映像コンテンツ配信サーバ
 270 ネットワーク
 300 動作手順
 410 次元決定部
 420 抽出領域取得部
 430 領域特徴量算出部
 431 第1領域特徴量算出部
 432 第2領域特徴量算出部
 440 領域特徴量差分符号化部
 450 フレーム特徴量
 510 CPU
 520 ROM
 540 RAM
 541 受信フレーム特徴量
 542 広告情報送信フラグ
 543 送信用広告情報
 544 登録用広告情報
 545 送信条件情報
 550 ストレージ
 551 映像処理プログラム
 552 広告情報登録モジュール
 553 広告情報検索モジュール
 554 広告情報送信モジュール
 601 フレーム特徴量
 602 広告情報
 603 送信条件
 800 動作手順
 900 動作手順
 1004 出力プログラム
 1005 出力ターゲットフレーム特徴量
 1101 映像人物ID

Claims (18)

  1.  映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースと、
     再生中の映像のフレームからフレーム特徴量を抽出するフレーム特徴量抽出手段と、
     前記広告情報データベースから前記フレーム特徴量抽出手段が抽出したフレーム特徴量に対応して前記広告情報を取得する広告情報取得手段と、
     を含む映像処理システム。
  2.  前記広告情報データベースにフレーム特徴量に対応付けた前記広告情報を登録する広告情報登録手段を含むことを特徴とする請求項1に記載の映像処理システム。
  3.  前記広告情報取得手段が取得した前記広告情報を、映像を視聴中の映像再生装置に送信する広告情報送信手段を含むことを特徴とする請求項1または2に記載の映像処理システム。
  4.  前記広告情報データベースは、複数のフレームのフレーム特徴量に対応付けて、前記広告情報を記憶することを特徴とする請求項1乃至3のいずれか1項に記載の映像処理システム。
  5.  前記広告情報データベースは、あるシーンから派生した派生シーンを含む複数のフレーム特徴量に対応付けて、前記広告情報を記憶することを特徴とする請求項4に記載の映像処理システム。
  6.  前記広告情報登録手段は、前記広告情報データベースに、フレーム特徴量と視聴者とに対応付けて広告情報を登録し、
     前記広告情報データベースは、フレーム特徴量と視聴者とに対応して広告情報を検索することを特徴とする請求項2乃至5のいずれか1項に記載の映像処理システム。
  7.  前記広告情報登録手段は、前記広告情報を送信する期間を設定し、
     前記広告情報送信手段は、前記期間に前記広告情報を送信することを特徴とする請求項2乃至6のいずれか1項に記載の映像処理システム。
  8.  前記広告情報は、データと該データの出力を制御するプログラムとを含むことを特徴とする請求項1乃至7のいずれか1項に記載の映像処理システム。
  9.  前記フレーム特徴量抽出手段は、映像を再生する映像再生装置に含まれ、
     前記広告情報データベースと前記広告情報取得手段とは、前記映像再生装置とネットワークを介して接続される映像処理装置に含まれることを特徴とする請求項1乃至8のいずれか1項に記載の映像処理システム。
  10.  前記フレーム特徴量抽出手段は、各フレームに設定された複数の領域対の各領域対に対して算出された領域特徴量の差分を組み合わせ、前記フレーム特徴量とすることを特徴とする請求項1乃至9のいずれか1項に記載の映像処理システム。
  11.  前記領域特徴量は、輝度で表されることを特徴とする請求項10に記載の映像処理システム。
  12.  前記広告情報は、映像、音声および文字の少なくとも1つからなる情報を含むことを特徴とする請求項1乃至11のいずれか1項に記載の映像処理システム。
  13.  再生中の映像のフレームからフレーム特徴量を抽出し、
     抽出した前記フレーム特徴量に対応して、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースから前記広告情報を取得する広告取得方法。
  14.  映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースと、
     再生中の映像のフレームから抽出されたフレーム特徴量を受信するフレーム特徴量受信手段と、
     前記フレーム特徴量受信手段が受信したフレーム特徴量に対応して前記広告情報データベースから前記広告情報を取得する広告情報取得手段と、
     を含む映像処理装置。
  15.  前記広告情報データベースにフレーム特徴量に対応付けた前記広告情報を登録する広告情報登録手段を含むことを特徴とする請求項14に記載の映像処理装置。
  16.  映像を再生中の映像再生装置に前記広告情報取得手段が取得した前記広告情報を送信する広告情報送信手段を含むことを特徴とする請求項14または15に記載の映像処理装置。
  17.  再生中の映像のフレームから抽出されたフレーム特徴量を受信し、
     受信した前記フレーム特徴量に対応して、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースから前記広告情報を取得する映像処理装置の制御方法。
  18.  再生中の映像のフレームから抽出されたフレーム特徴量を受信するフレーム特徴量受信処理と、
     前記フレーム特徴量受信処理において受信したフレーム特徴量に対応して、映像に含まれるフレームを特徴付けるフレーム特徴量に対応付けて、広告情報を記憶し、前記フレーム特徴量に対応する前記広告情報を検索可能な広告情報データベースから前記広告情報を取得する広告情報送信処理と、
     をコンピュータに実行させる映像処理装置のプログラム。
PCT/JP2012/066313 2011-06-23 2012-06-20 映像処理システム、広告取得方法、映像処理装置、および、その制御方法 WO2012176931A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/126,818 US20140115618A1 (en) 2011-06-23 2012-06-20 Video processing system, advertisement acquisition method, video processing device, and method for controlling same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-139338 2011-06-23
JP2011139338 2011-06-23

Publications (1)

Publication Number Publication Date
WO2012176931A1 true WO2012176931A1 (ja) 2012-12-27

Family

ID=47422753

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066313 WO2012176931A1 (ja) 2011-06-23 2012-06-20 映像処理システム、広告取得方法、映像処理装置、および、その制御方法

Country Status (3)

Country Link
US (1) US20140115618A1 (ja)
JP (1) JPWO2012176931A1 (ja)
WO (1) WO2012176931A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523600B2 (en) 2014-11-03 2019-12-31 Opentv, Inc. Method and system to provide secondary content to a second device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105808182B (zh) * 2015-01-15 2019-09-17 财团法人工业技术研究院 显示控制方法及系统、广告破口判断装置、影音处理装置
CN104918107B (zh) 2015-05-29 2018-11-02 小米科技有限责任公司 视频文件的标识处理方法及装置
KR102424839B1 (ko) 2015-10-14 2022-07-25 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
CN109640133A (zh) * 2018-12-17 2019-04-16 杭州柚子街信息科技有限公司 在视频中插播视频广告的信息处理方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116718A (ja) * 2000-04-14 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> 放送情報に関連した情報の取得方法及びシステム並びに装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100592788C (zh) * 2000-04-14 2010-02-24 日本电信电话株式会社 与广播信息相关的信息取得方法、系统和装置
EP2390838B1 (en) * 2009-01-23 2019-10-02 Nec Corporation Image identifier extracting apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116718A (ja) * 2000-04-14 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> 放送情報に関連した情報の取得方法及びシステム並びに装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523600B2 (en) 2014-11-03 2019-12-31 Opentv, Inc. Method and system to provide secondary content to a second device
US11082370B2 (en) 2014-11-03 2021-08-03 Opentv, Inc. Method and system to provide secondary content to a second device

Also Published As

Publication number Publication date
US20140115618A1 (en) 2014-04-24
JPWO2012176931A1 (ja) 2015-02-23

Similar Documents

Publication Publication Date Title
CN108351879B (zh) 用于提高识别媒体段的效率的划分搜索索引的系统和方法
US8359399B2 (en) Method and device for delivering supplemental content associated with audio/visual content to a user
US9384588B2 (en) Video playing method and system based on augmented reality technology and mobile terminal
US9300927B2 (en) Fingerprint, apparatus, method for identifying and synchronizing video
US11659255B2 (en) Detection of common media segments
WO2012176931A1 (ja) 映像処理システム、広告取得方法、映像処理装置、および、その制御方法
US20170019719A1 (en) Detection of Common Media Segments
CN108989883B (zh) 一种直播广告方法、装置、设备及介质
CN105847718B (zh) 基于场景识别的直播视频弹幕显示方法及其显示装置
CN102214304A (zh) 信息处理设备、信息处理方法、和程序
CN109120949B (zh) 视频集合的视频消息推送方法、装置、设备及存储介质
CN102638686B (zh) 处理动态图像的方法及设备
US11671675B2 (en) Augmentation of audio/video content with enhanced interactive content
WO2014100936A1 (zh) 视频的关联信息库制作和视频播放的方法、平台及系统
US20170278130A1 (en) Method and Electronic Device for Matching Advertisement Data
WO2016031203A1 (ja) 表示制御装置、および表示制御方法
CN102404556A (zh) 一种监控录像文件通用播放系统和方法
US20150326892A1 (en) System and method for identifying target areas in a real-time video stream
WO2014199424A1 (ja) 画像処理システム、サーバ、及び画像処理端末
CN109522085B (zh) 数据处理方法、装置、计算设备及存储介质
US9628856B2 (en) Information output apparatus and computer readable medium
CN113825013B (zh) 图像显示方法和装置、存储介质及电子设备
JP2018106408A (ja) 情報処理システム、情報処理装置及びプログラム
JP6569315B2 (ja) 動画監視システム、動画監視方法、および動画監視用プログラム
JP2011254232A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12802858

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14126818

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013521660

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12802858

Country of ref document: EP

Kind code of ref document: A1