WO2002035516A1 - Systeme et procede de reconnaissance d'une composition musicale, support de stockage de programme de composition musicale, procede et systeme de reconnaissance commerciale, et support de stockage de programme de reconnaissance commerciale - Google Patents

Systeme et procede de reconnaissance d'une composition musicale, support de stockage de programme de composition musicale, procede et systeme de reconnaissance commerciale, et support de stockage de programme de reconnaissance commerciale Download PDF

Info

Publication number
WO2002035516A1
WO2002035516A1 PCT/JP2001/009244 JP0109244W WO0235516A1 WO 2002035516 A1 WO2002035516 A1 WO 2002035516A1 JP 0109244 W JP0109244 W JP 0109244W WO 0235516 A1 WO0235516 A1 WO 0235516A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
file
content
music
broadcast
Prior art date
Application number
PCT/JP2001/009244
Other languages
English (en)
French (fr)
Inventor
Miwako Iyoku
Tatsuhiro Kobayashi
Original Assignee
Ntt Communications Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ntt Communications Corporation filed Critical Ntt Communications Corporation
Priority to KR10-2003-7004966A priority Critical patent/KR100516403B1/ko
Priority to US10/399,406 priority patent/US7277852B2/en
Priority to GB0309208A priority patent/GB2384596A/en
Priority to JP2002538418A priority patent/JPWO2002035516A1/ja
Priority to AU2001295989A priority patent/AU2001295989A1/en
Publication of WO2002035516A1 publication Critical patent/WO2002035516A1/ja
Priority to HK04101878.1A priority patent/HK1059133A1/xx

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99948Application of database or data structure, e.g. distributed, multimedia, or image

Definitions

  • the present invention relates to a music recognition method and system, and a storage medium storing a music recognition program, and in particular, recognizes a broadcasted music name in video or audio information broadcast on TV or FM in real time.
  • -It relates to a music recognition method and system for storing and a storage medium storing a music recognition program.
  • the present invention relates to a CM recognition method and system, and a storage medium storing a CM recognition program.
  • the present invention relates to a CM recognition method and system for recognizing and storing CM broadcasted on TV or FM in real time. And a storage medium storing a CM recognition program.
  • the conventional system has no technology for monitoring' on-air 'music, and it is not possible to store the name of the music together with the on-air time information on the storage device.
  • time information is added to a song title, there is only manual processing, and the broadcasted song title, The time information of when the song was broadcast cannot be added in real time.
  • the present invention has been made in view of the above points, and is capable of recognizing and accumulating a song name of a broadcasted song in real time from video or audio information on a TV, FM, or the like.
  • the purpose is to provide playlist creation techniques.
  • the object of the present invention is not only on-air, but also in real-time, even if there is no tag information or watermark information, even for broadcast data that has been transmitted via streaming over a communication network such as the Internet. It is an object of the present invention to provide a playlist creation technology capable of comparing and recognizing music data. ,
  • Another object of the present invention is to provide a CM recognition technology capable of recognizing and storing a broadcasted CM in real time on video or audio information on TV or FM. Aim.
  • the present invention can be configured as follows.
  • the present invention relates to a playlist creation method for creating a playlist of contents from received data
  • Extracting the features of the received data and storing them in a data feature file A step of searching for the content by comparing the data of the content characteristic file with the data of the data characteristic file. If the data of the content characteristic file and the data of the data characteristic file match, the data corresponding to the data is deleted. Accumulating the search results as a search result file,
  • a step of creating a playlist of the content from the search result file and the content information DB it is possible to automatically create a time-series playlist from on-air broadcast data or the like.
  • the data characteristic file is, for example, a broadcast characteristic file.
  • the present invention it is possible to register information related to the content of a content feature file that has been automatically registered, and to automatically create a time-series playlist by using the registered information. Is possible.
  • a step for enabling a human to view the content corresponding to the data when a certain data in the data feature file is not included in the content feature file, a step for enabling a human to view the content corresponding to the data.
  • a time-series playlist can be complemented, and a playlist with higher accuracy can be created.
  • the present invention can also be configured as follows.
  • the present invention is a music recognition method for recognizing music from received data.
  • the method includes: extracting characteristics of music contents in advance and storing the characteristics in a content characteristic file;
  • Step of creating a time-series playlist of music from the search result file Step of creating a time-series playlist of music from the search result file.
  • the broadcast feature file, the song extraction file, and the song name not extracted A step of creating a music undetected file from the output file may be further provided.
  • a step of adding a song name and a time related to a song recorded in the song undetected file to the playlist may be further provided.
  • a time-series playlist can be complemented, and a more accurate time-series playlist can be created.
  • the time-series playlist is created using the search result file and content information DB having information associated with a song name,
  • the time-series playlist may include a time, a music name broadcast at the time, and information related to the music name.
  • the broadcast data may be received in a plurality of regions, the data received in each region may be transmitted to a center system, and the time series playlist may be created by the music recognition method in the center device. Good.
  • the present invention is also a music recognition method for recognizing music from received data
  • Extracting the features of the music content in advance and storing it in a content feature file A step of receiving broadcast data in a plurality of regions; a step of extracting characteristics of the received data in each region and transmitting the extracted data to a center system as broadcast characteristic file data; A step of searching for music by comparing the data of the content feature file and the data of the broadcast feature file;
  • the amount of transmission to the center is reduced.
  • the content information DB and the information related to the music title include information about CM,
  • the information on the CM in the content information DB is registered in advance in the content information DB by a CM recognition method, and the CM recognition method includes:
  • the data is registered as a new CM in the master CM contents file included in the content information DB. You may. '
  • the present invention it is possible to create a time-series playlist including CM information.
  • the present invention can also be configured as follows.
  • the present invention is a CM recognition method for recognizing a CM from received data and storing the recognized CM data.
  • CM data from the received data; extracting the features of the CM data and storing the features in a broadcast feature file;
  • the data in the broadcast special file is not in the master CM content characteristic file, there is a step of registering the data as a new CM in the master CM content characteristic file.
  • the step of detecting CM data from the received data includes a step of detecting a start point and an end point of the CM data
  • a fixed length portion obtained by extracting an equal length portion from the center between the start point and the end point of the detected CM data to the start point and the end point. It may be characterized.
  • CM data Information related to the CM data is stored in the master CM content feature file. And a step of registering in each database of the CM management database group including the file.
  • information relating to CM data automatically registered in the master CM content characteristic file can be registered.
  • this information it is possible to create a time-series playlist having information on CM.
  • FIG. 1 is a diagram for explaining the principle of the present invention.
  • FIG. 2 is a principle configuration diagram of the present invention.
  • FIG. 3 is a diagram showing an outline of the music recognition system of the present invention.
  • FIG. 4 is a sequence chart showing an outline of the operation of the music recognition system of the present invention.
  • FIG. 5 is a diagram showing an outline of the CM recognition system of the present invention.
  • FIG. 6 is a flowchart (1) showing an outline of the operation of the CM recognition system of the present invention.
  • FIG. 7 is a flowchart (2) showing an outline of the operation of the CM recognition system of the present invention.
  • FIG. 8 is a diagram showing an outline of a music recognition system according to the 'first example' of the present invention.
  • FIG. 9 is a flowchart of the music recognition system according to the first specific example of the present invention.
  • FIG. 10 is a diagram showing an application example of the first embodiment of the present invention.
  • - Figure 11 is a diagram showing the files used to create a time-series playlist and their relationships.
  • FIG. 12 is a diagram for explaining attribute information in a time-series playlist.
  • FIG. 13 is a diagram for explaining attribute information in a time-series playlist.
  • FIG. 14 is a diagram showing an outline of a CM recognition system according to a second specific example of the present invention.
  • FIG. 15 is a diagram for explaining a force setting method for characterizing CM data.
  • -FIG. 16 is a diagram showing a system configuration in the third specific example of the present invention.
  • FIG. 17 is a flowchart showing an outline of the operation of the system shown in FIG.
  • FIG. 18 is a flowchart showing in detail the operation of the system in the third example of the present invention.
  • FIG. 19 is a diagram showing a method of storing music data.
  • FIG. 20 is a diagram illustrating a method of accumulating CM data.
  • FIG. 21 is a diagram showing a process of creating a content special file from music / CM unextracted files.
  • FIGs. 1 and 2 show the principle of the present embodiment.
  • the features of the content are extracted in advance and stored in a content feature file (step 1), the features of the received data are extracted, and the broadcast features are extracted.
  • the music is stored in a file (step 2), the music is searched for by comparing the data of the content characteristic file and the data of the broadcast characteristic file (step 3), and when the music is identified, information on the music is stored as a search result file (step 3).
  • Step 4) Create a time-series playlist of songs from the search result file and accumulate it (step 5).
  • the principle of the music recognition system of the present embodiment The composition is as follows: the content is created in advance, the features of the music content are extracted, the content creating means 300 is stored in the content feature file 320, the features of the received data are extracted, and the broadcast feature file is extracted.
  • Feature extraction means stored in the file 140.
  • the music is searched for by matching the data of the content feature file 320 with the data of the broadcast feature file 140.
  • the search results are searched. It has music search means 120 stored in the result file 150 and list creation means 200 that creates and accumulates a time-series playlist of time-series music from the search result file 150.
  • FIG. 3 shows an outline of the music recognition system of the present invention.
  • the system shown in FIG. 1 includes an on-air capture / search device 100, a music confirmation / registration device 200, and a content creation device 300. These devices are composed of PCs. This system can be executed by one PC having the function of each of these devices, but it is divided into three devices in consideration of the processing load of the PC, the performance cost, and the specifications of the current hardware.
  • On-air capture / search device 100 On-air capture / search device 100, on-air capture unit 110, search unit 120, song extraction file 130, broadcast feature file 140, search result file 150, song name unnamed It consists of an extracted file 160, a music undetected file 170, and a time data providing unit 180.
  • the on-air capture unit 110 monitors broadcast data continuously from TV and radio broadcasting stations, determines whether the monitored broadcast data is music or non-music, and if it is music, extracts music.
  • the file 130 the fact that the broadcast at the monitored time is a song is recorded, and at the same time, the song is extracted in real time at 7.5-second intervals, and the feature of the broadcast is extracted. accumulate. Also, the music is stored as digital data in a file (not shown) at intervals of 7.5 seconds.
  • the on-air capture unit 110 The above processing is performed based on the time information from the time data providing unit 180. Also, a time stamp is added to the captured information and recorded.
  • the reason for setting the 7.5-second interval is that, when you want to know the music that is played on a general CM, the broadcast time of the CM is currently at least 15 seconds, so half the time is used as the search interval. This makes it possible to perform a search for music songs overnight.
  • the on-air capture unit 110 determines whether a song is a song or a non-song by using an existing technology (for example, "easy” (Music Z Non-Music Detection Technology): Japanese Patent Application No. 8-3,042,933
  • the on-air capture unit 110 registers in the music extraction file 130 that the music has been determined using the technology. '
  • the search unit 120 reads a file storing the characteristics of the content created by the content creation device 300 into the memory, reads the broadcast characteristic file 140, and reads the two files. Matching is performed, and the matching result is stored in the search result file 150. If the matching is not successful, it is stored in the music name unextracted file 160.
  • the above-described matching-based search can use a learning active search method described in Patent No. 3,065,314, "High-speed signal search method, apparatus and recording medium", and the like.
  • a similarity value between the data of the content feature file and the data of the broadcast feature file is calculated, and a search is performed by comparing the calculated similarity value with a threshold. It should be noted that the details can be known by referring to the above-mentioned Patent No. 3,065,314.
  • the music extraction file 130 is composed of data with a time stamp added to the information indicating the music, and is created by the on-air capture unit 110.
  • the created broadcast feature file is a TAZ file (binary file).
  • the TAZ file is a file that can be compared at high speed in learning active search.
  • the broadcast content is stored in a WAV file (not shown).
  • the broadcast feature file 140 automatically captures broadcast data that is on air in the on-air capture unit 110, and stores feature data of the broadcast data from which features have been extracted.
  • the search unit 120 stores the result of matching between the content feature file (described later) created by the content creation device 300 and the broadcast special file 140. That is, as a result of the matching, information (song name, etc.) corresponding to the matched data is stored in the search result file, and the data of the broadcast feature file 140 that did not exist in the content feature file is not extracted. It is stored in a file (described later).
  • the music confirmation Z registration device 200 is composed of a music confirmation unit 210 and a registration unit 220, and outputs a time-series playlist 230.
  • the music confirmation unit 210 uses the search result file 150 and the content information DB 330 to determine the time, song title, artist, program (CM) name, client, product, Evening information, CD information, etc. are extracted and passed to the registration unit 220.
  • CM program
  • the registration unit 220 registers the contents extracted by the music confirmation unit 210 into the time-series playlist file 230 in chronological order.
  • the music recognition unit 200 recognizes the music by checking the broadcast contents stored in the music undetected file with the registration device 200. Then, the data is added to the time-series playlist. In the evening, the broadcast content can be confirmed by listening to the music captured by the on-air capture unit 110 in the form of a WAV file, etc., based on the time information in the music undetected file. it can.
  • the content creation device 300 is composed of a content creation unit 310, a content feature file 320, and content information DB 330.
  • the content creation unit 310 acquires the content from the medium on which the music is recorded, and accumulates the music and the attribute data that can be used in the content feature file 320 in the content information database 330. Then, the feature of the music is extracted and stored in the content special file 320 together with the name of the music.
  • the content feature file 320 is a file created by the content creation unit 310, and the content name DB and feature information of the song are stored in the content information DB 330 by the content creation unit 310. All attribute data of the music is stored.
  • FIG. 4 shows an outline of the operation of the music recognition system of the present invention.
  • Step 101 In the content creation device 300, the music and the attribute data of the music are registered in the content information DB 330 from a recording medium of the music content. Attribute data is, for example, song name
  • Information such as the name of the artist, the name of the program, the name of the client, the name of the product, and the name of the talent
  • Step 102 In the content creation device 300, the features of the music are extracted and stored in the content feature file 3.20.
  • Step 103) In the on-air capture / search device 100, capture the video and audio that are on-air.
  • “Oh The “video and audio that is being aired” includes video and audio that are broadcast via the Internet.
  • Step 104) The on-air capture search device 100 detects whether the broadcast data is music or non-music by using any technology to detect music Z and non-music from the captured content. I do. Step 105) If it is a music piece in Step 103, the fact that the broadcast at that time is a music piece is recorded in the music piece extraction file 130. Recording the fact that the song is a song means, for example, setting a flag indicating the song at the time.
  • Step 106 At the same time as the above steps 104 and 105, the feature of the music is extracted in real time at intervals of 7.5 seconds and stored in the broadcast feature file 140. In addition, music broadcast data is also stored in a file (not shown).
  • Step 107) Next, in the on-air capture Z search device 100, a search application is started in order to search for music, and in the above-described step 102, the content creation device 300 Read the contents of the created content feature file 320 into memory.
  • Step 108) The search section 120 of the on-air capture / search device 100 also reads the broadcast feature file 140, and matches the two files. At this time, the learning active search technique described above is used.
  • Step 109) The results of the above matching are stored in the search result file 150.
  • the special data that could not be matched is stored in the music name unextracted file 160.
  • Step 110 the music confirmation / registration device 200 reads each content of the content information DB 330 from the content creation device 300.
  • Step 1 1 1) In addition, the music confirmation / registration device 200 'Read the search result file 1.50 from the search device 100.
  • Step 1 1 2) With this, the music confirmation registration device 200 uses the data in the search result file 150 and the data in the content information DB 330 to determine the music name, artist name, and the captured program. Then, information such as client, product, and talent is extracted, and the data is rearranged in a time series to create a time series playlist, which is accumulated as a time series playlist DB 230.
  • Step 1 13) Also confirm the music title corresponding to the feature decoder recorded in the music undetected playlist by viewing the music, and complement the time-series playlist.
  • CMs commercials
  • CMs commercials
  • FIG. 5 is a diagram showing an outline of a CM recognition system of the present invention.
  • the CM recognition system shown in the figure includes an on-air capture / search device 400, a CM confirmation / update unit 500 ', and a CM management data base group 600.
  • On-air capture / search device 400 includes capture unit 410, search unit 420, FM / AMCM file 430, broadcast feature file 440, CM data file 450, and TV 'CM It consists of a file 460 and a time data providing unit 470.
  • the capture unit 410 monitors the broadcast data continuously from on-air of the TV and radio broadcast stations, and judges whether the monitored broadcast data is CM by judging the start and end of CM. If it is a CM, store the monitored CM data in the TV CM file 460 or FMZAM CM file 430. Further, the capture unit 410 attaches a time stamp to the CM data using the time information provided from the time data providing unit 470.
  • the capture unit 410 creates CM characteristic data from the captured data, and stores the CM characteristic data in the broadcast special service aisle 440.
  • the data was cut uniformly from the center of the CM data to both ends. Reprocess as long (8.0 seconds) data. Then, the reprocessed on-air data is converted into feature data using the technology disclosed in the learning active search technology, and stored in TAZ format.
  • the TAZ file is a file that enables high-speed comparison processing in the learning actig search in the search unit 420.
  • the search unit 420 reads the file storing the features of C ⁇ in the broadcast feature file 440 and the master CM management database 600 in the memory, and matches the two files.
  • the matching result is stored in CM data file 450.
  • the search unit 420 uses a learning active search (Patent No. 3,065,314, etc.). In this case, as a result of the matching, for a CM that could not be searched, the CM data is stored in the CM data overnight file 450 with the name of the on-air time.
  • the CM data that was captured by the capture unit 410 and aired on the FMZ AM is stored as a WAV format (sound only format) file.
  • the broadcast feature file 440 stores CM feature data extracted from the CM data captured by the capture unit 410.
  • the broadcast feature file 440 is a TAZ file (binary file). Isle)
  • the CM data captured on the TV captured by the capture section 410 is stored as an AVI format file.
  • the CM confirmation Z update unit 500 reads the CM data file 450 that stores CM data for which the CM name and the like are not known.
  • the CM in the CM file — evening file 450 is likely to be a new CM.
  • the operator checks the newly registered CM using software such as Windows Media Player 7, The main (client), product name, song name, talent name, etc. are extracted and stored in the CM management database group 600 file.
  • CM management database group 600 is from CM master 610, product master 620, talent master 630, song name master 640, advertiser master 650, master CM content feature file 660 Become.
  • the data in the product master 620, talent master 630, song name master 640, advertiser master 650, master CM content feature file 660 is extracted by the CM confirmation update unit 050. You.
  • These masters are master files created for each attribute of CM data stored in CM master 610.
  • FIG. 7 is a flow chart showing an outline of the operation of the CM recognition system of the present invention 0
  • Step 301) On-air capture In the capture section 410 of the Z search device 400, the broadcast data being on-air is captured.
  • Step 302 The capture unit 410 detects CM data from the captured broadcast data, and extracts broadcast characteristics from the CM data by the method described above.
  • Step 3 0 3) Copy the extracted broadcast features to the broadcast feature file 44 Store it in 0 and proceed to step 307.
  • Steps 304, 305) Perform the above processing and store TV.CM in the TV.CM file 460.
  • Step 3 0 After step 3, the search unit 420 reads the broadcast feature file 440 and the CM content feature file 660 of the CM management database group 600 into the memory, and reads the two files. A learning active search for comparing isles is performed.
  • Step 3 08 When the CM is found by the search, the process proceeds to step 3 07 to search for the data of the next broadcast feature file 440 and the master CM content feature file 660. If the CM has not been determined, the process proceeds to step 309.
  • Step 309) If the CM is not found, register the on-air time as a name in the CM data file 450.
  • Step 310) In the CM confirmation update unit 500, the operator confirms the CM registered in the CM data file 450 using existing software or the like.
  • Step 3 1 1) During the operation, maintenance of the CM master 610 is performed, and furthermore, maintenance of the master for each attribute is performed from the CM master 610.
  • a time-series playlist can be created from the CMs recognized in the second embodiment in the same manner as creating a time-series playlist from recognized songs. is there. 'Also, in the same way as the CM example of the second embodiment, It is also possible to update the content special file and content information DB.
  • FIG. 8 is a diagram showing a configuration of a music recognition system according to a first specific example of the present invention.
  • FIG. 9 is a flowchart showing the operation of the music recognition system according to the first example of the present invention.
  • an on-air capture / search device that connects a PC 110 that captures broadcast content in real time and a PC 120 that searches for broadcast feature files 140 100, a content creation file 3200 having a PC 3 10 that manages a content file 320 that holds the content feature of the music content, and a content information DB 3300, and a DB that stores the time-series playlist.
  • the configuration is such that the Z registration device 200 is connected to the music confirmation to be registered in the.
  • the PC 110 captures the on-air contents (step 201) and outputs the broadcast feature file 140 every 7.5 seconds from the captured data.
  • Step 202 the PC 120 acquires the content from the content creation device 300 and expands the contents of the music content special file 320 in advance in the memory.
  • the music is searched by the learning active search using the program and the broadcast feature file 140 (step 203), and the search result is output to the search result file 150 (step 205).
  • the characteristic data is stored in a music name unextracted file (step 2007).
  • the music confirmation / registration device 200 creates a time-series play list from the search result of the search result file 150 and the content information DB, and stores it in the DB 230.
  • the PC 110 of the on-air capture / search device 100 determines whether or not the broadcast data is music (step 301). The fact that the song is music and a time stamp are output to the music extraction file 130 (step 302). Also, the music itself is stored with a time stamp attached to a WAV file or the like (not shown).
  • the necessary data items are added to the search result file 150 while confirming the contents of the music undetected file in the PC 120 performing the search.
  • the content feature file 320 and the broadcast feature file 150 in the above use a TAZ file (a binary file for learning active search).
  • the search result file is combined with the content information DB including the CM mask and the like. Specific examples will be described in the following application examples.
  • the PC 110 can capture the broadcast contents of various places in the whole country by receiving data from the relevant areas, and create a broadcast characteristic file.
  • PCs 110 are located all over the country, each PC 110 captures the broadcast contents there, creates a broadcast feature file, and places the broadcast feature file in the PC 120, which is located at the center. It may be configured to transmit.
  • FIG. 10 is a diagram showing an application example of the above specific example of the present invention.
  • the content management center corresponds to the content creation unit 300 shown in FIG. It is assumed that the data center corresponds to the online cab hunter / search device 100 in FIG.
  • the content management center obtains a CD for trial listening from a record company, purchases a DVD ⁇ new music CD from a CD sales shop, etc., and categorizes the content from these recording media together with the content attributes and the content information DB33.
  • the content features are extracted and stored in the content feature file 320 (in the example of FIG. 10, the music data base).
  • the data center tunes broadcast contents such as TV (VHS) and FM acquired through antennas located in various parts of the country, or broadcast contents acquired through satellite antennas via a parapolar antenna.
  • VHS TV
  • FM FM
  • broadcast contents acquired through satellite antennas via a parapolar antenna.
  • the data center digitizes the acquired broadcast data at 7.5-second intervals, extracts data features, stores them in the broadcast feature file 140, and determines whether the song is a song or a non-song such as a talk. Then, the result is stored in the music extraction file 130.
  • a search engine (learning active search technology) is used to search for music from the content feature file previously obtained from the content management center and the broadcast feature file on the PC for data center search. Store in 0.
  • the song registration in the data center On the PC used create a time-series playlist using the search result file and the content information DB 330.
  • the song title, artist, program (CM), client, product, evening, CD information, etc. are set as a time-series playlist, and W Register in the database used on the eb site. For music that could not be searched, music is added by the operator.
  • Figure 11 shows the files used to create a time-series playlist and their relationships.
  • a search result file and a song name unextracted file are generated from the broadcast feature file and the content feature file.
  • a time-series playlist is created from the search result file and the content information DB.
  • a song undetected file is created from the song extracted file and the song name unextracted file, etc., and the operator confirms the song name etc. corresponding to the song recorded in the file, complementing the time-series playlist it can.
  • songs whose names have been confirmed can be added to the content special file by characterizing as necessary. Thus, when a song corresponding to TAZ4 is captured, it is possible to recognize the song.
  • FIG. 12 is a diagram showing a case where each item at time 9:00 in the playlist is determined.
  • the content information DB has various databases (mass database) linked from TAZ database. Therefore, if the song name is known from the TAZ data, it is possible to obtain various information at 9:00 by following various masters from the sound source mass.
  • the program name can be known from the broadcast station name and time. In this way, a time-series program containing various related information It is possible to create a laylist.
  • FIG. 13 shows the case at time 11:46, and similarly to the above, various information corresponding to the time can be acquired from various kinds of masters from TAZ day.
  • the simulation used an actual FM broadcast recording (approximately 35 minutes) containing 7 songs as broadcast samples, and used 19 3 CD songs as database samples. Of these, 6 songs were used. Included in the broadcast sample above.
  • FIG. 9 is constructed as a program, and the disk device connected to the computer used in the data center and the content management center. It is stored in a portable storage medium such as a storage device, a floppy disk, a CD-ROM, or the like, and installed in a PC used in a data center or a computer management center when implementing the present invention.
  • a portable storage medium such as a storage device, a floppy disk, a CD-ROM, or the like
  • the present invention can be realized.
  • FIG. 14 is a diagram illustrating a configuration of a CM recognition system according to the second embodiment of the present invention.
  • the CM recognition system includes a capture PC section 410 for capturing broadcast contents, and a learning active search PC 420 for comparing the broadcast special file 440 with the master CM content special file 660.
  • the CM management server manages various CM master files.
  • the broadcast feature file 440 is a TAZ format file that stores both TV / CM and FM / AM / CM features extracted in real time.
  • the TV * CM file 460 is an AVI format file in which TV * C # is stored, and is managed in pairs with the contents of the broadcast feature file 440.
  • the FM / AM / CM file 430 is a WAV format file in which FM / AM / CM is stored, and is managed in pairs with the contents of the broadcast feature file 440.
  • the CM data file 450 is a file in which a CM to be newly registered is stored.
  • the data is stored in, for example, an AVI format, and in the case of an FMZAM ⁇ CM, The data is stored in WAV format.
  • CM management database group 600 master CM content feature file File 660 is stored in TAZ format.
  • the capture PC 410 captures the on-air content (step 301). Next, the capture PC 410 obtains the start and end of the CM by the CM detection module.
  • the CM detection module is disclosed in Japanese Patent Application No. 6-3129776 “Image Cut Point Detection Method and Apparatus” (Tanimura and Tomura).
  • the cut out data is cut uniformly from the center of the CM data to both ends. It is reprocessed as long (8.0 seconds) data, extracted as broadcast features (step 302), and stored in the broadcast feature file 440 (step 303).
  • the capture PC 410 stores the on-air data in the AVI format when the on-air data is TV and in the WAV format when it is FM / AM by the CM detection module (steps 304, 305, and 300). 6).
  • the learning active search PC 420 reads the broadcast feature file 440 and the master CM content feature file 660 of the CM management database group 600 into the memory and performs a learning active search (step 30). 7). If the CM is not registered in the CM content characteristic file 660, the CM is registered in the CM data file 450 (step 309). If the CM is not registered in the master CM content feature file 660, the CM unconditionally enters the master CM content special file 660.
  • the CM registered in the CM data file 450 is confirmed by the CM confirmation update unit 500 (step 310).
  • the CM confirmation process is performed using existing software. Also, by Opere overnight
  • the CM is registered in the CM master 610 by adding various additional information. Furthermore, according to the attributes of the CM registered in the CM master 610, the product space, evening 620, talent mass 630, song name master 640, advertiser master 650, master CM content feature file 660 is updated with the corresponding data overnight (step 311 1).
  • the present invention can be easily realized by installing it on a search PC.
  • the processing of capturing and recognizing and storing broadcast data on air from broadcasting stations such as TV and FM / AM has been described.
  • the present invention is not limited to this example.
  • the same processing as described above can be applied to data transmitted via a communication network such as.
  • Fig. 16 shows the system configuration in the third specific example.
  • the music CM recognition system in the third specific example captures the broadcast contents, searches for music and CM, and searches for music and CM.
  • Content creation device 800 a time-series playlist is created from the search result file and the content information DB, and newly confirmed songs and CM attribute information are registered in the content creation device 800.
  • CM confirmation Registration device 900 • CM confirmation Registration device 900.
  • On-air capture Z search device 700 on-air capture section 7110, search section 720, music * CM extraction file 730, broadcast feature file 740, search result file 7500, music, CM not It has an extraction file 760, music / CM undetected file 770, and a content special file creator 780. Further, the content creation apparatus has a content creation section 8100, a content special file 820, and content information DB'830.
  • FIG. 17 is a flowchart showing an outline of the operation of the system shown in FIG. An outline of the operation will be described with reference to FIG.
  • the on-air capture unit 710 captures broadcast content including music and CM, stores it as an AVI file, WAV file, etc., and extracts the characteristics of the content. And store it in the broadcast feature file 740 (step 402).
  • music and CM are searched using the content feature file 820 and the broadcast feature file 740 (step 403).
  • information on the music or CM is stored in the search result file (step 404), and a time-series playlist is created (step 405). If the song or CM is unknown, the feature data etc.
  • step 406 For which the song or CM was not found are stored in the song / CM unextracted file (step 406), and the content features corresponding to the song or CM are stored.
  • a file is created and automatically registered in the content feature file 820 of the content creation device 800 (step 407).
  • the processing in the on-air capture unit search device 700 in the present embodiment includes a processing system 1 for searching for music and .CM, a processing system for detecting music, and for discriminating and accumulating music. 2. Processing system 3 that detects and stores CMs.
  • a CM extraction file is created by detecting a cut point in the broadcast, and the CM data is stored as an AVI file or the like (steps 5 1 1 to 5). 13 ) .
  • Fig. 20 shows the situation. Thus, the CM part between the power points is accumulated.
  • CM extraction file is the same as the music extraction file of the music, and records that it is a CM and its time.
  • feature extraction and music / CM search are performed in the same manner as in the first embodiment for music and in the same manner as in the second embodiment for CM (step 52). 1, 5 2 2).
  • a search result file 750 is created (step 523). If the name of the song or CM is not known, the data is stored in a song or CM unextracted file (step 524), and a content feature file is automatically created using the data (step 5). Step 525) Temporarily register in the content feature file 520.
  • Figure 21 shows the content feature file from music and CM unextracted files. This shows the process of creating a file. In this way, a content feature file is created from the music file corresponding to the data in the music file “CM unextracted file” and the CM data file (AVI or WAV).
  • a song and a CM undetected file are created from the song ⁇ CM unextracted file and the song ⁇ CM extracted file (step 5 26), and the operator checks the song and CM.
  • the time-series playlist is complemented by the confirmed music and CM (step 527).
  • the various databases in the content creation device are updated using the result of the confirmation (associating the TAZ file with the song title, artist name, etc.), and thereby the temporarily registered content special file is officially registered (step 5 2 8).
  • the on-air broadcast data (such as music used for commercials) is digitized and characterized at 7.5-second intervals, and music prepared in advance is used.
  • the music title can be stored as a time-sequential list on the storage device together with the broadcasted time information by collating with the content characteristic file.
  • This makes it possible to acquire playlists by time, such as music titles, artist names, programs (CM), clients, products, talent, and CD information, and to acquire meaningful information results.
  • This information can be used for marketing information, etc., depending on the target sales target.
  • the digitalization and characterization at 7.5-second intervals generally takes half the time to ensure a search because the current CM broadcast time is currently at a minimum of 15 seconds. is there. Therefore, it is effective to change the digitization interval time to another value instead of 7.5 seconds depending on the type of content. Further, according to the present invention, it is possible to automatically recognize in real time the CM monitoring work conventionally performed manually, and the TV and FM / AM can be used in real time without any evening information or watermark information. You can register the aired CM data. Then, this CM data can be used to create a time-series playlist.
  • data whose music title or the like has not been determined can be automatically registered in the content creation device. It is possible to enhance the performance of the music, and to create a time series playlist with higher accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

明細書 楽曲認識方法及びシステム及び楽曲認識プログラムを格納した記 憶媒体及びコマーシャル認 方法及びシステム及びコマーシャル認 識プログラムを格納した記憶媒体 · · 技術分野
本発明は、 楽曲認識方法及びシステム及び楽曲認識プログラムを 格納した記憶媒体に係り、 特に、 T Vや F M等で放送された映像ま たは、 音声情報のうち、 放送された楽曲名をリアルタイムに認識 - 蓄積するための楽曲認識方法及びシステム及び楽曲認識プログラム を格納した記憶媒体に関する。
また、 本発明は、 C M認識方法及びシステム及び C M認識プログ ラムを格納した記憶媒体に係り、 特に、 T Vや F M等で放送された C Mをリアルタイムに認識 ' ·蓄積するための C M認識方法及びシス テム及び C M認識プログラムを格納した記憶媒体に関する。 背景技術
従来、 リアルタイムに放送された映像情報や音楽情報のコンテン ッに使用されている楽曲名をリアルタイムに認識し、 それを記憶装 置 蓄積するシステムは存在していない。 '
• また、 リアルタイムに放 ¾された C Mをリアルタイムに認譏、 蓄 積する装置も存在していない。.また、 所定の長さで区切られた C M 情報だけで、 C Mデータを比較 ·認識するシステムは存在していな い。
'上記のように、 従来のシステムには、 オンエアされた楽曲をモニ '夕するための技術がなく、 オンエアされた時刻情報と共に楽曲名を 記憶装置上に蓄積することはできない。 時刻情報をある楽曲名に付 '与する場合には人手による処理しかなく、 放送された楽曲名、 当該 楽曲が放送された時刻情報をリアルタイムに付与することができな い。 '
また、 C Mについて'も、 オンエアされた映像、 または、 音声情報 のうち、 放送された C Mをリアルタイムに認識 ·蓄積する装置はな く、 人手で行うしか方法がなく、 リアルタイム性、 規模の拡大にも 限界がある。 発明の開示
本発明は、 上記の点に鑑みなされたもので、 T Vや F M等でオン エアされた映像または、 音声情報のうち、 放送された楽曲の楽曲名 をリアルタイムに認識し、 蓄積することが可能なプレイリスト作成 ¾術を提供することを目的とする。
また、 本発明の目的は、 オンエアだけでなく、 インタ一ネット等 の通信ネッ トワークを介して例えばストリーミング伝送された放送 デ一夕に対しても、 タグ情報や透かし情報が無くてもリアルタイム に目的とする楽曲データを比較 ·認識することが可能なプレイリス ト作成技術を提供することを目的とする。 ,
また、 本発明の目的は、 T Vや F M等でオンエアされた映像また は、 音声情報のうち、 放送された C Mをリアルタイムに認識し、 蓄 積することが可能な C M認識技術を提供することを目的とする。 上記の目的を達成するために、 本発明は次のように構成すること ができる。
本発明は、 受信したデータからコンテンツのプレイリストを作成す るプレイリスト作成方法において、
予め、 コンテンツの特徴を抽出して、 コンテンツ特徴ファイルに 蓄積し、 該コンテンツに関連する情報をコンテンツ情報 D Bに蓄積 するステップと、
前記受信したデータの特徴を抽出し、 データ特徴ファイルに蓄積 するステップと、 前記コンテンツ特徴フアイルのデータと前記データ特徴ファイル のデータとを照合することによりコンテンッを探索するステツプと 前記コンテンッ特徴ファイルのデータと前記データ特徴ファイル のデータが一致したら、 該データに対応するデ一夕を探索結果ファ ィルとして蓄積するステツプと、
前記探索結果ファイルと前記コンテンッ情報 D Bとから該コンテ ンッのプレイリストを作成するステツプとを有する。 ' 本発明によれば、 オンエアさ ήた放送データ等から時系列プレイ リストを自動的に作成することが可能となる。 なお、 上記データ特 徵ファイルとは、 例えば放送特徴ファイルである。
上記の構成において、 前記データ特徴ファイルにおけるあるデ一 夕が前記コンテンツ特徴ファイルに含まれていない場合に、 該デー 夕に対応するコンテンッの特徴デ一タを前記コンテンッ特徴フアイ ルに登録するステツプを更に有するようにしてもよい。
本発明によれば、 コンテンッ特徵ファイルへのデータ登録を自動 的に行うことが可能となる。
上記の構成において、 前記コンテンッ特徵ファイルに含まれてい なかつたデー夕に対応するコンテンツを人間が視聴できるようにす るステップと、
該コンテンッに関連する情報を前記コンテンツ情報 D Βに登録す るステップとを更に有するようにしてもよい。
本発明によれば、 自動的に登録されたコンテンツ特徴ファイルの デ一夕に関連する情報を登録することができ、 その登録した情報を 用いることにより、 時系列プレイリストを自動的に作成することが 可能となる。
. 上記の構成において、 前記デ一夕特徴ファイルにおけるあるデ一 夕が前記コンテンツ特徴ファイルに含まれていない場合に、 該デ一 夕に対応するコンテンッを人間が視聴できるようにするステツプと 該コンテンツを該コンテンッに関連する情報とともに前記プレイ リストに追加するステツプとを有するようにしてもよい。
本発明によれば、 時系列プレイリストを補完することができ、 よ り精度の高いプレイリス卜を作成することが可能となる。
上記の目的を達成するために本発明は次のように構成することも できる。
本発明は受信したデータから楽曲を認識する楽曲認識方法であり 予め、 楽曲コンテンツの特徴を抽出して、 コンテンツ特徴フアイ, ルに蓄積するステップと、
前記受信したデータの特徴を抽出し、 放送特徴ファイルに蓄積す るステップと、
前記コンテンツ特徴ファイルと前記放送特徴ファイルのデ^-夕を 照合することにより楽曲を探索するステップと、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す るステップと、
前記探索結果ファイルから楽曲の時系列プレイリストを作成する ズテツプとを有する。.
本発明によれば、 楽曲.に関する時系列プレイリストを自動的に作 成することが可能となる。
上記の構成において、 前記受信したデータが楽曲か否かを判定す るステップと、
楽曲である場合にはそのデータが楽曲である旨とそのデータを受 信した時刻とを楽曲抽出ファイルに蓄積するステップと、
前記楽曲を探索するステツプにおいて、 前記放送特徵ファイルの あるデ一夕の楽曲名が判明しなかった場合にはそのデータを楽曲名 未抽出ファイルに蓄積するステツプと、
前記放送特徴ファイルと前記楽曲抽出ファイルと前記楽曲名未抽 出ファイルとから楽曲未検出ファイルを作成するステツプとを更に 有するようにしてもよい。
本発明によれば、 楽曲であるにもかかわらず、 時系列プレイリス 卜に掲載されていないものを把握することが可能となる。
上記の構成において、 前記楽曲未検出ファイルに記録された楽曲 を人間が聞くことができるようにするステップと、
(該楽曲未検出ファイルに'記録された楽曲に関する楽曲名と時刻と を前記プレイリストに追加するステップとを更に有するようにして もよい。
本発明によれば、 時系列プレイリストを補完することが可能とな り、·より精度の高い時系列プレイリストを作成することが可能とな る。
上記構成において、 前記探索結果ファイルと、 楽曲名と関連付け られた情報を有するコンテンッ情報 D Bとを用いて前記時系列プレ イリストを作成し、
該時系列プレイリストは、 時刻、 該時刻に放送された楽曲名、 及 び該楽曲名と関連する情報を有するようにしてもよい。
-本発明によれば、 楽曲名とその楽曲名に関連する種々の情報を有 する時系列プレイリストを自動的に作成することが可能となる。 上記の構成において、 複数の地域で放送データを受信し、 各地域 で受信したデータをセンタシステムに送信し、 該センタ装置におい て前記楽曲認識方法により前記時系列プレイリストを作成するよう にしてもよい。
本発明によれば、 各地域の放送局で放送された内容に関する時系 列プレイリストを作成することが可能となる。
また、 本発明は、 受信したデータから楽曲を認識する楽曲認識方 法であり、
予め、 楽曲コンテンツの特徴を抽出して.、 コンテンツ特徴フアイ ルに蓄積するステップと、 複数の地域で放送のデータを受信するステツプと、 ' 各地域において、 受信したデータの特徴を抽出し、 放送特徴ファ ィルのデータとしてセンタシステムに送信するステツプと、 _ • 該センタシステムにおいて、 前記コンテンツ特徴ファイルと前記 放送特徴ファイルのデータを照合することにより楽曲を探索するス テツプと、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す るステップと、
前記探索結果ファイルから楽曲の時系列プレイリストを作成する ステップとを有する。
本発明によれば、 各地域で放送特徴ファイルを作成してセンタに 送信するので、 センタへの伝送量が軽減される。
上記の構成において、 前記コンテンッ情報 D B及び前記楽曲名と 関連する情報は C Mに関する情報を含み、
前記コンテンツ情報 D Bにおける該 C Mに関する情報は、 C M認 識方法により前記コンテンツ情報 D Bに予め登録され、 該 C M認識 方法は、
受信したデータから C Mデ一夕を検出するステツプと、
前記 C Mデータの特徴を抽出し、 放送特徴ファイルに蓄積するス テツプと、
前記放送特徴ファイルと予め C M jンテンッの特徴が格納されて いるマスタ C Mコンテンッ特徴ファイルとのデ一夕の照合を行うス テツプと、
放送特徴ファイルにおけるデ一夕がマスタ C Mコンテンツ特徵フ アイルにない場合には、 該データを新たな C Mとして前記コンテン ッ情報 D Bに含まれるマスタ C Mコンテンツ特徴ファイルに登録す るステップとを有するようにしてもよい。 '
本発明によれば、 C M情報を含んだ時系列プレイリストを作成す ることが可能となる。 上記の目的を達成するために本発明は次のように構成することも できる。
本発明は、 受信したデ一夕から CMを認識し、 認識された CMデ —夕を蓄積するための CM認識方法であり、
受信したデータから C Mデータを検出するステップと、 前記 CMデータの特徴を抽出し、 放送特徴ファイルに蓄積するス テツプと、
前記放送特徴ファイルと予め C Mコンテンツの特徴が格納されて いるマスタ CMコンテンツ特徴ファイルとのデータの照合を行うス テツプと、
放送特徵ファイルにおけるデータがマスタ CMコンテンツ特徴フ アイルにない場合には、 該データを新たな CMとしてマス夕 CMコ ンテンッ特徴ファイルに登録するステツプとを有する。
人手で行われていた CMモニタリング作業を自動化することが可 能となり、 時系列プレイリスト作成に適した CM,データを提供する ことが可能となる。
上記の構成において、 前記受信したデータから CMデ一タを検出 するステツプは、 CMデータの開始点及び終了点を検出するステツ プを有し、
前記 CMデータの特徴を抽出する際に、 検出された前記 CMデー 夕の前記開始点と前記終了点の中心から該開始点及び該終了点への 均等の長さ部分を取り出した一定長部分を特徴化するようにしても よい。
本発明によれば、 CMデータの入力誤差を吸収することが可能と なる。
上記の構成において、 前記データの照合の結果により、 マスタ C Mコンテンツ特徵ファイルになかった CMデータを表示するステツ プと、
該 CMデータに関連する情報をマスタ CMコンテンツ特徴フアイ ルを含む C M管理データベース群の各データベースに登録するステ ップとを更に有するようにしてもよい。
本発明によれば、 マスタ C Mコンテンツ特徴ファイルに自動的に 登録された C Mデータに関連する情報を登録することができる。 こ の情報を用いることにより、 C Mに関する情報を有する時系列プレ ィリストを作成することが可能となる。
本発明の他の目的、 特徴、 機能、 利点は、 後の詳細な説明を添付 の図面を参照して読むことにより、 より明確になる。 図面の簡単な説明 ,
図 1は、 本発明の原理を説明するための図である。
図 2は、 本発明の原理構成図である。
図 3は、 本発明の楽曲認識システムの概要を示す図である。
図 4は、 本発明の楽曲認識システムの動作の概要を示すシ一ケン スチャートである。
図 5は、 本発明の C M認識システムの概要を示す図である。
図 6は、 本発明の C M認識システムの動作の概要を示すフローチ ヤート (その 1 ) である。
図 7は、 本発明の C M認識システムの動作の概要を示すフローチ ヤート (その 2 ) である。
図 8は、 本発明の'第 1の具体例の楽曲認識システムの概要を示す 図である。
図 9は、 本発明の第 1の具体例の楽曲認識システムのフローチヤ 一トである。
図 1 0は、 本発明の第 1の実施例の適用例を示す図である。 - 図 1 1は、 時系列プレイリスト作成にあたり用いられる各フアイ ルとそれらの関係を示す図である。
図 1 2は、 時系列プレイリストにおける属性情報を説明するため の図である。 . 図 1 3は、 時系列プレイリストにおける属性情報を説明するため の図である。
図 1 4は、 本発明の第 2の具体例の C M認識システムの概要を示 す図である。
図 1 5は、 C Mデータ特徴化のための力ッティング方法を説明す るための図である。 - 図 1 6は、 本発明の第 3の具体例におけるシステム構成を示す図 である。
図 1 7は、 図 1 6に示すシステムの動作概要を示すフローチヤ一 トである。
図 1 8は、 本発明の第 3の具体例におけるシステムの動作を詳細 に示すフロ一チャートである。
図 1 9は、 楽曲データの蓄積方法を示す図である。
図 2 0は、 C Mデータの蓄積方法を示す図である。
図 2 1は、 楽曲 · C M未抽出ファイルからコンテンッ特徵フアイ ルを作成する処理を示す図である。 発明を実施するための最良の形態
[第 1の実施の形態] ' 図 1及び図 2に本実施の形態における原理を示す。
図 1に示すように、 本実施の形態においては、 予め、 コンテンツ の特徴を抽出して、 コンテンツ特徴ファイルに蓄積しておき (ステ ップ 1 ) 、 受信したデータの特徴を抽出し、 放送特徴ファイルに蓄 積し (ステップ 2 ) 、 コンテンツ特徴ファイルと放送特徴ファイル のデータを照合することにより楽曲を探索し (ステップ 3 ) 、 楽曲 が判明したら、 該楽曲に関する情報を探索結果ファイルとして蓄積 し (;^テツプ 4 ) 、 探索結果ファイルから楽曲の時系列プレイリス トを作成し、 蓄積する (ステップ 5 ) 。
また、 図 2に示すように本実施の形態の楽曲認識システムの原理 構成は、 予め、 コンテンツを作成すると共に、 楽曲コンテンツの特 徵を抽出し、 コンテンッ特徴ファイル 3 2 0に蓄積するコンテンツ 作成手段 3 0 0と、 受信したデータの特徴を抽出し、 放送特徴ファ ィル 1 4 0に蓄積する特徴抽出手段.1 0 5.と、 コンテンツ特徴ファ ィル 3 2 0 と放送特徴ファイル 1 4 0のデータを照合することによ り楽曲を探索し、 探索結果を探索結果ファイル 1 5 0に格納する楽 曲探索手段 1 2 0と、 探索結果ファイル 1 5 0から時系列的な楽曲 の時系列プレイリストを作成し、 蓄積するリスト作成手段 2 0 0と を有する。
図 3は、 本発明の楽曲認識システムの概要を示す。 同図に示すシ ステムは、 オンエアキヤプチヤ/探索装置 1 0 0、 楽曲確認/登録 装置 2 0 0、 コンテンツ作成装置 3 0 0から構成される。 これらの 装置は P C等で構成される。 なお、 これらの各装置の機能を有する 1台の P Cでも本システムは実行可能であるが、 P Cの処理負荷、 パフォーマンスコスト、 現行ハードウェアのスペック等を勘案し、 3つの装置に分けている。
オンエアキヤプチャ/ 探索装置 1 0 0は、 オンエアキヤプチャ部 1 1 0、 探索部 1 2 0、 楽曲抽出ファイル 1 3 0、 放送特徴フアイ ル 1 4 0、 探索結果ファイル 1 5 0、 楽曲名未抽出ファイル 1 6 0 、 楽曲未検出ファイル 1 7 0、 時刻データ提供部 1 8 0から構成さ れる。
オンエアキヤプチャ部 1 1 0は、 T V、 ラジオ放送局から連続し て放送データをモニタリングし、 モニタリングした放送デ一夕が楽 曲か非楽曲かを判定し、 楽曲である場合には、 楽曲抽出ファイル 1 3 0に、 モニタリングした時間における放送が楽曲である旨を記録 すると共に、 当該楽曲を 7 . 5秒間隔のリアルタイムで当該放送デ —夕の特徴を抽出し、 放送特徴ファイル 1 4 0に蓄積する。 また、 当該楽曲を 7 · 5秒間隔で図示しないファイルに楽曲をデジタルデ —夕として蓄積しておく。 なお、 オンエアキヤプチャ部 1 1 0は、 時刻データ提供部 1 8 0からの時刻情報に基づき、 上記の処理を行 う。 また、 キヤプチヤした情報にタイムスタンプを付与して記録す る。
ここで、 7 . 5秒間隔とする理由は、 一般の C Mにて流れる楽曲 を知りたい場合の C Mの放送時間が現行最小 1 5秒であるため、 そ の半分の時間を探索間隔とすることにより楽曲デ一夕の探索を確実 に行うことができるからである。
なお、 オンエアキヤプチャ部 1 1 0において、 楽曲か非楽曲かを 判定することは、 予め楽曲か非楽曲であるか (楽曲でない、 つまり トーク等) の判定が可能な既存技術 (例えば、 「楽覧」 (楽曲 Z非 楽曲検出技術) :特願平 8— 3 4 0 2 9 3、 特願平 1 0— 6 8 1 5
8等) により実現で'きる。 オンエアキヤプチャ部 1 1 0は、 当該技 術を用いて楽曲と判定された旨を楽曲抽出ファイル 1 3 0に登録す る。 '
探索部 1 2 0は、 コンテンツ作成装置 3 0 0で作成されたコンテ ンッの特徴が蓄積されているファイルをメモリ上に読み込み、 さら に、 放送特徴ファイル 1 4 0も読み込んで、 2つのファイルのマツ チングを行い、 マッチング結果を探索結果ファイル 1 5 0に格納す る。 マッチングに成功しなかったデ一夕は楽曲名未抽出ファイル 1 6 0に格納する。
上記のマッチングによる探索は、 特許第 3 0 6 5 3 1 4号、 「高 速信号探索方法、 装置およびその記録媒体」 等に記載された学習ァ クティブ探索方法を用いることができる。 この方法では、 コンテン ッ特徴ファイルのデータと放送特徴ファイルのデータとの類似値を 計算し、 計算した類似値と閾値との比較によって探索を行う。 なお 、 詳細については上記特許第 3 0 6 5 3 1 4号を参照することによ り知ることができる。
楽曲抽出ファイル 1 3 0は、 楽曲を示す旨の情報にタイムスタン プが付与されたデータからなり、 オンエアキヤプチャ部 1 1 0で作 成される放送特徴ファイルは、 T A Zファイル (バイナリファイル ) である。 なお、 T A Zファイルは、 学習アクティブ探索において 高速に比較処理が可能なファイルである。
なお、 放送内容については図示しない W A Vファイル等に保持し ておく。
'放送特徴ファイル 1 4 0は、 オンエアキヤプチャ部 1 1 0でオン エアされている放送データを自動キヤプチヤし、 特徴が抽出された 当該放送データの特徴データを蓄積する。
楽曲未検出フアイル 1 7 0には、 楽曲であるにもかかわらずマッ チングに成功しなかったデータを、 楽曲抽出ファイル 1 3 0、 楽曲 名未抽出ファイル 1 6 0、 放送特徴ファイル 1 4 0とから抽出し格 納する。
探索結果ファイル 1 5 0には、 探索部 1 2 0において、 コンテン ッ作成装置 3 0 0で作成されたコンテンツ特徴ファイル (後述する ) と放送特徵ファイル 1 4 0のマッチングの結果が蓄積される。 す なわち、 マッチングの結果、 一致したデータに対応する情報 (楽曲 名等) を探索結果ファイルに蓄積し、 コンテンツ特徴ファイルに存 在しなかった放送特徴ファイル 1 4 0のデータを楽曲名未抽出ファ ィル (後述する) に蓄積する。
楽曲確認 Z登録装置 2 0 0は、 楽曲確認部 2 1 0、 登録部 2 2 0 、 から構成され、 時系列プレイリスト 2 3 0を出力する。
楽曲確認部 2 1 0は、 探索結果ファイル 1 5 0及びコンテンツ情 報 D B 3 3 0を用いて、 認識された楽曲に対応する時刻、 楽曲名、 アーティスト、 番組 (C M ) 名、 クライアント、 商品、 夕レント、 C D情報等を抽出して、 登録部 2 2 0に渡す。
登録部 2 2 0は、 楽曲確認部 2 1 0で抽出された内容を時刻順に 、 時系列プレイリストファイル 2 3 0に登録する。
また、 楽曲確認 登録装置 2 0 0にて、 楽曲未検出ファイルに格 納された放送内容をオペレータが確認することにより、 楽曲を認識 し、 時系列プレイリストに当該データを追加する。 なお、 オペレー 夕は、 楽曲未検出ファイルにおける時刻情報を基にして、 W A Vフ アイル等の形式でオンエアキヤプチャ部 1 1 0によりキヤプチャさ れた楽曲を聞くことにより、 放送内容を確認することができる。
コンテンッ作成装置 3 0 0は、 コンテンツ作成部 3 1 0、 コンテ ンッ特徴ファイル 3 2 0、 及びコンテンツ情報 D B 3 3 0から構成 される。 - コンテンツ作成部 3 1 0は、 楽曲が記録されている媒体からコン テンッを取得して、 当該楽曲及び、 コンテンツ特徴ファイル 3 2 0 に流用可能な属性データをコンテンツ情報データベース 3 3 0に蓄 積し、 さらに、 楽曲の特徴を抽出して、 楽曲'名と共にコンテンツ特 徵ファイル 3 2 0に蓄積する。
コンテンッ特徴ファイル 3 2 0は、 コンテンッ作成部 3 1 0で作 成されるファイルで、 楽曲名及び当該楽曲の特徴情報が格納される コンテンッ情報 D B 3 3 0には、 コンテンッ作成部 3 1 0により 楽曲の全属性データが格納される。
次に、 上記の楽曲認識システムの動作を説明する。
図 4に、 本発明の楽曲認識システムの動作の概要を示す。
ステップ 1 0 1 ) コンテンッ作成装置 3 0 0において、 楽曲コ ンテンッの記録媒体等から楽曲、 及び当該楽曲の属性データをコン テンッ情報 D B 3 3 0に登録する。 属性データは、 例えば、 楽曲名
、 ァ一テイスト名、 番組名、 クライアント名、 商品名、 タレント名 等の情報である。
ステップ 1 0 2 ) コンテンツ作成装置 3 0 0において、 楽曲の 特徴を抽出し、 コンテンツ特徴ファイル 3 .2 0に蓄積する。
ここまでの処理は、 以下の処理の前提処理である。
ステップ 1 0 3 ) オンエアキヤプチヤ/探索装置 1 0 0におい て、 オンエアされている映像や音声をキヤプチヤする。 .なお、 「ォ ンエアされている映像や音声」 には、 インタ一ネッ トを介して放送 される映像や音声を含む。
ステップ 1 0 4 ) オンエアキヤプチヤ 探索装置 1 0 0は、 キ ャプチヤした内容について、 楽曲 Z非楽曲を検出する任意の技術に より、 放送データが楽曲または、 非楽曲であるか否かを検出する。 ステップ 1 0 5 ) ステップ 1 0 3において、 楽曲である場合に は、 楽曲抽出ファイル 1 3 0にその時間の放送が楽曲である旨を記 録する。 楽曲である旨を記録するとは、 例えば、 当該時間に楽曲を 示すフラグを立てることである。
ステップ 1 0 6 ) また、 上記のステップ 1 0 4 、 1 0 5と同時 に、 7 . 5秒間隔でリアルタイムで楽曲の特徴を抽出して放送特徴 ファイル 1 4 0に蓄積する。 また、 楽曲の放送デ一夕も図示しない ファイルに蓄積する。
ステップ 1 0 7 ) 次に、 オンエアキヤプチャ Z探索装置 1 0 0 において、 楽曲の探索を行うために、 探索のアプリケーションを起 動させると共に、 前述のステップ 1 0 2でコンテンツ作成装置 3 0 0で作成されたコンテンツ特徴ファイル 3 2 0の内容をメモリ上に 読み込む。
ステップ 1 0 8 ) オンエアキヤプチャ /探索装置 1 0 0の探索 部 1 2 0では、 放送特徴ファイル 1 4 0も読み込み、 2つのフアイ ルのマッチングを行う。 このとき、 前述の学習アクティブ探索技術 を用いるものとする。
ステップ 1 0 9 ) 上記のマッチングの結果を探索結果ファイル 1 5 0に蓄積する。 マッチングができなかった特徵データについて は楽曲名未抽出ファイル 1 6 0に格納する。
ステップ 1 1 0 ) 次に、 楽曲確認/登録装置 2 0 0では、 コン テンッ作成装置 3 0 0からコンテンッ情報 D B 3 3 0の各内容を読 み込む。
ステップ 1 1 1 ) さらに、 楽曲確認/登録装置 2 0 0は、 オン '探索装置 1 0 0から探索結果ファイル 1.5 0を読 み込む。
ステップ 1 1 2) これにより、 楽曲確認ノ登録装置 2 0 0は、 探索結果ファイル 1 5 0におけるデータとコンテンツ情報 D B 3 3 0におけるデータとから、 楽曲名、 ァ一テイスト名、 キヤプチヤし た番組、 クライアント、 商品、 タレント等の情報を抽出して、 時系 列にこれらのデータを並べ替える処理を行って、 時系列プレイリス トを作成し、 時系列プレイリスト DB 2 3 0として蓄積する。
ステップ 1 1 3) また、 楽曲未検出プレイリストに記録された 特徴デ一ダに対応する楽曲名を、 オペレー夕が当該楽曲を視聴する ことにより確認し、 時系列プレイリストを補完する。
[第 2の実施の形態]
次に、 本発明の第 2の実施の形態として、 TV及び FM/AMで オンエアされた映像または、 音声情報のうち、 CM (コマーシャル ) を認識 · 蓄積する CM認識システムについて説明する。 なお、 当 該 CM認識システムにより作成された CMデータを参照することに より、 第 1の実施の形態において認識された楽曲から CMデータを 含むプレイリストを作成することが可能となる。
図 5は、 本発明の CM認識システムの概要を示す図である。
同図に示す CM認識システムは、 オンエアキヤプチヤ/探索装置 4 0 0、 CM確認/更新部 5 0 0'、 及び CM管理デ一夕ベース群 6 0 0から構成される。
オンエアキヤプチヤ/探索装置 40 0は、 キヤプチャ部 4 1 0、 探索部 4 2 0、 F M/AM · CMファイル 43 0、 放送特徴フアイ ル 44 0、 CMデータファイル 4 5 0及び、 TV ' CMファイル 4 6 0、 時刻データ提供部 47 0から構成される。
キヤプチャ部 4 1 0は、 TV、 ラジオ放送局のオンエアから連続 して放送デ一夕をモニタリングし、 CMのスタート · エンドを判定 することによりモニタリングした放送データが CMか否かを判定し 、 CMである場合には、 モニタリングした CMデータを TV · CM ファイル 4 6 0に格納し、 もしくは FMZAM · CMファイル 43 0に格納する。 また、 キヤプチャ部 4 1 0は、 時刻データ提供部 4 7 0から提供される時刻情報を用いて CMデータにタイムスタンプ を付与する。
さらに、 キヤプチャ部 4 1 0は、 キヤプチヤしたデータから CM の特徴データを作成し、 放送特徵スアイル 440に格納する。 後述 するように、 特徴ファイル 44 0を作成する際に、 CMのスタート • エンドにより切り出されたデータのカッ ト点の誤差を吸収するた めに、 CMデータ中心から両端にかけて均等にカッティングした一 定長 ( 8. 0秒間) のデータとして再加工する。 そして、 再加工さ れたオンエアデータを、 学習アクティブ探索技術に開示された技術 を用いて特徴データ化し、 TAZ形式にして格納する。 なお、 TA Zファイルは、 探索部 42 0における学習ァクティグ探索において 高速な比較処理を可能とするファイルである。
探索部 4 2 0は、 放送特徴ファイル 440とマスタ CM管理デー 夕ベース群 6 0 0にある C¥の特徴が蓄積されているファイルをメ モリ上に読み込んで、 2つのファイルのマッチングを行い、 マッチ ング結果を CMデータファイル 4 5 0に格納する。 なお、 探索部 4 2 0では、 学習ァクティブ探索 (特許第 3 0 6 5 3 1 4号等) を用 いるものとする。 この場合、 マッチング結果として、 CMが探索で きなかったものについて、 その CMデータをオンエア時間を名称と して CMデ一夕ファイル 4 5 0に蓄積する。
FM/AM - CMファイル 4 3 0には、 キヤプチャ部 4 1 0でキ ャプチヤされた FMZ AMでオンエアされた CMデ一夕が WAV形 式 (音のみの形式) のファイルとして格納される。
放送特徴ファイル 440は、 キヤプチャ部 4 1 0でキヤプチャさ れた C Mデ一夕から抽出された C Mの特徴データが格納される。 ま た、 当該放送特徴ファイル 440は、 TAZファイル (バイナリフ アイル) である。
- T V · CMファイル 46 0は、 キヤプチャ部 4 1 0でキヤプチャ された TVでオンエアされた' CMデータが AV I形式のファイルと して格納される。
CM確認 Z更新部 5 0 0は、 CM名等が判明しない CMデータが 格納されている CMデータファイル 4 5 0を読み込む。 当該 CMデ —夕ファイル 4 5 0の CMは、 新規の CMである可能性が高いため 、 例えば、 Windows Media Player 7等のソフトウェアを用いて新 規登録された CMの確認をオペレータが行い、 広告主 (クライアン ト) 、 商品名、 楽曲名、 タレント名等を抽出し、 CM管理データべ —ス群 6 0 0のファイルに格納する。
CM管理データベース群 6 0 0は、 CMマスタ 6 1 0、 商品マス タ 6 2 0、 タレントマスタ 6 3 0、 楽曲名マスタ 640、 広告主マ スタ 6 5 0、 マスタ CMコンテンッ特徴フアイル 6 6 0からなる。 商品マスタ 6 2 0、 タレントマスタ 6 3 0、 楽曲名マスタ 6 4 0、 広告主マスタ 6 5 0、 マスタ CMコンテンッ特徴フアイル 6 6 0に おけるデータは、 CM確認ノ更新部 5 0 0で抽出される。 また、 こ れらのマスタは CMマスタ 6 1 0に格納された CMデ一夕の属性毎 に作成されているマスタファイルである。
次に、 上記の構成における動作を説明する。
図 6、 図 7は、 本発明の CM認識システムの動作の概要を示すフ ローチャートである 0
ステップ 3 0 1 ) オンエアキヤプチャ Z探索装置 40 0のキヤ プチャ部 4 1 0において、 オンエアされている放送デ一夕をキヤプ チヤする。
ステップ 3 0 2 ) キヤプチャ部 4 1 0は、 キヤプチヤした放送 データから CMデータを検出し、 CMデータから前述した方法で放 送特徼を抽出する。
ステップ 3 0 3 ) 抽出された放送特徵を放送特徴ファイル 44 0に格納し、 ステップ 3 0 7に進む。
ステップ 3 04、 3 0 5 ) 上記の処理を行うとともに、 TV . CMを TV · CMファイル 4 6 0に格納する。
ステップ 3 0 6 ) また、 抽出された CMが FM/AMでのオン エアされていた CMの場合には、 当該 CMを FMZAM · CMファ ィル 4 3 0に格納する。
ステップ 3 0 7 ) ステップ 3 0 3の後、 探索部 420は.、 放送 特徴ファイル 440と CM管理データベース群 6 0 0のマス夕 CM コンテンツ特徴ファイル 6 6 0をメモリ上に読み込んで、 2つのフ アイルを比較する学習ァクティブ探索を行う。
ステップ 3 0 8 ) 探索により、 CMが判明した場合にはステツ プ 3 0 7に移行し、 次の放送特徴ファイル 440のデータとマスタ CMコンテンツ特徴ファイル 6 6 0の探索を行う。 CMが判明しな い場合にはステップ 3 0 9に移行する。
ステップ 3 0 9 ) CMが判明しない場合には、 オンエア時間を 名称として CMデータファイル 4 5 0に登録する。
ステップ 3 1 0) CM確認ノ更新部 5 0 0において、 既存のソ フトウェア等により、 オペレータが CMデータフアイル 45 0に登 録された C Mの確認を柠う。
ステップ 3 1 1 ) ォペレ一夕により、 CMマスタ 6 1 0のメン テナンスを行い、 さらに、 当該 CMマスタ 6 1 0から、 各種属性毎 のマスタのメンテナンスを行う。
このようにしてデータベースに新規の CMを登録することができ る。 .
[第 3の実施の形態]
第 1の実施の形態のように、 認識した楽曲から時系列プレイリス トを作成することと同様にして、 第 2の実施の形態において認識し た CMから時系列プレイリストを作成することも可能である。. ' また、 第 2の実施の形態の CMの例と同様にして、 楽曲に関する コンテンッ特徵ファイル、 コンテンッ情報 D Bを更新することも可 能である。
更に、 第 1の実施の形態のようにして時系列プレイリストを作成 しながら、 第 2の実施の形態のようにして C Mまたは楽曲に関する コンテンツ特徴ファイル、 コンテンツ情報 D Bを更新していくこと が可能である。 この具体例については後述する。
以下、 図面と共に上記の各実施の形態に対応する具体例を説明す る。
[第 1の実施例に対応する具体例 (第 1の具体例), ]
図 8は、 本発明の第 1の具体例の楽曲認識システムの構成を示す 図である。
同図に示す各装置において、 図 3の構成と同一部分には、 同一符 号を付与し、 その説明を省略する。
図 9は、 本発明の第 1の具体例の楽曲認識システムの動作のフロ —チャートである。
以下、 図 8、 図 9に基づいて本発明の楽曲認識システムについて 説明する。
本楽曲認識システムでは、 図 8に示すように、 リアルタイムに放 送内容をキヤプチヤする P C 1 1 0 と放送特徴ファイル 1 4 0を探 索する P C 1 2 0を接続したオンエアキヤプチヤ/探索装置 1 0 0 と、 楽曲コンテンツのコンテンツ特徵を保持するコンテンツ特徵フ アイル 3 2 0及びコンテンッ情報 D B 3 3 0を管理する P C 3 1 0 を有するコンテンツ作成装置 3 0 0と、 時系列プレイリストを D B に登録する楽曲確認 Z登録装置 2 0 0が接続された構成をとる。 図 9に示す処理系 Aにおいて、 P C 1 1 0が、 オンエア内容をキ ャプチヤし (ステップ 2 0 1 ) 、 キヤプチャデータから 7 . 5秒間 隔で、 放送特徴ファイル 1 4 0を出力しており (ステップ 2 0 2 ) 、 次に、 P C 1 2 0がコンテンツ作成装置 3 0 0から取得して、 予 めメモリ上に展開された楽曲コンテンツ特徵ファイル 3 2 0の内容 と放送特徴ファイル 1 4 0とを用いて、 学習アクティブ探索により 楽曲を探索し (ステップ 2 0 3 ) 、 探索結果を採索結果ファイル 1 5 0に出力する (ステップ 2 0 5 ) 。 また、 このとき、 探索によつ て楽曲名が判明しない場合には、 特徴データを楽曲名未抽出フアイ ルに格納する (ステップ 2 0 7 ) 。
上記の処理が済むと、 楽曲確認/登録装置 2 0 0において、 探索 結果ファイル 1 5 0の探索結果とコンテンツ情報 D Bから時系列プ レイリストを作成して、 D B 2 3 0に蓄積する。
図 9に示す処理系 Bにおいて、 オンエアキヤプチヤ/探索装置 1 0 0の P C 1 1 0では、 放送データが楽曲か否かを判定し (ステツ プ 3 0 1 ) 、 楽曲である場合には楽曲である旨とタイムスタンプを 楽曲抽出ファイル 1 3 0に出力する (ステップ 3 0 2 ) 。 また、 楽 曲自体も図示しない WA Vファイル等にタイムスタンプを付して蓄 積しておく。
そして、 楽曲名未抽出ファイル 1 6 0 (処理系 A ) と、 楽曲抽出 ファイル 1 3 0 (処理系 B ) をマージすることで、 時間別の楽曲名 未検出ファイル 1 7 0を出力することが可能となり (ステツプ 2 0 8、 2 0 9 ) 、 オペレータを介して、 探索結果ファイル 1 5 0にフ ィ一ドバックすることが可能となる。 これにより、 時系列プレイリ ストを補完することが可能となる。
なお、 オペレータの作業としては、 探索を行う P C 1 2 0におい て、 楽曲未検出ファイルの内容を確認しながら、 探索結果ファイル 1 5 0に必要なデータ項目を補完する。
なお、 上記におけるコンテンツ特徴ファイル 3 2 0、 放送特徴フ アイル 1 5 0は T A Zファイル (学習ァクティブ探索のためのバイ ナリファイル) を用いるものとする。
プレイリストの作成においては、 探索結果ファイルと、 C Mマス 夕等を含むコンテンツ情報 D Bとを結合させる。 具体'例については 下記の適用例において説明する。 なお、 図 8の例においては、 P C 1 1 0が全国各地の放送内容を 当該地域からデータ受信することによりキヤプチヤし、 放送特徴フ アイルの作成等を行うことができる。 また、 P C 1 1 0を全国各地 に配置し、 各 P C 1 1 0において、 そこでの放送内容をキヤプチャ して放送特徴ファイルを作成し、 その放送特徴ファイルをセンタに 配置した' P C 1 2 0に送信するような構成としてもよい。
次に、 本発明の適用例を説明する。
図 1 0は、 本発明の上記具体例の適用例を示す図である。
同図において'、 コンテンツ管理セン夕は、 図 8に示すコンテンツ 作成 g置 3 0 0に対応する。 また、 デ一夕センタは、 図 8のオンェ アキャブチヤ/探索装置 1 0 0に対応するものとする。
まず、 コンテンツ管理センタでは、 レコード会社から試聴用の C D等を入手し、 C D販売ショップ等から D V Dゃ新譜 C Dを購入し 、 これらの記録媒体からコンテンツをコンテンツの属性と共に、 コ ンテンッ情報 D B 3 3 0に格納すると共に、 コンテンツの特徴を抽 出してコンテンツ特徴ファイル 3 2 0 (図 1 0の例では、 楽曲デ一 夕ベース) に格納しておく。
次に、 例えば全国各地に配置されたアンテナを介して取得された T V ( V H S ) や F M等の放送内容、 または、 衛星放送等をパラポ ラアンテナを介して取得された放送内容をデータセンタがチューナ —を介して取得する。 データセンタでは、 取得した放送データを 7 . 5秒間隔でディジタル化すると共に、 データの特徴を抽出し、 放 送特徴ファイル 1 4 0に格納すると共に、 楽曲かトーク等の非楽曲 かを判別してその結果を楽曲抽出ファイル 1 3 0に格納する。
データセン夕の探索用の P Cにおいて、 コンテンツ管理センタか ら予め取得していたコンテンツ特徴ファイルと、 放送特徴ファイル から検索エンジン (学習アクティブ探索技術) を用いて楽曲を探索 し、 探索結果ファイル 1 5 0に格納する。
これにより、 データセンタ内の楽曲確認 Z登録装置 2 0 0として 利用される P Cにおいて、 探索結果ファイル、 コンテンツ情報 D B 3 3 0を用いて、 時系列プレイリストを作成する。 図 1 0の例では 、 時刻 (探索結果ファイルに付与されているタイムスタンプ) 順に 、 楽曲名、 アーティスト、 番組 (C M ) 、 クライアント、 商品、 夕 レント、 C D情報等を時系列プレイリストとして、 W e bサイ ト等 で利用されるデータベースに登録する。 また、 探索ができなかった 楽曲については、 オペレータにより楽曲の追加がなされる。
図 1 1に、 時系列プレイリスト作成にあたり用いられる各フアイ ルとそれらの関係を示す。 - 同図に示すように、 放送特徴ファイルとコンテンツ特徴ファイル とから探索結果ファイルと楽曲名未抽出ファイルが生成される。 そ して、 探索結果ファイルとコンテンツ情 D Bとから時系列プレイ リストが作成される。 ,
一方、 楽曲抽出ファイルと楽曲名未抽出ファイル等から楽曲未検 出ファイルが作成され、 当該ファイルに.記録された楽曲に対応する 楽曲名などをオペレータが確認することにより、 時系列プレイリス トを補完できる。 また、 楽曲名等を確認した楽曲については、 必要 に応じて特徴化することによりコンテンッ特徵ファイルに追加する ことができる。 これにより、 T A Z 4に相当する楽曲をキヤプチャ したときには'この楽曲を認識することが可能となる。
次に、 コンテンッ情報 D Bを用いて図 1 0に示した時系列プレイ リストを作成する方法を図 1 2 、 1 3を用いて説明する。
図 1 2は、 プレイリストにおいて時刻 9時における各項目を決定 する場合を示す図である。 同図に示すように、 コンテンツ情報 D B には、 T A Zデ一夕から紐付けされている各種データベース (マス 夕データベース) がある。 したがって、 T A Zデータから楽曲名が 判明すれば、 音源マス夕から各種マスタをたどっていくことにより 、 時刻 9時における各情報を取得できる。 また、 放送局名と時刻か ら番組名もわかる。 このようにして種々の関連情報を含む時系列プ レイリストを作成することが可能となる。
図 1 3は、 時刻 1 1時 46分における場合であり、 上記と同様に 、 T A Zデ一夕から各種マスタを用いて当該時刻に対応する各種情 報を取得できる。
次に、 本発明の楽曲認識システムのシミュレーション結果につい て説明する。 シミュレーションは、 放送サンプルとして 7曲の楽曲 が含まれる実際の FM放送の録音 (約 3 5分間) を使用し、 データ ベースサンプルとして、 C D楽曲 1 9 3曲を使用し、 このうち、 6 曲が上記の放送サンプルに含まれる。
シミュレーションの条件としては、 放送サンプルは、 7. 5秒毎 に 1 9 3曲全てと照合 ( 1 9 3曲 =約 2 0時間) するものとし、 P Cサーバ機のスぺックとして、 1 C PU (Pentium Xeon 933MHZ), 2 GBメモリ、 Linux gcc 291 を用いる。
上記の条件により、 本発明の方法のシミュレーションを実施した 結果、 検出すべき 6曲を全て正しく検出し、 時間誤差は、 概ね 7. 5秒以内であり、 速度は、 3 5分 ( 2 1 0 0秒) を約 45秒で完了 した。 これは、 実時間の約 5 0倍速 (= 2 1 0 0 /4 5) であり、 実時間なら 9 0 0 0曲程度の処理が見込めるといえる。
また、 上記の実施例では、 図 8、 図 9に基づいて説明したが、 図 9に'示す動作をプログラムとして構築し、 データセンタ及びコンテ ンッ管理センタで利用されるコンピュータに接続されるディスク装 置や、 フロッピーディスク、 CD— ROM等の可搬記憶媒体に格納 しておき、 本発明を実施する際に、 データセンタやコンピュータ管 理セン夕で利用される P Cにインストールすることにより、 容易に 本発明を実現できる。
[第 2の実施の形態に対応する具体例 (第 2の具体例) ] ここでは、 放送されている放送データから CMをリアルタイムに 検出し、 当該 CMを認識及び蓄積する例を説明する。 前述したよう に、 このようして蓄積された CMデータを上記のマスタファイルと して用いることにより CMに関連した情報を含む時系列プレイリス ト作成を行うことができる。
図 1 4は、 本発明の第 2の実施例の CM認識システムの構成を示 す図である。
同図に示す構成要素において、 図 5と同一構成部分には同一符号 を付し、 その説明を省略する。
本実施例の CM認識システムでは、 放送内容をキヤプチヤするキ ャプチヤ P C部 4 1 0と、 放送特徵ファイル 440とマス夕 CMコ ンテンッ特徵ファイル 6 6 0を比較する学習ァクティブ探索 P C 4 2 0からなるオンエアキヤプチャ/探索部 4 0 0と、 学習ァクティ ブ探索 P C 4 2 0により出力された CMデータ 4 5 0を参照して、 CMの確認及び更新処理を行う CM確認ノ更新部 5 0 0と、 CMの 各種マスタファイルを管理する CM管理デ一夕ベース 6 0 0から構 成される。
ここで、 図 1 4におけるファイル形式について説明する。
放送特徴ファイル 440は、 リアルタイムに抽出された TV · C M及び、 FM/AM · CMの双方の特徴が格納される T A Z形式の ファイルである。
TV * CMファイル 46 0は、 TV * C Μが格納される A V I形 式のファイルであり、 放送特徴ファイル 44 0の内容と対で管理さ れる。
F M/.AM · CMファイル 43 0は、 FM/AM · CMが格納さ れる WAV形式のブアイルであり、 放送特徴ファイル 440の内容 と対で管理される。
CMデータファイル 4 5 0は、 新規登録されるべき CMが格納さ れるファイルであり、 T V · CMである場合には、 当該データは例 えば A V I形式で格納され、 FMZAM · CMである場合には、 当 該データは、 WAV形式で格納される。
CM管理データベース群 6 0 0のマスタ CMコンテンツ特徴ファ ィル 6 6 0は、 T A Z形式で格納される。
以下に、 上記の構成における動作を前述の図 6、 7を参照して説 明する。
キヤプチャ P C 4 1 0がオンエア内容をキヤプチヤする (ステツ プ 3 0 1 ) 。 次に、 キヤプチャ P C 4 1 0は、 CM検出モジュール により、 CMのスタート ·エンドを取得する。 当該 CM検出モジュ —ルとしては、 特願平 6 - 3 1 2 9 7 6 「映像カツト点検出方法及 び装置」 (谷村 ·外村) 等がある。
次に、 CM検出モジュールで切り出されたデータの力ット点の誤 差を吸収するために、 図 1 5に示すように、 切り出されたデータを CMデータ中心から両端にかけて均等にカツティングした一定長 ( 8. 0秒間) のデータとして再加工し、 これを放送特徴として抽出 し (ステップ 3 0 2 ) 、 放送特徴ファイル 440に格納する (ステ ップ 3 0 3 ) 。
また、 キヤプチャ P C 4 1 0は、 CM検出モジュールによりオン エアデータが T Vの場合には A V I形式、 F M/ AMの場合は W A V形式としてオンエアデータを格納する (ステップ 3 04、 3 0 5 、 3 0 6 ) 。
次に、 学習アクティブ探索 P C 4 2 0は、 放送特徴ファイル 44 0と CM管理データベース群 6 0 0のマスタ CMコンテンツ特徴フ アイル 6 6 0をメモリ上に読み込んで学習ァクティブ探索を行う ( ステップ 3 0 7 ) 。 ここで、 CMコンテンツ特徴ファイル 6 6 0に 登録されていない場合には、 CMは CMデータファイル 45 0に登 録される (ステップ 3 0 9 ) 。 また、 マスタ CMコンテンツ特徴フ アイル 6 6 0に登録されていない場合、 当該 CMはマスタ CMコン テンッ特徵ファイル 6 6 0に無条件にェントリする。
次に、 CMデータファイル 45 0に登録された. CMの確認を CM 確認ノ更新部 5 0 0において行う (ステップ 3 1 0) 。 CMの確認 処理は、 既存のソフトウェアを用いて行う。 また、 ォペレ一夕によ り最終的な様々な付加情報を追加することで当該 CMを CMマスタ 6 1 0に登録する。 さらに、 当該 CMマスタ 6 1 0に登録された C Mの属性により、 商品マス.夕 6 2 0、 タレントマス夕 6 3 0、 楽曲 名マスタ 64 0、 広告主マスタ 6 5 0、 マスタ CMコンテンツ特徴 ファイル 6 6 0を対応するデ一夕で更新する (ステップ 3 1 1 ) 。
また、 上記の実施例では、 図 6、 図 7に示すフローチャートに基 づいて説明したが、 図 6に示す動作をプログラムとして構築し、 ォ ンェアキャブチヤ/探索装置で利用されるコンピュータに接続され るディスク装置や、 フロッピ一ディスク、 CD— ROM等の可搬記 ' 憶媒体に格納しておき、 本発明を実施する際に、 当該オンエアキヤ プチヤ Z探索装置で利用される P C (キヤプチヤ P C, 学習ァクテ イブ探索 P C) にインストールすることにより、 容易に本発明を実 現できる。
上記の実施例では、 TV, FM/AM等の放送局からオンエアさ れている放送データをキヤプチヤして、 認識 ·蓄積する処理を示し たが、 この例に限定されることなく、 インタ一ネット等の通信ネッ トワークを介して伝送されたデータについても上記と同様の処理を 適用することが可能である。
なお、 上記の実施例において、 楽曲では 7. 5秒間隔、 CMでは 、 8秒間隔で特徴化する例を示しているがこれは一例であ 、 これ に限定されるものではない。
[第 3の実施の形態に対応する具体例(第 3の具体例)]
次に、 楽曲、 CMをキヤプチヤすることにより第 1の実施例のよ うにプレイリストを作成するとともに、 第 2の実施例のようにコン テンッ作成部におけるデータを登録する例について説明する。
図 1 6に第 3の具体例におけるシステム構成を示す。
同図に示すように、 第 3の具体例における楽曲 CM認識システム は、 放送内容をキヤプチヤし、 楽曲及び CMの探索を行うオンエア キヤプチャ部/探索装置 7 0 0、 コンテンッ情報 D Bを作成するコ ンテンッ作成装置 8 0 0、 探索結果ファイルとコンテンツ情報 D B とから時系列プレイリストを作成するとともに、 新たに確認された 楽曲や CMの属性情報をコンテンツ作成装置 8 0 0に登録する楽曲 • CM確認ノ登録装置 9 0 0とを有する。
オンエアキヤプチャ Z探索装置 7 0 0は、 オンエアキヤプチャ部 7 1 0、 探索部 7 2 0、 楽曲 * CM抽出ファイル 7 3 0、 放送特徴 ファイル 740、 探索結果ファイル 7 5 0、 楽曲 , CM未抽出ファ ィル 7 6 0、 楽曲 · CM未検出ファイル 7 7 0、 コンテンッ特徵フ アイル作成部 7 8 0を有する。 また、 コンテンツ作成装置はコンテ ンッ作成部 8 1 0、 コンテンツ特徵ファイル 8 2 0、 コンテンツ情 報 D B '8 3 0を有する。
図 1 7は図 1 6に示すシステムの動作概要を示すフローチヤ一ト である。 図 1 7を参照して動作概要を説明する。
まず、 コンテンツ作成装置 80 0において、 楽曲、 CMの特徴を 抽出してコンテンツ特徴ファイルとして蓄積しておく (ステップ 4 0 1 ) 。 オンエアキヤプチヤノ探索装置 7 0 0において、 オンエア キヤプチャ部 7 1 0が楽曲、 CMを含む放送コンテンツをキヤプチ ャし AV I ファイル、 WAVファイル等と.して蓄積するとともに、 コンテンツの特徴を抽出して放送特徴ファイル 7 40に蓄積する ( ステップ 40 2 ) 。 次に、 コンテンッ特徴ファイル 8 2 0と放送特 徵ファイル 7 40とを用いて楽曲、 CMを探索する (ステップ 40 3) 。 そして、 楽曲又は CMが判明した場合には、 楽曲又は CMに 関する情報を探索結果ファイルに蓄積し (ステップ 4 04) 、 時系 列プレイリストを作成する (ステップ 40 5 ) 。 楽曲又は CMが判 明しな"場合には、 楽曲又は CMが判明しなかった特徴データ等を 楽曲 · CM未抽出ファイルに蓄積し (ステップ 4 0 6 ) 、 当該楽曲 、 CMに対応するコンテンツ特徴ファイルを作成してコンテンツ作 成装置 8 0 0におけるコンテンツ特徴ファイル 8 20に自動的に登 録する (ステップ 40 7 ) 。 次に、 図 1 8に示すオンエアキヤプチャ部/探索装置 7 0 0にお ける処理のフロ一チャートを用いて上記の処理をより詳細に説明す る。
図 1 8に示すように、 本実施例におけるオンエアキヤプチャ部ノ 探索装置 7 0 0における処理は、 楽曲、 .CMの探索を行う処理系 1 、 楽曲検出、 楽曲の判別、 蓄積を行う処理系 2、 CMの検出、 蓄積 を行う処理系 3に分けることができる。
処理系 2では、 第 1の実施例と同様にして、 放送内容が楽曲か否 かを判定し、 楽曲抽出ファイルを作成するとともに楽曲データを W A Vファイル等として蓄積する (ステップ 5 0 1〜 5 0 3 ) 。 図 1 9に楽曲データの蓄積方法を示す。 このように、 楽曲と判定された 部分を 7. 5秒ごとに蓄積する。
処理系 3では、 第 2の実施例と同様にして、 放送におけるカッ ト 点を検出することにより CM抽出ファイルを作成するとともに CM データを A V I ファイル等として蓄積しておく (ステップ 5 1 1〜 5 1 3 ) 。 図 2 0にその様子を示す。 このように、 力ット点の間の CM部分を蓄積する。
なお、 CM抽出ファイルとは、 楽曲における楽曲抽出ファイルと 同様のものであり、 CMである旨とその時間が記録される。
処理系 1においては、 楽曲に関しては第 1の実施例と同様にして 、 また、 CMに関しては第 2の実施例と同様にして、 特徴の抽出、 楽曲又は CMの探索が行われる (ステップ 5 2 1、 5 2 2 ) 。
楽曲又は CMの名前が判明した場合には、 探索結果ファイル 7 5 0を作成する (ステップ 5 2 3 ) 。 楽曲又は CMの名前が判明しな い場合には楽曲、 CM未抽出ファイルに当該データを格納し (ステ ップ 5 2 4) 、 当該データを用いて自動的にコンテンツ特徴フアイ ルを作成し (ステップ 5 2 5 ) 、 コンテンツ特徴ファイル 5 2 0に 仮登録する。
図 2 1に、 楽曲 · CM未抽出ファイルからコンテンツ特徴フアイ ルを作成する処理を示す。 このように、 楽曲 ' CM未抽出ファイル におけるデータに対応する楽曲、 CMのデータファイル (AV I又 は WAV) からコンテンツ特徴ファイルを作成する。
また、 第 1の実施例と同様に、 楽曲 · CM未抽出ファイルと楽曲 · CM抽出ファイル等とから楽曲 · CM未検出ファイルを作成し ( ステップ 5 2 6 ) 、 オペレータが楽曲、 CMを確認し、 確認された 楽曲、 CMにより時系列プレイリス トの補完を行う (ステップ 5 2 7 ) 。 更に、 確認の結果を用いてコンテンツ作成装置における各種 データベースの更新を行い (TAZファイルと曲名、 アーティスト 名などとの紐付けを行う) 、 これにより仮登録したコンテンツ特徵 ファイルを正式に登録する (ステップ 5 2 8 ) 。
このような処理を行うことにより、 時系列プレイリストの作成を 行いながら、 時系列プレイリストの作成の基となるコンテンツ特徴 ファイルのデータ追加、 及び楽曲や CMに関連する情報の登録を行 うことが可能となる。
上述のように、 リアルタイムで楽曲を認識する本発明によれば、 オンエアの放送デ一夕 (CMに利用される楽曲等) を 7. 5秒間隔 でディジタル化して特徴化し、 予め用意された楽曲のコンテンツ特 徴ファイルと照合し、 放送された時刻情報共に楽曲名を記憶装置上 に時系列リストとして蓄積することが可能となる。 これにより、 楽 曲名、 アーティスト名、 番組 (CM) 、 クライアント、 商品、 タレ ント、 C D情報等の時刻別プレイリストを取得でき、 意味のある情 報結果を取得することができる。 この情報を対象販売ターゲッ トに よりマーケティング情報などに活用することができる。
なお、 7. 5秒間隔でディジタル化し特徴化するのは、 一般的に CMの放送時間が現行最小 1 5秒であるため、 探索を確実に行うた めにその半分の時間をとつたものである。 従って、 コンテンツの種 類によりディジタル化間隔時間を 7. 5秒ではなく他の値に変更す ることも有効である。 また、 本発明によれば、 従来、 人手で行われていた C Mモニタリ ング作業をリアルタイムに自動認識することが可能となり、 夕グ情 報や透かし情報が無くてもリアルタイムに T V及び F M / A Mでォ ンエアされた C Mデータを登録することができる。 そして、 この C Mデータは時系列プレイリストの作成に用いることが可能となる。 また、 本発明によれば、 時系列プレイリストの作成の過程で、 楽 曲名等が判明しなかったデータを自動的にコンテンツ作成装置に登 録することができるので、 コンテンッ作成装置におけるデータべ一 スのデ一夕を充実させることができ、 より精度の高い時系列プレイ リストを作成することが可能となる。
なお、 本発明は、 上記の実施例に限定されることなく、 特許請求 の範囲内で種々変更 ·応用が可能である。

Claims

請求の範囲
1 . 受信したデータからコンテンッのプレイリストを作成するプ レイリスト作成方法において、
予め、 コンテンツの特徴を抽出して、 コンテンツ特徴ファイルに 蓄積し、 該コンテンツに関連する情報をコンテンツ情報 D Bに蓄積 するステップと、
前記受信したデー夕の特徴を抽出し、 データ特徴ファイルに蓄積 するステップと、
前記コンテンツ特徴ファイルのデータと前記データ特徴ファイル のデータとを照合することによりコンテンッを探索するステツプと 前記コンテンッ特徴ファイルのデータと前記データ特徴ファイル のデータが一致したら、 該デ一夕に対応するデータを探索結果ファ ィルとして蓄積するステップと、
前記探索結果ファイルと前記コンテンツ情報 D Bとから該コンテ ンッのプレイリス卜を作成するステップと、
を有することを特徴とするプレイリス卜作成方法。
2 . 前記探索するステップにおいて、 前記データ特徴ファイルに おけるあるデータが前記コンテンッ特徴ファイルに含まれていない 場合に、 該データを前記コンテンッ特徴ファイルに登録するステツ プを更に有する請求項 1に記載のプレイリスト作成方法。
3 . 前記コンテンッ特徴ファイルに含まれていなかったデ一夕に 対応するコンテンッを人間が視聴できるようにするステップと、' 該コンテンッに関連する情報を前記コンテンッ情報 D Bに登録す るステップと
を更に有する請求項 2に記載のプレイリスト作成方法。
4 . 前記探索するステップにおいて、 前記データ特徴ファイルに おけるあるデータが前記コンテンッ特徴ファイルに含まれていない 場合に、 該デ一夕に対応するコンテンツを人間が視聴できるように するステップと、
該コンテンツを該コンテンッに関連する情報とともに前記プレイ リストに追加するステツプと
を有する請求項 1に記載のプレイリスト作成方法。
5 . 受信したデータから楽曲を認識する楽曲認識方法において、 予め、 楽曲コンテンツの特徴を抽出して、 コンテンツ特徴フアイ ルに蓄積するステップと、 '
前記受信したデ一夕の特徴を抽出し、 放送特徴フアイルに蓄積す るステップと、
前記コンテンツ特徵ファイルと前記放送特徴ファイルのデータを 照合することにより楽曲を探索するステップと、 - 楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す るステップと、 - 前記探索結果ファイルから楽曲の時系列プレイリストを作成する ステップと
を有することを特徴とする楽曲認識方法。
6 - 前記受信したデータが楽曲か否かを判定するステップと、 楽曲である場合にはそのデ一夕が楽曲である旨とそのデータを受 信した時刻とを楽曲抽出ファイルに蓄積するステップと、
前記楽曲を探索するステップにおいて、 前記放送特徴ファイルの あるデータの楽曲名が判明しなかった場合にはそのデータを楽曲名 未抽出ファイルに蓄積するステツプと、
前記放送特徴ファイルと前記楽曲抽出ファイルと前記楽曲名未抽 出ファイルとから楽曲未検出ファイルを作成するステツプと を更に有する請求項 5に記載の楽曲認識方法。
7 . 前記楽曲未検出ファイルに記録された楽曲を人間が聞くこと ができるようにするステップと、
該楽曲未検出ファイルに記録された楽曲に関する楽曲名と時刻と を前記プレイリストに追加するステップと
を更に有する請求項 6に記載の楽曲認識方法。
8 . 前記探索結果ファイルと、 楽曲名と関連付けられた情報を有 するコンテンツ情報 D Bとを用いて前記時系列プレイリストを作成 し、
該時系列プレイリストは、 時刻、 該時刻に放送された楽曲名、 及 び該楽曲名と関連する情報を有する請求項 5に記載の楽曲認識方法
9 . 複数の地域で放送データを受信し、 各地域で受信したデータ をセンタシステムに送信し、 該センタ装置において前記楽曲認識方 法により前記時系列プレイリストを作成する請求項 5に記載の楽曲 認識方法。
1 0 . 受信したデ一夕から楽曲を認識する楽曲認識方法において 予め、 楽曲コンテンツの特徴を抽出して、 コンテンツ特徴フアイ ルに蓄積するステツプと、
複数の地域で放送のデータを受信するステツプと、
各地域において、 受信したデータの特徴を抽出し、 放送特徴ファ ィルのデータとしてセン夕システムに送信するステツプと、 該センタシステムにおいて、 前記コンテンツ特徴ファイルと前記 放送特徴ファイルのデータを照合することにより楽曲を探索するス テツプと、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す るステップと、
前記探索結果ファイルから楽曲の時系列プレイリストを作成する ステップと '
を有することを特徴とする楽曲認識方法。
1 1 . 前記コンテンツ情報 D B及び前記楽曲名と関連する情報は C Mに関する情報を含み、 前記コンテンッ情報 D Bにおける該 CMに関する情報は、 CM認 識方法により前記コンテンッ情報 D Bに予め登録され、 該 CM認識 方法は、
受信したデ一夕から CMデータを検出するステップと、 前記 CMデータの特徴を抽出し、 放送特徴ファイルに蓄積するス テツプと、
前記放送特徴ファイルと予め C Mコンテンツの特徴が格納されて いるマス夕 CMコンテンッ特徴ファイルとのデータの照合を行うス テツプと、 、
放送特徴ファイルにおけるデ一夕がマスタ CMコンテンツ特徴フ アイルにない場合には、 該データを新たな C Mとして前記コンテン ッ情報 D Bに含まれるマスタ CMコンテンッ特徴ファイルに登録す るステップと '
を有することを特徴とする請求項 8'に記載の楽曲認識方法。
1 2. 受信したデータから CMを認識し、 認識された CMデータ を蓄積するための CM認識方法において、
受信したデータから CMデータを検出するステップと、 前記 CMデータの特徴を抽出し、 放送特徴ファイルに蓄積するス テツプと、
前記放送特徴ファイルと予め CMコンテンッの特徴が格納されて いるマスタ CMコンテンツ特徴ファイルとのデータの照合を行うス テツプと、
放送特徴ファイルにおけるデータがマスタ CMコンテンツ特徴フ アイルにない場合には、 該データを新たな CMとしてマスタ CMコ ンテンッ特徴ファイルに登録す :るステツプと
を有することを特徴とする CM認識方法。
1 3. 前記受信したデータから CMデータを検出するステップは 、 CMデータの開始点及び終了点を検出するステツプを有し、 前記 CMデータの特徴を抽出する際に、 検出された前記 CMデ一 夕の前記開始点と前記終了点の中心から該開始点及び該終了点への 均等の長さ部分を取り出した一定長部分を特徴化する請求項 1 2記 載の C M認識方法。
1 4 . 前記データの照合の結果により、 マスタ C Mコンテンツ特 徵ファイルになかった C Mデータを表示するステップと、
該 C Mデータに関連する情報をマスタ C Mコンテンツ特徴フアイ ルを含む C M管理データべ一ス群の各データベースに登録するステ ップと
を更に有する請求項 1 2に記載の C M認識方法。
1 5 . 受信したデ一夕からコンテンツのプレイリストを作成する プレイリスト作成システムにおいて、
予めコンテンツの特徴を蓄積したコンテンツ特徴ファイルのデ一 夕と、 コンテンッに関連する情報を蓄積したコンテンツ情報 D Bの デ一夕を取得する手段と、
受信したデ一夕の特徴を抽出し、.データ特徴ファイルに蓄積する 手段と、
' 前記コンテンツ特徴ファイルのデータと前記データ特徴ファイル のデータとを照合することによりコンテンッを探索する手段と、 前記コンテンッ特徴ファイルのデータと前記データ特徴ファイル のデータが一致したら、 該データに対応するデータを探索結果ファ ィルとして蓄積する手段と、
前記探索結果ファイルと、 前記コンテンツ情報 D Bとから該所定 の種類のコンテンツのプレイリストを作成する手段と、
を有することを特徴とするプレイリスト作成システム。
1 6 . 前記探索する手段において、 前記データ特徴ファイルにお けるあるデータが前記コンテンツ特徴ファイルに含まれていない場 合に、 該データを前記コンテンッ特徴ファイルに登録する手段を更 に有する請求項 1 5に記載のプレイリスト作成システム。
1 7 . 前記コンテンツ特徴ファイルに含まれていなかったデータ に対応するコンテンッを人間が視聴できるようにする手段と、 該コンテンッに関連する情報を前記コンテンツ情報 D Bに登録す る手段と
を更に有する請求項 1 6に記載のプレイリスト作成システム。
1 8 . 前記探索する手段において、 前記データ特徴ファイルにお けるあるデータが前記コンテンツ特徴ファイルに含まれていない場 合に、 該デ一夕に対応するコンテンツを人間が視聴できるようにす る手段と、
該コンテンツを該コンテンツに関連する情報とともに前記プレイ リストに追加する手段と .
を更に有する請求項 1 5に記載のプレイリスト作成システム。 · 1 9 . 受信したデ一夕から楽曲を認識する楽曲認識システムにお いて、
楽曲コンテンツの特徴を蓄積したコンテンツ特徴フアイルのデ一 タを取得する手段と、
前記受信したデータの特徴を抽出し、 放送特徴フアイルに蓄積す る手段と、
前記コンテンツ特徴ファイルと前記放送特徴ファイルのデータを 照合することにより楽曲を探索する手段と、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す る手段と、
前記探索結果ファイルから楽曲の時系列プレイリストを作成する 手段と '
を有することを特徴とする楽曲認識システム。
2 0 . 前記受信したデータが楽曲か否かを判定する手段と、 楽曲である場合にはそのデータが楽曲である旨とそのデ一夕を受 信した時刻とを楽曲抽出ファィルに蓄積する手段と、
前記楽曲を探索する手段において、 前記放送特徴ファイルのある データの楽曲名が判明しなかった場合にはそのデ一夕を楽曲名未抽 出ファイルに蓄積する手段と、 ' 前記放送特徴ファイルと前記楽曲抽出ファイルと前記楽曲名未抽 出ファイルとから楽曲未検出ファイルを作成する手段と
を更に有する請求項 1 9に記載の楽曲認識システム。
2 1 . 前記楽曲未検出ファイルに記録された楽曲を人間が聞くこ とができるようにする手段と、
該楽曲未検出ファイルに記録された楽曲に関する楽曲名と時刻と を前記プレイリス卜に追加するステップと
を更に有する請求項 2 0に記載の楽曲認識システム。
2 2 . 楽曲名と関連付けられた情報を有するコンテ.ンッ情報 D B からデータを取得する手段と、
前記探索結果ファイルとコンテンツ情報 D Bのデータとを用いて 前記時系列プレイリストを作成する手段とを有し、
該時系列プレイリストは、 時刻、 該時刻に放送された楽曲名、 及 び該楽曲名と関連する情報を有する請求項 1 9に記載の楽曲認識シ スァ
2 3 . 受信したデータから楽曲を認識する楽曲認識システムにお いて、
放送データを受信する装置を複数.の地域に備え、
各地域の装置から各地域で受信したデータを受信するセン夕シス テムを備え、 該センタシステムは、
楽曲コンテンツの特徴を蓄積したコンテンツ特徴ファイルのデー 夕を取得する手段と、
前記受信したデータの特徴を抽出し、 放送特徴ファイルに蓄積す る手段と、
前記コンテンッ特徴ファイルと前記放送特徴ファイルのデータを 照合することにより楽曲を探索する手段と、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す る手段と、 前記探索結果ファイルから楽曲の時系列プレイリストを作成する 手段と
を有することを特徴とする楽曲認識システム。
2 4 . 受信したデータから楽曲を認識する楽曲認識システムにお いて、 - 放送データを受信し、 該放送データの特徴を抽出する装置を複数 の地域に備え、
各地域の装置から各地域で受信した放送データの特徴データを放 送特徴ファイルとして受信するセン夕システムを備え、 該センタシ ステムは、 '
楽曲コンテンツの特徴を蓄積したコンテンツ特徴ファイルのデー タを取得する手段と、
前記コンテンツ特徴ファイルと前記放送特徴ファイルのデータを 照合することにより楽曲を探索する手段と、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す る手段と、
前記探索結果ファイルから楽曲の時系列プレイリストを作成する 手段と
を有することを特徴とする楽曲認識システム。
2 5 . 受信したデータから C Mを認識し、 認識された C Mデータ を蓄積するための C M認識システムにおいて、
受信したデータから C Mデータを検出する手段と、
前記 C Mデータの特徴を抽出し、 放送特徴ファイルに蓄積する手 段と、
前記放送特徴ファイルと予め C Mコンテンツの特徴が格納されて いるマスタ C Mコンテンツ特徴ファイルとのデータの照合を行う手 段と、
放送特徴ファイルにおけるデータがマスタ C Mコンテンツ特徴フ アイルにない場合には、 該デ一夕を新たな C Mとしてマス夕 C Mコ ンテンッ特徵ファイルに登録する手段と
を有することを特徵とする C M認識システム。
2 6 . 前記受信したデータから C Mデータを検出する手段は、 C Mデータの開始点及び終了点を検出する手段を有し、
前記 C Mデータの特徴を抽出する際に、 検出された前記 C Mデ一 夕の前記開始点と前記終了点の中心から該開始点及び該終了点への 均等の長さ部分を取り出した一定長部分を特徴化する請求項 2 5記 載の C M認識システム。
, 2 7 . 前記データの照合の結果により、 マス夕 C Mコンテンツ特 徵ファイルになかった C Mデータを表示する手段と、
該 C Mデータに関連する情報をマスタ C Mコンテンッ特徴フアイ ルを含む C M管理データベース群の各データベースに登録する手段 と
を更に有する請求項 2 5に記載の C M 識システム。
2 8 . 受信したデータからコンテンツのプレイリストを作成する処 理をコンピュータに実行させるプログラムを記録したコンピュータ 読み取り可能な記録媒体であって、
受信したデータの特徴を抽出し、 データ特徴ファイルに蓄積する 手順と、
前記コンテンツの特徴を蓄積したコンテンツ特徵ファイルのデ一 夕を取得し、 該データと前記デ一夕特徴ファイルのデータを照合す ることによりコンテンッを探索する手順と、
前記コンテンッ特徴ファイルのデータと前記データ特徴ファイル のデータが一致したら、 該データに対応するデータを探索結果ファ ィルとして蓄積する手順と、
前記探索結果.ファイルと、 コンテンッに関連する情報を蓄積した コンテンツ情報 D Bとから該コンテンツのプレイリストを作成する 手順と
をコンピュータに実行させるプログラムを記録したコンピュータ 読み取り可能な記録媒体。
2 9 . 前記データ特徴ファイルにおけるあるデータが前記コンテ ンッ特徴ファイルに含まれていない場合に、 該データを前記コンテ ンッ特徴ファイルに登録する手順を更に有する請求項 2 8に記載の プログラムを記録したコンピュータ読み取り可能な記録媒体。
3 0 . 前記コンテンツ特徴ファイルに含まれていなかったデータ に対応するコンテンツを人間が視聴できるようにする手順と、 該コンテンッに関連する情報を前記コンテンツ情報 D Bに登録す る手順と
· を更に有する請求項 2 9に記載のプログラムを記録したコンビュ 一夕読み取り可能な記録媒体。
3 1 . 前記データ特徴ファイルにおけるあるデータが前記コンテ ンッ特徴ファイルに含まれていない場合に、 該デ一夕に対応するコ ンテンッを人間が視聴できるようにする手順と、
該コンテンツを該コンテンッに関連する情報とともに前記プレイ リストに追加する手順と
を更に有する請求項 2 8に記載のプログラムを記録したコンビュ 一夕読み取り可能な記録媒体。
3 2 . 受信したデータから楽曲を認識する処理をコンピュータに 実行させるプログラムを記録したコンピュータ読み取り可能な記録 媒体であって、
前記受信したデータの特徴を抽出し、 放送特徴ファイルに蓄積す る手順と、
楽曲コンテンツの特徴を蓄積したコンテンツ特徴ファイルと前記 放送特徴ファイルのデータを照合することにより楽曲を探索する手 順と、
楽曲名が判明したら、 該楽曲の特徴を探索結果ファイルとして蓄 積する手順と、
前 to探索結果ファイルから楽曲の時系列プレイリストを作成する 手順と
をコンピュータに実行させるプログラムを記録したコンピュータ 読み取り可能な記録媒体。
3 3 . 前記受信したデータが楽曲か否かを判定する手順と、
楽曲である場合にはそのデータが楽曲である旨とそのデータを受 信した時刻とを楽曲抽出ファイルに蓄積する手順と、
前記楽曲を探索する手順において、 前記放送特徴ファイルのある データの楽曲名が判明しなかつた場合にはそのデータを楽曲名未抽 出ファイルに蓄積する手順と、
前記放送特徴ファイルと前記楽曲抽出ファイルと前記楽曲名未抽 出ファイルとから楽曲未検出ファイルを作成する手順と
を更に有する請求項 3 2に記載のプログラムを記録したコンピュ 一夕読み取り可能な記録媒体。
3 4 . 前記楽曲未検出ファイルに記録された楽曲を人間が聞くこ とができるようにする手順と、
該楽曲未検出ファイルに記録された楽曲に関する楽曲名と時刻と を前記プレイリストに追加するステツプと
を更に有する請求項 3 3に記載のプログラムを記録したコンピュ 一夕読み取り可能な記録媒体。
3 5 . 楽曲名と関連付けられた情報を有するコンテンツ情報 D B からデータを取得する手順と、
前記探索結果ファイルとコンテンツ情報 D Bのデ一夕とを用いて. 前記時系列プレイリストを作成する手順とを有し、
該時系列プレイリストは、 時刻、 該時刻に放送された楽曲名、 及 び該楽曲名と関連する情報を有する請求項 3 2に記載のプログラム を記録したコンピュータ読み取り可能な記録媒体。
3 6 . 受信したデ一夕から楽曲を認識する処理をコンピュータに実 行させるプログラムを記録したコンピュータ読み取り可能な記録媒 体であって、 各地域の装置から各地域で受信した放送データの特徴デ一夕を放 送特徴ファイルとして受信する手順と、
楽曲コンテンツの特徴を蓄積したコンテンツ特徵ファイルのデー 夕と前記放送特徴ファイルのデータを照合することにより楽曲を探 索する手順と、
楽曲名が判明したら、 該楽曲名を探索結果ファイルとして蓄積す る手順と、
前記探索結果ファイルから楽曲の時系列プレイリストを作成する 手順と
をコンピュータに実行させるプログラムを記録したコンピュータ 読み取り可能な記録媒体。
3 7 . 受信したデータから C Mを認識し、 認識された C Mデータ を蓄積する処理をコンピュータに実行させるプログラムを記録した コンピュータ読み取り可能な記録媒体であって、
受信したデータから C Mデータを検出する手順と、
前記 C Mデータの特徴を抽出し、 放送特徴ファイルに蓄積する手 順と、
前記放送特徴ファイルと予め C Mコンテンッの特徴が格納されて いるマスタ C Mコンテンツ特徴ファイルとのデータの照合を行う手 順と、
放送特徴ファイルにおけるデータがマス夕 C Mコンテンツ特徴フ アイルにない場合には、 該データを新たな C Mとしてマスタ C Mコ ンテンッ特徴ファイルに登録する手順と
をコンピュー夕に実行させるプログラムを記録したコンピュータ 読み取り可能な記録媒体。
3 8 . 前記受信したデータから C Mデ一夕を検出する手順は、 C Mデータの開始点及び終了点を検出する手順を有し、
前記 C Mデータの特徴を抽出する際に、 検出された前記 C Mデ一 夕の前記開始点と前記終了点の中心から該開始点及び該終了点への 均等の長さ部分を取り出した一定長部分を特徴化する請求項 3 7記 載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 3 9. 前記データの照合の結果により、 マスタ CMコンテンツ特 徵ファイルになかった CMデータを表示する手順と、
'該 CMデータに関連する情報をマスタ CMコンテンツ特徴フアイ ルを含む CM管理データべ一ス群の各データベースに登録する手順 と
を更に有する請求項 3 7に記載のプログラムを記録したコンピュ 一夕読み取り可能な記録媒体。
.
PCT/JP2001/009244 2000-10-23 2001-10-22 Systeme et procede de reconnaissance d'une composition musicale, support de stockage de programme de composition musicale, procede et systeme de reconnaissance commerciale, et support de stockage de programme de reconnaissance commerciale WO2002035516A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR10-2003-7004966A KR100516403B1 (ko) 2000-10-23 2001-10-22 악곡인식방법 및 시스템 및 악곡인식 프로그램을 저장한기억매체 및 커머셜 인식방법 및 시스템 및 커머셜 인식프로그램을 저장한 기억매체
US10/399,406 US7277852B2 (en) 2000-10-23 2001-10-22 Method, system and storage medium for commercial and musical composition recognition and storage
GB0309208A GB2384596A (en) 2000-10-23 2001-10-22 Musical composition recognition method and system, storage medium where musical composition program is stored, commercial recognition method and system,
JP2002538418A JPWO2002035516A1 (ja) 2000-10-23 2001-10-22 楽曲認識方法及びシステム及び楽曲認識プログラムを格納した記憶媒体及びコマーシャル認識方法及びシステム及びコマーシャル認識プログラムを格納した記憶媒体
AU2001295989A AU2001295989A1 (en) 2000-10-23 2001-10-22 Musical composition recognition method and system, storage medium where musical composition program is stored, commercial recognition method and system, and storage medium where commercial recognition program is stored
HK04101878.1A HK1059133A1 (en) 2000-10-23 2004-03-15 Musical composition recognition method and system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000-323022 2000-10-23
JP2000323022 2000-10-23
JP2000-363883 2000-11-29
JP2000363883 2000-11-29

Publications (1)

Publication Number Publication Date
WO2002035516A1 true WO2002035516A1 (fr) 2002-05-02

Family

ID=26602607

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/009244 WO2002035516A1 (fr) 2000-10-23 2001-10-22 Systeme et procede de reconnaissance d'une composition musicale, support de stockage de programme de composition musicale, procede et systeme de reconnaissance commerciale, et support de stockage de programme de reconnaissance commerciale

Country Status (9)

Country Link
US (1) US7277852B2 (ja)
JP (1) JPWO2002035516A1 (ja)
KR (1) KR100516403B1 (ja)
CN (2) CN101354716A (ja)
AU (1) AU2001295989A1 (ja)
GB (1) GB2384596A (ja)
HK (1) HK1059133A1 (ja)
TW (1) TW535073B (ja)
WO (1) WO2002035516A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005039080A1 (ja) * 2003-10-21 2005-04-28 Yutaka Matsushita 情報配信システム
JP2005538478A (ja) * 2002-09-05 2005-12-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ポータブル再生リスト
JP2006319456A (ja) * 2005-05-10 2006-11-24 Ntt Communications Kk キーワード提供システム及びプログラム
JP2007533274A (ja) * 2004-04-19 2007-11-15 ランドマーク、ディジタル、サーヴィセズ、エルエルシー コンテントのサンプリングおよび識別のための方法およびシステム
JP2008511937A (ja) * 2004-08-31 2008-04-17 インテグレーテッド メディア メジャーメント,インク. メディアコンテンツアイテムへの接触の検出および計測
JP2008251093A (ja) * 2007-03-30 2008-10-16 Clarion Co Ltd 楽曲再生制御装置および再生リスト作成方法
JP2009177329A (ja) * 2008-01-22 2009-08-06 Sanyo Electric Co Ltd 楽曲メタ情報配信システムにおけるクライアント側装置および音声データ出力装置
US7627560B2 (en) 2005-04-22 2009-12-01 Sony Corporation Recording and reproducing apparatus, processing method in the apparatus, and program for causing computer to execute the method

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7020304B2 (en) 2002-01-22 2006-03-28 Digimarc Corporation Digital watermarking and fingerprinting including synchronization, layering, version control, and compressed embedding
US20050193092A1 (en) * 2003-12-19 2005-09-01 General Motors Corporation Method and system for controlling an in-vehicle CD player
US20150051967A1 (en) 2004-05-27 2015-02-19 Anonymous Media Research, Llc Media usage monitoring and measurment system and method
US20050267750A1 (en) * 2004-05-27 2005-12-01 Anonymous Media, Llc Media usage monitoring and measurement system and method
TWI247239B (en) * 2004-06-18 2006-01-11 Via Tech Inc Advertising detection method and related system for detecting advertising according to specific beginning/ending images of advertising sections
SG119377A1 (en) * 2004-08-06 2006-02-28 Yamaha Corp Electrical music apparatus capable of connecting with external device
JP2006127367A (ja) * 2004-11-01 2006-05-18 Sony Corp 情報管理方法、情報管理プログラムおよび情報管理装置
US7818350B2 (en) 2005-02-28 2010-10-19 Yahoo! Inc. System and method for creating a collaborative playlist
JP4626376B2 (ja) * 2005-04-25 2011-02-09 ソニー株式会社 音楽コンテンツの再生装置および音楽コンテンツ再生方法
US20070239781A1 (en) * 2006-04-11 2007-10-11 Christian Kraft Electronic device and method therefor
US9124357B2 (en) * 2006-04-20 2015-09-01 Qualcomm Incorporated Media access control for ultra-wide band communication
US7667125B2 (en) 2007-02-01 2010-02-23 Museami, Inc. Music transcription
WO2008101126A1 (en) * 2007-02-14 2008-08-21 Museami, Inc. Web portal for distributed audio file editing
JP2008241850A (ja) * 2007-03-26 2008-10-09 Sanyo Electric Co Ltd 録音または再生装置
US8283546B2 (en) * 2007-03-28 2012-10-09 Van Os Jan L Melody encoding and searching system
US8156118B2 (en) 2007-08-20 2012-04-10 Samsung Electronics Co., Ltd. Method and system for generating playlists for content items
WO2009103023A2 (en) 2008-02-13 2009-08-20 Museami, Inc. Music score deconstruction
US8966394B2 (en) * 2008-09-08 2015-02-24 Apple Inc. System and method for playlist generation based on similarity data
US20110060738A1 (en) 2009-09-08 2011-03-10 Apple Inc. Media item clustering based on similarity data
TWI411927B (zh) * 2010-04-02 2013-10-11 Primax Electronics Ltd 嵌入資訊於輸入影像的方法、自輸入影像中擷取出資訊的方法以及相關裝置
JP2012053722A (ja) * 2010-09-02 2012-03-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20130325853A1 (en) * 2012-05-29 2013-12-05 Jeffery David Frazier Digital media players comprising a music-speech discrimination function
US10936653B2 (en) 2017-06-02 2021-03-02 Apple Inc. Automatically predicting relevant contexts for media items

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6356091A (ja) * 1986-08-26 1988-03-10 Video Res:Kk テレビ・コマーシャル放送確認方法
JPH066833A (ja) * 1986-05-02 1994-01-14 Control Data Corp <Cdc> 放送セグメントの連続パターン認識装置の使用方法
JPH0779206A (ja) * 1993-06-18 1995-03-20 Video Res:Kk Cm自動識別システム
JPH08149099A (ja) * 1994-11-25 1996-06-07 Niirusen Japan Kk テレビ放送におけるコマーシャル及び番組情報処理システム
JPH09214875A (ja) * 1996-02-07 1997-08-15 Matsushita Electric Ind Co Ltd テレビジョン受信機、およびラジオ受信機
JPH10308921A (ja) * 1997-05-08 1998-11-17 Fujitsu Ltd 情報収集装置
JPH11122203A (ja) * 1997-10-09 1999-04-30 Video Research:Kk 放送確認システム、及びこのシステムに使用される映像素材制作装置及び放送確認装置
JPH11120198A (ja) * 1997-10-20 1999-04-30 Sony Corp 楽曲検索装置
JP2000312343A (ja) * 1998-06-01 2000-11-07 Nippon Telegr & Teleph Corp <Ntt> 高速信号探索方法、装置およびその記録媒体
JP2000347689A (ja) * 1999-06-03 2000-12-15 Nec Software Niigata Ltd 音データ検索方法,音データ検索装置および音データ検索プログラムを記録した記録媒体
JP2001326952A (ja) * 2000-05-15 2001-11-22 Nec Corp 放送確認システム、放送確認方法及び装置、放送確認プログラムを記録した記録媒体
JP2001358682A (ja) * 2000-06-09 2001-12-26 Nri & Ncc Co Ltd 放送楽曲調査装置、放送楽曲調査方法および記録媒体

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2761897A (en) * 1951-11-07 1956-09-04 Jones Robert Clark Electronic device for automatically discriminating between speech and music forms
USRE26104E (en) * 1955-12-19 1966-11-01 Data processing apparatus for identify. ing an unknown signal by comparison
US3919479A (en) * 1972-09-21 1975-11-11 First National Bank Of Boston Broadcast signal identification system
US4230990C1 (en) * 1979-03-16 2002-04-09 John G Lert Jr Broadcast program identification method and system
US4450531A (en) * 1982-09-10 1984-05-22 Ensco, Inc. Broadcast signal recognition system and method
US4677466A (en) * 1985-07-29 1987-06-30 A. C. Nielsen Company Broadcast program identification method and apparatus
US4843562A (en) * 1987-06-24 1989-06-27 Broadcast Data Systems Limited Partnership Broadcast information classification system and method
AU4279893A (en) * 1992-04-10 1993-11-18 Avid Technology, Inc. A method and apparatus for representing and editing multimedia compositions
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments
JPH0644752A (ja) 1992-07-22 1994-02-18 Ui Kiyan:Kk 曲名の選出方法および曲名の選出装置
US5437050A (en) * 1992-11-09 1995-07-25 Lamb; Robert G. Method and apparatus for recognizing broadcast information using multi-frequency magnitude detection
US5577266A (en) * 1993-04-08 1996-11-19 Digital D.J. Inc. Broadcast system with associated data capabilities
US5812937B1 (en) * 1993-04-08 2000-09-19 Digital Dj Inc Broadcast data system with multiple-tuner receiver
JP2842762B2 (ja) * 1993-06-30 1999-01-06 シャープ株式会社 赤外線利用データ転送装置
US5918223A (en) * 1996-07-22 1999-06-29 Muscle Fish Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information
JPH11205256A (ja) 1998-01-16 1999-07-30 Tetsushi Nakamura 著作権料管理装置
JPH11238088A (ja) 1998-02-19 1999-08-31 Tetsushi Nakamura 著作権料管理装置
EP0944033B1 (en) * 1998-03-19 2003-05-28 Tomonari Sonoda Melody retrieval system and method
US6956593B1 (en) * 1998-09-15 2005-10-18 Microsoft Corporation User interface for creating, viewing and temporally positioning annotations for media content
JP2000149434A (ja) 1998-11-12 2000-05-30 Sony Corp データ内容情報の記録制御装置及びその方法
JP3434223B2 (ja) 1998-11-19 2003-08-04 日本電信電話株式会社 音楽情報検索装置,音楽情報蓄積装置,音楽情報検索方法,音楽情報蓄積方法およびそれらのプログラムを記録した記録媒体
JP3631650B2 (ja) 1999-03-26 2005-03-23 日本電信電話株式会社 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した計算機読み取り可能な記録媒体
US6332120B1 (en) * 1999-04-20 2001-12-18 Solana Technology Development Corporation Broadcast speech recognition system for keyword monitoring
JP2001060099A (ja) 1999-08-24 2001-03-06 Sony Corp 情報処理装置および方法、並びに媒体
DE19948974A1 (de) 1999-10-11 2001-04-12 Nokia Mobile Phones Ltd Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks
US6192340B1 (en) * 1999-10-19 2001-02-20 Max Abecassis Integration of music from a personal library with real-time information
US7062528B2 (en) * 2000-07-14 2006-06-13 Sony Corporation Method and system for identifying a time specific event
US7853664B1 (en) * 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066833A (ja) * 1986-05-02 1994-01-14 Control Data Corp <Cdc> 放送セグメントの連続パターン認識装置の使用方法
JPS6356091A (ja) * 1986-08-26 1988-03-10 Video Res:Kk テレビ・コマーシャル放送確認方法
JPH0779206A (ja) * 1993-06-18 1995-03-20 Video Res:Kk Cm自動識別システム
JPH08149099A (ja) * 1994-11-25 1996-06-07 Niirusen Japan Kk テレビ放送におけるコマーシャル及び番組情報処理システム
JPH09214875A (ja) * 1996-02-07 1997-08-15 Matsushita Electric Ind Co Ltd テレビジョン受信機、およびラジオ受信機
JPH10308921A (ja) * 1997-05-08 1998-11-17 Fujitsu Ltd 情報収集装置
JPH11122203A (ja) * 1997-10-09 1999-04-30 Video Research:Kk 放送確認システム、及びこのシステムに使用される映像素材制作装置及び放送確認装置
JPH11120198A (ja) * 1997-10-20 1999-04-30 Sony Corp 楽曲検索装置
JP2000312343A (ja) * 1998-06-01 2000-11-07 Nippon Telegr & Teleph Corp <Ntt> 高速信号探索方法、装置およびその記録媒体
JP2000347689A (ja) * 1999-06-03 2000-12-15 Nec Software Niigata Ltd 音データ検索方法,音データ検索装置および音データ検索プログラムを記録した記録媒体
JP2001326952A (ja) * 2000-05-15 2001-11-22 Nec Corp 放送確認システム、放送確認方法及び装置、放送確認プログラムを記録した記録媒体
JP2001358682A (ja) * 2000-06-09 2001-12-26 Nri & Ncc Co Ltd 放送楽曲調査装置、放送楽曲調査方法および記録媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005538478A (ja) * 2002-09-05 2005-12-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ポータブル再生リスト
WO2005039080A1 (ja) * 2003-10-21 2005-04-28 Yutaka Matsushita 情報配信システム
JP2007533274A (ja) * 2004-04-19 2007-11-15 ランドマーク、ディジタル、サーヴィセズ、エルエルシー コンテントのサンプリングおよび識別のための方法およびシステム
JP2008511937A (ja) * 2004-08-31 2008-04-17 インテグレーテッド メディア メジャーメント,インク. メディアコンテンツアイテムへの接触の検出および計測
US7627560B2 (en) 2005-04-22 2009-12-01 Sony Corporation Recording and reproducing apparatus, processing method in the apparatus, and program for causing computer to execute the method
JP2006319456A (ja) * 2005-05-10 2006-11-24 Ntt Communications Kk キーワード提供システム及びプログラム
JP2008251093A (ja) * 2007-03-30 2008-10-16 Clarion Co Ltd 楽曲再生制御装置および再生リスト作成方法
JP2009177329A (ja) * 2008-01-22 2009-08-06 Sanyo Electric Co Ltd 楽曲メタ情報配信システムにおけるクライアント側装置および音声データ出力装置

Also Published As

Publication number Publication date
JPWO2002035516A1 (ja) 2004-03-04
AU2001295989A1 (en) 2002-05-06
GB2384596A (en) 2003-07-30
KR100516403B1 (ko) 2005-09-23
HK1059133A1 (en) 2004-06-18
US7277852B2 (en) 2007-10-02
KR20030096225A (ko) 2003-12-24
CN100461261C (zh) 2009-02-11
TW535073B (en) 2003-06-01
GB0309208D0 (en) 2003-05-28
CN101354716A (zh) 2009-01-28
US20040055445A1 (en) 2004-03-25
CN1471703A (zh) 2004-01-28

Similar Documents

Publication Publication Date Title
WO2002035516A1 (fr) Systeme et procede de reconnaissance d&#39;une composition musicale, support de stockage de programme de composition musicale, procede et systeme de reconnaissance commerciale, et support de stockage de programme de reconnaissance commerciale
US7739062B2 (en) Method of characterizing the overlap of two media segments
JP4298513B2 (ja) 高速ハッシュに基づくマルチメディアオブジェクトのメタデータ検索
CN1998168B (zh) 用于广播源辨识的方法与装置
US7174293B2 (en) Audio identification system and method
US8453170B2 (en) System and method for monitoring and recognizing broadcast data
JP4398242B2 (ja) 録音の多段階識別方法
CN101142591A (zh) 内容采样和标识
EP2654315A1 (en) Multimedia system and method of performing a playback by means of a multimedia system
CN1759396A (zh) 改进的数据检索方法和系统
WO2005079510A2 (en) Generation of a media content database by correlating repeating media content in media streams
CN102497400A (zh) 车载收音设备的音乐媒体信息获取方法和系统
CN102411578A (zh) 一种多媒体播放系统和方法
JP2004173102A (ja) 映像コンテンツ視聴方法及びシステム及び映像視聴端末装置及び映像配信装置及び映像コンテンツ視聴プログラム及び映像コンテンツ視聴プログラムを格納した記憶媒体
US20040182225A1 (en) Portable custom media server
JP2001075992A (ja) 音響検索方法及び装置、並びに、コンピュータ読みとり可能な記録媒体
JP4257563B2 (ja) 情報処理装置および方法、記録媒体、並びにデータベース構築装置
GB2531700A (en) Methods for identifying and monitoring use of audio entities
CN114117091A (zh) 多媒体对象的添加方法和装置、存储介质及电子装置
JP2019087855A (ja) 視聴状況調査システム、視聴状況調査装置、及び視聴状況調査方法
JP2002062881A (ja) 音楽蓄積装置及び方法、音楽提供装置及び方法、並びに、音楽蓄積システム
WO2006075303A2 (en) Broadcasting signal containing music data

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 0309208

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20011022

Format of ref document f/p: F

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020037004966

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2002538418

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 018178200

Country of ref document: CN

Ref document number: 10399406

Country of ref document: US

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 1020037004966

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020037004966

Country of ref document: KR