WO2011067880A1 - 楽曲推薦システム、情報処理装置、および情報処理方法 - Google Patents

楽曲推薦システム、情報処理装置、および情報処理方法 Download PDF

Info

Publication number
WO2011067880A1
WO2011067880A1 PCT/JP2010/005468 JP2010005468W WO2011067880A1 WO 2011067880 A1 WO2011067880 A1 WO 2011067880A1 JP 2010005468 W JP2010005468 W JP 2010005468W WO 2011067880 A1 WO2011067880 A1 WO 2011067880A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
content
feature
information
recording
Prior art date
Application number
PCT/JP2010/005468
Other languages
English (en)
French (fr)
Inventor
池上渉一
坂本隆之
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to EP10834336.9A priority Critical patent/EP2509004A4/en
Priority to CN201080054534.2A priority patent/CN102640149B/zh
Priority to US13/513,418 priority patent/US9047320B2/en
Publication of WO2011067880A1 publication Critical patent/WO2011067880A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Definitions

  • the present invention relates to information processing technology, and more particularly, to a system for recommending music to a user, an information processing apparatus, and an information processing method executed there.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide an information processing technique capable of recommending music that matches the atmosphere of the content.
  • An aspect of the present invention relates to an information science device.
  • This information processing apparatus corresponds to a content feature acquisition unit that acquires the feature of the content based on the additional information of the content to be processed, and the feature of the content prepared in advance based on the feature of the content and the feature of the music to be recommended
  • a music feature determination unit that determines the characteristics of the music with reference to the attached table, and a music data output unit that detects the music having the music characteristics from the database and presents the information as a recommended music suitable for the content
  • the content feature acquisition unit acquires the recording location from the information on the recording position as the content feature, and the music feature determination unit determines the feature of the music from the recording location.
  • content refers to image data such as photographs, videos, computer graphics, data obtained by digitizing hand-drawn pictures, text data such as memos and poems, voice data recorded with a voice recorder or recording device, etc. Any data may be used as long as it is recorded and reproducible using an electronic device or an information device, or a combination of the data may be used.
  • This music recommendation system is a music recommendation system that acquires information related to recommended music from a server via a network in the information processing device, and the information processing device determines the characteristics of the content based on the additional information of the content to be processed.
  • a music data output unit that transmits the characteristics of the music to the server to request the recommendation of the music that matches the content and obtains and presents information related to the recommended music from the server, and the server transmits the information from the information processing apparatus Detected music having the characteristics of the music from the database, and sends the information to the information processing apparatus as recommended music
  • the content feature acquisition unit acquires a recording location from the information of the recording position as the content feature, and the music feature determination unit determines the feature of the music from the recording location.
  • Still another aspect of the present invention relates to an information processing method.
  • the additional information of the content to be processed is read from the memory, the feature of the content is acquired based on the additional information, and the feature of the content prepared in advance based on the feature of the content should be recommended Determining a music characteristic by referring to a table in which the characteristics of the music are associated, and detecting a music having the music characteristics from the database and presenting the information as a recommended music suitable for the content.
  • the step of acquiring the feature of the content acquires the recording location from the information on the recording position as the feature of the content, and the step of determining the feature of the song determines the feature of the song from the recording location.
  • FIG. 1 shows the configuration of the music recommendation system of the present embodiment.
  • the music recommendation system 10 includes an information processing device 12 operated by a user and a music data server 14 connected to the information processing device 12 via a network 13.
  • the information processing apparatus 12 is an information device such as a personal computer, a recording / playback apparatus, or a mobile phone operated by a user.
  • the information processing apparatus 12 includes an instruction input receiving unit 16 that receives an instruction input from a user, a music feature information determining unit 18 that determines the characteristics of a recommended music from the characteristics of a photograph, and a music that outputs information on a music having the determined characteristics
  • a data output unit 20 and a music data storage unit 22 that associates music features with individual music are included.
  • the instruction input receiving unit 16 is an input device that receives a music recommendation instruction as well as input of necessary information such as a file name of photographed photograph data.
  • the instruction input receiving unit 16 may be a general input device such as a keyboard, a button, a touch panel, and a mouse.
  • the music feature information determination unit 18 analyzes the photograph designated by the user, extracts the feature of the photograph, and derives the feature of the music that matches the feature. When the designated photograph constitutes a group of photographs taken for a long time such as a trip or wedding, the feature of the music is determined for each scene.
  • the music feature information determination unit 18 extracts information from the additional information of the photo and the image itself when extracting the feature of the photo.
  • various types of information are generally recorded at the same time as taking a picture.
  • the date and time of shooting and the shooting position are included in the additional information of the picture.
  • First, from the shooting date and time, whether it is a special day such as Christmas or New Year or the time information such as the season and the time zone of the day is derived as a feature of the photograph.
  • positional information such as the town and country where the image was taken is derived as a feature of the photograph from the information of the position coordinates such as latitude and longitude.
  • the photographing position is also used for correcting the former temporal information.
  • the shooting date and time recorded at the set time is based on the shooting position information in order to accurately recommend a suitable piece of music without matching the local time until the set time of the shooting device such as a camera.
  • the seasons are reversed in the northern and southern hemispheres for the same Christmas trip. For this reason, even a Christmas photo does not always match a moist song that snows. Even on the same date, the seasons are completely different depending on the location. In this way, in consideration of the differences in music and seasonal feelings that differ depending on the region, in this embodiment, the shooting date / time and shooting position are comprehensively determined to accurately identify the characteristics of the photo, and the music that matches it is selected. Recommendation to.
  • the music feature information determination unit 18 may search for a server (not shown) connected via a network and acquire predetermined information corresponding to the shooting position and the shooting date and time. For example, the weather at the time of shooting, the temperature, the time of entering and exiting the sun and moon, the constellation, the amount of cedar pollen, the amount of yellow sand, the peripheral photos provided by the server that provides the peripheral photos based on the location information, the number of images provided, etc. May be.
  • the music feature information determination unit 18 performs face recognition processing on the photograph image, and acquires whether the person is photographed, how many people are photographed, and how much smile is present as the photograph feature. Furthermore, people's attributes, such as race, sex, and age, may be acquired, or they may be combined. These features can be acquired by a general face / expression recognition technique based on pattern matching in image processing techniques or relative positions of feature points. From these characteristics, characteristics such as the tempo of the music are determined. In addition to the face recognition process, general image analysis may be performed to acquire at least one of luminance distribution, color distribution, and frequency characteristics, and the characteristics of the music may be determined from brightness, color tone, and the like.
  • the music data output unit 20 extracts the music having the characteristics derived by the music feature information determination unit 18 from the music data storage unit 22 and outputs information related to the music.
  • the title of the music, the bibliographic information such as the lyrics and the artist may be displayed as the character information, or the music may be actually reproduced.
  • a single music file in which audio data of recommended music for each scene is arranged in time series of the scene may be generated.
  • the music data storage unit 22 is data that associates music characteristics with music bibliographic information, data that associates music characteristics with audio data, or audio with music characteristics and bibliographic information added as metadata. Store music data in the form of data.
  • ⁇ musical features '' include bibliographic information such as title, lyrics, artist, genre, release year, instrument sound, voice gender, mood, sound quality, sound pressure, tempo, good sound, music structure, etc. Any of the parameters may be used as long as they can characterize the music. Moreover, the classification identification number etc. when the similarity of a music is evaluated and it classify
  • the music feature information determination unit 18 derives the feature of the music in a format according to the feature of the music linked to the music in the music data storage unit 22. In a specific example to be described later, it is assumed that the atmosphere of a song such as “Sawayaka” and “Carefully” is linked to the audio data of each song in addition to the bibliographic information.
  • the music data server 14 includes a music feature receiving unit 24 that receives the characteristics of the music that the information processing device 12 wants to recommend, a music data transmitting unit 26 that transmits information about the music having the characteristics to the information processing device 12, and a music A music data storage unit 28 that associates each of the features with individual music.
  • the music data transmission unit 26 and the music data storage unit 28 of the music data server 14 have the same functions as the music data output unit 20 and the music data storage unit 22 of the information processing apparatus 12.
  • the amount of information held by the song data storage unit 28 of the song data server 14 can be made larger than the information amount of the song data storage unit 22 of the information processing apparatus 12.
  • the user instructs whether to obtain recommended music from the music stored in the information processing apparatus 12 or to obtain recommended music including music that is unknown or has no data yet from the music data server 14. It is included in the instruction to the input receiving unit 16.
  • the music data output unit 20 of the information processing device 12 extracts the recommended music by the feature derived by the music feature information determination unit 18 or transmits the feature to the music data server 14 to request the music extraction. Decide what to do.
  • the data output unit 20 may always request the music data server 14 to extract music.
  • the music data server 14 requested to extract the music for example, after extracting the recommended music, first transmits only the bibliographic information such as the title to the information processing apparatus 12 and only when the user desires to download the audio of the corresponding music. Data is transmitted to the information processing device 12.
  • the music search process of the music data server 14 using the characteristics of the music as a search key and the subsequent information transmission process are the same as those of a music search engine in practical use.
  • the search process in the music data output unit 20 of the information processing apparatus 12 is also the same. Therefore, hereinafter, the present embodiment will be described focusing on the operation of the music feature information determining unit 18. This description is an aspect in which music is recommended for a photograph. However, as long as the same additional information can be obtained, it can be handled in the same manner even for frames constituting a moving image.
  • FIG. 2 shows the configuration of the music feature information determination unit 18 in detail.
  • the music feature information determining unit 18 includes a photo classifying unit 30 that classifies photos for each scene when there are a plurality of photos to be processed, a photo feature acquiring unit 32 that acquires photo characteristics for each category or one photo, A music feature determining unit 34 for determining the characteristics of the music to be recommended from the characteristics of the photograph is included.
  • the music feature information determination unit 18 further stores a photo data storage unit 38 that stores the image data of the photo together with the additional information, and a photo feature that stores a photo feature acquisition table that associates the additional information of the photo and the contents of the image with the photo features.
  • Information stored in the photo data storage unit 38 and the user information storage unit 42 is generated by the user.
  • Each table stored in the photograph feature acquisition table storage unit 40 and the music feature acquisition table storage unit 44 is set in advance when the apparatus is manufactured. Alternatively, the user may be able to correct as necessary.
  • the photo classification unit 30 classifies the photo when the data of the photo specified by the user is composed of a plurality of photos.
  • a plurality of photos are to be processed, it is considered that the purpose is to select BGM when the user displays the photos in a slide show format.
  • music may be recommended for each photo, or one music may be recommended for a plurality of photos with different scenes, or music may be recommended for each same scene. Therefore, photos are classified according to shooting time and shooting position, and music is recommended as each scene.
  • the photo classification unit 30 does not have to operate.
  • the photograph feature acquisition unit 32 identifies the feature of the photograph for one photograph to be classified or processed based on the additional information of the photograph, the feature of the image, and the face recognition result. Therefore, the photo feature acquisition table storage unit 40 stores a photo feature acquisition table for converting information directly obtained from the additional information of the photo and the face recognition result into items prepared in advance as photo features. In addition, when specifying the characteristics of a photograph, personal information stored in the user information storage unit 42 is also used. Specific examples will be described later.
  • the music feature determination unit 34 includes a preference setting unit 45 that sets a song attribute that matches the user's preference, a tempo determination unit 46 that determines a tempo that matches the feature of the photo, and a music tone that extracts a tone that matches the feature of the photo.
  • a determination unit 48 is included.
  • the song attributes that match the user's preference are, for example, the genre, age, artist, etc. of the song, and what the user has input when using this function for the first time is stored in the user information storage unit 42. Let me. Alternatively, each time the user instructs the instruction input receiving unit 16 to recommend a music piece, the user may designate the music according to the photograph.
  • the tempo determination unit 46 determines the tempo of the music from the time zone when it was taken, the number of people in the photograph, the degree of smile, the behavior, the attributes of the person, the weather and temperature, the time of entering and exiting the sun and the moon.
  • the music tune determination unit 48 includes information, feature values, and genres that limit the title from at least one of the event at the time of shooting, the time zone, the season, the town where the photo was taken, the country, the weather and temperature, the time of entering and exiting the sun and the moon Etc.
  • music feature acquisition is performed for the tempo determination unit 46 and the music tone determination unit 48 to convert the feature of the photograph into items that determine the tempo range and the music tone that are prepared in advance as the music features.
  • the table Specific examples will be described later.
  • FIG. 3 shows the structure of photo data and music data used in the present embodiment.
  • the photograph data 50 is composed of photograph image data 56 with additional information on the photographing date and time 53 and the photographing position 54. Such additional information is often automatically added even in a general photographing apparatus.
  • the feature of the photograph is specified using the photographing date / time 53, the photographing position 54, and the photograph image data 56.
  • the music data 52 is composed of bibliographic information 58 and music audio data 62 with additional information of the feature value 60.
  • the photograph data 50 is converted into bibliographic information 58 and feature values 60 of the music data 52 matching the photograph data 50 as a medium, and the music is extracted based on the information.
  • the feature value 60 or the like may not be directly added to the music audio data 62 as described above, and a database that can search the music data 52 based on the feature value 60 is the music data storage unit 22 or the music of the information processing apparatus 12. What is necessary is just to be constructed
  • data representing a person's behavior recorded at the same time as the photo data 50 may be used as additional information.
  • Data representing human behavior that is, behavior information is, for example, data in which time staying in a building or facility and time traveling are recorded on a time axis. This data is obtained by analyzing a location history in which the location of the user is recorded at a predetermined interval using GPS (Global Positioning System), information on a communication base station, or the like. Specifically, a speed history is generated from the displacement of the position history for each time, and if there is a period during which a speed below a predetermined speed threshold continues for a predetermined time, that period is extracted as a stay period. The period of stay is defined as the movement period. Alternatively, information recorded manually by the user may be used.
  • FIG. 4 shows a conceptual diagram of the classification processing performed by the photo classification unit 30 when the user designates photo data consisting of a plurality of photos as a processing target.
  • the horizontal direction is the time axis of the photographing time.
  • the photos 70 are arranged in order of photographing time with respect to this time axis.
  • the photo classification unit 30 classifies the entire photo by grouping the photos that are considered to be the same scene by providing a break as indicated by an arrow for such a sequence of photos.
  • FIG. 5 is a flowchart showing a procedure for classifying a plurality of photos by the photo classification unit 30.
  • classification A is created by grouping photographs in the original photograph group whose photographing time interval is shorter than a predetermined threshold (S2). Since this category A is the smallest unit category in which almost the same composition is taken by continuous shooting or the like, the threshold value at this time is set to such a scale.
  • class A is arranged in order by shooting time or shooting position
  • k classes A are selected at equal intervals
  • class B is created by clustering by the k-means method (S4).
  • a classification C is created by grouping together the classification B whose centroid of the coordinates of the photographing position is closer than a predetermined threshold (S6). Since each category C created in this way is considered to be a group of photographs taken at approximately the same place, category C is the final category, and music recommendation is performed in this unit.
  • the above is a method that classifies near photos in consideration of both shooting time and shooting position, but it is simply a method where the difference in shooting time is below a predetermined threshold or the shooting position is within a predetermined range. You may make it put a certain photograph into the same classification.
  • the values of various parameters in the following description are the meanings of the centroid values in each category.
  • a plurality of categories C are continuous in time, if the number of photos belonging to these categories is less than a predetermined threshold, they are collectively processed as one category for music recommendation. Also good.
  • These photo categories may be editable later by the user.
  • FIG. 6 shows a flow of data related to the tempo determination unit 46.
  • a broken line 80 indicates the correspondence described in the photographic feature acquisition table referred to by the photographic feature acquisition unit 32
  • a solid line 82 indicates the correspondence described in the music feature acquisition table referred to by the tempo determination unit 46.
  • the shooting date and time 84, shooting position 85, image 86, and action information 88 in the upper row are photographic data
  • the middle row is a time zone list 90, a number of people range list 92, a smile degree list 94, and an action category prepared in advance as photo features. It is list 96.
  • the photo feature acquisition unit 32 acquires a corresponding time zone from the time zone list 90 based on the shooting date and time 84 and the shooting position 85 which are additional information of the photo data.
  • the shooting position 85 is referred to assuming time correction when the set time of the shooting device is not corrected to the local time when visiting an area having a time difference as described above.
  • the time zone may be acquired only from the shooting date and time 84. Prepare early morning / morning / daytime / evening / night / midnight as the time zone list 90.
  • the number of people range list 92 is prepared such as 1 person / 2 to more than n people / n people.
  • n may be a value registered by the user, such as the number of family members, and is stored in the user information storage unit 42 and is referred to by the photo feature acquisition unit 32 as appropriate.
  • age configuration patterns may be prepared as a list, and a pattern that matches the age configuration of the person specified by the face recognition process may be selected.
  • the degree of smile of each face is derived by a general facial expression recognition process, and the range of the corresponding smile degree is acquired from the smile degree list 94 by appropriately averaging the degree of smile.
  • the smile degree list 94 0 to 0.3 / 0.3 to 0.7 / 0.7 to 1.0 are prepared when 1.0 is the maximum smile.
  • it may be a category of expression such as smile / no expression / crying face, or an attribute category such as race, gender, age.
  • the action at the time when the photograph was taken is selected from the action category list 96.
  • the behavior category list 96 prepares for stay / movement, for example, in accordance with the format of the behavior information 88.
  • a category such as vehicle / walking can be prepared.
  • an action category may be selected from the shooting position. For example, the characteristics of the shooting location such as a park, golf course, amusement park, school, and mountain are specified from the shooting position, and actions corresponding to each feature, such as walking, golf, leisure, school event participation, mountain climbing, etc. Prepare as a list.
  • the tempo determination unit 46 refers to the music feature acquisition table, and determines a corresponding tempo from the tempo list 98 set for each combination of features acquired in this way. Prepare tempo list 98 as slow / medium / fast. Alternatively, a specific range of tempo values may be used. Note that each parameter in FIG. 6 is merely an example, and the tempo may be determined from only a part of it or in consideration of other characteristics. For example, in the case of a photo in which “the number of people more than the number of family members” is shown at “night”, a party scene is assumed and the tempo is set to “fast”.
  • FIG. 7 shows the flow of data related to the music tone determination unit 48.
  • a broken line 100 indicates the correspondence described in the photographic feature acquisition table referred to by the photographic feature acquisition unit 32
  • a solid line 102 indicates the correspondence described in the tune characteristic acquisition table referred to by the music tone determination unit 48.
  • the shooting date and time 84 and shooting position 106 in the upper row are photo data
  • the middle row is an event list 108, a time zone list 90, a season list 112, a town name list 114, and a country name list 116 prepared in advance as photo features.
  • the lower row is a music feature value list 120, 122, a genre list 124, and a feature value 126 associated with each category of photograph features.
  • the photo feature acquisition unit 32 acquires the corresponding event, time zone, and season from the event list 108, the time zone list 90, and the season list 112 based on the shooting date and time 84 and the shooting position 106, which are additional information of the photo data.
  • the event list 108 a family anniversary such as a birthday or wedding anniversary / Christmas / Hinamatsuri / New Year / Chinese New Year / midnight is prepared.
  • the family anniversary is registered in advance in the user information storage unit 42 by the user and is referred to by the photo feature acquisition unit 32 as appropriate. Since other events differ depending on the country as described above, the photograph feature acquisition unit 32 identifies the country based on the information of the shooting position 106 and thereby switches the contents of the event list 108.
  • the time zone list 90 is the same as that described with reference to FIG.
  • season list 112 spring / summer / autumn / winter / tropical rainy season / tropical dry season / every summer are prepared.
  • shooting position 106 in addition to the shooting date and time 84 when the season is acquired, it is possible to accurately reflect the difference in season depending on the region.
  • the tune determination unit 48 sets the title filter 118.
  • This is a filter for extracting music that includes the name of the corresponding event in the title. That is, music with titles of “Christmas” and “New Year” is recommended. Lyrics may be used instead of the title.
  • This filter setting information is also included in the music features.
  • the music tone determination unit 48 further acquires a corresponding feature value from the feature value list 120 set for the combination of the time zone and the season in the time zone list 90 and the season list 112. As the feature value list 120, refreshing / fun / moist / loose / energetic are prepared.
  • the feature value set in the feature value list 120 is a music data storage unit 22 of the information processing apparatus 12 or a music data server 14 that is a database for determining specific recommended music after that. This is determined according to the format of the search system of the unit 22. That is, it is not necessary to be a list of words representing the atmosphere of the music listed in the feature value list 120 in FIG. 7, but it may be a rough list such as whether instrumental music or vocals are included, or whether a male voice is a female voice. It may be a list of identification numbers assigned to detailed classifications obtained as a result of evaluation.
  • the photograph feature acquisition unit 32 further acquires the corresponding place, town name or country name from the place list 113, town name list 114 and country name list 116 based on the shooting position 106 which is additional information of the photograph data.
  • the place prepared as the place list 113 may be a landmark such as Mt. Fuji or a proper name of the place, or may be a kind name of a place or facility such as a park or golf course.
  • the town names prepared as the town name list 114 can be set to towns around the world without any particular limitation in scale or position such as New York / Hakata / Madrid / Istanbul. It is desirable. It is desirable to register at least countries that are frequently visited in the country name list 116.
  • the music tone determination unit 48 acquires the music whose title is included in the title from the title filter 118. Further, the feature value and genre set for the place are acquired from the feature value list 122 and the genre list 124. If the town corresponding to the shooting position is registered, the feature value and genre set for the town name are acquired from the feature value list 122 and the genre list 124. In setting the feature value list 122 and the genre list 124, for example, a representative song such as a song of a genre originating in the town is first prepared, and the same genre and feature value may be used as the set value. . Further, a genre and a feature value associated with each place may be set. The feature value list 122 prepares a list similar to the feature value list 120. As the genre list 124, classical / jazz / rock / latin is prepared according to each place and town.
  • the music tone determination unit 48 sets the national anthem atmosphere corresponding to the shooting position as the feature value 126.
  • a separate table holding specific feature values representing the atmosphere of the national anthem is prepared separately, and when the country is identified as a feature of the photograph, a specific feature value such as “Refreshing” is referred to the table. You may drop it into Instead of the national anthem, a representative song of the country may be used.
  • Each parameter in FIG. 7 is merely an example, and some of the features of the photograph and the feature of the music may be adopted, or other parameters may be introduced.
  • FIG. 8 is a flowchart showing a processing procedure for recommending music corresponding to a photograph.
  • a user inputs an instruction for music recommendation by specifying photo data to the information processing apparatus 12 (S10), if there are a plurality of the photos, the photo classification unit 30 classifies the photos, and for each scene. Music recommendation is performed (S12).
  • the photograph feature acquisition unit 32 refers to the photograph feature acquisition unit table based on the additional information of the photograph such as the photographing time and the photographing position, the face recognition processing result for the image, and the like. Extract (S14).
  • the preference setting unit 45 of the music feature determination unit 34 sets the user's preference for music such as a genre or artist based on designation by the user at the time of recommendation or information stored in the user information storage unit 42 (S16). .
  • the tempo determination unit S18 determines the tempo of the music by referring to the music feature acquisition table based on the characteristics of the photo such as the time zone when the photo was taken, the number of people in the photo, the degree of smile, and the action recorded with the photo. (S18).
  • the music feature determination unit 34 sets the title by setting the name of the event in the title filter.
  • the selection candidates can be narrowed down using (S22). If there is no corresponding event (N in S20) and a location corresponding to the shooting position is registered (Y in S23), narrowing selection candidates using the title, for example, by setting the name of the location in the title filter And the feature value and genre set for the place in the music feature acquisition table are acquired (S24, S25).
  • the location corresponding to the shooting position is not registered (N in S23) and the town name corresponding to the shooting position is registered (Y in S26), it is set for the town in the music feature acquisition table.
  • a feature value and a genre are acquired (S27). If the corresponding town name is not registered (N in S26), a feature value such as the national anthem set in the music feature acquisition table is acquired for the country corresponding to the shooting position (S28).
  • the music tone determination unit 48 acquires the feature values set in the music feature acquisition table for the time zone and season of the shooting time (S30).
  • the music feature information determination unit 18 supplies the user's preference, genre, and feature value acquired in this way to the music data output unit 20 as final music features (S32).
  • the music features are arranged in the order corresponding to the time series of the shooting times and then supplied in order.
  • the feature of music may be adjusted between scenes, such as smoothing feature values for a plurality of scenes.
  • the music feature information determination unit 18 prepares final feature calculation rules in advance, such as assigning priorities and calculating a centroid value and a center value. This rule depends on the music extraction method performed by the music data output unit 20 of the information processing apparatus 12 or the music data transmission unit 26 of the music data server 14 at a later stage.
  • the music data output unit 20 of the information processing device 12 or the music data transmission unit 26 of the music data server 14 extracts the corresponding music based on the information related to the characteristics of the music acquired from the music feature information determination unit 18 and uses it as the recommended music.
  • the music data server 14 performs the extraction process, information is transmitted to and received from the music data output unit 20 of the information processing apparatus 12 before and after the extraction process. It should be noted that the features of the music used in S34 and the music to be used finally can be appropriately corrected by the user.
  • the shooting position As well as the shooting time as additional information, it is possible to recommend a piece of music that takes into account the sense of the season, the event, the history of the music, the atmosphere, etc. according to the country or region where the image was taken.
  • the present embodiment can be realized by using conventionally recorded information, it can be easily and inexpensively introduced.
  • music that matches the atmosphere of a photograph is recommended, but the processing target may not be a photograph.
  • recorded home videos and other videos computer graphics such as screenshots saved during game play on mobile game devices, image data other than photographs such as digitized hand-drawn pictures, text data such as notes and poems
  • the voice data can be similarly processed using the additional information.
  • the additional information may include information added later by the user in addition to information recorded at the same time when the data is recorded.
  • the present invention can be used for information processing apparatuses such as computers, mobile phones, digital cameras, and video cameras.

Abstract

 楽曲特徴情報決定部18において写真分類部30は、ユーザが指定した写真のデータが複数の写真から構成されている場合に、その写真をシーンごとに分類する。写真特徴取得部32は、写真の付加情報および画像の顔認識結果に基づき、写真の分類または処理対象の1枚の写真について、写真の特徴を特定する。楽曲特徴決定部34の嗜好設定部45はユーザの嗜好に合った楽曲の属性を設定する。テンポ決定部46は、撮影された時間帯、写真に写っている人数範囲、笑顔の度合い、行動などから楽曲のテンポを決定する。曲調決定部48は、撮影時の行事、時間帯、季節、撮影された町、国などから、題名を限定する情報、特徴値、ジャンルなどを決定する。決定した楽曲の特徴によって楽曲データ出力部20が合致する楽曲を抽出して提示する。

Description

楽曲推薦システム、情報処理装置、および情報処理方法
 本発明は情報処理技術に関し、特にユーザに楽曲を推薦するシステム、情報処理装置、およびそこで実行される情報処理方法に関する。
 近年、デジタルカメラなど撮影機器の普及、画像処理技術の進歩などにより、パーソナルコンピュータや再生装置を用いて、ユーザが撮影した写真などの画像を自宅や会合などで鑑賞する機会が増えている。このとき、画像ばかりでなくBGM(Back Ground Music)を同時に再生することにより、音声データのない写真などの画像でも魅力的な演出を実現できる。このような態様の一つとして、複数の写真を所定時間間隔で切り替えて表示するスライドショー形式での再生時、ユーザが選択した楽曲の再生時間を写真の再生時間に合わせて調節し、BGMとして再生する技術が提案されている(例えば特許文献1参照)。
 このように画像とは独立に作成された楽曲をBGMとする場合、できるだけ写真の雰囲気に合った選曲をすることで、撮影時のシーンや感情を効果的に鑑賞者に伝えることができる。写真と楽曲とを関連付ける技術として、写真の撮影年月日と楽曲のリリース年代をマッチングさせる技術が提案されている(例えば特許文献2参照)。
特開2009-55620号公報 特開2008-275936号公報
 しかしながら上記のような年代による関連づけは、過ぎた年代を懐かしむ、といった限定的な状況では効果を発揮するが、写真に記録された個々のシーンに合致した楽曲が選択されているとはいえない。写真のシーンごとに、それに合った楽曲を、自分の記憶を頼りに選択することは、ユーザにとって手間のかかる作業であるばかりか、音楽に対する幅広い知識が必要になってくる。
 本発明はこのような課題に鑑みてなされたものであり、その目的は、コンテンツの雰囲気に合致した楽曲を推薦することのできる情報処理技術を提供することにある。
 本発明のある態様は情報理装置に関する。この情報処理装置は、処理対象のコンテンツの付加情報に基づき当該コンテンツの特徴を取得するコンテンツ特徴取得部と、コンテンツの特徴に基づき、あらかじめ準備した、コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定する楽曲特徴決定部と、楽曲の特徴を有する楽曲をデータベースから検出し、コンテンツに合う推薦楽曲としてその情報を提示する楽曲データ出力部と、を備え、コンテンツ特徴取得部は、コンテンツの特徴として、記録位置の情報から記録場所を取得し、楽曲特徴決定部は、前記記録場所から楽曲の特徴を決定することを特徴とする。
 ここで「コンテンツ」とは、写真、動画、コンピュータグラフィックス、手描きの絵を電子化したデータなどの画像データ、メモや詩などのテキストデータ、ボイスレコーダや録音機器で録音された音声データなど、電子機器、情報機器を用いて記録され、再生が可能なデータであればそのいずれでもよく、またいずれかを組み合わせたものでもよい。
 本発明の別の態様は楽曲推薦システムに関する。この楽曲推薦システムは、情報処理装置においてネットワークを介してサーバから推薦楽曲に係る情報を取得する楽曲推薦システムであって、情報処理装置は、処理対象のコンテンツの付加情報に基づき当該コンテンツの特徴を取得するコンテンツ特徴取得部と、コンテンツの特徴に基づき、あらかじめ準備した、コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定する楽曲特徴決定部と、楽曲の特徴をサーバに送信してコンテンツに合う楽曲の推薦を依頼するとともに、サーバから推薦楽曲に係る情報を取得して提示する楽曲データ出力部と、を備え、サーバは、情報処理装置から送信された、楽曲の特徴を有する楽曲をデータベースから検出し、推薦楽曲としてその情報を情報処理装置に送信する楽曲データ送信部を備え、コンテンツ特徴取得部は、コンテンツの特徴として、記録位置の情報から記録場所を取得し、楽曲特徴決定部は、記録場所から楽曲の特徴を決定することを特徴とする。
 本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は、処理対象のコンテンツの付加情報をメモリより読み出し、当該付加情報に基づき当該コンテンツの特徴を取得するステップと、コンテンツの特徴に基づき、あらかじめ準備した、コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定するステップと、楽曲の特徴を有する楽曲をデータベースから検出し、コンテンツに合う推薦楽曲としてその情報を提示するステップと、を含み、コンテンツの特徴を取得するステップは、コンテンツの特徴として、記録位置の情報から記録場所を取得し、楽曲の特徴を決定するステップは、記録場所から楽曲の特徴を決定することを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、コンテンツの雰囲気に合致した楽曲の情報を容易に得ることができる。
本実施の形態の楽曲推薦システムの構成を示す図である。 本実施の形態における楽曲特徴情報決定部の構成を詳細に示す図である。 本実施の形態において用いる写真データと楽曲データの構成を示す図である。 本実施の形態において複数の写真からなる写真データを処理対象としたときの分類処理の概念図である。 本実施の形態において複数の写真を分類する手順を示すフローチャートである。 本実施の形態におけるテンポ決定部が関連するデータの流れを示す図である。 本実施の形態における曲調決定部が関連するデータの流れを示す図である。 本実施の形態において写真に対応する楽曲を推薦する処理手順を示すフローチャートである。
 図1は本実施の形態の楽曲推薦システムの構成を示す。楽曲推薦システム10は、ユーザが操作する情報処理装置12と、当該情報処理装置12とネットワーク13を介して接続した楽曲データサーバ14を含む。情報処理装置12はユーザが操作するパーソナルコンピュータ、録画再生装置、携帯電話などの情報機器である。情報処理装置12は、ユーザからの指示入力を受け付ける指示入力受付部16、写真の特徴から推薦する楽曲の特徴を決定する楽曲特徴情報決定部18、決定した特徴を有する楽曲の情報を出力する楽曲データ出力部20、および楽曲の特徴と個々の楽曲を対応づけた楽曲データ記憶部22を含む。
 指示入力受付部16はユーザによる、撮影した写真データのファイル名など必要な情報の入力とともに楽曲の推薦指示を受け付ける入力装置である。指示入力受付部16はキーボード、ボタン、タッチパネル、マウスなど一般的な入力装置でよい。楽曲特徴情報決定部18は、ユーザが指定した写真を解析し、写真の特徴を抽出したうえ、当該特徴に合致した楽曲の特徴を導出する。指定された写真が、旅行や結婚式など長時間にわたり撮影された写真群を構成している場合は、そのシーンごとに楽曲の特徴を決定する。
 楽曲特徴情報決定部18は写真の特徴を抽出するうえで、写真の付加情報および写真の画像そのものから情報を抽出する。現在では様々な種類の情報が写真の撮影と同時に記録されるのが一般的であるが、本実施の形態ではそのうち特に、撮影日時と撮影位置を写真の付加情報に含める。まず撮影日時から、クリスマスや正月など特別な日であるか、季節、1日のうちの時間帯などの時間的情報を写真の特徴として導出する。また撮影位置、すなわち緯度、経度などの位置座標の情報から、撮影された町や国など位置的情報を写真の特徴として導出する。さらに撮影位置は、前者の時間的情報の補正にも用いる。
 すなわち時差のある地域を訪問した際、カメラなど撮影機器の設定時刻まで現地時間に合わせずとも適した楽曲を正確に推薦するため、設定時刻で記録された撮影日時を、撮影位置の情報に基づき現地時間に補正する。また同じクリスマスの旅行であっても北半球か南半球かで季節が逆になる。そのためクリスマスの写真であっても雪が降るようなしっとりした曲が合うとは限らない。また同じ日付でも場所によって季節感が全く異なる。このように、地域によって似合う音楽や季節感が異なることを考慮し、本実施の形態では、撮影日時、撮影位置を総合的に判断して写真の特徴を正確に特定し、それに合致する楽曲を推薦する。
 楽曲特徴情報決定部18は、ネットワークを介して接続したサーバ(図示せず)を検索し、撮影位置や撮影日時に対応する所定の情報を取得してもよい。例えば撮影したときの天気、気温、太陽や月の出入り時刻、星座、スギ花粉の量、黄砂の量、位置情報に基づき周辺写真を提供するサーバが提供する周辺写真、その提供枚数、などを取得してもよい。
 さらに楽曲特徴情報決定部18は、写真の画像に対し顔認識処理を施し、人が写っているか、何人写っているか、笑顔がどの程度あるか、を写真の特徴として取得する。さらに人種、性別、年齢など、人の属性を取得してもよく、それらを組み合わせてもよい。これらの特徴は、画像処理技術におけるパターンマッチングや特徴点の相対位置などに基づく一般的な顔、表情の認識技術によって取得できる。そしてこれらの特徴からも楽曲のテンポなどの特徴を決定する。顔認識処理以外にも、一般的な画像解析を行い、輝度分布、色分布、周波数特性の少なくともいずれかを取得し、明るさや色調などから楽曲の特徴を決定してもよい。
 楽曲データ出力部20は、楽曲特徴情報決定部18が導出した特徴を有する楽曲を楽曲データ記憶部22から抽出し、当該楽曲に係る情報を出力する。このとき、楽曲の題名、歌詞やアーティストなどの書誌情報を文字情報として表示するのみでもよいし、それに加えて実際に楽曲を再生してもよい。あるいはシーンごとの推薦楽曲のオーディオデータをシーンの時系列順に並べた1つの音楽ファイルを生成するなどでもよい。このため楽曲データ記憶部22は、楽曲の特徴と楽曲の書誌情報とを対応づけたデータ、楽曲の特徴とオーディオデータを対応づけたデータ、または楽曲の特徴、書誌情報をメタデータとして付加したオーディオデータなどの形式で楽曲のデータを記憶する。
 ここで「楽曲の特徴」は、題名、歌詞、アーティスト、ジャンル、リリース年などの書誌情報の他、楽器音、声の性別、ムード、音質、音圧、テンポ、音の良さ、楽曲構造など、楽曲を特徴付けることのできるパラメータであればそのいずれでもよくその組み合わせでもよい。またこれらのパラメータの組み合わせによって楽曲の類似性を評価し、細かく分類したときの分類識別番号などでもよい。楽曲特徴情報決定部18は、楽曲データ記憶部22で楽曲に紐づけられている楽曲の特徴に従う形式で楽曲の特徴を導出する。後に述べる具体例では、書誌情報のほか、「さわやか」、「のんびり」など曲の雰囲気が楽曲の特徴値として各楽曲のオーディオデータに紐づけられているとする。
 楽曲データサーバ14は、情報処理装置12から推薦して欲しい楽曲の特徴を受信する楽曲特徴受信部24、当該特徴を有する楽曲の情報を情報処理装置12に送信する楽曲データ送信部26、および楽曲の特徴と個々の楽曲を対応づけた楽曲データ記憶部28を含む。楽曲データサーバ14の楽曲データ送信部26と楽曲データ記憶部28は、情報処理装置12の楽曲データ出力部20および楽曲データ記憶部22と同じ機能を有する。
 ただし楽曲データサーバ14の楽曲データ記憶部28が保持する情報量は、情報処理装置12の楽曲データ記憶部22の情報量より大きくすることができる。ユーザは、情報処理装置12に記憶させた楽曲の中から推薦楽曲を得たいのか、楽曲データサーバ14から未知の、あるいはまだデータを保有していない楽曲も含めて推薦曲を得たいのかを指示入力受付部16に対する指示に含める。それに応じて情報処理装置12の楽曲データ出力部20は、楽曲特徴情報決定部18が導出した特徴によって自らが推薦楽曲を抽出するか、楽曲データサーバ14に特徴を送信して楽曲の抽出を依頼するかを決定する。
 また、楽曲特徴情報決定部18が導出する特徴の分類を、メタデータとして楽曲のデータに付加され一般に流通している特徴とは異なる、楽曲データサーバ14独自の特徴の分類とする場合は、楽曲データ出力部20は常に、楽曲データサーバ14に楽曲の抽出を依頼するようにしてもよい。楽曲の抽出を依頼された楽曲データサーバ14は例えば、推薦楽曲の抽出後、まず題名などの書誌情報のみを情報処理装置12に送信し、ユーザがダウンロードを希望した場合にのみ該当する楽曲のオーディオデータを情報処理装置12に送信する。
 これによりオーディオデータの送信には適切な課金処理がなされる。楽曲データサーバ14の、楽曲の特徴を検索キーとした楽曲検索処理や、その後の情報送信処理は、実用化されている音楽検索エンジンと同様である。また情報処理装置12の楽曲データ出力部20における検索処理もそれに準じる。したがって以後、楽曲特徴情報決定部18の動作に主眼を置いて本実施の形態を説明する。なおこの説明は、写真に対して楽曲を推薦する態様であるが、同様の付加情報が得られるデータであれば、動画を構成するフレームなどでも同様に扱うことができる。
 図2は楽曲特徴情報決定部18の構成を詳細に示している。楽曲特徴情報決定部18は、処理対象の写真が複数枚の場合に写真をシーンごとに分類する写真分類部30、分類ごとまたは1枚の写真について写真の特徴を取得する写真特徴取得部32、写真の特徴から推薦すべき楽曲の特徴を決定する楽曲特徴決定部34を含む。
 楽曲特徴情報決定部18はさらに、付加情報とともに写真の画像データを記憶する写真データ記憶部38、写真の付加情報や画像の内容と写真の特徴を対応づけた写真特徴取得テーブルを記憶する写真特徴取得テーブル記憶部40、ユーザの個人的な情報を記憶するユーザ情報記憶部42、および写真の特徴と推薦すべき楽曲の特徴を対応づけた楽曲特徴取得テーブルを記憶する楽曲特徴取得テーブル記憶部44を含む。写真データ記憶部38とユーザ情報記憶部42に格納される情報は、ユーザによって生成される。写真特徴取得テーブル記憶部40および楽曲特徴取得テーブル記憶部44に格納される各テーブルは、装置製造時にあらかじめ設定しておく。または必要に応じてユーザが修正できるようにしてもよい。
 写真分類部30は、ユーザが指定した写真のデータが複数の写真から構成されている場合に、その写真を分類する。複数の写真を処理対象とする場合、ユーザがスライドショー形式で写真を表示するときのBGM選択を目的としていると考えられる。この場合、写真の1枚1枚に対して楽曲を推薦したり、シーンの異なる複数の写真全体に1曲の楽曲を推薦してもよいし、同じシーンごとに楽曲を推薦してもよい。そのため撮影時刻や撮影位置によって写真を分類し、それぞれを1つのシーンとして楽曲を推薦する。処理対象が1枚の写真の場合は写真分類部30は動作しなくてよい。
 写真特徴取得部32は、写真の付加情報および画像の特徴や顔認識結果に基づき、写真の分類または処理対象の1枚の写真について、写真の特徴を特定する。そのため写真特徴取得テーブル記憶部40には、写真の付加情報および顔認識結果から直接得られる情報を、写真の特徴としてあらかじめ準備した項目に変換するための写真特徴取得テーブルを記憶させておく。また写真の特徴を特定する際は、ユーザ情報記憶部42に記憶させた個人の情報も用いる。具体例は後に述べる。
 楽曲特徴決定部34は、ユーザの嗜好に合った楽曲の属性を設定する嗜好設定部45、写真の特徴に合ったテンポを決定するテンポ決定部46、写真の特徴に合った曲調を抽出する曲調決定部48を含む。ここでユーザの嗜好に合った楽曲の属性とは、例えば楽曲のジャンル、年代、アーティストなどであり、ユーザが初めて本機能を利用したときに入力しておいたものをユーザ情報記憶部42に記憶させておく。またはユーザが指示入力受付部16に楽曲推薦の指示をする都度、写真に合わせて指定するようにしてもよい。
 テンポ決定部46は、撮影された時間帯、写真に写っている人数範囲、笑顔の度合い、行動、人の属性、天気や気温、太陽や月の出入り時刻などから楽曲のテンポを決定する。曲調決定部48は、撮影時の行事、時間帯、季節、撮影された町、国、天気や気温、太陽や月の出入り時刻などの少なくともいずれかから、題名を限定する情報、特徴値、ジャンルなどを決定する。そのため楽曲特徴取得テーブル記憶部44には、テンポ決定部46や曲調決定部48が、写真の特徴を、楽曲の特徴としてあらかじめ準備したテンポの範囲や曲調を定める項目に変換するための楽曲特徴取得テーブルを記憶させておく。具体例は後に述べる。
 図3は本実施の形態において用いる写真データと楽曲データの構成を示している。写真データ50は撮影日時53および撮影位置54の付加情報を伴う写真画像データ56で構成される。このような付加情報は一般的な撮影装置においても自動的に付加されることが多い。本実施の形態ではこの撮影日時53、撮影位置54、写真画像データ56を用いて写真の特徴を特定する。一方、楽曲データ52は書誌情報58、特徴値60の付加情報を伴う楽曲オーディオデータ62で構成される。
 本実施の形態では同図矢印に示すように、写真データ50を、写真の特徴を媒介としてそれに合致する楽曲データ52の書誌情報58および特徴値60に変換し、それに基づき楽曲を抽出する。なお特徴値60などは前述のとおり、楽曲オーディオデータ62に直接付加されていなくてもよく、特徴値60を元に楽曲データ52を検索できるデータベースが情報処理装置12の楽曲データ記憶部22または楽曲データサーバ14の楽曲データ記憶部28に構築されていればよい。
 また写真データ50と同時に記録した人の行動を表すデータを付加情報として利用してもよい。人の行動を表すデータ、すなわち行動情報とは例えば、建物や施設などに滞在している時間と移動している時間を時間軸に対して記録したデータなどである。このデータは、GPS(Grobal Positioning System)や通信基地局の情報などを利用して所定間隔でユーザの位置を記録した位置履歴を解析することによって得られる。具体的には、位置履歴の時間ごとの変位から速度の履歴を生成し、所定の速度しきい値を下回る速度が所定時間継続した期間があればその期間を滞在期間として抽出する。そして滞在期間の間を移動期間とする。またはユーザが人手によって記録した情報などでもよい。
 図4はユーザが複数の写真からなる写真データを処理対象として指定したときに写真分類部30が行う分類処理の概念図を示している。同図において横方向は撮影時刻の時間軸である。この時間軸に対し撮影時刻順に写真70が並んでいる。写真分類部30はこのような写真の並びに対し、矢印で示すような区切りを設けることにより、同じシーンと思われる写真同士をグルーピングすることで写真全体を分類する。
 この区切りは上述の滞在期間、移動期間のように、写真データとは別に付加された情報を利用してもよい。一方、そのような情報がない場合は次のように分類する。図5は写真分類部30が複数の写真を分類する手順を示すフローチャートである。まず元の写真群のうち、撮影時刻の間隔が所定のしきい値より短い写真をグルーピングして分類Aを作成する(S2)。この分類Aは連写などでほぼ同じ構図を写した最も小さい単位の分類であるため、このときのしきい値はそのようなスケールとする。
 次に分類Aを撮影時刻、または撮影位置ごとに順番に並べたうえで、k個の分類Aを等間隔で選び出し、k-means法によってクラスタリングすることで分類Bを作成する(S4)。そして撮影位置の座標の重心が所定のしきい値より近い分類Bをまとめて分類Cを作成する(S6)。このようにして作成した分類Cの各分類は、およそ同じ場所で撮影した写真群と考えられるため、分類Cを最終的な分類とし、楽曲の推薦をこの単位で実施する。
 上記は撮影時刻および撮影位置の双方を考慮して近い写真を同じ分類とする手法であるが、単に撮影時刻の差が所定のしきい値以下にある写真や、撮影位置が所定の範囲内にある写真を同じ分類としてまとめるようにしてもよい。このように分類ごとに楽曲を推薦する場合、以後の説明における各種パラメータの値は各分類における重心値の意味である。なお複数の分類Cが時間的に連続している場合、それらの分類に属する写真の枚数が所定のしきい値より少なければ、それらをまとめて1つの分類として楽曲推薦のための処理を行ってもよい。なおこれらの写真分類は、ユーザが後から編集可能としてもよい。
 次に写真特徴取得部32および楽曲特徴決定部34が処理するデータの流れを説明する。図6はテンポ決定部46が関連するデータの流れを示している。同図において破線80は写真特徴取得部32が参照する写真特徴取得テーブルに記述された対応関係を示しており、実線82はテンポ決定部46が参照する楽曲特徴取得テーブルに記述された対応関係を示している。上段の撮影日時84、撮影位置85、画像86、行動情報88は写真データであり、中段は写真の特徴としてあらかじめ用意された、時間帯リスト90、人数範囲リスト92、笑顔度リスト94、行動カテゴリリスト96である。
 まず写真特徴取得部32は写真データの付加情報である撮影日時84および撮影位置85に基づき時間帯リスト90から該当する時間帯を取得する。ここで撮影位置85を参照するのは、上述のように時差のある地域へ訪問した際、撮影機器の設定時刻を現地時間に修正していない場合の時刻補正を想定している。時差のない国への訪問や、設定時刻を修正した場合は撮影日時84のみから時間帯を取得してよい。時間帯リスト90として早朝/朝/昼/夕方/夜/深夜などを準備する。
 また各写真の画像86に一般的な顔認識処理を施し、人が写っている写真の有無、および画像のうち顔が占める割合を導出したうえ、人数範囲リスト92から該当する人数範囲を取得する。人数範囲リスト92として1人/2~n人/n人より多いなどを準備する。ここでnは家族の人数などユーザが登録した値でよく、ユーザ情報記憶部42に記憶させておくことで写真特徴取得部32が適宜参照する。あるいは年齢構成のパターンをリストとして準備し、顔認識処理によって特定した人物の年齢構成に合致するパターンを選択してもよい。
 同様に、一般的な表情認識処理によって個々の顔の笑顔の度合いを導出したうえ、それを適宜平均するなどして、笑顔度リスト94から該当する笑顔度の範囲を取得する。笑顔度リスト94として、1.0を最大の笑顔としたときに0~0.3/0.3~0.7/0.7~1.0などを準備する。なお笑顔度の数値以外に、笑顔/無表情/泣き顔など表情のカテゴリ、または人種、性別、年齢など属性のカテゴリでもよい。
 さらに、上述の行動情報88が付加情報とされている場合は、写真が撮影された時刻の行動を行動カテゴリリスト96から選択する。行動カテゴリリスト96は行動情報88の形式に合わせ、例えば滞在/移動などを準備する。また、移動速度によって乗り物で移動しているか徒歩かを判別すれば、乗り物/徒歩などのカテゴリも準備できる。また、撮影位置から行動のカテゴリを選択できるようにしてもよい。例えば撮影位置から、公園、ゴルフ場、遊園地、学校、山など撮影場所の特徴を特定するようにし、各特徴に対応する行動、例えば散歩、ゴルフ、レジャー、学校行事参加、登山、などをカテゴリリストとして準備する。
 テンポ決定部46は楽曲特徴取得テーブルを参照し、このようにして取得した各特徴の組み合わせに対して設定されているテンポリスト98から該当するテンポを決定する。テンポリスト98として遅い/中間/速いなどを準備する。または具体的なテンポ値の範囲などでもよい。なお図6の各パラメータはあくまで例示であり、その一部のみから、またはそれ以外の特徴も考慮してテンポを決定してもよい。例えば、「夜」に「家族の数より多い人数」が写っている写真の場合、パーティの場面を想定し、テンポは「速い」と設定しておく。
 図7は曲調決定部48が関連するデータの流れを示している。同図において破線100は写真特徴取得部32が参照する写真特徴取得テーブルに記述された対応関係を示しており、実線102は曲調決定部48が参照する楽曲特徴取得テーブルに記述された対応関係を示している。上段の撮影日時84、撮影位置106は写真データであり、中段は写真の特徴としてあらかじめ用意された、行事リスト108、時間帯リスト90、季節リスト112、町名リスト114、国名リスト116である。下段は写真の特徴の各分類と対応づけられた楽曲の特徴値リスト120、122、ジャンルリスト124、および特徴値126である。
 まず写真特徴取得部32は、写真データの付加情報である撮影日時84および撮影位置106に基づき行事リスト108、時間帯リスト90、季節リスト112から該当する行事、時間帯、および季節を取得する。行事リスト108として、誕生日や結婚記念日など家族の記念日/クリスマス/ひな祭り/新年/春節/深夜などを準備する。家族の記念日はユーザが事前に登録したものをユーザ情報記憶部42に記憶させておき写真特徴取得部32が適宜参照する。その他の行事は上述のように国によって異なるため、写真特徴取得部32は撮影位置106の情報によって国を同定し、それによって行事リスト108の内容を切り替える。
 また時間帯リスト90は図6で説明したのと同様である。季節リスト112としては、春/夏/秋/冬/熱帯雨季/熱帯乾季/常夏などを準備する。季節の取得時も撮影日時84に加え撮影位置106を考慮することにより、地域による季節の違いを正確に反映させることができる。
 以上の写真の特徴取得において、まず該当する行事がある場合、曲調決定部48は題名フィルタ118を設定する。これは、該当する行事の名前を題名に含む楽曲を抽出するフィルタである。すなわち「クリスマス」や「正月」が題名に入っている楽曲が推薦されるようにする。題名に代わり歌詞などでもよい。このフィルタの設定情報も楽曲の特徴に含ませる。曲調決定部48はさらに、時間帯リスト90および季節リスト112における時間帯および季節の組み合わせに対して設定した特徴値リスト120から該当する特徴値を取得する。特徴値リスト120としては、さわやか/楽しい/しっとり/のんびり/元気などを準備する。
 なお上述のとおり特徴値リスト120に設定する特徴値は、その後に具体的な推薦楽曲を決定するためのデータベースである、情報処理装置12の楽曲データ記憶部22または楽曲データサーバ14の楽曲データ記憶部22の検索システムの形式に応じて決定する。すなわち図7の特徴値リスト120に挙げた、楽曲の雰囲気を表す言葉のリストである必要はなく、器楽曲かボーカルが入っているか、男声が女声かなど大まかなリストでもよいし、楽曲を多角的に評価した結果得られた詳細な分類に割り振られた識別番号のリストなどでもよい。
  写真特徴取得部32はさらに、写真データの付加情報である撮影位置106に基づき場所リスト113、町名リスト114および国名リスト116から該当する場所、町名あるいは国名を取得する。場所リスト113として準備する場所は、富士山などランドマークや場所の固有名詞でもよいし公園、ゴルフ場など場所や施設の種類名でもよい。町名リスト114として準備する町名は、ニューヨーク/博多/マドリード/イスタンブールなど規模や位置などを特に限定することなく世界中の町を設定可能とするが、音楽的に特徴のある町を登録しておくことが望ましい。国名リスト116には少なくとも一般的に訪問することが多い国を登録しておくことが望ましい。
 曲調決定部48は、撮影位置に該当する場所が登録されていた場合、題名フィルタ118から当該場所が題名に含まれる楽曲を取得する。さらに特徴値リスト122およびジャンルリスト124から、当該場所に対して設定された特徴値およびジャンルを取得する。また、撮影位置に該当する町が登録されていた場合、特徴値リスト122およびジャンルリスト124から当該町名に対して設定された特徴値およびジャンルを取得する。特徴値リスト122およびジャンルリスト124の設定に当たっては、例えばその町を発祥とするジャンルの曲など代表的な曲をまず準備し、それと同じジャンルおよび特徴値を設定値に利用するようにしてもよい。また、各場所から連想されるジャンルおよび特徴値を設定してもよい。特徴値リスト122は特徴値リスト120と同様のリストを準備する。ジャンルリスト124としては、各場所や町に合わせてクラシック/ジャズ/ロック/ラテンなどを準備する。
 また曲調決定部48は、撮影位置に該当する国の国歌の雰囲気を特徴値126として設定する。実際には国歌の雰囲気を表す具体的な特徴値を保持するテーブルを別に準備しておき、写真の特徴として国が同定されたとき、当該テーブルを参照して「さわやか」など具体的な特徴値に落とし込んでもよい。また国歌の代わりにその国の代表的な曲でもよい。なお図7の各パラメータもあくまで例示であり、写真の特徴、楽曲の特徴ともに、その一部を採用してもよいし、その他のパラメータを導入してもよい。
 次にこれまで述べた構成によって実現される楽曲推薦システム10の動作を説明する。図8は写真に対応する楽曲を推薦する処理手順を示すフローチャートである。まずユーザが情報処理装置12に対し写真データの指定などを行うことにより楽曲推薦の指示を入力すると(S10)、当該写真が複数枚であれば写真分類部30が写真を分類し、シーンごとに楽曲推薦を行うようにする(S12)。次に写真特徴取得部32は、撮影時刻、撮影位置など写真の付加情報や画像に対する顔認識処理結果などに基づき写真特徴取得部テーブルを参照し、写真、または写真の分類ごとに写真の特徴を抽出する(S14)。
 次に楽曲特徴決定部34の嗜好設定部45は、推薦指示時のユーザによる指定またはユーザ情報記憶部42に記憶された情報に基づき、ジャンルやアーティストなど楽曲に対するユーザの嗜好を設定する(S16)。次にテンポ決定部S18は撮影された時間帯、写真に写っている人数、笑顔の度合い、写真とともに記録された行動といった、写真の特徴に基づき楽曲特徴取得テーブルを参照し、楽曲のテンポを決定する(S18)。
 次に、写真特徴取得部32が撮影日時に該当する行事が登録されていることを検出したら(S20のY)、楽曲特徴決定部34は題名フィルタに当該行事の名前を設定するなどして題名を用いた選択候補の絞り込みを行えるようにする(S22)。該当する行事がなく(S20のN)、撮影位置に該当する場所が登録されていれば(S23のY)、題名フィルタに当該場所の名前を設定するなどして題名を用いた選択候補の絞り込みを行えるようにしたうえ、楽曲特徴取得テーブルに当該場所に対して設定されている特徴値やジャンルを取得する(S24、S25)。
 撮影位置に該当する場所が登録されておらず(S23のN)、撮影位置に該当する町名が登録されていれば(S26のY)、楽曲特徴取得テーブルに当該町に対して設定されている特徴値やジャンルを取得する(S27)。該当する町名が登録されていなければ(S26のN)、撮影位置に該当する国に対して楽曲特徴取得テーブルに設定されている国歌などの特徴値を取得する(S28)。
 次に曲調決定部48は、撮影時刻の時間帯や季節に対し楽曲特徴取得テーブルに設定されている特徴値を取得する(S30)。楽曲特徴情報決定部18は、そのようにして取得したユーザの嗜好、ジャンル、特徴値を最終的な楽曲の特徴として楽曲データ出力部20に供給する(S32)。複数の写真の分類に対し処理を行う場合は、撮影時刻の時系列に対応する順序で楽曲の特徴を並べたうえで順に供給する。また特徴値として連続した値を有する特徴を採用した場合に、複数のシーンに対する特徴値を平滑化するなど、シーン間で楽曲の特徴を調整してもよい。
 また楽曲特徴情報決定部18は、取得したジャンルや特徴値が複数ある場合、優先順位をつけたり重心値や中心値を算出するなど、あらかじめ最終的な特徴の算出規則を準備しておく。この規則は、後段で情報処理装置12の楽曲データ出力部20または楽曲データサーバ14の楽曲データ送信部26が行う楽曲抽出の方式に依存する。
 情報処理装置12の楽曲データ出力部20または楽曲データサーバ14の楽曲データ送信部26は、楽曲特徴情報決定部18から取得した楽曲の特徴に係る情報に基づき該当する楽曲を抽出し、推薦楽曲としてユーザに提示する(S34)。楽曲データサーバ14が抽出処理を実施する場合は、その前後に情報処理装置12の楽曲データ出力部20と情報の送受信を行う。なおS34で用いる楽曲の特徴や、最終的に使用する楽曲は、ユーザが適宜修正できるようにしておく。
 以上のような手順により、例えば夏にスペインとフランスを旅行したときの写真のうち、スペインにおいて昼に乗り物で移動中の写真に対し、乗り物→テンポが速い、スペイン→スペイン国歌に似た曲、夏の昼→元気な曲、といった関連づけで楽曲の特徴を決定できる。一方、フランスのマルセイユで移動していない状態の夜の写真に対し、移動していない→中間のテンポ、マルセイユ→のんびりした曲、夏の夜→ノリの良い曲、といった関連づけで楽曲の特徴を決定できる。
 以上述べた本実施の形態によれば、ユーザが撮影した写真などの画像に対し、付加情報、顔認識処理や画像解析の結果、写真と同時に記録した行動情報などを用いて、雰囲気の合う楽曲を抽出する。付加情報として撮影時刻のほか撮影位置を考慮することにより、撮影した国や地域に応じた季節感、行事、音楽の歴史、雰囲気などを考慮した楽曲推薦が可能になる。また写っている人数、笑顔度、滞在中か移動中か、など細かい状況変化を推薦する楽曲に反映させることができる。
 さらに旅行など長い時間に撮影された写真群をシーンごとに分類してからそれぞれに合う楽曲を抽出することにより、より写真撮影時の状況に合致した楽曲を推薦することができる。本実施の形態は従来より記録されている情報を利用して実現できるため、容易かつ安価に導入することができる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 例えば本実施の形態では写真の雰囲気に合致した楽曲を推薦したが、処理対象は写真でなくてもよい。例えば録画したホームビデオなどの動画、携帯ゲーム機器などでゲームプレイ中に保存したスクリーンショットなどのコンピュータグラフィックス、手描きの絵を電子化したデータなど写真以外の画像データ、メモや詩などのテキストデータ、音声データなどでもその付加情報を用いて同様に処理できる。また付加情報は、それらのデータが記録されたときに同時に記録されるもののほか、ユーザが後から付与した情報を含めてよい。
 10 楽曲推薦システム、 12 情報処理装置、 14 楽曲データサーバ、 16 指示入力受付部、 18 楽曲特徴情報決定部、 20 楽曲データ出力部、 22 楽曲データ記憶部、 24 楽曲特徴受信部、 26 楽曲データ送信部、 28 楽曲データ記憶部、 30 写真分類部、 32 写真特徴取得部、 34 楽曲特徴決定部、 38 写真データ記憶部、 40 写真特徴取得テーブル記憶部、 42 ユーザ情報記憶部、 44 楽曲特徴取得テーブル記憶部、45 嗜好設定部、 46 テンポ決定部、 48 曲調決定部。
 以上のように本発明はコンピュータ、携帯電話、デジタルカメラ、ビデオカメラなどの情報処理装置に利用可能である。

Claims (15)

  1.  処理対象のコンテンツの付加情報に基づき当該コンテンツの特徴を取得するコンテンツ特徴取得部と、
     前記コンテンツの特徴に基づき、あらかじめ準備した、前記コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定する楽曲特徴決定部と、
     前記楽曲の特徴を有する楽曲をデータベースから検出し、前記コンテンツに合う推薦楽曲としてその情報を提示する楽曲データ出力部と、
     を備え、
     前記コンテンツ特徴取得部は、前記コンテンツの特徴として、当該コンテンツの記録位置の情報から記録場所を取得し、
     前記楽曲特徴決定部は、前記記録場所から楽曲の特徴を決定することを特徴とする情報処理装置。
  2.  処理対象の複数のコンテンツを、記録位置が所定の範囲内にあるコンテンツ同士まとめることにより分類する分類部をさらに備え、
     前記コンテンツ特徴取得部は、前記分類ごとに、各分類に属するコンテンツの特徴の重心値または中心値を取得し、
     前記楽曲特徴決定部は、前記重心値または中心値に基づき前記テーブルを参照して、前記分類ごとに推薦すべき楽曲の特徴を決定することを特徴とする請求項1に記載の情報処理装置。
  3.  前記コンテンツ特徴取得部は、コンテンツ記録者の行動の変化の情報に基づき前記コンテンツの記録時の行動のカテゴリを前記コンテンツの特徴として取得し、
     前記楽曲特徴決定部は、前記行動のカテゴリから前記楽曲の特徴を決定することを特徴とする請求項1または2に記載の情報処理装置。
  4.  前記コンテンツ特徴取得部は、前記コンテンツの特徴として、記録位置および記録日時から記録された季節を取得し、
     前記楽曲特徴決定部は、季節から前記楽曲の特徴を決定することを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5.  前記コンテンツ特徴取得部は、前記コンテンツの特徴として、記録位置および記録日時から記録された日の行事を取得し、
     前記楽曲特徴決定部は、前記行事の名前を題名、歌詞、書誌情報のいずれかに含むことを楽曲の特徴として決定することを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6.  前記楽曲特徴決定部は、前記記録場所が属する場所の名前、施設の種類、都市、地域、国の少なくともいずれかから前記楽曲の特徴を決定することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7.  前記コンテンツ特徴取得部はさらに、処理対象のコンテンツである画像に顔認識処理を施すことにより、画像内に存在する人の数、表情、人の属性情報、の少なくともいずれかを前記コンテンツの特徴として取得し、
     前記楽曲特徴決定部は、取得した前記人の数、表情、人の属性情報、の少なくともいずれかから前記楽曲の特徴を決定することを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8.  前記コンテンツ特徴取得部はさらに、処理対象のコンテンツである画像に画像解析処理を施すことにより、画像の輝度分布、色分布、周波数特性、の少なくともいずれかを前記コンテンツの特徴として取得し、
     前記楽曲特徴決定部は、取得した前記輝度分布、色分布、周波数特性の少なくともいずれかから前記楽曲の特徴を決定することを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9.  前記コンテンツ特徴取得部は、コンテンツの付加情報として取得した、所定間隔でコンテンツ記録者の位置を記録した位置履歴から移動速度を求めることにより移動手段を特定し、
     前記楽曲特徴決定部は、当該移動手段に応じて前記楽曲の特徴を決定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
  10.  前記分類部は、記録時刻の間隔が所定のしきい値より短いコンテンツをグループ分けし、各グループ単位で記録位置が所定の範囲内にあるコンテンツ同士をまとめることを特徴とする請求項2に記載の情報処理装置。
  11.  前記コンテンツ特徴取得部は、前記コンテンツの特徴として、コンテンツの記録位置および記録日時に対応する実際の気候の情報をネットワークを介して接続したサーバから取得し、
     前記楽曲特徴決定部は、当該気候から前記楽曲の特徴を決定することを特徴とする請求項1から10のいずれかに記載の情報処理装置。
  12.  情報処理装置においてネットワークを介してサーバから推薦楽曲に係る情報を取得する楽曲推薦システムであって、
     前記情報処理装置は、
     処理対象のコンテンツの付加情報に基づき当該コンテンツの特徴を取得するコンテンツ特徴取得部と、
     前記コンテンツの特徴に基づき、あらかじめ準備した、前記コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定する楽曲特徴決定部と、
     前記楽曲の特徴を前記サーバに送信して前記コンテンツに合う楽曲の推薦を依頼するとともに、前記サーバから推薦楽曲に係る情報を取得して提示する楽曲データ出力部と、を備え、
     前記サーバは、
     前記情報処理装置から送信された、前記楽曲の特徴を有する楽曲をデータベースから検出し、推薦楽曲としてその情報を前記情報処理装置に送信する楽曲データ送信部を備え、
     前記コンテンツ特徴取得部は、前記コンテンツの特徴として、当該コンテンツの記録位置の情報から記録場所を取得し、
     前記楽曲特徴決定部は、前記記録場所から楽曲の特徴を決定することを特徴とする楽曲推薦システム。
  13.  処理対象のコンテンツの付加情報をメモリより読み出し、当該付加情報に基づき当該コンテンツの特徴を取得するステップと、
     前記コンテンツの特徴に基づき、あらかじめ準備した、前記コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定するステップと、
     前記楽曲の特徴を有する楽曲をデータベースから検出し、前記コンテンツに合う推薦楽曲としてその情報を提示するステップと、
     を含み、
     前記コンテンツの特徴を取得するステップは、前記コンテンツの特徴として、記録位置の情報から記録場所を取得し、
     前記楽曲の特徴を決定するステップは、前記記録場所から楽曲の特徴を決定することを特徴とする情報処理方法。
  14.  処理対象のコンテンツの付加情報をメモリより読み出し、当該付加情報に基づき当該コンテンツの特徴を取得する機能と、
     前記コンテンツの特徴に基づき、あらかじめ準備した、前記コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定する機能と、
     前記楽曲の特徴を有する楽曲をデータベースから検出し、前記コンテンツに合う推薦楽曲としてその情報を提示する機能と、
     をコンピュータに実現させるコンピュータプログラムであって、
     前記コンテンツの特徴を取得する機能は、前記コンテンツの特徴として、記録位置の情報から記録場所を取得し、
     前記楽曲の特徴を決定する機能は、前記記録場所から楽曲の特徴を決定することを特徴とするコンピュータプログラム。
  15.  処理対象のコンテンツの付加情報をメモリより読み出し、当該付加情報に基づき当該コンテンツの特徴を取得する機能と、
     前記コンテンツの特徴に基づき、あらかじめ準備した、前記コンテンツの特徴と推薦すべき楽曲の特徴を対応づけたテーブルを参照して、楽曲の特徴を決定する機能と、
     前記楽曲の特徴を有する楽曲をデータベースから検出し、前記コンテンツに合う推薦楽曲としてその情報を提示する機能と、
     をコンピュータに実現させるコンピュータプログラムを記録したコンピュータにて読み取り可能な記録媒体であって、
     前記コンテンツの特徴を取得する機能は、前記コンテンツの特徴として、記録位置の情報から記録場所を取得し、
     前記楽曲の特徴を決定する機能は、前記記録場所から楽曲の特徴を決定することを特徴とするコンピュータプログラムを記録した記録媒体。
PCT/JP2010/005468 2009-12-04 2010-09-06 楽曲推薦システム、情報処理装置、および情報処理方法 WO2011067880A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10834336.9A EP2509004A4 (en) 2009-12-04 2010-09-06 MUSIC RECOMMENDATION SYSTEM, INFORMATION PROCESSING DEVICE AND METHOD
CN201080054534.2A CN102640149B (zh) 2009-12-04 2010-09-06 乐曲推荐系统、信息处理装置及信息处理方法
US13/513,418 US9047320B2 (en) 2009-12-04 2010-09-06 Music recommendation system, information processing device, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-275990 2009-12-04
JP2009275990A JP5520585B2 (ja) 2009-12-04 2009-12-04 情報処理装置

Publications (1)

Publication Number Publication Date
WO2011067880A1 true WO2011067880A1 (ja) 2011-06-09

Family

ID=44114743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005468 WO2011067880A1 (ja) 2009-12-04 2010-09-06 楽曲推薦システム、情報処理装置、および情報処理方法

Country Status (5)

Country Link
US (1) US9047320B2 (ja)
EP (1) EP2509004A4 (ja)
JP (1) JP5520585B2 (ja)
CN (1) CN102640149B (ja)
WO (1) WO2011067880A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407418A (zh) * 2016-09-23 2017-02-15 Tcl集团股份有限公司 一种基于人脸识别的个性化视频推荐方法及推荐系统
CN107807999A (zh) * 2017-11-07 2018-03-16 杭州盟山网络科技有限公司 基于摄像头的信息推送方法及装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140093974A (ko) * 2011-11-08 2014-07-29 비디노티 에스아 이미지 주석 방법 및 시스템
US20140330684A1 (en) * 2011-12-07 2014-11-06 Nikon Corporation Electronic device, information processing method and program
JP2014123351A (ja) * 2012-11-20 2014-07-03 Hirotaka Kasuga ネットワークを通じての披露宴用放送楽曲の選曲支援方法およびそのシステム
CN103226547B (zh) * 2013-04-28 2016-08-31 百度在线网络技术(北京)有限公司 为图片产生诗句的方法和装置
JP6127773B2 (ja) * 2013-06-25 2017-05-17 株式会社バッファロー 情報処理装置、情報処理装置における楽曲データ抽出方法、プログラム及び情報処理システム
CN103353890A (zh) * 2013-07-02 2013-10-16 江南大学 一种用户喜好自学习的图片推荐方法和装置
CN104199876B (zh) * 2014-08-20 2018-03-02 广州三星通信技术研究有限公司 关联乐曲与图片的方法和装置
CN104239449B (zh) * 2014-09-01 2018-11-20 百度在线网络技术(北京)有限公司 信息展现方法和装置
US20160188290A1 (en) * 2014-12-30 2016-06-30 Anhui Huami Information Technology Co., Ltd. Method, device and system for pushing audio
JP6309477B2 (ja) * 2015-03-24 2018-04-11 国立大学法人京都大学 ユーザ関心推定システムおよび情報配信システム
CN105005777B (zh) * 2015-07-30 2021-02-02 科大讯飞股份有限公司 一种基于人脸的音视频推荐方法及系统
JP6625365B2 (ja) * 2015-08-04 2019-12-25 株式会社ディーアンドエムホールディングス コンピュータで読み取り可能なプログラム、プレイリスト作成装置、およびワイヤレスオーディオシステム
CN107924545B (zh) * 2015-08-18 2021-10-08 索尼公司 信息处理系统和信息处理方法
CN105447150B (zh) 2015-11-26 2019-04-16 小米科技有限责任公司 基于面孔相册的音乐播放方法、装置和终端设备
CN106407424A (zh) * 2016-09-26 2017-02-15 维沃移动通信有限公司 一种推荐音乐的方法及移动终端
CN106503127B (zh) * 2016-10-19 2019-09-27 竹间智能科技(上海)有限公司 基于脸部动作识别的音乐数据处理方法及系统
CN112825544A (zh) * 2019-11-21 2021-05-21 北京小米移动软件有限公司 图片处理方法、装置及存储介质
CN111179984B (zh) * 2019-12-31 2022-02-08 Oppo广东移动通信有限公司 音频数据处理方法、装置及终端设备
CN111930235A (zh) * 2020-08-10 2020-11-13 南京爱奇艺智能科技有限公司 基于vr设备的展示方法、装置以及电子设备
CN112214636A (zh) * 2020-09-21 2021-01-12 华为技术有限公司 音频文件的推荐方法、装置、电子设备以及可读存储介质
CN112948623B (zh) * 2021-02-25 2022-08-16 杭州网易云音乐科技有限公司 音乐热度预测方法、装置、计算设备以及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092853A (ja) * 1999-07-16 2001-04-06 Fuji Xerox Co Ltd 情報登録装置
JP2001282813A (ja) * 2000-03-29 2001-10-12 Toshiba Corp マルチメディアデータ検索方法、インデックス情報提供方法、マルチメディアデータ検索装置、インデックスサーバ及びマルチメディアデータ検索サーバ
JP2005341511A (ja) * 2004-04-28 2005-12-08 Fuji Photo Film Co Ltd 電子アルバム表示システム、電子アルバム表示方法、リモートコントローラ、及びリモートコントロールプログラム
WO2006106825A1 (ja) * 2005-03-31 2006-10-12 Pioneer Corporation 曲検索装置、曲検索方法及び曲検索用プログラム並びに情報記録媒体
JP2006350592A (ja) * 2005-06-15 2006-12-28 Hitachi Eng Co Ltd 音楽情報提供装置
JP2007079867A (ja) * 2005-09-13 2007-03-29 Fujifilm Corp 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
JP2007206921A (ja) * 2006-02-01 2007-08-16 Seiko Epson Corp 写真画像の画像処理技術
JP2008275936A (ja) 2007-04-27 2008-11-13 Daiichikosho Co Ltd 画像対応楽曲推薦提示システム
JP2009055620A (ja) 2008-09-29 2009-03-12 Sony Corp 情報処理装置および方法、並びにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611649B2 (ja) * 2004-02-27 2011-01-12 大日本印刷株式会社 Web解析型音楽装置
US7440682B2 (en) 2004-04-28 2008-10-21 Fujifilm Corporation Electronic-album displaying system, electronic-album displaying method, remote controller, machine readable medium storing remote control program, schedule generating device, and machine readable medium storing schedule generating program
JP2009266005A (ja) * 2008-04-25 2009-11-12 Clarion Co Ltd 画像検索方法、画像検索プログラム、楽曲再生装置、および楽曲検索用物品

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092853A (ja) * 1999-07-16 2001-04-06 Fuji Xerox Co Ltd 情報登録装置
JP2001282813A (ja) * 2000-03-29 2001-10-12 Toshiba Corp マルチメディアデータ検索方法、インデックス情報提供方法、マルチメディアデータ検索装置、インデックスサーバ及びマルチメディアデータ検索サーバ
JP2005341511A (ja) * 2004-04-28 2005-12-08 Fuji Photo Film Co Ltd 電子アルバム表示システム、電子アルバム表示方法、リモートコントローラ、及びリモートコントロールプログラム
WO2006106825A1 (ja) * 2005-03-31 2006-10-12 Pioneer Corporation 曲検索装置、曲検索方法及び曲検索用プログラム並びに情報記録媒体
JP2006350592A (ja) * 2005-06-15 2006-12-28 Hitachi Eng Co Ltd 音楽情報提供装置
JP2007079867A (ja) * 2005-09-13 2007-03-29 Fujifilm Corp 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
JP2007206921A (ja) * 2006-02-01 2007-08-16 Seiko Epson Corp 写真画像の画像処理技術
JP2008275936A (ja) 2007-04-27 2008-11-13 Daiichikosho Co Ltd 画像対応楽曲推薦提示システム
JP2009055620A (ja) 2008-09-29 2009-03-12 Sony Corp 情報処理装置および方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2509004A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407418A (zh) * 2016-09-23 2017-02-15 Tcl集团股份有限公司 一种基于人脸识别的个性化视频推荐方法及推荐系统
CN107807999A (zh) * 2017-11-07 2018-03-16 杭州盟山网络科技有限公司 基于摄像头的信息推送方法及装置

Also Published As

Publication number Publication date
JP2011118710A (ja) 2011-06-16
CN102640149A (zh) 2012-08-15
EP2509004A1 (en) 2012-10-10
EP2509004A4 (en) 2013-10-09
JP5520585B2 (ja) 2014-06-11
US20120237090A1 (en) 2012-09-20
US9047320B2 (en) 2015-06-02
CN102640149B (zh) 2015-09-02

Similar Documents

Publication Publication Date Title
JP5520585B2 (ja) 情報処理装置
US11328013B2 (en) Generating theme-based videos
US9558397B2 (en) Method and apparatus for automated analysis and identification of a person in image and video content
Arase et al. Mining people's trips from large scale geo-tagged photos
EP1855473B1 (en) Contents reproducing device, and contents reproducing method
CN110249387A (zh) 用于创建伴随视觉影像的音频轨的方法
WO2013005266A1 (ja) プレゼンテーションコンテンツ生成装置、プレゼンテーションコンテンツ生成方法、プレゼンテーションコンテンツ生成プログラム、及び集積回路
US8145034B2 (en) Contents replay apparatus and contents replay method
JP2022191336A (ja) 記憶の協調的回想の適応提示のためのキュー・データ・モデルの実装
JP5779938B2 (ja) プレイリスト作成装置、プレイリスト作成方法及びプレイリスト作成プログラム
US9286340B2 (en) Systems and methods for collecting information from digital media files
US11410706B2 (en) Content pushing method for display device, pushing device and display device
WO2020158536A1 (ja) 情報処理システム、情報処理方法および情報処理装置
JP6063697B2 (ja) 画像表示のための装置、方法及びプログラム
JP2018186418A (ja) 画像処理装置、画像処理方法及びプログラム
JP5078723B2 (ja) 画像群再生装置、画像群再生方法、および画像群再生用プログラム
JP2021132328A (ja) 情報処理方法、情報処理装置及びコンピュータプログラム
Omojokun et al. Impact of user context on song selection
JP2023132549A (ja) 場所情報管理装置、コンテンツ配信システム、及び、場所情報管理方法
CN102325135A (zh) 一种网络伴唱系统以及网络伴唱的背景影像提供系统及方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080054534.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10834336

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13513418

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010834336

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010834336

Country of ref document: EP