JP7206288B2 - 音楽推薦方法、装置、コンピューティング機器及び媒体 - Google Patents
音楽推薦方法、装置、コンピューティング機器及び媒体 Download PDFInfo
- Publication number
- JP7206288B2 JP7206288B2 JP2020549554A JP2020549554A JP7206288B2 JP 7206288 B2 JP7206288 B2 JP 7206288B2 JP 2020549554 A JP2020549554 A JP 2020549554A JP 2020549554 A JP2020549554 A JP 2020549554A JP 7206288 B2 JP7206288 B2 JP 7206288B2
- Authority
- JP
- Japan
- Prior art keywords
- music
- user
- matching
- listening
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/11—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
- G06F16/24578—Query processing with adaptation to user needs using ranking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/441—Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Library & Information Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Description
音楽入れ対象の素材を取得するステップと、
素材の少なくとも1個の視覚セマンティクスラベルを決定し、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられるステップと、
候補音楽ライブラリから、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、
素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするステップと、
ソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦するステップと、を含む。
音楽入れ対象の素材をサーバ機器に送信し、サーバ機器をトリガーして、素材の少なくとも1個の視覚セマンティクスラベルを決定するステップと、候補音楽ライブラリから、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするステップと、ソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦するステップと、を実行させるステップと、
サーバ機器からフィードバックされた予備オプション音楽を受信するステップと、を含み、
ここで、ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得される。
前記取得ユニットは音楽入れ対象の素材を取得するように構成され、
前記第1決定ユニットは素材の少なくとも1個の視覚セマンティクスラベルを決定するように構成され、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述するように構成され、
前記検索ユニットは候補音楽ライブラリから、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するように構成され、
前記ソートユニットは素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするように構成され、
前記推薦ユニットはソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦するように構成される。
前記送信ユニットは、音楽入れ対象の素材をサーバ機器に送信し、サーバ機器をトリガーして、素材の少なくとも1個の視覚セマンティクスラベルを決定するステップと、候補音楽ライブラリから、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするステップと、ソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦するステップと、を実行させるように構成され、
前記受信ユニットは、サーバ機器からフィードバックされた予備オプション音楽を受信するように構成され、
ここで、ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得される。
ここで、xnはユーザーの音楽コメント情報であり、ynは音楽であり、行列パラメータAは単語に基づくクイックルックアップテーブル、すなわち単語の埋め込みベクトルであり、Axn行列演算の数学的意味は単語の埋め込みベクトルを加算又は平均化して、隠れ層ベクトルを得ることである。行列パラメータBは関数fのパラメータであり、関数fは1個のマルチクラス線形関数である。
ここで、pはユーザーベクトルであり、qは音楽固有ベクトルであり、λは正則化係数であり、iはユーザー番号であり、jは音楽番号である。
∂J/∂pi=-2(mij-qTjpi)qj+2λpi、
∂J/∂qj=-2(mij- qTjpi)pi+2λqjを得て、
次に、勾配降下法で反復する時、反復の式は、
pi=pi+α((mij-qTjpi)qj-λpi)、
qj=qj+α((mij-qTjpi)pi-λqj)であり、
反復によって、人々は最終的に最適化後のユーザー行列P及び音楽特徴行列Qを得ることができ、さらにQ中の各qTjとP中の各piとの積に基づいて、各ユーザーの各音楽に対する推定評価行列を決定することができる。
端末機器は、音楽入れ対象の素材をサーバ機器に送信し、サーバ機器をトリガーして、素材の少なくとも1個の視覚セマンティクスラベルを決定するステップと、候補音楽ライブラリから該少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするステップと、ソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦するステップと、を実行させるステップを含む。次に、端末機器はサーバ機器からフィードバックされた予備オプション音楽を受信する。ここで、ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得される。
上記取得ユニット400は、音楽入れ対象の素材を取得することに用いられ、
上記第1決定ユニット401は、素材の少なくとも1個の視覚セマンティクスラベルを決定することに用いられ、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられ、
上記検索ユニット402は、候補音楽ライブラリから、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索することに用いられ、
上記ソートユニット403は、素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートすることに用いられ、
上記推薦ユニット404は、ソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦することに用いられる。
端末機器によって送信される予備オプション音楽から音楽入れ用の音楽を指定する指示情報を受信し、
指示情報に応じて、音楽入れ用の音楽を素材に合成し、
音楽を合成した素材を端末機器に送信することに用いられる。
上記第2決定ユニットは、ユーザーが予備オプションの視覚セマンティクスラベルから指定する少なくとも1個の視覚セマンティクスラベルを、素材の少なくとも1個の視覚セマンティクスラベルとして決定することに用いられ、又は、
上記解析ユニットは、素材のコンテンツを解析し、素材の少なくとも1個の視覚セマンティクスラベルを決定することに用いられる。
素材が画像集合である場合、予め訓練されたラベル識別モデルを利用して、素材に対して視覚セマンティクスラベル識別を行い、素材の視覚セマンティクスラベルベクトルを取得し、且つ視覚セマンティクスラベルベクトルのうちスコアが所定のスクリーニング条件を満たす視覚セマンティクスラベルを、素材に対応する視覚セマンティクスラベルとして決定することに用いられ、
ここで、画像集合は少なくとも1フレームの画像を含み、素材の視覚セマンティクスラベルベクトルは、素材から識別されるコンテンツの少なくとも1個の視覚セマンティクスラベル及びそれに対応するスコアを含み、ラベル識別モデルは複数のラベル識別サンプルを訓練した後に取得され、各ラベル識別サンプルはサンプル画像及び該サンプル画像の視覚セマンティクスラベルベクトルを含む。
素材がビデオである場合、素材に対してフレーム解析を行い、各フレームの画像を取得し、
予め訓練されたラベル識別モデルを利用して、それぞれ各フレームの画像に対して視覚セマンティクスラベル識別を行い、各フレームの画像の視覚セマンティクスラベルベクトルを取得し、
各フレームの画像の視覚セマンティクスラベルベクトルの平均ベクトルを決定し、各フレームの画像の視覚セマンティクスラベルベクトルの平均ベクトル中のスコアが所定のスクリーニング条件を満たす視覚セマンティクスラベルを、素材に対応する視覚セマンティクスラベルとして決定することに用いられ、
ここで、1フレームの画像の視覚セマンティクスラベルベクトルは、該フレーム画像から識別されたコンテンツの少なくとも1個の視覚セマンティクスラベル及びそれに対応するスコアを含み、ラベル識別モデルは複数のラベル識別サンプルを訓練した後に取得され、各ラベル識別サンプルはサンプル画像及び該サンプル画像の視覚セマンティクスラベルベクトルを含む。
少なくとも1個の視覚セマンティクスラベルに基づいて、予め訓練された音楽検索モデルを採用し、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を取得することに用いられ、
ここで、音楽検索モデルは各ユーザーの各音楽に対する音楽コメント情報に対してテキスト分類訓練を行って取得される。
素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートし、ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得されることに用いられ、
ここで、1個のユーザーの1つの音楽に対する実際音楽鑑賞情報はユーザーの音楽鑑賞行動データに含まれる各パラメータ値を加重処理して取得され、音楽鑑賞行動データは、音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含む。
マッチング音楽に対して、該マッチング音楽を鑑賞する各ユーザーのユーザー属性情報を取得し、且つユーザー属性情報が素材を入力するユーザーのユーザー属性情報と類似する各類似ユーザーをスクリーニングし、
各類似ユーザーの各マッチング音楽に対する実際音楽鑑賞情報を取得し、
それぞれ各類似ユーザーのそれぞれの各マッチング音楽に対する実際音楽鑑賞情報に応じて平均値処理を行い、ユーザーの各マッチング音楽に対する推定音楽鑑賞情報を推定することに用いられる。
各ユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて、スコア行列を取得し、
スコア行列に対して行列分解及び最適化処理を行い、ユーザー行列及び音楽特徴行列を取得し、
それぞれ音楽特徴行列中の各音楽固有ベクトルの転置とユーザー行列中の各ユーザーベクトルとの積を、各ユーザーの各音楽に対する推定音楽鑑賞情報を決定することに用いられる。
素材に対応するユーザーの音楽に対する1種の音楽鑑賞行動データのパラメータ値、又は音楽の少なくとも2種音楽鑑賞行動データのパラメータ値を加重処理した後に取得された総合値に応じて、各マッチング音楽をソートすることに用いられ、
ここで、1個のユーザーの1つの音楽に対する音楽鑑賞行動データは、音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含む。
上記送信ユニット410は、音楽入れ対象の素材をサーバ機器に送信し、サーバ機器をトリガーして、素材の少なくとも1個の視覚セマンティクスラベルを決定するステップと、候補音楽ライブラリから、少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするステップと、ソート結果に基づいて、所定の音楽スクリーニング条件に応じてマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を素材の予備オプション音楽として推薦するステップと、を実行させることに用いられ、
上記受信ユニット411は、サーバ機器からフィードバックされた予備オプション音楽を受信することに用いられ、
ここで、ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得される。
110 プロセッサ
120 メモリ
130 電源
140 表示ユニット
141 表示パネル
150 入力ユニット
151 タッチパネル
152 入力機器
400 取得ユニット
401 第1決定ユニット
402 検索ユニット
403 ソートユニット
404 推薦ユニット
410 送信ユニット
411 受信ユニット
500 端末機器
501 メモリ
502 プロセッサ
503 入力ユニット
504 表示パネル
505 バス
Claims (14)
- 音楽推薦方法であって、サーバ機器により実行され、
音楽入れ対象の素材を取得するステップと、
前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップであって、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられる、ステップと、
候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、
前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするステップと、
ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦するステップと、を含む方法であって、
前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、
各マッチング音楽をソートするステップは、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするステップを含み、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得され、1個のユーザーの1つの音楽に対する前記実際音楽鑑賞情報はユーザーの音楽鑑賞行動データに含まれる各パラメータ値を加重処理して取得され、前記音楽鑑賞行動データは音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含み、
前記方法は更に、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートする前、さらに、
マッチング音楽に対して、該マッチング音楽を鑑賞する各ユーザーのユーザー属性情報を取得し、且つユーザー属性情報が前記ユーザーのユーザー属性情報と類似する各類似ユーザーをスクリーニングするステップと、
各類似ユーザーの各マッチング音楽に対する実際音楽鑑賞情報を取得するステップと、
それぞれ各類似ユーザーのそれぞれの各マッチング音楽に対する実際音楽鑑賞情報を平均値処理し、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報を推定するステップと、を含む、方法。 - 前記方法はさらに、
端末機器によって送信される前記予備オプション音楽から音楽入れ用の音楽を指定する指示情報を受信するステップと、
前記指示情報に応じて、前記音楽入れ用の音楽を前記素材に合成するステップと、
音楽を合成した素材を端末機器に送信するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップは、
前記ユーザーが予備オプションの視覚セマンティクスラベルから指定する少なくとも1個の視覚セマンティクスラベルを、前記素材の少なくとも1個の視覚セマンティクスラベルとして決定するステップ、又は、
前記素材のコンテンツを解析して、前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップを含むことを特徴とする請求項1又は2に記載の方法。 - 前記素材のコンテンツを解析して、前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップは、
前記素材が画像集合である場合、予め訓練されたラベル識別モデルを利用して、前記素材に対して視覚セマンティクスラベル識別を行い、前記素材の視覚セマンティクスラベルベクトルを取得し、且つ前記視覚セマンティクスラベルベクトルのうちスコアが所定のスクリーニング条件を満たす視覚セマンティクスラベルを、前記素材に対応する視覚セマンティクスラベルとして決定するステップを含み、
前記画像集合は少なくとも1フレームの画像を含み、前記素材の視覚セマンティクスラベルベクトルは、素材から識別されたコンテンツの少なくとも1個の視覚セマンティクスラベル及びそれに対応するスコアを含み、前記ラベル識別モデルは複数のラベル識別サンプルを訓練した後に取得され、各ラベル識別サンプルはサンプル画像及び該サンプル画像の視覚セマンティクスラベルベクトルを含むことを特徴とする請求項3に記載の方法。 - 前記素材のコンテンツを解析して、前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップは、
前記素材がビデオである場合、前記素材に対してフレーム解析を行い、各フレームの画像を取得するステップと、
予め訓練されたラベル識別モデルを利用して、それぞれ各フレームの画像に対して視覚セマンティクスラベル識別を行い、各フレームの画像の視覚セマンティクスラベルベクトルを取得するステップと、
各フレームの画像の視覚セマンティクスラベルベクトルの平均ベクトル中のスコアが所定のスクリーニング条件を満たす視覚セマンティクスラベルを、前記素材に対応する視覚セマンティクスラベルとして決定するステップと、を含み、
1フレームの画像の視覚セマンティクスラベルベクトルは前記フレームの画像から識別されたコンテンツの少なくとも1個の視覚セマンティクスラベル及びそれに対応するスコアを含み、前記ラベル識別モデルは複数のラベル識別サンプルを訓練した後に取得され、各ラベル識別サンプルはサンプル画像及び該サンプル画像の視覚セマンティクスラベルベクトルを含むことを特徴とする請求項3に記載の方法。 - 前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップは、
前記少なくとも1個の視覚セマンティクスラベルに基づいて、予め訓練された音楽検索モデルを採用して、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を取得するステップを含み、
前記音楽検索モデルは各ユーザーの各音楽に対する音楽コメント情報に対してテキスト分類訓練を行って取得されることを特徴とする請求項1~5のいずれか一項に記載の方法。 - 音楽推薦方法であって、サーバ機器により実行され、
音楽入れ対象の素材を取得するステップと、
前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップであって、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられる、ステップと、
候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、
前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするステップと、
ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦するステップと、を含む方法であって、
前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、
各マッチング音楽をソートするステップは、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするステップを含み、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得され、1個のユーザーの1つの音楽に対する前記実際音楽鑑賞情報はユーザーの音楽鑑賞行動データに含まれる各パラメータ値を加重処理して取得され、前記音楽鑑賞行動データは音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含み、
前記方法は更に、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートする前、さらに、
各ユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて、スコア行列を取得するステップと、
前記スコア行列に対して行列分解及び最適化処理を行い、ユーザー行列及び音楽特徴行列を取得するステップと、
それぞれ前記音楽特徴行列中の各音楽固有ベクトルの転置と前記ユーザー行列中の各ユーザーベクトルとの積を、各ユーザーの各音楽に対する推定音楽鑑賞情報として決定するステップと、を含む方法。 - 音楽推薦方法であって、サーバ機器により実行され、
音楽入れ対象の素材を取得するステップと、
前記素材の少なくとも1個の視覚セマンティクスラベルを決定するステップであって、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられる、ステップと、
候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するステップと、
前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするステップと、
ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦するステップと、を含む方法であって、
前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするステップは、
前記素材に対応するユーザーの音楽に対する1種の音楽鑑賞行動データのパラメータ値、又は音楽に対する少なくとも2種の音楽鑑賞行動データのパラメータ値を加重処理して取得される総合値に応じて、各マッチング音楽をソートするステップを含み、
1個のユーザーの1つの音楽に対する音楽鑑賞行動データは、音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含む、方法。 - 端末機器及びサーバ機器によって構成される音楽推薦システムであって、前記システムが、
前記端末機器が前記サーバ機器に音楽入れ対象の素材を送信して前記サーバ機器をトリガーし、
前記サーバ機器が、前記素材の少なくとも1個の視覚セマンティクスラベルを決定し、候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索し、マッチング音楽に対して、該マッチング音楽を鑑賞する各ユーザーのユーザー属性情報を取得し、且つユーザー属性情報が前記ユーザーのユーザー属性情報と類似する各類似ユーザーをスクリーニングし、各類似ユーザーの各マッチング音楽に対する実際音楽鑑賞情報を取得し、それぞれ各類似ユーザーのそれぞれの各マッチング音楽に対する実際音楽鑑賞情報を平均値処理し、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報を推定し、前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートし、ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦し、
前記端末機器が、前記サーバ機器からフィードバックされた予備オプション音楽を受信する、ように構成され、
前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得されることを特徴とするシステム。 - 音楽推薦装置であって、取得ユニット、第1決定ユニット、検索ユニット、ソートユニット、及び推薦ユニットを含み、
前記取得ユニットは、音楽入れ対象の素材を取得するように構成され、
前記第1決定ユニットは、前記素材の少なくとも1個の視覚セマンティクスラベルを決定するように構成され、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられ、
前記検索ユニットは、候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するように構成され、
前記ソートユニットは、前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするように構成され、
前記推薦ユニットは、ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦するように構成される装置であって、
前記ソートユニットは、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするように構成され、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得され、
1個のユーザーの1つの音楽に対する前記実際音楽鑑賞情報はユーザーの音楽鑑賞行動データに含まれる各パラメータ値を加重処理して取得され、前記音楽鑑賞行動データは音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含み、
前記ソートユニットは、
前記素材に対応するユーザーの音楽に対する1種の音楽鑑賞行動データのパラメータ値、又は音楽に対する少なくとも2種の音楽鑑賞行動データのパラメータ値を加重処理して
取得される総合値に応じて、各マッチング音楽をソートするように構成され、1個のユーザーの1つの音楽に対する音楽鑑賞行動データは、音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含み、
更に、前記ソートユニットは具体的には、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートする前に、更に、マッチング音楽に対して、該マッチング音楽を鑑賞する各ユーザーのユーザー属性情報を取得し、且つユーザー属性情報が前記ユーザーのユーザー属性情報と類似する各類似ユーザーをスクリーニングし、各類似ユーザーの各マッチング音楽に対する実際音楽鑑賞情報を取得し、それぞれ各類似ユーザーのそれぞれの各マッチング音楽に対する実際音楽鑑賞情報を平均値処理し、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報を推定するように更に構成されるか、あるいは、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートする前に、更に、各ユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて、スコア行列を取得し、前記スコア行列に対して行列分解及び最適化処理を行い、ユーザー行列及び音楽特徴行列を取得し、それぞれ前記音楽特徴行列中の各音楽固有ベクトルの転置と前記ユーザー行列中の各ユーザーベクトルとの積を、各ユーザーの各音楽に対する推定音楽鑑賞情報として決定するように更に構成される、
装置。 - 音楽推薦装置であって、取得ユニット、第1決定ユニット、検索ユニット、ソートユニット、及び推薦ユニットを含み、
前記取得ユニットは、音楽入れ対象の素材を取得するように構成され、
前記第1決定ユニットは、前記素材の少なくとも1個の視覚セマンティクスラベルを決定するように構成され、各視覚セマンティクスラベルは素材の少なくとも1つのコンテンツを記述することに用いられ、
前記検索ユニットは、候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索するように構成され、
前記ソートユニットは、前記素材に対応するユーザーの各マッチング音楽に対するユーザー鑑賞情報に応じて、各マッチング音楽をソートするように構成され、
前記推薦ユニットは、ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦するように構成される装置であって、
前記第1決定ユニットはさらに第2決定ユニット又は解析ユニットを含み、
前記第2決定ユニットは、前記ユーザーが予備オプションの視覚セマンティクスラベルから指定する少なくとも1個の視覚セマンティクスラベルを、前記素材の少なくとも1個の視覚セマンティクスラベルとして決定するように構成され、又は、
前記解析ユニットは、前記素材のコンテンツを解析して、前記素材の少なくとも1個の視覚セマンティクスラベルを決定するように構成される装置であって、
前記ソートユニットは、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートするように構成され、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得され、
1個のユーザーの1つの音楽に対する前記実際音楽鑑賞情報はユーザーの音楽鑑賞行動データに含まれる各パラメータ値を加重処理して取得され、前記音楽鑑賞行動データは音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含み、
前記ソートユニットは、
前記素材に対応するユーザーの音楽に対する1種の音楽鑑賞行動データのパラメータ値、又は音楽に対する少なくとも2種の音楽鑑賞行動データのパラメータ値を加重処理して
取得される総合値に応じて、各マッチング音楽をソートするように構成され、1個のユーザーの1つの音楽に対する音楽鑑賞行動データは、音楽スコア、クリックレート、お気に入り行動、いいね行動、及び共有行動のパラメータのうちの任意の1種又は任意の組み合わせを含み、
更に、前記ソートユニットは具体的には、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートする前に、更に、マッチング音楽に対して、該マッチング音楽を鑑賞する各ユーザーのユーザー属性情報を取得し、且つユーザー属性情報が前記ユーザーのユーザー属性情報と類似する各類似ユーザーをスクリーニングし、各類似ユーザーの各マッチング音楽に対する実際音楽鑑賞情報を取得し、それぞれ各類似ユーザーのそれぞれの各マッチング音楽に対する実際音楽鑑賞情報を平均値処理し、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報を推定するように更に構成されるか、あるいは、
前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートする前に、更に、各ユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて、スコア行列を取得し、前記スコア行列に対して行列分解及び最適化処理を行い、ユーザー行列及び音楽特徴行列を取得し、それぞれ前記音楽特徴行列中の各音楽固有ベクトルの転置と前記ユーザー行列中の各ユーザーベクトルとの積を、各ユーザーの各音楽に対する推定音楽鑑賞情報として決定するように更に構成される、
装置。 - 音楽推薦装置及びサーバ機器によって構成される音楽推薦システムであって、前記音楽推薦システムは、
音楽推薦装置の送信ユニットが、サーバ機器に音楽入れ対象の素材を送信して前記サーバ機器をトリガーし、
前記サーバ機器が、前記素材の少なくとも1個の視覚セマンティクスラベルを決定し、候補音楽ライブラリから、前記少なくとも1個の視覚セマンティクスラベルとマッチングする各マッチング音楽を検索し、マッチング音楽に対して、該マッチング音楽を鑑賞する各ユーザーのユーザー属性情報を取得し、且つユーザー属性情報が前記ユーザーのユーザー属性情報と類似する各類似ユーザーをスクリーニングし、各類似ユーザーの各マッチング音楽に対する実際音楽鑑賞情報を取得し、それぞれ各類似ユーザーのそれぞれの各マッチング音楽に対する実際音楽鑑賞情報を平均値処理し、前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報を推定し、前記素材に対応するユーザーの各マッチング音楽に対する推定音楽鑑賞情報に応じて、各マッチング音楽をソートし、ソート結果に基づいて、所定の音楽スクリーニング条件でマッチング音楽をスクリーニングし、且つスクリーニングしたマッチング音楽を前記素材の予備オプション音楽として推薦し、
音楽推薦装置の受信ユニットが、前記サーバ機器からフィードバックされた予備オプション音楽を受信する、ように構成され、
前記ユーザーの各マッチング音楽に対する推定音楽鑑賞情報は異なるユーザーの各候補音楽に対する実際音楽鑑賞情報に基づいて取得されることを特徴とする音楽推薦システム。 - コンピューティング機器であって、少なくとも1個の処理ユニット、及び少なくとも1個の記憶ユニットを含み、前記記憶ユニットにコンピュータプログラムが記憶され、前記コンピュータプログラムが前記処理ユニットにより実行される時、前記処理ユニットに請求項1~8のいずれか一項に記載の方法を実行させることを特徴とするコンピューティング機器。
- コンピューティング機器に、請求項1~8のいずれか一項に記載の方法を実行させることを特徴とするプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810924409.0A CN109063163B (zh) | 2018-08-14 | 2018-08-14 | 一种音乐推荐的方法、装置、终端设备和介质 |
CN201810924409.0 | 2018-08-14 | ||
PCT/CN2019/098861 WO2020034849A1 (zh) | 2018-08-14 | 2019-08-01 | 音乐推荐的方法、装置、计算设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516398A JP2021516398A (ja) | 2021-07-01 |
JP7206288B2 true JP7206288B2 (ja) | 2023-01-17 |
Family
ID=64683893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020549554A Active JP7206288B2 (ja) | 2018-08-14 | 2019-08-01 | 音楽推薦方法、装置、コンピューティング機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11314806B2 (ja) |
EP (1) | EP3757995A4 (ja) |
JP (1) | JP7206288B2 (ja) |
CN (1) | CN109063163B (ja) |
WO (1) | WO2020034849A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230129425A1 (en) * | 2009-06-23 | 2023-04-27 | Gracenote, Inc. | Methods and Apparatus For Determining A Mood Profile Associated With Media Data |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063163B (zh) * | 2018-08-14 | 2022-12-02 | 腾讯科技(深圳)有限公司 | 一种音乐推荐的方法、装置、终端设备和介质 |
CN109587554B (zh) * | 2018-10-29 | 2021-08-03 | 百度在线网络技术(北京)有限公司 | 视频数据的处理方法、装置及可读存储介质 |
CN109766493B (zh) * | 2018-12-24 | 2022-08-02 | 哈尔滨工程大学 | 一种在神经网络下结合人格特征的跨域推荐方法 |
CN111401100B (zh) | 2018-12-28 | 2021-02-09 | 广州市百果园信息技术有限公司 | 视频质量评估方法、装置、设备及存储介质 |
CN111435369B (zh) * | 2019-01-14 | 2024-04-09 | 腾讯科技(深圳)有限公司 | 音乐推荐方法、装置、终端及存储介质 |
CN109862393B (zh) * | 2019-03-20 | 2022-06-14 | 深圳前海微众银行股份有限公司 | 视频文件的配乐方法、系统、设备及存储介质 |
CN110297939A (zh) * | 2019-06-21 | 2019-10-01 | 山东科技大学 | 一种融合用户行为和文化元数据的音乐个性化系统 |
CN112182281B (zh) * | 2019-07-05 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 一种音频推荐方法、装置及存储介质 |
CN110598766B (zh) * | 2019-08-28 | 2022-05-10 | 第四范式(北京)技术有限公司 | 一种商品推荐模型的训练方法、装置及电子设备 |
CN110727785A (zh) * | 2019-09-11 | 2020-01-24 | 北京奇艺世纪科技有限公司 | 推荐模型的训练、搜索文本的推荐方法、装置及存储介质 |
JP7188337B2 (ja) * | 2019-09-24 | 2022-12-13 | カシオ計算機株式会社 | サーバ装置、演奏支援方法、プログラム、および情報提供システム |
CN112559777A (zh) * | 2019-09-25 | 2021-03-26 | 北京达佳互联信息技术有限公司 | 内容项投放方法、装置、计算机设备及存储介质 |
CN110704682B (zh) * | 2019-09-26 | 2022-03-18 | 新华智云科技有限公司 | 一种基于视频多维特征智能推荐背景音乐的方法及系统 |
CN110728539A (zh) * | 2019-10-09 | 2020-01-24 | 重庆特斯联智慧科技股份有限公司 | 一种基于大数据的顾客差异化管理的方法及装置 |
CN110677711B (zh) * | 2019-10-17 | 2022-03-01 | 北京字节跳动网络技术有限公司 | 视频配乐方法、装置、电子设备及计算机可读介质 |
US11907963B2 (en) * | 2019-10-29 | 2024-02-20 | International Business Machines Corporation | On-device privacy-preservation and personalization |
CN110839173A (zh) * | 2019-11-18 | 2020-02-25 | 上海极链网络科技有限公司 | 一种音乐匹配方法、装置、终端及存储介质 |
CN110971969B (zh) * | 2019-12-09 | 2021-09-07 | 北京字节跳动网络技术有限公司 | 视频配乐方法、装置、电子设备及计算机可读存储介质 |
CN111031391A (zh) * | 2019-12-19 | 2020-04-17 | 北京达佳互联信息技术有限公司 | 视频配乐方法、装置、服务器、终端及存储介质 |
CN111008287B (zh) * | 2019-12-19 | 2023-08-04 | Oppo(重庆)智能科技有限公司 | 音视频处理方法、装置、服务器及存储介质 |
CN111259192B (zh) * | 2020-01-15 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 音频推荐方法和装置 |
CN111259191A (zh) * | 2020-01-16 | 2020-06-09 | 石河子大学 | 一种中小学音乐教育学习系统与方法 |
US11461649B2 (en) * | 2020-03-19 | 2022-10-04 | Adobe Inc. | Searching for music |
CN111417030A (zh) * | 2020-04-28 | 2020-07-14 | 广州酷狗计算机科技有限公司 | 设置配乐的方法、装置、系统、设备及存储设备 |
CN111800650B (zh) * | 2020-06-05 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 视频配乐方法、装置、电子设备及计算机可读介质 |
CN111695041B (zh) * | 2020-06-17 | 2023-05-23 | 北京字节跳动网络技术有限公司 | 用于推荐信息的方法和装置 |
WO2022041182A1 (zh) * | 2020-08-31 | 2022-03-03 | 华为技术有限公司 | 音乐推荐方法和装置 |
CN112214636A (zh) * | 2020-09-21 | 2021-01-12 | 华为技术有限公司 | 音频文件的推荐方法、装置、电子设备以及可读存储介质 |
US11693897B2 (en) | 2020-10-20 | 2023-07-04 | Spotify Ab | Using a hierarchical machine learning algorithm for providing personalized media content |
US11544315B2 (en) * | 2020-10-20 | 2023-01-03 | Spotify Ab | Systems and methods for using hierarchical ordered weighted averaging for providing personalized media content |
CN112597320A (zh) * | 2020-12-09 | 2021-04-02 | 上海掌门科技有限公司 | 社交信息生成方法、设备及计算机可读介质 |
CN113434763B (zh) * | 2021-06-28 | 2022-10-14 | 平安科技(深圳)有限公司 | 搜索结果的推荐理由生成方法、装置、设备及存储介质 |
US11876841B2 (en) | 2021-07-21 | 2024-01-16 | Honda Motor Co., Ltd. | Disparate player media sharing |
CN113569088B (zh) * | 2021-09-27 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 一种音乐推荐方法、装置以及可读存储介质 |
CN114117142A (zh) * | 2021-12-02 | 2022-03-01 | 南京邮电大学 | 一种基于注意力机制与超图卷积的标签感知推荐方法 |
CN114390342B (zh) * | 2021-12-10 | 2023-08-29 | 阿里巴巴(中国)有限公司 | 一种视频配乐方法、装置、设备及介质 |
CN114302225A (zh) * | 2021-12-23 | 2022-04-08 | 阿里巴巴(中国)有限公司 | 视频配乐方法、数据处理方法、设备及存储介质 |
CN114637867A (zh) * | 2022-05-18 | 2022-06-17 | 合肥的卢深视科技有限公司 | 视频特效配置方法、装置、电子设备和存储介质 |
CN115795023B (zh) * | 2022-11-22 | 2024-01-05 | 百度时代网络技术(北京)有限公司 | 文档推荐方法、装置、设备以及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099740A (ja) | 2004-09-02 | 2006-04-13 | Olympus Corp | 情報提供装置、端末装置、情報提供システム及び情報提供方法 |
JP2009516951A (ja) | 2005-11-21 | 2009-04-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | デジタル画像の内容特徴およびメタデータを使って関係したオーディオ随伴物をみつけるシステムおよび方法 |
JP2009266005A (ja) | 2008-04-25 | 2009-11-12 | Clarion Co Ltd | 画像検索方法、画像検索プログラム、楽曲再生装置、および楽曲検索用物品 |
US20130259390A1 (en) | 2008-02-15 | 2013-10-03 | Heather Dunlop | Systems and Methods for Semantically Classifying and Normalizing Shots in Video |
JP2014095966A (ja) | 2012-11-08 | 2014-05-22 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US20170257595A1 (en) | 2016-03-01 | 2017-09-07 | Echostar Technologies L.L.C. | Network-based event recording |
KR101863672B1 (ko) | 2016-12-15 | 2018-06-01 | 정우주 | 멀티미디어 컨텐츠 정보를 기반으로 사용자 맞춤형 멀티미디어 컨텐츠를 제공하는 방법 및 장치 |
WO2018104563A2 (en) | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3578464B2 (ja) * | 1996-09-13 | 2004-10-20 | 株式会社日立製作所 | 自動作曲方法 |
EP1666967B1 (en) * | 2004-12-03 | 2013-05-08 | Magix AG | System and method of creating an emotional controlled soundtrack |
US9032297B2 (en) * | 2006-03-17 | 2015-05-12 | Disney Enterprises, Inc. | Web based video editing |
CN101727943B (zh) | 2009-12-03 | 2012-10-17 | 无锡中星微电子有限公司 | 一种图像配乐的方法、图像配乐装置及图像播放装置 |
US9710760B2 (en) * | 2010-06-29 | 2017-07-18 | International Business Machines Corporation | Multi-facet classification scheme for cataloging of information artifacts |
WO2012004650A1 (en) * | 2010-07-08 | 2012-01-12 | Siun Ni Raghallaigh | Systems and methods for dynamic, distributed creation of a musical composition to accompany a visual composition |
CN102637178A (zh) * | 2011-02-14 | 2012-08-15 | 北京瑞信在线系统技术有限公司 | 一种音乐推荐方法、装置及系统 |
US9045967B2 (en) | 2011-07-26 | 2015-06-02 | Schlumberger Technology Corporation | System and method for controlling and monitoring a drilling operation using refined solutions from a panistic inversion |
US20130077937A1 (en) * | 2011-09-26 | 2013-03-28 | Sony Corporation | Apparatus and method for producing remote streaming audiovisual montages |
CN103793447B (zh) | 2012-10-26 | 2019-05-14 | 汤晓鸥 | 音乐与图像间语义相似度的估计方法和估计系统 |
CN103605656B (zh) * | 2013-09-30 | 2018-02-02 | 小米科技有限责任公司 | 一种推荐音乐的方法、装置及一种移动终端 |
CN103795897A (zh) | 2014-01-21 | 2014-05-14 | 深圳市中兴移动通信有限公司 | 自动生成背景音乐的方法和装置 |
CN105072354A (zh) | 2015-07-17 | 2015-11-18 | Tcl集团股份有限公司 | 一种利用多张照片合成视频流的方法及系统 |
TWI587574B (zh) | 2015-07-20 | 2017-06-11 | 廣達電腦股份有限公司 | 行動裝置 |
CN105975472A (zh) * | 2015-12-09 | 2016-09-28 | 乐视网信息技术(北京)股份有限公司 | 一种推荐方法和装置 |
CN105930429A (zh) * | 2016-04-19 | 2016-09-07 | 乐视控股(北京)有限公司 | 一种音乐推荐的方法及装置 |
US9836853B1 (en) * | 2016-09-06 | 2017-12-05 | Gopro, Inc. | Three-dimensional convolutional neural networks for video highlight detection |
KR20180036153A (ko) * | 2016-09-30 | 2018-04-09 | 주식회사 요쿠스 | 영상 편집 시스템 및 방법 |
EP3532906A4 (en) * | 2016-10-28 | 2020-04-15 | Vilynx, Inc. | VIDEO LABELING SYSTEM AND METHOD |
JP6589838B2 (ja) * | 2016-11-30 | 2019-10-16 | カシオ計算機株式会社 | 動画像編集装置及び動画像編集方法 |
CN110249387B (zh) * | 2017-02-06 | 2021-06-08 | 柯达阿拉里斯股份有限公司 | 用于创建伴随视觉影像的音频轨的方法 |
CN107220663B (zh) * | 2017-05-17 | 2020-05-19 | 大连理工大学 | 一种基于语义场景分类的图像自动标注方法 |
CN107707828B (zh) | 2017-09-26 | 2019-07-26 | 维沃移动通信有限公司 | 一种视频处理方法及移动终端 |
CN107959873A (zh) * | 2017-11-02 | 2018-04-24 | 深圳天珑无线科技有限公司 | 在视频中植入背景音乐的方法、装置、终端及存储介质 |
CN108153831A (zh) * | 2017-12-13 | 2018-06-12 | 北京小米移动软件有限公司 | 音乐添加方法及装置 |
CN108600825B (zh) * | 2018-07-12 | 2019-10-25 | 北京微播视界科技有限公司 | 选择背景音乐拍摄视频的方法、装置、终端设备和介质 |
CN109063163B (zh) * | 2018-08-14 | 2022-12-02 | 腾讯科技(深圳)有限公司 | 一种音乐推荐的方法、装置、终端设备和介质 |
-
2018
- 2018-08-14 CN CN201810924409.0A patent/CN109063163B/zh active Active
-
2019
- 2019-08-01 EP EP19849335.5A patent/EP3757995A4/en active Pending
- 2019-08-01 JP JP2020549554A patent/JP7206288B2/ja active Active
- 2019-08-01 WO PCT/CN2019/098861 patent/WO2020034849A1/zh unknown
-
2020
- 2020-09-21 US US17/026,477 patent/US11314806B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099740A (ja) | 2004-09-02 | 2006-04-13 | Olympus Corp | 情報提供装置、端末装置、情報提供システム及び情報提供方法 |
JP2009516951A (ja) | 2005-11-21 | 2009-04-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | デジタル画像の内容特徴およびメタデータを使って関係したオーディオ随伴物をみつけるシステムおよび方法 |
US20130259390A1 (en) | 2008-02-15 | 2013-10-03 | Heather Dunlop | Systems and Methods for Semantically Classifying and Normalizing Shots in Video |
JP2009266005A (ja) | 2008-04-25 | 2009-11-12 | Clarion Co Ltd | 画像検索方法、画像検索プログラム、楽曲再生装置、および楽曲検索用物品 |
JP2014095966A (ja) | 2012-11-08 | 2014-05-22 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US20170257595A1 (en) | 2016-03-01 | 2017-09-07 | Echostar Technologies L.L.C. | Network-based event recording |
WO2018104563A2 (en) | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
KR101863672B1 (ko) | 2016-12-15 | 2018-06-01 | 정우주 | 멀티미디어 컨텐츠 정보를 기반으로 사용자 맞춤형 멀티미디어 컨텐츠를 제공하는 방법 및 장치 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230129425A1 (en) * | 2009-06-23 | 2023-04-27 | Gracenote, Inc. | Methods and Apparatus For Determining A Mood Profile Associated With Media Data |
Also Published As
Publication number | Publication date |
---|---|
EP3757995A1 (en) | 2020-12-30 |
CN109063163B (zh) | 2022-12-02 |
US11314806B2 (en) | 2022-04-26 |
EP3757995A4 (en) | 2021-06-09 |
WO2020034849A1 (zh) | 2020-02-20 |
JP2021516398A (ja) | 2021-07-01 |
US20210004402A1 (en) | 2021-01-07 |
CN109063163A (zh) | 2018-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7206288B2 (ja) | 音楽推薦方法、装置、コンピューティング機器及び媒体 | |
CN109992710B (zh) | 点击率预估方法、系统、介质和计算设备 | |
CN108446374B (zh) | 用户意图预测方法、装置、电子设备、存储介质 | |
US11080340B2 (en) | Systems and methods for classifying electronic information using advanced active learning techniques | |
US11288573B2 (en) | Method and system for training and neural network models for large number of discrete features for information rertieval | |
US20190164084A1 (en) | Method of and system for generating prediction quality parameter for a prediction model executed in a machine learning algorithm | |
US11172040B2 (en) | Method and apparatus for pushing information | |
KR101754473B1 (ko) | 문서를 이미지 기반 컨텐츠로 요약하여 제공하는 방법 및 시스템 | |
US20150339348A1 (en) | Search method and device | |
TW201214173A (en) | Methods and apparatus for displaying content | |
US10353951B1 (en) | Search query refinement based on user image selections | |
WO2023108993A1 (zh) | 基于深度聚类算法的产品推荐方法、装置、设备及介质 | |
CN111563158B (zh) | 文本排序方法、排序装置、服务器和计算机可读存储介质 | |
CN113806588A (zh) | 搜索视频的方法和装置 | |
CN111800289B (zh) | 通信网络故障分析方法和装置 | |
CN112417133A (zh) | 排序模型的训练方法和装置 | |
CN113392644A (zh) | 模型训练、文本信息处理方法、系统、装置和存储介质 | |
US20230237093A1 (en) | Video recommender system by knowledge based multi-modal graph neural networks | |
CN117216535A (zh) | 推荐文本生成模型的训练方法、装置、设备及介质 | |
CN111597430A (zh) | 数据处理方法及装置、电子设备、存储介质 | |
US20230030341A1 (en) | Dynamic user interface and machine learning tools for generating digital content and multivariate testing recommendations | |
CN113569130A (zh) | 内容推荐方法、装置、设备及可读存储介质 | |
US20230342799A1 (en) | Generating segments of users based on unobserved behaviors | |
CN116595252A (zh) | 一种数据处理方法及相关装置 | |
CN113641900A (zh) | 信息推荐方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200915 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221031 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221110 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7206288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |