JP7415922B2 - 情報処理方法、情報処理装置及び情報処理プログラム - Google Patents

情報処理方法、情報処理装置及び情報処理プログラム Download PDF

Info

Publication number
JP7415922B2
JP7415922B2 JP2020527830A JP2020527830A JP7415922B2 JP 7415922 B2 JP7415922 B2 JP 7415922B2 JP 2020527830 A JP2020527830 A JP 2020527830A JP 2020527830 A JP2020527830 A JP 2020527830A JP 7415922 B2 JP7415922 B2 JP 7415922B2
Authority
JP
Japan
Prior art keywords
information processing
feature
data
content
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527830A
Other languages
English (en)
Other versions
JPWO2020080239A1 (ja
Inventor
健人 赤間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020080239A1 publication Critical patent/JPWO2020080239A1/ja
Priority to JP2023218986A priority Critical patent/JP2024038111A/ja
Application granted granted Critical
Publication of JP7415922B2 publication Critical patent/JP7415922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本開示は、情報処理方法、情報処理装置及び情報処理プログラムに関する。詳しくは、機械学習を経て生成される学習済みモデルの生成処理に関する。
様々な技術分野において、機械学習を利用した情報処理が活用されている。例えば、脳神経系の仕組みを模したニューラルネットワークを利用してコンテンツ(画像や音楽等)の特徴を学習させることで、他のコンテンツを自動的に生成すること等が行われている。
例えば、既存の曲の特徴を学習することにより、ユーザが歌詞以外のパラメータを入力せずとも、歌詞に合った適切な曲を自動的に作曲することを可能とする技術が提案されている。
特開2011-175006号公報
従来技術によれば、各曲の歌詞を表す歌詞データから算出される言語特徴量と当該曲の属性を表す属性データとを学習することにより、新たな歌詞データが与えられれば、新たな歌詞データに合わせた曲を自動的に生成することができる。
しかしながら、従来技術は、歌詞に沿ったメロディやコードが生成されるに過ぎず、ユーザが所望する態様で曲が生成されるとは限らない。例えば、従来技術では、ある既存曲のリズムのみを保持してメロディを変化させる、といったように、ユーザが指定する特徴を保持した曲を生成することは難しい。すなわち、従来の学習処理では、コンテンツが有する一部の特徴(例えば、曲のリズムやメロディや構成音など)を選択的に学習するといった処理を行うことが困難であった。
そこで、本開示では、ユーザが指定した特徴量を選択的に学習することのできる情報処理装置、情報処理方法及び情報処理プログラムを提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、第1コンテンツを構成する要素から第1データを抽出する抽出部と、第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダとを有する学習済みモデルを生成するモデル生成部と、を備える。
本開示の実施形態に係る情報処理の一例を示す図である。 本開示の実施形態に係る特徴量を説明する図である。 本開示の実施形態に係る生成処理を説明する図である。 本開示の実施形態に係る情報処理装置の構成例を示す図である。 本開示の実施形態に係る曲データ記憶部の一例を示す図である。 本開示の実施形態に係る情報処理の手順を示すフローチャート(1)である。 本開示の実施形態に係る情報処理の手順を示すフローチャート(2)である。 本開示の第1の変形例に係る学習処理の一例を示す図である。 本開示の第2の変形例に係る学習処理の一例を示す図である。 本開示の第3の変形例に係る生成処理の一例を示す図である。 本開示に係る生成処理を概念的に説明するための図である。 本開示の第4の変形例に係る学習処理の一例を示す図(1)である。 本開示の第4の変形例に係る学習処理の一例を示す図(2)である。 本開示の第4の変形例に係る学習処理の一例を示す図(3)である。 本開示の第4の変形例に係る学習処理の一例を示す図(4)である。 本開示の第5の変形例に係る学習処理の一例を示す図である。 本開示の第5の変形例に係る生成処理の一例を示す図(1)である。 本開示の第5の変形例に係る生成処理の一例を示す図(2)である。 本開示の第6の変形例に係る情報処理の一例を示す図(1)である。 本開示の第6の変形例に係る情報処理の一例を示す図(2)である。 本開示の第6の変形例に係る情報処理の一例を示す図(3)である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
以下に示す項目順序に従って本開示を説明する。
1.実施形態
1-1.本開示の実施形態に係る情報処理の概要
1-2.実施形態に係る情報処理装置の構成
1-3.実施形態に係る情報処理の手順
2.その他の実施形態
3.ハードウェア構成
(1.実施形態)
[1-1.本開示の実施形態に係る情報処理の概要]
図1は、本開示の実施形態に係る情報処理の一例を示す図である。本開示の実施形態に係る情報処理は、図1に示す情報処理装置100によって実現される。
情報処理装置100は、本開示に係る情報処理を実行する装置であり、例えば、情報処理端末やサーバ装置である。
実施形態において、情報処理装置100は、コンテンツの特徴を抽出するための学習済みモデルを生成し、生成した学習済みモデルに基づいて、新規なコンテンツを生成する。実施形態では、コンテンツは、例えば音楽(曲)や、画像や、動画等、所定の形式のデジタルデータで構成される。図1の例では、情報処理装置100は、コンテンツの一例として曲を処理に用いる。
実施形態に係る学習済みモデルは、コンテンツを構成するデータから特徴量を抽出するエンコーダ(encoder)と、抽出された特徴量からコンテンツを再構成するデコーダ(decoder)とを有する。例えば、情報処理装置100は、VAE(Variational Auto Encoder)やGAN(Generative Adversarial Networks)等、教師なし学習によってエンコーダを学習する。具体的には、情報処理装置100は、コンテンツをエンコーダに入力し、抽出された特徴量からコンテンツを再構成し、その前後のコンテンツを比較してエンコーダ及びデコーダのパラメータを調整する。情報処理装置100は、かかる処理を繰り返し、エンコーダ及びデコーダのパラメータを最適化することで、学習済みモデルを生成する。これにより、情報処理装置100は、コンテンツを構成するデータから適切な特徴量を得ることのできる学習済みモデルを生成することができる。なお、特徴量とは、例えば、入力されるコンテンツのデータよりも次元数の低いベクトル等で表現される。
なお、学習済みモデルは、上記の例に限らず、特徴量を抽出し、抽出した特徴量からコンテンツを再構成することができれば、どのような形式のモデルであってもよい。
図1の例では、情報処理装置100は、曲(言い換えれば、曲を構成する音を示すデジタルデータ)をエンコーダに入力することで、その曲の特徴量として、メロディラインや構成音、リズム(音楽における時間的な構造、例えば、音符や休符がどれくらい含まれるか、どのような順序で音が再生されるか等)、テンポ、拍子など、その曲の特徴を示す要素を抽出する。
ここで、上記のような既存曲の特徴量を抽出する学習済みモデルを生成する場合、ユーザが指定した特徴を適切に抽出することが一つの課題となりうる。例えば、任意の曲の特徴量をそのまま抽出すると、その曲の特徴を再現することは可能であるものの、その特徴量を利用して新規なコンテンツを生成するなど、特徴量の利用が難しい場合がある。具体的には、上記のVAE等を用いて抽出される特徴量はベクトルの数値の羅列であり、各々の数値がどのような特徴を示しているかを人間が認識することは難しい。例えば、既存の曲のリズムの特徴のみを取り入れた新規な曲を自動生成しようとしても、特徴量ベクトル(言い換えれば、特徴量を示す潜在空間)において、いずれの数値を利用して生成を行わせるかを人間が判断することは困難であった。
そこで、本開示に係る情報処理装置100は、以下に説明する情報処理により、曲全体の特徴量のみならず、ユーザが所望する特徴量を抽出することが可能な学習済みモデルを生成する。具体的には、情報処理装置100は、特徴量が算出される対象となるコンテンツ(以下、区別のため「第1コンテンツ」と表記する)を構成する要素(言い換えれば、第1コンテンツを構成するデジタルデータ)から所定のデータ(以下、区別のため「第1データ」と表記する)を抽出する。そして、情報処理装置100は、第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、抽出された第1データの特徴量である第2特徴量を算出する第2エンコーダとを有する学習済みモデルを生成する。
このように、情報処理装置100は、第1コンテンツの特徴量を抽出する際に、第1コンテンツ全体の特徴量を抽出する第1エンコーダと、第1コンテンツのうち特定のデータのみを取り扱う第2エンコーダとを備える構成の学習済みモデルを生成する。なお、詳細は後述するが、第1データとは、ユーザが指定する特徴量を抽出しやすくするために、所定の操作によって第1コンテンツから抽出されたデータである。このように、情報処理装置100は、複数のエンコーダを利用して、第1コンテンツ及び第1コンテンツのうち一部の要素から、別々に特徴量を抽出可能な学習済みモデルを生成する。これにより、情報処理装置100は、ユーザが所望する特徴のみを分離して表現された特徴量を得ることができる。また、情報処理装置100は、分離して得られた特徴量を用いることで、既存のコンテンツのうちユーザが指定する特徴(例えば曲のリズムなど)のみを変化させたり、あるいは変化させなかったりして、新規なコンテンツ(以下、区別のため「第2コンテンツ」と表記する)を自動生成することができる。なお、説明のため、第1コンテンツの特徴量を抽出するエンコーダを第1エンコーダ、第1データの特徴量を抽出するエンコーダを第2エンコーダと表記しているが、これは便宜上のものであり、例えば第1コンテンツの特徴量を抽出するエンコーダが第2エンコーダであってもよい。
以下、図1を用いて、本開示の情報処理の概要を流れに沿って説明する。図1では、情報処理装置100が、学習データを用いて学習済みモデル(第1エンコーダ50、第2エンコーダ55及びデコーダ60)を学習する処理の流れを示す。
まず、情報処理装置100は、学習データの一例として、曲30を取得する(ステップS1)。曲30は、例えば、音高や音長、休符を示す記号列(デジタルデータ)により構成される。一例として、音高は、音の高さを示す周波数を所定の段階(例えば128段階等)で表現したものである。また、音長は、再生された音がどのくらいの長さを維持するかを表現したものである。また、休符は、音の再生が休止するタイミングを表現したものである。また、曲30を示すデータには、曲30の拍子やテンポ、小節の区切りを示す記号、あるタイミングにおけるコードや、コードを構成する構成音等の情報が含まれてもよい。
例えば、情報処理装置100は、上記の記号列をモデルで取り扱うことができるよう変換する。一例として、情報処理装置100は、上記の記号列をベクトルで表現したもの(例えば、各次元に音高や音長等が割り当てられた、音情報を示す埋め込み(embedding)ベクトル)を処理に用いる。なお、このような音を示すデータは、例えばMIDI(Musical Instrument Digital Interface)(登録商標)形式で表現されてもよいし、汎用のシーケンサーで再生可能な既知の形式のデジタルデータであってもよいし、WAV形式等の波形データとして表現されてもよい。
上記処理により、情報処理装置100は、曲30を示すデータを得る(ステップS2)。図1の例では、曲30を示すデータ(ベクトル)を「x」と表現する。
次に、情報処理装置100は、データxに対して抽出操作40を実行する(ステップS3)。抽出操作40とは、曲30のうち特定の特徴(例えば、ユーザが所望する特徴)のみを分離するための前処理であり、データxに所定の演算を行い、所定のデータ(上記の「第1データ」に対応する)を抽出する操作をいう。
一例として、情報処理装置100は、データxに順序不変性のある演算処理を行うことにより、第1データを抽出する(ステップS4)。順序不変性のある演算とは、例えば、可換演算子による演算をいう。具体的には、順序不変性のある演算とは、足し算や掛け算、max演算など、順序によらない演算(例えば所定の係数を含むことで算出結果がわずかに変化するような、ほぼ順序不変性がある演算といえる演算も含む)をいう。なお、図1の例では、抽出操作40によってデータxから抽出された情報を特徴情報「f」と表現する。
例えば、図1の例では、情報処理装置100に処理を行わせるユーザは、曲30の特徴のうち「リズム」を抽出することを所望しているとする。曲におけるリズムとは、時間(順序)と関係性を有する特徴である。このため、例えば曲30からリズムのみを抽出しようとする場合、音符の並び(音長や休符の関係)を示す情報は残し、その他の情報を隠す(マスクする)といった手法が考えられる。
例えば、情報処理装置100は、データxに含まれるデータに対して順序不変性のある演算を行い、「音の順序を示す情報」を損失させる。一例として、情報処理装置100は、順序不変性のある演算として、データxにおける埋め込みベクトルの平均をとりうる。
かかる手法について、具体例を挙げて説明する。仮に、曲30を構成する8拍分の音符の並びが、「C4、_、_、_、E4、_、_、R」であるものとする。この例で、「C4」及び「E4」は、音の高さを示す。また、記号「_」は、前の音を伸ばしていることを示す。また、「R」は、休符を示す。
ここで、情報処理装置100は、それぞれの音や休符に対応する埋め込みベクトルを示したデータテーブルを有するものとする。埋め込みベクトルは、例えばd次元(dは任意の整数)であり、対応する音(「C4」や「E4」等)に対応する次元に「1」が入力され、その他の次元に「0」が入力されたベクトルである。
すなわち、情報処理装置100は、「C4、_、_、_、E4、_、_、R」といったデータの並びを参照した場合、「C4」の埋め込みベクトルを4回参照し、次に「E4」の埋め込みベクトルを3回参照し、「R」の埋め込みベクトルを1回参照することになる。
ここで、情報処理装置100は、「C4、_、_、_、E4、_、_、R」に対応する埋め込みベクトルの平均(足し算でもよい)をとる。そうすると、平均化されたベクトルにおいて、順序に依存する情報(すなわちリズム)が損失し、音の順序を示す情報以外の情報(例えば構成音等)」が抽出される。このようにして、情報処理装置100は、曲の局所的な部分における「音の順序を示す情報以外の情報」を抽出することができる。
このようにして得られた特徴情報fは、データxに含まれる構成音(すなわち、曲30を構成する構成音の音高)は維持されるものの、リズムを示す情報(どのタイミングで音が発せられるか、どのタイミングで休符となるか等)は失われる。
続いて、情報処理装置100は、元のデータxを第1エンコーダ50に入力するとともに、特徴情報fを第1エンコーダ50とは異なるエンコーダである第2エンコーダ55に入力する(ステップS5)。なお、第1エンコーダ50及び第2エンコーダ55は、例えば上記したVAE等におけるエンコーダであり、入力されたデータの特徴量を低次元のベクトルとして抽出する。
情報処理装置100は、第1エンコーダ50及び第2エンコーダ55の各々から出力される特徴量を得る(ステップS6)。図1の例では、データxの特徴量を「z」と表現し、特徴情報fの特徴量を「z」と表現する。
なお、特徴量z及び特徴量zは、説明のため別々に記載しているが、実際には一つの特徴量ベクトルに含まれる。この点について、図2を用いて説明する。図2は、本開示の実施形態に係る特徴量を説明する図である。
図2に示すように、情報処理装置100が生成する学習済みモデルにおいて、特徴量ベクトルが64次元のベクトルであると仮定する。この場合、第1エンコーダ50から出力される特徴量zは、特徴量ベクトルの一部(例えば、特徴量ベクトルの前半部分)を構成する。また、第2エンコーダ55から出力される特徴量zも、特徴量ベクトルの一部(例えば、特徴量ベクトルの後半部分)を構成する。なお、特徴量ベクトルを64次元とすることや、そのうちどのくらいの次元を第1エンコーダ50の出力に割り当て、どのくらいの次元を第2エンコーダ55の出力に割り当てるか等は、任意に設定可能である。
すなわち、情報処理装置100は、エンコーダを複数用いたモデルを構成することで、特徴量ベクトルのうち、どの次元がいずれのエンコーダから出力された値であるかを判定することができる。すなわち、情報処理装置100は、どの次元がどのような特徴を示しているかを人為的に解釈可能な特徴量ベクトルを出力することができる。
図1に戻って説明を続ける。情報処理装置100は、第1エンコーダ50及び第2エンコーダ55の各々から出力された特徴量z及び特徴量zをデコーダ60に入力する(ステップS7)。
デコーダ60は、エンコーダが抽出した特徴量に基づいてコンテンツを再構成するよう学習されるデコーダである。図1の例では、デコーダ60は、第1エンコーダ50及び第2エンコーダ55の各々から出力された特徴量z及び特徴量zに基づいて、データxを出力する(ステップS8)。
データxは、第1コンテンツのデータであるデータxと同様の形式を有する。すなわち、データxは、曲30と同様の形式を有する曲35を再生するためのデータ(記号列)といえる。言い換えれば、情報処理装置100は、デコーダ60から出力されたデータx2に基づいて、コンテンツ(図1の例では曲35)を再構成する(ステップS9)。
そして、情報処理装置100は、再構成されたコンテンツに基づいて、モデルの学習処理を行う。具体的には、情報処理装置100は、特徴量の抽出処理における前後のデータ、すなわちデータxとデータxとを比較し、データxがデータxに近付くよう、第1エンコーダ50、第2エンコーダ55及びデコーダ60のパラメータを最適化する(ステップS10)。より具体的には、情報処理装置100は、データxとデータxとの再構成誤差が小さくなるように、かつ、特徴量の事後分布が事前分布に近づくように、パラメータを最適化する。さらに、情報処理装置100は、データx以外の複数の学習データを取得し、図1に示した学習処理を繰り返すことによって、学習済みモデルの最適化を進める。これにより、情報処理装置100は、本開示に係る学習済みモデルを生成することができる。
図1の処理を経て生成された学習済みモデルによれば、新たに曲をモデルに入力した場合に、その曲の特徴量が分離された特徴量ベクトルを得ることができる。図1の例では、学習済みモデルに係る第2エンコーダ55は、学習データのうちリズム情報が損失したデータ(例えば特徴情報f)に基づいて学習されているため、リズム以外の特徴を抽出するよう学習されたエンコーダであるといえる。言い換えれば、第2エンコーダ55が出力する特徴量は、曲のうち構成音等の順序不変特徴量を捉えたもの(ある次元が「構成音」を示すものである、と人間が解釈可能なもの)であるといえる。一方、学習済みモデルに係る第1エンコーダ50は、特徴量ベクトルのうち、主に順序可変特徴量(すなわちリズム)を抽出するよう学習されたエンコーダであるといえる。言い換えれば、第1エンコーダ50が出力する特徴量は、曲のうちリズムの特徴のみを捉えたもの(ある次元が「リズム」を示すものである、と人間が解釈可能なもの)であるといえる。
このように、情報処理装置100は、複数のエンコーダに予め分離抽出した情報を入力し、その情報に基づいて学習を行うことで、通常であれば単なる数値の羅列として示される特徴量ベクトルを、特定の特徴に分離することができる。例えばコンテンツが曲であれば、情報処理装置100は、リズムやメロディ(コードの構成音等)が分離された特徴量ベクトルを出力することができる。すなわち、情報処理装置100は、ユーザが指定した特徴を分離することができる(ユーザが指定した特徴量を選択的に学習することのできる)学習済みモデルを生成することができる。
また、情報処理装置100は、生成した学習済みモデルを利用して、ユーザが指定する特徴を有する新規なコンテンツ(第2コンテンツ)を生成することもできる。この点について、図3を用いて説明する。図3は、本開示の実施形態に係る生成処理を説明する図である。
図3に示すように、情報処理装置100は、図1で示した特徴量zを取得する(ステップS11)。上述のように、特徴量zは、曲30のうちリズムに関する特徴を比較的多く含む特徴量である。言い換えれば、特徴量zは、曲30のうち、対象が分離された特徴量である。
一方、情報処理装置100は、図1で示した特徴量zと同じ次元を有する特徴量である特徴量zを取得する(ステップS11)。特徴量zは、任意のデータにおける特徴量を示す。任意のデータの特徴量とは、例えば、第2エンコーダ55を用いて曲30以外の他の曲から抽出された特徴量である。あるいは、任意のデータの特徴量は、特徴量z等の特徴量の事前分布からサンプリングされた特徴量であってもよい。
そして、情報処理装置100は、特徴量z及び特徴量zをデコーダ60に入力する(ステップS12)。情報処理装置100は、デコーダ60から出力されるデータxを取得する(ステップS13)。続けて、情報処理装置100は、データxから、第2コンテンツである曲45を再構成する(ステップS14)。
上記のように、特徴量zとは、曲30のリズムの特徴を示した特徴量である。このため、データxによって再構成された曲45は、曲30のリズム(例えば、音符の並びの順序や、音符の譜割や、小節数や、テンポ等)の特徴が引き継がれ、かつ、構成音等は特徴量zにより示される特徴を有する曲となる。具体的には、曲45は、曲30のリズムを維持しつつ、そのリズムで奏でられる音階が曲30とは異なる音階(例えば、特徴量zにおける構成音の特徴が反映された音階)である曲となる。なお、情報処理装置100は、曲45を再構成したのちに、特徴量zを固定したまま(リズムの固定)、特徴量zを事前分布からサンプリングし直すことを繰り返してもよい。これにより、情報処理装置100は、同じリズムの特徴を保ったまま、異なる音階で演奏される複数の曲を自動的に生成することができる。ここで、第2コンテンツの生成に際しては、上記の特徴量zについても、図1で示した特徴量zと必ずしも同一のものではなく、特徴量zの事前分布からサンプリングされた値を用いてもよい。
これにより、情報処理装置100は、ある特徴(この例ではリズム)を分離して抽出し、抽出した特徴量を用いてコンテンツを生成することができるので、ユーザが所望する特徴を有する曲を自在に生成することができる。例えば、情報処理装置100は、リズムを固定して、構成音が異なる曲のバリエーションを生成することができる。また、情報処理装置100は、リズムでなく、構成音の特徴を固定した場合には(上記の例では、特徴量zを固定し、特徴量zに該当する箇所に異なる特徴量を入力する)、コードの種類を固定したまま様々なリズム(フレーズ)を奏でるといった、種々のアルペジオ的なバリエーションを生成することができる。すなわち、情報処理装置100は、ユーザが指定できる(言い換えれば、特徴情報を生成するようなルールを記述できる)特徴であれば、任意の音楽概念を固定して、様々なバリエーションをもつ曲を自動的に生成することができる。
なお、上記ステップS4において、情報処理装置100が、データxにおける順序不変性を用いてリズムに関する特徴情報fを抽出する例を示した。ここで、情報処理装置100は、音高を示す情報を損失させる手法を用いて、特徴情報fを抽出してもよい。
上記ステップS4と同様の具体例を挙げて説明する。仮に、曲30を構成する8拍分の音符の並びが、「C4、_、_、_、E4、_、_、R」であるものとする。この例で、「C4」及び「E4」は、音の高さを示す。また、記号「_」は、前の音を伸ばしていることを示す。また、「R」は、休符を示す。
ここで、情報処理装置100は、音高を示す情報を欠損させる。例えば、情報処理装置100は、「C4」及び「E4」等の情報を「M」など、共通する情報に置き換える。これにより、曲30を構成する情報は、「M、_、_、_、M、_、_、R」となる。かかる情報は、音高のみが損失するものの、リズムは維持された情報となる。
この場合、抽出された情報(「特徴情報f」とする)が異なるため、ステップS5以降のエンコーダの学習も異なることになる。すなわち、特徴情報fは、曲30のリズムを維持した情報を有するため、かかる情報を学習する第2エンコーダ55は、曲のうち「リズムの特徴」を示す特徴量zを出力するよう学習される。一方、第1エンコーダ50は、曲のうち「リズムの特徴」以外の特徴量zを出力するよう学習される。すなわち、図1で示した例とは互いに異なる情報を抽出するエンコーダが学習される。このように、第1エンコーダ50及び第2エンコーダ55の学習は、事前の抽出操作40の種別によって様々に変化する。
なお、図1の例では、曲30全体の特徴を学習する例を示したが、情報処理装置100は、曲30を所定の区間ごとに区切り、区間ごとのコンテンツのデータ(部分データ)を取得してもよい。
この場合、情報処理装置100は、種々の既知の手法を用いて曲30を部分データに分割してもよい。例えば、情報処理装置100は、予め設定された小節の区切りを検出し、曲30を部分データ(小節)に分割する。あるいは、情報処理装置100は、拍子と音符の関係に基づいて曲30を部分データに分割してもよい。例えば、情報処理装置100は、曲30が4分の4拍子であれば、四分音符に該当する長さの音が4つ再生された時点を一つの区切りと検出し、曲30を小節に分割する。
また、情報処理装置100は、部分データとして、小節以外の区切りを用いてもよい。例えば、情報処理装置100は、曲30のメロディラインの区切り(例えば、所定の閾値を超える長さの休符が登場した箇所等)を検出して、部分データに分割してもよい。この場合、部分データは、必ずしも小節とは一致しなくてもよい。また、情報処理装置100は、曲30のうち、コードが変化するタイミング等を検出し、検出したタイミングに基づいて部分データに分割してもよい。
[1-2.実施形態に係る情報処理装置の構成]
次に、実施形態に係る情報処理を実行する情報処理装置の一例である情報処理装置100の構成について説明する。図4は、本開示の実施形態に係る情報処理装置100の構成例を示す図である。
図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100を管理する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークN(インターネット等)と有線又は無線で接続され、ネットワークNを介して、他の装置等との間で情報の送受信を行う。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、モデル記憶部121と、曲データ記憶部122とを有する。
モデル記憶部121は、学習済みモデルを記憶する。具体的には、モデル記憶部121は、コンテンツの特徴量を抽出する第1エンコーダ50及び第2エンコーダ55と、コンテンツを再構成するデコーダ60とを有する。なお、モデル記憶部121は、学習に用いたコンテンツ等の学習データを記憶してもよい。
曲データ記憶部122は、モデルに入力されるコンテンツ(曲)に関するデータを記憶する。図5に、実施形態に係る曲データ記憶部122の一例を示す。図5は、本開示の実施形態に係る曲データ記憶部122の一例を示す図である。図5に示した例では、曲データ記憶部122は、「曲ID」、「部分データID」、「音高情報」、「音長休符情報」、「コード情報」、「リズム情報」といった項目を有する。
「曲ID」は、曲を識別する識別情報である。「部分データID」は、部分データを識別する識別情報である。部分データは、例えば、曲を構成する1つ又は複数の小節等に対応する。
「音高情報」は、部分データに含まれる音の音高(音階)の情報を示す。「音長休符情報」は、部分データに含まれる音の長さ(再生時間や、再生される拍数)や、休符の長さやタイミングを示す。「コード情報」は、部分データに含まれるコードの種類や、コードの構成音、小節内のコードの切り替わり等を示す。「リズム情報」は、小節の拍子やテンポ、強拍、弱拍の位置等を示す。
なお、図5では、音高情報等の項目を「C01」のように概念的に記載しているが、実際には、各項目には、上記で説明したような音を示す具体的なデータが記憶される。また、図5では、説明のため、「音高情報」や「音長休符情報」等が異なる項目として記憶される例を示しているが、これらの情報は、小節に含まれる音符を示す情報として、一つの項目等にまとめて記憶されてもよい。すなわち、曲を示すデータの形式は、図5に図示したものに限られず、モデルで取り扱うことのできる形式であれば、いずれであってもよい。
例えば、図5に示した例では、曲IDが「A01」で識別される曲は、部分データIDが「B01」や「B02」で識別される部分データを有することを示している。また、部分データIDが「B01」である部分データは、音高情報が「C01」、音長休符情報が「D01」、コード情報が「E01」、リズム情報が「F01」で示される音データを含むことを示している。
図4に戻り、説明を続ける。制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図4に示すように、制御部130は、抽出部131と、モデル生成部132と、取得部133と、コンテンツ生成部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
抽出部131は、第1コンテンツを構成する要素から第1データを抽出する。例えば、抽出部131は、ユーザの指定に従い、所定のルールに基づいて、第1コンテンツを構成する要素から第1データを抽出する。例えば、抽出部131は、曲である第1コンテンツを構成するデジタルデータに対して抽出操作を実行し、第1データを抽出する。
例えば、抽出部131は、第1コンテンツに対してユーザが指定する操作、及び、操作を実行する範囲の指定を受け付け、受け付けた範囲に対して操作を実行する。具体的には、抽出部131は、図1で示した曲30において、曲30からリズムのみを抽出するという操作と、リズムを抽出する範囲(例えば、小節等)の指定をユーザから受け付ける。そして、抽出部131は、ユーザの指定に従い、抽出に係る操作を実行する。
抽出部131は、操作の一例として、範囲に含まれる要素に順序不変性のある演算処理を行うことにより第1データを抽出する。例えば、抽出部131は、第1コンテンツを構成するデータに対して、足し算や掛け算、max演算等、順序不変な演算を行う。かかる処理により、抽出部131は、順序に依存する情報(曲の例ではリズム)のみをマスクした第1データを第1コンテンツから抽出することができる。
なお、抽出部131は、範囲に含まれる要素のうち、時間依存もしくは順序依存しない情報を損失させることにより、第1データを抽出してもよい。曲において、時間依存もしくは順序依存しない情報とは、例えば、ある小節内のコードの構成音や、曲の調性や、音符の総数や、曲の拍子等が挙げられる。一方、時間や順序に依存する情報の例としては、曲のリズム情報が挙げられる。
例えば、抽出部131は、第1コンテンツの特定の範囲の情報のうち、時間依存もしくは順序依存しない情報である音高情報を損失させることで、リズム情報のみが維持された第1データを抽出することができる。
モデル生成部132は、第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダ50と、抽出部131によって抽出された第1データの特徴量である第2特徴量を算出する第2エンコーダ55とを有する学習済みモデルを生成する。なお、学習済みモデルに含まれるエンコーダは、2つに限られず、より多くの数が含まれてもよい。
また、モデル生成部132は、第1特徴量及び第2特徴量に基づき第1コンテンツに対応するデータをデコードするデコーダ60を有する学習済みモデルを生成する。すなわち、モデル生成部132は、複数のエンコーダから抽出された特徴量をデコードする場合には、共通する1つのデコーダ60でデコードする構成を有する学習済みモデルを生成する。
例えば、モデル生成部132は、曲等のコンテンツデータを学習する場合、コンテンツデータを第1エンコーダ50に入力し、コンテンツデータから抽出された特徴情報を第2エンコーダ55に入力する。続けて、モデル生成部132は、第1エンコーダ50及び第2エンコーダ55から出力された特徴量をデコーダ60に入力し、コンテンツ(曲)を再構成する。そして、モデル生成部132は、前後のコンテンツのデータの相違が小さくなるよう、第1エンコーダ50、第2エンコーダ55及びデコーダ60のパラメータを調整する。モデル生成部132は、かかる処理を繰り返し、第1エンコーダ50、第2エンコーダ55及びデコーダ60が最適化された学習済みモデルを生成する。上述のように、モデル生成部132は、VAEやGAN等、種々の既知の手法を用いてモデルを生成してもよい。
取得部133は、各種情報を取得する。例えば、取得部133は、モデル生成部132によって生成された学習済みモデルに入力するデータを取得する。
例えば、取得部133は、第1エンコーダ50から出力された特徴量や、第2エンコーダ55から出力された特徴量を取得する。また、取得部133は、出力された特徴量を変化させ、取得した情報を学習済みモデルに入力する情報として取得してもよい。例えば、取得部133は、既知の特徴量の事前分布からサンプリングを行い、新規な特徴量を取得してもよい。
また、取得部133は、ユーザが利用する情報処理端末から任意のデータを取得してもよい。例えば、取得部133は、曲を構成するデータを取得する。そして、取得部133は、取得したデータを学習済みモデルに入力し(この場合、同じデータを第1エンコーダ50及び第2エンコーダ55にそれぞれ入力する)、各々のエンコーダから出力された特徴量を取得してもよい。
コンテンツ生成部134は、学習済みの第1エンコーダ50もしくは第2エンコーダ55から出力された特徴量、又は、これらの特徴量に基づいて生成される特徴量のいずれかを組み合わせた値をデコーダに入力することにより、第1コンテンツと同じ形式を有する新たなコンテンツである第2コンテンツを生成する。なお、学習済みの第1エンコーダ50もしくは第2エンコーダ55から出力された特徴量に基づいて生成される特徴量とは、例えば、いずれかのエンコーダから出力された特徴量の事前分布からサンプリングされて求められる特徴量をいう。
例えば、コンテンツ生成部134は、任意のデータを学習済みの第1エンコーダ50もしくは第2エンコーダ55に入力して出力された特徴量に基づいて、第2コンテンツを生成してもよい。あるいは、コンテンツ生成部134は、図3に示した例のように、生成された既存の特徴量(図3の例では特徴量z)と、任意のデータを学習済みの第1エンコーダ50もしくは第2エンコーダ55に入力して得られる特徴量(図3の例では特徴量z)とを組み合わせた値(例えば64次元のベクトル)から、第2コンテンツを生成してもよい。
なお、上記のように、ユーザの指定する操作に応じて、ユーザが所望する特徴を保持する特徴量は変わる。すなわち、第1エンコーダ50から出力される特徴量と、第2エンコーダ55から出力される特徴量とにおいて、いずれがユーザの所望する特徴を保持するかは、ユーザが指定する操作や抽出操作の種別によって異なる。いずれにせよ、コンテンツ生成部134は、デコーダ60に入力される特徴量に対応する値(例えば特徴量が64次元のベクトルであれば、64次元のベクトルを構成する値)が得られれば、当該特徴量に対応した第2コンテンツを生成することができる。
また、コンテンツ生成部134は、既存の特徴量を用いるのではなく、学習済みの第1エンコーダ50から出力された特徴量と、学習済みの第2エンコーダ55から出力された特徴量とを組み合わせた値をデコーダ60に入力することにより、第2コンテンツを生成してもよい。例えば、コンテンツ生成部134は、取得部133によって取得された任意のデータ(曲等)を学習済みの第1エンコーダ50及び第2エンコーダ55に入力して出力された各々の特徴量を組み合わせた値に基づいて、第2コンテンツを生成してもよい。
また、コンテンツ生成部134は、組み合わせた値のうち、いずれかの特徴量に該当する値を固定し、他の特徴量に該当する値を順に可変させることで、複数の第2コンテンツを順に生成してもよい。例えば、特徴量の前半部分がリズムの特徴を示すものである場合、コンテンツ生成部134は、特徴量の前半部分を固定し、後半部分を可変させることで、リズムが維持された複数の曲を順に生成することができる。
[1-3.実施形態に係る情報処理の手順]
次に、図6及び図7を用いて、実施形態に係る情報処理の手順について説明する。まず、図6を用いて、本開示の実施形態に係る学習処理の流れについて説明する。図6は、本開示の実施形態に係る情報処理の手順を示すフローチャート(1)である。
図6に示すように、情報処理装置100は、学習データ(コンテンツ)を取得したか否かを判定する(ステップS101)。学習データを取得していない場合(ステップS101;No)、情報処理装置100は、学習データを取得するまで待機する。
一方、学習データを取得した場合(ステップS101;Yes)、情報処理装置100は、対象とする情報(特徴情報)を抽出する(ステップS102)。
そして、情報処理装置100は、元の学習データと、抽出した情報とを別々のエンコーダに入力する(ステップS103)。例えば、情報処理装置100は、元の学習データを第1エンコーダ50に入力し、抽出した情報を第2エンコーダ55に入力する。
そして、情報処理装置100は、元の学習データと抽出した情報とのそれぞれの特徴量を算出する(ステップS104)。続けて、情報処理装置100は、算出した特徴量をデコーダ60に入力する(ステップS105)。
これにより、情報処理装置100は、デコーダ60から、元の学習データと同じ形式のデータを出力させる(ステップS106)。そして、情報処理装置100は、出力されたデータと、元の学習データとに基づいて、モデルを最適化する(ステップS107)。例えば、情報処理装置100は、出力されたデータと元の学習データとを比較し、再構成誤差が小さくなるようにモデルのパラメータを最適化する。なお、情報処理装置100は、モデルの最適化のため、ステップS101からステップS107までの処理を充分な回数(例えば、パラメータが所定閾値内に落ち着くまで)繰り返してもよい。
情報処理装置100は、学習済みモデル(第1エンコーダ50、第2エンコーダ55及びデコーダ60)を記憶部120内に格納する(ステップS108)。これにより、情報処理装置100は、学習処理を終了する。
次に、図7を用いて、本開示の実施形態に係る生成処理の流れについて説明する。図7は、本開示の実施形態に係る情報処理の手順を示すフローチャート(2)である。
図7に示すように、情報処理装置100は、第1の特徴量を取得する(ステップS201)。例えば、第1の特徴量は、学習済みの第1エンコーダ50からの出力である。また、情報処理装置100は、第2の特徴量を取得する(ステップS202)。例えば、第2の特徴量は、学習済みの第2エンコーダ55からの出力である。
そして、情報処理装置100は、取得した第1の特徴量及び第2の特徴量を組み合わせた値をデコーダ60に入力する(ステップS203)。
続けて、情報処理装置100は、デコーダ60から出力されたデータに基づいて、第2コンテンツを生成する(ステップS204)。
(2.その他の実施形態)
上述した各実施形態に係る処理は、上記各実施形態以外にも種々の異なる形態(変形例)にて実施されてよい。
[2-1.学習及び生成処理のバリエーション]
上記実施形態では、2つのエンコーダと1つのデコーダを有する学習済みモデルについて説明した。ここで、情報処理装置100は、上記実施形態とは異なる構成の種々のモデルを学習してもよい。この点について、図8以下を用いて説明する。
図8は、本開示の第1の変形例に係る学習処理の一例を示す図である。図8に示す例では、モデルは、図1で示した例と比較して、第1デコーダ61と第2デコーダ62とを有する点で相違する。
図8に示した例では、情報処理装置100は、図1で示したステップS1と同様、データxに対して抽出操作40を実行して(ステップS15)、特徴情報fを取り出す(ステップS16)。また、情報処理装置100は、図1で示したステップS5と同様、データxを第1エンコーダ50に入力し、特徴情報fを第2エンコーダ55に入力する(ステップS17)。これにより、情報処理装置100は、特徴量z及び特徴量zを得る(ステップS18)。かかる操作は、言い換えれば、情報処理装置100がデータxと特徴情報fに対して第1エンコーダ50又は第2エンコーダ55に対応する関数演算を行い、特徴量z及び特徴量zを出力するものである。
続いて、情報処理装置100は、特徴量z及び特徴量zを第1デコーダ61に入力し、特徴量zを第2デコーダ62に入力する(ステップS19)。かかる操作は、言い換えれば、情報処理装置100が特徴量z及び特徴量zに対して第1デコーダ61に対応する関数演算を行い、特徴量zに対して第2デコーダ62に対応する関数演算を行うことを意味する。
ステップS19の演算により、情報処理装置100は、第1デコーダ61からデータx´を得る。また、情報処理装置100は、第2デコーダ62から特徴情報f´を得る(ステップS20)。なお、データx´は、データxと同様の形式を有するデータであり、デコーダを経て出力されたデータを概念的に示したものである。また、特徴情報f´は、特徴情報fと同様の形式を有するデータであり、デコーダを経て出力された特徴情報を概念的に示したものである。
その後、情報処理装置100は、データx´がデータxに、特徴情報f´が特徴情報fに、各々近付くよう、各エンコーダ及びデコーダのパラメータを調整する。すなわち、情報処理装置100は、図1に示したステップS10と同様、モデルの最適化処理を行う。
このように、情報処理装置100は、2つのデコーダを有するモデルを学習してもよい。すなわち、情報処理装置100は、第1特徴量(特徴量z)及び第2特徴量(特徴量z)に基づき第1コンテンツ(データx)対応するデータをデコードする第1デコーダ61と、第2特徴量に基づき、第1コンテンツを構成する要素から抽出された第1データ(特徴情報f)に対応するデータ(特徴情報f)をデコードする第2デコーダ62を有する学習済みモデルを生成する。
かかる構成によれば、第2エンコーダ55及び第2デコーダ62によって学習される特徴量zは、図1で示した構成と比較して、特徴情報fの情報を確実に持つことになる。このため、情報処理装置100は、特徴を分離した学習を安定的に行うことができる。より具体的には、情報処理装置100は、図8で示した構成により、特徴情報fとして分離した情報(例えば、曲のリズム)をより確実に学習することができる。
なお、図8で示したモデルは、さらに異なる構成とすることもできる。この点について、図9を用いて説明する。図9は、本開示の第2の変形例に係る学習処理の一例を示す図である。
図9に示す例では、モデルは、図8で示した例と比較して、第2エンコーダ55を有しない点で相違する。
図9に示した例では、情報処理装置100は、図8で示したステップS15と同様、データxに対して抽出操作40を実行して(ステップS31)、特徴情報fを取り出す(ステップS32)。ここで、情報処理装置100は、データxを第1エンコーダ50に入力し(ステップS33)、特徴量z及び特徴量zを得る(ステップS34)。この場合、情報処理装置100は、第1エンコーダ50から出力される値について、予め所定のルールを設けておき、特徴量z及び特徴量zを出力する。例えば、情報処理装置100は、出力される64次元のベクトルのうち前半の32次元を特徴量zと、後半の32次元を特徴量zとするなど、予めルールを設けておく。
続いて、情報処理装置100は、特徴量z及び特徴量zを第1デコーダ61に入力し、特徴量zを第2デコーダ62に入力する(ステップS35)。ステップS35の演算により、情報処理装置100は、第1デコーダ61からデータx´を得る。また、情報処理装置100は、第2デコーダ62から特徴情報f´を得る(ステップS36)。
その後、情報処理装置100は、データx´がデータxに、特徴情報f´が特徴情報fに、各々近付くよう、各エンコーダ及びデコーダのパラメータを調整する。
このように、情報処理装置100は、第2エンコーダ55を省略した構成であっても、図1や図8で示したように、特徴量を分離した学習を行うことができる。これにより、情報処理装置100は、モデルの構成を簡易にできるため、例えば学習処理を迅速に行ったり、処理負荷を軽減させたりすることができる。
次に、新たなコンテンツを生成する場合の生成処理の変形例について、図10を用いて説明する。図10は、本開示の第3の変形例に係る生成処理の一例を示す図である。
図10は、学習済みの第1エンコーダ50及び第1デコーダ61から、新たなコンテンツを生成する際の処理の流れを示している。なお、第1エンコーダ50及び第1デコーダ61は、例えば、図9等の学習を経て、パラメータが学習されたエンコーダ及びデコーダである。
情報処理装置100は、任意のデータxを第1エンコーダ50に入力し(ステップS41)、特徴量z及び特徴量zを得る(ステップS42)。そして、情報処理装置100は、特徴量z及び特徴量zを第1デコーダ61に入力し(ステップS43)、データx´を得る(ステップS44)。なお、情報処理装置100は、第1デコーダ61に入力する特徴量を第1エンコーダ50から得るのではなく、事前学習された特徴量の分布からサンプリングすることで特徴量を得てもよい。
このように、情報処理装置100は、簡易な構成の学習済みのモデル(この例では、第1エンコーダ50及び第1デコーダ61)から、新たなコンテンツであるデータx´を生成することができる。かかる構成によれば、情報処理装置100は、特徴量z及び特徴量zの双方を1つのデコーダに入力することになるため、例えば、完全には分離されていない特徴を含んだデータx´を得ることができる。これにより、情報処理装置100は、例えば特徴量zに分離しきれておらず、特徴量zにも残っていると想定されるリズム情報も含んだ新たなコンテンツを生成することができる。
[2-2.抽出操作のバリエーション]
上記実施形態では、抽出操作40の例として、所定の演算を行い、曲30から順序不変の情報(例えばリズム情報)を抽出する例を示した。情報処理装置100は、この例以外にも、抽出操作40として、種々の操作を行ってもよい。
例えば、上記実施形態では、情報処理装置100が曲30におけるコード構成音を抽出する例を示したが、情報処理装置100は、コード構成音だけでなく、メロディの構成音やドラムの構成音を抽出してもよい。メロディの構成音とは、例えば、曲の小節のような、ある区間に登場する音の種類等を示す。また、ドラムの構成音とは、例えば、曲の小節のような、ある区間に登場するドラムセットの音の種類(スネアドラムやバスドラム等)を示す。
また、情報処理装置100は、曲の流れにおいて、音程が上がったか、下がったか、留まったかといった、音程の流れを示す情報(いわゆるMelodic Contour)を抽出してもよい。また、情報処理装置100は、曲を構成する音のスケール(12音のうち、いずれの音を用いて曲が構成されているかを示す情報)を抽出してもよい。また、情報処理装置100は、構成する音に順番を付した情報(順番付き構成音)を抽出してもよい。例えば、情報処理装置100は、隣り合う音符の音程を順序付けて並べた情報(例えば、1度、1度、2度などの音程の羅列)を抽出してもよい。
また、情報処理装置100は、曲においてパターン分類した系列(一例として、Implication/Realization Model等)を抽出してもよい。また、情報処理装置100は、例えばGTTM(Generative Theory of Tonal Music)のタイムスパン木の深さで決定された、重要な音符列を抽出するような手法を採用してもよい。
また、情報処理装置100は、曲を構成する音のうち、リード音となる情報や、コード音や、コードタイプや、コードの根音(ルート)や、ベースライン等を抽出してもよい。
また、情報処理装置100は、曲がMIDI情報で構成されている場合、ある区間における強さ情報(Velocity)を抽出してもよい。
また、情報処理装置100は、曲を構成する楽器ごと、あるいは、楽器グループごとの音を抽出してもよい。また、情報処理装置100は、ある曲の特徴をDNN(Deep Neural Network)で学習させた場合の、ある層の特徴同士の相関を計算したスタイル特徴量等を抽出してもよい。また、情報処理装置100は、曲における自己相似(self-similarity)等を抽出してもよい。
また、情報処理装置100は、曲の特徴を学習し、学習した結果に基づいて特徴を抽出してもよい。例えば、情報処理装置100は、曲を転調させるというタスクをSequence-to-sequence Network(モデル)で学習し、デコーダに転調等の条件付けをすることで、転調に関して不変となる特徴を抽出してもよい。
[2-3.アプリケーションのバリエーション]
上記実施形態で説明したように、本開示に係る情報処理によれば、所定の特徴を分離させた学習を行うことができるため、新たなコンテンツに登場する特徴の影響を選択的に強弱させることができる。この点について、図11を用いて説明する。図11は、本開示に係る生成処理を概念的に説明するための図である。
図11には、本開示に係る生成処理によって生成される曲のイメージ(音程と音の長さ)を概念的に示したグラフ64を示す。上述のように、情報処理装置100は、曲を表す特徴の一つとしてリズムを抽出し、リズムを固定したり、あるいは変化させたりといった影響を反映させた新たな曲を生成可能である。
例えば、情報処理装置100は、曲のリズムの特徴を決定する因子(「リズム因子」と称する)を固定したまま、リズム因子以外の特徴を変化させた場合、図11に示したリズム因子の固定という軸に沿った曲を生成する。一方、情報処理装置100は、リズム因子以外の特徴を固定して、リズム因子を変化させた場合、図11に示したリズム因子以外の固定という軸に沿った曲を生成する。
一般的には、コンテンツの生成において、特徴量が分離できない場合には、元となるデータに何らかの変化を与えることができるものの、その変化の方向を調整することは難しい。例えば、情報処理装置100は、1小節の音情報を示した曲65の特徴量を変化させて、新たな曲66を生成することが可能であるものの、特徴量が分離されていない場合、その変化の方向は、対角線上の一方向(いわゆる1D-interpolation)となる。
しかしながら、情報処理装置100によれば、曲の特徴のうちリズム因子という要素を分離できるため、リズム因子を固定させる方向、及び、リズム因子以外を固定させる方向(いわゆる2D-interpolation)で曲65を変化させることが可能である。例えば、情報処理装置100は、ユーザの要望に従い、曲65をグラフ64に示した全ての曲のイメージに変化させることができる。このように、情報処理装置100は、特徴量のブレンド比率を調整するように、新たなコンテンツを生成することができる。
すなわち、情報処理装置100は、曲のリズムや転調の度合い、スケール等を固定するだけでなく、その変化の度合いを制御して、新たなコンテンツやバリエーションを生成することができる。具体的な方法としては、ノイズを2つ得て、それぞれを2つの特徴量z、zに加えれば特徴量のバリエーションが生成できる。この際、ノイズをスケーリングすれば、バリエーションの度合いを2つの特徴量z、zごとに制御することができる。例えば、ノイズを得る方法を2通り挙げると、(1)正規分布など、ある決め打ちの分布からノイズを得る、(2)VAEを用いてエンコーダを学習し、エンコーダが出力するノイズを用いる、といった方法がある。また、情報処理装置100は、ある2つの曲の特徴を交換させて新たなコンテンツを生成するなど、柔軟な生成処理を行うことができる。
[2-4.特徴量のバリエーション]
上記実施形態では、情報処理装置100が、曲における2種類の特徴量(リズムと、リズム以外の要素)を学習する例を示した。しかし、情報処理装置100は、2種類以上の特徴量を学習してもよい。
この点について、図12以下を用いて説明する。図12は、本開示の第4の変形例に係る学習処理の一例を示す図(1)である。図12には、学習処理において分離される特徴量z、z、z、zと、その特徴量同士の関係性のバリエーションを概念的に示す。
図12(a)に示す概念図67は、3種類の特徴量が、それぞれ排反となる特徴群であることを示す。図12(b)に示す概念図68は、4種類の特徴量が、それぞれ共通部分のある空間となる特徴群であることを示す。図12(c)に示す概念図69は、3種類の特徴量が、入れ子空間となる特徴群であることを示す。
図13に、図12(a)で示した特徴群を学習する例を示す。図13は、本開示の第4の変形例に係る学習処理の一例を示す図(2)である。
図13に示すように、情報処理装置100は、データxに対して第1抽出操作41及び第2抽出操作42を実行する(ステップS51)。そして、情報処理装置100は、第1抽出操作41によって特徴情報fを得て、第2抽出操作42によって特徴情報fを得る(ステップS52)。続けて、情報処理装置100は、データxを第1エンコーダ50に入力し、特徴情報fを第2エンコーダ55に入力し、特徴情報fを第3エンコーダ56に入力する(ステップS53)。
情報処理装置100は、第1エンコーダ50から特徴量zを得て、第2エンコーダ55から特徴量zを得て、第3エンコーダ56から特徴量zをそれぞれ得る(ステップS54)。続いて、情報処理装置100は、特徴量z、特徴量z及び特徴量zを第1デコーダ61に、特徴量zを第2デコーダ62に、特徴量zを第3デコーダ63に、それぞれ入力する(ステップS55)。そして、情報処理装置100は、第1デコーダ61からデータx´を、第2デコーダ62から特徴情報f´を、第3デコーダ63から特徴情報f´を、それぞれ得る(ステップS56)。続けて、情報処理装置100は、データx´がデータxに、特徴情報f´が特徴情報fに、特徴情報f´が特徴情報fに、それぞれ近付くよう、デコーダ及びエンコーダを最適化する。
図13に示す構成により、情報処理装置100は、図12(a)で示した関係性にある特徴群を学習することができる。なお、図13に示した学習の具体例を挙げると、例えば、第1デコーダ61は曲のメロディに関するタスクを実行しており、第2デコーダ62は曲のメロディのリズムに関するタスクを実行しており、第3デコーダ63は曲のメロディ構成音に関するタスクを実行している。言い換えれば、図13で示したモデルは、第2デコーダ62が特徴量zを捉え、第3デコーダ63が特徴量zを捉え、第1デコーダ61が、それ以外の特徴を捉えているといえる。
次に、図14に、図12(b)で示した特徴群を学習する例を示す。図14は、本開示の第4の変形例に係る学習処理の一例を示す図(3)である。
図14に示すように、情報処理装置100は、データxを第1エンコーダ50に入力する(ステップS61)。そして、情報処理装置100は、第1エンコーダ50から特徴量z、z、z、zを出力する(ステップS62)。なお、この場合、情報処理装置100は、図9のステップS33等と同様、特徴量の分離に関して、予め所定のルールを設けていてもよい。
続けて、情報処理装置100は、特徴量z、z、z、zを第1デコーダ61に、特徴量z及び特徴量zを第2デコーダ62に、特徴量z及びzを第3デコーダ63に、それぞれ入力する(ステップS63)。かかる処理は、図12(b)で示したように、特徴量zが、特徴量z及び特徴量zと共通性を有していることによる。
そして、情報処理装置100は、第1デコーダ61からデータx´を、第2デコーダ62から特徴情報f´を、第3デコーダ63から特徴情報f´を、それぞれ得る(ステップS56)。続けて、情報処理装置100は、データx´がデータxに、特徴情報f´が特徴情報fに、特徴情報f´が特徴情報fに、それぞれ近付くよう、デコーダ及びエンコーダを最適化する。
図14に示す構成により、情報処理装置100は、図12(b)で示した関係性にある特徴群を学習することができる。
次に、図15に、図12(c)で示した特徴群を学習する例を示す。図15は、本開示の第4の変形例に係る学習処理の一例を示す図(4)である。
図15に示す処理のうち、ステップS71~ステップS74は、図13に示したステップS51~ステップS54と共通であるため、説明を省略する。
情報処理装置100は、ステップS74で得られた特徴量z、特徴量z及び特徴量zを第1デコーダ61に、特徴量z及び特徴量zを第2デコーダ62に、特徴量zを第3デコーダ63に、それぞれ入力する(ステップS75)。かかる処理は、図12(c)で示したように、特徴量zが、特徴量z及び特徴量zと入れ子構造になっていることによる。
そして、情報処理装置100は、第1デコーダ61からデータx´を、第2デコーダ62から特徴情報f´を、第3デコーダ63から特徴情報f´を、それぞれ得る(ステップS76)。続けて、情報処理装置100は、データx´がデータxに、特徴情報f´が特徴情報fに、特徴情報f´が特徴情報fに、それぞれ近付くよう、デコーダ及びエンコーダを最適化する。
図15に示す構成により、情報処理装置100は、図12(c)で示した関係性にある特徴群を学習することができる。図12乃至図15で説明したように、情報処理装置100は、複数の特徴量(特徴群)が様々な関係性を有する場合であっても、各々の特徴を分離させて学習を行うことができる。
[2-5.情報処理のバリエーション]
情報処理装置100は、2つの特徴量(例えば、特徴量z及び特徴量z)に依存関係がある場合、各々の処理に用いるエンコーダや事前分布を依存させてもよい。
また、情報処理装置100は、エンコーダの2つのパスにおいて埋め込みベクトル(embedding)を共有させてもよい。例えば、情報処理装置100は、曲の構成音等を抽出して学習を行う場合には、エンコーダの2つのパスにおいて埋め込みベクトルを共有させる。
また、情報処理装置100は、敵対的学習を用いて特徴量を分離してもよい。具体的には、情報処理装置100は、2つの特徴量(例えば、特徴量z及び特徴量z)を分離するために、特徴量zと正規分布のノイズを分類する識別器を学習しておき、その識別ができなくなるように特徴量zを学習するといった敵対的学習を行ってもよい。
[2-6.モデル構造のバリエーション]
情報処理装置100は、特徴量や特徴情報の取り扱いに関して、さらに異なる構造を有するモデルを学習してもよい。この点について、図16以下を用いて説明する。図16は、本開示の第5の変形例に係る学習処理の一例を示す図である。
図16に示した例では、情報処理装置100は、データxに対して抽出操作40を実行して(ステップS81)、特徴情報fを取り出す(ステップS82)。その後、情報処理装置100は、データxとともに特徴情報fを第1エンコーダ50に入力し、特徴情報fを第2エンコーダ55に入力する(ステップS83)。これにより、情報処理装置100は、特徴量z及び特徴量zを得る(ステップS84)。
続いて、情報処理装置100は、特徴量z及び特徴情報fを第1デコーダ61に入力し、特徴量zを第2デコーダ62に入力する(ステップS85)。そして、情報処理装置100は、第1デコーダ61からデータx´を得て、第2デコーダ62から特徴情報f´を得る(ステップS86)。
その後、情報処理装置100は、データx´がデータxに、特徴情報f´が特徴情報fに、各々近付くよう、各エンコーダ及びデコーダのパラメータを調整する。すなわち、情報処理装置100は、モデルの最適化処理を行う。
このように、情報処理装置100は、第1特徴量(特徴量z)及び第1データ(特徴情報f)に基づき第1コンテンツ(データx)に対応するデータをデコードする第1デコーダ61と、第2特徴量(特徴量z)に基づき第1データに対応するデータ(特徴情報f´)をデコードする第2デコーダ62を有する学習済みモデルを生成してもよい。
具体的には、情報処理装置100は、図8に示したモデル等と相違して、ステップS85において、特徴情報fを第1デコーダ61に入力する。これにより、情報処理装置100は、特徴情報fを条件付けしたうえで、エンコーダ及びデコーダの学習を行うことができる。すなわち、情報処理装置100は、特徴情報fを含む学習を行うことにより、特徴情報fに関する不確実性を排除した学習を行うことができる。具体的には、情報処理装置100は、特徴情報fを予め含んだ学習を行うことで、何らかの要因により特徴量を分離した学習が行われない(例えば、曲のリズム情報のみを特徴量として取り出す等)といった事態を防止することができる。
より具体的には、図16のモデルの構造によれば、特徴量zには、特徴情報fの不確実性が学習されず、特徴情報f以外のデータxの部分の不確実性のみが学習される。言い換えれば、特徴量zには、特徴情報fに関係のない空間が学習される。一方、特徴情報fに関係する空間は、もう一方のエンコーダ(図16の例では、第2エンコーダ55)に学習される。これにより、特徴量zと特徴量zとが明確に分離された空間として学習される。すなわち、第5の変形例に係る学習処理によれば、情報処理装置100は、学習の安定性を高めることができる。
次に、新たなコンテンツを生成する場合の生成処理の変形例について、図17を用いて説明する。図17は、本開示の第5の変形例に係る生成処理の一例を示す図(1)である。
図17は、学習済みの第1エンコーダ50、第1デコーダ61及び第2デコーダ62から、新たなコンテンツを生成する際の処理の流れを示している。なお、第1エンコーダ50、第1デコーダ61及び第2デコーダ62は、例えば、図16の学習を経て、パラメータが学習されたエンコーダ及びデコーダである。
情報処理装置100は、任意のデータxに対して抽出操作40を実行して(ステップS87)、特徴情報fを取り出す(ステップS88)。その後、情報処理装置100は、データxとともに特徴情報fを第1エンコーダ50に入力する(ステップS89)。これにより、情報処理装置100は、特徴量zを得る(ステップS90)。また、情報処理装置100は、事前学習された特徴量(空間)の分布からサンプリングすることで、任意の特徴量zを得る。
続いて、情報処理装置100は、得られた特徴量zを第2デコーダ62に入力し(ステップS91)、得られた特徴情報f´、特徴量z及び特徴情報fを第1デコーダ61に入力する(ステップS91)。これにより、情報処理装置100は、新たなコンテンツであるデータx´を得る(ステップS92)。
図17の構成により、情報処理装置100は、抽出操作によって抽出された特徴(図17の例では特徴情報f)の影響が反映された新たなコンテンツであるデータx´を生成することができる。
なお、情報処理装置100は、生成において、さらに異なる構成を採用することもできる。この点について、図18を用いて説明する。
図18は、学習済みの第1エンコーダ50、第2エンコーダ55、第1デコーダ61及び第2デコーダ62から、新たなコンテンツを生成する際の処理の流れを示している。なお、第1エンコーダ50、第2エンコーダ55、第1デコーダ61及び第2デコーダ62は、例えば、図16の学習を経て、パラメータが学習されたエンコーダ及びデコーダである。
情報処理装置100は、任意のデータxに対して抽出操作40を実行して(ステップS93)、特徴情報fを取り出す(ステップS94)。その後、情報処理装置100は、データxとともに特徴情報fを第1エンコーダ50に入力するとともに、特徴情報fを第2エンコーダ55に入力する(ステップS95)。これにより、情報処理装置100は、第1エンコーダ50から特徴量zを、第2エンコーダ55から特徴量zを得る(ステップS96)。このとき、情報処理装置100は、事前学習された特徴量(空間)の分布からサンプリングすることで、任意の特徴量zを得てもよい。
続いて、情報処理装置100は、得られた特徴量zを第2デコーダ62に入力し(ステップS97)、得られた特徴情報f´及び特徴量zを第1デコーダ61に入力する。これにより、情報処理装置100は、新たなコンテンツであるデータx´を得る(ステップS98)。
図18の構成によっても、情報処理装置100は、抽出操作によって抽出された特徴(図18の例では特徴情報f)の影響が反映された新たなコンテンツであるデータx´を生成することができる。
[2-7.コンテンツのバリエーション]
上記実施形態では、コンテンツの例として曲(音楽)を挙げた。ここで、変形例に係る情報処理装置100は、コンテンツとして、画像やテキストデータ等を用いて本開示に係る情報処理を行ってもよい。
図19乃至図21を用いて、情報処理装置100がコンテンツとして画像を取り扱う場合の例を説明する。図19は、本開示の第6の変形例に係る情報処理の一例を示す図(1)である。
情報処理装置100は、コンテンツとして画像を扱う場合、例えば画像から高解像度(ハイレゾリューション)の情報や、低解像度(ローレゾリューション)の情報を抽出する操作を行う。
例えば、情報処理装置100は、図19に示す画像80をコンテンツとして学習し、学習済みモデルを生成するものとする。仮に、画像80を構成する画素数が「128×128ピクセル」であるものとする。この場合、画像80を「32×32ピクセル」等、ある程度の大きさを占める大まかな範囲で、各画素情報をプーリングする。これにより、画像80が「32×32ピクセル」ごとに1つの画素で表されるような、低解像度の画像(画像80をモザイク処理したような画像)が得られる。
そして、情報処理装置100は、画像80の元データを第1エンコーダ50で学習し、低解像度の画像を第2エンコーダ55で学習する。すると、第1エンコーダ50から出力される特徴量zは、32×32ピクセルより細かい範囲の特徴を示す特徴量となる。一方、第2エンコーダ55から出力される特徴量zは、特徴量zが示す特徴以外の、より広い範囲における特徴を示す特徴量となる。
例えば、画像80において32×32ピクセルで示される特徴とは、人物ではなく背景等の広い範囲の色等が該当する。一方、画像80において32×32ピクセルより細かい範囲で示される特徴とは、例えば、人物の目や鼻等のパーツなど、より細かい範囲を特徴付ける情報等が該当する。
このため、情報処理装置100が、上記の特徴量zを固定したまま特徴量zを可変させて(例えば、特徴量zを固定しつつ、特徴量zを事前分布でサンプリングする)、第2コンテンツを複数生成したとすると、図19に示す画像群82を生成することができる。図19に示す画像群82に含まれる各画像は、画像80に含まれる人物の目や鼻などの細かいパーツはほとんど変化せず、背景の色やアンビエント光のみが変化した画像となる。
このようにして生成される画像群82は、同一人物を様々な背景や環境の下で撮像した複数の画像といえる。すなわち、情報処理装置100によれば、ある人物を撮像した1枚の画像80から、同一人物を異なる環境で撮像したものと同等の多数の画像を得ることができる。これにより、情報処理装置100は、極めて少数の元画像から、特定の処理を行う機械学習モデル(例えば、顔認識や表情認識の分類器等)を生成する際に有用な多数の画像を得ることができる。言い換えれば、情報処理装置100は、学習に利用される画像を適切なかたちで水増しすることができる。
また、情報処理装置100は、図19とは異なる学習を行うことも可能である。異なる学習の例について、図20を用いて説明する。図20は、本開示の第6の変形例に係る情報処理の一例を示す図(2)である。
学習の元データは、図19と同じ画像80を用いる。図20の例では、画像80を「8×8ピクセル」等、図19と比較して小さい範囲を占める範囲で、各画素情報をプーリングする。
そして、情報処理装置100は、画像80の元データを第1エンコーダ50で学習し、プーリングした画像を第2エンコーダ55で学習する。すると、第1エンコーダ50から出力される特徴量zは、8×8ピクセルより細かい範囲の特徴を示す特徴量となる。一方、第2エンコーダ55から出力される特徴量zは、特徴量zが示す特徴以外の、より広い範囲における特徴を示す特徴量となる。
例えば、画像80において8×8ピクセルより細かい範囲で示される特徴とは、人物の目や鼻等のパーツの形など、より細かい範囲を特徴付ける情報等が該当する。
図20の例では、情報処理装置100が、特徴量zを固定したまま特徴量zを可変させて(例えば、特徴量zを固定しつつ、特徴量zを事前分布でサンプリングする)、第2コンテンツを複数生成したとすると、図20に示す画像群87を生成することができる。図20に示す画像群87に含まれる各画像は、図19とは逆に、背景の色やアンビエント光はほとんど変化せず、画像80に含まれる人物の目や鼻などの細かいパーツの形等が変化した画像となる。
このようにして生成される画像群87は、例えば、高精度の顔認識モデルを生成する際に有用な多数の画像となりうる。すなわち、画像80に撮像された人物を細かく変化させた場合に、誤って画像80に撮像された人物本人と認識しないような判定を行うモデルの生成のため、画像群87を利用することが可能である。これにより、情報処理装置100は、顔認識モデルの性能を向上させることができる。
なお、情報処理装置100は、さらに異なる学習手法を用いることもできる。この点について、図21を用いて説明する。図21は、本開示の第6の変形例に係る情報処理の一例を示す図(3)である。
学習の元データは、図19と同じ画像80を用いる。ここで、図21の例では、画像80をエンコードする間の中間層に出現したデータを用いて、第2エンコーダ55を学習する。例えば、情報処理装置100は、第2エンコーダ55の中間層のデータ(仮に4×4ピクセルのデータとする)に対してGAP(global average pooling)操作を行い、特徴量z2を出力するよう、第2エンコーダ55を学習する。これにより、特徴量zには、画像80のうち場所情報(背景等)が消えたものが学習され、一方の特徴量zには、場所情報が学習される。この場合、特徴量zを固定して特徴量zをサンプリングすることで、画像のうち場所情報以外を操作することができる。例えば、図21のように、背景の大まかな雰囲気が維持されるものの、画像に含まれる人物の顔や髪型が様々に異なる画像群92が生成される。言い換えれば、情報処理装置100は、顔の特徴的な属性(アライメント(Alignment))を変化させた、様々な人が含まれる種々の画像を生成することができる。かかる処理によれば、情報処理装置100は、例えば1枚の画像から、「人物」とラベル付けされた大量の学習用画像を生成することができる。
上記のように、情報処理装置100は、画像である第1コンテンツを構成するデジタルデータに対して抽出操作を実行し、第1データを抽出してもよい。例えば、情報処理装置100は、抽出操作として、画像のうち特定の領域に含まれる各々の画素の画素情報に順序不変性のある演算処理(例えばプーリング)を行うことにより、第1データを抽出する。
このように、情報処理装置100は、コンテンツが曲でなく画像である場合にも、ユーザが狙った特徴を分離した学習を行うことができる。また、情報処理装置100は、生成した学習済みモデルを用いて、ある特徴(背景あるいは人物の顔等)を固定して他の特徴を変化させた画像など、ユーザが指定した特徴を維持した画像を自動生成することができる。
また、情報処理装置100は、コンテンツとしてテキストデータや動画等を用いてもよい。すなわち、情報処理装置100は、コンテンツの種別に限らず、何らかの操作によって抽出された情報と、元のコンテンツデータとを別々のエンコーダで学習することが可能であれば、狙った特徴量を分離する学習を行うことができる。
また、情報処理装置100は、本開示に係る情報処理を応用して、人間の味覚情報に基づき、類似する味覚を発する物質等を検出する処理を行ってもよい。例えば、情報処理装置100は、特定の物質からある味覚を有する要素を分離し、それぞれをデータ化した情報を別々のエンコーダに入力することで、ある物質から特定の味覚の特徴のみを分離した特徴を学習することができる。
また、上記実施形態において、情報処理装置100が、順序不変性のある演算を行ったり、ある情報を損失させたりすることにより、特徴情報を抽出する操作を行う例を示した。しかし、抽出操作はこの例に限られない。例えば、情報処理装置100は、曲の小節ごとに予め人為的に設定した「曲における盛り上がり度」に基づいて、どのようなフレーズが「盛り上がり度」が高いか、といった教師あり回帰関数を学習する。そして、情報処理装置100は、学習した結果に基づき、処理対象とする曲の各小節の盛り上がり度を算出する。そして、情報処理装置100は、盛り上がり度が所定の閾値を超えた小節のみを抽出して第2エンコーダ55で学習する。これにより、情報処理装置100は、「盛り上がり度」といった、人為的に設定した特徴を分離することのできる学習済みモデルを生成することができる。
すなわち、情報処理装置100は、必ずしも演算操作によってコンテンツから特徴情報を抽出するのではなく、人為的に設定した特徴に基づいて、コンテンツから特徴情報を抽出することもできる。かかる構成によれば、例えば、感情に対応する特徴を分離することができるため、例えば、幸せな感情を起こさせるコンテンツなど、人間が感じる何らかの特徴を有したコンテンツを自動生成することができる。一例として、情報処理装置100は、かかる構成を自然言語処理に応用することで、「幸せな感情を起こさせる文章」のような、ある感情を想起させるような特徴を有するコンテンツ(文章)を自動生成することができる。
[2-8.その他]
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
(3.ハードウェア構成)
上述してきた各実施形態に係る情報処理装置100等の情報機器は、例えば図11に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る情報処理装置100を例に挙げて説明する。図22は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部130等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部120内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
第1コンテンツを構成する要素から第1データを抽出する抽出部と、
前記第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダとを有する学習済みモデルを生成するモデル生成部と
を備える情報処理装置。
(2)
前記モデル生成部は、
前記第1特徴量及び前記第2特徴量に基づき前記第1コンテンツに対応するデータをデコードするデコーダを有する前記学習済みモデルを生成する
前記(1)に記載の情報処理装置。
(3)
前記抽出部は、
前記第1コンテンツに対してユーザが指定する操作、及び、当該操作を実行する範囲の指定を受け付け、受け付けた範囲に対して当該操作を実行する
前記(1)又は(2)に記載の情報処理装置。
(4)
前記抽出部は、
前記操作として、前記範囲に含まれる要素に順序不変性のある演算処理を行うことにより、前記第1データを抽出する
前記(3)に記載の情報処理装置。
(5)
前記抽出部は、
前記範囲に含まれる要素のうち、時間依存もしくは順序依存しない情報を損失させることにより、前記第1データを抽出する
前記(3)又は(4)に記載の情報処理装置。
(6)
前記抽出部は、
曲である前記第1コンテンツを構成するデジタルデータに対して前記操作を実行し、前記第1データを抽出する
前記(3)~(5)のいずれかに記載の情報処理装置。
(7)
前記抽出部は、
前記第1コンテンツのうち、前記範囲に含まれる音情報の音の高さに関する情報を損失させる操作を実行し、前記第1データを抽出する
前記(6)に記載の情報処理装置。
(8)
前記抽出部は、
画像である前記第1コンテンツを構成するデジタルデータに対して前記操作を実行し、前記第1データを抽出する
前記(3)~(5)のいずれかに記載の情報処理装置。
(9)
前記抽出部は、
前記操作として、前記画像のうち特定の領域に含まれる各々の画素の画素情報に順序不変性のある演算処理を行うことにより、前記第1データを抽出する
前記(8)に記載の情報処理装置。
(10)
学習済みの前記第1エンコーダもしくは前記第2エンコーダから出力された特徴量、又は、当該特徴量に基づいて生成される特徴量のいずれかを組み合わせた値を前記デコーダに入力することにより、前記第1コンテンツと同じ形式を有する新たなコンテンツである第2コンテンツを生成するコンテンツ生成部
をさらに有する前記(2)~(9)のいずれかに記載の情報処理装置。
(11)
前記コンテンツ生成部は、
学習済みの前記第1エンコーダから出力された特徴量と、学習済みの前記第2エンコーダから出力された特徴量とを組み合わせた値を前記デコーダに入力することにより、前記第2コンテンツを生成する
前記(10)に記載の情報処理装置。
(12)
前記コンテンツ生成部は、
前記組み合わせた値のうち、いずれかの特徴量に該当する値を固定し、他の特徴量に該当する値を順に可変させることで、複数の前記第2コンテンツを順に生成する
前記(10)又は(11)に記載の情報処理装置。
(13)
コンピュータが、
第1コンテンツを構成する要素から第1データを抽出し、
前記第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダとを有する学習済みモデルを生成する
情報処理方法。
(14)
コンピュータを、
第1コンテンツを構成する要素から第1データを抽出する抽出部と、
前記第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダとを有する学習済みモデルを生成するモデル生成部と
として機能させるための情報処理プログラム。
(15)
前記モデル生成部は、
前記第1特徴量及び前記第2特徴量に基づき前記第1コンテンツに対応するデータをデコードする第1デコーダと、当該第2特徴量に基づき前記第1データに対応するデータをデコードする第2デコーダを有する学習済みモデルを生成する
前記(1)、又は(3)~(12)のいずれかに記載の情報処理装置。
(16)
前記モデル生成部は、
前記第1特徴量及び前記第1データに基づき前記第1コンテンツに対応するデータをデコードする第1デコーダと、前記第2特徴量に基づき前記第1データに対応するデータをデコードする第2デコーダを有する学習済みモデルを生成する
前記(1)、又は(3)~(12)のいずれかに記載の情報処理装置。
100 情報処理装置
110 通信部
120 記憶部
121 モデル記憶部
122 曲データ記憶部
130 制御部
131 抽出部
132 モデル生成部
133 取得部
134 コンテンツ生成部

Claims (11)

  1. 第1コンテンツを構成する要素から第1データを抽出する抽出部と、
    前記第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダと、前記第1特徴量及び前記第2特徴量に基づき前記第1コンテンツに対応するデータをデコードするデコーダを有する学習済みモデルを生成するモデル生成部と、
    学習済みの前記第1エンコーダもしくは前記第2エンコーダから出力された特徴量、又は、当該特徴量に基づいて生成される特徴量のいずれかを組み合わせた値を前記デコーダに入力することにより、前記第1コンテンツと同じ形式を有する新たなコンテンツである第2コンテンツを生成するコンテンツ生成部と、
    を備え、
    前記コンテンツ生成部は、
    前記組み合わせた値のうち、いずれかの特徴量に該当する値を固定し、他の特徴量に該当する値を順に可変させることで、複数の前記第2コンテンツを順に生成する、
    情報処理装置。
  2. 前記抽出部は、
    前記第1コンテンツに対してユーザが指定する操作、及び、当該操作を実行する範囲の指定を受け付け、受け付けた範囲に対して当該操作を実行する
    請求項1に記載の情報処理装置。
  3. 前記抽出部は、
    前記操作として、前記範囲に含まれる要素に順序不変性のある演算処理を行うことにより、前記第1データを抽出する
    請求項に記載の情報処理装置。
  4. 前記抽出部は、
    前記範囲に含まれる要素のうち、時間依存もしくは順序依存しない情報を損失させることにより、前記第1データを抽出する
    請求項に記載の情報処理装置。
  5. 前記抽出部は、
    曲である前記第1コンテンツを構成するデジタルデータに対して前記操作を実行し、前記第1データを抽出する
    請求項に記載の情報処理装置。
  6. 前記抽出部は、
    前記第1コンテンツのうち、前記範囲に含まれる音情報の音の高さに関する情報を損失させる操作を実行し、前記第1データを抽出する
    請求項に記載の情報処理装置。
  7. 前記抽出部は、
    画像である前記第1コンテンツを構成するデジタルデータに対して前記操作を実行し、前記第1データを抽出する
    請求項に記載の情報処理装置。
  8. 前記抽出部は、
    前記操作として、前記画像のうち特定の領域に含まれる各々の画素の画素情報に順序不変性のある演算処理を行うことにより、前記第1データを抽出する
    請求項に記載の情報処理装置。
  9. 前記コンテンツ生成部は、
    学習済みの前記第1エンコーダから出力された特徴量と、学習済みの前記第2エンコーダから出力された特徴量とを組み合わせた値を前記デコーダに入力することにより、前記第2コンテンツを生成する
    請求項に記載の情報処理装置。
  10. コンピュータが、
    第1コンテンツを構成する要素から第1データを抽出し、
    前記第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダと、前記第1特徴量及び前記第2特徴量に基づき前記第1コンテンツに対応するデータをデコードするデコーダを有する学習済みモデルを生成し、
    学習済みの前記第1エンコーダもしくは前記第2エンコーダから出力された特徴量、又は、当該特徴量に基づいて生成される特徴量のいずれかを組み合わせた値を前記デコーダに入力することにより、前記第1コンテンツと同じ形式を有する新たなコンテンツである第2コンテンツを生成し、
    前記第2コンテンツを生成することは、
    前記組み合わせた値のうち、いずれかの特徴量に該当する値を固定し、他の特徴量に該当する値を順に可変させることで、複数の前記第2コンテンツを順に生成することを含む、
    情報処理方法。
  11. コンピュータを、
    第1コンテンツを構成する要素から第1データを抽出する抽出部と、
    前記第1コンテンツの特徴量である第1特徴量を算出する第1エンコーダと、前記抽出された前記第1データの特徴量である第2特徴量を算出する第2エンコーダと、前記第1特徴量及び前記第2特徴量に基づき前記第1コンテンツに対応するデータをデコードするデコーダを有する学習済みモデルを生成するモデル生成部と、
    学習済みの前記第1エンコーダもしくは前記第2エンコーダから出力された特徴量、又は、当該特徴量に基づいて生成される特徴量のいずれかを組み合わせた値を前記デコーダに入力することにより、前記第1コンテンツと同じ形式を有する新たなコンテンツである第2コンテンツを生成するコンテンツ生成部と、
    として機能させるための情報処理プログラムであって、
    前記コンテンツ生成部は、
    前記組み合わせた値のうち、いずれかの特徴量に該当する値を固定し、他の特徴量に該当する値を順に可変させることで、複数の前記第2コンテンツを順に生成する、
    情報処理プログラム。
JP2020527830A 2018-10-19 2019-10-10 情報処理方法、情報処理装置及び情報処理プログラム Active JP7415922B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023218986A JP2024038111A (ja) 2018-10-19 2023-12-26 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018197972 2018-10-19
JP2018197972 2018-10-19
JP2019061040 2019-03-27
JP2019061040 2019-03-27
PCT/JP2019/039939 WO2020080239A1 (ja) 2018-10-19 2019-10-10 情報処理方法、情報処理装置及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023218986A Division JP2024038111A (ja) 2018-10-19 2023-12-26 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2020080239A1 JPWO2020080239A1 (ja) 2021-09-09
JP7415922B2 true JP7415922B2 (ja) 2024-01-17

Family

ID=70283908

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020527830A Active JP7415922B2 (ja) 2018-10-19 2019-10-10 情報処理方法、情報処理装置及び情報処理プログラム
JP2023218986A Pending JP2024038111A (ja) 2018-10-19 2023-12-26 情報処理装置、情報処理方法及び情報処理プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023218986A Pending JP2024038111A (ja) 2018-10-19 2023-12-26 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (6)

Country Link
US (2) US11869467B2 (ja)
EP (1) EP3726521A4 (ja)
JP (2) JP7415922B2 (ja)
CN (1) CN111465979A (ja)
DE (1) DE112019005226T5 (ja)
WO (1) WO2020080239A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7033365B2 (ja) * 2020-07-22 2022-03-10 株式会社Tmik 音楽処理システム、音楽処理プログラム、及び音楽処理方法
JP2022021890A (ja) * 2020-07-22 2022-02-03 株式会社Tmik 音楽処理システム、音楽処理プログラム、及び音楽処理方法
CN116685987A (zh) 2020-12-28 2023-09-01 索尼集团公司 信息处理装置、信息处理方法和信息处理程序
CN113920969A (zh) * 2021-10-09 2022-01-11 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质
US20240071342A1 (en) * 2022-08-26 2024-02-29 Meta Platforms, Inc. Generative Music from Human Audio
WO2024079865A1 (ja) * 2022-10-14 2024-04-18 AlphaTheta株式会社 楽曲生成装置、楽曲類似度判定装置、楽曲生成方法およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070806A (ja) 2004-11-05 2005-03-17 Yamaha Corp リズムパターン生成装置及びその記録媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167457A (en) * 1996-12-11 2000-12-26 Agilent Technologies Message filters, automatic binding, and encoding for distributed systems
JP2005301812A (ja) * 2004-04-14 2005-10-27 Hitachi Ltd デジタル制御装置およびこれを用いたエンジン制御装置
US8549400B2 (en) * 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation
KR20070099501A (ko) * 2007-09-18 2007-10-09 테크온팜 주식회사 노래 학습 시스템 및 방법
JP2011175006A (ja) 2010-02-23 2011-09-08 Sony Corp 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム
JP5594052B2 (ja) * 2010-10-22 2014-09-24 ソニー株式会社 情報処理装置、楽曲再構成方法及びプログラム
US20130066452A1 (en) * 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
US9620092B2 (en) * 2012-12-21 2017-04-11 The Hong Kong University Of Science And Technology Composition using correlation between melody and lyrics
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
WO2014201582A1 (en) * 2013-06-17 2014-12-24 Yahoo! Inc. Method and system for online content match advertising
US9432671B2 (en) * 2014-05-22 2016-08-30 Xerox Corporation Method and apparatus for classifying machine printed text and handwritten text
JP2018005520A (ja) 2016-06-30 2018-01-11 クラリオン株式会社 物体検出装置及び物体検出方法
EP3616083A4 (en) * 2017-04-23 2021-01-13 Nuance Communications, Inc. MULTILINGUAL SEMANTIC ANALYZER BASED ON TRANSFERRED LEARNING
US10733744B2 (en) * 2017-05-11 2020-08-04 Kla-Tencor Corp. Learning based approach for aligning images acquired with different modalities
JP6355800B1 (ja) * 2017-06-28 2018-07-11 ヤフー株式会社 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム
KR101931087B1 (ko) * 2017-09-07 2018-12-20 주식회사 쿨잼컴퍼니 사용자 허밍 멜로디 기반 멜로디 녹음을 제공하기 위한 방법 및 이를 위한 장치
CN110490213B (zh) * 2017-09-11 2021-10-29 腾讯科技(深圳)有限公司 图像识别方法、装置及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070806A (ja) 2004-11-05 2005-03-17 Yamaha Corp リズムパターン生成装置及びその記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中村 光佑,畳み込みニューラルネットワークと敵対的学習に基づくメロディ補完の検討,情報処理学会 研究報告 音楽情報科学(MUS) 2018-MUS-120 [online] ,日本,情報処理学会,2018年08月22日
小久保 嘉人 Yoshihito KOKUBO,部分と全体に着目したCNNの融合による歩行者の属性の詳細認識 Fine-grained Pedestrian Classification by Fusing Multiple CNN Models,電子情報通信学会技術研究報告 Vol.116 No.461 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2017年02月11日,第116巻,81-85

Also Published As

Publication number Publication date
US20240096303A1 (en) 2024-03-21
US20210358461A1 (en) 2021-11-18
WO2020080239A1 (ja) 2020-04-23
JPWO2020080239A1 (ja) 2021-09-09
CN111465979A (zh) 2020-07-28
EP3726521A1 (en) 2020-10-21
DE112019005226T5 (de) 2021-07-08
JP2024038111A (ja) 2024-03-19
EP3726521A4 (en) 2021-11-10
US11869467B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
JP7415922B2 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
US10657934B1 (en) Enhancements for musical composition applications
US11562722B2 (en) Cognitive music engine using unsupervised learning
CN107123415B (zh) 一种自动编曲方法及系统
WO1997035299A1 (en) Music composition
CN112435642B (zh) 一种基于深度神经网络的旋律midi伴奏生成方法
Norowi et al. Factors affecting automatic genre classification: an investigation incorporating non-western musical forms
US20200228596A1 (en) Streaming music categorization using rhythm, texture and pitch
JP7439755B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Singh et al. Implementing musical instrument recognition using cnn and svm
Adkins et al. Loopergp: A loopable sequence model for live coding performance using guitarpro tablature
JP7251684B2 (ja) アレンジ生成方法、アレンジ生成装置、及び生成プログラム
Eronen Signal processing methods for audio classification and music content analysis
JP3934556B2 (ja) 信号識別子の抽出方法及びその装置、信号識別子からデータベースを作成する方法及びその装置、及び、検索時間領域信号を参照する方法及びその装置
Miranda et al. i-Berlioz: Interactive Computer-Aided Orchestration with Temporal Control
Johnson et al. Musical motif discovery from non-musical inspiration sources
JP2004531758A5 (ja)
KR102227415B1 (ko) 복선율 음악 생성 방법, 장치, 및 시스템
Martins et al. Similarity measures for rhythmic sequences
Crump A principal components approach to the perception of musical style
EP3996084B1 (en) Determining relations between music items
Kher Music Composer Recognition from MIDI Representation using Deep Learning and N-gram Based Methods
Tikhonov et al. Artificial neural networks jamming on the beat
Simonetta Music interpretation analysis. A multimodal approach to score-informed resynthesis of piano recordings
US20230260488A1 (en) Relations between music items

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7415922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151