JP2009162818A - 楽曲提示装置、楽曲提示プログラム - Google Patents

楽曲提示装置、楽曲提示プログラム Download PDF

Info

Publication number
JP2009162818A
JP2009162818A JP2007339372A JP2007339372A JP2009162818A JP 2009162818 A JP2009162818 A JP 2009162818A JP 2007339372 A JP2007339372 A JP 2007339372A JP 2007339372 A JP2007339372 A JP 2007339372A JP 2009162818 A JP2009162818 A JP 2009162818A
Authority
JP
Japan
Prior art keywords
music
data
parameter
genre
singing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007339372A
Other languages
English (en)
Other versions
JP5147389B2 (ja
Inventor
Koichi Kyuma
浩一 久馬
Yuichi Ozaki
裕一 尾崎
Tadahiko Fujita
匡彦 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2007339372A priority Critical patent/JP5147389B2/ja
Priority to US12/071,708 priority patent/US7829777B2/en
Publication of JP2009162818A publication Critical patent/JP2009162818A/ja
Application granted granted Critical
Publication of JP5147389B2 publication Critical patent/JP5147389B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • G10H2220/151Musical difficulty level setting or selection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/095Identification code, e.g. ISWC for musical works; Identification dataset
    • G10H2240/101User identification
    • G10H2240/105User profile, i.e. data about the user, e.g. for user settings or user preferences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/135Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece

Abstract

【課題】歌唱者の歌唱特性を分析して歌唱者が歌うのに適した曲やジャンルを提示することができる楽曲提示装置および楽曲提示プログラムを提供すること。
【解決手段】楽曲提示装置には、楽曲に関する楽曲関連情報、および、当該情報に対応づけられた比較用パラメタが予め記憶されている。そして、楽曲提示装置において、ユーザの歌唱にかかる音声データを取得し、当該音声データを分析して、ユーザの歌唱の特徴を示す複数の歌唱特徴パラメタを算出する。次に、歌唱特徴パラメタと比較用パラメタとを比較して、当該歌唱特徴パラメタと比較用パラメタとの類似度を算出する。そして、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている楽曲関連情報を少なくとも1つ選択し、当該関連情報に基づいて所定の情報を提示する。
【選択図】図30

Description

本発明は、ユーザに楽曲を提示する楽曲提示装置および楽曲提示プログラムに関し、より特定的には、ユーザの歌声を分析して楽曲を提示する楽曲提示装置、および楽曲提示プログラムに関する。
カラオケ装置において、カラオケ曲を演奏するのみならず、歌唱者の歌唱を分析して何らかの結果を報告する機能を有するものが実用化されている。例えば、歌唱者の歌唱音声のフォルマントを分析し、その歌唱者に声の似ている歌手の似顔絵を表示するようなカラオケ装置が開示されている(例えば、特許文献1)。当該カラオケ装置は、複数の歌手の声のフォルマントデータが予め登録されたデータベースを備えている。そして、歌唱者の歌唱音声を分析したフォルマントデータと当該データベースに登録されているフォルマントデータとを照合し、類似度の高い歌手の似顔絵を表示している。更に、その歌手の曲のリストも表示可能となっている。
特開2000−56785号公報
しかしながら、上述したような上記特許文献1に開示されたカラオケ装置においては、以下に示す問題点があった。すなわち、当該カラオケ装置では、歌唱者の声(フォルマントデータ)とデータベースに登録されている歌手の声が似ているか否かを判断基準としているだけであり、歌唱者の歌唱の特性(歌い方等)を考慮するものではなかった。つまり、歌唱者の声が似ている歌手の似顔絵や、その歌手の曲リストが提示されるだけであり、必ずしも提示された曲がその歌唱者にとって歌いやすい曲、あるいは、歌うのに適した曲であるとは限らない。例えば、歌唱者にとって得意なジャンルの曲を提示するようなことはできなかった。
それ故に、本発明の目的は、歌唱者の歌唱特性を分析して歌唱者が歌うのに適した曲やジャンルを提示することができる楽曲提示装置および楽曲提示プログラムを提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。
第1の発明は、音声データ取得手段(21)と、歌唱特徴分析手段(21)と、楽曲関連情報記憶手段(24)と、比較用パラメタ記憶手段(24)と、比較手段(21)と、選択手段(21)と、提示手段(12、21)とを備える、楽曲提示装置である。音声データ取得手段は、ユーザの歌唱にかかる音声データを取得する。歌唱特徴分析手段は、音声データを分析して、ユーザの歌唱の特徴を示す複数の歌唱特徴パラメタを算出する。楽曲関連情報記憶手段は、楽曲に関する楽曲関連情報を記憶する。比較用パラメタ記憶手段は、歌唱特徴パラメタと比較するための比較用パラメタを楽曲関連情報に対応づけて記憶する。比較手段は、歌唱特徴パラメタと比較用パラメタとを比較して、当該歌唱特徴パラメタと比較用パラメタとの類似度を算出する。選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている楽曲関連情報を少なくとも1つ選択する。提示手段は、選択手段が選択した楽曲関連情報に基づいて情報を提示する。
第1の発明によれば、ユーザの歌唱の特性を考慮した楽曲関連情報に基づく情報、例えば、ユーザが歌うのに適したカラオケ曲についての情報や、ユーザの歌唱に適した音楽ジャンルをユーザに提示することが可能となる。
第2の発明は、第1の発明において、楽曲関連情報記憶手段は、少なくとも楽曲を再生するための楽曲データを楽曲関連情報として記憶する。また、比較用パラメタ記憶手段は、楽曲の音楽的特徴を示すパラメタを比較用パラメタして楽曲データに対応づけて記憶する。そして、選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている楽曲データを少なくとも1つ選択する。更に、提示手段は、選択手段が選択した楽曲データに基づいて楽曲の情報を提示する。
第2の発明によれば、ユーザが歌うのに適したカラオケ曲等の楽曲に関する情報を提示することができる。
第3の発明は、第2の発明において、楽曲関連情報記憶手段は、楽曲の音楽ジャンルを示すジャンルデータを楽曲関連情報として更に記憶する。また、比較用パラメタ記憶手段は、音楽ジャンルの音楽的特徴を示すパラメタを比較用パラメタとして更に記憶する。また、楽曲提示装置は、楽曲−ジャンル類似度データ記憶手段(24)と、音声−ジャンル類似度算出手段(21)とを更に備える。楽曲−ジャンル類似度データ記憶手段は、楽曲と音楽ジャンルとの類似度を示す楽曲−ジャンル類似度データを記憶する。音声−ジャンル類似度算出手段は、歌唱特徴パラメタと音楽ジャンルとの類似度を算出する。そして、選択手段は、音声−ジャンル類似度算出手段によって算出された類似度と、楽曲−ジャンル類似度データ記憶手段に記憶された楽曲−ジャンル類似度データとに基づいて楽曲データの選択を行う。
第4の発明は、第3の発明において、楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれている。また、楽曲提示装置は、楽譜データに含まれる楽器、テンポ、調に基づいて楽曲と音楽ジャンルとの類似度を算出する楽曲−ジャンル類似データ算出手段を更に備える。
第3乃至第4の発明によれば、ユーザの歌唱特性に適した音楽ジャンルを考慮して、カラオケ曲等の楽曲の提示を実現することができる。
第5の発明は、第1の発明において、歌唱特徴パラメタおよび比較パラメタには、プレイヤの歌唱にかかる音程の正確さ、音程の揺れ、周期的な音声の入力、音域のいずれかを評価した値が含まれる。
第5の発明によれば、より的確に類似度を算出することが可能となる。
第6の発明は、第2の発明において、楽曲データには、当該楽曲に用いられている楽器と当該楽曲のテンポと当該楽曲の調と当該楽曲を構成する複数の音符を示すための楽譜データが含まれている。また、歌唱特徴分析手段は、前記音声データから音量値を示すデータである音量値データと音程を示すデータである音程データとを算出する音量音程データ算出手段を含む。そして、歌唱特徴分析手段は、音量値データおよび音程データの少なくともいずれか一方と楽譜データとを比較して歌唱特徴パラメタを算出する。
第6の発明によれば、楽譜と音量、音程とに基づいて歌声の分析を行うため、より的確に歌唱の特徴を算出することができる。
第7の発明は、第6の発明において、歌唱特徴分析手段は、音量値データから所定の周期における周波数成分の出力値に基づいて歌唱特徴パラメタを算出する。
第8の発明は、第6の発明において、歌唱特徴分析手段は、楽譜データで示される楽譜のメロディパートにおける各音符の開始タイミングと、音量値データに基づく音声の入力タイミングとのずれに基づいて歌唱特徴パラメタを算出する。
第9の発明は、第6の発明において、歌唱特徴分析手段は、楽譜データで示される楽譜の音符の音程と、音程データに基づく音程とのずれに基づいて歌唱特徴パラメタを算出する。
第10の発明は、第6の発明において、歌唱特徴分析手段は、音程データにおける単位時間毎の音程の変化量に基づいて歌唱特徴パラメタを算出する。
第11の発明は、第6の発明において、歌唱特徴分析手段は、音量値データおよび音程データから、同じ音程が所定時間以上維持されている音声のうち、最大の音量値である音程に基づいて歌唱特徴パラメタを算出する。
第12の発明は、第6の発明において、歌唱特徴分析手段は、プレイヤの音声に含まれる高周波成分の量を音声データから算出し、当該算出した結果に基づいて歌唱特徴パラメタを算出する。
第7乃至第12の発明によれば、ユーザの歌唱と特徴をより的確に捉えた歌唱特徴パラメタを算出することが可能となる。
第13の発明は、第1の発明において、楽曲関連情報記憶手段は、少なくとも音楽ジャンルを示すジャンルデータを楽曲関連情報として記憶する。また、比較用パラメタ記憶手段は、音楽ジャンルの音楽的特徴を示すパラメタを比較用パラメタとして音楽ジャンルに対応づけて記憶する。更に、選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている音楽ジャンルを選択する。そして、提示手段は、楽曲関連情報に基づく情報として音楽ジャンルの名称を提示する。
第13の発明によれば、ユーザの歌唱特性に適している音楽ジャンルを提示することができる。
第14の発明は、第2の発明において、楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれている。また、楽曲提示装置は、楽譜データから比較用パラメタを楽曲毎に算出する楽曲パラメタ算出手段を更に備えている。そして、比較用パラメタ記憶手段は、楽曲パラメタ算出手段が算出した比較用パラメタを記憶する。
第15の発明は、第14の発明において、楽曲パラメタ算出手段は、楽譜データに基づいて、音符間の音程差と、拍内における音符の位置と、音符の長さが所定閾値以上である音符の合計時間とに基づいて比較用パラメタを算出する。
第14乃至第15の発明によれば、ユーザが自ら楽曲を作曲したり、所定のサーバ等から楽曲をダウンロードすることで楽曲を新たに取得したような場合にでも、当該自作曲やダウンロード曲を分析して比較用パラメタを生成、記憶することができる。これにより、当該自作曲やダウンロード曲についてもユーザの歌唱特性に適しているか否かを提示することができる。
第16の発明は、ユーザに楽曲を提示する楽曲提示装置のコンピュータを、音声データ取得手段(S44)と、歌唱特徴分析手段(S45)と、楽曲関連情報記憶手段(S65)と、比較用パラメタ記憶手段(S47、S48)と、比較手段(S49)と、選択手段(S49)と、提示手段(S51)として機能させる、楽曲提示プログラムである。音声データ取得手段は、ユーザの歌唱にかかる音声データを取得する。歌唱特徴分析手段は、音声データを分析して、ユーザの歌唱の特徴を示す複数の歌唱特徴パラメタを算出する。楽曲関連情報記憶手段は、楽曲に関する楽曲関連情報を記憶する。比較用パラメタ記憶手段は、歌唱特徴パラメタと比較するための比較用パラメタを楽曲関連情報に対応づけて記憶する。比較手段は、歌唱特徴パラメタと比較用パラメタとを比較して、当該歌唱特徴パラメタと比較用パラメタとの類似度を算出する。選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている楽曲関連情報を少なくとも1つ選択する。提示手段は、選択手段が選択した楽曲関連情報に基づいて情報を提示する。
第16の発明によれば、上記第1の発明と同様の効果を得ることができる。
第17の発明は、第16の発明において、楽曲関連情報記憶手段は、少なくとも楽曲を再生するための楽曲データを楽曲関連情報として記憶する。また、比較用パラメタ記憶手段は、楽曲の音楽的特徴を示すパラメタを比較用パラメタして楽曲データに対応づけて記憶する。そして、選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている楽曲データを少なくとも1つ選択する。更に、提示手段は、選択手段が選択した楽曲データに基づいて楽曲の情報を提示する。
第17の発明によれば、上記第2の発明と同様の効果を得ることができる。
第18の発明は、第2の発明において、楽曲関連情報記憶手段は、楽曲の音楽ジャンルを示すジャンルデータを楽曲関連情報として更に記憶する。また、比較用パラメタ記憶手段は、音楽ジャンルの音楽的特徴を示すパラメタを比較用パラメタして更に記憶する。また、楽曲提示プログラムは、楽曲提示装置のコンピュータを、楽曲−ジャンル類似度データ記憶手段(S63)と、音声−ジャンル類似度算出手段(S66)として更に機能させる。楽曲−ジャンル類似度データ記憶手段は、楽曲と音楽ジャンルとの類似度を示す楽曲−ジャンル類似度データを記憶する。音声−ジャンル類似度算出手段は、歌唱特徴パラメタと音楽ジャンルとの類似度を算出する。そして、選択手段は、音声−ジャンル類似度算出手段によって算出された類似度と、楽曲−ジャンル類似度データ記憶手段に記憶された楽曲−ジャンル類似度データとに基づいて楽曲データの選択を行う。
第18の発明によれば、上記第3の発明と同様の効果を得ることができる。
第19の発明は、第18の発明において、楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれている。また、楽曲提示装置は、楽曲提示装置のコンピュータを、楽譜データに含まれる楽器、テンポ、調に基づいて楽曲と音楽ジャンルとの類似度を算出する楽曲−ジャンル類似データ算出手段(S4)として更に機能させる。
第19の発明によれば、上記第4の発明と同様の効果を得ることができる。
第20の発明は、第16の発明において、歌唱特徴パラメタおよび比較パラメタには、プレイヤの歌唱にかかる音程の正確さ、音程の揺れ、周期的な音声の入力、音域のいずれかを評価した値が含まれる。
第20の発明によれば、上記第5の発明と同様の効果を得ることができる。
第21の発明は、第17の発明において、楽曲データには、当該楽曲に用いられている楽器と当該楽曲のテンポと当該楽曲の調と当該楽曲を構成する複数の音符を示すための楽譜データが含まれている。また、歌唱特徴分析手段は、音声データから音量値を示すデータである音量値データと音程を示すデータである音程データとを算出する音量音程データ算出手段を含む。そして、歌唱特徴分析手段は、音量値データおよび音程データの少なくともいずれか一方と楽譜データとを比較して歌唱特徴パラメタを算出する。
第21の発明によれば、上記第6の発明と同様の効果を得ることができる。
第22の発明は、第21の発明において、歌唱特徴分析手段は、音量値データから所定の周期における周波数成分の出力値に基づいて前記歌唱特徴パラメタを算出する。
第23の発明は、第21の発明において、歌唱特徴分析手段は、楽譜データで示される楽譜のメロディパートにおける各音符の開始タイミングと、音量値データに基づく音声の入力タイミングとのずれに基づいて歌唱特徴パラメタを算出する。
第24の発明は、第21の発明において、歌唱特徴分析手段は、楽譜データで示される楽譜の音符の音程と、音程データに基づく音程とのずれに基づいて歌唱特徴パラメタを算出する。
第25の発明は、第21の発明において、歌唱特徴分析手段は、音程データにおける単位時間毎の音程の変化量に基づいて歌唱特徴パラメタを算出する。
第26の発明は、第21の発明において、歌唱特徴分析手段は、音量値データおよび音程データから、同じ音程が所定時間以上維持されている音声のうち、最大の音量値である音程に基づいて歌唱特徴パラメタを算出する。
第27の発明は、第21の発明において、歌唱特徴分析手段は、プレイヤの音声に含まれる高周波成分の量を音声データから算出し、当該算出した結果に基づいて歌唱特徴パラメタを算出する。
第22乃至第27の発明によれば、上記第7乃至第12の発明と同様の効果を得ることができる。
第28の発明は、第16の発明において、楽曲関連情報記憶手段は、少なくとも音楽ジャンルを示すジャンルデータを楽曲関連情報として記憶する。また、比較用パラメタ記憶手段は、音楽ジャンルの音楽的特徴を示すパラメタを比較用パラメタとして音楽ジャンルに対応づけて記憶する。更に、選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている音楽ジャンルを選択する。そして、提示手段は、楽曲関連情報に基づく情報として音楽ジャンルの名称を提示する。
第28の発明によれば、上記第13の発明と同様の効果を得ることができる。
第29の発明は、第17の発明において、楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれている。また、楽曲提示プログラムは、楽曲提示装置のコンピュータを、楽譜データから比較用パラメタを楽曲毎に算出する楽曲パラメタ算出手段(S3)として更に機能させる。そして、比較用パラメタ記憶手段は、楽曲パラメタ算出手段が算出した比較用パラメタを記憶する。
第29の発明によれば、上記第14の発明と同様の効果を得ることができる。
第30の発明は、第29の発明において、楽曲パラメタ算出手段は、楽譜データに基づいて、音符間の音程差と、拍内における音符の位置と、音符の長さが所定閾値以上である音符の合計時間とに基づいて比較用パラメタを算出する。
第30の発明によれば、上記第15の発明と同様の効果を得ることができる。
本発明によれば、歌唱者の歌唱の特性に適した楽曲や音楽ジャンルを提示することができる。
以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。
図1は、本発明の一実施形態に係る携帯型ゲーム装置(以下、単にゲーム装置と呼ぶ)10の外観図である。図2は、このゲーム装置10の斜視図である。図1において、ゲーム装置10は、第1のLCD(Liquid Crystal Display:液晶表示装置)11および第2のLCD12を含む。ハウジング13は上側ハウジング13aと下側ハウジング13bとによって構成されており、第1のLCD11は上側ハウジング13aに収納され、第2のLCD12は下側ハウジング13bに収納される。第1のLCD11および第2のLCD12の解像度はいずれも256dot×192dotである。なお、本実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用することができる。また任意の解像度のものを利用することができる。
上側ハウジング13aには、後述する1対のスピーカ(図3の30a、30b)からの音を外部に放出するための音抜き孔18a、18bが形成されている。
上側ハウジング13aと下側ハウジング13bとを開閉可能に接続するヒンジ部にはマイクロフォン用孔33が設けられている。
下側ハウジング13bには、入力装置として、十字スイッチ14a、スタートスイッチ14b、セレクトスイッチ14c、Aボタン14d、Bボタン14e、Xボタン14f、およびYボタン14gが設けられている。また、さらなる入力装置として、第2のLCD12の画面上にタッチパネル15が装着されている。下側ハウジング13bには、電源スイッチ19、メモリカード17を収納するための挿入口、スティック16を収納するための挿入口が設けられている。
タッチパネル15は、抵抗膜方式のタッチパネルである。ただし、本発明は抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。タッチパネル15は、スティック16に限らず指で操作することも可能である。本実施形態では、タッチパネル15として、第2のLCD12の解像度と同じく256dot×192dotの解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル15の解像度と第2のLCD12の解像度が一致している必要はない。
メモリカード17はゲームプログラムを記録した記録媒体であり、下部ハウジング13bに設けられた挿入口に着脱自在に装着される。
次に、図3を参照してゲーム装置10の内部構成を説明する。
図3において、ハウジング13に収納される電子回路基板20には、CPUコア21が実装される。CPUコア21には、バス22を介して、コネクタ23が接続されるとともに、入出力インターフェース回路(図面ではI/F回路と記す)25、第1GPU(Graphics Processing Unit)26、第2GPU27、RAM24、およびLCDコントローラ31、およびワイヤレス通信部35が接続される。コネクタ23には、メモリカード17が着脱自在に接続される。メモリカード17は、ゲームプログラムを記憶するROM17aと、バックアップデータを書き換え可能に記憶するRAM17bを搭載する。メモリカード17のROM17aに記憶されたゲームプログラムはRAM24にロードされ、RAM24にロードされたゲームプログラムがCPUコア21によって実行される。RAM24には、ゲームプログラムの他にも、CPUコア21がゲームプログラムを実行して得られる一時的なデータや、ゲーム画像を生成するためのデータが記憶される。I/F回路25には、タッチパネル15、右スピーカ30a、左スピーカ30b、図1の十字スイッチ14aやAボタン14d等から成る操作スイッチ部14、およびマイクロフォン36が接続される。右スピーカ30aと左スピーカ30bは、音抜き孔18a、18bの内側にそれぞれ配置される。マイクロフォン36は、マイクロフォン用孔33の内側に配置される。
第1GPU26には、第1VRAM(Video RAM)28が接続され、第2GPU27には、第2VRAM29が接続される。第1GPU26は、CPUコア21からの指示に応じて、RAM24に記憶されているゲーム画像を生成するためのデータに基づいて第1のゲーム画像を生成し、第1VRAM28に描画する。第2GPU27は、同様にCPUコア21からの指示に応じて第2のゲーム画像を生成し、第2VRAM29に描画する。第1VRAM28および第2VRAM29はLCDコントローラ31に接続されている。
LCDコントローラ31はレジスタ32を含む。レジスタ32はCPUコア21からの指示に応じて0または1の値を記憶する。LCDコントローラ31は、レジスタ32の値が0の場合は、第1VRAM28に描画された第1のゲーム画像を第1のLCD11に出力し、第2VRAM29に描画された第2のゲーム画像を第2のLCD12に出力する。また、レジスタ32の値が1の場合は、第1VRAM28に描画された第1のゲーム画像を第2のLCD12に出力し、第2VRAM29に描画された第2のゲーム画像を第1のLCD11に出力する。
ワイヤレス通信部35は、他のゲーム装置のワイヤレス通信部との間で、ゲーム処理に利用されるデータやその他のデータをやりとりする機能を有している。
なお、本発明はゲーム装置に限らず、ハウジングで支持された押圧式のタッチパネルを備えた任意の装置に適用することができる。例えば、携帯ゲーム装置や、据え置き型ゲーム装置のコントローラや、PDA(Personal Digital Assistant)に適用することができる。また、本発明はタッチパネルの下にディスプレイが設けられていないような入力装置にも適用することができる。
次に、図4〜図6を用いて、本実施形態で想定するゲームの概要について説明する。本実施形態で想定するゲームはカラオケゲームであり、ゲーム装置10においてカラオケ曲が演奏され、スピーカー30から出力される。プレイヤは、その演奏に合わせて、マイクロフォン36(マイクロフォン用孔33)に向かって歌うことで、カラオケを楽しむことができる。更に、本ゲームでは、プレイヤの歌声を分析し、プレイヤに適した音楽のジャンルやおすすめ曲を提示する、楽曲提示機能を備えている。本発明は、当該楽曲提示機能に関する発明であるため、以下の説明では、当該楽曲提示機能を実現する処理について説明する。
まず、カラオケゲームが起動され、図示しない初期メニューから「カラオケ」のメニューを選ぶと、図4のようなカラオケメニュー画面が表示される。この画面では、2つの選択項目「トレーニング」および「診断」と、「戻る」ボタンが表示されている。当該項目からプレイヤが「トレーニング」を選ぶと、カラオケの練習を行うためのカラオケ処理が実行される。一方、「タイプ診断」を選ぶと、上記楽曲提示の処理が実行される。なお、「戻る」が選ばれた場合は、上記初期メニューに戻る。
具体的には、プレイヤが図4のメニューから「診断」を選択すると、図5のような曲一覧画面が表示される。当該画面から、プレイヤは所望の曲を選ぶ。選び終われば、図6のような、マイク101や歌詞102等が表示された画面が表示され、選択した楽曲のカラオケ曲の演奏が開始される。プレイヤは、曲にあわせてマイクロフォン36に向かって歌唱すると、マイクロフォン36に入力された歌声の分析処理が実行される。より具体的には、プレイヤの歌声から音量値を示すデータ(以下、音量値データと呼ぶ)と音程に関するデータ(以下、音程データと呼ぶ)が生成される。そして、当該2つのデータに基づいて、プレイヤの歌い方の特徴を示すパラメータ(以下、歌声パラメタと呼ぶ)が算出される。例えば、音程感、リズム、ビブラート等の特徴を示すパラメータが算出される。
その後、当該歌声パラメタとメモリカード17に予め記憶されている楽曲パラメタ(ゲーム処理に際しては、RAM24に読み込まれる)とが比較される。ここで、楽曲パラメタとは、予め楽曲データを分析することによって生成されたものである。そして、楽曲パラメタは、楽曲の特徴を示すと共に、その曲がどのような歌声パラメタを有する歌声に向いているかを示すものである。そのため、上記歌声パラメタと楽曲パラメタとの値の傾向が類似しているほど、その歌声に適した楽曲であると判定される。このような、類似性を判定することによって、プレイヤの歌声(歌い方、歌唱の特性)に適している楽曲が検索される。(本実施形態では、当該類似性の判定については、ピアソンの積率相関係数を利用する)そして、その検索結果が「おすすめ曲」として表示される。更に、本実施形態では、プレイヤの歌い方に適している楽曲のジャンル(おすすめジャンル)の表示も行われる。その結果、プレイヤが上記の曲を歌い終われば、例えば、「あなたに適したジャンルは○○○○です。おすすめする曲は、△△△△です。」のような表示が行われることになる。
このように、本実施形態におけるゲームでは、プレイヤが上記のような「診断」において歌唱を行うことで、そのプレイヤの歌声に適している楽曲や音楽のジャンルを提示する処理が行われる。
次に、上記のような楽曲提示処理の処理概要を説明する。図7は、本実施形態にかかる楽曲提示処理の処理概要を説明するための図である。ここで、図7の記法について説明すると、図7において、四角形で表される要素は、情報源、または情報出口を示している。これは、外部の情報源や外部への情報の出力先を意味している。また、円で表されている要素は、プロセス(入力データを処理して何らかの加工を加え、結果となるデータを出力するもの)を示している。また、2本の平行線で表される要素は、データストア(データの保管場所)を示している。また、矢印線で表される要素は、データの移動経路を示すデータフローを示している。
まず、本実施形態では、図7の楽譜データ(D2)、楽曲分析データ(D3)、楽曲−ジャンル相関リスト(D4)に相当する内容が記録されているメモリカード17がゲーム製品として市場に流通する。そして、当該メモリカードがゲーム装置10に装着されることで本実施形態のゲーム処理が実行されることになる。そのため、図7の楽曲分析(P2)は製品の出荷前において予め実行される。そして、楽曲分析データ(D3)、楽曲−ジャンル相関リスト(D4)が生成されて、ゲームデータの一部としてメモリカード17に記憶されることになる。
具体的には、楽曲分析(P2)においては、楽曲データ(D2)の楽譜データが入力されて後述するような分析処理が行われる。その分析結果として、楽曲分析データ(D3)および楽曲−ジャンル相関リスト(D4)が出力される。楽曲分析データには、分析した楽曲の音程感、リズムやビブラート等を示す楽曲パラメタが格納されている。また、楽曲−ジャンル相関リストには、楽曲とジャンルとの類似度を示す楽曲−ジャンル相関データが格納される。例えば、ある楽曲については、「ロック」というジャンルは80点、「ポップス」というジャンルは50点、のようなデータが格納される。これらのデータの詳細については、後ほど説明する。
この他、ジャンルマスタ(D1)がゲーム開発者等によって予め作成され、メモリカード17に記憶される。当該ジャンルマスタは、本実施形態で用いられる楽曲のジャンルと、そのジャンルに向いている歌声の特性とを対応づけて予め定義したデータである。
次に、上記図4のメニューから、プレイヤが「診断」を選択したときに行われる楽曲提示処理の概要について説明する。当該処理では、まず、上述したような処理(プレイヤの操作)が行われて、プレイヤの歌声がマイクロフォン36に入力される。当該歌声から音量データ、および音程データが生成され、当該データに基づいて歌声分析(P1)が実行される。そして、分析結果として、歌声パラメタが出力され、歌声分析データ(D5)として保存される。当該歌声パラメタの詳細については後述するが、プレイヤの歌声を、力強さや、音程感、リズム等の観点から評価したパラメタである(項目内容としては、基本的には、上記楽曲パラメタと共通の項目を有することになる)。
次に、上記歌声分析データ(D5)と上記ジャンルマスタ(D1)とを入力として、歌声−ジャンル相関分析(P3)が実行される。この処理は、歌唱者の歌声が、どの音楽ジャンルに適しているかを分析する処理である。当該分析処理において、上記入力された歌声とジャンルとの相関値(類似性の度合いを示す値)が算出される。そして、当該分析処理の結果である歌声−ジャンル相関データが、歌声−ジャンル相関リスト(D6)として保存される。
続いて、歌声−楽曲相関分析(P4)が行われる。当該処理では、上記楽曲分析データ(D3)、曲−ジャンル相関リスト(D4)、歌声分析データ(D5)、および歌声−ジャンル相関リスト(D6)を入力とする。そして、これらのデータに基づいて、プレイヤの歌声と、ゲーム装置10に記憶されている楽曲との相関値が算出される。そして、算出された相関値が所定値以上の楽曲だけが抽出されて、候補曲リスト(D3)が作成される。
次に、候補曲リストを入力とした選曲処理(P5)が実行される。この処理では、候補曲リストの中から、おすすめ曲を1曲だけランダムに選択する処理が実行される。そして、選択された楽曲が、おすすめ曲としてプレイヤに提示される。
また、上記音声−ジャンル相関リスト(D6)を入力とした、タイプ診断(P6)も実行される。この処理では、歌声−ジャンル相関データから、相関値が最も高いジャンルを選択して、そのジャンル名が出力される。当該ジャンル名が、タイプ診断結果として、上記おすすめ曲と共に表示されることになる。
このように、本実施形態では、楽譜データを分析して、楽曲の特徴を示すデータ(楽曲パラメタ)を生成する。また、プレイヤの歌声を分析して歌い方の特徴を示すデータ(歌声パラメタ)も生成する。図8は、これらのデータをレーダーチャートとして模式的に示したものである。図8(a)が、上記楽曲パラメタに相当する内容であり、図8(b)は、歌声パラメタに相当する内容である。そして、これらの分析データの類似度、つまり、図8の(a)と(b)のチャートの図形を比較して、これらの図形の類似度を算出するような処理を実行する。そして、当該類似度に基づいて、プレイヤの歌声に適したジャンルや楽曲を提示する(類似しているほど、プレイヤの歌声にその楽曲が適していることになる)。これにより、プレイヤが歌うのに適した楽曲やジャンルを提示することができ、カラオケゲームの興趣を高めることが可能となる。
次に、本実施形態で用いられる各種データについて説明する。まず、本実施形態の楽曲提示処理において、音声および楽曲の分析結果となる上記歌声パラメタおよび楽曲パラメタについて説明する。歌声パラメタは、歌声の特徴をいくつかの項目に分類し、各項目ごとに数値化したものである。本実施形態では、歌声パラメタとして、図9の表に示すような10個のパラメタを用いている。
図9において、声の大きさ501は、歌声の大きさを示すパラメタである。マイクロフォン35に入力される音量が大きいほど、大きな値となる。
ノリ502は、2分音符周期でアクセント(一定量以上の音量)が発生しているか否かを評価したパラメタである。例えば、図11に示すように、音を波形で表した場合に、所定の大きさ以上の振幅(すなわち、一定量以上の音量)の発生周期が2分音符周期であるか否かを評価したものである。2分音符の周期で所定値以上の音量の音声が入力されると、ノリがよいとみなし、大きな値となる。
抑揚503は、ノリ502と同様に音量の変化(音量の波)の発生度合いを観測して評価したパラメタであるが、ノリと異なり、2小節周期で観測したものである。
力強さ504は、ノリ502と同様に音量の変化(音量の波)の発生度合いを観測して評価したパラメタであるが、ノリと異なり、8分音符周期で観測したものである。
音程感505は、楽譜のメロディパートの各音符に対して、正しい音程で歌えたかどうかを評価したパラメタである。正しい音程で歌えた音符の数が多いほど、値が大きくなる。
リズム506は、楽譜を構成する各音符のタイミングに合ったリズムで歌えたかどうかについて評価したパラメタである。音符の開始タイミングで正しく歌い始めていると、値が大きくなる。すなわち、音符の開始タイミングにおいて、所定値以上の音量が入力されていれば、値が大きくなる。
ビブラート507は、歌唱中のビブラートの発生度合いを評価したパラメタである。楽曲を歌い終えるまでの間にビブラートがかかっている総時間が長いほど、値が大きくなる。
こぶし508は、歌唱中のこぶしの発生度合いを評価したパラメタである。歌い始め(音符の開始タイミング)において、低い音程から一定の時間内に正しい音程になると、値が大きくなる。
音域509は、プレイヤが一番得意な音程を評価したパラメタである。換言すれば、声の高さを評価したパラメタともいえる。歌唱中、一番大きな音量で歌えた音域が高いほど、値が大きくなる。一番大きな音量で歌えた音域、としているのは、得意な音程ほど大きな声が出ると考えられるからである。
声質510は、声の明るさ(よく通る声であるか、籠もった声であるか)を評価したパラメタである。当該パラメタは、音声スペクトルのデータから算出される。音声に高周波成分が多いと、値が大きくなる。
次に、楽曲パラメタについて説明する。楽曲パラメタは、楽譜データを分析すること得られるパラメタであり、楽曲の特徴を表す項目ごとに数値化したものであって、同じ項目名の歌声パラメタと比較されるものである。そして、楽曲パラメタの意味合いとしては、「この曲は、このような歌声パラメタを有する歌声の人に向いた曲である」という意味合いとなる。本実施形態では、楽曲パラメタとして、図11の表に示すような5個のパラメタを用いている。
図11において、音程感601は、楽曲における音程の変化とその歌いやすさの難易度を評価したパラメタである。楽譜中に音程の変化が大きくなるような箇所が多く出現するほど、歌いにくい曲として評価される。
リズム602は、楽曲のリズムとその歌いやすさについて評価したパラメタである。
ビブラート603は、楽曲におけるビブラートのかけやすさを評価したパラメタである。
こぶし604は、楽曲でのこぶしのかけやすさを評価したパラメタである。
声質605は、楽曲がどのような声質の人に適しているかを評価したパラメタである。
以上のようなパラメタがプレイヤの音声、および楽曲の楽譜データからそれぞれ算出される。そして、本実施形態では、上記歌声パラメタと楽曲パラメタの類似性が高いほどプレイヤの歌声に適した楽曲であると判定し、おすすめ曲として提示する処理が実行される。
次に、ゲーム処理の際にRAM24に記憶されるデータについて説明する。図12は、図3に示したRAM24のメモリマップを示す図解図である。図12において、RAM24は、ゲームプログラム領域241、データ記憶領域246、および作業領域252を含む。ゲームプログラム領域241およびデータ記憶領域246のデータは、メモリカード17のROM17aに予め記憶されたものが、RAM24にコピーされたものである。また、ここでは説明の便宜上、各データをテーブルデータの形式で説明するが、これらのデータは、実際にテーブルデータの形式で記憶されている必要はなく、ゲームプログラムにおいて、このテーブルに相当する内容の処理が記憶されていてもよい。
ゲームプログラム領域241は、CPUコア21によって実行されるゲームプログラムを記憶し、このゲームプログラムは、メイン処理プログラム242と、歌声分析プログラム243と、おすすめ曲検索プログラム244と、タイプ診断プログラム245などによって構成される。
メイン処理プログラム242は、後述する図29のフローチャートの処理に対応するプログラムである。歌声分析プログラム243は、プレイヤの歌声を分析するための処理をCPUコア21に実行させるためのプログラムであり、おすすめ曲検索プログラム244は、プレイヤの歌声に適した楽曲を検索するための処理をCPUコア21に実行させるためのプログラムである。また、タイプ診断プログラム245は、プレイヤの歌声に適した楽曲ジャンルを判定する処理をCPUコア21に実行させるためのプログラムである。
データ記憶領域246には、ジャンルマスタ247、楽曲データ248、楽曲分析データ249、楽曲−ジャンル相関リスト250、音声データ251などのデータが記憶される。
ジャンルマスタ247は、上記図7で示したジャンルマスタD1に相当するデータである。すなわち、楽曲のジャンルと各ジャンル毎の歌声パラメタの特徴とを定義したデータである。当該ジャンルマスタ247と後述の歌声分析データ253とに基づいて、タイプ診断が実行される。
図13は、ジャンルマスタ247のデータ構造の一例を示した図である。ジャンルマスタ247は、ジャンル名2471と歌声パラメタ定義2472との集合から成る。ジャンル名2471は、本実施形態で使われる楽曲の楽曲ジャンルを示すデータである。歌声パラメタ定義2472は、各楽曲ジャンル毎の歌声の特徴が定義されたパラメタであり、図9を用いて説明した上記10個の歌声パラメタについてそれぞれ所定の値が定義されて格納されている。
図12に戻り、楽曲データ248は、本実施形態のゲーム処理で用いられる各楽曲についてのデータであり、図7の楽曲データD2に相当する。図14は、楽曲データ248のデータ構造の一例を示した図である。楽曲データ248は、楽曲番号2481と、書誌データ2482と楽譜データ2483との集合から成る。楽曲番号2481は、各楽曲を一意に識別するための番号である。書誌データ2482は、各楽曲の曲名等の書誌的事項を示すデータである。楽譜データ2483は、各楽曲の演奏(再生)に用いられるデータであると同時に、楽曲分析処理の基になるデータでもある。楽譜データ2483は、楽曲を構成する各パートの使用楽器についてのデータと、楽曲のテンポや調に関するデータと、各音符を示すデータを含む。
図12に戻り、楽曲分析データ249は、上記楽譜データ2483を分析することで得られたデータである。楽曲分析データ249は、図7を用いて上述した楽曲分析データD3に相当する。図15は、楽曲分析データ249のデータ構造の一例を示した図である。楽曲分析データ249は、楽曲番号2491と楽曲パラメタ2492との集合から成る。楽曲番号2491は、上記楽曲データ248の楽曲番号2481に対応するデータである。楽曲パラメタ2492は、図11を用いて上述したような、楽曲の特徴を示すためのパラメタである。
図12に戻り、楽曲−ジャンル相関リスト250は、上記図7の楽曲−ジャンル相関リストD4に相当するデータであり、楽曲とジャンルとの類似度を示すデータが格納される。図16は、楽曲−ジャンル相関リスト250のデータ構造の一例を示した図である。楽曲番号2501は、上記楽曲データ248の楽曲番号2481に対応するデータである。ジャンル相関値2502は、各楽曲と本実施形態における音楽ジャンルとの相関値である。なお、図16では、相関値は−1〜+1の範囲で表しており、+1に近いほど相関度が高いことを示す。相関値については、以下においても同様である。
図12に戻り、音声データ251は、ゲーム中に用いられる各楽器の音等の音声データが記憶されている。すなわち、ゲーム処理中においては、上記楽譜データ2483に基づいて当該音声データ251から適宜楽器音が読み出される。そして、当該楽器音がスピーカ30から出力されることでカラオケ曲が演奏(再生)されることになる。
次に、作業領域252には、ゲーム処理において一時的に用いられる各種データが格納される。作業領域252には、歌声分析データ253、歌声−ジャンル相関リスト254、中間候補リスト255、候補曲リスト256、おすすめ曲257、タイプ診断結果258等が記憶される。
歌声分析データ253は、プレイヤの歌声に分析処理を行った結果、生成されるデータである。上記図7の歌声分析データD5に相当する。図17は、歌声分析データ253のデータ構造の一例を示した図である。歌声分析データ253には、図9を用いて上述した歌声パラメタの内容が歌声パラメタ2532として、パラメタ名2531と対応づけられて記憶される。そのため、本データの内容についての詳細説明は省略する。
歌声−ジャンル相関リスト254は、図7の歌声−ジャンル相関リストD6に相当するデータであり、プレイヤの歌声と楽曲ジャンルとの相関度を示すデータである。図18は、歌声−ジャンル相関リスト254のデータ構造の一例を示した図である。歌声−ジャンル相関リスト254は、ジャンル名2541と相関値2542の集合から成る。ジャンル名2541は、楽曲のジャンルを示すデータである。相関値2542は、各ジャンルと歌声との相関値を示すデータである。
中間候補リスト255は、プレイヤに提示するおすすめ曲の候補となる曲を検索する処理の過程で用いられるデータである。図19は、中間候補リスト255のデータ構造の一例を示した図である。中間候補リスト255は、楽曲番号2551と、相関値2552の集合から成る。楽曲番号2551は、上記楽曲データ248の楽曲番号2481に対応するデータである。相関値2552は、楽曲番号2551で示される楽曲とプレイヤの歌声との相関値である。
候補曲リスト256は、プレイヤに提示するおすすめ曲の候補となる曲についてのデータである。上述した中間候補リスト255から、相関値2552が所定値以上のデータが抽出されることで生成される。図20は、候補曲リスト256のデータ構造の一例を示した図である。候補曲リスト256は、楽曲番号2561と、相関値2562の集合から成る。各項目の内容は、上記中間候補リスト255と同様であるため、説明は省略する。
おすすめ曲257には、後述するおすすめ曲検索処理の結果としての”おすすめ曲”の曲番号が格納される。
タイプ診断結果258には、後述するようなタイプ診断処理の結果である音楽ジャンル名が記憶される。
次に、ゲーム装置10において実行されるゲーム処理の流れを図21〜図34を用いて説明する。まず、上述したような、プレイヤによる実際のゲームプレイに先立って(つまり、製品出荷前に)行われる、楽曲分析データ249、および、楽曲−ジャンル相関リスト250を作成する処理について説明する。図21は、楽曲分析処理(図7の楽曲分析P2に相当)を示すフローチャートである。図21において、まず、ステップS1において、楽曲データ248から一曲分の楽譜データ2483が読み込まれる。
次に、ステップS2において、読み込んだ楽譜データ2483から楽器、テンポ、および、メロディパートの音符のデータが取得される。
次に、ステップS3において、上記楽譜データ2483から取得したデータを分析して、図11に示したような楽曲パラメタの各項目の評価値を算出する処理が実行される。以下、図11で示した楽曲パラメタの各項目毎に説明する。なお、他の実施形態においては、分析にさらに他のパラメタを含めてもよく、ステップS2で取得するデータも上記の3種類に限られるものではない。
まず、音程感601の評価値については、楽譜内に出現する音程の変化を評価する処理が行われ、評価値が算出される。具体的には、以下のような内容の処理が実行される。
まず、2つの音符間の音程それぞれに難度値が設定される。例えば、音符間の音程が広い場合には、歌う際に音程をそのとおりに変化させるのが難しいので高い難度値が設定される。図22は、当該難度値の設定の一例として、音程の広さに比例した難度値を設定したものである。1半音の難度値を1として、図22(a)では、音符301と音符302との音程は1音分(2半音分)あるため、難度値は2とする。図22(b)では、2つの音符の間の音程は3音分であるため、難度値は6となっている。同様に、図22(c)では、音程が6音分であり、難度値が12となっている。なお、難度値は必ずしも音程の広さに比例しなくともよく、他の設定手法で設定してもよい。
次に、メロディパートにおける各音程の出現確率が算出される。そして、各音程について、次の式を用いて出現難度値を算出する。
出現難度値=出現確率×音程の難度値
次に、各音程の出現難度値を合計して、合計難度値を算出する。そして、次の式で評価値を算出する。
評価値=合計難度値×α
ここで、αは、所定の係数である(以下、同様)。そして、当該評価値が音程感601の評価値として記憶されることになる。
次に、リズム602の評価値については、次のような処理が行われて算出される。まず、1拍(4分音符の長さ)を12等分して、それぞれの位置(以下、拍内位置)に難度値が設定される。図23は、当該難度値の設定例を示す図である。図23では、拍の先頭が最も簡単な難度値1であって、次に簡単な先頭から8分音符分ずれた位置は難度値2となっている。その他の位置は歌うのが難しいためにさらに高い難度値が設定される。
次に、上記各拍内位置におけるメロディパートの音符の出現率が算出される。更に、上記拍内位置毎に、当該出現率にそれぞれの拍内位置に設定されている難度値を乗じた値(拍内難度値)が算出される。更に、当該算出した拍内難度値を合計した、拍内難度合計値が算出される。そして、次の式で評価値が算出される。
評価値=拍内難度合計値×α
そして、当該評価値が、リズム602の評価値として記憶されることになる。
次に、ビブラート603の評価値は、以下のようにして算出される。まず、メロディパートにおける音符の長さが0.55秒以上の音符の発音時間が合計される(発音時間合計値)。そして、当該発音時間をビブラートに適した音とみなし、以下の式でビブラートの評価値が算出される。
評価値=発音時間合計値×α
そして、当該評価値が、ビブラート603の評価値として記憶されることになる。
次に、こぶし604の評価値については、以下のような処理が行われて算出される。まず、上記音程感と同様に、半音を1とした単位で、2つの音符間の音程それぞれに値(音程値)を設定する。この値は、音程が広いほど高い数値が設定される。
次に、メロディパートから各音程の出現確率が算出される。そして、各音程について、以下の式で音提出現値を算出する。
音程出現値=出現確率×音程毎の音程値
次に、算出された各音程の音程出現値を合計して、合計音程出現値を算出する。そして、以下の式で評価値が算出される。
評価値=合計音程出現値×α
更に、当該評価値と、上記ビブラート603の評価値との平均が算出され、当該算出された値がこぶし604の評価値として記憶されることになる。
次に、声質605の評価値は、以下のようにして算出される。まず、楽曲を構成する楽器毎に、声質に対応した値(声質値)が設定される。図24は、声質値の設定の一例を示す図である。図24では、エレキに”1”が、シンセリードおよびトランペットに”2”が、フルートに”9”が、それぞれ声質値として設定されている。ここでは、声の明るさを10段階で示し、”1”が最も声が明るいことを示すものとする。そのため、図24では、エレキやシンセリード、トランペットは、明るい声に向いていることを示し、フルートは、あまり明るくない声、例えば、やわらかい声やしっとりとした声に向いていることを示している。
次に、上記のような声質値に基づき、楽曲で使用されている各楽器の声質値が合計されて、合計声質値が算出される。そして、以下の式で、評価値が算出される。
評価値=合計声質値×α
そして、当該評価値が、声質605の評価値として記憶されることになる。
以上のような分析処理が実行されることで、1曲分の楽曲パラメタが算出される。そして、当該楽曲パラメタが、分析対象となった楽曲と対応づけられて楽曲分析データ249に追加出力される。
図21に戻り、次に、ステップS4において、後述する楽曲ジャンル相関分析処理が実行される。当該処理では、楽曲とジャンルとの類似度を算出して、その結果を楽曲−ジャンル相関リスト250に出力するための処理が実行される。
次に、ステップS5において、全ての楽曲を分析したか否かが判定される。まだ分析していない楽曲が残っていれば(ステップS5でNO)、ステップS1に戻り、次の曲について楽曲パラメタの算出が行われる。一方、全楽曲の分析が終わっていれば(ステップS5でYES)、楽曲分析処理は終了する。
次に、上述したような楽曲−ジャンル相関リスト250の生成について説明する。図25は、上記ステップS4で示した楽曲ジャンル相関分析処理の詳細を示すフローチャートである。当該処理では、1つの楽曲について、以下のような3つの傾向値がジャンル毎に導出される。
まず、ステップS11において、楽器傾向値が算出される。楽器傾向値は、ある楽曲で用いられている楽器の種類から、当該楽曲がどのジャンルに向いている曲であるかを推定するために用いられる。つまり、各ジャンルでよく使われる楽器を考慮するための値である。
楽器傾向値の算出においては、まず、本実施形態の楽曲で用いられている全楽器について、ある楽器がどのジャンルでどの程度用いられているかの度合いを示す傾向値が設定される。図26は、当該傾向値の設定の一例である。ここでは、傾向値は0〜10の範囲であるとし、値が高いほど、よく用いられていることを示すものとする(後述の残り2種類の傾向値についても同様とする)。図26では、例えばバイオリンは、ポップスでは”4”、ロックでは”1”という値が設定されている。そのため、ある楽曲でバイオリンが用いられていた場合、その曲については、ポップスへの相関度が高く評価され、ロックへの相関度は低く評価されることになる。
そして、上記のような傾向値の設定と、処理対象の楽曲に用いられている楽器の種類とに基づいて、楽器傾向値がジャンル毎に算出される。
図25に戻り、次に、ステップS12において、テンポ傾向値の算出が実行される。テンポ傾向値は、ある楽曲のテンポから、当該楽曲はどのジャンルに傾向した曲であるかを推定するために用いられる。例えば、テンポの遅い曲はロックよりもバラードに傾向しており、テンポの速い曲はバラードよりもロックに傾向している、等を推定できる。つまり、速い曲が多いジャンルや遅い曲が多いジャンル等を考慮するための値である。
テンポ傾向値の算出においては、まず、図27に示すような、あるテンポがどのジャンルでどの程度用いられているかの度合いを示す傾向値が設定される。図27では、テンポ65までは、ポップスが”4”、ロックが”1”と設定されている。そのため、ある楽曲のテンポが60であった場合は、ロックよりはポップスへの相関度が高く評価されることになる。
そして、上記のような傾向値の設定と処理対象の楽曲に用いられているテンポとに基づいて、テンポ傾向値がジャンル毎に算出される。
図25に戻り、次に、ステップS13において、長短調傾向値の算出が実行される。長短調傾向値は、ある楽曲の調から、当該楽曲がどのジャンルに傾向した曲であるかを推定するために用いられる。つまり、ジャンル毎の短調・長調の頻度を考慮するための値である。
長短調傾向値の算出においては、まず、図28に示すように、短調および長調がどのジャンルでどの程度用いられているかの度合いを示す傾向値が設定される。図28では、短調は、ポップスが”7”、ロックが”3”と設定されている。そのため、ある楽曲が短調である場合は、ロックよりポップスへの相関度が高く評価されることになる。
そして、上記のような傾向値の設定と処理対象の楽曲に用いられている調の種類とに基づいて、長短調傾向値がジャンル毎に算出される。
図25に戻り、各傾向値の算出が終われば、ステップS14において、上記のような3つの傾向値をジャンル毎に分けて合計する。そして、当該各ジャンル毎の合計値が楽曲番号と対応づけられて、楽曲−ジャンル相関リスト250に出力される。以上で、楽曲ジャンル相関分析処理は終了する。
以上のような処理で作成された楽曲分析データ249、および、楽曲−ジャンル相関リスト250が、ゲームプログラムなどと共にメモリカード17に保存される。そして、プレイヤによるゲームプレイの際に、RAM24に読み込まれて、以下に示すような処理で用いられることになる。
次に、実際にプレイヤがプレイする際にゲーム装置10において実行されるカラオケゲーム処理の流れを図29〜図34を用いて説明する。図29は、ゲーム装置10において実行されるカラオケゲーム処理の流れを示すフローチャートである。ゲーム装置10の電源が投入されると、ゲーム装置10のCPUコア21は、図示しないブートROMに記憶されている起動プログラムを実行し、RAM24等の各ユニットが初期化される。そして、メモリカード17に格納されたゲームプログラムがRAM24に読み込まれ、当該ゲームプログラムの実行が開始される。その結果、第1GPU26を介して第1LCD11にゲーム画像が表示されることによって、ゲームが開始される。以降、ステップS21〜S27の処理ループが1フレーム毎に繰り返される(ステップS26が実行される場合を除く。)ことによって、ゲームが進行していく。
まず、ステップS21において、上記図4で示したようなメニューを画面に表示する処理が実行される。
次に、ステップS22において、プレイヤからの選択操作が受け付けられる。プレイヤからの操作が受け付けられると、ステップS23において、「トレーニング」が選択されたか否かが判定される。
ステップS23の判定の結果、「トレーニング」が選択されていれば(ステップS23でYES)、CPUコア21は、ステップS27において、カラオケ曲の再生を行うカラオケ処理を実行する。なお、本実施形態においては、当該カラオケ処理については本発明と直接関連しないので説明は省略する。
一方、ステップS23の判定の結果、「トレーニング」が選択されていなければ(ステップS23でNO)、ステップS24において、「診断」が選択されたか否かが判定される。その結果、「診断」が選択されていたときは(ステップS24でYES)、ステップS26において、後述する歌声分析処理が実行される。一方、「診断」が選択されていないときは(ステップS24でNO)、ステップS25において、「戻る」が選択されたか否かが判定される。その結果、「戻る」が選択されていなければ(ステップS25でNO)、上記ステップS21に戻って処理が繰り返され、「戻る」が選択されていれば(ステップS25でYES)、本実施形態にかかるカラオケゲーム処理は終了する。
次に、歌声分析処理について説明する。図30は、上記ステップS26で示した歌声分析処理の詳細を示すフローチャートである。なお、図30において、ステップS43〜S46の処理ループは1フレーム毎に繰り返される。
まず、図30において、ステップS41において、上述したような曲選択画面(図5参照)が表示される。そして、プレイヤによる楽曲選択操作が受け付けられる。
プレイヤによって楽曲が選択されれば、続くステップS42において、選択された楽曲の楽譜データ2483が読み込まれる。
次に、ステップS43において、上記読み込まれた楽譜データ2483に基づいて楽曲の再生処理が実行される。続くステップS44において、音声データ(つまり、プレイヤの歌声)を取得する処理が実行される。マイクロフォン36に入力された音声にアナログ−デジタル変換の処理等が施され、入力音声データが生成される。なお、本実施形態での音声のサンプリング周波数は、4khz(1秒間に4000サンプル)とする。つまり、1秒間に入力された音声を4000個に分けて数値化している。そして、当該入力音声データを高速フーリエ変換することで周波数領域のデータが生成され、このデータを基にプレイヤの歌声の音量値データ、および音程データが生成される。音量値データについては、フレーム毎に直近の256サンプルを用いて、各サンプル値の2乗平均値を算出した値を音量値データとしている。また、音程データは、周波数に基づいて音程が検出され、各音程を示すための数値(例えば0〜127の値)で示される。
次に、ステップS45において、分析処理が実行される。この処理では、上記音量値データおよび音程データを分析して、歌声分析データ253を生成するための処理が実行される。歌声分析データ253の各歌声パラメタ2532は、以下のような内容の処理が実行されることで算出される。
”声の大きさ”については、次のような内容の処理が実行される。まず、一定の音量値を100点として(つまり、基準点)、1フレーム毎に点数が求められる。そして、曲の開始から終了に渡っての点数の平均が算出されて、”声の大きさ”として記憶される。
次に、”ノリ”については、2分音符周期でアクセント(一定量以上の音量)が発生しているか否かを分析する処理が実行される。具体的には、まず、Goertzelアルゴリズムを使用して、フレーム毎の音量データに対して2分音符周期の周波数成分が観測される。そして、観測された結果値に所定の定数が乗算され、0〜100点の範囲でのりが算出される。
次に、”抑揚”は、基本的には上記”ノリ”の処理と同様の処理が行われて算出される。但し、”ノリ”と異なり、2小節周期の周波数成分が観測される。
次に、”力強さ”は、基本的には上記”ノリ”の処理と同様の処理が行われて算出される。但し、”ノリ”と異なり、8分音符周期の周波数成分が観測される。
次に、”音程感”については、以下のような割合が算出されて記憶される。すなわち、歌詞が含まれている部分が演奏されているフレーム中において、プレイヤの歌声の音程(上記音程データから算出)が上下1半音以内の範囲に収まっているフレームの割合が算出されることで、”音程感”が得られる。
次に、”リズム”については、次のような割合が算出されて記憶される。すなわち、歌詞がついている音符に対する歌唱の開始タイミングが一定時間以内に収まっていて、且つ、歌い始めた最初のフレームでプレイヤの歌声の音程が上下1半音以内の範囲に収まっている音符数の全音符数に対する割合が算出される。
次に、”ビブラート”については、ビブラートがかかっていると認識された回数(時間)を調べることで得られる。1秒間に音の揺れが何回発生したかを評価するが、全周波数について調べると処理負荷が高くなるため、本実施形態では、3Hz、4.5Hz、6.5Hzの3つの周波数における成分を調べる。これは、一般的に、3〜6.5hzの範囲における音の揺れが、ある程度の時間続けば、ビブラートがかかっていると認識される(聞こえる)と考えられるからである。そのため、この範囲内の上限値、下限値、中間値において調べることで、効率的に調べることができる。具体的には、次のような処理が実行される。まず、Goertzelアルゴリズムを使用して、入力されたプレイヤの音声の3Hz、4.5Hz、6.5Hzの成分を調べる。そして、当該3つの周波数成分の最大値が一定閾値を超えたフレーム数の合計に、所定の係数αを乗じて算出された値が”ビブラート”として記憶される。
次に、”こぶし”については、次のような内容の処理が実行される。まず、各音符の始まりの位置からプレイヤの歌声の音程が正しい音程(音符が示す音程)に達するまでの間、直前のフレームから比べて音程が上昇しているフレームを検出する。そして、当該フレームに関しての評価点数として、音程の上昇量に応じて加点が行われる。そして、当該評価点数の曲全体での合計点を算出する。更に、当該合計点に所定の係数αを乗じて算出された値が、”こぶし”として記憶される。
次に、”音域”については、まず、全音階について、一定時間以上同じ音程をキープした音量値の平均が楽曲の再生開始時間からカウントされる。そして、中心音程からガウス分布に従って、上下1オクターブ分の値を加算した値が最大となる音程(0〜25)×4を”音域”とする。
次に、”声質”については、次のような内容の処理が実行される。まず、入力されたプレイヤの音声から、図31に例示するようなスペクトルデータが求められる。そして、当該スペクトルの特徴を示す直線(回帰直線)が算出される。当該直線は右下がりとなることが自然であるが、当該直線の傾きが小さければ、高周波成分を多く含む声(明るい声)であり、右下がりの傾きが大きければ、こもりがちな声であると判定されるような処理が実行される。より具体的には、まず、入力されたプレイヤの音声のFFTスペクトルの再生開始から終了までの平均が算出される。そして、周波数方向をx、利得方向をy標本値としたグラフの回帰直線の傾きが算出される。そして、当該傾きに所定の係数αを乗じた値が、”声質”として記憶される。
図30に戻り、ステップS45の分析処理が終われば、ステップS46において、上記分析処理の結果算出された各歌声パラメタが歌声分析データ253として保存される。すなわち、フレーム毎に歌声分析データが保存される、つまり、リアルタイムで歌声分析の結果が保存されることになる。これにより、例えば、歌声分析処理を中断するような処理を行っても、途中までの歌声に基づいた歌声分析データ253を用いて以下の処理を実行することが可能となる。
次に、ステップS47において、楽曲の再生が終了したか否が判定される。楽曲の再生が終了していなければ(ステップS47でNO)、上記ステップS43に戻って処理が繰り返される。
一方、楽曲の再生が終了すれば(ステップS47でYES)、次に、ステップS48において、上記歌声分析データ253とジャンルマスタ247とに基づいて、歌声−ジャンル相関リスト254が作成される。すなわち、歌声分析データ253の各歌声パラメタと、ジャンルマスタ247の各歌声パラメタ定義2472との相関値が算出される。本実施形態では、当該相関値は、ピアソンの積率相関係数を用いて算出される。相関係数とは、2つの確率変数の間の相関(類似性の度合い)を示す指標で、−1から1の間の値をとる。1に近いときは2つの確率変数には正の相関があるといい、類似性が高いとされる。また、−1に近ければ負の相関があるといいい、類似性が低いとされる。具体的には、2組の数値からなるデータ列
Figure 2009162818
が与えられたとき、相関係数は以下のように求められる。
Figure 2009162818
ただし、上記式において、
Figure 2009162818
は、それぞれデータ
Figure 2009162818
の相加平均である。本実施形態では、歌声分析データ253の各歌声パラメタとジャンルマスタの各歌声パラメタ定義2472との相関値は、上記データ列のxに歌声分析データ253の歌声パラメタが代入され、yに歌声パラメタ定義2472が代入されることで算出される。
上記のような式を用いて各ジャンルについて歌声との相関値が算出される。そして、当該算出結果に基づいて図17に示したような歌声−ジャンル相関リスト254が作成されて、作業領域252に記憶される。
次に、ステップS49において、タイプ診断処理が実行される。図32は、当該タイプ診断処理の詳細を示すフローチャートである。図32において、まず、ステップS81において、上記ステップS48で作成された歌声−ジャンル相関リスト254が読み込まれる。次に、ステップS82において、最も相関値2542の値が高いジャンル名2541が選択される。そして、ステップS83において、当該選択されたジャンル名2541がタイプ診断結果258として記憶される。以上で、タイプ診断処理は終了する。
図30に戻り、タイプ診断処理が終了すれば、次に、ステップS50において、おすすめ曲検索処理が実行される。当該処理は、上記図7における歌声−楽曲相関分析P4に相当する処理である。すなわち、楽曲分析データ249、楽曲−ジャンル相関リスト250、歌声分析データ253、および歌声−ジャンル相関リスト254とに基づいて、プレイヤの歌声と楽曲データ248内の各楽曲との相関値を求め、プレイヤの歌声に適した楽曲を検索する処理が実行される。
図33は、上記ステップS50で示したおすすめ曲検索処理の詳細を示すフローチャートである。図33において、まず、ステップS61において、候補曲リスト256の初期化が行われる。
次に、ステップS62において、歌声分析データ253が読み込まれる。更に、ステップS63において、歌声−ジャンル相関リスト254が読み込まれる。これにより、歌声に関するパラメタ(つまり、歌声の分析結果)が一通り読み込まれることになる。
次に、ステップS64において、楽曲分析データ249から1曲分の楽曲パラメタが読み込まれる。更に、ステップS65において、楽曲−ジャンル相関リスト250から、ステップS64で読み込まれた楽曲に対応するデータが読み込まれる。これにより、1曲分の楽曲に関するパラメタ(つまり、楽曲の分析結果)が読み込まれることになる。
次に、ステップS66において、プレイヤの歌声と上記読み込まれた楽曲との相関値が、上述したピアソンの積率相関係数を用いて算出される。具体的には、上記歌声パラメタ(図17参照)の値、および、歌声−ジャンル相関リスト254(図18参照)の各ジャンルの相関値が、上記式1のデータ列のxとして代入される(歌声パラメタについては、より正確には、楽曲パラメタと同じ項目のみ用いられる。具体的には、音程感、リズム、ビブラート、こぶし、声質の5項目が用いられる)。そして、上記楽曲パラメタの各値(図15参照)、および、楽曲−ジャンル相関リスト250(図16参照)から読み込まれた、現在処理対象となっている楽曲についての各ジャンルの相関値が上記データ列のyとして代入されることで、相関値が算出される。つまり、図8に示したような2つのレーダーチャートの図形の類似度(歌声と楽曲の類似度)と、図16(処理対象の楽曲分のみ)および図18の内容をレーダーチャートで示した場合の図形の類似度(歌声のジャンル傾向と楽曲のジャンル傾向の類似度)とを考慮した、プレイヤの歌声と上記読み込まれた楽曲との総合的な類似度を算出する処理が行われる。
次に、ステップS67において、上記ステップS66で算出された相関値が所定値以上であるか否かが判定される。その結果、所定値以上の楽曲については(ステップS67でYES)、ステップS68において、当該楽曲の楽曲番号および算出された相関値が候補曲リスト256に追加記憶される。
次に、ステップS69において、全楽曲の相関値が算出されたか否かが判定される。その結果、まだ全楽曲の相関値の算出が終わっていなければ(ステップS69でNO)、上記ステップS64に戻り、まだ相関値の算出が終わっていない曲について処理を繰り返す。
一方、上記ステップS69の判定の結果、全楽曲の相関値を算出していれば(ステップS69でYES)、次に、ステップS70において、候補曲リスト256からランダムに1曲が選択される。そして、ステップS71において、選択された楽曲の楽曲番号がおすすめ曲257として記憶される。なお、候補からランダムに選択するのではなく、最も相関値の高い1曲を選択するようにしてもよい。以上で、おすすめ曲検索処理は終了する。
図30に戻り、タイプ診断処理が終われば、続くステップS51において、おすすめ曲とタイプ診断の結果を表示する処理が実行される。すなわち、おすすめ曲257に格納されている楽曲番号に基づいて、楽曲データ248から書誌データ2482が取得される。そして、当該書誌データ2482に基づいて、楽曲名等が画面に表示される(このとき、当該おすすめ曲が再生されるようにしてもよい)。更に、タイプ診断結果258に格納されているジャンル名が読み出され、画面に表示される。以上で、歌声分析終了は終了する。
このように、本実施形態では、プレイヤの歌声を分析し、歌声の特性を示すデータを算出、生成している。そして、楽譜データから楽曲の特徴を分析したデータと、当該歌声の特性を分析したデータとの類似性を調べる処理を行うことで、プレイヤ(歌唱者)に適した楽曲を検索し、提示することができる。これにより、プレイヤが歌うのに適した楽曲を提示し、カラオケゲームの興趣を高めることができる。また、カラオケが苦手なプレイヤに対しても、歌いやすい楽曲を提示して、カラオケを楽しませる契機を提供することができ、今までカラオケを避けていたようなプレイヤに対しても、気持ちよくカラオケゲームを楽しませることが可能となる。これにより、広い層のプレイヤが楽しめるカラオケゲームを提供することが可能となる。更に、プレイヤの歌声に適した楽曲ジャンルも提示することができる。そのため、プレイヤは提示されたジャンルに着目してカラオケ曲を選択することによって、自分の歌声等に適した楽曲を選びやすくなり、カラオケゲームの興趣を高めることができる。
なお、上記の楽曲分析処理については、プレイヤのゲームプレイ前(ゲーム製品であるメモリカード17の出荷前)に事前に実行する場合を例として説明した。これに限らず、ゲーム処理内において行うようにしてもよい。例えば、楽曲データ248について所定のサーバからダウンロードで追加できるようにゲームプログラムを構成しておく。そして、当該ダウンロードによって楽曲をゲーム装置10に追加記憶させるときに、上述したような楽曲分析処理を行うようにしても良い。これにより、追加した楽曲についても分析データを作成することができ、プレイヤに適した楽曲の選択の幅を広げることが可能となる。更に、プレイヤが楽曲を自分で作曲できるようにゲームプログラムを構成し、プレイヤが作曲した楽曲についても、上記楽曲分析処理を行って楽曲分析データおよび楽曲−ジャンル相関リストを更新するようにしてもよい。これにより、カラオケゲームの興趣を高めることができる。
また、ステップS50で実行されるおすすめ曲検索の処理方法に関しても、あくまで一例であり、これらに限らず、楽曲パラメタと歌声パラメタから類似度が算出できれば、どのような処理方法を用いても良い。例えば、以下のような処理方法を用いても良い。
図34は、上記ステップS50で示したおすすめ曲検索処理の別の処理方法の例を示すフローチャートである。図34において、まず、ステップS91において、中間候補リスト255および候補曲リスト256の初期化が行われる。
次に、ステップS92において、歌声分析データ253が読み込まれる。続くステップS93において、楽曲−ジャンル相関リスト250が読み込まれる。更に、ステップS94において、歌声−ジャンル相関リスト254が読み込まれる。
次に、ステップS95において、楽曲分析データ249から1曲分の楽曲パラメタが読み込まれる。
次に、ステップS96において、プレイヤの歌声(すなわち、歌声分析データ253)と、当該読み込まれた楽曲パラメタにかかる楽曲との相関値が、上述したピアソンの積率相関係数を用いて算出される。
次に、ステップS97において、上記ステップS96で算出された相関値が所定値以上であるか否かが判定される。その結果、所定値以上の楽曲については(ステップS97でYES)、ステップS98において、当該楽曲の楽曲番号および算出された相関値が中間候補リスト255に追加記憶される。
次に、ステップS99において、全楽曲の相関値が算出されたか否かが判定される。その結果、まだ全楽曲の相関値の算出が終わっていなければ(ステップS99でNO)、上記ステップS95に戻り、まだ相関値の算出が終わっていない曲について処理を繰り返す。
一方、上記ステップS99の判定の結果、全楽曲の相関値を算出していれば(ステップS99でYES)、例えば、図35(a)に示すような内容の中間候補リスト255が生成されたことになる。図35(a)の中間候補リスト255では、相関値が0以上の楽曲が抽出されたものとする。そして、続くステップS100において、歌声−ジャンル相関リスト254から、歌声との相関値が所定値以上のジャンル(以下、適正ジャンルと呼ぶ)のジャンル名2541が取得される。例えば、歌声−ジャンル相関リスト254の内容を相関値の高い順にソートし直すと、図35(b)に示すような内容であったとする。そして、ここでは、相関値が所定値以上のジャンルを「ポップス」のみとする。その結果、適正ジャンルのジャンル名2541は「ポップス」になる。なお、ここでは、説明の便宜上、適正ジャンルを1つだけに絞っているが、複数のジャンル名2541を取得するようにしてもよい。
次に、ステップS101において、楽曲−ジャンル相関リスト250が参照されながら、中間候補リスト255から「適正ジャンル」の相関値が所定値以上の楽曲の楽曲番号が抽出される。そして、当該楽曲番号が候補曲リスト256に追加記憶される。例えば、楽曲−ジャンル相関リスト250について、相関値の高い順にソートした内容が、図35(c)に示すような内容であったとする。そして、上記「適正ジャンルの相関値が所定値以上」を「相関値が最も高いジャンル」(図35(c)で「1位」のジャンル)と仮定する。この場合は、上記適正ジャンルは「ポップス」であるため、図35(c)の内容から、最も相関値が高いジャンルが「ポップス」である楽曲(図35(c)では、楽曲1,楽曲3、楽曲5)が抽出される。その結果、図35(d)に示すような内容の候補曲リスト256が生成される。そして、当該候補曲リストを用いて、上記ステップS51の処理を行うようにしても良い。
また、上記のような処理方法の他、以下のような方法を用いても良い。例えば、まず、上記歌声分析データ253と楽曲分析データ249との相関値を算出する。次に、歌声−ジャンル相関リスト254の内容から、相関値の高い順に重み付け値を設定する。また、楽曲−ジャンル相関リスト250の内容から、相関値の高い順に重み付け値を設定する。そして、当該重み付け値を歌声分析データ253と楽曲分析データ249との相関値に乗じるようにして相関値を調整し、調整後の相関値に基づいておすすめ曲を選択するようにしても良い。このように、楽曲パラメタと歌声パラメタから類似度が算出できれば、どのような処理方法を用いても良い。
また、楽曲および歌声の分析対象となる項目、すなわち楽曲パラメタや歌声パラメタについても、上述した内容だけに限るものではない。楽曲や歌声の特徴を示し、相関値が算出できるようなパラメタであれば、上記のような項目に限らない。
本発明にかかる楽曲提示装置および楽曲提示プログラムは、ユーザの歌声を分析し、ユーザの歌唱の特徴に適した楽曲や音楽のジャンルを提示することができ、カラオケ装置やカラオケゲームを実行するゲーム装置等に有用である。
本発明の第1の実施形態に係るゲーム装置10の外観図 本発明の第1の実施形態に係るゲーム装置10の斜視図 本発明の第1の実施形態に係るゲーム装置10のブロック図 本実施形態において想定するゲームの画面の一例 本実施形態において想定するゲームの画面の一例 本実施形態において想定するゲームの画面の一例 本実施形態にかかる楽曲提示処理の処理概要を説明するための図 本実施形態にかかる楽曲提示処理の処理概要を説明するための図 歌声パラメタの一例 楽曲パラメタの一例 ”ノリ”を説明するための図 図3のRAM24のメモリ空間を図解的に示したメモリマップ ジャンルマスタのデータ構造の一例を示した図 楽曲データのデータ構造の一例を示した図 楽曲分析データのデータ構造の一例を示した図 楽曲−ジャンル相関リストのデータ構造の一例を示した図 歌声分析データのデータ構造の一例を示した図 歌声−ジャンル相関リストのデータ構造の一例を示した図 中間候補リストのデータ構造の一例を示した図 候補曲リストのデータ構造の一例を示した図 楽曲分析処理を示すフローチャート 音程感の評価に用いられる難度の設定の一例を示す図 リズムの評価に用いられる難度の設定の一例を示す図 声質の評価に用いられる声質値の設定の一例を示す図 図21のステップS4で示した楽曲ジャンル相関分析処理の詳細を示すフローチャート 楽器傾向値の算出の際に用いられる傾向値の設定の一例 テンポ傾向値の算出の際に用いられる傾向値の設定の一例 長短調傾向値の算出の際に用いられる傾向値の設定の一例 ゲーム装置10において実行されるカラオケゲーム処理の流れを示すフローチャート 図29のステップS26で示した歌声分析処理の詳細を示すフローチャート 声質分析の際のスペクトルデータの一例 図30のステップS49で示したタイプ診断処理の詳細を示すフローチャート 図30のステップS50で示したおすすめ曲検索処理の詳細を示すフローチャート おすすめ曲検索処理を説明するための図 図30のステップS50で示したおすすめ曲検索処理の別の処理例を示すフローチャート
符号の説明
10 携帯型ゲーム装置
11 第1LCD
12 第2LCD
13 ハウジング
14 操作スイッチ部
15 タッチパネル
16 スタイラスペン
17 メモリカード
18 音抜き孔
20 電子回路基板
21 CPUコア
22 バス
23 コネクタ
24 RAM
25 インターフェース回路
26 第1GPU
27 第2GPU
28 第1VRAM
29 第2VRAM
31 LCDコントローラ
32 レジスタ
33 マイクロフォン孔
36 マイクロフォン

Claims (30)

  1. ユーザの歌唱にかかる音声データを取得する音声データ取得手段と、
    前記音声データを分析して、ユーザの歌唱の特徴を示す複数の歌唱特徴パラメタを算出する歌唱特徴分析手段と、
    楽曲に関する楽曲関連情報を記憶する楽曲関連情報記憶手段と、
    前記歌唱特徴パラメタと比較するための比較用パラメタを前記楽曲関連情報に対応づけて記憶する比較用パラメタ記憶手段と、
    前記歌唱特徴パラメタと前記比較用パラメタとを比較して、当該歌唱特徴パラメタと比較用パラメタとの類似度を算出する比較手段と、
    前記歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている前記楽曲関連情報を少なくとも1つ選択する選択手段と、
    前記選択手段が選択した楽曲関連情報に基づいて情報を提示する提示手段とを備える、楽曲提示装置。
  2. 前記楽曲関連情報記憶手段は、少なくとも前記楽曲を再生するための楽曲データを楽曲関連情報として記憶し、
    前記比較用パラメタ記憶手段は、前記楽曲の音楽的特徴を示すパラメタを前記比較用パラメタして前記楽曲データに対応づけて記憶し、
    前記選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている前記楽曲データを少なくとも1つ選択し、
    前記提示手段は、前記選択手段が選択した楽曲データに基づいて楽曲の情報を提示する、請求項1に記載の楽曲提示装置。
  3. 前記楽曲関連情報記憶手段は、楽曲の音楽ジャンルを示すジャンルデータを楽曲関連情報として更に記憶し、
    前記比較用パラメタ記憶手段は、前記音楽ジャンルの音楽的特徴を示すパラメタを前記比較用パラメタとして更に記憶し、
    前記楽曲提示装置は、
    前記楽曲と前記音楽ジャンルとの類似度を示す楽曲−ジャンル類似度データを記憶する楽曲−ジャンル類似度データ記憶手段と、
    前記歌唱特徴パラメタと音楽ジャンルとの類似度を算出する音声−ジャンル類似度算出手段とを更に備え、
    前記選択手段は、前記音声−ジャンル類似度算出手段によって算出された類似度と、前記楽曲−ジャンル類似度データ記憶手段に記憶された楽曲−ジャンル類似度データとに基づいて前記楽曲データの選択を行う、請求項2に記載の楽曲提示装置。
  4. 前記楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれており、
    前記楽曲提示装置は、前記楽譜データに含まれる楽器、テンポ、調に基づいて前記楽曲と前記音楽ジャンルとの類似度を算出する楽曲−ジャンル類似データ算出手段を更に備える、請求項3に記載の楽曲提示装置。
  5. 前記歌唱特徴パラメタおよび比較パラメタには、前記プレイヤの歌唱にかかる音程の正確さ、音程の揺れ、周期的な音声の入力、音域のいずれかを評価した値が含まれる、請求項1に記載の楽曲提示装置。
  6. 前記楽曲データには、当該楽曲に用いられている楽器と当該楽曲のテンポと当該楽曲の調と当該楽曲を構成する複数の音符を示すための楽譜データが含まれており、
    前記歌唱特徴分析手段は、
    前記音声データから音量値を示すデータである音量値データと音程を示すデータである音程データとを算出する音量音程データ算出手段を含み、
    前記音量値データおよび音程データの少なくともいずれか一方と前記楽譜データとを比較して前記歌唱特徴パラメタを算出する、請求項2に記載の楽曲提示装置。
  7. 前記歌唱特徴分析手段は、前記音量値データから所定の周期における周波数成分の出力値に基づいて前記歌唱特徴パラメタを算出する、請求項6に記載の楽曲提示装置。
  8. 前記歌唱特徴分析手段は、前記楽譜データで示される楽譜のメロディパートにおける各音符の開始タイミングと、前記音量値データに基づく音声の入力タイミングとのずれに基づいて前記歌唱特徴パラメタを算出する、請求項6に記載の楽曲提示装置。
  9. 前記歌唱特徴分析手段は、前記楽譜データで示される楽譜の音符の音程と、前記音程データに基づく音程とのずれに基づいて前記歌唱特徴パラメタを算出する、請求項6に記載の楽曲提示装置。
  10. 前記歌唱特徴分析手段は、前記音程データにおける単位時間毎の音程の変化量に基づいて前記歌唱特徴パラメタを算出する、請求項6に記載の楽曲提示装置。
  11. 前記歌唱特徴分析手段は、前記音量値データおよび音程データから、同じ音程が所定時間以上維持されている音声のうち、最大の音量値である音程に基づいて前記歌唱特徴パラメタを算出する、請求項6に記載の楽曲提示装置。
  12. 前記歌唱特徴分析手段は、前記プレイヤの音声に含まれる高周波成分の量を前記音声データから算出し、当該算出した結果に基づいて前記歌唱特徴パラメタを算出する、請求項6に記載の楽曲提示装置。
  13. 前記楽曲関連情報記憶手段は、少なくとも音楽ジャンルを示すジャンルデータを楽曲関連情報として記憶し、
    前記比較用パラメタ記憶手段は、前記音楽ジャンルの音楽的特徴を示すパラメタを前記比較用パラメタとして前記音楽ジャンルに対応づけて記憶し、
    前記選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている前記音楽ジャンルを選択し、
    前記提示手段は、前記楽曲関連情報に基づく情報として前記音楽ジャンルの名称を提示する、請求項1に記載の楽曲提示装置。
  14. 前記楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれており、
    前記楽曲提示装置は、前記楽譜データから前記比較用パラメタを楽曲毎に算出する楽曲パラメタ算出手段を更に備え、
    前記比較用パラメタ記憶手段は、前記楽曲パラメタ算出手段が算出した比較用パラメタを記憶する、請求項2に記載の楽曲提示装置。
  15. 前記楽曲パラメタ算出手段は、前記楽譜データに基づいて、音符間の音程差と、拍内における音符の位置と、音符の長さが所定閾値以上である音符の合計時間とに基づいて前記比較用パラメタを算出する、請求項14に記載の楽曲提示装置。
  16. ユーザに楽曲を提示する楽曲提示装置のコンピュータを、
    ユーザの歌唱にかかる音声データを取得する音声データ取得手段と、
    前記音声データを分析して、ユーザの歌唱の特徴を示す複数の歌唱特徴パラメタを算出する歌唱特徴分析手段と、
    前記楽曲に関する楽曲関連情報を記憶する楽曲関連情報記憶手段と、
    前記歌唱特徴パラメタと比較するための比較用パラメタを前記楽曲関連情報に対応づけて記憶する比較用パラメタ記憶手段と、
    前記歌唱特徴パラメタと前記比較用パラメタとを比較して、当該歌唱特徴パラメタと比較用パラメタとの類似度を算出する比較手段と、
    前記歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている前記楽曲関連情報を少なくとも1つ選択する選択手段と、
    前記選択手段が選択した楽曲関連情報に基づいて情報を提示する提示手段として機能させる、楽曲提示プログラム。
  17. 前記楽曲関連情報記憶手段は、少なくとも前記楽曲を再生するための楽曲データを楽曲関連情報として記憶し、
    前記比較用パラメタ記憶手段は、前記楽曲の音楽的特徴を示すパラメタを前記比較用パラメタして前記楽曲データに対応づけて記憶し、
    前記選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている前記楽曲データを少なくとも1つ選択し、
    前記提示手段は、前記選択手段が選択した楽曲データに基づいて楽曲の情報を提示する、請求項16に記載の楽曲提示プログラム。
  18. 前記楽曲関連情報記憶手段は、楽曲の音楽ジャンルを示すジャンルデータを楽曲関連情報として更に記憶し、
    前記比較用パラメタ記憶手段は、前記音楽ジャンルの音楽的特徴を示すパラメタを前記比較用パラメタして更に記憶し、
    前記楽曲提示プログラムは、前記楽曲提示装置のコンピュータを、
    前記楽曲と前記音楽ジャンルとの類似度を示す楽曲−ジャンル類似度データを記憶する楽曲−ジャンル類似度データ記憶手段と、
    前記歌唱特徴パラメタと音楽ジャンルとの類似度を算出する音声−ジャンル類似度算出手段として更に機能させ、
    前記選択手段は、前記音声−ジャンル類似度算出手段によって算出された類似度と、前記楽曲−ジャンル類似度データ記憶手段に記憶された楽曲−ジャンル類似度データとに基づいて前記楽曲データの選択を行う、請求項17に記載の楽曲提示プログラム。
  19. 前記楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれており、
    前記楽曲提示プログラムは、前記楽曲提示装置のコンピュータを、前記楽譜データに含まれる楽器、テンポ、調に基づいて前記楽曲と前記音楽ジャンルとの類似度を算出する楽曲−ジャンル類似データ算出手段として更に機能させる、請求項18に記載の楽曲提示プログラム。
  20. 前記歌唱特徴パラメタおよび比較パラメタには、前記プレイヤの歌唱にかかる音程の正確さ、音程の揺れ、周期的な音声の入力、音域のいずれかを評価した値が含まれる、請求項16に記載の楽曲提示プログラム。
  21. 前記楽曲データには、当該楽曲に用いられている楽器と当該楽曲のテンポと当該楽曲の調と当該楽曲を構成する複数の音符を示すための楽譜データが含まれており、
    前記歌唱特徴分析手段は、
    前記音声データから音量値を示すデータである音量値データと音程を示すデータである音程データとを算出する音量音程データ算出手段を含み、
    前記音量値データおよび音程データの少なくともいずれか一方と前記楽譜データとを比較して前記歌唱特徴パラメタを算出する、請求項17に記載の楽曲提示プログラム。
  22. 前記歌唱特徴分析手段は、前記音量値データから所定の周期における周波数成分の出力値に基づいて前記歌唱特徴パラメタを算出する、請求項21に記載の楽曲提示プログラム。
  23. 前記歌唱特徴分析手段は、前記楽譜データで示される楽譜のメロディパートにおける各音符の開始タイミングと、前記音量値データに基づく音声の入力タイミングとのずれに基づいて前記歌唱特徴パラメタを算出する、請求項21に記載の楽曲提示プログラム。
  24. 前記歌唱特徴分析手段は、前記楽譜データで示される楽譜の音符の音程と、前記音程データに基づく音程とのずれに基づいて前記歌唱特徴パラメタを算出する、請求項21に記載の楽曲提示プログラム。
  25. 前記歌唱特徴分析手段は、前記音程データにおける単位時間毎の音程の変化量に基づいて前記歌唱特徴パラメタを算出する、請求項21に記載の楽曲提示プログラム。
  26. 前記歌唱特徴分析手段は、前記音量値データおよび音程データから、同じ音程が所定時間以上維持されている音声のうち、最大の音量値である音程に基づいて前記歌唱特徴パラメタを算出する、請求項21に記載の楽曲提示プログラム。
  27. 前記歌唱特徴分析手段は、前記プレイヤの音声に含まれる高周波成分の量を前記音声データから算出し、当該算出した結果に基づいて前記歌唱特徴パラメタを算出する、請求項21に記載の楽曲提示プログラム。
  28. 前記楽曲関連情報記憶手段は、少なくとも音楽ジャンルを示すジャンルデータを楽曲関連情報として記憶し、
    前記比較用パラメタ記憶手段は、前記音楽ジャンルの音楽的特徴を示すパラメタを前記比較用パラメタとして前記音楽ジャンルに対応づけて記憶し、
    前記選択手段は、歌唱特徴パラメタとの類似度が高い比較用パラメタに対応づけられている前記音楽ジャンルを選択し、
    前記提示手段は、前記楽曲関連情報に基づく情報として前記音楽ジャンルの名称を提示する、請求項16に記載の楽曲提示プログラム。
  29. 前記楽曲データには、当該楽曲の演奏に用いられている楽器と当該楽曲のテンポと当該楽曲の調とを示すための楽譜データが含まれており、
    前記楽曲提示装置は、前記楽曲提示装置のコンピュータを、前記楽譜データから前記比較用パラメタを楽曲毎に算出する楽曲パラメタ算出手段として更に機能させ、
    前記比較用パラメタ記憶手段は、前記楽曲パラメタ算出手段が算出した比較用パラメタを記憶する、請求項17に記載の楽曲提示プログラム。
  30. 前記楽曲パラメタ算出手段は、前記楽譜データに基づいて、音符間の音程差と、拍内における音符の位置と、音符の長さが所定閾値以上である音符の合計時間とに基づいて前記比較用パラメタを算出する、請求項29に記載の楽曲提示プログラム。
JP2007339372A 2007-12-28 2007-12-28 楽曲提示装置、楽曲提示プログラム、楽曲提示システム、楽曲提示方法 Active JP5147389B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007339372A JP5147389B2 (ja) 2007-12-28 2007-12-28 楽曲提示装置、楽曲提示プログラム、楽曲提示システム、楽曲提示方法
US12/071,708 US7829777B2 (en) 2007-12-28 2008-02-25 Music displaying apparatus and computer-readable storage medium storing music displaying program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007339372A JP5147389B2 (ja) 2007-12-28 2007-12-28 楽曲提示装置、楽曲提示プログラム、楽曲提示システム、楽曲提示方法

Publications (2)

Publication Number Publication Date
JP2009162818A true JP2009162818A (ja) 2009-07-23
JP5147389B2 JP5147389B2 (ja) 2013-02-20

Family

ID=40796539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007339372A Active JP5147389B2 (ja) 2007-12-28 2007-12-28 楽曲提示装置、楽曲提示プログラム、楽曲提示システム、楽曲提示方法

Country Status (2)

Country Link
US (1) US7829777B2 (ja)
JP (1) JP5147389B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011043768A (ja) * 2009-08-24 2011-03-03 Xing Inc 歌唱評価装置、歌唱評価方法及びコンピュータプログラム
JP2012173721A (ja) * 2011-02-24 2012-09-10 Yamaha Corp 歌唱音声評価装置
JP2017026654A (ja) * 2015-07-15 2017-02-02 株式会社バンダイ 歌唱力評価装置及び記憶装置
CN109243415A (zh) * 2018-11-01 2019-01-18 行知技术有限公司 一种将唱奏评分图像可视化的方法
JP2020166142A (ja) * 2019-03-29 2020-10-08 株式会社第一興商 カラオケ装置
JP2021083973A (ja) * 2019-11-29 2021-06-03 株式会社あかつき 情報処理方法、情報処理端末、およびプログラム
JP7188337B2 (ja) 2019-09-24 2022-12-13 カシオ計算機株式会社 サーバ装置、演奏支援方法、プログラム、および情報提供システム

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7459624B2 (en) 2006-03-29 2008-12-02 Harmonix Music Systems, Inc. Game controller simulating a musical instrument
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US20090075711A1 (en) 2007-06-14 2009-03-19 Eric Brosius Systems and methods for providing a vocal experience for a player of a rhythm action game
US20100124335A1 (en) * 2008-11-19 2010-05-20 All Media Guide, Llc Scoring a match of two audio tracks sets using track time probability distribution
US8148621B2 (en) * 2009-02-05 2012-04-03 Brian Bright Scoring of free-form vocals for video game
KR101554221B1 (ko) * 2009-05-11 2015-09-21 삼성전자주식회사 휴대단말기를 이용한 악기 연주 방법 및 장치
US8080722B2 (en) * 2009-05-29 2011-12-20 Harmonix Music Systems, Inc. Preventing an unintentional deploy of a bonus in a video game
US7982114B2 (en) * 2009-05-29 2011-07-19 Harmonix Music Systems, Inc. Displaying an input at multiple octaves
US7935880B2 (en) 2009-05-29 2011-05-03 Harmonix Music Systems, Inc. Dynamically displaying a pitch range
US20100304810A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Displaying A Harmonically Relevant Pitch Guide
US20100304811A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Scoring a Musical Performance Involving Multiple Parts
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8076564B2 (en) * 2009-05-29 2011-12-13 Harmonix Music Systems, Inc. Scoring a musical performance after a period of ambiguity
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US8568234B2 (en) 2010-03-16 2013-10-29 Harmonix Music Systems, Inc. Simulating musical instruments
CA2802348A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
US10957152B2 (en) 2011-02-17 2021-03-23 Aristocrat Technologies Australia Pty Limited Gaming tracking and recommendation system
US9387392B1 (en) * 2011-02-17 2016-07-12 Aristocrat Technologies Australia Pty Limited Gaming tracking and recommendation system
US10360758B2 (en) 2011-02-17 2019-07-23 Aristocrat Technologies Australia Pty Limited Gaming tracking and recommendation system
ES1075856Y (es) * 2011-09-30 2012-03-13 Martin Jose Javier Prieto Dispositivo portatil para el reconocimiento y visualizacion de notas musicales
JP5935503B2 (ja) * 2012-05-18 2016-06-15 ヤマハ株式会社 楽曲解析装置および楽曲解析方法
JP5799977B2 (ja) * 2012-07-18 2015-10-28 ヤマハ株式会社 音符列解析装置
US20140039876A1 (en) * 2012-07-31 2014-02-06 Craig P. Sayers Extracting related concepts from a content stream using temporal distribution
US11132983B2 (en) 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
US11030983B2 (en) 2017-06-26 2021-06-08 Adio, Llc Enhanced system, method, and devices for communicating inaudible tones associated with audio files
US10460709B2 (en) 2017-06-26 2019-10-29 The Intellectual Property Network, Inc. Enhanced system, method, and devices for utilizing inaudible tones with music
CN109448681A (zh) * 2018-09-05 2019-03-08 厦门轻唱科技有限公司 K歌交互系统、实现方法、介质及系统
CN109754820B (zh) * 2018-12-07 2020-12-29 百度在线网络技术(北京)有限公司 目标音频获取方法及装置、存储介质及终端
CN111724812A (zh) * 2019-03-22 2020-09-29 广州艾美网络科技有限公司 音频处理方法、存储介质与音乐练习终端
CN110010159B (zh) * 2019-04-02 2021-12-10 广州酷狗计算机科技有限公司 声音相似度确定方法及装置
CN110853678B (zh) * 2019-11-20 2022-09-06 北京雷石天地电子技术有限公司 颤音识别评分方法、装置、终端和非临时性计算机可读存储介质
CN111105814B (zh) * 2019-12-27 2022-03-22 福建星网视易信息系统有限公司 歌曲难度系数的确定方法及计算机可读存储介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0895585A (ja) * 1994-09-27 1996-04-12 Omron Corp 楽曲選択装置および楽曲選択方法
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
JP2000187671A (ja) * 1998-12-21 2000-07-04 Tomoya Sonoda ネットワ―クを利用した歌声による曲検索システム及び検索時に用いる歌声の入力端末装置
JP2000347659A (ja) * 1999-03-26 2000-12-15 Nippon Telegr & Teleph Corp <Ntt> 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した記録媒体
JP2002063209A (ja) * 2000-08-22 2002-02-28 Sony Corp 情報処理装置および方法、情報システム、並びに記録媒体
JP2002073058A (ja) * 2000-08-24 2002-03-12 Clarion Co Ltd カラオケ装置
JP2002215195A (ja) * 2000-11-06 2002-07-31 Matsushita Electric Ind Co Ltd 音楽信号処理装置
JP2003058147A (ja) * 2001-08-10 2003-02-28 Sony Corp 音楽コンテンツ自動分類装置及び自動分類方法
JP2004110422A (ja) * 2002-09-18 2004-04-08 Double Digit Inc 曲分類装置、曲分類方法、及びプログラム
JP2005107313A (ja) * 2003-09-30 2005-04-21 Sanyo Electric Co Ltd カラオケ選曲装置の制御プログラム、カラオケ選曲装置及びカラオケ選曲装置の制御方法
JP2005115164A (ja) * 2003-10-09 2005-04-28 Denso Corp 楽曲検索装置
JP2007003897A (ja) * 2005-06-24 2007-01-11 Toppan Printing Co Ltd カラオケシステム、装置およびプログラム
JP2007140548A (ja) * 2007-01-29 2007-06-07 Yamaha Corp 似顔絵出力装置およびカラオケ装置
JP2007304489A (ja) * 2006-05-15 2007-11-22 Yamaha Corp 楽曲練習支援装置、制御方法及びプログラム
JP2007322598A (ja) * 2006-05-31 2007-12-13 Victor Co Of Japan Ltd 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4771671A (en) * 1987-01-08 1988-09-20 Breakaway Technologies, Inc. Entertainment and creative expression device for easily playing along to background music
JP3931442B2 (ja) 1998-08-10 2007-06-13 ヤマハ株式会社 カラオケ装置
US7605322B2 (en) * 2005-09-26 2009-10-20 Yamaha Corporation Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
EP1785891A1 (en) * 2005-11-09 2007-05-16 Sony Deutschland GmbH Music information retrieval using a 3D search algorithm

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0895585A (ja) * 1994-09-27 1996-04-12 Omron Corp 楽曲選択装置および楽曲選択方法
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
JP2000187671A (ja) * 1998-12-21 2000-07-04 Tomoya Sonoda ネットワ―クを利用した歌声による曲検索システム及び検索時に用いる歌声の入力端末装置
JP2000347659A (ja) * 1999-03-26 2000-12-15 Nippon Telegr & Teleph Corp <Ntt> 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した記録媒体
JP2002063209A (ja) * 2000-08-22 2002-02-28 Sony Corp 情報処理装置および方法、情報システム、並びに記録媒体
JP2002073058A (ja) * 2000-08-24 2002-03-12 Clarion Co Ltd カラオケ装置
JP2002215195A (ja) * 2000-11-06 2002-07-31 Matsushita Electric Ind Co Ltd 音楽信号処理装置
JP2003058147A (ja) * 2001-08-10 2003-02-28 Sony Corp 音楽コンテンツ自動分類装置及び自動分類方法
JP2004110422A (ja) * 2002-09-18 2004-04-08 Double Digit Inc 曲分類装置、曲分類方法、及びプログラム
JP2005107313A (ja) * 2003-09-30 2005-04-21 Sanyo Electric Co Ltd カラオケ選曲装置の制御プログラム、カラオケ選曲装置及びカラオケ選曲装置の制御方法
JP2005115164A (ja) * 2003-10-09 2005-04-28 Denso Corp 楽曲検索装置
JP2007003897A (ja) * 2005-06-24 2007-01-11 Toppan Printing Co Ltd カラオケシステム、装置およびプログラム
JP2007304489A (ja) * 2006-05-15 2007-11-22 Yamaha Corp 楽曲練習支援装置、制御方法及びプログラム
JP2007322598A (ja) * 2006-05-31 2007-12-13 Victor Co Of Japan Ltd 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム
JP2007140548A (ja) * 2007-01-29 2007-06-07 Yamaha Corp 似顔絵出力装置およびカラオケ装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011043768A (ja) * 2009-08-24 2011-03-03 Xing Inc 歌唱評価装置、歌唱評価方法及びコンピュータプログラム
JP2012173721A (ja) * 2011-02-24 2012-09-10 Yamaha Corp 歌唱音声評価装置
JP2017026654A (ja) * 2015-07-15 2017-02-02 株式会社バンダイ 歌唱力評価装置及び記憶装置
CN109243415A (zh) * 2018-11-01 2019-01-18 行知技术有限公司 一种将唱奏评分图像可视化的方法
JP2020166142A (ja) * 2019-03-29 2020-10-08 株式会社第一興商 カラオケ装置
JP7149218B2 (ja) 2019-03-29 2022-10-06 株式会社第一興商 カラオケ装置
JP7188337B2 (ja) 2019-09-24 2022-12-13 カシオ計算機株式会社 サーバ装置、演奏支援方法、プログラム、および情報提供システム
JP7424455B2 (ja) 2019-09-24 2024-01-30 カシオ計算機株式会社 レコメンド装置、レコメンド方法、及びプログラム
JP2021083973A (ja) * 2019-11-29 2021-06-03 株式会社あかつき 情報処理方法、情報処理端末、およびプログラム

Also Published As

Publication number Publication date
US20090165633A1 (en) 2009-07-02
US7829777B2 (en) 2010-11-09
JP5147389B2 (ja) 2013-02-20

Similar Documents

Publication Publication Date Title
JP5147389B2 (ja) 楽曲提示装置、楽曲提示プログラム、楽曲提示システム、楽曲提示方法
US9372925B2 (en) Combining audio samples by automatically adjusting sample characteristics
EP3047484B1 (en) Recommending audio sample combinations
JP3303617B2 (ja) 自動作曲装置
US9280313B2 (en) Automatically expanding sets of audio samples
US9117432B2 (en) Apparatus and method for detecting chord
JP2004086067A (ja) 音声発生装置および音声発生プログラム
JP2004515808A (ja) 演奏楽器の音情報を用いた音楽分析方法
JP2012532340A (ja) 音楽教育システム
JP5196550B2 (ja) コード検出装置およびコード検出プログラム
JP2000315081A (ja) 自動作曲装置及び方法並びに記憶媒体
JP2007140165A (ja) カラオケ装置およびカラオケ装置用プログラム
JP2017058595A (ja) 自動アレンジ装置及びプログラム
JP2019200427A (ja) 自動アレンジ方法
WO2019092791A1 (ja) データ生成装置およびプログラム
JP3664126B2 (ja) 自動作曲装置
JP2007078724A (ja) 電子楽器
JP4613817B2 (ja) 運指表示装置、及びプログラム
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
JP2001128959A (ja) 演奏カロリー消費量測定装置
JP4218064B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP2007140163A (ja) カラオケ装置およびカラオケ装置用プログラム
JP2015161888A (ja) 歌唱対戦カラオケシステム
JP6606844B2 (ja) ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器
JP7327434B2 (ja) プログラム、方法、情報処理装置、および演奏データ表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5147389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250