JP2023121414A - Music selection device, music selection method, and program - Google Patents
Music selection device, music selection method, and program Download PDFInfo
- Publication number
- JP2023121414A JP2023121414A JP2022024760A JP2022024760A JP2023121414A JP 2023121414 A JP2023121414 A JP 2023121414A JP 2022024760 A JP2022024760 A JP 2022024760A JP 2022024760 A JP2022024760 A JP 2022024760A JP 2023121414 A JP2023121414 A JP 2023121414A
- Authority
- JP
- Japan
- Prior art keywords
- information
- music
- people
- music selection
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010187 selection method Methods 0.000 title description 5
- 238000004364 calculation method Methods 0.000 claims abstract description 67
- 230000000694 effects Effects 0.000 claims abstract description 27
- 238000003384 imaging method Methods 0.000 claims description 57
- 230000007613 environmental effect Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 5
- 230000036651 mood Effects 0.000 description 30
- 238000010801 machine learning Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
Images
Abstract
Description
本開示は、選曲装置、選曲方法及びプログラムに関する。 The present disclosure relates to a music selection device, music selection method, and program.
近年、サブスクリプション(subscription)方式の楽曲配信サービスの普及により、様々なジャンルの音楽を手軽に鑑賞することが可能となった。また、スマートフォン、イヤホン、及びヘッドホンなどの技術進歩により、ユーザは、時間や場所を問わず、様々な場面で臨場感のある音楽鑑賞を楽しむことができる。 2. Description of the Related Art In recent years, with the spread of subscription-type music distribution services, it has become possible to easily appreciate music of various genres. In addition, due to technological advances in smartphones, earphones, headphones, and the like, users can enjoy listening to music with a sense of presence in various situations regardless of time and place.
このような背景から、様々な場面において音楽を自動選曲する技術が知られている。例えば、特許文献1は、自車の周辺状況などから選択値を選定してキーワードとし、楽曲データの各パラメータの曲属性値とキーワードとの一致度を判定して採点を行い、点数の高い楽曲データを選択して再生する音楽選曲再生装置を開示する。 Against this background, techniques for automatically selecting music in various situations are known. For example, Japanese Patent Laid-Open No. 2003-100000 selects a selection value from the surrounding conditions of the own vehicle and uses it as a keyword, judges the degree of matching between the song attribute value of each parameter of the song data and the keyword, and grades the score. Disclosed is a music selection/reproduction device for selecting and reproducing data.
特許文献1が開示するような装置を車両などに搭載する場合、自動選曲のために用いられるパラメータは、経時変化の乏しいものであってもよい。しかしながら、ユーザが徒歩で移動する場合のように、経時での周囲の環境変化が多様となる場合、特許文献1が開示するような技術を適用することは難しい。
When the device disclosed in
本開示の目的は、上述した課題を鑑み、周囲の環境変化に応じて適切に選曲することが可能な選曲装置、選曲方法及びプログラムを提供することにある。 An object of the present disclosure is to provide a music selection device, a music selection method, and a program capable of appropriately selecting music according to changes in the surrounding environment in view of the above-described problems.
本開示にかかる選曲装置は、
ユーザの周囲の環境に関する環境情報を取得する環境情報取得部と、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出部と、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲部と、を備える。
The music selection device according to the present disclosure is
an environment information acquisition unit that acquires environment information about the environment around the user;
a calculation unit that calculates the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
a song selection unit that selects a song based on the degree of activity of the flow of people and attribute information indicating attributes of the song;
本開示にかかる選曲方法は、
ユーザの周囲の環境に関する環境情報を取得する環境情報取得ステップと、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、を含む。
The song selection method according to the present disclosure is
an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
a song selection step of selecting a song based on the degree of activity of the flow of people and attribute information indicating attributes of the song.
本開示にかかるプログラムは、
ユーザの周囲の環境に関する環境情報を取得する環境情報取得ステップと、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、をコンピュータに実行させる。
The program according to the present disclosure is
an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
A music selection step of selecting music based on the degree of activity of the flow of people and attribute information indicating attributes of the music is executed by a computer.
本開示にかかる選曲装置、選曲方法及びプログラムは、周囲の環境変化に応じて適切に選曲することを可能とする。 The music selection device, music selection method, and program according to the present disclosure enable appropriate music selection according to changes in the surrounding environment.
以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されている。説明の明確化のため、必要に応じて重複説明は省略される。 Embodiments of the present disclosure are described in detail below with reference to the drawings. In the drawings, the same or corresponding elements are labeled with the same reference numerals. Duplicate explanations are omitted as necessary for clarity of explanation.
まず、図1を参照して、本実施形態にかかる選曲システム1000の概要を説明する。図1は、本実施形態にかかる選曲システム1000の概要図である。図1に示されるように、選曲システム1000は、再生装置100と、端末200と、を備えている。
First, an overview of a
再生装置100と端末200とは、図示しない通信ネットワークを介して通信可能に接続されている。通信ネットワークは、例えば、Bluetooth(登録商標)やWi-Fi(登録商標)などの無線規格を用いて構成されてよい。または、再生装置100及び端末200は有線通信を行うように構成されてもよい。
The
再生装置100は、楽曲を再生する再生装置である。再生装置100は、例えば、端末200から音声信号を受信して、楽曲を再生するワイヤレスイヤホンなどである。ユーザは、再生装置100を自身の耳に装着することで、再生された楽曲を聴くことができる。
The
また、再生装置100は、ユーザの周囲の環境に関する環境情報を検出する検出機能を備えている。環境情報は、例えば、ユーザの周囲を撮像した撮像情報や、ユーザの周囲で発せられた音声の音声情報などを含み得る。したがって、再生装置100は、ユーザの周囲を撮像可能な小型のカメラや、ユーザの周囲の音声を検出可能なマイクロフォンなどを備えている。
The
再生装置100は、検出した環境情報を端末200に送信する。端末200は、環境情報を受信し、所定の選曲処理を行うことで、ユーザの周囲環境に応じた楽曲を選択する。端末200は、選択した楽曲を再生するための音声信号を再生装置100に送信する。再生装置100は、音声信号を受信して、端末200において選択された楽曲を再生する。これにより、ユーザは、端末200で選択された楽曲を聴くことができる。
The
ユーザは、歩行などにより移動することで、周囲の環境が変化し得る。選曲システム1000では、再生装置100は、所定の時間間隔で環境情報を検出し、端末200に送信する。端末200は、再生装置100から環境情報を取得すると、これに応じて再度の選曲を行うことができる。このような構成により、選曲システム1000では、再生装置100からの情報を取得した端末200において、ユーザの周囲の環境変化に応じて適切に選曲することが可能である。
The user can change the surrounding environment by moving by walking or the like. In the
続いて、図2を参照して、本実施形態にかかる選曲システム1000の構成について説明する。図2は、選曲システム1000の構成を示すブロック図である。図2に示されるように、選曲システム1000は、再生装置100と、端末(選曲装置)200と、を備えている。なお、図2において示される一方向矢印は、情報(データ又は信号など)の流れを端的に示したものであり、情報の双方向性を排除するものではない。
Next, the configuration of the
まず、再生装置100の構成について説明する。再生装置100は、端末200から音声信号を受信して、楽曲を再生することが可能な再生装置である。再生装置100は、例えば、イヤホン、ヘッドホン、又は肩掛けスピーカなどである。これらに限らず、再生装置100には、楽曲を再生可能な種々の装置が用いられてよい。本実施形態では、再生装置100は、図1に示されるようなイヤホンであるものとして説明を行う。図1では、再生装置100が片耳に装着される例を示しているが、再生装置100は両耳に装着するものであってもよい。ユーザは、再生装置100を耳に装着することで、移動しながら、再生される楽曲を聴くことができる。楽曲は、歌詞を有する楽曲であってもよいし、歌詞を有さない楽曲であってもよい。
First, the configuration of the
図2を参照して、再生装置100の各構成について説明する。図2に示されるように、再生装置100は、撮像部110、集音部120、センサ部130、及び出力部140を備えている。
Each configuration of the
撮像部110は、ユーザの周囲を撮像する撮像装置である。撮像部110は、例えば、可視光カメラである。撮像部110は、赤外線カメラやその他の撮像装置であってもよい。撮像部110は、例えば、ユーザの前方を撮像するように再生装置100に設けられている。これにより、撮像部110は、ユーザの移動に応じて、ユーザの視界と同等の範囲を撮像することができる。これに限らず、撮像部110は、ユーザの左右方向又は後方を撮像可能に構成されてもよい。撮像部110は、撮像により得られた撮像画像を、日時情報などと共に端末200に送信する。撮像画像は、静止画像であってもよいし、動画像であってもよい。撮像部110は、所定の時間間隔で撮影画像を送信してよい。
The
集音部120は、ユーザの周囲の音声を検出する集音装置である。集音部120は、例えばマイクロフォンである。集音部120は、ユーザの周囲に存在する人の声、車両が発する音、及び店舗等の建物から発せられる音などを検出する。集音部120は、検出された音声の音声情報を端末200に送信する。集音部120は、所定の時間間隔で音声情報を送信してよい。
The
センサ部130は、ユーザに関するユーザ情報を検出する検出装置である。ユーザ情報は、例えば、ユーザの生体情報を含み得る。生体情報は、例えば、ユーザの体温、心拍数、又は血圧などである。これに限らず、ユーザ情報は、他の生体情報を含んでもよい。センサ部130は、検出した生体情報を端末200に送信する。センサ部130は、所定の時間間隔で生体情報を送信してよい。本実施形態では、センサ部130は、ユーザの心拍数を生体情報として検出し、検出結果を端末200に送信するものとして説明を行う。
The
なお、図2では、センサ部130を再生装置100の内部に示しているが、センサ部130は、再生装置100の外部に設けられてもよい。例えば、センサ部130は、心拍数などの生体情報を検出可能な、ウェアラブル端末などであってもよい。また、センサ部130は、種別の異なる複数の生体情報を検知可能に構成されてもよい。例えば、センサ部130は、心拍数及び体温を検知し、両方の検知結果を端末200に送信してもよい。
Although FIG. 2 shows the
出力部140は、端末200において選択された楽曲を出力する出力装置である。出力部140は、例えばスピーカである。出力部140は、端末200から送信された音声信号に従い、選択された楽曲を再生する。
The
引き続き図2を参照して、端末200の構成について説明する。端末200は、再生装置100から環境情報及びユーザ情報を受信し、これらの情報の一部又は全部に基づいて、所定の選曲処理を行う情報処理装置である。端末200は、スマートフォン、携帯電話端末、タブレット端末、又はPC(Personal Computer)等であってよい。端末200は、例えばスマートウォッチなどのウェアラブル端末であってもよい。端末200は、所定の選曲処理を行うことで、ユーザの周囲環境に応じた楽曲を選択する。端末200は、選択した楽曲の音声信号を再生装置100に送信し、選択した楽曲を再生装置100において再生させる。
With continued reference to FIG. 2, the configuration of
図2に示されるように、端末200は、環境情報取得部210、ユーザ情報取得部220、算出部230、選曲部240、入出力部270、撮像部280、及び記憶部290を備えている。
As shown in FIG. 2 ,
環境情報取得部210は、ユーザの周囲の環境に関する環境情報を取得する。環境情報は、撮像情報及び音声情報を含み得る。ここで、撮像情報は、ユーザの周囲を撮像することで取得される撮像画像を含む情報である。また、音声情報は、ユーザの周囲で発せられた音声を検出することで取得される音声情報である。環境情報取得部210は、撮像部110で撮像された撮像画像を含む撮像情報を再生装置100から取得する。また、環境情報取得部210は、集音部120で取得された音声情報を再生装置100から取得する。
The environment
なお、環境情報取得部210は、上述のように撮像部110で取得される撮像画像を取得する以外に、端末200が備える撮像部280で取得される撮像画像を取得してもよい。例えば、環境情報取得部210は、撮像部110から撮像画像を取得できるか否かを判定し、撮像部110から撮像画像を取得できると判定した場合は、上述のように当該撮像画像を環境情報として取得する。撮像部110から撮像画像を取得できないと判定した場合、環境情報取得部210は、撮像画像の取得先を撮像部110から撮像部280に切り替えて、撮像部280で取得される撮像画像を環境情報として取得する。
Note that the environment
例えば、環境情報取得部210は、撮像部110がユーザの髪の毛などの遮蔽物により遮蔽されている場合に、撮像部110から撮像画像を取得できないと判定してもよい。環境情報取得部210は、例えば、撮像部110で取得された撮像画像における各画素の輝度値の平均を所定の閾値と比較する。環境情報取得部210は、比較結果に基づいて、撮像部110が遮蔽状態となり、撮像部110から撮像画像を取得できないと判定する。遮蔽物は、ユーザの髪の毛に限らず、例えば、帽子や傘などが想定され得る。これに限らず、環境情報取得部210は、他の判定条件を用いて、撮像部110からの撮像画像が取得できるか否かを判定してもよい。
For example, the environment
このように、撮像部110からの撮像画像を取得できない場合に、撮像画像の取得先を撮像部280に切り替えることで、環境情報取得部210は環境情報としての撮像画像を安定して取得することができる。また、同様にして、環境情報取得部210は、集音部120からの音声情報を取得できるか否かを判定し、判定結果に応じて、音声情報の取得先を、端末200が備える集音部(不図示)に切り替えてもよい。
In this way, by switching the acquisition destination of the captured image to the
ユーザ情報取得部220は、ユーザに関するユーザ情報を取得する。ユーザ情報は、例えば、ユーザの生体情報、閲覧情報、又は気分情報を含み得る。生体情報は、センサ部130において検出されるユーザの心拍数などである。ユーザ情報取得部220は、センサ部130で検出された生体情報を再生装置100から受信し、ユーザ情報として取得する。
The user
閲覧情報は、ユーザが閲覧している文字や画像などの情報である。閲覧情報は、ユーザの気分に関連する情報を含み得る。閲覧情報は、例えば、入出力部270に表示された表示画面に含まれる表示情報である。例えば、表示情報は、ユーザが好む分野、又は好まない分野の情報を含み得る。分野は、食べ物、スポーツ、又は映画など、どのようなものでもよい。ユーザ情報取得部220は、例えば、表示情報に含まれる文字情報や画像情報をユーザ情報として取得する。また、ユーザ情報取得部220は、撮像部110における撮像画像から取得した閲覧情報をユーザ情報として取得してもよい。ユーザ情報取得部220は、例えば、ユーザが閲覧しているポスターや、デジタルサイネージなどの内容から閲覧情報を取得してもよい。
The browsing information is information such as characters and images that the user is browsing. Browsing information may include information related to the user's mood. The browsing information is, for example, display information included in the display screen displayed on the input/
気分情報は、ユーザ自身が感じているユーザの気分を示す情報である。気分情報は、例えば、「Low」又は「High」などにより表されてよい。例えば、ユーザの気分が「落ち着いている」、「リラックスしている」、又は「悲しい」などの場合、気分情報は「Low」で表される。また、例えば、ユーザの気分が「高揚している」、「活動的である」、又は「楽しい」などの場合、気分情報は「High」で表される。気分情報は、「ややLow」、「ややHigh」などのように、気分の度合いを示すものであってもよい。 Mood information is information indicating the user's mood that the user himself/herself is feeling. Mood information may be represented by, for example, "Low" or "High". For example, if the user's mood is "calm," "relaxed," or "sad," the mood information is represented as "Low." Also, for example, when the user's mood is "excited", "active", or "pleasant", the mood information is represented by "High". The mood information may indicate the degree of mood, such as "slightly low" or "slightly high".
ユーザ情報取得部220は、例えば、入出力部270にユーザの気分情報の入力を受け付けるための選択画面を表示する。選択画面は、例えば、「Low」ボタン及び「High」ボタンを含むものであってもよい。ユーザ情報取得部220は、例えば、「現在の気分を選択してください。」などのメッセージを入出力部270に表示させ、ユーザの回答を受け付けて、気分情報を取得する。なお、ここでは「Low」及び「High」の2つの選択肢を用いたが、3つ以上の選択肢が設けられてもよい。また、気分情報は、数値化されてもよいし、上述した以外の表現で表されてもよい。
The user
算出部230は、環境情報取得部210で取得された環境情報と、ユーザ情報取得部220で取得されたユーザ情報と、を用いて、選曲に関連する複数のパラメータについて、パラメータ値を算出する。選曲に関連する複数のパラメータは、パラメータ情報291として予め記憶部290に記憶されている。
The
図3は、パラメータ情報291の一例を示す図である。例えば、パラメータ情報291は、パラメータID、パラメータ名、パラメータ値、点数、及び選曲用属性名を対応付けた情報である。パラメータIDは、パラメータを識別するための情報である。パラメータ名は、パラメータの名称を示す情報である。パラメータ値は、各パラメータで選択され得る値である。図に示されるように、1つのパラメータに対して複数のパラメータ値が選択され得る。点数は、各パラメータ値に対応付けられた点数である。点数は、選曲を行うための選曲用属性を特定するために用いられる。選曲用属性名は、選曲用属性の名称を示す情報である。
FIG. 3 is a diagram showing an example of the
図3に示されるように、パラメータ情報291は、パラメータとして、P1「人の雰囲気」、P2「建物の雰囲気」、P3「人の速度」、P4「人の密集度」、P5「建物の密集度」、及びP6「気分情報」を含んでいる。以下では、各パラメータをP1~P6の符号のみで示す場合がある。
As shown in FIG. 3, the
算出部230は、環境情報に基づいて、P1~P5のパラメータ値をそれぞれ算出する。また、算出部230は、ユーザ情報に基づいて、P6のパラメータ値を算出する。ここで、算出部230における各パラメータ値の算出方法を、各パラメータの内容と共に説明する。
The
P1「人の雰囲気」のパラメータ値は、「カジュアル」、「ビジネス」、「和風」、及び「洋風」の4つが設定されており、各パラメータ値に対応する点数は1~4点である。また、これらのパラメータ値のいずれにも該当しない「その他」の場合、対応する点数は0点である。算出部230は、環境情報に基づいて、周知の機械学習などを用いてパラメータ値を算出する。
Four parameter values of "casual", "business", "Japanese style", and "western style" are set for P1 "people's atmosphere", and the score corresponding to each parameter value is 1 to 4 points. Also, in the case of "Other" which does not correspond to any of these parameter values, the corresponding score is 0 points. The
また、P2「建物の雰囲気」は、P1と同様のパラメータ値及び点数が設定されている。算出部230は、P1と同様、環境情報に基づいて、周知の機械学習などを用いてパラメータ値を算出する。
In addition, the same parameter values and scores as those of P1 are set for P2 "Atmosphere of building".
P3「人の速度」のパラメータ値は、「遅い」、「普通」、及び「速い」の3つが設定されており、各パラメータ値に対応する点数は1~3点である。例えば、算出部230は、撮像画像から検出される人の動きベクトルに基づいて、人の速度を求める。具体的には、まず、算出部230は、周知の画像認識技術などを用いて、撮像画像に含まれる人を認識する。次に、算出部230は、所定時間間隔における人の動きベクトルの差分を求め、当該差分から、動きベクトルの変化の度合いを求める。これにより、算出部230は、撮影画像で認識された人の速度を算出する。算出部230は、撮影画像内において複数の人が認識された場合、それぞれの人に対して同様の処理を行い、撮影画像内の複数の人の速度を求める。
Three parameter values of "slow", "normal", and "fast" are set for P3 "person's speed", and the score corresponding to each parameter value is 1 to 3 points. For example, the
算出部230は、例えば、求められた人の速度と閾値とを比較して、P3のパラメータ値を算出する。例えば、算出部230は、求められた人の速度と、2つの閾値と、を比較して、パラメータ値を算出する。例えば、算出部230は、求められた人の速度が第1閾値以上の場合は「速い」、第2閾値未満の場合は「遅い」、いずれにも該当しない場合は「普通」、などのようにパラメータ値を算出する。これに限らず、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。
The
P4「人の密集度」のパラメータ値は、「点在している」、「普通」、及び「密集している」の3つが設定されており、各パラメータ値に対応する点数は1~3点である。算出部230は、撮像情報及び音声情報の少なくとも一方に基づいて人の密集度を求める。例えば、算出部230は、撮像画像に基づいて人の密集度を求める場合、撮像画像に含まれる人を画像認識技術などにより認識する。算出部230は、認識された人の数に基づいて、人の密集度を求める。
Three parameter values are set for P4 “People Density”: “Scattered”, “Normal”, and “Dense”, and points corresponding to each parameter value are 1 to 3. It is a point. The
算出部230は、例えば、認識された人の数と閾値とを比較して、P4のパラメータ値を算出する。例えば、算出部230は、認識された人の数と2つの閾値とを比較して、パラメータ値を算出する。例えば、算出部230は、認識された人の数が第1閾値以上の場合は「密集している」、第2閾値未満の場合は「点在している」、いずれにも該当しない場合は「普通」、などのようにパラメータ値を算出する。これに限らず、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。
The
また、算出部230は、音声情報を用いて人の密集度を求めてもよい。算出部230は、周知の音声認識技術を用いて、人の密集度を求めることができる。算出部230は、例えば、会話音、雑踏音、又は騒音などが多い周波数帯における音声情報の強度の総和を求め、求めた総和の大小に応じて、ユーザの周囲の人の密集度を求めるなどしてよい。算出部230は、上述と同様にして、閾値との比較によりパラメータ値を算出してもよい。また、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。
Further, the
なお、算出部230は、撮像情報及び音声情報の両方を用いて人の密集度を求めてもよい。これにより、算出部230は、より精度よく周囲の人の密集度を求めることができる。
Note that the
P5「建物の密集度」は、P4と同様のパラメータ値及び点数が設定されている。算出部230は、例えば、環境情報取得部210で取得された撮像画像における空の面積を用いて、撮影画像内における建物の割合を求めることでP5のパラメータ値を算出してよい。または、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。
The same parameter values and scores as P4 are set for P5 “building density”. The
P6「気分情報」のパラメータ値は、「Low」及び「High」の2つが設定されており、各パラメータ値に対応する点数は1~2点である。算出部230は、ユーザ情報として取得されたユーザの生体情報、閲覧情報、又は気分情報を用いて、P6のパラメータ値を算出する。算出部230は、これらのうち複数の情報をユーザ情報として用いてもよい。算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。
Two parameter values, "Low" and "High", are set for P6 "mood information", and the score corresponding to each parameter value is 1 to 2 points. The
なお、本実施形態では、機械学習による学習により、各パラメータ値を算出するための学習済みモデルが予め生成されているものとする。機械学習には、例えば、ディープラーニングなどの周知の機械学習の手法が用いられてよい。算出部230は、環境情報取得部210において環境情報(例えば、撮像情報)が取得された場合、予め生成された学習済みモデルを用いてP1~P5のパラメータ値を算出することができる。同様に、算出部230は、ユーザ情報取得部220においてユーザ情報(例えば、生体情報)が取得された場合、予め生成された学習済みモデルを用いて、P6のパラメータ値を算出することができる。
In this embodiment, it is assumed that a trained model for calculating each parameter value is generated in advance by machine learning. For machine learning, for example, a well-known machine learning method such as deep learning may be used. When environment information (for example, imaging information) is acquired by the environment
また、図3に示されるように、各パラメータは、選曲用属性名と対応付けられている。選曲用属性名は、選曲を行うために用いられる選曲用属性の名称を示している。本実施形態では、選曲用属性として、「ジャンル」、「テンポ」、及び「キー」の3つが設定されている。ここで、各パラメータと、選曲用属性との対応付けについて簡単に説明する。 Also, as shown in FIG. 3, each parameter is associated with a music selection attribute name. The attribute name for music selection indicates the name of the attribute for music selection used for selecting music. In this embodiment, three music selection attributes are set: "genre", "tempo", and "key". Here, the correspondence between each parameter and the music selection attribute will be briefly described.
P1「人の雰囲気」及びP2「建物の雰囲気」は、楽曲の雰囲気に関連する「ジャンル」が対応付けられている。また、P3「人の速度」は、楽曲の速さに関連する「テンポ」が対応付けられている。 P1 "Atmosphere of people" and P2 "Atmosphere of building" are associated with "genre" related to the atmosphere of music. Also, P3 "People's Speed" is associated with "Tempo" related to the speed of music.
また、P4「人の密集度」及びP5「建物の密集度」は、「テンポ」が対応付けられている。例えば、周囲に人や建物が多い場合には忙しさや慌ただしさを感じ、また人や建物が少ない場合には、寂しさや静けさを感じると想定されるためである。これにより、例えば、人や建物の密集度が高い場合にはアップテンポ、密集度が低い場合にはバラード、というように、選曲部240において楽曲が選択されやすくなる。
Also, P4 "People density" and P5 "Building density" are associated with "Tempo". For example, when there are many people and buildings around, it is assumed that the user feels busy and busy, and when there are few people and buildings, it is assumed that the user feels lonely and quiet. This makes it easier for the
P6「気分情報」は、「テンポ」及び「キー」が対応付けられている。「テンポ」については、ユーザの気分の高低と、これに適する楽曲の速さとが関連すると想定されるためである。また、「キー」については、ユーザの気分の高低と、これに適する楽曲のキーの高さとが関連すると想定されるためである。例えば、高音の楽曲は周波数が高く、ユーザに刺激を与えやすく、ユーザの高揚した気分をさらに増幅させることができると想定される。したがって、「気分情報」が「High」の場合、選曲部240において、キーの高い楽曲が選択されやすくなる。また、低音の楽曲は周波数が低く、眠気やリラックスした気分を与えやすく、ユーザの落ち着いた気分をより安定させることができると想定される。したがって、「気分情報」が「Low」の場合、選曲部240において、キーの低い楽曲が選択されやすくなる。
P6 "mood information" is associated with "tempo" and "key". This is because it is assumed that the "tempo" is related to the user's mood and the speed of music suitable for this. Also, as for the "key", it is assumed that the user's mood is related to the key height of the music suitable for this mood. For example, it is assumed that high-pitched music has a high frequency, is likely to stimulate the user, and can further amplify the user's uplifted mood. Therefore, when the “mood information” is “High”, music with a high key is more likely to be selected in the
なお、図3に示されるパラメータ情報291は一例であるので、各パラメータと選曲用属性との対応は図に示されるものに限られない。例えば、P1「人の雰囲気」は「ジャンル」に対応付けられているが、「テンポ」に対応付けられてもよいし、「キー」に対応付けられてもよい。また、P1は、これらのうち2つ以上に対応付けられてもよい。他のパラメータについても同様である。
Note that the
算出部230は、P1~P6の各パラメータに対応する点数を、選曲用属性ごとに合計する。ここで、P1~P6の各パラメータに対応する点数をそれぞれS1~S6として表すと、P1「人の雰囲気」の点数はS1、P2「建物の雰囲気」の点数はS2、P3「人の速度」の点数はS3、P4「人の密集度」の点数はS4、P5「建物の密集度」の点数はS5、P6「気分情報」の点数はS6である。
The
各選曲用属性に対応する点数は、下記の計算式で表される。算出部230は、下記の式(1)~式(3)を計算し、選曲用属性ごとに対応する合計点数を算出する。
「ジャンル」=S1+S2 ・・・(1)
「テンポ」=S3+S4+S5+S6 ・・・(2)
「キー」=S6 ・・・(3)
The score corresponding to each attribute for music selection is represented by the following formula. The
“Genre”=S1+S2 (1)
"Tempo" = S3 + S4 + S5 + S6 (2)
"Key" = S6 (3)
算出部230は、記憶部290に記憶された選曲用属性情報292を参照し、上記計算により算出した合計点数に基づいて、各選曲用属性に対応する選曲用属性値を取得する。
The
図4は、選曲用属性情報292の一例を示す図である。選曲用属性情報292は、例えば、選曲用ID、選曲用属性名、合計点数、及び選曲用属性値を対応付けた情報である。算出部230は、選曲用属性情報292を参照し、「ジャンル」、「テンポ」、及び「キー」の各属性の選曲用属性値を取得する。例えば、「ジャンル」の合計点数が2点であった場合、算出部230は、選曲用属性値として「J-POP、K-POP」を取得する。また、例えば「テンポ」の合計点数が6点であった場合、算出部230は、選曲用属性値として「ミッドバラード」を取得する。また、例えば「キー」の合計点数が1点であった場合、算出部230は、選曲用属性値として、キーの「低い曲」を取得する。
FIG. 4 is a diagram showing an example of the music
このようにして、算出部230は、選曲部240において楽曲を選択するための選曲用属性値を、「ジャンル」、「テンポ」、及び「キー」の属性ごとに取得することができる。
In this way, the
なお、上述の説明では、算出部230は、図3に示されるP1~P6の全てのパラメータについてパラメータ値を算出し、算出結果に基づいて選曲用属性値を算出したが、これに限られない。例えば、算出部230は、P1~P6の一部のパラメータのみを用いて選曲用属性値を算出してもよい。
In the above description, the
例えば、算出部230は、図3に示されるP3「人の速度」及びP4「人の密集度」のパラメータのみを算出してもよい。P3及びP4をパラメータとして用いることで、算出部230は、ユーザの周囲環境における人流の活性度合いを算出することができる。これにより、選曲部240において、人流の活性度合いに応じた選曲を行うことが可能となる。なお、以下の説明では、P3及びP4を合わせて、P10「人流の活性度合い」のように表して説明する場合がある。
For example, the
図2に戻り説明を続ける。選曲部240は、算出部230で取得された選曲用属性値に基づいて、記憶部290に記憶された楽曲情報293の中から楽曲を選択する。楽曲情報293は、選曲部240において選曲され得る楽曲に関する情報である。
Returning to FIG. 2, the description is continued. The
図5は、楽曲情報293の一例を示す図である。楽曲情報293は、例えば、楽曲ID、楽曲名、アーティスト名、楽曲データ、及び属性情報が対応付けられた情報である。楽曲IDは、楽曲を識別するための情報である。楽曲名は、楽曲のタイトルを示す情報である。アーティスト名は、楽曲を演奏しているアーティストの名前を示す情報である。楽曲データは、楽曲の音源データを示す情報である。
FIG. 5 is a diagram showing an example of the
属性情報は、楽曲の属性を示す情報である。属性情報は、例えば、「ジャンル」、「テンポ」、及び「キー」の情報を含み得る。属性情報は、上述した選曲用属性情報292の内容と対応している。「ジャンル」は、例えば、J-POP、K-POP、演歌、及びクラシックなどのように、楽曲のジャンルを示す情報である。「テンポ」は、例えば、バラード、ミッドバラード、及びアップテンポなどのように、楽曲のテンポを示す情報である。「キー」は、楽曲のキーの高さに関する情報である。
Attribute information is information indicating attributes of a song. Attribute information may include, for example, "genre", "tempo", and "key" information. The attribute information corresponds to the contents of the music
なお、本実施形態では、楽曲情報293は、予め記憶部290に記憶されているものとして説明するが、これに限られない。楽曲情報293は、端末200の外部に設けられた所定のサーバに記憶されていてもよい。
In this embodiment, the
選曲部240は、算出部230において取得された選曲用属性値を選曲条件として特定する。選曲部240は、楽曲情報293を参照し、特定した選曲条件と一致する楽曲が存在するか否かを判定する。例えば、上述した合計点数の例では、選曲部240は、「ジャンル」が「J-POP、K-POP」であり、「テンポ」が「ミッドバラード」であり、「キー」が「低い曲」であることを選曲条件として特定する。選曲部240は、選曲条件が一致する楽曲が楽曲情報293に存在するか否かを判定する。
The
選曲部240は、選曲条件と一致する楽曲が存在すると判定した場合、当該楽曲を選曲候補として特定する。選曲部240は、複数の選曲候補を特定してもよい。また、選曲部240は、選曲条件との一致度が所定値以上である楽曲を、選曲候補として特定してもよい。したがって、選曲部240は、選曲条件と完全には一致しない楽曲を選曲候補としてもよい。
When determining that there is a song that matches the song selection condition, the
選曲部240は、選曲候補が複数存在する場合、再生装置100において再生する再生楽曲を選択する。例えば、選曲部240は、選曲条件との一致度が最も高い楽曲を、再生する楽曲として選択してもよい。選曲部240は、選択した再生楽曲を再生装置100において再生させるため、再生楽曲の音声信号を再生装置100に送信する。これにより、再生装置100では、端末200で選択された楽曲が再生される。
The
また、選曲部240は、ユーザの周囲環境の変化を監視し、ユーザの周囲環境の変化に応じて、再生中の楽曲を変更してもよい。例えば、算出部230は、楽曲が再生中であるか否かを判定し、楽曲が再生中である場合、当該楽曲の再生開始後におけるユーザの周囲環境を示すパラメータ(例えば、P10「人流の活性度合い」)のパラメータ値を新たに算出する。選曲部240は、新たに算出されたパラメータ値から求められる選曲用属性情報と、再生中の楽曲の属性情報と、を比較する。両者の一致度が所定値未満である場合、選曲部240は、再生中の楽曲を所定のタイミングで終了させ、現在のユーザの周囲環境に応じた楽曲を新たに選択し、再生装置100で再生させる。
Also, the
所定のタイミングは、例えば、再生中の楽曲が終了するタイミングであってもよいし、特定の演奏区間が終了するタイミングであってもよい。特定の演奏区間は、例えば、Aメロ、Bメロ、又はサビなどである。これらに限らず、再生される楽曲を切り替えるために区切りのよいタイミングが適宜設定されてよい。 The predetermined timing may be, for example, the timing at which the piece of music being reproduced ends, or the timing at which a specific performance section ends. The specific performance section is, for example, A melody, B melody, chorus, or the like. Not limited to these, good break timings may be appropriately set in order to switch songs to be played back.
例えば、再生装置100において楽曲aが再生中であるとする。算出部230は、楽曲aの再生開始後である現時点におけるP10のパラメータ値を新たに算出する。算出部230は、新たに算出したP10のパラメータ値に対応する点数を合計し、合計点数を算出する。算出部230は、合計点数に基づいて、選曲用属性値(選曲用属性情報)を新たに取得する。
For example, assume that the
選曲部240は、楽曲aの再生中において、新たに取得された選曲用属性値と、楽曲aの属性値(属性情報)と、を比較する。選曲部240は、両者の一致度を判定し、一致度が所定値未満である場合、再生中の楽曲aを所定のタイミングで終了させる。両者の一致度が所定値以上である場合、選曲部240は、特に処理を行わず、楽曲aの再生を継続させる。楽曲aの再生を終了させる場合、選曲部240は、新たに取得された選曲用属性値に基づいて、新たな楽曲bを選択し、楽曲aの終了と共に楽曲bの再生を開始させる。
The
このようにすることで、端末200は、ユーザの周囲環境に応じた楽曲が再生されていない場合に、周囲環境情報に応じた楽曲を新たに選択し、再生装置100で再生させることができる。なお、ここではP10のパラメータを用いたが、他のパラメータを用いてもよい。
By doing so, the terminal 200 can newly select music corresponding to the surrounding environment information and cause the
図2に戻り説明を続ける。入出力部270は、ユーザからの入力を受け付ける入力装置である。入出力部270は、例えば、ユーザからの気分情報の入力を受け付ける。また、入出力部270は、文字や画像などを出力するための出力装置である。入出力部270は、例えば、ユーザが指などでタッチすることで操作が可能なタッチパネルなどであってよい。撮像部280は、端末200の周囲を撮像可能な撮像装置である。撮像部280は、撮像部110と同様、例えば可視光カメラである。
Returning to FIG. 2, the description is continued. The input/
記憶部290は、端末200の各機能を実現するためのプログラムが格納される記憶装置である。また、記憶部290は、上述したパラメータ情報291、選曲用属性情報292、及び楽曲情報293を記憶する。なお、図2では、記憶部290が端末200の内部に示されているが、記憶部290は端末200と通信ネットワークを介して接続された所定のサーバ上に設けられてもよい。端末200は、ネットワークを介して当該サーバと通信することで、上述した選曲処理を端末200において実現することができる。
The
なお、図2に示される構成は一例に過ぎず、選曲システム1000は、複数の構成が集約された装置などを用いて構成されてもよい。例えば、再生装置100及び端末200の機能が同一の装置に集約されていてもよい。例えば、再生装置100が端末200の各機能を備えていてもよい。このようにすることで、ユーザは、端末200を携帯することなく、再生装置100を装着するだけで周囲環境に応じた選曲及び楽曲の再生を行うことができる。
Note that the configuration shown in FIG. 2 is merely an example, and the
また、例えば、再生装置100及び端末200における各機能部は、複数の装置などを用いて分散処理されてもよい。上述したように、記憶部290が外部のサーバに設けられていてもよい。記憶部290以外の機能部についても同様である。また、例えば、ユーザが所有する端末以外の装置が端末200の各機能部を備えるようにしてもよい。このようにすることで、ユーザが端末200を携帯していなくとも、同様の効果を得ることができる。
Also, for example, each functional unit in the
続いて、図6を参照して、端末200が行う処理について説明する。図6は、端末200が行う選曲処理を示すフローチャートである。なお、再生装置100では、歩行中のユーザの周囲の環境情報を常時検出し、端末200に環境情報を送信しているものとする。環境情報は、撮像情報及び音声情報を含んでいる。また、再生装置100は、ユーザ情報を検出し、ユーザ情報を常時端末200に送信しているものとする。
Next, processing performed by the terminal 200 will be described with reference to FIG. FIG. 6 is a flowchart showing music selection processing performed by the
まず、環境情報取得部210は、再生装置100から送信された環境情報を取得する(S101)。次に、ユーザ情報取得部220は、再生装置100から送信されたユーザ情報を取得する(S102)。なお、ステップS101及びS102の順序は逆であってもよい。
First, the environment
続いて、算出部230は、環境情報及びユーザ情報に基づいて、各パラメータに対応するパラメータ値を算出する(S103)。算出部230は、周知の機械学習の手法を用いて、環境情報及びユーザ情報からパラメータ値を算出してよい。例えば、算出部230は、図3に示されるP3「人の速度」及びP4「人の密集度」からP10「人流の活性度合い」を算出し、P10に対応するパラメータ値を算出する。
Subsequently, the
続いて、算出部230は、パラメータ値に基づいて、各パラメータの点数を算出する(S104)。算出部230は、各パラメータの点数を合計して選曲用属性ごとの合計点数を算出し、合計点数から選曲用属性値を取得する(S105)。そして、選曲部240は、楽曲情報293を参照し、選曲用属性値を選曲条件として、楽曲を選択する(S106)。具体的には、選曲部240は、楽曲情報293の中に選曲条件と一致する楽曲が存在するか否かを判定する。
Subsequently, the
選曲部240は、選択した楽曲に対応する音声信号を再生装置100に送信し、選択した楽曲を再生させる(S107)。このような選曲処理により、選曲システム1000では、ユーザの周囲環境に応じて適切に選曲を行い、楽曲を再生することができる。
The
また、図6では図示を省略しているが、選曲部240は、再生中の楽曲がユーザの周囲環境と対応しているか否かを監視して、常時、ユーザの周囲環境に応じた楽曲を再生させるようにしてもよい。例えば、楽曲が再生中である場合、算出部230は、楽曲の再生開始後におけるP10を新たに算出し、選曲用属性値を新たに取得する。選曲部240は、新たに取得された選曲用属性値と、再生中の楽曲の属性値と、を比較する。両者の一致度が所定値未満である場合、選曲部240は、再生中の楽曲を所定のタイミングで終了させ、新たに選曲した楽曲を再生装置100で再生させる。
Although not shown in FIG. 6, the
以上説明したように、本実施形態にかかる選曲システム1000では、端末200において、環境情報取得部210及びユーザ情報取得部220は、環境情報及びユーザ情報をそれぞれ取得する。環境情報は、撮像情報及び音声情報のうち少なくとも撮像情報を含み得る。算出部230は、環境情報及びユーザ情報に基づいて、図3に示されるような様々なパラメータと、各パラメータのパラメータ値を算出する。
As described above, in the
例えば、算出部230は、撮像情報から検出される人の動きベクトルに基づいて人の速度を求める。また、算出部230は、撮像情報及び音声情報の少なくとも一方に基づいて人の密集度を求める。算出部230は、人の速度及び人の密集度に基づいて、人流の活性度合いを算出する。算出部230は、人流の活性度合いに対応するパラメータ値に対応する点数の合計から、選曲に用いられる選曲用属性値を取得する。算出部230は、人流の活性度合いに加えて、周囲の人の雰囲気、建物の雰囲気、建物の密集度、及びユーザの気分情報の一部又は全部を用いて、選曲用属性値を取得してもよい。
For example, the
選曲部240は、算出部230において取得された選曲用属性値を選曲条件として、選曲条件と一致する楽曲を選択する。選曲部240は、選択した楽曲に対応する音声信号を再生装置100に送信し、再生装置100で楽曲を再生させる。このような構成により、端末200は、ユーザの周囲の環境やユーザの気分に応じて、適切な選曲を自動的に行い、再生装置100で再生させることができる。
The
また、端末200は、楽曲の再生中において、ユーザの周囲環境に応じた楽曲を新たに選曲し、再生中の楽曲を所定のタイミングで終了させて、新たに選択した楽曲を再生させることができる。これにより、選曲システム1000では、周囲の環境変化の細やかさに対応する自動選曲を実現することができる。
In addition, the terminal 200 can select a new song according to the surrounding environment of the user during playback of the song, terminate the song being played at a predetermined timing, and play back the newly selected song. . As a result, the
<ハードウエアの構成例>
上述した再生装置100及び端末200の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。例えば、本開示は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
<Hardware configuration example>
Each functional configuration unit of the
プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。 A program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments. The program may be stored in a non-transitory computer-readable medium or tangible storage medium. By way of example, and not limitation, computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs -ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device. The program may be transmitted on a transitory computer-readable medium or communication medium. By way of example, and not limitation, transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の説明では、人流の活性度合い等が高い場合にはアップテンポの曲が対応するよう設定されていたが、逆にバラードの曲が対応するようにしてもよい。また、選曲のために用いられるパラメータや、各パラメータに対応する点数などは、ユーザの好みに応じて適宜設定されてよい。 It should be noted that the present disclosure is not limited to the above embodiments, and can be modified as appropriate without departing from the spirit of the present disclosure. For example, in the above description, an up-tempo song is set to correspond to a high degree of activity in the flow of people, but conversely, a ballad song may correspond. Also, the parameters used for song selection and the points corresponding to each parameter may be appropriately set according to the user's preference.
100 再生装置
110 撮像部
120 集音部
130 センサ部
140 出力部
200 端末(選曲装置)
210 環境情報取得部
220 ユーザ情報取得部
230 算出部
240 選曲部
270 入出力部
280 撮像部
290 記憶部
291 パラメータ情報
292 選曲用属性情報
293 楽曲情報
1000 選曲システム
100
210 environment
Claims (5)
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出部と、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲部と、を備える
選曲装置。 an environment information acquisition unit that acquires environment information about the environment around the user;
a calculation unit that calculates the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
A music selection device, comprising: a music selection unit that selects music based on the degree of activity of the flow of people and attribute information indicating attributes of the music.
前記人の速度は、前記撮像情報から検出される人の動きベクトルに基づいて求められ、
前記人の密集度は、前記撮像情報及び前記音声情報の少なくとも一方に基づいて求められる
請求項1に記載の選曲装置。 the environment information includes at least the imaging information of imaging information and audio information;
The speed of the person is obtained based on a motion vector of the person detected from the imaging information,
The music selection device according to claim 1, wherein the density of people is obtained based on at least one of the imaging information and the audio information.
前記算出部は、前記楽曲の再生開始後における前記人流の活性度合いを新たに算出し、
前記選曲部は、新たに算出された前記人流の活性度合いから求められる選曲用属性情報と、再生中の前記楽曲の属性情報と、を比較し、両者の一致度が所定値未満である場合、再生中の前記楽曲を所定のタイミングで終了させ、新たに算出された前記人流の活性度合いに応じた楽曲を選択して再生させる
請求項1又は2に記載の選曲装置。 If the song is being played,
The calculation unit newly calculates the degree of activity of the flow of people after the start of reproduction of the music,
The music selection unit compares the attribute information for music selection obtained from the newly calculated degree of activity of the flow of people with the attribute information of the song being played. 3. The music selection device according to claim 1, wherein the music being reproduced is terminated at a predetermined timing, and a music corresponding to the newly calculated degree of activity of the flow of people is selected and reproduced.
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、を含む
選曲方法。 an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
a song selection step of selecting a song based on the degree of activity of the flow of people and attribute information indicating an attribute of the song.
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、をコンピュータに実行させる
プログラム。 an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
A program for causing a computer to execute a song selection step of selecting a song based on the degree of activity of the flow of people and attribute information indicating attributes of the song.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022024760A JP2023121414A (en) | 2022-02-21 | 2022-02-21 | Music selection device, music selection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022024760A JP2023121414A (en) | 2022-02-21 | 2022-02-21 | Music selection device, music selection method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023121414A true JP2023121414A (en) | 2023-08-31 |
Family
ID=87798197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022024760A Pending JP2023121414A (en) | 2022-02-21 | 2022-02-21 | Music selection device, music selection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023121414A (en) |
-
2022
- 2022-02-21 JP JP2022024760A patent/JP2023121414A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107683399B (en) | Sound output device, electronic device, and control method thereof | |
KR20170100007A (en) | System and method for creating listening logs and music libraries | |
US20190018644A1 (en) | Soundsharing capabilities application | |
JP6812604B2 (en) | Audio activity tracking and summarization | |
US10409547B2 (en) | Apparatus for recording audio information and method for controlling same | |
CN109147745B (en) | Song editing processing method and device, electronic equipment and storage medium | |
CN108197185A (en) | A kind of music recommends method, terminal and computer readable storage medium | |
TW201820315A (en) | Improved audio headset device | |
CN107994879A (en) | Volume control method and device | |
JP7167910B2 (en) | Information processing device, information processing method, and program | |
JP2010020133A (en) | Playback apparatus, display method, and display program | |
WO2017088527A1 (en) | Audio file re-recording method, device and storage medium | |
JP6266427B2 (en) | Apparatus, program, and method for selecting music according to user's stress level | |
JP2014130467A (en) | Information processing device, information processing method, and computer program | |
JPWO2017094326A1 (en) | Information processing apparatus, information processing method, and program | |
WO2019146309A1 (en) | Information processing device, information processing method, and program | |
Krzyzaniak et al. | Six types of audio that DEFY reality! A taxonomy of audio augmented reality with examples | |
JP5498341B2 (en) | Karaoke system | |
JP7175120B2 (en) | Singing aid for music therapy | |
JP2023121414A (en) | Music selection device, music selection method, and program | |
US11397799B2 (en) | User authentication by subvocalization of melody singing | |
JP2013168878A (en) | Recording device | |
CN111696566B (en) | Voice processing method, device and medium | |
JP2007236826A (en) | Game machine with music tempo discriminating function | |
CN111696565B (en) | Voice processing method, device and medium |