JP2023121414A - Music selection device, music selection method, and program - Google Patents

Music selection device, music selection method, and program Download PDF

Info

Publication number
JP2023121414A
JP2023121414A JP2022024760A JP2022024760A JP2023121414A JP 2023121414 A JP2023121414 A JP 2023121414A JP 2022024760 A JP2022024760 A JP 2022024760A JP 2022024760 A JP2022024760 A JP 2022024760A JP 2023121414 A JP2023121414 A JP 2023121414A
Authority
JP
Japan
Prior art keywords
information
music
people
music selection
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022024760A
Other languages
Japanese (ja)
Inventor
薫 清水
Kaoru Shimizu
祥吾 佐伯
Shogo Saeki
悠人 平田
Yuto Hirata
将史 植本
Masafumi Uemoto
徹 海和
Toru Kaiwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022024760A priority Critical patent/JP2023121414A/en
Publication of JP2023121414A publication Critical patent/JP2023121414A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a music selection device that enables appropriate music selection in accordance with a surrounding environment.SOLUTION: A terminal (music selection device) 200 according to the present disclosure includes: an environment information acquisition unit 210 that acquires environment information concerning an environment surrounding a user; a calculation unit 230 that calculates an activity level of a human flow based on a human pace and a density of people obtained from the environment information; and a music selection unit 240 that selects music based on the activity level of the human flow and attribute information indicating an attribute of music.SELECTED DRAWING: Figure 2

Description

本開示は、選曲装置、選曲方法及びプログラムに関する。 The present disclosure relates to a music selection device, music selection method, and program.

近年、サブスクリプション(subscription)方式の楽曲配信サービスの普及により、様々なジャンルの音楽を手軽に鑑賞することが可能となった。また、スマートフォン、イヤホン、及びヘッドホンなどの技術進歩により、ユーザは、時間や場所を問わず、様々な場面で臨場感のある音楽鑑賞を楽しむことができる。 2. Description of the Related Art In recent years, with the spread of subscription-type music distribution services, it has become possible to easily appreciate music of various genres. In addition, due to technological advances in smartphones, earphones, headphones, and the like, users can enjoy listening to music with a sense of presence in various situations regardless of time and place.

このような背景から、様々な場面において音楽を自動選曲する技術が知られている。例えば、特許文献1は、自車の周辺状況などから選択値を選定してキーワードとし、楽曲データの各パラメータの曲属性値とキーワードとの一致度を判定して採点を行い、点数の高い楽曲データを選択して再生する音楽選曲再生装置を開示する。 Against this background, techniques for automatically selecting music in various situations are known. For example, Japanese Patent Laid-Open No. 2003-100000 selects a selection value from the surrounding conditions of the own vehicle and uses it as a keyword, judges the degree of matching between the song attribute value of each parameter of the song data and the keyword, and grades the score. Disclosed is a music selection/reproduction device for selecting and reproducing data.

特開2008-176851号公報JP 2008-176851 A

特許文献1が開示するような装置を車両などに搭載する場合、自動選曲のために用いられるパラメータは、経時変化の乏しいものであってもよい。しかしながら、ユーザが徒歩で移動する場合のように、経時での周囲の環境変化が多様となる場合、特許文献1が開示するような技術を適用することは難しい。 When the device disclosed in Patent Document 1 is installed in a vehicle or the like, the parameters used for automatic music selection may be parameters that change little over time. However, it is difficult to apply the technology disclosed in Patent Literature 1 when the surrounding environment changes over time, such as when the user moves on foot.

本開示の目的は、上述した課題を鑑み、周囲の環境変化に応じて適切に選曲することが可能な選曲装置、選曲方法及びプログラムを提供することにある。 An object of the present disclosure is to provide a music selection device, a music selection method, and a program capable of appropriately selecting music according to changes in the surrounding environment in view of the above-described problems.

本開示にかかる選曲装置は、
ユーザの周囲の環境に関する環境情報を取得する環境情報取得部と、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出部と、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲部と、を備える。
The music selection device according to the present disclosure is
an environment information acquisition unit that acquires environment information about the environment around the user;
a calculation unit that calculates the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
a song selection unit that selects a song based on the degree of activity of the flow of people and attribute information indicating attributes of the song;

本開示にかかる選曲方法は、
ユーザの周囲の環境に関する環境情報を取得する環境情報取得ステップと、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、を含む。
The song selection method according to the present disclosure is
an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
a song selection step of selecting a song based on the degree of activity of the flow of people and attribute information indicating attributes of the song.

本開示にかかるプログラムは、
ユーザの周囲の環境に関する環境情報を取得する環境情報取得ステップと、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、をコンピュータに実行させる。
The program according to the present disclosure is
an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
A music selection step of selecting music based on the degree of activity of the flow of people and attribute information indicating attributes of the music is executed by a computer.

本開示にかかる選曲装置、選曲方法及びプログラムは、周囲の環境変化に応じて適切に選曲することを可能とする。 The music selection device, music selection method, and program according to the present disclosure enable appropriate music selection according to changes in the surrounding environment.

実施形態にかかる選曲システムの概要図である。1 is a schematic diagram of a music selection system according to an embodiment; FIG. 実施形態にかかる選曲システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a music selection system according to an embodiment; FIG. 実施形態にかかるパラメータ情報の一例を示す図である。It is a figure which shows an example of the parameter information concerning embodiment. 実施形態にかかる選曲用属性情報の一例を示す図である。FIG. 4 is a diagram showing an example of attribute information for music selection according to the embodiment; FIG. 実施形態にかかる楽曲情報の一例を示す図である。It is a figure which shows an example of the music information concerning embodiment. 実施形態にかかる端末が行う選曲処理を示すフローチャートである。4 is a flowchart showing music selection processing performed by the terminal according to the embodiment;

以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されている。説明の明確化のため、必要に応じて重複説明は省略される。 Embodiments of the present disclosure are described in detail below with reference to the drawings. In the drawings, the same or corresponding elements are labeled with the same reference numerals. Duplicate explanations are omitted as necessary for clarity of explanation.

まず、図1を参照して、本実施形態にかかる選曲システム1000の概要を説明する。図1は、本実施形態にかかる選曲システム1000の概要図である。図1に示されるように、選曲システム1000は、再生装置100と、端末200と、を備えている。 First, an overview of a music selection system 1000 according to this embodiment will be described with reference to FIG. FIG. 1 is a schematic diagram of a music selection system 1000 according to this embodiment. As shown in FIG. 1, the music selection system 1000 includes a playback device 100 and a terminal 200.

再生装置100と端末200とは、図示しない通信ネットワークを介して通信可能に接続されている。通信ネットワークは、例えば、Bluetooth(登録商標)やWi-Fi(登録商標)などの無線規格を用いて構成されてよい。または、再生装置100及び端末200は有線通信を行うように構成されてもよい。 The playback device 100 and the terminal 200 are communicably connected via a communication network (not shown). The communication network may be configured using wireless standards such as Bluetooth® and Wi-Fi®, for example. Alternatively, the playback device 100 and the terminal 200 may be configured to perform wired communication.

再生装置100は、楽曲を再生する再生装置である。再生装置100は、例えば、端末200から音声信号を受信して、楽曲を再生するワイヤレスイヤホンなどである。ユーザは、再生装置100を自身の耳に装着することで、再生された楽曲を聴くことができる。 The playback device 100 is a playback device that plays back music. The reproducing device 100 is, for example, a wireless earphone that receives an audio signal from the terminal 200 and reproduces music. The user can listen to the reproduced music by wearing the reproducing device 100 on his or her ear.

また、再生装置100は、ユーザの周囲の環境に関する環境情報を検出する検出機能を備えている。環境情報は、例えば、ユーザの周囲を撮像した撮像情報や、ユーザの周囲で発せられた音声の音声情報などを含み得る。したがって、再生装置100は、ユーザの周囲を撮像可能な小型のカメラや、ユーザの周囲の音声を検出可能なマイクロフォンなどを備えている。 The playback device 100 also has a detection function of detecting environment information about the environment around the user. The environment information may include, for example, imaging information obtained by imaging the surroundings of the user, audio information of sounds emitted around the user, and the like. Therefore, the playback device 100 includes a small camera capable of imaging the user's surroundings, a microphone capable of detecting the user's surrounding sounds, and the like.

再生装置100は、検出した環境情報を端末200に送信する。端末200は、環境情報を受信し、所定の選曲処理を行うことで、ユーザの周囲環境に応じた楽曲を選択する。端末200は、選択した楽曲を再生するための音声信号を再生装置100に送信する。再生装置100は、音声信号を受信して、端末200において選択された楽曲を再生する。これにより、ユーザは、端末200で選択された楽曲を聴くことができる。 The playback device 100 transmits the detected environment information to the terminal 200 . The terminal 200 receives the environment information and performs predetermined music selection processing to select music according to the surrounding environment of the user. The terminal 200 transmits an audio signal for playing back the selected music to the playback device 100 . The reproduction device 100 receives the audio signal and reproduces the music selected on the terminal 200 . Thereby, the user can listen to the music selected on the terminal 200 .

ユーザは、歩行などにより移動することで、周囲の環境が変化し得る。選曲システム1000では、再生装置100は、所定の時間間隔で環境情報を検出し、端末200に送信する。端末200は、再生装置100から環境情報を取得すると、これに応じて再度の選曲を行うことができる。このような構成により、選曲システム1000では、再生装置100からの情報を取得した端末200において、ユーザの周囲の環境変化に応じて適切に選曲することが可能である。 The user can change the surrounding environment by moving by walking or the like. In the music selection system 1000 , the playback device 100 detects environment information at predetermined time intervals and transmits it to the terminal 200 . When the terminal 200 acquires the environment information from the playback device 100, the terminal 200 can select music again accordingly. With such a configuration, in the music selection system 1000, the terminal 200 that has acquired the information from the playback device 100 can appropriately select music according to environmental changes around the user.

続いて、図2を参照して、本実施形態にかかる選曲システム1000の構成について説明する。図2は、選曲システム1000の構成を示すブロック図である。図2に示されるように、選曲システム1000は、再生装置100と、端末(選曲装置)200と、を備えている。なお、図2において示される一方向矢印は、情報(データ又は信号など)の流れを端的に示したものであり、情報の双方向性を排除するものではない。 Next, the configuration of the music selection system 1000 according to this embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the music selection system 1000. As shown in FIG. As shown in FIG. 2 , the music selection system 1000 includes a playback device 100 and a terminal (music selection device) 200 . Note that the unidirectional arrows shown in FIG. 2 simply indicate the flow of information (data, signals, etc.) and do not exclude bidirectionality of information.

まず、再生装置100の構成について説明する。再生装置100は、端末200から音声信号を受信して、楽曲を再生することが可能な再生装置である。再生装置100は、例えば、イヤホン、ヘッドホン、又は肩掛けスピーカなどである。これらに限らず、再生装置100には、楽曲を再生可能な種々の装置が用いられてよい。本実施形態では、再生装置100は、図1に示されるようなイヤホンであるものとして説明を行う。図1では、再生装置100が片耳に装着される例を示しているが、再生装置100は両耳に装着するものであってもよい。ユーザは、再生装置100を耳に装着することで、移動しながら、再生される楽曲を聴くことができる。楽曲は、歌詞を有する楽曲であってもよいし、歌詞を有さない楽曲であってもよい。 First, the configuration of the playback device 100 will be described. The playback device 100 is a playback device capable of receiving an audio signal from the terminal 200 and playing back music. The playback device 100 is, for example, earphones, headphones, or shoulder speakers. The reproducing device 100 is not limited to these devices, and various devices capable of reproducing music may be used. In this embodiment, the playback device 100 will be described as an earphone as shown in FIG. Although FIG. 1 shows an example in which the playback device 100 is worn on one ear, the playback device 100 may be worn on both ears. By wearing the reproducing device 100 on the ear, the user can listen to the music being reproduced while moving. A piece of music may be a piece of music with lyrics, or a piece of music without lyrics.

図2を参照して、再生装置100の各構成について説明する。図2に示されるように、再生装置100は、撮像部110、集音部120、センサ部130、及び出力部140を備えている。 Each configuration of the playback device 100 will be described with reference to FIG. As shown in FIG. 2 , the playback device 100 includes an imaging section 110 , a sound collecting section 120 , a sensor section 130 and an output section 140 .

撮像部110は、ユーザの周囲を撮像する撮像装置である。撮像部110は、例えば、可視光カメラである。撮像部110は、赤外線カメラやその他の撮像装置であってもよい。撮像部110は、例えば、ユーザの前方を撮像するように再生装置100に設けられている。これにより、撮像部110は、ユーザの移動に応じて、ユーザの視界と同等の範囲を撮像することができる。これに限らず、撮像部110は、ユーザの左右方向又は後方を撮像可能に構成されてもよい。撮像部110は、撮像により得られた撮像画像を、日時情報などと共に端末200に送信する。撮像画像は、静止画像であってもよいし、動画像であってもよい。撮像部110は、所定の時間間隔で撮影画像を送信してよい。 The imaging unit 110 is an imaging device that captures an image of the user's surroundings. The imaging unit 110 is, for example, a visible light camera. The imaging unit 110 may be an infrared camera or other imaging device. The imaging unit 110 is provided in the playback device 100 so as to image the front of the user, for example. Thereby, the imaging unit 110 can capture an image of a range equivalent to the field of view of the user according to the movement of the user. The imaging unit 110 is not limited to this, and may be configured to be capable of imaging the left-right direction or the rear of the user. The imaging unit 110 transmits a captured image obtained by imaging to the terminal 200 together with date and time information. The captured image may be a still image or a moving image. The imaging unit 110 may transmit the captured images at predetermined time intervals.

集音部120は、ユーザの周囲の音声を検出する集音装置である。集音部120は、例えばマイクロフォンである。集音部120は、ユーザの周囲に存在する人の声、車両が発する音、及び店舗等の建物から発せられる音などを検出する。集音部120は、検出された音声の音声情報を端末200に送信する。集音部120は、所定の時間間隔で音声情報を送信してよい。 The sound collector 120 is a sound collector that detects sounds around the user. Sound collector 120 is, for example, a microphone. The sound collector 120 detects human voices around the user, sounds emitted by vehicles, sounds emitted from buildings such as shops, and the like. The sound collecting unit 120 transmits sound information of the detected sound to the terminal 200 . The sound collector 120 may transmit audio information at predetermined time intervals.

センサ部130は、ユーザに関するユーザ情報を検出する検出装置である。ユーザ情報は、例えば、ユーザの生体情報を含み得る。生体情報は、例えば、ユーザの体温、心拍数、又は血圧などである。これに限らず、ユーザ情報は、他の生体情報を含んでもよい。センサ部130は、検出した生体情報を端末200に送信する。センサ部130は、所定の時間間隔で生体情報を送信してよい。本実施形態では、センサ部130は、ユーザの心拍数を生体情報として検出し、検出結果を端末200に送信するものとして説明を行う。 The sensor unit 130 is a detection device that detects user information about the user. User information may include, for example, the user's biometric information. The biometric information is, for example, the user's body temperature, heart rate, or blood pressure. The user information is not limited to this, and may include other biometric information. The sensor unit 130 transmits the detected biometric information to the terminal 200 . The sensor unit 130 may transmit biological information at predetermined time intervals. In this embodiment, the sensor unit 130 detects the user's heart rate as biological information and transmits the detection result to the terminal 200 .

なお、図2では、センサ部130を再生装置100の内部に示しているが、センサ部130は、再生装置100の外部に設けられてもよい。例えば、センサ部130は、心拍数などの生体情報を検出可能な、ウェアラブル端末などであってもよい。また、センサ部130は、種別の異なる複数の生体情報を検知可能に構成されてもよい。例えば、センサ部130は、心拍数及び体温を検知し、両方の検知結果を端末200に送信してもよい。 Although FIG. 2 shows the sensor unit 130 inside the playback device 100 , the sensor unit 130 may be provided outside the playback device 100 . For example, the sensor unit 130 may be a wearable terminal capable of detecting biological information such as heart rate. Moreover, the sensor unit 130 may be configured to detect a plurality of different types of biological information. For example, the sensor unit 130 may detect heart rate and body temperature and transmit both detection results to the terminal 200 .

出力部140は、端末200において選択された楽曲を出力する出力装置である。出力部140は、例えばスピーカである。出力部140は、端末200から送信された音声信号に従い、選択された楽曲を再生する。 The output unit 140 is an output device that outputs music selected on the terminal 200 . The output unit 140 is, for example, a speaker. The output unit 140 reproduces the selected music according to the audio signal transmitted from the terminal 200 .

引き続き図2を参照して、端末200の構成について説明する。端末200は、再生装置100から環境情報及びユーザ情報を受信し、これらの情報の一部又は全部に基づいて、所定の選曲処理を行う情報処理装置である。端末200は、スマートフォン、携帯電話端末、タブレット端末、又はPC(Personal Computer)等であってよい。端末200は、例えばスマートウォッチなどのウェアラブル端末であってもよい。端末200は、所定の選曲処理を行うことで、ユーザの周囲環境に応じた楽曲を選択する。端末200は、選択した楽曲の音声信号を再生装置100に送信し、選択した楽曲を再生装置100において再生させる。 With continued reference to FIG. 2, the configuration of terminal 200 will be described. The terminal 200 is an information processing device that receives environment information and user information from the playback device 100 and performs predetermined music selection processing based on part or all of the information. The terminal 200 may be a smart phone, a mobile phone terminal, a tablet terminal, a PC (Personal Computer), or the like. Terminal 200 may be, for example, a wearable terminal such as a smartwatch. The terminal 200 selects music according to the surrounding environment of the user by performing predetermined music selection processing. The terminal 200 transmits an audio signal of the selected music to the reproduction device 100, and causes the reproduction device 100 to reproduce the selected music.

図2に示されるように、端末200は、環境情報取得部210、ユーザ情報取得部220、算出部230、選曲部240、入出力部270、撮像部280、及び記憶部290を備えている。 As shown in FIG. 2 , terminal 200 includes environment information acquisition section 210 , user information acquisition section 220 , calculation section 230 , music selection section 240 , input/output section 270 , imaging section 280 and storage section 290 .

環境情報取得部210は、ユーザの周囲の環境に関する環境情報を取得する。環境情報は、撮像情報及び音声情報を含み得る。ここで、撮像情報は、ユーザの周囲を撮像することで取得される撮像画像を含む情報である。また、音声情報は、ユーザの周囲で発せられた音声を検出することで取得される音声情報である。環境情報取得部210は、撮像部110で撮像された撮像画像を含む撮像情報を再生装置100から取得する。また、環境情報取得部210は、集音部120で取得された音声情報を再生装置100から取得する。 The environment information acquisition unit 210 acquires environment information about the surrounding environment of the user. Environmental information may include imaging information and audio information. Here, imaging information is information including a captured image acquired by capturing an image of the user's surroundings. Also, the voice information is voice information acquired by detecting voices uttered around the user. The environment information acquisition unit 210 acquires imaging information including the captured image captured by the imaging unit 110 from the playback device 100 . Also, the environment information acquisition unit 210 acquires the audio information acquired by the sound collection unit 120 from the playback device 100 .

なお、環境情報取得部210は、上述のように撮像部110で取得される撮像画像を取得する以外に、端末200が備える撮像部280で取得される撮像画像を取得してもよい。例えば、環境情報取得部210は、撮像部110から撮像画像を取得できるか否かを判定し、撮像部110から撮像画像を取得できると判定した場合は、上述のように当該撮像画像を環境情報として取得する。撮像部110から撮像画像を取得できないと判定した場合、環境情報取得部210は、撮像画像の取得先を撮像部110から撮像部280に切り替えて、撮像部280で取得される撮像画像を環境情報として取得する。 Note that the environment information acquisition unit 210 may acquire a captured image acquired by the imaging unit 280 included in the terminal 200 in addition to acquiring the captured image acquired by the imaging unit 110 as described above. For example, the environment information acquisition unit 210 determines whether or not a captured image can be acquired from the imaging unit 110. If it is determined that a captured image can be acquired from the imaging unit 110, the environment information acquisition unit 210 converts the captured image into environmental information as described above. to get as When it is determined that the captured image cannot be acquired from the imaging unit 110, the environment information acquisition unit 210 switches the acquisition destination of the captured image from the imaging unit 110 to the imaging unit 280, and stores the captured image acquired by the imaging unit 280 as the environment information. to get as

例えば、環境情報取得部210は、撮像部110がユーザの髪の毛などの遮蔽物により遮蔽されている場合に、撮像部110から撮像画像を取得できないと判定してもよい。環境情報取得部210は、例えば、撮像部110で取得された撮像画像における各画素の輝度値の平均を所定の閾値と比較する。環境情報取得部210は、比較結果に基づいて、撮像部110が遮蔽状態となり、撮像部110から撮像画像を取得できないと判定する。遮蔽物は、ユーザの髪の毛に限らず、例えば、帽子や傘などが想定され得る。これに限らず、環境情報取得部210は、他の判定条件を用いて、撮像部110からの撮像画像が取得できるか否かを判定してもよい。 For example, the environment information acquiring unit 210 may determine that the captured image cannot be acquired from the imaging unit 110 when the imaging unit 110 is blocked by a shield such as the user's hair. The environment information acquisition unit 210 compares, for example, the average luminance value of each pixel in the captured image acquired by the imaging unit 110 with a predetermined threshold. Based on the comparison result, the environment information acquisition unit 210 determines that the imaging unit 110 is in a shielded state and cannot acquire a captured image from the imaging unit 110 . The shielding object is not limited to the user's hair, and can be assumed to be, for example, a hat or an umbrella. Not limited to this, the environment information acquisition section 210 may determine whether or not the captured image from the imaging section 110 can be acquired using other determination conditions.

このように、撮像部110からの撮像画像を取得できない場合に、撮像画像の取得先を撮像部280に切り替えることで、環境情報取得部210は環境情報としての撮像画像を安定して取得することができる。また、同様にして、環境情報取得部210は、集音部120からの音声情報を取得できるか否かを判定し、判定結果に応じて、音声情報の取得先を、端末200が備える集音部(不図示)に切り替えてもよい。 In this way, by switching the acquisition destination of the captured image to the imaging unit 280 when the captured image cannot be acquired from the imaging unit 110, the environment information acquisition unit 210 can stably acquire the captured image as the environment information. can be done. Similarly, the environment information acquisition unit 210 determines whether or not the audio information from the sound collection unit 120 can be acquired, and depending on the determination result, sets the acquisition destination of the audio information to the sound collection provided in the terminal 200. (not shown).

ユーザ情報取得部220は、ユーザに関するユーザ情報を取得する。ユーザ情報は、例えば、ユーザの生体情報、閲覧情報、又は気分情報を含み得る。生体情報は、センサ部130において検出されるユーザの心拍数などである。ユーザ情報取得部220は、センサ部130で検出された生体情報を再生装置100から受信し、ユーザ情報として取得する。 The user information acquisition unit 220 acquires user information about the user. User information may include, for example, the user's biometric information, browsing information, or mood information. The biological information is the user's heart rate detected by the sensor unit 130 and the like. The user information acquisition unit 220 receives the biological information detected by the sensor unit 130 from the playback device 100 and acquires it as user information.

閲覧情報は、ユーザが閲覧している文字や画像などの情報である。閲覧情報は、ユーザの気分に関連する情報を含み得る。閲覧情報は、例えば、入出力部270に表示された表示画面に含まれる表示情報である。例えば、表示情報は、ユーザが好む分野、又は好まない分野の情報を含み得る。分野は、食べ物、スポーツ、又は映画など、どのようなものでもよい。ユーザ情報取得部220は、例えば、表示情報に含まれる文字情報や画像情報をユーザ情報として取得する。また、ユーザ情報取得部220は、撮像部110における撮像画像から取得した閲覧情報をユーザ情報として取得してもよい。ユーザ情報取得部220は、例えば、ユーザが閲覧しているポスターや、デジタルサイネージなどの内容から閲覧情報を取得してもよい。 The browsing information is information such as characters and images that the user is browsing. Browsing information may include information related to the user's mood. The browsing information is, for example, display information included in the display screen displayed on the input/output unit 270 . For example, the displayed information may include information about areas that the user likes or dislikes. The field can be anything, such as food, sports, or movies. The user information acquisition unit 220 acquires, for example, character information and image information included in display information as user information. In addition, the user information acquisition section 220 may acquire browsing information acquired from an image captured by the imaging section 110 as user information. The user information acquisition unit 220 may, for example, acquire viewing information from the content of posters, digital signage, and the like that the user is viewing.

気分情報は、ユーザ自身が感じているユーザの気分を示す情報である。気分情報は、例えば、「Low」又は「High」などにより表されてよい。例えば、ユーザの気分が「落ち着いている」、「リラックスしている」、又は「悲しい」などの場合、気分情報は「Low」で表される。また、例えば、ユーザの気分が「高揚している」、「活動的である」、又は「楽しい」などの場合、気分情報は「High」で表される。気分情報は、「ややLow」、「ややHigh」などのように、気分の度合いを示すものであってもよい。 Mood information is information indicating the user's mood that the user himself/herself is feeling. Mood information may be represented by, for example, "Low" or "High". For example, if the user's mood is "calm," "relaxed," or "sad," the mood information is represented as "Low." Also, for example, when the user's mood is "excited", "active", or "pleasant", the mood information is represented by "High". The mood information may indicate the degree of mood, such as "slightly low" or "slightly high".

ユーザ情報取得部220は、例えば、入出力部270にユーザの気分情報の入力を受け付けるための選択画面を表示する。選択画面は、例えば、「Low」ボタン及び「High」ボタンを含むものであってもよい。ユーザ情報取得部220は、例えば、「現在の気分を選択してください。」などのメッセージを入出力部270に表示させ、ユーザの回答を受け付けて、気分情報を取得する。なお、ここでは「Low」及び「High」の2つの選択肢を用いたが、3つ以上の選択肢が設けられてもよい。また、気分情報は、数値化されてもよいし、上述した以外の表現で表されてもよい。 The user information acquisition unit 220 displays, for example, a selection screen for receiving input of the user's mood information on the input/output unit 270 . The selection screen may include, for example, a "Low" button and a "High" button. The user information acquisition unit 220 causes the input/output unit 270 to display a message such as "Please select your current mood", receives the user's response, and acquires mood information. Although two options of "Low" and "High" are used here, three or more options may be provided. Also, the mood information may be digitized, or may be represented by expressions other than those described above.

算出部230は、環境情報取得部210で取得された環境情報と、ユーザ情報取得部220で取得されたユーザ情報と、を用いて、選曲に関連する複数のパラメータについて、パラメータ値を算出する。選曲に関連する複数のパラメータは、パラメータ情報291として予め記憶部290に記憶されている。 The calculator 230 uses the environment information acquired by the environment information acquirer 210 and the user information acquired by the user information acquirer 220 to calculate parameter values for a plurality of parameters related to music selection. A plurality of parameters related to music selection are pre-stored in the storage unit 290 as parameter information 291 .

図3は、パラメータ情報291の一例を示す図である。例えば、パラメータ情報291は、パラメータID、パラメータ名、パラメータ値、点数、及び選曲用属性名を対応付けた情報である。パラメータIDは、パラメータを識別するための情報である。パラメータ名は、パラメータの名称を示す情報である。パラメータ値は、各パラメータで選択され得る値である。図に示されるように、1つのパラメータに対して複数のパラメータ値が選択され得る。点数は、各パラメータ値に対応付けられた点数である。点数は、選曲を行うための選曲用属性を特定するために用いられる。選曲用属性名は、選曲用属性の名称を示す情報である。 FIG. 3 is a diagram showing an example of the parameter information 291. As shown in FIG. For example, the parameter information 291 is information that associates parameter IDs, parameter names, parameter values, scores, and music selection attribute names. A parameter ID is information for identifying a parameter. The parameter name is information indicating the name of the parameter. Parameter values are values that can be selected for each parameter. As shown, multiple parameter values can be selected for a parameter. The score is the score associated with each parameter value. Scores are used to specify music selection attributes for making music selections. The attribute name for music selection is information indicating the name of the attribute for music selection.

図3に示されるように、パラメータ情報291は、パラメータとして、P1「人の雰囲気」、P2「建物の雰囲気」、P3「人の速度」、P4「人の密集度」、P5「建物の密集度」、及びP6「気分情報」を含んでいる。以下では、各パラメータをP1~P6の符号のみで示す場合がある。 As shown in FIG. 3, the parameter information 291 includes, as parameters, P1 "Atmosphere of people", P2 "Atmosphere of building", P3 "Speed of people", P4 "Concentration of people", P5 "Concentration of building and P6 "mood information". In the following, each parameter may be indicated only by symbols P1 to P6.

算出部230は、環境情報に基づいて、P1~P5のパラメータ値をそれぞれ算出する。また、算出部230は、ユーザ情報に基づいて、P6のパラメータ値を算出する。ここで、算出部230における各パラメータ値の算出方法を、各パラメータの内容と共に説明する。 The calculator 230 calculates the parameter values of P1 to P5 based on the environmental information. Further, the calculation unit 230 calculates the parameter value of P6 based on the user information. Here, the calculation method of each parameter value in the calculation unit 230 will be described together with the contents of each parameter.

P1「人の雰囲気」のパラメータ値は、「カジュアル」、「ビジネス」、「和風」、及び「洋風」の4つが設定されており、各パラメータ値に対応する点数は1~4点である。また、これらのパラメータ値のいずれにも該当しない「その他」の場合、対応する点数は0点である。算出部230は、環境情報に基づいて、周知の機械学習などを用いてパラメータ値を算出する。 Four parameter values of "casual", "business", "Japanese style", and "western style" are set for P1 "people's atmosphere", and the score corresponding to each parameter value is 1 to 4 points. Also, in the case of "Other" which does not correspond to any of these parameter values, the corresponding score is 0 points. The calculation unit 230 calculates parameter values using well-known machine learning or the like based on the environmental information.

また、P2「建物の雰囲気」は、P1と同様のパラメータ値及び点数が設定されている。算出部230は、P1と同様、環境情報に基づいて、周知の機械学習などを用いてパラメータ値を算出する。 In addition, the same parameter values and scores as those of P1 are set for P2 "Atmosphere of building". Calculation unit 230 calculates parameter values based on environmental information using well-known machine learning or the like, similar to P1.

P3「人の速度」のパラメータ値は、「遅い」、「普通」、及び「速い」の3つが設定されており、各パラメータ値に対応する点数は1~3点である。例えば、算出部230は、撮像画像から検出される人の動きベクトルに基づいて、人の速度を求める。具体的には、まず、算出部230は、周知の画像認識技術などを用いて、撮像画像に含まれる人を認識する。次に、算出部230は、所定時間間隔における人の動きベクトルの差分を求め、当該差分から、動きベクトルの変化の度合いを求める。これにより、算出部230は、撮影画像で認識された人の速度を算出する。算出部230は、撮影画像内において複数の人が認識された場合、それぞれの人に対して同様の処理を行い、撮影画像内の複数の人の速度を求める。 Three parameter values of "slow", "normal", and "fast" are set for P3 "person's speed", and the score corresponding to each parameter value is 1 to 3 points. For example, the calculator 230 obtains the speed of the person based on the motion vector of the person detected from the captured image. Specifically, first, the calculation unit 230 recognizes a person included in the captured image using a well-known image recognition technique or the like. Next, the calculation unit 230 obtains the difference between the motion vectors of the person at predetermined time intervals, and obtains the degree of change in the motion vector from the difference. Thereby, the calculation unit 230 calculates the speed of the person recognized in the captured image. When a plurality of people are recognized in the captured image, the calculator 230 performs similar processing on each person to obtain the velocities of the plurality of people in the captured image.

算出部230は、例えば、求められた人の速度と閾値とを比較して、P3のパラメータ値を算出する。例えば、算出部230は、求められた人の速度と、2つの閾値と、を比較して、パラメータ値を算出する。例えば、算出部230は、求められた人の速度が第1閾値以上の場合は「速い」、第2閾値未満の場合は「遅い」、いずれにも該当しない場合は「普通」、などのようにパラメータ値を算出する。これに限らず、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。 The calculation unit 230 calculates the parameter value of P3, for example, by comparing the determined speed of the person with a threshold value. For example, the calculation unit 230 compares the calculated speed of the person with two thresholds to calculate the parameter value. For example, the calculation unit 230 determines “fast” when the speed of the person obtained is equal to or greater than the first threshold, “slow” when less than the second threshold, and “normal” when none of the above applies. to calculate the parameter value. The calculation unit 230 is not limited to this, and may calculate the parameter value using well-known machine learning or the like.

P4「人の密集度」のパラメータ値は、「点在している」、「普通」、及び「密集している」の3つが設定されており、各パラメータ値に対応する点数は1~3点である。算出部230は、撮像情報及び音声情報の少なくとも一方に基づいて人の密集度を求める。例えば、算出部230は、撮像画像に基づいて人の密集度を求める場合、撮像画像に含まれる人を画像認識技術などにより認識する。算出部230は、認識された人の数に基づいて、人の密集度を求める。 Three parameter values are set for P4 “People Density”: “Scattered”, “Normal”, and “Dense”, and points corresponding to each parameter value are 1 to 3. It is a point. The calculator 230 obtains the density of people based on at least one of the imaging information and the audio information. For example, when obtaining the density of people based on a captured image, the calculation unit 230 recognizes people included in the captured image using image recognition technology or the like. The calculation unit 230 obtains the density of people based on the number of recognized people.

算出部230は、例えば、認識された人の数と閾値とを比較して、P4のパラメータ値を算出する。例えば、算出部230は、認識された人の数と2つの閾値とを比較して、パラメータ値を算出する。例えば、算出部230は、認識された人の数が第1閾値以上の場合は「密集している」、第2閾値未満の場合は「点在している」、いずれにも該当しない場合は「普通」、などのようにパラメータ値を算出する。これに限らず、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。 The calculation unit 230 calculates the parameter value of P4, for example, by comparing the number of recognized people with a threshold. For example, the calculator 230 compares the number of recognized people with two thresholds to calculate the parameter value. For example, the calculation unit 230 is “crowded” when the number of recognized people is equal to or greater than the first threshold, “scattered” when the number is less than the second threshold, and Calculate a parameter value such as "Normal". The calculation unit 230 is not limited to this, and may calculate the parameter value using well-known machine learning or the like.

また、算出部230は、音声情報を用いて人の密集度を求めてもよい。算出部230は、周知の音声認識技術を用いて、人の密集度を求めることができる。算出部230は、例えば、会話音、雑踏音、又は騒音などが多い周波数帯における音声情報の強度の総和を求め、求めた総和の大小に応じて、ユーザの周囲の人の密集度を求めるなどしてよい。算出部230は、上述と同様にして、閾値との比較によりパラメータ値を算出してもよい。また、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。 Further, the calculation unit 230 may obtain the density of people using voice information. The calculator 230 can obtain the density of people using a well-known speech recognition technique. For example, the calculation unit 230 obtains the sum of the strengths of voice information in a frequency band with many conversation sounds, crowd sounds, noises, etc., and obtains the density of people around the user according to the magnitude of the obtained sum. You can The calculator 230 may calculate the parameter value by comparison with the threshold in the same manner as described above. Further, the calculation unit 230 may calculate parameter values using well-known machine learning or the like.

なお、算出部230は、撮像情報及び音声情報の両方を用いて人の密集度を求めてもよい。これにより、算出部230は、より精度よく周囲の人の密集度を求めることができる。 Note that the calculation unit 230 may obtain the density of people using both the imaging information and the audio information. As a result, the calculation unit 230 can more accurately obtain the density of surrounding people.

P5「建物の密集度」は、P4と同様のパラメータ値及び点数が設定されている。算出部230は、例えば、環境情報取得部210で取得された撮像画像における空の面積を用いて、撮影画像内における建物の割合を求めることでP5のパラメータ値を算出してよい。または、算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。 The same parameter values and scores as P4 are set for P5 “building density”. The calculation unit 230 may calculate the parameter value of P5 by, for example, using the area of the sky in the captured image acquired by the environment information acquisition unit 210 to obtain the proportion of buildings in the captured image. Alternatively, the calculation unit 230 may calculate parameter values using well-known machine learning or the like.

P6「気分情報」のパラメータ値は、「Low」及び「High」の2つが設定されており、各パラメータ値に対応する点数は1~2点である。算出部230は、ユーザ情報として取得されたユーザの生体情報、閲覧情報、又は気分情報を用いて、P6のパラメータ値を算出する。算出部230は、これらのうち複数の情報をユーザ情報として用いてもよい。算出部230は、周知の機械学習などを用いてパラメータ値を算出してもよい。 Two parameter values, "Low" and "High", are set for P6 "mood information", and the score corresponding to each parameter value is 1 to 2 points. The calculation unit 230 calculates the parameter value of P6 using the user's biological information, browsing information, or mood information acquired as user information. The calculation unit 230 may use a plurality of information among these as user information. The calculation unit 230 may calculate parameter values using well-known machine learning or the like.

なお、本実施形態では、機械学習による学習により、各パラメータ値を算出するための学習済みモデルが予め生成されているものとする。機械学習には、例えば、ディープラーニングなどの周知の機械学習の手法が用いられてよい。算出部230は、環境情報取得部210において環境情報(例えば、撮像情報)が取得された場合、予め生成された学習済みモデルを用いてP1~P5のパラメータ値を算出することができる。同様に、算出部230は、ユーザ情報取得部220においてユーザ情報(例えば、生体情報)が取得された場合、予め生成された学習済みモデルを用いて、P6のパラメータ値を算出することができる。 In this embodiment, it is assumed that a trained model for calculating each parameter value is generated in advance by machine learning. For machine learning, for example, a well-known machine learning method such as deep learning may be used. When environment information (for example, imaging information) is acquired by the environment information acquisition unit 210, the calculation unit 230 can calculate parameter values of P1 to P5 using a pre-generated trained model. Similarly, when the user information acquisition unit 220 acquires user information (eg, biological information), the calculation unit 230 can calculate the parameter value of P6 using a pre-generated trained model.

また、図3に示されるように、各パラメータは、選曲用属性名と対応付けられている。選曲用属性名は、選曲を行うために用いられる選曲用属性の名称を示している。本実施形態では、選曲用属性として、「ジャンル」、「テンポ」、及び「キー」の3つが設定されている。ここで、各パラメータと、選曲用属性との対応付けについて簡単に説明する。 Also, as shown in FIG. 3, each parameter is associated with a music selection attribute name. The attribute name for music selection indicates the name of the attribute for music selection used for selecting music. In this embodiment, three music selection attributes are set: "genre", "tempo", and "key". Here, the correspondence between each parameter and the music selection attribute will be briefly described.

P1「人の雰囲気」及びP2「建物の雰囲気」は、楽曲の雰囲気に関連する「ジャンル」が対応付けられている。また、P3「人の速度」は、楽曲の速さに関連する「テンポ」が対応付けられている。 P1 "Atmosphere of people" and P2 "Atmosphere of building" are associated with "genre" related to the atmosphere of music. Also, P3 "People's Speed" is associated with "Tempo" related to the speed of music.

また、P4「人の密集度」及びP5「建物の密集度」は、「テンポ」が対応付けられている。例えば、周囲に人や建物が多い場合には忙しさや慌ただしさを感じ、また人や建物が少ない場合には、寂しさや静けさを感じると想定されるためである。これにより、例えば、人や建物の密集度が高い場合にはアップテンポ、密集度が低い場合にはバラード、というように、選曲部240において楽曲が選択されやすくなる。 Also, P4 "People density" and P5 "Building density" are associated with "Tempo". For example, when there are many people and buildings around, it is assumed that the user feels busy and busy, and when there are few people and buildings, it is assumed that the user feels lonely and quiet. This makes it easier for the music selection unit 240 to select music, for example, up-tempo music when the density of people and buildings is high, and ballad music when the density is low.

P6「気分情報」は、「テンポ」及び「キー」が対応付けられている。「テンポ」については、ユーザの気分の高低と、これに適する楽曲の速さとが関連すると想定されるためである。また、「キー」については、ユーザの気分の高低と、これに適する楽曲のキーの高さとが関連すると想定されるためである。例えば、高音の楽曲は周波数が高く、ユーザに刺激を与えやすく、ユーザの高揚した気分をさらに増幅させることができると想定される。したがって、「気分情報」が「High」の場合、選曲部240において、キーの高い楽曲が選択されやすくなる。また、低音の楽曲は周波数が低く、眠気やリラックスした気分を与えやすく、ユーザの落ち着いた気分をより安定させることができると想定される。したがって、「気分情報」が「Low」の場合、選曲部240において、キーの低い楽曲が選択されやすくなる。 P6 "mood information" is associated with "tempo" and "key". This is because it is assumed that the "tempo" is related to the user's mood and the speed of music suitable for this. Also, as for the "key", it is assumed that the user's mood is related to the key height of the music suitable for this mood. For example, it is assumed that high-pitched music has a high frequency, is likely to stimulate the user, and can further amplify the user's uplifted mood. Therefore, when the “mood information” is “High”, music with a high key is more likely to be selected in the music selection unit 240 . In addition, low-pitched music has a low frequency and is likely to give sleepiness and a relaxed feeling, and is assumed to be able to further stabilize the calm mood of the user. Therefore, when the “mood information” is “Low”, music with a low key is more likely to be selected in the music selection unit 240 .

なお、図3に示されるパラメータ情報291は一例であるので、各パラメータと選曲用属性との対応は図に示されるものに限られない。例えば、P1「人の雰囲気」は「ジャンル」に対応付けられているが、「テンポ」に対応付けられてもよいし、「キー」に対応付けられてもよい。また、P1は、これらのうち2つ以上に対応付けられてもよい。他のパラメータについても同様である。 Note that the parameter information 291 shown in FIG. 3 is just an example, and the correspondence between each parameter and the music selection attribute is not limited to that shown in the figure. For example, P1 "human atmosphere" is associated with "genre", but may be associated with "tempo" or "key". Also, P1 may be associated with two or more of these. The same is true for other parameters.

算出部230は、P1~P6の各パラメータに対応する点数を、選曲用属性ごとに合計する。ここで、P1~P6の各パラメータに対応する点数をそれぞれS1~S6として表すと、P1「人の雰囲気」の点数はS1、P2「建物の雰囲気」の点数はS2、P3「人の速度」の点数はS3、P4「人の密集度」の点数はS4、P5「建物の密集度」の点数はS5、P6「気分情報」の点数はS6である。 The calculation unit 230 totals the scores corresponding to the parameters P1 to P6 for each attribute for music selection. Here, if the scores corresponding to the parameters P1 to P6 are expressed as S1 to S6, respectively, the score for P1 "Atmosphere of people" is S1, the score for P2 "Atmosphere of building" is S2, and the score for P3 "People's speed" is S1. The score for P4 is S3, the score for P4 "People density" is S4, the score for P5 "Building density" is S5, and the score for P6 "Mood information" is S6.

各選曲用属性に対応する点数は、下記の計算式で表される。算出部230は、下記の式(1)~式(3)を計算し、選曲用属性ごとに対応する合計点数を算出する。
「ジャンル」=S1+S2 ・・・(1)
「テンポ」=S3+S4+S5+S6 ・・・(2)
「キー」=S6 ・・・(3)
The score corresponding to each attribute for music selection is represented by the following formula. The calculation unit 230 calculates the following formulas (1) to (3) to calculate the total score corresponding to each music selection attribute.
“Genre”=S1+S2 (1)
"Tempo" = S3 + S4 + S5 + S6 (2)
"Key" = S6 (3)

算出部230は、記憶部290に記憶された選曲用属性情報292を参照し、上記計算により算出した合計点数に基づいて、各選曲用属性に対応する選曲用属性値を取得する。 The calculation unit 230 refers to the music selection attribute information 292 stored in the storage unit 290, and acquires the music selection attribute value corresponding to each music selection attribute based on the total score calculated by the above calculation.

図4は、選曲用属性情報292の一例を示す図である。選曲用属性情報292は、例えば、選曲用ID、選曲用属性名、合計点数、及び選曲用属性値を対応付けた情報である。算出部230は、選曲用属性情報292を参照し、「ジャンル」、「テンポ」、及び「キー」の各属性の選曲用属性値を取得する。例えば、「ジャンル」の合計点数が2点であった場合、算出部230は、選曲用属性値として「J-POP、K-POP」を取得する。また、例えば「テンポ」の合計点数が6点であった場合、算出部230は、選曲用属性値として「ミッドバラード」を取得する。また、例えば「キー」の合計点数が1点であった場合、算出部230は、選曲用属性値として、キーの「低い曲」を取得する。 FIG. 4 is a diagram showing an example of the music selection attribute information 292. As shown in FIG. The music selection attribute information 292 is, for example, information in which a music selection ID, a music selection attribute name, a total score, and a music selection attribute value are associated with each other. The calculation unit 230 refers to the music selection attribute information 292 and acquires the music selection attribute values of the “genre”, “tempo”, and “key” attributes. For example, if the total score for "genre" is 2, the calculator 230 acquires "J-POP, K-POP" as the attribute value for music selection. Further, for example, when the total score of "tempo" is 6 points, the calculation unit 230 acquires "mid ballad" as the music selection attribute value. Further, for example, when the total score of "key" is 1 point, the calculation unit 230 acquires the key "low song" as the attribute value for music selection.

このようにして、算出部230は、選曲部240において楽曲を選択するための選曲用属性値を、「ジャンル」、「テンポ」、及び「キー」の属性ごとに取得することができる。 In this way, the calculation unit 230 can acquire the music selection attribute values for selecting music in the music selection unit 240 for each attribute of “genre”, “tempo”, and “key”.

なお、上述の説明では、算出部230は、図3に示されるP1~P6の全てのパラメータについてパラメータ値を算出し、算出結果に基づいて選曲用属性値を算出したが、これに限られない。例えば、算出部230は、P1~P6の一部のパラメータのみを用いて選曲用属性値を算出してもよい。 In the above description, the calculation unit 230 calculates parameter values for all the parameters P1 to P6 shown in FIG. 3, and calculates the attribute values for music selection based on the calculation results, but the present invention is not limited to this. . For example, the calculator 230 may calculate the music selection attribute value using only some of the parameters P1 to P6.

例えば、算出部230は、図3に示されるP3「人の速度」及びP4「人の密集度」のパラメータのみを算出してもよい。P3及びP4をパラメータとして用いることで、算出部230は、ユーザの周囲環境における人流の活性度合いを算出することができる。これにより、選曲部240において、人流の活性度合いに応じた選曲を行うことが可能となる。なお、以下の説明では、P3及びP4を合わせて、P10「人流の活性度合い」のように表して説明する場合がある。 For example, the calculation unit 230 may calculate only parameters P3 “speed of people” and P4 “density of people” shown in FIG. By using P3 and P4 as parameters, the calculation unit 230 can calculate the activity level of the flow of people in the surrounding environment of the user. As a result, the music selection unit 240 can select music according to the activity level of the flow of people. In the following description, P3 and P4 may be collectively expressed as P10 "the activity level of the flow of people".

図2に戻り説明を続ける。選曲部240は、算出部230で取得された選曲用属性値に基づいて、記憶部290に記憶された楽曲情報293の中から楽曲を選択する。楽曲情報293は、選曲部240において選曲され得る楽曲に関する情報である。 Returning to FIG. 2, the description is continued. The music selection unit 240 selects music from the music information 293 stored in the storage unit 290 based on the music selection attribute value acquired by the calculation unit 230 . The song information 293 is information about songs that can be selected by the song selection unit 240 .

図5は、楽曲情報293の一例を示す図である。楽曲情報293は、例えば、楽曲ID、楽曲名、アーティスト名、楽曲データ、及び属性情報が対応付けられた情報である。楽曲IDは、楽曲を識別するための情報である。楽曲名は、楽曲のタイトルを示す情報である。アーティスト名は、楽曲を演奏しているアーティストの名前を示す情報である。楽曲データは、楽曲の音源データを示す情報である。 FIG. 5 is a diagram showing an example of the music information 293. As shown in FIG. The song information 293 is information in which, for example, song IDs, song titles, artist names, song data, and attribute information are associated with each other. A song ID is information for identifying a song. The song title is information indicating the title of the song. The artist name is information indicating the name of the artist performing the music. The music data is information indicating the sound source data of the music.

属性情報は、楽曲の属性を示す情報である。属性情報は、例えば、「ジャンル」、「テンポ」、及び「キー」の情報を含み得る。属性情報は、上述した選曲用属性情報292の内容と対応している。「ジャンル」は、例えば、J-POP、K-POP、演歌、及びクラシックなどのように、楽曲のジャンルを示す情報である。「テンポ」は、例えば、バラード、ミッドバラード、及びアップテンポなどのように、楽曲のテンポを示す情報である。「キー」は、楽曲のキーの高さに関する情報である。 Attribute information is information indicating attributes of a song. Attribute information may include, for example, "genre", "tempo", and "key" information. The attribute information corresponds to the contents of the music selection attribute information 292 described above. "Genre" is information indicating the genre of a song, such as J-POP, K-POP, enka, and classical music. "Tempo" is information indicating the tempo of a song, such as ballad, mid-ballad, and up-tempo. "Key" is information about the height of the key of the music.

なお、本実施形態では、楽曲情報293は、予め記憶部290に記憶されているものとして説明するが、これに限られない。楽曲情報293は、端末200の外部に設けられた所定のサーバに記憶されていてもよい。 In this embodiment, the music information 293 is described as being stored in the storage unit 290 in advance, but the present invention is not limited to this. The music information 293 may be stored in a predetermined server provided outside the terminal 200 .

選曲部240は、算出部230において取得された選曲用属性値を選曲条件として特定する。選曲部240は、楽曲情報293を参照し、特定した選曲条件と一致する楽曲が存在するか否かを判定する。例えば、上述した合計点数の例では、選曲部240は、「ジャンル」が「J-POP、K-POP」であり、「テンポ」が「ミッドバラード」であり、「キー」が「低い曲」であることを選曲条件として特定する。選曲部240は、選曲条件が一致する楽曲が楽曲情報293に存在するか否かを判定する。 The music selection unit 240 specifies the music selection attribute value acquired by the calculation unit 230 as a music selection condition. The music selection unit 240 refers to the music information 293 and determines whether or not there is a music that matches the specified music selection condition. For example, in the example of the total score described above, the music selection unit 240 selects "J-POP, K-POP" as the "genre", "mid ballad" as the "tempo", and "low song" as the "key". is specified as a music selection condition. The music selection unit 240 determines whether or not the music information 293 contains music that matches the music selection condition.

選曲部240は、選曲条件と一致する楽曲が存在すると判定した場合、当該楽曲を選曲候補として特定する。選曲部240は、複数の選曲候補を特定してもよい。また、選曲部240は、選曲条件との一致度が所定値以上である楽曲を、選曲候補として特定してもよい。したがって、選曲部240は、選曲条件と完全には一致しない楽曲を選曲候補としてもよい。 When determining that there is a song that matches the song selection condition, the song selection unit 240 identifies the song as a song selection candidate. The music selection unit 240 may identify multiple music selection candidates. Also, the music selection section 240 may specify, as a music selection candidate, a piece of music whose degree of matching with the music selection condition is equal to or greater than a predetermined value. Therefore, the music selection section 240 may select music that does not completely match the music selection condition as a candidate for music selection.

選曲部240は、選曲候補が複数存在する場合、再生装置100において再生する再生楽曲を選択する。例えば、選曲部240は、選曲条件との一致度が最も高い楽曲を、再生する楽曲として選択してもよい。選曲部240は、選択した再生楽曲を再生装置100において再生させるため、再生楽曲の音声信号を再生装置100に送信する。これにより、再生装置100では、端末200で選択された楽曲が再生される。 The music selection unit 240 selects a music piece to be reproduced in the reproduction device 100 when there are a plurality of music selection candidates. For example, the music selection unit 240 may select the music that has the highest degree of matching with the music selection condition as the music to be reproduced. The music selection unit 240 transmits the audio signal of the music to be played back to the playback device 100 so that the playback device 100 can play back the selected playback song. As a result, the music selected by the terminal 200 is played back on the playback device 100 .

また、選曲部240は、ユーザの周囲環境の変化を監視し、ユーザの周囲環境の変化に応じて、再生中の楽曲を変更してもよい。例えば、算出部230は、楽曲が再生中であるか否かを判定し、楽曲が再生中である場合、当該楽曲の再生開始後におけるユーザの周囲環境を示すパラメータ(例えば、P10「人流の活性度合い」)のパラメータ値を新たに算出する。選曲部240は、新たに算出されたパラメータ値から求められる選曲用属性情報と、再生中の楽曲の属性情報と、を比較する。両者の一致度が所定値未満である場合、選曲部240は、再生中の楽曲を所定のタイミングで終了させ、現在のユーザの周囲環境に応じた楽曲を新たに選択し、再生装置100で再生させる。 Also, the music selection unit 240 may monitor changes in the user's surrounding environment and change the music being played according to the change in the user's surrounding environment. For example, the calculation unit 230 determines whether or not a song is being played, and if the song is being played, a parameter indicating the surrounding environment of the user after the start of playback of the song (for example, P10 “People flow activity degree”) is newly calculated. The music selection unit 240 compares the attribute information for music selection obtained from the newly calculated parameter values with the attribute information of the music being reproduced. If the degree of matching between the two is less than the predetermined value, the music selection unit 240 terminates the music being reproduced at a predetermined timing, selects a new music according to the current surrounding environment of the user, and reproduces it on the reproduction device 100. Let

所定のタイミングは、例えば、再生中の楽曲が終了するタイミングであってもよいし、特定の演奏区間が終了するタイミングであってもよい。特定の演奏区間は、例えば、Aメロ、Bメロ、又はサビなどである。これらに限らず、再生される楽曲を切り替えるために区切りのよいタイミングが適宜設定されてよい。 The predetermined timing may be, for example, the timing at which the piece of music being reproduced ends, or the timing at which a specific performance section ends. The specific performance section is, for example, A melody, B melody, chorus, or the like. Not limited to these, good break timings may be appropriately set in order to switch songs to be played back.

例えば、再生装置100において楽曲aが再生中であるとする。算出部230は、楽曲aの再生開始後である現時点におけるP10のパラメータ値を新たに算出する。算出部230は、新たに算出したP10のパラメータ値に対応する点数を合計し、合計点数を算出する。算出部230は、合計点数に基づいて、選曲用属性値(選曲用属性情報)を新たに取得する。 For example, assume that the playback device 100 is playing a song a. The calculation unit 230 newly calculates the parameter value of P10 at the present time after the start of reproduction of the music piece a. The calculation unit 230 totals the points corresponding to the newly calculated parameter values of P10 to calculate the total points. The calculation unit 230 newly acquires an attribute value for music selection (attribute information for music selection) based on the total score.

選曲部240は、楽曲aの再生中において、新たに取得された選曲用属性値と、楽曲aの属性値(属性情報)と、を比較する。選曲部240は、両者の一致度を判定し、一致度が所定値未満である場合、再生中の楽曲aを所定のタイミングで終了させる。両者の一致度が所定値以上である場合、選曲部240は、特に処理を行わず、楽曲aの再生を継続させる。楽曲aの再生を終了させる場合、選曲部240は、新たに取得された選曲用属性値に基づいて、新たな楽曲bを選択し、楽曲aの終了と共に楽曲bの再生を開始させる。 The music selection unit 240 compares the newly acquired attribute value for music selection with the attribute value (attribute information) of the music piece a while the music piece a is being reproduced. The music selection unit 240 determines the degree of matching between the two, and if the degree of matching is less than a predetermined value, ends the music piece a being played at a predetermined timing. If the degree of matching between the two is equal to or higher than the predetermined value, the music selection unit 240 does not perform any particular processing and continues the reproduction of the music piece a. When ending the reproduction of the music piece a, the music selection unit 240 selects a new music piece b based on the newly acquired attribute value for music selection, and starts the reproduction of the music piece b when the music piece a ends.

このようにすることで、端末200は、ユーザの周囲環境に応じた楽曲が再生されていない場合に、周囲環境情報に応じた楽曲を新たに選択し、再生装置100で再生させることができる。なお、ここではP10のパラメータを用いたが、他のパラメータを用いてもよい。 By doing so, the terminal 200 can newly select music corresponding to the surrounding environment information and cause the reproduction device 100 to reproduce the music when the music corresponding to the surrounding environment of the user is not reproduced. Although the P10 parameter is used here, other parameters may be used.

図2に戻り説明を続ける。入出力部270は、ユーザからの入力を受け付ける入力装置である。入出力部270は、例えば、ユーザからの気分情報の入力を受け付ける。また、入出力部270は、文字や画像などを出力するための出力装置である。入出力部270は、例えば、ユーザが指などでタッチすることで操作が可能なタッチパネルなどであってよい。撮像部280は、端末200の周囲を撮像可能な撮像装置である。撮像部280は、撮像部110と同様、例えば可視光カメラである。 Returning to FIG. 2, the description is continued. The input/output unit 270 is an input device that receives input from the user. The input/output unit 270 receives input of mood information from the user, for example. The input/output unit 270 is an output device for outputting characters, images, and the like. The input/output unit 270 may be, for example, a touch panel that can be operated by being touched by a user's finger or the like. The imaging unit 280 is an imaging device capable of imaging the surroundings of the terminal 200 . The imaging unit 280 is, for example, a visible light camera, like the imaging unit 110 .

記憶部290は、端末200の各機能を実現するためのプログラムが格納される記憶装置である。また、記憶部290は、上述したパラメータ情報291、選曲用属性情報292、及び楽曲情報293を記憶する。なお、図2では、記憶部290が端末200の内部に示されているが、記憶部290は端末200と通信ネットワークを介して接続された所定のサーバ上に設けられてもよい。端末200は、ネットワークを介して当該サーバと通信することで、上述した選曲処理を端末200において実現することができる。 The storage unit 290 is a storage device in which programs for realizing each function of the terminal 200 are stored. The storage unit 290 also stores the above-described parameter information 291 , music selection attribute information 292 , and music information 293 . In addition, although the storage unit 290 is shown inside the terminal 200 in FIG. 2, the storage unit 290 may be provided on a predetermined server connected to the terminal 200 via a communication network. The terminal 200 can realize the music selection process described above by communicating with the server via the network.

なお、図2に示される構成は一例に過ぎず、選曲システム1000は、複数の構成が集約された装置などを用いて構成されてもよい。例えば、再生装置100及び端末200の機能が同一の装置に集約されていてもよい。例えば、再生装置100が端末200の各機能を備えていてもよい。このようにすることで、ユーザは、端末200を携帯することなく、再生装置100を装着するだけで周囲環境に応じた選曲及び楽曲の再生を行うことができる。 Note that the configuration shown in FIG. 2 is merely an example, and the music selection system 1000 may be configured using a device or the like in which multiple configurations are integrated. For example, the functions of the playback device 100 and the terminal 200 may be integrated into the same device. For example, the playback device 100 may have each function of the terminal 200 . By doing so, the user can select and reproduce music according to the surrounding environment by simply wearing the reproduction device 100 without carrying the terminal 200 .

また、例えば、再生装置100及び端末200における各機能部は、複数の装置などを用いて分散処理されてもよい。上述したように、記憶部290が外部のサーバに設けられていてもよい。記憶部290以外の機能部についても同様である。また、例えば、ユーザが所有する端末以外の装置が端末200の各機能部を備えるようにしてもよい。このようにすることで、ユーザが端末200を携帯していなくとも、同様の効果を得ることができる。 Also, for example, each functional unit in the playback device 100 and the terminal 200 may perform distributed processing using a plurality of devices. As described above, storage unit 290 may be provided in an external server. The same applies to functional units other than the storage unit 290 . Further, for example, a device other than the terminal owned by the user may include each functional unit of the terminal 200 . By doing so, even if the user does not carry the terminal 200, a similar effect can be obtained.

続いて、図6を参照して、端末200が行う処理について説明する。図6は、端末200が行う選曲処理を示すフローチャートである。なお、再生装置100では、歩行中のユーザの周囲の環境情報を常時検出し、端末200に環境情報を送信しているものとする。環境情報は、撮像情報及び音声情報を含んでいる。また、再生装置100は、ユーザ情報を検出し、ユーザ情報を常時端末200に送信しているものとする。 Next, processing performed by the terminal 200 will be described with reference to FIG. FIG. 6 is a flowchart showing music selection processing performed by the terminal 200 . It is assumed that the reproducing device 100 constantly detects environmental information around the walking user and transmits the environmental information to the terminal 200 . The environmental information includes imaging information and audio information. It is also assumed that the reproducing device 100 detects user information and constantly transmits the user information to the terminal 200 .

まず、環境情報取得部210は、再生装置100から送信された環境情報を取得する(S101)。次に、ユーザ情報取得部220は、再生装置100から送信されたユーザ情報を取得する(S102)。なお、ステップS101及びS102の順序は逆であってもよい。 First, the environment information acquisition unit 210 acquires environment information transmitted from the playback device 100 (S101). Next, the user information acquisition unit 220 acquires user information transmitted from the playback device 100 (S102). Note that the order of steps S101 and S102 may be reversed.

続いて、算出部230は、環境情報及びユーザ情報に基づいて、各パラメータに対応するパラメータ値を算出する(S103)。算出部230は、周知の機械学習の手法を用いて、環境情報及びユーザ情報からパラメータ値を算出してよい。例えば、算出部230は、図3に示されるP3「人の速度」及びP4「人の密集度」からP10「人流の活性度合い」を算出し、P10に対応するパラメータ値を算出する。 Subsequently, the calculation unit 230 calculates parameter values corresponding to each parameter based on the environment information and the user information (S103). The calculation unit 230 may calculate parameter values from the environment information and the user information using a well-known machine learning method. For example, the calculation unit 230 calculates P10 “People flow activity level” from P3 “People speed” and P4 “People density” shown in FIG. 3, and calculates a parameter value corresponding to P10.

続いて、算出部230は、パラメータ値に基づいて、各パラメータの点数を算出する(S104)。算出部230は、各パラメータの点数を合計して選曲用属性ごとの合計点数を算出し、合計点数から選曲用属性値を取得する(S105)。そして、選曲部240は、楽曲情報293を参照し、選曲用属性値を選曲条件として、楽曲を選択する(S106)。具体的には、選曲部240は、楽曲情報293の中に選曲条件と一致する楽曲が存在するか否かを判定する。 Subsequently, the calculator 230 calculates the score of each parameter based on the parameter value (S104). The calculation unit 230 adds up the points of each parameter to calculate the total points for each attribute for music selection, and obtains the attribute value for music selection from the total points (S105). Then, the music selection unit 240 refers to the music information 293, and selects music using the music selection attribute value as a music selection condition (S106). Specifically, the music selection unit 240 determines whether or not there is a music piece in the music information 293 that matches the music selection condition.

選曲部240は、選択した楽曲に対応する音声信号を再生装置100に送信し、選択した楽曲を再生させる(S107)。このような選曲処理により、選曲システム1000では、ユーザの周囲環境に応じて適切に選曲を行い、楽曲を再生することができる。 The music selection unit 240 transmits an audio signal corresponding to the selected music to the reproduction device 100 to reproduce the selected music (S107). With such music selection processing, the music selection system 1000 can appropriately select music according to the surrounding environment of the user and reproduce the music.

また、図6では図示を省略しているが、選曲部240は、再生中の楽曲がユーザの周囲環境と対応しているか否かを監視して、常時、ユーザの周囲環境に応じた楽曲を再生させるようにしてもよい。例えば、楽曲が再生中である場合、算出部230は、楽曲の再生開始後におけるP10を新たに算出し、選曲用属性値を新たに取得する。選曲部240は、新たに取得された選曲用属性値と、再生中の楽曲の属性値と、を比較する。両者の一致度が所定値未満である場合、選曲部240は、再生中の楽曲を所定のタイミングで終了させ、新たに選曲した楽曲を再生装置100で再生させる。 Although not shown in FIG. 6, the music selection unit 240 monitors whether or not the music being played corresponds to the surrounding environment of the user, and always selects music suitable for the user's surrounding environment. You may make it reproduce|regenerate. For example, when the music is being reproduced, the calculation unit 230 newly calculates P10 after the music is started to be reproduced, and acquires a new attribute value for music selection. The music selection unit 240 compares the newly acquired attribute value for music selection with the attribute value of the music being played. If the degree of matching between the two is less than the predetermined value, the music selection unit 240 ends the music being reproduced at a predetermined timing, and causes the reproduction device 100 to reproduce the newly selected music.

以上説明したように、本実施形態にかかる選曲システム1000では、端末200において、環境情報取得部210及びユーザ情報取得部220は、環境情報及びユーザ情報をそれぞれ取得する。環境情報は、撮像情報及び音声情報のうち少なくとも撮像情報を含み得る。算出部230は、環境情報及びユーザ情報に基づいて、図3に示されるような様々なパラメータと、各パラメータのパラメータ値を算出する。 As described above, in the music selection system 1000 according to this embodiment, in the terminal 200, the environment information acquisition section 210 and the user information acquisition section 220 acquire environment information and user information, respectively. The environmental information may include at least imaging information out of imaging information and audio information. The calculation unit 230 calculates various parameters as shown in FIG. 3 and the parameter values of each parameter based on the environment information and the user information.

例えば、算出部230は、撮像情報から検出される人の動きベクトルに基づいて人の速度を求める。また、算出部230は、撮像情報及び音声情報の少なくとも一方に基づいて人の密集度を求める。算出部230は、人の速度及び人の密集度に基づいて、人流の活性度合いを算出する。算出部230は、人流の活性度合いに対応するパラメータ値に対応する点数の合計から、選曲に用いられる選曲用属性値を取得する。算出部230は、人流の活性度合いに加えて、周囲の人の雰囲気、建物の雰囲気、建物の密集度、及びユーザの気分情報の一部又は全部を用いて、選曲用属性値を取得してもよい。 For example, the calculator 230 obtains the speed of the person based on the motion vector of the person detected from the imaging information. Also, the calculation unit 230 obtains the density of people based on at least one of the imaging information and the audio information. The calculator 230 calculates the degree of activity of the flow of people based on the speed of people and the density of people. The calculation unit 230 acquires the music selection attribute value used for music selection from the total score corresponding to the parameter value corresponding to the degree of activity of the flow of people. The calculation unit 230 acquires the attribute values for music selection using some or all of the atmosphere of surrounding people, the atmosphere of the building, the density of the building, and the user's mood information, in addition to the activity level of the flow of people. good too.

選曲部240は、算出部230において取得された選曲用属性値を選曲条件として、選曲条件と一致する楽曲を選択する。選曲部240は、選択した楽曲に対応する音声信号を再生装置100に送信し、再生装置100で楽曲を再生させる。このような構成により、端末200は、ユーザの周囲の環境やユーザの気分に応じて、適切な選曲を自動的に行い、再生装置100で再生させることができる。 The music selection unit 240 uses the music selection attribute value acquired by the calculation unit 230 as a music selection condition, and selects music that matches the music selection condition. The music selection unit 240 transmits an audio signal corresponding to the selected music to the reproduction device 100 and causes the reproduction device 100 to reproduce the music. With such a configuration, the terminal 200 can automatically select an appropriate song according to the user's surrounding environment and the user's mood, and allow the playback device 100 to play the selected song.

また、端末200は、楽曲の再生中において、ユーザの周囲環境に応じた楽曲を新たに選曲し、再生中の楽曲を所定のタイミングで終了させて、新たに選択した楽曲を再生させることができる。これにより、選曲システム1000では、周囲の環境変化の細やかさに対応する自動選曲を実現することができる。 In addition, the terminal 200 can select a new song according to the surrounding environment of the user during playback of the song, terminate the song being played at a predetermined timing, and play back the newly selected song. . As a result, the music selection system 1000 can realize automatic music selection corresponding to the details of changes in the surrounding environment.

<ハードウエアの構成例>
上述した再生装置100及び端末200の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。例えば、本開示は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
<Hardware configuration example>
Each functional configuration unit of the playback device 100 and the terminal 200 described above may be implemented by hardware (eg, hardwired electronic circuit, etc.) that implements each functional configuration unit, or may be implemented by combining hardware and software. It may be implemented by a combination (eg, a combination of an electronic circuit and a program that controls it). For example, the present disclosure can also implement arbitrary processing by causing a CPU (Central Processing Unit) to execute a computer program.

プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。 A program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments. The program may be stored in a non-transitory computer-readable medium or tangible storage medium. By way of example, and not limitation, computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs -ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device. The program may be transmitted on a transitory computer-readable medium or communication medium. By way of example, and not limitation, transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.

なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の説明では、人流の活性度合い等が高い場合にはアップテンポの曲が対応するよう設定されていたが、逆にバラードの曲が対応するようにしてもよい。また、選曲のために用いられるパラメータや、各パラメータに対応する点数などは、ユーザの好みに応じて適宜設定されてよい。 It should be noted that the present disclosure is not limited to the above embodiments, and can be modified as appropriate without departing from the spirit of the present disclosure. For example, in the above description, an up-tempo song is set to correspond to a high degree of activity in the flow of people, but conversely, a ballad song may correspond. Also, the parameters used for song selection and the points corresponding to each parameter may be appropriately set according to the user's preference.

100 再生装置
110 撮像部
120 集音部
130 センサ部
140 出力部
200 端末(選曲装置)
210 環境情報取得部
220 ユーザ情報取得部
230 算出部
240 選曲部
270 入出力部
280 撮像部
290 記憶部
291 パラメータ情報
292 選曲用属性情報
293 楽曲情報
1000 選曲システム
100 playback device 110 imaging unit 120 sound collection unit 130 sensor unit 140 output unit 200 terminal (music selection device)
210 environment information acquisition unit 220 user information acquisition unit 230 calculation unit 240 music selection unit 270 input/output unit 280 imaging unit 290 storage unit 291 parameter information 292 attribute information for music selection 293 music information 1000 music selection system

Claims (5)

ユーザの周囲の環境に関する環境情報を取得する環境情報取得部と、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出部と、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲部と、を備える
選曲装置。
an environment information acquisition unit that acquires environment information about the environment around the user;
a calculation unit that calculates the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
A music selection device, comprising: a music selection unit that selects music based on the degree of activity of the flow of people and attribute information indicating attributes of the music.
前記環境情報は、撮像情報及び音声情報のうち少なくとも前記撮像情報を含み、
前記人の速度は、前記撮像情報から検出される人の動きベクトルに基づいて求められ、
前記人の密集度は、前記撮像情報及び前記音声情報の少なくとも一方に基づいて求められる
請求項1に記載の選曲装置。
the environment information includes at least the imaging information of imaging information and audio information;
The speed of the person is obtained based on a motion vector of the person detected from the imaging information,
The music selection device according to claim 1, wherein the density of people is obtained based on at least one of the imaging information and the audio information.
前記楽曲が再生中である場合、
前記算出部は、前記楽曲の再生開始後における前記人流の活性度合いを新たに算出し、
前記選曲部は、新たに算出された前記人流の活性度合いから求められる選曲用属性情報と、再生中の前記楽曲の属性情報と、を比較し、両者の一致度が所定値未満である場合、再生中の前記楽曲を所定のタイミングで終了させ、新たに算出された前記人流の活性度合いに応じた楽曲を選択して再生させる
請求項1又は2に記載の選曲装置。
If the song is being played,
The calculation unit newly calculates the degree of activity of the flow of people after the start of reproduction of the music,
The music selection unit compares the attribute information for music selection obtained from the newly calculated degree of activity of the flow of people with the attribute information of the song being played. 3. The music selection device according to claim 1, wherein the music being reproduced is terminated at a predetermined timing, and a music corresponding to the newly calculated degree of activity of the flow of people is selected and reproduced.
ユーザの周囲の環境に関する環境情報を取得する環境情報取得ステップと、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、を含む
選曲方法。
an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
a song selection step of selecting a song based on the degree of activity of the flow of people and attribute information indicating an attribute of the song.
ユーザの周囲の環境に関する環境情報を取得する環境情報取得ステップと、
前記環境情報から求められる人の速度及び人の密集度に基づいて、人流の活性度合いを算出する算出ステップと、
前記人流の活性度合いと、楽曲の属性を示す属性情報と、に基づいて楽曲を選択する選曲ステップと、をコンピュータに実行させる
プログラム。
an environment information acquisition step of acquiring environment information about the environment surrounding the user;
a calculation step of calculating the degree of activity of the flow of people based on the speed of people and the density of people obtained from the environmental information;
A program for causing a computer to execute a song selection step of selecting a song based on the degree of activity of the flow of people and attribute information indicating attributes of the song.
JP2022024760A 2022-02-21 2022-02-21 Music selection device, music selection method, and program Pending JP2023121414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022024760A JP2023121414A (en) 2022-02-21 2022-02-21 Music selection device, music selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022024760A JP2023121414A (en) 2022-02-21 2022-02-21 Music selection device, music selection method, and program

Publications (1)

Publication Number Publication Date
JP2023121414A true JP2023121414A (en) 2023-08-31

Family

ID=87798197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022024760A Pending JP2023121414A (en) 2022-02-21 2022-02-21 Music selection device, music selection method, and program

Country Status (1)

Country Link
JP (1) JP2023121414A (en)

Similar Documents

Publication Publication Date Title
CN107683399B (en) Sound output device, electronic device, and control method thereof
KR20170100007A (en) System and method for creating listening logs and music libraries
US20190018644A1 (en) Soundsharing capabilities application
JP6812604B2 (en) Audio activity tracking and summarization
US10409547B2 (en) Apparatus for recording audio information and method for controlling same
CN109147745B (en) Song editing processing method and device, electronic equipment and storage medium
CN108197185A (en) A kind of music recommends method, terminal and computer readable storage medium
TW201820315A (en) Improved audio headset device
CN107994879A (en) Volume control method and device
JP7167910B2 (en) Information processing device, information processing method, and program
JP2010020133A (en) Playback apparatus, display method, and display program
WO2017088527A1 (en) Audio file re-recording method, device and storage medium
JP6266427B2 (en) Apparatus, program, and method for selecting music according to user&#39;s stress level
JP2014130467A (en) Information processing device, information processing method, and computer program
JPWO2017094326A1 (en) Information processing apparatus, information processing method, and program
WO2019146309A1 (en) Information processing device, information processing method, and program
Krzyzaniak et al. Six types of audio that DEFY reality! A taxonomy of audio augmented reality with examples
JP5498341B2 (en) Karaoke system
JP7175120B2 (en) Singing aid for music therapy
JP2023121414A (en) Music selection device, music selection method, and program
US11397799B2 (en) User authentication by subvocalization of melody singing
JP2013168878A (en) Recording device
CN111696566B (en) Voice processing method, device and medium
JP2007236826A (en) Game machine with music tempo discriminating function
CN111696565B (en) Voice processing method, device and medium