JP2006092430A - Music reproduction apparatus - Google Patents

Music reproduction apparatus Download PDF

Info

Publication number
JP2006092430A
JP2006092430A JP2004279461A JP2004279461A JP2006092430A JP 2006092430 A JP2006092430 A JP 2006092430A JP 2004279461 A JP2004279461 A JP 2004279461A JP 2004279461 A JP2004279461 A JP 2004279461A JP 2006092430 A JP2006092430 A JP 2006092430A
Authority
JP
Japan
Prior art keywords
music
user
atmosphere
category
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004279461A
Other languages
Japanese (ja)
Inventor
Hiroshi Ono
宏 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004279461A priority Critical patent/JP2006092430A/en
Publication of JP2006092430A publication Critical patent/JP2006092430A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To automatically reproduce music suitable for user situations and the atmosphere that an environment indicates without troublesome operations. <P>SOLUTION: A keyword detection part 2 detects prespecified keywords from user conversation contents, and an emotion information detection part 3 analyzes prosody information extracted from the user conversation contents to detect user emotion information. A user situation estimation part 4 estimates user situations from the detected keywords and the emotion information, and an atmosphere estimation part 5 classifies a current atmosphere into either of a plurality of categories based on objective information in a car cabin and the user situations, which are collected by an atmosphere factor information collection part 6. A category list, in which various kinds of music data stored in a music database 7 are linked to each classification category to be classified, is stored into a memory 8. A retrieval processing part 9 retrieves music data, which belongs to a category classified by the atmosphere estimation part 5, from the category list, and then retrieves the music data from the music database 7. A speaker unit 10 reproduces the music data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、楽曲の自動再生を行うようにした音楽再生装置に関する。   The present invention relates to a music playback device that performs automatic playback of music.

特許文献1には、ユーザが所望する楽曲を容易に選択して再生できるようにした音楽データ配信システムが提供されている。このシステムでは、ユーザがクライアント端末側のマイクを通じて所望の曲名或いはアーティスト名を入力すると、その音声入力信号が音楽配信サーバに送信されるようになっており、音楽配信サーバでは受信信号の音声認識処理を行った結果に基づいて曲名リストまたはアーティスト名リストを検索し、その検索結果リストをクライアント端末へ返信する構成となっている。そして、クライアント端末側では、返信されたリストを表示し、このリストの中からユーザの操作によって選択された曲を音楽配信サーバからダウンロードして再生するようになっている。
特開2002−341880号公報
Patent Document 1 provides a music data distribution system that enables a user to easily select and play a desired piece of music. In this system, when a user inputs a desired song name or artist name through a microphone on the client terminal side, the voice input signal is transmitted to the music distribution server, and the music distribution server performs voice recognition processing on the received signal. The song name list or artist name list is searched based on the result of performing and the search result list is returned to the client terminal. On the client terminal side, the returned list is displayed, and the music selected by the user's operation from the list is downloaded from the music distribution server and played back.
JP 2002-341880 A

近年のカーナビゲーションシステムにおいては、ミュージックサーバを利用した音楽再生装置を搭載したものが提供されており、このような装置に特許文献1のような構成を採用すれば付加価値の向上を実現できる。しかしながら、このような構成を採用した場合でも、選曲に当たってはユーザによる意識的な操作が必要になるため、意識的な操作もしたくないような気分のときには所望の楽曲の再生をすることができない。   In recent car navigation systems, a device equipped with a music playback device using a music server is provided, and if such a configuration as in Patent Document 1 is adopted, an added value can be improved. However, even when such a configuration is adopted, since a conscious operation by the user is required for selecting a song, it is impossible to reproduce a desired music piece when the user does not want to perform a conscious operation.

例えば、渋滞に巻き込まれている状況やこの状況に対処している運転者の状況などによっては、イライラしていて音楽を聴くといった気分になりにくい状況にあるため、自ら気分を落ち着かせるための音楽を選曲して演奏させることでこの状況を緩和するという意識も低下し、ますます気分がイライラする方向に増長してしまう傾向となる場合がある。
本発明は、上記事情に鑑みてなされたものであり、ユーザの状況や環境の状態などから推定されるその環境での雰囲気に適した演出効果の高い楽曲を自動再生することができるようにした音楽再生装置を提供することにある。
For example, depending on the situation involved in traffic jams or the situation of the driver who is dealing with this situation, it may be frustrating and difficult to listen to music, so music to calm yourself By selecting and playing a song, the consciousness of alleviating this situation also declines, and there is a tendency that the mood becomes increasingly frustrating.
The present invention has been made in view of the above circumstances, and is capable of automatically reproducing a musical composition with a high stage effect suitable for the atmosphere in the environment estimated from the user's situation and the environmental state. The object is to provide a music playback device.

請求項1記載の発明によれば、音声認識手段により、ユーザの発話内容から予め設定されたキーワードを検出し、感情解析手段により、ユーザの発話内容からプロソディ情報(アクセント、イントネーション、リズム、ポーズなどの韻律に関する情報)を抽出すると共に、そのプロソディ情報を分析してユーザの感情情報を検出し、状況推定手段によりこれらの検出したキーワードおよび感情情報に基づいてユーザの状況を予め設定された複数の状況パターンの何れかに分類する。   According to the first aspect of the invention, the voice recognition means detects a preset keyword from the user's utterance content, and the emotion analysis means detects the prosody information (accent, intonation, rhythm, pose, etc.) from the user's utterance content. Information on the prosody of the user), and the user's emotion information is detected by analyzing the prosody information, and the user's situation is set based on the detected keyword and emotion information by the situation estimation means. Classify one of the situation patterns.

また、雰囲気要因情報収集手段は、ユーザが置かれている環境を客観的に示す情報を雰囲気要因情報として収集し、雰囲気推定手段により、ユーザが置かれている環境に応じた雰囲気を状況推定手段により分類された状況パターンと雰囲気情報収集手段により収集された雰囲気要因情報とに基づいて予め設定された複数のカテゴリの何れかに分類するようになる。   The atmosphere factor information collecting means collects information indicating objectively the environment where the user is placed as atmosphere factor information, and the atmosphere estimation means is configured to determine the atmosphere according to the environment where the user is placed as the situation estimation means. Is classified into one of a plurality of categories set in advance based on the situation pattern classified by the above and the atmosphere factor information collected by the atmosphere information collecting means.

そして、記憶手段には音楽データベースに蓄積された多種類の音楽データを上記各カテゴリと対応付けた状態で区分したカテゴリリストが格納されており、検索手段は、このカテゴリリストから雰囲気段により分類されたカテゴリに属する音楽データを検索すると共に、その音楽データを音楽データベースから取得して出力する。再生手段は、このように出力される音楽データを再生するようになる。   The storage means stores a category list in which various types of music data stored in the music database are classified in association with the above categories, and the search means is classified according to the atmosphere level from the category list. Music data belonging to the selected category is retrieved, and the music data is acquired from the music database and output. The reproduction means reproduces the music data output in this way.

従って、ユーザの状況と環境とに相応しい楽曲が、面倒な操作を伴うことなく自動再生されることになる。例えば、雰囲気推定手段の推定結果に基づいた分類カテゴリとして、天候や騒がしさあるいはユーザが無意識に発する言葉などの要因からユーザがイライラしている状況の雰囲気であることが推定され、それに対応したカテゴリが設定されていた場合、当該カテゴリと対応した音楽データとしてイライラ感を緩和する効果があるものを設定しておけば、ユーザのイライラ感の増長を回避して気分リラックスさせるのに適した楽曲が再生されることになる。   Therefore, the music suitable for the user's situation and environment is automatically reproduced without a troublesome operation. For example, as a classification category based on the estimation result of the atmosphere estimation means, it is estimated that the atmosphere is in a situation where the user is frustrated from factors such as weather, noise, or words that the user unconsciously utters, and the corresponding category If the music data corresponding to the category is set to have an effect to alleviate the feeling of irritation, music suitable for relaxing the mood while avoiding the increase in the user's feeling of irritation Will be played.

請求項2の発明によれば、上記発明において、自動車などの車室内で聴くように配置された構成で、雰囲気要因情報収集手段を、ユーザが置かれている環境として車室内を対象として、雰囲気要因情報として、目的地、現在地、季節、時刻、天候、車速、ブレーキ回数、信号停止回数などの情報を収集するように構成し、雰囲気推定手段により、車室内の雰囲気を前記複数のカテゴリの何れかに分類するので、例えば、渋滞などに巻き込まれていて目的地への到着が遅れなかなか進まない状態でしかもユーザが不快な感情を示す言葉を無意識に発しているような雰囲気が推定されると、これを緩和するように楽曲が選定されて演奏されるようになる。この結果、運転中のユーザのイライラ感が緩和されリラックスした気分になれたり、イライラ感からくる危険な運転の抑制にもなる。   According to the invention of claim 2, in the above invention, the atmosphere factor information collecting means is configured to listen in the vehicle interior of an automobile or the like, and the atmosphere is intended for the vehicle interior as an environment where the user is placed. The factor information is configured to collect information such as destination, current location, season, time, weather, vehicle speed, number of brakes, number of signal stops, and the like. For example, if it is estimated that there is an atmosphere in which the user is unconsciously uttering words that indicate unpleasant emotions while being stuck in traffic jams, etc. The music is selected and played to alleviate this. As a result, the feeling of irritation of the user during driving is alleviated and the user feels relaxed, and the dangerous driving caused by the feeling of irritation can be suppressed.

請求項3の発明によれば、上記各発明において、ユーザの状況が楽しい感情を呈しているときを正の感情、イライラしていたり怒ったりしているなどの不快な感情を呈しているときを負の感情と分類したときに、雰囲気推定手段を、ユーザが置かれた環境の雰囲気をカテゴリに分類したときにそのカテゴリが負の感情に属する場合には、その負の感情を緩和させて正の感情に指向する傾向の音楽データを対応付けているので、少なくともユーザが負の感情の状態である雰囲気ではこれを緩和させるような音楽を提供することができ、楽曲の選定が疎んじられるような場合でも自動的にこれを回復させるように働かせることができる。特に自動車の運転中などにおいては、車室内の雰囲気によって運転中のユーザがイライラしたり不快な感情を持っていて無謀な運転をしがちになるような場合でもこれを緩和する方向に移行させることができるようになる。   According to the invention of claim 3, in each of the above inventions, when the user's situation presents a pleasant emotion, a positive emotion, or when the user presents an unpleasant emotion such as frustration or anger When the atmosphere is classified as a negative emotion, the atmosphere estimation means categorizes the atmosphere of the environment where the user is placed into a category, and if that category belongs to a negative emotion, the negative emotion is relaxed and positive. The music data that tends to be directed to the emotions of the music is associated, so at least in the atmosphere where the user is in a negative emotional state, music that can alleviate this can be provided, so that the selection of music is distracted In any case, it can work to recover this automatically. Especially when driving a car, even if the driving user feels frustrated or uncomfortable with the atmosphere in the passenger compartment and tends to drive recklessly, this should be shifted to relieve this. Will be able to.

請求項4の発明によれば、上記各発明において、音楽データベースを、通信回線を介してアクセス可能な音楽データサーバとしたので、音楽データベースを構成する音楽データサーバを複数の音楽再生装置で共用できることになるから、コスト低減を実現する上で有益になる。   According to the invention of claim 4, in each of the above inventions, the music database is a music data server accessible via a communication line, so that the music data server constituting the music database can be shared by a plurality of music playback devices. Therefore, it is useful for realizing cost reduction.

請求項5の発明によれば、上記各発明において、カテゴリとして対応させる音楽データが存在しないものを設定したので、ユーザにとって不要な楽曲が再生されてしまう事態を未然に防止できるようになる。   According to the invention of claim 5, in each of the above inventions, the music data that does not correspond as a category is set, so that it is possible to prevent a situation in which music unnecessary for the user is played.

(第1の実施の形態)
以下、本発明を車両に搭載された音楽再生装置に適用した第1実施例について図1を参照しながら説明する。
図1は、音楽再生装置の全体構成を機能ブロックの組合せにより示したものである。この図1において、マイクロホン1は、ユーザ(車両運転者)の発する音声を効率良く受音できる場所に設置されたもので、その入力音声信号を音声認識手段としてのキーワード検出部2及び感情解析手段としての感情情報検出部3に与える。
(First embodiment)
A first embodiment in which the present invention is applied to a music playback device mounted on a vehicle will be described below with reference to FIG.
FIG. 1 shows the overall configuration of a music playback device by a combination of functional blocks. In FIG. 1, a microphone 1 is installed at a place where a user (vehicle driver) can efficiently receive a voice, and an input voice signal is used as a keyword recognition unit 2 and an emotion analysis unit. Is given to the emotion information detection unit 3.

この場合、キーワード検出部2は、マイクロホン1からの音声入力信号に基づいた音声認識処理を常時において行っており、その処理により認識したユーザの発話内容から予め設定されたキーワードを検出する機能を有する。このときのキーワードとしては、ユーザがそのときの走行状態や環境などに応じて変化する心理状態(精神的状況)や体調(肉体的状況)に応じて無意識発話する可能性が高い言語的情報、例えば「オソイ」、「イライラスル」、「ジュウタイ(渋滞)」、「ハヤク(早く)」、「マダカナ」、「アーア」などのようなイライラ感や不快感を示すいわば負の感情として定義できる言語的情報や、「ヨシッ」、「ヤッタ」、「チョウシイイ」などの良い気分の状態を示すいわば正の感情として定義できる言語的情報などが設定される。   In this case, the keyword detection unit 2 always performs voice recognition processing based on the voice input signal from the microphone 1, and has a function of detecting a preset keyword from the user's utterance content recognized by the processing. . As keywords at this time, linguistic information that the user is likely to utter unconsciously according to the psychological state (mental situation) or physical condition (physical situation) that changes according to the driving state or environment at that time, For example, languages that can be defined as negative emotions that indicate annoyance or discomfort such as “Osoi”, “Irritation”, “Juutai (congestion)”, “Hayak (early)”, “Madakana”, “Aa”, etc. Linguistic information that can be defined as positive emotions that indicate a good mood state such as “Yoshi”, “Yatta”, “Butterfly”, etc. is set.

また、感情情報検出部3は、マイクロホン1からの音声入力信号からプロソディ情報(アクセント、イントネーション、リズム、ポーズなどの韻律に関する情報)を抽出すると共に、抽出したプロソディ情報を分析してユーザの感情情報を検出する処理を常時に行う構成となっている。つまり、感情情報検出部3は、ユーザの無意識発話に含まれる非言語的情報(音の強さ、長さ、高さ、音調、休止などの音声的特徴)からユーザの心理状態を示す感情情報を得る構成となっている。この場合、ユーザの心理状態を示す感情情報としては、例えば上述した負の感情に相当する強い語気の言葉や、ため息などの非言語情報や、逆に正の感情に相当する歌や口笛などの非言語情報がある。   The emotion information detection unit 3 extracts prosody information (information on prosody such as accent, intonation, rhythm, and pose) from the voice input signal from the microphone 1 and analyzes the extracted prosody information to analyze user emotion information. It is the structure which always performs the process which detects this. That is, the emotion information detection unit 3 represents emotion information indicating a user's psychological state from non-verbal information (speech characteristics such as sound intensity, length, height, tone, and pause) included in the user's unconscious utterance. It is the composition which obtains. In this case, as emotion information indicating the user's psychological state, for example, strong verbal words corresponding to the negative emotion described above, non-linguistic information such as sigh, and conversely a song or whistle corresponding to a positive emotion There is non-linguistic information.

状況推定手段としてのユーザ状況推定部4は、キーワード検出部3が検出したキーワード及び感情情報検出部3が検出した感情情報に基づいて、ユーザの精神的状況及び肉体的状況を推定すると共に、その推定結果を予め決められた複数のカテゴリの何れかに分類し、分類した結果を示すカテゴリ情報を雰囲気推定部5へ出力する機能を有する。この場合の分類カテゴリとしては、例えば、「怒っている」、「不快である」、「イライラする」、「眠い」、「疲れた」、「気分が悪い」などの負の感情に対応した状況や「楽しい」、「リラックス」、「いい気分」などの正の感情に対応した状況が設定される。   The user situation estimation unit 4 as the situation estimation means estimates the user's mental situation and physical situation based on the keyword detected by the keyword detection unit 3 and the emotion information detected by the emotion information detection unit 3, and the The estimation result is classified into any of a plurality of predetermined categories, and category information indicating the classification result is output to the atmosphere estimation unit 5. The classification category in this case is, for example, a situation corresponding to negative emotions such as “angry”, “uncomfortable”, “irritated”, “sleepy”, “tired”, “bad feeling”, etc. Situations corresponding to positive emotions such as “Fun”, “Relax”, “Good mood” are set.

雰囲気推定手段としての雰囲気推定部5は、ユーザ状況推定部4により推定したユーザの状況のデータと、雰囲気要因情報収集手段としての雰囲気要因情報収集部6から入力される雰囲気要因情報とから車室内の雰囲気を推定する。この場合、雰囲気要因情報収集部6は、複数の項目について雰囲気要因情報を設定しており、運転中の車室内の雰囲気を種々の角度から推定するためにその雰囲気要因情報の項目を設定している。   The atmosphere estimation unit 5 as an atmosphere estimation unit is a vehicle interior based on the user situation data estimated by the user situation estimation unit 4 and the atmosphere factor information input from the atmosphere factor information collection unit 6 as the atmosphere factor information collection unit. Estimate the atmosphere. In this case, the atmosphere factor information collection unit 6 sets the atmosphere factor information for a plurality of items, and sets the item of the atmosphere factor information in order to estimate the atmosphere in the vehicle interior during driving from various angles. Yes.

図2はその項目と雰囲気要因情報の種類を示すもので、例えば項目として「現在地」、「目的地」、「季節」、「時刻」、「天候」、「車速」、「ブレーキ回数」あるいは「信号停止回数」などの情報を車両に設けた各種のセンサや、ナビゲーション装置などから得られる情報に基づいて得るようになっている。
ここでは、「現在地」あるいは「目的地」などは、ユーザが現在走行している地理的環境がどのようになっているか、あるいはこれから向かう目的地がどのような地理的環境のところかなどの点から車室内の雰囲気につながる要素を分析しようとするものである。また、「季節」、「時刻」、「天候」などの情報は、車外の環境として自然の変化の影響による状況がどのような状態であるかを分析するものである。そして、「車速」、「ブレーキ回数」あるいは「信号停止回数」などの情報は、ユーザが運転する車の走行に関する環境がどのようになっているかという点を要素として分析するためのものである。
FIG. 2 shows the items and types of atmosphere factor information. For example, the items are “present location”, “destination”, “season”, “time”, “weather”, “vehicle speed”, “brake count”, “ Information such as “the number of times of signal stop” is obtained based on information obtained from various sensors provided in the vehicle, a navigation device, or the like.
Here, “current location” or “destination” refers to the geographical environment where the user is currently traveling, or the geographic environment where the destination is going to be. It is intended to analyze the factors that lead to the atmosphere in the vehicle interior. In addition, information such as “season”, “time”, and “weather” is used to analyze the state of the environment outside the vehicle due to the influence of natural changes. The information such as “vehicle speed”, “brake count”, or “signal stop count” is used to analyze, as an element, how the environment related to the driving of the vehicle that the user drives is.

音楽データベース7は、ハードディスク装置のような大容量記憶媒体より成るもので、多種類の楽曲に対応した音楽データが蓄積されている。蓄積する音楽データは、購入時に予め記憶されたものや各種の音楽媒体から直接取り込んで記憶したもの、あるいは外部から通信などの機能を利用して取り込んだものも含まれる。また、音楽データの蓄積に当たっては、音声情報圧縮技術(例えばMP3)を利用することによりデータ量の低減を図ることが可能である。なお、この音楽データベースは、専用のものを設けても良いし、車両に搭載されたカーナビゲーションシステムのための音楽データサーバを利用しても構成することができる。   The music database 7 is composed of a large-capacity storage medium such as a hard disk device, and stores music data corresponding to various types of music. The stored music data includes data stored in advance at the time of purchase, data directly stored from various music media, and data acquired using functions such as communication from the outside. In addition, when storing music data, it is possible to reduce the amount of data by using an audio information compression technique (for example, MP3). Note that this music database may be dedicated, or may be configured using a music data server for a car navigation system mounted on a vehicle.

記憶手段としてのメモリ8は、フラッシュメモリに代表される書き換え可能な不揮発性メモリ(或いは電池バックアップされたRAM)により構成されたもので、記憶装置7に記憶された音楽データを前記雰囲気推定部5による推定対象の各カテゴリと対応付けた状態で区分したカテゴリリストが格納されている。この場合、各カテゴリには、そのカテゴリに分類されたユーザの精神的状況や肉体的状況を改善できると考えられる少なくとも1曲分以上の楽曲についての音楽データが対応付けられる。   The memory 8 as a storage means is constituted by a rewritable nonvolatile memory (or a battery-backed RAM) typified by a flash memory, and the music data stored in the storage device 7 is used as the atmosphere estimation unit 5. A category list is stored that is classified in association with each category to be estimated. In this case, each category is associated with music data for at least one piece of music that is considered to be able to improve the mental situation and physical situation of the user classified into the category.

具体的には、例えば、ユーザの覚醒効果がある音楽データ(音量の変化が大きい楽曲、ビートが利いた楽曲など)を「眠い」というカテゴリに対応付け、ユーザの気分高揚効果がある音楽データ(アップテンポな楽曲など)を「疲れている」というカテゴリに対応付け、ユーザのリラクゼーション効果がある音楽データ(例えばヒーリング系の楽曲)を、「イライラする」というカテゴリに対応付けることが考えられる。   Specifically, for example, music data having a user's arousal effect (music having a large change in volume, music having a beat, etc.) is associated with the category “sleepy”, and music data having a user's mood-enhancing effect ( It is conceivable that uptempo music or the like is associated with the category “tired” and music data (for example, healing music) having a user's relaxation effect is associated with the category “irritated”.

尚、ユーザ状況推定部4による分類カテゴリには、対応する音楽データが存在しないものも設定されている。例えば、ユーザの精神的状況及び/または肉体的状況が「リラックスしている」という正の感情に対応したカテゴリに分類された場合には、そのユーザに対し音楽を流すことが逆効果になる可能性もあるため、当該カテゴリについては対応する音楽データが存在しない構成とすることが考えられる。   In addition, the classification category by the user situation estimation unit 4 is also set to have no corresponding music data. For example, if a user's mental and / or physical situation is classified into a category corresponding to the positive feeling of “relaxed”, playing music to the user can be counterproductive. For this category, it can be considered that the corresponding music data does not exist.

雰囲気推定部8から出力されるカテゴリ情報を受ける前記検索処理部9は、メモリ8内のカテゴリリストから当該カテゴリ情報により示されるカテゴリに属する音楽データを検索し、その音楽データを記憶装置6から取得して再生手段としてのスピーカユニット10へ出力する。このとき、上記カテゴリ内に複数の音楽データが存在する場合には、ランダムに選択した音楽データを出力する。   The search processing unit 9 that receives the category information output from the atmosphere estimation unit 8 searches the category list in the memory 8 for music data belonging to the category indicated by the category information, and acquires the music data from the storage device 6. And output to the speaker unit 10 as a reproducing means. At this time, if a plurality of music data exists in the category, randomly selected music data is output.

スピーカユニット10は、通常の音楽データの再生やデータ圧縮された状態の音楽データの再生に必要なデコーダ及びアンプなどを内蔵した音楽再生部10aと、車室内に配置されたスピーカ10bとを備えており、与えられた音楽データに応じた楽曲をスピーカ10bにより再生する。
次に、上記構成の作用について説明する。自動車に乗って走行している状態では、その置かれている環境が様々に変化する。そして、その環境の変化はユーザの心理的状況などにも影響を与えることがあり、ひいては運転状態に影響を及ぼすことがある。このシステムは、このような車室内の雰囲気が運転に悪影響を及ぼさないようにするために自動的にその雰囲気を判断してこれを緩和するような音楽を提供するものである。
The speaker unit 10 includes a music playback unit 10a including a decoder and an amplifier necessary for playback of normal music data and music data in a compressed state, and a speaker 10b disposed in the passenger compartment. The music corresponding to the given music data is reproduced by the speaker 10b.
Next, the operation of the above configuration will be described. When the vehicle is running on a car, the environment in which it is placed changes variously. And the change of the environment may affect a user's psychological situation etc., and may influence a driving state by extension. This system provides music that automatically determines the atmosphere and relaxes it so that the atmosphere in the vehicle interior does not adversely affect driving.

その動作過程は次のとおりである。いま、例えば走行中の自動車が渋滞に巻き込まれた状態にあると仮定してそのときの動作を説明する。まず、渋滞中においては、運転者であるユーザは、無意識に「オソイ」などと発話していたり、ため息を発していたり、あるいは愚痴っぽい言葉が出ている場合がある。
キーワード検出部2は、予め設定されたキーワードが登録されているので、ユーザが発した言葉を音声認識により得るとそのキーワードを検出する。キーワードとしては、例えばユーザがその心理状態や体調の変化に応じて無意識発話する可能性が高い言語的情報(「ネムイ」、「ネムタイ」、「ネムーッ」、「ツカレタ」、「クタビレタ」、「アーア(ため息)」、「アツイ」、「オソイ」、「クルシイ」など)が設定されているから、そのキーワード検出部2を通じてユーザの心理状態や体調を検出することが可能になる。
The operation process is as follows. Now, for example, the operation at that time will be described on the assumption that a running automobile is in a state of being involved in a traffic jam. First, in a traffic jam, a user who is a driver may unconsciously utter “Osoi” or the like, sigh, or have a bitter word.
Since a keyword set in advance is registered, the keyword detection unit 2 detects the keyword when a word uttered by the user is obtained by voice recognition. As keywords, for example, linguistic information (“nemui”, “nemutai”, “nemutsu”, “tsukareta”, “kutabireta”, “arua” that users are likely to utter unconsciously according to changes in their psychological state and physical condition. (Sigh) ”,“ hot ”,“ good ”,“ cursie ”, etc.) are set, and it becomes possible to detect the user's psychological state and physical condition through the keyword detection unit 2.

ここでは、例えば、「オソイ」、「マダカ」などのキーワードの検出に応じてユーザが渋滞に遭遇してイライラしている状態にあると判断できる。また、この他に、「ネムイ」、「ネムタイ」、「ネムーッ」などのキーワードの検出に応じてユーザが眠気を催した状態にあると判断でき、「ツカレタ」、「クタビレタ」、「アーア(ため息)」などのキーワードの検出に応じて、ユーザが疲れた状態にあると判断できる。   Here, for example, it can be determined that the user encounters a traffic jam and is frustrated in response to detection of keywords such as “Osoi” and “Madaka”. In addition, it can be determined that the user is drowsy in response to the detection of keywords such as “nemui”, “nemutai”, “nemutsu”, and the like, “Tsukaleta”, “Kutabileta”, “Aaa (sigh) It can be determined that the user is in a tired state in response to detection of a keyword such as “)”.

一方、ユーザの発話内容からプロソディ情報を抽出すると共に、そのプロソディ情報を分析してユーザの感情情報を検出する感情情報検出部3が設けられているから、ユーザの無意識発話に含まれる非言語的情報(音の強さ、長さ、高さ、音調、休止などの音声的特徴)からユーザの心理状態を示す感情情報を得ることができる。
ユーザ状況推定部4は、キーワード検出部2が検出したキーワード及び感情情報検出部3が検出した感情情報に基づいてユーザの精神的状況及び肉体的状況を推定し、その推定結果を予め設定された複数のカテゴリ(「イライラする」、「眠い」、「疲れた」、「疲れていて眠い」、「気分が優れない」など)の何れかに分類する。
On the other hand, since the prosody information is extracted from the utterance content of the user and the emotion information detection unit 3 that detects the emotion information of the user by analyzing the prosody information is provided, the nonverbal included in the unconscious utterance of the user Emotion information indicating the user's psychological state can be obtained from the information (speech characteristics such as sound intensity, length, height, tone, and pause).
The user situation estimation unit 4 estimates the user's mental situation and physical situation based on the keyword detected by the keyword detection unit 2 and the emotion information detected by the emotion information detection unit 3, and the estimation result is preset. It is classified into one of a plurality of categories (“irritated”, “sleepy”, “tired”, “tired and sleepy”, “not feeling good”, etc.).

次に、雰囲気推定部5は、自動車の走行状態に応じた客観的な情報として雰囲気要因情報収集部6から前述した図2に示したような項目についてその雰囲気要因情報を得ることができる。そして、これらの雰囲気要因情報と前述のユーザ状況に対応した状況の情報とから現在の車室内の雰囲気を推定する。これは、ユーザ状況推定部4において推定したユーザ状況が客観的に車室内の状況に連動したものかどうかをある程度判定するためのもので、客観的状況のデータとユーザ状況とが一致してカテゴリに分類された雰囲気になっていることをもって車内の雰囲気を判断しようというものである。   Next, the atmosphere estimation unit 5 can obtain the atmosphere factor information for the items shown in FIG. 2 described above from the atmosphere factor information collection unit 6 as objective information according to the driving state of the automobile. Then, the present vehicle interior atmosphere is estimated from the atmosphere factor information and the situation information corresponding to the user situation described above. This is to determine to some extent whether the user situation estimated by the user situation estimation unit 4 is objectively linked to the situation in the vehicle interior. It is intended to determine the atmosphere in the car by having an atmosphere classified as.

メモリ8には、音楽データベースである記憶装置6に蓄積された多種類の音楽データを上記各カテゴリと対応付けた状態で区分したカテゴリリストが格納されており、検索処理部5は、このカテゴリリストから雰囲気推定部5により分類されたカテゴリに属する音楽データを検索すると共に、その音楽データを記憶装置6から取得してスピーカユニット8へ出力する。スピーカユニット8は、このように出力される音楽データをスピーカ8bによって再生するようになる。   The memory 8 stores a category list in which various types of music data stored in the storage device 6 that is a music database are associated with the above categories, and the search processing unit 5 stores the category list. Music data belonging to the category classified by the atmosphere estimation unit 5 is retrieved, and the music data is acquired from the storage device 6 and output to the speaker unit 8. The speaker unit 8 reproduces the music data output in this way through the speaker 8b.

これにより、ユーザの状況と環境の雰囲気に適した楽曲が、面倒な操作を伴うことなく自動再生されることになる。ここでは、ユーザ状況推定部4の推定結果に基づいた分類カテゴリとして、渋滞に巻き込まれてユーザのイライラする気分を示す「イライラ状態」というカテゴリが設定され、そのカテゴリと対応した音楽データとして気分をリラックスさせる効果があるものが設定されているから、ユーザのイライラ感の増長という雰囲気を解消するのに適した楽曲が再生されることになる。   Thereby, the music suitable for the user's situation and the atmosphere of the environment is automatically reproduced without a troublesome operation. Here, as a classification category based on the estimation result of the user situation estimation unit 4, a category of “irritated state” indicating a feeling that the user is frustrated by being involved in a traffic jam is set, and the mood is expressed as music data corresponding to the category. Since those having the effect of relaxing are set, music suitable for eliminating the atmosphere of increasing the irritability of the user is reproduced.

また、上記とは逆に、分類カテゴリとして、現在地や目的地の地理的環境などとユーザの良好な状態を示す状況から「良好な気分」というカテゴリが設定された場合には、そのカテゴリと対応した音楽データとしてその環境の雰囲気に適合した音楽が再生されることになる。例えば、海岸沿いを走行している場合や海岸沿いに近づいている場合には海にちなんだ曲で明るい曲が選ばれ、またスキー場に向かっている場合には雪やスキーに関連する快適な曲を選ぶなどの設定がなされる。   Contrary to the above, if a category of “good mood” is set as a classification category based on the current location, the geographical environment of the destination, etc., and a situation that indicates a good state of the user, it corresponds to that category. As a result, music suitable for the atmosphere of the environment is reproduced. For example, if you are driving along the coast or approaching the coast, a bright song is chosen for the sea, and if you are heading to the ski area, you will be comfortable with snow and skiing. Settings such as selecting a song are made.

この場合、ユーザ状況推定部4による分類カテゴリには、対応する音楽データが存在しないもの(例えば、ユーザの精神的状況及び/または肉体的状況が「リラックスしている」というカテゴリ)も設定されているから、ユーザにとってとりたてて自動的に選曲した曲を提供する必要のない状況においては、不用意に音楽を提供してかえって逆効果になるようなことを未然に防止できるようになる。   In this case, a category for which the corresponding music data does not exist (for example, a category in which the user's mental situation and / or physical situation is “relaxed”) is also set as the classification category by the user situation estimation unit 4. Therefore, in a situation where it is not necessary for the user to provide a song that has been selected automatically, it is possible to prevent inadvertently providing music and causing adverse effects.

このような本実施形態によれば、車室内の雰囲気を雰囲気推定部5により推定して雰囲気に対応する音楽に自動的に切替えて流すことができるので、ユーザの状況や雰囲気などが渋滞状態でイライラしているなどの感情を抑制する効果がある。また、このようにイライラした気分を緩和できることから、つい危険な運転をしがちな状況を回避してリラックスした気分に導くことができるようになる。さらに、目的地やその時の天候状態などに対応して雰囲気に適した音楽に切替えて提供することができるので、運転状態の雰囲気をより効果的に演出することができるようになる。   According to this embodiment, since the atmosphere in the passenger compartment can be estimated by the atmosphere estimation unit 5 and automatically switched to music corresponding to the atmosphere, the user's situation or atmosphere can be in a congested state. It has the effect of suppressing emotions such as frustration. In addition, since such a frustrating mood can be alleviated, it is possible to avoid a situation that tends to be a dangerous driving and to lead to a relaxed mood. Furthermore, since the music suitable for the atmosphere can be switched and provided according to the destination and the weather conditions at that time, the atmosphere in the driving state can be more effectively produced.

また、ユーザの状況が負の感情にあるときにその車室内の雰囲気を緩和して、ユーザの気分をリラックスさせることができると共に、ユーザの状況が正の感情にあるときにその車室内の雰囲気をさらに盛り上げてよりエンターテインメント性の高い環境を作り上げることもできる。また、これとは逆に、ユーザが正の感情のときには特に自動的に音楽を提供することをしないことで、適切に対応するということもできる。   Also, when the user's situation is negative emotion, the atmosphere in the vehicle interior can be relaxed to relax the user's mood, and when the user's situation is positive emotion, It is possible to create a more entertaining environment by further boosting. On the other hand, when the user has a positive emotion, it is possible to respond appropriately by not automatically providing music.

いろんな状況で適切な曲に切り替えるためのモードを設けて使用者が選べるようにすることでよりカスタマイズさせることができる。また、学習機能を設けることで、その使用者に相応しい音楽をタイムリーに提供することができるようになる。
カテゴリや対応する曲を使用者自らがプログラムすることができるようにすることもできる。この場合には、複雑にしないで、簡単な操作で対応できるようにしてもよい。
It can be further customized by providing a user with a mode for switching to an appropriate song in various situations. Further, by providing a learning function, music suitable for the user can be provided in a timely manner.
It is also possible to allow the user to program the category and the corresponding song. In this case, it may be possible to cope with a simple operation without being complicated.

また、本実施形態では、音楽データベース7を、検索処理部9に対し直接的に接続した構成としているから、検索処理部5から音楽データベース7に直接的にアクセスできる。このため、音楽データを取得する速度が速くなって楽曲再生までのレスポンスが良好になる。   In the present embodiment, the music database 7 is directly connected to the search processing unit 9, so that the search database 5 can directly access the music database 7. For this reason, the speed at which the music data is acquired is increased, and the response until the music reproduction is improved.

(第2の実施の形態)
図2は本発明の第2の実施形態を示すもので、第1の実施形態と異なるところは、音楽データベース7に代えて外部から通信により楽曲データを取り入れるように構成したところである。
(Second Embodiment)
FIG. 2 shows a second embodiment of the present invention. The difference from the first embodiment is that music data is taken in by communication from the outside instead of the music database 7.

図2において、検索処理部9には外部と通信可能な通信部11が接続されている。この通信部11は、無線通信網およびインターネットなどの通信網12を介して音楽データサーバ13にアクセス可能に構成されている。音楽データサーバ13は、前述と同様の音楽データベース14がリンクされており、外部からのアクセスに応じて要求された楽曲データを提供する。   In FIG. 2, a communication unit 11 that can communicate with the outside is connected to the search processing unit 9. The communication unit 11 is configured to be accessible to the music data server 13 via a communication network 12 such as a wireless communication network and the Internet. The music data server 13 is linked with a music database 14 similar to that described above, and provides music data requested in response to an external access.

なお、図2に示す構成では、第1の実施形態で示した音楽再生装置側の音楽データベース7(図1参照)を省略して示しているが、この音楽データベース7も同時に設ける構成としてもよい。
このような構成とした本実施例によれば、音楽データベース14を備えた音楽データサーバ13を複数の音楽再生装置で共用できることになるから、コスト低減を実現する上で有益になる。また、ユーザにとっては、音楽データサーバ13側の容量が確保されていれば、自動車側に大容量の音楽データベース7を設けなくとも制約を受けることなく広範囲な最新の楽曲の提供を受けることができるようになる。
なお、楽曲の再生方式は、楽曲データを全て受信した状態で再生することもできるし、いわゆるストリーミング再生をすることもできる。
In the configuration shown in FIG. 2, the music database 7 (see FIG. 1) on the music playback device side shown in the first embodiment is omitted, but the music database 7 may be provided at the same time. .
According to the present embodiment having such a configuration, the music data server 13 including the music database 14 can be shared by a plurality of music playback apparatuses, which is beneficial in realizing cost reduction. Further, for the user, if the capacity on the music data server 13 side is secured, a wide range of latest music can be provided without restriction without providing a large-capacity music database 7 on the car side. It becomes like this.
Note that the music playback method can be played with all the music data received, or so-called streaming playback.

(他の実施形態)
本発明は、上記実施形態にのみ限定されるものではなく、次のように変形または拡張できる。
(Other embodiments)
The present invention is not limited to the above embodiment, and can be modified or expanded as follows.

ユーザ状況推定部4は、ユーザの精神的状況及び肉体的情報の双方を推定する構成としたが、それら精神的状況及び肉体的情報の少なくとも一方を推定できる構成であれば良い。「楽しい」という正の感情を検出したときには楽曲を再生しない構成としたが、その種の正の感情を検出したときに、当該感情を持続或いは更に高める効果がある楽曲を再生する構成としても良い。車両に搭載された音楽再生装置に適用した例を説明したが、音楽再生装置全般に適用可能である。   The user situation estimation unit 4 is configured to estimate both the mental situation and physical information of the user, but may be configured to be able to estimate at least one of the mental situation and physical information. When a positive emotion of “fun” is detected, the music is not played. However, when such a positive emotion is detected, a music that has an effect of sustaining or further enhancing the emotion may be played. . Although an example in which the present invention is applied to a music playback device mounted on a vehicle has been described, the present invention can be applied to music playback devices in general.

自動車以外にも家庭用の音楽再生装置や、大勢の人が集まるホールなどの環境などに設置する音楽再生装置など種々の音楽再生装置に適用することも可能である。
車室内の雰囲気は、同じ客観的環境にあっても使用しているユーザの状況によって異なるカテゴリになるし、時間の経過と共にユーザの状況に応じて同じ対応をするのでは飽きもくるので、学習機能を設けたり、予め様々な対応モードのパターンを準備しておいて選択可能に構成することもできる。
In addition to automobiles, the present invention can also be applied to various music playback devices such as home music playback devices and music playback devices installed in environments such as halls where many people gather.
The atmosphere in the passenger compartment becomes a different category depending on the situation of the user who is using it even in the same objective environment, and it becomes tiresome to do the same according to the situation of the user over time, so learning It is also possible to provide a function or to prepare a pattern of various corresponding modes in advance so that it can be selected.

学習機能としては、例えば、ある場面で採用したカテゴリとその楽曲データを再生したときの反応をフィードバックして良い方向に作用したかあまり効果がなかったかなどを判定して次回の判定機能に加味するといった機能を設けることである。これにより、ユーザの状況や車室内の雰囲気により適合した自動選曲を提供することができる。
また、カテゴリーに対応付ける楽曲は使用者が好みに応じて指定するようにしても良い。この場合、既定の楽曲を削除したり、既定のリストにユーザが指定するものを追加するなどの機能を設けることが可能である。
As a learning function, for example, the category adopted in a certain scene and the reaction when the music data is played back are fed back in a good direction or it is not so effective and added to the next judgment function. Is to provide such a function. Thereby, automatic music selection suitable for the user's situation and the atmosphere in the passenger compartment can be provided.
Also, the music associated with the category may be designated by the user according to his / her preference. In this case, it is possible to provide functions such as deleting a default music piece or adding a user-designated list to a default list.

本発明の第1の実施形態を示す全体の機能ブロック図1 is an overall functional block diagram showing a first embodiment of the present invention. 分類する複数のカテゴリーの内容を示す図Diagram showing the contents of multiple categories to be classified 本発明の第2の実施形態を示す図1相当図FIG. 1 equivalent diagram showing a second embodiment of the present invention

符号の説明Explanation of symbols

1はマイクロホン、2はキーワード検出部(音声認識手段)、3は感情情報検出部(感情解析手段)、4はユーザ状況推定部(状況推定手段)、5は雰囲気推定部(雰囲気推定手段)、6は雰囲気要因情報収集部(雰囲気要因情報収集手段)、7、14は音楽データベース、8メモリ、9は検索処理部(検索手段)、10はスピーカユニット(再生手段)、11は通信部、12は通信網、13は音楽データサーバである。

1 is a microphone, 2 is a keyword detection unit (speech recognition unit), 3 is an emotion information detection unit (emotion analysis unit), 4 is a user situation estimation unit (situation estimation unit), 5 is an atmosphere estimation unit (atmosphere estimation unit), 6 is an atmosphere factor information collection unit (atmosphere factor information collection unit), 7 and 14 are music databases, 8 memories, 9 is a search processing unit (search unit), 10 is a speaker unit (reproduction unit), 11 is a communication unit, 12 Is a communication network, and 13 is a music data server.

Claims (5)

ユーザの発話内容から予め設定されたキーワードを検出する音声認識手段と、
ユーザの発話内容からプロソディ情報を抽出すると共にそのプロソディ情報を分析してユーザの感情情報を検出する感情解析手段と、
前記音声認識手段及び感情解析手段の検出出力に基づいてユーザの状況を予め設定された複数の状況パターンの何れかに分類する状況推定手段と、
ユーザが置かれている環境を客観的に示す情報を雰囲気要因情報として収集する雰囲気要因情報収集手段と、
前記ユーザが置かれている環境に応じた雰囲気を前記状況推定手段により分類された状況パターンと前記雰囲気情報収集手段により収集された雰囲気要因情報とに基づいて予め設定された複数のカテゴリの何れかに分類する雰囲気推定手段と、
多種類の楽曲に対応した音楽データを蓄積した音楽データベースと、
前記音楽データを前記各カテゴリと対応付けた状態で区分したカテゴリリストを格納した記憶手段と、
前記カテゴリリストから前記雰囲気推定手段により分類されたカテゴリに属する音楽データを検索すると共に、その音楽データを前記音楽データベースから取得して出力する検索手段と、
この検索手段からの音楽データを再生する再生手段と、
を備えたことを特徴とする音楽再生装置。
Voice recognition means for detecting a preset keyword from the user's utterance content;
Emotion analysis means for extracting prosody information from the user's utterance content and analyzing the prosody information to detect the user's emotion information;
A situation estimation means for classifying a user situation into any of a plurality of preset situation patterns based on the detection outputs of the voice recognition means and the emotion analysis means;
Atmosphere factor information collection means for collecting information that objectively shows the environment where the user is located as atmosphere factor information;
Any of a plurality of categories set in advance based on the situation pattern classified by the situation estimation unit and the atmosphere factor information collected by the atmosphere information collection unit according to the environment where the user is placed Atmosphere estimation means to classify into,
A music database that stores music data corresponding to many types of music,
Storage means for storing a category list obtained by classifying the music data in association with each category;
Search means for searching for music data belonging to the category classified by the atmosphere estimation means from the category list, and acquiring and outputting the music data from the music database;
Playback means for playing back music data from the search means;
A music playback device comprising:
請求項1に記載の音楽再生装置において、
前記雰囲気要因情報収集手段は、前記ユーザが置かれている環境として車室内が対象とされ、前記雰囲気要因情報として、目的地、現在地、季節、時刻、天候、車速、ブレーキ回数、信号停止回数などの情報を収集するように構成され、
前記雰囲気推定手段は、前記車室内の雰囲気を前記複数のカテゴリの何れかに分類することを特徴とする音楽再生装置。
The music playback device according to claim 1,
The atmosphere factor information collecting means is intended for the interior of the vehicle as the environment where the user is placed, and the atmosphere factor information includes destination, current location, season, time, weather, vehicle speed, number of brakes, number of signal stops, etc. Configured to collect information on
The music reproduction device characterized in that the atmosphere estimation means classifies the atmosphere in the vehicle compartment into any of the plurality of categories.
請求項1または2に記載の音楽再生装置において、
前記雰囲気推定手段は、ユーザの状況が楽しい感情を呈しているときを正の感情、イライラしていたり怒ったりしているなどの不快な感情を呈しているときを負の感情としたときに、前記ユーザが置かれた環境の雰囲気をカテゴリに分類したときにそのカテゴリが前記負の感情に属する場合には、その負の感情を緩和させて正の感情に指向する傾向の音楽データを対応付けていることを特徴とする音楽再生装置。
The music playback device according to claim 1 or 2,
The atmosphere estimation means is a positive emotion when the user's situation is presenting a pleasant emotion, and a negative emotion when presenting an unpleasant emotion such as being frustrated or angry, When the atmosphere of the environment in which the user is placed is classified into a category, if the category belongs to the negative emotion, the negative emotion is relaxed and the music data having a tendency toward the positive emotion is associated. A music playback device characterized by that.
請求項1ないし3のいずれかに記載の音楽再生装置において、
前記音楽データベースは、通信回線を介してアクセス可能な音楽データサーバであることを特徴とする音楽再生装置。
The music playback device according to any one of claims 1 to 3,
The music player is a music data server accessible via a communication line.
請求項1ないし4のいずれかに記載の音楽再生装置において、
前記カテゴリの中には、対応させる音楽データが存在しないものが設定されていることを特徴とする音楽再生装置。

The music playback device according to any one of claims 1 to 4,
A music playback apparatus characterized in that a category for which no corresponding music data exists is set in the category.

JP2004279461A 2004-09-27 2004-09-27 Music reproduction apparatus Pending JP2006092430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004279461A JP2006092430A (en) 2004-09-27 2004-09-27 Music reproduction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004279461A JP2006092430A (en) 2004-09-27 2004-09-27 Music reproduction apparatus

Publications (1)

Publication Number Publication Date
JP2006092430A true JP2006092430A (en) 2006-04-06

Family

ID=36233318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004279461A Pending JP2006092430A (en) 2004-09-27 2004-09-27 Music reproduction apparatus

Country Status (1)

Country Link
JP (1) JP2006092430A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007114197A1 (en) 2006-03-29 2007-10-11 Kyocera Corporation Radio reception device, radio transmission device, radio base station, reception method, and transmission method
GB2459008A (en) * 2008-04-07 2009-10-14 Sony Corp Apparatus for controlling music reproduction according to ambient noise levels
JP2009294790A (en) * 2008-06-03 2009-12-17 Denso Corp System for providing information for vehicle
US7767896B2 (en) 2007-09-14 2010-08-03 Denso Corporation Vehicular music replay system
JP2010266748A (en) * 2009-05-15 2010-11-25 Panasonic Electric Works Co Ltd Acoustic vibration reproducing device and acoustic vibration reproduction method
JP2011511499A (en) * 2007-12-21 2011-04-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for reproducing images
US8134063B2 (en) 2007-03-26 2012-03-13 Pioneer Corporation Music piece production apparatus, music piece reproduction method, and music piece reproduction program
JP2012226729A (en) * 2011-04-14 2012-11-15 Hyundai Motor Co Ltd Sensuous music selection system and method in vehicle
JP2013125572A (en) * 2011-12-16 2013-06-24 Mic Ware:Kk Information system, server device, terminal device, method for transmitting music piece, method for reproducing music piece, program, and data structure
US8996580B2 (en) 2009-10-22 2015-03-31 Samsung Electronics Co., Ltd. Apparatus and method for generating multimedia play list based on user experience in portable multimedia player
WO2017104793A1 (en) * 2015-12-17 2017-06-22 国立大学法人広島大学 System for enhancing sensitivity of vehicle occupant
JP2018055440A (en) * 2016-09-29 2018-04-05 シャープ株式会社 Server device, information processing terminal, program, system, and method
JP2018063486A (en) * 2016-10-11 2018-04-19 本田技研工業株式会社 Service providing device, service providing method, and service providing program
JP2018101341A (en) * 2016-12-21 2018-06-28 本田技研工業株式会社 Content providing device, content providing method and content providing system
JP2018156420A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Determination device, determination method, and determination program
JP2019040603A (en) * 2017-08-28 2019-03-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Music recommendation method, device, equipment and program
JP2019053785A (en) * 2019-01-09 2019-04-04 本田技研工業株式会社 Service providing device
US10514886B2 (en) 2017-04-07 2019-12-24 Toyota Jidosha Kabushiki Kaisha Playback sound provision device
JP2020042725A (en) * 2018-09-13 2020-03-19 株式会社デンソー Space creating device
JP2020076878A (en) * 2018-11-08 2020-05-21 スカパーJsat株式会社 Karaoke device, karaoke device control method, and program
JP2020154922A (en) * 2019-03-22 2020-09-24 本田技研工業株式会社 Service provision apparatus, settlement information processing apparatus and service provision method
US11606676B2 (en) 2020-03-24 2023-03-14 Toyota Jidosha Kabushiki Kaisha Information processing device, a recording medium and method that enable sharing, among vehicles, of information about music that is being played back

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007114197A1 (en) 2006-03-29 2007-10-11 Kyocera Corporation Radio reception device, radio transmission device, radio base station, reception method, and transmission method
US8134063B2 (en) 2007-03-26 2012-03-13 Pioneer Corporation Music piece production apparatus, music piece reproduction method, and music piece reproduction program
US7767896B2 (en) 2007-09-14 2010-08-03 Denso Corporation Vehicular music replay system
JP2011511499A (en) * 2007-12-21 2011-04-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for reproducing images
GB2459008B (en) * 2008-04-07 2010-11-10 Sony Corp Music piece reproducing apparatus and music piece reproducing method
US8076567B2 (en) 2008-04-07 2011-12-13 Sony Corporation Music piece reproducing apparatus and music piece reproducing method
GB2459008A (en) * 2008-04-07 2009-10-14 Sony Corp Apparatus for controlling music reproduction according to ambient noise levels
JP2009294790A (en) * 2008-06-03 2009-12-17 Denso Corp System for providing information for vehicle
JP4609527B2 (en) * 2008-06-03 2011-01-12 株式会社デンソー Automotive information provision system
US8190434B2 (en) 2008-06-03 2012-05-29 Denso Corporation Apparatus for providing information for vehicle
JP2010266748A (en) * 2009-05-15 2010-11-25 Panasonic Electric Works Co Ltd Acoustic vibration reproducing device and acoustic vibration reproduction method
US8996580B2 (en) 2009-10-22 2015-03-31 Samsung Electronics Co., Ltd. Apparatus and method for generating multimedia play list based on user experience in portable multimedia player
JP2012226729A (en) * 2011-04-14 2012-11-15 Hyundai Motor Co Ltd Sensuous music selection system and method in vehicle
JP2013125572A (en) * 2011-12-16 2013-06-24 Mic Ware:Kk Information system, server device, terminal device, method for transmitting music piece, method for reproducing music piece, program, and data structure
WO2017104793A1 (en) * 2015-12-17 2017-06-22 国立大学法人広島大学 System for enhancing sensitivity of vehicle occupant
JP2017109635A (en) * 2015-12-17 2017-06-22 国立大学法人広島大学 Occupant sensitivity improvement system
JP2018055440A (en) * 2016-09-29 2018-04-05 シャープ株式会社 Server device, information processing terminal, program, system, and method
JP2018063486A (en) * 2016-10-11 2018-04-19 本田技研工業株式会社 Service providing device, service providing method, and service providing program
JP2018101341A (en) * 2016-12-21 2018-06-28 本田技研工業株式会社 Content providing device, content providing method and content providing system
US10360259B2 (en) 2016-12-21 2019-07-23 Honda Motor Co., Ltd. Content providing apparatus and method
JP2018156420A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Determination device, determination method, and determination program
US11188293B2 (en) 2017-04-07 2021-11-30 Toyota Jidosha Kabushiki Kaisha Playback sound provision device
US10514886B2 (en) 2017-04-07 2019-12-24 Toyota Jidosha Kabushiki Kaisha Playback sound provision device
JP2019040603A (en) * 2017-08-28 2019-03-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Music recommendation method, device, equipment and program
JP2020042725A (en) * 2018-09-13 2020-03-19 株式会社デンソー Space creating device
JP2020076878A (en) * 2018-11-08 2020-05-21 スカパーJsat株式会社 Karaoke device, karaoke device control method, and program
JP2019053785A (en) * 2019-01-09 2019-04-04 本田技研工業株式会社 Service providing device
JP2020154922A (en) * 2019-03-22 2020-09-24 本田技研工業株式会社 Service provision apparatus, settlement information processing apparatus and service provision method
JP7364348B2 (en) 2019-03-22 2023-10-18 本田技研工業株式会社 Service providing device, service providing system, and service providing method
US11606676B2 (en) 2020-03-24 2023-03-14 Toyota Jidosha Kabushiki Kaisha Information processing device, a recording medium and method that enable sharing, among vehicles, of information about music that is being played back

Similar Documents

Publication Publication Date Title
JP2006092430A (en) Music reproduction apparatus
US11842730B2 (en) Modification of electronic system operation based on acoustic ambience classification
EP3496098B1 (en) Generating personalized audio content based on mood
JP4260788B2 (en) Voice recognition device controller
JP4131978B2 (en) Voice recognition device controller
JP4547721B2 (en) Automotive information provision system
US7177809B2 (en) Contents presenting system and method
JP3892410B2 (en) Music data selection apparatus, music data selection method, music data selection program, and information recording medium recording the same
JP2006146630A (en) Content selection reproduction device, content selection reproduction method, content distribution system and content retrieval system
JP4311322B2 (en) Viewing content providing system and viewing content providing method
CN105702270A (en) Music playing method and apparatus
JP2010128099A (en) In-vehicle voice information providing system
US20220357912A1 (en) Apparatus and method for caring emotion based on vehicle sound
JP4653684B2 (en) Navigation system and navigation method
JP2005049773A (en) Music reproducing device
JP2023175013A (en) Taste determination system, taste determination method, and program
JP2019159045A (en) Reproduction control device, reproduction system, reproduction control method, and reproduction control program
JP4604360B2 (en) Information providing apparatus, information providing method, and information providing apparatus program
JP7407047B2 (en) Audio output control method and audio output control device
JP2012098100A (en) Audio control device for outputting guide route voice guidance
JP3471042B2 (en) Automotive electronics
JP7407046B2 (en) Audio output control method and audio output control device
JP2022139599A (en) Information output device, information output method and program for information output device
JP2006331533A (en) Automatic voice content selecting device
JP2005293193A (en) Agent device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091208