JP2005293193A - Agent device - Google Patents
Agent device Download PDFInfo
- Publication number
- JP2005293193A JP2005293193A JP2004106856A JP2004106856A JP2005293193A JP 2005293193 A JP2005293193 A JP 2005293193A JP 2004106856 A JP2004106856 A JP 2004106856A JP 2004106856 A JP2004106856 A JP 2004106856A JP 2005293193 A JP2005293193 A JP 2005293193A
- Authority
- JP
- Japan
- Prior art keywords
- agent
- information
- profile information
- user
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明はエージェント装置に関し、より詳細には、選択対象コンテンツ(例えば、楽曲
、テレビ番組、ラジオ番組、場所)の中からの使用者へ提供するに相応しいコンテンツの
選択など、前記使用者に役に立つ行動を行い得るエージェント装置に関する。
The present invention relates to an agent device, and more particularly, an action useful to the user, such as selection of content suitable for provision to the user from selection target contents (for example, music, TV program, radio program, place). It is related with the agent apparatus which can perform.
車室内で聴く音楽は、ドライバーが快適に運転するためや、ドライブを楽しいものとす
るためにも、ドライバーや乗員の聴きたいもの、好きなものとすることが好ましい。そこ
で、ドライバーの嗜好や、そのときの気分に合致した楽曲を提供するオーディオ装置など
が提案されている(例えば、下記の特許文献1、2参照)。特許文献1には、ドライバー
の嗜好を過去の聴いた実績に基づいて分析し、その分析結果に基づいて、前記ドライバー
の嗜好に合った楽曲を選択し、選択した楽曲を前記ドライバーに提供するオーディオ装置
について開示されている。
It is preferable that the music listened to in the passenger compartment should be something that the driver or passenger wants to listen to or like for the driver to drive comfortably or to make the driving fun. Therefore, audio devices that provide music that matches the preferences of the driver and the mood at that time have been proposed (for example, see
しかしながら、精度の高い嗜好の分析は容易ではなく、ドライバーの聴きたいものが正
しく選曲されないケースが多くなる可能性もある。また、ドライバーの嗜好に合った楽曲
を選択する場合には、毎回同じ楽曲が選択される可能性が高く、聴き飽きた楽曲ばかりが
提供される可能性も高い。
However, it is not easy to analyze the preferences with high accuracy, and there is a possibility that there are many cases where the driver wants to listen to music that is not correctly selected. In addition, when selecting music that matches the driver's preference, it is highly likely that the same music is selected every time, and there is a high possibility that only music that is tired of listening will be provided.
また、聴きたい音楽というのはその時々の気分などで変化することもあり、今日は聴き
たいと思っていた曲が、明日には聴きたくなくなったり、その逆に、今日は聴きたくない
と思っていた曲が、明日には聴きたくなることもある。従って、聴きたい音楽というのは
使用者(例えば、ドライバー)のその時々の気分などで選択されるのが好ましいこともあ
る。
Also, the music you want to listen to may change depending on your mood, and you may not want to listen to the song you wanted to hear today, or vice versa. I might want to listen to the song I had tomorrow. Therefore, it may be preferable that the music to be listened to is selected according to the mood of the user (for example, a driver).
しかしながら、楽曲の選択を使用者が全て行わなければならないのでは、操作が煩わし
くなる。特に、最近ではHDD(Hard Disk Drive )などの大容量記憶装置が普及し、数
多くの楽曲(例えば、1000曲)に関するデータを記憶させておくことができるように
なっているが、1000曲もの楽曲の中から所望の楽曲を選択するのは決して容易なこと
ではない。従って、使用者の操作を軽減させることが大切となる。
However, if the user has to select all the songs, the operation becomes troublesome. In particular, mass storage devices such as HDDs (Hard Disk Drives) have recently become widespread, and data relating to a large number of songs (for example, 1000 songs) can be stored. It is not easy to select a desired piece of music. Therefore, it is important to reduce the user's operation.
例えば、最近ではHDD1に、図8に示したように、CD2−1〜CD2−nに収録さ
れている楽曲そのもののデータ(以降、楽曲データと記す)及びTOC(Table Of Conte
nts )情報(例えば、楽曲数や総演奏時間)が記憶され、さらにはCDに関する情報(例
えば、タイトル名や収録されている楽曲数、収録されている楽曲の総演奏時間、歌手名、
各楽曲の曲名・演奏時間)が記憶されている。
For example, recently, as shown in FIG. 8, the data of the music itself recorded on CD2-1 to CD2-n (hereinafter referred to as music data) and TOC (Table Of Conte) are stored in HDD1.
nts) information (for example, the number of songs and the total performance time), and further information related to the CD (for example, the title name, the number of recorded songs, the total performance time of the recorded songs, the name of the singer,
The song name and performance time of each song are stored.
楽曲データやTOC情報については、CD2−1〜CD2−nからデータを読み出して
HDD1に記憶させれば良く、CDに関する情報については、これら情報を提供するサー
ビス機関3があるため、サービス機関3から提供される情報を取得してHDD1に記憶さ
せれば良い。なお、サービス機関3から提供されたCDに関する情報が、HDD1に記憶
されているどの楽曲データに対応したものであるのかは、収録されている楽曲数と総演奏
時間から判断することができ、例えば、第1番目に記憶されている、タイトル名が「大発
明」であるCD(楽曲数16曲、総演奏時間51分12秒)に関する情報は、第2番目に
記憶されている楽曲データ(CD2−2に収録されていた楽曲データ)に対応したもので
あると判断することができる。
本発明は上記課題に鑑みなされたものであって、HDDなどの大容量記憶装置に記憶さ
れた数多くの楽曲の中から、操作の煩わしさ無しに使用者に提供するのに適した楽曲を選
択したり、その他、テレビ番組やラジオ番組、目的地とする場所などを選択するといった
、操作の煩わしさ無しに前記使用者に役に立つ行動を行い得るエージェント装置を提供す
ることを目的地としている。
The present invention has been made in view of the above-described problems, and selects music suitable for providing to a user without troublesome operation from among a large number of music stored in a mass storage device such as an HDD. In addition, the present invention aims to provide an agent device that can perform a useful action for the user without troublesome operations such as selecting a TV program, a radio program, a destination location, and the like.
上記目的を達成するために本発明に係るエージェント装置(1)は、擬人化したエージ
ェントに、プロファイル情報が設定され、前記エージェントに設定されているプロファイ
ル情報に基づいて、前記エージェントに特化した処理を行う処理手段を備えていることを
特徴としている。
In order to achieve the above object, the agent device (1) according to the present invention has profile information set in an anthropomorphic agent, and processing specialized for the agent based on the profile information set in the agent. It is characterized by comprising processing means for performing the above.
「背景技術」の項目でも記載したように、使用者の嗜好をプロファイル情報(例えば、
過去に聴いた実績)に基づいて求め、その嗜好に合った楽曲を選択するといった技術(す
なわち、前記使用者のプロファイル情報に基づいて、前記使用者へ提供するのに適した楽
曲などのコンテンツを選択するといった技術)は従来からある。
しかしながら、前記使用者のプロファイル情報に基づいてのコンテンツ選択では、選択
されるコンテンツが偏り、例えば、前記使用者が聴き飽きた楽曲ばかりが選択されるおそ
れがある。
As described in the “Background Technology” item, the user's preference is set to profile information (for example,
Based on the past listening results), a technique of selecting music that matches the preference (that is, content such as music suitable for providing to the user based on the user's profile information) The technique of selecting is conventional.
However, in the content selection based on the user's profile information, the selected content is biased, for example, there is a possibility that only the music that the user is tired of is selected.
上記エージェント装置(1)によれば、前記エージェントに設定されたプロファイル情
報に基づいて、前記エージェントに特化した処理(例えば、楽曲、放送番組、場所などの
コンテンツの選択)が行われる。これにより、前記使用者をあまり煩わせること無しに、
楽曲などのコンテンツの選択などを行うことが可能となる。
According to the agent device (1), processing specialized for the agent (for example, selection of contents such as music, broadcast program, place, etc.) is performed based on the profile information set for the agent. Thus, without bothering the user too much,
It becomes possible to select contents such as music.
また、この処理が前記使用者のプロファイル情報ではなく、前記エージェントに設定さ
れたプロファイル情報に基づいて行われるので、前記使用者の意思では選択しないような
コンテンツ(例えば、普段耳にすることの少ない楽曲)が選択されることが考えられる。
これにより、前記使用者の興味範囲を広げることができる。
In addition, since this process is performed based on the profile information set in the agent, not the profile information of the user, content that is not selected by the user's intention (for example, less commonly heard) It is conceivable that music) is selected.
Thereby, the range of interest of the user can be expanded.
また、楽曲などの選択に利用される前記エージェントが複数準備されている場合、前記
使用者は、楽曲そのものを選択するのではなく、これら複数設定されたエージェントの中
から気に入ったエージェントを選択し、そのエージェントに楽曲を選択させるようにする
こともできる。
In addition, when a plurality of the agents used for selection of music are prepared, the user does not select the music itself, but selects a favorite agent from among the plurality of set agents, You can also let the agent select a song.
また、本発明に係るエージェント装置(2)は、上記エージェント装置(1)において
、前記エージェントに設定されるプロファイル情報に、前記エージェントにおける仮想上
の生年月日、血液型、性別、及び性質に関する情報のいずれかが含まれていることを特徴
としている。
In addition, the agent device (2) according to the present invention provides information on the virtual date of birth, blood type, sex, and property of the agent in the profile information set in the agent in the agent device (1). One of the above is included.
上記エージェント装置(2)によれば、前記エージェントに設定されるプロファイル情
報に、前記エージェントにおける仮想上の生年月日、血液型、性別、及び性質(例えば、
演歌好き、五木ひろしのファン)に関する情報のいずれかが含まれている。すなわち、前
記使用者のプロファイル情報と同じようにすることができ、前記使用者のプロファイル情
報に基づいてコンテンツ選択を行うプログラムをそのまま使用可能となる。従って、低コ
ストでの実現が可能となる。
According to the agent device (2), the profile information set for the agent includes the virtual date of birth, blood type, sex, and property (for example,
This includes information on Enka lovers, Hiroshi Itsuki's fans). That is, it can be made the same as the profile information of the user, and a program for selecting content based on the profile information of the user can be used as it is. Therefore, it can be realized at a low cost.
また、前記使用者のプロファイル情報と同じようにすれば、前記使用者と何らかの点で
共通していたり、類似しているエージェントを、前記使用者を煩わせること無く自動で選
択することが可能となる。例えば、前記使用者と誕生日が同じエージェントや、同年代の
エージェント、好みが同じ又は近いエージェントを選択することができる。
In addition, if the profile information of the user is the same, it is possible to automatically select an agent that is common or similar to the user in some way without bothering the user. Become. For example, an agent having the same birthday as the user, an agent of the same age, or an agent having the same or similar preference can be selected.
また、本発明に係るエージェント装置(3)は、上記エージェント装置(1)又は(2
)において、前記エージェントに設定されるプロファイル情報に、前記エージェントの出
力形態に関する情報が含まれていることを特徴としている。
Further, the agent device (3) according to the present invention includes the agent device (1) or (2
), The profile information set for the agent includes information related to the output form of the agent.
上記エージェント装置(3)によれば、前記エージェントに設定されるプロファイル情
報に、前記エージェントの出力形態(例えば、外観や、話し方)に関する情報が含まれて
いる。例えば、外観として、形や服装などに関する情報、話し方として、方言(例えば、
標準語、関西弁)、丁寧さなどに関する情報が含まれている。これにより、コンテンツ選
択などだけでなく、前記エージェントの出力形態にも個性を設けることができ、前記使用
者を楽しませることができる。
According to the agent device (3), the profile information set for the agent includes information relating to the output form (for example, appearance and way of speaking) of the agent. For example, as appearance, information about shape and clothes, as a way of speaking, dialect (for example,
Standard language, Kansai dialect), politeness, etc. are included. Thereby, not only content selection but also the output form of the agent can be provided with personality, and the user can be entertained.
また、本発明に係るエージェント装置(4)は、上記エージェント装置(1)〜(3)
のいずれかにおいて、前記エージェントに設定されるプロファイル情報に、前記エージェ
ントを動作主体として行い得る機能、及び/又は行い得ない機能を示した情報が含まれて
いることを特徴としている。
The agent device (4) according to the present invention includes the agent devices (1) to (3).
In any of the above, the profile information set in the agent includes information indicating a function that can be performed by the agent as an operation subject and / or a function that cannot be performed by the agent.
上記エージェント装置(4)によれば、前記エージェントに設定されるプロファイル情
報に、前記エージェントを動作主体として行い得る機能、及び/又は行い得ない機能を示
した情報が含まれている。例えば、エージェントAを動作主体として行い得る機能に、楽
曲の選択、再生、録音、削除を含み、エージェントBを動作主体として行い得る機能に、
楽曲の選択、再生を含む(録音、削除は含まない)ようになっている場合、前記使用者に
よって動作主体としてエージェントAが選択されていると、楽曲の録音処理や削除処理が
行われるが、前記使用者によって動作主体としてエージェントBが選択されていると、楽
曲の録音処理や削除処理は行われない。換言すれば、エージェントBしか選択が許されて
いない使用者は、楽曲の録音や削除の指令を出すことができない。
According to the agent device (4), the profile information set for the agent includes information indicating a function that can be performed by the agent and / or a function that cannot be performed by the agent. For example, the function that can be performed with Agent A as the subject of action includes the selection, playback, recording, and deletion of music, and the function that can be performed with Agent B as the subject of action.
In the case where the selection and playback of music are included (not including recording and deletion), if the agent A is selected as the operating subject by the user, the music recording and deletion processes are performed. If the agent B is selected as the operation subject by the user, the music recording process and deletion process are not performed. In other words, a user who is only allowed to select Agent B cannot issue a command for recording or deleting music.
従って、エージェント毎に動作主体として行い得る機能の差別化を図ることによって、
個性が強調されたエージェントを実現することができる。また、前記使用者についてもエ
ージェントの選択の差別化を図り、例えば、子供には楽曲の削除ができるエージェントの
選択はできないようにすることによって、セキュリティ性を向上させることができる。
Therefore, by differentiating the functions that can be performed as the subject of action for each agent,
Agents with emphasized personality can be realized. Further, the security of the user can be improved by differentiating the selection of the agent for the user, for example, by preventing the child from selecting the agent that can delete the music.
また、本発明に係るエージェント装置(5)は、上記エージェント装置(1)〜(4)
のいずれかにおいて、前記エージェントに設定されるプロファイル情報に、変更可能なも
のが含まれていることを特徴としている。
The agent device (5) according to the present invention includes the agent devices (1) to (4).
In any of the above, the profile information set in the agent includes changeable information.
上記エージェント装置(5)によれば、前記エージェントに設定されるプロファイル情
報に、変更可能なものが含まれているので、前記エージェントの性質を前記使用者の好み
に近づけたり、前記エージェントを動作主体として行い得る機能を追加したり、削除する
ことなどができる。
According to the agent device (5), the profile information set in the agent includes information that can be changed, so that the properties of the agent can be brought close to the user's preference, or the agent can be operated. You can add or delete functions that can be performed as
例えば、あるエージェントAにあらかじめ準備された性質が激しい楽曲好み(5段階で
激しい楽曲好みレベル5)であったとしても、使用者が静かな楽曲好みであれば、エージ
ェントAの激しい楽曲好みレベルをレベル4に変化させたり、エージェントの服装を地味
目から派手目に変化させたり、経過年数等によって、エージェントの顔を老けさせたりす
ることが可能となる。すなわち、前記エージェントを成長させていくことができるので、
エンターテインメント性を高めることができる。
For example, even if the music prepared in advance for a certain agent A has a strong musical preference (five
Entertainment can be improved.
また、本発明に係るエージェント装置(6)は、上記エージェント装置(5)において
、前記エージェントに設定されるプロファイル情報に含まれる各情報間に関連性が形成さ
れており、ある情報の変更に基づいて、前記情報と関連性を有した又は関連性の高い別の
情報を変更する第1のプロファイル情報変更手段を備えていることを特徴としている。
In the agent device (6) according to the present invention, in the agent device (5), an association is formed between pieces of information included in the profile information set in the agent, and based on a change of certain information. In addition, the information processing apparatus includes a first profile information changing unit that changes another information that is related to or highly related to the information.
上記エージェント装置(6)によれば、ある情報の変更に基づいて、前記情報と関連性
を有した又は関連性の高い別の情報が変更される。例えば、あるエージェントBにあらか
じめ準備された性質がロック好みでなかったとしても(5段階でロック好みレベル1)、
そのレベルがアップすれば、そのアップに合わせて服装の派手レベルをアップさせたり、
逆に話し方の丁寧レベルをダウンさせたりする。これにより、エージェントの成長に違和
感を与えないようにすることができる。
According to the agent device (6), based on a change in certain information, another information that is related to or highly related to the information is changed. For example, even if the property prepared in advance for a certain agent B is not lock preference (lock
If that level goes up, you can raise the flashy level of clothes to that up,
Conversely, the polite level of speaking is reduced. As a result, it is possible to prevent the agent from feeling uncomfortable.
また、本発明に係るエージェント装置(7)は、上記エージェント装置(5)又は(6
)において、前記エージェントを動作主体として利用した利用頻度に基づいて、前記エー
ジェントに設定されているプロファイル情報を変更する第2のプロファイル情報変更手段
を備えていることを特徴としている。
Further, the agent device (7) according to the present invention includes the agent device (5) or (6
), Second profile information changing means for changing the profile information set in the agent based on the usage frequency of using the agent as an operation subject is provided.
上記エージェント装置(7)によれば、前記エージェントを動作主体として利用した利
用頻度に基づいて、前記エージェントに設定されているプロファイル情報が変更されるこ
とによって、変更の差別化が図られている。例えば、10回の利用では変更させず、また
20回の利用と50回の利用とではその変更の仕方を異なるようにすることができる。こ
れにより、前記エージェントの成長を前記使用者にとって馴染み易いものとすることがで
きる。
According to the agent device (7), the profile information set in the agent is changed based on the usage frequency of using the agent as an operation subject, so that the change is differentiated. For example, it is not changed after 10 uses, and the change method can be different between 20 uses and 50 uses. Thereby, the growth of the agent can be made familiar to the user.
また、本発明に係るエージェント装置(8)は、上記エージェント装置(5)〜(7)
のいずれかにおいて、前記エージェントに設定されているプロファイル情報に、異なる別
のエージェントに設定されているプロファイル情報の全部又はその一部を合成することに
よって、プロファイル情報を変更する第3のプロファイル情報変更手段を備えていること
を特徴としている。
The agent device (8) according to the present invention includes the agent devices (5) to (7).
The third profile information change for changing the profile information by combining all or part of the profile information set for another different agent with the profile information set for the agent It is characterized by having means.
上記エージェント装置(8)によれば、前記エージェントに設定されているプロファイ
ル情報に、異なる別のエージェントに設定されているプロファイル情報の全部又はその一
部を合成することが可能であるので、前記エージェントの成長を待たずに、瞬時に新しい
エージェントを作成することができる。また、例えば、運転者の好みのエージェントと、
同乗者の好みのエージェントとが異なる場合に非常に有効な機能となる。
According to the agent device (8), it is possible to synthesize all or part of the profile information set for another different agent with the profile information set for the agent. New agents can be created instantly without waiting for growth. Also, for example, the driver's favorite agent,
This is a very effective function when it differs from the passenger's favorite agent.
また、本発明に係るエージェント装置(9)は、上記エージェント装置(8)において
、合成前の状態の情報を記憶する合成前状態記憶手段と、該合成前記憶手段に記憶されて
いる情報に基づいて、合成前の状態にプロファイル情報を戻す第4のプロファイル情報変
更手段とを備えていることを特徴としている。
Further, the agent device (9) according to the present invention is based on the pre-combination state storage means for storing information on the state before composition and the information stored in the pre-combination storage means in the agent device (8). And fourth profile information changing means for returning the profile information to the state before synthesis.
上記エージェント装置(9)によれば、合成前の状態にプロファイル情報を戻すことが
可能であるので、合成させることによって新たに作成されたエージェントが気にいらない
場合には、直ちに元に戻すことができる。
According to the agent device (9), the profile information can be returned to the state before the composition. Therefore, when the agent newly created by the composition is not desired, it can be immediately restored. .
また、本発明に係るエージェント装置(10)は、上記エージェント装置(5)〜(9
)のいずれかにおいて、入力手段から得られる使用者の意思情報に基づいて、前記エージ
ェントが前記使用者の個性を反映したものとなるように、前記エージェントに設定されて
いるプロファイル情報を変更する第5のプロファイル情報変更手段を備えていることを特
徴としている。
The agent device (10) according to the present invention includes the agent devices (5) to (9).
), The profile information set in the agent is changed so that the agent reflects the personality of the user based on the user's intention information obtained from the input means. 5 profile information changing means.
上記エージェント装置(10)によれば、前記エージェントが前記使用者の個性を反映
したものとなるように、前記エージェントに設定されているプロファイル情報が変更され
る。例えば、あるエージェントAにあらかじめ準備された性質が演歌好み(5段階で演歌
好みレベル1)であったとしても、前記使用者によって頻繁に演歌が選択されている場合
には、エージェントAの演歌好みレベルをアップさせる。これにより、前記エージェント
のプロファイル情報に基づいたコンテンツの選択で、前記使用者の嗜好に合ったものが選
択され可能性を高くすることができる。
According to the agent device (10), the profile information set in the agent is changed so that the agent reflects the personality of the user. For example, even if the property prepared in advance for an agent A is enka preference (enka
また、本発明に係るエージェント装置(11)は、上記エージェント装置(1)〜(1
0)のいずれかにおいて、使用者の行為から得られる情報、及び/又は前記エージェント
のプロファイル情報に基づいて行われる行為から得られる情報を、前記エージェントのプ
ロファイル情報として蓄積するプロファイル情報蓄積手段を備えていることを特徴として
いる。
The agent device (11) according to the present invention includes the agent devices (1) to (1).
0), profile information storage means for storing information obtained from a user's action and / or information obtained from an action performed based on the profile information of the agent as the profile information of the agent. It is characterized by having.
上記エージェント装置(11)によれば、前記使用者の行為から得られる情報(例えば
、聴取した楽曲の内容、視聴したテレビ番組の内容)、及び/又は前記エージェントのプ
ロファイル情報に基づいて行われる行為から得られる情報(例えば、コンテンツ選択の実
績)が、前記エージェントのプロファイル情報として蓄積される。
前記使用者の行為から得られる情報をプロファイル情報として蓄積することによって、
前記使用者の嗜好などに合ったコンテンツ選択などがし易くなる。また、過去実績を蓄積
することによって、同じ選択結果が繰り返されることなどを防ぐことができる。
According to the agent device (11), information obtained from the user's action (for example, the contents of the listened music, the contents of the viewed TV program) and / or the action performed based on the profile information of the agent (For example, the content selection results) obtained from the above is stored as the profile information of the agent.
By accumulating information obtained from the user's actions as profile information,
It becomes easy to select contents suitable for the user's preference. Further, by accumulating past results, it is possible to prevent the same selection result from being repeated.
また、本発明に係るエージェント装置(12)は、上記エージェント装置(11)にお
いて、前記プロファイル情報蓄積手段が、動作主体として選択されている前記エージェン
トのプロファイル情報として情報の蓄積を行うものであることを特徴としている。
In the agent device (12) according to the present invention, in the agent device (11), the profile information storage means stores information as profile information of the agent selected as an operation subject. It is characterized by.
上記エージェント装置(12)によれば、動作主体として選択されている前記エージェ
ントのプロファイル情報として情報の蓄積が行われる。すなわち、複数のエージェントが
準備されていたとしても、これら全てのエージェントのプロファイル情報が更新されるの
ではなく、動作主体として選択されたエージェントのプロファイル情報だけが更新される
。
According to the agent device (12), information is stored as profile information of the agent selected as the operating subject. That is, even if a plurality of agents are prepared, the profile information of all these agents is not updated, but only the profile information of the agent selected as the operating subject is updated.
例えば、ナビゲーション機能の動作主体となっているエージェントAと、オーディオ機
能の動作主体となっているエージェントBとが準備されている場合、ナビゲーション機能
に関する情報については、エージェントAのプロファイル情報を更新し、エージェントB
のプロファイル情報は更新しない。これにより、プロファイル情報の更新を適切に行うこ
とができる。
For example, in the case where an agent A that is the main subject of the navigation function and an agent B that is the main subject of the audio function are prepared, the profile information of the agent A is updated for information related to the navigation function, Agent B
The profile information is not updated. Thereby, the profile information can be appropriately updated.
また、本発明に係るエージェント装置(13)は、上記エージェント装置(1)〜(1
2)のいずれかにおいて、前記処理手段が、選択対象コンテンツの中から使用者へ提供す
るコンテンツを選択するものであることを特徴としている。
The agent device (13) according to the present invention includes the agent devices (1) to (1).
In any one of 2), the processing means selects content to be provided to the user from selection target content.
上記エージェント装置(13)によれば、前記エージェントに設定されているプロファ
イル情報(例えば、「浜崎あゆみの歌っている曲が好き)に基づいて、前記選択対象コン
テンツ(例えば、HDDに記憶された楽曲)の中から前記使用者へ提供するコンテンツ(
例えば、浜崎あゆみの歌っている楽曲)が選択される。
According to the agent device (13), based on the profile information set in the agent (for example, “I like Ayumi Hamasaki's singing song)”, the content to be selected (for example, a song stored in the HDD) Content provided to the user from among ()
For example, the song sung by Ayumi Hamasaki) is selected.
従って、前記使用者をあまり煩わせること無しに、楽曲などのコンテンツを選択するこ
とが可能となる。また、コンテンツの選択が前記使用者のプロファイル情報ではなく、前
記エージェントのプロファイル情報に基づいて行われるので、普段耳にすることの少ない
楽曲が選択されることもあり得る。これにより、聴き飽きた楽曲ばかりが選択される可能
性を低くすることができる。
Accordingly, it is possible to select contents such as music without much trouble for the user. In addition, since the selection of content is performed based on the profile information of the agent, not the profile information of the user, it is possible that music that is rarely heard is selected. Thereby, it is possible to reduce the possibility that only songs that are tired of being selected are selected.
また、本発明に係るエージェント装置(14)は、上記エージェント装置(13)にお
いて、前記処理手段が、前記使用者へ提供するコンテンツとして、再生するための楽曲、
受信するための放送番組、及び目的地とするための場所のいずれかを選択するものである
ことを特徴としている。
In addition, the agent device (14) according to the present invention is the above-described agent device (13), wherein the processing means plays a piece of music to be played as content provided to the user,
It is characterized in that it selects either a broadcast program for receiving or a place for a destination.
上記エージェント装置(14)によれば、前記使用者へ提供するコンテンツとして、再
生するための楽曲、受信するための放送番組(例えば、テレビ番組、ラジオ番組)、及び
目的地とするための場所のいずれかが選択される。これにより、前記使用者を煩わせるこ
と無しに、HDDなどの大容量記憶媒体に記憶された数多くの楽曲の中からの楽曲の選択
や、数多く存在する受信可能なチャンネルからのチャンネルの選択、明確な目的のないド
ライブ時における目的地の選択が行われることとなる。
According to the agent device (14), as contents to be provided to the user, music to be played, broadcast programs to be received (for example, TV programs, radio programs), and locations for destinations Either one is selected. This makes it possible to select music from a large number of music stored in a large-capacity storage medium such as a HDD, select a channel from a number of receivable channels, and make it clear without bothering the user. The destination is selected at the time of driving without a special purpose.
また、本発明に係るエージェント装置(15)は、上記エージェント装置(13)又は
(14)において、前記エージェントに設定されているプロファイル情報に基づいて、コ
ンテンツを選択するための選択条件を設定する選択条件設定手段を備え、前記処理手段が
、前記選択条件設定手段により設定された選択条件に基づいて、前記選択対象コンテンツ
の中から前記選択条件を満たすコンテンツを選択するものであることを特徴としている。
In addition, the agent device (15) according to the present invention is the agent device (13) or (14) in which selection conditions for selecting content are set based on profile information set in the agent. Including a condition setting unit, wherein the processing unit selects content satisfying the selection condition from the selection target content based on the selection condition set by the selection condition setting unit. .
上記エージェント装置(15)によれば、前記エージェントのプロファイル情報(例え
ば、「浜崎あゆみのファン」、「乗りの良い曲が好き」)に基づいて設定された前記選択
条件(例えば、「浜崎あゆみの歌っている乗りの良い楽曲」)に基づいて、前記選択対象
コンテンツ(例えば、HDDに記憶された楽曲)の中から前記使用者へ提供するコンテン
ツ(例えば、浜崎あゆみの歌っている乗りの良い楽曲)が選択される。
単にプロファイル情報からのコンテンツ選択では、選択処理の負荷が大きくなり過ぎる
おそれがあるが、前記選択条件を設定することによって、選択対象を絞ることができるの
で、選択処理の負荷を軽減することができる。
According to the agent device (15), the selection condition (for example, “Ayumi Hamasaki” is set based on the profile information of the agent (for example, “Ayumi Hamasaki fan”, “I like good songs”). Content that is provided to the user from among the content to be selected (for example, music stored in the HDD) (for example, Ayumi Hamasaki) ) Is selected.
If the content is simply selected from the profile information, the load of the selection process may become too large. However, the selection target can be narrowed down by setting the selection condition, so the load of the selection process can be reduced. .
また、本発明に係るエージェント装置(16)は、上記エージェント装置(1)〜(1
5)のいずれかにおいて、前記エージェントが複数設定され、これら複数のエージェント
の中から、使用者が動作主体とするエージェントの選択を行い得る環境を設定する第1の
環境設定手段を備え、該第1の環境設定手段により設定された環境で、前記使用者によっ
て前記エージェントの選択が行われた場合、前記処理手段が、選択された前記エージェン
トのプロファイル情報に基づいて、前記エージェントに特化した処理を行うものであるこ
とを特徴としている。
The agent device (16) according to the present invention includes the agent devices (1) to (1).
5), a plurality of the agents are set, and a first environment setting unit is provided for setting an environment in which a user can select an agent as an operation subject from the plurality of agents. When the user selects the agent in the environment set by the environment setting unit, the processing unit performs processing specialized for the agent based on the selected profile information of the agent. It is characterized by that.
上記エージェント装置(16)によれば、動作主体とするエージェントを前記使用者が
自由に選択することができる。これにより、前記使用者が好む前記エージェントが選択す
るコンテンツの提供などを受けることができる。従って、前記使用者の満足度を高めるこ
とができる。
According to the agent device (16), the user can freely select an agent as an operation subject. Accordingly, it is possible to receive provision of contents selected by the agent preferred by the user. Therefore, satisfaction of the user can be increased.
また、本発明に係るエージェント装置(17)は、上記エージェント装置(1)〜(1
6)のいずれかにおいて、前記エージェントが、動作主体となるべき機能毎に設定されて
いることを特徴としている。
The agent device (17) according to the present invention includes the agent devices (1) to (1).
In any one of 6), the agent is set for each function to be an operation subject.
上記エージェント装置(17)によれば、前記エージェントが、動作主体となるべき機
能毎に設定されている。例えば、ナビゲーション機能の動作主体となるエージェントと、
オーディオ機能の動作主体となるエージェントとがそれぞれ設けられる。従って、それぞ
れの機能に適したエージェントを準備することができる。
According to the agent device (17), the agent is set for each function to be an operation subject. For example, an agent that is the main subject of the navigation function,
An agent that is the main subject of the audio function is provided. Therefore, an agent suitable for each function can be prepared.
また、本発明に係るエージェント装置(18)は、上記エージェント装置(17)にお
いて、動作主体となるべき機能の異なるエージェントが複数設定され、使用者が機能の選
択を行い得る環境を設定する第2の環境設定手段と、該第2の環境設定手段により設定さ
れた環境で、前記使用者によって機能の選択が行われた場合、前記機能の動作主体となる
べきエージェントを、動作主体に設定する動作主体設定手段とを備えていることを特徴と
している。
In the agent device (18) according to the present invention, the agent device (17) has a second environment in which a plurality of agents having different functions to be an operation subject are set and a user can select a function. An operation to set an agent to be an operation subject of the function as an operation subject when a function is selected by the user in the environment set by the environment setting means and the second environment setting means And a main body setting means.
上記エージェント装置(18)によれば、前記使用者によって機能の選択が行われた場
合(例えば、目的地設定などのナビゲーション機能が選択された場合)、前記機能の動作
主体となるべきエージェントが、動作主体に設定される。例えば、CDを再生している場
合(すなわち、オーディオ機能の動作主体となるべきエージェントが、動作主体となって
いる場合)に、前記使用者によって「目的地設定」が指示された場合、動作主体がナビゲ
ーション機能の動作主体となるべきエージェントに切り替えられる。
これにより、前記使用者は前記エージェントをいちいち選択しなくても、機能を切り替
える操作を行うだけで、その機能に適したエージェントに切り替わるので、操作の簡素化
を図ることができる。
According to the agent device (18), when a function is selected by the user (for example, when a navigation function such as destination setting is selected), an agent that is to be the subject of the function is: Set to the action subject. For example, when a CD is being played (that is, when an agent that is to be the subject of the audio function is the subject of action), when the user has instructed “set destination”, the subject of action Is switched to the agent who should be the main subject of the navigation function.
Thereby, even if the user does not select the agent one by one, the user switches to an agent suitable for the function only by performing an operation for switching the function, so that the operation can be simplified.
以下、本発明に係るエージェント装置の実施の形態を図面に基づいて説明する。図1は
、実施の形態(1)に係るエージェント装置を含んで構成される、ナビゲーション機能を
有したオーディオ装置の要部を概略的に示したブロック図である。図中11はオーディオ
装置を示しており、車両Mに装備されるようになっている。
Embodiments of an agent device according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram schematically showing a main part of an audio device having a navigation function, which is configured to include an agent device according to the embodiment (1). In the figure,
オーディオ装置11は、メイン制御部であるオーディオ用制御部13及びナビゲーショ
ン用制御部14を含むマイコン12と、アンテナ15からテレビ放送波やラジオ放送波を
受信するための放送波受信機16と、地図データ等が記憶されたDVD−ROM17から
地図データ等を読み出すためのDVDドライブ18と、ボタンスイッチ19aを有したリ
モコン19と、ボタンスイッチ20a及び表示パネル20bを有した表示装置20と、音
声を電気信号に変換するマイクロフォン21と、マイクロフォン21で変換された電気信
号を処理して音声を認識するための音声認識部22と、マイコン12からの文字データを
処理して合成音声データを生成する音声合成部23と、音声合成部23で生成された合成
音声データを増幅する増幅器24と、増幅された合成音声データを音声として出力するス
ピーカ25とを含んで構成されている。なお、文字データではない、楽曲データなどの音
声データについては音声合成部23を介さずに、スピーカ25から出力されるようになっ
ている。また、DVDドライブ18はCDの再生も可能となっている。
The
また、表示パネル20bの上下左右には複数の赤外線LED(図示せず)と複数のフォ
トトランジスタ(図示せず)とが対向して配置され、指が表示パネル20bに触れた位置
を検出することができるように構成され、検出された結果についてはマイコン12で取得
することができるようになっている。
In addition, a plurality of infrared LEDs (not shown) and a plurality of phototransistors (not shown) are arranged opposite to each other on the top, bottom, left, and right of the
マイコン12に接続されている携帯電話などの移動体通信機26は、サーバー(図示せ
ず)からの情報などの受信に用いるものであり、マイコン12は移動体通信機26を介し
てサーバーからの情報(例えば、楽曲に関する情報や、放送番組の内容を示した情報)を
取得することができるようになっている。
A
また、マイコン12に接続されているGPS受信機27は、アンテナ28を介して衛星
からのGPS信号を受信するものであり、マイコン12はGPS信号に基づいて車両Mの
現在位置を割り出すことができるようになっている。また、マイコン12には車両Mの速
度に関するデータを検出するための車速センサ29と、車両Mの進行方向に関するデータ
を取得するためのジャイロセンサ30と、磁気ディスク(図示せず)で構成され、データ
の読み書きが可能であり、プロファイルデータや、楽曲データ、楽曲情報に関するデータ
など各種データが記憶されたHDD31とが接続されている。なお、ここでは地図データ
が記憶されたDVD−ROM17を採用しているが、別の実施の形態では、DVD−RO
M17ではなく、その他の記憶媒体、記憶装置を採用しても良く、例えば、地図データが
記憶されたHDDを採用しても良い。
The
Instead of M17, another storage medium or storage device may be employed, for example, an HDD in which map data is stored may be employed.
図2は、HDD31に記憶されているデータの一部を示した図であり、HDD31には
ユーザーの名前や生年月日、血液型、性別など、ユーザー自身によって入力されるプロフ
ァイル情報に関するデータ(プロファイルデータD1)と、ユーザーが視聴又は聴取した
放送番組の内容を示した情報(例えば、前記放送番組のジャンル情報、前記放送番組への
出演者情報、前記放送番組の中で流れた楽曲情報)や、ユーザーが聴取した楽曲情報、ユ
ーザーが訪問した場所情報など、ユーザーの視聴等した履歴に関するデータ(履歴データ
D2としてのプロファイルデータ)と、これら履歴に関するデータから求められるユーザ
ーに特有の性質を示した情報(例えば、ユーザーの嗜好)に関するデータ(学習データD
3としてのプロファイルデータ)とが記憶され、さらには日本語知識データD4と、楽曲
そのもののデータ(楽曲データD5)と、楽曲情報に関するデータ(楽曲情報データD6
)と、映像データD7と、エージェントの画像データなどのキャラクタデータD8と、対
話シナリオデータD9と、コンテンツデータD10と、音声認識辞書データD11と、音
声合成辞書データD12と、メモリカードなどの記憶媒体から取り込んだデータ(各種メ
ディアデータD13)と、エージェントのプロファイルデータD14(予め準備されたデ
ータや、履歴データ、学習データ)と、その他の保存データD15とが記憶されている。
FIG. 2 is a diagram showing a part of data stored in the
3), further, Japanese knowledge data D4, data of the music itself (music data D5), and music information data (music information data D6).
), Video data D7, character data D8 such as agent image data, dialogue scenario data D9, content data D10, speech recognition dictionary data D11, speech synthesis dictionary data D12, and a storage medium such as a memory card Data (various media data D13), agent profile data D14 (data prepared in advance, history data, learning data), and other saved data D15 are stored.
図3は、HDD31に記憶されている楽曲データ、及び楽曲情報に関するデータの一部
を示した図であり、HDD31にはCD2−1〜CD2−n(図18参照)に収録されて
いる楽曲データ及びTOC情報(例えば、CDに収録されている楽曲数や総演奏時間)に
関するデータが記憶され、さらにはCDに関する情報(例えば、タイトル名、収録されて
いる楽曲数、収録されている楽曲の総演奏時間、歌手名、リリースされた年月日、収録さ
れている各楽曲の曲名・演奏時間・ジャンル・イメージ)に関するデータが記憶されてい
る。イメージについては、楽曲の激しさやスピード感が5段階(レベル1〜レベル5)で
表され、例えば、楽曲『特許a』の激しさはレベル2(穏やか)、スピード感はレベル4
(速い)であるので、楽曲『特許a』はスピード感はあるが、やや穏やかな曲ということ
になる。
FIG. 3 is a diagram showing a part of music data stored in the
Since it is (fast), the song “patent a” has a sense of speed, but is a somewhat calm song.
楽曲データやTOC情報に関するデータについては、CD2−1〜CD2−nからデー
タを読み出してHDD31に記憶させれば良く、CDに関する情報(すなわち、楽曲情報
)については、これら情報を提供する機関などから、移動体通信機26を使って取得して
HDD31に記憶させれば良い。なお、前記機関から提供されたCDに関する情報が、H
DD31に記憶されているどの楽曲データに対応したものであるのかは、収録されている
楽曲数と総演奏時間から判断することができ、例えば、第1番目に記憶されている、タイ
トル名が「大発明」であるCD(楽曲数16曲、総演奏時間51分12秒)に関する情報
は、第2番目に記憶されている楽曲データ(CD2−2に収録されている楽曲データ)に
対応したものであると判断することができる。
The music data and the data related to the TOC information may be read from the CD2-1 to CD2-n and stored in the
Which music data is stored in the
図4は、HDD31に記憶されているユーザーのプロファイルデータの一部を示した図
であり、ユーザーの名前、生年月日、血液型、性別、楽曲の嗜好情報、テレビ・ラジオ放
送番組の嗜好情報、訪問場所の嗜好情報、好きなアーティスト、好きな楽曲、好きなテレ
ビ・ラジオ番組、好きな訪問場所について記憶されている。楽曲の嗜好情報は、曲の激し
さ、スピード感、ロック、ポップス、ジャズ、クラシック、演歌などが5段階(レベル1
〜レベル5)で表されている。
FIG. 4 is a diagram showing a part of the user profile data stored in the
~ Level 5).
例えば、曲の激しさがレベル4であれば、ユーザーは激しい曲を比較的好んでいると判
断することができ、ロックがレベル4で、演歌がレベル1であれば、ユーザーが演歌より
もロックを好んで聴くと判断することができる。また、テレビ・ラジオ放送番組の嗜好情
報はニュース、スポーツ、歌、バラエティ、ドキュメントなどが5段階で表され、訪問場
所の嗜好情報は公園、スポーツ、寺・神社、テーマパーク、映画館などが5段階で表され
ている。
For example, if the intensity of a song is
図5−A、図5−Bは、HDD31に記憶されている各エージェント(上から順にエー
ジェントEA〜ED)のプロファイルデータの一部を示した図であり、ユーザーと同様に
名前、生年月日、血液型、性別、楽曲の嗜好情報、テレビ・ラジオ放送番組の嗜好情報、
訪問場所の嗜好情報、好きなアーティスト、好きな楽曲、好きなテレビ・ラジオ番組、好
きな訪問場所について記憶され、さらには動作主体として行い得る機能を示した情報(例
えば、ナビゲーション機能、オーディオ機能、エアコン機能)、出力形態に関する情報(
例えば、方言、話し方の丁寧さ、服飾等の派手さ、アクセサリー)について記憶されてい
る。
FIG. 5-A and FIG. 5-B are diagrams showing a part of profile data of each agent (agents EA to ED in order from the top) stored in the
Visit location preference information, favorite artist, favorite song, favorite TV / radio program, information about favorite visit location, and information indicating functions that can be performed as an operation subject (for example, navigation function, audio function, Air conditioner function), information on output form (
For example, dialect, politeness of speaking, flashy clothes, accessories, etc.) are stored.
動作主体として行い得るとは、ユーザーによって選択されたときに、ユーザーに対して
その機能の操作等を支援することができることであり、動作主体として行い得る機能を示
した情報は、「1」、「0」で表されるようになっている。また、出力形態に関する情報
の方言は「0」、「1」、「2」、…で表され、「0」は標準語を示し、「1」は大阪弁
を示している。出力形態に関する情報の話し方の丁寧さや服飾等の派手さは5段階(レベ
ル1〜レベル5)で表され、アクセサリーについては「1」、「0」で表されるようにな
っている。
What can be performed as an operation subject means that, when selected by the user, it is possible to assist the user in the operation of the function, and information indicating the function that can be performed as the operation subject is “1”, It is represented by “0”. Further, dialects of information relating to output forms are represented by “0”, “1”, “2”,..., “0” indicates a standard word, and “1” indicates Osaka dialect. The politeness of the information about the output form and the flashiness such as clothes are expressed in five levels (
例えば、エージェントEAは、ユーザーに対してナビゲーション機能の操作等を支援す
ることはできるが、オーディオ機能の操作等を支援することはできないようになっている
。また、エージェントEAは、標準語で比較的丁寧に話すようになっている。また、服飾
等はあまり派手でなく、追加可能なアクセサリーは付加されないようになっている。
For example, the agent EA can support the operation of the navigation function or the like for the user, but cannot support the operation of the audio function or the like. Further, the agent EA speaks relatively carefully in the standard language. Also, clothes are not very flashy, and accessories that can be added are not added.
実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置11に
おけるマイコン12(オーディオ用制御部13)の行う処理動作[1−1]を図6に示し
たフローチャートに基づいて説明する。なお、この処理動作[1−1]はオーディオ装置
の電源がオンされたときに行われる動作である。まず、初期設定として、HDD31から
対話シナリオデータD9を読み出し、マイコン12内のメモリ(図示せず)に記憶させる
(ステップS1)。
A processing operation [1-1] performed by the microcomputer 12 (audio control unit 13) in the
次に、複数のエージェントのうちから、いずれかを選択し得るメニュー画面(図7参照
)を構成するメニュー画面データを表示装置20へ出力することによって、前記メニュー
画面を表示パネル20bへ表示させる(ステップS2)。前記メニュー画面データを構成
する、擬人化した各エージェントEA〜EDの画像データはキャラクタデータD8から読
み出し、各エージェントEA〜EDの名前はエージェントのプロファイルデータD14か
ら読み出すようになっている。また、動作主体として行い得る機能にナビゲーション機能
が含まれている場合には、車両マークmaがエージェント画像付近に表示され、オーディ
オ機能が含まれている場合には、音符マークmbがエージェント画像付近に表示されるよ
うになっている。
Next, the menu screen is displayed on the
次に、対話シナリオデータD9に基づいて、所定の案内文データを作成し、作成した案
内文データを音声合成部23へ出力することによって、スピーカ25より音声で案内文を
出力させる(ステップS3)。例えば、「私たちが操作のお手伝いをします。エージェン
トを選んでください?」といった案内文をスピーカ25より出力させる。なお、このとき
エージェントEA〜EDが案内をしているように、エージェントEA〜EDの口などを動
かすようにする方が望ましい。
Next, predetermined guidance text data is created based on the dialogue scenario data D9, and the created guidance text data is output to the
その後、マイクロフォン21から得られる情報に基づいて、ユーザーからのエージェン
トを選択する応答があったか否かを判断し(ステップS4)、エージェントを選択する応
答があったと判断すれば、次に、ユーザーからの選択に応じて、変数Vを「1」〜「4」
のいずれかに設定する(ステップS5)。数値「1」〜「4」はそれぞれエージェントE
A〜EDに対応しており、ユーザーによりエージェントEAが選択された場合(例えば、
「ひろし」という発声があった場合)、変数Vを「1」に設定する。
Thereafter, based on the information obtained from the
(Step S5). Numbers “1” to “4” are agent E
A to ED, and when the agent EA is selected by the user (for example,
When there is an utterance of “hiroshi”), the variable V is set to “1”.
次に、変数Vに対応するエージェント(すなわち、ユーザーにより選択されたエージェ
ント)だけが表示されている画面を表示パネル20bへ表示させると共に、対話シナリオ
データD9に基づいて、所定の案内文データを作成し、上記と同様に、スピーカ25より
音声で所定の案内文を出力させることによって、エージェントの紹介を行う(ステップS
6)。例えば、「では、これからは私○○(エージェントの名前)が操作の支援をさせて
いただきます」(基本文)といった案内文をスピーカ25より出力させる。
Next, a screen on which only the agent corresponding to the variable V (that is, the agent selected by the user) is displayed is displayed on the
6). For example, the
なお、これは基本文であり、方言が「0」(標準語)、丁寧さが「レベル3」(標準)
に設定されているエージェントの案内文であり、方言が「0」以外に設定されている場合
には、設定されている方言に変更し、また、丁寧さが「レベル3」でない場合には、設定
されている丁寧さのレベルに合わせたものに変更するようになっている。音声案内につい
ては、これ以降も同様の変更処理が行われるようになっている。
This is a basic sentence, dialect is "0" (standard language), politeness is "
If the dialect is set to a value other than “0”, the dialect is changed to the set dialect, and if the politeness is not “
次に、変数Vに対応するエージェント(すなわち、ユーザーにより選択されたエージェ
ント)が動作主体として行い得る機能に、ナビゲーション機能が含まれているか否かを判
断し(ステップS7)、ナビゲーション機能が含まれていると判断すれば、次に、変数V
に対応するエージェント(すなわち、ユーザーにより選択されたエージェント)が動作主
体として行い得る機能に、オーディオ機能が含まれているか否かを判断する(ステップS
8)。
Next, it is determined whether or not the function corresponding to the variable V (that is, the agent selected by the user) can be performed as an operation subject includes the navigation function (step S7), and the navigation function is included. If it is determined that the variable V
It is determined whether or not an audio function is included in a function that can be performed as an operation subject by an agent corresponding to (i.e., an agent selected by the user) (step S).
8).
オーディオ機能が含まれていると判断すれば、次に、ナビゲーション機能及びオーディ
オ機能のいずれかの稼働選択が可能な画面を表示パネル20bへ表示させると共に(ステ
ップS9)、対話シナリオデータD9に基づいて、所定の案内文データを作成し、上記と
同様に、スピーカ25より音声で所定の案内文を出力させる(ステップS10)。例えば
、「ナビゲーション機能を稼働させますか、それともオーディオ機能を稼働させますか?
」(基本文)といった案内文をスピーカ25より出力させる。ここでも、上記と同様に、
選択されたエージェントに設定されている方言、丁寧さに合わせて案内文の変更が行われ
るようになっている。
If it is determined that the audio function is included, a screen on which either the navigation function or the audio function can be selected is displayed on the
”(Basic text) is output from the
The guidance text is changed according to the dialect and politeness set for the selected agent.
その後、マイクロフォン21から得られる情報に基づいて、ユーザーからの「ナビゲー
ション」に相当する応答があったか否かを判断し(ステップS11)、ユーザーからの「
ナビゲーション」に相当する応答があったと判断すれば、ナビゲーション用制御部14に
対して目的地設定などの『ナビゲーション処理』(図8参照)を行うように指示する(ス
テップS12)。
Thereafter, based on the information obtained from the
If it is determined that there is a response corresponding to “navigation”, the
次に、ユーザーからのオーディオ機能を稼働させる指示があったか否か(例えば、リモ
コン19に設けられているナビゲーション機能とオーディオ機能とを切り替えるための切
替スイッチが押下されたか否か)を判断し(ステップS13)、ユーザーからのオーディ
オ機能を稼働させる指示があったと判断すれば、『オーディオ処理』(図11参照)を行
う(ステップS14)。一方、オーディオ機能を稼働させる指示はないと判断すれば、そ
のままステップS13へ戻る。
Next, it is determined whether or not there has been an instruction from the user to activate the audio function (for example, whether or not a changeover switch for switching between a navigation function and an audio function provided on the
ところで、ナビゲーション機能からオーディオ機能への切り替えや、オーディオ機能か
らナビゲーション機能への切り替えのように、稼働させる機能の切り替えを行う場合、切
り替え前に動作主体となっていたエージェントが、切り替え後の機能の動作主体となり得
るとは限らない。例えば、オーディオ機能の動作主体となり得ないエージェントが動作主
体となっているときに、ナビゲーション機能からオーディオ機能への切り替えが行われた
といった場合が考えられる。
By the way, when switching the function to be activated, such as switching from the navigation function to the audio function or switching from the audio function to the navigation function, the agent that was the main agent before the switch It is not always possible to become an action subject. For example, there may be a case where switching from the navigation function to the audio function is performed when an agent that cannot be the main subject of the audio function is the main subject.
このような場合は、オーディオ機能の動作主体となり得るエージェントを自動的に選択
するようにすれば良い。エージェントの選択方法としては、ランダムに選択するといった
方法や、ユーザーの利用回数の多いもの(すなわち、ユーザーが好んでいる可能性の高い
もの)を選択するといった方法が挙げられる。また、別の実施の形態では、動作主体とな
り得るエージェントの候補を挙げるなどして、ユーザーに選択させるようにしても良い。
なお、エージェントECのように、ナビゲーション機能、オーディオ機能のいずれの動作
主体ともなり得るものについては、エージェントの切り替えを行う必要はない。
In such a case, an agent that can be the main subject of the audio function may be automatically selected. Examples of the method of selecting an agent include a method of selecting at random, and a method of selecting an agent that is frequently used by a user (that is, a user that is highly likely to be used). In another embodiment, the user may be selected by, for example, listing candidate agents that can be the subject of action.
In addition, it is not necessary to perform agent switching for an agent EC that can be either the navigation function or the audio function.
一方、ステップS11において、ユーザーからの「ナビゲーション」に相当する応答は
ないと判断すれば、次に、ユーザーからの「オーディオ」に相当する応答があったか否か
を判断し(ステップS15)、「オーディオ」に相当する応答があったと判断すれば、『
オーディオ処理』を行う(ステップS14)。一方、「オーディオ」に相当する応答はな
いと判断すれば、ステップS11へ戻る。
On the other hand, if it is determined in step S11 that there is no response corresponding to “navigation” from the user, it is then determined whether or not there is a response corresponding to “audio” from the user (step S15). If you determine that there is a response equivalent to
Audio processing "is performed (step S14). On the other hand, if it is determined that there is no response corresponding to “audio”, the process returns to step S11.
また、ステップS7において、変数Vに対応するエージェント(すなわち、ユーザーに
より選択されたエージェント)が動作主体として行い得る機能に、ナビゲーション機能が
含まれていない(すなわち、動作主体として行う得る機能に、ナビゲーション機能及びオ
ーディオ機能のうち、オーディオ機能しか含まれていない)と判断すれば、ステップS1
4へ進んで『オーディオ処理』を行う。
In step S7, the function corresponding to the variable V (that is, the agent selected by the user) does not include the navigation function (that is, the function that can be performed as the operation subject includes navigation). If it is determined that only the audio function is included among the functions and the audio functions), step S1
Go to step 4 to perform “audio processing”.
また、ステップS4において、ユーザーからのエージェントを選択する応答はないと判
断すれば、次に、ユーザーからの「No」に相当する応答があったか否かを判断し(ステ
ップS16)、「No」に相当する応答があったと判断すれば、次に、対話シナリオデー
タD9に基づいて、所定の案内文データを作成し、スピーカ25より音声で所定の案内文
を出力させる(ステップS17)。例えば、「では、必要になれば私たち(エージェント
EA〜ED)を呼び出してください」といった案内文をスピーカ25より出力させる。そ
の後、エージェントによる支援のない処理、すなわちユーザーの操作(手動や音声)だけ
に基づいた『ユーザー操作処理』(図16参照)を行う(ステップS18)。
If it is determined in step S4 that there is no response for selecting an agent from the user, it is then determined whether there is a response corresponding to “No” from the user (step S16). If it is determined that there is a corresponding response, next, predetermined guidance text data is created based on the dialogue scenario data D9, and a predetermined guidance text is output from the
一方、ステップS16において、ユーザーからの「No」に相当する応答はないと判断
すれば、ステップS4へ戻る。なお、所定の時間(例えば、10秒)が経過しても、エー
ジェントを選択する応答も、「No」の応答もない場合は、所定の条件に基づいて、エー
ジェントを選択して、ステップS5へ進むようにしても良い。また、エージェントの選択
、「No」の応答については音声に限定されず、表示パネル20bへのタッチ操作などを
採用しても良い。
On the other hand, if it is determined in step S16 that there is no response corresponding to “No” from the user, the process returns to step S4. If there is neither a response for selecting an agent nor a “No” response even after a predetermined time (for example, 10 seconds) elapses, the agent is selected based on a predetermined condition, and the process proceeds to step S5. You may make it go. Further, the agent selection and the “No” response are not limited to voice, and a touch operation on the
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(ナビゲーション用制御部14)の行う処理動作[1−2]を
図8に示したフローチャートに基づいて説明する。なお、この処理動作[1−2]はメイ
ン制御部であるオーディオ用制御部13からナビゲーション処理を行う指示がなされた場
合(図6のステップS12)に行われる動作である。
Next, the processing operation [1-2] performed by the microcomputer 12 (navigation control unit 14) in the
まず、音声認識用の語彙をナビゲーション用に限定する(例えば、オーディオ用の語彙
を外す)ことによって、音声認識力を高める(ステップS21)。別の実施の形態では、
音声認識用の語彙を限定するのではなく、語彙の重み付けを行うようにしても良い。例え
ば、オーディオ用の語彙のヒット確率を下げるように重み付けを行う。
First, by limiting the speech recognition vocabulary to navigation (for example, removing the audio vocabulary), speech recognition is enhanced (step S21). In another embodiment,
The vocabulary for speech recognition is not limited but vocabulary weighting may be performed. For example, weighting is performed so as to reduce the hit probability of the vocabulary for audio.
次に、ナビゲーション用のメニュー画面を表示パネル20bへ表示させると共に(ステ
ップS22)、対話シナリオデータD9に基づいて、所定の案内文データを作成し、スピ
ーカ25より音声で所定の案内文を出力させる(ステップS23)。例えば、「目的地を
選択してもよろしいでしょうか?」といった案内文をスピーカ25より出力させる。
Next, a menu screen for navigation is displayed on the
その後、マイクロフォン21から得られる情報に基づいて、ユーザーからの「Yes」
に相当する応答があったか否かを判断し(ステップS24)、ユーザーからの「Yes」
に相当する応答があったと判断すれば、次に、『目的地選択処理』(図9参照)を行う(
ステップS25)。
Then, based on the information obtained from the
It is determined whether or not there is a response corresponding to (Yes in step S24).
If it is determined that there is a response corresponding to, next, “destination selection processing” (see FIG. 9) is performed (see FIG. 9).
Step S25).
目的地Gの選択処理が完了すると、目的地Gまで車両Mを誘導する誘導処理を行い(ス
テップS26)、次に、車両Mが目的地Gへ到達したか否かを判断する(ステップS27
)。車両Mが目的地Gへ到達していないと判断すれば、車両Mが目的地Gへ到達するまで
に要する時間Taを算出し(ステップS28)、その後、ステップS26へ戻る。一方、
車両Mが目的地Gへ到達していると判断すれば、時間Taを0にして(ステップS29)
、処理動作[1−2]を終了する。
When the destination G selection process is completed, a guidance process for guiding the vehicle M to the destination G is performed (step S26), and then it is determined whether or not the vehicle M has reached the destination G (step S27).
). If it is determined that the vehicle M has not reached the destination G, a time Ta required for the vehicle M to reach the destination G is calculated (step S28), and then the process returns to step S26. on the other hand,
If it is determined that the vehicle M has reached the destination G, the time Ta is set to 0 (step S29).
Then, the processing operation [1-2] is terminated.
また、ステップS24において、ユーザーからの「Yes」に相当する応答はないと判
断すれば、次に、ユーザーからの「No」に相当する応答があったか否かを判断し(ステ
ップS30)、「No」に相当する応答があったと判断すれば、次に、目的地選択以外の
別のナビゲーション処理を行う(ステップS31)。
If it is determined in step S24 that there is no response corresponding to “Yes” from the user, it is then determined whether or not there is a response corresponding to “No” from the user (step S30). If it is determined that there is a response corresponding to “”, another navigation process other than the destination selection is performed (step S31).
一方、ステップS30において、ユーザーからの「No」に相当する応答はないと判断
すれば、ステップS24へ戻る。なお、所定の時間(例えば、6秒)が経過しても、「Y
es」、「No」のいずれの応答もない場合は、「Yes」と判断して、ステップS25
へ進むようにしても良い。また、「Yes」、「No」の応答については音声に限定され
ず、表示パネル20bへのタッチ操作などを採用しても良い。
On the other hand, if it is determined in step S30 that there is no response corresponding to “No” from the user, the process returns to step S24. Even if a predetermined time (for example, 6 seconds) elapses, “Y
If there is no response of “es” or “No”, it is determined as “Yes” and step S25 is performed.
You may make it go to. Further, the responses “Yes” and “No” are not limited to voice, and a touch operation on the
次に、実施の形態(1)に係るコンテンツ選択装置を含んで構成される、オーディオ装
置11におけるマイコン12(ナビゲーション用制御部14)の行う『目的地選択処理』
(図8のステップS25)を図9に示したフローチャートに基づいて説明する。まず、目
的地Gの選択に使用するプロファイル情報を設定し、設定したプロファイル情報をHDD
31から読み出すなどの『プロファイル情報の設定・読出処理』(図10参照)を行い(
ステップS41)、その後、ステップS42へ進む。
Next, a “destination selection process” performed by the microcomputer 12 (the navigation control unit 14) in the
(Step S25 in FIG. 8) will be described based on the flowchart shown in FIG. First, profile information used for selecting the destination G is set, and the set profile information is stored in the HDD.
Perform “profile information setting / reading processing” (see FIG. 10) such as reading from 31 (see FIG. 10).
Step S41), and then the process proceeds to Step S42.
なお、使用可能なプロファイル情報としては、ユーザーのプロファイル情報や、エージ
ェントのプロファイル情報などが挙げられる。目的地Gの選択にユーザーのプロファイル
情報を使用すれば、例えば、ユーザーの嗜好に基づいて、ユーザーが好むと推定される場
所を目的地Gとして選択することができる。
The usable profile information includes user profile information, agent profile information, and the like. If the user's profile information is used for selecting the destination G, for example, a place estimated to be preferred by the user can be selected as the destination G based on the user's preference.
ステップS42では、HDD31から読み出したプロファイル情報に基づいて、目的地
Gを選択するための選択条件を設定する。例えば、ユーザーがテーマパークや公園へ行く
ことを好むのであれば、『テーマパーク』と『公園』とを選択条件に設定する。また、よ
り具体的に『○×ランド』へ行くことが好きであれば、それを選択条件にしても良い。ま
た、ユーザーの過去の訪問履歴データに基づいて、最近テーマパークを訪問していれば、
『テーマパーク以外』を選択条件に設定しても良い。
In step S42, a selection condition for selecting the destination G is set based on the profile information read from the
“Other than theme park” may be set as a selection condition.
次に、DVD−ROM17から読み出しておいた施設データや、HDD31に記憶され
ているコンテンツデータ、及び設定した選択条件に基づいて、目的地Gを選択し(ステッ
プS43)、選択した場所に関する情報(例えば、施設名、所在地、ジャンル)と、誰の
プロファイル情報を使用したのかとを、現在の時間(例えば、年月日、時刻)と対応づけ
て訪問履歴情報としてHDD31(履歴データD2)に記憶させると共に(ステップS4
4)、上記と同様のユーザーの訪問履歴情報を、変数Vに対応するエージェント(すなわ
ち、ユーザーにより選択されて、動作主体となっているエージェント)のプロファイルデ
ータD14(HDD31)のところへ記憶させる(ステップS45)。
Next, the destination G is selected based on the facility data read from the DVD-
4) The same user visit history information as described above is stored in the profile data D14 (HDD 31) of the agent corresponding to the variable V (that is, the agent selected by the user and acting as the operating subject) ( Step S45).
なお、選択した場所については、ユーザーが実際に訪問するかどうか分からないので、
別の実施の形態では、前記場所へ到達したときに、該場所に関する情報を訪問履歴情報と
してHDD31へ記憶させるようにしても良い。また、さらに別の実施の形態では、ユー
ザーにより目的地Gが変更された場合、ユーザーは前記場所を好んでいないと判定し、該
判定結果をユーザーの履歴情報としてHDD31に記憶させるようにしても良い。この履
歴情報を用いれば、ユーザーの好まない場所を目的地Gとして選択する可能性を低くする
ことができる。
It ’s important to note that you ’re not sure if the user will actually visit the selected location,
In another embodiment, when the location is reached, information regarding the location may be stored in the
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(ナビゲーション用制御部14)の行う『プロファイル情報の
読出・設定処理』(図9のステップS41)を図10に示したフローチャートに基づいて
説明する。まず、目的地Gの選択に使用するプロファイル情報を、所定の条件に基づいて
設定する(ステップS51)。使用可能なプロファイル情報としては、ユーザーのプロフ
ァイル情報や、エージェントのプロファイル情報が挙げられる。なお、目的地Gの選択に
使用するプロファイル情報の設定方法としては、ランダムに設定する方法や、過去のプロ
ファイル情報設定履歴に基づいて設定する方法(例えば、前回使用したプロファイル情報
は避ける)などが挙げられる。また、ユーザーに誰のプロファイル情報を使用すれば良い
のかを選択させるようにしても良い。
Next, “profile information reading / setting process” (step S41 in FIG. 9) performed by the microcomputer 12 (the navigation control unit 14) in the
次に、対話シナリオデータD9に基づいて、所定の案内文データを作成し、上記と同様
に、スピーカ25より音声で所定の案内文を出力させる(ステップS52)。例えば、「
私(ユーザーに選択されたエージェント)のプロファイル情報を使用します。よろしいで
しょうか?」(基本文)といった案内文や、「あなたのプロファイル情報を使用します。
よろしいでしょうか?」(基本文)といった案内文をスピーカ25より出力させる。
Next, predetermined guidance text data is created based on the dialogue scenario data D9, and the predetermined guidance text is output by voice from the
Use my (agent selected by user) profile information. is this good? "(Basic sentence)" or "Your profile information will be used.
is this good? ”(Basic text) is output from the
その後、マイクロフォン21から得られる情報に基づいて、ユーザーからの「Yes」
に相当する応答があったか否かを判断し(ステップS53)、「Yes」に相当する応答
があったと判断すれば、HDD31からステップS51で設定したプロファイル情報を読
み出す(ステップS54)。
Then, based on the information obtained from the
(Step S53). If it is determined that there is a response corresponding to “Yes”, the profile information set in step S51 is read from the HDD 31 (step S54).
一方、ユーザーからの「Yes」に相当する応答はないと判断すれば、次に、ユーザー
からの「No」に相当する応答があったか否かを判断し(ステップS55)、「No」に
相当する応答があったと判断すれば、HDD31からステップS51で設定したプロファ
イル情報とは別のプロファイル情報を読み出す(ステップS56)。一方、ユーザーから
の「No」に相当する応答はないと判断すれば、ステップS53へ戻る。なお、所定の時
間(例えば、6秒)が経過しても、「Yes」、「No」のいずれの応答もない場合は、
「Yes」と判断して、ステップS54へ進むようにしても良い。また、「Yes」、「
No」の応答については音声に限定されず、表示パネル20bへのタッチ操作などを採用
しても良い。
On the other hand, if it is determined that there is no response corresponding to “Yes” from the user, it is then determined whether or not there is a response corresponding to “No” from the user (step S55), which corresponds to “No”. If it is determined that there is a response, profile information different from the profile information set in step S51 is read from the HDD 31 (step S56). On the other hand, if it is determined that there is no response corresponding to “No” from the user, the process returns to step S53. If there is no response “Yes” or “No” after a predetermined time (for example, 6 seconds),
It may be determined as “Yes” and proceed to Step S54. Also, “Yes”, “
The response “No” is not limited to voice, and a touch operation on the
ユーザーのプロファイル情報ではなく、エージェントのプロファイル情報に基づいて、
目的地Gを選択すれば、普段訪問することの少ない場所へ訪問することができるようにな
り、ドライブをより楽しいものとすることができる。また、ここでは目的地Gの選択に使
用するユーザー以外のプロファイル情報として、エージェントのプロファイル情報を挙げ
ているが、別の実施の形態では、ユーザーの家族・友人や、有名人(例えば、ユーザーの
好きなアーティスト)、その他の一般人のプロファイル情報などを使用できるようにして
も良い。
Based on agent profile information, not user profile information,
If the destination G is selected, it becomes possible to visit places that are rarely visited, and driving can be made more enjoyable. Here, the profile information of the agent is listed as profile information other than the user used for selecting the destination G. However, in another embodiment, the user's family / friends, celebrity (for example, the user's favorite information) Such as profile information of other artists).
また、さらに別の実施の形態では、想像の人物(例えば、メーカーが作成したキャラク
ター)や、統計的データに基づいて作成された平均的な人物(例えば、平均的な大阪在住
の20代男性、スポーツ好きの30代女性)などのプロファイル情報を使用できるように
しても良い。
In yet another embodiment, an imaginary person (for example, a character created by a manufacturer), an average person created based on statistical data (for example, an average male in his twenties living in Osaka, Profile information such as women who like sports in their 30s) may be used.
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(オーディオ用制御部13)の行う『オーディオ処理』(図6
のステップS14)を図11に示したフローチャートに基づいて説明する。まず、音声認
識用の語彙をオーディオ用に限定する(例えば、ナビゲーション用の語彙を外す)ことに
よって、音声認識力を高める(ステップS61)。別の実施の形態では、音声認識用の語
彙を限定するのではなく、語彙の重み付けを行うようにしても良い。例えば、ナビゲーシ
ョン用の語彙のヒット確率を下げるように重み付けを行う。
Next, “audio processing” performed by the microcomputer 12 (the audio control unit 13) in the
Step S14) will be described based on the flowchart shown in FIG. First, the speech recognition ability is enhanced by limiting the speech recognition vocabulary to audio (for example, removing the navigation vocabulary) (step S61). In another embodiment, vocabulary weighting may be performed instead of limiting the vocabulary for speech recognition. For example, weighting is performed so as to reduce the hit probability of the navigation vocabulary.
次に、オーディオ用のメニュー画面を表示パネル20bへ表示させると共に(ステップ
S62)、対話シナリオデータD9に基づいて、所定の案内文データを作成し、スピーカ
25より音声で所定の案内文を出力させる(ステップS63)。例えば、「音楽を流しま
しょうか?それともテレビ番組やラジオ番組を流しましょうか?」(基本文)といった案
内文をスピーカ25より出力させる。
Next, an audio menu screen is displayed on the
その後、マイクロフォン21から得られる情報に基づいて、ユーザーからの「音楽」に
相当する応答があったか否かを判断し(ステップS64)、ユーザーからの「音楽」に相
当する応答があったと判断すれば、次に、『楽曲再生処理』(図12参照)を行う(ステ
ップS65)。
Thereafter, based on the information obtained from the
一方、ユーザーからの「音楽」に相当する応答はないと判断すれば、次に、ユーザーか
らの「テレビ」に相当する応答があったか否かを判断し(ステップS66)、「テレビ」
に相当する応答があったと判断すれば、次に、『テレビ放送受信処理』(図15参照)を
行う(ステップS67)。
On the other hand, if it is determined that there is no response corresponding to “music” from the user, it is then determined whether or not there is a response corresponding to “TV” from the user (step S66).
If it is determined that a response corresponding to is received, “television broadcast reception processing” (see FIG. 15) is performed (step S67).
ユーザーからの「テレビ」に相当する応答はないと判断すれば、次に、ユーザーからの
「ラジオ」に相当する応答があったか否かを判断し(ステップS68)、「ラジオ」に相
当する応答があったと判断すれば、次に、『ラジオ放送受信処理』を行う(ステップS6
9)。なお、『ラジオ放送受信処理』は、図15で説明する『テレビ放送受信処理』と同
様であるので、その説明を省略する。
If it is determined that there is no response corresponding to “TV” from the user, it is then determined whether or not there is a response corresponding to “radio” from the user (step S68). If it is determined that there is, then “radio broadcast reception processing” is performed (step S6).
9). The “radio broadcast reception process” is the same as the “television broadcast reception process” described in FIG.
一方、ステップS68において、ユーザーからの「ラジオ」に相当する応答はないと判
断すれば、ステップS64へ戻る。なお、所定の時間(例えば、6秒)が経過しても、「
音楽」、「テレビ」、「ラジオ」のいずれの応答もない場合は、「音楽」と判断して、ス
テップS65へ進むようにしても良い。また、「音楽」、「テレビ」、「ラジオ」の応答
については音声に限定されず、表示パネル20bへのタッチ操作などを採用しても良い。
On the other hand, if it is determined in step S68 that there is no response corresponding to “radio” from the user, the process returns to step S64. Even if a predetermined time (for example, 6 seconds) elapses,
If there is no response of “music”, “television”, or “radio”, it may be determined as “music” and the process may proceed to step S65. Further, the response of “music”, “TV”, and “radio” is not limited to voice, and a touch operation on the
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(オーディオ用制御部13)の行う『楽曲再生処理』(図11
のステップS65)を図12に示したフローチャートに基づいて説明する。まず、再生リ
ストの作成(楽曲の選択)に使用するプロファイル情報を設定し、設定したプロファイル
情報をHDD31から読み出すなどの『プロファイル情報の設定・読出処理』を行い(ス
テップS71)、その後、ステップS72へ進む。
Next, “music reproduction processing” performed by the microcomputer 12 (audio control unit 13) in the
Step S65) will be described based on the flowchart shown in FIG. First, “profile information setting / reading processing” such as setting profile information used for creating a playlist (selecting music) and reading the set profile information from the
なお、ここでの『プロファイル情報の設定・読出処理』は、図10に示した『プロファ
イル情報の設定・読出処理』と同様であり、楽曲の選択に使用するプロファイル情報とし
ては、ユーザーのプロファイル情報に限定されず、エージェントなど、ユーザー本人以外
のプロファイル情報であっても良い。例えば、ユーザーにより選択されたエージェントの
プロファイル情報に基づいて、エージェントが好む楽曲を選択することができる。
The “profile information setting / reading process” here is the same as the “profile information setting / reading process” shown in FIG. 10, and the profile information used to select the music is the user's profile information. However, the information may be profile information other than the user himself / herself, such as an agent. For example, based on the profile information of the agent selected by the user, the music preferred by the agent can be selected.
ステップS72では、HDD31から読み出したプロファイル情報に基づいて、再生リ
ストを作成するための選択条件(すなわち、楽曲を選択するための選択条件)を設定する
。例えば、エージェントがスピード感のない楽曲(ゆっくりした楽曲)や演歌を聴くこと
を好むのであれば、『スピードレベル2以下』と『演歌』とを選択条件に設定する。また
、より具体的に『×××』という楽曲を聴くことが好きであれば、それを選択条件にして
も良い。また、ユーザーの過去の聴取履歴に基づいて、昨日楽曲『□△☆』を聴取してい
れば、『□△☆以外』を選択条件に設定しても良い。
次に、設定した前記選択条件に基づいて、再生リストを作成する『再生リスト作成処理
』(図13参照)を行い(ステップS73)、その後、作成した再生リストに従って、楽
曲を再生する『リスト再生処理』(図14参照)を行う(ステップS74)。
In step S72, based on the profile information read from the
Next, “playlist creation processing” (see FIG. 13) for creating a playlist is performed based on the set selection conditions (see FIG. 13) (step S73). Processing "(see FIG. 14) is performed (step S74).
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(オーディオ用制御部13)の行う『再生リスト作成処理』(
図12のステップS73)を図13に示したフローチャートに基づいて説明する。まず、
車両Mの走行環境条件などに関する情報(例えば、日付、曜日、時刻、時間帯、季節、気
象、走行中の道路の種別)を取得し(ステップS81)、取得した情報に基づいて、楽曲
の再生順序に関する再生順序条件を設定する(ステップS82)。例えば、季節が春や夏
であれば、段々と盛り上がるような順序で楽曲が再生されるように前記再生順序条件を設
定したり、季節が秋と冬であれば、段々と大人しくなってくるような順序で楽曲が再生さ
れるように前記再生順序条件を設定する。
Next, “play list creation processing” (by the audio control unit 13) in the
Step S73 in FIG. 12 will be described based on the flowchart shown in FIG. First,
Information on the driving environment conditions of the vehicle M (for example, date, day of the week, time, time zone, season, weather, type of road being traveled) is acquired (step S81), and music playback is performed based on the acquired information. A reproduction order condition relating to the order is set (step S82). For example, if the season is spring or summer, the playback order conditions are set so that the songs are played in an order of increasing excitement, or if the season is autumn and winter, it will become increasingly mature The reproduction order condition is set so that the music is reproduced in a proper order.
次に、楽曲を選択するための選択条件、及び再生順序条件に基づいて、HDD31に記
録されている楽曲の中から、前記選択条件、及び前記再生順序条件を満たす、第1番目に
再生すべき楽曲を選択する(ステップS83)。次に、楽曲を選択するための前記選択条
件、及び前記再生順序条件に基づいて、HDD31に記録されている楽曲の中から、前記
選択条件、及び前記再生順序条件を満たす、最後に再生すべき楽曲を選択する(ステップ
S84)。
Next, based on the selection condition for selecting the music and the playback order condition, the music that is recorded on the
次に、目的地Gが設定されていて、目的地Gへの誘導処理が行われているか否かを判断
する(ステップS85)。目的地Gへの誘導処理が行われていると判断すれば、ドライブ
中に楽曲の再生を終了させるために(すなわち、目的地Gへ到達するまでに楽曲の再生を
終了せるために)、目的地Gへ到達するまでに要する時間Ta、1曲目の再生時間、及び
最終曲の再生時間に基づいて、残り再生可能な時間(=時間Ta−1曲目の再生時間−最
終曲の再生時間)を算出し(ステップS86)、その後、ステップS88へ進む。
Next, it is determined whether or not the destination G is set and guidance processing to the destination G is performed (step S85). If it is determined that the guidance process to the destination G has been performed, in order to end the reproduction of the music during driving (that is, to end the reproduction of the music before reaching the destination G), Based on the time Ta required to reach the ground G, the playback time of the first song, and the playback time of the last song, the remaining playable time (= time Ta-1 playback time-last song playback time) Calculate (step S86), and then proceed to step S88.
一方、目的地Gへの誘導処理は行われていないと判断すれば、総再生時間を60分に設
定して、残り再生可能な時間(=60分−1曲目の再生時間−最終曲の再生時間)を算出
し(ステップS87)、その後、ステップS88へ進む。なお、この総再生時間について
は、ユーザーに予め設定させておくようにしたり、その時々で自由に設定できるようにし
ても良い。
On the other hand, if it is determined that the guidance process to the destination G has not been performed, the total playback time is set to 60 minutes, and the remaining playback time (= 60 minutes—the playback time of the first song—the playback of the last song) Time) is calculated (step S87), and then the process proceeds to step S88. The total playback time may be set by the user in advance or may be freely set at any time.
ステップS88では、前記選択条件、前記再生順序条件、及び残り再生可能な時間に基
づいて、2曲目以降の楽曲(最終曲は除く)の選択を行い、その選択結果に基づいて、再
生リストを表示パネル20bへ表示することによって、再生リストをユーザーへ紹介する
(ステップS89)。次に、対話シナリオデータD9に基づいて、所定の案内文データを
作成し、スピーカ25より音声で所定の案内文を出力させる(ステップS90)。例えば
、「再生リストはこれでよろしいでしょうか?」(基本文)といった案内文をスピーカ2
5より出力させる。
In step S88, the second and subsequent songs (excluding the last song) are selected based on the selection condition, the reproduction order condition, and the remaining playable time, and a reproduction list is displayed based on the selection result. By displaying on the
5 is output.
その後、マイクロフォン21から得られる情報に基づいて、ユーザーからの「Yes」
に相当する応答があったか否かを判断し(ステップS91)、「Yes」に相当する応答
があったと判断すれば、次に、これら選択した楽曲に関する情報(例えば、楽曲名、歌手
名、ジャンル)と、誰のプロファイル情報を使用したのかとを、現在の時間(例えば、年
月日、時刻)と対応づけて、ユーザーの楽曲聴取履歴情報としてHDD31(履歴データ
D2)に記憶させると共に(ステップS92)、上記と同様のユーザーの楽曲聴取履歴情
報を、変数Vに対応するエージェント(すなわち、ユーザーにより選択されて、動作主体
となっているエージェント)のプロファイルデータD14(HDD31)のところへ記憶
させる(ステップS93)。
Then, based on the information obtained from the
If it is determined whether or not there is a response corresponding to “Yes” (step S91), and if it is determined that there is a response corresponding to “Yes”, then information on the selected music (for example, music name, singer name, genre) And which profile information is used is associated with the current time (for example, date, time) and stored in the HDD 31 (history data D2) as the user's music listening history information (step S92). ), The user's music listening history information similar to the above is stored in the profile data D14 (HDD 31) of the agent corresponding to the variable V (that is, the agent selected by the user and acting as the main subject) ( Step S93).
なお、選択した楽曲については、ユーザーが実際に聴取するかどうか分からないので、
別の実施の形態では、前記楽曲が実際に再生開始(又は完了)したときに、楽曲情報を楽
曲聴取履歴情報としてHDD31へ記憶させるようにしても良い。また、さらに別の実施
の形態では、ユーザーにより再生が中止された場合、ユーザーは当該楽曲を好んでいない
と判定し、該判定結果をユーザーの履歴情報としてHDD31に記憶させるようにしても
良い。この履歴情報を用いれば、ユーザーの好まない楽曲を選択する可能性を低くするこ
とができる。
As for the selected song, the user is not sure whether to actually listen,
In another embodiment, when the music actually starts to be reproduced (or completed), the music information may be stored in the
一方、「Yes」に相当する応答はないと判断すれば、次に、ユーザーからの「No」
に相当する応答があったか否かを判断し(ステップS94)、「No」に相当する応答が
あったと判断すれば、再生リストを変更し得る環境を設定し(ステップS95)、ユーザ
ーによる再生リストの変更指示が完了したと判断すれば(ステップS96)、前記変更指
示に基づいて、再生リストを変更し(ステップS97)、その後、ステップS89へ戻る
。
On the other hand, if it is determined that there is no response corresponding to “Yes”, then “No” from the user
(Step S94). If it is determined that there is a response corresponding to “No”, an environment in which the playlist can be changed is set (step S95). If it is determined that the change instruction has been completed (step S96), the playlist is changed based on the change instruction (step S97), and then the process returns to step S89.
一方、ステップS94において、ユーザーからの「No」に相当する応答はないと判断
すれば、ステップS91へ戻る。なお、所定の時間(例えば、10秒)が経過しても、「
Yes」、「No」のいずれの応答もない場合は、「Yes」と判断して、ステップS9
2へ進むようにしても良い。また、「Yes」、「No」、「ナビゲーション」、「オー
ディオ」の応答については音声に限定されず、表示パネル20bへのタッチ操作などを採
用しても良い。
On the other hand, if it is determined in step S94 that there is no response corresponding to “No” from the user, the process returns to step S91. Even if a predetermined time (for example, 10 seconds) elapses,
If there is no response “Yes” or “No”, it is determined as “Yes”, and step S9 is performed.
You may make it progress to 2. Further, the responses “Yes”, “No”, “navigation”, and “audio” are not limited to voice, and a touch operation on the
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(オーディオ用制御部13)の行う『リスト再生処理』(図1
2のステップS74)を図14に示したフローチャートに基づいて説明する。まず、目的
地Gが設定されていて、目的地Gへの誘導処理が行われているか否かを判断する(ステッ
プS101)。
Next, “list reproduction processing” performed by the microcomputer 12 (audio control unit 13) in the
目的地Gへの誘導処理が行われていると判断すれば、再生リスト、及び楽曲の再生状況
に基づいて、再生リストに含まれている楽曲のうち、未再生の部分を再生するのに必要と
なる時間Tbを算出し(ステップS102)、次に、目的地Gへ到達するまでに要する時
間Taが時間Tb以上であるか否か(すなわち、再生が予定されていた楽曲をドライブ中
に再生することができるか否か)を判断する(ステップS103)。
If it is determined that the guidance process to the destination G is performed, it is necessary to play the unplayed portion of the music included in the play list based on the play list and the play status of the music. Time Tb is calculated (step S102), and then whether or not the time Ta required to reach the destination G is equal to or longer than the time Tb (that is, the music that was scheduled to be played is played during driving) Whether or not it can be performed) is determined (step S103).
再生可能である(Ta≧Tb)と判断すれば、次に、時間Taが時間Tc(=時間Tb
+時間α)より大きいか否かを判断する(ステップS104)。例えば、時間αを10分
に設定し、楽曲の再生が目的地Gへ到着するよりも随分と前で終了してしまうか否かを判
断する。時間Taが時間Tcより大きい(すなわち、目的地Gへの到着よりも随分と前で
楽曲の再生が終了してしまう)と判断すれば、再生速度をダウンさせて(ステップS10
5)、その後、ステップS107へ進む。一方、時間Taが時間Tcより大きくないと判
断すれば、そのままステップS107へ進む。
If it is determined that reproduction is possible (Ta ≧ Tb), then the time Ta becomes the time Tc (= time Tb).
It is determined whether or not it is greater than + time α) (step S104). For example, the time α is set to 10 minutes, and it is determined whether or not the reproduction of the music ends much before the arrival at the destination G. If it is determined that the time Ta is larger than the time Tc (that is, the reproduction of the music is finished much before the arrival at the destination G), the reproduction speed is reduced (step S10).
5) Then, it progresses to step S107. On the other hand, if it is determined that the time Ta is not greater than the time Tc, the process directly proceeds to step S107.
なお、ここでは、再生速度をダウンさせて、目的地Gへの到着よりも随分と前で楽曲の
再生が終了してしまうといった事態が生じるのを回避するようにしているが、前記事態を
回避する方法はこれに限定されず、別の実施の形態では、例えば、各楽曲間の待機時間を
延長させたり、各楽曲の終盤部分をリピートさせるようにしても良い。
Here, the playback speed is reduced to avoid the occurrence of a situation where the playback of the music ends much before the arrival at the destination G. The method of doing is not limited to this, and in another embodiment, for example, the waiting time between each piece of music may be extended, or the end part of each piece of music may be repeated.
また、ステップS103において、時間Taが時間Tb以上でない(すなわち、再生リ
ストの楽曲を再生し終る前に、目的地Gへ到着する)と判断すれば、再生速度をアップさ
せて(ステップS106)、その後、ステップS107へ進む。なお、ここでは、再生速
度をアップさせて、再生が予定されていた楽曲がドライブ中に再生されないといった事態
が生じるのを回避するようにしているは、前記事態を回避する方法はこれに限定されず、
別の実施の形態では、例えば、各楽曲間の待機時間を短縮又はカットさせたり、各楽曲の
終盤部分のカット又はフェードアウトさせるようにしても良い。
If it is determined in step S103 that the time Ta is not equal to or longer than the time Tb (that is, the destination G arrives at the destination G before playing the music in the playlist), the playback speed is increased (step S106). Thereafter, the process proceeds to step S107. It should be noted that here, the playback speed is increased to avoid a situation in which the music that was scheduled to be played is not played during the drive, but the method of avoiding the situation is limited to this. Without
In another embodiment, for example, the waiting time between music pieces may be shortened or cut, or the end part of each music piece may be cut or faded out.
ステップS107では、HDD31から楽曲データを読み出し、再生リストに従って楽
曲を再生し、次に、再生リストの全ての楽曲の再生が完了したか否かを判断し(ステップ
S108)、再生リストの全ての楽曲の再生が完了したと判断すれば、『リスト再生処理
』を終了する。一方、完了していないと判断すれば、ステップS101へ戻る。
In step S107, the music data is read from the
なお、ここでは再生リスト(変更後の再生リストも含む)の再生順序に従って、その順
序通りに、楽曲を再生する場合について説明しているが、別の実施の形態では、再生リス
トの再生順序通りではなく、ランダムな順序での再生指示を、ユーザーが行い得る環境を
設定するようにし、ランダムな順序での再生指示があった場合、再生リストの再生順序通
りではなく、ランダムな順序での楽曲再生を行うようにしても良い。これにより、例えば
、始めは乗りの良い楽曲が演奏され、途中は静かな楽曲が演奏され、最後はバラードが演
奏されるといった、ある決まったかたちでの演奏ではなく、ユーザーが希望すれば、決ま
りのないかたちでの演奏を楽しむことができるようになる。
Note that, here, a case has been described in which music is played in the order in accordance with the playback order of the playlist (including the playlist after the change), but in another embodiment, according to the playback order of the playlist. Rather than setting the environment in which the user can perform playback instructions in a random order, and if there is a playback instruction in a random order, songs in a random order rather than in the playback order of the playlist You may make it perform reproduction | regeneration. This means that, for example, a good piece of music is played at the beginning, a quiet piece of music is played on the way, and a ballad is played at the end. You will be able to enjoy the performance in the form of no.
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(オーディオ用制御部13)の行う『テレビ放送受信処理』(
図11のステップS67)を図15に示したフローチャートに基づいて説明する。まず、
テレビ番組の選択に使用するプロファイル情報を設定し、設定したプロファイル情報をH
DD31などから読み出し(ステップS111)、ステップS112へ進む。なお、ここ
での『プロファイル情報の設定・読出処理』については、図10に示した処理と同様であ
るので、その説明を省略する。
Next, “television broadcast reception processing” performed by the microcomputer 12 (the audio control unit 13) in the
Step S67) in FIG. 11 will be described based on the flowchart shown in FIG. First,
Set profile information to be used for selecting TV programs, and set the profile information to H
Reading from the
ステップS112では、HDD31から読み出したプロファイル情報に基づいて、テレ
ビ番組を選択するための選択条件を設定する。例えば、エージェントがスポーツ番組を視
聴することを好むのであれば、『スポーツレベル4以上』と選択条件に設定する。また、
より具体的に『スポーツ○×』というテレビ番組を視聴することが好きであれば、それを
選択条件にしても良い。
In step S112, selection conditions for selecting a television program are set based on the profile information read from the
More specifically, if the user likes to watch the television program “Sports XX”, it may be set as a selection condition.
次に、移動体通信機26を使って、テレビ番組の内容に関する情報を提供しているサー
バーから前記情報を取得し(ステップS113)、取得した情報、及び前記選択条件に基
づいて、受信可能なものの中から前記選択条件を満たす番組を選択し(ステップS114
)、選択した番組を視聴するために、放送波受信機16における受信周波数を調整し、受
信したテレビ番組の映像を表示パネル20bに表示すると共に、音声をスピーカ25から
出力する(ステップS115)。
Next, the
) In order to view the selected program, the reception frequency in the
その後、視聴したテレビ番組の内容に関する情報と、誰のプロファイル情報を使用した
のかとを、現在の時間(例えば、年月日、時刻)と対応づけて、ユーザーのテレビ番組視
聴履歴情報としてHDD31(履歴データD2)に記憶させると共に(ステップS116
)、上記と同様のユーザーのテレビ番組視聴履歴情報を、変数Vに対応するエージェント
(すなわち、ユーザーにより選択されて、動作主体となっているエージェント)のプロフ
ァイルデータD14(HDD31)のところへ記憶させる(ステップS117)。なお、
時間については、受信開始の時間だけでなく、受信終了の時間についても、履歴情報とし
てHDD31に記憶させるようにしても良い。
Thereafter, the information regarding the contents of the viewed TV program and who profile information is used are associated with the current time (for example, year, month, day), and the HDD 31 ( (History data D2) and stored (step S116)
), The TV program viewing history information of the user similar to the above is stored in the profile data D14 (HDD 31) of the agent corresponding to the variable V (that is, the agent selected by the user and acting as the subject). (Step S117). In addition,
Regarding the time, not only the reception start time but also the reception end time may be stored in the
また、ここでは番組の内容に関する情報を、視聴履歴情報としてHDD31に記憶させ
るようにしているが、別の実施の形態では、視聴した放送番組を放送している放送局に関
する情報(例えば、放送局の名称、周波数、ジャンル)を、視聴履歴情報としてHDD3
1に記憶させるようにしても良い。
Further, here, information related to the contents of the program is stored in the
1 may be stored.
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(オーディオ用制御部13)の行う『ユーザー操作処理』(図
6のステップS18)を図16に示したフローチャートに基づいて説明する。まず、ナビ
ゲーション機能及びオーディオ機能のいずれかの稼働選択が可能な画面を表示パネル20
bへ表示させる(ステップS121)。
Next, “user operation processing” (step S18 in FIG. 6) performed by the microcomputer 12 (audio control unit 13) in the
b is displayed (step S121).
次に、ユーザーによるナビゲーション機能を稼働させる指示が行われたか否かを判断し
(ステップS122)、ユーザーによるナビゲーション機能を稼働させる指示が行われた
と判断すれば、ナビゲーション用制御部14に対して目的地設定などのナビゲーション処
理(図17参照)を行うように指示する(ステップS123)。
Next, it is determined whether or not an instruction to operate the navigation function by the user has been performed (step S122), and if it is determined that an instruction to operate the navigation function has been performed by the user, the
次に、ユーザーからのオーディオ機能を稼働させる指示があったか否か(例えば、リモ
コン19に設けられているナビゲーション機能とオーディオ機能とを切り替えるための切
替スイッチが押下されたか否か)を判断し(ステップS124)、ユーザーからのオーデ
ィオ機能を稼働させる指示があったと判断すれば、ステップS126へ進む。
Next, it is determined whether or not there has been an instruction from the user to activate the audio function (for example, whether or not a changeover switch for switching between a navigation function and an audio function provided on the
一方、ステップS122において、ナビゲーション機能を稼働させる指示が行われなか
ったと判断すれば、次に、ユーザーによるオーディオ機能を稼働させる指示が行われたか
否かを判断し(ステップS125)、ユーザーによるオーディオ機能を稼働させる指示が
行われたと判断すれば、ステップS126へ進む。一方、オーディオ機能を稼働させる指
示が行われなかったと判断すれば、ステップS122へ戻る。
On the other hand, if it is determined in step S122 that an instruction to operate the navigation function has not been issued, it is then determined whether or not an instruction to operate the audio function has been issued by the user (step S125). If it is determined that an instruction to operate is issued, the process proceeds to step S126. On the other hand, if it is determined that the instruction to activate the audio function has not been given, the process returns to step S122.
ステップS126では、ユーザーによる楽曲を再生させる操作が行われたか否か(例え
ば、CDに収録されている楽曲を再生させる操作や、HDD31に記憶されている楽曲を
再生させる操作が行われたか否か)を判断する。楽曲を再生させる操作が行われたと判断
すれば、前記操作に基づいて、ユーザーの所望する楽曲を再生し(ステップS127)、
再生した楽曲に関する情報(例えば、楽曲名、歌手名、ジャンル)を、現在の時間(例え
ば、年月日、時刻)と対応づけて、ユーザーの楽曲聴取履歴情報としてHDD31(履歴
データD2)に記憶させると共に(ステップS131)、上記と同様のユーザーの楽曲聴
取履歴情報を、変数Vに対応するエージェント(すなわち、ユーザーにより選択されて、
動作主体となっているエージェント)のプロファイルデータD14(HDD31)のとこ
ろへ記憶させる(ステップS132)。
In step S126, it is determined whether or not the user has performed an operation of reproducing music (for example, whether or not an operation of reproducing music stored on a CD or an operation of reproducing music stored in the
Information related to the reproduced music (for example, music name, singer name, genre) is stored in the HDD 31 (history data D2) as the user's music listening history information in association with the current time (for example, date, time). (Step S131), the user's music listening history information similar to the above is selected by the agent corresponding to the variable V (that is, selected by the user,
The data is stored in the profile data D14 (HDD 31) of the agent that is the operation subject (step S132).
一方、楽曲を再生させる操作は行われていないと判断すれば、次に、ユーザーによるテ
レビ放送又はラジオ放送を受信する操作が行われたか否かを判断し(ステップS128)
、前記操作が行われたと判断すれば、前記操作に基づいて、ユーザーの所望するテレビ放
送又はラジオ放送を受信するようにして、映像については表示パネル20bへ表示させ、
音声についてはスピーカ25から出力させる(ステップS129)。
On the other hand, if it is determined that the operation for reproducing the music has not been performed, it is next determined whether or not an operation for receiving a television broadcast or a radio broadcast by the user has been performed (step S128).
If it is determined that the operation has been performed, the television broadcast or radio broadcast desired by the user is received based on the operation, and the video is displayed on the
Audio is output from the speaker 25 (step S129).
次に、移動体通信機26を使って、テレビ番組やラジオ番組の内容に関する情報を提供
しているサーバーから、受信している番組の内容に関する情報(例えば、ジャンル、出演
者、番組内で流れた楽曲)を取得し(ステップS130)、取得した情報(すなわち、視
聴したテレビ番組又は聴取したラジオ番組の内容に関する情報)を、現在の時間(例えば
、年月日、時刻)と対応づけて、番組視聴履歴情報としてHDD31に記憶させると共に
(ステップS131)、上記と同様のユーザーの番組視聴履歴情報を、変数Vに対応する
エージェント(すなわち、ユーザーにより選択されて、動作主体となっているエージェン
ト)のプロファイルデータD14(HDD31)のところへ記憶させる(ステップS13
2)。
Next, information about the contents of the received program (for example, genre, performer, flow in the program) from the server that provides information about the contents of the TV program or radio program using the
2).
なお、ここでは番組の内容に関する情報を、視聴履歴情報としてHDD31に記憶させ
るようにしているが、別の実施の形態では、視聴又は聴取した放送番組を放送している放
送局に関する情報(例えば、放送局の名称、周波数、ジャンル)を、視聴履歴情報として
HDD31に記憶させるようにしても良い。
Here, information related to the contents of the program is stored in the
次に、実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置
11におけるマイコン12(ナビゲーション用制御部14)の行う処理動作[1−3]を
図17に示したフローチャートに基づいて説明する。なお、この処理動作[1−3]はメ
イン制御部であるオーディオ用制御部13からナビゲーション処理を行う指示がなされた
場合(図16のステップS123)に行われる動作である。
Next, the processing operation [1-3] performed by the microcomputer 12 (the navigation control unit 14) in the
まず、ナビゲーション用のメニュー画面を表示パネル20bへ表示させ(ステップS1
41)、次に、ユーザーによる目的地設定の操作が行われたか否かを判断する(ステップ
S142)。目的地設定の操作が行われたと判断すれば、ユーザーにより設定された目的
地Gに関する情報(例えば、施設名、所在地、ジャンル)を、現在の時間(例えば、年月
日、時刻)と対応づけて、訪問履歴情報としてHDD31に記憶させると共に(ステップ
S143)、上記と同様のユーザーの訪問履歴情報を、変数Vに対応するエージェント(
すなわち、ユーザーにより選択されて、動作主体となっているエージェント)のプロファ
イルデータD14(HDD31)のところへ記憶させる(ステップS144)。なお、目
的地Gとして設定した場所については、ユーザーが実際に訪問するかどうか分からないの
で、別の実施の形態では、前記場所へ到達したときに、該場所に関する情報を訪問履歴情
報としてHDD31へ記憶させるようにしても良い。
First, a menu screen for navigation is displayed on the
41) Next, it is determined whether or not the user has performed a destination setting operation (step S142). If it is determined that the destination setting operation has been performed, the information related to the destination G set by the user (for example, the facility name, location, and genre) is associated with the current time (for example, date, time). The visit history information is stored in the HDD 31 (step S143), and the visit history information of the user similar to the above is stored in the agent (
That is, it is stored in the profile data D14 (HDD 31) of the agent selected by the user and acting as the operation subject (step S144). In addition, since it is not known whether or not the user actually visits the place set as the destination G, in another embodiment, when the destination is reached, information on the place is sent to the
次に、目的地Gまで車両Mを誘導する誘導処理を行い(ステップS145)、車両Mが
目的地Gへ到達したか否かを判断する(ステップS146)。車両Mが目的地Gへ到達し
たと判断すれば、処理動作[1−3]を終了する。一方、車両Mは目的地Gへ到達してい
ないと判断すれば、ステップS145へ戻る。また、ステップS142において、ユーザ
ーによる目的地設定の操作が行われていないと判断すれば、ユーザーによる別の指示に基
づいて、別の処理を行う(ステップS147)。
Next, a guidance process for guiding the vehicle M to the destination G is performed (step S145), and it is determined whether or not the vehicle M has reached the destination G (step S146). If it is determined that the vehicle M has reached the destination G, the processing operation [1-3] is terminated. On the other hand, if it is determined that the vehicle M has not reached the destination G, the process returns to step S145. If it is determined in step S142 that the user has not performed a destination setting operation, another process is performed based on another instruction from the user (step S147).
上記実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置1
1では、各種履歴情報を記憶させることによって、エージェントのプロファイル情報を更
新する場合(すなわち、新しい情報を蓄積していく場合)について説明しているが、別の
実施の形態では、エージェントのプロファイル情報に、変更可能な項目を設けて、プロフ
ァイル情報(例えば、エージェントの嗜好情報、動作主体として行い得る機能を示した情
報、出力形態に関する情報)を変更し得るようにしても良い。
1 describes a case where the profile information of the agent is updated by storing various history information (that is, when new information is accumulated). However, in another embodiment, the profile information of the agent is described. In addition, a changeable item may be provided so that profile information (for example, agent preference information, information indicating a function that can be performed as an operation subject, and information regarding an output form) may be changed.
例えば、ユーザーの履歴情報などから求められるユーザーの嗜好に基づいて、エージェ
ントの嗜好情報を変更して、エージェントの嗜好をユーザーの嗜好と同じにしたり、近づ
けるようにしても良い。例えば、あるエージェントAにあらかじめ準備された性質が激し
い楽曲好み(5段階で激しい楽曲好みレベル4)であったとしても、ユーザーが静かな楽
曲好みであれば、エージェントAの激しい楽曲好みレベルをレベル3に変更させる。しか
しながら、際限なくユーザーの嗜好に合わせてしまうと、エージェントの個性が失われる
おそれがあるため、変更可能な幅に制限を加えるようにしても良い(例えば、レベル1の
上下だけを変更可能とする)。
For example, the agent preference information may be changed based on the user preference obtained from the user history information or the like so that the agent preference is the same as or close to the user preference. For example, even if the music prepared in advance for a certain agent A has a strong musical preference (five
また、ユーザーの嗜好などに合わせるだけでなく、各エージェントが動作主体として利
用された利用頻度(例えば、ユーザーに使用が選択された回数)や、エージェントの年齢
などに基づいて、エージェントのプロファイル情報を変更させるようにしても良い。例え
ば、ユーザーにより使用が選択される回数の多いエージェントには、動作主体として行い
得る機能を増やすようにしたり(例えば、前記動作主体として行い得る機能を示した情報
を、0から1にする)、エージェントの年齢に合わせて、出力形態に関する情報を変更し
て、エージェントを老けさせたりするようにしても良い。このように、擬人化したエージ
ェントのプロファイル情報の変更は、ユーザーにとってはエージェントが成長や進化した
ように見える。従って、エンターテイメント性を非常に高くすることができる。
Also, not only according to the user's preference etc., but also the profile information of the agent based on the usage frequency (for example, the number of times the user has chosen to use) each agent was used as the subject of operation, the age of the agent, etc. You may make it change. For example, for an agent that is frequently used by the user, the number of functions that can be performed as an operating subject is increased (for example, information indicating the function that can be performed as the operating subject is changed from 0 to 1). According to the age of the agent, the information regarding the output form may be changed to make the agent old. As described above, the change of the profile information of the agent that is anthropomorphic appears to the user as the agent has grown or evolved. Therefore, entertainment property can be made very high.
また、さらに別の実施の形態では、ある情報の変更に基づいて、前記情報と関連性を有
した又は関連性の高い別の情報についても変更するようにしても良い。例えば、あるエー
ジェントにあらかじめ準備された性質がロック好みでなかったとしても(5段階でロック
好みレベル1)、ユーザーの嗜好に合わせてそのレベルがアップすれば、そのアップに合
わせて服装の派手さレベルをアップさせたり、逆に話し方の丁寧さレベルをダウンさせる
ようにしても良い。これにより、エージェントの成長に違和感を与えないようにすること
ができる。また、動作主体として行い得る機能が増えた場合には、エージェントの出世と
して、話し方の丁寧さレベルをダウンさせたり、服装の派手さレベルをアップさせたり、
アイテムを持たせたり、アクセサリーを付加するようにしても良い。
In yet another embodiment, another information that is related to or highly related to the information may be changed based on a change in certain information. For example, even if the pre-prepared property of an agent is not a lock preference (lock
You may make it have an item or add an accessory.
ここまで、エージェント単体でのプロファイル情報の変更について説明しているが、エ
ージェントのプロファイル情報の変更は、エージェント単体での変更に限定されず、別の
実施の形態では、別のエージェントのプロファイル情報の全部又はその一部と合成するこ
とによって、プロファイル情報を変更させるようにしても良い。例えば、エージェントの
嗜好情報を合成する場合、両者の平均レベルにしたり、あるいは所定の条件に基づいて、
力関係を判断し、強者側のレベルに設定するようにしても良い。
Up to this point, the change of profile information for an agent alone has been described. However, the change of the profile information of an agent is not limited to the change of an agent alone. In another embodiment, the profile information of another agent is changed. The profile information may be changed by combining all or a part thereof. For example, when synthesizing agent preference information, the average level of both or the predetermined conditions,
The power relationship may be determined and set to the strong side level.
このようなエージェントのプロファイル情報の合成は、例えば、運転者の好みのエージ
ェントと、同乗者の好みのエージェントとが異なる場合に非常に有効な機能となる。また
、さらに別の実施の形態では、合成前のプロファイル情報を保存しておき、必要な場合に
は、合成前の状態へ戻せるようにしておいても良い。
Such composition of agent profile information is a very effective function when, for example, the driver's favorite agent is different from the passenger's favorite agent. In still another embodiment, profile information before synthesis may be stored, and if necessary, it may be possible to return to the state before synthesis.
上記実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ装置1
1では、個人の行為から得られる情報(例えば、訪問した場所に関する情報として、施設
名、所在地、ジャンル、楽曲に関する情報として、楽曲名、歌手名、ジャンル、視聴した
テレビ番組の内容に関する情報として、番組名、ジャンル、出演者、流れた楽曲)や、エ
ージェントのプロファイル情報に基づいて行われる行為から得られる情報をプロファイル
情報として収集する場合について説明しているが、別の実施の形態では、前記個人の行為
から得られる情報に基づいて、前記個人の特有の性質を求め、その性質を示した情報をプ
ロファイル情報として収集したり、前記情報に基づいて、ユーザーへ提供するコンテンツ
を選択するようにしても良い。
1, information obtained from an individual's actions (for example, information on a place visited, information on a facility name, location, genre, music, information on a song name, singer name, genre, and contents of a TV program viewed) (Program name, genre, performer, played music) and information obtained from the action performed based on the profile information of the agent are described as profile information. In another embodiment, Based on the information obtained from the personal actions, the specific property of the individual is obtained, information indicating the property is collected as profile information, and the content to be provided to the user is selected based on the information. May be.
例えば、前記個人の行為から得られる情報「クラシック音楽の流れる番組をよく視聴し
ている」に基づいて、前記個人に特有の性質「クラシック音楽が好き」を求めることがで
き、これを学習データD3(図2参照)としてHDD31に記憶させたり、ユーザーのプ
ロファイルデータD1や、エージェントのプロファイルデータD14を更新させても良い
。
For example, based on the information “I often watch a program in which classical music flows” obtained from the personal action, a characteristic “I like classical music” peculiar to the individual can be obtained, and this can be obtained from the learning data D3. (See FIG. 2) may be stored in the
また、上記実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ
装置11では、個人の行為から得られる情報のうち、訪問した場所に関する情報、聴取し
た楽曲に関する情報、及び視聴又は聴取した放送番組に関する情報を、プロファイル情報
として収集する場合について説明しているが、前記個人の行為から得られる情報はこれら
情報に限定されず、別の実施の形態では、例えば、前記個人が金銭を支払うことにより、
購入した商品又は受けたサービスに関する情報や、前記個人の所有又は使用する車両の種
別に関する情報などであっても良い。
Moreover, in the
It may be information on purchased products or received services, information on the type of vehicles owned or used by the individual, and the like.
例えば、音楽CDをよく購入する者は、音楽を聴くことが好きだと推定することができ
、高級車に乗っている者は、高級指向だと推定することができる。また、あるアーティス
トのCDをよく購入していれば、前記個人がそのアーティストを好きだと推定することが
できる。
For example, a person who often purchases a music CD can be presumed to like listening to music, and a person in a luxury car can be presumed to be high-end oriented. If an artist's CD is often purchased, it can be estimated that the individual likes the artist.
また、上記実施の形態(1)に係るエージェント装置を含んで構成される、オーディオ
装置11では、訪問した場所に関する情報、聴取した楽曲に関する情報、及び視聴又は聴
取した放送番組に関する情報を、プロファイル情報として収集しているので、場所や楽曲
、放送番組毎に、訪問した回数や聴取した回数、視聴した回数をカウントすることが可能
となる。
Further, in the
別の実施の形態では、場所や楽曲、放送番組毎に、訪問した回数や聴取した回数、視聴
した回数をカウントさせておくようにしても良い。これにより、前記個人の嗜好など、該
個人に特有の性質などをより精度良く求めることができる。また、ユーザーへ提供するコ
ンテンツの選択をより適切に、より効率良く行うことができるようになる。
In another embodiment, the number of visits, the number of times of listening, and the number of times of viewing may be counted for each place, song, and broadcast program. As a result, it is possible to more accurately determine the characteristics unique to the individual, such as the personal preference. In addition, it is possible to more appropriately and efficiently select content to be provided to the user.
さらに、別の実施の形態では、CDなどに記録されている楽曲が再生された場合や、H
DD31に記憶されている楽曲が再生された場合だけでなく、テレビ番組やラジオ番組な
どで流れた場合についても、前記個人が聴取した回数としてカウントさせるようにしても
良い。これにより、実際に聴取した回数をきっちりとカウントすることができる。
Furthermore, in another embodiment, when a music recorded on a CD or the like is played,
Not only when the music stored in the
なお、ディジタル放送では、楽曲自体のデータ(音声データ)と共に送信される楽曲に
関する情報を示したデータを利用し、また、アナログ放送では、多重放送における多重送
信データを利用することによって、テレビ番組やラジオ番組などから流れた楽曲がどの楽
曲であるのか(すなわち、ユーザーがどの楽曲を聴取したのか)を認識することなどがで
きる。
In digital broadcasting, data indicating information related to music transmitted along with the data of the music itself (audio data) is used. In analog broadcasting, multiplex transmission data in multiplex broadcasting is used. For example, it is possible to recognize which music is played from a radio program or the like (that is, which music the user has listened to).
また、ここでは、単純に訪問や聴取、視聴した回数をカウントする場合(例えば、1ず
つカウントアップする場合)について説明しているが、別の実施の形態では、単純にカウ
ントアップするのではなく、重みを付加するようにしても良い。例えば、再生された楽曲
は「+1」とするのに対し、再生を中止させた楽曲は「−2」とする。これにより、楽曲
毎の個人における重要度を求めることができる。
In addition, here, a case has been described where the number of visits, listening, and viewing is simply counted (for example, when counting up one by one), but in another embodiment, it is not simply counted up. A weight may be added. For example, the reproduced music is “+1”, while the music whose reproduction is stopped is “−2”. Thereby, the importance in an individual for every music can be calculated | required.
また、さらに別の実施の形態では、前記個人の意思により楽曲が再生された場合には、
「+1」とし、前記個人の意思とは別に楽曲が再生された場合(例えば、エージェントに
よって再生された場合)には、「+0.5」とするようにしても良い。これにより、前記
重要度の精度をより一層高めることができる。
In still another embodiment, when the music is played by the individual's intention,
It may be set to “+1”, and may be set to “+0.5” when the music is reproduced separately from the individual's intention (for example, when played by the agent). Thereby, the accuracy of the importance can be further increased.
また、これまでエージェント毎にプロファイル情報を設定することによって、エージェ
ントに個性を持たせたり、エージェントのプロファイル情報を変更し得るようにすること
によって、エージェントを成長させたり進化させる場合について説明しているが、別の実
施の形態では、エージェントのプロファイル情報に基づいて、エージェントにポイントな
どを設定し、他のエージェントとの間でこのポイントを用いた対戦ゲーム(例えば、ポイ
ントの奪い合い)などを実現するようにしても良い。
In addition, we have explained the case of growing or evolving an agent by setting profile information for each agent so that the agent has individuality or can change the profile information of the agent. However, in another embodiment, a point or the like is set for the agent based on the profile information of the agent, and a battle game (for example, competing for points) using the point with another agent is realized. You may do it.
例えば、前記ポイントは動作主体として行い得る機能の種類や数などに基づいて設定す
るようにして、ゲームの勝者側には何らかの利点を与え(例えば、動作主体として行い得
る機能の追加)、逆に敗者側には何らかの減点を与えるようにしても良い(例えば、動作
主体として行い得る機能の削減)。
For example, the points are set based on the type or number of functions that can be performed as an action subject, and give some advantage to the game winner (for example, addition of functions that can be performed as an action subject). The loser may be given some deduction (for example, reduction of functions that can be performed as an operation subject).
11 オーディオ装置
12 マイコン
13 オーディオ用制御部
14 ナビゲーション用制御部
16 放送波受信機
22 音声認識部
23 音声合成部
31 HDD
DESCRIPTION OF
Claims (18)
前記エージェントに設定されているプロファイル情報に基づいて、前記エージェントに
特化した処理を行う処理手段を備えていることを特徴とするエージェント装置。 Profile information is set on the anthropomorphic agent,
An agent device comprising processing means for performing processing specialized for the agent based on profile information set for the agent.
前記エージェントにおける仮想上の生年月日、血液型、性別、及び性質に関する情報の
いずれかが含まれていることを特徴とする請求項1記載のエージェント装置。 In the profile information set for the agent,
2. The agent device according to claim 1, wherein any one of information on a virtual date of birth, blood type, sex, and property of the agent is included.
前記エージェントの出力形態に関する情報が含まれていることを特徴とする請求項1又
は請求項2記載のエージェント装置。 In the profile information set for the agent,
The agent apparatus according to claim 1 or 2, wherein information on an output form of the agent is included.
て行い得る機能、及び/又は行い得ない機能を示した情報が含まれていることを特徴とす
る請求項1〜3のいずれかの項に記載のエージェント装置。 The profile information set for the agent includes information indicating a function that can be performed by the agent as an operation subject and / or a function that cannot be performed by the agent. Agent device according to item.
とを特徴とする請求項1〜4のいずれかの項に記載のエージェント装置。 5. The agent device according to claim 1, wherein the profile information set for the agent includes changeable information.
れており、
ある情報の変更に基づいて、前記情報と関連性を有した又は関連性の高い別の情報を変
更する第1のプロファイル情報変更手段を備えていることを特徴とする請求項5記載のエ
ージェント装置。 A relationship is formed between each piece of information included in the profile information set in the agent,
6. The agent device according to claim 5, further comprising first profile information changing means for changing another information that is related to or highly related to the information based on a change of the information. .
設定されているプロファイル情報を変更する第2のプロファイル情報変更手段を備えてい
ることを特徴とする請求項5又は請求項6記載のエージェント装置。 7. The apparatus according to claim 5, further comprising second profile information changing means for changing profile information set in the agent based on a use frequency of using the agent as an operation subject. Agent device.
定されているプロファイル情報の全部又はその一部を合成することによって、プロファイ
ル情報を変更する第3のプロファイル情報変更手段を備えていることを特徴とする請求項
5〜7のいずれかの項に記載のエージェント装置。 Third profile information changing means for changing the profile information by combining all or part of the profile information set for another different agent with the profile information set for the agent. The agent device according to claim 5, wherein the agent device is a device.
該合成前記憶手段に記憶されている情報に基づいて、合成前の状態にプロファイル情報
を戻す第4のプロファイル情報変更手段とを備えていることを特徴とする請求項8記載の
エージェント装置。 Pre-combination state storage means for storing information on the state before composition;
9. The agent device according to claim 8, further comprising fourth profile information changing means for returning profile information to a state before composition based on information stored in the pre-composition storage means.
個性を反映したものとなるように、前記エージェントに設定されているプロファイル情報
を変更する第5のプロファイル情報変更手段を備えていることを特徴とする請求項5〜9
のいずれかの項に記載のエージェント装置。 Fifth profile information changing means for changing the profile information set in the agent based on the user's intention information obtained from the input means so that the agent reflects the individuality of the user. It is provided with the above-mentioned.
The agent device according to any one of the above items.
づいて行われる行為から得られる情報を、前記エージェントのプロファイル情報として蓄
積するプロファイル情報蓄積手段を備えていることを特徴とする請求項1〜10のいずれ
かの項に記載のエージェント装置。 Profile information storage means for storing, as profile information of the agent, information obtained from an action of a user and / or information obtained from an action performed based on the profile information of the agent The agent device according to any one of claims 1 to 10.
プロファイル情報として情報の蓄積を行うものであることを特徴とする請求項11記載の
エージェント装置。 12. The agent device according to claim 11, wherein the profile information storage means stores information as profile information of the agent selected as an operation subject.
ものであることを特徴とする請求項1〜12のいずれかの項に記載のエージェント装置。 The agent device according to any one of claims 1 to 12, wherein the processing means selects content to be provided to a user from selection target content.
するための放送番組、及び目的地とするための場所のいずれかを選択するものであること
を特徴とする請求項13記載のエージェント装置。 The processing means selects, as content to be provided to the user, one of music to be played, a broadcast program to be received, and a place to be a destination. Item 14. The agent device according to Item 13.
るための選択条件を設定する選択条件設定手段を備え、
前記処理手段が、前記選択条件設定手段により設定された選択条件に基づいて、前記選
択対象コンテンツの中から前記選択条件を満たすコンテンツを選択するものであることを
特徴とする請求項13又は請求項14記載のエージェント装置。 A selection condition setting means for setting a selection condition for selecting content based on profile information set in the agent;
The said processing means selects the content which satisfy | fills the said selection conditions from the said selection object content based on the selection conditions set by the said selection condition setting means, The Claim 13 or Claim characterized by the above-mentioned. 14. The agent device according to 14.
これら複数のエージェントの中から、使用者が動作主体とするエージェントの選択を行
い得る環境を設定する第1の環境設定手段を備え、
該第1の環境設定手段により設定された環境で、前記使用者によって前記エージェント
の選択が行われた場合、
前記処理手段が、選択された前記エージェントのプロファイル情報に基づいて、前記エ
ージェントに特化した処理を行うものであることを特徴とする請求項1〜15のいずれか
の項に記載のエージェント装置。 A plurality of the agents are set,
A first environment setting means for setting an environment in which a user can select an agent as an operation agent from the plurality of agents;
When the agent is selected by the user in the environment set by the first environment setting means,
The agent device according to claim 1, wherein the processing unit performs processing specialized for the agent based on profile information of the selected agent.
求項1〜16のいずれかの項に記載のエージェント装置。 The agent device according to any one of claims 1 to 16, wherein the agent is set for each function to be an operation subject.
使用者が機能の選択を行い得る環境を設定する第2の環境設定手段と、
該第2の環境設定手段により設定された環境で、前記使用者によって機能の選択が行わ
れた場合、前記機能の動作主体となるべきエージェントを、動作主体に設定する動作主体
設定手段とを備えていることを特徴とする請求項17記載のエージェント装置。 Multiple agents with different functions that should be the subject of operation are set,
A second environment setting means for setting an environment in which a user can select a function;
An operation subject setting means for setting an agent to be an operation subject of the function as an operation subject when a function is selected by the user in the environment set by the second environment setting means; The agent device according to claim 17, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004106856A JP2005293193A (en) | 2004-03-31 | 2004-03-31 | Agent device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004106856A JP2005293193A (en) | 2004-03-31 | 2004-03-31 | Agent device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005293193A true JP2005293193A (en) | 2005-10-20 |
JP2005293193A5 JP2005293193A5 (en) | 2007-04-12 |
Family
ID=35326059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004106856A Pending JP2005293193A (en) | 2004-03-31 | 2004-03-31 | Agent device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005293193A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334685A (en) * | 2006-06-15 | 2007-12-27 | Kenwood Corp | Content retrieval device and content retrieval method, and program |
WO2014087714A1 (en) * | 2012-12-04 | 2014-06-12 | 株式会社エヌ・ティ・ティ・ドコモ | Information processing device, server device, dialogue system and program |
WO2020036425A1 (en) * | 2018-08-13 | 2020-02-20 | Lg Electronics Inc. | Artificial intelligence device |
-
2004
- 2004-03-31 JP JP2004106856A patent/JP2005293193A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334685A (en) * | 2006-06-15 | 2007-12-27 | Kenwood Corp | Content retrieval device and content retrieval method, and program |
WO2014087714A1 (en) * | 2012-12-04 | 2014-06-12 | 株式会社エヌ・ティ・ティ・ドコモ | Information processing device, server device, dialogue system and program |
JP5851051B2 (en) * | 2012-12-04 | 2016-02-03 | 株式会社Nttドコモ | Information processing apparatus, server apparatus, dialogue system, and program |
US10176252B2 (en) | 2012-12-04 | 2019-01-08 | Ntt Docomo, Inc. | Information-processing device, server device, interaction system, and program |
WO2020036425A1 (en) * | 2018-08-13 | 2020-02-20 | Lg Electronics Inc. | Artificial intelligence device |
KR20200023662A (en) * | 2018-08-13 | 2020-03-06 | 엘지전자 주식회사 | Artificial intelligence device |
KR102225918B1 (en) * | 2018-08-13 | 2021-03-11 | 엘지전자 주식회사 | Artificial intelligence device |
US11164581B2 (en) | 2018-08-13 | 2021-11-02 | Lg Electronics Inc. | Artificial intelligence device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100401012B1 (en) | A music providing system having music selecting function by human feeling and a music providing method using thereof | |
JP4626995B2 (en) | Music processing apparatus, music processing method and program | |
EP1267590B1 (en) | Contents presenting system and method | |
JP2006146630A (en) | Content selection reproduction device, content selection reproduction method, content distribution system and content retrieval system | |
JP4369390B2 (en) | Music processing apparatus, music processing method and program | |
JP2004347943A (en) | Data processor, musical piece reproducing apparatus, control program for data processor, and control program for musical piece reproducing apparatus | |
JP2007164497A (en) | Preference estimation apparatus and controller | |
JP2005300772A (en) | Musical piece information introduction system | |
JP2007334685A (en) | Content retrieval device and content retrieval method, and program | |
JP2005293713A (en) | Reproduction list generating apparatus and music reproducing apparatus | |
JP2005293193A (en) | Agent device | |
US20050103186A1 (en) | Music reproducing unit | |
JP2007041979A (en) | Information processing device and information processing method | |
JP4369389B2 (en) | Music processing apparatus, music processing method and program | |
JP4651317B2 (en) | Music selection device | |
JP2005285285A (en) | Content read system and musical piece reproduction apparatus | |
JP2005293195A (en) | Contents selecting device | |
JP2005135518A (en) | Music reproducing unit | |
JP4497540B2 (en) | Content reproduction apparatus, program, and content reproduction method | |
JP5011856B2 (en) | Content proposal device, content proposal method, and program | |
JP4180098B2 (en) | Music playback device | |
JP4816741B2 (en) | In-car music playback device | |
JP2005293194A (en) | Profile information collecting device | |
JP2007311020A (en) | Device and method for playing, and onboard player | |
JP4293072B2 (en) | Music playback device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091215 |