JP2019023898A - Content output device, content distribution server, content output method, and content output program - Google Patents

Content output device, content distribution server, content output method, and content output program Download PDF

Info

Publication number
JP2019023898A
JP2019023898A JP2018180995A JP2018180995A JP2019023898A JP 2019023898 A JP2019023898 A JP 2019023898A JP 2018180995 A JP2018180995 A JP 2018180995A JP 2018180995 A JP2018180995 A JP 2018180995A JP 2019023898 A JP2019023898 A JP 2019023898A
Authority
JP
Japan
Prior art keywords
content
display
song
information
name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018180995A
Other languages
Japanese (ja)
Inventor
崇史 神村
Takashi Kamimura
崇史 神村
裕史 谷川
Yasushi Tanigawa
裕史 谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2018180995A priority Critical patent/JP2019023898A/en
Publication of JP2019023898A publication Critical patent/JP2019023898A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a content output device, a content distribution server, a content output method, and a content output program that can acquire content before a user operates, and at the time of a user operation, reproduce the content immediately without a stand-by time.SOLUTION: A content output device 100 includes: a storage unit 101 capable of storing the name of content; a screen display unit 102 for displaying a music name; a determination unit 103 for determining a music name that may be selected in the future among music names stored in the storage unit on the basis of at least information about content on the screen display unit; a communication unit 104 for, before reproduction of the content corresponding to the music name displayed on the screen display unit is selected and started, acquiring the content corresponding to the music name determined by the determination unit from a server 110; and an output unit 105 for, when the music name corresponding to the content acquired by the communication unit is selected, outputting the content acquired by the communication unit.SELECTED DRAWING: Figure 1

Description

この発明は、ストリーミング配信されるコンテンツを再生出力するコンテンツ出力装置、コンテンツ配信サーバ、コンテンツ出力方法およびコンテンツ出力プログラムに関する。ただし、この発明の利用は、コンテンツ出力装置、コンテンツ配信サーバ、コンテンツ出力方法およびコンテンツ出力プログラムに限らない。   The present invention relates to a content output device, a content distribution server, a content output method, and a content output program that reproduce and output content that is distributed in a streaming manner. However, the use of the present invention is not limited to the content output device, the content distribution server, the content output method, and the content output program.

従来からコンテンツをストリーミング再生する際の各手法が提供されている。例えば、コンテンツを繰り返し再生する場合、ストリーミングデータの開始から一部分を保存しておき、2回目以降再生する際は、保存してある一部データを再生して、続きからストリーミング再生することにより、ストリーミングデータ取得の待ち時間をなくす技術がある(例えば、下記特許文献1参照。)。   Conventionally, various methods for streaming playback of content have been provided. For example, when the content is repeatedly played, a part of the streaming data is saved, and when the contents are played for the second time and thereafter, the saved part of the data is played back and then the streaming is played back. There is a technique for eliminating the waiting time for data acquisition (for example, see Patent Document 1 below).

また、通信状態によって、サーバから送信するストリーミングデータのサイズを変化させることにより、再生までの待機時間を減らし、映像や音声の再生の安定化を図る技術がある(例えば、下記特許文献2参照。)。また、あらかじめ、複数の番組の部分ストリーミングデータをダウンロードしておくことによって、待機時間なしで所望の番組を視聴できるようにした技術がある(例えば、下記特許文献3参照。)。   Further, there is a technique for reducing the waiting time until reproduction by changing the size of streaming data transmitted from the server depending on the communication state, and stabilizing the reproduction of video and audio (for example, see Patent Document 2 below). ). In addition, there is a technique in which a desired program can be viewed without waiting time by downloading partial streaming data of a plurality of programs in advance (see, for example, Patent Document 3 below).

特開2013−106323号公報JP 2013-106323 A 特開2007−013675号公報JP 2007-013675 A 特開2006−080612号公報JP 2006-080612 A

しかしながら、上記従来の技術では、ストリーミングデータ取得の待機時間をなくすことはできなかった。特許文献1の技術では、初回再生のコンテンツは一部保存データがなく、最初からストリーミング再生することとなるので、待機時間が発生してしまう。また、一部データを保存しておくので、一度しか見なくてもよいものまで保存したり、再生回数が増えるとデータ量が増えてしまい、ユーザにとって利便性を向上できないことがある。   However, with the above-described conventional technology, the waiting time for streaming data acquisition cannot be eliminated. In the technology of Patent Document 1, the content of the first playback does not have some stored data and is played back by streaming from the beginning, so a waiting time occurs. In addition, since some data is stored, even data that needs to be viewed only once is stored, or when the number of times of reproduction increases, the amount of data increases, and convenience for the user may not be improved.

特許文献2の技術では、再生までの待機時間を減らすことはできるが、この待機時間をなくすことはできない。特許文献3の技術では、コンテンツ数が増えるに伴い、ダウンロードするストリーミングデータが増えるため、データ処理量が増大する、という各問題が一例として挙げられる。   With the technique of Patent Document 2, the waiting time until reproduction can be reduced, but this waiting time cannot be eliminated. In the technique of Patent Document 3, as the number of contents increases, streaming data to be downloaded increases, so that each problem that the data processing amount increases is given as an example.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかるコンテンツ出力装置は、画面表示部に表示されるコンテンツの情報に基づき将来的に選択し得る特定情報を決定する決定部と、前記特定情報に対応するコンテンツ、または当該コンテンツの一部を、前記特定情報の選択前にコンテンツ配信サーバから取得する通信部と、前記通信部により取得された前記コンテンツに対応する特定情報が選択された場合、前記通信部により取得された前記コンテンツ、または当該コンテンツの一部を出力する出力部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the content output device according to the invention of claim 1 determines specific information that can be selected in the future based on information of content displayed on the screen display unit. And a communication unit that acquires content corresponding to the specific information or a part of the content from a content distribution server before selection of the specific information, and specific information corresponding to the content acquired by the communication unit. And an output unit that outputs the content acquired by the communication unit or a part of the content when selected.

また、請求項13の発明にかかるコンテンツ配信サーバは、コンテンツを出力するコンテンツ出力装置に前記コンテンツを配信するコンテンツ配信サーバであって、前記コンテンツ出力装置の画面表示部上の前記コンテンツの情報を取得して、前記コンテンツ出力装置で将来的に選択し得る特定情報を決定する決定部と、前記コンテンツ出力装置の前記画面表示部に表示された特定情報の選択前に、前記決定部により決定された特定情報に対応するコンテンツ、または当該コンテンツの一部を前記コンテンツ出力装置に送信する通信部と、を備えることを特徴とする。   A content distribution server according to a thirteenth aspect of the present invention is a content distribution server that distributes the content to a content output device that outputs the content, and acquires the content information on the screen display unit of the content output device A determination unit that determines specific information that can be selected in the future in the content output device; and the determination unit that determines the specific information displayed on the screen display unit of the content output device. A communication unit that transmits content corresponding to the specific information or a part of the content to the content output device.

また、請求項14の発明にかかるコンテンツ出力方法は、コンテンツ出力装置が実施するコンテンツ出力方法であって、画面表示部に表示されるコンテンツの情報に基づき将来的に選択し得る特定情報を決定部により決定する工程と、前記特定情報に対応するコンテンツ、または当該コンテンツの一部を、前記特定情報の選択前にコンテンツ配信サーバから通信部が取得する工程と、取得した前記コンテンツに対応する特定情報が選択された場合、前記通信部により取得された前記コンテンツ、または当該コンテンツの一部を出力部により出力する工程と、を含むことを特徴とする。   A content output method according to a fourteenth aspect of the present invention is a content output method implemented by a content output device, wherein specific information that can be selected in the future based on content information displayed on the screen display unit is determined. Determining the content corresponding to the specific information or a part of the content from the content distribution server before selecting the specific information, and the specific information corresponding to the acquired content And the step of outputting the content acquired by the communication unit or a part of the content by an output unit.

また、請求項15の発明にかかるコンテンツ出力プログラムは、請求項14に記載のコンテンツ出力方法をコンピュータに実行させることを特徴とする。   According to a fifteenth aspect of the present invention, a content output program causes a computer to execute the content output method according to the fourteenth aspect.

図1は、実施の形態にかかるコンテンツ出力装置の機能的構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a functional configuration of the content output apparatus according to the embodiment. 図2は、実施の形態にかかるコンテンツ出力装置の処理手順の一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of a processing procedure of the content output apparatus according to the embodiment. 図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of the navigation device. 図4は、ナビゲーション装置によるコンテンツ取得から再生の処理例を示すフローチャートである。FIG. 4 is a flowchart showing an example of processing from content acquisition to reproduction by the navigation device. 図5は、ナビゲーション装置のディスプレイ上に表示するコンテンツのリスト例を示す図である。FIG. 5 is a diagram illustrating an example of a list of contents to be displayed on the display of the navigation device. 図6は、表示内容の分析の処理の一例を説明する図である。FIG. 6 is a diagram illustrating an example of display content analysis processing. 図7は、表示内容の分析の処理の他の例を説明する図である。FIG. 7 is a diagram for explaining another example of display content analysis processing. 図8は、表示履歴の分析の処理の一例を説明する図である。FIG. 8 is a diagram illustrating an example of display history analysis processing. 図9は、再生履歴の分析の処理の一例を説明する図である。FIG. 9 is a diagram for explaining an example of a reproduction history analysis process. 図10は、集計処理の一例を説明する図である。FIG. 10 is a diagram for explaining an example of the aggregation process.

(実施の形態)
以下に添付図面を参照して、この発明にかかるコンテンツ出力装置、コンテンツ配信サーバ、コンテンツ出力方法およびコンテンツ出力プログラムの好適な実施の形態を詳細に説明する。
(Embodiment)
Exemplary embodiments of a content output device, a content distribution server, a content output method, and a content output program according to the present invention will be explained below in detail with reference to the accompanying drawings.

図1は、実施の形態にかかるコンテンツ出力装置の機能的構成の一例を示すブロック図である。実施の形態にかかるコンテンツ出力装置100は、コンテンツを配信するサーバ(コンテンツ配信サーバ)110とネットワークを介して接続され、サーバ110から配信されたコンテンツを再生する。   FIG. 1 is a block diagram illustrating an example of a functional configuration of the content output apparatus according to the embodiment. The content output apparatus 100 according to the embodiment is connected to a server (content distribution server) 110 that distributes content via a network, and reproduces the content distributed from the server 110.

コンテンツ出力装置100は、記憶部101と、画面表示部102と、決定部103と、通信部104と、出力部105と、を有する。   The content output device 100 includes a storage unit 101, a screen display unit 102, a determination unit 103, a communication unit 104, and an output unit 105.

記憶部101は、再生するコンテンツを特定する曲名等の特定情報を記憶する。コンテンツはサーバ110等から取得し、記憶部101にコンテンツそのものを記憶してもよいが、実施の形態では、コンテンツの再生時にサーバから取得したコンテンツをストリーミング再生する例を用いて説明する。   The storage unit 101 stores specific information such as a song name for specifying content to be reproduced. The content may be acquired from the server 110 or the like, and the content itself may be stored in the storage unit 101. However, in the embodiment, an example in which content acquired from the server at the time of content playback is played back by streaming will be described.

また、記憶部101には、さらに、特定情報(曲名)に対応するコンテンツに関する情報である関連情報(例えば、アーティスト名、作詞作曲者名等)が記憶可能である。また、関連情報が画面表示部102に表示された日時の履歴情報である表示履歴情報や、関連情報に対応するコンテンツが出力された日時の履歴情報である出力履歴情報についても記憶可能である。   Further, the storage unit 101 can further store related information (eg, artist name, song composer name, etc.) that is information related to the content corresponding to the specific information (song name). Further, display history information that is history information on the date and time when the related information is displayed on the screen display unit 102 and output history information that is history information on the date and time when the content corresponding to the related information is output can be stored.

画面表示部102は、曲名等の特定情報、および特定情報(曲名)に対応するコンテンツに関する情報である関連情報(例えば、アーティスト名、作詞作曲者名等)、関連情報が画面表示部102に表示された日時の履歴情報である表示履歴情報、関連情報に対応するコンテンツが出力された日時の履歴情報である出力履歴情報についても表示可能である。   The screen display unit 102 displays specific information such as a song name, related information (for example, artist name, songwriter name, etc.) and related information that is information related to content corresponding to the specific information (song name) on the screen display unit 102. It is also possible to display display history information that is history information on the date and time that has been output, and output history information that is history information on the date and time that content corresponding to the related information has been output.

決定部103は、記憶部101に記憶されている特定情報のうち、ユーザが将来的に選択し得る特定情報(曲名)を決定する処理を行う。   The determination unit 103 performs a process of determining specific information (song title) that the user can select in the future among the specific information stored in the storage unit 101.

この決定部103は、下記の各機能別の処理を行うこととしてもよい。例えば、第1決定部を備え、この第1決定部は、画面表示部102に表示されている特定情報(曲名)の表示の仕方に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第1決定部は、画面表示部102に表示されている特定情報(曲名)の表示の仕方を、あらかじめ設定してある表示の仕方の条件に照らし合わせ、条件に合致する毎に条件に振り分けられている点数を特定情報(曲名)に関連付け、点数の高い特定情報(曲名)をユーザが将来的に選択し得る特定情報として決定する。   The determination unit 103 may perform processing for each function described below. For example, a first determination unit is provided, and the first determination unit can select specific information (song title) that the user can select in the future based on how to display the specific information (song name) displayed on the screen display unit 102. ). The first determination unit compares the display method of the specific information (song title) displayed on the screen display unit 102 with a display method condition set in advance, and assigns it to the condition every time the condition is met. The determined score is associated with the specific information (song name), and the specific information (song name) having a high score is determined as the specific information that the user can select in the future.

また、第2決定部を備え、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第2決定部は、画面表示部102に表示されている特定情報(曲名)に対応するコンテンツの関連情報(アーティスト名、作詞作曲者名)と共通する他のコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とする。また、第2決定部は、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)と共通する他のコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とすることもできる。   In addition, a second determination unit is provided, and specific information (music name) that can be selected in the future by the user is determined based on related information (artist name, song composer name) displayed on the screen display unit 102. The second determination unit obtains the specific information (song name) of other content in common with the related information (artist name, song composer name) of the content corresponding to the specific information (song name) displayed on the screen display unit 102. The specific information (song name) that the user can select in the future is used. In addition, the second determination unit allows the user to select specific information (song name) of other content in common with related information (artist name, song composer name) displayed on the screen display unit 102 in the future. It can also be specified information (song name).

また、第3決定部を備え、画面表示部102の表示履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第3決定部は、表示履歴情報に基づき、ユーザによって選択された関連情報(アーティスト名、作詞作曲者名)の選択パターンにより、ある特定の関連情報から別の関連情報への遷移パターンを割り出し、遷移パターンに基づいて、画面表示部102に表示されている関連情報とは別の関連情報をユーザが将来的に選択し得る特定情報(曲名)とする。   Moreover, the 3rd determination part is provided and based on the display history information of the screen display part 102, the specific information (song name) which a user can select in the future is determined. The third determination unit calculates a transition pattern from one specific related information to another related information based on the selection pattern of the related information (artist name, song composer name) selected by the user based on the display history information. Based on the transition pattern, related information different from the related information displayed on the screen display unit 102 is set as specific information (song title) that the user can select in the future.

また、第4決定部を備え、コンテンツの出力履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第4決定部は、出力履歴情報を関連情報(アーティスト名、作詞作曲者名)毎にそれぞれまとめ、関連情報に対応するコンテンツのうち、多く出力されているコンテンツの特定情報(曲名)を、ユーザが将来的に選択される特定情報(曲名)とする。   Moreover, the 4th determination part is provided and the specific information (song name) which a user can select in the future is determined based on the output log information of a content. The fourth determination unit summarizes the output history information for each piece of related information (artist name, song composer name), and specifies specific information (song name) of the content that is output a lot from the content corresponding to the related information. It is assumed that the specific information (song name) is selected in the future by the user.

通信部104は、画面表示部102に表示された特定情報(曲名)がユーザにより選択される前に、決定部103により決定された特定情報(曲名)に対応するコンテンツ、またはこのコンテンツの一部をサーバ110から取得する。   The communication unit 104 includes content corresponding to the specific information (song name) determined by the determining unit 103 or a part of the content before the specific information (song name) displayed on the screen display unit 102 is selected by the user. Is obtained from the server 110.

出力部105は、通信部104によって取得されたコンテンツに対応する特定情報(曲名)がユーザにより選択された場合、通信部104により取得されたコンテンツを再生のために出力する。この際、出力部105は、コンテンツの一部を再生のために出力してもよい。   When the user selects specific information (song title) corresponding to the content acquired by the communication unit 104, the output unit 105 outputs the content acquired by the communication unit 104 for reproduction. At this time, the output unit 105 may output a part of the content for reproduction.

コンテンツ出力装置100は、例えば、ナビゲーション装置、ポータブルオーディオ装置、スマートフォン、ネットワークオーディオプレーヤー、等のストリーミング再生機能を備えた装置に適用できる。   The content output device 100 can be applied to a device having a streaming reproduction function such as a navigation device, a portable audio device, a smartphone, a network audio player, and the like.

また、コンテンツ出力装置100の記憶部101と決定部103の機能は、サーバ110が備えてもよい。この場合、サーバ110は、記憶部101に記憶されている特定情報のうち、ユーザが将来的に選択し得る特定情報(曲名)を決定する処理を行う。この際、サーバ110は、コンテンツ出力装置100の画面表示部102に表示されている特定情報(曲名)や、特定情報(曲名)に対応するコンテンツの関連情報(アーティスト名、作詞作曲者名)等をコンテンツ出力装置100から取得して、ユーザが将来的に選択し得る特定情報(曲名)を決定する処理を行う。   Further, the server 110 may have the functions of the storage unit 101 and the determination unit 103 of the content output apparatus 100. In this case, the server 110 performs a process of determining specific information (song title) that the user can select in the future among the specific information stored in the storage unit 101. At this time, the server 110 includes specific information (song name) displayed on the screen display unit 102 of the content output device 100, related information (artist name, song composer name) of content corresponding to the specific information (song name), and the like. Is acquired from the content output device 100, and the specific information (song name) that the user can select in the future is determined.

図2は、実施の形態にかかるコンテンツ出力装置の処理手順の一例を示すフローチャートである。コンテンツ出力装置100とサーバ110それぞれの処理を記載してある。   FIG. 2 is a flowchart illustrating an example of a processing procedure of the content output apparatus according to the embodiment. The processes of the content output apparatus 100 and the server 110 are described.

コンテンツ出力装置100では、画面表示部102に特定情報(曲名)を表示する(ステップS201)。この特定情報は、一つに限らずプレイリスト等による複数(複数曲)を表示することができる。   In the content output device 100, specific information (song title) is displayed on the screen display unit 102 (step S201). This specific information is not limited to one, and a plurality (a plurality of songs) based on a playlist or the like can be displayed.

そして、決定部103は、画面表示部102の表示内容に基づき、再生する特定情報(曲名)を決定する(ステップS202)。例えば、決定部103は、画面表示部102に表示されている特定情報(曲名)を再生するコンテンツの特定情報(曲名)と判断する。ここで、画面表示部102は、大きさに制限があり、プレイリスト等による複数(複数曲)を全て表示できない場合がある。このような場合、プレイリストに含まれるうち、画面表示部102に表示されている特定情報(曲名)を再生するコンテンツの特定情報(曲名)と判断する。   Then, the determination unit 103 determines specific information (song title) to be reproduced based on the display content of the screen display unit 102 (step S202). For example, the determination unit 103 determines that the specific information (song name) displayed on the screen display unit 102 is the specific information (song name) of the content to be reproduced. Here, the screen display unit 102 is limited in size, and may not be able to display all of a plurality (a plurality of songs) based on a playlist or the like. In such a case, while included in the playlist, the specific information (song name) displayed on the screen display unit 102 is determined as the specific information (song name) of the content to be reproduced.

そして、通信部104は、画面表示部102に表示された特定情報(曲名)がユーザにより選択し得る前に、決定部103により決定された特定情報(曲名)に対応するコンテンツ、またはこのコンテンツの一部をサーバ110に取得要求する(ステップS203)。   Then, the communication unit 104, before the specific information (song title) displayed on the screen display unit 102 can be selected by the user, the content corresponding to the specific information (song name) determined by the determination unit 103, or the content of this content A part of the server 110 is requested to acquire (step S203).

サーバ110は、コンテンツ出力装置100からのコンテンツの取得要求を受信し(ステップS211)、対応する一つまたは複数のコンテンツをコンテンツ出力装置100に配信する(ステップS212)。   The server 110 receives the content acquisition request from the content output device 100 (step S211), and distributes corresponding one or more contents to the content output device 100 (step S212).

コンテンツ出力装置100は、サーバ110からのコンテンツ配信により、直ちに再生可能な状態となる。例えば、ここで、ユーザの操作があれば操作された特定情報(曲名)に対応するコンテンツを直ちに再生できる(ステップS204)。これ以外に、ユーザの操作がなくても、配信されたコンテンツを直ちに再生(例えば、プレイリスト順にしたがって再生)する設定としてもよい。   The content output apparatus 100 is ready to be played back by the content distribution from the server 110. For example, here, if there is a user operation, the content corresponding to the operated specific information (song name) can be immediately reproduced (step S204). In addition to this, even if there is no user operation, the distributed content may be immediately reproduced (for example, reproduced according to the playlist order).

ここで、決定部103が再生するコンテンツをユーザの操作以前に決定している。決定部103は、上述したように、第1決定部〜第4決定部のいずれか一つあるいは複数を組み合わせてサーバ110から取得するコンテンツを決定する。   Here, the content to be played back by the determination unit 103 is determined before the user's operation. As described above, the determination unit 103 determines the content to be acquired from the server 110 by combining any one or more of the first determination unit to the fourth determination unit.

第1決定部の決定にしたがう設定とすれば、上記のように、画面表示部102に表示されている特定情報(曲名)により、ユーザが将来的に選択し得る特定情報(曲名)を決定する。   If the setting is made according to the determination by the first determination unit, the specific information (song name) that the user can select in the future is determined by the specific information (song name) displayed on the screen display unit 102 as described above. .

また、第2決定部の決定にしたがう設定とすれば、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。また、第2決定部は、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)と共通する他のコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とすることもできる。   Further, if the setting is made in accordance with the determination by the second determination unit, specific information that the user can select in the future based on the related information (artist name, song composer name) displayed on the screen display unit 102 ( Song name). In addition, the second determination unit allows the user to select specific information (song name) of other content in common with related information (artist name, song composer name) displayed on the screen display unit 102 in the future. It can also be specified information (song name).

また、第3決定部の決定にしたがう設定とすれば、画面表示部102の表示履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第3決定部は、表示履歴情報に基づき、ユーザによって選択された関連情報(アーティスト名、作詞作曲者名)の選択パターンにより、ある特定の関連情報から別の関連情報への遷移パターンを割り出し、遷移パターンに基づいて、画面表示部102に表示されている関連情報とは別の関連情報をユーザが将来的に選択し得る特定情報(曲名)とする。   Further, if the setting is made according to the determination of the third determination unit, specific information (song title) that the user can select in the future is determined based on the display history information of the screen display unit 102. The third determination unit calculates a transition pattern from one specific related information to another related information based on the selection pattern of the related information (artist name, song composer name) selected by the user based on the display history information. Based on the transition pattern, related information different from the related information displayed on the screen display unit 102 is set as specific information (song title) that the user can select in the future.

また、第4決定部を備え、コンテンツの出力履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第4決定部は、出力履歴情報を関連情報(アーティスト名、作詞作曲者名)毎にそれぞれまとめ、関連情報に対応するコンテンツのうち、多く出力されているコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とする。   Moreover, the 4th determination part is provided and the specific information (song name) which a user can select in the future is determined based on the output log information of a content. The fourth determination unit summarizes the output history information for each piece of related information (artist name, song composer name), and specifies specific information (song name) of the content that is output a lot from the content corresponding to the related information. Specific information (song title) that the user can select in the future is used.

以上の実施の形態によれば、コンテンツ出力装置100は、ユーザが操作する以前の時期に画面表示部102に表示された特定情報(曲名)のコンテンツをサーバ110に配信要求することにより、ユーザ操作時には待ち時間なく直ちにコンテンツを再生できるようになる。   According to the above embodiment, the content output apparatus 100 requests the server 110 to distribute the content of the specific information (song title) displayed on the screen display unit 102 before the user operates, so that the user operation Sometimes content can be played immediately without waiting.

次に、本発明の実施例について説明する。実施例1では、ユーザの車両にナビゲーション装置300が搭載され、サーバに通信接続されている。そして、ナビゲーション装置300が上記のコンテンツ出力装置100の機能を実行する場合の一例について説明する。   Next, examples of the present invention will be described. In the first embodiment, a navigation device 300 is mounted on a user's vehicle and is connected to a server for communication. An example in which the navigation device 300 executes the function of the content output device 100 will be described.

(ナビゲーション装置のハードウェア構成)
図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。図3において、ナビゲーション装置300は、CPU301、ROM302、RAM303、磁気ディスクドライブ304、磁気ディスク305、光ディスクドライブ306、光ディスク307、音声I/F(インターフェース)308、マイク309、スピーカ310、入力デバイス311、映像I/F312、ディスプレイ313、通信I/F314、GPSユニット315、各種センサ316、カメラ317、を備えている。各構成部301〜317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device)
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the navigation device. In FIG. 3, a navigation device 300 includes a CPU 301, ROM 302, RAM 303, magnetic disk drive 304, magnetic disk 305, optical disk drive 306, optical disk 307, audio I / F (interface) 308, microphone 309, speaker 310, input device 311, A video I / F 312, a display 313, a communication I / F 314, a GPS unit 315, various sensors 316, and a camera 317 are provided. Each component 301 to 317 is connected by a bus 320.

CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、コンテンツ出力プログラムを記録している。RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。   The CPU 301 governs overall control of the navigation device 300. The ROM 302 records a boot program and a content output program. The RAM 303 is used as a work area for the CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.

磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。   The magnetic disk drive 304 controls the reading / writing of the data with respect to the magnetic disk 305 according to control of CPU301. The magnetic disk 305 records data written under the control of the magnetic disk drive 304. As the magnetic disk 305, for example, an HD (hard disk) or an FD (flexible disk) can be used.

また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどを用いることができる。   The optical disk drive 306 controls reading / writing of data with respect to the optical disk 307 according to the control of the CPU 301. The optical disk 307 is a detachable recording medium from which data is read according to the control of the optical disk drive 306. As the optical disc 307, a writable recording medium can be used. In addition to the optical disk 307, an MO, a memory card, or the like can be used as a removable recording medium.

磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データ、車両情報、画像、走行履歴などが挙げられる。地図データは、ナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。   Examples of information recorded on the magnetic disk 305 and the optical disk 307 include map data, vehicle information, images, and travel history. Map data is used when searching for routes in the navigation system. Background data that represents features (features) such as buildings, rivers, ground surfaces, and energy supply facilities, and road shape data that represents road shapes with links and nodes. Vector data including

音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。   The audio I / F 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output. The sound received by the microphone 309 is A / D converted in the sound I / F 308. For example, the microphone 309 is installed in a dashboard portion of a vehicle, and the number thereof may be one or more. From the speaker 310, a sound obtained by D / A converting a predetermined sound signal in the sound I / F 308 is output.

入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。   Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, and the like, a keyboard, and a touch panel. The input device 311 may be realized by any one form of a remote control, a keyboard, and a touch panel, but may be realized by a plurality of forms.

映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、例えば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。   The video I / F 312 is connected to the display 313. Specifically, the video I / F 312 is output from, for example, a graphic controller that controls the entire display 313, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. And a control IC for controlling the display 313 based on the image data to be processed.

ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。   The display 313 displays icons, cursors, menus, windows, or various data such as characters and images. As the display 313, for example, a TFT liquid crystal display, an organic EL display, or the like can be used.

カメラ317は、車両外部の例えば、道路を含む映像を撮影する。映像は静止画あるいは動画のどちらでもよく、例えば、カメラ317によって車両外部を撮影し、撮影した画像をCPU301において画像解析したり、映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力したりする。   The camera 317 captures an image including, for example, a road outside the vehicle. The image may be either a still image or a moving image. For example, the outside of the vehicle is photographed by the camera 317, and the photographed image is analyzed by the CPU 301, or a recording medium such as the magnetic disk 305 or the optical disk 307 via the video I / F 312. Or output to

通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU301のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F314は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム)ユニット、FMチューナー、VICS(Vehicle Information and Communication System:登録商標)/ビーコンレシーバなどである。   The communication I / F 314 is connected to a network via wireless and functions as an interface between the navigation device 300 and the CPU 301. Communication networks that function as networks include in-vehicle communication networks such as CAN and LIN (Local Interconnect Network), public line networks and mobile phone networks, DSRC (Dedicated Short Range Communication), LAN, and WAN. The communication I / F 314 is, for example, a public line connection module, an ETC (non-stop automatic fee payment system) unit, an FM tuner, a VICS (Vehicle Information and Communication System) / beacon receiver, or the like.

GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。   The GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle. The output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later. The information indicating the current position is information for specifying one point on the map data such as latitude / longitude and altitude.

各種センサ316は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。   The various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and a tilt sensor. The output values of the various sensors 316 are used for the calculation of the current position of the vehicle by the CPU 301 and the amount of change in speed and direction.

(サーバの構成例)
上記のサーバ110についても、図3と同様の構成を有する。なお、このサーバにおいては、図3に記載のGPSユニット315、各種センサ316、カメラ317等は不要である。
(Server configuration example)
The server 110 has the same configuration as that shown in FIG. In this server, the GPS unit 315, the various sensors 316, the camera 317, etc. shown in FIG. 3 are unnecessary.

図3に記載のディスプレイ313を用いて図1の画面表示部102の機能を実現できる。また、図3の通信I/F314を用いて、図1の通信部104の機能を実現できる。図1に示したコンテンツ出力装置100は、図3に記載のROM302、RAM303、磁気ディスク305、光ディスク307などに記録されたプログラムやデータを用いて、CPU301が所定のプログラムを実行することによって、ディスプレイ313の表示状態に基づき、特定情報(曲名)を決定し、対応するコンテンツをサーバ110から取得する一連の機能を実現する。   The function of the screen display unit 102 shown in FIG. 1 can be realized using the display 313 shown in FIG. Further, the function of the communication unit 104 of FIG. 1 can be realized by using the communication I / F 314 of FIG. The content output apparatus 100 shown in FIG. 1 displays a display when the CPU 301 executes a predetermined program using programs and data recorded in the ROM 302, RAM 303, magnetic disk 305, optical disk 307, etc. shown in FIG. Based on the display state of 313, specific information (song name) is determined, and a series of functions for acquiring the corresponding content from the server 110 is realized.

特定情報とは、コンテンツを特定することができる、当該コンテンツ固有の情報である。例として、曲名が挙げられる。   The specific information is information specific to the content that can specify the content. An example is a song name.

コンテンツに付随する情報を関連情報とする。例として発売日、発売元、作詞者、作曲者、編曲者、プロデューサー、ジャンル、レーベル、等のメタ情報が挙げられる。   Information associated with the content is related information. Examples include meta information such as release date, distributor, songwriter, composer, arranger, producer, genre, and label.

(ナビゲーション装置によるコンテンツ取得から再生の処理例)
図4は、ナビゲーション装置によるコンテンツ取得から再生の処理例を示すフローチャートである。ナビゲーション装置300が実行する処理と、サーバ110が行う処理とをそれぞれ記載してある。
(Example of processing from content acquisition to playback by navigation device)
FIG. 4 is a flowchart showing an example of processing from content acquisition to reproduction by the navigation device. The process performed by the navigation device 300 and the process performed by the server 110 are described.

はじめに、ナビゲーション装置300は、サーバ110に対し、再生可能なコンテンツに対応する特定情報のリストの取得の要求を行う(ステップS401)。これにより、サーバ110は、ナビゲーション装置300からのリスト取得の要求(データ)を受信すると(ステップS411)、ナビゲーション装置300に対して再生可能なコンテンツに対応する特定情報のリストを配信する(ステップS412)。ここで、ナビゲーション装置300が行うリスト取得の要求には、曲名やアーティスト、ジャンル、曲調の指定、曲の年代や年齢層等の指定、再生したい複数曲等の基準で分類された特定情報の集合であるプレイリスト等、を含むことができ、サーバ110は、これらの指定に応じたコンテンツに対応する特定情報または関連情報のリストを配信する。   First, the navigation device 300 requests the server 110 to acquire a list of specific information corresponding to reproducible content (step S401). Thus, when the server 110 receives a list acquisition request (data) from the navigation device 300 (step S411), the server 110 distributes a list of specific information corresponding to reproducible content to the navigation device 300 (step S412). ). Here, the list acquisition request made by the navigation apparatus 300 includes a set of specific information classified based on criteria such as song name, artist, genre, tone, song age and age group, multiple songs to be played, etc. The server 110 distributes a list of specific information or related information corresponding to the content according to these designations.

以下、指定に応じたコンテンツに対応する特定情報のリストの例として、曲名をリストとしたものを曲名リストとし、曲名をアーティスト、ジャンル、曲調の指定、曲の年代や年齢層等の指定、再生したい複数曲、等の基準で分類された曲名リストをプレイリストとする。この分類はサーバ110やナビゲーション装置300が関連情報に基づき行ってもよく、また、ユーザが任意に分類してもよい。   Below, as an example of the list of specific information corresponding to the content according to the specification, the song name list is the song name list, the song name is the artist, genre, tone specification, song age and age group specification, playback A song name list that is classified according to the criteria such as a plurality of songs to be played is set as a playlist. This classification may be performed by the server 110 or the navigation device 300 based on related information, or may be arbitrarily classified by the user.

ナビゲーション装置300は、サーバ110から曲名リストを受信すると、この曲名リストの少なくとも一部をディスプレイ313に画面表示する(ステップS402)。   When receiving the song title list from the server 110, the navigation device 300 displays at least a part of the song title list on the display 313 (step S402).

ステップS402の実行後、ナビゲーション装置300は、ディスプレイ313上の表示内容の分析の処理(ステップS403)と、表示内容の表示履歴と再生履歴の分析の処理(ステップS404)と、をそれぞれ実行する。ステップS403とステップS404の処理は同時並行でもよいし、いずれか一方を先に処理してもよい。   After execution of step S402, the navigation apparatus 300 executes display content analysis processing on the display 313 (step S403), and display content display history and reproduction history analysis processing (step S404). The processes in step S403 and step S404 may be performed simultaneously in parallel, or one of them may be processed first.

この後、ナビゲーション装置300は、表示内容の分析の処理(ステップS403)と、表示内容の表示履歴と再生履歴の分析の処理(ステップS404)の実行により取得したそれぞれの情報を用いて所定の集計処理を行う(ステップS405)。そして、集計処理の結果、選定されたコンテンツをユーザの操作以前に先行取得するためにサーバ110に対しては当該コンテンツの配信要求を行う(ステップS406)。   Thereafter, the navigation apparatus 300 performs a predetermined aggregation using the respective information acquired by executing the display content analysis process (step S403) and the display content display history and reproduction history analysis process (step S404). Processing is performed (step S405). Then, as a result of the aggregation process, in order to obtain the selected content in advance before the user's operation, a distribution request for the content is made to the server 110 (step S406).

サーバ110は、ナビゲーション装置300からの配信要求を受信し(ステップS413)、配信要求に該当するコンテンツをナビゲーション装置300に配信する(ステップS414)。これにより、ナビゲーション装置300は、ユーザの操作以前の時期にコンテンツをサーバ110から先行取得しておくことができ、ユーザの操作時には直ちに再生することができるようになる(ステップS407)。なお、ステップS407の実行後は、再度の曲名リスト取得時にステップS401の処理に戻り上記処理を継続的に実行することができる。このほか、リスト取得に限らず、所定時間経過毎等にステップS402の処理に戻り画面表示に適合したコンテンツ取得を継続することができる。   The server 110 receives the distribution request from the navigation device 300 (step S413), and distributes content corresponding to the distribution request to the navigation device 300 (step S414). As a result, the navigation device 300 can obtain the content from the server 110 in advance before the user's operation, and can immediately reproduce it during the user's operation (step S407). After the execution of step S407, the process can be continuously executed by returning to the process of step S401 when the song name list is acquired again. In addition to the list acquisition, the content acquisition suitable for the screen display can be continued by returning to the process of step S402 every time a predetermined time elapses or the like.

図5は、ナビゲーション装置のディスプレイ上に表示するコンテンツのリスト例を示す図である。図示の例では、サーバ110から取得したプレイリスト501をナビゲーション装置300のディスプレイ313上に表示している。ここで、サーバ110からのコンテンツの取得が完了し、再生可能となっているコンテンツ、取得の対象となっているコンテンツ、等の取得状況についても表示される。また、プレイリスト501は複数のプレイリストをまとめたものであり、全てのプレイリストをまとめてひとつのフォルダとしたものや、複数のプレイリストをまとめたプレイリスト501が複数存在するものでもよい。   FIG. 5 is a diagram illustrating an example of a list of contents to be displayed on the display of the navigation device. In the illustrated example, the playlist 501 acquired from the server 110 is displayed on the display 313 of the navigation device 300. Here, the acquisition status of the content from the server 110 is completed and the content that can be reproduced, the content that is the target of acquisition, and the like are also displayed. The playlist 501 is a collection of a plurality of playlists, and all playlists may be combined into a single folder, or a plurality of playlists 501 including a plurality of playlists may exist.

具体的には、プレイリスト501の複数のリストA(501a)〜リストC(501c)のうち、リストA(501a)に含まれる曲名のうち楽曲aと楽曲aaについては、円グラフ502(502a)上で取得が完了した旨(円グラフが塗りつぶされ、100%取得済みを表す)であり、再生可能な状態であることを表示することができる。また、楽曲aaaと楽曲bは取得中であり、円グラフ502bでは、円の一部が欠けて75%の取得状況、円グラフ502cでは、楽曲bbは約40%程度の取得状況であることが表示されている。また、楽曲bbb〜楽曲cは、取得待機中である旨を円グラフ502dの外周だけの表示で示している。また、楽曲ccと楽曲cccは、未取得であるため、円グラフ502の表示を行わない。以下、楽曲○○という記載は曲名を表し、リスト○はプレイリスト名を表す。   Specifically, among the plurality of lists A (501a) to C (501c) of the play list 501, among the music names included in the list A (501a), the music a and the music aa are pie charts 502 (502a). The fact that the acquisition has been completed (the pie chart is filled in, indicating that 100% has been acquired) can be displayed, and it can be displayed that playback is possible. In addition, music aaa and music b are being acquired. In the pie chart 502b, a part of the circle is missing and 75% is acquired, and in the pie chart 502c, the music bb is about 40% acquired. It is displayed. In addition, the music bbb to music c indicate that they are waiting to be acquired by displaying only the outer periphery of the pie chart 502d. Further, since the music cc and the music ccc have not been acquired, the pie chart 502 is not displayed. Hereinafter, the description “music OO” represents a song name, and the list ◯ represents a playlist name.

このように、ディスプレイ313上に表示されている曲名について、当該曲名に対応するコンテンツの取得(事前のバッファ)状態を、事前バッファ完了、事前バッファ中、事前バッファ予定、等のそれぞれの状態において表示形態を変えて表示でき、コンテンツ再生の準備状況をユーザに知らせることができる。   In this way, for the song name displayed on the display 313, the acquisition (pre-buffer) state of the content corresponding to the song name is displayed in each state such as pre-buffer completion, pre-buffering, pre-buffering schedule, etc. It can be displayed in different forms, and the user can be informed of the preparation status for content playback.

(表示内容の分析処理例)
はじめに、表示内容の分析の処理(ステップS403)を説明する。ディスプレイ313に対するプレイリストの画面表示状態から画面の遷移がないまま、一定時間が経過した際に、表示内容の分析の処理を行う。この画面の遷移とは、スクロールやページ送りなど、ディスプレイ313上の表示される曲名が変化することを指す。また、表示内容の分析の処理を開始するまでの表示時間や、画面の遷移と判定するための移動距離は任意に設定しておくことができる。
(Display content analysis processing example)
First, the display content analysis process (step S403) will be described. A display content analysis process is performed when a predetermined time has passed without any screen transition from the screen display state of the playlist on the display 313. The transition of the screen indicates that the music title displayed on the display 313 changes, such as scrolling and page turning. Further, the display time until the display content analysis process is started and the movement distance for determining the transition of the screen can be arbitrarily set.

図6は、表示内容の分析の処理の一例を説明する図である。ナビゲーション装置300は、ディスプレイ313の画面表示部分に表示されている曲名について、サーバ110から取得するコンテンツの取得する優先順を算出する(上記第1決定部の処理)。   FIG. 6 is a diagram illustrating an example of display content analysis processing. The navigation device 300 calculates the priority order of the content acquired from the server 110 for the song title displayed on the screen display portion of the display 313 (the process of the first determining unit).

図6の(a)に示すように、大きさに制限があるディスプレイ313であるため、プレイリスト501全体が表示されないことを前提に説明する。この場合、図6の(b)に示す条件に基づき、ディスプレイ313に表示されている曲名について、それぞれ加点を行う。   As shown in FIG. 6A, the display 313 is limited in size, so that the entire playlist 501 is not displayed. In this case, points are added to the song titles displayed on the display 313 based on the conditions shown in FIG.

具体的には、楽曲bについては、自分自身(楽曲)が表示されているので加点10、この楽曲bを含むリストB(501b)の全体が表示されているので加点8、楽曲bはリストB(501b)の1曲目のため加点4となり、図6の(c)の順位表610に示すように、この楽曲bは得点が22となり、優先順1となる。楽曲bbについては、自分自身(楽曲)が表示されているので加点10、この楽曲bbを含むリストB(501b)の全体が表示されているので加点8、楽曲bbはリストB(501b)の2曲目のため加点がなく、図6の(c)に示すように、この楽曲bbは得点が18となり、優先順2となる。上記例では、優先順をディスプレイ313に対する楽曲の表示による加点により求めたが、ディスプレイ313に対する楽曲の非表示による減点で求めてもよい。   Specifically, with respect to the music b, since the self (music) is displayed, the score 10 is added, and since the entire list B (501b) including the music b is displayed, the score 8, the music b is the list B Since it is the first song of (501b), the score is 4, and as shown in the ranking table 610 of FIG. 6 (c), this song b has a score of 22, which is in priority order 1. As for the music bb, the player himself / herself (music) is displayed, so the score 10 is added, and the entire list B (501b) including the music bb is displayed, so the score 8 is added, and the music bb is 2 in the list B (501b). Since there is no score for the song, as shown in FIG. 6C, this song bb has a score of 18 and is given priority 2. In the above example, the priority order is obtained by adding points by displaying music on the display 313, but may be obtained by deductions by not displaying music on the display 313.

後述するが、ナビゲーション装置300は、上記処理により得た優先順を用いて優先順が高い順にコンテンツをサーバ110からの取得候補とする。   As will be described later, the navigation device 300 sets the contents as candidates for acquisition from the server 110 in descending order of priority using the priority order obtained by the above processing.

図6の(b)に示した得点基準の条件と加点については、条件を増減したり、条件毎の加点を任意な値に設定することができ、また、これらはユーザが設定できるようにしてもよい。   Regarding the conditions and points for scoring shown in FIG. 6B, the conditions can be increased or decreased, and the points for each condition can be set to arbitrary values, and these can be set by the user. Also good.

図7は、表示内容の分析の処理の他の例を説明する図である。ナビゲーション装置300は、ディスプレイ313に表示されている曲名について、対応する関連情報(例えば、作詞者、作曲者、編曲者)を抽出し、ディスプレイ313に表示されていない他の曲名のうち、抽出した関連情報と共通する関連情報を持つ曲名を特定する(上記第2決定部の処理)。このような特定は、協調フィルタリング等の既知の手法を用いて実現できる。   FIG. 7 is a diagram for explaining another example of display content analysis processing. The navigation apparatus 300 extracts corresponding information (for example, a lyricist, a composer, and an arranger) corresponding to the song name displayed on the display 313, and extracts other song names that are not displayed on the display 313. A song name having related information in common with related information is specified (processing of the second determining unit). Such identification can be realized by using a known method such as collaborative filtering.

図7の(a)に示すように、ディスプレイ313上に表示されているプレイリスト501の各曲名に対応する各コンテンツについて、発売日、発売元、作詞者、作曲者、編曲者、プロデューサー、ジャンル、レーベル、等のメタ情報を関連情報として抽出する。   As shown in FIG. 7A, for each content corresponding to each song name in the playlist 501 displayed on the display 313, the release date, release source, songwriter, composer, arranger, producer, genre , Label, etc., are extracted as related information.

そして、図7の(a)に示したディスプレイ313上に表示される曲名(ヒットチャート1位)について、図7の(b)に示す関連情報を有していたとする。そして、図7の(c)に示す関連情報の一部701として、図7(b)の関連情報のうち、作詞者、作曲者、編曲者、プロデューサーの情報を用いる。なお、用いる情報はこれらの情報に限らない。この関連情報の一部701が示す作詞者、作曲者、編曲者、プロデューサーのうちいずれかが関与している楽曲をディスプレイ313に表示されていない他のリスト501b、501cから特定する。   Then, it is assumed that the song title (first hit chart) displayed on the display 313 shown in FIG. 7A has the related information shown in FIG. 7B. Then, as the part 701 of the related information shown in FIG. 7C, the information of the lyricist, the composer, the arranger, and the producer among the related information of FIG. 7B is used. Note that the information used is not limited to such information. A song in which any of the songwriter, composer, arranger, and producer indicated by the part 701 of the related information is identified from the other lists 501b and 501c not displayed on the display 313.

この結果、関連情報の一部701(作詞者、作曲者、編曲者、プロデューサー)が含まれているコンテンツに対応する曲名702として、図7の(d)に示すリスト(作業用BGM)501cにある曲名702(曲名iii/アーティストi)があったとする。この場合、曲名702をディスプレイ313上に表示される曲名に関連する曲名として特定する。この際、曲名702毎にリスト、関連曲、両者の関連情報の共通項(例えば、上記作詞者、作曲者、編曲者、プロデューサー等)を関連情報表710(図10参照)に抽出しておく。   As a result, in the list (work BGM) 501c shown in FIG. 7D, the song name 702 corresponding to the content including the part 701 (lyricist, composer, arranger, producer) of the related information is included. Assume that there is a song title 702 (song title iii / artist i). In this case, the song name 702 is specified as the song name related to the song name displayed on the display 313. At this time, for each song name 702, a list, related songs, and common items of the related information (for example, the above-mentioned lyricist, composer, arranger, producer, etc.) are extracted in the related information table 710 (see FIG. 10). .

なお、表示される曲名に関連する曲名は複数でもよい。この場合、関連する曲名の候補が膨大になるおそれがあるので、例えば共通項の数や種類からふるい分けを行ってもよい。   There may be a plurality of song names related to the displayed song names. In this case, since there is a possibility that the number of related song title candidates may be enormous, for example, the screening may be performed based on the number and types of common terms.

また、例えば、「作詞が共通」の曲名より「レーベルが共通」の曲名、「作曲が共通」の曲名より「作詞&作曲が共に共通」の曲名のほうが関連性が高い、など、条件によって関連性に強弱をつけ、重みづけを行ってもよい。   Also, for example, the song name “Common Label” is more relevant than the song name “Common Lyrics”, and the song name “Longer Song & Composition Both” is more relevant than the song name “Common Composition”. You may give strength to sex and weight it.

以上のふるい分けや条件の重みづけはシステムが行ってもよく。また、ユーザの操作により設定されてもよい。   The above screening and weighting conditions may be performed by the system. Moreover, you may set by a user's operation.

後述するが、ナビゲーション装置300は、上記処理により得た関連情報の一部701で関連する未表示のコンテンツをサーバ110からの取得候補とする。   As will be described later, the navigation apparatus 300 sets an undisplayed content related in a part 701 of the related information obtained by the above processing as an acquisition candidate from the server 110.

図6に示した処理、および図7に示した処理は、図4のステップS403において、いずれか一方、あるいはいずれも実行することができる。   The process shown in FIG. 6 and the process shown in FIG. 7 can be executed in step S403 of FIG.

(表示履歴、再生履歴の分析処理例)
次に、図4の履歴分析の処理(ステップS404)を説明する。ステップS402の実行後、ナビゲーション装置300は、ディスプレイ313上の表示画面の表示(閲覧)履歴から画面の遷移のパターンを抽出する(上記第3決定部の処理)。また、コンテンツの再生履歴からユーザ属性(嗜好性)を抽出する(上記第4決定部の処理)。これらの処理は、最尤法やベイズ推定等の既知の技術を用いて実現できる。
(Example of display history and playback history analysis)
Next, the history analysis process (step S404) in FIG. 4 will be described. After execution of step S402, the navigation apparatus 300 extracts a screen transition pattern from the display (viewing) history of the display screen on the display 313 (the process of the third determining unit). Also, user attributes (preference) are extracted from the content reproduction history (the process of the fourth determination unit). These processes can be realized using known techniques such as maximum likelihood and Bayesian estimation.

図8は、表示履歴の分析の処理の一例を説明する図である。図8の(a)に示すように、プレイリスト501がリスト501a〜501cと、各リスト501a〜501cに含まれる曲名を有しているとする。そして、図8の(b)に示すように、ディスプレイ313の表示画面上に表示した内容について表示履歴(画面表示ログ)を取得しておく。   FIG. 8 is a diagram illustrating an example of display history analysis processing. As shown in FIG. 8A, it is assumed that the play list 501 has lists 501a to 501c and song names included in the lists 501a to 501c. Then, as shown in FIG. 8B, a display history (screen display log) is acquired for the contents displayed on the display screen of the display 313.

例えば、図8の(b)に示すように、はじめにプレイリスト501を表示させた後、リストA(501a)を表示させ、この後、プレイリスト501の表示に戻した後、リストB(501b)を表示させ、最後にプレイリスト501を表示させていたとする。この場合、ナビゲーション装置300は、図8の(b)に示した表示履歴(画面表示ログ)に基づいて、予測される遷移先を分析する。   For example, as shown in FIG. 8B, after the playlist 501 is first displayed, the list A (501a) is displayed, and then the playlist 501 is displayed again, and then the list B (501b) is displayed. Is displayed, and finally the play list 501 is displayed. In this case, the navigation device 300 analyzes the predicted transition destination based on the display history (screen display log) shown in FIG.

図8の(b)では、プレイリスト501に戻りながら次のリスト501a,501bに順次遷移しているため、図8の(c)の予測遷移先表810に示すように、最後に表示したプレイリスト501の後に予測される遷移先としてリストC(501c)と判断する。また、この際の遷移確率(85%)を求めておく。他の遷移先があれば、同様に遷移確率を求めておく。予測遷移先表810は、ユーザの選択によって将来的に遷移し得るプレイリストを示す。なお、ここでは遷移先の対象をプレイリストとしているが、プレイリストに限らず、例えば曲名でもよい。   In (b) of FIG. 8, since the transition to the next lists 501a and 501b is made sequentially while returning to the play list 501, as shown in the predicted transition destination table 810 of (c) of FIG. The transition destination predicted after the list 501 is determined as the list C (501c). In addition, the transition probability (85%) at this time is obtained. If there is another transition destination, the transition probability is obtained in the same manner. The predicted transition destination table 810 shows playlists that can be transitioned in the future by user selection. Here, the transition destination target is a playlist, but it is not limited to a playlist, and may be a song name, for example.

後述するが、ナビゲーション装置300は、上記処理により得た遷移確率の情報をコンテンツ取得時の係数(パラメータ)として用いてサーバ110にコンテンツを取得要求する。   As will be described later, the navigation device 300 makes a content acquisition request to the server 110 by using the transition probability information obtained by the above processing as a coefficient (parameter) at the time of content acquisition.

図9は、再生履歴の分析の処理の一例を説明する図である。図9の(a)に示すように、ナビゲーション装置300は、コンテンツを再生した際の再生ログとして、再生の日時、曲名、アーティスト名、ジャンル、導線(再生の契機)を取得しておく。   FIG. 9 is a diagram for explaining an example of a reproduction history analysis process. As shown in FIG. 9A, the navigation apparatus 300 acquires the reproduction date and time, the song title, the artist name, the genre, and the conductor (reproduction opportunity) as a reproduction log when the content is reproduced.

そして、再生ログを集計する。図9の(b)に示す例では上記取得した曲名、アーティスト名、ジャンル、導線、の各項目別の再生回数をそれぞれ集計することにより、コンテンツ再生のユーザ傾向910を得ることができる。コンテンツ再生のユーザ傾向910は、曲名、アーティスト名、ジャンル、導線、の各項目で、再生回数の傾向を示しており、これにより、ユーザがどの曲名を選択しやすいかを予測することができる。   Then, the reproduction logs are totaled. In the example shown in FIG. 9B, the user tendency 910 of content reproduction can be obtained by counting the number of reproductions for each item of the acquired song name, artist name, genre, and conductor. The content reproduction user tendency 910 shows the tendency of the number of reproductions in each item of the song name, artist name, genre, and conductor, and this makes it possible to predict which song title is easy for the user to select.

後述するが、ナビゲーション装置300は、上記処理により得たコンテンツの再生履歴の集計結果(ユーザ傾向910)をコンテンツ取得時の係数(パラメータ)として用いてサーバ110にコンテンツを取得要求する。   As will be described later, the navigation device 300 makes a content acquisition request to the server 110 using the content reproduction history tabulation result (user tendency 910) obtained by the above processing as a coefficient (parameter) at the time of content acquisition.

この際、ユーザ傾向910の各項目(曲名、アーティスト名、ジャンル、導線等)別に係数の重み(値)に反応してもよく、ユーザの嗜好に合わせた項目のコンテンツを優先して取得できるようになる。   At this time, each item (song title, artist name, genre, conductor, etc.) of the user tendency 910 may react to the weight (value) of the coefficient so that the content of the item according to the user's preference can be preferentially acquired. become.

また、ナビゲーション装置300は、楽曲をランダム再生する際には、ユーザの嗜好による楽曲の選択の意志が反映されないため、図9に示したユーザ傾向910にランダム再生時の履歴は取り込まないようにする。   In addition, since the navigation apparatus 300 does not reflect the user's preference for selecting music according to user's preference when randomly playing music, the user device 910 illustrated in FIG. 9 does not capture the history during random playback. .

また、表示履歴や再生履歴の分析の処理(図8,図9参照)において、ナビゲーション装置300を操作(コンテンツを視聴)するユーザが異なることも考えられる。このようにユーザが異なる場合、表示履歴や再生履歴が異なるため、ユーザが異なる状態(例えば特定日時)を検出したときには、この特定日時に関する表示履歴や再生履歴を無視したり、異なるユーザ設定として分析する。これにより、ユーザ別に適したコンテンツ取得を行えるようになる。   In addition, in the display history and playback history analysis processing (see FIGS. 8 and 9), it is also conceivable that users operating the navigation device 300 (viewing content) are different. In this way, when the user is different, the display history and the playback history are different, so when the user detects a different state (for example, a specific date and time), the display history and the playback history related to the specific date and time are ignored or analyzed as different user settings To do. This makes it possible to acquire content suitable for each user.

(集計処理例)
図10は、集計処理の一例を説明する図である。図4に示した集計の処理(ステップS405)では、上記の表示内容の分析の処理(ステップS403)、および表示履歴と再生履歴の分析の処理(ステップS404)により取得した各情報を集計する。そして、サーバ110に対し先行取得のために要求するコンテンツの選定を行う。
(Example of aggregation processing)
FIG. 10 is a diagram for explaining an example of the aggregation process. In the aggregation process (step S405) shown in FIG. 4, the information acquired by the display content analysis process (step S403) and the display history and reproduction history analysis process (step S404) is aggregated. Then, the content requested to the server 110 for prior acquisition is selected.

図10に示す例では、(a)取得コンテンツ候補に、(b)算出用パラメータを乗算して、(c)取得コンテンツを選定する。   In the example illustrated in FIG. 10, (a) an acquired content candidate is multiplied by (b) a calculation parameter, and (c) an acquired content is selected.

図10の(a)に示す取得コンテンツ候補としては、ディスプレイ313の表示内容の分析の処理(ステップS403)により求めた、取得コンテンツの取得する優先順の順位表610(図6参照)と、ディスプレイ313に表示されている曲名に関連する未表示の他の曲名702(図7参照)の関連情報表710とがある。   The acquired content candidates shown in FIG. 10A include a priority order table 610 (see FIG. 6) obtained by the acquired content obtained by the analysis processing (step S403) of the display content on the display 313, and the display. There is a related information table 710 of other undisplayed song names 702 (see FIG. 7) related to the song names displayed in 313.

また、図10の(b)に示す算出用パラメータとしては、表示履歴の分析の処理(ステップS404)により得た予測遷移先表810(図8参照)の予測遷移先(リスト)別の遷移確率と、ユーザ傾向910(図9参照)が示すコンテンツ再生履歴を項目別(曲名、アーティスト名、ジャンル、導線等)にまとめたものとを用いる。   Also, the calculation parameters shown in FIG. 10B include transition probabilities for each predicted transition destination (list) in the predicted transition destination table 810 (see FIG. 8) obtained by the display history analysis process (step S404). In addition, the content reproduction history indicated by the user tendency 910 (see FIG. 9) is used for each item (song title, artist name, genre, conductor, etc.).

これにより、ナビゲーション装置300は、図10の(a)の曲名表示の順位表610のコンテンツと、関連情報表710に示された未表示の曲名702からなる取得候補の各コンテンツに対して、図10の(b)の予測遷移先表810とユーザ傾向910の算出用パラメータ(予測遷移先表810の遷移確率に対応する係数や、ユーザ傾向910の各項目別の割合に応じた係数など)を乗算し、図10の(c)に示す取得コンテンツの取得する優先順の順位表1010を作成する。   As a result, the navigation apparatus 300 displays the content of the song title display ranking table 610 in FIG. 10A and the content of the acquisition candidate including the undisplayed song name 702 shown in the related information table 710. 10 (b) prediction transition destination table 810 and user tendency 910 calculation parameters (coefficient corresponding to the transition probability of prediction transition destination table 810, coefficient corresponding to the ratio of each item of user tendency 910, etc.). Multiplication is performed to create a priority order table 1010 acquired by the acquired content shown in FIG.

図10の(c)に示す例では、リストCの楽曲cが優先順1位の楽曲であり、取得候補1位であったリストBの楽曲bは優先順2位となっている。これは図10の(b)に示す算出用パラメータの遷移確率の重み(係数)を高く設定したことに基づく。   In the example shown in FIG. 10C, the music piece c in the list C is the music piece in the first priority order, and the music piece b in the list B that is the first acquisition candidate is the second priority order. This is based on the fact that the weight (coefficient) of the transition probability of the calculation parameter shown in FIG.

図10の説明では、(a)の取得コンテンツ候補として、上述した順位表610と、関連情報表710に示された表示に関連する(未表示の)曲名702と、をいずれも用いることとしたが、いずれか一方だけを用いる設定としてもよい。また、(b)算出用パラメータとして上述した予測遷移先表810と、コンテンツ再生のユーザ傾向910と、をいずれも用いることとしたが、いずれか一方だけを用いる設定としてもよい。また、(b)算出用パラメータとして上述した予測遷移先表810と、コンテンツ再生のユーザ傾向910の各項目の重み(係数)は任意に設定できる。   In the description of FIG. 10, both the above-described ranking table 610 and the (undisplayed) song name 702 related to the display shown in the related information table 710 are used as the acquired content candidates in (a). However, it is good also as a setting which uses only any one. In addition, (b) the prediction transition destination table 810 and the content reproduction user tendency 910 described above are used as calculation parameters, but only one of them may be set. Further, (b) the weight (coefficient) of each item of the predicted transition destination table 810 and the content reproduction user tendency 910 described above as calculation parameters can be arbitrarily set.

以上説明した処理において、表示内容の分析(ステップS403)、および表示や再生履歴の分析の処理(ステップS404)、集計処理(ステップS405)は、ナビゲーション装置300が実行するに限らず、サーバ110側が必要なデータをコンテンツ出力装置100から取得して分析、集計処理する構成としてもよい。また、これら分析、集計処理で用いるパラメータは、固定値である必要はなく、機械学習等で適宜修正したり、ユーザによる編集等で設定変更可能としてもよい。   In the processing described above, the display content analysis (step S403), the display and reproduction history analysis processing (step S404), and the aggregation processing (step S405) are not limited to being executed by the navigation device 300, but may be performed by the server 110 side. A configuration may be adopted in which necessary data is acquired from the content output apparatus 100 and analyzed and aggregated. The parameters used in these analysis and aggregation processes do not have to be fixed values, and may be appropriately modified by machine learning or the like, or may be changed by editing by the user.

また、表示内容の分析(ステップS403)の処理では、表示内容に対して操作を行うマウスカーソルやスタイラスペン、手指の接触などの入力インターフェースの位置を検出することもできる。   Further, in the processing of the display content analysis (step S403), the position of the input interface such as a mouse cursor, a stylus pen, or a finger touch that operates on the display content can be detected.

また、表示や履歴の分析の処理(ステップS404)では、ユーザが特定できないときには、汎用的なモデルを用いて処理してもよい。   Further, in the display and history analysis process (step S404), when a user cannot be specified, a general-purpose model may be used.

また、ナビゲーション装置300がサーバ110から並列して複数のコンテンツを取得する際には、コンテンツを取得する優先順だけに限らず、コンテンツのファイルサイズや再生時間に基づきコンテンツ毎の取得にかかる時間と、複数コンテンツ間の取得時間差を求めてもよい。この取得時間差が短いコンテンツを取得する優先順を上げることで、ネットワーク状態等に応じて効率的にコンテンツを取得できるようになる。また、ネットワーク状態等に応じて取得するコンテンツの品質を可変してもよく、さらには、コンテンツの再生開始当初の所定期間のみ低ビットレート(低品質)で取得すれば、再生可能となる時間をより早めることができる。   Further, when the navigation apparatus 300 acquires a plurality of contents in parallel from the server 110, not only the priority order for acquiring the contents, but also the time required for acquisition for each content based on the file size and playback time of the contents, A difference in acquisition time between a plurality of contents may be obtained. By increasing the priority for acquiring content with a short acquisition time difference, the content can be acquired efficiently according to the network status and the like. In addition, the quality of the content to be acquired may be varied depending on the network state, and further, if the content is acquired at a low bit rate (low quality) only for a predetermined period at the beginning of content playback, the time that can be played back is set. It can be accelerated.

また、再生対象のコンテンツの決定は、ユーザ操作に限らず、システム(ナビゲーション装置300やサーバ110)側がそれまでのコンテンツの再生状態等に応じたレコメンドとして自動決定してもよい。   Further, the content to be played back is not limited to a user operation, and the system (navigation device 300 or server 110) may automatically decide as a recommendation according to the playback state of the content so far.

また、再生済みのコンテンツを削除する際には、コンテンツを取得した優先度や、取得してからの経過時間や、データのサイズ、取得状況を考慮してもよい。取得状況は、コンテンツの品質や、全体の何%を取得済みであるか、等である。例えば、コンテンツ全体を取得していても品質が本来の半分のビットレートであれば50%と判断する。   Further, when deleting the reproduced content, the priority at which the content was acquired, the elapsed time since the acquisition, the size of the data, and the acquisition status may be taken into consideration. The acquisition status includes the quality of content, what percentage of the content has already been acquired, and the like. For example, even if the entire content is acquired, if the quality is half the original bit rate, it is determined as 50%.

また、実施例では、コンテンツ出力装置としてナビゲーション装置を用いる構成としたが、他にポータブルオーディオプレーヤー、スマートフォン、ネットワークオーディオプレーヤー等のストリーミング再生機能を備えた装置を用いることもできる。また、実施例では、コンテンツを楽曲を例に説明したが、他のストリーミング動画であってもよい。   In the embodiment, the navigation device is used as the content output device, but other devices having a streaming reproduction function such as a portable audio player, a smartphone, and a network audio player can also be used. Further, in the embodiment, the content is described as an example of music, but another streaming video may be used.

以上のように、この発明によれば、ユーザ操作を行う前にストリーミング再生するコンテンツを予測してあらかじめ取得しておく。これにより、コンテンツの再生開始の操作時には、待ち時間が発生せず、直ちに再生を行うことができるようになる。   As described above, according to the present invention, the content to be streamed is predicted and acquired in advance before the user operation. Thereby, at the time of the operation of starting the reproduction of the content, no waiting time is generated, and the reproduction can be performed immediately.

取得するコンテンツは、画面表示の状態や、表示履歴、再生履歴等を用いてユーザの操作や嗜好を分析して行う。これにより、ユーザが再生したいコンテンツを精度よく取得できるようになる。   The acquired content is obtained by analyzing the user's operation and preferences using the screen display state, display history, reproduction history, and the like. As a result, the content that the user wants to reproduce can be acquired with high accuracy.

なお、本実施の形態で説明したコンテンツ出力方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。   The content output method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.

100 コンテンツ出力装置
101 記憶部
102 画面表示部
103 決定部
104 通信部
105 出力部
110 サーバ
300 ナビゲーション装置
DESCRIPTION OF SYMBOLS 100 Content output device 101 Memory | storage part 102 Screen display part 103 Determination part 104 Communication part 105 Output part 110 Server 300 Navigation apparatus

Claims (1)

画面表示部に表示されるコンテンツの情報に基づき将来的に選択し得る特定情報を決定する決定部と、
前記特定情報に対応するコンテンツ、または当該コンテンツの一部を、前記特定情報の選択前にコンテンツ配信サーバから取得する通信部と、
前記通信部により取得された前記コンテンツに対応する特定情報が選択された場合、前記通信部により取得された前記コンテンツ、または当該コンテンツの一部を出力する出力部と、
を備えるコンテンツ出力装置。
A determination unit that determines specific information that can be selected in the future based on information of content displayed on the screen display unit;
A communication unit that acquires content corresponding to the specific information or a part of the content from a content distribution server before selecting the specific information;
When specific information corresponding to the content acquired by the communication unit is selected, the content acquired by the communication unit, or an output unit that outputs a part of the content;
A content output device comprising:
JP2018180995A 2018-09-26 2018-09-26 Content output device, content distribution server, content output method, and content output program Pending JP2019023898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018180995A JP2019023898A (en) 2018-09-26 2018-09-26 Content output device, content distribution server, content output method, and content output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018180995A JP2019023898A (en) 2018-09-26 2018-09-26 Content output device, content distribution server, content output method, and content output program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014071637A Division JP2015194832A (en) 2014-03-31 2014-03-31 Content output device, content distribution server, content output method and content output program

Publications (1)

Publication Number Publication Date
JP2019023898A true JP2019023898A (en) 2019-02-14

Family

ID=65368956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018180995A Pending JP2019023898A (en) 2018-09-26 2018-09-26 Content output device, content distribution server, content output method, and content output program

Country Status (1)

Country Link
JP (1) JP2019023898A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003284029A (en) * 2002-03-25 2003-10-03 Sony Ericsson Mobilecommunications Japan Inc Contents distribution system and radio communication terminal
JP2004021769A (en) * 2002-06-19 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> Content first reading device, content first reading method, and program
JP2011130018A (en) * 2009-12-15 2011-06-30 Sharp Corp Content distribution system, content distribution apparatus, content playback terminal and content distribution method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003284029A (en) * 2002-03-25 2003-10-03 Sony Ericsson Mobilecommunications Japan Inc Contents distribution system and radio communication terminal
JP2004021769A (en) * 2002-06-19 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> Content first reading device, content first reading method, and program
JP2011130018A (en) * 2009-12-15 2011-06-30 Sharp Corp Content distribution system, content distribution apparatus, content playback terminal and content distribution method

Similar Documents

Publication Publication Date Title
US10558698B2 (en) Lyric page generation method and lyric page generation apparatus
US20200341632A1 (en) User interface for media content playback
JPWO2008096414A1 (en) Content acquisition apparatus, content acquisition method, content acquisition program, and recording medium
US8713069B2 (en) Playlist search device, playlist search method and program
TWI651645B (en) A music playing system, method and electronic device
US20210272569A1 (en) Voice feedback for user interface of media playback device
US20100229088A1 (en) Graphical representations of music using varying levels of detail
CN110265067B (en) Method and device for recording hot segments, electronic equipment and readable medium
WO2022198811A1 (en) Method and apparatus for music sharing, electronic device, and storage medium
EP1962241A1 (en) Content search device, content search system, server device for content search system, content searching method, and computer program and content output apparatus with search function
US20170031545A1 (en) Information processing device, information processing method and information processing program
WO2020259130A1 (en) Selected clip processing method and device, electronic equipment and readable medium
JP2007172702A (en) Method and apparatus for selecting content
WO2010073344A1 (en) Play list generation device, play list generation method, play list generation program, and recording medium
WO2010131333A1 (en) Content search device, content search method, content search program, and recording medium
JP2015194832A (en) Content output device, content distribution server, content output method and content output program
CN110381356B (en) Audio and video generation method and device, electronic equipment and readable medium
US8315725B2 (en) Method and apparatus for controlling content reproduction, and computer product
CN115103232B (en) Video playing method, device, equipment and storage medium
JP2019023898A (en) Content output device, content distribution server, content output method, and content output program
CN115150654A (en) Multimedia playing method, device, storage medium and program product
CN115134670A (en) Multimedia playing method, device, storage medium and program product
JP2009043353A (en) Title giving device, title giving method, title giving program, and recording medium
JP5028922B2 (en) Music playback device, music playback program, and music playback method
JP7483775B2 (en) Application program, terminal device control method, content providing device, and content providing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191210