JP2019023898A - Content output device, content distribution server, content output method, and content output program - Google Patents
Content output device, content distribution server, content output method, and content output program Download PDFInfo
- Publication number
- JP2019023898A JP2019023898A JP2018180995A JP2018180995A JP2019023898A JP 2019023898 A JP2019023898 A JP 2019023898A JP 2018180995 A JP2018180995 A JP 2018180995A JP 2018180995 A JP2018180995 A JP 2018180995A JP 2019023898 A JP2019023898 A JP 2019023898A
- Authority
- JP
- Japan
- Prior art keywords
- content
- display
- song
- information
- name
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
この発明は、ストリーミング配信されるコンテンツを再生出力するコンテンツ出力装置、コンテンツ配信サーバ、コンテンツ出力方法およびコンテンツ出力プログラムに関する。ただし、この発明の利用は、コンテンツ出力装置、コンテンツ配信サーバ、コンテンツ出力方法およびコンテンツ出力プログラムに限らない。 The present invention relates to a content output device, a content distribution server, a content output method, and a content output program that reproduce and output content that is distributed in a streaming manner. However, the use of the present invention is not limited to the content output device, the content distribution server, the content output method, and the content output program.
従来からコンテンツをストリーミング再生する際の各手法が提供されている。例えば、コンテンツを繰り返し再生する場合、ストリーミングデータの開始から一部分を保存しておき、2回目以降再生する際は、保存してある一部データを再生して、続きからストリーミング再生することにより、ストリーミングデータ取得の待ち時間をなくす技術がある(例えば、下記特許文献1参照。)。
Conventionally, various methods for streaming playback of content have been provided. For example, when the content is repeatedly played, a part of the streaming data is saved, and when the contents are played for the second time and thereafter, the saved part of the data is played back and then the streaming is played back. There is a technique for eliminating the waiting time for data acquisition (for example, see
また、通信状態によって、サーバから送信するストリーミングデータのサイズを変化させることにより、再生までの待機時間を減らし、映像や音声の再生の安定化を図る技術がある(例えば、下記特許文献2参照。)。また、あらかじめ、複数の番組の部分ストリーミングデータをダウンロードしておくことによって、待機時間なしで所望の番組を視聴できるようにした技術がある(例えば、下記特許文献3参照。)。
Further, there is a technique for reducing the waiting time until reproduction by changing the size of streaming data transmitted from the server depending on the communication state, and stabilizing the reproduction of video and audio (for example, see
しかしながら、上記従来の技術では、ストリーミングデータ取得の待機時間をなくすことはできなかった。特許文献1の技術では、初回再生のコンテンツは一部保存データがなく、最初からストリーミング再生することとなるので、待機時間が発生してしまう。また、一部データを保存しておくので、一度しか見なくてもよいものまで保存したり、再生回数が増えるとデータ量が増えてしまい、ユーザにとって利便性を向上できないことがある。
However, with the above-described conventional technology, the waiting time for streaming data acquisition cannot be eliminated. In the technology of
特許文献2の技術では、再生までの待機時間を減らすことはできるが、この待機時間をなくすことはできない。特許文献3の技術では、コンテンツ数が増えるに伴い、ダウンロードするストリーミングデータが増えるため、データ処理量が増大する、という各問題が一例として挙げられる。
With the technique of
上述した課題を解決し、目的を達成するため、請求項1の発明にかかるコンテンツ出力装置は、画面表示部に表示されるコンテンツの情報に基づき将来的に選択し得る特定情報を決定する決定部と、前記特定情報に対応するコンテンツ、または当該コンテンツの一部を、前記特定情報の選択前にコンテンツ配信サーバから取得する通信部と、前記通信部により取得された前記コンテンツに対応する特定情報が選択された場合、前記通信部により取得された前記コンテンツ、または当該コンテンツの一部を出力する出力部と、を備えることを特徴とする。
In order to solve the above-described problems and achieve the object, the content output device according to the invention of
また、請求項13の発明にかかるコンテンツ配信サーバは、コンテンツを出力するコンテンツ出力装置に前記コンテンツを配信するコンテンツ配信サーバであって、前記コンテンツ出力装置の画面表示部上の前記コンテンツの情報を取得して、前記コンテンツ出力装置で将来的に選択し得る特定情報を決定する決定部と、前記コンテンツ出力装置の前記画面表示部に表示された特定情報の選択前に、前記決定部により決定された特定情報に対応するコンテンツ、または当該コンテンツの一部を前記コンテンツ出力装置に送信する通信部と、を備えることを特徴とする。 A content distribution server according to a thirteenth aspect of the present invention is a content distribution server that distributes the content to a content output device that outputs the content, and acquires the content information on the screen display unit of the content output device A determination unit that determines specific information that can be selected in the future in the content output device; and the determination unit that determines the specific information displayed on the screen display unit of the content output device. A communication unit that transmits content corresponding to the specific information or a part of the content to the content output device.
また、請求項14の発明にかかるコンテンツ出力方法は、コンテンツ出力装置が実施するコンテンツ出力方法であって、画面表示部に表示されるコンテンツの情報に基づき将来的に選択し得る特定情報を決定部により決定する工程と、前記特定情報に対応するコンテンツ、または当該コンテンツの一部を、前記特定情報の選択前にコンテンツ配信サーバから通信部が取得する工程と、取得した前記コンテンツに対応する特定情報が選択された場合、前記通信部により取得された前記コンテンツ、または当該コンテンツの一部を出力部により出力する工程と、を含むことを特徴とする。 A content output method according to a fourteenth aspect of the present invention is a content output method implemented by a content output device, wherein specific information that can be selected in the future based on content information displayed on the screen display unit is determined. Determining the content corresponding to the specific information or a part of the content from the content distribution server before selecting the specific information, and the specific information corresponding to the acquired content And the step of outputting the content acquired by the communication unit or a part of the content by an output unit.
また、請求項15の発明にかかるコンテンツ出力プログラムは、請求項14に記載のコンテンツ出力方法をコンピュータに実行させることを特徴とする。 According to a fifteenth aspect of the present invention, a content output program causes a computer to execute the content output method according to the fourteenth aspect.
(実施の形態)
以下に添付図面を参照して、この発明にかかるコンテンツ出力装置、コンテンツ配信サーバ、コンテンツ出力方法およびコンテンツ出力プログラムの好適な実施の形態を詳細に説明する。
(Embodiment)
Exemplary embodiments of a content output device, a content distribution server, a content output method, and a content output program according to the present invention will be explained below in detail with reference to the accompanying drawings.
図1は、実施の形態にかかるコンテンツ出力装置の機能的構成の一例を示すブロック図である。実施の形態にかかるコンテンツ出力装置100は、コンテンツを配信するサーバ(コンテンツ配信サーバ)110とネットワークを介して接続され、サーバ110から配信されたコンテンツを再生する。
FIG. 1 is a block diagram illustrating an example of a functional configuration of the content output apparatus according to the embodiment. The
コンテンツ出力装置100は、記憶部101と、画面表示部102と、決定部103と、通信部104と、出力部105と、を有する。
The
記憶部101は、再生するコンテンツを特定する曲名等の特定情報を記憶する。コンテンツはサーバ110等から取得し、記憶部101にコンテンツそのものを記憶してもよいが、実施の形態では、コンテンツの再生時にサーバから取得したコンテンツをストリーミング再生する例を用いて説明する。
The
また、記憶部101には、さらに、特定情報(曲名)に対応するコンテンツに関する情報である関連情報(例えば、アーティスト名、作詞作曲者名等)が記憶可能である。また、関連情報が画面表示部102に表示された日時の履歴情報である表示履歴情報や、関連情報に対応するコンテンツが出力された日時の履歴情報である出力履歴情報についても記憶可能である。
Further, the
画面表示部102は、曲名等の特定情報、および特定情報(曲名)に対応するコンテンツに関する情報である関連情報(例えば、アーティスト名、作詞作曲者名等)、関連情報が画面表示部102に表示された日時の履歴情報である表示履歴情報、関連情報に対応するコンテンツが出力された日時の履歴情報である出力履歴情報についても表示可能である。
The
決定部103は、記憶部101に記憶されている特定情報のうち、ユーザが将来的に選択し得る特定情報(曲名)を決定する処理を行う。
The
この決定部103は、下記の各機能別の処理を行うこととしてもよい。例えば、第1決定部を備え、この第1決定部は、画面表示部102に表示されている特定情報(曲名)の表示の仕方に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第1決定部は、画面表示部102に表示されている特定情報(曲名)の表示の仕方を、あらかじめ設定してある表示の仕方の条件に照らし合わせ、条件に合致する毎に条件に振り分けられている点数を特定情報(曲名)に関連付け、点数の高い特定情報(曲名)をユーザが将来的に選択し得る特定情報として決定する。
The
また、第2決定部を備え、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第2決定部は、画面表示部102に表示されている特定情報(曲名)に対応するコンテンツの関連情報(アーティスト名、作詞作曲者名)と共通する他のコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とする。また、第2決定部は、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)と共通する他のコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とすることもできる。
In addition, a second determination unit is provided, and specific information (music name) that can be selected in the future by the user is determined based on related information (artist name, song composer name) displayed on the
また、第3決定部を備え、画面表示部102の表示履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第3決定部は、表示履歴情報に基づき、ユーザによって選択された関連情報(アーティスト名、作詞作曲者名)の選択パターンにより、ある特定の関連情報から別の関連情報への遷移パターンを割り出し、遷移パターンに基づいて、画面表示部102に表示されている関連情報とは別の関連情報をユーザが将来的に選択し得る特定情報(曲名)とする。
Moreover, the 3rd determination part is provided and based on the display history information of the
また、第4決定部を備え、コンテンツの出力履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第4決定部は、出力履歴情報を関連情報(アーティスト名、作詞作曲者名)毎にそれぞれまとめ、関連情報に対応するコンテンツのうち、多く出力されているコンテンツの特定情報(曲名)を、ユーザが将来的に選択される特定情報(曲名)とする。 Moreover, the 4th determination part is provided and the specific information (song name) which a user can select in the future is determined based on the output log information of a content. The fourth determination unit summarizes the output history information for each piece of related information (artist name, song composer name), and specifies specific information (song name) of the content that is output a lot from the content corresponding to the related information. It is assumed that the specific information (song name) is selected in the future by the user.
通信部104は、画面表示部102に表示された特定情報(曲名)がユーザにより選択される前に、決定部103により決定された特定情報(曲名)に対応するコンテンツ、またはこのコンテンツの一部をサーバ110から取得する。
The
出力部105は、通信部104によって取得されたコンテンツに対応する特定情報(曲名)がユーザにより選択された場合、通信部104により取得されたコンテンツを再生のために出力する。この際、出力部105は、コンテンツの一部を再生のために出力してもよい。
When the user selects specific information (song title) corresponding to the content acquired by the
コンテンツ出力装置100は、例えば、ナビゲーション装置、ポータブルオーディオ装置、スマートフォン、ネットワークオーディオプレーヤー、等のストリーミング再生機能を備えた装置に適用できる。
The
また、コンテンツ出力装置100の記憶部101と決定部103の機能は、サーバ110が備えてもよい。この場合、サーバ110は、記憶部101に記憶されている特定情報のうち、ユーザが将来的に選択し得る特定情報(曲名)を決定する処理を行う。この際、サーバ110は、コンテンツ出力装置100の画面表示部102に表示されている特定情報(曲名)や、特定情報(曲名)に対応するコンテンツの関連情報(アーティスト名、作詞作曲者名)等をコンテンツ出力装置100から取得して、ユーザが将来的に選択し得る特定情報(曲名)を決定する処理を行う。
Further, the
図2は、実施の形態にかかるコンテンツ出力装置の処理手順の一例を示すフローチャートである。コンテンツ出力装置100とサーバ110それぞれの処理を記載してある。
FIG. 2 is a flowchart illustrating an example of a processing procedure of the content output apparatus according to the embodiment. The processes of the
コンテンツ出力装置100では、画面表示部102に特定情報(曲名)を表示する(ステップS201)。この特定情報は、一つに限らずプレイリスト等による複数(複数曲)を表示することができる。
In the
そして、決定部103は、画面表示部102の表示内容に基づき、再生する特定情報(曲名)を決定する(ステップS202)。例えば、決定部103は、画面表示部102に表示されている特定情報(曲名)を再生するコンテンツの特定情報(曲名)と判断する。ここで、画面表示部102は、大きさに制限があり、プレイリスト等による複数(複数曲)を全て表示できない場合がある。このような場合、プレイリストに含まれるうち、画面表示部102に表示されている特定情報(曲名)を再生するコンテンツの特定情報(曲名)と判断する。
Then, the
そして、通信部104は、画面表示部102に表示された特定情報(曲名)がユーザにより選択し得る前に、決定部103により決定された特定情報(曲名)に対応するコンテンツ、またはこのコンテンツの一部をサーバ110に取得要求する(ステップS203)。
Then, the
サーバ110は、コンテンツ出力装置100からのコンテンツの取得要求を受信し(ステップS211)、対応する一つまたは複数のコンテンツをコンテンツ出力装置100に配信する(ステップS212)。
The
コンテンツ出力装置100は、サーバ110からのコンテンツ配信により、直ちに再生可能な状態となる。例えば、ここで、ユーザの操作があれば操作された特定情報(曲名)に対応するコンテンツを直ちに再生できる(ステップS204)。これ以外に、ユーザの操作がなくても、配信されたコンテンツを直ちに再生(例えば、プレイリスト順にしたがって再生)する設定としてもよい。
The
ここで、決定部103が再生するコンテンツをユーザの操作以前に決定している。決定部103は、上述したように、第1決定部〜第4決定部のいずれか一つあるいは複数を組み合わせてサーバ110から取得するコンテンツを決定する。
Here, the content to be played back by the
第1決定部の決定にしたがう設定とすれば、上記のように、画面表示部102に表示されている特定情報(曲名)により、ユーザが将来的に選択し得る特定情報(曲名)を決定する。
If the setting is made according to the determination by the first determination unit, the specific information (song name) that the user can select in the future is determined by the specific information (song name) displayed on the
また、第2決定部の決定にしたがう設定とすれば、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。また、第2決定部は、画面表示部102に表示されている関連情報(アーティスト名、作詞作曲者名)と共通する他のコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とすることもできる。
Further, if the setting is made in accordance with the determination by the second determination unit, specific information that the user can select in the future based on the related information (artist name, song composer name) displayed on the screen display unit 102 ( Song name). In addition, the second determination unit allows the user to select specific information (song name) of other content in common with related information (artist name, song composer name) displayed on the
また、第3決定部の決定にしたがう設定とすれば、画面表示部102の表示履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第3決定部は、表示履歴情報に基づき、ユーザによって選択された関連情報(アーティスト名、作詞作曲者名)の選択パターンにより、ある特定の関連情報から別の関連情報への遷移パターンを割り出し、遷移パターンに基づいて、画面表示部102に表示されている関連情報とは別の関連情報をユーザが将来的に選択し得る特定情報(曲名)とする。
Further, if the setting is made according to the determination of the third determination unit, specific information (song title) that the user can select in the future is determined based on the display history information of the
また、第4決定部を備え、コンテンツの出力履歴情報に基づいて、ユーザが将来的に選択し得る特定情報(曲名)を決定する。この第4決定部は、出力履歴情報を関連情報(アーティスト名、作詞作曲者名)毎にそれぞれまとめ、関連情報に対応するコンテンツのうち、多く出力されているコンテンツの特定情報(曲名)を、ユーザが将来的に選択し得る特定情報(曲名)とする。 Moreover, the 4th determination part is provided and the specific information (song name) which a user can select in the future is determined based on the output log information of a content. The fourth determination unit summarizes the output history information for each piece of related information (artist name, song composer name), and specifies specific information (song name) of the content that is output a lot from the content corresponding to the related information. Specific information (song title) that the user can select in the future is used.
以上の実施の形態によれば、コンテンツ出力装置100は、ユーザが操作する以前の時期に画面表示部102に表示された特定情報(曲名)のコンテンツをサーバ110に配信要求することにより、ユーザ操作時には待ち時間なく直ちにコンテンツを再生できるようになる。
According to the above embodiment, the
次に、本発明の実施例について説明する。実施例1では、ユーザの車両にナビゲーション装置300が搭載され、サーバに通信接続されている。そして、ナビゲーション装置300が上記のコンテンツ出力装置100の機能を実行する場合の一例について説明する。
Next, examples of the present invention will be described. In the first embodiment, a
(ナビゲーション装置のハードウェア構成)
図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。図3において、ナビゲーション装置300は、CPU301、ROM302、RAM303、磁気ディスクドライブ304、磁気ディスク305、光ディスクドライブ306、光ディスク307、音声I/F(インターフェース)308、マイク309、スピーカ310、入力デバイス311、映像I/F312、ディスプレイ313、通信I/F314、GPSユニット315、各種センサ316、カメラ317、を備えている。各構成部301〜317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device)
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the navigation device. In FIG. 3, a
CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、コンテンツ出力プログラムを記録している。RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。
The
磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。
The
また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどを用いることができる。
The
磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データ、車両情報、画像、走行履歴などが挙げられる。地図データは、ナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。
Examples of information recorded on the
音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。
The audio I /
入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。
Examples of the
映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、例えば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。
The video I /
ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。
The
カメラ317は、車両外部の例えば、道路を含む映像を撮影する。映像は静止画あるいは動画のどちらでもよく、例えば、カメラ317によって車両外部を撮影し、撮影した画像をCPU301において画像解析したり、映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力したりする。
The
通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU301のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F314は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム)ユニット、FMチューナー、VICS(Vehicle Information and Communication System:登録商標)/ビーコンレシーバなどである。
The communication I /
GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。
The
各種センサ316は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。
The
(サーバの構成例)
上記のサーバ110についても、図3と同様の構成を有する。なお、このサーバにおいては、図3に記載のGPSユニット315、各種センサ316、カメラ317等は不要である。
(Server configuration example)
The
図3に記載のディスプレイ313を用いて図1の画面表示部102の機能を実現できる。また、図3の通信I/F314を用いて、図1の通信部104の機能を実現できる。図1に示したコンテンツ出力装置100は、図3に記載のROM302、RAM303、磁気ディスク305、光ディスク307などに記録されたプログラムやデータを用いて、CPU301が所定のプログラムを実行することによって、ディスプレイ313の表示状態に基づき、特定情報(曲名)を決定し、対応するコンテンツをサーバ110から取得する一連の機能を実現する。
The function of the
特定情報とは、コンテンツを特定することができる、当該コンテンツ固有の情報である。例として、曲名が挙げられる。 The specific information is information specific to the content that can specify the content. An example is a song name.
コンテンツに付随する情報を関連情報とする。例として発売日、発売元、作詞者、作曲者、編曲者、プロデューサー、ジャンル、レーベル、等のメタ情報が挙げられる。 Information associated with the content is related information. Examples include meta information such as release date, distributor, songwriter, composer, arranger, producer, genre, and label.
(ナビゲーション装置によるコンテンツ取得から再生の処理例)
図4は、ナビゲーション装置によるコンテンツ取得から再生の処理例を示すフローチャートである。ナビゲーション装置300が実行する処理と、サーバ110が行う処理とをそれぞれ記載してある。
(Example of processing from content acquisition to playback by navigation device)
FIG. 4 is a flowchart showing an example of processing from content acquisition to reproduction by the navigation device. The process performed by the
はじめに、ナビゲーション装置300は、サーバ110に対し、再生可能なコンテンツに対応する特定情報のリストの取得の要求を行う(ステップS401)。これにより、サーバ110は、ナビゲーション装置300からのリスト取得の要求(データ)を受信すると(ステップS411)、ナビゲーション装置300に対して再生可能なコンテンツに対応する特定情報のリストを配信する(ステップS412)。ここで、ナビゲーション装置300が行うリスト取得の要求には、曲名やアーティスト、ジャンル、曲調の指定、曲の年代や年齢層等の指定、再生したい複数曲等の基準で分類された特定情報の集合であるプレイリスト等、を含むことができ、サーバ110は、これらの指定に応じたコンテンツに対応する特定情報または関連情報のリストを配信する。
First, the
以下、指定に応じたコンテンツに対応する特定情報のリストの例として、曲名をリストとしたものを曲名リストとし、曲名をアーティスト、ジャンル、曲調の指定、曲の年代や年齢層等の指定、再生したい複数曲、等の基準で分類された曲名リストをプレイリストとする。この分類はサーバ110やナビゲーション装置300が関連情報に基づき行ってもよく、また、ユーザが任意に分類してもよい。
Below, as an example of the list of specific information corresponding to the content according to the specification, the song name list is the song name list, the song name is the artist, genre, tone specification, song age and age group specification, playback A song name list that is classified according to the criteria such as a plurality of songs to be played is set as a playlist. This classification may be performed by the
ナビゲーション装置300は、サーバ110から曲名リストを受信すると、この曲名リストの少なくとも一部をディスプレイ313に画面表示する(ステップS402)。
When receiving the song title list from the
ステップS402の実行後、ナビゲーション装置300は、ディスプレイ313上の表示内容の分析の処理(ステップS403)と、表示内容の表示履歴と再生履歴の分析の処理(ステップS404)と、をそれぞれ実行する。ステップS403とステップS404の処理は同時並行でもよいし、いずれか一方を先に処理してもよい。
After execution of step S402, the
この後、ナビゲーション装置300は、表示内容の分析の処理(ステップS403)と、表示内容の表示履歴と再生履歴の分析の処理(ステップS404)の実行により取得したそれぞれの情報を用いて所定の集計処理を行う(ステップS405)。そして、集計処理の結果、選定されたコンテンツをユーザの操作以前に先行取得するためにサーバ110に対しては当該コンテンツの配信要求を行う(ステップS406)。
Thereafter, the
サーバ110は、ナビゲーション装置300からの配信要求を受信し(ステップS413)、配信要求に該当するコンテンツをナビゲーション装置300に配信する(ステップS414)。これにより、ナビゲーション装置300は、ユーザの操作以前の時期にコンテンツをサーバ110から先行取得しておくことができ、ユーザの操作時には直ちに再生することができるようになる(ステップS407)。なお、ステップS407の実行後は、再度の曲名リスト取得時にステップS401の処理に戻り上記処理を継続的に実行することができる。このほか、リスト取得に限らず、所定時間経過毎等にステップS402の処理に戻り画面表示に適合したコンテンツ取得を継続することができる。
The
図5は、ナビゲーション装置のディスプレイ上に表示するコンテンツのリスト例を示す図である。図示の例では、サーバ110から取得したプレイリスト501をナビゲーション装置300のディスプレイ313上に表示している。ここで、サーバ110からのコンテンツの取得が完了し、再生可能となっているコンテンツ、取得の対象となっているコンテンツ、等の取得状況についても表示される。また、プレイリスト501は複数のプレイリストをまとめたものであり、全てのプレイリストをまとめてひとつのフォルダとしたものや、複数のプレイリストをまとめたプレイリスト501が複数存在するものでもよい。
FIG. 5 is a diagram illustrating an example of a list of contents to be displayed on the display of the navigation device. In the illustrated example, the
具体的には、プレイリスト501の複数のリストA(501a)〜リストC(501c)のうち、リストA(501a)に含まれる曲名のうち楽曲aと楽曲aaについては、円グラフ502(502a)上で取得が完了した旨(円グラフが塗りつぶされ、100%取得済みを表す)であり、再生可能な状態であることを表示することができる。また、楽曲aaaと楽曲bは取得中であり、円グラフ502bでは、円の一部が欠けて75%の取得状況、円グラフ502cでは、楽曲bbは約40%程度の取得状況であることが表示されている。また、楽曲bbb〜楽曲cは、取得待機中である旨を円グラフ502dの外周だけの表示で示している。また、楽曲ccと楽曲cccは、未取得であるため、円グラフ502の表示を行わない。以下、楽曲○○という記載は曲名を表し、リスト○はプレイリスト名を表す。
Specifically, among the plurality of lists A (501a) to C (501c) of the
このように、ディスプレイ313上に表示されている曲名について、当該曲名に対応するコンテンツの取得(事前のバッファ)状態を、事前バッファ完了、事前バッファ中、事前バッファ予定、等のそれぞれの状態において表示形態を変えて表示でき、コンテンツ再生の準備状況をユーザに知らせることができる。
In this way, for the song name displayed on the
(表示内容の分析処理例)
はじめに、表示内容の分析の処理(ステップS403)を説明する。ディスプレイ313に対するプレイリストの画面表示状態から画面の遷移がないまま、一定時間が経過した際に、表示内容の分析の処理を行う。この画面の遷移とは、スクロールやページ送りなど、ディスプレイ313上の表示される曲名が変化することを指す。また、表示内容の分析の処理を開始するまでの表示時間や、画面の遷移と判定するための移動距離は任意に設定しておくことができる。
(Display content analysis processing example)
First, the display content analysis process (step S403) will be described. A display content analysis process is performed when a predetermined time has passed without any screen transition from the screen display state of the playlist on the
図6は、表示内容の分析の処理の一例を説明する図である。ナビゲーション装置300は、ディスプレイ313の画面表示部分に表示されている曲名について、サーバ110から取得するコンテンツの取得する優先順を算出する(上記第1決定部の処理)。
FIG. 6 is a diagram illustrating an example of display content analysis processing. The
図6の(a)に示すように、大きさに制限があるディスプレイ313であるため、プレイリスト501全体が表示されないことを前提に説明する。この場合、図6の(b)に示す条件に基づき、ディスプレイ313に表示されている曲名について、それぞれ加点を行う。
As shown in FIG. 6A, the
具体的には、楽曲bについては、自分自身(楽曲)が表示されているので加点10、この楽曲bを含むリストB(501b)の全体が表示されているので加点8、楽曲bはリストB(501b)の1曲目のため加点4となり、図6の(c)の順位表610に示すように、この楽曲bは得点が22となり、優先順1となる。楽曲bbについては、自分自身(楽曲)が表示されているので加点10、この楽曲bbを含むリストB(501b)の全体が表示されているので加点8、楽曲bbはリストB(501b)の2曲目のため加点がなく、図6の(c)に示すように、この楽曲bbは得点が18となり、優先順2となる。上記例では、優先順をディスプレイ313に対する楽曲の表示による加点により求めたが、ディスプレイ313に対する楽曲の非表示による減点で求めてもよい。
Specifically, with respect to the music b, since the self (music) is displayed, the
後述するが、ナビゲーション装置300は、上記処理により得た優先順を用いて優先順が高い順にコンテンツをサーバ110からの取得候補とする。
As will be described later, the
図6の(b)に示した得点基準の条件と加点については、条件を増減したり、条件毎の加点を任意な値に設定することができ、また、これらはユーザが設定できるようにしてもよい。 Regarding the conditions and points for scoring shown in FIG. 6B, the conditions can be increased or decreased, and the points for each condition can be set to arbitrary values, and these can be set by the user. Also good.
図7は、表示内容の分析の処理の他の例を説明する図である。ナビゲーション装置300は、ディスプレイ313に表示されている曲名について、対応する関連情報(例えば、作詞者、作曲者、編曲者)を抽出し、ディスプレイ313に表示されていない他の曲名のうち、抽出した関連情報と共通する関連情報を持つ曲名を特定する(上記第2決定部の処理)。このような特定は、協調フィルタリング等の既知の手法を用いて実現できる。
FIG. 7 is a diagram for explaining another example of display content analysis processing. The
図7の(a)に示すように、ディスプレイ313上に表示されているプレイリスト501の各曲名に対応する各コンテンツについて、発売日、発売元、作詞者、作曲者、編曲者、プロデューサー、ジャンル、レーベル、等のメタ情報を関連情報として抽出する。
As shown in FIG. 7A, for each content corresponding to each song name in the
そして、図7の(a)に示したディスプレイ313上に表示される曲名(ヒットチャート1位)について、図7の(b)に示す関連情報を有していたとする。そして、図7の(c)に示す関連情報の一部701として、図7(b)の関連情報のうち、作詞者、作曲者、編曲者、プロデューサーの情報を用いる。なお、用いる情報はこれらの情報に限らない。この関連情報の一部701が示す作詞者、作曲者、編曲者、プロデューサーのうちいずれかが関与している楽曲をディスプレイ313に表示されていない他のリスト501b、501cから特定する。
Then, it is assumed that the song title (first hit chart) displayed on the
この結果、関連情報の一部701(作詞者、作曲者、編曲者、プロデューサー)が含まれているコンテンツに対応する曲名702として、図7の(d)に示すリスト(作業用BGM)501cにある曲名702(曲名iii/アーティストi)があったとする。この場合、曲名702をディスプレイ313上に表示される曲名に関連する曲名として特定する。この際、曲名702毎にリスト、関連曲、両者の関連情報の共通項(例えば、上記作詞者、作曲者、編曲者、プロデューサー等)を関連情報表710(図10参照)に抽出しておく。
As a result, in the list (work BGM) 501c shown in FIG. 7D, the
なお、表示される曲名に関連する曲名は複数でもよい。この場合、関連する曲名の候補が膨大になるおそれがあるので、例えば共通項の数や種類からふるい分けを行ってもよい。 There may be a plurality of song names related to the displayed song names. In this case, since there is a possibility that the number of related song title candidates may be enormous, for example, the screening may be performed based on the number and types of common terms.
また、例えば、「作詞が共通」の曲名より「レーベルが共通」の曲名、「作曲が共通」の曲名より「作詞&作曲が共に共通」の曲名のほうが関連性が高い、など、条件によって関連性に強弱をつけ、重みづけを行ってもよい。 Also, for example, the song name “Common Label” is more relevant than the song name “Common Lyrics”, and the song name “Longer Song & Composition Both” is more relevant than the song name “Common Composition”. You may give strength to sex and weight it.
以上のふるい分けや条件の重みづけはシステムが行ってもよく。また、ユーザの操作により設定されてもよい。 The above screening and weighting conditions may be performed by the system. Moreover, you may set by a user's operation.
後述するが、ナビゲーション装置300は、上記処理により得た関連情報の一部701で関連する未表示のコンテンツをサーバ110からの取得候補とする。
As will be described later, the
図6に示した処理、および図7に示した処理は、図4のステップS403において、いずれか一方、あるいはいずれも実行することができる。 The process shown in FIG. 6 and the process shown in FIG. 7 can be executed in step S403 of FIG.
(表示履歴、再生履歴の分析処理例)
次に、図4の履歴分析の処理(ステップS404)を説明する。ステップS402の実行後、ナビゲーション装置300は、ディスプレイ313上の表示画面の表示(閲覧)履歴から画面の遷移のパターンを抽出する(上記第3決定部の処理)。また、コンテンツの再生履歴からユーザ属性(嗜好性)を抽出する(上記第4決定部の処理)。これらの処理は、最尤法やベイズ推定等の既知の技術を用いて実現できる。
(Example of display history and playback history analysis)
Next, the history analysis process (step S404) in FIG. 4 will be described. After execution of step S402, the
図8は、表示履歴の分析の処理の一例を説明する図である。図8の(a)に示すように、プレイリスト501がリスト501a〜501cと、各リスト501a〜501cに含まれる曲名を有しているとする。そして、図8の(b)に示すように、ディスプレイ313の表示画面上に表示した内容について表示履歴(画面表示ログ)を取得しておく。
FIG. 8 is a diagram illustrating an example of display history analysis processing. As shown in FIG. 8A, it is assumed that the
例えば、図8の(b)に示すように、はじめにプレイリスト501を表示させた後、リストA(501a)を表示させ、この後、プレイリスト501の表示に戻した後、リストB(501b)を表示させ、最後にプレイリスト501を表示させていたとする。この場合、ナビゲーション装置300は、図8の(b)に示した表示履歴(画面表示ログ)に基づいて、予測される遷移先を分析する。
For example, as shown in FIG. 8B, after the
図8の(b)では、プレイリスト501に戻りながら次のリスト501a,501bに順次遷移しているため、図8の(c)の予測遷移先表810に示すように、最後に表示したプレイリスト501の後に予測される遷移先としてリストC(501c)と判断する。また、この際の遷移確率(85%)を求めておく。他の遷移先があれば、同様に遷移確率を求めておく。予測遷移先表810は、ユーザの選択によって将来的に遷移し得るプレイリストを示す。なお、ここでは遷移先の対象をプレイリストとしているが、プレイリストに限らず、例えば曲名でもよい。
In (b) of FIG. 8, since the transition to the
後述するが、ナビゲーション装置300は、上記処理により得た遷移確率の情報をコンテンツ取得時の係数(パラメータ)として用いてサーバ110にコンテンツを取得要求する。
As will be described later, the
図9は、再生履歴の分析の処理の一例を説明する図である。図9の(a)に示すように、ナビゲーション装置300は、コンテンツを再生した際の再生ログとして、再生の日時、曲名、アーティスト名、ジャンル、導線(再生の契機)を取得しておく。
FIG. 9 is a diagram for explaining an example of a reproduction history analysis process. As shown in FIG. 9A, the
そして、再生ログを集計する。図9の(b)に示す例では上記取得した曲名、アーティスト名、ジャンル、導線、の各項目別の再生回数をそれぞれ集計することにより、コンテンツ再生のユーザ傾向910を得ることができる。コンテンツ再生のユーザ傾向910は、曲名、アーティスト名、ジャンル、導線、の各項目で、再生回数の傾向を示しており、これにより、ユーザがどの曲名を選択しやすいかを予測することができる。
Then, the reproduction logs are totaled. In the example shown in FIG. 9B, the
後述するが、ナビゲーション装置300は、上記処理により得たコンテンツの再生履歴の集計結果(ユーザ傾向910)をコンテンツ取得時の係数(パラメータ)として用いてサーバ110にコンテンツを取得要求する。
As will be described later, the
この際、ユーザ傾向910の各項目(曲名、アーティスト名、ジャンル、導線等)別に係数の重み(値)に反応してもよく、ユーザの嗜好に合わせた項目のコンテンツを優先して取得できるようになる。
At this time, each item (song title, artist name, genre, conductor, etc.) of the
また、ナビゲーション装置300は、楽曲をランダム再生する際には、ユーザの嗜好による楽曲の選択の意志が反映されないため、図9に示したユーザ傾向910にランダム再生時の履歴は取り込まないようにする。
In addition, since the
また、表示履歴や再生履歴の分析の処理(図8,図9参照)において、ナビゲーション装置300を操作(コンテンツを視聴)するユーザが異なることも考えられる。このようにユーザが異なる場合、表示履歴や再生履歴が異なるため、ユーザが異なる状態(例えば特定日時)を検出したときには、この特定日時に関する表示履歴や再生履歴を無視したり、異なるユーザ設定として分析する。これにより、ユーザ別に適したコンテンツ取得を行えるようになる。 In addition, in the display history and playback history analysis processing (see FIGS. 8 and 9), it is also conceivable that users operating the navigation device 300 (viewing content) are different. In this way, when the user is different, the display history and the playback history are different, so when the user detects a different state (for example, a specific date and time), the display history and the playback history related to the specific date and time are ignored or analyzed as different user settings To do. This makes it possible to acquire content suitable for each user.
(集計処理例)
図10は、集計処理の一例を説明する図である。図4に示した集計の処理(ステップS405)では、上記の表示内容の分析の処理(ステップS403)、および表示履歴と再生履歴の分析の処理(ステップS404)により取得した各情報を集計する。そして、サーバ110に対し先行取得のために要求するコンテンツの選定を行う。
(Example of aggregation processing)
FIG. 10 is a diagram for explaining an example of the aggregation process. In the aggregation process (step S405) shown in FIG. 4, the information acquired by the display content analysis process (step S403) and the display history and reproduction history analysis process (step S404) is aggregated. Then, the content requested to the
図10に示す例では、(a)取得コンテンツ候補に、(b)算出用パラメータを乗算して、(c)取得コンテンツを選定する。 In the example illustrated in FIG. 10, (a) an acquired content candidate is multiplied by (b) a calculation parameter, and (c) an acquired content is selected.
図10の(a)に示す取得コンテンツ候補としては、ディスプレイ313の表示内容の分析の処理(ステップS403)により求めた、取得コンテンツの取得する優先順の順位表610(図6参照)と、ディスプレイ313に表示されている曲名に関連する未表示の他の曲名702(図7参照)の関連情報表710とがある。
The acquired content candidates shown in FIG. 10A include a priority order table 610 (see FIG. 6) obtained by the acquired content obtained by the analysis processing (step S403) of the display content on the
また、図10の(b)に示す算出用パラメータとしては、表示履歴の分析の処理(ステップS404)により得た予測遷移先表810(図8参照)の予測遷移先(リスト)別の遷移確率と、ユーザ傾向910(図9参照)が示すコンテンツ再生履歴を項目別(曲名、アーティスト名、ジャンル、導線等)にまとめたものとを用いる。 Also, the calculation parameters shown in FIG. 10B include transition probabilities for each predicted transition destination (list) in the predicted transition destination table 810 (see FIG. 8) obtained by the display history analysis process (step S404). In addition, the content reproduction history indicated by the user tendency 910 (see FIG. 9) is used for each item (song title, artist name, genre, conductor, etc.).
これにより、ナビゲーション装置300は、図10の(a)の曲名表示の順位表610のコンテンツと、関連情報表710に示された未表示の曲名702からなる取得候補の各コンテンツに対して、図10の(b)の予測遷移先表810とユーザ傾向910の算出用パラメータ(予測遷移先表810の遷移確率に対応する係数や、ユーザ傾向910の各項目別の割合に応じた係数など)を乗算し、図10の(c)に示す取得コンテンツの取得する優先順の順位表1010を作成する。
As a result, the
図10の(c)に示す例では、リストCの楽曲cが優先順1位の楽曲であり、取得候補1位であったリストBの楽曲bは優先順2位となっている。これは図10の(b)に示す算出用パラメータの遷移確率の重み(係数)を高く設定したことに基づく。 In the example shown in FIG. 10C, the music piece c in the list C is the music piece in the first priority order, and the music piece b in the list B that is the first acquisition candidate is the second priority order. This is based on the fact that the weight (coefficient) of the transition probability of the calculation parameter shown in FIG.
図10の説明では、(a)の取得コンテンツ候補として、上述した順位表610と、関連情報表710に示された表示に関連する(未表示の)曲名702と、をいずれも用いることとしたが、いずれか一方だけを用いる設定としてもよい。また、(b)算出用パラメータとして上述した予測遷移先表810と、コンテンツ再生のユーザ傾向910と、をいずれも用いることとしたが、いずれか一方だけを用いる設定としてもよい。また、(b)算出用パラメータとして上述した予測遷移先表810と、コンテンツ再生のユーザ傾向910の各項目の重み(係数)は任意に設定できる。
In the description of FIG. 10, both the above-described ranking table 610 and the (undisplayed)
以上説明した処理において、表示内容の分析(ステップS403)、および表示や再生履歴の分析の処理(ステップS404)、集計処理(ステップS405)は、ナビゲーション装置300が実行するに限らず、サーバ110側が必要なデータをコンテンツ出力装置100から取得して分析、集計処理する構成としてもよい。また、これら分析、集計処理で用いるパラメータは、固定値である必要はなく、機械学習等で適宜修正したり、ユーザによる編集等で設定変更可能としてもよい。
In the processing described above, the display content analysis (step S403), the display and reproduction history analysis processing (step S404), and the aggregation processing (step S405) are not limited to being executed by the
また、表示内容の分析(ステップS403)の処理では、表示内容に対して操作を行うマウスカーソルやスタイラスペン、手指の接触などの入力インターフェースの位置を検出することもできる。 Further, in the processing of the display content analysis (step S403), the position of the input interface such as a mouse cursor, a stylus pen, or a finger touch that operates on the display content can be detected.
また、表示や履歴の分析の処理(ステップS404)では、ユーザが特定できないときには、汎用的なモデルを用いて処理してもよい。 Further, in the display and history analysis process (step S404), when a user cannot be specified, a general-purpose model may be used.
また、ナビゲーション装置300がサーバ110から並列して複数のコンテンツを取得する際には、コンテンツを取得する優先順だけに限らず、コンテンツのファイルサイズや再生時間に基づきコンテンツ毎の取得にかかる時間と、複数コンテンツ間の取得時間差を求めてもよい。この取得時間差が短いコンテンツを取得する優先順を上げることで、ネットワーク状態等に応じて効率的にコンテンツを取得できるようになる。また、ネットワーク状態等に応じて取得するコンテンツの品質を可変してもよく、さらには、コンテンツの再生開始当初の所定期間のみ低ビットレート(低品質)で取得すれば、再生可能となる時間をより早めることができる。
Further, when the
また、再生対象のコンテンツの決定は、ユーザ操作に限らず、システム(ナビゲーション装置300やサーバ110)側がそれまでのコンテンツの再生状態等に応じたレコメンドとして自動決定してもよい。
Further, the content to be played back is not limited to a user operation, and the system (
また、再生済みのコンテンツを削除する際には、コンテンツを取得した優先度や、取得してからの経過時間や、データのサイズ、取得状況を考慮してもよい。取得状況は、コンテンツの品質や、全体の何%を取得済みであるか、等である。例えば、コンテンツ全体を取得していても品質が本来の半分のビットレートであれば50%と判断する。 Further, when deleting the reproduced content, the priority at which the content was acquired, the elapsed time since the acquisition, the size of the data, and the acquisition status may be taken into consideration. The acquisition status includes the quality of content, what percentage of the content has already been acquired, and the like. For example, even if the entire content is acquired, if the quality is half the original bit rate, it is determined as 50%.
また、実施例では、コンテンツ出力装置としてナビゲーション装置を用いる構成としたが、他にポータブルオーディオプレーヤー、スマートフォン、ネットワークオーディオプレーヤー等のストリーミング再生機能を備えた装置を用いることもできる。また、実施例では、コンテンツを楽曲を例に説明したが、他のストリーミング動画であってもよい。 In the embodiment, the navigation device is used as the content output device, but other devices having a streaming reproduction function such as a portable audio player, a smartphone, and a network audio player can also be used. Further, in the embodiment, the content is described as an example of music, but another streaming video may be used.
以上のように、この発明によれば、ユーザ操作を行う前にストリーミング再生するコンテンツを予測してあらかじめ取得しておく。これにより、コンテンツの再生開始の操作時には、待ち時間が発生せず、直ちに再生を行うことができるようになる。 As described above, according to the present invention, the content to be streamed is predicted and acquired in advance before the user operation. Thereby, at the time of the operation of starting the reproduction of the content, no waiting time is generated, and the reproduction can be performed immediately.
取得するコンテンツは、画面表示の状態や、表示履歴、再生履歴等を用いてユーザの操作や嗜好を分析して行う。これにより、ユーザが再生したいコンテンツを精度よく取得できるようになる。 The acquired content is obtained by analyzing the user's operation and preferences using the screen display state, display history, reproduction history, and the like. As a result, the content that the user wants to reproduce can be acquired with high accuracy.
なお、本実施の形態で説明したコンテンツ出力方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The content output method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.
100 コンテンツ出力装置
101 記憶部
102 画面表示部
103 決定部
104 通信部
105 出力部
110 サーバ
300 ナビゲーション装置
DESCRIPTION OF
Claims (1)
前記特定情報に対応するコンテンツ、または当該コンテンツの一部を、前記特定情報の選択前にコンテンツ配信サーバから取得する通信部と、
前記通信部により取得された前記コンテンツに対応する特定情報が選択された場合、前記通信部により取得された前記コンテンツ、または当該コンテンツの一部を出力する出力部と、
を備えるコンテンツ出力装置。 A determination unit that determines specific information that can be selected in the future based on information of content displayed on the screen display unit;
A communication unit that acquires content corresponding to the specific information or a part of the content from a content distribution server before selecting the specific information;
When specific information corresponding to the content acquired by the communication unit is selected, the content acquired by the communication unit, or an output unit that outputs a part of the content;
A content output device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018180995A JP2019023898A (en) | 2018-09-26 | 2018-09-26 | Content output device, content distribution server, content output method, and content output program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018180995A JP2019023898A (en) | 2018-09-26 | 2018-09-26 | Content output device, content distribution server, content output method, and content output program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014071637A Division JP2015194832A (en) | 2014-03-31 | 2014-03-31 | Content output device, content distribution server, content output method and content output program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019023898A true JP2019023898A (en) | 2019-02-14 |
Family
ID=65368956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018180995A Pending JP2019023898A (en) | 2018-09-26 | 2018-09-26 | Content output device, content distribution server, content output method, and content output program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019023898A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003284029A (en) * | 2002-03-25 | 2003-10-03 | Sony Ericsson Mobilecommunications Japan Inc | Contents distribution system and radio communication terminal |
JP2004021769A (en) * | 2002-06-19 | 2004-01-22 | Nippon Telegr & Teleph Corp <Ntt> | Content first reading device, content first reading method, and program |
JP2011130018A (en) * | 2009-12-15 | 2011-06-30 | Sharp Corp | Content distribution system, content distribution apparatus, content playback terminal and content distribution method |
-
2018
- 2018-09-26 JP JP2018180995A patent/JP2019023898A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003284029A (en) * | 2002-03-25 | 2003-10-03 | Sony Ericsson Mobilecommunications Japan Inc | Contents distribution system and radio communication terminal |
JP2004021769A (en) * | 2002-06-19 | 2004-01-22 | Nippon Telegr & Teleph Corp <Ntt> | Content first reading device, content first reading method, and program |
JP2011130018A (en) * | 2009-12-15 | 2011-06-30 | Sharp Corp | Content distribution system, content distribution apparatus, content playback terminal and content distribution method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10558698B2 (en) | Lyric page generation method and lyric page generation apparatus | |
US20200341632A1 (en) | User interface for media content playback | |
JPWO2008096414A1 (en) | Content acquisition apparatus, content acquisition method, content acquisition program, and recording medium | |
US8713069B2 (en) | Playlist search device, playlist search method and program | |
TWI651645B (en) | A music playing system, method and electronic device | |
US20210272569A1 (en) | Voice feedback for user interface of media playback device | |
US20100229088A1 (en) | Graphical representations of music using varying levels of detail | |
CN110265067B (en) | Method and device for recording hot segments, electronic equipment and readable medium | |
WO2022198811A1 (en) | Method and apparatus for music sharing, electronic device, and storage medium | |
EP1962241A1 (en) | Content search device, content search system, server device for content search system, content searching method, and computer program and content output apparatus with search function | |
US20170031545A1 (en) | Information processing device, information processing method and information processing program | |
WO2020259130A1 (en) | Selected clip processing method and device, electronic equipment and readable medium | |
JP2007172702A (en) | Method and apparatus for selecting content | |
WO2010073344A1 (en) | Play list generation device, play list generation method, play list generation program, and recording medium | |
WO2010131333A1 (en) | Content search device, content search method, content search program, and recording medium | |
JP2015194832A (en) | Content output device, content distribution server, content output method and content output program | |
CN110381356B (en) | Audio and video generation method and device, electronic equipment and readable medium | |
US8315725B2 (en) | Method and apparatus for controlling content reproduction, and computer product | |
CN115103232B (en) | Video playing method, device, equipment and storage medium | |
JP2019023898A (en) | Content output device, content distribution server, content output method, and content output program | |
CN115150654A (en) | Multimedia playing method, device, storage medium and program product | |
CN115134670A (en) | Multimedia playing method, device, storage medium and program product | |
JP2009043353A (en) | Title giving device, title giving method, title giving program, and recording medium | |
JP5028922B2 (en) | Music playback device, music playback program, and music playback method | |
JP7483775B2 (en) | Application program, terminal device control method, content providing device, and content providing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191210 |