JP6913812B1 - Programs, information processing methods, and information processing equipment - Google Patents
Programs, information processing methods, and information processing equipment Download PDFInfo
- Publication number
- JP6913812B1 JP6913812B1 JP2020208521A JP2020208521A JP6913812B1 JP 6913812 B1 JP6913812 B1 JP 6913812B1 JP 2020208521 A JP2020208521 A JP 2020208521A JP 2020208521 A JP2020208521 A JP 2020208521A JP 6913812 B1 JP6913812 B1 JP 6913812B1
- Authority
- JP
- Japan
- Prior art keywords
- scene
- content
- information
- user
- scene information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】音楽や動画等を視聴する際におけるユーザビリティを向上させる。【解決手段】プロセッサを備えたコンピュータにおいて実行されるプログラムである。プログラムは、プロセッサに、コンテンツを再生するステップと、ユーザの第1操作に基づいて、コンテンツ中の第1シーンを特定するステップと、第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、ユーザの操作に応じて、第1リストに登録されている1以上のシーン情報をユーザに提示するステップと、提示された1以上のシーン情報の中から1のシーン情報の選択を受け付けるステップと、を実行させる。プログラムは、プロセッサに、受け付けるステップで選択された1のシーン情報によって特定される第1シーンから、コンテンツを再生させる。【選択図】図11PROBLEM TO BE SOLVED: To improve usability when viewing music, moving images and the like. A program executed on a computer including a processor. The program first lists, in the processor, a step of playing the content, a step of identifying the first scene in the content based on the user's first operation, and scene information including information for identifying the first scene. A step of presenting one or more scene information registered in the first list to the user according to the operation of the user, and a step of presenting one or more scene information from the presented one or more scene information. Execute the step of accepting the selection and the step. The program causes the processor to play the content from the first scene identified by the one scene information selected in the accepting step. [Selection diagram] FIG. 11
Description
本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to programs, information processing methods, and information processing devices.
多数の動画コンテンツや音楽コンテンツ等のコンテンツをユーザに提供するサービスが知られている(例えば、非特許文献1)。また、このようなサービスでは、いわゆるお気に入りリストやウォッチリストと呼ばれる機能が提供されていることが多い。視聴したいコンテンツをウォッチリストに登録しておけば、多数のコンテンツの中からそのコンテンツを再度探し出さずとも、ウォッチリストを参照することで、そのコンテンツに簡単にアクセスすることができる。 A service that provides a large number of contents such as video contents and music contents to a user is known (for example, Non-Patent Document 1). In addition, such services often provide functions called a so-called favorite list or watch list. If you register the content you want to watch in the watch list, you can easily access the content by referring to the watch list without having to search for the content again from a large number of contents.
しかし、上記のウォッチリストは、登録されたコンテンツ自体へのアクセスを容易にしてくれるが、そのコンテンツに含まれる特定のシーンへのアクセスを容易にするものではない。例えば、あるコンテンツの特定のシーンを見たいがために、そのコンテンツをウォッチリストに登録している場合、まずウォッチリストを利用してそのコンテンツを再生させた後に、ユーザは、その特定のシーンを探し出さなければならない。特に、そのコンテンツが長時間尺である場合、特定のシーンを探し出す作業は、ユーザにとって大きなストレスとなり得る。 However, although the above watch list facilitates access to the registered content itself, it does not facilitate access to a specific scene contained in the content. For example, if a user wants to see a specific scene of a certain content and the content is registered in the watch list, the user first plays the content using the watch list, and then the user views the specific scene. I have to find out. In particular, when the content is long-term, the task of finding a specific scene can be a great stress for the user.
また、非特許文献1のようなサービスでは、コンテンツの視聴中にその視聴を止めた場合、後に、そのコンテンツに再アクセスをして視聴を再開しようとすると、前回の視聴時に視聴を止めたシーンから再生を再開する機能を提供していることもある。しかし、このような機能では、視聴再開時に再生されるシーンが毎回異なることになる。すなわち、このような機能は、特定のシーンを繰り返し簡単に視聴することを可能にするものではない。
Further, in a service such as
本開示の一態様は、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能なプログラム、情報処理方法、及び情報処理装置を提供することを目的とする。 One aspect of the present disclosure is to provide a program, an information processing method, and an information processing device capable of improving usability when viewing music, moving images, and the like.
本開示に示す一実施形態によれば、
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
プログラム、が提供される。
According to one embodiment presented in the present disclosure.
A program that runs on a computer with a processor
The program is delivered to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
To run,
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the one scene information selected in the accepting step.
The program, is provided.
本開示に示す一実施形態によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。 According to one embodiment shown in the present disclosure, it is possible to improve usability when viewing music, moving images, and the like.
以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品等には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same parts and the like are designated by the same reference numerals. Their names and functions are the same. Therefore, the detailed description of them will not be repeated. In one or more embodiments set forth in the present disclosure, the elements included in each embodiment may be combined with each other, and the combined deliverables shall also form part of the embodiments set forth in the present disclosure.
[第1の実施形態]
(システムの構成)
以下、本開示に係る一実施形態として、ユーザが再生を希望するコンテンツを当該ユーザの所有する情報処理装置において再生可能とするシステムを例示して説明する。ここで、「コンテンツ」とは、デジタル機器において利用可能なデジタルコンテンツのことをいい、例えば、動画や音楽等が挙げられる。
[First Embodiment]
(System configuration)
Hereinafter, as an embodiment according to the present disclosure, a system in which the content desired to be reproduced by the user can be reproduced by the information processing device owned by the user will be described as an example. Here, the "content" refers to digital content that can be used in a digital device, and examples thereof include moving images and music.
図1は、本実施形態のシステム1の構成を示す図である。図1に示すように、システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。
FIG. 1 is a diagram showing a configuration of the
図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数の携帯端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。
In the example of FIG. 1, as the information processing device used by the user, the
ユーザ端末10は、携帯型の情報端末であってもよいし、設置型の情報端末であってもよい。ユーザ端末10は、タッチスクリーンを備えていてもよいし、備えていなくてもよい。以下では、ユーザ端末10がタッチスクリーンを備える携帯型端末であり、具体的には、スマートフォン、ファブレット、タブレットなどであるものとして、説明をする。
The
ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウェアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、サーバ20と通信し、コンテンツに関連するデータ等をサーバ20との間で送受信することにより、ユーザ端末10上でコンテンツを再生することを可能とする。
The
サーバ20は、コンテンツの再生に必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10上でのコンテンツの再生を支援する。サーバ20は、各ユーザに関連する各種データを管理する。サーバ20は、ユーザ端末10と通信し、ユーザ端末10からの要求に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。
The
図1に示すようにサーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続されている。
As shown in FIG. 1, the
通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。
The communication IF 22 supports various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as a
入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。
The input / output IF 23 functions as an interface for accepting input of information to the
メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。
The
ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、コンテンツを提供するためのプログラム、コンテンツに関連する情報、各ユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。なお、ストレージ26は、サーバ20に含まれる形態に限られず、クラウドサービスを利用することもできる 。
The
プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。
The
(ユーザ端末の構成)
図2は、ユーザ端末10の機能的な構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部(プロセッサ)190とを含む。
(Configuration of user terminal)
FIG. 2 is a block diagram showing a functional configuration of the
アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。
The
無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
Since the
タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、コンテンツやコンテンツを操作するためのGUIを画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。
The
入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。
The input / output IF 140 functions as an interface for accepting input of information to the
記憶部150は、フラッシュメモリ、RAM等により構成され、ユーザ端末10上でコンテンツを再生するためのプログラム151、及び、ユーザのID情報等を含むユーザ情報152を記憶する。また、記憶部150は、ユーザ端末10がサーバ20から受信する各種データ等を記憶する。
The
音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。
The
制御部190は、プログラム151を読み込んで実行することにより、操作受付部191と、送受信部192と、再生部193と、表示制御部194と、変更部195と、の各機能を発揮する。
By reading and executing the
操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、操作受付部191は、ユーザの指などがタッチパネル131に接触(又は接近)したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。
The
操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。具体的には、操作受付部191は、いわゆる「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「ロングタッチ操作」、「フリック操作」、「スワイプ操作」、「ドラッグ操作」、「ピンチ操作」などのユーザの操作を判別する。操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、操作受付部191は、ユーザが押下した圧力の大きさを判別する。
The
なお、本明細書において、「ドラッグ操作」とは、タッチスクリーン130に表示されたアイコン等に指などを接触させた状態から、指をスライドさせる操作であって、表示画面においてアイコン等の移動を伴う操作をいう。一方、「スワイプ操作」とは、タッチスクリーン130に指などを接触させた状態から指をスライドさせる操作であって、アイコン等の移動を伴わないものをいう。
In the present specification, the "drag operation" is an operation of sliding a finger or the like from a state where the finger or the like is brought into contact with the icon or the like displayed on the
操作受付部191は、タッチパネル131とは異なる入力装置におけるユーザの入力操作を受け付け可能であってもよい。具体的には、操作受付部191は、マウス等の入力装置による「クリック操作」、「ダブルクリック操作」、「グラブ操作」など、タッチスクリーン130に対する上記の各種操作に対応する操作を判別するものでもよい。
The
送受信部192は、サーバ20との間で、ユーザ端末10でコンテンツを再生するための各種データの送信および受信をおこなう。例えば、送受信部192は、ユーザを識別するための情報や、コンテンツの再生に係る各種の要求をサーバ20へ送信する。また、送受信部192は、コンテンツを再生するためのデータやコンテンツに関連する各種情報をサーバ20から受信する。
The transmission /
再生部193は、コンテンツの再生に係る処理を行う。再生部193は、送受信部192がサーバ20から受信したコンテンツのデータに基づいて、コンテンツを再生する。コンテンツが画像を伴わない音声(例えば、音楽など)である場合、再生部193によって再生されたコンテンツは、音声処理部160を介して、スピーカ180から音声出力される。コンテンツが画像を伴うもの(例えば、動画など)である場合、上記の音声出力に加えて、表示制御部194を介して、スピーカ180からタッチスクリーン130へ画像出力される。
The
表示制御部194は、再生部193によって再生されたコンテンツをタッチスクリーン130に表示させる。また、表示制御部194は、コンテンツの再生等に係る操作メニューを含むGUIの表示を制御する。
The
ある局面において、表示制御部194によって表示されるGUIには、コンテンツの開始から終了までの時間に対応する時間軸(以下、単に「時間軸」とも称する)と、コンテンツの再生に伴って時間軸上を移動し、コンテンツの現在の再生箇所を示すスライダと、を含むシークバーが含まれうる。
In a certain aspect, the GUI displayed by the
変更部195は、スライダに対するユーザの第1操作に応じて、時間軸上の少なくとも一部の領域において、時間軸の単位長さに対応する時間量(以下、単に「時間量」とも称する)を変更する。第1の実施形態における「第1操作」は、時間量を変更するための操作であり、上述した各種の操作のいずれか等であってもよいが、好ましくは、ロングタッチ操作、グラブ操作、ダブルタップ操作、又はダブルクリック操作である。
The
また、変更部195は、時間量が変更されている状態におけるユーザの第2操作に応じて、時間量を変更前の値に戻す処理を実行する。第1の実施形態における「第2操作」は、変更された時間量を元に戻すための操作であり、上述した各種の操作のいずれか等であってもよいが、好ましくは、第1操作(例えば、ロングタッチ操作またはグラブ操作)を終了させる操作、又は、新たなダブルタップ操作もしくはダブルクリック操作である。なお、「第2操作」は、スライダに対する操作であってもよいし、タッチスクリーン130上の任意の位置に対する操作であってもよい。
Further, the
(サーバの構成)
図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、通信IF220を含み、プログラム251に従って動作することにより、記憶部250と、制御部290としての機能を発揮する。
(Server configuration)
FIG. 3 is a block diagram showing a functional configuration of the
通信IF220は、サーバ20がユーザ端末10などの外部の通信機器とネットワーク30を介して通信するためのインタフェースである。
The communication IF 220 is an interface for the
記憶部250は、各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、コンテンツ情報252と、ユーザ情報253とを記憶する。
The
プログラム251は、サーバ20がユーザ端末10と通信して、ユーザ端末10においてコンテンツを再生させるためのプログラムである。プログラム251は、例えば、コンテンツに関連する各種データであるコンテンツ情報252やユーザ情報253等を参照して、ユーザ端末10からの各種要求に応じた処理を制御部290に実行させる。
The
コンテンツ情報252には、例えば、コンテンツ本体の情報(動画や音楽等を再生するための情報)と、コンテンツ本体に付随する情報(いわゆるメタデータと呼ばれる文字情報や、サムネイル等の画像情報)とが含まれうる。
The
ユーザ情報253は、ユーザ毎に管理される情報である。ユーザ情報253には、例えば、ユーザIDやパスワード等のユーザの認証を行うための認証情報、各コンテンツの利用履歴に関する情報、ユーザの個人情報等が含まれうる。
The
制御部290は、プログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、としての機能を発揮する。
By executing the
送受信部291は、ユーザ端末10との間で、ユーザ端末10でコンテンツを再生するための各種データの送信および受信をおこなう。例えば、送受信部291は、ユーザを識別するための情報や、コンテンツの再生に係る各種の要求をユーザ端末10から受信する。また、送受信部291は、コンテンツ情報252に記憶された各種情報をユーザ端末10へ送信する。
The transmission /
サーバ処理部292は、ユーザ端末10でコンテンツを再生するためにサーバ20において必要となる各種の処理をおこなう。サーバ処理部292は、送受信部291が受信したユーザ端末10からの各種要求に応じて、送受信部291に対して各種データの送信を指示する。また、サーバ処理部292は、サーバ処理部292による各種の演算結果に基づいて、データ管理部293に対して各種データの更新を指示する。
The
データ管理部293は、サーバ処理部292からの指示に基づいて、記憶部250に記憶される各種データを追加/削除/更新する処理をおこなう。
The
(動作処理)
次に、図4から図8を参照して、第1の実施形態に係るシステム1の動作処理について説明する。以下では、システム1を動画配信サービスに用いられるシステムとして説明をするが、本開示はこれに限定されるものではない。
(Operation processing)
Next, the operation processing of the
図4は、コンテンツ再生に係る処理の一例を示すフローチャートである。図4に示される処理は、制御部190がプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現されうる。なお、本明細書で説明する各フローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。
FIG. 4 is a flowchart showing an example of processing related to content reproduction. The process shown in FIG. 4 can be realized by the
まず、ステップS401において、制御部190は、サーバ20から送信されるデータに基づいてコンテンツを再生し、コンテンツをタッチスクリーン130に表示する。ステップS401は、例えば、ユーザの操作入力に応じて実行される。
First, in step S401, the
次に、ステップS402において、制御部190は、タッチスクリーン130にシークバーを表示する。ステップS402は、例えば、コンテンツの再生が開始されたことに応じて、又はユーザの操作入力に応じて実行される。
Next, in step S402, the
ここで、図5を用いて、ステップS402が実行された場合の表示画面の一例について説明する。図5の例において、タッチスクリーン130上のコンテンツ表示領域501には、ステップS401において再生されたコンテンツが表示されている。
Here, an example of a display screen when step S402 is executed will be described with reference to FIG. In the example of FIG. 5, the content reproduced in step S401 is displayed in the
コンテンツ表示領域501の下方は、GUI表示領域510である。GUI表示領域510には、シークバー511、時間情報514、再生/停止ボタン515、巻き戻しボタン516、早送りボタン517が表示されている。再生/停止ボタン515、巻き戻しボタン516、及び早送りボタン517の機能は、その名称に示すとおりである。
Below the
シークバー511は、時間軸512と、スライダ513と、を含む。時間軸512は、コンテンツの開始から終了までの時間に対応する時間軸である。スライダ513は、コンテンツの再生に伴って時間軸512上を移動し、コンテンツの現在の再生箇所を示すものである。
The seek
図5の例において、スライダ513は、コンテンツの再生に伴って時間軸512上を右方向へと動いていく。なお、時間軸512は、スライダ513を挟んだ左右で表示形態(例えば、色、模様、形状など)が異なっている。
In the example of FIG. 5, the
ユーザは、スライダ513に対するドラッグ操作や、時間軸512上の任意の点へのタップ操作などによって、スライダ513を時間軸512上の任意の位置に移動させることができる。ユーザの操作によってスライダ513が移動した場合、移動後の位置に対応する箇所からコンテンツの再生がおこなわれる。
The user can move the
時間情報514には、現在の再生箇所を示す時間と、コンテンツの総再生時間(総尺)とが表示されている。図5の例では、再生されているコンテンツの総再生時間は「60:00」であり、現在の再生箇所を示す時間は「30:00」である。例えば、この状態において、ユーザが、時間軸512の全体の長さの3/4に相当する位置にスライダ513を移動させると、現在の再生箇所を示す時間は「45:00」になり、コンテンツの「45:00」の位置からコンテンツの再生がおこなわれる。
In the
図4のフローチャートの説明に戻る。ステップS403において、制御部190が、ユーザによる第1操作を受け付けず(ステップS403においてNo)、ステップS404において、制御部190が、再生箇所を変更する操作を受け付けた場合(ステップS404においてYes)、制御部190は、ステップS405において、コンテンツの再生箇所を変更する。再生箇所を変更する操作とは、図5を用いて説明したように、スライダ513に対するドラッグ操作や、時間軸512上の任意の点へのタップ操作などである。
Returning to the description of the flowchart of FIG. In step S403, when the
ステップS404において、制御部190が、再生箇所を変更する操作を受け付けていない場合(ステップS404においてNo)、制御部190は、コンテンツの再生を継続し、コンテンツの再生を終了するための操作入力を受け付けたこと等に応じて、再生に係る一連の処理を終了する。コンテンツの再生の終了に関しては、ステップS405の後や、後述するステップS410の後においても同様である。
If the
ステップS403において、制御部190が、ユーザによる第1操作を受け付けた場合(ステップS403においてYes)、ステップS406に進む。ステップS406において、制御部190は、時間軸512の単位長さに対応する時間量を変更する。
When the
次に、ステップS407において、制御部190が、再生箇所を変更する操作を受け付けた場合(ステップS407においてYes)、制御部190は、ステップS408において、コンテンツの再生箇所を変更する。一方、ステップS407において、制御部190が、再生箇所を変更する操作を受け付けていない場合(ステップS407においてNo)、例えば、ステップS409へ進む。
Next, when the
ステップS409において、制御部190が、第2操作を受け付けた場合(ステップS409においてYes)、制御部190は、ステップS410において、時間軸の単位長さに対応する時間量をステップS406の前の状態に戻す。一方、ステップS409において、制御部190が、第2操作を受け付けていない場合(ステップS409においてNo)、例えば、ステップS407へ戻る。
When the
ここで、図6を用いて、ステップS406〜S410の一連の処理について詳述する。図6は、シークバー511における時間量の変更例を示す模式図である。図6の上部には、ステップS406における変更前のシークバー511が示されており、図6の下部には、ステップS406における変更後のシークバー511’が示されている。
Here, a series of processes in steps S406 to S410 will be described in detail with reference to FIG. FIG. 6 is a schematic view showing an example of changing the amount of time in the seek
なお、本開示の理解を容易にするため、図6では、シークバー511の時間軸512を想像線A1〜A4で区切っている。また、想像線A1〜A2の間を領域R2とし、想像線A2〜A3の間を領域R1とし、想像線A3〜A4の間を領域R3としている。同様に、シークバー511’の時間軸512を想像線A1、A2’、A3’、及びA4で区切っている。また、想像線A1〜A2’の間を領域R2’とし、想像線A2’〜A3’の間を領域R1’とし、想像線A3’〜A4の間を領域R3’としている。なお、想像線A1は、時間軸512の左端に位置し、想像線A4は、時間軸512の右端に位置する。
In addition, in order to facilitate the understanding of the present disclosure, in FIG. 6, the
変更前のシークバー511において、時間軸512の単位長さL1に対応する時間量は、「(コンテンツの総再生時間/シークバー511の全長)×単位長さL1の長さ」であり、時間軸512のどの箇所においても同一である。すなわち、変更前では、領域R1〜R3のどの箇所においても、スライダ513を単位長さL1と同じ長さだけ移動させた場合、変化する時間量は同一である。なお、単位長さL1は、タッチスクリーン130における任意の長さであり、タッチスクリーン130上の表示サイズや表示媒体が変われば、単位長さL1に対する時間量も変わる。
In the seek
一方で、変更後のシークバー511’では、時間軸512上におけるスライダ513の位置を含む連続した第1領域(領域R1’)において、単位長さL1に対応する時間量を小さくしている。すなわち、領域R1’においてスライダ513を単位長さL1だけ移動させた場合、変化する時間量は、変更前のシークバー511においてスライダ513を単位長さL1だけ移動させた場合よりも小さい。
On the other hand, in the changed seek bar 511', the amount of time corresponding to the unit length L1 is reduced in the continuous first region (region R1') including the position of the
また、時間軸512上における第1領域外の第2領域(領域R2’及びR3’)において、単位長さL1に対応する時間量を大きくしている。すなわち、領域R2’及びR3’においてスライダ513を単位長さL1だけ移動させた場合、変化する時間量は、変更前のシークバー511においてスライダ513を単位長さL1だけ移動させた場合よりも大きい。
Further, in the second region (regions R2'and R3') outside the first region on the
なお、シークバー511の想像線A2に対応する再生箇所は、シークバー511’の想像線A2’に対応する再生箇所と同一である。また、シークバー511の想像線A3に対応する再生箇所は、シークバー511’の想像線A3’に対応する再生箇所と同一である。すなわち、領域R1’は領域R1に対応し、領域R2’は領域R2に対応し、領域R3’は領域R3に対応している。
The reproduction portion corresponding to the imaginary line A2 of the seek
以下、理解を容易にするために、コンテンツの総再生時間を「60分」とし、シークバー511の全長を「60」とし、単位長さL1の長さを「1」として説明する。この場合、変更前のシークバー511における単位長さL1当たりの時間量は「1分(=(60分/60)×1)」である。シークバー511おいて、想像線A1からスライダ513までの長さが「30」であり、スライダ513から位置P1までの長さが「15」である場合、スライダ513を位置P1まで移動させると、コンテンツの再生箇所は、「30分」の位置から「45分」の位置まで進むことになる。
Hereinafter, in order to facilitate understanding, the total playback time of the content is set to "60 minutes", the total length of the seek
一方、変更後のシークバー511’において、領域R1’では、単位長さL1当たりの時間量が「1分」よりも小さく、具体的には、「1/4分(15秒)」である。また、領域R2’及びR3’では、単位長さL1当たりの時間量が「1分」よりも大きく、具体的には、「3分」である。 On the other hand, in the changed seek bar 511', in the region R1', the amount of time per unit length L1 is smaller than "1 minute", specifically, "1/4 minute (15 seconds)". Further, in the regions R2'and R3', the amount of time per unit length L1 is larger than "1 minute", specifically, "3 minutes".
スライダ513から位置P2までの長さが「15」である場合において、スライダ513を位置P2まで移動させたると、コンテンツの再生箇所は、「30分」の位置から「33分45秒(=30分+15秒×15)」の位置まで進むことになる。すなわち、シークバー511とシークバー511’とでは、スライダ513の移動量が同一であったとしても、再生箇所が異なることになる。シークバー511’において、再生箇所を「45分」の位置にしようとする場合、例えば、スライダ513を領域R3’内の位置P1’まで移動させることが必要である。
When the length from the
なお、図6の例において、第1領域は、スライダ513の位置と、時間軸512上でスライダ513の前(左側)に位置する領域を前領域512aの一部と、時間軸512上でスライダ513の後(右側)に位置する後領域512bの一部と、を含んだ連続した領域であるが、これに限定されるわけではない。第1領域は、スライダ513の位置と、前領域512a及び後領域512のいずれか一方と、を含んだ領域であってもよい。また、第1領域は、前領域512aの全部又は後領域512bの全部を含んだ領域であってもよい。第1領域をどのような領域にするかは、例えば、スライダ513の位置に応じて決定してもよいし、ユーザによって設定可能にしてもよい。
In the example of FIG. 6, the first region includes the position of the
また、第1領域と第2領域とは、視覚的に区別可能な態様で表示されることが好ましい。例えば、第1領域と第2領域とでは、時間軸512の太さ、色、模様等を異ならせることが好ましい。また、時間軸512が複数の目盛りを有する場合、第1領域と第2領域とで、目盛りの間隔を異ならせてもよい(図7及び図8参照)。
Further, it is preferable that the first region and the second region are displayed in a visually distinguishable manner. For example, it is preferable that the thickness, color, pattern, etc. of the
また、図6の例では、第1領域の時間量を小さくしているが、第1領域の時間量を大きくしてもよい。また、図6の例では、第2領域の時間量を大きくしているが、第2領域の時間量は変更せずともよい。この場合、シークバー511’の長さは、シークバー511の長さよりも長くなる。また、時間量の変更度合いは、特に制限されず、ユーザが設定可能なようにしてもよい。
Further, in the example of FIG. 6, the amount of time in the first region is reduced, but the amount of time in the first region may be increased. Further, in the example of FIG. 6, the amount of time in the second region is increased, but the amount of time in the second region does not have to be changed. In this case, the length of the seek bar 511'is longer than the length of the seek
また、第1領域及び第2領域の長さは、ユーザによって変更可能にしてもよい。例えば、想像線A2’及びA3’を表示させた場合であって、ユーザによる想像線A2’又はA3’に対する所定の操作(例えば、左右へのドラッグ操作)を受け付けた場合、想像線A2’又はA3’の位置を左右のどちらかへ移動させて、領域R1’(第1領域)の長さを変更してもよい。また、第1領域の長さは、予めユーザによって設定可能なようにしてもよい。 Further, the lengths of the first region and the second region may be changed by the user. For example, when the imaginary lines A2'and A3' are displayed and a predetermined operation (for example, a drag operation to the left or right) is accepted for the imaginary line A2'or A3' by the user, the imaginary line A2'or The length of the region R1'(first region) may be changed by moving the position of A3'to either the left or right. Further, the length of the first region may be set in advance by the user.
また、ユーザの第3操作に応じて、変更後のシークバー511’の第1領域又は第2領域の時間量をさらに変化させてもよい。「第3操作」は、変更された時間量をさらに変化させるための操作であり、上述した各種の操作のいずれか等であってもよいが、好ましくは、ドラッグ操作又はスワイプ操作である。なお、「第3操作」は、スライダに対する操作であってもよいし、タッチスクリーン130上の任意の位置に対する操作であってもよい。
Further, the time amount of the first region or the second region of the changed seek bar 511'may be further changed according to the third operation of the user. The "third operation" is an operation for further changing the changed amount of time, and may be any of the various operations described above, but is preferably a drag operation or a swipe operation. The "third operation" may be an operation on the slider or an operation on an arbitrary position on the
第3操作がドラッグ操作である場合、ドラッグ操作によってスライダ513を移動させる速度に応じて、時間量を変化させてもよい。例えば、スライダ513を移動させる速度が速い場合、時間量が大きくなるように変更し、スライダ513を移動させる速度が遅い場合、時間量が小さくなる又は時間量が変わらないようにすることが好ましい。この場合の時間量の変化は、スライダ513を移動させる速度に応じて段階的に変化するものでもよいし、一次関数又は二次関数的に変化するものでもよいし、これらを併用したものでもよい。
When the third operation is a drag operation, the amount of time may be changed according to the speed at which the
図7は、図6に示した例の別例であり、シークバー711における時間量の変更例を示す模式図である。具体的には、図7は、シークバー711に目盛りを設けた場合の例である。また、図7は、スライダ513が時間軸512の端部近傍にある状態で第1操作がなされた場合の例である。
FIG. 7 is another example of the example shown in FIG. 6, and is a schematic diagram showing an example of changing the amount of time in the seek
シークバー711において、時間軸512は、複数の目盛りを有しており、目盛りによって区間B1,B2,・・・等の複数の区間に区切られている。シークバー711において、想像線A2は、時間軸512の左端に位置する想像線A1と同位置である。想像線A3は、区間B8と区間B9の間に位置する。また、想像線A2(A1)と想像線A3との間を領域R11とし、想像線A3と時間軸512の右端に位置する想像線A4との間を領域R12としている。スライダ513は、細長い矩形状である。シークバー711において、単位長さL1(図7では図示せず)に対応する時間量は、時間軸512のどの箇所においても同一である。
In the seek
シークバー711’は、単位長さL1に対応する時間量を変更した後の状態を示している。領域R11’及び領域R12’は、領域R11及び領域R12にそれぞれ対応している。区間B1’,B2’,・・・等は、区間B1,B2,・・・等にそれぞれ対応している。区間B3’と区間B3に対応する時間量は同一であるが、区間B3’の長さは、区間B3の長さよりも長い。したがって、単位長さL1に対応する時間量は、領域R11よりも領域R11’の方が小さい。一方で、単位長さL1に対応する時間量は、領域R12よりも領域R12’の方が大きい。 The seek bar 711'shows the state after changing the amount of time corresponding to the unit length L1. The region R11'and the region R12'correspond to the region R11 and the region R12, respectively. The sections B1', B2', ..., Etc. correspond to the sections B1, B2, ..., Etc., respectively. The amount of time corresponding to the section B3'and the section B3 is the same, but the length of the section B3'is longer than the length of the section B3. Therefore, the amount of time corresponding to the unit length L1 is smaller in the region R11'than in the region R11. On the other hand, the amount of time corresponding to the unit length L1 is larger in the region R12'than in the region R12.
シークバー711において、スライダ513は、区間B3と区間B4の間に位置し、時間軸512の左端である想像線A1の近傍にある。また、シークバー711とシークバー711’とでは、スライダ513の位置は変わらない。すなわち、ユーザの第1操作の前後において、スライダ513の位置を変えていない。よって、第1操作がなされると、区間B2’、区間B3’、及び、想像線A2に対応する想像線A2’は、時間軸512の左端である想像線A1からはみ出してしまう。この場合において、区間B1’及びB2’を表示させる、すなわち、時間軸512の全長を長くしてもよいが、図7の例では、時間軸512の長さは変えずに、区間B2’及び区間B3’を非表示にしている。
In the seek
この状態において、例えば、スライダ513を想像線A1の左側へドラッグするような操作がなされた場合、再生箇所を区間B2’〜B1’に対応する箇所へと巻き戻すとともに、再生箇所が想像線A1の位置と一致するようにシークバー711’の表示を変更する。例えば、ユーザがスライダ513を想像線A1の左側へドラッグするような操作を続けると、再生箇所は、まず、区間B2’に対応した箇所になり、区間B2’が想像線A1の位置にくる(見かけ上、区間B2’が想像線A1の右側へと移動していく)。次に、再生箇所は、区間B1’に対応した箇所になり、区間B1’が想像線A1の位置にくる。そして、最終的に、再生箇所は、区間B1’の左端に対応した箇所(コンテンツの冒頭部分)となり、区間B1’の左端が想像線A1の位置にくる。
In this state, for example, when an operation such as dragging the
上記の最終的な状態を示したものが、シークバー711’’である。シークバー711’’における領域R11’’は、領域R11’に対応する。領域R11’’において、区間B1’及びB2’は想像線A1の左側に表示され、ユーザに視認可能になっている。
The seek
領域R12’’は、領域R12’に対応する。区間B1’及びB2’が表示されたことに伴い、領域R12’’の長さは領域R12’よりも短くなり、区間B9’’の長さも区間B9’よりも短くなっている。すなわち、単位長さL1に対応する時間量は、領域R12’よりも領域R12’’の方が大きい。 The region R12 ″ corresponds to the region R12 ″. With the display of the sections B1'and B2', the length of the area R12 ″ is shorter than that of the area R12 ″, and the length of the section B9 ″ is also shorter than that of the section B9 ″. That is, the amount of time corresponding to the unit length L1 is larger in the region R12 ″ than in the region R12 ″.
なお、ユーザの操作入力を受け付けた場合(例えば、想像線A3’を表示させた場合であって、想像線A3’の位置を区間B9’’の右端まで移動させるようなユーザの操作を受け付けた場合)、想像線A3’の位置を区間B9’’の右端へ移動させてもよい。すなわち、区間B9’’の長さを長くし、区間B9’’が領域R11’’に含まれるようにしてもよい。つまり、ユーザの操作入力に基づいて、領域R11’’及び領域R12’’の長さを変更してもよい。なお、シークバー711’においても同様である。 When the user's operation input is accepted (for example, when the imaginary line A3'is displayed, the user's operation such as moving the position of the imaginary line A3' to the right end of the section B9'' is accepted. Case), the position of the imaginary line A3'may be moved to the right end of the section B9''. That is, the length of the section B9 ″ may be increased so that the section B9 ″ is included in the region R11 ″. That is, the lengths of the area R11 ″ and the area R12 ″ may be changed based on the operation input of the user. The same applies to the seek bar 711'.
図8は、図6に示した例の別例であり、シークバー811における時間量の変更例を示す模式図である。具体的には、図8は、第1操作後に、表示するシークバーを増加させる場合の例である。
FIG. 8 is another example of the example shown in FIG. 6, and is a schematic diagram showing an example of changing the amount of time in the seek
シークバー811において、時間軸512は、複数の目盛りを有しており、目盛りによって区間B11,B12,B13,・・・等の複数の区間に区切られている。スライダ513は、区間B12に位置している。シークバー811において、想像線A2は、区間B12の左端と同位置である。想像線A3は、区間B12の右方の所定の位置である。想像線A1と想像線A2との間を領域R22とし、想像線A2と想像線A3との間を領域R21とし、想像線A3と想像線A4との間を領域R23としている。シークバー811において、単位長さL1(図8では図示せず)に対応する時間量は、時間軸512のどの箇所においても同一である。
In the seek
シークバー811’は、単位長さL1に対応する時間量を変更した後の状態を示している。シークバー811’における想像線A2’及びA3’、区間B11’、B12’及びB13’、並びに、R21’、R22’、及びR23’は、シークバー811における想像線A2及びA3、区間B11、B12及びB13、並びに、領域R21、R22及びR23にそれぞれ対応する。
The seek bar 811'shows the state after changing the amount of time corresponding to the unit length L1. The imaginary lines A2'and A3', sections B11', B12' and B13', and R21', R22', and R23' in seek bar 811'are the imaginary lines A2 and A3, sections B11, B12 and B13 in seek
区間B12’と区間B12に対応する時間量は同一であるが、区間B12’の長さは、区間B12の長さよりも長い。したがって、単位長さL1に対応する時間量は、領域R21よりも領域R21’の方が小さい。一方で、単位長さL1に対応する時間量は、領域R22よりも領域R22’の方が大きい。なお、シークバー811からシークバー811’への変更の前後において、スライダ513の位置は変わらない。
The amount of time corresponding to the section B12'and the section B12 is the same, but the length of the section B12' is longer than the length of the section B12. Therefore, the amount of time corresponding to the unit length L1 is smaller in the region R21'than in the region R21. On the other hand, the amount of time corresponding to the unit length L1 is larger in the region R22'than in the region R22. The position of the
また、図8の例では、シークバー811からシークバー811’への変更の際に、シークバー811’の近傍に、さらにシークバー812を表示している。シークバー812における想像線A2’’及びA3’’、区間B12’’及びB13’’、並びに、領域R21’’は、シークバー811’における想像線A2’及びA3’、区間B12’及びB13’、並びに、領域R21’にそれぞれ対応する。
Further, in the example of FIG. 8, when the seek
シークバー812は、領域R21’に含まれる各区間のみを表示し、該各区間の長さを長くしたものである。区間B12’’を2つ合わせて、区間B12’の時間量と同一になる。したがって、単位長さL1に対応する時間量は、領域R21’よりも領域R21’’の方が小さい。ユーザの操作入力に基づいて、領域R21’’及び領域R22’’に含まれる区間を変更してもよい。
The seek
スライダ513’は、スライダ513に対応する。スライダ513’及びスライダ513は、指し示す再生箇所が同じであり、互いに連動して動く。ユーザは、スライダ513及び513’のどちらに対して操作をしてもよい。スライダ513’を操作する場合、スライダ513を操作する場合と比較して、再生箇所の微調整が容易である。
The slider 513'corresponds to the
なお、シークバー812の表示は、スライダ513に対するユーザの操作に基づいて生じるものとしてもよい。また、想像線A2’または想像線A3’に対するユーザの操作に基づいて生じるものとしてもよい。ユーザの操作としては、例えば所定時間タップした状態を継続したり、ダブルタップをしたり等がある。
The display of the seek
シークバー812の表示後、ユーザによる所定の操作等に応じて、シークバー812の表示を解除(非表示)にしてもよい。また、シークバー812の表示中は、シークバー513’、想像線A2’’、又は想像線A3’’に対する操作を受け付けることができる態様にしてもよい。
After displaying the seek
また、図8においては、シークバー812の領域R21’’に示される長さはシークバー811’の長さと同様の長さに表示されているが、このような表示形式に限定されず、シークバー811’の長さと異なってもよい。シークバー812の領域R21’’に示される長さは、スライダ513、スライダ513’、想像線A2’、想像線A3’、想像線A2’’、又は想像線A3’’に対するユーザの操作に基づいて、変更することができる。例えば、想像線A2’をユーザがスライド操作することによって、シークバー812の長さや、シークバー812に含まれる区間が変更されることとしてもよい。
Further, in FIG. 8, the length shown in the region R21 ″ of the seek
[第2の実施形態]
次に、本開示の第2の実施形態を説明する。第2の実施形態では、第1の実施形態で説明した内容を矛盾の生じない範囲で採用できる。例えば、第2の実施形態に係るシステムの構成は、図1を用いて説明した内容と同様である。また、第2の実施形態に係るサーバの構成は、図2を用いて説明した内容と同様である。
[Second Embodiment]
Next, a second embodiment of the present disclosure will be described. In the second embodiment, the contents described in the first embodiment can be adopted within a range that does not cause a contradiction. For example, the configuration of the system according to the second embodiment is the same as the content described with reference to FIG. Further, the configuration of the server according to the second embodiment is the same as the content described with reference to FIG.
(ユーザ端末の構成)
図9は、第2の実施形態に係るユーザ端末10’の機能的な構成を示すブロック図である。以下では、図2に示したユーザ端末10と異なる点や、ユーザ端末10の説明において言及していなかった点を説明する。
(Configuration of user terminal)
FIG. 9 is a block diagram showing a functional configuration of the user terminal 10'according to the second embodiment. Hereinafter, points different from the
ユーザ端末10’において、制御部190は、プログラム151を読み込んで実行することにより、操作受付部191、送受信部192、再生部193、表示制御部194、登録部196としての機能を発揮する。ユーザ端末10’の制御部190は、さらに、第1の実施形態において述べた変更部195としての機能を発揮するように構成してもよい。
In the user terminal 10', the
登録部196は、ユーザの第1操作に基づいて、コンテンツ中の第1シーンを特定する。また、登録部196は、第1シーンを特定する情報を含むシーン情報を、第1リスト(以下、「シーンリスト」とも称する)に登録する。シーンリストに関する情報は、例えば、記憶部150又はサーバ20の記憶部250に記憶される。なお、シーンリストは、1以上のシーン情報が登録されたリストである。
The
ここで、第2の実施形態における「第1操作」は、第1シーンを特定するための操作であり、第1の実施形態において述べた各種の操作のいずれか等であってもよい。なお、以降の説明において「第1操作」といった場合、第2の実施形態における第1操作のことを指す。 Here, the "first operation" in the second embodiment is an operation for specifying the first scene, and may be any of the various operations described in the first embodiment. In the following description, the term "first operation" refers to the first operation in the second embodiment.
「第1操作」は、好ましくは、ロングタッチ操作、グラブ操作、ダブルタップ操作、又はダブルクリック操作、フリック操作、スワイプ操作、ピンチ操作、又はタップ操作であり、より好ましくは、ダブルタップ操作である。また、「第1操作」は、タッチスクリーン130上の任意の位置に対する操作であってもよいが、好ましくは、タッチスクリーン130上で再生されているコンテンツに対する操作である。
The "first operation" is preferably a long touch operation, a grab operation, a double tap operation, or a double click operation, a flick operation, a swipe operation, a pinch operation, or a tap operation, and more preferably a double tap operation. .. Further, the "first operation" may be an operation for an arbitrary position on the
また、ある局面において、登録部196は、ユーザの第1操作又は第2操作に基づいて、コンテンツ中の第2シーンを特定する。第2シーンが特定された場合、登録部196によってシーンリストに登録されるシーン情報には、第1シーンを特定する情報に加えて、第2シーンを特定する情報が含まれる。
Further, in a certain aspect, the
ここで、第2の実施形態における「第2操作」は、第2シーンを特定するための操作であり、第1の実施形態において述べた各種の操作のいずれか等であってもよい。なお、以降の説明において「第2操作」といった場合、第2の実施形態における第2操作のことを指す。第2操作については、第1操作に関して説明した内容を援用する。 Here, the "second operation" in the second embodiment is an operation for specifying the second scene, and may be any of the various operations described in the first embodiment. In the following description, the term "second operation" refers to the second operation in the second embodiment. For the second operation, the contents explained about the first operation are incorporated.
表示制御部194は、ユーザの操作に応じて、シーンリストに登録されている1以上のシーン情報をユーザに提示するため、当該1以上のシーン情報をタッチスクリーン130上に表示する。
The
また、表示制御部194によってタッチスクリーン130上に表示された1以上のシーン情報の中から1のシーン情報を選択するユーザの操作入力を操作受付部191が受け付けたことに応じて、再生部193は、選択された1のシーン情報によって特定される第1シーンから、コンテンツの再生を開始する。また、シーン情報に第2シーンを特定する情報が含まれている場合、再生部193は、コンテンツの第1シーンから第2シーンまでを再生する。
Further, in response to the
(動作処理)
次に、図10から図13を参照して、第2の実施形態に係るシステム1の動作処理について説明する。第2の実施形態においても、システム1を動画配信サービスに用いられるシステムとして説明をするが、本開示はこれに限定されるものではない。
(Operation processing)
Next, the operation processing of the
図10は、コンテンツ再生に係る処理の一例を示すフローチャートである。図10に示される処理は、制御部190がプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現されうる。
FIG. 10 is a flowchart showing an example of processing related to content reproduction. The process shown in FIG. 10 can be realized by the
まず、ステップS801において、制御部190は、サーバ20から送信されるデータに基づいてコンテンツを再生し、コンテンツをタッチスクリーン130に表示する。ステップS401は、例えば、ユーザの操作入力に応じて実行される。
First, in step S801, the
次に、ステップS802において、制御部190は、ユーザの第1操作に基づいて、コンテンツ中の第1シーンを特定する。次に、ステップS803において、制御部190は、ユーザの第1操作又は第2操作に基づいて、コンテンツ中の第2シーンを特定する。次に、ステップS804において、制御部190は、第1シーンを特定する情報及び第2シーンを特定する情報を含むシーン情報を、シーンリストに登録する。
Next, in step S802, the
ここで、図11を用いて、ステップS801〜S804の処理が実行された場合の表示画面の一例について説明する。図11の上部において、タッチスクリーン130には、制御部190によって再生されたコンテンツ901が表示されている。この状態において、ユーザが、第1操作として、タッチスクリーン130においてコンテンツ901が表示されている任意の位置に対してダブルタップ等の操作をすると、少なくとも第1シーンが特定される。
Here, an example of a display screen when the processes of steps S801 to S804 are executed will be described with reference to FIG. At the top of FIG. 11, the
第1シーンは、例えば、第1操作がされた際に再生されていたシーンであってもよいし、第1操作がされた際に再生されていたシーンから所定の時間(例えば、10秒)遡ったシーンであってもよい。この場合の所定の時間は、ユーザが設定可能なようにしてもよい。 The first scene may be, for example, a scene that was being played when the first operation was performed, or a predetermined time (for example, 10 seconds) from the scene that was being played when the first operation was performed. It may be a retrospective scene. The predetermined time in this case may be set by the user.
第2シーンは、例えば、第1操作に基づいて特定されてもよい。この場合、第2シーンは、第1操作がされた際に再生されていたシーンから所定の時間(例えば、1分)が経過したシーンであってもよい。この場合の所定の時間は、ユーザが設定可能なようにしてもよい。 The second scene may be specified, for example, based on the first operation. In this case, the second scene may be a scene in which a predetermined time (for example, 1 minute) has elapsed from the scene that was being played when the first operation was performed. The predetermined time in this case may be set by the user.
また、第2シーンは、例えば、第1操作後に受け付ける第2操作に基づいて特定されてもよい。この場合、第2シーンは、例えば、第2操作がされた際に再生されていたシーンであってもよいし、第2操作がされた際に再生されていたシーンから所定の時間(例えば、10秒)経過したシーンであってもよい。この場合の所定の時間は、ユーザが設定可能なようにしてもよい。 Further, the second scene may be specified based on, for example, a second operation received after the first operation. In this case, the second scene may be, for example, a scene that was being played when the second operation was performed, or a predetermined time (for example, for example) from the scene that was being played when the second operation was performed. It may be a scene that has passed 10 seconds). The predetermined time in this case may be set by the user.
図11の下部は、シーン情報の登録が完了した際のタッチスクリーン130を示している。シーン情報の登録完了後から所定の時間(例えば、1秒)が経過するまでの間、タッチスクリーン130上には、シーン情報の登録が完了したことをユーザに報知するための報知画像910が表示される。なお、ユーザへの報知は、報知画像910の表示に代えて又は加えて、所定の効果音を鳴らす等の音声出力によって行ってもよい。
The lower part of FIG. 11 shows the
図10のフローチャートの説明に戻る。ステップS805において、制御部190は、ユーザの操作に応じて、シーンリストに登録されている1以上のシーン情報をユーザに提示する。
Returning to the description of the flowchart of FIG. In step S805, the
なお、ステップS805では、シーンリストの提示の前段階として、いわゆるウォッチリストに登録されているコンテンツをユーザに提示し、ウォッチリストから選択されたコンテンツに対応するシーンリストをユーザに提示してもよい。また、このように構成する場合、シーンリストへの登録に伴って、そのシーンを含むコンテンツを自動的にウォッチリストに登録するようにしてもよい。なお、「ウォッチリスト」とは、例えば、ユーザが選択した1以上のコンテンツを登録したリストである。 In step S805, as a preliminary step of presenting the scene list, the content registered in the so-called watch list may be presented to the user, and the scene list corresponding to the content selected from the watch list may be presented to the user. .. Further, in the case of such a configuration, the content including the scene may be automatically registered in the watch list along with the registration in the scene list. The "watch list" is, for example, a list in which one or more contents selected by the user are registered.
次に、ステップS806において、制御部190が、提示されているシーン情報のうちの1のシーン情報に対する再生要求を受け付けた場合(ステップS806においてYes)、ステップS807において、制御部190は、当該1のシーン情報に対応するシーンを再生する。
Next, in step S806, when the
また、制御部190は、ステップS807や後述のステップS809における処理の後、コンテンツの再生等を終了するための操作入力を受け付けたこと等に応じて、再生に係る一連の処理を終了する。
Further, after the processing in step S807 or step S809 described later, the
ステップS806において、制御部190が、提示されているシーン情報のうちの1のシーン情報に対する再生要求を受け付けていない場合(ステップS806においてNo)、例えば、S808の処理へ進む。ステップS808において、制御部190が、シーン情報の変更要求を受け付けた場合(ステップS808においてYes)、ステップS809において、制御部190は、シーン情報を更新する。ステップS808において、制御部190が、シーン情報の変更要求を受け付けていない場合(ステップS808においてNo)、コンテンツの再生等を終了するための操作入力を受け付けたこと等に応じて、再生に係る一連の処理を終了する。
In step S806, when the
ここで、図12及び13を用いて、ステップS805に関連する処理が実行された場合の表示画面の一例について説明する。図12は、シーンリストの表示の前段階として、ウォッチリストを表示している表示画面の一例である。 Here, an example of a display screen when the process related to step S805 is executed will be described with reference to FIGS. 12 and 13. FIG. 12 is an example of a display screen displaying the watch list as a preliminary step of displaying the scene list.
図12の例において、タッチスクリーン130には、ユーザがウォッチリストに登録している各コンテンツA〜Fに対応するサムネイル画像901T〜906Tが表示されている。ユーザが、サムネイル画像901T〜906Tのいずれかを選択する操作をした場合、例えば、選択されたサムネイル画像に対応するコンテンツのシーンリストが表示されうる。
In the example of FIG. 12, the
図13は、図12の例においてサムネイル画像901Tが選択された場合の表示画面の一例である。図12の例では、コンテンツAに関する情報とともに、コンテンツAに関連付けられた複数のシーン情報を表示している。具体的には、タッチスクリーン130の左側の領域に、サムネイル画像901Tと、サムネイル画像901Tに対応するコンテンツAに関する文字情報901Mが表示されている。また、タッチスクリーン130の右側の領域には、シーンリストに登録されているコンテンツAの3つのシーン情報が表示されている。
FIG. 13 is an example of a display screen when the
より詳細には、1つ目のシーン情報として、1つ目のシーン情報を示すサムネイル画像910aと、時間情報910bとが表示されている。時間情報910bに示されるように、1つ目のシーン情報によって特定されるシーンは、コンテンツAの「11:00〜12:00」のシーンである。サムネイル画像910aは、1つ目のシーン内に含まれるいずれかの画像であり、例えば、第1シーン(11:00のシーン)の画像である。
More specifically, as the first scene information, a
同様に、2つ目のシーン情報として、2つ目のシーン情報を示すサムネイル画像920a及び時間情報920bが表示され、3つ目のシーン情報として、3つ目のシーン情報を示すサムネイル画像930a及び時間情報930bが表示されている。時間情報920b及び930bに示されるように、3つ目のシーンは、2つ目のシーンの一部である。例えば、2つ目のシーンは、ゴルフの第6ホールのプレイ開始からプレイ終了までのシーンであり、3つ目のシーンは、上記第6ホールにて特定の選手のパッティングのシーンである。
Similarly, as the second scene information, the
図13に示す表示画面において、ユーザがいずれかのシーン情報を選択する等の操作をしたことに応じて、選択したシーン情報に対応するシーンが再生される。例えば、ユーザがサムネイル画像910aをタップ操作等によって選択すると、コンテンツAの「11:00」のシーン(第1シーン)から「12:00」のシーン(第2シーン)までが再生される。なお、サムネイル画像901Tを選択する等の操作がなされた場合、コンテンツAの冒頭から再生が開示される。
On the display screen shown in FIG. 13, a scene corresponding to the selected scene information is reproduced in response to an operation such as selecting one of the scene information by the user. For example, when the user selects the
また、シーンリストに登録されたシーン情報は、ユーザが所定の操作をすることによって、変更可能である。例えば、ユーザがシーン情報を変更するための仮想ボタン(図示せず)を押下した場合や、サムネイル画像910a,920a,930aや時間情報910b,920b,930b等に対して所定の操作(再生するための選択操作とは異なる操作)をした場合、第1シーンや第2シーンを変更しうる。例えば、ユーザは、1つ目のシーン情報を変更する操作をすることによって、1つ目のシーンを「10:30〜12:10」のシーンに変更することができる。また、ユーザは、第1シーンや第2シーンの変更の有無に関わらず、サムネイル画像910aを、1つ目のシーンに含まれる他の画像に変更することができる。
Further, the scene information registered in the scene list can be changed by the user performing a predetermined operation. For example, when the user presses a virtual button (not shown) for changing the scene information, or for a predetermined operation (playback) for
以上、本開示に係る各実施形態について詳細に説明したが、プログラムの動作に支障が生じない限り、各実施形態の説明において制御部190が実行していた処理を制御部290が担当してもよく、制御部290が実行していた処理を制御部190が担当してもよい。また、上述の各実施形態では、ユーザ端末とサーバ装置とを含むシステムの形態を説明したが、本開示に係るプログラムは、ユーザ端末のみで処理が完結するいわゆるスタンドアロン型の形態であってもよい。
Although each embodiment according to the present disclosure has been described in detail above, the
また、上記の各実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 In addition, each of the above embodiments is merely an example for facilitating the understanding of the present invention, and is not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes an equivalent thereof.
[付記事項]
本開示の内容を列記すると以下の通りである。
[Additional notes]
The contents of this disclosure are listed below.
(項目1)
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツの開始から終了までの時間に対応する時間軸、及びコンテンツの再生に伴って前記時間軸上を移動し、前記コンテンツの現在の再生箇所を示すスライダ、を含むシークバーを表示するステップと、
前記スライダに対するユーザの第1操作に応じて、前記時間軸上の少なくとも一部の領域において、前記時間軸の単位長さに対応する時間量を変更するステップと、
を実行させる、プログラム。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 1)
A program that runs on a computer with a processor
The program is delivered to the processor.
A step of displaying a seek bar that includes a time axis corresponding to the time from the start to the end of the content, and a slider that moves on the time axis as the content is played and indicates the current playback location of the content.
A step of changing the amount of time corresponding to the unit length of the time axis in at least a part of the area on the time axis according to the user's first operation on the slider.
A program that runs.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.
(項目2)
前記第1操作は、前記スライダに対するロングタッチ操作、グラブ操作、ダブルタップ操作、又はダブルクリック操作である、
項目1に記載のプログラム。
この構成によれば、例えば、指を1本使用するだけの簡単な操作によって単位長さに対応する時間量の変更を行うことができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 2)
The first operation is a long touch operation, a grab operation, a double tap operation, or a double click operation on the slider.
The program described in
According to this configuration, for example, the amount of time corresponding to the unit length can be changed by a simple operation using only one finger. As a result, usability can be further improved.
(項目3)
前記プログラムは、前記プロセッサに、さらに、
前記変更するステップが実行されている状態における前記ユーザの第2操作に応じて、前記変更するステップにおいて変更された前記時間軸の単位長さに対応する前記時間量を変更前の値に戻すステップを実行させ、
前記第2操作は、前記第1操作である前記ロングタッチ操作もしくは前記グラブ操作を終了させる操作、又は、新たなダブルタップ操作もしくはダブルクリック操作である、
項目2に記載のプログラム。
この構成によれば、例えば、指を1本使用するだけの簡単な操作によって単位長さに対応する時間量を元の状態に戻すことができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 3)
The program is added to the processor.
A step of returning the amount of time corresponding to the unit length of the time axis changed in the changing step to the value before the change in response to the second operation of the user in the state where the changing step is being executed. To execute,
The second operation is an operation of ending the long touch operation or the grab operation, which is the first operation, or a new double tap operation or double click operation.
The program described in item 2.
According to this configuration, for example, the amount of time corresponding to the unit length can be returned to the original state by a simple operation using only one finger. As a result, usability can be further improved.
(項目4)
前記変更するステップは、
前記時間軸上における前記スライダの位置を含む連続した第1領域において、前記時間軸の単位長さに対応する前記時間量を小さくするステップである、
項目1から項目3のいずれか一項に記載のプログラム。
この構成によれば、スライダの位置を含む第1領域、すなわち、現在の再生箇所の周辺において単位長さに対応する時間量が小さくなるため、現在の再生箇所の微調整が容易になる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 4)
The step to change is
This is a step of reducing the amount of time corresponding to the unit length of the time axis in a continuous first region including the position of the slider on the time axis.
The program according to any one of
According to this configuration, since the amount of time corresponding to the unit length is reduced in the first region including the position of the slider, that is, around the current reproduction portion, fine adjustment of the current reproduction portion becomes easy. As a result, usability can be further improved.
(項目5)
前記変更するステップは、さらに、
前記時間軸上における前記第1領域外の第2領域において、前記時間軸の単位長さに対応する前記時間量を大きくすることを含む、
項目4に記載のプログラム。
この構成によれば、例えば、時間軸の全長を変更したり、単位長さに対応する時間量を変更した領域を元々の時間軸に加えて別途表示したりすることなく、時間軸の単位長さに対応する時間量を変更することができる。
(Item 5)
The step to change further
In a second region outside the first region on the time axis, the amount of time corresponding to the unit length of the time axis is increased.
The program according to item 4.
According to this configuration, for example, the unit length of the time axis is not changed, or the area in which the amount of time corresponding to the unit length is changed is not displayed separately in addition to the original time axis. The corresponding amount of time can be changed.
(項目6)
前記第1領域は、前記時間軸上で前記スライダの前に位置する前領域の少なくとも一部と、前記時間軸上で前記スライダの後に位置する後領域の少なくとも一部と、を含む連続した領域である、
項目5又は項目6に記載のプログラム。
この構成によれば、単位長さに対応する時間量がスライダの前方向及び後方向の両方で変更されるため、例えば、ユーザが目的とする再生箇所がスライダの前後のどちらにあるかユーザが把握していない場合にも対応できる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 6)
The first region is a continuous region including at least a part of a front region located in front of the slider on the time axis and at least a part of a rear region located after the slider on the time axis. Is,
The program according to item 5 or item 6.
According to this configuration, the amount of time corresponding to the unit length is changed both in the front direction and the rear direction of the slider, so that, for example, the user can determine whether the playback point intended by the user is before or after the slider. Even if you do not know it, you can handle it. As a result, usability can be further improved.
(項目7)
前記変更するステップが実行されたことに応じて、前記時間軸の単位長さに対応する前記時間量が異なる2以上の領域が前記時間軸に含まれる場合に、
前記表示するステップは、前記2以上の領域を視覚的に区別可能な態様で表示する、
項目1から項目6のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、単位長さに対応する時間量が異なる区間を視覚によって容易に区別可能となる。結果として、ユーザが意図しない操作を減らし、ユーザビリティを更に向上させることが可能である。
(Item 7)
When the time axis includes two or more regions having different amounts of time corresponding to the unit length of the time axis according to the execution of the step to be changed.
The display step displays the two or more areas in a visually distinguishable manner.
The program according to any one of
According to this configuration, for example, the user can easily visually distinguish the sections in which the amount of time corresponding to the unit length is different. As a result, it is possible to reduce unintended operations by the user and further improve usability.
(項目8)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの第3操作に応じて、前記変更するステップにおいて変更された前記時間軸の単位長さに対応する前記時間量をさらに変化させるステップを実行させる、
項目1から項目7のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、自己の操作によって時間軸の単位長さに対応する時間量を更に変化させることができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 8)
The program is added to the processor.
In response to the third operation of the user, the step of further changing the amount of time corresponding to the unit length of the time axis changed in the step of changing is executed.
The program according to any one of
According to this configuration, for example, the user can further change the amount of time corresponding to the unit length of the time axis by his / her own operation. As a result, usability can be further improved.
(項目9)
前記第3操作は、ドラッグ操作であり、
前記さらに変化させるステップは、前記ドラッグ操作によって前記スライダを移動させる速度に応じて、前記時間軸の単位長さに対応する前記時間量を変化させる、
項目8に記載のプログラム。
この構成によれば、例えば、ユーザは、直感的で簡単な操作によって時間軸の単位長さに対応する時間量を更に変化させることができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 9)
The third operation is a drag operation.
The further changing step changes the amount of time corresponding to the unit length of the time axis according to the speed at which the slider is moved by the drag operation.
The program according to item 8.
According to this configuration, for example, the user can further change the amount of time corresponding to the unit length of the time axis by an intuitive and simple operation. As a result, usability can be further improved.
(項目10)
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
コンテンツの開始から終了までの時間に対応する時間軸、及びコンテンツの再生に伴って前記時間軸上を移動し、前記コンテンツの現在の再生箇所を示すスライダ、を含むシークバーを表示するステップと、
前記スライダに対するユーザの第1操作に応じて、前記時間軸上の少なくとも一部の領域において、前記時間軸の単位長さに対応する時間量を変更するステップと、
を実行させることを含む、情報処理方法。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 10)
An information processing method that is executed on a computer equipped with a processor.
The information processing method is applied to the processor.
A step of displaying a seek bar that includes a time axis corresponding to the time from the start to the end of the content, and a slider that moves on the time axis as the content is played and indicates the current playback location of the content.
A step of changing the amount of time corresponding to the unit length of the time axis in at least a part of the area on the time axis according to the user's first operation on the slider.
Information processing methods, including the execution of.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.
(項目11)
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
コンテンツの開始から終了までの時間に対応する時間軸、及びコンテンツの再生に伴って前記時間軸上を移動し、前記コンテンツの現在の再生箇所を示すスライダ、を含むシークバーを表示し、
前記スライダに対するユーザの第1操作に応じて、前記時間軸上の少なくとも一部の領域において、前記時間軸の単位長さに対応する時間量を変更する、
情報処理装置。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 11)
An information processing device equipped with a processor
The processor
A seek bar is displayed that includes a time axis corresponding to the time from the start to the end of the content, and a slider that moves on the time axis as the content is played and indicates the current playback location of the content.
In response to the user's first operation on the slider, the amount of time corresponding to the unit length of the time axis is changed in at least a part of the area on the time axis.
Information processing device.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.
(項目12)
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
プログラム。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 12)
A program that runs on a computer with a processor
The program is delivered to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
To run,
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the one scene information selected in the accepting step.
program.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.
(項目13)
前記第1操作は、ロングタッチ操作、グラブ操作、ダブルタップ操作、ダブルクリック操作、フリック操作、スワイプ操作、ピンチ操作、又はタップ操作である、
項目12に記載のプログラム。
この構成によれば、簡単な操作によってシーン情報を第1リストに登録することができる。結果として、音楽や動画等を視聴する際におけるユーザビリティを更に向上させることが可能である。
(Item 13)
The first operation is a long touch operation, a grab operation, a double tap operation, a double click operation, a flick operation, a swipe operation, a pinch operation, or a tap operation.
The program according to item 12.
According to this configuration, the scene information can be registered in the first list by a simple operation. As a result, it is possible to further improve usability when viewing music, moving images, and the like.
(項目14)
前記再生するステップは、タッチスクリーン上で前記コンテンツを再生するステップであり、
前記第1操作は、前記タッチスクリーン上で再生されている前記コンテンツに対するダブルタップ操作である、
項目13に記載のプログラム。
この構成によれば、例えば、指を1本使用するだけの簡単な操作によって、ユーザが希望するシーンを第1リストへ登録することができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 14)
The reproduction step is a step of reproducing the content on the touch screen.
The first operation is a double tap operation on the content being played on the touch screen.
The program according to item 13.
According to this configuration, for example, a scene desired by the user can be registered in the first list by a simple operation using only one finger. As a result, usability can be further improved.
(項目15)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの前記第1操作又は第2操作に基づいて、前記コンテンツ中の第2シーンを特定するステップを実行させ、
前記登録するステップで登録される前記シーン情報には、前記第2シーンを特定する情報が含まれ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから前記第2シーンまで、前記コンテンツを再生する、
項目12から項目14のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、コンテンツにおける特定のシーン間を繰り返して視聴することが容易になる。結果として、ユーザビリティを更に向上させることが可能になる。
(Item 15)
The program is added to the processor.
Based on the first operation or the second operation of the user, the step of identifying the second scene in the content is executed.
The scene information registered in the registration step includes information for identifying the second scene.
In response to the execution of the accepting step, the reproduction step is executed, and the content is displayed from the first scene to the second scene specified by the scene information of the first selected in the accepting step. Reproduce,
The program according to any one of items 12 to 14.
According to this configuration, for example, the user can easily watch the content repeatedly between specific scenes. As a result, usability can be further improved.
(項目16)
前記第1シーンは、前記第1操作がされた際に再生されていたシーンであり、
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
項目15に記載のプログラム。
この構成によれば、例えば、ユーザは、一つの操作によって再生の始点となるシーンと再生の終点となるシーンを第1リストに登録することができる。結果として、ユーザビリティを更に向上させることが可能になる。
(Item 16)
The first scene is a scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to item 15.
According to this configuration, for example, the user can register a scene that is a start point of reproduction and a scene that is an end point of reproduction in the first list by one operation. As a result, usability can be further improved.
(項目17)
前記第1シーンは、前記第1操作がされた際に再生されていたシーンから所定の時間遡ったシーンであり、
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
項目15に記載のプログラム。
この構成によれば、例えば、ユーザは、一つの操作によって再生の始点となるシーンと再生の終点となるシーンを第1リストに登録することができる。結果として、ユーザビリティを更に向上させることが可能になる。また、例えば、お気に入りシーンの前後の流れも楽しみたいというユーザの要求を満たすことが可能になる。
(Item 17)
The first scene is a scene that goes back a predetermined time from the scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to item 15.
According to this configuration, for example, the user can register a scene that is a start point of reproduction and a scene that is an end point of reproduction in the first list by one operation. As a result, usability can be further improved. Further, for example, it becomes possible to satisfy the user's request to enjoy the flow before and after the favorite scene.
(項目18)
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記提示するステップは、1のコンテンツに関する情報とともに、当該1のコンテンツに関連付けられた複数の前記シーン情報を提示することが可能である、
項目12から項目17のいずれか一項に記載のプログラム。
この構成によれば、例えば、1のコンテンツに対して複数のお気に入りシーンを登録したいというユーザの要求を満たすことができる。また、例えば、ユーザは、1のコンテンツとともに、当該1のコンテンツに対する複数のお気に入りシーンを一覧的に確認できる。
(Item 18)
A plurality of the scene information can be registered in the first list in association with one content.
The presenting step can present a plurality of the scene information associated with the one content together with the information about the one content.
The program according to any one of items 12 to 17.
According to this configuration, for example, it is possible to satisfy a user's request to register a plurality of favorite scenes for one content. Further, for example, the user can collectively check one content and a plurality of favorite scenes for the one content in a list.
(項目19)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの操作に応じて、前記第1リストに登録された前記シーン情報に含まれる情報を変更するステップを実行させる、
項目12から項目18のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、再生の始点となるシーンや再生の終点となるシーンなどを容易に変更することが可能になる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 19)
The program is added to the processor.
A step of changing the information included in the scene information registered in the first list is executed according to the operation of the user.
The program according to any one of items 12 to 18.
According to this configuration, for example, the user can easily change a scene that is a start point of reproduction, a scene that is an end point of reproduction, and the like. As a result, usability can be further improved.
(項目20)
前記提示するステップにおいて前記ユーザに提示される前記シーン情報は、前記第1シーンを示すサムネイル画像を含む、
項目12から項目19のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、提示されたシーン情報がコンテンツ中のどのシーンに対応するかを容易に把握できるようになる。
(Item 20)
The scene information presented to the user in the presented step includes a thumbnail image showing the first scene.
The program according to any one of items 12 to 19.
According to this configuration, for example, the user can easily grasp which scene in the content the presented scene information corresponds to.
(項目21)
前記登録するステップは、前記登録が完了したことをユーザに報知することを含む、
項目12から請求項20のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、登録が完了したことを容易に把握できるようになる。
(Item 21)
The registration step comprises notifying the user that the registration is complete.
The program according to any one of items 12 to 20.
According to this configuration, for example, the user can easily grasp that the registration is completed.
(項目22)
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させることを含み、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
情報処理方法。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 22)
An information processing method that is executed on a computer equipped with a processor.
The information processing method is applied to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
Including running
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the one scene information selected in the accepting step.
Information processing method.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.
(項目23)
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
コンテンツを再生し、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定し、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録し、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示し、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるものであり、
前記選択を受け付けたことに応じて、前記コンテンツの再生を実行し、選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
情報処理装置。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 23)
An information processing device equipped with a processor
The processor
Play the content and
The first scene in the content is identified based on the user's first operation.
The scene information including the information for identifying the first scene is registered in the first list, and the scene information is registered.
In response to the operation of the user, one or more of the scene information registered in the first list is presented to the user.
In response to the operation of the user, the selection of one scene information from the one or more scene information presented to the user is accepted.
In response to the acceptance of the selection, the content is reproduced, and the content is reproduced from the first scene specified by the selected scene information of the one.
Information processing device.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.
1:システム、10,10’:ユーザ端末、20:サーバ、30:ネットワーク、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、191:操作受付部、192:送受信部、193:再生部、194:表示制御部、195:変更部、196:登録部、197:表示制御部、250:(サーバの)記憶部、290:(サーバの)制御部 1: System, 10, 10': User terminal, 20: Server, 30: Network, 130: Touch screen, 150: Storage unit (of user terminal), 190: Control unit (of user terminal), 191: Operation reception unit , 192: Transmission / reception unit, 193: Playback unit, 194: Display control unit, 195: Change unit, 196: Registration unit, 197: Display control unit, 250: (Server) storage unit, 290: (Server) control unit
Claims (11)
前記プログラムは、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生し、
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記提示するステップは、複数のコンテンツの中から1のコンテンツが選択された場合に、選択された前記1のコンテンツに関する情報とともに、選択された前記1のコンテンツに関連付けられている1以上の前記シーン情報を提示することを含み、
前記再生するステップは、前記提示するステップにおいて提示された前記1のコンテンツに関する情報が選択された場合に、前記シーン情報によらずに前記1のコンテンツを再生することを含む、
プログラム。 A program that runs on a computer with a processor
The program is delivered to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
To run,
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the scene information of the 1 selected in the accepting step .
A plurality of the scene information can be registered in the first list in association with one content.
In the step presented, when one content is selected from a plurality of contents, one or more said scenes associated with the selected one content together with information about the selected one content. Including presenting information
The reproduction step includes reproducing the content of 1 regardless of the scene information when the information relating to the content of 1 presented in the presenting step is selected.
program.
請求項1に記載のプログラム。 The first operation is a long touch operation, a grab operation, a double tap operation, a double click operation, a flick operation, a swipe operation, a pinch operation, or a tap operation.
The program according to claim 1.
前記第1操作は、前記タッチスクリーン上で再生されている前記コンテンツに対するダブルタップ操作である、
請求項2に記載のプログラム。 The reproduction step is a step of reproducing the content on the touch screen.
The first operation is a double tap operation on the content being played on the touch screen.
The program according to claim 2.
前記ユーザの前記第1操作または第2操作に基づいて、前記コンテンツ中の第2シーンを特定するステップを実行させ、
前記登録するステップで登録される前記シーン情報には、前記第2シーンを特定する情報が含まれ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから前記第2シーンまで、前記コンテンツを再生する、
請求項1から請求項3のいずれか一項に記載のプログラム。 The program is added to the processor.
Based on the first operation or the second operation of the user, the step of identifying the second scene in the content is executed.
The scene information registered in the registration step includes information for identifying the second scene.
In response to the execution of the accepting step, the reproduction step is executed, and the content is displayed from the first scene to the second scene specified by the scene information of the first selected in the accepting step. Reproduce,
The program according to any one of claims 1 to 3.
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
請求項4に記載のプログラム。 The first scene is a scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to claim 4.
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
請求項4に記載のプログラム。 The first scene is a scene that goes back a predetermined time from the scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to claim 4.
前記ユーザの操作に応じて、前記第1リストに登録された前記シーン情報に含まれる情報を変更するステップを実行させる、
請求項1から請求項6のいずれか一項に記載のプログラム。 The program is added to the processor.
A step of changing the information included in the scene information registered in the first list is executed according to the operation of the user.
The program according to any one of claims 1 to 6.
請求項1から請求項7のいずれか一項に記載のプログラム。 The scene information presented to the user in the presented step includes a thumbnail image showing the first scene.
The program according to any one of claims 1 to 7.
請求項1から請求項8のいずれか一項に記載のプログラム。 The registration step comprises notifying the user that the registration is complete.
The program according to any one of claims 1 to 8.
前記情報処理方法は、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させることを含み、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生し、
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記提示するステップは、複数のコンテンツの中から1のコンテンツが選択された場合に、選択された前記1のコンテンツに関する情報とともに、選択された前記1のコンテンツに関連付けられている1以上の前記シーン情報を提示することを含み、
前記再生するステップは、前記提示するステップにおいて提示された前記1のコンテンツに関する情報が選択された場合に、前記シーン情報によらずに前記1のコンテンツを再生することを含む、
情報処理方法。 An information processing method that is executed on a computer equipped with a processor.
The information processing method is applied to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
Including running
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the scene information of the 1 selected in the accepting step .
A plurality of the scene information can be registered in the first list in association with one content.
In the step presented, when one content is selected from a plurality of contents, one or more said scenes associated with the selected one content together with information about the selected one content. Including presenting information
The reproduction step includes reproducing the content of 1 regardless of the scene information when the information relating to the content of 1 presented in the presenting step is selected.
Information processing method.
前記プロセッサは、
コンテンツを再生し、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定し、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録し、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示し、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるものであり、
前記選択を受け付けたことに応じて、前記コンテンツの再生を実行し、選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生し、
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記シーン情報を提示することは、複数のコンテンツの中から1のコンテンツが選択された場合に、選択された前記1のコンテンツに関する情報とともに、選択された前記1のコンテンツに関連付けられている1以上の前記シーン情報を提示することを含み、
前記再生することは、提示された前記1のコンテンツに関する情報が選択された場合に、前記シーン情報によらずに前記1のコンテンツを再生することを含む、
情報処理装置。 An information processing device equipped with a processor
The processor
Play the content and
The first scene in the content is identified based on the user's first operation.
The scene information including the information for identifying the first scene is registered in the first list, and the scene information is registered.
In response to the operation of the user, one or more of the scene information registered in the first list is presented to the user.
In response to the operation of the user, the selection of one scene information from the one or more scene information presented to the user is accepted.
In response to the acceptance of the selection, the content is reproduced, and the content is reproduced from the first scene specified by the selected scene information of the one.
A plurality of the scene information can be registered in the first list in association with one content.
Presenting the scene information means that when one content is selected from a plurality of contents, one or more related to the selected one content together with the information about the selected one content. Including presenting the scene information of
The reproduction includes, when the presented information regarding the content of 1 is selected, the content of 1 is reproduced regardless of the scene information.
Information processing device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208521A JP6913812B1 (en) | 2020-12-16 | 2020-12-16 | Programs, information processing methods, and information processing equipment |
JP2021111958A JP2022095523A (en) | 2020-12-16 | 2021-07-06 | Program, information processing method and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208521A JP6913812B1 (en) | 2020-12-16 | 2020-12-16 | Programs, information processing methods, and information processing equipment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021111958A Division JP2022095523A (en) | 2020-12-16 | 2021-07-06 | Program, information processing method and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6913812B1 true JP6913812B1 (en) | 2021-08-04 |
JP2022095287A JP2022095287A (en) | 2022-06-28 |
Family
ID=77057563
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020208521A Active JP6913812B1 (en) | 2020-12-16 | 2020-12-16 | Programs, information processing methods, and information processing equipment |
JP2021111958A Pending JP2022095523A (en) | 2020-12-16 | 2021-07-06 | Program, information processing method and information processing device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021111958A Pending JP2022095523A (en) | 2020-12-16 | 2021-07-06 | Program, information processing method and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6913812B1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008312183A (en) * | 2007-05-15 | 2008-12-25 | Sony Corp | Information processing apparatus, method, and program |
JP2010087595A (en) * | 2008-09-29 | 2010-04-15 | Hitachi Ltd | Bookmark registration method, bookmark registration system, user terminal, and server |
WO2010098096A1 (en) * | 2009-02-25 | 2010-09-02 | シャープ株式会社 | Portable terminal device, content player, bookmark management server, bookmark management system, bookmark management method, content playback method, bookmark management server control method, control program, and recording medium |
KR102319456B1 (en) * | 2014-12-15 | 2021-10-28 | 조은형 | Method for reproduing contents and electronic device performing the same |
US10057616B1 (en) * | 2015-01-08 | 2018-08-21 | The Directv Group, Inc. | Systems and methods for accessing bookmarked content |
JP2018098763A (en) * | 2016-12-09 | 2018-06-21 | 日本放送協会 | Book mark device, tag analysis system, book mark analysis system, scene sharing system, book mark method, and book mark program |
-
2020
- 2020-12-16 JP JP2020208521A patent/JP6913812B1/en active Active
-
2021
- 2021-07-06 JP JP2021111958A patent/JP2022095523A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022095287A (en) | 2022-06-28 |
JP2022095523A (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230022781A1 (en) | User interfaces for viewing and accessing content on an electronic device | |
JP6283703B2 (en) | Local and remote media item management | |
US11956291B2 (en) | Station creation | |
WO2018184488A1 (en) | Video dubbing method and device | |
WO2019105438A1 (en) | Video special effect adding method and apparatus, and smart mobile terminal | |
US8564563B2 (en) | Video chapter access and license renewal | |
JP5233708B2 (en) | Information processing apparatus, information processing method, and program | |
US9519402B2 (en) | Screen display method in mobile terminal and mobile terminal using the method | |
US10558698B2 (en) | Lyric page generation method and lyric page generation apparatus | |
KR101954794B1 (en) | Apparatus and method for multimedia content interface in visual display terminal | |
US20160085410A1 (en) | Display apparatus and displaying method thereof | |
KR20110080530A (en) | Method and apparatus for setting of repeat playing section in a portable terminal | |
US20110145745A1 (en) | Method for providing gui and multimedia device using the same | |
CN111050203B (en) | Video processing method and device, video processing equipment and storage medium | |
WO2018157812A1 (en) | Method and apparatus for implementing video branch selection and playback | |
KR20140031717A (en) | Method and apparatus for managing contents | |
CN105359121A (en) | Remote operation of applications using received data | |
KR20140105342A (en) | Method and apparatus for providing user interface in portable terminal | |
US11233895B2 (en) | Automatic wallpaper setting method, terminal device, and graphical user interface | |
US9798512B1 (en) | Context-based volume adjustment | |
KR20150048523A (en) | Electronic device and method for controlling screen | |
WO2023024921A1 (en) | Video interaction method and apparatus, and device and medium | |
CN109462777B (en) | Video heat updating method, device, terminal and storage medium | |
WO2024016902A1 (en) | Multimedia playing method and device, storage medium, and program product | |
JP6913812B1 (en) | Programs, information processing methods, and information processing equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210122 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210122 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6913812 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |