JP6913812B1 - Programs, information processing methods, and information processing equipment - Google Patents

Programs, information processing methods, and information processing equipment Download PDF

Info

Publication number
JP6913812B1
JP6913812B1 JP2020208521A JP2020208521A JP6913812B1 JP 6913812 B1 JP6913812 B1 JP 6913812B1 JP 2020208521 A JP2020208521 A JP 2020208521A JP 2020208521 A JP2020208521 A JP 2020208521A JP 6913812 B1 JP6913812 B1 JP 6913812B1
Authority
JP
Japan
Prior art keywords
scene
content
information
user
scene information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020208521A
Other languages
Japanese (ja)
Other versions
JP2022095287A (en
Inventor
一晃 澤木
一晃 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2020208521A priority Critical patent/JP6913812B1/en
Priority to JP2021111958A priority patent/JP2022095523A/en
Application granted granted Critical
Publication of JP6913812B1 publication Critical patent/JP6913812B1/en
Publication of JP2022095287A publication Critical patent/JP2022095287A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】音楽や動画等を視聴する際におけるユーザビリティを向上させる。【解決手段】プロセッサを備えたコンピュータにおいて実行されるプログラムである。プログラムは、プロセッサに、コンテンツを再生するステップと、ユーザの第1操作に基づいて、コンテンツ中の第1シーンを特定するステップと、第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、ユーザの操作に応じて、第1リストに登録されている1以上のシーン情報をユーザに提示するステップと、提示された1以上のシーン情報の中から1のシーン情報の選択を受け付けるステップと、を実行させる。プログラムは、プロセッサに、受け付けるステップで選択された1のシーン情報によって特定される第1シーンから、コンテンツを再生させる。【選択図】図11PROBLEM TO BE SOLVED: To improve usability when viewing music, moving images and the like. A program executed on a computer including a processor. The program first lists, in the processor, a step of playing the content, a step of identifying the first scene in the content based on the user's first operation, and scene information including information for identifying the first scene. A step of presenting one or more scene information registered in the first list to the user according to the operation of the user, and a step of presenting one or more scene information from the presented one or more scene information. Execute the step of accepting the selection and the step. The program causes the processor to play the content from the first scene identified by the one scene information selected in the accepting step. [Selection diagram] FIG. 11

Description

本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to programs, information processing methods, and information processing devices.

多数の動画コンテンツや音楽コンテンツ等のコンテンツをユーザに提供するサービスが知られている(例えば、非特許文献1)。また、このようなサービスでは、いわゆるお気に入りリストやウォッチリストと呼ばれる機能が提供されていることが多い。視聴したいコンテンツをウォッチリストに登録しておけば、多数のコンテンツの中からそのコンテンツを再度探し出さずとも、ウォッチリストを参照することで、そのコンテンツに簡単にアクセスすることができる。 A service that provides a large number of contents such as video contents and music contents to a user is known (for example, Non-Patent Document 1). In addition, such services often provide functions called a so-called favorite list or watch list. If you register the content you want to watch in the watch list, you can easily access the content by referring to the watch list without having to search for the content again from a large number of contents.

“You Tube”,[online],[令和2年8月26日検索],インターネット<https://www.youtube.com>“You Tube”, [online], [Searched on August 26, 2nd year of Reiwa], Internet <https://www.youtube.com>

しかし、上記のウォッチリストは、登録されたコンテンツ自体へのアクセスを容易にしてくれるが、そのコンテンツに含まれる特定のシーンへのアクセスを容易にするものではない。例えば、あるコンテンツの特定のシーンを見たいがために、そのコンテンツをウォッチリストに登録している場合、まずウォッチリストを利用してそのコンテンツを再生させた後に、ユーザは、その特定のシーンを探し出さなければならない。特に、そのコンテンツが長時間尺である場合、特定のシーンを探し出す作業は、ユーザにとって大きなストレスとなり得る。 However, although the above watch list facilitates access to the registered content itself, it does not facilitate access to a specific scene contained in the content. For example, if a user wants to see a specific scene of a certain content and the content is registered in the watch list, the user first plays the content using the watch list, and then the user views the specific scene. I have to find out. In particular, when the content is long-term, the task of finding a specific scene can be a great stress for the user.

また、非特許文献1のようなサービスでは、コンテンツの視聴中にその視聴を止めた場合、後に、そのコンテンツに再アクセスをして視聴を再開しようとすると、前回の視聴時に視聴を止めたシーンから再生を再開する機能を提供していることもある。しかし、このような機能では、視聴再開時に再生されるシーンが毎回異なることになる。すなわち、このような機能は、特定のシーンを繰り返し簡単に視聴することを可能にするものではない。 Further, in a service such as Non-Patent Document 1, if the viewing is stopped while the content is being viewed, if the content is later re-accessed and the viewing is resumed, the viewing is stopped at the time of the previous viewing. It may also provide a function to resume playback from. However, with such a function, the scene played when viewing is resumed will be different each time. That is, such a function does not enable easy viewing of a specific scene repeatedly.

本開示の一態様は、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能なプログラム、情報処理方法、及び情報処理装置を提供することを目的とする。 One aspect of the present disclosure is to provide a program, an information processing method, and an information processing device capable of improving usability when viewing music, moving images, and the like.

本開示に示す一実施形態によれば、
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
プログラム、が提供される。
According to one embodiment presented in the present disclosure.
A program that runs on a computer with a processor
The program is delivered to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
To run,
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the one scene information selected in the accepting step.
The program, is provided.

本開示に示す一実施形態によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。 According to one embodiment shown in the present disclosure, it is possible to improve usability when viewing music, moving images, and the like.

ある実施の形態に従うシステムの構成例を示す図である。It is a figure which shows the configuration example of the system which follows a certain embodiment. ある実施の形態に従うユーザ端末の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the user terminal according to a certain embodiment. ある実施の形態に従うサーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional configuration of the server according to a certain embodiment. ある実施の形態に従うコンテンツ再生に係る処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which concerns on the content reproduction according to a certain embodiment. ある実施の形態に従う表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen according to a certain embodiment. ある実施の形態に従うシークバーにおける時間量の変更例を示す模式図である。It is a schematic diagram which shows the example of changing the amount of time in a seek bar according to a certain embodiment. ある実施の形態に従うシークバーにおける時間量の変更の別例を示す模式図である。It is a schematic diagram which shows another example of the change of the amount of time in a seek bar according to a certain embodiment. ある実施の形態に従うシークバーにおける時間量の変更の別例を示す模式図である。It is a schematic diagram which shows another example of the change of the amount of time in a seek bar according to a certain embodiment. ある実施の形態に従うユーザ端末の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the user terminal according to a certain embodiment. ある実施の形態に従うコンテンツ再生に係る処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which concerns on the content reproduction according to a certain embodiment. ある実施の形態に従う表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen according to a certain embodiment. ある実施の形態に従う表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen according to a certain embodiment. ある実施の形態に従う表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen according to a certain embodiment.

以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品等には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same parts and the like are designated by the same reference numerals. Their names and functions are the same. Therefore, the detailed description of them will not be repeated. In one or more embodiments set forth in the present disclosure, the elements included in each embodiment may be combined with each other, and the combined deliverables shall also form part of the embodiments set forth in the present disclosure.

[第1の実施形態]
(システムの構成)
以下、本開示に係る一実施形態として、ユーザが再生を希望するコンテンツを当該ユーザの所有する情報処理装置において再生可能とするシステムを例示して説明する。ここで、「コンテンツ」とは、デジタル機器において利用可能なデジタルコンテンツのことをいい、例えば、動画や音楽等が挙げられる。
[First Embodiment]
(System configuration)
Hereinafter, as an embodiment according to the present disclosure, a system in which the content desired to be reproduced by the user can be reproduced by the information processing device owned by the user will be described as an example. Here, the "content" refers to digital content that can be used in a digital device, and examples thereof include moving images and music.

図1は、本実施形態のシステム1の構成を示す図である。図1に示すように、システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。 FIG. 1 is a diagram showing a configuration of the system 1 of the present embodiment. As shown in FIG. 1, the system 1 includes an information processing device used by a user and a server 20, and these devices are communicatively connected to each other by a network 30.

図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数の携帯端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。 In the example of FIG. 1, as the information processing device used by the user, the user terminal 10A, the user terminal 10B, and the user terminal 10C (hereinafter, the user terminals such as the user terminals 10A, 10B, and 10C are collectively referred to as "user terminal 10". It indicates multiple mobile terminals such as (may be described). The user terminal 10A and the user terminal 10B are connected to the network 30 by communicating with the wireless base station 31. The user terminal 10C connects to the network 30 by communicating with the wireless router 32 installed in a facility such as a house.

ユーザ端末10は、携帯型の情報端末であってもよいし、設置型の情報端末であってもよい。ユーザ端末10は、タッチスクリーンを備えていてもよいし、備えていなくてもよい。以下では、ユーザ端末10がタッチスクリーンを備える携帯型端末であり、具体的には、スマートフォン、ファブレット、タブレットなどであるものとして、説明をする。 The user terminal 10 may be a portable information terminal or an stationary information terminal. The user terminal 10 may or may not have a touch screen. In the following, the user terminal 10 will be described as a portable terminal provided with a touch screen, specifically, a smartphone, a phablet, a tablet, or the like.

ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウェアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、サーバ20と通信し、コンテンツに関連するデータ等をサーバ20との間で送受信することにより、ユーザ端末10上でコンテンツを再生することを可能とする。 The user terminal 10 executes, for example, a program installed via a platform for distributing an application or the like, or a program including pre-installed website browsing software. By executing the above program, the user terminal 10 communicates with the server 20 and transmits / receives data or the like related to the content to / from the server 20 so that the content can be reproduced on the user terminal 10.

サーバ20は、コンテンツの再生に必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10上でのコンテンツの再生を支援する。サーバ20は、各ユーザに関連する各種データを管理する。サーバ20は、ユーザ端末10と通信し、ユーザ端末10からの要求に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。 The server 20 supports the reproduction of the content on the user terminal 10 by appropriately transmitting the data necessary for the reproduction of the content to the user terminal 10. The server 20 manages various data related to each user. The server 20 communicates with the user terminal 10 and transmits images, sounds, text data and other data to the user terminal 10 in response to a request from the user terminal 10.

図1に示すようにサーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続されている。 As shown in FIG. 1, the server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29 as hardware configurations, and these are connected to each other via a communication bus. It is connected.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。 The communication IF 22 supports various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as a user terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。 The input / output IF 23 functions as an interface for accepting input of information to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts the connection of information input devices such as a mouse and a keyboard, and an output unit that accepts the connection of information output devices such as a display for displaying images and the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。 The memory 25 is a storage device for storing data or the like used for processing. The memory 25 provides the processor 29 with a work area for temporary use, for example, when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、コンテンツを提供するためのプログラム、コンテンツに関連する情報、各ユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。なお、ストレージ26は、サーバ20に含まれる形態に限られず、クラウドサービスを利用することもできる 。 The storage 26 is a storage device for storing various programs and data for the processor 29 to read and execute. The information stored in the storage 26 includes a program for providing the content, information related to the content, information of each user, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory. The storage 26 is not limited to the form included in the server 20, and a cloud service can also be used.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。 The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

(ユーザ端末の構成)
図2は、ユーザ端末10の機能的な構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部(プロセッサ)190とを含む。
(Configuration of user terminal)
FIG. 2 is a block diagram showing a functional configuration of the user terminal 10. As shown in FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a voice processing unit 160, a microphone 170, a speaker 180, and the like. Includes a control unit (processor) 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。 The antenna 110 radiates a signal emitted by the user terminal 10 into space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。 Since the user terminal 10 communicates with other communication devices, the wireless communication IF 120 performs modulation / demodulation processing for transmitting / receiving signals via the antenna 110 or the like. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, etc., performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the user terminal 10, and supplies a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、コンテンツやコンテンツを操作するためのGUIを画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。 The touch screen 130 receives input from the user and outputs information to the user on the display 132. The touch screen 130 includes a touch panel 131 for accepting a user's input operation and a display 132 for displaying a content or a GUI for operating the content on the screen. The touch panel 131 detects that a user's finger or the like approaches by using, for example, a capacitance type touch panel. The display 132 is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or other display device.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。 The input / output IF 140 functions as an interface for accepting input of information to the user terminal 10 and outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、RAM等により構成され、ユーザ端末10上でコンテンツを再生するためのプログラム151、及び、ユーザのID情報等を含むユーザ情報152を記憶する。また、記憶部150は、ユーザ端末10がサーバ20から受信する各種データ等を記憶する。 The storage unit 150 is composed of a flash memory, RAM, and the like, and stores a program 151 for playing back content on the user terminal 10 and user information 152 including user ID information and the like. Further, the storage unit 150 stores various data and the like received by the user terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。 The voice processing unit 160 performs modulation / demodulation of the voice signal. The voice processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. Further, the voice processing unit 160 gives a voice signal to the speaker 180. The voice processing unit 160 is realized by, for example, a processor for voice processing. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the user terminal 10.

制御部190は、プログラム151を読み込んで実行することにより、操作受付部191と、送受信部192と、再生部193と、表示制御部194と、変更部195と、の各機能を発揮する。 By reading and executing the program 151, the control unit 190 exerts the functions of the operation reception unit 191 and the transmission / reception unit 192, the reproduction unit 193, the display control unit 194, and the change unit 195.

操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、操作受付部191は、ユーザの指などがタッチパネル131に接触(又は接近)したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。 The operation reception unit 191 accepts a user's input operation based on the output of the touch screen 130. Specifically, the operation reception unit 191 detects that the user's finger or the like touches (or approaches) the touch panel 131 as the coordinates of the coordinate system consisting of the horizontal axis and the vertical axis of the surface constituting the touch screen 130. ..

操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。具体的には、操作受付部191は、いわゆる「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「ロングタッチ操作」、「フリック操作」、「スワイプ操作」、「ドラッグ操作」、「ピンチ操作」などのユーザの操作を判別する。操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、操作受付部191は、ユーザが押下した圧力の大きさを判別する。 The operation reception unit 191 determines the user's operation on the touch screen 130. Specifically, the operation reception unit 191 is provided with so-called "approach operation", "release operation", "tap operation", "double tap operation", "long touch operation", "flick operation", "swipe operation", and " Determine user operations such as "drag operation" and "pinch operation". The user's operation determined by the operation reception unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism capable of detecting the magnitude of the pressure pressed by the user with respect to the touch panel 131, the operation reception unit 191 determines the magnitude of the pressure pressed by the user.

なお、本明細書において、「ドラッグ操作」とは、タッチスクリーン130に表示されたアイコン等に指などを接触させた状態から、指をスライドさせる操作であって、表示画面においてアイコン等の移動を伴う操作をいう。一方、「スワイプ操作」とは、タッチスクリーン130に指などを接触させた状態から指をスライドさせる操作であって、アイコン等の移動を伴わないものをいう。 In the present specification, the "drag operation" is an operation of sliding a finger or the like from a state where the finger or the like is brought into contact with the icon or the like displayed on the touch screen 130, and the movement of the icon or the like is performed on the display screen. Refers to the accompanying operation. On the other hand, the "swipe operation" is an operation of sliding a finger or the like from a state where the finger or the like is in contact with the touch screen 130, and does not involve movement of the icon or the like.

操作受付部191は、タッチパネル131とは異なる入力装置におけるユーザの入力操作を受け付け可能であってもよい。具体的には、操作受付部191は、マウス等の入力装置による「クリック操作」、「ダブルクリック操作」、「グラブ操作」など、タッチスクリーン130に対する上記の各種操作に対応する操作を判別するものでもよい。 The operation receiving unit 191 may be capable of receiving a user's input operation in an input device different from the touch panel 131. Specifically, the operation reception unit 191 determines operations corresponding to the above-mentioned various operations on the touch screen 130, such as "click operation", "double click operation", and "grab operation" by an input device such as a mouse. It may be.

送受信部192は、サーバ20との間で、ユーザ端末10でコンテンツを再生するための各種データの送信および受信をおこなう。例えば、送受信部192は、ユーザを識別するための情報や、コンテンツの再生に係る各種の要求をサーバ20へ送信する。また、送受信部192は、コンテンツを再生するためのデータやコンテンツに関連する各種情報をサーバ20から受信する。 The transmission / reception unit 192 transmits and receives various data for reproducing the content on the user terminal 10 with the server 20. For example, the transmission / reception unit 192 transmits information for identifying the user and various requests related to the reproduction of the content to the server 20. In addition, the transmission / reception unit 192 receives data for reproducing the content and various information related to the content from the server 20.

再生部193は、コンテンツの再生に係る処理を行う。再生部193は、送受信部192がサーバ20から受信したコンテンツのデータに基づいて、コンテンツを再生する。コンテンツが画像を伴わない音声(例えば、音楽など)である場合、再生部193によって再生されたコンテンツは、音声処理部160を介して、スピーカ180から音声出力される。コンテンツが画像を伴うもの(例えば、動画など)である場合、上記の音声出力に加えて、表示制御部194を介して、スピーカ180からタッチスクリーン130へ画像出力される。 The reproduction unit 193 performs a process related to the reproduction of the content. The reproduction unit 193 reproduces the content based on the content data received from the server 20 by the transmission / reception unit 192. When the content is audio without an image (for example, music), the content reproduced by the reproduction unit 193 is output from the speaker 180 via the audio processing unit 160. When the content is accompanied by an image (for example, a moving image), in addition to the above-mentioned audio output, the image is output from the speaker 180 to the touch screen 130 via the display control unit 194.

表示制御部194は、再生部193によって再生されたコンテンツをタッチスクリーン130に表示させる。また、表示制御部194は、コンテンツの再生等に係る操作メニューを含むGUIの表示を制御する。 The display control unit 194 causes the touch screen 130 to display the content reproduced by the reproduction unit 193. In addition, the display control unit 194 controls the display of the GUI including the operation menu related to the reproduction of the content and the like.

ある局面において、表示制御部194によって表示されるGUIには、コンテンツの開始から終了までの時間に対応する時間軸(以下、単に「時間軸」とも称する)と、コンテンツの再生に伴って時間軸上を移動し、コンテンツの現在の再生箇所を示すスライダと、を含むシークバーが含まれうる。 In a certain aspect, the GUI displayed by the display control unit 194 has a time axis corresponding to the time from the start to the end of the content (hereinafter, also simply referred to as “time axis”) and a time axis accompanying the reproduction of the content. It may include a seek bar that moves up and includes a slider that shows the current playback location of the content.

変更部195は、スライダに対するユーザの第1操作に応じて、時間軸上の少なくとも一部の領域において、時間軸の単位長さに対応する時間量(以下、単に「時間量」とも称する)を変更する。第1の実施形態における「第1操作」は、時間量を変更するための操作であり、上述した各種の操作のいずれか等であってもよいが、好ましくは、ロングタッチ操作、グラブ操作、ダブルタップ操作、又はダブルクリック操作である。 The change unit 195 determines the amount of time corresponding to the unit length of the time axis (hereinafter, also simply referred to as “time amount”) in at least a part of the area on the time axis according to the user's first operation on the slider. change. The "first operation" in the first embodiment is an operation for changing the amount of time, and may be any of the various operations described above, but is preferably a long touch operation, a grab operation, or the like. It is a double tap operation or a double click operation.

また、変更部195は、時間量が変更されている状態におけるユーザの第2操作に応じて、時間量を変更前の値に戻す処理を実行する。第1の実施形態における「第2操作」は、変更された時間量を元に戻すための操作であり、上述した各種の操作のいずれか等であってもよいが、好ましくは、第1操作(例えば、ロングタッチ操作またはグラブ操作)を終了させる操作、又は、新たなダブルタップ操作もしくはダブルクリック操作である。なお、「第2操作」は、スライダに対する操作であってもよいし、タッチスクリーン130上の任意の位置に対する操作であってもよい。 Further, the change unit 195 executes a process of returning the time amount to the value before the change according to the second operation of the user in the state where the time amount is changed. The "second operation" in the first embodiment is an operation for restoring the changed amount of time, and may be any of the various operations described above, but is preferably the first operation. An operation to end (for example, a long touch operation or a grab operation), or a new double tap operation or double click operation. The "second operation" may be an operation on the slider or an operation on an arbitrary position on the touch screen 130.

(サーバの構成)
図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、通信IF220を含み、プログラム251に従って動作することにより、記憶部250と、制御部290としての機能を発揮する。
(Server configuration)
FIG. 3 is a block diagram showing a functional configuration of the server 20. A detailed configuration of the server 20 will be described with reference to FIG. The server 20 includes a communication IF 220 and operates according to the program 251 to exert functions as a storage unit 250 and a control unit 290.

通信IF220は、サーバ20がユーザ端末10などの外部の通信機器とネットワーク30を介して通信するためのインタフェースである。 The communication IF 220 is an interface for the server 20 to communicate with an external communication device such as the user terminal 10 via the network 30.

記憶部250は、各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、コンテンツ情報252と、ユーザ情報253とを記憶する。 The storage unit 250 stores various programs and data. In a certain aspect, the storage unit 250 stores the program 251 and the content information 252 and the user information 253.

プログラム251は、サーバ20がユーザ端末10と通信して、ユーザ端末10においてコンテンツを再生させるためのプログラムである。プログラム251は、例えば、コンテンツに関連する各種データであるコンテンツ情報252やユーザ情報253等を参照して、ユーザ端末10からの各種要求に応じた処理を制御部290に実行させる。 The program 251 is a program for the server 20 to communicate with the user terminal 10 and reproduce the content on the user terminal 10. The program 251 refers to, for example, content information 252, user information 253, and the like, which are various data related to the content, and causes the control unit 290 to execute processing according to various requests from the user terminal 10.

コンテンツ情報252には、例えば、コンテンツ本体の情報(動画や音楽等を再生するための情報)と、コンテンツ本体に付随する情報(いわゆるメタデータと呼ばれる文字情報や、サムネイル等の画像情報)とが含まれうる。 The content information 252 includes, for example, information of the content body (information for playing a moving image, music, etc.) and information accompanying the content body (character information called metadata, image information such as thumbnails). Can be included.

ユーザ情報253は、ユーザ毎に管理される情報である。ユーザ情報253には、例えば、ユーザIDやパスワード等のユーザの認証を行うための認証情報、各コンテンツの利用履歴に関する情報、ユーザの個人情報等が含まれうる。 The user information 253 is information managed for each user. The user information 253 may include, for example, authentication information for authenticating the user such as a user ID and a password, information on the usage history of each content, personal information of the user, and the like.

制御部290は、プログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、としての機能を発揮する。 By executing the program 251 the control unit 290 functions as a transmission / reception unit 291, a server processing unit 292, and a data management unit 293.

送受信部291は、ユーザ端末10との間で、ユーザ端末10でコンテンツを再生するための各種データの送信および受信をおこなう。例えば、送受信部291は、ユーザを識別するための情報や、コンテンツの再生に係る各種の要求をユーザ端末10から受信する。また、送受信部291は、コンテンツ情報252に記憶された各種情報をユーザ端末10へ送信する。 The transmission / reception unit 291 transmits and receives various data for reproducing the content on the user terminal 10 with the user terminal 10. For example, the transmission / reception unit 291 receives information for identifying the user and various requests related to the reproduction of the content from the user terminal 10. Further, the transmission / reception unit 291 transmits various information stored in the content information 252 to the user terminal 10.

サーバ処理部292は、ユーザ端末10でコンテンツを再生するためにサーバ20において必要となる各種の処理をおこなう。サーバ処理部292は、送受信部291が受信したユーザ端末10からの各種要求に応じて、送受信部291に対して各種データの送信を指示する。また、サーバ処理部292は、サーバ処理部292による各種の演算結果に基づいて、データ管理部293に対して各種データの更新を指示する。 The server processing unit 292 performs various processes required on the server 20 in order to reproduce the content on the user terminal 10. The server processing unit 292 instructs the transmission / reception unit 291 to transmit various data in response to various requests from the user terminal 10 received by the transmission / reception unit 291. Further, the server processing unit 292 instructs the data management unit 293 to update various data based on various calculation results by the server processing unit 292.

データ管理部293は、サーバ処理部292からの指示に基づいて、記憶部250に記憶される各種データを追加/削除/更新する処理をおこなう。 The data management unit 293 performs a process of adding / deleting / updating various data stored in the storage unit 250 based on an instruction from the server processing unit 292.

(動作処理)
次に、図4から図8を参照して、第1の実施形態に係るシステム1の動作処理について説明する。以下では、システム1を動画配信サービスに用いられるシステムとして説明をするが、本開示はこれに限定されるものではない。
(Operation processing)
Next, the operation processing of the system 1 according to the first embodiment will be described with reference to FIGS. 4 to 8. Hereinafter, the system 1 will be described as a system used for the video distribution service, but the present disclosure is not limited to this.

図4は、コンテンツ再生に係る処理の一例を示すフローチャートである。図4に示される処理は、制御部190がプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現されうる。なお、本明細書で説明する各フローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。 FIG. 4 is a flowchart showing an example of processing related to content reproduction. The process shown in FIG. 4 can be realized by the control unit 190 executing the program 151 and the control unit 290 executing the program 251. The order of the processes constituting each of the flowcharts described in the present specification is random as long as the processing contents are not inconsistent or inconsistent, and may be executed in parallel.

まず、ステップS401において、制御部190は、サーバ20から送信されるデータに基づいてコンテンツを再生し、コンテンツをタッチスクリーン130に表示する。ステップS401は、例えば、ユーザの操作入力に応じて実行される。 First, in step S401, the control unit 190 reproduces the content based on the data transmitted from the server 20, and displays the content on the touch screen 130. Step S401 is executed, for example, in response to a user's operation input.

次に、ステップS402において、制御部190は、タッチスクリーン130にシークバーを表示する。ステップS402は、例えば、コンテンツの再生が開始されたことに応じて、又はユーザの操作入力に応じて実行される。 Next, in step S402, the control unit 190 displays a seek bar on the touch screen 130. Step S402 is executed, for example, in response to the start of playback of the content or in response to the user's operation input.

ここで、図5を用いて、ステップS402が実行された場合の表示画面の一例について説明する。図5の例において、タッチスクリーン130上のコンテンツ表示領域501には、ステップS401において再生されたコンテンツが表示されている。 Here, an example of a display screen when step S402 is executed will be described with reference to FIG. In the example of FIG. 5, the content reproduced in step S401 is displayed in the content display area 501 on the touch screen 130.

コンテンツ表示領域501の下方は、GUI表示領域510である。GUI表示領域510には、シークバー511、時間情報514、再生/停止ボタン515、巻き戻しボタン516、早送りボタン517が表示されている。再生/停止ボタン515、巻き戻しボタン516、及び早送りボタン517の機能は、その名称に示すとおりである。 Below the content display area 501 is a GUI display area 510. In the GUI display area 510, a seek bar 511, time information 514, a play / stop button 515, a rewind button 516, and a fast forward button 517 are displayed. The functions of the play / stop button 515, the rewind button 516, and the fast forward button 517 are as shown in their names.

シークバー511は、時間軸512と、スライダ513と、を含む。時間軸512は、コンテンツの開始から終了までの時間に対応する時間軸である。スライダ513は、コンテンツの再生に伴って時間軸512上を移動し、コンテンツの現在の再生箇所を示すものである。 The seek bar 511 includes a time axis 512 and a slider 513. The time axis 512 is a time axis corresponding to the time from the start to the end of the content. The slider 513 moves on the time axis 512 as the content is reproduced, and indicates the current reproduction location of the content.

図5の例において、スライダ513は、コンテンツの再生に伴って時間軸512上を右方向へと動いていく。なお、時間軸512は、スライダ513を挟んだ左右で表示形態(例えば、色、模様、形状など)が異なっている。 In the example of FIG. 5, the slider 513 moves to the right on the time axis 512 as the content is reproduced. The display form (for example, color, pattern, shape, etc.) of the time axis 512 is different on the left and right sides of the slider 513.

ユーザは、スライダ513に対するドラッグ操作や、時間軸512上の任意の点へのタップ操作などによって、スライダ513を時間軸512上の任意の位置に移動させることができる。ユーザの操作によってスライダ513が移動した場合、移動後の位置に対応する箇所からコンテンツの再生がおこなわれる。 The user can move the slider 513 to an arbitrary position on the time axis 512 by dragging the slider 513 or tapping an arbitrary point on the time axis 512. When the slider 513 is moved by the user's operation, the content is played back from the position corresponding to the moved position.

時間情報514には、現在の再生箇所を示す時間と、コンテンツの総再生時間(総尺)とが表示されている。図5の例では、再生されているコンテンツの総再生時間は「60:00」であり、現在の再生箇所を示す時間は「30:00」である。例えば、この状態において、ユーザが、時間軸512の全体の長さの3/4に相当する位置にスライダ513を移動させると、現在の再生箇所を示す時間は「45:00」になり、コンテンツの「45:00」の位置からコンテンツの再生がおこなわれる。 In the time information 514, the time indicating the current playback location and the total playback time (total scale) of the content are displayed. In the example of FIG. 5, the total playback time of the content being played is "60:00", and the time indicating the current playback location is "30:00". For example, in this state, when the user moves the slider 513 to a position corresponding to 3/4 of the total length of the time axis 512, the time indicating the current playback location becomes "45:00", and the content The content is played from the position of "45:00".

図4のフローチャートの説明に戻る。ステップS403において、制御部190が、ユーザによる第1操作を受け付けず(ステップS403においてNo)、ステップS404において、制御部190が、再生箇所を変更する操作を受け付けた場合(ステップS404においてYes)、制御部190は、ステップS405において、コンテンツの再生箇所を変更する。再生箇所を変更する操作とは、図5を用いて説明したように、スライダ513に対するドラッグ操作や、時間軸512上の任意の点へのタップ操作などである。 Returning to the description of the flowchart of FIG. In step S403, when the control unit 190 does not accept the first operation by the user (No in step S403), and in step S404, the control unit 190 accepts the operation of changing the playback location (Yes in step S404). In step S405, the control unit 190 changes the reproduction location of the content. As described with reference to FIG. 5, the operation of changing the playback location includes a drag operation on the slider 513, a tap operation on an arbitrary point on the time axis 512, and the like.

ステップS404において、制御部190が、再生箇所を変更する操作を受け付けていない場合(ステップS404においてNo)、制御部190は、コンテンツの再生を継続し、コンテンツの再生を終了するための操作入力を受け付けたこと等に応じて、再生に係る一連の処理を終了する。コンテンツの再生の終了に関しては、ステップS405の後や、後述するステップS410の後においても同様である。 If the control unit 190 does not accept the operation of changing the playback location in step S404 (No in step S404), the control unit 190 inputs an operation for continuing the playback of the content and ending the playback of the content. A series of processing related to reproduction is terminated according to the acceptance or the like. The same applies to the end of content reproduction after step S405 and after step S410, which will be described later.

ステップS403において、制御部190が、ユーザによる第1操作を受け付けた場合(ステップS403においてYes)、ステップS406に進む。ステップS406において、制御部190は、時間軸512の単位長さに対応する時間量を変更する。 When the control unit 190 receives the first operation by the user in step S403 (Yes in step S403), the process proceeds to step S406. In step S406, the control unit 190 changes the amount of time corresponding to the unit length of the time axis 512.

次に、ステップS407において、制御部190が、再生箇所を変更する操作を受け付けた場合(ステップS407においてYes)、制御部190は、ステップS408において、コンテンツの再生箇所を変更する。一方、ステップS407において、制御部190が、再生箇所を変更する操作を受け付けていない場合(ステップS407においてNo)、例えば、ステップS409へ進む。 Next, when the control unit 190 accepts the operation of changing the reproduction location in step S407 (Yes in step S407), the control unit 190 changes the reproduction location of the content in step S408. On the other hand, if the control unit 190 does not accept the operation of changing the reproduction location in step S407 (No in step S407), the process proceeds to, for example, step S409.

ステップS409において、制御部190が、第2操作を受け付けた場合(ステップS409においてYes)、制御部190は、ステップS410において、時間軸の単位長さに対応する時間量をステップS406の前の状態に戻す。一方、ステップS409において、制御部190が、第2操作を受け付けていない場合(ステップS409においてNo)、例えば、ステップS407へ戻る。 When the control unit 190 receives the second operation in step S409 (Yes in step S409), the control unit 190 sets the amount of time corresponding to the unit length of the time axis in step S410 to the state before step S406. Return to. On the other hand, in step S409, when the control unit 190 does not accept the second operation (No in step S409), the process returns to, for example, step S407.

ここで、図6を用いて、ステップS406〜S410の一連の処理について詳述する。図6は、シークバー511における時間量の変更例を示す模式図である。図6の上部には、ステップS406における変更前のシークバー511が示されており、図6の下部には、ステップS406における変更後のシークバー511’が示されている。 Here, a series of processes in steps S406 to S410 will be described in detail with reference to FIG. FIG. 6 is a schematic view showing an example of changing the amount of time in the seek bar 511. The upper part of FIG. 6 shows the seek bar 511 before the change in step S406, and the lower part of FIG. 6 shows the seek bar 511'after the change in step S406.

なお、本開示の理解を容易にするため、図6では、シークバー511の時間軸512を想像線A1〜A4で区切っている。また、想像線A1〜A2の間を領域R2とし、想像線A2〜A3の間を領域R1とし、想像線A3〜A4の間を領域R3としている。同様に、シークバー511’の時間軸512を想像線A1、A2’、A3’、及びA4で区切っている。また、想像線A1〜A2’の間を領域R2’とし、想像線A2’〜A3’の間を領域R1’とし、想像線A3’〜A4の間を領域R3’としている。なお、想像線A1は、時間軸512の左端に位置し、想像線A4は、時間軸512の右端に位置する。 In addition, in order to facilitate the understanding of the present disclosure, in FIG. 6, the time axis 512 of the seek bar 511 is separated by the imaginary lines A1 to A4. Further, the area between the imaginary lines A1 to A2 is the area R2, the area between the imaginary lines A2 to A3 is the area R1, and the area between the imaginary lines A3 to A4 is the area R3. Similarly, the time axis 512 of the seek bar 511'is separated by the imaginary lines A1, A2', A3', and A4. Further, the area between the imaginary lines A1 to A2'is the area R2', the area between the imaginary lines A2'to A3' is the area R1', and the area between the imaginary lines A3'to A4 is the area R3'. The imaginary line A1 is located at the left end of the time axis 512, and the imaginary line A4 is located at the right end of the time axis 512.

変更前のシークバー511において、時間軸512の単位長さL1に対応する時間量は、「(コンテンツの総再生時間/シークバー511の全長)×単位長さL1の長さ」であり、時間軸512のどの箇所においても同一である。すなわち、変更前では、領域R1〜R3のどの箇所においても、スライダ513を単位長さL1と同じ長さだけ移動させた場合、変化する時間量は同一である。なお、単位長さL1は、タッチスクリーン130における任意の長さであり、タッチスクリーン130上の表示サイズや表示媒体が変われば、単位長さL1に対する時間量も変わる。 In the seek bar 511 before the change, the amount of time corresponding to the unit length L1 of the time axis 512 is "(total playback time of content / total length of seek bar 511) x length of unit length L1", and the time axis 512. It is the same everywhere. That is, before the change, when the slider 513 is moved by the same length as the unit length L1 in any of the regions R1 to R3, the amount of time that changes is the same. The unit length L1 is an arbitrary length on the touch screen 130, and if the display size or display medium on the touch screen 130 changes, the amount of time with respect to the unit length L1 also changes.

一方で、変更後のシークバー511’では、時間軸512上におけるスライダ513の位置を含む連続した第1領域(領域R1’)において、単位長さL1に対応する時間量を小さくしている。すなわち、領域R1’においてスライダ513を単位長さL1だけ移動させた場合、変化する時間量は、変更前のシークバー511においてスライダ513を単位長さL1だけ移動させた場合よりも小さい。 On the other hand, in the changed seek bar 511', the amount of time corresponding to the unit length L1 is reduced in the continuous first region (region R1') including the position of the slider 513 on the time axis 512. That is, when the slider 513 is moved by the unit length L1 in the area R1', the amount of time that changes is smaller than that when the slider 513 is moved by the unit length L1 in the seek bar 511 before the change.

また、時間軸512上における第1領域外の第2領域(領域R2’及びR3’)において、単位長さL1に対応する時間量を大きくしている。すなわち、領域R2’及びR3’においてスライダ513を単位長さL1だけ移動させた場合、変化する時間量は、変更前のシークバー511においてスライダ513を単位長さL1だけ移動させた場合よりも大きい。 Further, in the second region (regions R2'and R3') outside the first region on the time axis 512, the amount of time corresponding to the unit length L1 is increased. That is, when the slider 513 is moved by the unit length L1 in the regions R2'and R3', the amount of time that changes is larger than that when the slider 513 is moved by the unit length L1 in the seek bar 511 before the change.

なお、シークバー511の想像線A2に対応する再生箇所は、シークバー511’の想像線A2’に対応する再生箇所と同一である。また、シークバー511の想像線A3に対応する再生箇所は、シークバー511’の想像線A3’に対応する再生箇所と同一である。すなわち、領域R1’は領域R1に対応し、領域R2’は領域R2に対応し、領域R3’は領域R3に対応している。 The reproduction portion corresponding to the imaginary line A2 of the seek bar 511 is the same as the reproduction portion corresponding to the imaginary line A2'of the seek bar 511'. Further, the reproduction portion corresponding to the imaginary line A3 of the seek bar 511 is the same as the reproduction portion corresponding to the imaginary line A3'of the seek bar 511'. That is, the region R1'corresponds to the region R1, the region R2'corresponds to the region R2, and the region R3'corresponds to the region R3.

以下、理解を容易にするために、コンテンツの総再生時間を「60分」とし、シークバー511の全長を「60」とし、単位長さL1の長さを「1」として説明する。この場合、変更前のシークバー511における単位長さL1当たりの時間量は「1分(=(60分/60)×1)」である。シークバー511おいて、想像線A1からスライダ513までの長さが「30」であり、スライダ513から位置P1までの長さが「15」である場合、スライダ513を位置P1まで移動させると、コンテンツの再生箇所は、「30分」の位置から「45分」の位置まで進むことになる。 Hereinafter, in order to facilitate understanding, the total playback time of the content is set to "60 minutes", the total length of the seek bar 511 is set to "60", and the length of the unit length L1 is set to "1". In this case, the amount of time per unit length L1 in the seek bar 511 before the change is "1 minute (= (60 minutes / 60) x 1)". In the seek bar 511, when the length from the imaginary line A1 to the slider 513 is "30" and the length from the slider 513 to the position P1 is "15", when the slider 513 is moved to the position P1, the content The reproduction point of is advanced from the position of "30 minutes" to the position of "45 minutes".

一方、変更後のシークバー511’において、領域R1’では、単位長さL1当たりの時間量が「1分」よりも小さく、具体的には、「1/4分(15秒)」である。また、領域R2’及びR3’では、単位長さL1当たりの時間量が「1分」よりも大きく、具体的には、「3分」である。 On the other hand, in the changed seek bar 511', in the region R1', the amount of time per unit length L1 is smaller than "1 minute", specifically, "1/4 minute (15 seconds)". Further, in the regions R2'and R3', the amount of time per unit length L1 is larger than "1 minute", specifically, "3 minutes".

スライダ513から位置P2までの長さが「15」である場合において、スライダ513を位置P2まで移動させたると、コンテンツの再生箇所は、「30分」の位置から「33分45秒(=30分+15秒×15)」の位置まで進むことになる。すなわち、シークバー511とシークバー511’とでは、スライダ513の移動量が同一であったとしても、再生箇所が異なることになる。シークバー511’において、再生箇所を「45分」の位置にしようとする場合、例えば、スライダ513を領域R3’内の位置P1’まで移動させることが必要である。 When the length from the slider 513 to the position P2 is "15" and the slider 513 is moved to the position P2, the content playback location is "33 minutes 45 seconds (= 30 minutes)" from the "30 minutes" position. It will proceed to the position of "+15 seconds x 15)". That is, even if the amount of movement of the slider 513 is the same between the seek bar 511 and the seek bar 511', the reproduction points are different. In the seek bar 511', when the reproduction portion is to be set to the position of "45 minutes", for example, it is necessary to move the slider 513 to the position P1'in the area R3'.

なお、図6の例において、第1領域は、スライダ513の位置と、時間軸512上でスライダ513の前(左側)に位置する領域を前領域512aの一部と、時間軸512上でスライダ513の後(右側)に位置する後領域512bの一部と、を含んだ連続した領域であるが、これに限定されるわけではない。第1領域は、スライダ513の位置と、前領域512a及び後領域512のいずれか一方と、を含んだ領域であってもよい。また、第1領域は、前領域512aの全部又は後領域512bの全部を含んだ領域であってもよい。第1領域をどのような領域にするかは、例えば、スライダ513の位置に応じて決定してもよいし、ユーザによって設定可能にしてもよい。 In the example of FIG. 6, the first region includes the position of the slider 513 and the region located in front of the slider 513 (left side) on the time axis 512 as a part of the front region 512a and the slider on the time axis 512. It is a continuous region including a part of the rear region 512b located after (right side) of 513, but is not limited to this. The first region may be a region including the position of the slider 513 and one of the front region 512a and the rear region 512. Further, the first region may be a region including the entire front region 512a or the entire rear region 512b. What kind of area the first area should be may be determined according to the position of the slider 513, or may be set by the user.

また、第1領域と第2領域とは、視覚的に区別可能な態様で表示されることが好ましい。例えば、第1領域と第2領域とでは、時間軸512の太さ、色、模様等を異ならせることが好ましい。また、時間軸512が複数の目盛りを有する場合、第1領域と第2領域とで、目盛りの間隔を異ならせてもよい(図7及び図8参照)。 Further, it is preferable that the first region and the second region are displayed in a visually distinguishable manner. For example, it is preferable that the thickness, color, pattern, etc. of the time axis 512 are different between the first region and the second region. Further, when the time axis 512 has a plurality of scales, the intervals between the scales may be different between the first region and the second region (see FIGS. 7 and 8).

また、図6の例では、第1領域の時間量を小さくしているが、第1領域の時間量を大きくしてもよい。また、図6の例では、第2領域の時間量を大きくしているが、第2領域の時間量は変更せずともよい。この場合、シークバー511’の長さは、シークバー511の長さよりも長くなる。また、時間量の変更度合いは、特に制限されず、ユーザが設定可能なようにしてもよい。 Further, in the example of FIG. 6, the amount of time in the first region is reduced, but the amount of time in the first region may be increased. Further, in the example of FIG. 6, the amount of time in the second region is increased, but the amount of time in the second region does not have to be changed. In this case, the length of the seek bar 511'is longer than the length of the seek bar 511. Further, the degree of change in the amount of time is not particularly limited and may be set by the user.

また、第1領域及び第2領域の長さは、ユーザによって変更可能にしてもよい。例えば、想像線A2’及びA3’を表示させた場合であって、ユーザによる想像線A2’又はA3’に対する所定の操作(例えば、左右へのドラッグ操作)を受け付けた場合、想像線A2’又はA3’の位置を左右のどちらかへ移動させて、領域R1’(第1領域)の長さを変更してもよい。また、第1領域の長さは、予めユーザによって設定可能なようにしてもよい。 Further, the lengths of the first region and the second region may be changed by the user. For example, when the imaginary lines A2'and A3' are displayed and a predetermined operation (for example, a drag operation to the left or right) is accepted for the imaginary line A2'or A3' by the user, the imaginary line A2'or The length of the region R1'(first region) may be changed by moving the position of A3'to either the left or right. Further, the length of the first region may be set in advance by the user.

また、ユーザの第3操作に応じて、変更後のシークバー511’の第1領域又は第2領域の時間量をさらに変化させてもよい。「第3操作」は、変更された時間量をさらに変化させるための操作であり、上述した各種の操作のいずれか等であってもよいが、好ましくは、ドラッグ操作又はスワイプ操作である。なお、「第3操作」は、スライダに対する操作であってもよいし、タッチスクリーン130上の任意の位置に対する操作であってもよい。 Further, the time amount of the first region or the second region of the changed seek bar 511'may be further changed according to the third operation of the user. The "third operation" is an operation for further changing the changed amount of time, and may be any of the various operations described above, but is preferably a drag operation or a swipe operation. The "third operation" may be an operation on the slider or an operation on an arbitrary position on the touch screen 130.

第3操作がドラッグ操作である場合、ドラッグ操作によってスライダ513を移動させる速度に応じて、時間量を変化させてもよい。例えば、スライダ513を移動させる速度が速い場合、時間量が大きくなるように変更し、スライダ513を移動させる速度が遅い場合、時間量が小さくなる又は時間量が変わらないようにすることが好ましい。この場合の時間量の変化は、スライダ513を移動させる速度に応じて段階的に変化するものでもよいし、一次関数又は二次関数的に変化するものでもよいし、これらを併用したものでもよい。 When the third operation is a drag operation, the amount of time may be changed according to the speed at which the slider 513 is moved by the drag operation. For example, when the speed of moving the slider 513 is high, it is preferable to change the time amount to be large, and when the speed of moving the slider 513 is slow, it is preferable that the time amount is small or the time amount does not change. The change in the amount of time in this case may be a stepwise change according to the speed at which the slider 513 is moved, a linear function or a quadratic function change, or a combination thereof. ..

図7は、図6に示した例の別例であり、シークバー711における時間量の変更例を示す模式図である。具体的には、図7は、シークバー711に目盛りを設けた場合の例である。また、図7は、スライダ513が時間軸512の端部近傍にある状態で第1操作がなされた場合の例である。 FIG. 7 is another example of the example shown in FIG. 6, and is a schematic diagram showing an example of changing the amount of time in the seek bar 711. Specifically, FIG. 7 is an example in which the seek bar 711 is provided with a scale. Further, FIG. 7 is an example in which the first operation is performed with the slider 513 near the end of the time axis 512.

シークバー711において、時間軸512は、複数の目盛りを有しており、目盛りによって区間B1,B2,・・・等の複数の区間に区切られている。シークバー711において、想像線A2は、時間軸512の左端に位置する想像線A1と同位置である。想像線A3は、区間B8と区間B9の間に位置する。また、想像線A2(A1)と想像線A3との間を領域R11とし、想像線A3と時間軸512の右端に位置する想像線A4との間を領域R12としている。スライダ513は、細長い矩形状である。シークバー711において、単位長さL1(図7では図示せず)に対応する時間量は、時間軸512のどの箇所においても同一である。 In the seek bar 711, the time axis 512 has a plurality of scales, and is divided into a plurality of sections such as sections B1, B2, ... By the scales. In the seek bar 711, the imaginary line A2 is at the same position as the imaginary line A1 located at the left end of the time axis 512. The imaginary line A3 is located between the section B8 and the section B9. Further, the area R11 is defined between the imaginary line A2 (A1) and the imaginary line A3, and the area R12 is defined between the imaginary line A3 and the imaginary line A4 located at the right end of the time axis 512. The slider 513 has an elongated rectangular shape. In the seek bar 711, the amount of time corresponding to the unit length L1 (not shown in FIG. 7) is the same at any part of the time axis 512.

シークバー711’は、単位長さL1に対応する時間量を変更した後の状態を示している。領域R11’及び領域R12’は、領域R11及び領域R12にそれぞれ対応している。区間B1’,B2’,・・・等は、区間B1,B2,・・・等にそれぞれ対応している。区間B3’と区間B3に対応する時間量は同一であるが、区間B3’の長さは、区間B3の長さよりも長い。したがって、単位長さL1に対応する時間量は、領域R11よりも領域R11’の方が小さい。一方で、単位長さL1に対応する時間量は、領域R12よりも領域R12’の方が大きい。 The seek bar 711'shows the state after changing the amount of time corresponding to the unit length L1. The region R11'and the region R12'correspond to the region R11 and the region R12, respectively. The sections B1', B2', ..., Etc. correspond to the sections B1, B2, ..., Etc., respectively. The amount of time corresponding to the section B3'and the section B3 is the same, but the length of the section B3'is longer than the length of the section B3. Therefore, the amount of time corresponding to the unit length L1 is smaller in the region R11'than in the region R11. On the other hand, the amount of time corresponding to the unit length L1 is larger in the region R12'than in the region R12.

シークバー711において、スライダ513は、区間B3と区間B4の間に位置し、時間軸512の左端である想像線A1の近傍にある。また、シークバー711とシークバー711’とでは、スライダ513の位置は変わらない。すなわち、ユーザの第1操作の前後において、スライダ513の位置を変えていない。よって、第1操作がなされると、区間B2’、区間B3’、及び、想像線A2に対応する想像線A2’は、時間軸512の左端である想像線A1からはみ出してしまう。この場合において、区間B1’及びB2’を表示させる、すなわち、時間軸512の全長を長くしてもよいが、図7の例では、時間軸512の長さは変えずに、区間B2’及び区間B3’を非表示にしている。 In the seek bar 711, the slider 513 is located between the section B3 and the section B4, and is near the imaginary line A1 which is the left end of the time axis 512. Further, the position of the slider 513 does not change between the seek bar 711 and the seek bar 711'. That is, the position of the slider 513 is not changed before and after the first operation of the user. Therefore, when the first operation is performed, the section B2', the section B3', and the imaginary line A2' corresponding to the imaginary line A2 protrude from the imaginary line A1 which is the left end of the time axis 512. In this case, the intervals B1'and B2'may be displayed, that is, the total length of the time axis 512 may be lengthened, but in the example of FIG. 7, the length of the time axis 512 is not changed, and the intervals B2'and B2'and are not changed. The section B3'is hidden.

この状態において、例えば、スライダ513を想像線A1の左側へドラッグするような操作がなされた場合、再生箇所を区間B2’〜B1’に対応する箇所へと巻き戻すとともに、再生箇所が想像線A1の位置と一致するようにシークバー711’の表示を変更する。例えば、ユーザがスライダ513を想像線A1の左側へドラッグするような操作を続けると、再生箇所は、まず、区間B2’に対応した箇所になり、区間B2’が想像線A1の位置にくる(見かけ上、区間B2’が想像線A1の右側へと移動していく)。次に、再生箇所は、区間B1’に対応した箇所になり、区間B1’が想像線A1の位置にくる。そして、最終的に、再生箇所は、区間B1’の左端に対応した箇所(コンテンツの冒頭部分)となり、区間B1’の左端が想像線A1の位置にくる。 In this state, for example, when an operation such as dragging the slider 513 to the left side of the imaginary line A1 is performed, the reproduced portion is rewound to the portion corresponding to the section B2'to B1', and the reproduced portion is the imaginary line A1. Change the display of seek bar 711'to match the position of. For example, if the user continues to drag the slider 513 to the left side of the imaginary line A1, the playback location first becomes the location corresponding to the section B2', and the section B2'comes to the position of the imaginary line A1 ( Apparently, section B2'moves to the right of the imaginary line A1). Next, the reproduction portion becomes a portion corresponding to the section B1', and the section B1'comes to the position of the imaginary line A1. Finally, the reproduced portion becomes a portion (the beginning portion of the content) corresponding to the left end of the section B1', and the left end of the section B1'comes to the position of the imaginary line A1.

上記の最終的な状態を示したものが、シークバー711’’である。シークバー711’’における領域R11’’は、領域R11’に対応する。領域R11’’において、区間B1’及びB2’は想像線A1の左側に表示され、ユーザに視認可能になっている。 The seek bar 711 ″ shows the above-mentioned final state. The region R11 ″ in the seek bar 711 ″ corresponds to the region R11 ″. In the area R11 ″, the sections B1 ″ and B2 ″ are displayed on the left side of the imaginary line A1 and are visible to the user.

領域R12’’は、領域R12’に対応する。区間B1’及びB2’が表示されたことに伴い、領域R12’’の長さは領域R12’よりも短くなり、区間B9’’の長さも区間B9’よりも短くなっている。すなわち、単位長さL1に対応する時間量は、領域R12’よりも領域R12’’の方が大きい。 The region R12 ″ corresponds to the region R12 ″. With the display of the sections B1'and B2', the length of the area R12 ″ is shorter than that of the area R12 ″, and the length of the section B9 ″ is also shorter than that of the section B9 ″. That is, the amount of time corresponding to the unit length L1 is larger in the region R12 ″ than in the region R12 ″.

なお、ユーザの操作入力を受け付けた場合(例えば、想像線A3’を表示させた場合であって、想像線A3’の位置を区間B9’’の右端まで移動させるようなユーザの操作を受け付けた場合)、想像線A3’の位置を区間B9’’の右端へ移動させてもよい。すなわち、区間B9’’の長さを長くし、区間B9’’が領域R11’’に含まれるようにしてもよい。つまり、ユーザの操作入力に基づいて、領域R11’’及び領域R12’’の長さを変更してもよい。なお、シークバー711’においても同様である。 When the user's operation input is accepted (for example, when the imaginary line A3'is displayed, the user's operation such as moving the position of the imaginary line A3' to the right end of the section B9'' is accepted. Case), the position of the imaginary line A3'may be moved to the right end of the section B9''. That is, the length of the section B9 ″ may be increased so that the section B9 ″ is included in the region R11 ″. That is, the lengths of the area R11 ″ and the area R12 ″ may be changed based on the operation input of the user. The same applies to the seek bar 711'.

図8は、図6に示した例の別例であり、シークバー811における時間量の変更例を示す模式図である。具体的には、図8は、第1操作後に、表示するシークバーを増加させる場合の例である。 FIG. 8 is another example of the example shown in FIG. 6, and is a schematic diagram showing an example of changing the amount of time in the seek bar 811. Specifically, FIG. 8 is an example in which the seek bar to be displayed is increased after the first operation.

シークバー811において、時間軸512は、複数の目盛りを有しており、目盛りによって区間B11,B12,B13,・・・等の複数の区間に区切られている。スライダ513は、区間B12に位置している。シークバー811において、想像線A2は、区間B12の左端と同位置である。想像線A3は、区間B12の右方の所定の位置である。想像線A1と想像線A2との間を領域R22とし、想像線A2と想像線A3との間を領域R21とし、想像線A3と想像線A4との間を領域R23としている。シークバー811において、単位長さL1(図8では図示せず)に対応する時間量は、時間軸512のどの箇所においても同一である。 In the seek bar 811, the time axis 512 has a plurality of scales, and is divided into a plurality of sections such as sections B11, B12, B13, ... By the scales. The slider 513 is located in section B12. In the seek bar 811 the imaginary line A2 is at the same position as the left end of the section B12. The imaginary line A3 is a predetermined position on the right side of the section B12. The area between the imaginary line A1 and the imaginary line A2 is the area R22, the area between the imaginary line A2 and the imaginary line A3 is the area R21, and the area between the imaginary line A3 and the imaginary line A4 is the area R23. In the seek bar 811 the amount of time corresponding to the unit length L1 (not shown in FIG. 8) is the same at any part of the time axis 512.

シークバー811’は、単位長さL1に対応する時間量を変更した後の状態を示している。シークバー811’における想像線A2’及びA3’、区間B11’、B12’及びB13’、並びに、R21’、R22’、及びR23’は、シークバー811における想像線A2及びA3、区間B11、B12及びB13、並びに、領域R21、R22及びR23にそれぞれ対応する。 The seek bar 811'shows the state after changing the amount of time corresponding to the unit length L1. The imaginary lines A2'and A3', sections B11', B12' and B13', and R21', R22', and R23' in seek bar 811'are the imaginary lines A2 and A3, sections B11, B12 and B13 in seek bar 811. , And regions R21, R22 and R23, respectively.

区間B12’と区間B12に対応する時間量は同一であるが、区間B12’の長さは、区間B12の長さよりも長い。したがって、単位長さL1に対応する時間量は、領域R21よりも領域R21’の方が小さい。一方で、単位長さL1に対応する時間量は、領域R22よりも領域R22’の方が大きい。なお、シークバー811からシークバー811’への変更の前後において、スライダ513の位置は変わらない。 The amount of time corresponding to the section B12'and the section B12 is the same, but the length of the section B12' is longer than the length of the section B12. Therefore, the amount of time corresponding to the unit length L1 is smaller in the region R21'than in the region R21. On the other hand, the amount of time corresponding to the unit length L1 is larger in the region R22'than in the region R22. The position of the slider 513 does not change before and after the change from the seek bar 811 to the seek bar 811'.

また、図8の例では、シークバー811からシークバー811’への変更の際に、シークバー811’の近傍に、さらにシークバー812を表示している。シークバー812における想像線A2’’及びA3’’、区間B12’’及びB13’’、並びに、領域R21’’は、シークバー811’における想像線A2’及びA3’、区間B12’及びB13’、並びに、領域R21’にそれぞれ対応する。 Further, in the example of FIG. 8, when the seek bar 811 is changed to the seek bar 811', the seek bar 812 is further displayed in the vicinity of the seek bar 811'. The imaginary lines A2 ″ and A3 ″ in the seek bar 812, the sections B12 ″ and B13 ″, and the region R21 ″ are the imaginary lines A2 ′ and A3 ′ in the seek bar 811 ′, the sections B12 ′ and B13 ′, and , Corresponds to the region R21', respectively.

シークバー812は、領域R21’に含まれる各区間のみを表示し、該各区間の長さを長くしたものである。区間B12’’を2つ合わせて、区間B12’の時間量と同一になる。したがって、単位長さL1に対応する時間量は、領域R21’よりも領域R21’’の方が小さい。ユーザの操作入力に基づいて、領域R21’’及び領域R22’’に含まれる区間を変更してもよい。 The seek bar 812 displays only each section included in the region R21', and the length of each section is lengthened. The two sections B12 ″ are combined to be the same as the amount of time in the section B12 ″. Therefore, the amount of time corresponding to the unit length L1 is smaller in the region R21 ″ than in the region R21 ″. The section included in the area R21 ″ and the area R22 ″ may be changed based on the operation input of the user.

スライダ513’は、スライダ513に対応する。スライダ513’及びスライダ513は、指し示す再生箇所が同じであり、互いに連動して動く。ユーザは、スライダ513及び513’のどちらに対して操作をしてもよい。スライダ513’を操作する場合、スライダ513を操作する場合と比較して、再生箇所の微調整が容易である。 The slider 513'corresponds to the slider 513. The slider 513'and the slider 513 have the same playback location and move in conjunction with each other. The user may operate on either the slider 513 or 513'. When operating the slider 513', fine adjustment of the reproduction portion is easier than when operating the slider 513.

なお、シークバー812の表示は、スライダ513に対するユーザの操作に基づいて生じるものとしてもよい。また、想像線A2’または想像線A3’に対するユーザの操作に基づいて生じるものとしてもよい。ユーザの操作としては、例えば所定時間タップした状態を継続したり、ダブルタップをしたり等がある。 The display of the seek bar 812 may be generated based on the user's operation on the slider 513. Further, it may be generated based on the user's operation on the imaginary line A2'or the imaginary line A3'. The user's operation includes, for example, continuing the tapped state for a predetermined time, double tapping, and the like.

シークバー812の表示後、ユーザによる所定の操作等に応じて、シークバー812の表示を解除(非表示)にしてもよい。また、シークバー812の表示中は、シークバー513’、想像線A2’’、又は想像線A3’’に対する操作を受け付けることができる態様にしてもよい。 After displaying the seek bar 812, the display of the seek bar 812 may be canceled (hidden) according to a predetermined operation or the like by the user. Further, while the seek bar 812 is being displayed, an operation on the seek bar 513 ″, the imaginary line A2 ″, or the imaginary line A3 ″ may be accepted.

また、図8においては、シークバー812の領域R21’’に示される長さはシークバー811’の長さと同様の長さに表示されているが、このような表示形式に限定されず、シークバー811’の長さと異なってもよい。シークバー812の領域R21’’に示される長さは、スライダ513、スライダ513’、想像線A2’、想像線A3’、想像線A2’’、又は想像線A3’’に対するユーザの操作に基づいて、変更することができる。例えば、想像線A2’をユーザがスライド操作することによって、シークバー812の長さや、シークバー812に含まれる区間が変更されることとしてもよい。 Further, in FIG. 8, the length shown in the region R21 ″ of the seek bar 812 is displayed to have the same length as the length of the seek bar 811 ′, but is not limited to such a display format and is not limited to such a display format. It may be different from the length of. The length shown in the area R21'' of the seek bar 812 is based on the user's operation on the slider 513, slider 513', imaginary line A2', imaginary line A3', imaginary line A2'', or imaginary line A3''. , Can be changed. For example, the length of the seek bar 812 and the section included in the seek bar 812 may be changed by the user sliding the imaginary line A2'.

[第2の実施形態]
次に、本開示の第2の実施形態を説明する。第2の実施形態では、第1の実施形態で説明した内容を矛盾の生じない範囲で採用できる。例えば、第2の実施形態に係るシステムの構成は、図1を用いて説明した内容と同様である。また、第2の実施形態に係るサーバの構成は、図2を用いて説明した内容と同様である。
[Second Embodiment]
Next, a second embodiment of the present disclosure will be described. In the second embodiment, the contents described in the first embodiment can be adopted within a range that does not cause a contradiction. For example, the configuration of the system according to the second embodiment is the same as the content described with reference to FIG. Further, the configuration of the server according to the second embodiment is the same as the content described with reference to FIG.

(ユーザ端末の構成)
図9は、第2の実施形態に係るユーザ端末10’の機能的な構成を示すブロック図である。以下では、図2に示したユーザ端末10と異なる点や、ユーザ端末10の説明において言及していなかった点を説明する。
(Configuration of user terminal)
FIG. 9 is a block diagram showing a functional configuration of the user terminal 10'according to the second embodiment. Hereinafter, points different from the user terminal 10 shown in FIG. 2 and points not mentioned in the description of the user terminal 10 will be described.

ユーザ端末10’において、制御部190は、プログラム151を読み込んで実行することにより、操作受付部191、送受信部192、再生部193、表示制御部194、登録部196としての機能を発揮する。ユーザ端末10’の制御部190は、さらに、第1の実施形態において述べた変更部195としての機能を発揮するように構成してもよい。 In the user terminal 10', the control unit 190 exerts functions as an operation reception unit 191, a transmission / reception unit 192, a reproduction unit 193, a display control unit 194, and a registration unit 196 by reading and executing the program 151. The control unit 190 of the user terminal 10'may be further configured to exert the function as the change unit 195 described in the first embodiment.

登録部196は、ユーザの第1操作に基づいて、コンテンツ中の第1シーンを特定する。また、登録部196は、第1シーンを特定する情報を含むシーン情報を、第1リスト(以下、「シーンリスト」とも称する)に登録する。シーンリストに関する情報は、例えば、記憶部150又はサーバ20の記憶部250に記憶される。なお、シーンリストは、1以上のシーン情報が登録されたリストである。 The registration unit 196 identifies the first scene in the content based on the first operation of the user. Further, the registration unit 196 registers the scene information including the information for identifying the first scene in the first list (hereinafter, also referred to as "scene list"). Information about the scene list is stored in, for example, the storage unit 150 or the storage unit 250 of the server 20. The scene list is a list in which one or more scene information is registered.

ここで、第2の実施形態における「第1操作」は、第1シーンを特定するための操作であり、第1の実施形態において述べた各種の操作のいずれか等であってもよい。なお、以降の説明において「第1操作」といった場合、第2の実施形態における第1操作のことを指す。 Here, the "first operation" in the second embodiment is an operation for specifying the first scene, and may be any of the various operations described in the first embodiment. In the following description, the term "first operation" refers to the first operation in the second embodiment.

「第1操作」は、好ましくは、ロングタッチ操作、グラブ操作、ダブルタップ操作、又はダブルクリック操作、フリック操作、スワイプ操作、ピンチ操作、又はタップ操作であり、より好ましくは、ダブルタップ操作である。また、「第1操作」は、タッチスクリーン130上の任意の位置に対する操作であってもよいが、好ましくは、タッチスクリーン130上で再生されているコンテンツに対する操作である。 The "first operation" is preferably a long touch operation, a grab operation, a double tap operation, or a double click operation, a flick operation, a swipe operation, a pinch operation, or a tap operation, and more preferably a double tap operation. .. Further, the "first operation" may be an operation for an arbitrary position on the touch screen 130, but is preferably an operation for the content being played on the touch screen 130.

また、ある局面において、登録部196は、ユーザの第1操作又は第2操作に基づいて、コンテンツ中の第2シーンを特定する。第2シーンが特定された場合、登録部196によってシーンリストに登録されるシーン情報には、第1シーンを特定する情報に加えて、第2シーンを特定する情報が含まれる。 Further, in a certain aspect, the registration unit 196 identifies a second scene in the content based on the user's first operation or second operation. When the second scene is specified, the scene information registered in the scene list by the registration unit 196 includes information for specifying the second scene in addition to the information for specifying the first scene.

ここで、第2の実施形態における「第2操作」は、第2シーンを特定するための操作であり、第1の実施形態において述べた各種の操作のいずれか等であってもよい。なお、以降の説明において「第2操作」といった場合、第2の実施形態における第2操作のことを指す。第2操作については、第1操作に関して説明した内容を援用する。 Here, the "second operation" in the second embodiment is an operation for specifying the second scene, and may be any of the various operations described in the first embodiment. In the following description, the term "second operation" refers to the second operation in the second embodiment. For the second operation, the contents explained about the first operation are incorporated.

表示制御部194は、ユーザの操作に応じて、シーンリストに登録されている1以上のシーン情報をユーザに提示するため、当該1以上のシーン情報をタッチスクリーン130上に表示する。 The display control unit 194 displays the one or more scene information on the touch screen 130 in order to present the one or more scene information registered in the scene list to the user in response to the user's operation.

また、表示制御部194によってタッチスクリーン130上に表示された1以上のシーン情報の中から1のシーン情報を選択するユーザの操作入力を操作受付部191が受け付けたことに応じて、再生部193は、選択された1のシーン情報によって特定される第1シーンから、コンテンツの再生を開始する。また、シーン情報に第2シーンを特定する情報が含まれている場合、再生部193は、コンテンツの第1シーンから第2シーンまでを再生する。 Further, in response to the operation reception unit 191 receiving the operation input of the user who selects one scene information from the one or more scene information displayed on the touch screen 130 by the display control unit 194, the playback unit 193. Starts playback of the content from the first scene specified by the selected scene information. Further, when the scene information includes information for specifying the second scene, the reproduction unit 193 reproduces the first scene to the second scene of the content.

(動作処理)
次に、図10から図13を参照して、第2の実施形態に係るシステム1の動作処理について説明する。第2の実施形態においても、システム1を動画配信サービスに用いられるシステムとして説明をするが、本開示はこれに限定されるものではない。
(Operation processing)
Next, the operation processing of the system 1 according to the second embodiment will be described with reference to FIGS. 10 to 13. Also in the second embodiment, the system 1 will be described as a system used for the video distribution service, but the present disclosure is not limited to this.

図10は、コンテンツ再生に係る処理の一例を示すフローチャートである。図10に示される処理は、制御部190がプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現されうる。 FIG. 10 is a flowchart showing an example of processing related to content reproduction. The process shown in FIG. 10 can be realized by the control unit 190 executing the program 151 and the control unit 290 executing the program 251.

まず、ステップS801において、制御部190は、サーバ20から送信されるデータに基づいてコンテンツを再生し、コンテンツをタッチスクリーン130に表示する。ステップS401は、例えば、ユーザの操作入力に応じて実行される。 First, in step S801, the control unit 190 reproduces the content based on the data transmitted from the server 20, and displays the content on the touch screen 130. Step S401 is executed, for example, in response to a user's operation input.

次に、ステップS802において、制御部190は、ユーザの第1操作に基づいて、コンテンツ中の第1シーンを特定する。次に、ステップS803において、制御部190は、ユーザの第1操作又は第2操作に基づいて、コンテンツ中の第2シーンを特定する。次に、ステップS804において、制御部190は、第1シーンを特定する情報及び第2シーンを特定する情報を含むシーン情報を、シーンリストに登録する。 Next, in step S802, the control unit 190 identifies the first scene in the content based on the first operation of the user. Next, in step S803, the control unit 190 identifies the second scene in the content based on the user's first operation or second operation. Next, in step S804, the control unit 190 registers the scene information including the information for specifying the first scene and the information for specifying the second scene in the scene list.

ここで、図11を用いて、ステップS801〜S804の処理が実行された場合の表示画面の一例について説明する。図11の上部において、タッチスクリーン130には、制御部190によって再生されたコンテンツ901が表示されている。この状態において、ユーザが、第1操作として、タッチスクリーン130においてコンテンツ901が表示されている任意の位置に対してダブルタップ等の操作をすると、少なくとも第1シーンが特定される。 Here, an example of a display screen when the processes of steps S801 to S804 are executed will be described with reference to FIG. At the top of FIG. 11, the touch screen 130 displays the content 901 reproduced by the control unit 190. In this state, when the user performs an operation such as double tapping on an arbitrary position where the content 901 is displayed on the touch screen 130 as the first operation, at least the first scene is specified.

第1シーンは、例えば、第1操作がされた際に再生されていたシーンであってもよいし、第1操作がされた際に再生されていたシーンから所定の時間(例えば、10秒)遡ったシーンであってもよい。この場合の所定の時間は、ユーザが設定可能なようにしてもよい。 The first scene may be, for example, a scene that was being played when the first operation was performed, or a predetermined time (for example, 10 seconds) from the scene that was being played when the first operation was performed. It may be a retrospective scene. The predetermined time in this case may be set by the user.

第2シーンは、例えば、第1操作に基づいて特定されてもよい。この場合、第2シーンは、第1操作がされた際に再生されていたシーンから所定の時間(例えば、1分)が経過したシーンであってもよい。この場合の所定の時間は、ユーザが設定可能なようにしてもよい。 The second scene may be specified, for example, based on the first operation. In this case, the second scene may be a scene in which a predetermined time (for example, 1 minute) has elapsed from the scene that was being played when the first operation was performed. The predetermined time in this case may be set by the user.

また、第2シーンは、例えば、第1操作後に受け付ける第2操作に基づいて特定されてもよい。この場合、第2シーンは、例えば、第2操作がされた際に再生されていたシーンであってもよいし、第2操作がされた際に再生されていたシーンから所定の時間(例えば、10秒)経過したシーンであってもよい。この場合の所定の時間は、ユーザが設定可能なようにしてもよい。 Further, the second scene may be specified based on, for example, a second operation received after the first operation. In this case, the second scene may be, for example, a scene that was being played when the second operation was performed, or a predetermined time (for example, for example) from the scene that was being played when the second operation was performed. It may be a scene that has passed 10 seconds). The predetermined time in this case may be set by the user.

図11の下部は、シーン情報の登録が完了した際のタッチスクリーン130を示している。シーン情報の登録完了後から所定の時間(例えば、1秒)が経過するまでの間、タッチスクリーン130上には、シーン情報の登録が完了したことをユーザに報知するための報知画像910が表示される。なお、ユーザへの報知は、報知画像910の表示に代えて又は加えて、所定の効果音を鳴らす等の音声出力によって行ってもよい。 The lower part of FIG. 11 shows the touch screen 130 when the registration of the scene information is completed. A notification image 910 for notifying the user that the registration of the scene information is completed is displayed on the touch screen 130 from the completion of the registration of the scene information to the elapse of a predetermined time (for example, 1 second). Will be done. Note that the notification to the user may be performed by voice output such as sounding a predetermined sound effect instead of or in addition to the display of the notification image 910.

図10のフローチャートの説明に戻る。ステップS805において、制御部190は、ユーザの操作に応じて、シーンリストに登録されている1以上のシーン情報をユーザに提示する。 Returning to the description of the flowchart of FIG. In step S805, the control unit 190 presents one or more scene information registered in the scene list to the user in response to the user's operation.

なお、ステップS805では、シーンリストの提示の前段階として、いわゆるウォッチリストに登録されているコンテンツをユーザに提示し、ウォッチリストから選択されたコンテンツに対応するシーンリストをユーザに提示してもよい。また、このように構成する場合、シーンリストへの登録に伴って、そのシーンを含むコンテンツを自動的にウォッチリストに登録するようにしてもよい。なお、「ウォッチリスト」とは、例えば、ユーザが選択した1以上のコンテンツを登録したリストである。 In step S805, as a preliminary step of presenting the scene list, the content registered in the so-called watch list may be presented to the user, and the scene list corresponding to the content selected from the watch list may be presented to the user. .. Further, in the case of such a configuration, the content including the scene may be automatically registered in the watch list along with the registration in the scene list. The "watch list" is, for example, a list in which one or more contents selected by the user are registered.

次に、ステップS806において、制御部190が、提示されているシーン情報のうちの1のシーン情報に対する再生要求を受け付けた場合(ステップS806においてYes)、ステップS807において、制御部190は、当該1のシーン情報に対応するシーンを再生する。 Next, in step S806, when the control unit 190 receives a reproduction request for the scene information of one of the presented scene information (Yes in step S806), in step S807, the control unit 190 takes the 1 Play the scene corresponding to the scene information of.

また、制御部190は、ステップS807や後述のステップS809における処理の後、コンテンツの再生等を終了するための操作入力を受け付けたこと等に応じて、再生に係る一連の処理を終了する。 Further, after the processing in step S807 or step S809 described later, the control unit 190 ends a series of processing related to the reproduction in response to receiving an operation input for terminating the reproduction of the content or the like.

ステップS806において、制御部190が、提示されているシーン情報のうちの1のシーン情報に対する再生要求を受け付けていない場合(ステップS806においてNo)、例えば、S808の処理へ進む。ステップS808において、制御部190が、シーン情報の変更要求を受け付けた場合(ステップS808においてYes)、ステップS809において、制御部190は、シーン情報を更新する。ステップS808において、制御部190が、シーン情報の変更要求を受け付けていない場合(ステップS808においてNo)、コンテンツの再生等を終了するための操作入力を受け付けたこと等に応じて、再生に係る一連の処理を終了する。 In step S806, when the control unit 190 has not received the reproduction request for the scene information of one of the presented scene information (No in step S806), the process proceeds to, for example, S808. When the control unit 190 receives the scene information change request in step S808 (Yes in step S808), the control unit 190 updates the scene information in step S809. In step S808, when the control unit 190 has not received the scene information change request (No in step S808), a series of reproductions are related in response to the acceptance of the operation input for terminating the reproduction of the content or the like. Ends the processing of.

ここで、図12及び13を用いて、ステップS805に関連する処理が実行された場合の表示画面の一例について説明する。図12は、シーンリストの表示の前段階として、ウォッチリストを表示している表示画面の一例である。 Here, an example of a display screen when the process related to step S805 is executed will be described with reference to FIGS. 12 and 13. FIG. 12 is an example of a display screen displaying the watch list as a preliminary step of displaying the scene list.

図12の例において、タッチスクリーン130には、ユーザがウォッチリストに登録している各コンテンツA〜Fに対応するサムネイル画像901T〜906Tが表示されている。ユーザが、サムネイル画像901T〜906Tのいずれかを選択する操作をした場合、例えば、選択されたサムネイル画像に対応するコンテンツのシーンリストが表示されうる。 In the example of FIG. 12, the touch screen 130 displays thumbnail images 901T to 906T corresponding to the contents A to F registered by the user in the watch list. When the user performs an operation of selecting any of the thumbnail images 901T to 906T, for example, a scene list of contents corresponding to the selected thumbnail image may be displayed.

図13は、図12の例においてサムネイル画像901Tが選択された場合の表示画面の一例である。図12の例では、コンテンツAに関する情報とともに、コンテンツAに関連付けられた複数のシーン情報を表示している。具体的には、タッチスクリーン130の左側の領域に、サムネイル画像901Tと、サムネイル画像901Tに対応するコンテンツAに関する文字情報901Mが表示されている。また、タッチスクリーン130の右側の領域には、シーンリストに登録されているコンテンツAの3つのシーン情報が表示されている。 FIG. 13 is an example of a display screen when the thumbnail image 901T is selected in the example of FIG. In the example of FIG. 12, a plurality of scene information associated with the content A is displayed together with the information regarding the content A. Specifically, the thumbnail image 901T and the character information 901M relating to the content A corresponding to the thumbnail image 901T are displayed in the area on the left side of the touch screen 130. Further, in the area on the right side of the touch screen 130, three scene information of the content A registered in the scene list is displayed.

より詳細には、1つ目のシーン情報として、1つ目のシーン情報を示すサムネイル画像910aと、時間情報910bとが表示されている。時間情報910bに示されるように、1つ目のシーン情報によって特定されるシーンは、コンテンツAの「11:00〜12:00」のシーンである。サムネイル画像910aは、1つ目のシーン内に含まれるいずれかの画像であり、例えば、第1シーン(11:00のシーン)の画像である。 More specifically, as the first scene information, a thumbnail image 910a showing the first scene information and time information 910b are displayed. As shown in the time information 910b, the scene specified by the first scene information is the scene of "11:00 to 12:00" of the content A. The thumbnail image 910a is any image included in the first scene, and is, for example, an image of the first scene (11:00 scene).

同様に、2つ目のシーン情報として、2つ目のシーン情報を示すサムネイル画像920a及び時間情報920bが表示され、3つ目のシーン情報として、3つ目のシーン情報を示すサムネイル画像930a及び時間情報930bが表示されている。時間情報920b及び930bに示されるように、3つ目のシーンは、2つ目のシーンの一部である。例えば、2つ目のシーンは、ゴルフの第6ホールのプレイ開始からプレイ終了までのシーンであり、3つ目のシーンは、上記第6ホールにて特定の選手のパッティングのシーンである。 Similarly, as the second scene information, the thumbnail image 920a and the time information 920b indicating the second scene information are displayed, and as the third scene information, the thumbnail image 930a and the thumbnail image 930a indicating the third scene information are displayed. The time information 930b is displayed. The third scene is part of the second scene, as shown in the time information 920b and 930b. For example, the second scene is a scene from the start of play of the sixth hole of golf to the end of play, and the third scene is a scene of putting a specific player in the sixth hole.

図13に示す表示画面において、ユーザがいずれかのシーン情報を選択する等の操作をしたことに応じて、選択したシーン情報に対応するシーンが再生される。例えば、ユーザがサムネイル画像910aをタップ操作等によって選択すると、コンテンツAの「11:00」のシーン(第1シーン)から「12:00」のシーン(第2シーン)までが再生される。なお、サムネイル画像901Tを選択する等の操作がなされた場合、コンテンツAの冒頭から再生が開示される。 On the display screen shown in FIG. 13, a scene corresponding to the selected scene information is reproduced in response to an operation such as selecting one of the scene information by the user. For example, when the user selects the thumbnail image 910a by tapping or the like, the content A from the "11:00" scene (first scene) to the "12:00" scene (second scene) is played back. When an operation such as selecting the thumbnail image 901T is performed, the reproduction is disclosed from the beginning of the content A.

また、シーンリストに登録されたシーン情報は、ユーザが所定の操作をすることによって、変更可能である。例えば、ユーザがシーン情報を変更するための仮想ボタン(図示せず)を押下した場合や、サムネイル画像910a,920a,930aや時間情報910b,920b,930b等に対して所定の操作(再生するための選択操作とは異なる操作)をした場合、第1シーンや第2シーンを変更しうる。例えば、ユーザは、1つ目のシーン情報を変更する操作をすることによって、1つ目のシーンを「10:30〜12:10」のシーンに変更することができる。また、ユーザは、第1シーンや第2シーンの変更の有無に関わらず、サムネイル画像910aを、1つ目のシーンに含まれる他の画像に変更することができる。 Further, the scene information registered in the scene list can be changed by the user performing a predetermined operation. For example, when the user presses a virtual button (not shown) for changing the scene information, or for a predetermined operation (playback) for thumbnail images 910a, 920a, 930a, time information 910b, 920b, 930b, etc. When an operation different from the selection operation of is performed), the first scene and the second scene can be changed. For example, the user can change the first scene to a scene of "10:30 to 12:10" by performing an operation of changing the first scene information. Further, the user can change the thumbnail image 910a to another image included in the first scene regardless of whether or not the first scene or the second scene is changed.

以上、本開示に係る各実施形態について詳細に説明したが、プログラムの動作に支障が生じない限り、各実施形態の説明において制御部190が実行していた処理を制御部290が担当してもよく、制御部290が実行していた処理を制御部190が担当してもよい。また、上述の各実施形態では、ユーザ端末とサーバ装置とを含むシステムの形態を説明したが、本開示に係るプログラムは、ユーザ端末のみで処理が完結するいわゆるスタンドアロン型の形態であってもよい。 Although each embodiment according to the present disclosure has been described in detail above, the control unit 290 may be in charge of the processing executed by the control unit 190 in the description of each embodiment as long as the operation of the program is not hindered. Often, the control unit 190 may be in charge of the processing executed by the control unit 290. Further, in each of the above-described embodiments, the form of the system including the user terminal and the server device has been described, but the program according to the present disclosure may be a so-called stand-alone type in which the processing is completed only by the user terminal. ..

また、上記の各実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 In addition, each of the above embodiments is merely an example for facilitating the understanding of the present invention, and is not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes an equivalent thereof.

[付記事項]
本開示の内容を列記すると以下の通りである。
[Additional notes]
The contents of this disclosure are listed below.

(項目1)
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツの開始から終了までの時間に対応する時間軸、及びコンテンツの再生に伴って前記時間軸上を移動し、前記コンテンツの現在の再生箇所を示すスライダ、を含むシークバーを表示するステップと、
前記スライダに対するユーザの第1操作に応じて、前記時間軸上の少なくとも一部の領域において、前記時間軸の単位長さに対応する時間量を変更するステップと、
を実行させる、プログラム。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 1)
A program that runs on a computer with a processor
The program is delivered to the processor.
A step of displaying a seek bar that includes a time axis corresponding to the time from the start to the end of the content, and a slider that moves on the time axis as the content is played and indicates the current playback location of the content.
A step of changing the amount of time corresponding to the unit length of the time axis in at least a part of the area on the time axis according to the user's first operation on the slider.
A program that runs.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.

(項目2)
前記第1操作は、前記スライダに対するロングタッチ操作、グラブ操作、ダブルタップ操作、又はダブルクリック操作である、
項目1に記載のプログラム。
この構成によれば、例えば、指を1本使用するだけの簡単な操作によって単位長さに対応する時間量の変更を行うことができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 2)
The first operation is a long touch operation, a grab operation, a double tap operation, or a double click operation on the slider.
The program described in item 1.
According to this configuration, for example, the amount of time corresponding to the unit length can be changed by a simple operation using only one finger. As a result, usability can be further improved.

(項目3)
前記プログラムは、前記プロセッサに、さらに、
前記変更するステップが実行されている状態における前記ユーザの第2操作に応じて、前記変更するステップにおいて変更された前記時間軸の単位長さに対応する前記時間量を変更前の値に戻すステップを実行させ、
前記第2操作は、前記第1操作である前記ロングタッチ操作もしくは前記グラブ操作を終了させる操作、又は、新たなダブルタップ操作もしくはダブルクリック操作である、
項目2に記載のプログラム。
この構成によれば、例えば、指を1本使用するだけの簡単な操作によって単位長さに対応する時間量を元の状態に戻すことができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 3)
The program is added to the processor.
A step of returning the amount of time corresponding to the unit length of the time axis changed in the changing step to the value before the change in response to the second operation of the user in the state where the changing step is being executed. To execute,
The second operation is an operation of ending the long touch operation or the grab operation, which is the first operation, or a new double tap operation or double click operation.
The program described in item 2.
According to this configuration, for example, the amount of time corresponding to the unit length can be returned to the original state by a simple operation using only one finger. As a result, usability can be further improved.

(項目4)
前記変更するステップは、
前記時間軸上における前記スライダの位置を含む連続した第1領域において、前記時間軸の単位長さに対応する前記時間量を小さくするステップである、
項目1から項目3のいずれか一項に記載のプログラム。
この構成によれば、スライダの位置を含む第1領域、すなわち、現在の再生箇所の周辺において単位長さに対応する時間量が小さくなるため、現在の再生箇所の微調整が容易になる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 4)
The step to change is
This is a step of reducing the amount of time corresponding to the unit length of the time axis in a continuous first region including the position of the slider on the time axis.
The program according to any one of items 1 to 3.
According to this configuration, since the amount of time corresponding to the unit length is reduced in the first region including the position of the slider, that is, around the current reproduction portion, fine adjustment of the current reproduction portion becomes easy. As a result, usability can be further improved.

(項目5)
前記変更するステップは、さらに、
前記時間軸上における前記第1領域外の第2領域において、前記時間軸の単位長さに対応する前記時間量を大きくすることを含む、
項目4に記載のプログラム。
この構成によれば、例えば、時間軸の全長を変更したり、単位長さに対応する時間量を変更した領域を元々の時間軸に加えて別途表示したりすることなく、時間軸の単位長さに対応する時間量を変更することができる。
(Item 5)
The step to change further
In a second region outside the first region on the time axis, the amount of time corresponding to the unit length of the time axis is increased.
The program according to item 4.
According to this configuration, for example, the unit length of the time axis is not changed, or the area in which the amount of time corresponding to the unit length is changed is not displayed separately in addition to the original time axis. The corresponding amount of time can be changed.

(項目6)
前記第1領域は、前記時間軸上で前記スライダの前に位置する前領域の少なくとも一部と、前記時間軸上で前記スライダの後に位置する後領域の少なくとも一部と、を含む連続した領域である、
項目5又は項目6に記載のプログラム。
この構成によれば、単位長さに対応する時間量がスライダの前方向及び後方向の両方で変更されるため、例えば、ユーザが目的とする再生箇所がスライダの前後のどちらにあるかユーザが把握していない場合にも対応できる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 6)
The first region is a continuous region including at least a part of a front region located in front of the slider on the time axis and at least a part of a rear region located after the slider on the time axis. Is,
The program according to item 5 or item 6.
According to this configuration, the amount of time corresponding to the unit length is changed both in the front direction and the rear direction of the slider, so that, for example, the user can determine whether the playback point intended by the user is before or after the slider. Even if you do not know it, you can handle it. As a result, usability can be further improved.

(項目7)
前記変更するステップが実行されたことに応じて、前記時間軸の単位長さに対応する前記時間量が異なる2以上の領域が前記時間軸に含まれる場合に、
前記表示するステップは、前記2以上の領域を視覚的に区別可能な態様で表示する、
項目1から項目6のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、単位長さに対応する時間量が異なる区間を視覚によって容易に区別可能となる。結果として、ユーザが意図しない操作を減らし、ユーザビリティを更に向上させることが可能である。
(Item 7)
When the time axis includes two or more regions having different amounts of time corresponding to the unit length of the time axis according to the execution of the step to be changed.
The display step displays the two or more areas in a visually distinguishable manner.
The program according to any one of items 1 to 6.
According to this configuration, for example, the user can easily visually distinguish the sections in which the amount of time corresponding to the unit length is different. As a result, it is possible to reduce unintended operations by the user and further improve usability.

(項目8)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの第3操作に応じて、前記変更するステップにおいて変更された前記時間軸の単位長さに対応する前記時間量をさらに変化させるステップを実行させる、
項目1から項目7のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、自己の操作によって時間軸の単位長さに対応する時間量を更に変化させることができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 8)
The program is added to the processor.
In response to the third operation of the user, the step of further changing the amount of time corresponding to the unit length of the time axis changed in the step of changing is executed.
The program according to any one of items 1 to 7.
According to this configuration, for example, the user can further change the amount of time corresponding to the unit length of the time axis by his / her own operation. As a result, usability can be further improved.

(項目9)
前記第3操作は、ドラッグ操作であり、
前記さらに変化させるステップは、前記ドラッグ操作によって前記スライダを移動させる速度に応じて、前記時間軸の単位長さに対応する前記時間量を変化させる、
項目8に記載のプログラム。
この構成によれば、例えば、ユーザは、直感的で簡単な操作によって時間軸の単位長さに対応する時間量を更に変化させることができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 9)
The third operation is a drag operation.
The further changing step changes the amount of time corresponding to the unit length of the time axis according to the speed at which the slider is moved by the drag operation.
The program according to item 8.
According to this configuration, for example, the user can further change the amount of time corresponding to the unit length of the time axis by an intuitive and simple operation. As a result, usability can be further improved.

(項目10)
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
コンテンツの開始から終了までの時間に対応する時間軸、及びコンテンツの再生に伴って前記時間軸上を移動し、前記コンテンツの現在の再生箇所を示すスライダ、を含むシークバーを表示するステップと、
前記スライダに対するユーザの第1操作に応じて、前記時間軸上の少なくとも一部の領域において、前記時間軸の単位長さに対応する時間量を変更するステップと、
を実行させることを含む、情報処理方法。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 10)
An information processing method that is executed on a computer equipped with a processor.
The information processing method is applied to the processor.
A step of displaying a seek bar that includes a time axis corresponding to the time from the start to the end of the content, and a slider that moves on the time axis as the content is played and indicates the current playback location of the content.
A step of changing the amount of time corresponding to the unit length of the time axis in at least a part of the area on the time axis according to the user's first operation on the slider.
Information processing methods, including the execution of.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.

(項目11)
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
コンテンツの開始から終了までの時間に対応する時間軸、及びコンテンツの再生に伴って前記時間軸上を移動し、前記コンテンツの現在の再生箇所を示すスライダ、を含むシークバーを表示し、
前記スライダに対するユーザの第1操作に応じて、前記時間軸上の少なくとも一部の領域において、前記時間軸の単位長さに対応する時間量を変更する、
情報処理装置。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 11)
An information processing device equipped with a processor
The processor
A seek bar is displayed that includes a time axis corresponding to the time from the start to the end of the content, and a slider that moves on the time axis as the content is played and indicates the current playback location of the content.
In response to the user's first operation on the slider, the amount of time corresponding to the unit length of the time axis is changed in at least a part of the area on the time axis.
Information processing device.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.

(項目12)
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
プログラム。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 12)
A program that runs on a computer with a processor
The program is delivered to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
To run,
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the one scene information selected in the accepting step.
program.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.

(項目13)
前記第1操作は、ロングタッチ操作、グラブ操作、ダブルタップ操作、ダブルクリック操作、フリック操作、スワイプ操作、ピンチ操作、又はタップ操作である、
項目12に記載のプログラム。
この構成によれば、簡単な操作によってシーン情報を第1リストに登録することができる。結果として、音楽や動画等を視聴する際におけるユーザビリティを更に向上させることが可能である。
(Item 13)
The first operation is a long touch operation, a grab operation, a double tap operation, a double click operation, a flick operation, a swipe operation, a pinch operation, or a tap operation.
The program according to item 12.
According to this configuration, the scene information can be registered in the first list by a simple operation. As a result, it is possible to further improve usability when viewing music, moving images, and the like.

(項目14)
前記再生するステップは、タッチスクリーン上で前記コンテンツを再生するステップであり、
前記第1操作は、前記タッチスクリーン上で再生されている前記コンテンツに対するダブルタップ操作である、
項目13に記載のプログラム。
この構成によれば、例えば、指を1本使用するだけの簡単な操作によって、ユーザが希望するシーンを第1リストへ登録することができる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 14)
The reproduction step is a step of reproducing the content on the touch screen.
The first operation is a double tap operation on the content being played on the touch screen.
The program according to item 13.
According to this configuration, for example, a scene desired by the user can be registered in the first list by a simple operation using only one finger. As a result, usability can be further improved.

(項目15)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの前記第1操作又は第2操作に基づいて、前記コンテンツ中の第2シーンを特定するステップを実行させ、
前記登録するステップで登録される前記シーン情報には、前記第2シーンを特定する情報が含まれ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから前記第2シーンまで、前記コンテンツを再生する、
項目12から項目14のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、コンテンツにおける特定のシーン間を繰り返して視聴することが容易になる。結果として、ユーザビリティを更に向上させることが可能になる。
(Item 15)
The program is added to the processor.
Based on the first operation or the second operation of the user, the step of identifying the second scene in the content is executed.
The scene information registered in the registration step includes information for identifying the second scene.
In response to the execution of the accepting step, the reproduction step is executed, and the content is displayed from the first scene to the second scene specified by the scene information of the first selected in the accepting step. Reproduce,
The program according to any one of items 12 to 14.
According to this configuration, for example, the user can easily watch the content repeatedly between specific scenes. As a result, usability can be further improved.

(項目16)
前記第1シーンは、前記第1操作がされた際に再生されていたシーンであり、
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
項目15に記載のプログラム。
この構成によれば、例えば、ユーザは、一つの操作によって再生の始点となるシーンと再生の終点となるシーンを第1リストに登録することができる。結果として、ユーザビリティを更に向上させることが可能になる。
(Item 16)
The first scene is a scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to item 15.
According to this configuration, for example, the user can register a scene that is a start point of reproduction and a scene that is an end point of reproduction in the first list by one operation. As a result, usability can be further improved.

(項目17)
前記第1シーンは、前記第1操作がされた際に再生されていたシーンから所定の時間遡ったシーンであり、
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
項目15に記載のプログラム。
この構成によれば、例えば、ユーザは、一つの操作によって再生の始点となるシーンと再生の終点となるシーンを第1リストに登録することができる。結果として、ユーザビリティを更に向上させることが可能になる。また、例えば、お気に入りシーンの前後の流れも楽しみたいというユーザの要求を満たすことが可能になる。
(Item 17)
The first scene is a scene that goes back a predetermined time from the scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to item 15.
According to this configuration, for example, the user can register a scene that is a start point of reproduction and a scene that is an end point of reproduction in the first list by one operation. As a result, usability can be further improved. Further, for example, it becomes possible to satisfy the user's request to enjoy the flow before and after the favorite scene.

(項目18)
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記提示するステップは、1のコンテンツに関する情報とともに、当該1のコンテンツに関連付けられた複数の前記シーン情報を提示することが可能である、
項目12から項目17のいずれか一項に記載のプログラム。
この構成によれば、例えば、1のコンテンツに対して複数のお気に入りシーンを登録したいというユーザの要求を満たすことができる。また、例えば、ユーザは、1のコンテンツとともに、当該1のコンテンツに対する複数のお気に入りシーンを一覧的に確認できる。
(Item 18)
A plurality of the scene information can be registered in the first list in association with one content.
The presenting step can present a plurality of the scene information associated with the one content together with the information about the one content.
The program according to any one of items 12 to 17.
According to this configuration, for example, it is possible to satisfy a user's request to register a plurality of favorite scenes for one content. Further, for example, the user can collectively check one content and a plurality of favorite scenes for the one content in a list.

(項目19)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの操作に応じて、前記第1リストに登録された前記シーン情報に含まれる情報を変更するステップを実行させる、
項目12から項目18のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、再生の始点となるシーンや再生の終点となるシーンなどを容易に変更することが可能になる。結果として、ユーザビリティを更に向上させることが可能である。
(Item 19)
The program is added to the processor.
A step of changing the information included in the scene information registered in the first list is executed according to the operation of the user.
The program according to any one of items 12 to 18.
According to this configuration, for example, the user can easily change a scene that is a start point of reproduction, a scene that is an end point of reproduction, and the like. As a result, usability can be further improved.

(項目20)
前記提示するステップにおいて前記ユーザに提示される前記シーン情報は、前記第1シーンを示すサムネイル画像を含む、
項目12から項目19のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、提示されたシーン情報がコンテンツ中のどのシーンに対応するかを容易に把握できるようになる。
(Item 20)
The scene information presented to the user in the presented step includes a thumbnail image showing the first scene.
The program according to any one of items 12 to 19.
According to this configuration, for example, the user can easily grasp which scene in the content the presented scene information corresponds to.

(項目21)
前記登録するステップは、前記登録が完了したことをユーザに報知することを含む、
項目12から請求項20のいずれか一項に記載のプログラム。
この構成によれば、例えば、ユーザは、登録が完了したことを容易に把握できるようになる。
(Item 21)
The registration step comprises notifying the user that the registration is complete.
The program according to any one of items 12 to 20.
According to this configuration, for example, the user can easily grasp that the registration is completed.

(項目22)
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させることを含み、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
情報処理方法。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 22)
An information processing method that is executed on a computer equipped with a processor.
The information processing method is applied to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
Including running
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the one scene information selected in the accepting step.
Information processing method.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.

(項目23)
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
コンテンツを再生し、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定し、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録し、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示し、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるものであり、
前記選択を受け付けたことに応じて、前記コンテンツの再生を実行し、選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生する、
情報処理装置。
この構成によれば、音楽や動画等を視聴する際におけるユーザビリティを向上させることが可能である。
(Item 23)
An information processing device equipped with a processor
The processor
Play the content and
The first scene in the content is identified based on the user's first operation.
The scene information including the information for identifying the first scene is registered in the first list, and the scene information is registered.
In response to the operation of the user, one or more of the scene information registered in the first list is presented to the user.
In response to the operation of the user, the selection of one scene information from the one or more scene information presented to the user is accepted.
In response to the acceptance of the selection, the content is reproduced, and the content is reproduced from the first scene specified by the selected scene information of the one.
Information processing device.
According to this configuration, it is possible to improve usability when viewing music, moving images, and the like.

1:システム、10,10’:ユーザ端末、20:サーバ、30:ネットワーク、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、191:操作受付部、192:送受信部、193:再生部、194:表示制御部、195:変更部、196:登録部、197:表示制御部、250:(サーバの)記憶部、290:(サーバの)制御部 1: System, 10, 10': User terminal, 20: Server, 30: Network, 130: Touch screen, 150: Storage unit (of user terminal), 190: Control unit (of user terminal), 191: Operation reception unit , 192: Transmission / reception unit, 193: Playback unit, 194: Display control unit, 195: Change unit, 196: Registration unit, 197: Display control unit, 250: (Server) storage unit, 290: (Server) control unit

Claims (11)

プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生し、
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記提示するステップは、複数のコンテンツの中から1のコンテンツが選択された場合に、選択された前記1のコンテンツに関する情報とともに、選択された前記1のコンテンツに関連付けられている1以上の前記シーン情報を提示することを含み、
前記再生するステップは、前記提示するステップにおいて提示された前記1のコンテンツに関する情報が選択された場合に、前記シーン情報によらずに前記1のコンテンツを再生することを含む、
プログラム。
A program that runs on a computer with a processor
The program is delivered to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
To run,
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the scene information of the 1 selected in the accepting step .
A plurality of the scene information can be registered in the first list in association with one content.
In the step presented, when one content is selected from a plurality of contents, one or more said scenes associated with the selected one content together with information about the selected one content. Including presenting information
The reproduction step includes reproducing the content of 1 regardless of the scene information when the information relating to the content of 1 presented in the presenting step is selected.
program.
前記第1操作は、ロングタッチ操作、グラブ操作、ダブルタップ操作、ダブルクリック操作、フリック操作、スワイプ操作、ピンチ操作、又はタップ操作である、
請求項1に記載のプログラム。
The first operation is a long touch operation, a grab operation, a double tap operation, a double click operation, a flick operation, a swipe operation, a pinch operation, or a tap operation.
The program according to claim 1.
前記再生するステップは、タッチスクリーン上で前記コンテンツを再生するステップであり、
前記第1操作は、前記タッチスクリーン上で再生されている前記コンテンツに対するダブルタップ操作である、
請求項2に記載のプログラム。
The reproduction step is a step of reproducing the content on the touch screen.
The first operation is a double tap operation on the content being played on the touch screen.
The program according to claim 2.
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの前記第1操作または第2操作に基づいて、前記コンテンツ中の第2シーンを特定するステップを実行させ、
前記登録するステップで登録される前記シーン情報には、前記第2シーンを特定する情報が含まれ、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから前記第2シーンまで、前記コンテンツを再生する、
請求項1から請求項3のいずれか一項に記載のプログラム。
The program is added to the processor.
Based on the first operation or the second operation of the user, the step of identifying the second scene in the content is executed.
The scene information registered in the registration step includes information for identifying the second scene.
In response to the execution of the accepting step, the reproduction step is executed, and the content is displayed from the first scene to the second scene specified by the scene information of the first selected in the accepting step. Reproduce,
The program according to any one of claims 1 to 3.
前記第1シーンは、前記第1操作がされた際に再生されていたシーンであり、
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
請求項4に記載のプログラム。
The first scene is a scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to claim 4.
前記第1シーンは、前記第1操作がされた際に再生されていたシーンから所定の時間遡ったシーンであり、
前記第2シーンは、前記第1操作に基づいて特定されるシーンであって、前記第1操作がされた際に再生されていた前記シーンから所定の時間が経過したシーンである、
請求項4に記載のプログラム。
The first scene is a scene that goes back a predetermined time from the scene that was being played when the first operation was performed.
The second scene is a scene specified based on the first operation, and is a scene in which a predetermined time has elapsed from the scene that was being played when the first operation was performed.
The program according to claim 4.
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの操作に応じて、前記第1リストに登録された前記シーン情報に含まれる情報を変更するステップを実行させる、
請求項1から請求項のいずれか一項に記載のプログラム。
The program is added to the processor.
A step of changing the information included in the scene information registered in the first list is executed according to the operation of the user.
The program according to any one of claims 1 to 6.
前記提示するステップにおいて前記ユーザに提示される前記シーン情報は、前記第1シーンを示すサムネイル画像を含む、
請求項1から請求項のいずれか一項に記載のプログラム。
The scene information presented to the user in the presented step includes a thumbnail image showing the first scene.
The program according to any one of claims 1 to 7.
前記登録するステップは、前記登録が完了したことをユーザに報知することを含む、
請求項1から請求項のいずれか一項に記載のプログラム。
The registration step comprises notifying the user that the registration is complete.
The program according to any one of claims 1 to 8.
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
コンテンツを再生するステップと、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定するステップと、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録するステップと、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示するステップと、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるステップと、
を実行させることを含み、
前記受け付けるステップが実行されたことに応じて、前記再生するステップが実行され、前記受け付けるステップで選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生し、
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記提示するステップは、複数のコンテンツの中から1のコンテンツが選択された場合に、選択された前記1のコンテンツに関する情報とともに、選択された前記1のコンテンツに関連付けられている1以上の前記シーン情報を提示することを含み、
前記再生するステップは、前記提示するステップにおいて提示された前記1のコンテンツに関する情報が選択された場合に、前記シーン情報によらずに前記1のコンテンツを再生することを含む、
情報処理方法。
An information processing method that is executed on a computer equipped with a processor.
The information processing method is applied to the processor.
Steps to play the content and
A step of identifying a first scene in the content based on the user's first operation,
A step of registering scene information including information for identifying the first scene in the first list, and
A step of presenting one or more of the scene information registered in the first list to the user in response to the operation of the user.
A step of accepting the selection of one scene information from the one or more scene information presented to the user in response to the operation of the user.
Including running
In response to the execution of the accepting step, the reproduction step is executed, and the content is reproduced from the first scene specified by the scene information of the 1 selected in the accepting step .
A plurality of the scene information can be registered in the first list in association with one content.
In the step presented, when one content is selected from a plurality of contents, one or more said scenes associated with the selected one content together with information about the selected one content. Including presenting information
The reproduction step includes reproducing the content of 1 regardless of the scene information when the information relating to the content of 1 presented in the presenting step is selected.
Information processing method.
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
コンテンツを再生し、
ユーザの第1操作に基づいて、前記コンテンツ中の第1シーンを特定し、
前記第1シーンを特定する情報を含むシーン情報を、第1リストに登録し、
前記ユーザの操作に応じて、前記第1リストに登録されている1以上の前記シーン情報を前記ユーザに提示し、
前記ユーザの操作に応じて、前記ユーザに提示された前記1以上の前記シーン情報の中から1のシーン情報の選択を受け付けるものであり、
前記選択を受け付けたことに応じて、前記コンテンツの再生を実行し、選択された前記1のシーン情報によって特定される前記第1シーンから、前記コンテンツを再生し、
前記第1リストには、1のコンテンツに関連付けて複数の前記シーン情報を登録することが可能であり、
前記シーン情報を提示することは、複数のコンテンツの中から1のコンテンツが選択された場合に、選択された前記1のコンテンツに関する情報とともに、選択された前記1のコンテンツに関連付けられている1以上の前記シーン情報を提示することを含み、
前記再生することは、提示された前記1のコンテンツに関する情報が選択された場合に、前記シーン情報によらずに前記1のコンテンツを再生することを含む、
情報処理装置。
An information processing device equipped with a processor
The processor
Play the content and
The first scene in the content is identified based on the user's first operation.
The scene information including the information for identifying the first scene is registered in the first list, and the scene information is registered.
In response to the operation of the user, one or more of the scene information registered in the first list is presented to the user.
In response to the operation of the user, the selection of one scene information from the one or more scene information presented to the user is accepted.
In response to the acceptance of the selection, the content is reproduced, and the content is reproduced from the first scene specified by the selected scene information of the one.
A plurality of the scene information can be registered in the first list in association with one content.
Presenting the scene information means that when one content is selected from a plurality of contents, one or more related to the selected one content together with the information about the selected one content. Including presenting the scene information of
The reproduction includes, when the presented information regarding the content of 1 is selected, the content of 1 is reproduced regardless of the scene information.
Information processing device.
JP2020208521A 2020-12-16 2020-12-16 Programs, information processing methods, and information processing equipment Active JP6913812B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020208521A JP6913812B1 (en) 2020-12-16 2020-12-16 Programs, information processing methods, and information processing equipment
JP2021111958A JP2022095523A (en) 2020-12-16 2021-07-06 Program, information processing method and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020208521A JP6913812B1 (en) 2020-12-16 2020-12-16 Programs, information processing methods, and information processing equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021111958A Division JP2022095523A (en) 2020-12-16 2021-07-06 Program, information processing method and information processing device

Publications (2)

Publication Number Publication Date
JP6913812B1 true JP6913812B1 (en) 2021-08-04
JP2022095287A JP2022095287A (en) 2022-06-28

Family

ID=77057563

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020208521A Active JP6913812B1 (en) 2020-12-16 2020-12-16 Programs, information processing methods, and information processing equipment
JP2021111958A Pending JP2022095523A (en) 2020-12-16 2021-07-06 Program, information processing method and information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021111958A Pending JP2022095523A (en) 2020-12-16 2021-07-06 Program, information processing method and information processing device

Country Status (1)

Country Link
JP (2) JP6913812B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008312183A (en) * 2007-05-15 2008-12-25 Sony Corp Information processing apparatus, method, and program
JP2010087595A (en) * 2008-09-29 2010-04-15 Hitachi Ltd Bookmark registration method, bookmark registration system, user terminal, and server
WO2010098096A1 (en) * 2009-02-25 2010-09-02 シャープ株式会社 Portable terminal device, content player, bookmark management server, bookmark management system, bookmark management method, content playback method, bookmark management server control method, control program, and recording medium
KR102319456B1 (en) * 2014-12-15 2021-10-28 조은형 Method for reproduing contents and electronic device performing the same
US10057616B1 (en) * 2015-01-08 2018-08-21 The Directv Group, Inc. Systems and methods for accessing bookmarked content
JP2018098763A (en) * 2016-12-09 2018-06-21 日本放送協会 Book mark device, tag analysis system, book mark analysis system, scene sharing system, book mark method, and book mark program

Also Published As

Publication number Publication date
JP2022095287A (en) 2022-06-28
JP2022095523A (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US20230022781A1 (en) User interfaces for viewing and accessing content on an electronic device
JP6283703B2 (en) Local and remote media item management
US11956291B2 (en) Station creation
WO2018184488A1 (en) Video dubbing method and device
WO2019105438A1 (en) Video special effect adding method and apparatus, and smart mobile terminal
US8564563B2 (en) Video chapter access and license renewal
JP5233708B2 (en) Information processing apparatus, information processing method, and program
US9519402B2 (en) Screen display method in mobile terminal and mobile terminal using the method
US10558698B2 (en) Lyric page generation method and lyric page generation apparatus
KR101954794B1 (en) Apparatus and method for multimedia content interface in visual display terminal
US20160085410A1 (en) Display apparatus and displaying method thereof
KR20110080530A (en) Method and apparatus for setting of repeat playing section in a portable terminal
US20110145745A1 (en) Method for providing gui and multimedia device using the same
CN111050203B (en) Video processing method and device, video processing equipment and storage medium
WO2018157812A1 (en) Method and apparatus for implementing video branch selection and playback
KR20140031717A (en) Method and apparatus for managing contents
CN105359121A (en) Remote operation of applications using received data
KR20140105342A (en) Method and apparatus for providing user interface in portable terminal
US11233895B2 (en) Automatic wallpaper setting method, terminal device, and graphical user interface
US9798512B1 (en) Context-based volume adjustment
KR20150048523A (en) Electronic device and method for controlling screen
WO2023024921A1 (en) Video interaction method and apparatus, and device and medium
CN109462777B (en) Video heat updating method, device, terminal and storage medium
WO2024016902A1 (en) Multimedia playing method and device, storage medium, and program product
JP6913812B1 (en) Programs, information processing methods, and information processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210122

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6913812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150