JP2021175037A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2021175037A
JP2021175037A JP2020075684A JP2020075684A JP2021175037A JP 2021175037 A JP2021175037 A JP 2021175037A JP 2020075684 A JP2020075684 A JP 2020075684A JP 2020075684 A JP2020075684 A JP 2020075684A JP 2021175037 A JP2021175037 A JP 2021175037A
Authority
JP
Japan
Prior art keywords
image data
data
moving image
marker
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020075684A
Other languages
Japanese (ja)
Other versions
JP7479183B2 (en
Inventor
暁人 横田
Akito Yokota
暢 滝澤
Noboru Takizawa
太郎 川上
Taro Kawakami
大輔 本間
Daisuke Honma
枝美 木下
Emi Kinoshita
俊紀 門田
Toshinori Kadota
史佳 奥原
Fumika Okuhara
美帆 森
Miho Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020075684A priority Critical patent/JP7479183B2/en
Publication of JP2021175037A publication Critical patent/JP2021175037A/en
Application granted granted Critical
Publication of JP7479183B2 publication Critical patent/JP7479183B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To set an image that is likely to be noticed by a viewer in a moving image as an image used when a moving image to be reproduced is selected.SOLUTION: A counting unit 12 counts the number of times (that is, the number of times of reproduction of moving image data from the position to which the marker is attached) in which each marker selected by a user on each of a plurality of user terminals 20 as a display device. An identification unit 13 identifies still image data corresponding to the moving image data of the portion where the number of times of reproduction counted by the counting unit 12 satisfies a determined condition. A setting unit 14 sets the still image data identified by the identification unit 13 as thumbnail image data for displaying an image used when moving image data to be reproduced is selected on the user terminal 20.SELECTED DRAWING: Figure 4

Description

本発明は、再生対象となる動画を選択するときに用いられるサムネイル画像を設定するための技術に関する。 The present invention relates to a technique for setting a thumbnail image used when selecting a moving image to be played back.

例えばサッカー等の競技や旅行等のレクリエーションの様子を撮像してその動画データをクラウドに保管して共有する仕組みが知られている。特許文献1には、複数のカメラで同一の被写体が撮像されることで得られる複数の画像を、これら複数のカメラのユーザで共有するシステムが開示されている。 For example, there is known a mechanism for capturing images of sports such as soccer and recreation such as travel, storing the video data in the cloud, and sharing the video data. Patent Document 1 discloses a system in which a plurality of images obtained by capturing the same subject by a plurality of cameras are shared by users of the plurality of cameras.

特開2015−226321号公報Japanese Unexamined Patent Publication No. 2015-226321

クラウド上に保管された複数の動画の中から閲覧対象を選択する際には、例えばそれらの動画の先頭にある画像をサムネイル画像として一覧表示し、ユーザはそのサムネイル画像を参照して所望の動画を閲覧対象として選択する。このとき各動画について表示されるサムネイル画像は、その動画の内容や見どころをユーザに分かりやすく伝えることができるような画像であることが望ましい。 When selecting a viewing target from a plurality of videos stored on the cloud, for example, the images at the beginning of those videos are listed as thumbnail images, and the user refers to the thumbnail images to obtain the desired video. Is selected as a viewing target. At this time, the thumbnail image displayed for each moving image is preferably an image that can convey the content and highlights of the moving image to the user in an easy-to-understand manner.

本発明は、動画において閲覧者から注目される可能性が高い画像を、再生対象となる動画を選択するときに用いられる画像として設定することを目的とする。 An object of the present invention is to set an image that is likely to be noticed by a viewer in a moving image as an image used when selecting a moving image to be reproduced.

上記課題を解決するため、本発明は、動画データの各部分において再生された再生回数をカウントするカウント部と、カウントされた前記再生回数が決められた条件を満たす部分の動画データに対応する静止画像データを特定する特定部と、特定された静止画像データを、再生対象となる動画データを選択するときに用いられる画像を表示するための画像データに設定する設定部とを備える情報処理装置を提供する。 In order to solve the above problems, the present invention has a counting unit that counts the number of playbacks played in each part of the moving image data, and a stationary portion corresponding to the moving image data of the portion where the counted number of playbacks satisfies a predetermined condition. An information processing device including a specific unit for specifying image data and a setting unit for setting the specified still image data as image data for displaying an image used when selecting moving image data to be played back. offer.

前記動画データの任意の位置に付与された付与データを選択して前記動画データの再生が要求された場合に、前記カウント部は、前記動画データの再生時に前記付与データが選択された回数を、前記再生回数としてカウントし、前記特定部は、前記動画データにおいてカウントされた前記再生回数が決められた条件を満たす前記付与データの位置と所定の関係にある静止画像データを特定するようにしてもよい。 When the added data assigned to an arbitrary position of the moving image data is selected and the reproduction of the moving image data is requested, the counting unit determines the number of times the added data is selected at the time of reproducing the moving image data. It is counted as the number of times of reproduction, and the specific unit may specify the still image data having a predetermined relationship with the position of the given data that satisfies the condition that the number of times of reproduction counted in the moving image data is determined. good.

前記特定部は、前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合に、当該複数の付与データの各々に対する前記再生回数の総和が決められた条件を満たすときに、当該複数の付与データのうちいずれかの付与データの位置と所定の関係にある静止画像データを特定するようにしてもよい。 The specific unit is used when the positions of the plurality of granted data in the moving image data fall within a predetermined range and the total number of reproductions for each of the plurality of granted data satisfies a predetermined condition. Still image data having a predetermined relationship with the position of any of the given data among the given data may be specified.

前記特定部は、前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合において、当該複数の付与データの各々に対する再生回数の差が閾値未満であり、且つ、当該複数の付与データの各々に対する再生回数の総和が決められた条件を満たすときに、当該複数の付与データのうち最先の位置に付与された付与データの位置と所定の関係にある静止画像データを特定するようにしてもよい。 In the specific unit, when the positions of the plurality of assigned data in the moving image data fall within a predetermined range, the difference in the number of reproductions for each of the plurality of assigned data is less than the threshold value, and the plurality of assigned data When the total number of playbacks for each condition satisfies a predetermined condition, the still image data having a predetermined relationship with the position of the given data given to the earliest position among the plurality of given data is specified. May be good.

前記特定部は、前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合であっても、当該複数の付与データの各々に対する再生回数の差が閾値以上であるときは、前記動画データに付与された全ての前記付与データの各々についてカウントされた前記再生回数が決められた条件を満たす部分の動画データに対応する静止画像データを特定するようにしてもよい。 Even if the positions of the plurality of added data in the moving image data fall within a predetermined range, the specific unit can perform the moving image data when the difference in the number of times of reproduction for each of the plurality of given data is equal to or more than a threshold value. It is also possible to specify the still image data corresponding to the moving image data of the portion where the number of times of reproduction counted for each of all the given data given to is satisfied.

前記特定部は、前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合において、当該複数の付与データの各々に対する再生回数の差が閾値以上であり、且つ、当該複数の付与データの各々に対する再生回数の総和が決められた条件を満たすときに、当該複数の付与データの各々に対する再生回数のうち最多の再生回数となる付与データの位置と所定の関係にある静止画像データを特定するようにしてもよい。 In the specific unit, when the positions of the plurality of assigned data in the moving image data fall within a predetermined range, the difference in the number of reproductions for each of the plurality of assigned data is equal to or greater than the threshold value, and the plurality of assigned data When the total number of playbacks for each satisfies a predetermined condition, the still image data having a predetermined relationship with the position of the granted data, which is the maximum number of playbacks for each of the plurality of assigned data, is specified. You may do so.

前記特定部は、前記動画データにおいてカウントされた再生回数が決められた条件を満たす付与データであっても、当該付与データの内容が例外として決められた条件を満たす場合には、当該付与データの位置と所定の関係にある静止画像データを特定しないようにしてもよい。 Even if the specific unit is the given data in which the number of times of reproduction counted in the moving image data satisfies the determined condition, if the content of the given data satisfies the determined condition as an exception, the assigned data of the given data Still image data having a predetermined relationship with the position may not be specified.

前記設定部は、カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、前記静止画像データを選択して前記動画データを閲覧するユーザの属性に応じた静止画像データを設定するようにしてもよい。 The setting unit responds to the attribute of a user who selects the still image data and browses the video data from the still image data group corresponding to the video data of the portion where the counted number of playbacks satisfies the determined condition. Still image data may be set.

前記動画データの任意の位置に付与された付与データを選択して前記動画データの再生が要求された場合に、前記設定部は、前記静止画像データを選択して前記動画データを閲覧したユーザごとに、当該ユーザによって選択された付与データの傾向を分析し、
カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、各々の前記ユーザにより選択された付与データの傾向に応じた静止画像データを設定するようにしてもよい。
When the added data assigned to an arbitrary position of the moving image data is selected and the reproduction of the moving image data is requested, the setting unit selects the still image data and browses the moving image data for each user. In addition, the tendency of the grant data selected by the user is analyzed.
Among the still image data groups corresponding to the video data of the portion where the counted number of playbacks satisfies the determined condition, the still image data according to the tendency of the given data selected by each user is set. May be good.

前記設定部は、カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、前記静止画像データを選択して前記動画データが閲覧されるときの地域又は日時に応じた静止画像データを設定するようにしてもよい。 The setting unit is a region or area when the moving image data is viewed by selecting the still image data from the still image data group corresponding to the moving image data of the portion where the counted number of playbacks satisfies the predetermined condition. Still image data may be set according to the day and time.

本発明によれば、動画において閲覧者から注目される可能性が高い画像を、再生対象となる動画を選択するときに用いられる画像として設定することが可能となる。 According to the present invention, it is possible to set an image that is likely to be noticed by a viewer in a moving image as an image used when selecting a moving image to be reproduced.

情報処理システム1の装置構成の一例を示す図である。It is a figure which shows an example of the apparatus configuration of an information processing system 1. サーバ装置10のハードウェア構成を示す図である。It is a figure which shows the hardware composition of the server apparatus 10. ユーザ端末20のハードウェア構成を示す図である。It is a figure which shows the hardware composition of the user terminal 20. 情報処理システム1の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the information processing system 1. サーバ装置10の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the server apparatus 10. 動画データ及び付与データの関係を例示する模式図である。It is a schematic diagram which illustrates the relationship between the moving image data and the given data. 付与データの構造を例示する模式図である。It is a schematic diagram which illustrates the structure of the given data. ユーザ端末20に表示される画像を例示する図である。It is a figure which illustrates the image displayed on the user terminal 20. マーカの再生回数を記録した様子を例示する図である。It is a figure which exemplifies the state which recorded the number of times of reproduction of a marker. サーバ装置10の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the server apparatus 10. 動画データ、マーカ及び静止画像データとの関係を例示する模式図である。It is a schematic diagram which illustrates the relationship with moving image data, marker and still image data. ユーザ端末20に表示されるサムネイル画像の一覧を例示する図である。It is a figure which illustrates the list of the thumbnail image displayed on the user terminal 20.

[構成]
図1は、本発明の一実施形態に係る情報処理システム1の装置構成を例示するブロック図である。情報処理システム1は、例えばサッカーを行っている様子を動画で撮像してその撮像された動画を再生するためのシステムである。情報処理システム1において撮像対象は、サッカー等のスポーツ乃至競技に限らず、どのようなものであってもよい。
[composition]
FIG. 1 is a block diagram illustrating an apparatus configuration of an information processing system 1 according to an embodiment of the present invention. The information processing system 1 is a system for capturing a moving image of, for example, playing soccer, and reproducing the captured moving image. In the information processing system 1, the imaging target is not limited to sports such as soccer or competitions, and may be any object.

この情報処理システム1は、主に動画データの記憶、編集及び配信に関する処理を行うサーバ装置10と、主に動画データの撮像又は表示に関する処理を行う複数のユーザ端末20とを含む。これらサーバ装置10及びユーザ端末20は、ネットワーク30を介して通信可能に接続される。ネットワーク30は、例えばLAN(Local Area Network)又はWAN(Wide Area Network)、若しくはこれらの組み合わせであり、有線区間又は無線区間を含んでいる。 The information processing system 1 includes a server device 10 that mainly performs processing related to storage, editing, and distribution of moving image data, and a plurality of user terminals 20 that mainly perform processing related to imaging or display of moving image data. The server device 10 and the user terminal 20 are communicably connected via the network 30. The network 30 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), or a combination thereof, and includes a wired section or a wireless section.

サーバ装置10は、本発明に係る情報処理装置の一例として機能するコンピュータ装置である。サーバ装置10は、動画データの記憶、編集及び配信といった機能を有する。同図で示しているサーバ装置10の数は例示であり、1以上であればよい。 The server device 10 is a computer device that functions as an example of the information processing device according to the present invention. The server device 10 has functions such as storage, editing, and distribution of moving image data. The number of server devices 10 shown in the figure is an example, and may be 1 or more.

ユーザ端末20は、例えばスマートホン、デジタルカメラ、タブレット、又はウェアラブルデバイス、パーソナルコンピュータ等のコンピュータ装置である。ユーザ端末20は、動画の撮像機能又は動画の表示機能の少なくともいずれか一方を備えている。動画の撮像機能を備えるユーザ端末20は、動画を撮像する撮像装置として機能する。動画の表示機能を備えるユーザ端末20は、動画を表示する表示装置として機能する。動画の撮像機能及び動画の表示機能を備えるユーザ端末20は、撮像装置及び表示装置として機能する。撮像装置としてのユーザ端末20は、動画の撮像を行うユーザにより利用される。撮像装置としてのユーザ端末20によって撮像された動画を示す動画データは、無線又は有線を用いた通信により、ネットワーク30経由でサーバ装置10に送信される。表示装置としてのユーザ端末20は、動画を閲覧するユーザにより利用される。表示装置としてのユーザ端末20は、サーバ装置10によって配信される動画データを、無線又は有線を用いた通信によりネットワーク30経由で取得し、この動画データに基づいて動画を表示する。同図で示しているユーザ端末20の数は例示であり、1以上であればよい。 The user terminal 20 is, for example, a smart phone, a digital camera, a tablet, or a computer device such as a wearable device or a personal computer. The user terminal 20 has at least one of a moving image imaging function and a moving image display function. The user terminal 20 having a moving image imaging function functions as an imaging device for capturing a moving image. The user terminal 20 having a moving image display function functions as a display device for displaying the moving image. The user terminal 20 having a moving image imaging function and a moving image display function functions as an imaging device and a display device. The user terminal 20 as an imaging device is used by a user who images a moving image. The moving image data showing the moving image captured by the user terminal 20 as the imaging device is transmitted to the server device 10 via the network 30 by wireless or wired communication. The user terminal 20 as a display device is used by a user who browses a moving image. The user terminal 20 as a display device acquires the moving image data distributed by the server device 10 via the network 30 by wireless or wired communication, and displays the moving image based on the moving image data. The number of user terminals 20 shown in the figure is an example, and may be 1 or more.

図2は、情報処理装置としてのサーバ装置10のハードウェア構成を例示するブロック図である。サーバ装置10のハードウェア構成の一例を示す図である。サーバ装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。サーバ装置10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 FIG. 2 is a block diagram illustrating a hardware configuration of the server device 10 as an information processing device. It is a figure which shows an example of the hardware composition of the server apparatus 10. The server device 10 is physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus connecting them, and the like. In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the server device 10 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

サーバ装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 For each function in the server device 10, the processor 1001 performs calculations by loading predetermined software (programs) on hardware such as the processor 1001 and the memory 1002, and controls communication by the communication device 1004, or the memory 1002. And by controlling at least one of reading and writing of data in the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like.

プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。サーバ装置10の機能ブロックは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ1001によって実行されてもよいが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してサーバ装置10に送信されてもよい。 The processor 1001 reads a program (program code), a software module, data, and the like from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described later is used. The functional block of the server device 10 may be realized by a control program stored in the memory 1002 and operating in the processor 1001. Various processes may be executed by one processor 1001, but may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be implemented by one or more chips. The program may be transmitted to the server device 10 via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to carry out the method according to the present embodiment.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. The transmission / reception unit may be physically or logically separated from each other in the transmission unit and the reception unit.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタンなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカ、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Each device such as the processor 1001 and the memory 1002 is connected by a bus for communicating information. The bus may be configured by using a single bus, or may be configured by using a different bus for each device.

また、サーバ装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Further, the server device 10 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured, and the hardware may realize a part or all of each functional block. For example, processor 1001 may be implemented using at least one of these hardware.

図3は、撮像装置及び表示装置として機能するユーザ端末20のハードウェア構成を示す図である。ユーザ端末20は、物理的には、プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004、入力装置2005、出力装置2006、測位装置2011及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。ユーザ端末20における各機能は、プロセッサ2001、メモリ2002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ2001が演算を行い、通信装置2004による通信を制御したり、メモリ2002及びストレージ2003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。また、プロセッサ2001は、クロックに基づいて日時を計測する計時装置としても機能する。プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004、入力装置2005、出力装置2006は、サーバ装置10が備えるプロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006と同様の装置群であるが、以下の点が異なっている。 FIG. 3 is a diagram showing a hardware configuration of a user terminal 20 that functions as an image pickup device and a display device. The user terminal 20 is physically configured as a computer device including a processor 2001, a memory 2002, a storage 2003, a communication device 2004, an input device 2005, an output device 2006, a positioning device 2011, a bus connecting them, and the like. .. For each function in the user terminal 20, by loading predetermined software (program) on the hardware such as the processor 2001 and the memory 2002, the processor 2001 performs an calculation and controls the communication by the communication device 2004, or the memory 2002. And by controlling at least one of reading and writing of data in the storage 2003. The processor 2001 also functions as a timekeeping device that measures the date and time based on the clock. The processor 2001, memory 2002, storage 2003, communication device 2004, input device 2005, and output device 2006 are the same as the processor 1001, memory 1002, storage 1003, communication device 1004, input device 1005, and output device 1006 included in the server device 10. Although it is a group of devices, the following points are different.

通信装置2004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、通信装置1004によって実現されてもよい。 The communication device 2004 includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, and the like in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). It may be composed of. For example, the transmission / reception antenna, the amplifier unit, the transmission / reception unit, the transmission line interface, and the like may be realized by the communication device 1004.

測位装置2011は、例えばGPS(Global Positioning System)ユニットであり、ユーザ端末20の位置を測位する。 The positioning device 2011 is, for example, a GPS (Global Positioning System) unit, and positions the position of the user terminal 20.

図3には、撮像装置及び表示装置として機能するユーザ端末20のハードウェア構成を例示している。このため、入力装置2005は、例えば、キーボード、マウス、スイッチ、ボタンなどのほか、撮像部としてのカメラ2007、及び、収音部としてのマイク2008を含んでいる。また、出力装置2006は、表示部としてのディスプレイ2009、及び、放音部としてのスピーカ2010を含んでおり、この他にLEDランプなどを含んでもい。撮像装置としてのみ機能するユーザ端末20においては、表示部としてのディスプレイ2009、及び、放音部としてのスピーカ2010は必須ではない。表示装置としてのみ機能するユーザ端末20においては、撮像部としてのカメラ2007、及び、収音部としてのマイク2008は必須ではない。なお、ユーザ端末20のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 FIG. 3 illustrates the hardware configuration of the user terminal 20 that functions as an image pickup device and a display device. Therefore, the input device 2005 includes, for example, a keyboard, a mouse, switches, buttons, and the like, a camera 2007 as an imaging unit, and a microphone 2008 as a sound collecting unit. Further, the output device 2006 includes a display 2009 as a display unit and a speaker 2010 as a sound emitting unit, and may also include an LED lamp or the like. In the user terminal 20 that functions only as an imaging device, the display 2009 as a display unit and the speaker 2010 as a sound emitting unit are not indispensable. In the user terminal 20 that functions only as a display device, the camera 2007 as an imaging unit and the microphone 2008 as a sound collecting unit are not indispensable. The hardware configuration of the user terminal 20 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

図4は、情報処理システム1の機能構成を例示するブロック図である。図4では、撮像装置及び表示装置として機能するユーザ端末20を含むシステム全体の機能構成を例示している。ユーザ端末20において、動画データ生成部21は、カメラ2007により撮像された画像と、マイク2008によって収音された音声とからなる動画データを生成する。この動画データには、撮像時において、測位装置2011によって測位された位置(撮像位置)と、プロセッサ2001によって計時された日時(撮像日時)とがメタデータとして含まれている。 FIG. 4 is a block diagram illustrating the functional configuration of the information processing system 1. FIG. 4 illustrates the functional configuration of the entire system including the user terminal 20 that functions as an image pickup device and a display device. In the user terminal 20, the moving image data generation unit 21 generates moving image data including an image captured by the camera 2007 and a sound picked up by the microphone 2008. The moving image data includes the position determined by the positioning device 2011 (imaging position) and the date and time measured by the processor 2001 (imaging date and time) as metadata at the time of imaging.

ユーザはユーザ端末20による撮像を行いながら、又は撮像した画像をユーザ端末20において再生しながら、「マーカ」と呼ばれる付与データを付与する操作を行うことができる。例えばサッカーでゴールが決まったなどのシーンに対しては、「ゴール!」などの文字情報を含むマーカを付与する例が考えられる。この操作に応じて、ユーザ端末20のマーカ付与部23は、ユーザにより入力された「ゴール!」という文字情報を含むマーカを、動画データにおいてユーザにより指定された任意の位置に付与する。ここで、動画データにおいてユーザにより指定された位置とは、上記の例ではゴールが決まったシーンに対応する動画データの一部分である。マーカは、ユーザにより入力された文字情報と、動画データにおいてそのマーカが付与された位置を示すデータ(例えば動画データの撮像開始時点からの経過時間を示すタイムスタンプ)とを含んでいる。このマーカは、動画データをこのマーカが付与された位置から再生するために用いられる。 The user can perform an operation of adding added data called a "marker" while taking an image by the user terminal 20 or playing back the captured image on the user terminal 20. For example, for a scene where a goal is scored in soccer, an example of adding a marker including character information such as "goal!" Can be considered. In response to this operation, the marker assigning unit 23 of the user terminal 20 assigns a marker including the character information of "goal!" Input by the user to an arbitrary position designated by the user in the moving image data. Here, the position specified by the user in the moving image data is a part of the moving image data corresponding to the scene in which the goal is determined in the above example. The marker includes character information input by the user and data indicating a position to which the marker is attached in the moving image data (for example, a time stamp indicating an elapsed time from the start of imaging of the moving image data). This marker is used to reproduce the moving image data from the position to which the marker is attached.

ユーザ端末20において、送信部22は、各種のデータをネットワーク30経由でサーバ装置10に送信する。例えばユーザ端末20において、送信部22は、動画データ生成部21により生成された動画データ及びマーカをネットワーク30経由でサーバ装置10に送信する。 In the user terminal 20, the transmission unit 22 transmits various data to the server device 10 via the network 30. For example, in the user terminal 20, the transmission unit 22 transmits the moving image data and the marker generated by the moving image data generation unit 21 to the server device 10 via the network 30.

表示装置として機能するユーザ端末20において、ユーザは、撮像装置として機能するユーザ端末20により撮像された動画を閲覧することができる。この場合、ユーザは、表示装置としてのユーザ端末20において、動画データに付与されている複数のマーカのうちのいずれかを選択することで、自身が所望するシーンから動画を閲覧することができる。例えば、サッカーの動画において、「パス」「シュート」「ゴール」といった文字情報を含むマーカ群のうち、「ゴール」という文字情報を含むマーカを選択することで、動画データにおいてそのマーカが付与された位置、つまりサッカーにおけるゴールのシーンから動画を閲覧することができるようになっている。表示装置としてのユーザ端末20において、マーカ選択部24は、動画データに付与されている複数のマーカのうちいずれかがユーザにより選択されると、その選択されたマーカを特定する。表示装置としてのユーザ端末20において、送信部22は、マーカ選択部24により特定されたマーカを識別するマーカ識別子をネットワーク30経由でサーバ装置10に送信する。 In the user terminal 20 that functions as a display device, the user can view the moving image captured by the user terminal 20 that functions as an image pickup device. In this case, the user can browse the moving image from the scene desired by himself / herself by selecting one of the plurality of markers attached to the moving image data on the user terminal 20 as the display device. For example, in a soccer video, by selecting a marker containing the character information of "goal" from a group of markers including character information such as "pass", "shoot", and "goal", the marker is given in the video data. The video can be viewed from the position, that is, the scene of the goal in soccer. In the user terminal 20 as a display device, the marker selection unit 24 identifies the selected marker when any one of the plurality of markers attached to the moving image data is selected by the user. In the user terminal 20 as a display device, the transmission unit 22 transmits a marker identifier that identifies the marker specified by the marker selection unit 24 to the server device 10 via the network 30.

ユーザ端末20において、出力部25は、動画データに応じた画像をディスプレイ2009表示するとともに、動画データに応じた音声をスピーカ2010から放音する。 In the user terminal 20, the output unit 25 displays an image corresponding to the moving image data on the display 2009, and emits a sound corresponding to the moving image data from the speaker 2010.

サーバ装置10において、取得部11は、ユーザ端末20から送信される各種のデータをネットワーク30経由で取得する。例えば取得部11は、撮像装置としての複数のユーザ端末20の各々によって撮像された動画データとその動画データに対して付与されたマーカとをネットワーク30経由で取得する。また、取得部11は、表示装置としての複数のユーザ端末20の各々から、ユーザにより選択されたマーカのマーカ識別子をネットワーク30経由で取得する。 In the server device 10, the acquisition unit 11 acquires various data transmitted from the user terminal 20 via the network 30. For example, the acquisition unit 11 acquires the moving image data captured by each of the plurality of user terminals 20 as the imaging device and the markers given to the moving image data via the network 30. Further, the acquisition unit 11 acquires the marker identifier of the marker selected by the user from each of the plurality of user terminals 20 as the display device via the network 30.

サーバ装置10において、カウント部12は、表示装置としての複数のユーザ端末20の各々においてユーザにより選択されたマーカごとに、そのマーカが選択された回数(つまりそのマーカが付与された位置から動画データが再生された再生回数)をカウントする。つまり、カウント部12は、動画データの各部分において再生された再生回数をカウントする。 In the server device 10, the counting unit 12 uses the number of times the marker is selected for each marker selected by the user in each of the plurality of user terminals 20 as a display device (that is, moving image data from the position where the marker is assigned). Counts the number of times that has been played. That is, the counting unit 12 counts the number of times of reproduction reproduced in each part of the moving image data.

特定部13は、カウント部12によりカウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データを特定する。ここでいう決められた条件とは、例えば、1つのデータファイルである動画データにおいて最多の再生回数がカウントされたマーカに該当することである。つまり、特定部13によって、各動画データについて、再生回数が最多のマーカに対応する静止画像データが特定される。 The identification unit 13 specifies the still image data corresponding to the moving image data of the portion where the number of reproductions counted by the counting unit 12 satisfies the condition determined. The determined condition referred to here is, for example, corresponding to a marker in which the maximum number of playbacks is counted in moving image data which is one data file. That is, the specific unit 13 specifies the still image data corresponding to the marker having the largest number of reproductions for each moving image data.

設定部14は、特定部13により特定された静止画像データを、再生対象となる動画データを選択するときに用いられる画像(以下、サムネイル画像という)をユーザ端末20において表示するためのサムネイル画像データに設定する。 The setting unit 14 is a thumbnail image data for displaying the still image data specified by the specific unit 13 on the user terminal 20 as an image (hereinafter referred to as a thumbnail image) used when selecting a moving image data to be played back. Set to.

サーバ装置10において、再生部15は、ユーザ端末20において動画データを再生させる。例えば、再生部15は、動画データに対して付与された複数のマーカのうちいずれかがユーザにより選択された場合に、カウント部12により特定されたマーカが付与された位置に対応する部分から、動画データの再生を開始させる。また、再生部15は、ユーザ端末20において表示されたサムネイル画像の一覧のうちいずれかが指定されると、そのサムネイル画像に対応する動画データの再生を開始させる。このとき、再生部15は、そのサムネイル画像に対応する動画データをその冒頭の位置から再生させてもよいし、その動画データにおいて指定された上記サムネイル画像に対応する位置から再生させてもよい。 In the server device 10, the reproduction unit 15 reproduces the moving image data on the user terminal 20. For example, when any one of the plurality of markers assigned to the moving image data is selected by the user, the playback unit 15 starts with a portion corresponding to the position to which the marker specified by the counting unit 12 is assigned. Start playing the video data. Further, when any one of the list of thumbnail images displayed on the user terminal 20 is specified, the playback unit 15 starts playback of the moving image data corresponding to the thumbnail image. At this time, the reproduction unit 15 may reproduce the moving image data corresponding to the thumbnail image from the position at the beginning thereof, or may reproduce the moving image data from the position corresponding to the thumbnail image specified in the moving image data.

[動作]
次に、本実施形態の動作を説明する。以下では、まず、動画の撮像からその再生までの動作について説明し、その後に、サムネイル画像の一覧の生成について説明する。
[motion]
Next, the operation of this embodiment will be described. In the following, first, the operation from the acquisition of the moving image to the reproduction thereof will be described, and then the generation of the list of thumbnail images will be described.

[動画の撮像からその再生までの動作]
撮像者たるユーザはユーザ端末20を操作して、カメラ2007及びマイク2008による撮像処理を開始させる。これに応じて、ユーザ端末20の動画データ生成部21は動画データを生成する。ユーザはユーザ端末20による撮像を続けながら、又は撮像した画像をユーザ端末20において再生しながら、マーカを付与する操作を行う。この操作に応じて、ユーザ端末20のマーカ付与部23は、ユーザにより入力された文字情報を含むマーカを、動画データにおいてユーザにより指定された位置に付与する。ユーザ端末20の送信部22は、動画データ及びマーカを例えばRTMP(Real-Time Messaging Protocol)やHTTPS(Hypertext Transfer Protocol Secure)等の任意のプロトコルに従い、ネットワーク30経由でサーバ装置10に送信する。サーバ装置10の取得部11は、ユーザ端末20の送信部22により送信されてくる動画データ及びマーカをネットワーク30経由で取得して(図5のステップS11)、記憶する(ステップS12)。
[Operation from video capture to playback]
The user who is an imager operates the user terminal 20 to start the image pickup process by the camera 2007 and the microphone 2008. In response to this, the moving image data generation unit 21 of the user terminal 20 generates moving image data. The user performs an operation of adding a marker while continuing the imaging by the user terminal 20 or playing back the captured image on the user terminal 20. In response to this operation, the marker assigning unit 23 of the user terminal 20 assigns a marker including character information input by the user to a position designated by the user in the moving image data. The transmission unit 22 of the user terminal 20 transmits video data and markers to the server device 10 via the network 30 according to an arbitrary protocol such as RTMP (Real-Time Messaging Protocol) or HTTPS (Hypertext Transfer Protocol Secure). The acquisition unit 11 of the server device 10 acquires the moving image data and the marker transmitted by the transmission unit 22 of the user terminal 20 via the network 30 (step S11 in FIG. 5) and stores them (step S12).

ここで、図6は、動画データ及びマーカの関係を例示する模式図である。図示のように、動画データにおいて時間軸上の異なる位置に複数のマーカM1〜M5が付与されている。そして、図7に例示するように、各マーカMは、動画データにおいてマーカMが付与された位置を示す位置データ(例えば撮像開始からの経過時間を示すタイムスタンプ)と、マーカを識別するマーカ識別子と、ユーザにより入力された文字情報と、そのほかの付属情報とを含んでいる。 Here, FIG. 6 is a schematic diagram illustrating the relationship between the moving image data and the markers. As shown in the figure, a plurality of markers M1 to M5 are assigned to different positions on the time axis in the moving image data. Then, as illustrated in FIG. 7, each marker M is a position data indicating a position to which the marker M is assigned in the moving image data (for example, a time stamp indicating an elapsed time from the start of imaging) and a marker identifier that identifies the markers. And the text information entered by the user and other ancillary information.

図5において、サーバ装置10の取得部11は、複数のユーザ端末20から取得した各々の動画データにメタデータとして含まれている撮像位置及び撮像日時が重複するものどうしをグルーピングする(ステップS13)。具体的には、取得部11は、動画の撮像位置が半径Xmの円の範囲に含まれ、且つ、動画の撮像開始時期から撮像終了時期までの期間の少なくとも一部が重複している動画データを抽出し、これらにユニークなグループ識別子を割り当てる等してグルーピングを行う。これにより、撮像対象が同一と想定される1以上の動画データがグルーピングされる。グルーピングされた各動画データは、表示装置としてのユーザ端末20において再生可能な状態となる。 In FIG. 5, the acquisition unit 11 of the server device 10 groups items having overlapping imaging positions and imaging dates and times included as metadata in the respective moving image data acquired from the plurality of user terminals 20 (step S13). .. Specifically, the acquisition unit 11 includes moving image data in which the image pickup position of the moving image is included in the range of a circle having a radius of Xm, and at least a part of the period from the moving image imaging start time to the moving image imaging end time overlaps. Are extracted and grouped by assigning unique group identifiers to them. As a result, one or more moving image data that are assumed to have the same imaging target are grouped. Each grouped moving image data is in a playable state on the user terminal 20 as a display device.

そして、いずれかのユーザ端末20から或る動画データを指定して再生開始が要求されると(ステップS14;YES)、サーバ装置10の再生部15は、指定された動画データを読み出してそのユーザ端末20に送信することで、その再生を開始させる(ステップS15)。図8は、ユーザ端末20において動画データが再生されるときの表示例を示す図である。ユーザ端末20のディスプレイ2009において、動画表示領域102には動画データに応じた動画が表示されるほか、動画データのメタデータ等から特定される情報群101や、この動画データに付与されたマーカに含まれる文字情報群103が表示される。文字情報群103は、図中の左側にあるものほど動画データの時間軸上において先の位置に付与されたマーカに対応するものであり、図中の右側にあるものほど動画データの時間軸上において後ろの位置に付与されたマーカに対応するものである。ユーザは操作子画像104を指定することにより、各マーカに対応する文字情報群を時間軸上において、いわゆる巻き戻し又は早送りをさせて、任意の文字情報をタップすることでその文字情報(つまりマーカ)を選択することができる。 Then, when a certain moving image data is specified from one of the user terminals 20 and a playback start is requested (step S14; YES), the playback unit 15 of the server device 10 reads out the designated moving image data and the user. By transmitting to the terminal 20, the reproduction is started (step S15). FIG. 8 is a diagram showing a display example when the moving image data is reproduced on the user terminal 20. In the display 2009 of the user terminal 20, a moving image corresponding to the moving image data is displayed in the moving image display area 102, and the information group 101 specified from the metadata of the moving image data or the marker attached to the moving image data is displayed. The included character information group 103 is displayed. In the character information group 103, the one on the left side in the figure corresponds to the marker assigned to the previous position on the time axis of the moving image data, and the one on the right side in the figure corresponds to the time axis of the moving image data. Corresponds to the marker given at the back position in. By designating the operator image 104, the user causes the character information group corresponding to each marker to be so-called rewind or fast forward on the time axis, and taps any character information to perform the character information (that is, the marker). ) Can be selected.

ここで、ユーザによりいずれかの文字情報が選択されると(図5のステップS16;YES)、選択された文字情報に対応するマーカのマーカ識別子がユーザ端末20からサーバ装置10に通知される。サーバ装置10のカウント部12は、通知されたマーカ識別子により、選択されたマーカを特定する。これに応じて、再生部15は、特定されたマーカが付与された位置から動画データをユーザ端末20に送信することで、再生位置を変更して再生を行わせる(ステップS17)。これにより、ユーザは、自身が選択したマーカに対応するシーンから動画を閲覧することができる。そして、サーバ装置10のカウント部12は、マーカが選択されて再生された再生回数をカウントして記録する(ステップS18)。これにより、図9に例示するように、各動画データの動画データ識別子、マーカのマーカ識別子及び文字情報に対応付けて、そのマーカがユーザにより選択されて再生された累積の再生回数が記録される。動画データにおいてこの再生回数が多いマーカの位置は、多数のユーザにより閲覧された回数が多いシーン、つまり人気のあるがゆえに多数のユーザから注目される可能性が高いシーンに対応する位置ということになる。 Here, when any character information is selected by the user (step S16; YES in FIG. 5), the marker identifier of the marker corresponding to the selected character information is notified from the user terminal 20 to the server device 10. The counting unit 12 of the server device 10 identifies the selected marker by the notified marker identifier. In response to this, the reproduction unit 15 changes the reproduction position and performs reproduction by transmitting the moving image data to the user terminal 20 from the position to which the specified marker is attached (step S17). As a result, the user can view the video from the scene corresponding to the marker selected by the user. Then, the counting unit 12 of the server device 10 counts and records the number of times of reproduction in which the marker is selected and reproduced (step S18). As a result, as illustrated in FIG. 9, the cumulative number of times the marker is selected and played by the user is recorded in association with the moving image data identifier of each moving image data, the marker identifier of the marker, and the character information. .. In the video data, the position of the marker that has been played many times corresponds to the scene that has been viewed many times by many users, that is, the scene that is likely to be noticed by many users because of its popularity. Become.

[サムネイル画像の設定動作]
次に、図10を参照して、サムネイル画像の設定動作について説明する。特定部13は、カウント部12によりカウントされた再生回数が決められた条件を満たすマーカに対応する静止画像データを特定する。この条件とは、前述したように、1つのデータファイルである動画データにおいて最多の再生回数がカウントされたマーカに該当することである。つまり、再生回数が最多のマーカに対応する静止画像データがサムネイル画像データとして特定される。
[Thumbnail image setting operation]
Next, the setting operation of the thumbnail image will be described with reference to FIG. The identification unit 13 identifies the still image data corresponding to the marker that satisfies the condition in which the number of reproductions counted by the counting unit 12 is determined. As described above, this condition corresponds to the marker in which the maximum number of playbacks is counted in the moving image data which is one data file. That is, the still image data corresponding to the marker having the largest number of playbacks is specified as the thumbnail image data.

ここで、図11〜12を参照して、動画データとマーカと静止画像データとの関係を説明する。図11に例示しているように、動画データにおいては、そのデータの先頭の位置から時間軸上の所定期間ΔT(例えば60秒)ごとに、各位置に相当する1フレーム分の画像が静止画像群g1〜g7として設定される。そして、マーカM1〜M5のうち、カウント部12によりカウントされた再生回数が最多のマーカ(例えばマーカM3とする)の付与位置mt3よりも時間軸上において前に存在し、且つ、時間軸上においてそのマーカM3の付与位置mt3に最も近い静止画像(図では静止画像g3)が、再生対象となる動画データを選択するときに用いられるサムネイル画像を表示するためのサムネイル画像データとして特定される。 Here, the relationship between the moving image data, the marker, and the still image data will be described with reference to FIGS. 11 to 12. As illustrated in FIG. 11, in the moving image data, one frame of images corresponding to each position is a still image every predetermined period ΔT (for example, 60 seconds) on the time axis from the head position of the data. It is set as groups g1 to g7. Then, among the markers M1 to M5, the number of reproductions counted by the counting unit 12 is before the imparting position mt3 of the marker (referred to as marker M3) having the largest number of reproductions, and is present on the time axis. The still image (still image g3 in the figure) closest to the given position mt3 of the marker M3 is specified as thumbnail image data for displaying the thumbnail image used when selecting the moving image data to be reproduced.

図11において、上記条件を充足するマーカがある場合には(ステップS21;YES)、設定部14は、そのマーカの位置に基づいて特定部13により特定された静止画像データを、この動画データを代表するサムネイル画像データに設定する(ステップS22)。 In FIG. 11, when there is a marker that satisfies the above conditions (step S21; YES), the setting unit 14 uses the still image data specified by the specific unit 13 based on the position of the marker, and this moving image data. Set to the representative thumbnail image data (step S22).

一方、例えば動画データにおいてマーカの選択による再生が一度も発生していないなどのように、動画データにおいて上記条件を充足するマーカがない場合には(ステップS21;NO)、設定部14は、所定の静止画像データ(例えばその動画データの先頭の静止画像データ)をサムネイル画像データとして設定する(ステップS23)。 On the other hand, when there is no marker satisfying the above conditions in the moving image data, for example, reproduction by selecting a marker has never occurred in the moving image data (step S21; NO), the setting unit 14 is predetermined. (For example, the still image data at the beginning of the moving image data) is set as thumbnail image data (step S23).

これにより様々な動画データについて設定された各サムネイル画像Sが、図12に例示するようにして一覧表示される。ユーザはこのようなサムネイル画像Sの一覧を参照し、所望のサムネイル画像を指定する。この指定に応じて、図5のステップS14以降の処理が開始され、そのサムネイル画像に対応する動画が再生される。例えば、再生部15は、指定されたサムネイル画像に対応する動画データの再生を、そのサムネイル画像に対応する位置に対応する部分から再生させてもよい。具体的には、図11において、静止画像g3がサムネイル画像に設定されていた場合には、静止画像g3に対応する位置(動画データの開始からΔT×2が経過した時点)から動画データが再生される。これにより、ユーザは、指定したサムネイル画像の続きから動画を閲覧することが可能となる。 As a result, each thumbnail image S set for various moving image data is displayed in a list as illustrated in FIG. The user refers to such a list of thumbnail images S and specifies a desired thumbnail image. In response to this designation, the processing after step S14 in FIG. 5 is started, and the moving image corresponding to the thumbnail image is played back. For example, the reproduction unit 15 may reproduce the moving image data corresponding to the specified thumbnail image from the portion corresponding to the position corresponding to the thumbnail image. Specifically, in FIG. 11, when the still image g3 is set as the thumbnail image, the moving image data is reproduced from the position corresponding to the still image g3 (when ΔT × 2 has elapsed from the start of the moving image data). Will be done. As a result, the user can view the moving image from the continuation of the designated thumbnail image.

以上説明した実施形態によれば、所望の位置から動画を閲覧するために付与したマーカを上手く利用することによって、動画において注目される可能性が高い静止画像を、再生対象となる動画を選択するときに用いられるサムネイル画像として設定することが可能となる。 According to the embodiment described above, by making good use of the marker assigned to view the moving image from a desired position, a still image that is likely to be noticed in the moving image is selected as a moving image to be reproduced. It is possible to set it as a thumbnail image used at times.

[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[Modification example]
The present invention is not limited to the embodiments described above. The above-described embodiment may be modified as follows. Further, the following two or more modified examples may be combined and carried out.

[変形例1]
実施形態においては、ユーザ端末20が撮像者たるユーザによるマーカ付与の操作を受け付けていたが、動画を撮像するための撮像装置とマーカを付与するためのマーカ付与装置とが別体の装置であってもよい。具体的には、撮像者たるユーザは撮像装置(例えばスマートホンやビデオカメラ)を操作して撮像を行う一方、マーカ付与装置(例えばスマートホンのリモコンや、スマートホンに接続されたスマートウォッチ等のウェアラブル端末)を操作してマーカを付与するようにしてもよい。
[Modification 1]
In the embodiment, the user terminal 20 accepts the operation of assigning a marker by a user who is an imager, but the imaging device for capturing a moving image and the marker assigning device for imparting a marker are separate devices. You may. Specifically, a user who is an imager operates an imaging device (for example, a smart phone or a video camera) to perform imaging, while a marker assigning device (for example, a remote controller for a smart phone or a smart watch connected to a smart phone) is used. The wearable terminal) may be operated to add a marker.

[変形例2]
サーバ装置10は、複数のマーカ群が動画データの時間軸上で近接する場合には、これらマーカ群の再生回数を合計した値を用いてサムネイル画像を設定するようにしてもよい。複数のマーカ群が動画データの時間軸上で近接する場合とは、例えばサッカーにおいてパスからシュート、そしてゴールというように、短期間において見どころとなるような撮像対象の事象に対して付与されたマーカ群であると想定される。このような場合において、これらのマーカについての再生回数を個別にカウントしてしまうと、閲覧者から人気がある、一連の連続したシーンに対するマーカであると認識できない可能性がある。そこで、動画データにおける複数のマーカの位置が時間軸上において所定の時間の範囲に収まる場合において、当該複数のマーカの各々が選択された回数の総和が決められた条件を満たすときに、当該複数のマーカのうちいずれかのマーカの位置に応じた静止画像データをサムネイル画像データとして設定するようにしてもよい。ここでいう決められた条件とは、例えば複数のマーカについての再生回数の総和が閾値を超えるとか、複数のマーカについての再生回数の総和がカウントされた他の再生回数を含めて最多である等の条件である。つまり、特定部13は、動画データにおける複数の付与データの位置が所定の範囲に収まる場合、当該複数の付与データの各々に対する指定回数の総和が決められた条件を満たすときに、当該複数の付与データのうちいずれかの付与データの位置と所定の関係にある静止画像データを特定するようにしてもよい。複数の付与データのうちいずれかの付与データの位置と所定の関係にある静止画像データとしては、以下のような例が考えられる。
[Modification 2]
When a plurality of marker groups are close to each other on the time axis of the moving image data, the server device 10 may set a thumbnail image using a value obtained by totaling the number of times of reproduction of these marker groups. When multiple marker groups are close to each other on the time axis of video data, markers given to events to be imaged that are the highlights in a short period of time, such as a pass, a shoot, and a goal in soccer. It is supposed to be a group. In such a case, if the number of playbacks of these markers is counted individually, it may not be recognized as a marker for a series of continuous scenes that are popular with viewers. Therefore, when the positions of the plurality of markers in the moving image data fall within a predetermined time range on the time axis, and the sum of the number of times selected by each of the plurality of markers satisfies a predetermined condition, the plurality of markers Still image data corresponding to the position of any of the markers may be set as thumbnail image data. The determined condition here is, for example, that the total number of playbacks for a plurality of markers exceeds the threshold value, or that the total number of playbacks for a plurality of markers is the largest including other counted playbacks. It is a condition of. That is, when the positions of the plurality of grant data in the moving image data fall within a predetermined range, the specific unit 13 grants the plurality of grants when the sum of the specified number of times for each of the plurality of grant data satisfies a predetermined condition. Still image data having a predetermined relationship with the position of any of the given data may be specified. As the still image data having a predetermined relationship with the position of any of the given data among the plurality of given data, the following examples can be considered.

例えばマーカM1〜M3が時間的に近接して付与されているマーカであり、マーカM4がこれらのマーカM1〜M3とは時間的に離れたマーカであるとしたとき、各マーカについての再生回数が次のとおりであると仮定する。
マーカM1の再生回数が15回
マーカM2の再生回数が20回
マーカM3の再生回数が9回
マーカM4の再生回数が40回
この場合、マーカM1の再生回数、マーカM2の再生回数及びマーカM3の再生回数の総和は44回である一方、マーカM4の再生回数は40回であるから、マーカM1〜M3の再生回数の総和>マーカM4の再生回数となる。この場合、図11に例示したようにΔTごとに設定された複数の静止画像において、マーカM1〜M3のうち最先の位置に付与されたマーカM1よりも時間軸上において前に存在し、且つ、時間軸上においてそのマーカM1に最も近い静止画像(図11では静止画像g1)が特定される。
For example, assuming that the markers M1 to M3 are markers that are attached in close proximity to each other in time and the markers M4 are markers that are separated in time from these markers M1 to M3, the number of reproductions for each marker is Suppose that:
Marker M1 has been played 15 times Marker M2 has been played 20 times Marker M3 has been played 9 times Marker M4 has been played 40 times Marker M4 has been played back 40 times. Since the total number of reproductions is 44, while the total number of reproductions of the markers M4 is 40, the total number of reproductions of the markers M1 to M3> the number of reproductions of the marker M4. In this case, in a plurality of still images set for each ΔT as illustrated in FIG. 11, the markers M1 to M3 exist before the marker M1 assigned to the earliest position on the time axis, and , The still image closest to the marker M1 on the time axis (still image g1 in FIG. 11) is specified.

ここで、時間的に近接して付与された複数のマーカの各々についての再生回数の差が閾値未満である場合に限って、上記のようにマーカの再生回数の総和を用いてもよい。つまり、特定部13は、動画データにおける複数のマーカの位置が所定の範囲に収まる場合において、当該複数のマーカの各々に対する再生回数の差が閾値未満であり、且つ、当該複数のマーカの各々に対する再生回数の総和が決められた条件を満たすときに、当該複数のマーカのうち最先の位置に付与されたマーカの位置と所定の関係にある静止画像データをサムネイル画像データとして特定するようにしてもよい。例えば、上記と同様に、マーカM1〜M3が時間的に近接して付与されているマーカであり、マーカM4がこれらのマーカM1〜M3とは時間的に離れたマーカであるとしたとき、マーカM1の再生回数が15回、マーカM2の再生回数が20回、マーカM3の再生回数が9回、マーカM4の再生回数が40回であると仮定する。ここで、再生回数の差に関する閾値を15とすると、マーカM1の再生回数、マーカM2の再生回数及びマーカM3の再生回数の各々の差はいずれも、閾値である15未満である。よって、マーカM1の再生回数、マーカM2の再生回数及びマーカM3の再生回数の総和を用い、その総和が44回である一方、マーカM4の再生回数は40回であるから、マーカM1〜M3の再生回数の総和>マーカM4の再生回数となる。この場合、図11に例示したようにΔTごとに設定された複数の静止画像において、マーカM1〜M3のうち最先の位置に付与されたマーカM1よりも時間軸上において前に存在し、且つ、時間軸上においてそのマーカM1に最も近い静止画像(図11では静止画像g1)が特定される。 Here, the total number of reproductions of the markers may be used as described above only when the difference in the number of reproductions for each of the plurality of markers given in close time is less than the threshold value. That is, in the specific unit 13, when the positions of the plurality of markers in the moving image data fall within a predetermined range, the difference in the number of reproductions for each of the plurality of markers is less than the threshold value, and the difference between the plurality of markers is less than the threshold value. When the total number of playbacks satisfies a predetermined condition, the still image data having a predetermined relationship with the position of the marker assigned to the earliest position among the plurality of markers is specified as thumbnail image data. May be good. For example, similarly to the above, when the markers M1 to M3 are attached markers in temporal proximity to each other and the markers M4 are markers temporally separated from these markers M1 to M3, the markers are used. It is assumed that the number of times of reproduction of M1 is 15 times, the number of times of reproduction of marker M2 is 20, the number of times of reproduction of marker M3 is 9, and the number of times of reproduction of marker M4 is 40 times. Here, assuming that the threshold value for the difference in the number of reproductions is 15, the difference between the number of reproductions of the marker M1, the number of reproductions of the marker M2, and the number of reproductions of the marker M3 is less than the threshold value of 15. Therefore, the total number of reproductions of the marker M1, the number of reproductions of the marker M2, and the total number of reproductions of the marker M3 are used, and the total number of reproductions is 44, while the number of reproductions of the marker M4 is 40. The total number of playbacks> the number of playbacks of the marker M4. In this case, in a plurality of still images set for each ΔT as illustrated in FIG. 11, the markers M1 to M3 exist before the marker M1 assigned to the earliest position on the time axis, and , The still image closest to the marker M1 on the time axis (still image g1 in FIG. 11) is specified.

これに対し、複数のマーカ群が動画データの時間軸上で近接する場合であって、且つ、この各マーカ群の各々の再生回数が同程度ではなく、いずれか1のマーカの再生回数が突出して多いような場合がある。例えばマーカM1、M2が時間的に近接して付与されているマーカであり、マーカM3がこれらのマーカM1、M2とは時間的に離れたマーカであるとしたとき、各マーカについての再生回数が次のとおりであると仮定する。
マーカM1の再生回数が2回、
マーカM2の再生回数が100回、
マーカM3の再生回数が101回
また、再生回数の差に関する閾値を50とする。時間的に近接するマーカM1,M2の差は98であるから、閾値の50以上である。この場合には、マーカM1の再生回数とマーカM2の再生回数の総和は考えない。つまり、マーカM1〜M3のうち、マーカM3が最多となるから、図11に例示したようにΔTごとに設定された複数の静止画像において、最多の再生回数であるマーカM3よりも時間軸上において前に存在し、且つ、時間軸上においてそのマーカM3に最も近い静止画像(図11では静止画像g3)が特定される。つまり、特定部13は、動画データにおける複数のマーカの位置が所定の範囲に収まる場合であっても、当該複数のマーカの各々に対する再生回数の差が閾値以上であるときは、動画データに付与された全てのマーカの各々についてカウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データを特定するようにしてもよい。
On the other hand, when a plurality of marker groups are close to each other on the time axis of the moving image data, the number of reproductions of each of the respective marker groups is not the same, and the number of reproductions of any one marker is outstanding. There are many cases. For example, if the markers M1 and M2 are markers that are attached in close proximity to each other in time and the markers M3 are markers that are temporally separated from these markers M1 and M2, the number of reproductions for each marker is Suppose that:
Marker M1 has been played twice,
Marker M2 has been played 100 times,
The number of reproductions of the marker M3 is 101 times, and the threshold value regarding the difference in the number of reproductions is 50. Since the difference between the markers M1 and M2 that are close in time is 98, it is 50 or more of the threshold value. In this case, the sum of the number of times the marker M1 is reproduced and the number of times the marker M2 is reproduced is not considered. That is, since the marker M3 is the largest among the markers M1 to M3, as illustrated in FIG. 11, in a plurality of still images set for each ΔT, the number of reproductions is larger than that of the marker M3 on the time axis. A still image (still image g3 in FIG. 11) that exists before and is closest to the marker M3 on the time axis is specified. That is, even if the positions of the plurality of markers in the moving image data fall within a predetermined range, the specific unit 13 assigns the moving image data to the moving image data when the difference in the number of reproductions for each of the plurality of markers is equal to or greater than the threshold value. It is also possible to specify the still image data corresponding to the moving image data of the portion where the number of times of reproduction counted for each of all the markers satisfies the predetermined condition.

また、特定部13は、動画データにおける複数のマーカの位置が所定の範囲に収まる場合において、当該複数のマーカの各々に対する再生回数の差が閾値以上であり、且つ、当該複数のマーカの各々に対する再生回数の総和が決められた条件を満たすときに、当該複数のマーカの各々に対する再生回数のうち最多の再生回数となるマーカの位置と所定の関係にある静止画像データを特定するようにしてもよい。上記と同様に例えば、マーカM1、M2が時間的に近接して付与されているマーカであり、マーカM3がこれらのマーカM1、M2とは時間的に離れたマーカであるとしたとき、各マーカについての再生回数が次のとおりであると仮定する。
マーカM1の再生回数が2回、
マーカM2の再生回数が100回、
マーカM3の再生回数が101回
また、再生回数の差に関する閾値を50とする。時間的に近接するマーカM1,M2の差は98であるから、閾値の50以上であるが、マーカM1の再生回数とマーカM2の再生回数の総和を考える。ここでは、マーカM1の再生回数とマーカM2の再生回数の総和>マーカM3の再生回数となり、さらに、マーカM1の再生回数<マーカM2の再生回数となる。この場合、図11に例示したようにΔTごとに設定された複数の静止画像において、近接するマーカ間で最多の再生回数であるマーカM2よりも時間軸上において前に存在し、且つ、時間軸上においてそのマーカM2に最も近い静止画像(図11では静止画像g2)が特定される。
Further, in the specific unit 13, when the positions of the plurality of markers in the moving image data fall within a predetermined range, the difference in the number of reproductions for each of the plurality of markers is equal to or greater than the threshold value, and the specific unit 13 has a reference to each of the plurality of markers. When the total number of playbacks satisfies a predetermined condition, the still image data having a predetermined relationship with the position of the marker having the highest number of playbacks among the plurality of playbacks for each of the plurality of markers is specified. good. Similar to the above, for example, assuming that the markers M1 and M2 are attached in close time to each other and the marker M3 is a marker temporally separated from these markers M1 and M2, each marker is used. It is assumed that the number of plays for is as follows.
Marker M1 has been played twice,
Marker M2 has been played 100 times,
The number of reproductions of the marker M3 is 101 times, and the threshold value regarding the difference in the number of reproductions is 50. Since the difference between the markers M1 and M2 that are close in time is 98, the threshold value is 50 or more, but the sum of the number of reproductions of the marker M1 and the number of reproductions of the marker M2 is considered. Here, the sum of the number of reproductions of the marker M1 and the number of reproductions of the marker M2> the number of reproductions of the marker M3, and further, the number of reproductions of the marker M1 <the number of reproductions of the marker M2. In this case, in a plurality of still images set for each ΔT as illustrated in FIG. 11, the image is present on the time axis before the marker M2, which is the maximum number of reproductions among adjacent markers, and is on the time axis. Above, the still image closest to the marker M2 (still image g2 in FIG. 11) is specified.

[変形例3]
或る特定の文字情報を含むマーカが付与されている場合は、そのマーカに対応する静止画像をサムネイル画像には設定しないようにしてもよい。ここでいう、特定の文字情報とは、その画像データに対して当然に付与される文字情報(サッカーの動画データに対して「サッカー」)のほか、ごくありふれた意味内容の文字情報などである。つまり、特定部13は、動画データにおいてカウントされた再生回数が決められた条件を満たすマーカであっても、当該マーカの内容(文字情報)が例外として決められた条件を満たす場合には、当該マーカの位置と所定の関係にある静止画像データを特定しないようにしてもよい。
[Modification 3]
When a marker including a certain character information is given, the still image corresponding to the marker may not be set as the thumbnail image. The specific character information referred to here is not only the character information naturally given to the image data (“soccer” for the soccer video data), but also the character information having a very common meaning. .. That is, even if the number of playbacks counted in the moving image data is a marker that satisfies the determined condition, the specific unit 13 is concerned if the content (character information) of the marker satisfies the determined condition as an exception. Still image data having a predetermined relationship with the position of the marker may not be specified.

[変形例4]
閲覧者となるユーザの属性に応じてサムネイル画像を設定してもよい。つまり、設定部14は、カウントされた再生回数が決められた条件を満たすマーカに対応する静止画像データ群のうち、動画データを閲覧するユーザの属性に応じた静止画像データをサムネイル画像として設定するようにしてもよい。例えば、設定部14は、ユーザの年齢や性別、趣味嗜好等の属性を格納したデータベースを備えており、サムネイル画像を設定するにあたっては、再生回数が閾値以上のマーカ群のうち、その属性に応じて決められた文字情報(例えば20代男性なら「ゴール」という文字情報、10代女性なら人気選手の名前を含む文字情報)を含むマーカに対応する静止画像をサムネイル画像として設定する。
[Modification example 4]
Thumbnail images may be set according to the attributes of the user who is the viewer. That is, the setting unit 14 sets as a thumbnail image the still image data according to the attribute of the user who browses the moving image data among the still image data group corresponding to the marker whose counted number of playbacks satisfies the predetermined condition. You may do so. For example, the setting unit 14 includes a database that stores attributes such as the user's age, gender, and hobbies / preferences. A still image corresponding to a marker including the determined character information (for example, character information "goal" for a man in his twenties and character information including the name of a popular player for a woman in his teens) is set as a thumbnail image.

[変形例5]
閲覧者となるユーザが過去に選択したマーカに含まれる文字情報の傾向に応じてサムネイル画像を設定してもよい。つまり、設定部14は、サムネイル画像を選択して動画データを閲覧したユーザごとに、当該ユーザによって選択されたマーカの文字情報の傾向を分析し、その傾向に応じた静止画像をサムネイル画像として設定するようにしてもよい。例えば、設定部14は、ユーザが過去に選択したマーカに含まれる文字情報を格納したデータベースを備えており、サムネイル画像を設定するにあたっては、再生回数が閾値以上のマーカ群のうち、その文字情報と類似する意味を持つ文字情報を含むマーカに対応する静止画像をサムネイル画像として設定する。
[Modification 5]
A thumbnail image may be set according to the tendency of the character information included in the marker selected in the past by the user who is the viewer. That is, the setting unit 14 analyzes the tendency of the character information of the marker selected by the user for each user who selects the thumbnail image and browses the moving image data, and sets the still image according to the tendency as the thumbnail image. You may try to do it. For example, the setting unit 14 includes a database that stores character information included in markers selected by the user in the past, and when setting a thumbnail image, the character information of a group of markers whose number of playbacks is equal to or greater than a threshold value. A still image corresponding to a marker containing character information having a meaning similar to is set as a thumbnail image.

[変形例6]
動画データの閲覧地域又は閲覧日時に応じてサムネイル画像を設定してもよい。つまり、設定部14は、カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、動画データが閲覧されるときの地域又は日時に応じた静止画像データを設定するようにしてもよい。
[Modification 6]
Thumbnail images may be set according to the viewing area or viewing date and time of the video data. That is, the setting unit 14 is the still image data according to the region or the date and time when the moving image data is browsed among the still image data group corresponding to the moving image data of the portion where the counted number of times of reproduction satisfies the predetermined condition. May be set.

[その他の変形例]
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。例えばサーバ装置10の機能の少なくとも一部がユーザ端末20に実装されてもよい。
[Other variants]
The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these a plurality of devices. For example, at least a part of the functions of the server device 10 may be implemented in the user terminal 20.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered Trademarks), GSM (Registered Trademarks), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), It may be applied to systems utilizing Bluetooth®, other suitable systems and / or next-generation systems extended based on them.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャート等は、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。
The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present specification may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order, and are not limited to the particular order presented.
Each aspect / embodiment described in the present specification may be used alone, in combination, or switched with execution.

本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" as used herein are used interchangeably.

本明細書で使用する「判定(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判定」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining) した事を「判定」「決定」したとみなす事等を含み得る。また、「判定」、「決定」は、受信(receiving) (例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判定」「決定」したとみなす事等を含み得る。また、「判定」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)等した事を「判定」「決定」したとみなす事を含み得る。つまり、「判定」「決定」は、何らかの動作を「判定」「決定」したとみなす事を含み得る。 The terms "determining" and "determining" as used herein may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment, calculation, computing, processing, deriving, investigating, looking up (for example, table). , Searching in a database or another data structure), confirming (ascertaining) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "determination" or "decision". In addition, "judgment" and "decision" mean that "resolving", "selecting", "choosing", "establishing", "comparing", etc. are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include that some action is regarded as "judgment" and "decision".

本発明は、情報処理システム1やサーバ装置10において行われる処理のステップを備える情報処理方法として提供されてもよい。また、本発明は、サーバ装置10において実行されるプログラムとして提供されてもよい。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にする等の形態で提供されたりすることが可能である。 The present invention may be provided as an information processing method including steps of processing performed in the information processing system 1 or the server device 10. Further, the present invention may be provided as a program executed by the server device 10. Such a program may be provided in a form recorded on a recording medium such as an optical disk, or may be provided in a form such as being downloaded to a computer via a network such as the Internet and being installed and made available. It is possible.

ソフトウェア、命令等は、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)等の有線技術及び/又は赤外線、無線及びマイクロ波等の無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号等は、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップ等は、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及び/又はシンボルは信号(シグナル)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC)は、キャリア周波数、セル等と呼ばれてもよい。 The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings. For example, the channel and / or symbol may be a signal. Also, the signal may be a message. Further, the component carrier (CC) may be referred to as a carrier frequency, a cell or the like.

「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書或いは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書或いは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as "inclusion," "comprising," and variations thereof are used herein or in the claims, these terms are as comprehensive as the term "comprising." Intended to be targeted. Furthermore, the term "or" as used herein or in the claims is intended not to be an exclusive OR.

本開示の全体において、例えば、英語でのa、an、及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout this disclosure, if articles are added by translation, for example a, an, and the in English, unless the context clearly indicates that these articles are not. It shall include more than one.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it is clear to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and modifications without departing from the spirit and scope of the invention as defined by the claims. Therefore, the description of the present specification is for the purpose of exemplification and does not have any limiting meaning to the present invention.

1・・・情報処理システム、10・・・サーバ装置、11・・・取得部、12・・・カウント部、13・・・特定部、14・・・設定部、15・・・再生部、20・・・ユーザ端末、21・・・動画データ生成部、22・・・送信部、23・・・マーカ付与部、24・・・マーカ選択部、25・・・出力部、30・・・ネットワーク、1001・・・プロセッサ、1002:メモリ、1003:ストレージ、1004・・・通信装置、1005・・・入力装置、1006・・・出力装置、2001・・・プロセッサ、2002・・・メモリ、2003・・・ストレージ、2004・・・通信装置、2005・・・入力装置、2006:出力装置、2007・・・カメラ、2008・・・マイク、2009・・・ディスプレイ、2010・・・スピーカ、2011・・・測位装置。 1 ... Information processing system, 10 ... Server device, 11 ... Acquisition unit, 12 ... Count unit, 13 ... Specific unit, 14 ... Setting unit, 15 ... Playback unit, 20 ... user terminal, 21 ... video data generation unit, 22 ... transmission unit, 23 ... marker addition unit, 24 ... marker selection unit, 25 ... output unit, 30 ... Network, 1001 ... Processor, 1002: Memory, 1003: Storage, 1004 ... Communication device, 1005 ... Input device, 1006 ... Output device, 2001 ... Processor, 2002 ... Memory, 2003 ... Storage, 2004 ... Communication device, 2005 ... Input device, 2006: Output device, 2007 ... Camera, 2008 ... Microphone, 2009 ... Display, 2010 ... Speaker, 2011.・ ・ Positioning device.

Claims (10)

動画データの各部分において再生された再生回数をカウントするカウント部と、
カウントされた前記再生回数が決められた条件を満たす部分の動画データに対応する静止画像データを特定する特定部と、
特定された静止画像データを、再生対象となる動画データを選択するときに用いられる画像を表示するための画像データに設定する設定部と
を備える情報処理装置。
A count unit that counts the number of playbacks played in each part of the video data,
A specific unit that identifies the still image data corresponding to the video data of the portion where the counted number of playbacks satisfies the determined condition, and
An information processing device including a setting unit that sets the specified still image data as image data for displaying an image used when selecting moving image data to be played back.
前記動画データの任意の位置に付与された付与データを選択して前記動画データの再生が要求された場合に、
前記カウント部は、
前記動画データの再生時に前記付与データが選択された回数を、前記再生回数としてカウントし、
前記特定部は、前記動画データにおいてカウントされた前記再生回数が決められた条件を満たす前記付与データの位置と所定の関係にある静止画像データを特定する
ことを特徴とする請求項1記載の情報処理装置。
When the added data assigned to an arbitrary position of the moving image data is selected and the reproduction of the moving image data is requested,
The counting unit
The number of times the given data is selected during playback of the moving image data is counted as the number of playbacks.
The information according to claim 1, wherein the specific unit identifies still image data having a predetermined relationship with the position of the given data in which the number of times of reproduction counted in the moving image data satisfies a predetermined condition. Processing equipment.
前記特定部は、
前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合において、当該複数の付与データの各々に対する前記再生回数の総和が決められた条件を満たすときに、
当該複数の付与データのうちいずれかの付与データの位置と所定の関係にある静止画像データを特定する
ことを特徴とする請求項2記載の情報処理装置。
The specific part is
When the positions of the plurality of assigned data in the moving image data fall within a predetermined range and the sum of the number of times of reproduction for each of the plurality of assigned data satisfies a predetermined condition.
The information processing apparatus according to claim 2, wherein still image data having a predetermined relationship with the position of any of the plurality of assigned data is specified.
前記特定部は、
前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合において、当該複数の付与データの各々に対する再生回数の差が閾値未満であり、且つ、当該複数の付与データの各々に対する再生回数の総和が決められた条件を満たすときに、
当該複数の付与データのうち最先の位置に付与された付与データの位置と所定の関係にある静止画像データを特定する
ことを特徴とする請求項3記載の情報処理装置。
The specific part is
When the positions of the plurality of assigned data in the moving image data fall within a predetermined range, the difference in the number of reproductions for each of the plurality of assigned data is less than the threshold value, and the number of reproductions for each of the plurality of assigned data When the sum meets the specified conditions
The information processing apparatus according to claim 3, wherein still image data having a predetermined relationship with the position of the given data given to the earliest position among the plurality of given data is specified.
前記特定部は、
前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合であっても、当該複数の付与データの各々に対する再生回数の差が閾値以上であるときは、
前記動画データに付与された全ての前記付与データの各々についてカウントされた前記再生回数が決められた条件を満たす部分の動画データに対応する静止画像データを特定する
ことを特徴とする請求項4記載の情報処理装置。
The specific part is
Even if the positions of the plurality of assigned data in the moving image data fall within a predetermined range, if the difference in the number of playbacks for each of the plurality of assigned data is equal to or greater than the threshold value,
The fourth aspect of claim 4, wherein the still image data corresponding to the moving image data of the portion where the number of times of reproduction counted for each of all the added data given to the moving image data satisfies the predetermined condition is specified. Information processing equipment.
前記特定部は、
前記動画データにおける複数の付与データの位置が所定の範囲に収まる場合において、当該複数の付与データの各々に対する再生回数の差が閾値以上であり、且つ、当該複数の付与データの各々に対する再生回数の総和が決められた条件を満たすときに、
当該複数の付与データの各々に対する再生回数のうち最多の再生回数となる付与データの位置と所定の関係にある静止画像データを特定する
ことを特徴とする請求項3記載の情報処理装置。
The specific part is
When the positions of the plurality of assigned data in the moving image data fall within a predetermined range, the difference in the number of reproductions for each of the plurality of assigned data is equal to or greater than the threshold value, and the number of reproductions for each of the plurality of assigned data When the sum meets the specified conditions
The information processing apparatus according to claim 3, further comprising specifying still image data having a predetermined relationship with the position of the given data, which is the highest number of times of reproduction for each of the plurality of assigned data.
前記特定部は、前記動画データにおいてカウントされた再生回数が決められた条件を満たす付与データであっても、当該付与データの内容が例外として決められた条件を満たす場合には、当該付与データの位置と所定の関係にある静止画像データを特定しない
ことを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
Even if the specific unit is the given data in which the number of times of reproduction counted in the moving image data satisfies the determined condition, if the content of the given data satisfies the determined condition as an exception, the given data can be obtained. The information processing apparatus according to any one of claims 1 to 6, wherein the still image data having a predetermined relationship with the position is not specified.
前記設定部は、カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、前記静止画像データを選択して前記動画データを閲覧するユーザの属性に応じた静止画像データを設定する
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
The setting unit responds to the attribute of a user who selects the still image data and browses the video data from the still image data group corresponding to the video data of the portion where the counted number of playbacks satisfies the determined condition. The information processing apparatus according to any one of claims 1 to 7, wherein the still image data is set.
前記動画データの任意の位置に付与された付与データを選択して前記動画データの再生が要求された場合に、
前記設定部は、
前記静止画像データを選択して前記動画データを閲覧したユーザごとに、当該ユーザによって選択された付与データの傾向を分析し、
カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、各々の前記ユーザにより選択された付与データの傾向に応じた静止画像データを設定する
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
When the added data assigned to an arbitrary position of the moving image data is selected and the reproduction of the moving image data is requested,
The setting unit
For each user who selected the still image data and viewed the moving image data, the tendency of the given data selected by the user was analyzed.
Among the still image data groups corresponding to the video data of the portion where the counted number of playbacks satisfies the determined condition, the still image data is set according to the tendency of the given data selected by each user. The information processing apparatus according to any one of claims 1 to 7.
前記設定部は、カウントされた再生回数が決められた条件を満たす部分の動画データに対応する静止画像データ群のうち、前記静止画像データを選択して前記動画データが閲覧されるときの地域又は日時に応じた静止画像データを設定する
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
The setting unit is a region or area when the moving image data is viewed by selecting the still image data from the still image data group corresponding to the moving image data of the portion where the counted number of playbacks satisfies the determined condition. The information processing apparatus according to any one of claims 1 to 7, wherein still image data is set according to the date and time.
JP2020075684A 2020-04-21 2020-04-21 Information processing device Active JP7479183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075684A JP7479183B2 (en) 2020-04-21 2020-04-21 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075684A JP7479183B2 (en) 2020-04-21 2020-04-21 Information processing device

Publications (2)

Publication Number Publication Date
JP2021175037A true JP2021175037A (en) 2021-11-01
JP7479183B2 JP7479183B2 (en) 2024-05-08

Family

ID=78278833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075684A Active JP7479183B2 (en) 2020-04-21 2020-04-21 Information processing device

Country Status (1)

Country Link
JP (1) JP7479183B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008103784A (en) 2006-10-17 2008-05-01 Hitachi Ltd Video recording device
JP2014072811A (en) 2012-09-28 2014-04-21 Toshiba Corp Recording and reproducing device and recording and reproducing method
KR101777242B1 (en) 2015-09-08 2017-09-11 네이버 주식회사 Method, system and recording medium for extracting and providing highlight image of video content
JP6623905B2 (en) 2016-03-31 2019-12-25 ブラザー工業株式会社 Server device, information processing method and program
JP6591000B1 (en) 2018-06-20 2019-10-16 ヤフー株式会社 Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP7479183B2 (en) 2024-05-08

Similar Documents

Publication Publication Date Title
US8346014B2 (en) Image processing apparatus and method and program
US8666223B2 (en) Electronic apparatus and image data management method
US20090190804A1 (en) Electronic apparatus and image processing method
RU2628108C2 (en) Method of providing selection of video material episode and device for this
US10124235B2 (en) Athletic training method and system for remote video playback
CN104349221B (en) Carry out communication equipment, message processing device and its control method of stream distribution
JPWO2005107258A1 (en) Program selection system
JP6999516B2 (en) Information processing equipment
JP5870742B2 (en) Information processing apparatus, system, and information processing method
US11277668B2 (en) Methods, systems, and media for providing media guidance
KR101117915B1 (en) Method and system for playing a same motion picture among heterogeneity terminal
US20110242123A1 (en) Electronic device, image output method and computer-readable medium
CN110740373B (en) Method and related device for buffering audio/video file
CN113655930A (en) Information publishing method, information display method and device, electronic equipment and medium
US20240314400A1 (en) Content display method, apparatus, device and medium
US20070110397A1 (en) Playback apparatus and bookmark system
JP2013171599A (en) Display control device and display control method
JP7479183B2 (en) Information processing device
JP7477352B2 (en) Information processing device
CN110688563A (en) Communication terminal, content server, content recommendation system, and control device
JP7479184B2 (en) Information processing device
JP7369604B2 (en) information processing system
JP7464437B2 (en) Information processing device
KR101397331B1 (en) System and method for summary collection and playing of scenes and recording medium thereof
JP5544030B2 (en) Clip composition system, method and recording medium for moving picture scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240423

R150 Certificate of patent or registration of utility model

Ref document number: 7479183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150