JP6435439B1 - Imaging moving image service system, server device, imaging moving image management method, and computer program - Google Patents

Imaging moving image service system, server device, imaging moving image management method, and computer program Download PDF

Info

Publication number
JP6435439B1
JP6435439B1 JP2018526279A JP2018526279A JP6435439B1 JP 6435439 B1 JP6435439 B1 JP 6435439B1 JP 2018526279 A JP2018526279 A JP 2018526279A JP 2018526279 A JP2018526279 A JP 2018526279A JP 6435439 B1 JP6435439 B1 JP 6435439B1
Authority
JP
Japan
Prior art keywords
moving image
image file
file
imaging
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018526279A
Other languages
Japanese (ja)
Other versions
JPWO2019130585A1 (en
Inventor
康平 鳥越
康平 鳥越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zeppelin
Original Assignee
Zeppelin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zeppelin filed Critical Zeppelin
Application granted granted Critical
Publication of JP6435439B1 publication Critical patent/JP6435439B1/en
Publication of JPWO2019130585A1 publication Critical patent/JPWO2019130585A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】アップロードされた複数の撮像動画ファイルから、新たな一つの動画ファイルを生成し、同種の動画内容を連続してスムーズに視聴可能にする。【解決手段】サーバ装置は、ユーザの通信端末装置からアップロードされた撮像動画ファイルを受信すると、その撮像動画ファイルに付された撮像タグの情報と、同じ情報が付された動画ファイルをデータベース装置の動画データベースから検出する。検出した動画ファイルに、受信した動画ファイルを結合することで、一つの新たな編集動画ファイルを生成し、配信可能に動画データベースに記憶する。この編集動画ファイルを通信端末装置でダウンロードして再生すると、結合した各動画ファイルに応じた動画の内容を連続して視聴できる。【選択図】図9A new moving image file is generated from a plurality of uploaded moving image files, and the same kind of moving image contents can be viewed continuously and smoothly. When a server apparatus receives an imaged moving image file uploaded from a user's communication terminal device, the server apparatus stores the moving image file attached with the same information as the information of the image capturing tag attached to the imaged moving image file. Detect from video database. By combining the received moving image file with the detected moving image file, one new edited moving image file is generated and stored in the moving image database so that it can be distributed. When the edited moving image file is downloaded and played back by the communication terminal device, the content of the moving image corresponding to each combined moving image file can be viewed continuously. [Selection] Figure 9

Description

本発明は、撮像動画をアップロードすることで、アップロードした動画を再生視聴できるようにするものであり、特に、新たにアップロードした動画とアップロード済みの同種の動画を結合して新たな一つの動画を生成し、各動画を連続して視聴再生できるようにした撮像動画サービスシステム、サーバ装置、撮像動画管理方法、及びコンピュータプログラムに関する。   The present invention uploads a captured video so that the uploaded video can be played back and viewed. In particular, the newly uploaded video and the same type of uploaded video are combined to create a new video. The present invention relates to a captured moving image service system, a server device, a captured moving image management method, and a computer program that can be generated and continuously viewed and reproduced.

従来、ユーチューブ(登録商標)のような動画投稿サービスが複数存在しており、ユーザの撮像画像をアップロードすれば、自身の撮像動画を幅広く配信可能となり、アップロードされた撮像動画の視聴を希望する人々はパーソナルコンピュータ、又はスマートフォンやタブレットのような携帯通信端末を用いて、アップロードされた撮像動画を視聴できる。   Conventionally, there are a plurality of video posting services such as YouTube (registered trademark), and if users upload their captured images, they can distribute their captured videos widely, and people who want to view the uploaded captured videos Can view the uploaded captured moving image using a personal computer or a mobile communication terminal such as a smartphone or tablet.

このような動画投稿サービスにおいて、視聴したい動画を選ぶには、視聴を希望する動画に関するキーワードを入力して検索することが一般的である。また、ユーザが視聴を複数回行って視聴履歴が蓄積されると、動画投稿サービス側では、その視聴履歴より、ユーザの嗜好傾向を予測し、その予測した嗜好傾向に合った動画を、視聴対象候補としてサムネイルで複数提示することが行われる。このような複数のサムネイルの提示が行われると、ユーザは、提示された中から視聴したいサムネイルを選択すれば、その選択したサムネイルに係る動画が再生されて視聴できる。   In such a moving image posting service, in order to select a moving image to be viewed, it is common to search by inputting a keyword related to the moving image desired to be viewed. In addition, when the user performs viewing multiple times and the viewing history is accumulated, the video posting service side predicts the user's preference tendency from the viewing history, and the video that matches the predicted preference trend is viewed. A plurality of thumbnails are presented as candidates. When such a plurality of thumbnails are presented, if the user selects a thumbnail to be viewed from the presented thumbnails, the moving image related to the selected thumbnail is reproduced and viewed.

一方、下記の特許文献1では、デジタルカメラのような動画像処理装置において、2つの動画ファイルについて、撮影時刻が所定の時間内(例えば、2秒以内)であれば、自動で結合して一つ動画データとして編集することが開示されている。また、下記の特許文献2では、競技場などに複数台の撮像装置を設置し、各撮像装置で撮像された複数の動画を、サーバ等で構成される画像処理装置によって所定の順序(例えば、時系列順)で合成することが開示される。さらに、下記の特許文献3では、例えば、アトラクション施設などの一定の地域範囲に複数のビデオカメラを設置し、これらの各ビデオカメラで撮影した複数の動画ファイルの中で、同一の被写体を写っている複数の動画ファイルを、画像処理システムにより結合して、結合動画ファイルを生成することが開示される。   On the other hand, in Patent Document 1 below, in a moving image processing apparatus such as a digital camera, two video files are automatically combined together if the shooting time is within a predetermined time (for example, within 2 seconds). It is disclosed that it is edited as moving image data. Moreover, in the following Patent Document 2, a plurality of imaging devices are installed in a stadium, and a plurality of moving images captured by each imaging device are processed in a predetermined order (for example, by an image processing device including a server or the like Combining in chronological order) is disclosed. Furthermore, in the following Patent Document 3, for example, a plurality of video cameras are installed in a certain area such as an attraction facility, and the same subject is captured in a plurality of video files photographed by these video cameras. It is disclosed that a plurality of moving image files are combined by an image processing system to generate a combined moving image file.

なお、下記の特許文献4では、映像(動画)を構成するフレーム画像をタイムライン表示するにあたり、各フレーム画像を特定するメタデータに基づいて、フレーム画像のサムネイルをタイムライン表示することが開示される。なお、メタデータとしては、動画コンテンツのシーンチェンジ点に関する情報、時刻に関する情報などが用いられる。   In Patent Document 4 below, when displaying frame images constituting a video (moving image) in a timeline, it is disclosed that thumbnails of frame images are displayed in a timeline based on metadata specifying each frame image. The As metadata, information on scene change points of moving image content, information on time, and the like are used.

特開2005−6059号公報JP 2005-6059 A 特開2017−55175号公報JP 2017-55175 A 特開平10−215434号公報JP-A-10-215434 特開2011−223326号公報JP 2011-223326 A

従来の動画投稿サービスでは、各ユーザの投稿した動画は、それぞれ個別に保存されており、ユーザの視聴に関する嗜好傾向により、同じ傾向の動画を複数のサムネイルから選んで再生するので、視聴したい個々の動画を選んで毎回、再生操作を行う必要があり、同じ傾向の一連の複数の動画をスムーズに連続して視聴することはできないという問題がある。また、従来の動画投稿サービスは、投稿された動画はオリジナルのままで保存されることから、他の動画と組み合わせて編集を行った新たな内容をユーザが楽しめるような状況を提供できないという問題もある。   In the conventional video posting service, videos posted by each user are stored individually, and videos with the same tendency are selected and played from multiple thumbnails depending on the user's preference for viewing. There is a problem that it is necessary to perform a reproduction operation every time a moving image is selected, and a series of moving images having the same tendency cannot be viewed smoothly and continuously. In addition, the conventional video posting service stores the posted video as it is, so that it is not possible to provide a situation where the user can enjoy new contents edited in combination with other videos. is there.

このような問題に対して、上述した特許文献1の動画像処理装置は、例えば、撮影したデジタルカメラのような装置(スタンドアロンの装置)で、撮影時刻が所定の時間内の動画を結合して一つの動画データに編集するものであるから、撮影者(ユーザ)や撮影条件も限定されたものとなり、ネットワークを利用してアップロードされた各種動画を対象とする従来の動画投稿サービスには、特許文献1の内容(2つの動画ファイルを一つの動画データとして編集する内容)を、そのまま適用できないという問題がある。   For such a problem, the above-described moving image processing apparatus disclosed in Patent Document 1 is a device (stand-alone device) such as a digital camera that captures images by combining moving images within a predetermined time. Since the video is edited into a single video data, the photographer (user) and shooting conditions are also limited, and the conventional video posting service for various videos uploaded via the network is patented. There is a problem that the contents of Document 1 (contents of editing two moving image files as one moving image data) cannot be applied as they are.

また、特許文献2、3に係る内容は、競技場、アトラクション施設などの特定の場所範囲に設置した複数の撮像装置(ビデオカメラ)で撮影した複数の動画を、時系列、又は同一の被写体が写っているという等の条件で合成(結合)するので、特定の場所範囲に撮像装置(ビデオカメラ)を設置すること等に限定されない従来の動画投稿サービスに、これらの特許文献2、3の内容(複数の動画を合成(結合)する内容)を、そのまま適用できないという問題がある。   In addition, the contents according to Patent Documents 2 and 3 include a plurality of moving images taken by a plurality of imaging devices (video cameras) installed in a specific range of a venue such as a stadium or an attraction facility in time series or the same subject. The contents of these Patent Documents 2 and 3 are added to conventional video posting services that are not limited to installing an imaging device (video camera) in a specific location range because they are combined (combined) under conditions such as being captured. There is a problem that (contents to combine (combine) a plurality of moving images) cannot be applied as they are.

なお、特許文献4に係る内容は、映像(動画)を構成するフレーム画像を特定するメタデータを用いて、タイムライン表示に用いるフレーム画像の抽出を行うものであるから、複数の動画を結合して一つの動画データに編集するような内容に、特許文献4に係る内容(メタデータに関する内容)を、そのまま適用できないという問題がある。   In addition, since the content which concerns on patent document 4 extracts the frame image used for a timeline display using the metadata which identifies the frame image which comprises video (moving image), it combines several moving images. Therefore, there is a problem that the contents (contents related to metadata) according to Patent Document 4 cannot be applied as they are to the contents that are edited into one moving image data.

また、動画投稿サービスにおいて、再生対象の動画を選択するにあたり、複数のサムネイルを表示する方式では、スマートフォンのような通信端末装置を用いる場合、表示用の画面サイズが小さいので、各サムネイルを確認しにくい上、各サムネイルを区別して所望のサムネイルを選択する操作も行いにくいという問題もある。   In addition, in the video posting service, when selecting a video to be played, the method of displaying multiple thumbnails, when using a communication terminal device such as a smartphone, has a small display screen size. There is also a problem that it is difficult to select a desired thumbnail by distinguishing each thumbnail.

本発明は、斯かる事情に鑑みてなされたものであり、アップロードした撮像動画を視聴可能にするサービスにおいて、新たにアップロードした動画を、アップロード済みの動画の中から、同様の撮像状況の動画と結合することで、一つの編集した動画ファイルを生成し、同様の撮像状況の動画コンテンツを連続的にスムーズに視聴できるようにした撮像動画サービスシステム、サーバ装置、撮像動画管理方法、及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and in a service that enables viewing of an uploaded captured moving image, a newly uploaded moving image is converted into a moving image having the same imaging state from among the uploaded moving images. An imaging video service system, a server device, an imaging video management method, and a computer program, which combine to generate a single edited video file and enable continuous and smooth viewing of video content in the same imaging situation. The purpose is to provide.

また、本発明は、保存されているアップロード動画を再生表示するにあたり、再生対象を容易に切り替えられる操作形態(操作インタフェース)を導入することで、複数のサムネイル画像を表示しなくても、再生対象となる動画を系統別に素早く切替可能にした撮像動画サービスシステム、サーバ装置、撮像動画管理方法、及びコンピュータプログラムを提供することを目的とする。   In addition, the present invention introduces an operation mode (operation interface) that can easily switch the playback target when playing back and displaying a stored uploaded video, so that the playback target can be displayed without displaying a plurality of thumbnail images. It is an object of the present invention to provide a captured moving image service system, a server device, a captured moving image management method, and a computer program that can quickly switch a moving image for each system.

上記課題を解決するために本発明は、ユーザによりアップロードされた撮像動画に係る動画ファイルをサーバ装置が受信して、前記ユーザに対応付けて動画データベースへ記憶する処理を行う撮像動画サービスシステムにおいて、前記動画ファイルには、撮像状況を表す撮像タグが付されており、前記サーバ装置は、ユーザによりアップロードされた動画ファイルを受信した場合、受信した動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出する手段と、動画ファイルを検出した場合、検出した動画ファイル及び受信した動画ファイルの結合を行うことで、編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、生成した編集動画に係る動画ファイルを、前記ユーザに対応付けて前記動画データベースへ記憶する処理を行う手段とを備えることを特徴とする。   In order to solve the above problems, the present invention provides an imaging video service system in which a server device receives a video file related to a captured video uploaded by a user and stores the video file in a video database in association with the user. The moving image file has an imaging tag indicating an imaging state. When the moving image file uploaded by the user is received, the server device has the same imaging tag as the imaging tag attached to the received moving image file. Means for detecting the attached moving image file from the moving image database; and when the moving image file is detected, the moving image file relating to the edited moving image is combined with the detected moving image file by combining the detected moving image file and the received moving image file. And a moving image file related to the generated edited moving image, the user Association with each other; and a means for performing the process of storing into the moving image database.

また、本発明は、前記サーバ装置が、ユーザによりアップロードされた撮像動画に係る動画ファイルを受信した場合、受信した動画ファイルに付された撮像タグと同じ撮像タグが付された編集動画に係る動画ファイルを、前記動画データベースから検出する手段と、編集動画に係る動画ファイルを検出した場合、検出した編集動画に係る動画ファイル及び受信した動画ファイルの結合を行うことで、更に編集した編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、前記更に編集した編集動画に係る動画ファイルを、前記ユーザに対応付けて前記動画データベースへ記憶する処理を行う手段とを備えることを特徴とする。   In addition, according to the present invention, when the server device receives a moving image file related to a captured moving image uploaded by a user, the moving image related to an edited moving image to which the same imaging tag as the captured image tag attached to the received moving image file is attached. When the video file related to the edited video and the means for detecting the file from the video database are detected, the video file related to the detected edited video and the received video file are combined to further relate to the edited video Means for generating a moving image file with the imaging tag attached thereto, and means for performing processing for storing the moving image file relating to the further edited moving image in the moving image database in association with the user. And

さらに、本発明は、前記サーバ装置が、ユーザによりアップロードされた撮像動画に係る動画ファイルを受信した場合、そのユーザに対応付けて前記動画データベースに記憶される動画ファイルの中から、結合相手の動画ファイルの検出を行うことを特徴とする。
さらにまた、本発明は、前記サーバ装置は、受信した動画ファイルに係る動画の部分が、結合相手に対し、再生時に先に再生されるように結合を行うことを特徴とする。
Furthermore, in the present invention, when the server device receives a moving image file related to a captured moving image uploaded by a user, the moving image of the partner is selected from the moving image files stored in the moving image database in association with the user. It is characterized by detecting a file.
Still further, the present invention is characterized in that the server device performs a combination so that a portion of the moving image related to the received moving image file is reproduced first with respect to the combination partner during reproduction.

本発明は、前記サーバ装置が、前記動画データベースに記憶された撮像動画に係る動画ファイル又は編集動画に係る動画ファイルを送信する手段を備え、前記サーバ装置から送信される動画ファイルを受信して再生処理を行うことで、再生処理を行った動画ファイルに応じた動画を矩形画面に表示する通信端末装置を備え、前記通信端末装置は、前記矩形画面の一辺に沿った方向を指示する第1方向操作を受け付ける手段と、動画の表示中に前記第1方向操作を受け付けた場合、表示中の動画に係る動画ファイルと同一のユーザに対応付けて前記動画データベースに記憶される動画ファイルの中で、表示中の動画に係る動画ファイルに付された撮像タグと異なる撮像タグが付された動画ファイルに応じた動画へ前記矩形画面の表示を切り替える手段とを備えることを特徴とする。   In the present invention, the server device includes means for transmitting a moving image file related to a captured moving image or an edited moving image stored in the moving image database, and receives and reproduces the moving image file transmitted from the server device. A communication terminal device that displays a moving image corresponding to the moving image file subjected to the reproduction process on the rectangular screen by performing processing, and the communication terminal device indicates a direction along one side of the rectangular screen; In the moving image file stored in the moving image database in association with the same user as the moving image file related to the moving image being displayed when the first direction operation is received while the moving image is displayed and the means for receiving the operation, Switching the display of the rectangular screen to a video corresponding to a video file with an imaging tag different from the imaging tag attached to the video file related to the video being displayed Characterized in that it comprises a means.

また、本発明は、前記通信端末装置が、前記矩形画面の一辺と直交する他辺に沿った方向を指示する第2方向操作を受け付ける手段と、動画の表示中に前記第2方向操作を受け付けた場合、表示中の動画に係る動画ファイルと異なるユーザに対応付けて前記動画データベースに記憶される動画ファイルに応じた動画へ前記矩形画面の表示を切り替える手段とを備えることを特徴とする。   In the present invention, the communication terminal device accepts a second direction operation for instructing a direction along another side orthogonal to one side of the rectangular screen, and accepts the second direction operation while displaying a moving image. In this case, it is characterized by comprising means for switching the display of the rectangular screen to a moving image corresponding to a moving image file stored in the moving image database in association with a user different from the moving image file related to the moving image being displayed.

さらに、本発明は、前記サーバ装置が、複数の動画ファイルを送信する場合、前記複数の動画ファイルの配置関係を規定した配置情報を送信する手段を備え、前記通信端末装置は、前記サーバ装置から複数の動画ファイルを受信すると共に、前記配置情報を受信する手段を備え、前記配置情報は、前記第1方向操作に応じた方向に、異なる撮像タグを付した同一ユーザに対応付けられる複数の動画ファイルを配置すると共に、前記第2方向操作に応じた方向に、異なるユーザに対応付けられる複数の動画ファイルを配置することを規定した情報を含み、前記通信端末装置は、前記第1方向操作又は前記第2方向操作を受け付けた場合、表示中の動画に係る動画ファイルから、前記配置情報で規定される配置に応じた動画ファイルに係る動画へ前記矩形画面の表示の切替を行うことを特徴とする。   Furthermore, the present invention comprises means for transmitting arrangement information that defines the arrangement relationship of the plurality of moving image files when the server device transmits a plurality of moving image files, and the communication terminal device includes: In addition to receiving a plurality of moving image files, the apparatus includes means for receiving the arrangement information, and the arrangement information is associated with the same user with different imaging tags in a direction according to the first direction operation. Including information specifying that a plurality of moving image files associated with different users are arranged in a direction according to the second direction operation, and the communication terminal device includes the first direction operation or When the second direction operation is received, from the moving image file related to the moving image being displayed to the moving image related to the moving image file corresponding to the arrangement defined by the arrangement information And performs the display switching of the serial rectangular screen.

さらにまた、本発明は、前記サーバ装置が、ユーザによりアップロードされる音楽に係る音楽ファイルを受信する手段と、受信した音楽ファイルに応じた音楽の周波数特性を特定する手段と、前記動画データベースに記憶する動画ファイルに応じた動画に含まれる音の周波数特性を特定する手段と、前記動画データベースに記憶された動画ファイルを前記通信端末装置へ送信する場合、送信する動画ファイルについて特定した周波数特性と同じ周波数特性の音楽ファイルを前記通信端末装置へ送信する手段とを備え、前記通信端末装置は、前記サーバ装置から、動画ファイル及び音楽ファイルを受信した場合、受信した動画ファイルの再生処理に伴って、受信した音楽ファイルの再生処理を行う手段を備えることを特徴とする。   Still further, according to the present invention, the server device receives a music file related to music uploaded by a user, a means for specifying a frequency characteristic of music according to the received music file, and a storage in the moving image database. Means for identifying the frequency characteristics of the sound included in the moving image according to the moving image file, and when transmitting the moving image file stored in the moving image database to the communication terminal device, the same as the frequency characteristic specified for the moving image file to be transmitted Means for transmitting a frequency characteristic music file to the communication terminal device, and when the communication terminal device receives a video file and a music file from the server device, along with the playback processing of the received video file, It is characterized by comprising means for performing a reproduction process of the received music file.

また、本発明は、アップロードされた撮像動画に係る動画ファイルを受信して動画データベースへ記憶する処理を行うサーバ装置において、前記動画ファイルには、撮像状況を表す撮像タグが付されており、アップロードされた動画ファイルを受信した場合、受信した動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出する手段と、動画ファイルを検出した場合、検出した動画ファイル及び受信した動画ファイルの結合を行うことで、編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、生成した編集動画に係る動画ファイルを前記動画データベースへ記憶する処理を行う手段とを備えることを特徴とする。   Further, the present invention provides a server device that performs processing for receiving a moving image file related to an uploaded captured moving image and storing it in a moving image database, wherein the moving image file is provided with an imaging tag indicating an imaging state, and uploaded. When the received video file is received, means for detecting from the video database a video file with the same imaging tag as the imaging tag attached to the received video file, and when the video file is detected, the detected video file By combining the file and the received moving image file, means for generating a moving image file related to the edited moving image with the imaging tag, and a process of storing the moving image file related to the generated edited moving image in the moving image database Means for performing.

さらに、本発明は、サーバ装置が、アップロードされた撮像動画に係る動画ファイルを受信して動画データベースへ記憶する処理を行う撮像動画管理方法において、前記動画ファイルには、撮像状況を表す撮像タグが付されており、前記サーバ装置は、アップロードされた動画ファイルを受信した場合、受信した動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出するステップと、動画ファイルを検出した場合、検出した動画ファイル及び受信した動画ファイルの結合を行うことで、編集動画に係る動画ファイルを、前記撮像タグを付して生成するステップと、生成した編集動画に係る動画ファイルを前記動画データベースへ記憶する処理を行うステップとを備えることを特徴とする。   Furthermore, the present invention provides an imaging moving image management method in which the server device performs processing for receiving a moving image file related to an uploaded captured moving image and storing the moving image file in a moving image database. The moving image file includes an imaging tag representing an imaging state. And when the server device receives an uploaded movie file, the server device detects a movie file having the same imaging tag as the imaging tag attached to the received movie file from the movie database; When the moving image file is detected, the detected moving image file and the received moving image file are combined to generate a moving image file related to the edited moving image with the imaging tag, and to the generated editing moving image And a step of storing a moving image file in the moving image database.

さらにまた、本発明は、サーバコンピュータに、アップロードされた撮像動画に係る動画ファイルを受信して動画データベースへ記憶する処理を行わせるためのコンピュータプログラムにおいて、前記動画ファイルには、撮像状況を表す撮像タグが付されており、前記サーバコンピュータに、アップロードされた動画ファイルを受信した場合、受信した動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出するステップと、動画ファイルを検出した場合、検出した動画ファイル及び受信した動画ファイルの結合を行うことで、編集動画に係る動画ファイルを、前記撮像タグを付して生成するステップと、生成した編集動画に係る動画ファイルを前記動画データベースへ記憶する処理を行うステップとを実行させることを特徴とする。   Furthermore, the present invention provides a computer program for causing a server computer to receive a moving image file related to an uploaded captured moving image and store it in a moving image database. When the uploaded video file is received by the server computer, a video file with the same imaging tag as the imaging tag attached to the received video file is detected from the video database. And when the video file is detected, combining the detected video file and the received video file to generate a video file related to the edited video with the imaging tag and the generated edited video To store the video file related to the video database in the video database Characterized in that to execute the steps.

本発明にあっては、投稿(アップロード)された動画を、データベースに記憶されたアップロード済みの動画と結合して、新たな動画を編集生成するので、投稿された複数の動画を、一つの動画として連続して再生視聴できるようになる。そして、動画同士の結合は、闇雲に行うのでは無く、動画に応じた動画ファイルに付された撮像状況を示す撮像タグが同じもの同士で結合を行うので、結合によって得られた編集動画に係る動画ファイルの動画の中身は、撮像状況に関して一定の関連性を具備したものにまとまっており、それによりユーザは、一定の関連性を有する複数の動画を効率的に視聴できるようになる。   In the present invention, the posted (uploaded) video is combined with the uploaded video stored in the database, and a new video is edited and generated. As a result, it will be possible to play and watch continuously. And, since the moving images are not connected to each other in the dark clouds, since the imaging tags indicating the imaging conditions attached to the moving image files corresponding to the moving images are combined with each other, it is related to the edited moving image obtained by the combining. The contents of the moving images in the moving image file are grouped into those having a certain relationship with respect to the imaging state, so that the user can efficiently view a plurality of moving images having a certain relationship.

本発明にあっては、投稿された動画を結合する相手として、既に結合が行われた編集動画に係る動画ファイルを検出するので、累積的に動画を結合して、新たな編集を行った編集動画に係る動画ファイルを生成できるようになり、数多くの動画を結合して新たな編集動画に係る動画ファイルをユーザに提供できるようになる。   In the present invention, as a partner to combine a posted video, a video file related to an edited video that has already been combined is detected. A moving image file related to a moving image can be generated, and a large number of moving images can be combined to provide a user with a moving image file related to a new edited moving image.

本発明にあっては、同じユーザによる動画ファイル同士を結合するので、同一ユーザに係る撮像動画を効率良く視聴できる状況を確保できるようになる。
また、本発明にあっては、投稿により受信した動画ファイルに係る動画の部分が、再生時に先に再生されるように結合を行うので、結合編集により生成された動画ファイルを再生すると、撮像時の新しい順に、複数の動画の中身をユーザは視聴できるようになり、時間的に効率良く新しい撮像動画から一連の動画を確認できる。
In the present invention, since the moving image files by the same user are combined, it is possible to ensure a situation where the captured moving image related to the same user can be viewed efficiently.
Also, in the present invention, since the portion of the moving image related to the moving image file received by posting is combined so that it is reproduced first at the time of reproduction, when the moving image file generated by combined editing is reproduced, The user can view the contents of a plurality of moving images in the newest order, and a series of moving images can be confirmed from the new captured moving images efficiently in time.

本発明にあっては、上述した動画データベースに記憶された動画ファイルに応じた動画を矩形画面に表示する通信端末装置が、矩形画面の一辺に応じた方向の第1方向操作を受け付けると、同一ユーザに係る動画ファイルの中で、撮像状況の異なる撮像動画に係る動画ファイルに再生対象を変更して、矩形画面に表示する動画の内容を切り替えるので、矩形画面に動画を全画面的に表示していても簡単な操作で撮像状況の異なる動画の表示へ切り替えられるようになり、通信端末装置が、特にスマートフォンのような画面サイズの小さなディスプレイ画面(矩形画面)を有するタイプであっても、直感的なユーザインタフェースで、表示する動画を素早く切り替えられる。   In the present invention, when the communication terminal device that displays the moving image corresponding to the moving image file stored in the moving image database described above on the rectangular screen receives the first direction operation in the direction corresponding to one side of the rectangular screen, the same. In the video file related to the user, the playback target is changed to the video file related to the captured video with different imaging conditions, and the content of the video displayed on the rectangular screen is switched, so the video is displayed on the rectangular screen in full screen. Even if the communication terminal device is a type having a display screen (rectangular screen) with a small screen size, such as a smartphone, it is possible to switch to the display of moving images with different shooting conditions with a simple operation. With a simple user interface, you can quickly switch between videos to be displayed.

本発明にあっては、通信端末装置が、上述した第1方向操作の操作方向と直交的な操作方向に応じた第2方向操作を受け付けると、異なるユーザに対応付けられた動画ファイルに再生対象を変更して、矩形画面に表示される動画を切り替えるので、異なるユーザによる撮像動画を、第2方向操作を行うだけで素早く視聴できるようになる。   In the present invention, when the communication terminal device receives the second direction operation according to the operation direction orthogonal to the operation direction of the first direction operation described above, it is reproduced in a moving image file associated with a different user. Since the moving image displayed on the rectangular screen is switched, the moving image captured by a different user can be quickly viewed simply by performing the second direction operation.

本発明にあっては、第1方向操作と第2方向操作のそれぞれに応じた方向に動画ファイルを配置した関係を配置情報で規定しておくので、第1方向操作又は第2方向操作を行えば、通信端末装置は、配置情報に基づき再生対象の動画ファイルを切り替えられるようになる。そして、第1方向操作に応じた方向には、同一ユーザによる撮像状況が異なる動画ファイルを配置し、第2方向操作に応じた方向には、異なるユーザによる動画ファイルを配置するので、第1方向操作を行えば、撮像状況の異なる動画ファイルに応じた動画に矩形画面の表示を切り替えることができ、また、第2方向操作を行えば、異なるユーザによる撮像動画に矩形画面の表示を切り替えられるようになり、表示する動画の切替に関して、直感的に分かりやすいユーザインタフェースを提供できる。   In the present invention, since the relationship in which the moving image file is arranged in the direction corresponding to each of the first direction operation and the second direction operation is defined by the arrangement information, the first direction operation or the second direction operation is performed. For example, the communication terminal device can switch the reproduction target moving image file based on the arrangement information. Then, moving image files with different imaging situations by the same user are arranged in the direction according to the first direction operation, and moving image files by different users are arranged in the direction according to the second direction operation. If the operation is performed, the display of the rectangular screen can be switched to a moving image corresponding to the moving image file having a different imaging state, and if the second direction operation is performed, the display of the rectangular screen can be switched to a captured moving image by a different user. Thus, it is possible to provide an intuitive user interface for switching the moving image to be displayed.

本発明にあっては、音楽に係る音楽ファイルもアップロードできるようにして、周波数特性が同様の傾向の音楽ファイルと動画ファイルを連動して再生するので、ユーザ投稿による各種コンテンツを多面的に楽しめる状況をユーザに提供できるようになり、様々なクリエイターに多様な発表を行える機会の場を提供できると共に、動画と音楽の融合した新たなコンテンツを作り出せるようになる。   In the present invention, music files related to music can be uploaded, and music files and video files having similar tendencies in frequency characteristics are played back in conjunction with each other. Can be provided to users, providing opportunities for various creators to make various presentations, and creating new content that combines video and music.

本発明にあっては、投稿された複数の動画を、撮像状況が共通するもの同士で結合するので、撮像状況が同様の複数の動画を、一つの動画として連続的に再生でき、一定の関連性を有する複数の動画を効率的に視聴可能な状況を提供できる。
また、本発明にあっては、累積的に動画を結合可能にすることで、三以上の多数の動画ファイルを順次結合した編集動画を生成できる。
In the present invention, since a plurality of posted videos are combined with ones having the same imaging situation, a plurality of videos having the same imaging situation can be continuously reproduced as one movie, and a certain relationship It is possible to provide a situation in which a plurality of moving images can be efficiently viewed.
In addition, according to the present invention, an edited moving image can be generated by sequentially combining a large number of three or more moving image files by allowing the moving images to be combined cumulatively.

さらに、本発明にあっては、同一ユーザによる動画同士で結合を行うので、同じ撮影者による複数の撮像動画を連続的に視聴でき、興味のある撮像者による複数の撮像動画を効率的に確認することが可能になる。
本発明にあっては、結合で編集した動画ファイルを再生すると、撮像時の新しい順に、複数の動画部分が再生されるので、新しい撮像動画から順に効率良く一連の動画を視聴できる。
Furthermore, in the present invention, since moving images by the same user are combined, it is possible to continuously view a plurality of captured moving images by the same photographer, and efficiently confirm a plurality of captured moving images by an interested photographer. It becomes possible to do.
According to the present invention, when a moving image file edited by combining is reproduced, a plurality of moving image parts are reproduced in the order from the newest when the image is taken.

本発明にあっては、動画を矩形画面に表示する通信端末装置において、視聴する人が矩形画面の一辺に沿った第1方向操作を行うだけで、同一ユーザの撮像による撮像状況の異なる動画へ表示を切り替えられるので、直感的なユーザインタフェースで容易に撮像状況の異なる動画を視聴できる。
また、本発明にあっては、通信端末装置の矩形画面の一辺と直交的な他辺に沿った第2方向操作を行うだけで、異なるユーザの撮像による撮像動画へと表示が切り替えられるので、直感的なユーザインタフェースで容易に異なる撮像者による撮像動画へ表示を切り替えられる。
According to the present invention, in a communication terminal device that displays a moving image on a rectangular screen, a viewer can simply move to a moving image that has a different imaging situation due to the image of the same user by performing a first direction operation along one side of the rectangular screen. Since the display can be switched, it is possible to easily view moving images with different shooting conditions with an intuitive user interface.
Further, in the present invention, the display can be switched to a captured video imaged by a different user simply by performing a second direction operation along another side orthogonal to one side of the rectangular screen of the communication terminal device. With an intuitive user interface, the display can be easily switched to a moving image taken by different photographers.

本発明にあっては、第1方向操作と第2方向操作のそれぞれに応じた方向に動画ファイルを配置した関係を規定しておくので、この予め規定した配置関係に従って、視聴する人による第1方向操作又は第2方向操作に対し、素早く表示対象の動画を切り替えることができる。
また、本発明にあっては、アップロードされる音楽ファイルについて、周波数特性が同様の傾向の動画ファイルを連携して再生するので、視覚及び聴覚で多面的に融合した新たなコンテンツをユーザに提供できる。
In the present invention, since the relationship in which the moving image file is arranged in the direction corresponding to each of the first direction operation and the second direction operation is defined, the first by the viewer according to the predetermined arrangement relationship is defined. The moving image to be displayed can be quickly switched with respect to the direction operation or the second direction operation.
Further, in the present invention, since the uploaded music file is played back in cooperation with the moving image file having the same frequency characteristic, it is possible to provide the user with new contents that are visually and auditorily fused in many ways. .

本発明の実施形態に係る撮像動画サービスシステムの全体的な構成を示す概略図である。It is the schematic which shows the whole structure of the imaging moving image service system which concerns on embodiment of this invention. (a)は、ユーザが用いる通信端末装置の一例であるスマートフォンの正面図、(b)は背面図である。(A) is a front view of the smart phone which is an example of the communication terminal device which a user uses, (b) is a rear view. ユーザが用いる通信端末装置の一例であるスマートフォンの主要な内部構成を示すブロック図である。It is a block diagram which shows the main internal structures of the smart phone which is an example of the communication terminal device which a user uses. ログイン画面を示す概略図である。It is the schematic which shows a login screen. メイン画面を示す概略図である。It is the schematic which shows a main screen. (a)は、アイコン等を重ねて表示したメイン画面を示す概略図、(b)はメイン画面から切替表示された撮像画面を示す概略図である。(A) is the schematic which shows the main screen which displayed the icon etc. superimposed, (b) is the schematic which shows the imaging screen switched and displayed from the main screen. (a)は、撮像中画面を示す概略図、(b)は、撮像完了画面を示す概略図である。(A) is the schematic which shows the screen during imaging, (b) is the schematic which shows the imaging completion screen. 撮像動画ファイルのファイル構造を概要的に示す概略図である。It is the schematic which shows the file structure of an imaging moving image file roughly. 再生対象を切り替えるためのスワイプ操作の向きを示す概略図である。It is the schematic which shows the direction of the swipe operation for switching the reproduction | regeneration object. ダウンロードされる複数の動画ファイルの再生切替順序に係る配置状況を示す概略図である。It is the schematic which shows the arrangement | positioning condition which concerns on the reproduction | regeneration switching order of the some moving image file downloaded. サーバ装置の主要な内部構成を示すブロック図である。It is a block diagram which shows the main internal structures of a server apparatus. 登録ユーザテーブルの中身の一例を示す図表である。It is a chart which shows an example of the contents of a registration user table. データベース装置の主要な内部構成を示すブロック図である。It is a block diagram which shows the main internal structures of a database apparatus. データベース装置が有する動画データベースにおけるオリジナル動画格納部の中身の一例を示す図表である。It is a graph which shows an example of the content of the original moving image storage part in the moving image database which a database apparatus has. データベース装置が有する動画データベースにおける配信動画格納部の中身の一例を示す図表である。It is a graph which shows an example of the content of the delivery moving image storage part in the moving image database which a database apparatus has. (a)、(b)は、動画ファイルの結合による編集動画ファイルの生成の仕方を示す概略図である。(A), (b) is the schematic which shows the method of the production | generation of an edit moving image file by the combination of a moving image file. 撮像動画管理方法に係る処理手順を示す第1フローチャートである。It is a 1st flowchart which shows the process sequence which concerns on a captured moving image management method. 撮像動画管理方法に係る処理手順を示す第2フローチャートである。It is a 2nd flowchart which shows the process sequence which concerns on a captured moving image management method. 撮像動画管理方法に係る処理手順を示す第3フローチャートである。It is a 3rd flowchart which shows the process sequence which concerns on an imaging moving image management method. 変形例の登録ユーザテーブルの中身の一例を示す図表である。It is a chart which shows an example of the contents of the registration user table of a modification. (a)は変形例のデータベース装置の主要な内部構成を示すブロック図、(b)は音楽データベースの中身の一例を示す図表である。(A) is a block diagram which shows the main internal structures of the database apparatus of a modification, (b) is a chart which shows an example of the content of a music database.

図1は、本発明に係る実施形態である撮像動画サービスシステム1の全体的な概要を示す。撮像動画サービスシステム1は、ユーザU1が動画の撮像機能を有する通信端末装置T1を用いて撮像した動画(撮像動画)を、動画管理システム40へアップロードし、一方、別のユーザU10が通信端末装置T10を用いて、動画管理システム40から撮像動画をダウンロードすることで、ユーザU1の撮像動画を視聴できるようにしたものである(なお、もちろん、ユーザU1も、自身のアップロードした撮像動画を動画管理システム40からダウンロードすれば、通信端末装置T1で、自己の撮像動画を視聴できる)。   FIG. 1 shows an overall outline of an imaging moving image service system 1 which is an embodiment according to the present invention. The imaging moving image service system 1 uploads a moving image (captured moving image) captured by the user U1 using the communication terminal device T1 having a moving image capturing function to the moving image management system 40, while another user U10 communicates with the communication terminal device. By downloading the captured video from the video management system 40 using T10, the captured video of the user U1 can be viewed (of course, the user U1 also manages the video captured by the user U1) If downloaded from the system 40, the communication terminal device T1 can view the self-captured moving image).

本発明では、アップロードされた動画を、オリジナルのままで視聴することに加えて、同一ユーザによる複数の撮像動画について、撮像状況について共通する撮像動画を結合することで編集動画を生成し、その編集動画をダウンロードして視聴できるようにしたことが特徴になっており、それにより、撮像状況が共通する撮像動画を連続してスムーズに視聴可能になっている。また、本発明では、視聴する際のユーザインタフェースを工夫することで、異なる撮像者の撮像画像を容易に切り替えられること、及び同一の撮像者による異なる撮像状況の撮像画像を容易に切り替えられることも実現している。   In the present invention, in addition to viewing the uploaded video as it is, an edited video is generated by combining a plurality of video shots by the same user with a common video shot regarding the shooting status, and editing the video. The feature is that the moving images can be downloaded and viewed, whereby the captured moving images having the same imaging situation can be viewed continuously and smoothly. In addition, in the present invention, by devising a user interface for viewing, it is possible to easily switch captured images of different photographers, and to easily switch captured images of different imaging situations by the same photographer. Realized.

なお、図1では、図の内容が煩雑になるのを防ぐため、撮像側に一人のユーザU1が用いる1台の通信端末装置T1を示すと共に、視聴側に一人のユーザU10が用いる1台の通信端末装置T10を示すに留まるが、実際の運用場面では、撮像側及び視聴側に複数のユーザが存在し、それら各ユーザのそれぞれが通信端末装置を使用する状況となる。また、動画管理システム40への撮像動画のアップロード及びダウンロードに関するサービスを受けられるようにするため、ユーザU1、U10は事前に、動画管理システム40の提供するサービスに対して、ユーザの氏名、メールアドレス等のユーザ情報を提出してユーザ登録を行っているものとし、ユーザ登録が行われると、各ユーザを識別するユーザID(ユーザ識別情報)が動画管理システム40により発行される。以下、本発明の実施形態の詳細について、通信端末装置T1、T10から順次、説明していく。   1 shows one communication terminal device T1 used by one user U1 on the image capturing side and one user U10 used by one user U10 on the viewing side in order to prevent the content of the drawing from becoming complicated. Although only showing the communication terminal device T10, in an actual operation situation, there are a plurality of users on the imaging side and the viewing side, and each of these users uses the communication terminal device. In addition, in order to be able to receive services related to uploading and downloading of captured moving images to the moving image management system 40, the users U 1 and U 10 give the user's name and email address to the service provided by the moving image management system 40 in advance. When the user registration is performed, a user ID (user identification information) for identifying each user is issued by the moving image management system 40. Hereinafter, details of the embodiment of the present invention will be described sequentially from the communication terminal devices T1 and T10.

図2(a)、(b)は、本発明の通信端末装置T1,T10に適用されるスマートフォン10の正面及び背面を示す。本発明の通信端末装置T1、T10としては、動画撮像機能を有する通信端末を用いることができ、具体的には、スマートフォン、タブレット、携帯型コンピュータ等が適用可能であり、本発明を実現する処理及び機能等を規定したアプリ(アプリケーションプログラム)を、このような通信端末にインストールすることで、本発明に適用可能な通信端末装置T1、T10になり得る。   2 (a) and 2 (b) show the front and back of the smartphone 10 applied to the communication terminal devices T1 and T10 of the present invention. As the communication terminal devices T1 and T10 of the present invention, a communication terminal having a moving image capturing function can be used. Specifically, a smartphone, a tablet, a portable computer, or the like can be applied, and a process for realizing the present invention. And by installing an application (application program) that defines functions and the like in such a communication terminal, the communication terminal devices T1 and T10 can be applied to the present invention.

図2(a)、(b)に示すスマートフォン10は、このような本発明に適用できる通信端末装置の一例を示すにすぎず、本発明に適用される通信端末装置が、図2(a)、(b)に示される形態に限定されるものではない。スマートフォン10は、薄板状の筐体11の正面11aの側に、タッチパネル機能を有する矩形のディスプレイ12(矩形画面に相当)を配置し、そのディスプレイ12の上方には、サブカメラ16a及びスピーカ15を配置すると共に、ディスプレイ12の下方には操作部13及びマイク14を配置している。また、スマートフォン20は、筐体11の背面11bにメインカメラ16bを配置する。   The smartphone 10 shown in FIGS. 2 (a) and 2 (b) is merely an example of such a communication terminal device applicable to the present invention, and the communication terminal device applied to the present invention is shown in FIG. 2 (a). , (B) is not limited to the form shown. In the smartphone 10, a rectangular display 12 (corresponding to a rectangular screen) having a touch panel function is disposed on the front surface 11 a side of the thin plate-like housing 11, and a sub camera 16 a and a speaker 15 are disposed above the display 12. The operation unit 13 and the microphone 14 are disposed below the display 12. Further, the smartphone 20 arranges the main camera 16 b on the back surface 11 b of the housing 11.

図3は、通信端末装置T1、T10の一例である上述したスマートフォン10の主要な内部構成を示す。スマートフォン10は、プログラムに従って各種処理を行う一種のコンピュータ(通信手段、動画撮像手段、及び記憶手段を具備したコンピュータ)に該当し、全体的な制御及び各種処理を行うCPU10a(プロセッサ10a)に、内部接続線10iを介して、通信・通話モジュール10b(通信手段に相当)、RAM10c、ROM10d、画面接続処理部10e、音入出力処理部10f、動画ファイル生成部18、撮像処理部10g、GPS部10h、操作部13、記憶部(記憶手段に相当)10k等の各種デバイス等を接続したものになっている。なお、ユーザU1、U10の用いる通信端末装置T1、T10がスマートフォン10以外のものであっても(携帯型コンピュータ、又はタブレット等)、基本的な構成は、図3に示す内容と同等になるので、図3は、本発明で適用可能な様々な種類の通信端末装置T1、T10の概要を示すものになる。   FIG. 3 shows a main internal configuration of the smartphone 10 described above, which is an example of the communication terminal devices T1 and T10. The smartphone 10 corresponds to a kind of computer (a computer having a communication unit, a moving image capturing unit, and a storage unit) that performs various types of processing in accordance with a program. The smartphone 10 internally includes a CPU 10a (processor 10a) that performs overall control and various types of processing. Via the connection line 10i, a communication / call module 10b (corresponding to communication means), RAM 10c, ROM 10d, screen connection processing unit 10e, sound input / output processing unit 10f, moving image file generation unit 18, imaging processing unit 10g, GPS unit 10h Various devices such as an operation unit 13 and a storage unit (corresponding to a storage unit) 10k are connected. Even if the communication terminal devices T1 and T10 used by the users U1 and U10 are other than the smartphone 10 (such as a portable computer or a tablet), the basic configuration is the same as that shown in FIG. FIG. 3 shows an outline of various types of communication terminal devices T1 and T10 applicable in the present invention.

スマートフォン10の通信・通話モジュール10bは、ネットワークを介した無線通信機能を有し、上述した動画管理システム40との通信を可能にすると共に、CPU10aの制御に従って所定の電話番号へ電話をかける機能(発呼機能)及び電話を受ける機能(着呼機能)等を有する。RAM10cは、CPU10aの処理に伴う内容、ファイル、データ等を一時的に記憶するものである。ROM10dは、CPU10aの基本的な処理内容を規定したプログラム等を記憶すると共に、スマートフォン10を識別する識別情報(UID)等も格納している。なお、このUIDは、上述した通信・通話モジュール10bで通信(送信)する際、送信内容に含まれるようになっている(例えば、送信パケットのヘッダ等にUIDを含めて送信が行われる)。   The communication / call module 10b of the smartphone 10 has a wireless communication function via a network, enables communication with the above-described moving image management system 40, and makes a call to a predetermined telephone number under the control of the CPU 10a ( A calling function) and a function for receiving a call (incoming call function). The RAM 10c temporarily stores contents, files, data and the like accompanying the processing of the CPU 10a. The ROM 10d stores a program that defines the basic processing contents of the CPU 10a, and also stores identification information (UID) that identifies the smartphone 10. This UID is included in the transmission content when communicating (transmitting) with the communication / call module 10b described above (for example, transmission is performed including the UID in the header of the transmission packet).

画面接続処理部10eは、上述したディスプレイ12を接続しており、CPU10aの制御処理により生成された各種画面(図4〜7等に示す画面参照)をディスプレイ12に出力する処理を行い、それにより、出力した画面がディスプレイ12に表示されることになる。特に本実施形態では、動画の再生等を行うので、動画再生に係る各種処理も画面接続処理部10eで行うことになる。また、画面接続処理部10eは、ディスプレイ12の表面をユーザがタップ、スワイプ、フリック等の操作をすることで受け付けた操作内容をCPU10aへ伝える処理も行う。なお、ユーザがディスプレイ12の表面をタップ、スワイプ、フリック等の操作をすることで受け付ける操作内容は、表示している画面内容に応じて適宜変化する。   The screen connection processing unit 10e is connected to the display 12 described above, and performs processing for outputting various screens (see screens shown in FIGS. 4 to 7 and the like) generated by the control processing of the CPU 10a to the display 12, thereby The output screen is displayed on the display 12. In particular, in the present embodiment, since a moving image is reproduced, various processes related to the moving image reproduction are also performed by the screen connection processing unit 10e. Further, the screen connection processing unit 10e also performs a process of notifying the CPU 10a of the operation content received by the user performing operations such as tapping, swiping, and flicking on the surface of the display 12. Note that the operation content received by the user performing operations such as tapping, swiping, and flicking on the surface of the display 12 appropriately changes according to the displayed screen content.

音入出力処理部10fは、上述したマイク14及びスピーカ15を接続しており、マイク14で取得(入力)された音声等に対して、所定の処理(AD変換処理等)を行うことで音データ(オーディオデータ)を生成する。また、CPU10aの制御処理により、音入出力処理部10fは、出力対象となる音データに対して所定の処理(デコード処理、DA変換処理)を行ってアナログ音声を生成し、スピーカ15から出力する処理も行う。なお、音入出力処理部10fは、動画撮像を行う場合、動画撮像時の音声をマイク14で取得して生成した音データを動画ファイル生成部18へ出力する処理を行う。   The sound input / output processing unit 10f connects the microphone 14 and the speaker 15 described above, and performs sound processing by performing predetermined processing (AD conversion processing or the like) on the sound or the like acquired (input) by the microphone 14. Data (audio data) is generated. In addition, the sound input / output processing unit 10f performs predetermined processing (decoding processing, DA conversion processing) on the sound data to be output by the control processing of the CPU 10a to generate analog sound, and outputs it from the speaker 15. Processing is also performed. Note that the sound input / output processing unit 10 f performs a process of outputting sound data generated by acquiring the sound at the time of moving image capturing with the microphone 14 to the moving image file generating unit 18 when capturing a moving image.

撮像処理部10gは、上述したサブカメラ16a及びメインカメラ16bを接続しており、サブカメラ16a及びメインカメラ16bが含む撮像素子で撮像された画像(撮像画像、動画を含む)に対して所定の処理(エンコード処理等)を行うことで、画像データ(コンテンツデータ)を生成する。なお、撮像処理部10gも、動画撮像を行う場合、生成した画像データを動画ファイル生成部18へ出力する処理を行う。   The imaging processing unit 10g connects the sub camera 16a and the main camera 16b described above, and performs predetermined processing on images (including captured images and moving images) captured by the imaging elements included in the sub camera 16a and the main camera 16b. Image data (content data) is generated by performing processing (encoding processing or the like). Note that the imaging processing unit 10g also performs a process of outputting the generated image data to the moving image file generating unit 18 when capturing a moving image.

動画ファイル生成部18は、撮像動画に係る動画ファイルの生成を行うものであり、音入出力処理部10fから出力されてきた音データ、及び撮像処理部10gから出力されてきた画像データを組み合わせて各種処理(エンコード処理など)を行って、所定のフレームレート(例えば30fps)で、動画に応じたファイル形式(例えば、mp4)の動画コンテンツのデータを含む動画ファイル(撮像動画に係る撮像動画ファイル)の生成を行う。また、生成した動画ファイルには、撮像状況を表す情報(撮像タグ)が付したものになっている。   The moving image file generation unit 18 generates a moving image file related to the captured moving image, and combines the sound data output from the sound input / output processing unit 10f and the image data output from the imaging processing unit 10g. A moving image file (captured moving image file related to a captured moving image) including data of a moving image content in a file format (for example, mp4) corresponding to the moving image at a predetermined frame rate (for example, 30 fps) by performing various processes (such as encoding processing) Is generated. In addition, the generated moving image file has information (imaging tag) indicating an imaging state attached thereto.

GPS部10hは、衛星測位システムからの電波を受信して、スマートフォン10の位置する緯度経度を検出するものである。また、操作部13は、スマートフォン10の筐体11に設けられたハードボタンであり、操作部13が操作されると、操作された旨がCPU10aに伝えられる。操作部13の操作による意味合いは、スマートフォン10の処理状況により様々なものになり、例えば、アプリを起動している状況で、操作部13が操作されると、アプリを終了する動作が行われるので、この場合、操作部13の操作は、アプリの終了指示をユーザから受け付けることになる。   The GPS unit 10h receives radio waves from the satellite positioning system and detects the latitude and longitude where the smartphone 10 is located. The operation unit 13 is a hard button provided on the housing 11 of the smartphone 10, and when the operation unit 13 is operated, the fact that the operation unit 13 has been operated is transmitted to the CPU 10a. The meaning of the operation of the operation unit 13 varies depending on the processing status of the smartphone 10. For example, when the operation unit 13 is operated in a state where the application is activated, an operation for ending the application is performed. In this case, the operation of the operation unit 13 receives an application end instruction from the user.

記憶部10kは、OSプログラムP1、動画アプリP2、及びその他の各種アプリ等のプログラムを記憶(インストール)している。OSプログラムP1は、オペレーティングシステムに相当する基本プログラムであり、スマートフォン10が一種のコンピュータとして機能するためのCPU10aの処理を規定している。OSプログラムP1が規定する基本的な処理の一つとしては、スマートフォン10が使用できる状態になったときに、最初にディスプレイ12にホーム画面を表示することが挙げられ、このホーム画面においては、記憶部10kにインストールされている各種アプリに応じたアイコン等を配置することも、OSプログラムP1の規定する処理によるものとなっている。   The storage unit 10k stores (installs) programs such as the OS program P1, the moving image application P2, and other various applications. The OS program P1 is a basic program corresponding to an operating system, and defines the processing of the CPU 10a for the smartphone 10 to function as a kind of computer. One of the basic processes defined by the OS program P1 is to first display a home screen on the display 12 when the smartphone 10 is ready to be used. Arrangement of icons and the like corresponding to various applications installed in the section 10k is also due to processing defined by the OS program P1.

動画アプリP2は、本発明に関してCPU10aが行う各種処理内容を規定したものである。動画アプリP2の配信を行うサーバからダウンロードすることで、記憶部10kにインストールされる。動画アプリP2の規定する処理の内容としては、動画管理システム40へのログイン処理、動画撮像処理、撮像場所名取得処理、動画アップロード処理、動画ダウンロード処理、動画再生処理、再生動画切替処理等があり、動画アプリP2は、これらの各処理に応じた画面内容をディスプレイ12に適宜、表示することも規定する。なお、動画アプリP2は、スマートフォン10の記憶部10kに記憶されてインストールが完了すると、ホーム画面(図示せず)に、動画アプリP2用のアイコンが選択可能に配置される。   The moving image application P2 defines various processing contents performed by the CPU 10a with respect to the present invention. It is installed in the storage unit 10k by downloading from the server that distributes the video application P2. The contents of the process defined by the video application P2 include a login process to the video management system 40, a video imaging process, an imaging location name acquisition process, a video upload process, a video download process, a video playback process, a playback video switching process, and the like. The moving image application P2 also defines that the screen content corresponding to each of these processes is appropriately displayed on the display 12. When the video application P2 is stored in the storage unit 10k of the smartphone 10 and installation is completed, an icon for the video application P2 is arranged on the home screen (not shown) in a selectable manner.

図4は、ディスプレイ12に表示したログイン画面20を示し、ホーム画面に配置された動画アプリP2用のアイコンがタップ(選択)されて、動画アプリP2が起動することにより、最初に表示される画面となる。ログイン画面20は、ログオフの状態のときに、動画アプリP2の規定に従って、CPU10aの制御により生成されるものであり、メールアドレスの第1入力欄20a、パスワードの第2入力欄20b、及び選択可能なログインボタン20cを有する。各入力欄20a、20bへ情報を入力する際は、図4に示すように、OSプログラムP1の機能によりソフトキーボード19がディスプレイ12の画面下半分に表示され、このソフトキーボード19に含まれる各種キーのタップ操作によりユーザは情報入力を行うことになる。   FIG. 4 shows a login screen 20 displayed on the display 12, and a screen that is initially displayed when the video application P2 is activated by tapping (selecting) an icon for the video application P2 arranged on the home screen. It becomes. The log-in screen 20 is generated under the control of the CPU 10a in accordance with the rules of the video application P2 when in a logoff state, and includes a first input field 20a for a mail address, a second input field 20b for a password, and selection. Login button 20c. When inputting information into the input fields 20a and 20b, as shown in FIG. 4, the soft keyboard 19 is displayed on the lower half of the screen of the display 12 by the function of the OS program P1, and various keys included in the soft keyboard 19 are displayed. The user inputs information by tapping the button.

第1及び第2入力欄20a、20bに所要情報の入力を受け付けた状態で、ログインボタン20cの選択操作を受け付けると、各入力欄20a、20bに入力されたログイン情報(メールアドレス及びパスワード)を含むログイン要求を動画管理システム40へ送信する制御を、CPU10aは動画アプリP2の規定に基づき行うことになる。   When the selection operation of the login button 20c is accepted in the state where the input of the required information is accepted in the first and second input fields 20a and 20b, the login information (email address and password) input in each of the input fields 20a and 20b is received. The CPU 10a performs control to transmit the login request including the video request to the video management system 40 based on the rules of the video application P2.

ログイン要求の送信に対して、動画管理システム40からログイン不可通知をスマートフォン10が受信した場合、表示中のログイン画面20にログインが出来なかった旨を示すと共に、各入力欄20a、20bを入力可能な空欄状態にして、ユーザへ再度のログイン操作を促す。一方、ログイン要求の送信に対して、動画管理システム40がログインを承認すると、動画管理システム40から複数の動画ファイルが送られてくるので、スマートフォン10は、これらの動画ファイルのダウンロード(受信)を行って、再生処理を行うことになる。   When the smartphone 10 receives a login failure notification from the video management system 40 in response to the login request transmission, the login screen 20 being displayed indicates that the login has failed and the input fields 20a and 20b can be entered. Prompting the user to log in again. On the other hand, when the video management system 40 approves login in response to the transmission of the login request, a plurality of video files are sent from the video management system 40, so the smartphone 10 downloads (receives) these video files. The reproduction process is performed.

図5は、動画アプリP2のログイン完了後のメイン画面21(動画再生画面に相当)がディスプレイ12に表示された状態を示す。ログインが完了すると、後述するようにサーバ装置50から複数の動画ファイルが送られてくるので、動画アプリP2の規定により、送られてくる複数の動画ファイルを自動でダウンロードして、RAM10c又は記憶部10kに記憶する。また、ダウンロードした複数の動画ファイルに関しては、最初に再生を行う動画ファイルが、動画ファイルと一緒に受信される配置情報により指定されているので、動画アプリP2の規定によりCPU10aは、その配置情報で最初に再生が指定された動画ファイルについて自動で再生処理を開始し、再生した動画Dをメイン画面21で表示する制御処理を行う(ディスプレイ12に、再生した動画Dを全画面表示する)。   FIG. 5 shows a state in which the main screen 21 (corresponding to a moving image playback screen) after the login of the moving image application P2 is completed is displayed on the display 12. When the login is completed, a plurality of moving image files are sent from the server device 50 as will be described later. Therefore, the plurality of moving image files are automatically downloaded according to the rules of the moving image application P2, and the RAM 10c or the storage unit is downloaded. Store in 10k. In addition, regarding the plurality of downloaded video files, the video file to be played first is designated by the placement information received together with the video file, so that the CPU 10a uses the placement information according to the rules of the video application P2. First, the reproduction process is automatically started for the moving image file designated to be reproduced, and the control process for displaying the reproduced moving image D on the main screen 21 is performed (the reproduced moving image D is displayed on the entire screen on the display 12).

したがって、ユーザとしては、ログイン操作を行って、ログインが完了すれば、ディスプレイ12に動画が自動的に表示されるので、再生のための操作は不要になっている。なお、この図5では、スマートフォン10を横長にして、ディスプレイ12の長辺12aを水平方向にすると共に、短辺12bを垂直方向にした状態を表しているが、スマートフォン10を、図5に示す状態から90度回転させた縦長の状態で動画再生を行うことも勿論可能である。また、ログオフ操作を行うことなく、他のアプリを操作してからホーム画面を表示して、動画アプリP2用のアイコンを選択したときは、ログインは係属中となり、上述したログイン画面20を表示することなく、動画ファイル要求を動画管理システム40へ送信することで、スマートフォン10は、図5に示す自動再生される動画を含むメイン画面21をディスプレイ12に表示することになる。   Therefore, as a user, when a login operation is performed and the login is completed, a moving image is automatically displayed on the display 12, and thus an operation for reproduction is unnecessary. 5 shows a state in which the smartphone 10 is horizontally long, the long side 12a of the display 12 is in the horizontal direction, and the short side 12b is in the vertical direction, the smartphone 10 is shown in FIG. It is of course possible to reproduce the moving image in a vertically long state rotated 90 degrees from the state. In addition, when the home screen is displayed after operating another application without performing the logoff operation, and the icon for the video application P2 is selected, the login is pending and the above-described login screen 20 is displayed. Without transmitting the moving image file request to the moving image management system 40, the smartphone 10 displays the main screen 21 including the automatically reproduced moving image shown in FIG.

図6(a)は、メイン画面21で示される動画Dに、各種アイコン及び情報等を重ねて表示した状態を示す。メイン画面21をディスプレイ12に表示した状態で、ディスプレイ12の画面表面にタッチすると、CPU10aを、そのタッチ操作を受け付けて、動画アプリP2の規定に従って、ディスプレイ12の画面右側にホームアイコン21a、カメラアイコン21b等のアイコンを選択可能に表示すると共に、ディスプレイ12の画面下方に、再生中の動画に応じた動画ファイルに付された情報(撮像日時、撮像場所等)を示す情報欄21cを表示する処理を行う。なお、図6(a)に示す各アイコン21a、21b及び情報欄21cは、一定時間(例えば30秒)を経過すると自動消去される。   FIG. 6A shows a state in which various icons, information, and the like are superimposed on the moving image D shown on the main screen 21. When the main screen 21 is displayed on the display 12 and the screen surface of the display 12 is touched, the CPU 10a accepts the touch operation, and the home icon 21a and the camera icon are displayed on the right side of the screen of the display 12 according to the rules of the video application P2. A process of displaying an icon such as 21b in a selectable manner and displaying an information column 21c indicating information (imaging date and time, imaging location, etc.) attached to the moving image file corresponding to the moving image being reproduced at the bottom of the display 12 I do. Note that the icons 21a and 21b and the information column 21c shown in FIG. 6A are automatically deleted when a certain time (for example, 30 seconds) elapses.

図6(b)は、図6(a)に示すメイン画面21で、カメラアイコン21bのタップ操作を行うことで、ディスプレイ12の表示をメイン画面21から撮像画面22に切り替えた状態を示す。このような表示切替も、動画アプリP2の規定に従ったCPU10aの制御により行われており、図6(b)の撮像画面22では、メインカメラ16bで撮像された画像がディスプレイ12に表示された状態を示す。また、撮像画面22は、画面右側に選択可能な再生アイコン22a、撮像スタートアイコン22b、カメラ切替用アイコン22cを配置している。   FIG. 6B shows a state in which the display on the display 12 is switched from the main screen 21 to the imaging screen 22 by performing a tap operation on the camera icon 21b on the main screen 21 shown in FIG. Such display switching is also performed under the control of the CPU 10a in accordance with the rules of the video application P2, and the image captured by the main camera 16b is displayed on the display 12 on the imaging screen 22 in FIG. Indicates the state. The imaging screen 22 includes a selectable playback icon 22a, an imaging start icon 22b, and a camera switching icon 22c on the right side of the screen.

再生アイコン22aをタップすると、ディスプレイ12の表示が、撮像画面22から上述した図6(a)に示すメイン画面21へCPU10aの制御により切り替えられる。また、撮像スタートアイコン22bがタップされると、動画の撮像が開始され、撮像処理部10gは動画の撮像処理を行うと共に、音入出力処理部10fはマイク14での音声取得処理を行う。   When the playback icon 22a is tapped, the display 12 is switched from the imaging screen 22 to the main screen 21 shown in FIG. 6A described above under the control of the CPU 10a. When the imaging start icon 22b is tapped, the imaging of the moving image is started, the imaging processing unit 10g performs the imaging processing of the moving image, and the sound input / output processing unit 10f performs the sound acquisition processing with the microphone 14.

また、動画撮像の開始に伴い、GPS部10hで検出したスマートフォン10の位置(撮像位置)の緯度経度に応じた地名の特定処理をCPU10aは、動画アプリP2の規定に基づき行う。具体的には、緯度経度に応じた地名を示すサービスを行っているウェブサイト(国土交通省による位置参照情報ダウンロードサービス等)にアクセスを行って、撮像場所を示す地名を取得し、取得した地名を、撮像中の動画の撮像場所名としてRAM10cに一時的に記憶する制御処理をCPU10aは行う。   In addition, with the start of moving image capturing, the CPU 10a performs location name identification processing according to the latitude and longitude of the position (imaging position) of the smartphone 10 detected by the GPS unit 10h based on the rules of the moving image application P2. Specifically, access to a website that provides a service that shows the place name according to the latitude and longitude (location reference information download service by the Ministry of Land, Infrastructure, Transport and Tourism, etc.), obtain the place name indicating the imaging location, and obtain the place name Is temporarily stored in the RAM 10c as the imaging location name of the moving image being imaged.

なお、図6(b)に示す撮像画面22において、カメラ切替アイコン22cがタップされた場合は、撮像に用いるカメラが、メインカメラ16bからサブカメラ16aへ切り替えられる(再度、カメラ切替アイコン22cがタップされると、撮像に用いるカメラは、サブカメラ16aからメインカメラ16bへ切り替えられる)。なお、図6(b)への撮像画面22への切替は、上述した図5に示すメイン画面21を表示した状態で、ディスプレイ12の画面表面をダブルタップする操作を行うことでも可能になっている。   6B, when the camera switching icon 22c is tapped, the camera used for imaging is switched from the main camera 16b to the sub camera 16a (again, the camera switching icon 22c is tapped. Then, the camera used for imaging is switched from the sub camera 16a to the main camera 16b). Note that switching to the imaging screen 22 in FIG. 6B is also possible by performing an operation of double-tapping the screen surface of the display 12 while the main screen 21 shown in FIG. 5 is displayed. Yes.

図7(a)は、ディスプレイ12に表示された撮像中画面23を示す。撮像中画面23は、上述した図6(b)に示す撮像画面22において、撮像スタートアイコン22bのタップ操作を行うことでディスプレイ12に表示されるものであり、メインカメラ16b(又はサブカメラ16a)で撮像中の動画(画像)が随時、ディスプレイ12に表示されている。撮像中画面23は、画面右側に撮像停止アイコン23aを選択可能に配置しており、撮像停止アイコン23aの選択操作をCPU10aが受け付けると、CPU10aは動画の撮像処理を停止する。   FIG. 7A shows the in-imaging screen 23 displayed on the display 12. The imaging screen 23 is displayed on the display 12 by performing a tap operation on the imaging start icon 22b on the imaging screen 22 shown in FIG. 6B, and is the main camera 16b (or sub camera 16a). The moving image (image) being imaged is displayed on the display 12 at any time. The imaging screen 23 is arranged so that an imaging stop icon 23a can be selected on the right side of the screen. When the CPU 10a accepts the selection operation of the imaging stop icon 23a, the CPU 10a stops the video imaging process.

図7(b)は、ディスプレイ12に表示された撮像完了画面24を示す。撮像完了画面24は、上述した図7(a)に示す撮像中画面23において、撮像停止アイコン23aのタップ操作を行うことでディスプレイ12に表示されるものであり、画面右側に撮像再開アイコン24a及びアップロードアイコン24bを選択可能に配置する。撮像再開アイコン24aは、タップされると動画の撮像を再開するものである。アップロードアイコン24bは、タップされると、撮像した動画に応じた動画ファイルを生成して動画管理システム40へアップロード(送信)する処理をCPU10aが行う。   FIG. 7B shows an imaging completion screen 24 displayed on the display 12. The imaging completion screen 24 is displayed on the display 12 by performing a tap operation on the imaging stop icon 23a on the imaging screen 23 shown in FIG. 7A described above. The upload icon 24b is arranged to be selectable. The imaging restart icon 24a is for restarting imaging of a moving image when tapped. When the upload icon 24b is tapped, the CPU 10a performs a process of generating a moving image file corresponding to the captured moving image and uploading (transmitting) the moving image file to the moving image management system 40.

図8は、図7(b)の撮像完了画面24のアップロードアイコン24bのタップ操作により、生成される動画ファイルである撮像動画ファイル30の概要的なファイル構造を示す。撮像動画ファイル30は、メインカメラ16b(又はサブカメラ16a)で撮像された動画、及び撮像中にマイク14で取得された音声に応じたコンテンツデータ31(動画及び音声に応じたコンテンツのデータ)、並びに撮像状況に示す情報等の各種情報を有するメタ情報32を含み、これらコンテンツデータ31及びメタ情報32は、図3に示す動画ファイル生成部18で生成される。   FIG. 8 shows a schematic file structure of an imaging moving image file 30 that is a moving image file generated by a tap operation of the upload icon 24b on the imaging completion screen 24 of FIG. 7B. The captured moving image file 30 includes a moving image captured by the main camera 16b (or the sub camera 16a) and content data 31 (content data corresponding to the moving image and the sound) corresponding to the sound acquired by the microphone 14 during the image capturing. In addition, the content information 31 and the meta information 32 are generated by the moving image file generation unit 18 shown in FIG. 3.

メタ情報32は、撮像日時、撮像時間、撮像位置、及び撮像場所名等の情報を有し、これらの各情報はそれぞれ、撮像状況を示す撮像状況情報である。撮像日時は、CPU10aが具備するクロック・カレンダ機能により得られた日時情報であり、動画ファイル生成部18が動画ファイル30を生成した日時を示すものになっている。撮像時間は、撮像処理部10gでの撮像開始から終了に至る時間をCPU10aが具備するタイマー機能により計時された時間を示す。撮像位置は、撮像処理部10gでの撮像処理中に、GPS部10hで検出された撮像位置の緯度経度の数値を示す情報である。撮像場所名は、GPS部10hで検出された緯度経度に基づき、ウェブサイトへのアクセスで取得した撮像場所名を示し、RAM10cから読み出された情報である。動画ファイル30は、このようなメタ情報32及びコンテンツデータ31を含んで、動画管理システム40へアップロードされる。本実施形態では、上述したメタ情報が有する各種撮像状況情報の中で、撮像場所名を、撮像状況を表す撮像タグに利用しており、撮像動画ファイル30が、図8に示すフィル構造を有することで、撮像動画ファイル30には、撮像タグ(撮像場所名)が付された状況になっている。   The meta information 32 includes information such as an imaging date / time, an imaging time, an imaging position, and an imaging location name, and each of these pieces of information is imaging situation information indicating an imaging situation. The imaging date / time is date / time information obtained by the clock / calendar function of the CPU 10a, and indicates the date / time when the moving image file generation unit 18 generates the moving image file 30. The imaging time indicates the time measured by the timer function provided in the CPU 10a for the time from the start to the end of imaging in the imaging processing unit 10g. The imaging position is information indicating the numerical value of the latitude and longitude of the imaging position detected by the GPS unit 10h during the imaging process by the imaging processing unit 10g. The imaging location name indicates the imaging location name acquired by accessing the website based on the latitude and longitude detected by the GPS unit 10h, and is information read from the RAM 10c. The moving image file 30 includes such meta information 32 and content data 31 and is uploaded to the moving image management system 40. In the present embodiment, the imaging location name is used for the imaging tag representing the imaging situation in the various imaging situation information included in the meta information described above, and the imaging moving image file 30 has the fill structure shown in FIG. Thus, the imaging moving image file 30 is in a state where an imaging tag (imaging location name) is attached.

一方、図9は、図5に示すメイン画面21で再生表示される動画の表示対象を切り替えるユーザ操作の仕方を示しており、矩形画面であるディスプレイ12の長辺12aに沿った方向を指示するスワイプ操作25a、25b(第1方向操作に相当)、及び短辺12b(長辺12aに直交する他辺に相当)に沿った方向を指示するスワイプ操作26a、26b(第2方向操作に相当)がある。   On the other hand, FIG. 9 shows a user operation method of switching the display target of the moving image reproduced and displayed on the main screen 21 shown in FIG. 5, and indicates a direction along the long side 12a of the display 12 which is a rectangular screen. Swipe operations 25a and 25b (corresponding to the first direction operation) and swipe operations 26a and 26b (corresponding to the second direction operation) indicating the direction along the short side 12b (corresponding to the other side orthogonal to the long side 12a) There is.

図10は、スマートフォン10が動画管理システム40からダウンロードする複数の動画ファイルの配置状態を示すイメージ図であり、このような配置状態は、複数の動画ファイルと一緒に送られる配置情報で規定されたものになっている。なお、配置情報は、最初の再生対象となる動画ファイルも規定し、本実施形態では、最初の再生対象となる動画ファイルを、ダウンロード先のユーザが撮像した最新の動画を含むものになっており(図10では、枠Wで囲んだ動画ファイルA−1)、この動画ファイルA−1を中心に、水平方向及び垂直方向に、ダウンロード対象の各動画ファイルが配置される。   FIG. 10 is an image diagram showing an arrangement state of a plurality of moving image files that the smartphone 10 downloads from the moving image management system 40. Such an arrangement state is defined by arrangement information sent together with a plurality of moving image files. It has become. The arrangement information also defines the video file that is the first playback target. In this embodiment, the layout information includes the latest video captured by the download destination user. (In FIG. 10, the moving image file A-1 surrounded by a frame W), the moving image files to be downloaded are arranged in the horizontal direction and the vertical direction around the moving image file A-1.

図10で水平方向に沿って各一列(A〜E列)に配置される動画ファイルは、それぞれ同じユーザにより撮像された動画(又は、同じユーザによりアップロードされた動画)に応じた動画ファイルになっており、例えば、垂直方向で真ん中となる箇所で水平方向に沿って一列に配置されるA列の動画ファイルA−1〜5はユーザU1により撮像された動画に応じたものであり、その下方で水平方向に沿って一列に配置されるB列の動画ファイルB−1〜3はユーザU2によって撮像された動画に応じたものになり、さらに、その下方で水平方向に沿って一列に配置されるD列の動画ファイルD−1〜4はユーザU3によって撮像された動画に応じたものになる。そして、A列の上方で水平方向に沿って一列に配置されるC列の動画ファイルC−1〜5はユーザU4によって撮像された動画に応じたものになり、その上方で水平方向に沿って一列に配置されるE列の動画ファイルE−1〜3はユーザU5によって撮像された動画に応じたものになる。   In FIG. 10, the moving image files arranged in one row (A to E rows) along the horizontal direction are moving image files corresponding to moving images captured by the same user (or moving images uploaded by the same user). For example, the A-line moving image files A-1 to A-5 arranged in a line along the horizontal direction at the center in the vertical direction correspond to the moving image captured by the user U1, and below The B row moving image files B-1 to B-3 arranged in a row along the horizontal direction correspond to the moving image picked up by the user U2, and are further arranged in a row along the horizontal direction below. The D-row moving image files D-1 to D4 correspond to moving images captured by the user U3. Then, the moving image files C-1 to C-5 in the C column arranged in a row along the horizontal direction above the A column are in accordance with the moving image captured by the user U4, and along the horizontal direction above that. The moving image files E-1 to E-3 in the E row arranged in a row correspond to the moving images captured by the user U5.

また、水平方向に沿って一列に配置される同一ユーザの撮像による各動画ファイルは、異なる撮像場所名(撮像タグ)が付された動画ファイルになっている。例えば、枠Wで囲まれた動画ファイルA−1は、撮像場所名が東京渋谷であり、その右隣の動画ファイルA−2は、撮像場所名が東京新宿、その右隣の動画ファイルA−4は、撮像場所名が東京原宿、枠Wで囲まれた動画ファイルA−1の左隣の動画ファイルA−3は、撮像場所名が東京銀座、その左隣の動画ファイルA−5は、撮像位置が東京品川になっている。そして、枠Wで囲まれた動画ファイルA−1の右隣の動画ファイルA−2は、最もダウンロード回数が多く、次にダウンロード回数が多いのは枠Wで囲まれた動画ファイルA−1の左隣の動画ファイルA−3であり、三番目にダウンロード回数が多いのは動画ファイルA−4であり、四番目にダウンロード回数が多いのは動画ファイルA−5となるように配置されており、このようなダウンロード回数に応じた配置は、他のユーザの列(B〜E列)でも同様になっている。   In addition, each moving image file captured by the same user arranged in a line along the horizontal direction is a moving image file with a different imaging location name (imaging tag). For example, the moving image file A-1 surrounded by a frame W has an imaging location name of Tokyo Shibuya, and the moving image file A-2 on the right side of the moving image file A-2 has an imaging location name of Tokyo Shinjuku, and the moving image file A- 4 is a video file A-3 on the left side of the moving image file A-1 surrounded by a frame W in the shooting location name in Tokyo Harajuku, and a moving image file A-5 on the left side of the moving image file A-3 in which the imaging location name is Tokyo Ginza. The imaging position is Tokyo Shinagawa. Then, the video file A-2 on the right side of the video file A-1 surrounded by the frame W has the largest number of downloads, and the next highest number of downloads is the video file A-1 surrounded by the frame W. The video file A-3 on the left is the video file A-4, which is the third most downloaded, and the video file A-5 is the fourth most downloaded. The arrangement according to the number of downloads is the same in the other user columns (B to E columns).

したがって、図9に示すメイン画面21において、図10の枠Wで囲まれた動画ファイルA−1の再生処理による動画Dを表示している場合で(枠Wに囲まれた動画ファイルが再生処理対象になる)、スマートフォン10がスワイプ操作25b(一方向となる左方向への第1方向操作に相当)を受け付けると、A列に配置された各動画ファイルが左方向へ移動し、配置情報に従って、再生処理対象を動画ファイルA−1の右隣に配置された動画ファイルA−2が枠Wに位置し、ディスプレイ12の表示を、動画ファイルA−1に応じた動画から動画ファイルA−2に応じた動画に切り替える処理を行い、この状態から、さらにスワイプ操作25bを受け付けると、ディスプレイ12の表示を動画ファイルA−4に応じた動画に切り替える処理を行う。   Therefore, in the main screen 21 shown in FIG. 9, when the moving image D is displayed by the reproduction processing of the moving image file A-1 surrounded by the frame W in FIG. 10 (the moving image file surrounded by the frame W is reproduced). When the smartphone 10 accepts the swipe operation 25b (corresponding to the first direction operation in the left direction, which is one direction), the moving image files arranged in the A column move to the left direction according to the arrangement information. The moving image file A-2 arranged on the right side of the moving image file A-1 is positioned in the frame W, and the display 12 is changed from the moving image corresponding to the moving image file A-1 to the moving image file A-2. If the swipe operation 25b is further accepted from this state, the process of switching to the video corresponding to the video file A-4 is performed. Do.

また、動画ファイルA−1の再生処理による動画を表示している場合で、スマートフォン10が、スワイプ操作25a(他方向となる左方向への第1方向操作に相当)を受け付けると、配置情報に従って、再生処理対象を動画ファイルA−1の左隣に配置された動画ファイルA−3に変更して、ディスプレイ12の表示を、動画ファイルA−1に応じた動画から動画ファイルA−3に応じた動画に切り替える処理を行い、この状態から、さらにスワイプ操作25bを受け付けると、ディスプレイ12の表示を動画ファイルA−5に応じた動画に切り替える処理を行う。   When the smartphone 10 receives a swipe operation 25a (corresponding to the first direction operation in the left direction, which is the other direction) in a case where a moving image is displayed by the reproduction processing of the moving image file A-1, according to the arrangement information. The reproduction processing target is changed to the moving image file A-3 arranged on the left side of the moving image file A-1, and the display 12 is changed from the moving image corresponding to the moving image file A-1 to the moving image file A-3. If a swipe operation 25b is further accepted from this state, a process of switching the display on the display 12 to a moving image corresponding to the moving image file A-5 is performed.

また、A列の動画ファイルA−1〜5のいずれかの再生処理による動画を表示している場合で、スマートフォン10がスワイプ操作26b(第1方向となる下方向への第2方向操作に相当)を受け付けると、配置情報に従って、再生処理対象をA列の上に配置されたC列中央の動画ファイルC−1に変更して、ディスプレイ12の表示を動画ファイルC−1に応じた動画へ切り替える処理を行い、この状態から、さらにスワイプ操作26bを受け付けると、ディスプレイ12の表示をE列中央の動画ファイルE−1に応じた動画に切り替える処理を行う。   Further, when a moving image is displayed by reproduction processing of any one of the moving image files A-1 to A-5 in the A column, the smartphone 10 performs a swipe operation 26b (corresponding to the second direction operation in the downward direction as the first direction). ) In accordance with the arrangement information, the reproduction processing target is changed to the moving image file C-1 at the center of the C column arranged above the A column, and the display on the display 12 is changed to the moving image corresponding to the moving image file C-1. If a swipe operation 26b is further accepted from this state, a process of switching the display on the display 12 to a moving image corresponding to the moving image file E-1 at the center of the E column is performed.

さらに、A列の動画ファイルA−1〜5のいずれかの再生処理による動画を表示している場合で、スマートフォン10がスワイプ操作26a(第2方向となる上方向への第2方向操作に相当)を受け付けると、再生処理対象をA列の下に配置されたB列中央の動画ファイルB−1に変更して、ディスプレイ12の表示を動画ファイルB−1に応じた動画に切り替える処理を行い、この状態から、さらにスワイプ操作26aを受け付けると、ディスプレイ12の表示をD列の動画ファイルD−1に応じた動画に切り替えることになる。   Furthermore, in the case where a moving image is displayed by reproduction processing of any one of the moving image files A-1 to A-5 in the A column, the smartphone 10 performs a swipe operation 26a (corresponding to the second direction operation in the upward direction as the second direction). ) Is received, the reproduction process target is changed to the moving image file B-1 in the middle of the B column arranged below the A column, and the display 12 is switched to a moving image corresponding to the moving image file B-1. In this state, when the swipe operation 26a is further received, the display 12 is switched to the moving image corresponding to the moving image file D-1 in the D column.

上記のように垂直方向のスワイプ操作26a、26bを行って再生処理対象を切り替えると、異なるユーザによる最新の撮像が表示されることになる。なお、上又は下方向のスワイプ操作26a又は26bを行って、再生処理対象の列を変更した後で、右又は左方向のスワイプ操作25a又は25bを行ったときは、A列で説明した場合と同様に、各列で再生処理対象が切り替わっていく。   As described above, when the swipe operations 26a and 26b in the vertical direction are performed to switch the reproduction processing target, the latest imaging by different users is displayed. In addition, when the swipe operation 25a or 25b in the right or left direction is performed after the swipe operation 26a or 26b in the up or down direction is performed to change the column to be reproduced, the case described in the A column Similarly, the reproduction process target is switched in each column.

このようなスワイプ操作25a、25b、26a、26bをユーザが行うことで、複数のサムネイルを表示しなくても、同一の撮像者による異なる撮像場所での動画、又は、異なる撮像者による動画を容易に切り替えられるようにしている。   By performing such swipe operations 25a, 25b, 26a, and 26b, the user can easily perform moving images at different shooting locations by the same photographer or moving images by different photographers without displaying a plurality of thumbnails. It can be switched to.

なお、水平方向に沿ったスワイプ操作25a、25bのいずれか一方を行うことで、水平方向に配置される端の動画ファイル(例えば、動画ファイルA−4又は5)を再生処理対象にすることになった状態で、スマートフォン10が、更にスワイプ操作25a又は25bを受け付けることで、配置情報に含まれないものを再生対象として指定するようになると、その列に応じたユーザによる撮像動画の要求(列指定の動画ファイル要求)を動画管理システム40へ送信し、その要求に伴い動画ファイルをダウンロード(受信)できれば、新たにダウンロードした動画ファイルに係る再生処理を行うことになる。また、撮像動画の要求を行っても、再生処理対象中のユーザの動画ファイルが無い旨の通知を受信すると、他方の端の動画ファイル(例えば、一方の端の動画ファイルA−4から他方の端に配置される動画ファイルA−5)を再生対象にして、再生処理対象をループ状に回すようにしている。   In addition, by performing any one of the swipe operations 25a and 25b along the horizontal direction, the moving image file (for example, the moving image file A-4 or 5) at the end arranged in the horizontal direction is set as a reproduction processing target. In this state, when the smartphone 10 further receives a swipe operation 25a or 25b and designates what is not included in the arrangement information as a reproduction target, a request for a captured moving image (column) by the user corresponding to the column If the specified moving image file request) is transmitted to the moving image management system 40 and the moving image file can be downloaded (received) in response to the request, the reproduction processing related to the newly downloaded moving image file is performed. In addition, even when a request for a captured moving image is made, if a notification that there is no moving image file of the user being subjected to playback processing is received, the moving image file at the other end (for example, from the moving image file A-4 at one end to the other moving image file) The moving image file A-5) arranged at the end is set as a playback target, and the playback processing target is rotated in a loop.

また、垂直方向のスワイプ操作26a、26bのいずれか一方を行うことで、垂直方向に配置される列の動画ファイル(例えば、動画ファイルD−1又はE−1)を再生処理対象にすることになった状態で、スマートフォン10が、更にスワイプ操作26a又は26bを受け付けることで、配置情報に含まれないものを再生対象として指定するようになると、異なるユーザによる撮像動画の要求(異なるユーザ指定の動画ファイルの要求)を動画管理システム40へ送信し、その要求に伴い動画ファイルをダウンロード(受信)できれば、新たにダウンロードした動画ファイルに係る再生処理を行うことになる。また、撮像動画の要求を行っても、動画ファイルが無い旨の通知を受信すると、垂直方向における他方の列の動画ファイル(例えば、動画ファイルE−1又はD−1)を再生対象にして、再生処理対象をループ状に回すようにしている。   In addition, by performing one of the vertical swipe operations 26a and 26b, a moving image file (for example, moving image file D-1 or E-1) in a column arranged in the vertical direction is set as a reproduction processing target. In this state, when the smartphone 10 further receives a swipe operation 26a or 26b and designates what is not included in the arrangement information as a playback target, a request for a captured video by a different user (a video specified by a different user) If a video file can be downloaded (received) in response to the request, a reproduction process related to the newly downloaded video file is performed. Further, when a notification that there is no moving image file is received even if a request for a captured moving image is made, the moving image file in the other column in the vertical direction (for example, moving image file E-1 or D-1) is set as a reproduction target, The playback process target is rotated in a loop.

以上のような切替を行うことで、垂直方向のスワイプ操作26a、26bを行えば、各ユーザが撮像した最新の動画を素早く視聴でき、また、最新の撮像動画の表示から水平方向のスワイプ操作25a、25bを行えば、ダウンロード回数の多いものから、同一ユーザによる異なる撮像場所の動画を視聴できることになり、効率的に人気のある動画を見ることを可能にしている。   By performing the switching as described above, if the vertical swipe operations 26a and 26b are performed, the latest moving image captured by each user can be watched quickly, and the horizontal swipe operation 25a from the display of the latest captured moving image. , 25b, it is possible to view moving images at different imaging locations by the same user from those with a large number of downloads, enabling efficient viewing of popular moving images.

なお、上述したスワイプ操作(又はフリック操作)に係る説明は、スマートフォン10のディスプレイ12を横長の状態に基づいたものであるが、スマートフォン10のディスプレイ12を縦長の状態で再生処理を行った場合も、水平方向のスワイプ操作(この場合は、短辺12bに応じた方向のスワイプ操作)が同一ユーザの撮像動画の中で異なる撮像場所を切り替えるものとなり、また、垂直方向のスワイプ操作(この場合は、長辺12aに応じた方向のスワイプ操作)が、異なるユーザによる撮像動画に切り替えるものとなる。また、実際にサービスを行う場合は、水平方向のスワイプ操作を撮像場所の切替操作として、特定の名称を付した操作(例えば、Experienceの切替操作)で呼ぶようにしてもよく、同様に、垂直方向のスワイプ操作をユーザ切替操作として、特定名称を付した操作(例えば、Channelの切替操作)で呼ぶようにしてもよい。次に、動画管理システム40について説明していく。   In addition, although the description which concerns on the swipe operation (or flick operation) mentioned above is based on the display 12 of the smart phone 10 in a landscape state, also when the display process of the display 12 of the smart phone 10 is performed in a portrait state, The horizontal swipe operation (in this case, the swipe operation in the direction corresponding to the short side 12b) switches between different image pickup locations in the same user's captured moving image, and the vertical swipe operation (in this case) , A swipe operation in a direction corresponding to the long side 12a) is switched to a captured moving image by a different user. When actually performing a service, a horizontal swipe operation may be referred to as an operation for switching an imaging location and an operation with a specific name (for example, an experience switching operation). The direction swipe operation may be referred to as a user switching operation and an operation with a specific name (for example, a channel switching operation). Next, the moving image management system 40 will be described.

図1に示すように、動画管理システム40は基本的に、サーバ装置50及びデータベース装置60で構成されている。サーバ装置50は、通信端末装置T1からアップロードされてくる動画ファイルの受け入れ処理、視聴を希望するユーザU10の通信端末装置T10へ動画ファイルをダウンロードするために送り出す処理(送信する処理)、及びユーザの管理処理等を行っており、また、データベース装置60は、サーバ装置50の記憶装置(記憶システム又は記憶デバイス)として機能するように動画データベース65を有しており、アップロードされる動画ファイルの格納及び読み出し等を行うものである。   As shown in FIG. 1, the moving image management system 40 basically includes a server device 50 and a database device 60. The server device 50 accepts the moving image file uploaded from the communication terminal device T1, processes to send out the moving image file to the communication terminal device T10 of the user U10 who wishes to view (processing to transmit), and the user's The database device 60 has a moving image database 65 so as to function as a storage device (storage system or storage device) of the server device 50, and stores the uploaded moving image file. Reading is performed.

図11は、動画管理システム40を構成するサーバ装置50の主要な内部構成を示す。サーバ装置50は一般的なサーバコンピュータで構成されているが、サーバ装置50が行う各種処理について分散処理等を行うことで複数のサーバコンピュータ等を組み合わせてサーバ装置50を構成することも可能であり、このような複数機器による構成の場合も、本発明におけるサーバ装置に相当する。以下、図11に示すサーバ装置50について説明する。   FIG. 11 shows a main internal configuration of the server device 50 that constitutes the moving image management system 40. Although the server device 50 is configured by a general server computer, it is also possible to configure the server device 50 by combining a plurality of server computers and the like by performing distributed processing or the like for various processes performed by the server device 50. Such a configuration of a plurality of devices also corresponds to the server device in the present invention. Hereinafter, the server device 50 illustrated in FIG. 11 will be described.

本実施形態におけるサーバ装置50では、全体的な制御及び各種処理を行うMPU50a(制御部50a)に、各種デバイス等を内部接続線50hで接続したものになっている。各種デバイス等には、通信モジュール50b、RAM50c、ROM50d、入力インタフェース50e、出力インタフェース50f、記憶システム(HDDシステム)50g等がある。   In the server device 50 according to the present embodiment, various devices and the like are connected to an MPU 50a (control unit 50a) that performs overall control and various processes through an internal connection line 50h. The various devices include a communication module 50b, a RAM 50c, a ROM 50d, an input interface 50e, an output interface 50f, a storage system (HDD system) 50g, and the like.

通信モジュール50bは、ネットワークとの接続モジュールに相当する通信デバイス(通信手段)であり、所要の通信規格に応じたものである(例えばIEEEの通信規格に基づいたLANモジュール)。通信モジュール50bは、所要の通信機器(図示は省略。例えばルータ等が該当)を介してネットワーク(動画管理システム40の内部ネットワーク、及び外部のネットワークNW等)と接続されており、動画管理システム40の内部のデータベース装置60、及び外部の通信端末装置T1、T10等との通信を可能にしている。特にデータベース装置60とは、システム内部のネットワークで通信を行えることから、サーバ装置50は、データベース装置60を自己の記憶デバイス的な記憶手段として使用し、データベース装置60に記憶される各種ファイルをスムーズに保存又は読み出せるようにしている。   The communication module 50b is a communication device (communication means) corresponding to a connection module with a network and conforms to a required communication standard (for example, a LAN module based on the IEEE communication standard). The communication module 50b is connected to a network (such as an internal network of the moving image management system 40 and an external network NW) via required communication devices (not shown; for example, a router or the like). Communication with the internal database device 60 and the external communication terminal devices T1, T10, and the like. In particular, since the database device 60 can communicate with the network inside the system, the server device 50 uses the database device 60 as its own storage device storage means, and smoothly stores various files stored in the database device 60. Can be saved or read.

RAM50cは、MPU50aの処理に伴う内容、ファイル等を一時的に記憶するものであり、ROM50dは、MPU50aの基本的な処理内容を規定したプログラム等を記憶する。入力インタフェース50eは、動画管理システム40のシステム管理者等からの操作指示等を受け付けるキーボード50i、マウス等が接続されるものであり、システム管理者等から受け付けた操作指示等をMPU50aへ伝える。出力インタフェース50fは、ディスプレイ50j(表示出力装置)が接続されるものであり、MPU50aの処理に伴う内容をディスプレイ50jへ出力し、システム管理者等が現在の処理内容等を確認できるようにしている。   The RAM 50c temporarily stores contents, files, and the like accompanying the processing of the MPU 50a, and the ROM 50d stores programs and the like that define the basic processing contents of the MPU 50a. The input interface 50e is connected to a keyboard 50i, a mouse, and the like for receiving an operation instruction from the system administrator or the like of the moving image management system 40, and transmits the operation instruction received from the system administrator or the like to the MPU 50a. The output interface 50f is connected to a display 50j (display output device), and outputs the contents accompanying the processing of the MPU 50a to the display 50j so that the system administrator can check the current processing contents and the like. .

記憶システム50g(記憶媒体手段に相当)は、プログラム及びテーブル等を記憶するものであり、本実施形態ではサーバシステムプログラムP10、動画サービスプログラムP11、登録ユーザテーブル51等を記憶している。   The storage system 50g (corresponding to storage medium means) stores programs, tables, and the like. In this embodiment, the storage system 50g stores a server system program P10, a moving image service program P11, a registered user table 51, and the like.

サーバシステムプログラムP10は、サーバ用のオペレーティングシステム(OS)に応じた各種処理を規定したものであり、この規定内容に基づいた処理をMPU50aが実行することで、サーバ装置50はサーバコンピュータとしての基本的な機能を果たす。動画サービスプログラムP11は、例えば光学ディスク等の記録媒体に記憶されて、このような記憶媒体を介して記憶システム50gにインストールされたものであり、その詳細については後述し、先に、登録ユーザテーブル51及びデータベース装置60等の説明を行う。   The server system program P10 defines various processes according to the server operating system (OS). The MPU 50a executes processes based on the specified contents, so that the server device 50 is a basic server computer. Fulfills the functions. The moving image service program P11 is stored in a recording medium such as an optical disk, and is installed in the storage system 50g via such a storage medium. Details thereof will be described later. 51 and the database device 60 will be described.

図12は、登録ユーザテーブル51の中身の概要を示している。登録ユーザテーブル51は、動画管理システム40が提供する撮像動画に関するサービス(撮像動画のアップロード及びダウンロード等を行えるサービス)を利用する登録ユーザの各種情報を格納したテーブルであり、ユーザ登録にあわせて、ユーザを識別するユーザIDが動画管理システム40からユーザに付与(発行)されており、登録ユーザテーブル51では、付与されたユーザIDに対応付けて各種情報を格納している。   FIG. 12 shows an outline of the contents of the registered user table 51. The registered user table 51 is a table that stores various types of information of registered users who use services related to captured moving images provided by the moving image management system 40 (services that allow uploading and downloading of captured moving images). A user ID for identifying the user is assigned (issued) to the user from the moving image management system 40, and the registered user table 51 stores various types of information in association with the assigned user ID.

具体的に登録ユーザテーブル51は、図12に示すように、ユーザIDごとに、ユーザの氏名、住所、電話番号、メールアドレス、UID(ユーザの用いる通信端末装置の識別情報)、パスワード等を記憶している。このように登録ユーザテーブル51に格納される氏名等のユーザ情報は、ユーザ登録時にユーザから提供されたものであり、新規ユーザの登録又は登録ユーザの脱退等に応じて、登録ユーザテーブル51中身はサービス運営側により適宜更新される。なお、本実施形態では、登録されたメールアドレスをログイン時のログインIDとして用いており、また、パスワードはユーザ登録時にユーザから登録された英数字情報を用いている。   Specifically, as shown in FIG. 12, the registered user table 51 stores the user's name, address, telephone number, e-mail address, UID (identification information of the communication terminal device used by the user), password, etc. for each user ID. doing. Thus, the user information such as the name stored in the registered user table 51 is provided by the user at the time of user registration, and the contents of the registered user table 51 are changed according to registration of a new user or withdrawal of a registered user. It is updated appropriately by the service management side. In the present embodiment, the registered e-mail address is used as a login ID at the time of login, and the password uses alphanumeric information registered by the user at the time of user registration.

図13は、サーバ装置50の記憶手段(外部の記憶手段)として用いられるデータベース装置60の概要的な内部構成を示す。データベース装置60は、動画データベース65に動画ファイル、所要の情報及びデータ等を整理して記憶する制御、又は動画データベース65から動画ファイル、所要の情報及びデータ等を読み出す制御等を行うDB制御部60aを有すると共に、サーバ装置50等との通信インタフェースとなる通信部60bを有する。サーバ装置50から送られてくる動画ファイル等は、通信部60bで受け取られて,DB制御部60aの制御により動画データベース65に記憶され、また、動画データベース65から読み出された動画ファイルは通信部60bからサーバ装置50へ渡される。   FIG. 13 shows a schematic internal configuration of a database device 60 used as storage means (external storage means) of the server device 50. The database device 60 performs a control for organizing and storing a moving image file, required information and data in the moving image database 65, or a control for reading out a moving image file, required information and data from the moving image database 65, and the like. And a communication unit 60b serving as a communication interface with the server device 50 and the like. The moving image file or the like sent from the server device 50 is received by the communication unit 60b, stored in the moving image database 65 under the control of the DB control unit 60a, and the moving image file read from the moving image database 65 is the communication unit. 60b is passed to the server device 50.

データベース装置60が有する動画データベース65は、オリジナル動画格納部66及び配信動画格納部67を含む。オリジナル動画格納部66は、通信端末装置からアップロードされてきた動画ファイル(オリジナルの撮像動画ファイル)を格納するものであり、また、配信動画格納部67は、ダウロード対象となる動画ファイルを格納する。   The moving image database 65 included in the database device 60 includes an original moving image storage unit 66 and a distribution moving image storage unit 67. The original moving image storage unit 66 stores a moving image file (original captured moving image file) uploaded from the communication terminal device, and the distributed moving image storage unit 67 stores a moving image file to be downloaded.

図14は、オリジナル動画格納部66の中身の概要を示す。オリジナル動画格納部66は、サーバ装置50経由で、ユーザ(例えば、図1に示すユーザU1)の通信端末装置(例えば、図1に示す通信端末装置T1)からアップロードされてきた動画ファイル(図8の撮像動画ファイル30参照)をユーザID別に格納したものになっている(アップロード日時等も一緒に記憶)。なお、オリジナル動画格納部66に含まれるユーザIDは、上述した登録ユーザテーブル51のユーザIDに対応しており、登録ユーザテーブル51に含まれるユーザIDが、オリジナル動画格納部66へも連動して格納されている。本発明では、このように動画データベース60に、オリジナル動画格納部66を設けることで、アップロードされた撮像動画ファイルをオリジナルのままで保存して、バックアップ的に利用できるようにしている。   FIG. 14 shows an outline of the contents of the original moving image storage unit 66. The original moving image storage unit 66 uploads a moving image file (FIG. 8) uploaded from a communication terminal device (for example, the communication terminal device T <b> 1 illustrated in FIG. 1) of the user (for example, the user U <b> 1 illustrated in FIG. 1) via the server device 50. Are stored for each user ID (upload date and time are also stored). Note that the user ID included in the original moving image storage unit 66 corresponds to the user ID of the registered user table 51 described above, and the user ID included in the registered user table 51 is linked to the original moving image storage unit 66 as well. Stored. In the present invention, the original moving image storage unit 66 is provided in the moving image database 60 as described above, whereby the uploaded captured moving image file is stored as it is and can be used as a backup.

図15は、配信動画格納部67の中身の概要を示す。配信動画格納部67は、ダウンロード対象となる動画ファイル(編集動画ファイル又は撮像動画ファイル)をユーザID別に格納している。なお、配信動画格納部67に含まれるユーザIDも、上述した登録ユーザテーブル51のユーザIDに対応しており、登録ユーザテーブル51に含まれるユーザIDが、配信動画格納部67へも連動して格納される。   FIG. 15 shows an outline of the contents of the distribution moving image storage unit 67. The distribution moving image storage unit 67 stores moving image files (edited moving image files or captured moving image files) to be downloaded for each user ID. The user ID included in the distribution video storage unit 67 also corresponds to the user ID of the registered user table 51 described above, and the user ID included in the registration user table 51 is also linked to the distribution video storage unit 67. Stored.

また、配信動画格納部67は、ユーザごとに格納した動画ファイルに対して、撮像タグ及びダウンロード回数の項目をそれぞれ関連付けている。撮像タグは、格納される動画ファイルのメタ情報に含まれる撮像場所名に応じた項目となっており、新たな動画ファイルを配信動画格納部67へ格納する際に撮像場所名が撮像タグの項目として記憶される。また、ダウンロード回数の項目には、動画ファイルが配信動画格納部67から読み出されるごとに、DB制御部60aによりカウントされて、カウントされた回数の数値が記憶されている。   In addition, the distribution video storage unit 67 associates an imaging tag and a download count item with the video file stored for each user. The imaging tag is an item corresponding to the imaging location name included in the meta information of the stored video file, and when the new video file is stored in the distribution video storage unit 67, the imaging location name is an item of the imaging tag. Is remembered as Further, in the download count item, every time a moving image file is read out from the distributed moving image storage unit 67, the DB control unit 60a counts, and a numerical value of the counted number is stored.

そして、配信動画格納部67に格納される各動画ファイル(編集動画ファイル又は撮像動画ファイル)の格納場所には、それぞれ固有のURLがDB制御部60aにより付されており、この固有のURLに基づき、各動画ファイルを読み出しが行われる。なお、固有のURLは、撮像動画サービスに応じたアルファベット名称に、ユーザを識別する情報(ユーザ名をローマ字で表した情報又はユーザID)を付したものになっている。   A unique URL is assigned by the DB control unit 60a to the storage location of each moving image file (edited moving image file or captured moving image file) stored in the distribution moving image storage unit 67, and based on this unique URL. Each moving image file is read out. The unique URL is obtained by adding information identifying the user (information representing a user name in Roman letters or a user ID) to an alphabetic name corresponding to the imaging moving image service.

次に、サーバ装置50の記憶部50gに記憶されている動画サービスプログラムP11について説明していく。動画サービスプログラムP11は、サーバ装置50が動画サービスを提供するためにMPU50aが各種手段として行う処理内容を規定したものである。動画サービスプログラムP11が規定する処理内容としては主に、ログインに係る処理、動画ファイルのアップロードに係る処理、編集動画ファイルの生成処理、及び動画ファイルのダウンロードに係る処理等がある。   Next, the moving image service program P11 stored in the storage unit 50g of the server device 50 will be described. The moving image service program P11 defines processing contents that the MPU 50a performs as various means in order for the server device 50 to provide a moving image service. The processing contents defined by the moving image service program P11 mainly include processing related to login, processing related to uploading of moving image files, generation processing of edited moving image files, processing related to downloading of moving image files, and the like.

ログインに係る処理として、ユーザのログイン操作に伴い通信端末装置(図1の通信端末装置T1、T10等)から送られてくるログイン情報(ユーザのメールアドレス及びパスワード等を含むログイン要求の情報)を、サーバ装置50が通信モジュール50bで受信すると、MPU50aは受信したログイン情報に含まれるメールアドレス及びパスワードが登録ユーザテーブル51に含まれるか否かを検出する処理を、動画サービスプログラムP11の規定に従って行う。   Login processing (login request information including the user's email address and password) sent from the communication terminal device (communication terminal devices T1, T10, etc. in FIG. 1) as a user login operation When the server device 50 receives the communication module 50b, the MPU 50a performs processing for detecting whether or not the registered user table 51 includes the email address and password included in the received login information according to the rules of the video service program P11. .

メールアドレス及びパスワードが登録ユーザテーブル51に含まれないことをMPU50aが検出した場合、ログイン不可となり、ログイン不可通知をログイン情報の送信元の通信端末装置へ送信する制御処理をMPU50aは行う。一方、メールアドレス及びパスワードが登録ユーザテーブル51に含まれることをMPU50aが検出した場合、ログイン完了となり、ログインの完了したユーザのユーザIDをRAM50c又は記憶システム50gに記憶してログイン中であることを保持する。   When the MPU 50a detects that the email address and password are not included in the registered user table 51, the MPU 50a performs a control process in which login is disabled and a login failure notification is transmitted to the communication terminal device that transmitted the login information. On the other hand, when the MPU 50a detects that the e-mail address and password are included in the registered user table 51, the login is completed, and the user ID of the user who has completed the login is stored in the RAM 50c or the storage system 50g and the login is in progress. Hold.

また、動画ファイルのアップロードに係る処理として、ログイン中のユーザの通信端末装置からアップロードされてきた動画ファイル(撮像動画ファイル)をサーバ装置50が通信モジュール50bで受信すると、その撮像動画ファイルを、動画データベース65におけるオリジナル動画格納部66にログイン中のユーザIDに対応付けて記憶する処理をMPU50aが行う。MPU50aが、このような処理を行うことで、動画データベース65のオリジナル動画格納部66には、図14に示すように、データベース装置60(DB制御部60a)によって各ユーザIDに対応付けて撮像動画ファイルが格納される。   Further, as processing related to uploading of a moving image file, when the server device 50 receives a moving image file (captured moving image file) uploaded from a communication terminal device of a logged-in user by the communication module 50b, the captured moving image file is converted into a moving image file. The MPU 50a performs a process of storing the original moving image storage unit 66 in the database 65 in association with the logged-in user ID. By performing such processing, the MPU 50a causes the original moving image storage unit 66 of the moving image database 65 to capture the captured moving image in association with each user ID by the database device 60 (DB control unit 60a) as shown in FIG. A file is stored.

また、アップロードされた撮像動画ファイルについて、MPU50aは、その撮像動画ファイルのメタ情報に含まれる撮像場所名(動画ファイルに付された撮像タグに相当)と同じものが、動画データベース65の配信動画格納部67の撮像タグの各項目の中に格納されているかを検出し、同じものが検出できないときMPU50aは、アップロードされた動画ファイルを、動画データベース65における配信動画格納部67にログイン中のユーザIDに対応付けて記憶する処理を行うと共に、その記憶する撮像動画ファイルに関連付けて、撮像タグの項目に、記憶する動画ファイルに付された撮像場所名を格納する処理を行う。このようなMPU50aの処理により、配信動画格納部67にも撮像動画ファイルが格納されることになる。なお、このように動画ファイルを新たに格納した場合、この新たな格納場所に固有のURLが付される。   In addition, regarding the uploaded captured moving image file, the MPU 50a stores the distributed moving image stored in the moving image database 65 with the same image capturing location name (corresponding to the captured image tag attached to the moving image file) included in the meta information of the captured moving image file. MPU 50a detects whether it is stored in each item of the imaging tag of unit 67, and when the same cannot be detected, MPU 50a logs the uploaded video file into the distribution video storage unit 67 in video database 65 and the user ID being logged in Is stored in association with the captured moving image file, and the image capturing location name assigned to the stored moving image file is stored in the imaging tag item. The captured moving image file is also stored in the distribution moving image storage unit 67 by such processing of the MPU 50a. When a moving image file is newly stored in this way, a unique URL is attached to this new storage location.

さらに、上述した撮像動画ファイルのアップロードに係る処理と関連して、編集動画ファイルの生成処理が行われる。すなわち、アップロードされた撮像動画ファイルについて、MPU50aは、その撮像動画ファイルに付された撮像場所名と同じものが、撮像動画ファイルのアップロードを行ったログイン中のユーザIDに対応付けて、動画データベース65の配信動画格納部67に記憶される複数の動画ファイルの中から、これらの各動画ファイルに関連付けられた撮像タグの各項目の中にあることを検出すると、その検出した撮像タグの撮像場所名に関連付けられた動画ファイルを編集処理対象として特定する(動画ファイルの検出に相当)。そして、編集処理対象として検出(特定)した動画ファイルと、アップロードされた撮像動画ファイルを結合する処理を行って、編集動画に係る新たな一つの動画ファイル(編集動画ファイルと称す)をMPU50aは生成する。この際、新たに生成した編集動画ファイルには、結合に用いた動画ファイルに付されていた撮像タグを、そのまま付すことになる。   Further, an edited moving image file generation process is performed in association with the above-described processing related to uploading of the captured moving image file. That is, for the uploaded captured moving image file, the MPU 50a associates the same name as the captured location name attached to the captured moving image file with the logged-in user ID that uploaded the captured moving image file. If it is detected from the plurality of moving image files stored in the distributed moving image storage unit 67 that the image capturing tag is associated with each moving image file, the image capturing location name of the detected image capturing tag is detected. The video file associated with is specified as an editing process target (corresponding to detection of a video file). Then, the MPU 50a generates one new moving image file (referred to as an edited moving image file) related to the edited moving image by performing processing for combining the uploaded moving image file and the moving image file detected (specified) as the editing processing target. To do. At this time, the imaging tag attached to the moving image file used for the combination is directly attached to the newly generated edited moving image file.

図16(a)は、編集処理対象として、配信動画格納部67に格納された撮像動画ファイルf10がMPU50aにより検出された場合で、アップロードされた撮像動画ファイルf1と結合し、一つの編集動画ファイルFh1を生成する状況の概要を示す。この図16(a)に示す場合は、撮像動画ファイル同士を結合することになり、この結合により生成される編集動画ファイルFh1の構造は、基本的に図8に示す撮像動画ファイル30と同等になっている。   FIG. 16A shows a case where the captured moving image file f10 stored in the distributed moving image storage unit 67 is detected by the MPU 50a as an editing process target, and is combined with the uploaded captured moving image file f1 to create one edited moving image file. An overview of the situation in which Fh1 is generated is shown. In the case shown in FIG. 16A, the captured moving image files are combined, and the structure of the edited moving image file Fh1 generated by this combination is basically the same as that of the captured moving image file 30 shown in FIG. It has become.

すなわち、生成された編集動画ファイルFh1も、メタ情報及びコンテンツデータを含む。編集動画ファイルFh1のメタ情報には、2つの撮像動画ファイf1、f10のメタ情報を含む内容になっており、それにより、編集動画ファイルFh1には、各撮像動画ファイルf1、f10の撮像タグ(撮像場所名)が付された状態となる。また、編集動画ファイルFh1のコンテンツデータは、撮像動画ファイf1のコンテンツデータ及び撮像動画ファイルf10のコンテンツデータを結合したものになっており、編集動画ファイルFh1が再生された際、この編集動画ファイルFh1のコンテンツデータの中の撮像動画ファイf1のコンテンツデータの部分(新しく撮像された動画に応じた部分)が先に再生され、その次に、結合相手の撮像動画ファイルf10のコンテンツデータの部分(撮像日時が新たにアップロードされたものに比べて古い動画に応じた部分)が再生されるように生成されている。   That is, the generated edited moving image file Fh1 also includes meta information and content data. The meta information of the edited moving image file Fh1 has contents including the meta information of the two captured moving image files f1 and f10. Accordingly, the edited moving image file Fh1 includes the image capturing tags ( (Imaging location name) is added. The content data of the edited video file Fh1 is a combination of the content data of the captured video file f1 and the content data of the captured video file f10. When the edited video file Fh1 is played back, the edited video file Fh1 The content data portion of the captured moving image file f1 in the content data (the portion corresponding to the newly captured moving image) is reproduced first, and then the content data portion of the combined moving image file f10 (imaged) The part corresponding to the old video compared to the newly uploaded date and time) is reproduced.

なお、撮像動画ファイf1のコンテンツデータが10秒程度の動画、撮像動画ファイルf10のコンテンツデータが20秒程度の動画であれば、生成される編集動画ファイルFh1に係る動画は約30秒程度のコンテンツになる。また、生成される編集動画ファイルFh1のファイル名は、結合される撮像動画ファイルf1、f10のそれぞれのファイル名を組み合わせたものにしており、例えば、アップロードされた撮像動画ファイルf1のファイル名がxyz.mp4であり、撮像動画ファイルf10のファイル名が2z1.mp4であれば、生成される編集動画ファイルFh1のファイル名はxyz2z1.mp4になる(アップロードされた撮像ファイルf1のファイル名を先に配置し、格納済みの撮像動画ファイルf10のファイル名を次に配置する)。   If the content data of the captured moving image file f1 is a moving image of about 10 seconds and the content data of the captured moving image file f10 is a moving image of about 20 seconds, the generated moving image related to the edited moving image file Fh1 has a content of about 30 seconds. become. Further, the file name of the edited moving image file Fh1 is a combination of the file names of the combined moving image files f1 and f10. For example, the file name of the uploaded moving image file f1 is xyz. . mp4, and the file name of the captured moving image file f10 is 2z1. mp4, the file name of the generated edited moving image file Fh1 is xyz2z1. mp4 (the file name of the uploaded imaging file f1 is arranged first, and the file name of the stored imaging moving image file f10 is arranged next).

そして生成された編集動画ファイルFh1は、結合相手として既に格納されていた撮像動画ファイルf10の替わりに配信動画格納部67へ格納されることになり、それにより、格納されていた撮像動画ファイルf10の撮像タグと同じ撮像場所名が編集動画ファイルFh1にも関連付けられることになり、また、格納されていた撮像動画ファイルf10に関連付けられていたダウンロード回数も、新たに生成された編集動画ファイルFh1に引き継がれる。   Then, the generated edited moving image file Fh1 is stored in the distributed moving image storage unit 67 in place of the captured moving image file f10 that has already been stored as the combination partner, whereby the stored captured moving image file f10 is stored. The same shooting location name as that of the imaging tag is associated with the edited moving image file Fh1, and the number of downloads associated with the stored captured moving image file f10 is also transferred to the newly generated edited moving image file Fh1. It is.

また、図16(b)は、編集処理対象として、配信動画格納部67に格納されていた編集動画ファイルFh10がMPU50aにより検出された場合で、アップロードされた撮像動画ファイルf11と結合し、一つの編集動画ファイルFh20を生成する状況の概要を示す。この生成される編集動画ファイルFh20も、図16(a)に示す編集動画ファイルFh1と同様の構造であり、メタ情報及びコンテンツデータを含み、編集動画ファイルFh20のメタ情報は、撮像動画ファイf11のメタ情報及び編集動画ファイルFh10のメタ情報を含む内容になっている。それにより、編集動画ファイルFh20には、撮像動画ファイf11及び編集動画ファイルFh10の撮像タグが付された状態になっている。   FIG. 16B shows a case where the edited moving image file Fh10 stored in the distribution moving image storage unit 67 is detected by the MPU 50a as an editing processing target, and is combined with the uploaded captured moving image file f11. An outline of a situation in which the edited moving image file Fh20 is generated is shown. The generated edited moving image file Fh20 has the same structure as the edited moving image file Fh1 shown in FIG. 16A, includes meta information and content data, and the meta information of the edited moving image file Fh20 is the captured moving image file f11. The content includes meta information and meta information of the edited moving image file Fh10. Thereby, the edited moving image file Fh20 is in a state where the imaging tags of the captured moving image file f11 and the edited moving image file Fh10 are attached.

そして、編集動画ファイルFh20のコンテンツデータは、撮像動画ファイf11のコンテンツデータ及び編集動画ファイルFh10のコンテンツデータを結合したものになっており、図16(a)に示す編集動画ファイルFh1と同様に、編集動画ファイルFh20が再生された際、この編集動画ファイルFh20のコンテンツデータの中の撮像動画ファイf11のコンテンツデータの部分が先に再生され、その次に、結合相手の編集動画ファイルFh10のコンテンツデータの部分が再生されるように生成されている。なお、撮像動画ファイf11のコンテンツデータが15秒程度の動画、編集動画ファイルFh10のコンテンツデータが30秒程度の動画であれば、生成される編集動画ファイルFh20に係る動画は約45秒程度のコンテンツになる。   The content data of the edited video file Fh20 is a combination of the content data of the captured video file f11 and the content data of the edited video file Fh10. Similarly to the edited video file Fh1 shown in FIG. When the edited moving image file Fh20 is reproduced, the content data portion of the captured moving image file f11 in the content data of the edited moving image file Fh20 is reproduced first, and then the content data of the edited moving image file Fh10 that is the combination partner. This part is generated to be played back. If the content data of the captured video file f11 is about 15 seconds and the content data of the edited video file Fh10 is about 30 seconds, the video related to the generated edited video file Fh20 is about 45 seconds of content. become.

また、新たに生成された編集動画ファイルFh20は、既に格納されていた編集動画ファイルFh10の替わりに配信動画格納部67へ格納されることになり、それにより、格納されていた編集動画ファイルFh1の撮像タグと同じ撮像場所名が編集動画ファイルFh20にも関連付けられることになり、また、格納されていた編集動画ファイルFh10に関連付けられていたダウンロード回数も、新たに生成された編集動画ファイルFh20に引き継がれる。   In addition, the newly generated edited moving image file Fh20 is stored in the distributed moving image storage unit 67 in place of the already stored edited moving image file Fh10, whereby the stored edited moving image file Fh1 is stored. The same imaging location name as the imaging tag is associated with the edited moving image file Fh20, and the number of downloads associated with the stored edited moving image file Fh10 is also taken over by the newly generated edited moving image file Fh20. It is.

さらにまた、動画ファイルのダウンロードに係る処理は、基本的に上述したログインに係る処理でログインが完了したことに伴って行われるようになっており、MPU50aは、ログインの完了したユーザの動画ファイルを含む複数の動画ファイルをデータベース装置60が有する動画データベース65から読み出し、再生順序に関連する配置を指定した情報(配置情報)を生成し、複数の動画ファイル及び配置情報を、ログイン情報の送信元の通信端末装置へ送信する制御処理を行う。   Furthermore, the processing related to the downloading of the moving image file is basically performed when the login is completed in the processing related to the above-described login, and the MPU 50a stores the moving image file of the user who has completed the login. The plurality of moving image files are read from the moving image database 65 included in the database device 60, information specifying the arrangement related to the reproduction order (arrangement information) is generated, and the plurality of moving image files and the arrangement information are stored in the login information transmission source. Control processing to be transmitted to the communication terminal device is performed.

動画データベース65から動画ファイルを読み出すにあたり、MPU50aは、まず、動画データベース65の中の配信動画格納部67の中から、ログイン中のユーザIDに対応付けて記憶されている動画ファイル(編集動画ファイル又は撮像動画ファイル)を読み出す。この際、MPU50aは最も新しい撮像日時をメタ情報に含む動画ファイル(編集動画ファイル又は撮像動画ファイル)を読み出すと共に、その最新の撮像日時の動画ファイル(編集動画ファイル又は撮像動画ファイル)を最初に再生することを、生成する配置情報で規定する。   In reading a moving image file from the moving image database 65, the MPU 50 a first stores a moving image file (edited moving image file or stored in the distribution moving image storage unit 67 in the moving image database 65 in association with the logged-in user ID). (Captured movie file). At this time, the MPU 50a reads out the moving image file (edited moving image file or captured moving image file) including the latest shooting date and time in the meta information, and first plays the moving image file (edited moving image file or captured moving image file) of the latest captured date and time. This is defined by the arrangement information to be generated.

それから、MPU50aは、配信動画格納部67でログイン中のユーザIDに対応付けて格納されている動画ファイルの中で、ダウンロード回数の多いものを、順次読み出していく。この際、ダウンロード回数の多いものとしては、最初に再生する動画ファイル(最新の撮像日時を含むもの)を除いて読み出しを行う。そして、MPU50aは、読み出した各動画ファイルを、ダウンロード回数の多いものから、最初に再生することになる動画ファイルの近い箇所に配置し、ユーザ操作(例えばスワイプ操作)に応じて順次再生できるようにする規定を、生成する配置情報に含ませる。なお、本実施形態では、ログイン中のユーザIDに対応付けた動画ファイルとしては、最初に計5つの動画ファイルを読み出す仕様になっているが、配信動画格納部67に、ログイン中のユーザIDに対応付けて計5つの動画ファイルが格納されていない場合は、ログイン中のユーザIDに対応付けて格納されている全ての動画ファイルを読み出すことになる。   Then, the MPU 50a sequentially reads out the video files stored in the distribution video storage unit 67 in association with the logged-in user ID and having a large number of downloads. At this time, as a file having a large number of downloads, reading is performed except for a moving image file to be reproduced first (a file including the latest imaging date and time). Then, the MPU 50a arranges the read moving image files in the vicinity of the moving image file to be reproduced first, from the one with the highest number of downloads, so that it can be sequentially reproduced according to the user operation (for example, swipe operation). To be included in the generated arrangement information. In the present embodiment, as the moving image file associated with the logged-in user ID, a total of five moving image files are initially read. However, the distribution moving image storage unit 67 stores the logged-in user ID as a logged-in user ID. When a total of five moving image files are not stored in association with each other, all moving image files stored in association with the logged-in user ID are read out.

上述したログイン中のユーザIDに対応付けられた動画ファイルの読み出し処理により、例えば、図10に示す垂直方向における中段のA列の同一ユーザにより撮像された動画に応じた動画ファイルA−1〜5が読み出されることになる。このA列の真ん中の行に配置される動画ファイルA−1は上述したように、最新の撮像日時の動画ファイルであり、配置情報において最初の再生が指定される。そして、残りの動画ファイルA−2〜5は上述したように、ダウンロード回数に応じて順次配置されることが配置情報で規定される。   By the above-described reading process of the moving image file associated with the logged-in user ID, for example, the moving image files A-1 to A-5 corresponding to the moving images captured by the same user in the middle row A in the vertical direction illustrated in FIG. Will be read out. As described above, the moving image file A-1 arranged in the middle row of the A column is a moving image file having the latest imaging date and time, and the first reproduction is designated in the arrangement information. Then, as described above, the arrangement information defines that the remaining moving image files A-2 to A-5 are sequentially arranged according to the number of downloads.

また、本実施形態では、ダウンロード対象の動画ファイルとして、異なる5人分のユーザIDに対応付けられた動画ファイルを読み出す仕様になっており、上述したログイン中のユーザIDに対応付けられた動画ファイルの読み出しに加えて、配信動画格納部67で示されるダウンロード回数の多い動画ファイルに対応するユーザIDの動画ファイル(編集動画ファイル又は撮像動画ファイル)を順に読み出していく。   Further, in the present embodiment, as a video file to be downloaded, a video file associated with five different user IDs is read, and the video file associated with the above-described logged-in user ID In addition to reading, the moving image file (edited moving image file or captured moving image file) of the user ID corresponding to the moving image file with a large number of downloads indicated by the distribution moving image storage unit 67 is sequentially read.

すなわち、MPU50aは、配信動画格納部67の中から、既に読み出しを決定しているユーザIDと異なるユーザIDに対応付けられた中で、最も多いダウンロード回数を検出し、その検出したダウンロード回数に対応付けられているユーザIDを特定する。そして、その特定したユーザIDに対応付けられた動画ファイル(編集動画ファイル又は撮像動画ファイル)を、上述したログイン中のユーザIDの対応付けられた動画ファイルの読み出し場合と同様に、配信動画格納部67から読み出しを行って、ダウンロード対象に含ませると共に、再生順に係る配置関係の規定した内容を配置情報に含ませる。   That is, the MPU 50a detects the largest number of downloads from the distribution video storage unit 67 associated with a user ID that is different from the user ID that has already been read, and corresponds to the detected number of downloads. The attached user ID is specified. Then, the moving image file (edited moving image file or captured moving image file) associated with the identified user ID is distributed to the distributed moving image storage unit as in the case of reading the moving image file associated with the logged-in user ID. The information is read from 67 and included in the download target, and the contents defined in the arrangement relation related to the reproduction order are included in the arrangement information.

上述したような読み出し処理を、ダウンロード回数の多い動画ファイルを撮像したユーザ順に行うことで、図10に示すように、複数のユーザによる動画ファイル(編集動画ファイル又は撮像動画ファイル)を含むダウンロード対象の一群の動画ファイルが特定されると共に、再生順に係る配置関係も定まることになり、そのような再生順を規定した配置関係を示す配置情報をMPU50aは生成し、その生成した配置情報と共に、ダウンロード対象に特定して配信動画格納部67から読み出した一群の動画ファイル(例えば、図10に示す動画ファイル)を、ログインの完了したユーザの通信端末装置へ送信する。   By performing the reading process as described above in the order of the users who have captured the moving image files with the highest number of downloads, as shown in FIG. 10, the download target including moving image files (edited moving image files or captured moving image files) by a plurality of users can be obtained. As a group of moving image files are specified, the arrangement relation related to the reproduction order is determined, and the MPU 50a generates arrangement information indicating the arrangement relation defining the reproduction order, and the download target is displayed together with the generated arrangement information. A group of moving image files (for example, the moving image file shown in FIG. 10) specified and read from the distribution moving image storage unit 67 is transmitted to the communication terminal device of the user who has completed the login.

なお、生成した配置情報は、サーバ装置50(MPU50a)が送信済みの動画ファイルを確認できるようにするため、ログイン中のユーザIDに対応付けて、RAM50c又は記憶システム50gに一時的に記憶される。また、本実施形態では、一度に読み出すユーザの数は、図10に示すように5人分にしているが、配信動画格納部67での記憶状態が5人分に満たない状態であれば、全てのユーザが読み出し対象になる。   The generated arrangement information is temporarily stored in the RAM 50c or the storage system 50g in association with the logged-in user ID so that the server device 50 (MPU 50a) can check the transmitted video file. . In this embodiment, the number of users to be read at one time is set to five as shown in FIG. 10, but if the storage state in the distribution video storage unit 67 is less than five, All users are subject to reading.

配置情報で指定した上記のような配置にすることで、ダウンロードを行った通信端末装置では、最初に、その通信端末装置を使用するユーザ自身の最新動画が再生表示され、その状態から左右方向のスワイプ操作(図9のスワイプ操作25a、25b参照)を行えば、ダウンロード回数の多いユーザ自身による動画が再生表示されるようになり、ユーザ自身がアップロードした動画をスムーズに確認できる。   By using the arrangement as specified in the arrangement information as described above, the downloaded communication terminal device first plays and displays the latest video of the user who uses the communication terminal device. When a swipe operation (see swipe operations 25a and 25b in FIG. 9) is performed, a moving image by the user who has downloaded a large number of times can be reproduced and displayed, and the moving image uploaded by the user can be confirmed smoothly.

そして、ユーザ自身の撮像した動画を再生表示している状態で、上下方向のスワイプ操作(図9のスワイプ操作26a、26b参照)を行えば、ダウンロード回数の多い異なるユーザによる撮像動画の中で、最新のものが再生表示されるので、人気のある他のユーザによる撮像動画を効率的に確認できる。また、他のユーザによる撮像動画を再生表示している状態で、左右方向のスワイプ操作(図9のスワイプ操作25a、25b参照)を行えば、その他のユーザによる撮像動画の中で、ダウンロード回数が多い撮像動画が順に再生表示されるので、表示中の他のユーザによる撮像動画の中で、人気のある撮像動画をスムーズに確認できることになる。なお、ログイン中のユーザIDに対応付けられる動画ファイルが、配信動画格納部67に存在しないときは、ダウンロード回数の多いユーザIDに対応付けられた動画ファイルが読み出し対象になると共に、最初に再生が指定される動画ファイルは、最もダウンロード回数の多いユーザIDに対応付けられた最新の動画ファイルになる。   When the user's own captured video is played back and displayed, if the vertical swipe operation (see swipe operations 26a and 26b in FIG. 9) is performed, Since the latest one is reproduced and displayed, it is possible to efficiently check the moving image captured by another popular user. In addition, if a swipe operation in the left-right direction (see swipe operations 25a and 25b in FIG. 9) is performed while a captured moving image by another user is being played back and displayed, the number of downloads among the captured moving images by other users will increase. Since many captured moving images are reproduced and displayed in order, popular captured moving images can be smoothly confirmed among captured moving images by other users being displayed. When there is no moving image file associated with the logged-in user ID in the distributed moving image storage unit 67, the moving image file associated with the user ID having a large number of downloads is to be read, and is played back first. The designated moving image file is the latest moving image file associated with the user ID having the largest number of downloads.

また、上述した動画ファイルの読み出し及びダウンロードは、ログイン完了に伴う場合の処理であるが、それ以外にも、通信端末装置におけるスワイプ操作に伴って、再生処理対象が、配置情報で示される動画ファイルを超えると、上述したように、動画ファイル要求が通信端末装置からサーバ装置50へ送られてくるので、このような動画ファイル要求をサーバ装置50が受信した場合にも、動画ファイルの読み出し及びダウンロードに関する処理は行われる。   In addition, the above-described reading and downloading of the moving image file is processing when the login is completed, but in addition to this, the moving image file whose reproduction processing target is indicated by the arrangement information in accordance with the swipe operation in the communication terminal device When the video file request is exceeded, as described above, the video file request is sent from the communication terminal device to the server device 50. Therefore, even when the server device 50 receives such a video file request, reading and downloading of the video file is performed. Processing related to is performed.

列指定の動画ファイル要求をサーバ装置50が受信した場合、MPU50aは、RAM50c又は記憶システム50gに記憶されている配置情報を参照して、受信した動画ファイル要求で示される列に応じたユーザIDに対応付けられた動画ファイルを配信動画格納部67の中から特定して読み出し、読み出した動画ファイルを動画ファイル要求の送信元の通信端末装置へ送信する処理を行う。なお、この場合も、ダウンロード回数が多い動画ファイルをMPU50aは特定することになり、本実施形態では、配置情報に基づき、最新の動画を除いて、4番目に多いダウンロード回数の動画ファイルが送信されているので、5番目以降の動画ファイル(1又は複数の動画ファイル)を特定して、配信動画格納部67から読み出し、動画ファイルの要求元の通信端末装置へ送信する処理をMPU50aは行う。また、5番目以降の動画ファイルが配信動画格納部67に記憶されていないときは、動画ファイルの無い旨の通知を動画ファイルの要求元の通信端末装置へ送信する処理をMPU50aは行う。   When the server apparatus 50 receives the column-specified moving image file request, the MPU 50a refers to the arrangement information stored in the RAM 50c or the storage system 50g, and sets the user ID corresponding to the column indicated in the received moving image file request. The associated moving image file is identified and read out from the distribution moving image storage unit 67, and the read moving image file is transmitted to the communication terminal device that is the transmission source of the moving image file request. In this case as well, the MPU 50a identifies the video file having the highest number of downloads. In this embodiment, the video file having the fourth highest number of downloads is transmitted based on the arrangement information, except for the latest video. Therefore, the MPU 50a performs a process of specifying the fifth and subsequent moving image files (one or a plurality of moving image files), reading them from the distributed moving image storage unit 67, and transmitting them to the communication terminal device that requested the moving image file. Further, when the fifth and subsequent moving image files are not stored in the distributed moving image storage unit 67, the MPU 50a performs a process of transmitting a notification that there is no moving image file to the communication terminal device that requested the moving image file.

また、異なるユーザ指定の動画ファイル要求をサーバ装置50が受信した場合、MPU50aは、記憶されている配置情報を参照して、既に配信した各ユーザの次にダウンロード回数が多いユーザIDを配信動画格納部67から特定し、その特定したユーザIDに対応付けられた各動画ファイルを、上述した場合と同様に特定して読み出し、動画ファイル要求の送信元の通信端末装置へ送信する処理を行う。なお、読み出し対象として、異なるユーザに係る動画ファイルが配信動画格納部67に記憶されていないときは、動画ファイルの無い旨の通知を動画ファイルの要求元の通信端末装置へ送信する処理をMPU50aは行う。以上のような追加的な動画ファイル要求に対して、サーバ装置50は適宜、動画ファイルを通信端末装置へ送信するので、通信端末装置のユーザは、各方向のフリック操作を行えば、様々な動画を適宜視聴できる。   When the server device 50 receives a moving image file request specified by a different user, the MPU 50a refers to the stored arrangement information and stores a user ID having the next highest number of downloads for each user that has already been distributed. Each moving image file identified from the unit 67 and associated with the identified user ID is identified and read in the same manner as described above, and is transmitted to the communication terminal device that is the transmission source of the moving image file request. Note that when a moving image file relating to a different user is not stored in the distribution moving image storage unit 67 as a read target, the MPU 50a performs a process of transmitting a notification that there is no moving image file to the communication terminal device that requested the moving image file. Do. In response to the additional moving image file request as described above, the server device 50 appropriately transmits the moving image file to the communication terminal device. Therefore, if the user of the communication terminal device performs a flick operation in each direction, various moving image files are requested. Can be viewed as appropriate.

次に、上述した構成の撮像動画サービスシステム1における通信端末装置(例えば、図1に示すユーザU1の通信端末装置T1等)、及び動画管理システム40のサーバ装置50によるログイン処理、及びアップロード処理等に関する撮像動画管理方法の一連の処理内容を、図17〜19の第1〜3フローチャートに整理して説明する。   Next, a login process, an upload process, and the like by the communication terminal device (for example, the communication terminal device T1 of the user U1 shown in FIG. 1) and the server device 50 of the video management system 40 in the imaging moving image service system 1 having the above-described configuration. A series of processing contents of the captured moving image management method related to the above will be described in the first to third flowcharts of FIGS.

図17の第1フローチャートは、ユーザが通信端末装置を用いて動画管理システム40へログインを行うときからの処理手順を示したものである。この第1フローチャートは、通信端末装置(例えば、スマートフォン10)のホーム画面を表示した状態から開始される状況を示し、まず、ホーム画面に含まれるアイコンの中で、動画アプリP2用のアイコンがユーザにより選択された否かを通信端末装置は判断する(S1)。動画アプリP2用のアイコンが選択されていない場合(S1:NO)、ユーザによるアイコンの選択待ちの状態となり、アイコンの選択が行われた場合(S1:YES)、通信端末装置は、図4に示すログイン画面20をディスプレイ12に表示する(S2)。   The first flowchart in FIG. 17 shows a processing procedure after the user logs in to the moving image management system 40 using the communication terminal device. This first flowchart shows a situation that starts from a state in which a home screen of a communication terminal device (for example, the smartphone 10) is displayed. First, among the icons included in the home screen, the icon for the video application P2 is a user. The communication terminal device determines whether or not it is selected by (S1). When the icon for the video application P2 is not selected (S1: NO), the user enters a state of waiting for an icon selection, and when the icon is selected (S1: YES), the communication terminal apparatus is shown in FIG. A login screen 20 is displayed on the display 12 (S2).

そして、通信端末装置(スマートフォン10のCPU10a)は、ログイン画面20において、メールアドレスの入力操作、パスワードの入力操作、及びログインボタン20cのタップというログイン操作が行われたか否かを判断する(S3)。ログイン操作が無い場合(S3:NO)、ログイン操作待ちの状態となり、また、ログイン操作が有った場合(S3:YES)、ユーザのログイン情報(入力されたメールアドレス及びパスワード、並びにユーザ端末を識別するUID等を含む情報)を動画管理システム40のサーバ装置50へ通信端末装置は送信する(S4)。   Then, the communication terminal device (CPU 10a of the smartphone 10) determines whether or not a login operation such as an email address input operation, a password input operation, and a login button 20c tap has been performed on the login screen 20 (S3). . If there is no login operation (S3: NO), the login operation is waited. If there is a login operation (S3: YES), the user's login information (the input e-mail address and password, and the user terminal are displayed). The communication terminal device transmits information including the UID to be identified) to the server device 50 of the moving image management system 40 (S4).

一方、動画管理システム40のサーバ装置50(MPU50a)は、最初の段階で、通信端末装置から送られるログイン情報を受信したか否かを判断しており(S10)、受信していない場合(S10:NO)、受信待ちの状態となる。また、ログイン情報を受信した場合(S10:YES)、受信したログイン情報に含まれるメールアドレス、パスワード等について、図12に示す登録ユーザテーブル51に格納される情報の中で一致するものがあるか否かをサーバ装置50は判断する(S11)。一致する情報が格納されていない場合(S11:NO)、サーバ装置50はログイン不可通知をログイン情報の送信元の通信端末装置へ送信する(S12)。   On the other hand, the server device 50 (MPU 50a) of the video management system 40 determines whether or not the login information sent from the communication terminal device has been received in the first stage (S10), and if not received (S10 : NO), it enters a state of waiting for reception. Further, when the login information is received (S10: YES), is there a match among the information stored in the registered user table 51 shown in FIG. 12 regarding the email address, password, etc. included in the received login information? The server device 50 determines whether or not (S11). When the matching information is not stored (S11: NO), the server device 50 transmits a login failure notification to the communication terminal device that is the transmission source of the login information (S12).

また、ログイン情報に一致する情報が登録ユーザテーブル51に格納されている場合(S11:YES)、ログイン完了となり、ログイン完了となったユーザのユーザIDをRAM50c等に記憶してログイン完了の設定をMPU50aは行う(S13)。それから、MPU50aは上述したように、データベース装置60が有する動画データベース65の配信動画格納部67から、ログイン中のユーザIDに対応付けられた動画ファイルを中心に複数の動画ファイルを読み出す(S14)。なお、読み出した複数の動画ファイルに関して、MPU50aは上述したように、再生順序に係る配置情報の生成を行う(図10参照)。そして、MPU50aは、読み出した一群の動画ファイルを、配置情報と共に、ログイン中のユーザの使用する通信端末装置へ送信する処理を行う(S15)。   Further, when information matching the login information is stored in the registered user table 51 (S11: YES), the login is completed, and the user ID of the user who has completed the login is stored in the RAM 50c or the like to set the login completion. The MPU 50a performs (S13). Then, as described above, the MPU 50a reads a plurality of moving image files centering on the moving image file associated with the logged-in user ID from the distributed moving image storage unit 67 of the moving image database 65 of the database device 60 (S14). As described above, the MPU 50a generates the arrangement information related to the reproduction order for the plurality of read moving image files (see FIG. 10). Then, the MPU 50a performs a process of transmitting the read group of moving image files together with the arrangement information to the communication terminal device used by the logged-in user (S15).

通信端末装置(CPU10a)は、S4の段階でログイン情報を送信してから、ログイン不可通知を受信したか否かを判断しており(S5)、ログイン不可通知を受信した場合(S5:YES)、S2の段階に戻って、再度、ログイン画面20をディスプレイ12に表示して、正しいログイン情報の入力機会をユーザに提示する。なお、再度、ログイン画面20を表示する際は、入力されたログイン情報が正しくない旨などをログイン画面20内に示して、ユーザに注意を促すことが好適である。   The communication terminal device (CPU 10a) determines whether or not a login failure notification has been received after transmitting login information in the stage of S4 (S5). When a login failure notification is received (S5: YES) Returning to the stage of S2, the login screen 20 is again displayed on the display 12, and the user is presented with an opportunity to input correct login information. When the login screen 20 is displayed again, it is preferable that the login screen 20 indicates that the input login information is not correct, etc., and alerts the user.

また、ログイン不可通知を受信しない場合(S5:NO)、次に、通信端末装置(CPU10a)は、一群の複数の動画ファイルを受信(ダウンロード)したか否かを判断し(S6)、動画ファイルを受信していない場合(S6:NO)、S5の段階へ戻り、再度、ログイン不可通知の受信の有無の判断を行うことになる。   If the login disapproval notification is not received (S5: NO), the communication terminal device (CPU 10a) then determines whether or not a group of a plurality of video files has been received (downloaded) (S6). Is not received (S6: NO), the process returns to the step S5, and it is determined again whether or not a login failure notification has been received.

一方、通信端末装置(CPU10a)は、動画ファイルを受信した場合(S6:YES)、受信した動画ファイルをRAM10c等に一時的に記憶する(S7)。なお、動画ファイルを受信したときは、動画ファイルと一緒に送られてくる配置情報も受信することになり、通信端末装置は、受信した配置情報も、受信した一群の動画ファイルと関連付けてRAM10c等に記憶する。それから、通信端末装置は、受信した配置情報を参照して、受信した複数の動画ファイルの中から最初に再生する動画ファイル(ログインしたユーザによる最新の撮像動画を含む動画ファイル)を特定し、その特定した動画ファイルの再生処理を行い(S8)、図5のメイン画面21で示すように、再生する動画ファイルに応じた動画Dを、ディスプレイ12の中で全画面表示の形態で表示する(S9)。   On the other hand, when receiving the moving image file (S6: YES), the communication terminal device (CPU 10a) temporarily stores the received moving image file in the RAM 10c or the like (S7). When a moving image file is received, the arrangement information sent together with the moving image file is also received, and the communication terminal apparatus associates the received arrangement information with the received group of moving image files, such as the RAM 10c. To remember. Then, the communication terminal device refers to the received arrangement information, identifies the video file to be played first (video file including the latest captured video by the logged-in user) from the received video files, and The specified moving image file is reproduced (S8), and as shown in the main screen 21 of FIG. 5, the moving image D corresponding to the moving image file to be reproduced is displayed on the display 12 in the form of full screen display (S9). ).

以上のような一連の処理により、ログインを行えば、ユーザ自身による最新の撮像動画が自動で再生されるため、本発明ではスムーズに動画の視聴を開始できるメリットがある。また、再生される動画は、ディスプレイ12で全画面表示されるので、画面サイズの小さなスマートフォンを通信端末装置に用いても動画内容を詳細に確認できる。なお、ユーザ自身による撮像動画がアップロードされていないときは、ダウンロード回数の最も多いユーザによる最新の撮像動画が全画面表示されるので、この場合は、その時点で人気のある撮像動画をスムーズに確認できることになる。   If the user logs in through the series of processes as described above, the latest captured moving image by the user is automatically played back. Therefore, the present invention has an advantage that the moving image can be smoothly viewed. Moreover, since the moving image to be reproduced is displayed on the entire screen on the display 12, the moving image content can be confirmed in detail even when a smartphone having a small screen size is used as the communication terminal device. In addition, when the captured video by the user is not uploaded, the latest captured video by the user with the highest number of downloads is displayed in full screen. In this case, the popular captured video can be checked smoothly at that time. It will be possible.

また、図18は、再生表示対象となる動画の切替に関する一連の処理手順を示す第2フローチャートであり、上述した第1フローチャートにおいて通信端末装置で動画Dを表示した段階(S9)から続く処理内容になる。通信端末装置(CPU10a)は、動画の再生中に、図9に示す各方向のスワイプ操作25a、25b、26a、26bに応じたユーザによる表示対象(再生対象)の切替操作を受け付けたか否かを判断する(S20)。切替操作を受け付けていない場合(S20:NO)、切替操作待ちの状態となり、また、切替操作を受け付けた場合(S20:YES)、通信端末装置は、切替対象の動画ファイルがRAM10c等に記憶されているかを、配置情報を参照して判断する(S21)。   FIG. 18 is a second flowchart showing a series of processing procedures relating to switching of a moving image to be reproduced and displayed. Processing contents continued from the stage (S9) in which moving image D is displayed on the communication terminal device in the first flowchart described above. become. Whether or not the communication terminal device (CPU 10a) has accepted the switching operation of the display target (reproduction target) by the user according to the swipe operations 25a, 25b, 26a, and 26b in each direction shown in FIG. Judgment is made (S20). When the switching operation is not received (S20: NO), the switching operation wait state is entered. When the switching operation is received (S20: YES), the communication terminal device stores the switching target moving image file in the RAM 10c or the like. It is determined with reference to the arrangement information (S21).

この場合、例えば、図10に示す動画ファイルの配置状況で、動画ファイルA−1の再生中にフリック操作25aを受け付けたときは、再生処理の切替対象は動画ファイルA−3となり、この動画ファイルA−3は、ログイン完了時にダウロードする一群の動画ファイルに含まれるので、RAM10c等に記憶されているものとなる。一方、例えば、図10に示す動画ファイルA−4の再生中にフリック操作25bを受け付けたときは、その動画ファイルA−4の右側には動画ファイルの配置の存在が規定されていないので、このようなときに、切替対象の動画ファイルが記憶されていないと通信端末装置(CPU10a)が判断することになる。   In this case, for example, when the flick operation 25a is accepted during the reproduction of the moving image file A-1 in the arrangement state of the moving image file shown in FIG. 10, the switching target of the reproduction process is the moving image file A-3. Since A-3 is included in a group of moving image files that are downloaded when login is completed, A-3 is stored in the RAM 10c or the like. On the other hand, for example, when the flick operation 25b is received during the reproduction of the moving image file A-4 shown in FIG. 10, the existence of the arrangement of the moving image file is not defined on the right side of the moving image file A-4. In such a case, the communication terminal device (CPU 10a) determines that the moving image file to be switched is not stored.

切替対象の動画ファイルが記憶されている場合(S21:YES)、通信端末装置は、その記憶されている動画ファイルを切替対象にして再生処理を行い(S27)、その再生処理により得られた動画をディスプレイ12に表示する(S28)。一方、切替対象の動画ファイルが記憶されていない場合(S21:NO)、通信端末装置は、スワイプ操作に応じた配置に係る動画ファイル要求(列指定、又は異なるユーザ指定の動画ファイルの要求)をサーバ装置50へ送信する(S22)。   When the moving image file to be switched is stored (S21: YES), the communication terminal apparatus performs a reproduction process on the stored moving image file (S27), and the moving image obtained by the reproduction process is performed. Is displayed on the display 12 (S28). On the other hand, when the moving image file to be switched is not stored (S21: NO), the communication terminal apparatus issues a moving image file request (a request for a moving image file specified by a column or a different user) related to the arrangement according to the swipe operation. It transmits to the server device 50 (S22).

この第2フローチャートにおいて、サーバ装置50は、通信端末装置から動画ファイル要求を受信したか否かを判断する状況になっており(S30)、動画ファイル要求を受信していない場合(S30:NO)、動画ファイル要求の受信待ちの状態となり、動画ファイル要求を受信した場合(S30:YES)、受信した動画ファイル要求に応じた動画ファイルが、動画データベース65の配信動画格納部67に記憶されているか否かを通信端末装置は検出する(S31)。   In the second flowchart, the server device 50 is in a state of determining whether or not a moving image file request has been received from the communication terminal device (S30), and when the moving image file request has not been received (S30: NO). If the moving image file request is received and the moving image file request is received (S30: YES), is the moving image file corresponding to the received moving image file request stored in the distributed moving image storage unit 67 of the moving image database 65? The communication terminal apparatus detects whether or not (S31).

このS31の段階の動画ファイルの記憶の検出において、例えば、列指定の動画ファイル要求を受信した場合で、その指定された列に係るユーザIDに対応付けられた動画ファイルをログイン完了時に全て送信していれば、それ以上の動画ファイルは動画データベース65の配信動画格納部67に記憶されていないので、このようなときは検出結果の判断の段階で(S32)、要求対象の動画ファイルは記憶されていないと判断される(S32:NO)。一方、指定された列に係るユーザIDに対応付けられた動画ファイルが6以上、配信動画格納部67に格納されていれば、本実施形態ではログイン完了時に計5つの動画ファイルを送信する仕様になっていることから、この場合であれば、少なくとも一つの動画ファイルは未送信であるから、検出結果により、その未送信の動画ファイルが記憶されていることが判断される(S32:YES)。   In the detection of the storage of the moving image file in the step of S31, for example, when a column-specified moving image file request is received, all the moving image files associated with the user ID related to the specified column are transmitted when the login is completed. If so, no more video files are stored in the distribution video storage unit 67 of the video database 65. In such a case, the request target video file is stored at the stage of determination of the detection result (S32). It is determined that it is not present (S32: NO). On the other hand, if 6 or more moving image files associated with the user ID related to the designated column are stored in the distributed moving image storage unit 67, the present embodiment is configured to transmit a total of 5 moving image files when login is completed. Therefore, in this case, since at least one moving image file has not been transmitted, it is determined from the detection result that the untransmitted moving image file is stored (S32: YES).

そして、動画ファイル要求に応じた動画ファイルが記憶されている場合(S32:YES)、サーバ装置50は、その動画ファイルを動画データベース65の配信動画格納部67から読み出して通信端末装置へ送信する(S33)。一方、動画ファイル要求に応じた動画ファイルが記憶されていない場合(S32:NO)、サーバ装置50は、要求対象の動画ファイルが無い旨の通知(動画ファイル無し通知)を通信端末装置へ送信する(S34)。   And when the moving image file according to a moving image file request | requirement is memorize | stored (S32: YES), the server apparatus 50 reads the moving image file from the delivery moving image storage part 67 of the moving image database 65, and transmits to a communication terminal device ( S33). On the other hand, when the moving image file corresponding to the moving image file request is not stored (S32: NO), the server device 50 transmits a notification that there is no requested moving image file (notifying moving image file) to the communication terminal device. (S34).

通信端末装置(CPU10a)は、S22の段階で動画ファイル要求を送信した後、動画ファイルを受信(ダウンロード)したか否かを判断しており(S23)、動画ファイルを受信した場合(S23:YES)、新たに受信した動画ファイルをRAM10c等に記憶し(S24)、その後は、上述したS27、28以降の段階へ処理を進めて、その新たな動画ファイルの再生処理を行い、再生処理に係る動画の表示を行う。このような処理により、ログイン時のダウンロードで含まれない動画ファイルに係る動画も、ディスプレイ12におけるスワイプ操作(フリック操作)で適宜表示できることになる。   The communication terminal device (CPU 10a) determines whether or not the moving image file has been received (downloaded) after transmitting the moving image file request in step S22 (S23). If the moving image file is received (S23: YES) ), The newly received moving image file is stored in the RAM 10c or the like (S24), and thereafter, the process proceeds to the above-described steps S27 and S28, and the reproduction process of the new moving image file is performed. Display video. By such processing, a moving image related to a moving image file that is not included in the download at the time of login can be appropriately displayed by a swipe operation (flick operation) on the display 12.

また、動画ファイルを受信しない場合(S23:NO)、通信端末装置は次に、動画ファイル無し通知を受信したか否かを判断し(S25)、動画ファイル無し通知を受信しない場合(S25:NO)、上述したS23の段階へ処理を戻す。一方、動画ファイル無し通知を受信した場合(S25:YES)、通信端末装置は、図10に示す配置の中でループするように、再生対象の動画ファイルをRAM10c等に記憶する中から特定し(S26)、その後は、特定した動画ファイルに対して上述したS27、28の処理を行って、特定した動画ファイルに係る動画をディスプレイ12に表示する。   Further, when the moving image file is not received (S23: NO), the communication terminal device next determines whether or not the moving image file absence notification is received (S25), and when the moving image file absence notification is not received (S25: NO). ), The process returns to the above-described step S23. On the other hand, when the notification that there is no moving image file is received (S25: YES), the communication terminal device identifies the moving image file to be reproduced from being stored in the RAM 10c or the like so as to loop in the arrangement shown in FIG. After that, the processes of S27 and S28 described above are performed on the specified moving image file, and the moving image related to the specified moving image file is displayed on the display 12.

以上のように、動画表示中に各方向のいずれかのスワイプ操作25a、25b、26a、26bをユーザが行えば、通信端末装置(CPU10a)は、スワイプ操作に応じた再生対象となる動画ファイルを、配置情報を参照して特定し、再生対象を切り替えてディスプレイ12で表示する動画も切り替えるので、ダウンロード回数の多い各動画を効率的に視聴できる。そして、更なるスワイプ操作で再生対象が、ダウンロードした動画ファイルの範囲を超えると、通信端末装置は動画ファイル要求をサーバ装置50へ送信し、サーバ装置50から要求に応じた動画ファイルを受信(ダウンロード)すれば、その動画ファイルの再生処理を行って動画を表示するので、ディスプレイ12で全画面表示を行っても様々な動画を適宜切り替えて表示できる。   As described above, when the user performs the swipe operation 25a, 25b, 26a, or 26b in any direction during the moving image display, the communication terminal device (CPU 10a) selects the moving image file to be played back according to the swipe operation. Since the moving image displayed on the display 12 by switching the playback target is specified by referring to the arrangement information, each moving image having a large number of downloads can be efficiently viewed. When the playback target exceeds the range of the downloaded video file by further swiping operation, the communication terminal device transmits a video file request to the server device 50 and receives (downloads) the video file according to the request from the server device 50. ), The moving image file is reproduced and the moving image is displayed. Therefore, even if the full screen display is performed on the display 12, various moving images can be appropriately switched and displayed.

そして、図19に示す第3フローチャートは、撮像及びアップロードに係る一連の処理を整理したものであり、第1フローチャートでログインが完了してディスプレイ12に動画Dを表示している状態からの処理を示す。まず、通信端末装置(CPU10a)は、メイン画面21がタッチされることで示されるカメラアイコン21b(図6(a)参照)がタップされることで、撮像画面22にディスプレイ12の表示が切り替わって、撮像スタートアイコン22b(図6(b)参照)がタップされるというユーザによる撮像操作を受け付けたか否かを判断する(S40)。撮像操作を受け付けていない場合(S40:NO)、撮像操作待ちの状態となる。   The third flowchart shown in FIG. 19 is an arrangement of a series of processes related to imaging and uploading. In the first flowchart, the process from the state where the login is completed and the moving image D is displayed on the display 12 is performed. Show. First, in the communication terminal device (CPU 10a), when the camera icon 21b (see FIG. 6A) shown by touching the main screen 21 is tapped, the display 12 of the display 12 is switched to the imaging screen 22. Then, it is determined whether or not an imaging operation by the user that the imaging start icon 22b (see FIG. 6B) is tapped has been received (S40). When the imaging operation is not accepted (S40: NO), the imaging operation is waited.

また、撮像操作を受けた場合(S40:YES)、通信端末装置は、撮像処理を行う(S41)。なお、撮像処理の際、通信端末装置は、GPS部10hで検出した緯度経度に応じた撮像場所名の取得処理も行っている。それから、通信端末装置は、撮像停止アイコン23a(図7(a)参照)がタップされるというユーザによる撮像停止操作を受け付けたか否かを判断する(S42)。撮像停止操作を受け付けていない場合(S42:NO)、S41の段階へ戻り、撮像処理を継続する。   When receiving an imaging operation (S40: YES), the communication terminal apparatus performs an imaging process (S41). In the imaging process, the communication terminal apparatus also performs an acquisition process of the imaging location name according to the latitude and longitude detected by the GPS unit 10h. Then, the communication terminal apparatus determines whether or not an imaging stop operation by the user that the imaging stop icon 23a (see FIG. 7A) is tapped has been received (S42). When the imaging stop operation has not been received (S42: NO), the process returns to the step S41 and the imaging process is continued.

そして、撮像停止操作を受け付けた場合(S42:YES)、次に、通信端末装置は、
アップロードアイコン24bがタップされるというユーザによるアップロード操作を受け付けたか否かを判断する(S43)。アップロード操作を受け付けていない場合(S43:NO)、アップロード操作待ちの状態となる。
And when imaging stop operation is received (S42: YES), a communication terminal device is next,
It is determined whether or not an upload operation by the user that the upload icon 24b is tapped has been received (S43). When the upload operation is not accepted (S43: NO), the upload operation is waited.

また、アップロード操作を受け付けた場合(S43:YES)、通信端末装置は、撮像した動画に基づくコンテンツデータ、及び撮像タグに係る撮像場所名等の撮像状況情報を含むメタ情報を有する動画ファイル(図8の撮像動画ファイル参照)を生成し(S44)、生成した動画ファイルをサーバ装置50へアップロード(送信)する(S45)。通信端末装置側の撮像からアップロードに至る処理は、この段階で一旦終了し、この後の通信端末装置側の処理は、撮像操作以前の状態(再生動画の表示状態、例えば、第1フローチャートのS9の段階)へ戻ることになる。   When an upload operation is accepted (S43: YES), the communication terminal device has content data based on the captured video and a video file having meta information including imaging status information such as an imaging location name related to the imaging tag (FIG. 8) (S44), and uploads (transmits) the generated moving image file to the server device 50 (S45). The processing from imaging to uploading on the communication terminal device side is temporarily terminated at this stage, and the subsequent processing on the communication terminal device side is the state before the imaging operation (display state of the playback video, for example, S9 in the first flowchart). It will return to the stage.

そして、この第3フローチャートにおいて、サーバ装置50は最初の段階(S50)で、アップロードされる動画ファイルを受信したか否かを判断しており(S50)、アップロードを受信していない場合(S50:NO)、受信待ちの状態となり、アップロードを受信した場合(S50:YES)、受信した動画ファイル(撮像動画ファイル)を動画データベース65のオリジナル動画格納部66に、ログイン中のユーザIDに対応付けて記憶する処理を行う(S51)。   In the third flowchart, the server device 50 determines whether or not the video file to be uploaded has been received in the first stage (S50) (S50). If the upload has not been received (S50: NO), when waiting for reception and receiving an upload (S50: YES), the received moving image file (captured moving image file) is associated with the logged-in user ID in the original moving image storage unit 66 of the moving image database 65. The storing process is performed (S51).

それから、サーバ装置50は、受信した動画ファイルに付されたメタ情報の撮像場所名と同じ名称が、動画データベース65の配信動画格納部67において、ログイン中のユーザIDに対応付けられた撮像タグの各項目の中に格納されているかを検出する(S52)。同じ名称が格納されているのを検出しない場合(S52:NO)、受信した動画ファイルをログイン中のユーザIDに対応付けて配信動画格納部67に記憶する処理を行う(S53)。この際、記憶する動画ファイルに付された撮像場所名をメタ情報の項目に、記憶する動画ファイルに関連付けて格納する処理も行う。なお、同じ名称を検出しなかった場合(S52:NO)で、S53の段階の記憶処理を行うことで、アップロードされた動画処理に対するサーバ装置50側の処理を一旦終了する。   Then, the server device 50 has the same name as the imaging location name of the meta information attached to the received video file in the imaging tag associated with the logged-in user ID in the distribution video storage unit 67 of the video database 65. Whether it is stored in each item is detected (S52). If it is not detected that the same name is stored (S52: NO), the received moving image file is stored in the distributed moving image storage unit 67 in association with the logged-in user ID (S53). At this time, a process of storing the imaging location name attached to the moving image file to be stored in the meta information item in association with the moving image file to be stored is also performed. If the same name is not detected (S52: NO), the storage process at the stage of S53 is performed to temporarily end the process on the server device 50 side for the uploaded moving image process.

また、同じ名称が格納されているのを検出した場合(S52:YES)、その同じ名称に関連付けて配信動画格納部67に記憶されている動画ファイル(撮像動画ファイル又は編集動画ファイル)を、編集処理対象として、サーバ装置50(MPU50a)は検出して特定する(S54)。そして、サーバ装置50(MPU50a)は、特定した動画ファイルに、受信した動画ファイルを結合して一つの編集動画ファイルを生成する処理を行い(S55)、その生成した編集動画ファイルを、特定した動画ファイルの替わりに、配信動画格納部67へ記憶する処理を行う(S56)。なお、同じ名称を検出した場合については(S52:YES)、S56の段階の記憶処理を行うことで、アップロードされた動画処理に対するサーバ装置50側の処理を一旦終了する。   If it is detected that the same name is stored (S52: YES), the moving image file (captured moving image file or edited moving image file) stored in the distribution moving image storage unit 67 in association with the same name is edited. The server device 50 (MPU 50a) is detected and specified as a processing target (S54). Then, the server device 50 (MPU 50a) performs processing for combining the received moving image file with the specified moving image file to generate one edited moving image file (S55), and identifies the generated moving image file as the specified moving image file. Instead of the file, a process of storing in the distribution moving image storage unit 67 is performed (S56). In the case where the same name is detected (S52: YES), the storage processing at the stage of S56 is performed to temporarily end the processing on the server device 50 side for the uploaded moving image processing.

このように通信端末装置からの動画ファイルのアップロードに対して、サーバ装置は上述した処理を行うことで、アップロードした動画ファイルに係る動画が、撮像したユーザによる初めての撮像場所であれば、アップロードした動画ファイルが、そのままダウロード用に記憶されるので、新たな撮像場所で撮像した動画を公開できる機会を確保できることになる。また、アップロードした動画ファイルに係る動画が、撮像したユーザによって今までに撮像された場所であれば、先に撮像されたときの動画ファイルに、アップロードした動画ファイルを結合して一つの編集動画ファイルにまとめて編集するので、同じ撮像場所の動画を自動的に整理でき、同じ撮像場所の動画を効率良くスムーズに視聴する機会を提供できる。   In this way, the server device performs the above-described processing for uploading the video file from the communication terminal device, and uploads if the video related to the uploaded video file is the first imaging location by the user who has captured the image. Since the moving image file is stored as it is for downloading, an opportunity to publish a moving image captured at a new imaging location can be secured. In addition, if the video related to the uploaded video file has been captured by the user who has taken the image, the edited video file is combined with the video file that was previously captured and the edited video file. Therefore, it is possible to automatically organize moving images at the same imaging location and provide an opportunity to efficiently and smoothly view moving images at the same imaging location.

なお、本発明は上述した形態に限定されるものではなく、様々な変形例が想定できる。例えば、編集動画ファイルを生成する際、アップロードされた動画ファイル(撮像動画ファイル)に結合する対象の動画ファイルの検出及び特定の処理において、撮像タグとして撮像場所名を用いる以外に、様々な情報を用いることが可能である。具体的には、撮像場所に関する情報(撮像状況情報)として、緯度経度の数値、標高(高度)等を用いることが可能であり、さらには、場所以外の天気、気温、湿度等の撮像に係る条件や、撮像時の匂い、振動、傾き、カメラ情報(撮像レンズの仕様)等も用いることができ、さらにまた、撮像動画内容の解析等を行う場合は動画に写っているオブジェクトを示す情報(写っているのが、家、人、犬など)も撮像タグに用いることができる。   In addition, this invention is not limited to the form mentioned above, Various modifications can be assumed. For example, when generating an edited video file, various information other than using an imaging location name as an imaging tag in detection and specific processing of a video file to be combined with an uploaded video file (imaging video file) It is possible to use. Specifically, it is possible to use numerical values of latitude and longitude, altitude (altitude), etc., as information relating to the imaging location (imaging status information), and further to imaging of weather, temperature, humidity, etc. other than the location Conditions, odor at the time of imaging, vibration, tilt, camera information (imaging lens specifications), etc. can also be used. Furthermore, when analyzing captured video content etc., information indicating the object shown in the video ( A house, person, dog, etc.) can also be used for the imaging tag.

検出用の撮像タグとして、緯度経度の数値を用いる場合は、アップロードする動画ファイルのメタ情報の中に、GPS部10hで撮像時に検出された緯度経度の数値を含ませて、動画ファイルに付すようにしており、また、結合する対象を検出する際には、同じ数値だけに検出対象を限定すると、結合相手をほとんど検出できなくなるので、その緯度経度の数値から所定範囲内の数値を含む動画ファイルは、同じ撮像場所として検出することになる。このように、緯度経度で検出を行えば、撮像場所名の取得等の処理を省略できるメリットがある。   When using latitude and longitude numerical values as the imaging tag for detection, the numerical value of latitude and longitude detected at the time of imaging by the GPS unit 10h is included in the meta information of the uploaded video file and attached to the video file. In addition, when detecting the target to be combined, if you limit the detection target to only the same numerical value, it will be impossible to detect the partner, so a movie file that contains numerical values within a predetermined range from the latitude and longitude values Are detected as the same imaging location. In this way, if detection is performed using latitude and longitude, there is an advantage that processing such as acquisition of an imaging location name can be omitted.

また、検出用の撮像タグとして、撮像場所の標高(高度)を用いる場合は、通信端末装置(例えば、スマートフォン10等)に高度検出ユニットを設け、撮像時の標高の数値を検出し、その検出した標高の数値をアップロードする動画ファイルのメタ情報の中に含ませるようにする。そして、結合相手の検出の際には、上述した緯度経度の場合と同様に、同じ数値だけに検出対象を絞ると、検出が困難になるので、検出した標高の数値プラスマイナス1〜4m程度の差は同じ高度とみなして、検出することになる。このように標高で検出を行えば、山や高地等で撮像を行う場合に、同レベルの標高の動画をスムーズに編集できるメリットがある。   Further, when using the altitude (altitude) of the imaging location as an imaging tag for detection, an altitude detection unit is provided in the communication terminal device (for example, the smartphone 10), and the numerical value of the altitude at the time of imaging is detected and detected. Include altitude values in the meta information of uploaded video files. When detecting the binding partner, as in the case of the latitude and longitude described above, if the detection target is limited to only the same numerical value, it becomes difficult to detect, so the numerical value of the detected elevation is about plus or minus 1 to 4 m. The difference will be detected as the same altitude. If the detection is performed at the altitude in this way, there is a merit that a moving image of the same level can be smoothly edited when imaging is performed at a mountain or a highland.

さらに、検出用の撮像タグとして天気を用いる場合は、通信端末装置(例えば、スマートフォン10等)に天気の検知ユニットを設けて、撮像時の天気(晴れ、曇り、雨、雪など)を検知することになる。このように検知した天気で検出を行うと、生成する編集動画ファイルの動画の中身を、同じ天気のものでまとめられるメリットがある。さらにまた検出用の撮像タグとして気温、湿度等を用いる場合は、通信端末装置(例えば、スマートフォン10等)に気温、湿度等の検知ユニットを設けて、撮像時の気温、湿度等の数値を検出することになる。   Further, when weather is used as an imaging tag for detection, a weather detection unit is provided in the communication terminal device (for example, the smartphone 10) to detect the weather at the time of imaging (sunny, cloudy, rain, snow, etc.). It will be. If detection is performed using the detected weather in this way, there is an advantage that the contents of the moving image of the edited moving image file to be generated can be collected with the same weather. Furthermore, when temperature, humidity, etc. are used as an imaging tag for detection, a detection unit for temperature, humidity, etc. is provided in the communication terminal device (for example, the smartphone 10), and numerical values such as temperature, humidity, etc. at the time of imaging are detected. Will do.

また、検出用の撮像タグとして、撮像時の匂い、震動、傾き等を用いる場合は、通信端末装置(例えば、スマートフォン10等)に、匂い、震動、傾き等をそれぞれ検知するユニットを設けて、匂い、震動、傾き等を検知することになる。さらに、検出用の撮像タグとして、撮像レンズの仕様等に係るカメラ情報を用いる場合は、これらの撮像レンズの仕様等は予め判明しているので、その判明している仕様等を示す情報をRAM10c又はROM10d等に記憶しておき、動画の撮像を行った場合、RAM10c等に記憶している撮像カメラの仕様等の情報を読み出して、生成した動画ファイルのメタ情報に含ませることになる。   In addition, when using the odor, vibration, inclination, etc. at the time of imaging as the imaging tag for detection, a unit for detecting the odor, vibration, inclination, etc. is provided in the communication terminal device (for example, the smartphone 10), It detects odors, vibrations, tilts, etc. Further, when camera information related to the specifications of the imaging lens is used as the imaging tag for detection, since the specifications of these imaging lenses are known in advance, information indicating the known specifications is stored in the RAM 10c. Alternatively, when a moving image is captured in the ROM 10d or the like, information such as the specifications of the imaging camera stored in the RAM 10c or the like is read out and included in the meta information of the generated moving image file.

そして、検出用の撮像タグとして、動画に写っているオブジェクトを示す情報(写っているのが、家、人、犬など)も用いる場合は、通信端末装置(例えば、スマートフォン10等)の記憶部10kに、動画に写っているオブジェクトを抽出する処理を規定したオブジェクト抽出アプリ(アプリケーションプログラム)をインストールしておき、動画を撮像した場合、オブジェクト抽出アプリを起動させて、その動画に写っているオブジェクトが何であるかをCPU10aが抽出して特定し、その特定した結果(特定したオブジェクトを示す情報)を、アップロードする動画ファイルのメタ情報の中に含ませることになる。このようにすると、生成する編集動画ファイルによる動画の中身が、同様のオブジェクトに対するものとなり、オブジェクト別に撮像動画を視聴できるようになる。   And when using the information which shows the object reflected in the moving image (the house, the person, the dog etc. are reflected) as the imaging tag for detection, the storage unit of the communication terminal device (for example, the smartphone 10) In 10k, when an object extraction application (application program) that specifies processing for extracting an object appearing in a moving image is installed and a moving image is captured, the object extraction application is activated and the object appearing in the moving image Is extracted and specified by the CPU 10a, and the specified result (information indicating the specified object) is included in the meta information of the video file to be uploaded. In this way, the content of the moving image by the generated edited moving image file is for the same object, and the captured moving image can be viewed for each object.

なお、検出用の撮像タグとして用いることが可能な上述した各例は、適宜、組み合わせて使用することも可能であり、例えば、緯度経度と標高を組み合わせることや、標高と気温等を組み合わせて、編集対象の動画ファイルの更なる絞り込みを行えるようにしてもよい。   Each example described above that can be used as an imaging tag for detection can also be used in combination as appropriate, for example, by combining latitude and longitude with elevation, or by combining elevation and temperature, You may enable it to further narrow down the moving image file to be edited.

さらには、検出用の撮像タグを自動で検知・取得する以外に、撮像を行うユーザにより撮像タグを入力する仕様にすることも可能である。この場合は、図6(b)に示す撮像画面22又は図7(b)に示す撮像完了画面24に、テキスト入力欄を表示すると共に、OSプログラムP1の機能によりソフトキーボードをディスプレイ12に表示し、このソフトキーボードをユーザが適宜操作することで、テキスト入力欄に入力した情報を、通信端末装置(CPU10a)は撮像タグとして受け付けて、生成する動画ファイルに付すようにする(メタ情報に入力した撮像タグ含ませる)。このようにユーザ入力の情報を、撮像状況を示す撮像タグとして利用すると、多様な表現を撮像タグに用いることが可能となり、例えば、「Aさんの結婚式二次会」、「子供の運動会」等といったイベント、催し物の名称を撮像タグに適用可能となる。   Furthermore, in addition to automatically detecting / acquiring an imaging tag for detection, it is also possible to adopt a specification in which an imaging tag is input by a user who performs imaging. In this case, a text input field is displayed on the imaging screen 22 shown in FIG. 6B or the imaging completion screen 24 shown in FIG. 7B, and a soft keyboard is displayed on the display 12 by the function of the OS program P1. The communication terminal device (CPU 10a) accepts the information input in the text input field as an imaging tag and attaches it to the video file to be generated by appropriately operating the soft keyboard by the user (input to the meta information). Include imaging tags). If user input information is used as an imaging tag indicating the imaging status in this way, a variety of expressions can be used for the imaging tag. For example, “Mr. A ’s wedding secondary party”, “children ’s athletic meet”, etc. Event and event names can be applied to imaging tags.

また、上記のようにユーザ操作で撮像タグを入力する場合は、ハッシュタグ形式で情報の入力を行ってもよく、このようハッシュタグ形式で撮像タグを入力すると、結合相手の動画ファイルをハッシュタグの文字列で検出することも可能になり、また、図10で示すようにダウンロードする一群の複数の動画ファイルをサーバ装置50が検出して特定する際、ハッシュタグを利用して、ダウンロード対象の動画ファイルを検出できるメリットも生じる。さらに、動画の視聴を希望するユーザにとっては、ハッシュタグの入力により、視聴したい動画をハッシュタグで指定でき、視聴したい動画の絞り込みも容易になる。   In addition, when inputting an imaging tag by a user operation as described above, information may be input in a hash tag format. When an imaging tag is input in such a hash tag format, a moving partner's video file is stored as a hash tag. In addition, when the server device 50 detects and specifies a group of a plurality of moving image files to be downloaded as shown in FIG. There is also a merit that video files can be detected. Furthermore, for a user who wants to view a moving image, by inputting the hash tag, the moving image that the user wants to view can be specified by the hash tag, and it becomes easy to narrow down the moving image that the user wants to view.

例えば、図6(a)に示す各種メニューを表示したメイン画面21において、視聴したい撮像タグを入力できる入力欄を設けると共に、OSプログラムP1の機能によりソフトキーボードをディスプレイ12に表示し、このソフトキーボードをユーザが適宜操作することで、テキスト入力欄に入力した情報で、ハッシュタグ形式の撮像タグについて配信動画格納部67をサーバ装置50が検索し、検索によりヒットした動画ファイルをダウンロード対象として特定するようにしてもよい。   For example, in the main screen 21 displaying various menus shown in FIG. 6A, an input field for inputting an imaging tag to be viewed is provided, and a soft keyboard is displayed on the display 12 by the function of the OS program P1. The server device 50 searches the distribution moving image storage unit 67 for the imaging tag in the hash tag format with the information input in the text input field, and specifies the moving image file hit by the search as the download target. You may do it.

なお、上記のユーザによる情報の入力は、ソフトキーボードを用いる替わりに、音声入力を適用することも可能であり、この場合は、撮像タグを示す情報をユーザが音声で発し、通信端末装置はユーザの発する音声をマイク14で取得し、取得した音声をテキスト変換する処理を行い、変換したテキスト(文字列)で、結合相手の検出、視聴したい動画の検索等を行う。そして、このような音声入力を適用した場合には、ユーザの音声による問いかけで、撮像タグ(撮像場所名)を、再生動画に重ねて表示する仕様にすることも想定できる。   In addition, instead of using a soft keyboard, voice input can also be applied to input information by the user. In this case, the user emits information indicating an imaging tag by voice, and the communication terminal device is the user. Is acquired by the microphone 14, and the acquired voice is converted into text, and the converted text (character string) is used to detect a partner to join and search for a moving image to be viewed. When such voice input is applied, it can be assumed that the imaging tag (imaging location name) is displayed so as to be superimposed on the reproduced moving image by asking the user's voice.

例えば、通信端末装置で動画の再生表示中に、ユーザが「ここどこ」という音声を発すれば、通信端末装置は、その音声をマイク24で取得し、その取得した「ここどこ」という音声をテキスト変換して意味を解釈し、動画の撮像場所を問いかける音声であることを認識することで、その認識をトリガーにして、再生中の動画に係る動画ファイルに付された撮像場所名を、動画に重ねてディスプレイ12に表示する処理を行う。このような処理を行うことで、ユーザは、視聴していて気になった撮像動画について、その撮像場所を容易に確認できるようになる。   For example, if a user utters a voice “here where” during playback and display of a moving image on the communication terminal device, the communication terminal device acquires the voice with the microphone 24 and uses the acquired voice “here”. Recognize that the sound is converted to text, interpret the meaning, and inquire about the shooting location of the video, and using that recognition as a trigger, the shooting location name attached to the video file associated with the video being played A process of displaying on the display 12 is performed. By performing such processing, the user can easily confirm the imaging location of the captured moving image that he / she was interested in.

また、上述した説明では、編集動画ファイルの生成は、同じユーザIDに対応付けられる動画ファイル同士を結合して行っていたが、異なるユーザIDに対応付けられる動画ファイルを結合して、編集動画ファイルを生成してよい。このように異なるユーザIDに係る動画ファイルによる結合で編集動画ファイルを生成すると、様々なユーザにより撮像された動画の中で、同じ撮像タグの付された動画を連続して視聴できるようになり、異なるユーザにより撮像された各動画を比較して楽しむことができる。なお、異なるユーザIDに係る動画ファイルで生成された編集動画ファイルは、結合に用いた各動画ファイルに係るユーザIDのそれぞれに対応づけて配信動画格納部67に記憶して、それぞれのユーザIDから読み出せるようにすることが好適である。   In the above description, the edited moving image file is generated by combining the moving image files associated with the same user ID. However, the edited moving image file is combined with the moving image files associated with different user IDs. May be generated. In this way, when an edited video file is generated by combining video files related to different user IDs, among videos captured by various users, videos with the same imaging tag can be viewed continuously. Each moving image taken by different users can be compared and enjoyed. The edited moving image file generated by the moving image file related to the different user ID is stored in the distributed moving image storage unit 67 in association with each user ID related to each moving image file used for the combination, and from each user ID. It is preferable to be able to read.

さらに、上述した説明では、編集動画ファイルは、再生の際、結合に用いた動画ファイルについて、新しい撮像日時の撮像動画の部分から古い撮像日時の撮像動画の部分へ向かう順で再生されるように結合していたが、これとは逆に、再生の際、古い撮像日時の撮像動画の部分から新しい撮像日時の撮像動画の部分へ向かう順で再生されるように複数の動画ファイルを結合して編集動画ファイルを生成することも可能である。ただし、この順序で再生を行う場合、再生対象の編集動画ファイルが、多数の動画ファイルで編集されている場合、又は撮像日時の古い動画ファイルの撮像時間が長いときなどは、新しい撮像日時の動画が再生表示されるのに時間を要するので、編集動画ファイルを構成する各動画ファイルの部分に係る動画の部分の再生時間を基準時間(例えば、10秒から30秒の範囲内の所定の時間)に留めて、この基準時間で再生対象となる各動画ファイルの部分を自動で順次切り替えて、各動画の表示を行うようにしてもよい。   Furthermore, in the above description, the edited moving image file is played back in the order from the moving image file with the new shooting date and time to the moving image file with the old shooting date and time with respect to the moving image file used for combining. Contrary to this, conversely, at the time of playback, multiple video files are combined so that they are played back in order from the captured video part of the old imaging date and time to the captured video part of the new imaging date and time. It is also possible to generate an edited moving image file. However, when playing back in this order, when the edited movie file to be played is edited with a large number of movie files, or when the shooting time of an old movie file with a long shooting time is long, the movie with the new shooting date and time is used. Since it takes time to display and display the video, the playback time of the moving image portion related to each moving image file constituting the edited moving image file is set as a reference time (for example, a predetermined time within a range of 10 to 30 seconds). In addition, each moving image file may be displayed by automatically and sequentially switching the portion of each moving image file to be reproduced at the reference time.

さらにまた、編集動画ファイルの再生処理において、編集動画ファイルに含まれる各動画ファイルによる動画部分の切替は、上述した基準時間に基づき行う他には、動画に係る音声の周波数特性を検出し、検出した周波数特性の特異点となる箇所で再生対象となる動画ファイルの動画部分を切り替えてもよい。すなわち、動画に含まれる音声等に係る周波数特性の特異点は、動画の中身が切り替わる場面になっていることが多いので、このように周波数特性の特異点で再生対象を切り替えるようにすることで、動画の中身が切りの良い箇所で、次の動画ファイルに再生対象を切り替えることができる。なお、周波数特性の特異点で再生対象を切り替えるには、事前に各動画ファイルに応じた動画に含まれる音声等について周波数特性の検出を行って特異点を特定し、特定した特異点を動画ファイルとセットにして配信動画格納部67に記憶しておく必要があり、このような周波数特性の検出及び特異点の特定処理は、サーバ装置50で行うことになる。   Furthermore, in the playback process of the edited video file, the switching of the video part by each video file included in the edited video file is performed based on the above-described reference time, and the frequency characteristics of the audio related to the video are detected and detected. The moving image portion of the moving image file to be reproduced may be switched at a location that is a singular point of the frequency characteristics. In other words, the singular point of the frequency characteristic related to the audio etc. included in the moving image is often a scene where the contents of the moving image are switched, so by switching the playback target at the singular point of the frequency characteristic in this way , The playback target can be switched to the next video file at a point where the content of the video is well cut. In addition, in order to switch the playback target at the singular point of the frequency characteristic, the frequency characteristic is detected in advance for the audio included in the moving image corresponding to each moving image file to identify the singular point, and the identified singular point is moved to the moving image file. It is necessary to store them in the distribution moving image storage unit 67 as a set, and the server device 50 performs such frequency characteristic detection and singularity specification processing.

また、サーバ装置50からダウンロードする一群の複数の動画ファイルの配置の仕方について(図10参照)、上述した説明では、ダウンロード回数の多い順に再生されやすい配置にしたが、他の配置の仕方も勿論可能であり、例えば、ユーザの視聴の嗜好に応じた配置順を適用してもよい。このようにユーザの視聴嗜好を配置の順序に反映する場合は、ユーザの視聴履歴として、ユーザが視聴した動画ファイルの撮像タグを記録する。   Further, regarding the way of arranging a group of a plurality of moving image files to be downloaded from the server device 50 (see FIG. 10), in the above description, the arrangement is such that the files are easily played back in descending order of the number of downloads. For example, the arrangement order according to the viewing preference of the user may be applied. Thus, when reflecting a user's viewing preference in the arrangement | sequence order, the imaging tag of the moving image file which the user watched is recorded as a user's viewing history.

図20は、変形例の登録ユーザテーブル151を示し、図12に示す登録ユーザテーブル51に比べて視聴履歴(撮像タグ)の欄を追加した点が異なっている。サーバ装置(MPU50a)は、通信端末装置へ動画ファイルを送信する際、その送信する動画ファイルに付された撮像タグ(例えば、撮像場所名)を、送信先の通信端末装置となるユーザのユーザIDに対応付けて、図20の変形例の登録ユーザテーブル151に、送信日と共に記憶する処理を行う。このような視聴履歴の記憶を続けていくことで、記憶された撮像タグからユーザの視聴の嗜好を特定することが可能となる。   FIG. 20 shows a modified registered user table 151, which is different from the registered user table 51 shown in FIG. 12 in that a viewing history (imaging tag) column is added. When the server device (MPU 50a) transmits the moving image file to the communication terminal device, the user ID of the user who becomes the communication terminal device of the transmission destination is displayed with the imaging tag (for example, the imaging location name) attached to the transmitted moving image file. Correspondingly, the registered user table 151 of the modified example of FIG. By continuing to store such a viewing history, it becomes possible to specify the viewing preference of the user from the stored imaging tag.

サーバ装置50は、変形例の登録ユーザテーブル151を参照して、送信先となるユーザIDに対応付けられている各撮像タグの内容について、撮像場所の多い順序を特定し、撮像場所の多い順序で、動画ファイルを配信動画格納部67から検出して読み出しを行い、送信する一群の動画ファイルとして送信を行う。例えば、京都のお寺に関する視聴履歴が多いユーザについては、視聴履歴として京都のお寺、又は京都近辺のお寺の視聴を好む傾向であることをサーバ装置50は認識できるので、この認識した結果に基づき、ダウンロード対象となる動画ファイルの検出及び特定を行うことになる。このようにユーザの視聴嗜好を送信する動画ファイルに反映することで、ユーザの好みに合った動画を効率良く視聴できる環境を提供できる。   The server device 50 refers to the registered user table 151 of the modification, identifies the order of the most imaging locations for the contents of each imaging tag associated with the user ID that is the transmission destination, and determines the order of the most imaging locations. Then, the moving image file is detected from the distributed moving image storage unit 67, read out, and transmitted as a group of moving image files to be transmitted. For example, for a user with a large viewing history regarding a temple in Kyoto, the server device 50 can recognize that the viewing history tends to favor viewing a temple in Kyoto or a temple in the vicinity of Kyoto. Based on this recognition result, The moving image file to be downloaded is detected and specified. In this way, by reflecting the user's viewing preference in the moving image file to be transmitted, it is possible to provide an environment in which the moving image that matches the user's preference can be efficiently viewed.

さらにまた、送信する動画ファイルについて、ビジネス的に無料で視聴できるものと、有料で視聴できるものを含ませる場合、一群の複数の動画ファイルの配置順序について(図10参照)、有料の動画が再生されやすい配置にすることも可能である。   Furthermore, when the video files to be transmitted include those that can be viewed free of charge for business and those that can be viewed for a fee, the paid video is played back for the arrangement order of a plurality of video files in a group (see FIG. 10). It is also possible to arrange it easily.

また、サーバ装置50からダウンロードする一群の複数の動画ファイルの数について、図10に示す状況は一例にすぎず、ダウンロードする一群の動画ファイルの数を、もっと多くの列(6列以上)にすることや、もっと多くの行(6行以上)にすることも勿論可能である。このようにダウンロードする動画ファイルの数を多くすると、再生を行う通信端末装置で、再生対象を切り替えるスワイプ操作を多数回行っても、スムーズに再生を続けられるメリットがある。   Further, with respect to the number of a group of a plurality of moving image files downloaded from the server device 50, the situation shown in FIG. 10 is merely an example, and the number of the group of moving image files to be downloaded is made into more columns (6 columns or more). Of course, it is possible to make more lines (more than 6 lines). When the number of moving image files to be downloaded is increased in this way, there is an advantage that the reproduction can be continued smoothly even if the swipe operation for switching the reproduction target is performed many times in the communication terminal device that performs the reproduction.

一方、サーバ装置50からダウンロードする一群の複数の動画ファイルの数について、図10に示す状況より、少なくすることも可能であり、このように動画ファイルの数を少なくするとダウンロードに要する時間や通信処理の負担を低減できるメリットがある。なお、配置における最小の数としては、図10に示す状況に基づけば、最初に再生する動画ファイルA−1に対して、上下左右に一つ分の動画ファイルA−2、A−3、B−1、C−1にすることが考えられる(この場合は、十字的な配置による計5つの動画ファイルをログイン完了に伴いサーバ装置50は送信することになる)。   On the other hand, it is possible to reduce the number of a plurality of moving image files of a group downloaded from the server device 50 as compared with the situation shown in FIG. 10, and if the number of moving image files is reduced in this way, the time required for downloading and communication processing are reduced. There is an advantage that can reduce the burden. As the minimum number in the arrangement, based on the situation shown in FIG. 10, one moving image file A-2, A-3, B, one up, down, left, and right with respect to the moving image file A-1 to be reproduced first. -1 and C-1 can be considered (in this case, the server apparatus 50 transmits a total of five moving image files having a cross-arrangement upon completion of login).

さらに、サーバ装置50から一度に送信する動画ファイルは、複数ではなく一つの留めるようにしてもよく、この場合は、ユーザのスワイプ操作(切替操作)を通信端末装置が受け付けるごとに、動画ファイル要求をサーバ装置50へ送信して、サーバ装置50は図18の第2フローチャートに示す処理に準じて適宜、動画ファイルを通信端末装置へ送信することになる。なお、この場合は、第2フローチャートのS32の段階の処理は行わずに、何らかの動画ファイルをサーバ装置50は送信する。   Furthermore, the number of moving image files transmitted from the server device 50 at a time may be limited to one, and in this case, every time the communication terminal device accepts a user swipe operation (switching operation), a moving image file request is sent. Is transmitted to the server device 50, and the server device 50 appropriately transmits the moving image file to the communication terminal device in accordance with the processing shown in the second flowchart of FIG. In this case, the server device 50 transmits some moving image file without performing the process of the step S32 in the second flowchart.

また、サーバ装置50が動画ファイルを送信する仕方は、ダウンロードではなくストリーミング配信を適用することも可能であり、特に、ストリーミング配信は、サーバ装置50が送信する動画ファイルを一つに留める場合に好適となる。すなわち、通信端末装置で、動画ファイルの再生による動画の表示中に、サーバ装置50は、図9に示す各スワイプ操作25a、25b、26a、26cに応じて、次に再生対象にする動画ファイルを、再生中の動画ファイルからの方向ごとに特定しておき(再生中の動画ファイルを中心にした十字方向に配置される各動画ファイルを特定しておく)、通信端末装置は、いずれかのスワイプ操作を受け付けると、そのスワイプ操作に応じた配置方向の動画ファイル要求をサーバ装置50へ送信し、サーバ装置50は、送られてきた動画ファイル要求を受信すると、特定しておいた各方向の動画ファイルの中から、動画ファイル要求に応じた方向の動画ファイルをストリーミングにより通信端末装置へ送信して、再生動画のディスプレイ12に表示することになる。   Further, the server device 50 can transmit a moving image file by using streaming distribution instead of downloading. In particular, the streaming distribution is suitable when the moving image file transmitted by the server device 50 is limited to one. It becomes. That is, during display of a moving image by playing a moving image file on the communication terminal device, the server device 50 selects a moving image file to be reproduced next in accordance with each swipe operation 25a, 25b, 26a, 26c shown in FIG. , Specify each direction from the video file being played (specify each video file placed in the cross direction centering on the video file being played), When the operation is accepted, the moving image file request in the arrangement direction corresponding to the swipe operation is transmitted to the server device 50. When the server device 50 receives the transmitted moving image file request, the moving image file in the specified direction is transmitted. A moving image file in a direction corresponding to the moving image file request is transmitted from the file to the communication terminal device by streaming, and the reproduced moving image is displayed on the display 12. It will be Shimesuru.

また、サーバ装置50へアップロードするのは動画(動画ファイル)だけではなく、音楽(音楽ファイル)もアップロードできるようにすることも可能であり、ユーザが歌唱・演奏する音楽や、ユーザが作曲した音楽等をアップロードして、動画のバックグラウンドミュージックとして動画と一緒に音楽を再生する仕様にしてもよい。この場合、ユーザは通信端末装置を用いて、音楽を録音して音楽ファイルを生成し、ログインを行ってからサーバ装置50へ音楽ファイルをアップロードすることになる。サーバ装置50は、アップロードされてきた音楽ファイルを受信して、ユーザ別にデータベース装置に記憶する処理を行うことになる。   It is also possible to upload not only videos (video files) but also music (music files) that can be uploaded to the server device 50. Music that the user sings and performs, and music that the user composes Etc. may be uploaded so that the music is played back together with the video as the background music of the video. In this case, the user uses the communication terminal device to record music, generate a music file, log in, and then upload the music file to the server device 50. The server device 50 receives the uploaded music file and stores it in the database device for each user.

図21(a)は変形例のデータベース装置160を示し、この変形例のデータベース装置160は、アップロードされてきた動画ファイルを記憶する動画データベース165に加えて、アップロードされてきた音楽ファイルを記憶する音楽データベース170を具備することが特徴になっている。   FIG. 21A shows a database device 160 according to a modified example. The database device 160 according to the modified example stores music that has been uploaded in addition to the moving image database 165 that stores the uploaded moving image file. It is characterized by having a database 170.

また、図21(b)は変形例のデータベース装置160が具備する音楽データベース170の中身の例を示している。サーバ装置50は、ログイン中のユーザの通信端末装置から音楽ファイルを受信すると、ログイン中のユーザIDに対応付けて、受信した音楽ファイルを変形例のデータベース装置160の音楽データベース170に記憶する。さらに、サーバ装置50は、受信した音楽ファイルに係る音楽について周波数特性の検出及び特定を行い、その検出特定結果に応じた周波数特性の分類も、その音楽ファイルに関連付けて音楽データベース170に記憶する。周波数特性の分類の例としては、楽しい感じの音楽、悲しい感じの音楽、軽い感じの音楽、重い感じの音楽などのように分類し、このように分類した結果を記号(コード)で示すようにする(図21(b)の中で示す「Y1」、「Z2」、「X9」、「F7」等参照)。   FIG. 21B shows an example of the contents of the music database 170 included in the database device 160 of the modification. When the server device 50 receives the music file from the communication terminal device of the logged-in user, the server device 50 stores the received music file in the music database 170 of the database device 160 of the modified example in association with the logged-in user ID. Further, the server device 50 detects and specifies the frequency characteristics of the music related to the received music file, and stores the frequency characteristic classification corresponding to the detection specification result in the music database 170 in association with the music file. As an example of the classification of frequency characteristics, classify as music with pleasant feeling, music with sad feeling, music with light feeling, music with heavy feeling, and so on. (Refer to “Y1,” “Z2,” “X9,” “F7,” etc. shown in FIG. 21B).

さらに、サーバ装置50は、配信動画格納部67(図13、15参照)に格納する動画ファイルについても、動画ファイルに係る動画の音声について、上記と音楽ファイルの場合と同様に周波数特性の検出及び特定を行い、その検出特定結果に応じた周波数特性の分類を、検出等の処理対象の動画ファイルに関連付けて配信動画格納部67に格納する。そして、サーバ装置50は、配信動画格納部67から動画ファイルを読み出して、通信端末装置へ送信する処理を行うときに、送信する動画ファイルに関連付けられている周波数特性の分類を特定し、その特定した周波数特性の分類と同じ分類となる音楽ファイルを音楽データベース175から読み出して、動画ファイルの送信に合わせて、通信端末装置へ送信する。   Further, the server device 50 also detects the frequency characteristics of the moving image file stored in the distribution moving image storage unit 67 (see FIGS. 13 and 15) for the sound of the moving image related to the moving image file as in the case of the above and the music file. The identification is performed, and the frequency characteristic classification corresponding to the detection identification result is stored in the distribution moving image storage unit 67 in association with the moving image file to be processed such as detection. Then, when the server device 50 reads out the moving image file from the distribution moving image storage unit 67 and performs the process of transmitting the moving image file to the communication terminal device, the server device 50 identifies the classification of the frequency characteristics associated with the moving image file to be transmitted. The music file having the same classification as the frequency characteristic classification is read from the music database 175 and transmitted to the communication terminal device in accordance with the transmission of the moving image file.

通信端末装置は、動画ファイル及び音楽ファイルを受信すると、RAM10cに一時的に記憶すると共に、動画ファイルの再生処理を行う際、その再生処理に連動して(再生処理に伴って)、受信した音楽ファイルの再生処理も行う。このような処理を行うことで、ディスプレイ12に表示される動画に含まれる音声にマッチした音楽が、動画の表示中にバックグラウンドミュージックとして流れるようになり、動画及び音楽を融合したコンテンツをユーザは楽しむことができると共に、音楽の演奏を行うユーザ又は作曲等を行うユーザとしては、音楽の発表の場として新たな機会を確保できるメリットもある。   When the communication terminal device receives the moving image file and the music file, the communication terminal device temporarily stores them in the RAM 10c, and when performing the reproduction processing of the moving image file, the received music is linked to the reproduction processing (according to the reproduction processing). Also performs file playback processing. By performing such processing, music that matches the sound included in the moving image displayed on the display 12 flows as background music while the moving image is displayed. In addition to being able to enjoy, there is also an advantage that a user who performs music or a user who composes music can secure a new opportunity as a place for presenting music.

また、上述した説明では、アップロードする通信端末装置としては、主にスマートフォンを用いるようにしたが、動画の撮像機能を有する通信端末装置であれば、アップロード側の通信端末装置として本発明に適用可能である。また、動画視聴側の通信端末装置も、スマートフォンに限定されるものではなく、動画の表示機能を有する通信端末装置であれば、広く本発明に適用することが可能であり、通信機能を有するパーソナルコンピュータや、通信機能を有するテレビジョン装置、通信機能を有する各種表示装置も、視聴側の通信端末装置に用いることができる。なお、パーソナルコンピュータを通信端末装置に用いた場合、図9に示す各方向のスワイプ操作は、図9に示す矢印方向へスクロール(スライド)を行うようにマウス操作、キーボードの矢印キー操作を行うことで対応でき、また、テレビジョン装置又は表示装置を通信端末装置に用いた場合は、リモコンの十字キー(上下左右の矢印キー)の操作が、図9に示すスワイプ操作(フリック操作)に対応することになる(例えば、左右の矢印キー操作が第1方向操作に対応し、上下の矢印キー操作が第2方向操作に対応)。   In the above description, a smartphone is mainly used as a communication terminal device to be uploaded. However, any communication terminal device having a video capturing function can be applied to the present invention as a communication terminal device on the upload side. It is. In addition, the communication terminal device on the video viewing side is not limited to a smartphone, and any communication terminal device having a video display function can be widely applied to the present invention and has a communication function. A computer, a television device having a communication function, and various display devices having a communication function can also be used for the communication terminal device on the viewing side. When a personal computer is used as a communication terminal device, the swipe operation in each direction shown in FIG. 9 is performed by performing a mouse operation and an arrow key operation on the keyboard so as to scroll (slide) in the arrow direction shown in FIG. In addition, when a television device or a display device is used as a communication terminal device, the operation of the cross key (up / down / left / right arrow keys) of the remote control corresponds to the swipe operation (flick operation) shown in FIG. (For example, the left and right arrow key operations correspond to the first direction operation, and the up and down arrow key operations correspond to the second direction operation).

さらにまた、上述した説明では、ユーザの用いる通信端末装置に動画アプリP2(図3参照)をインストールして、通信端末装置の処理を動画アプリベースで行うようにしたが、通信端末装置にはウェブサイトのブラウザアプリをインストールして、ウェブベースで本発明を実現することも可能である。この場合は、サーバ装置はウェブサーバとして機能し、動画投稿視聴サイトをネットワーク上に開設すると共に、通信端末装置はサーバ装置へアクセスしてブラウザアプリを起動することで、サーバ装置が開設する動画投稿視聴サイトのウェブサイト画面をディスプレイに表示することになる。そして、通信端末装置は図5〜7等に示す各画面を、ウェブサイトのサイト画面としてディスプレイに表示することになる。   Furthermore, in the above description, the video application P2 (see FIG. 3) is installed in the communication terminal device used by the user and the processing of the communication terminal device is performed on the video application base. It is also possible to implement the present invention on a web basis by installing a browser application of the site. In this case, the server device functions as a web server, and a video posting viewing site is established on the network, and the communication terminal device accesses the server device and activates a browser application, whereby the video posting opened by the server device is established. The website screen of the viewing site is displayed on the display. And a communication terminal device displays each screen shown in FIGS. 5-7 etc. on a display as a site screen of a website.

なお、ウェブサイトベースで本発明を行う場合でも、通信端末装置における操作内容は、上述した動画アプリベースで行う場合と同様であり、通信端末装置で受け付けたユーザの操作内容は、適宜、通信端末装置からサーバ装置へ送られることで、サーバ装置はユーザ操作に応じたサイト画面を通信端末装置へ提供して、ユーザに提示する。それにより、ウェブサイトベースでも、撮像した動画に係る動画ファイルをサーバ装置へアップロード(送信)できる。また、データベース装置の動画データベースに格納されている各種動画ファイルをサーバ装置50経由で、ウェブサイトを介してユーザの使用する通信端末装置へ送信し、通信端末装置に予めインストールされている動画再生アプリで、受信(ダウンロード)した動画ファイルを再生してもよく、また、サーバ装置50で動画ファイルの再生処理を行って、ストリーミング再生によりブラウザ上で再生した動画を通信端末装置で表示する仕様にしてもよい。   Even when the present invention is performed on a website basis, the operation content in the communication terminal device is the same as that performed on the video application base described above, and the user operation content received in the communication terminal device is appropriately determined by the communication terminal. By being sent from the apparatus to the server apparatus, the server apparatus provides a site screen corresponding to the user operation to the communication terminal apparatus and presents it to the user. Thereby, even on a website base, a moving image file related to the captured moving image can be uploaded (transmitted) to the server device. Also, various video files stored in the video database of the database device are transmitted to the communication terminal device used by the user via the website via the server device 50, and the video playback application installed in the communication terminal device in advance Then, the received (downloaded) video file may be played back, and the server device 50 performs playback processing of the video file so that the video played back on the browser by streaming playback is displayed on the communication terminal device. Also good.

本発明は、アップロードされた複数の同種の撮像動画を、一つの動画として連続的に視聴できるようにすることに対して好適に利用可能である。   The present invention can be preferably used for continuously viewing a plurality of uploaded moving images of the same type as a single moving image.

1 撮像動画記憶システム
10 スマートフォン
10a CPU
12 ディスプレイ
16a サブカメラ
16b メインカメラ
21 メイン画面
22 撮像画面
23 撮像中画面
24 撮像完了画面
25a、25b、26a、26b 各方向のフリック操作
30 撮像動画ファイル
40 動画サービスシステム
50 サーバ装置
50a MPU
51 登録ユーザテーブル
60 データベース装置
65 動画データベース
66 オリジナル動画格納部
67 配信動画格納部
170 音楽データベース
Fh1、Fh10,Fh20 編集動画ファイル
P2 動画アプリ
P11 動画サービスプログラム
T1、T10 通信端末装置
U1、U10 ユーザ
1 imaging moving image storage system 10 smart phone 10a CPU
DESCRIPTION OF SYMBOLS 12 Display 16a Sub camera 16b Main camera 21 Main screen 22 Imaging screen 23 Imaging screen 24 Imaging completion screen 25a, 25b, 26a, 26b Flick operation of each direction 30 Captured moving image file 40 Moving image service system 50 Server apparatus 50a MPU
51 registered user table 60 database device 65 moving image database 66 original moving image storage unit 67 distributed moving image storage unit 170 music database Fh1, Fh10, Fh20 edited moving image file P2 moving image application P11 moving image service program T1, T10 communication terminal device U1, U10 user

Claims (11)

配信動画として動画ファイルを格納する動画データベースへ、ユーザによりアップロードされた撮像動画に係る動画ファイルをサーバ装置が受信して記憶する処理を行う撮像動画サービスシステムにおいて、
前記動画ファイルには、撮像状況を表す撮像タグが付されており、
前記サーバ装置は、
ップロードされた第1の動画ファイルを受信した場合、受信した第1の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出する手段と、
動画ファイルを検出した場合、検出した動画ファイル及び受信した第1の動画ファイルの結合を行うことで、第1の編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、
生成した第1の編集動画に係る動画ファイルを、前記動画データベースへ記憶する処理を行う手段と
アップロードされた第2の動画ファイルを受信した場合、受信した第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出する手段と、
前記第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルとして、前記第1の編集動画に係る動画ファイルを検出した場合、検出した第1の編集動画に係る動画ファイル及び受信した第2の動画ファイルの結合を行うことで、第2の編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、
生成した第2の編集動画に係る動画ファイルを、前記動画データベースへ記憶する処理を行う手段と
を備えることを特徴とする撮像動画サービスシステム。
To the moving image database for storing moving image file as a distribution moving the imaging video service system to perform the process of uploaded remembers the moving image file according to the captured moving image is received by the server apparatus was the user,
The moving image file has an imaging tag indicating an imaging situation,
The server device
When receiving a first video files uploaded, the first video file moving image file with the same imaging tagged with imaging tag attached to the received, means for detecting from said moving image database,
Means for generating a moving image file associated with the first edited moving image with the imaging tag by combining the detected moving image file and the received first moving image file when the moving image file is detected;
Means for performing a moving image file according to a first editing videos generated, a process of storing Previous Stories moving image database,
Means for detecting, from the video database, a video file to which the same imaging tag as the imaging tag attached to the received second video file is received when the uploaded second video file is received;
When a moving image file related to the first edited moving image is detected as a moving image file attached with the same imaging tag as the imaging tag attached to the second moving image file, the moving image file related to the detected first edited moving image And means for generating a moving image file related to the second edited moving image with the imaging tag by combining the received second moving image file;
An imaging moving image service system comprising: means for storing a moving image file relating to the generated second edited moving image in the moving image database .
前記動画データベースでは、格納する動画ファイルに対して配信回数が記憶してあり、
結合を行うことで生成された編集動画に係る動画ファイルには、前記結合の相手として前記動画データベースに記憶されていた動画ファイルに対する配信回数が引き継がれるようにしてある請求項1に記載の撮像動画サービスシステム。
In the video database, the number of distributions is stored for a video file to be stored,
The captured moving image according to claim 1, wherein the number of distributions to the moving image file stored in the moving image database as the combination partner is inherited in the moving image file related to the edited moving image generated by combining. Service system.
結合を行うことで生成された編集動画に係る動画ファイルは、前記結合の相手として前記動画データベースに記憶されていた動画ファイルの替わりに前記動画データベースに記憶されるようにしてある請求項1又は請求項2に記載の撮像動画サービスシステム。 The moving image file related to the edited moving image generated by performing the combination is stored in the moving image database instead of the moving image file stored in the moving image database as the combination partner. Item 3. The imaging moving image service system according to Item 2. 前記サーバ装置は、受信した動画ファイルに係る動画の部分が、結合相手に対し、再生時に先に再生されるように結合を行う請求項1乃至請求項3のいずれか1項に記載の撮像動画サービスシステム。   The captured moving image according to any one of claims 1 to 3, wherein the server device performs combination so that a portion of the moving image related to the received moving image file is first played to a combining partner during playback. Service system. 前記サーバ装置は、前記動画データベースに記憶された撮像動画に係る動画ファイル又は編集動画に係る動画ファイルを送信する手段を備え、
前記サーバ装置から送信される動画ファイルを受信して再生処理を行うことで、再生処理を行った動画ファイルに応じた動画を矩形画面に表示する通信端末装置を備え、
前記通信端末装置は、
前記矩形画面の一辺に沿った方向を指示する第1方向操作を受け付ける手段と、
動画の表示中に前記第1方向操作を受け付けた場合、表示中の動画に係る動画ファイルと同一のユーザに対応付けて前記動画データベースに記憶される動画ファイルの中で、表示中の動画に係る動画ファイルに付された撮像タグと異なる撮像タグが付された動画ファイルに応じた動画へ前記矩形画面の表示を切り替える手段と
を備える請求項1乃至請求項4のいずれか1項に記載の撮像動画サービスシステム。
The server device includes means for transmitting a moving image file related to a captured moving image or a moving image file related to an edited moving image stored in the moving image database,
A communication terminal device that displays a moving image corresponding to the moving image file that has been subjected to the reproduction process on a rectangular screen by receiving the moving image file transmitted from the server device and performing the reproduction process;
The communication terminal device
Means for receiving a first direction operation for instructing a direction along one side of the rectangular screen;
When the first direction operation is received during the display of the moving image, the moving image file stored in the moving image database is associated with the same user as the moving image file related to the moving image being displayed. The imaging according to any one of claims 1 to 4, further comprising: means for switching the display of the rectangular screen to a moving image according to a moving image file attached with an imaging tag different from the imaging tag attached to the moving image file. Video service system.
前記動画データベースは、ユーザによりアップロードされた撮像動画に係る動画ファイルをユーザに対応付けて記憶するようにしてあると共に、ユーザによりアップロードされた撮像動画に係る動画ファイルを結合して生成された編集動画に係る動画ファイルをユーザに対応付けて記憶するようにしてあり、
前記通信端末装置は、
前記矩形画面の一辺と直交する他辺に沿った方向を指示する第2方向操作を受け付ける手段と、
動画の表示中に前記第2方向操作を受け付けた場合、表示中の動画に係る動画ファイルと異なるユーザに対応付けて前記動画データベースに記憶される動画ファイルに応じた動画へ前記矩形画面の表示を切り替える手段と
を備える請求項5に記載の撮像動画サービスシステム。
The moving image database stores the moving image file related to the captured moving image uploaded by the user in association with the user, and the edited moving image generated by combining the moving image file related to the captured moving image uploaded by the user. The video file related to is stored in association with the user,
The communication terminal device
Means for receiving a second direction operation for instructing a direction along another side orthogonal to one side of the rectangular screen;
When the second direction operation is received during the display of the moving image, the rectangular screen is displayed on the moving image corresponding to the moving image file stored in the moving image database in association with a user different from the moving image file related to the moving image being displayed. The imaging moving image service system according to claim 5, further comprising a switching unit.
前記サーバ装置は、複数の動画ファイルを送信する場合、前記複数の動画ファイルの配置関係を規定した配置情報を送信する手段を備え、
前記通信端末装置は、前記サーバ装置から複数の動画ファイルを受信すると共に、前記配置情報を受信する手段を備え、
前記配置情報は、前記第1方向操作に応じた方向に、異なる撮像タグを付した同一ユーザに対応付けられる複数の動画ファイルを配置すると共に、前記第2方向操作に応じた方向に、異なるユーザに対応付けられる複数の動画ファイルを配置することを規定した情報を含み、
前記通信端末装置は、前記第1方向操作又は前記第2方向操作を受け付けた場合、表示中の動画に係る動画ファイルから、前記配置情報で規定される配置に応じた動画ファイルに係る動画へ前記矩形画面の表示の切替を行う請求項6に記載の撮像動画サービスシステム。
The server device, when transmitting a plurality of video files, comprises means for transmitting arrangement information that defines the arrangement relationship of the plurality of video files,
The communication terminal device includes a plurality of moving image files from the server device and a unit that receives the arrangement information.
The arrangement information arranges a plurality of video files associated with the same user with different imaging tags in a direction according to the first direction operation, and different users in a direction according to the second direction operation. Including information that specifies the placement of multiple video files associated with
When the communication terminal device receives the first direction operation or the second direction operation, the communication terminal device moves from the moving image file related to the moving image being displayed to the moving image related to the moving image file according to the arrangement defined by the arrangement information. The imaging moving image service system according to claim 6, wherein the display of the rectangular screen is switched.
前記サーバ装置は、
ユーザによりアップロードされる音楽に係る音楽ファイルを受信する手段と、
受信した音楽ファイルに応じた音楽の周波数特性を特定する手段と、
前記動画データベースに記憶する動画ファイルに応じた動画に含まれる音の周波数特性を特定する手段と、
前記動画データベースに記憶された動画ファイルを前記通信端末装置へ送信する場合、送信する動画ファイルについて特定した周波数特性と同じ周波数特性の音楽ファイルを前記通信端末装置へ送信する手段と
を備え、
前記通信端末装置は、
前記サーバ装置から、動画ファイル及び音楽ファイルを受信した場合、受信した動画ファイルの再生処理に伴って、受信した音楽ファイルの再生処理を行う手段を備える請求項5乃至請求項7のいずれか1項に記載の撮像動画サービスシステム。
The server device
Means for receiving music files related to music uploaded by the user;
Means for identifying the frequency characteristics of music according to the received music file;
Means for specifying a frequency characteristic of sound included in a moving image according to a moving image file stored in the moving image database;
When transmitting the moving image file stored in the moving image database to the communication terminal device, comprising: a means for transmitting to the communication terminal device a music file having the same frequency characteristic as the frequency characteristic specified for the moving image file to be transmitted;
The communication terminal device
8. The apparatus according to claim 5, further comprising a unit that performs a reproduction process of the received music file along with a reproduction process of the received moving image file when the moving image file and the music file are received from the server device. The imaging video service system described in 1.
配信動画として動画ファイルを格納する動画データベースへ、アップロードされた撮像動画に係る動画ファイルを受信して記憶する処理を行うサーバ装置において、
前記動画ファイルには、撮像状況を表す撮像タグが付されており、
アップロードされた第1の動画ファイルを受信した場合、受信した第1の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出する手段と、
動画ファイルを検出した場合、検出した動画ファイル及び受信した第1の動画ファイルの結合を行うことで、第1の編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、
生成した第1の編集動画に係る動画ファイルを前記動画データベースへ記憶する処理を行う手段と
アップロードされた第2の動画ファイルを受信した場合、受信した第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出する手段と、
前記第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルとして、前記第1の編集動画に係る動画ファイルを検出した場合、検出した第1の編集動画に係る動画ファイル及び受信した第2の動画ファイルの結合を行うことで、第2の編集動画に係る動画ファイルを、前記撮像タグを付して生成する手段と、
生成した第2の編集動画に係る動画ファイルを、前記動画データベースへ記憶する処理を行う手段と
を備えることを特徴とするサーバ装置。
To the moving image database for storing moving image file as a distribution videos, the server apparatus to perform the process of memorize receives the moving picture file according to the uploaded captured videos,
The moving image file has an imaging tag indicating an imaging situation,
When receiving the uploaded first moving image file, the first video file moving image file with the same imaging tagged with imaging tag attached to the received, means for detecting from said moving image database,
Means for generating a moving image file associated with the first edited moving image with the imaging tag by combining the detected moving image file and the received first moving image file when the moving image file is detected;
Means for performing a process of storing a moving image file relating to the generated first edited moving image in the moving image database ;
Means for detecting, from the video database, a video file to which the same imaging tag as the imaging tag attached to the received second video file is received when the uploaded second video file is received;
When a moving image file related to the first edited moving image is detected as a moving image file attached with the same imaging tag as the imaging tag attached to the second moving image file, the moving image file related to the detected first edited moving image And means for generating a moving image file related to the second edited moving image with the imaging tag by combining the received second moving image file;
A server device comprising: means for storing a moving image file relating to the generated second edited moving image in the moving image database .
サーバ装置が、配信動画として動画ファイルを格納する動画データベースへ、アップロードされた撮像動画に係る動画ファイルを受信して記憶する処理を行う撮像動画管理方法において、
前記動画ファイルには、撮像状況を表す撮像タグが付されており、
前記サーバ装置は、
アップロードされた第1の動画ファイルを受信した場合、受信した第1の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出するステップと、
動画ファイルを検出した場合、検出した動画ファイル及び受信した第1の動画ファイルの結合を行うことで、第1の編集動画に係る動画ファイルを、前記撮像タグを付して生成するステップと、
生成した第1の編集動画に係る動画ファイルを前記動画データベースへ記憶する処理を行うステップと
アップロードされた第2の動画ファイルを受信した場合、受信した第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出するステップと、
前記第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルとして、前記第1の編集動画に係る動画ファイルを検出した場合、検出した第1の編集動画に係る動画ファイル及び受信した第2の動画ファイルの結合を行うことで、第2の編集動画に係る動画ファイルを、前記撮像タグを付して生成するステップと、
生成した第2の編集動画に係る動画ファイルを、前記動画データベースへ記憶する処理を行うステップと
を備えることを特徴とする撮像動画管理方法。
Server device, the moving image database for storing the moving image file as a distribution moving in uploaded captured moving image management method for performing a process for receiving and remembers the moving image file according to the captured moving image,
The moving image file has an imaging tag indicating an imaging situation,
The server device
When receiving the uploaded first moving image file, detecting from the moving image database a moving image file attached with the same imaging tag as the imaging tag attached to the received first moving image file;
When the moving image file is detected, a step of generating the moving image file related to the first edited moving image with the imaging tag by combining the detected moving image file and the received first moving image file;
Performing a process of storing a moving image file relating to the generated first edited moving image in the moving image database ;
When receiving the uploaded second video file, detecting from the video database a video file with the same imaging tag as the imaging tag attached to the received second video file;
When a moving image file related to the first edited moving image is detected as a moving image file attached with the same imaging tag as the imaging tag attached to the second moving image file, the moving image file related to the detected first edited moving image And generating a moving image file related to the second edited moving image with the imaging tag by combining the received second moving image file;
And a step of storing a moving image file relating to the generated second edited moving image in the moving image database .
サーバコンピュータに、配信動画として動画ファイルを格納する動画データベースへ、アップロードされた撮像動画に係る動画ファイルを受信して記憶する処理を行わせるためのコンピュータプログラムにおいて、
前記動画ファイルには、撮像状況を表す撮像タグが付されており、
前記サーバコンピュータに、
アップロードされた第1の動画ファイルを受信した場合、受信した第1の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出するステップと、
動画ファイルを検出した場合、検出した動画ファイル及び受信した第1の動画ファイルの結合を行うことで、第1の編集動画に係る動画ファイルを、前記撮像タグを付して生成するステップと、
生成した第1の編集動画に係る動画ファイルを前記動画データベースへ記憶する処理を行うステップと
アップロードされた第2の動画ファイルを受信した場合、受信した第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルを、前記動画データベースから検出するステップと、
前記第2の動画ファイルに付された撮像タグと同じ撮像タグが付された動画ファイルとして、前記第1の編集動画に係る動画ファイルを検出した場合、検出した第1の編集動画に係る動画ファイル及び受信した第2の動画ファイルの結合を行うことで、第2の編集動画に係る動画ファイルを、前記撮像タグを付して生成するステップと、
生成した第2の編集動画に係る動画ファイルを、前記動画データベースへ記憶する処理を行うステップと
を実行させることを特徴とするコンピュータプログラム。
The server computer, to a moving image database for storing the moving image file as a distribution moving, in a computer program for causing the process to memorize receives the moving picture file according to the uploaded captured videos,
The moving image file has an imaging tag indicating an imaging situation,
In the server computer,
When receiving the uploaded first moving image file, detecting from the moving image database a moving image file attached with the same imaging tag as the imaging tag attached to the received first moving image file;
When the moving image file is detected, a step of generating the moving image file related to the first edited moving image with the imaging tag by combining the detected moving image file and the received first moving image file;
Performing a process of storing a moving image file relating to the generated first edited moving image in the moving image database ;
When receiving the uploaded second video file, detecting from the video database a video file with the same imaging tag as the imaging tag attached to the received second video file;
When a moving image file related to the first edited moving image is detected as a moving image file attached with the same imaging tag as the imaging tag attached to the second moving image file, the moving image file related to the detected first edited moving image And generating a moving image file related to the second edited moving image with the imaging tag by combining the received second moving image file;
And a step of performing a process of storing a moving image file relating to the generated second edited moving image in the moving image database .
JP2018526279A 2017-12-28 2017-12-28 Imaging moving image service system, server device, imaging moving image management method, and computer program Expired - Fee Related JP6435439B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/047383 WO2019130585A1 (en) 2017-12-28 2017-12-28 Captured video service system, server device, captured video management method, and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018211784A Division JP2019122027A (en) 2018-11-09 2018-11-09 Captured moving image service system, captured moving image display method, communication terminal device and computer program

Publications (2)

Publication Number Publication Date
JP6435439B1 true JP6435439B1 (en) 2018-12-05
JPWO2019130585A1 JPWO2019130585A1 (en) 2019-12-26

Family

ID=64560762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018526279A Expired - Fee Related JP6435439B1 (en) 2017-12-28 2017-12-28 Imaging moving image service system, server device, imaging moving image management method, and computer program

Country Status (2)

Country Link
JP (1) JP6435439B1 (en)
WO (1) WO2019130585A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102393A (en) * 2008-10-21 2010-05-06 Kddi Corp Index video generation device, video image search apparatus and video image search system
JP2014519646A (en) * 2011-05-09 2014-08-14 グーグル・インコーポレーテッド Context-sensitive video browsing
JP2015136084A (en) * 2014-01-20 2015-07-27 富士通株式会社 Data transmission apparatus, information processing apparatus, data transmission program, and data transmission method
JP2016500218A (en) * 2012-10-05 2016-01-07 グーグル インコーポレイテッド Join video to integrated video
JP2016039547A (en) * 2014-08-08 2016-03-22 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
US20160337718A1 (en) * 2014-09-23 2016-11-17 Joshua Allen Talbott Automated video production from a plurality of electronic devices
JP2017055393A (en) * 2015-09-08 2017-03-16 ネイバー コーポレーションNAVER Corporation Method and system for extracting and providing highlight video of moving picture content

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4406811B2 (en) * 2001-03-16 2010-02-03 ソニー株式会社 Distribution system
JP2003058147A (en) * 2001-08-10 2003-02-28 Sony Corp Device and method for automatic classification of musical contents
KR20160149959A (en) * 2015-06-19 2016-12-28 라인 가부시키가이샤 System and method for creating contents by collaborating between users

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102393A (en) * 2008-10-21 2010-05-06 Kddi Corp Index video generation device, video image search apparatus and video image search system
JP2014519646A (en) * 2011-05-09 2014-08-14 グーグル・インコーポレーテッド Context-sensitive video browsing
JP2016500218A (en) * 2012-10-05 2016-01-07 グーグル インコーポレイテッド Join video to integrated video
JP2015136084A (en) * 2014-01-20 2015-07-27 富士通株式会社 Data transmission apparatus, information processing apparatus, data transmission program, and data transmission method
JP2016039547A (en) * 2014-08-08 2016-03-22 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
US20160337718A1 (en) * 2014-09-23 2016-11-17 Joshua Allen Talbott Automated video production from a plurality of electronic devices
JP2017055393A (en) * 2015-09-08 2017-03-16 ネイバー コーポレーションNAVER Corporation Method and system for extracting and providing highlight video of moving picture content

Also Published As

Publication number Publication date
WO2019130585A1 (en) 2019-07-04
JPWO2019130585A1 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
EP3123437B1 (en) Methods, apparatus, and systems for instantly sharing video content on social media
US8621045B2 (en) Portable communication interface for accessing media content
US10444848B2 (en) Media center panels for an intelligent television
US7177872B2 (en) Interface for media publishing
US9912721B2 (en) Systems and methods for providing event-related video sharing services
US20090132924A1 (en) System and method to create highlight portions of media content
US10600448B2 (en) Streaming digital media bookmark creation and management
US11277668B2 (en) Methods, systems, and media for providing media guidance
KR101436526B1 (en) Preview and playback method of video streams and system thereof
KR20160079936A (en) System and method for visual selection of elements in video content
EP3047396A1 (en) Browsing videos by searching multiple user comments and overlaying those into the content
JP2013535733A (en) Get keywords for search
KR101924978B1 (en) A providing system for timeline-based social network service
KR20140119609A (en) Method and device for displaying page for executing application
US20110197129A1 (en) Media file access control method for digital media player, and method and device for adding my favorites folder
JP2019122027A (en) Captured moving image service system, captured moving image display method, communication terminal device and computer program
JP2008312060A (en) Image processing system, image management device, image processor, and processing method and program therein
JP5154468B2 (en) Information processing device, communication terminal device, control method for information processing device, control method for communication terminal device, control program, and recording medium
JP6435439B1 (en) Imaging moving image service system, server device, imaging moving image management method, and computer program
JP2007156893A (en) Information processing device, meta data management server, information processing system, and meta data management method
JP4963261B2 (en) Image-compatible music recommendation presentation system
KR20150048961A (en) System for servicing hot scene, method of servicing hot scene and apparatus for the same
JP2007243605A (en) Communication equipment, communication method, and program
KR101805302B1 (en) Apparatus and method for displaying multimedia contents
JP4791213B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180921

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6435439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees