JP2015195524A - Moving image processing program, moving image processing method, and moving image processing apparatus - Google Patents

Moving image processing program, moving image processing method, and moving image processing apparatus Download PDF

Info

Publication number
JP2015195524A
JP2015195524A JP2014073005A JP2014073005A JP2015195524A JP 2015195524 A JP2015195524 A JP 2015195524A JP 2014073005 A JP2014073005 A JP 2014073005A JP 2014073005 A JP2014073005 A JP 2014073005A JP 2015195524 A JP2015195524 A JP 2015195524A
Authority
JP
Japan
Prior art keywords
moving image
metadata
frame
scene
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014073005A
Other languages
Japanese (ja)
Inventor
唯 神間
Yui Kamma
唯 神間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014073005A priority Critical patent/JP2015195524A/en
Publication of JP2015195524A publication Critical patent/JP2015195524A/en
Pending legal-status Critical Current

Links

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily select a frame appropriate to printing from among moving image files.SOLUTION: Moving image files and meta data attached to the moving image files are acquired. Specific frames 41, 42, 43, and 44 for output appropriate to printing are extracted from among the moving image files on the basis of the acquired meta data.

Description

本発明は、動画ファイルを処理するための動画処理プログラム、動画処理方法、及び動画処理装置に関する。   The present invention relates to a moving image processing program, a moving image processing method, and a moving image processing apparatus for processing a moving image file.

動画ファイルを取り込んで閲覧したり編集したりすることが可能なハードウェアやソフトウェアが普及している。例えばパソコン、スマートフォン、多機能装置などの様々な情報処理端末に動画ファイルを取り込み、各種の処理を実行させることで、動画ファイルを様々な形態で楽しむことができる。   Hardware and software that can import video files for viewing and editing have become widespread. For example, a moving image file can be enjoyed in various forms by loading the moving image file into various information processing terminals such as a personal computer, a smartphone, and a multi-function device and executing various processes.

動画ファイルに対する処理機能の1つとして、動画印刷の機能が知られており、既に実用化されている(例えば、特許文献1参照。)。動画印刷とは、動画の中から所望のタイミングのフレームを抽出してそのフレームの画像を印刷する機能である。   As one of processing functions for a moving image file, a moving image printing function is known and has already been put into practical use (for example, see Patent Document 1). Movie printing is a function of extracting a frame at a desired timing from a movie and printing an image of the frame.

特開2011−71591号公報JP 2011-71591 A

動画印刷機能を利用して動画中の特定のフレームを印刷させるためには、動画の中から印刷させたい所望のフレームを決める必要がある。印刷対象のフレームの決定は、通常、動画印刷をさせたいユーザ自身が、動画ファイルを再生させながら、必要に応じて早送りやコマ送りなどの機能も利用しながら所望のフレームを探す、という手順で行われる。   In order to print a specific frame in a moving image using the moving image printing function, it is necessary to determine a desired frame to be printed from the moving image. The frame to be printed is usually determined by a procedure in which a user who wants to print a movie searches for a desired frame while playing back a movie file and using functions such as fast-forward and frame advance as necessary. Done.

そのため、動画ファイルの中から印刷に適したフレームを探すのは面倒である。特に、再生時間が長い動画ファイルや印象的なシーンが少ない動画ファイルなどの場合は、印刷に適したフレームを探すのに多くの時間を要する。   For this reason, it is troublesome to search for a frame suitable for printing from a moving image file. In particular, in the case of a moving image file with a long reproduction time or a moving image file with few impressive scenes, it takes a lot of time to search for a frame suitable for printing.

本発明は上記課題に鑑みなされたものであり、動画ファイルの中から印刷に適したフレームを容易に選択できるようにすることを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to easily select a frame suitable for printing from a moving image file.

上記課題を解決するためになされた本発明は、コンピュータが実行可能な動画処理プログラムであって、コンピュータに実行させる処理として、ファイル取得処理と、データ取得処理と、フレーム抽出処理とを有する。   The present invention made to solve the above problems is a moving image processing program executable by a computer, and includes a file acquisition process, a data acquisition process, and a frame extraction process as processes to be executed by the computer.

ファイル取得処理は、動画ファイルを取得する処理である。データ取得処理は、ファイル取得処理により取得された動画ファイルに対して付加されているメタデータを取得する処理である。フレーム抽出処理は、データ取得処理により取得されたメタデータに基づき、動画ファイルの中から、印刷に適した出力用の特定のフレームである候補フレームを抽出する処理である。   The file acquisition process is a process for acquiring a moving image file. The data acquisition process is a process of acquiring metadata added to the moving image file acquired by the file acquisition process. The frame extraction process is a process of extracting a candidate frame that is a specific output frame suitable for printing from a moving image file based on the metadata acquired by the data acquisition process.

本発明の動画処理プログラムをコンピュータに実行させることで、動画ファイルから、その動画ファイルに付加されているメタデータに基づいて出力用の候補フレームが抽出される。メタデータに基づいて候補フレームが抽出されるため、動画ファイルの中で印刷に適したフレームを容易に選ぶことができる。   By causing the computer to execute the moving image processing program of the present invention, candidate frames for output are extracted from the moving image file based on the metadata added to the moving image file. Since candidate frames are extracted based on the metadata, it is possible to easily select a frame suitable for printing from the moving image file.

なお、本発明は、上記のプログラムのほか、そのプログラムが記録された記録媒体、そのプログラムが実行される装置、その装置を含む各種システム、動画を処理する方法など、種々の形態で実現することができる。   In addition to the above-described program, the present invention is realized in various forms such as a recording medium on which the program is recorded, an apparatus on which the program is executed, various systems including the apparatus, and a method for processing a moving image. Can do.

実施形態の動画印刷システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the moving image printing system of embodiment. テキストメタデータが付加された動画ファイルの再生中の画像例を示す説明図である。It is explanatory drawing which shows the example image during reproduction | regeneration of the moving image file to which text metadata was added. リンクメタデータが付加された動画ファイル及び領域メタデータが付加された動画ファイルの再生中の画像例を示す説明図である。It is explanatory drawing which shows the example of an image during reproduction | regeneration of the moving image file to which link metadata was added, and the moving image file to which area | region metadata was added. 動画印刷処理を示すフローチャートである。It is a flowchart which shows a moving image printing process. シーンの決定方法及びフレームの抽出方法の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the determination method of a scene, and the extraction method of a flame | frame. シーンの決定方法の他の例を示す説明図である。It is explanatory drawing which shows the other example of the determination method of a scene. シーンの決定方法及びフレームの抽出方法の他の例を示す説明図である。It is explanatory drawing which shows the other example of the determination method of a scene, and the extraction method of a flame | frame. 図4の動画印刷処理におけるS180の動画ファイル選択用サムネイル選出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the thumbnail selection process for the moving image file selection of S180 in the moving image printing process of FIG. 動画一覧表示画面の例を示す説明図である。It is explanatory drawing which shows the example of a moving image list display screen. 印刷フレーム選択画面の例を示す説明図である。It is explanatory drawing which shows the example of a printing frame selection screen.

以下に、本発明の好適な実施形態を図面に基づいて説明する。
(1)動画印刷システムの説明
本実施形態の動画印刷システムは、図1に示すように、端末10と、MFP(多機能周辺装置の略称)100と、AP(アクセスポイントの略称)150と、サーバ160とを備える。
Preferred embodiments of the present invention will be described below with reference to the drawings.
(1) Description of Movie Printing System As shown in FIG. 1, the movie printing system according to the present embodiment includes a terminal 10, an MFP (abbreviation of multifunction peripheral device) 100, an AP (abbreviation of access point) 150, A server 160.

端末10は、例えばパソコン、スマートフォン、タブレットなどの情報処理端末である。端末10は、CPU11、フラッシュメモリ12、RAM13、操作キー15、LCD16、タッチパネル17、メモリカードインタフェース(以下「メモリカードI/F」と称す)18、音声入出力部19、電話網通信部20、近距離通信部22、及び無線通信部23を備える。これらの各部は、バスライン24を介して互いに接続される。   The terminal 10 is an information processing terminal such as a personal computer, a smartphone, or a tablet. The terminal 10 includes a CPU 11, a flash memory 12, a RAM 13, an operation key 15, an LCD 16, a touch panel 17, a memory card interface (hereinafter referred to as "memory card I / F") 18, a voice input / output unit 19, a telephone network communication unit 20, A short-range communication unit 22 and a wireless communication unit 23 are provided. These units are connected to each other via a bus line 24.

CPU11は、フラッシュメモリ12に記憶されるプログラムやデータに従って、バスライン24を介して接続された各部を制御する。フラッシュメモリ12は、記憶内容を電気的に書き換え可能な不揮発性のメモリである。フラッシュメモリ12には、オペレーティングシステム(以下「OS」と略す)12a、アプリケーション(以下「アプリ」と略す)12bが格納される。OS12aは、端末10の標準機能を実現するための基本ソフトウェアである。   The CPU 11 controls each unit connected via the bus line 24 in accordance with programs and data stored in the flash memory 12. The flash memory 12 is a nonvolatile memory capable of electrically rewriting stored contents. The flash memory 12 stores an operating system (hereinafter abbreviated as “OS”) 12 a and an application (hereinafter abbreviated as “application”) 12 b. The OS 12 a is basic software for realizing standard functions of the terminal 10.

なお、フラッシュメモリ12には、アプリ12b以外の他のアプリも記憶されているが、ここではそれら他のアプリについては図示及び説明を省略する。また、以下の説明では、OS12aやアプリ12bなどのプログラムを実行するCPU11のことを、単にプログラム名で記載する場合もある。例えば「アプリが」という記載が「アプリを実行するCPU11が」を意味する場合もある。   Note that other applications other than the application 12b are also stored in the flash memory 12, but the illustration and description of these other applications are omitted here. In the following description, the CPU 11 that executes programs such as the OS 12a and the application 12b may be simply described by a program name. For example, the description “application is” may mean “the CPU 11 that executes the application”.

アプリ12bは、端末10からMFP100の各種機能を利用するためのソフトウェアであり、MFP100のベンダによって提供され、ユーザによって端末10にインストールされる。端末10にアプリ12bをインストールすることで、端末10から、MFP100が有する各種機能を利用可能となる。例えば、アプリ12bによって、端末10から直接、MFP100の印刷機能やスキャン機能などを利用することが可能となる。   The application 12b is software for using various functions of the MFP 100 from the terminal 10, is provided by the vendor of the MFP 100, and is installed on the terminal 10 by the user. By installing the application 12b in the terminal 10, various functions of the MFP 100 can be used from the terminal 10. For example, the application 12b can directly use the print function, scan function, and the like of the MFP 100 from the terminal 10.

アプリ12bが備える複数の機能の1つに、動画ファイルの中からフレームを選択してそのフレームの画像(即ち静止画)をMFP100で印刷させることが可能な、動画印刷機能がある。   One of the functions provided in the application 12b is a moving image printing function that allows the MFP 100 to select a frame from a moving image file and cause the MFP 100 to print an image of the frame (that is, a still image).

フラッシュメモリ12には、アプリ用記憶領域12cが設けられる。アプリ用記憶領域12cは、アプリ12bが使用する、アプリ12bに割り当てられた記憶領域である。アプリ用記憶領域12cには、例えば、動画印刷機能が実行された場合に生成される各種のサムネイルである縮小画像が記憶される。動画ファイルや、動画ファイルに対して付加されているメタデータ(詳細は後述)は、アプリ用記憶領域12cに記憶されてもよいし、フラッシュメモリ12内におけるアプリ用記憶領域12cとは別の領域に記憶されてもよい。   The flash memory 12 is provided with an application storage area 12c. The application storage area 12c is a storage area used by the application 12b and allocated to the application 12b. In the application storage area 12c, for example, reduced images that are various thumbnails generated when the moving image printing function is executed are stored. The moving image file and metadata (details will be described later) added to the moving image file may be stored in the application storage area 12c, or may be an area different from the application storage area 12c in the flash memory 12. May be stored.

RAM13は、CPU11がOS12aやアプリ12bなどを実行する際に各種データを一時的に記憶するための揮発性のメモリである。操作キー15は、端末10のユーザが端末10に対して各種の情報や指示等を入力するためのメカニカルキーである。LCD16は、各種画面を表示可能な液晶表示装置である。タッチパネル17は、指や棒などの指示体を接触または接近させることによって端末10に対する入力操作を受け付け可能な周知の入力デバイスであり、LCD16に重ねて設けられる。なお、端末10が、入力デバイスとしてマウスを接続可能な端末(例えばパソコン)である場合は、端末10の構成部材としてマウスも含めることができる。以下の説明では、タッチパネル17への指示体による入力操作を「タッチ操作」と言い、画面内でマウスのポインタを移動させて特定の領域又は画像に重ねる操作を「マウスオーバー」と言い、マウスのクリック操作による入力操作を「マウス操作」と言う。   The RAM 13 is a volatile memory for temporarily storing various data when the CPU 11 executes the OS 12a, the application 12b, and the like. The operation keys 15 are mechanical keys for the user of the terminal 10 to input various information and instructions to the terminal 10. The LCD 16 is a liquid crystal display device capable of displaying various screens. The touch panel 17 is a well-known input device that can accept an input operation on the terminal 10 by touching or approaching an indicator such as a finger or a stick, and is provided over the LCD 16. When the terminal 10 is a terminal (for example, a personal computer) to which a mouse can be connected as an input device, a mouse can also be included as a constituent member of the terminal 10. In the following description, an input operation with an indicator on the touch panel 17 is referred to as a “touch operation”, and an operation of moving the mouse pointer on the screen to overlap a specific area or image is referred to as “mouse over”. The input operation by clicking is called “mouse operation”.

メモリカードI/F18は、書き換え可能な不揮発性のメモリカード25が装着されるインタフェースであり、メモリカード25に対するデータの書き込み及び読み出しを制御する。音声入出力部19は、マイクやスピーカなどで構成された音声入出力用デバイスである。電話網通信部20は、携帯電話網(図示せず)を介した音声通話を行うための回路である。   The memory card I / F 18 is an interface to which a rewritable nonvolatile memory card 25 is mounted, and controls writing and reading of data with respect to the memory card 25. The voice input / output unit 19 is a voice input / output device including a microphone, a speaker, and the like. The telephone network communication unit 20 is a circuit for performing a voice call via a mobile phone network (not shown).

近距離通信部22は、例えば10cm程度の短い距離を通信可能距離とする近距離無線通信で通信を行うためのインタフェースである。本実施形態の近距離通信部22が行う近距離無線通信は、NFC標準規格に従う非接触通信(以下「NFC通信」と称す)である。   The short-range communication unit 22 is an interface for performing communication by short-range wireless communication in which a short distance of about 10 cm, for example, is used as a communicable distance. The short-range wireless communication performed by the short-range communication unit 22 of the present embodiment is non-contact communication (hereinafter referred to as “NFC communication”) according to the NFC standard.

無線通信部23は、無線LAN規格による通信(以下「無線LAN通信」と称す)を行うためのインタフェースである。本実施形態では、無線通信部23が行う無線LAN通信は、IEEE802.11b/g/nの規格に準拠した無線LAN通信である。端末10は、無線通信部23を介して、AP150との間で、Wi−Fi(登録商標)規格に基づく無線通信(以下「Wi−Fi通信」と称す)を行うことができる。   The wireless communication unit 23 is an interface for performing communication according to the wireless LAN standard (hereinafter referred to as “wireless LAN communication”). In the present embodiment, the wireless LAN communication performed by the wireless communication unit 23 is wireless LAN communication compliant with the IEEE802.11b / g / n standard. The terminal 10 can perform wireless communication based on the Wi-Fi (registered trademark) standard (hereinafter referred to as “Wi-Fi communication”) with the AP 150 via the wireless communication unit 23.

AP150は、Wi−Fi通信を中継する中継装置である。AP150は、ブロードバンドルーター機能を有し、インターネットに接続されている。よって、端末10は、AP150を介してインターネットに接続でき、インターネットに接続されているサーバ160と通信することができる。   The AP 150 is a relay device that relays Wi-Fi communication. The AP 150 has a broadband router function and is connected to the Internet. Accordingly, the terminal 10 can connect to the Internet via the AP 150 and can communicate with the server 160 connected to the Internet.

MFP100は、印刷機能、スキャン機能、コピー機能、ファクシミリ機能などの各種機能を有している。MFP100は、上記各種機能を実現するための各種の構成部材を備える。図1に図示されているプリンタ部131は、印刷機能を実現するための構成部材である。MFP100において、外部から無線通信部123又は近距離通信部122に印刷データが受信されると、プリンタ部131によって、その印刷データに基づく印刷出力が可能である。   The MFP 100 has various functions such as a print function, a scan function, a copy function, and a facsimile function. The MFP 100 includes various components for realizing the various functions. The printer unit 131 illustrated in FIG. 1 is a constituent member for realizing a printing function. In MFP 100, when print data is received from outside by wireless communication unit 123 or short-range communication unit 122, printer unit 131 can perform print output based on the print data.

MFP100は、端末10の近距離通信部22と同様の構成の近距離通信部122を有している。また、MFP100は、端末10の無線通信部23と同様の構成の無線通信部123を有している。そのため、端末10とMFP100は両者間でNFC通信を行うことが可能である。また、端末10とMFP100は、AP150を介して相互にWi−Fi通信を行うことができる。また、端末10とMFP100は、両者間でWi−Fi Direct(登録商標)規格に基づく直接通信、すなわち、AP150を介さない無線通信も可能である。   The MFP 100 includes a short-range communication unit 122 having the same configuration as the short-range communication unit 22 of the terminal 10. In addition, the MFP 100 includes a wireless communication unit 123 having the same configuration as the wireless communication unit 23 of the terminal 10. Therefore, the terminal 10 and the MFP 100 can perform NFC communication between them. Further, the terminal 10 and the MFP 100 can perform Wi-Fi communication with each other via the AP 150. In addition, the terminal 10 and the MFP 100 can also perform direct communication based on the Wi-Fi Direct (registered trademark) standard, that is, wireless communication not via the AP 150.

なお、端末10及びMFP100は、他のデータ通信方式によってデータ通信が可能な構成であってもよい。例えば、有線LANによるデータ通信が可能であってもよい。その場合、端末10から有線LANを介してインターネットに接続できるようにしてもよい。   Note that the terminal 10 and the MFP 100 may be configured to be able to perform data communication using other data communication methods. For example, data communication via a wired LAN may be possible. In that case, the terminal 10 may be connected to the Internet via a wired LAN.

サーバ160には、様々な種類のデータが格納される。サーバ160に格納されるデータとして、動画ファイルがある。サーバ160は、動画投稿サービスのサーバとしても機能し、インターネットを介してサーバ160へ動画ファイルをアップロードしたり、サーバ160からインターネットを介して動画ファイルをダウンロードしたりすることができる。また、アップロードした動画ファイルに対し、各種のメタデータ(詳細は後述)を付加することができる。また、動画ファイルをダウンロードする際、動画ファイルに付加されているメタデータもダウンロードすることができる。メタデータのダウンロードは、通常、動画ファイルのダウンロードとは別に行う。例えば、まず動画ファイルをダウンロードし、その後、その動画ファイルに付加されている(即ち関連付けられてサーバ160に保存されている)メタデータをダウンロードする。   The server 160 stores various types of data. As data stored in the server 160, there is a moving image file. The server 160 also functions as a server for a moving image posting service, and can upload a moving image file to the server 160 via the Internet or download a moving image file from the server 160 via the Internet. Various metadata (details will be described later) can be added to the uploaded video file. In addition, when downloading a moving image file, metadata added to the moving image file can also be downloaded. The download of metadata is usually performed separately from the download of the video file. For example, first, a moving image file is downloaded, and then metadata attached to the moving image file (that is, associated and stored in the server 160) is downloaded.

端末10においても、サーバ160から動画ファイル及びメタデータをダウンロードして閲覧することができる。サーバ160からダウンロードした動画ファイル及びメタデータは、フラッシュメモリ12又はメモリカード25に保存することができる。また、端末10が動画撮影機能を備えている場合には、撮影した動画ファイルをサーバ160にアップロードすることができる。メモリカード25に保存されている動画ファイルをサーバ160にアップロードすることもできる。なお、動画ファイルに対するメタデータの付加は任意に行うことができる。そのため、サーバ160やメモリカード25などから動画ファイルを取得した場合に、その動画に必ずしもメタデータが付加されているとは限らないが、本実施形態では、動画ファイルにメタデータが付加されていることを前提とする。   The terminal 10 can also download and view a moving image file and metadata from the server 160. The moving image file and metadata downloaded from the server 160 can be stored in the flash memory 12 or the memory card 25. Further, when the terminal 10 has a moving image shooting function, the shot moving image file can be uploaded to the server 160. A moving image file stored in the memory card 25 can also be uploaded to the server 160. Note that metadata can be arbitrarily added to the moving image file. For this reason, when a moving image file is acquired from the server 160, the memory card 25, or the like, metadata is not necessarily added to the moving image, but in the present embodiment, metadata is added to the moving image file. Assuming that.

(2)メタデータの説明
次に、動画ファイル、及び動画ファイルに付加されるメタデータについて、より詳しく説明する。よく知られているように、動画ファイルは、所定時間間隔で連続的に撮影された複数のフレーム(静止画)によって構成される。フレームレートが高い動画ほど、単位時間あたりのフレームの数が多く、より滑らかな動きを再現できる。動画ファイルには、複数のフレームの他にも、動画に関する種々のデータが含まれる。例えば、動画撮影日時、ファイル形式などである。
(2) Description of Metadata Next, the moving image file and metadata added to the moving image file will be described in more detail. As is well known, a moving image file is composed of a plurality of frames (still images) taken continuously at a predetermined time interval. The higher the frame rate, the more frames per unit time, and the smoother the motion can be reproduced. The moving image file includes various data related to the moving image in addition to the plurality of frames. For example, moving image shooting date and time, file format, and the like.

さらに、動画ファイルには、既述の通り、その動画ファイルに関連した情報であるメタデータを付加することができる。メタデータとは、動画の内容を示すデータであり、動画ファイルの再生時間全体のうち任意のタイミング又は時間帯に対して付加することができる。動画ファイルにメタデータを付加することで、動画ファイルの付加価値を高めることができる。   Furthermore, as described above, metadata that is information related to the moving image file can be added to the moving image file. The metadata is data indicating the content of a moving image, and can be added to any timing or time zone in the entire reproduction time of the moving image file. By adding metadata to a video file, the added value of the video file can be increased.

メタデータには、例えば、アノテーション、付箋、タグ、コメントなど、様々な種類がある。例えば、動画ファイルの特定の時間帯に対し、動画中にテキストを表示させるためのメタデータ(以下「テキストメタデータ」という)を付加すると、その時間帯の再生中にそのメタデータが示すテキストが表示される。   There are various types of metadata such as annotations, sticky notes, tags, and comments. For example, if metadata for displaying text in a video (hereinafter referred to as “text metadata”) is added to a specific time zone of a video file, the text indicated by that metadata during playback of that time zone Is displayed.

また例えば、動画ファイルの特定の時間帯に対し、動画中にハイパーリンクを埋め込むためのメタデータ(以下「リンクメタデータ」という)を付加することができる。ハイパーリンク(以下「リンク」と略す)とは、よく知られているように、他のファイル、データの所在情報であり、主にURL(Uniform Resource Locator)が用いられる。リンクメタデータは、動画が表示される画面全体における任意の領域を指定して、その指定領域に対して付加することができる。リンクメタデータに含まれるリンク情報は、そのリンクメタデータが付加された時間帯の再生中であっても、直接的には表示されない。ただし、リンク情報が埋め込まれている指定領域の外苑を示す枠画像が表示されるため、ユーザは、リンクメタデータが付加されていること自体は認識することができる。   For example, metadata for embedding a hyperlink in a moving image (hereinafter referred to as “link metadata”) can be added to a specific time zone of the moving image file. As is well known, a hyperlink (hereinafter abbreviated as “link”) is location information of other files and data, and a URL (Uniform Resource Locator) is mainly used. The link metadata can be added to the designated area by designating an arbitrary area in the entire screen on which the moving image is displayed. The link information included in the link metadata is not directly displayed even during playback in the time zone to which the link metadata is added. However, since the frame image indicating the outer frame of the designated area in which the link information is embedded is displayed, the user can recognize that the link metadata is added.

リンクメタデータが付加された時間帯の再生中に、画面における指定領域内をタッチ操作するか、又は指定領域内をマウスオーバーすると、その指定領域の外苑を示す枠画像が強調表示されると共に、付加されているリンク情報(例えばURL)が表示される。そして、リンクメタデータが付加されている時間内に、リンクが埋め込まれている指定領域において、タッチパネル17に対して特定の操作(例えば長押し。ロングタップとも呼ばれる。)を行うか又はマウス操作すると、リンク情報が示すリンク先にジャンプすることができる。   During playback of the time zone to which link metadata is added, if you touch within the specified area on the screen or mouse over the specified area, a frame image showing the outer frame of the specified area is highlighted, The added link information (for example, URL) is displayed. When a specific operation (for example, long press, also referred to as long tap) is performed on the touch panel 17 or a mouse is operated in the designated area where the link is embedded within the time when the link metadata is added. , It is possible to jump to the link destination indicated by the link information.

また、動画中にリンクを埋め込むためのメタデータとして、上記のリンクメタデータの他に、領域メタデータがある。領域メタデータは、その領域メタデータが付加された時間帯の再生中であっても、直接的には表示されない。しかも、リンクメタデータと異なり、リンク情報が埋め込まれている指定領域の外苑を示す枠画像も表示されない。そのため、ユーザは、再生中の動画の内容からは、メタデータが付加されていることを直接的に認識することはできない。   Further, as metadata for embedding a link in a moving image, there is region metadata in addition to the link metadata. The area metadata is not directly displayed even during reproduction of the time zone to which the area metadata is added. Moreover, unlike the link metadata, a frame image indicating the outer frame of the designated area in which the link information is embedded is not displayed. Therefore, the user cannot directly recognize that metadata is added from the content of the moving image being reproduced.

領域メタデータが付加された時間帯の再生中、画面における指定領域内をタッチ操作するか、又は指定領域内をマウスオーバーすると、その指定領域の外苑を示す枠画像が表示される。またその際、枠画像が表示されるのに加えて、リンク情報(例えばURL)も表示される。これにより、ユーザは、リンクが埋め込まれていること及びその埋め込まれている指定領域を認識できる。そして、領域メタデータが付加されている時間内に、リンクが埋め込まれている指定領域において、タッチパネル17に対して特定の操作(例えば長押し)を行うか又はマウス操作すると、リンク情報が示すリンク先にジャンプすることができる。   During the reproduction of the time zone to which the area metadata is added, when a touch operation is performed in the designated area on the screen or the mouse is moved over the designated area, a frame image indicating the outer frame of the designated area is displayed. At that time, in addition to displaying the frame image, link information (for example, URL) is also displayed. Thus, the user can recognize that the link is embedded and the designated area in which the link is embedded. When a specific operation (for example, long press) is performed on the touch panel 17 or the mouse is operated in the designated area where the link is embedded within the time when the area metadata is added, the link indicated by the link information You can jump ahead.

メタデータには、様々な情報が含まれる。メタデータに含まれる情報としては、例えば、動画全体のうちメタデータを付加する時間帯情報、画面中のどの位置に表示させるかを示す表示位置情報、動画に付加された日時を示す付加日時情報、表示すべき画像(例えばテキストや枠画像)がある場合にはその画像の内容を示す表示画像情報、表示すべき画像がある場合にそれを直接表示させるのかそれともタッチ操作されたりマウスオーバーされたりするまでは非表示状態にするのかを示す表示方法情報などがある。テキストメタデータの場合は、表示画像情報として、テキストのフォント、フォントサイズ、色などの情報が含まれる。リンクメタデータ及び領域メタデータの場合は、指定領域の位置・範囲を示す情報やリンク情報も含まれる。   Various information is included in the metadata. Information included in the metadata includes, for example, time zone information for adding metadata in the entire moving image, display position information indicating at which position in the screen the image is displayed, and additional date and time information indicating the date and time added to the moving image. If there is an image to be displayed (for example, text or frame image), display image information indicating the contents of the image, if there is an image to be displayed, whether to display it directly, or touch operation or mouse over Until it is done, there is display method information that indicates whether or not to make it non-display state. In the case of text metadata, the display image information includes information such as text font, font size, and color. In the case of link metadata and area metadata, information indicating the position / range of the designated area and link information are also included.

図2、図3に、各種メタデータが付加された動画ファイルの再生中の画像例を示す。図2及び図3は、フラッシュメモリ12に保存されている動画ファイルを再生させているときにLCD16に表示される動画であって、特に、メタデータが付加されている時間帯の表示例を示す。   FIG. 2 and FIG. 3 show examples of images during reproduction of a moving image file to which various kinds of metadata are added. 2 and 3 show moving images displayed on the LCD 16 when a moving image file stored in the flash memory 12 is played back, and in particular, display examples of a time zone in which metadata is added. .

図2(a)は、愛犬記録動画31の再生中の一コマ(即ち1つのフレーム)であり、テキスト画像31aのテキストメタデータが付加されている時間帯での一コマである。愛犬記録動画31には、図2(a)に示すように、犬が撮影されているシーンに対して、犬の気持ちを表現したテキスト画像31aを表示させるためのテキストメタデータが付加されている。   FIG. 2A shows one frame (that is, one frame) during the reproduction of the pet dog recorded moving image 31, and one frame in a time zone to which the text metadata of the text image 31a is added. As shown in FIG. 2A, text metadata for displaying a text image 31a expressing the feeling of the dog is added to the pet dog recording video 31 as shown in FIG. .

図2(b)は、花火大会動画32の再生中の一コマであり、テキスト画像32aのテキストメタデータが付加されている時間帯での一コマである。花火大会動画32には、図2(b)に示すように、花火が打ち上げられているシーンに対して、打ち上げ中の花火のタイトルのテキスト画像32aを表示させるためのテキストメタデータが付加されている。   FIG. 2B is a frame during the reproduction of the fireworks display video 32, and is a frame in the time zone to which the text metadata of the text image 32a is added. As shown in FIG. 2B, the fireworks display video 32 is added with text metadata for displaying a text image 32a of the title of the firework being fired for the scene where the firework is being fired. Yes.

図2(c)は、洋画番組動画33の再生中の一コマであり、テキスト画像33aのテキストメタデータが付加されている時間帯での一コマである。洋画番組動画33には、図2(c)に示すように、洋画中の、ある登場人物が話をしているシーンであってその話の英語字幕が映っているシーンに対して、その英語字幕の日本語訳のテキスト画像33aを表示させるためのテキストメタデータが付加されている。   FIG. 2C shows one frame during the reproduction of the Western-style program moving image 33, and one frame in the time zone to which the text metadata of the text image 33a is added. As shown in FIG. 2 (c), the Western-style program video 33 includes an English scene for a scene in which a certain character is talking and an English subtitle of the story is shown. Text metadata for displaying a Japanese-translated text image 33a of subtitles is added.

図3(a)は、自然紹介動画34の再生中の一コマであり、2つの枠画像34a,34bのリンクメタデータが付加されている時間帯での一コマである。自然紹介動画34に付加されているリンクメタデータには、各枠画像34a,34bを表示させるための情報と、各枠画像34a,34bで囲まれる領域内がタッチ操作されるか又はマウスオーバーされたときにその枠画像を強調表示させるための情報と、各枠画像34a,34bで囲まれる領域内がタッチ操作されるか又はマウスオーバーされたときにその枠画像に対応したリンク情報を表示させるための情報とが含まれる。例えば図中左側の枠画像34aで囲まれる領域内をマウスオーバーすると、枠画像34aが強調表示されて、その枠画像34aに対応付けられているリンク情報が表示される。その状態でマウスを左クリックすると、端末10は、そのリンク情報が示すリンク先にアクセスして、そのリンク先から情報を取得して表示する。リンク先が外部の動画ファイルの場合は、その動画ファイルがダウンロードされて再生可能となる。   FIG. 3 (a) is a frame during playback of the nature introduction video 34, and is a frame in the time zone to which the link metadata of the two frame images 34a and 34b is added. In the link metadata added to the nature introduction video 34, information for displaying the frame images 34a and 34b and the area surrounded by the frame images 34a and 34b are touch-operated or the mouse is moved over. Information for highlighting the frame image when it is touched, and link information corresponding to the frame image is displayed when the area surrounded by the frame images 34a and 34b is touched or the mouse is moved over And information for. For example, when the mouse is moved over the area surrounded by the left frame image 34a in the figure, the frame image 34a is highlighted, and the link information associated with the frame image 34a is displayed. When the mouse is left-clicked in this state, the terminal 10 accesses the link destination indicated by the link information, acquires information from the link destination, and displays the information. When the link destination is an external video file, the video file is downloaded and can be played back.

図3(b)は、風景記録動画35の再生中の一コマであり、4つの枠画像35a〜35dの領域メタデータが付加されている時間帯での一コマである。ただし、各枠画像35a〜35dは通常は非表示状態である。各枠画像35a〜35dは、それぞれ、画面内に表示されている特定のオブジェクト画像351〜354を囲むように表示される。例えば、図中左上の枠画像35dは、山上の雲のオブジェクト画像354を囲むように表示される。   FIG. 3B is a frame during playback of the landscape-recorded moving image 35, and is a frame in the time zone to which the region metadata of the four frame images 35a to 35d is added. However, each of the frame images 35a to 35d is normally not displayed. Each of the frame images 35a to 35d is displayed so as to surround specific object images 351 to 354 displayed on the screen. For example, the frame image 35d at the upper left in the figure is displayed so as to surround the cloud object image 354 on the mountain.

風景記録動画35に付加されているリンクメタデータには、非表示状態の各枠画像35a〜35dで囲まれる領域内がタッチ操作されるか又はマウスオーバーされたときにその領域に対応した枠画像を表示させるための情報と、各枠画像35a〜35dの何れかが表示状態になってその領域内がタッチ操作されるか又はマウスオーバーされたときにその枠画像に対応したリンク情報を表示させるための情報とが含まれる。例えば図中中央の枠画像35a(ただし非表示状態)で囲まれる領域内をマウスオーバーすると、枠画像35aが表示され、さらにその枠画像35aに対応付けられているリンク情報が表示される。その状態でマウスを左クリックすると、端末10は、そのリンク情報が示すリンク先にアクセスして、そのリンク先から情報を取得して表示する。リンク先が外部の動画ファイルの場合は、その動画ファイルがダウンロードされて再生可能となる。   The link metadata added to the landscape recording moving image 35 includes a frame image corresponding to the area surrounded by the non-displayed frame images 35a to 35d when the area is touched or the mouse is moved over. And the link information corresponding to the frame image is displayed when any of the frame images 35a to 35d is in a display state and the area is touched or the mouse is moved over. And information for. For example, when the mouse is moved over an area surrounded by the center frame image 35a (not displayed) in the figure, the frame image 35a is displayed, and link information associated with the frame image 35a is further displayed. When the mouse is left-clicked in this state, the terminal 10 accesses the link destination indicated by the link information, acquires information from the link destination, and displays the information. When the link destination is an external video file, the video file is downloaded and can be played back.

(3)動画印刷機能の説明
次に、アプリ12bの機能の1つである動画印刷機能について、その概要を説明する。動画中の特定のフレームを印刷出力させる動画印刷機能は既に知られている。しかし、従来の動画印刷機能は、既述の通り、印刷対象のフレームを、動画を再生しながらユーザ自身が探す必要があるため、非常に手間がかかり、非効率的である。動画全体のうちどのあたりが印刷に適した注目すべきシーンなのか、容易には判断できない。
(3) Description of Movie Printing Function Next, an outline of the movie printing function, which is one of the functions of the application 12b, will be described. A moving image printing function for printing out a specific frame in a moving image is already known. However, as described above, the conventional moving image printing function is very time-consuming and inefficient because the user needs to search for a frame to be printed while reproducing the moving image. It cannot be easily determined which part of the entire moving image is a notable scene suitable for printing.

一方、動画ファイルにメタデータが付加されている場合、そのメタデータが付加されている時間帯は、動画全体の中でも特徴的なシーン、注目すべきシーンである可能性が高い。つまり、メタデータが付加されている時間帯は、印刷に適したシーンである可能性が高い。そこで本実施形態では、アプリ12bの動画印刷機能が、メタデータを利用して印刷に適したフレームを自動で抽出してユーザに提供できるように構成されている。   On the other hand, when metadata is added to the moving image file, the time zone in which the metadata is added is highly likely to be a characteristic scene or a noteworthy scene in the entire moving image. That is, there is a high possibility that the time zone in which metadata is added is a scene suitable for printing. Therefore, in the present embodiment, the moving image printing function of the application 12b is configured to automatically extract a frame suitable for printing using metadata and provide it to the user.

ここではまず、動画印刷機能を実現するためのアプリ12bの処理である動画印刷処理について、その全体像を、図4のフローチャートを用いて説明する。その後に、動画印刷処理のうち特に特徴的な処理について、詳しく説明する。   Here, first, the overall image of the moving image printing process, which is the process of the application 12b for realizing the moving image printing function, will be described with reference to the flowchart of FIG. Subsequently, a particularly characteristic process in the moving image printing process will be described in detail.

(3−1)動画印刷処理の説明
端末10のCPU11は、起動後、アプリ12bを起動させるための特定の入力操作がなされると、アプリ12bを読み込んで実行する。アプリ12bの起動後、動画印刷機能を開始させるための特定の入力操作がなされると、図4に示す動画印刷処理を開始する。動画印刷開始処理は、アプリ12bに含まれるプログラムモジュールの1つである。
(3-1) Description of Moving Image Printing Process After the activation, the CPU 11 of the terminal 10 reads and executes the application 12b when a specific input operation for activating the application 12b is performed. When a specific input operation for starting the moving image printing function is performed after the application 12b is activated, the moving image printing process shown in FIG. 4 is started. The moving image printing start process is one of the program modules included in the application 12b.

端末10のCPU11は、図4に示す動画印刷処理を開始すると、S110で、動画ファイルを取得する。動画ファイルをどこから取得するかについては予め設定しておくことができる。例えば、端末10のフラッシュメモリ12に保存されている動画ファイルを取得対象としてもよい。メモリカード25が装着されている場合にはメモリカード25も取得対象に含めるようにしてもよい。また例えば、外部のサーバにおいて特定の保存領域に保存されている動画ファイルを取得対象としてもよい。ここでは、S110で動画ファイル1〜動画ファイルNまでのN個の動画ファイルが取得されたものと仮定して説明を続ける。   When starting the moving image printing process shown in FIG. 4, the CPU 11 of the terminal 10 acquires a moving image file in S110. Where to obtain the video file can be set in advance. For example, a moving image file stored in the flash memory 12 of the terminal 10 may be an acquisition target. When the memory card 25 is attached, the memory card 25 may be included in the acquisition target. Further, for example, a moving image file stored in a specific storage area in an external server may be an acquisition target. Here, the description will be continued assuming that N moving image files from moving image file 1 to moving image file N have been acquired in S110.

S120では、S110で取得したN個の動画ファイル毎に、その動画ファイルに付加されているメタデータを取得する。S130では、ファイル変数nを1にセットする。S140では、処理対象の動画ファイルを動画ファイルnに設定する。   In S120, the metadata added to the moving image file is acquired for each of the N moving image files acquired in S110. In S130, the file variable n is set to 1. In S140, the moving image file to be processed is set as the moving image file n.

S150では、シーン決定処理を実行する。シーン決定処理は、処理対象の動画ファイルnから、印刷に適したフレームが含まれている可能性の高いシーンを少なくとも1つ決定する処理である。S150のシーン決定処理の具体的内容については、後で図5〜図7を用いて詳しく説明する。   In S150, a scene determination process is executed. The scene determination process is a process of determining at least one scene that is likely to contain a frame suitable for printing from the moving image file n to be processed. The specific contents of the scene determination process in S150 will be described in detail later with reference to FIGS.

S160では、フレーム抽出処理を実行する。フレーム抽出処理は、S150で決定したシーン毎に、シーンの中から印刷に最も適している可能性が高いフレームを抽出する処理である。本実施形態では、1つのシーンから1つのフレームを抽出する。S160のフレーム抽出処理の具体的内容については、後で図5〜図7を用いて詳しく説明する。   In S160, a frame extraction process is executed. The frame extraction process is a process for extracting a frame most likely to be most suitable for printing from the scenes for each scene determined in S150. In this embodiment, one frame is extracted from one scene. The specific contents of the frame extraction process in S160 will be described in detail later with reference to FIGS.

S170では、印刷フレーム選択用サムネイル生成処理を実行する。具体的には、S160で抽出したフレーム毎に、そのサムネイルを生成する。ここで生成するサムネイルは、後に印刷させたいフレームをユーザに選択させる際に表示させるサムネイルである。そのため、ここで生成するサムネイルを「印刷フレーム選択用サムネイル」と称する。   In S170, a print frame selection thumbnail generation process is executed. Specifically, a thumbnail is generated for each frame extracted in S160. The thumbnail generated here is a thumbnail to be displayed when the user selects a frame to be printed later. Therefore, the thumbnail generated here is referred to as “print frame selection thumbnail”.

S180では、動画ファイル選択用サムネイル選出処理を実行する。具体的には、S170で生成した、フレーム毎の印刷フレーム選択用サムネイルの中から、後述する選出基準に従って、当該動画ファイルnを代表するにふさわしいサムネイルを1つ又は複数選出する。ここで選出するサムネイルは、後に、複数の動画ファイル1〜Nの中からまずどの動画ファイルの動画印刷を行いたいのかをユーザに選択させる際に表示させるサムネイルである。そのため、ここで選出するサムネイルを「動画フレーム選択用サムネイル」と称する。S180の動画フレーム選択用サムネイル選出処理については、後で図8を用いてより具体的に説明する。   In S180, moving image file selection thumbnail selection processing is executed. Specifically, one or more thumbnails suitable for representing the moving image file n are selected from the print frame selection thumbnails generated for each frame according to the selection criteria described later. The thumbnail to be selected here is a thumbnail to be displayed when the user selects which video file is to be printed first from the plurality of video files 1 to N later. Therefore, the thumbnails selected here are referred to as “moving image frame selection thumbnails”. The moving picture frame selection thumbnail selection process in S180 will be described in more detail later with reference to FIG.

S190では、ファイル変数nがN以上であるか否か、即ち取得したN個の動画ファイル全てについてS140〜S180の処理が行われたか否か判断する。ファイル変数nがまだN以上ではない場合は(S190:NO)、S200でファイル変数nを1つインクリメントして、S140に戻る。ファイル変数nがN以上の場合は(S190:YES)、S210に進む。   In S190, it is determined whether or not the file variable n is greater than or equal to N, that is, whether or not the processing of S140 to S180 has been performed for all of the obtained N moving image files. If the file variable n is not yet greater than N (S190: NO), the file variable n is incremented by 1 in S200, and the process returns to S140. If the file variable n is N or more (S190: YES), the process proceeds to S210.

S210では、S180で選出した、動画ファイル毎の動画ファイル選択用サムネイルをLCD16に表示する。具体的には、図9(a)に例示するように、動画ファイル毎の各動画ファイル選択用サムネイル51,52,53・・・が一覧表示された動画一覧表示画面をLCD16に表示させる。S220では、ユーザによる動画ファイルの選択を受け付ける。具体的には、S210で表示された動画一覧表示画面に対してユーザが特定の動画ファイル選択用サムネイルを選択する操作(例えばタップ操作、マウス操作など)を受け付ける。   In S210, the moving image file selection thumbnail for each moving image file selected in S180 is displayed on the LCD 16. Specifically, as illustrated in FIG. 9A, a moving image list display screen in which the moving image file selection thumbnails 51, 52, 53,... For each moving image file are displayed as a list is displayed on the LCD 16. In S220, the selection of the moving image file by the user is accepted. Specifically, the user accepts an operation (for example, a tap operation, a mouse operation, etc.) for selecting a specific moving image file selection thumbnail on the moving image list display screen displayed in S210.

S230では、S220で選択された動画ファイルについてS170で生成された印刷フレーム選択用サムネイルをLCD16に表示する。具体的には、図10(a)に例示するように、選択された動画ファイルの各印刷フレーム選択用サムネイル71,72,73・・・が一覧表示された印刷フレーム選択画面をLCD16に表示させる。S240では、ユーザによる印刷フレームの選択を受け付ける。具体的には、S230で表示された印刷フレーム選択画面に対してユーザが特定の印刷フレーム選択用サムネイルを選択する操作(例えばタップ操作、マウス操作など)を受け付ける。S240の処理によって、印刷対象のフレームが確定される。   In S230, the print frame selection thumbnail generated in S170 for the moving image file selected in S220 is displayed on the LCD 16. Specifically, as illustrated in FIG. 10A, a print frame selection screen on which a list of print frame selection thumbnails 71, 72, 73... Of the selected moving image file is displayed is displayed on the LCD 16. . In S240, the user selects a print frame. Specifically, the user accepts an operation (for example, a tap operation, a mouse operation, etc.) for selecting a specific print frame selection thumbnail on the print frame selection screen displayed in S230. The frame to be printed is determined by the process of S240.

S250では、S240で確定したフレームを印刷出力させる際の印刷レイアウトをいくつか表示させて、その中からユーザが望む印刷レイアウトの選択を受け付ける。ここで表示させるレイアウトとしては、例えば、フレーム画像の大きさが異なるレイアウトや、フレームに対するメタデータを示す画像の表示方法が異なるレイアウト、メタデータを示す画像を含まないレイアウト、などが考えられる。   In S250, some print layouts for printing out the frame determined in S240 are displayed, and the user selects a print layout desired by the user. As layouts to be displayed here, for example, layouts with different frame image sizes, layouts with different display methods of images indicating metadata for frames, layouts that do not include metadata images, and the like can be considered.

S260では、S250で選択された印刷レイアウトに従った印刷データを生成して、印刷機能を持つデバイス(例えばMFP100)に出力する。これにより、選択されたフレームを印刷させることが可能となる。S270では、動画印刷機能を終了させる操作が行われたか否か判断する。動画印刷機能を終了させる操作が行われていない場合は(S270:NO)、S210に戻る。動画印刷機能を終了させる操作が行われた場合は(S270:YES)、動画印刷処理を終了する。   In S260, print data according to the print layout selected in S250 is generated and output to a device having a print function (for example, MFP 100). As a result, the selected frame can be printed. In S270, it is determined whether an operation for ending the moving image printing function has been performed. When the operation for ending the moving image printing function is not performed (S270: NO), the process returns to S210. When the operation for ending the moving image printing function is performed (S270: YES), the moving image printing process is ended.

(3−2)シーン決定方法及びフレーム抽出方法の説明
図4に示した動画印刷処理のうち、S150のシーン決定処理及びS160のフレーム抽出処理について、図5〜図7を用いてより詳しく説明する。
(3-2) Description of Scene Determination Method and Frame Extraction Method Of the moving image printing process shown in FIG. 4, the scene determination process in S150 and the frame extraction process in S160 will be described in more detail with reference to FIGS. .

まず、S150のシーン決定処理について説明する。本実施形態のシーン決定処理は、動画ファイルに付加されているメタデータを利用して、印刷に適したフレームが含まれている可能性の高いシーンを決定する処理である。基本的な処理方法は、図5に示すように、同じ1つのメタデータが連続的に付加されている時間帯を1つのシーンとして決定する。即ち、動画時間全体の中で、メタデータM1が付加されている時間帯をシーンAとして決定し、メタデータM2が付加されている時間帯をシーンBとして決定し、メタデータM3が付加されている時間帯をシーンCとして決定し、メタデータM4が付加されている時間帯をシーンDとして決定する。   First, the scene determination process in S150 will be described. The scene determination process according to the present embodiment is a process for determining a scene that has a high possibility of including a frame suitable for printing, using metadata added to a moving image file. In the basic processing method, as shown in FIG. 5, a time zone in which the same single metadata is continuously added is determined as one scene. That is, the time zone in which the metadata M1 is added is determined as the scene A in the entire moving image time, the time zone in which the metadata M2 is added is determined as the scene B, and the metadata M3 is added. The time zone in which the metadata M4 is added is determined as the scene D.

なお、図5は、あるユーザが旅行中に撮影した旅行記録動画36の動画ファイルにおける、メタデータが離散的に付加されている特定の時間帯を例示している。
図5に例示した処理方法をベースとしつつ、本実施形態では、メタデータが付加されている状態やその長さ、メタデータの種類、同じ時間帯に重複しているメタデータの有無、などに応じて、適宜、処理方法を切り替える。
FIG. 5 exemplifies a specific time zone in which metadata is discretely added in a moving image file of a travel recording moving image 36 taken during a trip by a certain user.
While the processing method illustrated in FIG. 5 is used as a base, in the present embodiment, the state in which metadata is added and the length thereof, the type of metadata, the presence / absence of duplicate metadata in the same time zone, and the like Accordingly, the processing method is switched as appropriate.

例えば、図6(a)に例示するように、複数のメタデータが密に付加されていて、メタデータが付加されていない時間帯が短時間の区間(以下「隙間」という)がある場合には、そのメタデータが付加されていない短時間の隙間の直前の一定時間帯をシーンAとして決定し、隙間の直後の一定時間帯をシーンBとして決定する。シーンA,Bのどちらか一方のみを決定してもよい。換言すれば、複数のメタデータが連続して付加されていて全体としてメタデータが連続的に付加されている時間が長い時間帯がある場合に、その時間帯全体のうち開始直後の一定時間帯及び終了直前の一定時間帯の少なくとも一方をシーンとして決定する。   For example, as illustrated in FIG. 6A, when a plurality of metadata is densely added and there is a section where the metadata is not added in a short period (hereinafter referred to as “gap”). Determines a certain time zone immediately before the short gap to which the metadata is not added as the scene A, and decides a certain time zone immediately after the gap as the scene B. Only one of scenes A and B may be determined. In other words, when there is a time period in which a plurality of metadata are continuously added and the metadata is continuously added as a whole for a long time period, a certain time period immediately after the start of the entire time period And at least one of the fixed time zone immediately before the end is determined as a scene.

メタデータが連続的に付加されている時間帯が長いか否かを判断する判断基準は適宜決めることができる。例えば、時間の閾値を設定して、その閾値以上である場合に時間帯が長いと判断してもよい。また例えば、連続的に付加されているメタデータの数について閾値を設定して、その閾値以上の数のメタデータが連続的に付加されている場合に時間帯が長いと判断してもよい。また、必ずしも複数のメタデータが連続的に付加されていることを必須要件とはしない。1つのメタデータが長い時間に渡って連続的に付加されている場合にも、そのメタデータが付加されている時間帯のうち開始直後の一定時間帯又は終了直前の一定時間帯をシーンとして決定してもよい。また、メタデータが連続的に付加されている時間帯の長さで判断するのではなく、単に、隙間が短いか否かを判断して、隙間が短い場合に、その隙間の直前の一定時間帯又はその隙間の直後の一定時間帯をシーンとして決定するようにしてもよい。   A criterion for determining whether or not the time period during which metadata is continuously added is long can be determined as appropriate. For example, a threshold value for time may be set, and it may be determined that the time zone is long when the threshold is equal to or greater than the threshold value. Further, for example, a threshold may be set for the number of metadata that are continuously added, and it may be determined that the time zone is long when metadata equal to or greater than the threshold is continuously added. In addition, it is not necessarily an essential requirement that a plurality of metadata is continuously added. Even when one piece of metadata is added continuously over a long period of time, the fixed time zone immediately after the start or the fixed time zone immediately before the end of the time zone in which the metadata is added is determined as a scene. May be. Also, instead of judging based on the length of the time zone in which metadata is continuously added, if the gap is short by simply judging whether or not the gap is short, a certain time immediately before the gap A certain time zone immediately after the belt or the gap may be determined as the scene.

また、図5に例示したような基本的な処理方法でシーンを決定する場合に、例えば図6(b)に例示するように、1つのメタデータが長時間にわたって連続的に付加されている場合は、そのメタデータが付加されている時間帯についてはシーンとして採用しない。図6(b)では、メタデータMxの長さが所定の時間閾値(例えば60秒)よりも長いため、そのメタデータMxが付加されている時間帯については、シーンとして決定しない。   Further, when a scene is determined by a basic processing method as illustrated in FIG. 5, for example, when one metadata is continuously added over a long time as illustrated in FIG. 6B. Does not adopt the time zone to which the metadata is added as a scene. In FIG. 6B, since the length of the metadata Mx is longer than a predetermined time threshold (for example, 60 seconds), the time zone to which the metadata Mx is added is not determined as a scene.

また、図7(a)に示すように、複数のメタデータが時間的に重複して付加されることもある。その場合は、図7(a)に示すように、重複している期間も含め、メタデータが連続的に付加されている時間帯全体を1つのシーンとして決定する。図7(a)の例では、時刻t1〜t2の時間帯に、3つのメタデータが順次付加されていて且つ互いに重複した時間帯が存在している。メタデータの種類を考慮しなければ、時刻t1〜t2の時間帯は、全体として、メタデータが連続的に付加されている1つの独立した時間帯であるといえる。そこで、その時間帯をシーンAとして決定する。時刻t3〜t4の時間帯についても、2つのメタデータが、一部の時間帯で重複するように付加されているが、全体として、メタデータが連続的に付加されている1つの独立した時間帯である。そこで、その時間帯をシーンBとして決定する。   In addition, as shown in FIG. 7A, a plurality of metadata may be added with time overlap. In this case, as shown in FIG. 7A, the entire time zone in which metadata is continuously added, including overlapping periods, is determined as one scene. In the example of FIG. 7A, three metadata are sequentially added in the time period from the time t1 to the time t2, and there are overlapping time periods. If the type of metadata is not considered, it can be said that the time period from time t1 to t2 is an independent time period to which metadata is continuously added as a whole. Therefore, the time zone is determined as scene A. In the time zone from time t3 to t4, two metadata are added so as to overlap in some time zones, but as a whole, one independent time in which metadata is continuously added. It is a belt. Therefore, the time zone is determined as scene B.

また、図7(b)に例示するように、複数のメタデータが連続的に付加されていて且つ重複する区間が不規則的に発生するような場合は、特定のメタデータを基準にシーンを決定する。図7(b)は、特定のメタデータとしてテキストメタデータを採用し、1つのテキストメタデータが付加されている時間帯をシーンとして決定する例を示している。どのメタデータを特定のメタデータとするかについては適宜決めることができる。例えば、メタデータの種類毎に優先度を設定して、優先度の最も高いメタデータを特定のメタデータとしてもよい。テキストメタデータは、テキスト情報が直接的に表示されるメタデータであって、動画ファイルに対するインデックスとしての役割を持ちやすいため、特定のメタデータとして適している。   Also, as illustrated in FIG. 7B, when a plurality of metadata are continuously added and overlapping sections occur irregularly, the scene is determined based on specific metadata. decide. FIG. 7B shows an example in which text metadata is adopted as specific metadata, and a time zone in which one text metadata is added is determined as a scene. Which metadata is to be the specific metadata can be determined as appropriate. For example, priority may be set for each type of metadata, and metadata having the highest priority may be set as specific metadata. The text metadata is metadata in which text information is directly displayed, and is suitable as specific metadata because it easily serves as an index for a moving image file.

次に、S160のフレーム抽出処理について説明する。本実施形態のフレーム抽出処理は、S150のシーン決定処理で決定したシーン毎に、シーンの中から印刷に適したフレームを1つ抽出する処理である。   Next, the frame extraction process of S160 will be described. The frame extraction process of the present embodiment is a process for extracting one frame suitable for printing from the scene for each scene determined in the scene determination process of S150.

シーンの中から具体的にどのようにして1つのフレームを抽出するかについては適宜決めることができる。例えば、抽出基準を予め決めておいて、その抽出基準に従って抽出するようにしてもよい。例えば、第1の抽出基準として、シーンの開始から特定の経過時間が経過した時点のフレームを抽出するようにしてもよい。特定の経過時間は、0であってもよい。つまりシーンの中の最初のフレームを抽出してもよい。また例えば、第2の抽出基準として、1つのシーン全体に含まれる各フレーム、又は1つのシーンにおける開始から一定時間が経過するまでの時間帯に含まれる各フレームの中で、画像のぶれが最も少ないフレームを抽出するようにしてもよい。ただし、画面全体が同一色で埋め尽くされているフレーム(例えば画面暗転時のフレーム)は抽出対象から除くようにしてもよい。   It is possible to appropriately determine how to extract one frame from the scene. For example, an extraction criterion may be determined in advance, and extraction may be performed according to the extraction criterion. For example, as a first extraction criterion, a frame at a time when a specific elapsed time has elapsed from the start of the scene may be extracted. The specific elapsed time may be zero. That is, the first frame in the scene may be extracted. Also, for example, as the second extraction criterion, image blurring is the most in each frame included in one entire scene or in each frame included in a time zone from the start in one scene until a certain time elapses. A small number of frames may be extracted. However, a frame in which the entire screen is filled with the same color (for example, a frame when the screen is darkened) may be excluded from the extraction target.

図5には、上記のような抽出方法で各シーンからフレームが1つずつ抽出された例を示している。即ち、シーンAからは、第1フレーム41が抽出される。第1フレーム41に付加されているメタデータM1(ここではテキストメタデータ)は、その第1フレーム41の内容に関連したテキスト画像41aを表示させるためのメタデータである。シーンBからは、第2フレーム42が抽出される。第2フレーム42に付加されているメタデータM2(ここではテキストメタデータ)は、その第2フレーム42の内容に関連したテキスト画像42aを表示させるためのメタデータである。シーンCからは、第3フレーム43が抽出される。第3フレーム43に付加されているメタデータM3(ここではテキストメタデータ)は、その第3フレーム43の内容に関連したテキスト画像43aを表示させるためのメタデータである。シーンDからは、第4フレーム44が抽出される。第4フレーム44に付加されているメタデータM4(ここではテキストメタデータ)は、その第4フレーム44の内容に関連したテキスト画像44aを表示させるためのメタデータである。   FIG. 5 shows an example in which one frame is extracted from each scene by the extraction method as described above. That is, the first frame 41 is extracted from the scene A. The metadata M1 (here, text metadata) added to the first frame 41 is metadata for displaying a text image 41a related to the contents of the first frame 41. From the scene B, the second frame 42 is extracted. Metadata M2 (here, text metadata) added to the second frame 42 is metadata for displaying a text image 42a related to the contents of the second frame 42. A third frame 43 is extracted from the scene C. Metadata M3 (here, text metadata) added to the third frame 43 is metadata for displaying the text image 43a related to the contents of the third frame 43. A fourth frame 44 is extracted from the scene D. Metadata M4 (here, text metadata) added to the fourth frame 44 is metadata for displaying a text image 44a related to the contents of the fourth frame 44.

図7に例示したように、1つのシーンに複数のメタデータが重複して付加されている時間帯が存在する場合も、シーン毎に、そのシーン全体の中からフレームを抽出するようにしてもよい。但し、1つのシーンの中で、メタデータが重複している期間は、他の期間(例えばメタデータが1つだけ付加されている期間)よりもより注目度が高い可能性がある。   As illustrated in FIG. 7, even when there is a time zone in which a plurality of metadata is redundantly added to one scene, a frame may be extracted from the entire scene for each scene. Good. However, a period in which metadata overlaps in one scene may have a higher degree of attention than another period (for example, a period in which only one metadata is added).

そこで、1つのシーンに複数のメタデータが重複して付加されている時間帯が存在する場合は、図7に例示するように、その1つのシーンの中から、メタデータの情報量が最も多い時間帯(例えばメタデータの重複数が最も多い時間帯)Toに絞って、その時間帯Toの中からフレームを抽出するようにしてもよい。   Therefore, when there is a time zone in which a plurality of metadata is added in duplicate in one scene, the amount of metadata information is the largest among the one scene as illustrated in FIG. A frame may be extracted from the time zone To by narrowing down to the time zone (for example, the time zone having the largest number of overlapping metadata) To.

(3−3)動画ファイル選択用サムネイル選出処理の説明
図4に示した動画印刷処理のうち、S180の動画ファイル選択用サムネイル選出処理の詳細について、図8を用いて説明する。なお、図8の動画ファイル選択用サムネイル選出処理は、S170で生成された印刷フレーム選択用サムネイルを処理対象とする処理である。そのため、図8の動画ファイル選択用サムネイル選出処理の中で「メタデータ」というときは、S170で生成された各サムネイルに付加されているメタデータを示すものとする。つまり、図8の動画ファイル選択用サムネイル選出処理において処理対象となるメタデータは、S170で生成された各サムネイルに付加されているメタデータである。
(3-3) Explanation of Movie File Selection Thumbnail Selection Process Details of the movie file selection thumbnail selection process in S180 of the movie print process shown in FIG. 4 will be described with reference to FIG. Note that the moving image file selection thumbnail selection processing in FIG. 8 is processing for processing the print frame selection thumbnail generated in S170. Therefore, “metadata” in the moving image file selection thumbnail selection process of FIG. 8 indicates metadata added to each thumbnail generated in S170. That is, the metadata to be processed in the moving image file selection thumbnail selection process of FIG. 8 is metadata added to each thumbnail generated in S170.

CPU11は、S180の動画ファイル選択用サムネイル選出処理に移行すると、図8に示す処理を実行する。即ち、CPU11は、S310で、各サムネイルのメタデータの中に、当該動画ファイルnの提供者がメタデータを付加した際の付加順序を示す順序情報があるか否か判断する。   When the CPU 11 proceeds to the moving image file selection thumbnail selection process of S180, the CPU 11 executes the process shown in FIG. That is, in S310, the CPU 11 determines whether or not there is order information indicating the addition order when the provider of the moving image file n adds metadata in the metadata of each thumbnail.

順序情報がある場合は(S310:YES)、S320で、各サムネイルのメタデータのうち一番初めに付加されたメタデータはテキストメタデータであるか否か判断する。一番初めに付加されたメタデータがテキストメタデータではない場合は(S320:NO)、S340に進む。一番初めに付加されたメタデータがテキストメタデータである場合は(S320:YES)、S330に進む。   If there is order information (S310: YES), in S320, it is determined whether or not the metadata added first among the metadata of each thumbnail is text metadata. If the first added metadata is not text metadata (S320: NO), the process proceeds to S340. When the first added metadata is text metadata (S320: YES), the process proceeds to S330.

S330では、一番初めに付加されたテキストメタデータを含むシーン(つまりそのテキストメタデータが付加されているシーン)から生成された印刷フレーム選択用サムネイルを、当該動画ファイルnを示す動画ファイル選択用サムネイルに設定する。一番初めにテキストメタデータが付加されたシーンは、動画提供者が最も主張したいシーン(即ち見どころの多いシーン)である可能性が高い。そのため、そのようなシーンから生成されたサムネイルは、当該動画ファイルnを代表するにふさわしいサムネイルといえる。S330の処理後は、S190(図4)に進む。   In S330, the print frame selection thumbnail generated from the scene including the text metadata added at the beginning (that is, the scene to which the text metadata is added) is used to select the video file indicating the video file n. Set to thumbnail. There is a high possibility that the scene to which the text metadata is added at the beginning is the scene that the video provider wants to claim most (that is, the scene with many highlights). Therefore, it can be said that a thumbnail generated from such a scene is a thumbnail suitable for representing the moving image file n. After the processing of S330, the process proceeds to S190 (FIG. 4).

S310で順序情報がないと判断した場合は(S310:NO)、S340に進む。S340では、各サムネイルのメタデータの中にテキストメタデータがあるか否か判断する。テキストメタデータがある場合は(S340:YES)、S350で、フォントサイズが最大のテキストメタデータが1つだけあるか否か判断する。例えば全てのテキストメタデータのフォントサイズが同じであったり、フォントサイズが最も大きいテキストメタデータが複数あったりするなど、フォントサイズが最大のテキストメタデータが1つだけない場合は(S350:NO)、S370に進む。フォントサイズが最大のテキストメタデータが1つだけある場合は(S350:YES)、S360に進む。   If it is determined in S310 that there is no order information (S310: NO), the process proceeds to S340. In S340, it is determined whether there is text metadata in the metadata of each thumbnail. If there is text metadata (S340: YES), it is determined in S350 whether there is only one text metadata having the maximum font size. For example, when there is only one text metadata with the largest font size, such as when all the text metadata have the same font size or there are multiple text metadata with the largest font size (S350: NO) The process proceeds to S370. If there is only one text metadata with the largest font size (S350: YES), the process proceeds to S360.

S360では、フォントサイズが最も大きいテキストメタデータを含むシーンから生成された印刷フレーム選択用サムネイルを、当該動画ファイルnを示す動画ファイル選択用サムネイルに設定する。テキストメタデータの中でフォントサイズが最も大きいテキストメタデータが付加されたシーンは、動画の中でも最も強調されているシーンであって動画提供者が最も主張したいシーンである可能性が高い。そのため、そのようなシーンから生成されたサムネイルは、当該動画ファイルnを代表するにふさわしいサムネイルといえる。S360の処理後は、S190(図4)に進む。   In S360, the print frame selection thumbnail generated from the scene including the text metadata having the largest font size is set as the video file selection thumbnail indicating the video file n. The scene to which the text metadata having the largest font size is added among the text metadata is highly likely to be the most emphasized scene in the moving image and the most desired by the moving image provider. Therefore, it can be said that a thumbnail generated from such a scene is a thumbnail suitable for representing the moving image file n. After the process of S360, the process proceeds to S190 (FIG. 4).

S340でテキストメタデータがないと判断した場合は(S340:NO)、S370に進む。S370では、各サムネイルのメタデータの中にリンクメタデータがあるか否か判断する。リンクメタデータがある場合は(S370:YES)、S380で、非特殊リンクメタデータがあるか否か判断する。非特殊リンクメタデータとは、特殊なリンク情報を持つリンクメタデータを除く他のリンクメタデータである。特殊なリンク情報としては、例えば、動画閲覧用の動画チャンネルサイトへの登録に導くようなリンク情報がある。なお、非特殊リンクメタデータをどのように設定するかについては適宜決めることができる。   If it is determined in S340 that there is no text metadata (S340: NO), the process proceeds to S370. In S370, it is determined whether or not there is link metadata in the metadata of each thumbnail. If there is link metadata (S370: YES), it is determined in S380 whether there is non-special link metadata. Non-special link metadata is other link metadata excluding link metadata having special link information. As the special link information, for example, there is link information that leads to registration in a video channel site for video browsing. Note that how to set the non-special link metadata can be determined as appropriate.

例えば全てのリンクメタデータが特殊なリンク情報を持つリンクメタデータであるなど、非特殊リンクメタデータがない場合は(S380:NO)、S400に進む。非特殊リンクメタデータがある場合は(S380:YES)、S390に進む。   For example, if there is no non-special link metadata (eg, all link metadata is link metadata having special link information) (S380: NO), the process proceeds to S400. If there is non-special link metadata (S380: YES), the process proceeds to S390.

S390では、非特殊リンクメタデータのうち動画再生時間内で最も早い時間に付加された非特殊リンクメタデータについて、その非特殊リンクメタデータを含むシーンから生成された印刷フレーム選択用サムネイルを、当該動画ファイルnを示す動画ファイル選択用サムネイルに設定する。S390の処理後は、S190(図4)に進む。   In S390, for the non-special link metadata added at the earliest time within the video playback time among the non-special link metadata, the print frame selection thumbnail generated from the scene including the non-special link metadata is It is set as a moving image file selection thumbnail indicating the moving image file n. After the process of S390, the process proceeds to S190 (FIG. 4).

S370でリンクメタデータがないと判断した場合は(S370:NO)、S400に進む。S400では、各サムネイルのメタデータのうち、動画再生時間内で最も早い時間に付加されたメタデータについて、そのメタデータを含むシーンから生成された印刷フレーム選択用サムネイルを、当該動画ファイルnを示す動画ファイル選択用サムネイルに設定する。S390の処理後は、S190(図4)に進む。   If it is determined in S370 that there is no link metadata (S370: NO), the process proceeds to S400. In S400, for the metadata added at the earliest time within the moving image playback time among the metadata of each thumbnail, the print frame selection thumbnail generated from the scene including the metadata is indicated for the moving image file n. Set to thumbnail for video file selection. After the process of S390, the process proceeds to S190 (FIG. 4).

(3−4)動画一覧表示画面の説明
図4に示した動画印刷処理においてS210で表示される動画一覧表示画面の一例を、図9(a)に示す。図9(a)に示す動画一覧表示画面50は、動画ファイル毎に選出された1つの動画ファイル選択用サムネイルが縦方向に並んで一覧表示された画面である。特定の画面遷移操作(例えば上下方向へのフリック、スワイプなど)を行うことで、表示内容を上下方向にスクロールさせることができる。
(3-4) Description of Moving Image List Display Screen An example of the moving image list display screen displayed in S210 in the moving image printing process illustrated in FIG. 4 is illustrated in FIG. The moving image list display screen 50 shown in FIG. 9A is a screen in which one moving image file selection thumbnail selected for each moving image file is displayed in a list in the vertical direction. By performing a specific screen transition operation (for example, flicking up and down, swiping, etc.), the display content can be scrolled up and down.

そして、印刷させたい動画ファイルに対応した動画ファイル選択用サムネイルに対してタッチ操作又はマウス操作による選択操作を行うことで、動画ファイルを選択することができる。   The moving image file can be selected by performing a selection operation by touch operation or mouse operation on the moving image file selection thumbnail corresponding to the moving image file to be printed.

図9(a)の動画一覧表示画面50においては、旅行記録動画36(図5参照)の動画ファイルを示すサムネイルとして1つの動画ファイル選択用サムネイル51(図5の第3フレーム43に対応)が表示され、花火大会動画32(図2(b)参照)の動画ファイルを示すサムネイルとして1つの動画ファイル選択用サムネイル52が表示され、風景記録動画35(図3(b)参照)の動画ファイルを示すサムネイルとして1つの動画ファイル選択用サムネイル53が表示されている。   On the moving image list display screen 50 in FIG. 9A, one moving image file selection thumbnail 51 (corresponding to the third frame 43 in FIG. 5) is displayed as a thumbnail indicating the moving image file of the travel recording moving image 36 (see FIG. 5). One moving image file selection thumbnail 52 is displayed as a thumbnail indicating the moving image file of the fireworks display moving image 32 (see FIG. 2B), and the moving image file of the landscape recording moving image 35 (see FIG. 3B) is displayed. One moving image file selection thumbnail 53 is displayed as a thumbnail to be shown.

また、図9(a)の動画一覧表示画面50においては、各動画ファイル選択用サムネイル51,52,53それぞれ、メタデータを示す画像も含まれている。風景記録動画35に付加されている領域メタデータは、動画ファイル選択用サムネイル53内において、領域を示す枠画像として表示されている。   In addition, in the moving image list display screen 50 in FIG. 9A, each moving image file selection thumbnail 51, 52, 53 includes an image indicating metadata. The area metadata added to the landscape recording moving image 35 is displayed as a frame image indicating the area in the moving image file selection thumbnail 53.

なお、動画一覧表示画面中の各サムネイルにメタデータを示す画像を表示させるか否か、また表示させる場合に具体的にどこにどのように表示させるか、などについては適宜決めることができる。   Note that whether or not to display an image indicating metadata on each thumbnail in the moving image list display screen, and where and how to display the image when displaying it, can be appropriately determined.

(3−5)印刷フレーム選択画面の説明
図4に示した動画印刷処理においてS230で表示される印刷フレーム選択画面の一例を、図10(a)に示す。図10(a)に示す印刷フレーム選択画面は、動画一覧表示画面(図9(a)参照)で選択された動画ファイルに対して生成されている印刷フレーム選択用サムネイルが縦方向に並んで一覧表示された画面である。画面遷移操作を行うことで、表示内容を上下方向にスクロールさせることができる。
(3-5) Description of Print Frame Selection Screen An example of the print frame selection screen displayed in S230 in the moving image printing process shown in FIG. 4 is shown in FIG. The print frame selection screen shown in FIG. 10A is a list of print frame selection thumbnails generated for the video files selected on the video list display screen (see FIG. 9A) arranged vertically. It is the displayed screen. By performing the screen transition operation, the display content can be scrolled up and down.

そして、印刷させたいフレームに対応した印刷フレーム選択用サムネイルに対してタッチ操作又はマウス操作による選択操作を行うことで、印刷させたいフレームを選択することができる。   A frame to be printed can be selected by performing a selection operation by a touch operation or a mouse operation on a print frame selection thumbnail corresponding to the frame to be printed.

図10(a)の印刷フレーム選択画面70においては、旅行記録動画36(図5参照)の動画ファイルに対して生成された複数の印刷フレーム選択用サムネイル71,72,73・・・が表示されている。画面一番上の印刷フレーム選択用サムネイル71は、図5の第1フレーム41であり、画面中段の印刷フレーム選択用サムネイル72は、図5の第2フレーム42であり、画面一番下の印刷フレーム選択用サムネイル73は、図5の第3フレーム43である。   In the print frame selection screen 70 of FIG. 10A, a plurality of print frame selection thumbnails 71, 72, 73... Generated for the movie file of the travel record movie 36 (see FIG. 5) are displayed. ing. The print frame selection thumbnail 71 at the top of the screen is the first frame 41 in FIG. 5, and the print frame selection thumbnail 72 at the middle of the screen is the second frame 42 in FIG. 5. The frame selection thumbnail 73 is the third frame 43 of FIG.

複数の印刷フレーム選択用サムネイルをどのような順序で表示させるかについては、適宜決めることができる。例えば、動画内における時間を基準にして(例えば動画開始から早い順に)上から並べていくようにしてもよい。また例えば、独自の優先順位を設定してその優先順位に従って上から並べていくようにしてもよい。   The order in which the plurality of print frame selection thumbnails are displayed can be determined as appropriate. For example, it may be arranged from the top with reference to the time in the video (for example, in order from the start of the video). Further, for example, a unique priority order may be set and arranged from the top according to the priority order.

また、図10(a)の印刷フレーム選択画面70においては、各印刷フレーム選択用サムネイル71,72,73それぞれ、メタデータを示す画像(ここではテキスト画像)が、サムネイル中にオーバーレイ表示されている。   In addition, in the print frame selection screen 70 of FIG. 10A, images (in this case, text images) indicating metadata for the respective print frame selection thumbnails 71, 72, 73 are displayed in an overlay in the thumbnails. .

ただし、印刷フレーム選択用サムネイルにメタデータを示す画像をオーバーレイ表示させるのは必須ではなく、メタデータを示す画像をオーバーレイ表示させないようにしてもよい。また、印刷フレーム選択用サムネイル中にオーバーレイ表示させないとしても、例えば図10(b)に示す印刷フレーム画像80のように、各サムネイルの外側に、メタデータを示す画像を表示させるようにしてもよい。   However, it is not essential to overlay display an image indicating metadata on a print frame selection thumbnail, and an image indicating metadata may not be overlay displayed. Further, even if no overlay display is performed in the print frame selection thumbnail, an image indicating metadata may be displayed outside each thumbnail, for example, as a print frame image 80 shown in FIG. 10B. .

また、印刷フレーム選択用サムネイルの生成元のフレームに複数のメタデータが付加されている場合は、その複数のメタデータを示す画像を全て表示させてもよいし、何れか1つのみ又は複数を選択して表示させるようにしてもよい。複数のメタデータの中から何れか1つ又は複数を選択する場合の選択方法は適宜決めることができる。例えば、メタデータに優先度を設けて優先度の高いメタデータから優先的に選択するようにしてもよい。各サムネイルにメタデータを示す画像を表示させるか否か、また表示させる場合に具体的にどこにどのように表示させるか、などについては適宜決めることができる。   If a plurality of metadata is added to the frame from which the print frame selection thumbnail is generated, all images indicating the plurality of metadata may be displayed, or only one or a plurality of images may be displayed. You may make it select and display. A selection method in the case of selecting any one or a plurality of metadata from among a plurality of metadata can be determined as appropriate. For example, priority may be given to metadata so that the metadata is preferentially selected from metadata having a high priority. It is possible to appropriately determine whether or not to display an image indicating metadata on each thumbnail, and where and how to display the image when displaying the thumbnail.

(4)実施形態の効果
以上説明したように、本実施形態の端末10は、アプリ12bが、動画印刷機能を備え、図4に示した動画印刷処理を実行する。本実施形態の動画印刷機能においては、動画ファイルに付加されているメタデータに基づいて、印刷出力用のフレームが抽出される。そのため、端末10のユーザは、動画ファイルの中で印刷に適したフレームを容易に選ぶことができる。
(4) Effects of Embodiment As described above, in the terminal 10 of the present embodiment, the application 12b includes the moving image printing function and executes the moving image printing process illustrated in FIG. In the moving image printing function of the present embodiment, a print output frame is extracted based on the metadata added to the moving image file. Therefore, the user of the terminal 10 can easily select a frame suitable for printing in the moving image file.

本実施形態の動画印刷機能においては、まず、メタデータに基づいてシーンが決定され、その決定されたシーン毎に、そのシーンの中から、特定の抽出基準に従ってフレームが抽出される。このように、フレーム抽出に先立ってまず抽出対象のシーンを絞ることで、フレームの抽出にかかる処理負荷を低減できる。また、特定の抽出基準に従ってフレームが抽出されるため、抽出基準を適宜設定することで、フレームを適切に抽出することができる。   In the moving image printing function of this embodiment, first, a scene is determined based on metadata, and a frame is extracted from the determined scene for each determined scene according to a specific extraction criterion. In this way, by first narrowing the extraction target scene prior to frame extraction, the processing load for frame extraction can be reduced. In addition, since the frame is extracted according to a specific extraction criterion, the frame can be appropriately extracted by appropriately setting the extraction criterion.

本実施形態では、動画ファイルからシーンを決定する方法が、図5〜図7に例示したように複数種類用意されている。このような複数種類のシーン決定方法を適宜用いることで、動画ファイルの中からシーンを適切に決定することができ、ひいては、印刷に適した候補フレームを適切に抽出することができる。   In the present embodiment, a plurality of types of methods for determining a scene from a moving image file are prepared as illustrated in FIGS. By appropriately using such a plurality of types of scene determination methods, a scene can be appropriately determined from a moving image file, and thus candidate frames suitable for printing can be appropriately extracted.

本実施形態では、1つのシーンから1つのフレームを抽出する際の抽出基準として、上述した第1の抽出基準又は第2の抽出基準を採用している。例えばシーンの開始時やシーンの中間あたりなど、シーン中の特定のタイミングのフレームは、印刷に適している可能性がある。また、フレームの内容如何にかかわらず、画像のぶれが大きいフレームはあまり印刷に適さないため、ぶれが少ないほど印刷に適しているともいえる。そのため、シーン開始からの経過時間や画像のぶれに基づいてフレームを抽出するようにすることで、印刷に適したフレームを適切且つ効率的に抽出することができる。   In the present embodiment, the above-described first extraction criterion or second extraction criterion is employed as an extraction criterion when extracting one frame from one scene. For example, a frame at a specific timing in the scene, such as at the start of the scene or around the middle of the scene, may be suitable for printing. Further, a frame with a large image blur is not suitable for printing regardless of the contents of the frame, so it can be said that the smaller the blur, the more suitable for printing. Therefore, by extracting the frames based on the elapsed time from the start of the scene and the blurring of the images, it is possible to appropriately and efficiently extract the frames suitable for printing.

また、上記実施形態では、1つのシーン中に複数のメタデータが重複付加されている場合には、メタデータの重複数が最も多い時間帯に絞り込んでそこからフレームを抽出するようにしている。フレームの抽出対象を、シーン全体ではなく、シーン中から特定の時間帯に絞り込むことで、フレームの抽出にかかる処理負荷を低減できる。また、複数のメタデータが重複して負荷されている時間帯は、シーンの中でも最も特徴的な時間帯の1つである可能性が高いため、そのような時間帯に絞り込んでフレームを抽出することで、印刷に適したフレームを適切且つ効率的に抽出することができる。   Further, in the above embodiment, when a plurality of metadata is duplicated and added in one scene, the frame is extracted from the narrowed-down time zone where the plurality of metadata overlaps the most. By narrowing the frame extraction target to a specific time zone from within the scene instead of the entire scene, the processing load required for frame extraction can be reduced. In addition, since a time zone in which a plurality of metadata is loaded is highly likely to be one of the most characteristic time zones in the scene, frames are extracted by narrowing down to such a time zone. Thus, a frame suitable for printing can be extracted appropriately and efficiently.

上記実施形態では、フレーム抽出処理で抽出したフレーム毎に印刷フレーム選択用サムネイルを生成して、そのサムネイルの一覧画面(図10の印刷フレーム選択画面)をLCD16に表示させ、その中から印刷対象のフレームをユーザに選択させる。そのため、ユーザは、印刷させたいフレームの選択を容易且つ効率的に行うことができる。   In the above embodiment, a print frame selection thumbnail is generated for each frame extracted in the frame extraction process, and the thumbnail list screen (print frame selection screen in FIG. 10) is displayed on the LCD 16, from which the print target is selected. Let the user select a frame. Therefore, the user can easily and efficiently select a frame to be printed.

また、印刷フレーム選択画面に表示される印刷フレーム選択用サムネイルには、図10(a)に例示したように、対応するメタデータが示す情報を付加するようにしてもよい。その場合、ユーザは、各フレームの内容をより具体的に知ることができ、これにより印刷させたいフレームの選択を適切に行うことができる。   Further, as shown in FIG. 10A, information indicated by corresponding metadata may be added to the print frame selection thumbnail displayed on the print frame selection screen. In that case, the user can know the contents of each frame more specifically, and can thereby appropriately select the frame to be printed.

また、動画ファイルが複数ある場合には、動画ファイル中のどのフレームを印刷させるかを選択する以前に、まずは印刷させたい動画ファイルを選ぶ必要がある。これに対し、本実施形態では、動画ファイル毎に、印刷フレーム選択用サムネイルの中から当該動画ファイルを代表するにふさわしいサムネイルを動画ファイル選択用サムネイルとして選出し、それら選出された動画ファイル選択用サムネイルを一覧表示させてそこから所望の動画ファイルを選択できるように構成されているそのため、印刷させたい所望の動画ファイルを効率的に選択することができる。   In addition, when there are a plurality of moving image files, it is necessary to first select a moving image file to be printed before selecting which frame in the moving image file is to be printed. On the other hand, in the present embodiment, for each video file, a thumbnail suitable for representing the video file is selected as a video file selection thumbnail from the print frame selection thumbnails, and the selected video file selection thumbnails are selected. Therefore, a desired moving image file to be printed can be efficiently selected.

なお、本実施形態において、端末10は本発明の動画処理装置の一例に相当する。アプリ12bは本発明の動画処理プログラムの一例に相当する。CPU11は本発明のコンピュータ及び制御部の一例に相当する。LCD16は本発明の表示部の一例に相当する。S160のフレーム抽出処理で抽出されるフレームは本発明の候補フレームの一例に相当し、そのフレーム抽出処理で用いられる抽出基準は本発明の候補フレーム抽出基準の一例に相当する。図7に示した時間帯Toは本発明の絞込シーンの一例に相当する。印刷フレーム選択用サムネイルは本発明のサムネイル画像の一例に相当する。動画ファイル選択用サムネイルは本発明の動画選択用画像の一例に相当する。S110の処理は本発明のファイル取得処理の一例に相当する。S120の処理は本発明のデータ取得処理の一例に相当する。S150の処理は本発明のシーン抽出処理の一例に相当する。S170の処理は本発明の画像生成処理の一例に相当する。S230の処理は本発明の画像表示処理の一例に相当する。S240の処理は本発明の画像選択処理及び決定処理の一例に相当する。S180の処理は本発明の選択用画像設定処理の一例に相当する。S210の処理は本発明の選択用画像表示処理の一例に相当する。S220の処理は本発明の選択用画像選択処理の一例に相当する。   In the present embodiment, the terminal 10 corresponds to an example of a moving image processing apparatus of the present invention. The application 12b corresponds to an example of a moving image processing program of the present invention. The CPU 11 corresponds to an example of a computer and a control unit of the present invention. The LCD 16 corresponds to an example of a display unit of the present invention. The frame extracted in the frame extraction process of S160 corresponds to an example of the candidate frame of the present invention, and the extraction standard used in the frame extraction process corresponds to an example of the candidate frame extraction standard of the present invention. The time zone To shown in FIG. 7 corresponds to an example of the narrowed-down scene of the present invention. The print frame selection thumbnail corresponds to an example of a thumbnail image of the present invention. The moving image file selection thumbnail corresponds to an example of the moving image selection image of the present invention. The process of S110 corresponds to an example of a file acquisition process of the present invention. The process of S120 corresponds to an example of the data acquisition process of the present invention. The process of S150 corresponds to an example of the scene extraction process of the present invention. The process of S170 corresponds to an example of the image generation process of the present invention. The process of S230 corresponds to an example of the image display process of the present invention. The process of S240 corresponds to an example of an image selection process and a determination process of the present invention. The process of S180 corresponds to an example of the selection image setting process of the present invention. The process of S210 corresponds to an example of the selection image display process of the present invention. The process of S220 corresponds to an example of the selection image selection process of the present invention.

[他の実施形態]
(1)図4の動画印刷処理は、取得したN個の動画ファイル全てについてS140〜S180の処理を終えてから、S210に進む構成であるが、このように、全ての動画ファイルに対するS180までの処理を終えてからS210に進むことは、必須ではない。例えば、動画ファイル1つについてS180までの処理を終える毎に、順次、S210以降の処理を行って画像を表示させて選択を受け付け可能としてもよい。その場合、途中である動画ファイルが選択された場合は、その時点でS180までの処理は停止して、選択された動画ファイルに対するS230以降の処理に進むようにしてもよい。
[Other Embodiments]
(1) The moving image printing process of FIG. 4 is configured to proceed to S210 after finishing the processing of S140 to S180 for all of the obtained N moving image files, but in this way, up to S180 for all moving image files. It is not essential to proceed to S210 after finishing the process. For example, every time the processing up to S180 is completed for one moving image file, the processing after S210 may be sequentially performed to display an image so that selection can be accepted. In that case, when a moving image file in the middle is selected, the processing up to S180 may be stopped at that time, and the processing may proceed to S230 and subsequent processing for the selected moving image file.

(2)図4のS180の動画ファイル選択用サムネイル選出処理の具体的内容、即ち、S170で生成した印刷フレーム選択用サムネイルの中から動画ファイル選択用サムネイルを選出する方法は、図8に詳しく説明した方法に限定されない。図8に示した選出方法はあくまでも一例であり、他の選出基準を設定して選出してもよい。例えば、テキストメタデータの中でテキストの文字数が最も少ないテキストメタデータを含むシーンから生成された印刷フレーム選択用サムネイルを動画ファイル選択用サムネイルとして選出するようにしてもよい。また例えば、メタデータの種類毎に優先度を設定し、最も優先度の高いメタデータを含むシーンから生成された印刷フレーム選択用サムネイルを動画ファイル選択用サムネイルとして選出するようにしてもよい。   (2) The specific contents of the moving image file selection thumbnail selection process in S180 of FIG. 4, that is, the method of selecting the moving image file selection thumbnail from the print frame selection thumbnails generated in S170 will be described in detail in FIG. The method is not limited. The selection method shown in FIG. 8 is merely an example, and other selection criteria may be set for selection. For example, a print frame selection thumbnail generated from a scene including text metadata having the smallest number of text characters in the text metadata may be selected as a moving image file selection thumbnail. Further, for example, a priority may be set for each type of metadata, and a print frame selection thumbnail generated from a scene including metadata with the highest priority may be selected as a moving image file selection thumbnail.

また、動画ファイル選択用サムネイルは、1つの動画ファイルに対して複数選出するようにしてもよい。複数選出する際の具体的な選出方法は適宜決めることができる。例えば、図8の動画ファイル選択用サムネイル選出処理において、S330の処理後はS340に進むようにし、S360の処理後はS370に進むようにし、S390の処理後はS400に進むようにすることで、1つの動画ファイルに対して複数の動画ファイル選択用サムネイルを選出することができる。   A plurality of moving image file selection thumbnails may be selected for one moving image file. A specific selection method for selecting a plurality can be determined as appropriate. For example, in the moving image file selection thumbnail selection process of FIG. 8, the process proceeds to S340 after the process of S330, proceeds to S370 after the process of S360, and proceeds to S400 after the process of S390. A plurality of movie file selection thumbnails can be selected for one movie file.

そして、1つの動画ファイルに対して複数の動画ファイル選択用サムネイルを選出した場合に、それら各動画ファイル選択用サムネイルを動画一覧表示画面にどのように表示させるかについては、適宜決めることができる。例えば、スライドショー形式で1つずつ順次切り替えながら表示させるようにしてもよい。また例えば、図9(b)に例示するように、動画ファイル毎に、選出された動画ファイル選択用サムネイルを全て一覧表示させるようにしてもよい。図9(b)に示す動画一覧表示画面60は、旅行記録動画36の動画ファイルに対して5つの動画ファイル選択用サムネイル61〜65が選出されてそれらが全て一覧表示されている例を示している。図9(b)の例においても、各サムネイルにメタデータを示す画像を表示させるか否か、また表示させる場合に具体的にどこにどのように表示させるか、などについては適宜決めることができる。   Then, when a plurality of moving image file selection thumbnails are selected for one moving image file, it is possible to appropriately determine how to display each moving image file selection thumbnail on the moving image list display screen. For example, the images may be displayed while sequentially switching one by one in a slide show format. Further, for example, as illustrated in FIG. 9B, all the selected moving image file selection thumbnails may be displayed in a list for each moving image file. The moving image list display screen 60 shown in FIG. 9B shows an example in which five moving image file selection thumbnails 61 to 65 are selected from the moving image files of the travel recording moving image 36 and are displayed in a list. Yes. Also in the example of FIG. 9B, it is possible to appropriately determine whether or not to display an image indicating metadata on each thumbnail, and where and how to display the image when displaying the thumbnail.

(3)図9(a)に例示した動画一覧表示画面50のように、1つの動画ファイルに対して1つの動画ファイル選択用サムネイルを表示させる場合、単にそのサムネイルを表示させるだけでなく、そのサムネイルに対応したフレームを含む一定時間内のフレームを縮小して連続的に切り替え表示させるようにしてもよい。つまり、サムネイルのサイズで上記一定時間内の動画を表示させるようにしてもよい。   (3) When displaying one moving image file selection thumbnail for one moving image file as in the moving image list display screen 50 illustrated in FIG. 9A, not only displaying the thumbnail, Frames within a certain time period including frames corresponding to thumbnails may be reduced and continuously displayed for switching. That is, you may make it display the moving image within the said fixed time by the size of a thumbnail.

(4)図10に例示した印刷フレーム選択画面では、動画一覧表示画面で選択された動画ファイルに対して生成されている全ての印刷フレーム選択用サムネイルを表示させることができたが、必ずしも、生成されている全ての印刷フレーム選択用サムネイルを表示できるようにする必要はない。例えば、フレーム抽出処理で抽出されたフレームが多ければ多いほど、生成される印刷フレーム選択用サムネイルも多くなる。その場合、生成されている全ての印刷フレーム選択用サムネイルのうちいくつかを間引いて表示させるようにしてもよい。どのような基準でサムネイルを間引くかについては適宜決めることができる。   (4) In the print frame selection screen illustrated in FIG. 10, all the print frame selection thumbnails generated for the moving image file selected on the moving image list display screen can be displayed. It is not necessary to be able to display all the print frame selection thumbnails. For example, the more frames extracted by the frame extraction process, the more print frame selection thumbnails that are generated. In this case, some of the generated print frame selection thumbnails may be thinned and displayed. The criteria for thinning out thumbnails can be determined as appropriate.

(5)アプリ12bを実行させるプラットフォームとして、端末10はあくまでも一例である。例えば、MFP100でアプリ12bを実行できるようにしてもよい。また例えば、サーバ160或いはその他の情報処理装置(具体的には、端末10とは別体の、端末10とデータ通信可能な情報処理装置)でアプリ12bを実行できるようにしてもよい。具体的には、例えば、端末10又はMFP100から、印刷させたい所望の動画ファイルを情報処理装置にアップロードすると、情報処理装置側でシーン決定やフレーム抽出が行われる。生成、選出された各サムネイルは、そのサムネイルのデータを情報処理装置から端末10又はMFP100に送信させることで、端末10又はMFP100で表示させる。端末10又はMFP100における、サムネイルの選択処理の結果は、情報処理装置に送信され、それに基づいて情報処理装置が印刷データを生成し、その印刷データがMFP100に送信される。   (5) The terminal 10 is merely an example as a platform for executing the application 12b. For example, the application 12b may be executed by the MFP 100. Further, for example, the application 12b may be executed by the server 160 or other information processing apparatus (specifically, an information processing apparatus that is separate from the terminal 10 and capable of data communication with the terminal 10). Specifically, for example, when a desired moving image file to be printed is uploaded from the terminal 10 or the MFP 100 to the information processing apparatus, scene determination and frame extraction are performed on the information processing apparatus side. Each generated and selected thumbnail is displayed on the terminal 10 or MFP 100 by causing the data processing apparatus to transmit the thumbnail data to the terminal 10 or MFP 100. The result of the thumbnail selection process in terminal 10 or MFP 100 is transmitted to the information processing apparatus. Based on the result, the information processing apparatus generates print data, and the print data is transmitted to MFP 100.

(6)上記実施形態では、本発明を動画印刷に適用した例を示したが、本発明の適用は動画印刷に限定されない。つまり、本発明は、動画印刷を目的として動画ファイルからフレームを抽出する目的以外の他の目的にも適用できる。   (6) In the above embodiment, an example in which the present invention is applied to moving image printing has been described, but application of the present invention is not limited to moving image printing. That is, the present invention can be applied to other purposes other than the purpose of extracting frames from a moving image file for the purpose of moving image printing.

(7)アプリ12bの提供形態は、インターネットを介したダウンロードによる提供に限らず、種々の提供形態を採用できる。例えば、メモリカード、フレキシブルディスク、DVD、CD−ROM、ハードディスクなどの、コンピュータで読み取り可能な(有形な)非一時的な記録媒体(A non-transitory computer-readable recording medium)に記録された状態で提供できるようにしてもよい。   (7) The provision form of the application 12b is not limited to provision by downloading via the Internet, and various provision forms can be adopted. For example, in a state recorded on a computer-readable (tangible) non-transitory recording medium (A non-transitory computer-readable recording medium) such as a memory card, flexible disk, DVD, CD-ROM, or hard disk It may be possible to provide it.

(8)その他、本発明は、上記の実施形態に示された具体的手段や構造等に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の形態を採り得る。例えば、上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (8) In addition, the present invention is not limited to the specific means and structure shown in the above embodiment, and can take various forms without departing from the gist of the present invention. For example, the functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment as long as a subject can be solved. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present invention.

10…端末、11…CPU、12…フラッシュメモリ、12a…OS、12b…アプリ、12c…アプリ用記憶領域、13…RAM、15…操作キー、16…LCD、17…タッチパネル、18…メモリカードI/F、19…音声入出力部、20…電話網通信部、22…近距離通信部、23…無線通信部、24…バスライン、25…メモリカード、31…愛犬記録動画、31a,32a,33a,41a,42a,43a,44a…テキスト画像、32…花火大会動画、33…洋画番組動画、34…自然紹介動画、34a,34b,35a〜35d…枠画像、35…風景記録動画、36…旅行記録動画、41…第1フレーム、42…第2フレーム、43…第3フレーム、44…第4フレーム、50,60…動画一覧表示画面、51〜53,61〜65…動画ファイル選択用サムネイル、70,80…印刷フレーム選択画面、71〜73…印刷フレーム選択用サムネイル、100…MFP、122…近距離通信部、123…無線通信部、131…プリンタ部、160…サーバ。 DESCRIPTION OF SYMBOLS 10 ... Terminal, 11 ... CPU, 12 ... Flash memory, 12a ... OS, 12b ... Application, 12c ... Storage area for application, 13 ... RAM, 15 ... Operation key, 16 ... LCD, 17 ... Touch panel, 18 ... Memory card I / F, 19 ... voice input / output unit, 20 ... telephone network communication unit, 22 ... short-range communication unit, 23 ... wireless communication unit, 24 ... bus line, 25 ... memory card, 31 ... pet dog recording video, 31a, 32a, 33a, 41a, 42a, 43a, 44a ... text image, 32 ... fireworks display video, 33 ... Western program video, 34 ... nature introduction video, 34a, 34b, 35a-35d ... frame image, 35 ... landscape recording video, 36 ... Travel record moving image, 41... 1st frame, 42... 2nd frame, 43... 3rd frame, 44. ˜65: Thumbnail for selecting moving image file, 70, 80: Print frame selection screen, 71-73: Thumbnail for selecting print frame, 100: MFP, 122: Short-range communication unit, 123: Wireless communication unit, 131: Printer unit, 160: Server.

Claims (15)

コンピュータに、
動画ファイルを取得するファイル取得処理と、
前記ファイル取得処理により取得された動画ファイルに対して付加されているメタデータを取得するデータ取得処理と、
前記データ取得処理により取得されたメタデータに基づき、前記動画ファイルの中から、印刷に適した出力用の特定のフレームである候補フレームを抽出するフレーム抽出処理と、
を実行させるための動画処理プログラム。
On the computer,
File acquisition processing to acquire video files,
A data acquisition process for acquiring metadata attached to the video file acquired by the file acquisition process;
A frame extraction process for extracting candidate frames, which are specific frames for output suitable for printing, from the moving image file based on the metadata acquired by the data acquisition process;
A video processing program for running
請求項1に記載の動画処理プログラムであって、
前記データ取得処理により取得されたメタデータに基づいて、前記動画ファイルの中から特定の時間帯をシーンとして抽出するシーン抽出処理を有し、
前記フレーム抽出処理では、前記シーン抽出処理により抽出されたシーンの中から、特定の候補フレーム抽出基準に従って前記候補フレームを抽出する
ことを特徴とする動画処理プログラム。
A moving image processing program according to claim 1,
A scene extraction process for extracting a specific time zone as a scene from the video file based on the metadata acquired by the data acquisition process;
In the frame extraction process, the candidate frame is extracted according to a specific candidate frame extraction criterion from the scene extracted by the scene extraction process.
請求項2に記載の動画処理プログラムであって、
前記シーン抽出処理では、前記動画ファイル全体の中で、連続的にメタデータが付加されている時間帯を1つの前記シーンとして、少なくとも1つの前記シーンを抽出する
ことを特徴とする動画処理プログラム。
The moving image processing program according to claim 2,
In the scene extraction process, at least one of the scenes is extracted with the time zone in which metadata is continuously added as one scene in the entire movie file.
請求項2又は請求項3に記載の動画処理プログラムであって、
前記シーンは、予め決められた特定のメタデータが連続的に付加されている時間帯である
ことを特徴とする動画処理プログラム。
A moving image processing program according to claim 2 or claim 3,
The moving image processing program, wherein the scene is a time zone in which predetermined predetermined metadata is continuously added.
請求項2に記載の動画処理プログラムであって、
前記シーン抽出処理では、前記動画ファイル全体の中で、連続的にメタデータが付加されていない時間帯の直前又は直後の一定の時間帯を1つの前記シーンとして、少なくとも1つの前記シーンを抽出する
ことを特徴とする動画処理プログラム。
The moving image processing program according to claim 2,
In the scene extraction process, at least one scene is extracted from the entire moving image file, with a certain time zone immediately before or immediately after a time zone in which no metadata is continuously added as one scene. A moving picture processing program characterized by the above.
請求項2〜請求項5の何れか1項に記載の動画処理プログラムであって、
前記候補フレーム抽出基準として、次の(a)、(b)の何れかが設定されていることを特徴とする動画処理プログラム。
(a)前記シーンの開始から特定の経過時間が経過した時点のフレームを前記候補フレームとすること。
(b)前記シーン全体に含まれる各フレーム、又は前記シーンの開始から一定時間が経過するまでの時間帯に含まれる各フレームの中で、画像のぶれが最も少ないフレームを前記候補フレームとすること。
A moving image processing program according to any one of claims 2 to 5,
Any one of the following (a) and (b) is set as the candidate frame extraction criterion:
(A) A frame at a time when a specific elapsed time has elapsed from the start of the scene is set as the candidate frame.
(B) Among the frames included in the entire scene or the frames included in the time zone from the start of the scene until a predetermined time elapses, a frame with the least image blur is set as the candidate frame. .
請求項2〜請求項6の何れか1項に記載の動画処理プログラムであって、
前記フレーム抽出処理では、前記シーン中に複数のメタデータが重複して付加されている時間帯がある場合には、そのシーンの中でメタデータの重複数が最も多い時間帯を絞込シーンとして、その絞込シーンの中から、前記候補フレーム抽出基準に従って前記候補フレームを抽出する
ことを特徴とする動画処理プログラム。
A moving image processing program according to any one of claims 2 to 6,
In the frame extraction process, when there is a time zone in which a plurality of metadata is added in duplicate in the scene, a time zone with the largest number of metadata duplications in the scene is selected as a narrowed-down scene. A moving image processing program that extracts the candidate frame from the narrowed-down scene according to the candidate frame extraction criterion.
請求項1〜請求項7の何れか1項に記載の動画処理プログラムであって、
前記複数のメタデータには、動画中にテキストを表示させるためのテキストメタデータ、動画中にハイパーリンクを埋め込んで且つその埋め込んだ領域を示す画像を表示させるためのリンクメタデータ、及び、動画中にハイパーリンクを埋め込んで且つその埋め込んだ領域に対して特定の入力操作が行われた場合にその埋め込んだ領域を示す画像及び前記ハイパーリンクを示す画像の少なくとも一方を表示させるための領域メタデータのうち、少なくとも2つのメタデータを含む、
ことを特徴とする動画処理プログラム。
A moving image processing program according to any one of claims 1 to 7,
The plurality of metadata includes text metadata for displaying text in the video, link metadata for displaying an image indicating a region where the hyperlink is embedded in the video, and the video. When the hyperlink is embedded in the embedded area and a specific input operation is performed on the embedded area, the area metadata for displaying at least one of the image indicating the embedded area and the image indicating the hyperlink is displayed. Including at least two pieces of metadata,
A moving picture processing program characterized by the above.
請求項1〜請求項8の何れか1項に記載の動画処理プログラムであって、
前記フレーム抽出処理で抽出された前記候補フレーム毎にその候補フレームを表すサムネイル画像を生成する画像生成処理と、
前記画像生成処理により生成された前記サムネイル画像の少なくとも1つを表示部に表示させる画像表示処理と、
前記画像表示処理により前記表示部に表示されている前記サムネイル画像の中から特定のサムネイル画像の選択入力を受け付ける画像選択処理と、
前記画像選択処理により選択された前記サムネイル画像に対応した前記候補フレームを出力対象のフレームに決定する決定処理と、
を有することを特徴とする動画処理プログラム。
A moving image processing program according to any one of claims 1 to 8,
An image generation process for generating a thumbnail image representing the candidate frame for each candidate frame extracted in the frame extraction process;
An image display process for displaying at least one of the thumbnail images generated by the image generation process on a display unit;
An image selection process for receiving a selection input of a specific thumbnail image from among the thumbnail images displayed on the display unit by the image display process;
A determination process for determining the candidate frame corresponding to the thumbnail image selected by the image selection process as an output target frame;
A moving image processing program characterized by comprising:
請求項9に記載の動画処理プログラムであって、
前記画像表示処理では、前記サムネイル画像毎に、そのサムネイル画像に対応した前記候補フレームに付加されているメタデータを示す情報も合わせて表示する
ことを特徴とする動画処理プログラム。
The moving image processing program according to claim 9,
In the image display processing, for each thumbnail image, information indicating metadata added to the candidate frame corresponding to the thumbnail image is also displayed together.
請求項10に記載の動画処理プログラムであって、
前記メタデータには、動画中にハイパーリンクを埋め込んで且つその埋め込んだ領域に対して特定の入力操作が行われた場合にその埋め込んだ領域を示す画像及び前記ハイパーリンクを示す画像の少なくとも一方を表示させるための領域メタデータが含まれ、
前記画像表示処理では、前記サムネイル画像に対応した前記候補フレームに前記領域メタデータが付加されている場合、前記メタデータを示す情報として、前記領域メタデータの前記ハイパーリンクを示す情報及びそのハイパーリンクが埋め込まれている領域を示す情報のうち少なくとも一方を表示する
ことを特徴とする動画処理プログラム。
The moving image processing program according to claim 10,
The metadata includes at least one of an image indicating the embedded area and an image indicating the hyperlink when a hyperlink is embedded in a moving image and a specific input operation is performed on the embedded area. Contains region metadata for display,
In the image display process, when the region metadata is added to the candidate frame corresponding to the thumbnail image, the information indicating the hyperlink of the region metadata and the hyperlink as the information indicating the metadata A moving image processing program that displays at least one of information indicating an area in which is embedded.
請求項9〜請求項11の何れか1項に記載の動画処理プログラムであって、
前記画像生成処理で生成された前記サムネイル画像の中から、特定の選出基準に従って選出したサムネイル画像を、前記動画ファイルを示す動画選択用画像に設定する選択用画像設定処理と、
異なる前記動画ファイル毎に、その動画ファイルに対応した前記動画選択用画像を前記表示部に表示させる選択用画像表示処理と、
前記選択用画像表示処理により前記表示部に表示された前記動画選択用画像の中から特定の前記動画ファイルの選択入力を受け付ける選択用画像選択処理と、
を実行し、
前記画像表示処理では、前記選択用画像選択処理により選択された前記動画ファイルに対応した前記サムネイル画像を表示させる
ことを特徴とする動画処理プログラム。
A moving image processing program according to any one of claims 9 to 11,
A selection image setting process for setting a thumbnail image selected according to a specific selection criterion from the thumbnail images generated in the image generation process as a moving image selection image indicating the moving image file;
For each of the different video files, a selection image display process for displaying the video selection image corresponding to the video file on the display unit;
A selection image selection process for receiving a selection input of a specific video file from the video selection images displayed on the display unit by the selection image display process;
Run
In the image display process, the thumbnail image corresponding to the moving image file selected by the selection image selection process is displayed.
請求項12に記載の動画処理プログラムであって、
前記選択用画像表示処理では、前記動画選択用画像毎に、その動画選択用画像に対応した前記候補フレームに付加されているメタデータを示す情報も合わせて表示する
ことを特徴とする動画処理プログラム。
A moving image processing program according to claim 12,
In the selection image display processing, for each moving image selection image, information indicating metadata added to the candidate frame corresponding to the moving image selection image is also displayed. .
動画ファイルを取得するファイル取得ステップと、
前記ファイル取得ステップで取得した動画ファイルに対して付加されているメタデータを取得するデータ取得ステップと、
前記データ取得ステップで取得したメタデータに基づき、前記動画ファイルの中から、出力用の特定のフレームである候補フレームを抽出するフレーム抽出ステップと、
を有することを特徴とする動画処理方法。
A file acquisition step for acquiring a video file;
A data acquisition step of acquiring metadata attached to the video file acquired in the file acquisition step;
Based on the metadata acquired in the data acquisition step, a frame extraction step of extracting candidate frames that are specific frames for output from the moving image file;
A moving image processing method comprising:
制御部を備え、
前記制御部は、
動画ファイルを取得するファイル取得処理と、
前記ファイル取得処理により取得された動画ファイルに対して付加されているメタデータを取得するデータ取得処理と、
前記データ取得処理により取得されたメタデータに基づき、前記動画ファイルの中から、出力用の特定のフレームである候補フレームを抽出するフレーム抽出処理と、
を実行することを特徴とする動画処理装置。
With a control unit,
The controller is
File acquisition processing to acquire video files,
A data acquisition process for acquiring metadata attached to the video file acquired by the file acquisition process;
A frame extraction process for extracting candidate frames that are specific frames for output from the moving image file based on the metadata acquired by the data acquisition process;
The moving picture processing apparatus characterized by performing.
JP2014073005A 2014-03-31 2014-03-31 Moving image processing program, moving image processing method, and moving image processing apparatus Pending JP2015195524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014073005A JP2015195524A (en) 2014-03-31 2014-03-31 Moving image processing program, moving image processing method, and moving image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014073005A JP2015195524A (en) 2014-03-31 2014-03-31 Moving image processing program, moving image processing method, and moving image processing apparatus

Publications (1)

Publication Number Publication Date
JP2015195524A true JP2015195524A (en) 2015-11-05

Family

ID=54434202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014073005A Pending JP2015195524A (en) 2014-03-31 2014-03-31 Moving image processing program, moving image processing method, and moving image processing apparatus

Country Status (1)

Country Link
JP (1) JP2015195524A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020092392A (en) * 2018-12-07 2020-06-11 大日本印刷株式会社 Image providing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020092392A (en) * 2018-12-07 2020-06-11 大日本印刷株式会社 Image providing system

Similar Documents

Publication Publication Date Title
JP6683387B2 (en) Resource sharing method, terminal, and storage medium
US9727215B2 (en) Method for performing multimedia management utilizing tags, and associated apparatus and associated computer program product
KR102071579B1 (en) Method for providing services using screen mirroring and apparatus thereof
US20180268870A1 (en) Video recording method and apparatus for mobile terminal
EP3093755B1 (en) Mobile terminal and control method thereof
US20140380375A1 (en) Page turning method, page turning apparatus and terminal as well as computer readable medium
CN108924622B (en) Video processing method and device, storage medium and electronic device
JP6176991B2 (en) Information processing apparatus, control method thereof, and program
US10922479B2 (en) Method and electronic device for creating an electronic signature
KR20110099473A (en) Method and apparatus for sharing contents
CN107318038B (en) Method for synchronizing video playing and comment, terminal equipment and storage medium
JP2015198387A (en) Moving image processing program, moving image processing method, and moving image processing device
KR101776674B1 (en) Apparatus for editing video and the operation method
JP6569876B2 (en) Content generation method and apparatus
JP2015195524A (en) Moving image processing program, moving image processing method, and moving image processing apparatus
EP2869271A1 (en) Method for composing image and mobile terminal programmed to perform the method
KR20140136587A (en) Sound storage service system and method
US20160104507A1 (en) Method and Apparatus for Capturing Still Images and Truncated Video Clips from Recorded Video
JP6590433B2 (en) Video playback management method, system and program
CN112100998A (en) Content display method, device, terminal and storage medium
JP2015082694A (en) Information processor, content creation apparatus and program
US11463602B2 (en) Image processing method, image processing apparatus, and storage medium that extract first information and second information from acquired image data and that process the first information on the basis of the second
JP6877105B2 (en) Image processing equipment, control methods, and programs
WO2015159498A1 (en) Method and apparatus for displaying additional objects on a graphical user interface based on pinch gesture
JP6368003B2 (en) Information processing apparatus and program