JP2006340108A - Image processing unit, image processing method, program, and storage medium - Google Patents

Image processing unit, image processing method, program, and storage medium Download PDF

Info

Publication number
JP2006340108A
JP2006340108A JP2005163189A JP2005163189A JP2006340108A JP 2006340108 A JP2006340108 A JP 2006340108A JP 2005163189 A JP2005163189 A JP 2005163189A JP 2005163189 A JP2005163189 A JP 2005163189A JP 2006340108 A JP2006340108 A JP 2006340108A
Authority
JP
Japan
Prior art keywords
image
metadata
input
divided
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005163189A
Other languages
Japanese (ja)
Inventor
Hideya Tanaka
秀哉 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005163189A priority Critical patent/JP2006340108A/en
Publication of JP2006340108A publication Critical patent/JP2006340108A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit capable of facilitating extraction of a partial image for creating a digest image to improve an edit property. <P>SOLUTION: A video camera 100 comprises: a camera section 101 for obtaining a dynamic image of an object as image data; a storage medium 105 for recording the image data as a dynamic image file, and a performance information input section 106 for obtaining a record value indicating performance information regarding a predetermined performance for evaluating the object. Every time the record value is updated, chapter information is written as image separating information in a management file for writing management information for managing the dynamic image file during recording in the storage medium 105 in order to partition the dynamic image during recording. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、プログラム、及び記憶媒体に関し、特に、画像に関連した情報を用いて複数の画像の中から所望の画像を検索可能な画像処理装置、画像処理方法、プログラム、及び記憶媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a storage medium, and in particular, an image processing apparatus, an image processing method, and an image processing apparatus capable of searching for a desired image from a plurality of images using information related to the image. The present invention relates to a program and a storage medium.

現在、動画像に対応する映像データ(以下、「映像ストリーム」という)を転送しながらリアルタイムに動画像を再生するストリーム再生(in-stream playback)を行うことによりディジタル放送などが可能である。ディジタル放送では、映像ストリームと共に、当該映像ストリーム中の事象(イベント)を定義する事象定義情報や映像ストリームの構造を定義する構造情報などから成るメタデータがインデックス情報として配信される。   Currently, digital broadcasting or the like is possible by performing stream reproduction (in-stream playback) for reproducing a moving image in real time while transferring video data corresponding to the moving image (hereinafter referred to as “video stream”). In digital broadcasting, metadata including event definition information that defines an event in the video stream, structure information that defines the structure of the video stream, and the like is distributed as index information together with the video stream.

上記ディジタル放送によって配信される映像ストリームからダイジェスト映像を作成するダイジェスト装置が提案されている(例えば、特許文献1参照)。このダイジェスト装置は、映像情報中のインデックスに基づいて対応する数値を所定のパラメータに設定し、インデックス及び数値に基づいて、映像情報の内容を数値の変化で表現した数値映像情報を生成するように構成されている。これにより、生成された数値映像情報の数値の変化に基づいて、映像ストリーム中の事象の中から重要な事象がどれであるかを判定することが可能となり、人手を介することなく、映像情報から容易にダイジェスト映像を作成することが可能となる。   A digest apparatus that creates a digest video from a video stream distributed by the digital broadcasting has been proposed (see, for example, Patent Document 1). The digest device sets a corresponding numerical value as a predetermined parameter based on an index in the video information, and generates numerical video information expressing the content of the video information by a change in the numerical value based on the index and the numerical value. It is configured. As a result, it is possible to determine which of the events in the video stream is an important event based on the change in the numerical value of the generated numerical video information, and from the video information without human intervention. A digest video can be easily created.

また、このダイジェスト装置では、パラメータの種類、ユーザの好みのイベントとそのイベントに付与する値、作成するダイジェスト映像の総時間、及び数値映像情報の数値に対してダイジェスト映像として利用する映像を切り出すための基準となるピーク点を指定することが可能であり、利用者の嗜好を反映させたダイジェスト映像を作成することができる。
特開2000−261754号公報(段落[0031]及び[0109]〜[0112]、図1)
Also, in this digest apparatus, in order to cut out the video to be used as the digest video for the parameter type, the user's favorite event and the value assigned to the event, the total time of the digest video to be created, and the numerical value of the numerical video information It is possible to designate a peak point serving as a reference for the above, and it is possible to create a digest video reflecting the user's preference.
JP 2000-261754 A (paragraphs [0031] and [0109] to [0112], FIG. 1)

しかしながら、上記ダイジェスト装置において、類似した場面が繰り返される内容の映像(以下、「連続映像」という)からダイジェスト映像を作成する場合、連続映像では上記数値映像情報の数値の変化が小さい。例えば、単一のコースを周回しているレーシングカーの車載カメラで撮影した連続映像や単一の会場において単一の場所で撮影したスキージャンプ競技の連続映像には周回毎又は競技者毎の映像上の違いが少ない。このため、映像上の違いに基づいて、映像ストリームに付加して配信すべきメタデータを作成するのが困難である。その結果、連続映像の中からダイジェスト映像として利用する所望の部分映像をメタデータに基づいて検索(抽出)して、ダイジェスト映像を作成するのが困難である。   However, in the digest device, when a digest video is created from a video of content in which similar scenes are repeated (hereinafter referred to as “continuous video”), a change in the numerical value of the numerical video information is small in the continuous video. For example, a continuous video shot by a car mounted on a racing car traveling around a single course, or a continuous video of a ski jumping event shot at a single location in a single venue, video for each lap or competitor There is little difference above. For this reason, it is difficult to create metadata to be added to the video stream and distributed based on the difference in the video. As a result, it is difficult to create a digest video by searching (extracting) a desired partial video to be used as a digest video from the continuous video based on the metadata.

本発明の目的は、ダイジェスト映像を作成するための部分映像の抽出を容易にして編集性を向上させることができる画像処理装置、画像処理方法、プログラム、及び記憶媒体を提供することにある。   An object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a storage medium, which can easily extract a partial video for creating a digest video and improve editability.

上記目的を達成するために、本発明の画像処理装置は、画像に関連した情報を用いて複数の画像の中から所望の画像を検索可能な画像処理装置において、画像を所定の記憶メディアに入力する画像入力手段と、画像に関連する所定の関連情報を入力する関連情報入力手段と、前記関連情報入力手段による前記関連情報の入力に同期して前記入力中の画像を分割画像として分割する画像分割手段と、前記分割画像に前記入力された関連情報を関連付けるためのメタデータを作成するメタデータ作成手段とを備えることを特徴とする。   In order to achieve the above object, an image processing apparatus of the present invention inputs an image to a predetermined storage medium in an image processing apparatus capable of searching for a desired image from a plurality of images using information related to the image. An image input unit that performs input of predetermined related information related to the image, and an image that divides the image being input as a divided image in synchronization with the input of the related information by the related information input unit The image forming apparatus includes: a dividing unit; and a metadata creating unit that creates metadata for associating the input related information with the divided image.

上記目的を達成するために、本発明の画像処理方法は、画像に関連した情報を用いて複数の画像の中から所望の画像を検索するための画像処理方法において、画像を所定の記憶メディアに入力する画像入力ステップと、画像に関連する所定の関連情報を入力する関連情報入力ステップと、前記関連情報入力ステップにおける前記関連情報の入力に同期して前記入力中の画像を分割画像として分割する画像分割ステップと、前記分割画像に前記入力された関連情報を関連付けるためのメタデータを作成するメタデータ作成ステップとを有することを特徴とする。   In order to achieve the above object, an image processing method according to the present invention is an image processing method for searching for a desired image from a plurality of images using information related to the image. An image input step for inputting, a related information input step for inputting predetermined related information related to the image, and the image being input is divided into divided images in synchronization with the input of the related information in the related information input step. An image dividing step, and a metadata creating step for creating metadata for associating the input related information with the divided image.

上記目的を達成するために、本発明のプログラムは、画像に関連した情報を用いて複数の画像の中から所望の画像を検索するための画像処理方法をコンピュータに実行させるプログラムにおいて、画像を所定の記憶メディアに入力する画像入力モジュールと、画像に関連する所定の関連情報を入力する関連情報入力モジュールと、前記関連情報入力モジュールによる前記関連情報の入力に同期して前記入力中の画像を分割画像として分割する画像分割モジュールと、前記分割画像に前記入力された関連情報を関連付けるためのメタデータを作成するメタデータ作成モジュールとを備えることを特徴とする。   In order to achieve the above object, a program according to the present invention is a program that causes a computer to execute an image processing method for retrieving a desired image from a plurality of images using information related to the image. An image input module for inputting to a storage medium, a related information input module for inputting predetermined related information related to an image, and an image being input being divided in synchronization with the input of the related information by the related information input module An image dividing module that divides the image as an image, and a metadata creation module that creates metadata for associating the input related information with the divided image.

上記目的を達成するために、本発明の記憶媒体は、上記プログラムを格納することを特徴とする。   In order to achieve the above object, a storage medium of the present invention stores the above program.

本発明によれば、画像に関連する所定の関連情報の入力に同期して入力中の画像を分割画像として分割し、メタデータを作成することにより分割画像と関連情報とを一対一に関連付けるので、メタデータを用いた関連情報による分割画像の検索や抽出を容易にしてダイジェスト映像を作成する際の編集性を向上させることができる。   According to the present invention, the input image is divided as a divided image in synchronization with the input of predetermined related information related to the image, and the divided image and the related information are associated one-to-one by creating metadata. In addition, it is possible to easily search and extract divided images based on related information using metadata, thereby improving editability when creating a digest video.

また、関連情報に基づいた所定の並び替え条件に従って並び替える変更を行った再生順序で分割画像を配列させたプレイリストを作成することにより、分割画像の再生順序をユーザが所望する再生順序に一致させることができ、ダイジェスト映像の作成を簡略化することができる。   Also, by creating a playlist in which the divided images are arranged in the reproduction order in which the rearrangement is performed according to the predetermined rearrangement condition based on the related information, the reproduction order of the divided images matches the reproduction order desired by the user. It is possible to simplify the creation of a digest video.

さらに、分割画像に隣接する隣接分割画像における当該分割画像の再生時間に連続する所定時間に対応する部分画像をのりしろ画像として当該分割画像に付加することにより、分割画像の再生時間を長時間化させることができ、分割画像の編集性を向上させることができる。   Furthermore, by adding a partial image corresponding to a predetermined time continuous to the reproduction time of the divided image in the adjacent divided image adjacent to the divided image to the divided image as a marginal image, the reproduction time of the divided image is lengthened. And the editability of the divided images can be improved.

さらには、上記メタデータに、上記のりしろ画像の付加を禁止するための禁止情報を書き込み可能に構成することにより、のりしろ画像の付加及びその禁止を容易に設定することができ、分割画像の編集性をより向上させることができる。   Further, by configuring the metadata so that the prohibition information for prohibiting the addition of the marginal image can be written, the addition of the marginal image and the prohibition thereof can be easily set. Can be further improved.

以下、本発明の実施の形態を図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。   FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus according to an embodiment of the present invention.

本実施の形態に係る画像処理装置としてのビデオカメラ100は、被写体の動画像を撮影する撮影機能と、撮影した動画像を他の機器、例えばビデオテープレコーダに入力する入力機能とを有する。   A video camera 100 as an image processing apparatus according to the present embodiment has a shooting function for shooting a moving image of a subject and an input function for inputting the shot moving image to another device such as a video tape recorder.

図1において、ビデオカメラ100は、被写体の動画像を映像データとして取得するカメラ部101と、カメラ部101から入力された信号に所定の信号処理を施して規格化された映像信号に変換する信号処理部102と、信号処理部102から入力された映像信号をビデオテープレコーダなどに記録するのに適した信号(以下、「映像データ」という)へ変換し符号化処理及び復号処理を施す画像処理部103と、メモリカードやディスク媒体などのランダムアクセス可能な記憶メディア105と、記憶メディア105に対する映像データや所定のデータの書き込み及び読み出しを行うためのメディアインタフェース(メディアI/F)104と、被写体を評価するための所定の成績に関する成績情報を示す記録値を無線通信又は有線通信により取得する成績情報入力部106と、ビデオカメラ100全体を総合的に制御するマイクロコンピュータ(以下、「マイコン」という)107と、画像処理部103から入力された映像データを構成する画像信号及び音声信号を外部へ出力する出力部111とを備える。   In FIG. 1, a video camera 100 includes a camera unit 101 that acquires a moving image of a subject as video data, and a signal that performs predetermined signal processing on a signal input from the camera unit 101 and converts the signal into a standardized video signal. A processing unit 102 and an image process for converting the video signal input from the signal processing unit 102 into a signal suitable for recording on a video tape recorder (hereinafter referred to as “video data”) and performing encoding processing and decoding processing Unit 103, a randomly accessible storage medium 105 such as a memory card or a disk medium, a media interface (media I / F) 104 for writing and reading video data and predetermined data to and from the storage medium 105, a subject Wireless communication or wired communication with recorded values indicating the grade information related to predetermined grades The obtained result information input unit 106, a microcomputer (hereinafter referred to as “microcomputer”) 107 that comprehensively controls the entire video camera 100, and image signals and audio that constitute video data input from the image processing unit 103 And an output unit 111 that outputs a signal to the outside.

上記カメラ部101及び信号処理部102は、ビデオカメラ100の撮影機能を実現する。また、記憶メディア105は、メディアI/F104を介して入力された映像データを1つ又は複数の動画ファイルとして記録する。   The camera unit 101 and the signal processing unit 102 realize the shooting function of the video camera 100. The storage medium 105 records the video data input via the media I / F 104 as one or a plurality of moving image files.

マイコン107は、上記映像データに関連する複数の関連情報を含むメタデータを記憶メディア105への格納に適するように作成すると共に、記憶メディア105に対するメタデータの書き込み及び読み出しを行うメタデータ処理部108と、複数の映像データを所定の再生順序で配列させたプレイリストを作成するプレイリスト作成部109と、複数の映像データに対して所定の削除順序を設定するための削除リストを作成する削除リスト作成部110とを備える。また、メタデータ処理部108は、作成されるメタデータに、成績情報入力部106から入力された記録値を書き込むように構成されている。   The microcomputer 107 creates metadata including a plurality of related information related to the video data so as to be suitable for storage in the storage medium 105, and writes and reads metadata to and from the storage medium 105. A playlist creating unit 109 that creates a playlist in which a plurality of video data is arranged in a predetermined reproduction order, and a deletion list that creates a deletion list for setting a predetermined deletion order for the plurality of video data And a creation unit 110. Further, the metadata processing unit 108 is configured to write the recording value input from the grade information input unit 106 to the created metadata.

図2は、図1のビデオカメラ100の動画像記録中においてマイコン107によって実行されるメタデータ作成処理のフローチャートである。   FIG. 2 is a flowchart of metadata creation processing executed by the microcomputer 107 during moving image recording of the video camera 100 of FIG.

図2において、まず、マイコン107は、成績情報入力部106がメタデータ処理部108に記録値を入力するのを待機し、成績情報入力部106から入力された記録値が更新すべきものであると判別したときは(ステップS201でYES)、記憶メディア105が記録中の動画ファイルを管理するための管理情報を書き込むための管理ファイルにチャプタ情報を画像区切り情報として書き込む(ステップS202)。このとき、メタデータ処理部108は、チャプタ情報によって分割された動画ファイルに関連する関連情報として、更新前の記録値などを含むメタデータを作成する(ステップS203)。メタデータは、チャプタ情報によって分割された画像とメタデータに含まれた情報とを一対一に関連付けるものであり、対応する分割された画像の再生開始ポイント及び再生終了ポイントを決定可能にする。続くステップS204では、マイコン107は、メタデータ処理部108が作成したメタデータを記憶メディア105に送信してメタデータファイルとして保存し、本処理を終了する。   In FIG. 2, first, the microcomputer 107 waits for the grade information input unit 106 to input a recorded value to the metadata processing unit 108, and the recorded value input from the grade information input unit 106 should be updated. When it is determined (YES in step S201), the chapter information is written as image delimiter information in the management file for writing management information for managing the moving image file being recorded by the storage medium 105 (step S202). At this time, the metadata processing unit 108 creates metadata including a recording value before update as related information related to the moving image file divided by the chapter information (step S203). The metadata associates the image divided by the chapter information with the information included in the metadata on a one-to-one basis, and makes it possible to determine the reproduction start point and the reproduction end point of the corresponding divided image. In subsequent step S204, the microcomputer 107 transmits the metadata created by the metadata processing unit 108 to the storage medium 105, stores it as a metadata file, and ends this processing.

図2の処理によれば、客観的に測定される記録値が更新される度に、動画ファイルの管理ファイルにチャプタ情報が書き込まれる(ステップS202)ので、記録中の動画像を容易に分割することが可能となり、後述するプレイリストやダイジェスト映像を作成する際の編集性を向上させることができる。   According to the process of FIG. 2, chapter information is written in the management file of the moving image file every time the recorded value measured objectively is updated (step S202), so that the moving image being recorded is easily divided. This makes it possible to improve editability when creating a playlist or digest video, which will be described later.

また、チャプタ情報が書き込まれる度にメタデータが作成・保存される(ステップS203,S204)ので、記録値が更新される前後において映像上の違いが小さい場合であっても、客観的に測定される記録値に基づいて、対応する部分映像の再生開始ポイント及び再生終了ポイントを決定可能なメタデータを作成することができ、チャプタ情報によって分割された画像とメタデータに含まれる情報とを一対一に関連付けることが可能となり、後述するプレイリストやダイジェスト映像を作成する際の編集性をより向上させることができる。   Further, every time chapter information is written, metadata is created and saved (steps S203 and S204), so even if the difference in video before and after the recorded value is updated is measured objectively. Based on the recorded value, metadata that can determine the playback start point and playback end point of the corresponding partial video can be created, and the image divided by the chapter information and the information included in the metadata are one-to-one. Can be associated with each other, and editability when creating a playlist or digest video, which will be described later, can be further improved.

以下、本実施の形態に係る画像処理装置の第1の実施例を説明する。   A first example of the image processing apparatus according to this embodiment will be described below.

本実施例に係る画像処理装置は、サーキット場において単一のコースを周回しているレーシングカーの車載カメラである。   The image processing apparatus according to the present embodiment is an in-vehicle camera of a racing car that goes around a single course in a circuit field.

図3(a)は、サーキット場の構成を概略的に示す図であり、図3(b)は、図3(a)のサーキット場において周回するレーシングカーの車載カメラの撮影処理に関連するタイミングチャートである。   FIG. 3A is a diagram schematically showing the configuration of the circuit field, and FIG. 3B is a timing related to the photographing process of the in-vehicle camera of the racing car that circulates in the circuit field of FIG. 3A. It is a chart.

図3(a)において、サーキット場には、移動体としてのレーシングカーが周回自在なコース路面31が設けられている。コース路面31上には、レーシングカーの周回の基準となる始点・終点を示すコントロールライン35が描かれており、また、コントロールライン35の地下には、磁石36が埋設されている。コース路面31上では、例えば2台のレーシングカー30,75が周回している。   In FIG. 3A, a course road surface 31 on which a racing car as a moving body can freely turn is provided in the circuit field. On the course road surface 31, a control line 35 indicating a starting point and an ending point serving as a reference for the circulation of the racing car is drawn, and a magnet 36 is embedded in the basement of the control line 35. On the course road surface 31, for example, two racing cars 30 and 75 go around.

レーシングカー30は、磁石36からの磁気を感知するための磁気センサ32と、磁気センサ32からの磁気感知信号に同期してラップタイムを計測するストップウォッチ33と、ストップウォッチ33に接続された車載カメラとしてのビデオカメラ34とを備える。ストップウォッチ33に接続されたビデオカメラ34は、図1のビデオカメラ100と同様に構成されており、ストップウォッチ33が上記成績情報入力部106として機能する。   The racing car 30 includes a magnetic sensor 32 for sensing magnetism from the magnet 36, a stopwatch 33 for measuring a lap time in synchronization with a magnetic sensing signal from the magnetic sensor 32, and an in-vehicle camera connected to the stopwatch 33. As a video camera 34. The video camera 34 connected to the stopwatch 33 is configured in the same manner as the video camera 100 of FIG. 1, and the stopwatch 33 functions as the result information input unit 106.

レーシングカー75は、レーシングカー30と同様に構成されており、磁気センサ72と、ストップウォッチ73と、ストップウォッチ33に接続された車載カメラとしてのビデオカメラ74とを備える。   The racing car 75 is configured in the same manner as the racing car 30, and includes a magnetic sensor 72, a stopwatch 73, and a video camera 74 as an in-vehicle camera connected to the stopwatch 33.

図3(b)のタイミングチャートに示すように、ビデオカメラ74を用いて動画像の記録(録画)を開始させると、まず、メディアI/F104は、I/F処理として、カメラ部101からの動画像を映像データとして記憶メディア105に記録すべく、ファイル名が「01.mpg」の動画ファイルを作成し、撮影処理としては動画像の撮影が開始される。   As shown in the timing chart of FIG. 3B, when recording (recording) of a moving image is started using the video camera 74, first, the media I / F 104 performs an I / F process from the camera unit 101. In order to record a moving image as video data in the storage medium 105, a moving image file having a file name “01.mpg” is created, and moving image shooting is started as shooting processing.

周回コース路面31へ進入したレーシングカー75は、コントロールライン35上を通過する。レーシングカー75がコントロールライン35上を通過するという事象(イベント)が発生している間において、例えば時刻T1のタイミングでは、磁気センサ72が磁石36の磁気を感知して、ストップウォッチ73は、1周目のラップタイムの計測を開始する。また、メディアI/F104は、分割処理として、動画ファイルの管理ファイルに1周目の画像区切り情報を示すチャプタ情報を書き込む。   The racing car 75 that has entered the round course road surface 31 passes on the control line 35. While the event that the racing car 75 passes on the control line 35 is occurring, for example, at the timing of time T1, the magnetic sensor 72 senses the magnetism of the magnet 36, and the stopwatch 73 is 1 Start measuring the lap time of the lap. In addition, the media I / F 104 writes chapter information indicating image separation information for the first round in the management file of the moving image file as the division process.

その後、レーシングカー75は、引き続き周回コース路面31上を周回し、時刻T2のタイミングでコントロールライン35上を再度通過する。この時刻T2のタイミングでは、磁気センサ72が磁石36の磁気を感知して、ストップウォッチ73は、1周目のラップタイムの計測を終了すると共に、2周目のラップタイムの計測を開始する。計測された1周目のラップタイムは、マイコン107へ記録値として入力される。   Thereafter, the racing car 75 continues to circulate on the circuit course surface 31 and passes again on the control line 35 at the timing of time T2. At the timing of time T2, the magnetic sensor 72 senses the magnetism of the magnet 36, and the stopwatch 73 ends measuring the lap time for the first round and starts measuring the lap time for the second round. The measured first lap lap time is input to the microcomputer 107 as a recorded value.

また、時刻T2のタイミングでは、メディアI/F104は、分割処理として、上記動画ファイルの管理ファイルに2周目の画像区切り情報を示すチャプタ情報を書き込む。これにより、動画ファイルにおいて1周目の映像Aの映像データ310aが特定可能になる。   Further, at the timing of time T2, the media I / F 104 writes the chapter information indicating the image separation information for the second round in the management file of the moving image file as the division process. As a result, the video data 310a of the first video A can be specified in the moving image file.

さらに、図3(b)における時刻T2以降のタイミングにおいて、マイコン107内のメタデータ処理部108は、映像Aの映像データ310aに関連付けられた図4(a)に示すメタデータ400aを作成し、動画ファイルと共に記憶メディア105に保存する。   Further, at a timing after time T2 in FIG. 3B, the metadata processing unit 108 in the microcomputer 107 creates the metadata 400a shown in FIG. 4A associated with the video data 310a of the video A, It is stored in the storage medium 105 together with the moving image file.

図4(a)に示すように、メタデータ400aには、映像データ310aを格納する動画ファイルと同一のファイル名が付与される。また、メタデータ400aには、ファイル名、計測されたラップタイムとしての記録値、記録値の種類を示す記録種類、記録値が図3(b)に示す時刻Tにおいて単発的で時間的に非連続的なものであるのか又は時間的に連続的なものであるのかをそれぞれ「OFF」又は「ON」で示す記録連続性、記録値の発生者としてのレーシングカー75に関する情報「75」を示す記録発生者、並びに動画ファイルに対する動画像の入力位置を示す情報として開始位置及び終了位置を記録する。   As shown in FIG. 4A, the same file name as the moving image file storing the video data 310a is given to the metadata 400a. In the metadata 400a, the file name, the recorded value as the measured lap time, the recording type indicating the type of the recorded value, and the recorded value are discontinuous at a time T shown in FIG. 3B. Recording continuity indicating whether it is normal or continuous in time by “OFF” or “ON”, and recording indicating information “75” regarding the racing car 75 as a generator of the recording value The start position and the end position are recorded as information indicating the generation position and the input position of the moving image with respect to the moving image file.

メタデータ400aに関して、記録連続性には、ユーザが予め選択した「ON」又は「OFF」が設定されており、また、記録発生者には、ユーザが予め登録したものが設定されている。なお、記録連続性は、ビデオカメラ74にストップウォッチ73が成績情報入力部106として接続されている場合には、自動的に「ON」が設定されるように構成されていてもよい。   Regarding the metadata 400a, “ON” or “OFF” selected in advance by the user is set in the recording continuity, and what is registered in advance by the user is set in the recording generator. Note that the recording continuity may be configured such that “ON” is automatically set when the stopwatch 73 is connected to the video camera 74 as the grade information input unit 106.

その後は、レーシングカー75の周回に合わせて、録画終了まで、例えば時刻T3,T4のタイミングで、上述した処理と同様の処理が行われる。その結果、動画ファイルには、2周目の映像Bの映像データ310b及び3周目の映像Cの映像データ310cが記録され、記憶メディア105には、動画ファイルと共に、映像Bの映像データ310bに関連付けられた図4(b)に示すメタデータ400b、及び映像Cの映像データ310cに関連付けられた図4(c)に示すメタデータ400cが保存される。   Thereafter, the same processing as described above is performed at the times T3 and T4, for example, at the timing of time T3 and T4 until the end of recording in accordance with the circulation of the racing car 75. As a result, the video data 310b of the video B for the second round and the video data 310c of the video C for the third round are recorded in the video file, and the video data 310b of the video B is recorded on the storage medium 105 together with the video file. The metadata 400b shown in FIG. 4B and the metadata 400c shown in FIG. 4C related to the video data 310c of the video C are stored.

また、ビデオカメラ34でも同様に、レーシングカー30の周回に合わせて、録画開始から録画終了までの時間において、時刻T1,T2,T3,T4のタイミングで、上述した処理と同様の処理が行われる。その結果、ファイル名が「01.mpg」の動画ファイルには、1周目の映像Dの映像データ310d、2周目の映像Eの映像データ310e、及び3周目の映像Fの映像データ310fが記録され、記憶メディア105には、動画ファイルと共に、映像Dの映像データ310dに関連付けられた図4(d)に示すメタデータ400d、映像Eの映像データ310eに関連付けられた図4(e)に示すメタデータ400e、及び映像Fの映像データ310fに関連付けられた図4(f)に示すメタデータ400fが保存される。メタデータ400d〜400fの記録発生者には、例えばレーシングカー30に関する情報「30」が設定されている。   Similarly, in the video camera 34, the same processing as described above is performed at the times T1, T2, T3, and T4 in the time from the start of recording to the end of recording in accordance with the lap of the racing car 30. . As a result, the moving image file with the file name “01.mpg” contains the video data 310d of the first round of video D, the video data 310e of the video E of the second round, and the video data 310f of the video F of the third round. 4D is recorded in the storage medium 105 together with the moving image file, the metadata 400d shown in FIG. 4D associated with the video data 310d of the video D, and the video data 310e of the video E shown in FIG. 4e and the metadata 400f shown in FIG. 4 (f) associated with the video data 310f of the video F are stored. For example, information “30” related to the racing car 30 is set in the record generator of the metadata 400d to 400f.

図5は、図1におけるプレイリスト作成部109によって実行されるプレイリスト作成処理のフローチャートである。   FIG. 5 is a flowchart of the playlist creation process executed by the playlist creation unit 109 in FIG.

本処理は、動画ファイルの映像A〜Cに対応する映像データ310a〜310cを所定の順序で配列したファイル(以下、「プレイリスト」という)を作成するための処理である。   This process is a process for creating a file (hereinafter referred to as “playlist”) in which video data 310a to 310c corresponding to videos A to C of a moving image file are arranged in a predetermined order.

図5において、まず、ステップS1001では、図4(a)〜(c)のメタデータ400a〜400cを読み込み、記録連続性が「ON」であるか否かを判別し(ステップS1002)、記録連続性が「ON」であるときは、各映像データ310a〜310cに対して予め設定されている所定ののりしろ時間を読み込む(ステップS1003)。なお、のりしろ時間は、各映像データ310a〜310cの再生時間の前後に付加される時間であり、各映像データの再生時間の前後に連続する映像データの所定の再生時間に該当する。   5, first, in step S1001, the metadata 400a to 400c shown in FIGS. 4A to 4C are read to determine whether or not the recording continuity is “ON” (step S1002). When the property is “ON”, a predetermined margin time set in advance for each of the video data 310a to 310c is read (step S1003). The extra time is a time added before and after the reproduction time of each video data 310a to 310c, and corresponds to a predetermined reproduction time of video data continuous before and after the reproduction time of each video data.

続くステップS1004では、図3(b)に示すように、映像Aには上記のりしろ時間に対応するのりしろ画像320a,320a’が付加されて、映像データ300aが作成される。同様に、映像Bにはのりしろ画像320b,320b’が付加されて、映像データ300bが作成され、映像Cにはのりしろ画像320c,320c’が付加されて、映像データ300cが作成される。したがって、映像Aに対応する映像データ300aは、1周目の映像Aよりものりしろ画像320aに設定されたのりしろ時間の分だけさかのぼった再生開始が可能となると共に、映像Aよりものりしろ画像320a’に設定されたのりしろ時間の分だけ遅れた再生終了が可能となり、映像データ310aよりも映像Aの再生時間を拡大させることができる。同様に、映像Bに対応する映像データ300bや映像Cに対応する映像データ300cも、映像データ310bや映像データ310cよりも再生時間が拡大される。なお、のりしろ画像を付加したときは、対応するメタデータの開始位置及び終了位置の値を変更するか、又は対応する新規のメタデータを作成することが好ましい。   In the subsequent step S1004, as shown in FIG. 3B, the marginal images 320a and 320a 'corresponding to the marginal time are added to the video A to create video data 300a. Similarly, marginal images 320b and 320b 'are added to video B to create video data 300b, and marginal images 320c and 320c' are added to video C to create video data 300c. Accordingly, the video data 300a corresponding to the video A can be started to be played back by the extra time set in the marginal image 320a from the video A in the first round, and the marginal image 320a ′ from the video A can be started. Thus, it is possible to end the reproduction delayed by the extra time set in (2), and the reproduction time of the video A can be extended more than the video data 310a. Similarly, the video data 300b corresponding to the video B and the video data 300c corresponding to the video C also have a longer playback time than the video data 310b and the video data 310c. When a marginal image is added, it is preferable to change the values of the start position and end position of the corresponding metadata or create corresponding new metadata.

続くステップS1005では、のりしろ画像320a〜320c’が付加されている映像データ300a〜300cを所定の順序、例えば撮影された時刻が早い順(メタデータの開始時刻が早い順)で配列したファイル(以下、「プレイリスト」という)が作成される。このプレイリストは、自動的に、又はユーザの所定の操作により出力部111を介して再生される。   In the subsequent step S1005, a file in which the video data 300a to 300c to which the marginal images 320a to 320c ′ are added is arranged in a predetermined order, for example, the order in which the photographing times are early (the order in which the metadata start time is early) , Called “playlist”). This playlist is reproduced via the output unit 111 automatically or by a predetermined operation of the user.

なお、ステップS1002の判別の結果、記録連続性が「OFF」であるときは、のりしろ画像320a〜320c’が付加されていない映像データ310a〜310cが撮影された時刻の順序で配列されたプレイリストが作成される。   As a result of the determination in step S1002, when the recording continuity is “OFF”, the playlist is arranged in the order of the times when the video data 310a to 310c to which the marginal images 320a to 320c ′ are not added are photographed. Is created.

図5の処理によれば、映像A〜Cの映像データ310a〜310cに、のりしろ画像320a〜320c’が付加される(ステップS1004)ので、作成されたプレイリストを再生したときに、映像A〜Cだけが順次再生されることをなくして、ユーザは、レーシングカー75がコントロールライン35上を通過している時間、完全に通過した後の時間などにおいてもレーシングカー75の様子を把握することができる。   According to the process of FIG. 5, since the marginal images 320a to 320c ′ are added to the video data 310a to 310c of the videos A to C (step S1004), when the created playlist is reproduced, the videos A to The user can grasp the state of the racing car 75 even during the time when the racing car 75 passes the control line 35, the time after the passing completely, etc. it can.

また、図4(d)〜(f)のメタデータ400d〜400fに対応する映像D〜Fの映像データ対しても図5の処理を実行することにより、のりしろ画像が付加された映像データが配列されたプレイリストをレーシングカー30について作成可能である。   Further, the video data to which the marginal image is added is arranged by executing the processing of FIG. 5 for the video data of the videos D to F corresponding to the metadata 400d to 400f of FIGS. It is possible to create a play list for the racing car 30.

図6は、図3(a)におけるビデオカメラ34及びビデオカメラ74で撮影された動画ファイルを第3のビデオカメラにコピーするときの状態を示す図である。   FIG. 6 is a diagram showing a state when the moving image file shot by the video camera 34 and the video camera 74 in FIG. 3A is copied to the third video camera.

図6における第3のビデオカメラ50は、図1のビデオカメラ100と同様に構成されており、ビデオカメラ50の記憶メディア105を備える。なお、ビデオカメラ50は、図1におけるカメラ部101及び信号処理部102を備えていないもの、即ちビデオテープレコーダであってもよい。また、図6に示すように、ビデオカメラ50には、図3(a)におけるビデオカメラ34及びビデオカメラ74が接続されている。なお、ビデオカメラ50には、ビデオカメラ34及びビデオカメラ74の一方だけが接続されてもよい。   A third video camera 50 in FIG. 6 is configured in the same manner as the video camera 100 in FIG. 1 and includes a storage medium 105 of the video camera 50. The video camera 50 may be a video tape recorder that does not include the camera unit 101 and the signal processing unit 102 in FIG. Further, as shown in FIG. 6, the video camera 34 and the video camera 74 in FIG. 3A are connected to the video camera 50. Note that only one of the video camera 34 and the video camera 74 may be connected to the video camera 50.

図6において、ビデオカメラ50の記憶メディア105には、接続されたビデオカメラ74からコピー対象の動画ファイルが、その映像A〜Cの映像データ310a〜310cに対応するメタデータ400a〜400cと共に入力される。このとき、ビデオカメラ50のマイコン107のメタデータ処理部108は、入力された動画ファイルのファイル名及びメタデータのファイル名を所定の変更ルールにしたがって変更する。   In FIG. 6, a moving image file to be copied is input from the connected video camera 74 to the storage medium 105 of the video camera 50 together with metadata 400 a to 400 c corresponding to the video data 310 a to 310 c of the videos A to C. The At this time, the metadata processing unit 108 of the microcomputer 107 of the video camera 50 changes the file name of the input moving image file and the file name of the metadata according to a predetermined change rule.

具体的には、メタデータ400aが入力されてビデオカメラ50の記憶メディア105内に作成されたメタデータ400a’のファイル名を、当該入力されたメタデータの記録値発生者「75」とファイル名「01.mpg」とを組み合わせたファイル名「75_01.mpg」に変更する。なお、ビデオカメラ74から動画ファイルが入力されて記憶メディア105内に作成(コピー)された動画ファイルのファイル名もメタデータと同様に変更される。即ち、変更ルールは、入力されたメタデータ又は動画ファイルのファイル名の頭部に、当該入力されたメタデータの記録発生者を追加するものである。   Specifically, the file name of the metadata 400a ′ created in the storage medium 105 of the video camera 50 when the metadata 400a is input, the record value generator “75” of the input metadata, and the file name Change the file name to “75_01.mpg” combined with “01.mpg”. Note that the file name of the moving image file created (copied) in the storage medium 105 by inputting the moving image file from the video camera 74 is also changed in the same manner as the metadata. In other words, the change rule is to add the record generator of the input metadata to the head of the file name of the input metadata or moving image file.

また、ビデオカメラ50のメタデータ処理部108は、接続されたビデオカメラ34からメタデータ400dが入力されてビデオカメラ50の記憶メディア105内に作成されたメタデータ400d’のメタデータのファイル名を、当該入力されたメタデータの記録値発生者「30」とファイル名「01.mpg」とを組み合わせたファイル名「30_01.mpg」に変更する。なお、ビデオカメラ34から動画ファイルが入力されて記憶メディア105内に作成(コピー)された動画ファイルのファイル名もメタデータと同様に変更される。   In addition, the metadata processing unit 108 of the video camera 50 inputs the metadata 400d ′ metadata file name created in the storage medium 105 of the video camera 50 by inputting the metadata 400d from the connected video camera 34. The file name “30_01.mpg” is a combination of the record value generator “30” of the input metadata and the file name “01.mpg”. Note that the file name of the moving image file created (copied) in the storage medium 105 by inputting the moving image file from the video camera 34 is also changed in the same manner as the metadata.

図6を用いて説明したように、ビデオカメラ50は、入力されたメタデータのファイル名を所定の変更ルールに従って変更したメタデータを作成するので、複数のビデオカメラ34,74で作成された動画ファイルのファイル名が同一であっても、メタデータのファイル名及びコピーされた動画ファイルのファイル名の重複を防止することができる。その結果、ユーザは、コピーされた動画ファイルのファイル名を変更する必要がなくなり、ユーザの操作性を向上させることができる。   As described with reference to FIG. 6, the video camera 50 creates metadata in which the file name of the input metadata is changed according to a predetermined change rule, so that the video created by the plurality of video cameras 34 and 74 is created. Even if the file names are the same, it is possible to prevent duplication of the metadata file name and the copied movie file name. As a result, the user does not need to change the file name of the copied moving image file, and the user operability can be improved.

なお、上記図6を用いた説明では、ビデオカメラ50にビデオカメラ34,74で作成された動画ファイルをコピーしたが、ビデオカメラ34,74で作成されたプレイリストをコピーしてもよい。また、コピーされる映像データ310a〜310cは、のりしろ画像320a〜320c’が付加されている映像データ300a〜300cであってもよい。   In the description using FIG. 6 above, the moving image file created by the video cameras 34 and 74 is copied to the video camera 50. However, the playlist created by the video cameras 34 and 74 may be copied. The video data 310a to 310c to be copied may be video data 300a to 300c to which marginal images 320a to 320c 'are added.

また、ビデオカメラ50は、コピーした複数の動画ファイル、例えば上記ファイル名が「75_01.mpg」及び「30_01.mpg」の2つの動画ファイルに対して図5のプレイリスト作成処理を実行してもよい。この場合には、例えば、図7に示すように、ファイル名「75_01.mpg」の動画ファイルのメタデータ400aの開始位置が、ファイル名「30_01.mpg」の動画ファイルのメタデータ400dの開始位置よりも前なので、映像データ300a,300b,300cの再生順序のプレイリストの後に、映像データ300d,300e,300fの再生順序のプレイリストが結合されたプレイリストが作成される。このプレイリストを再生することにより、ユーザは、レーシングカー75の様子を把握した後に、レーシングカー30の様子を把握することができる。   The video camera 50 may also execute the playlist creation process of FIG. 5 for a plurality of copied moving image files, for example, two moving image files whose file names are “75_01.mpg” and “30_01.mpg”. Good. In this case, for example, as shown in FIG. 7, the start position of the metadata 400a of the moving image file with the file name “75_01.mpg” is the start position of the metadata 400d of the moving image file with the file name “30_01.mpg”. Therefore, a playlist in which the playlists in the playback order of the video data 300d, 300e, and 300f are combined with the playlists in the playback order of the video data 300a, 300b, and 300c is created. By reproducing this playlist, the user can grasp the state of the racing car 30 after grasping the state of the racing car 75.

図8は、図7に示したようなプレイリストにおける映像データの再生順序を変更するためのプレイリスト変更処理のフローチャートである。   FIG. 8 is a flowchart of playlist change processing for changing the reproduction order of video data in the playlist as shown in FIG.

本処理は、上記ビデオカメラ50によって作成された図7のプレイリストにおける映像データの配列を、記録値に基づいて、図9(a)乃至図9(c)に示すような配列のいずれか1つの配列に変更する処理である。なお、映像データとしては、のりしろ画像が付加されている映像データを例に挙げて説明する。   In this process, the arrangement of the video data in the playlist of FIG. 7 created by the video camera 50 is any one of the arrangements shown in FIGS. 9A to 9C based on the recorded values. It is a process to change to one array. The video data will be described by taking video data to which a marginal image is added as an example.

図8において、まず、ユーザが、並び替え条件としてメタデータの記録値の順序を指定して、プレイリストにおける映像データの配列を並び替えて映像データの再生順序を変更することを所望したときは(ステップS1101でYES)、ユーザによって指定された並び替え条件が、メタデータの記録値の小さい順であるか否かを判別し(ステップS1102)、並び替え条件が小さい順であったときは、プレイリストの全ての映像データに対応するメタデータの記録値を読み込み(ステップS1103)、メタデータの記録値が小さい順となるようにプレイリストにおける映像データの配列を並び替えた新規のプレイリストを作成して(ステップS1104)、本処理を終了する。   In FIG. 8, first, when the user desires to change the reproduction order of video data by specifying the order of recorded values of metadata as the sorting condition and rearranging the arrangement of video data in the playlist. (YES in step S1101), it is determined whether or not the reordering conditions specified by the user are in the ascending order of the recorded values of the metadata (step S1102), and when the reordering conditions are in ascending order, A metadata recorded value corresponding to all the video data in the playlist is read (step S1103), and a new playlist in which the video data array in the playlist is rearranged so that the metadata recorded values are in ascending order. After creating (step S1104), the process is terminated.

図9(a)は、上記ステップS1104で作成されたプレイリストを示す図である。図9(a)に示すプレイリストでは、メタデータの記録値が小さい順、即ちレーシングカー30,75のラップタイムが速い順に映像A〜Fに対応する映像データの配列が並び替えられている。   FIG. 9A shows the playlist created in step S1104. In the playlist shown in FIG. 9A, the arrangement of the video data corresponding to the videos A to F is rearranged in the order from the smallest recorded value of the metadata, that is, from the fastest lap time of the racing cars 30 and 75.

また、ユーザによって指定された並び替え条件が、メタデータの記録値の小さい順ではなく(ステップS1102でNO)、大きい順であったときは(ステップS1105でYES)、プレイリストの全ての映像に対応するメタデータの記録値を読み込み(ステップS1106)、メタデータの記録値が大きい順となるようにプレイリストにおける映像データの配列を並び替えた新規のプレイリストを作成して(ステップS1107)、本処理を終了する。   In addition, when the sorting condition specified by the user is not in ascending order of the recorded values of metadata (NO in step S1102) but in the descending order (YES in step S1105), all the videos in the playlist are included. The corresponding metadata recorded values are read (step S1106), a new playlist is created by rearranging the video data arrangement in the playlist so that the metadata recorded values are in descending order (step S1107). This process ends.

図9(b)は、上記ステップS1107で作成されたプレイリストを示す図である。図9(b)に示すプレイリストでは、メタデータの記録値が大きい順、即ちレーシングカー30,75のラップタイムが遅い順に映像A〜Fに対応する映像データの配列が並び替えられている。   FIG. 9B is a diagram showing the playlist created in step S1107. In the playlist shown in FIG. 9B, the arrangement of the video data corresponding to the videos A to F is rearranged in the descending order of the recorded values of the metadata, that is, the lap times of the racing cars 30 and 75 are late.

また、ユーザによって指定された並び替え条件が、メタデータの記録値の小さい順及び大きい順ではなく(ステップS1102且つステップS1105でNO)、所定の基準値(指定値)に近い順であり、映像A〜Fの配列を並び替えるために、ユーザが基準値を指定したときは(ステップS1108)、プレイリストの全ての映像に対応するメタデータの記録値を読み込み(ステップS1109)、メタデータの記録値が指定された基準値に近い順となるようにプレイリストにおける映像データの配列を並び替えた新規のプレイリストを作成して(ステップS1110)、本処理を終了する。   In addition, the sorting condition specified by the user is not in the order of increasing or decreasing the recorded value of metadata (NO in step S1102 and step S1105), but in the order close to a predetermined reference value (specified value), and video When the user designates a reference value for rearranging the arrays A to F (step S1108), metadata recorded values corresponding to all the videos in the playlist are read (step S1109), and the metadata recording is performed. A new playlist is created by rearranging the arrangement of the video data in the playlist so that the values are in the order close to the designated reference value (step S1110), and the process is terminated.

図9(c)は、上記ステップS1110で作成されたプレイリストを示す図である。図9(c)に示すプレイリストでは、メタデータの記録値が指定された基準値に近い順、即ちレーシングカー30,75のラップタイムが基準タイム、例えば「1分55秒」に近い順に映像A〜Fに対応する映像データの配列が並び替えられている。   FIG. 9C is a diagram showing the playlist created in step S1110. In the playlist shown in FIG. 9C, the video A is recorded in the order in which the recorded value of the metadata is close to the designated reference value, that is, the lap time of the racing cars 30, 75 is close to the reference time, for example, “1 minute 55 seconds”. The arrangement of the video data corresponding to .about.F is rearranged.

図8の処理によれば、客観的に測定されて書き込まれたメタデータにおける記録値に基づいてプレイリストにおける映像データの配列を並び替える(ステップS1104,S1107,S1110)ので、希望の順序で映像データの配列を並び替えたプレイリストを作成することができ、ユーザはプレイリストにおける映像の再生順序の編集を容易に行うことができる。具体的には、図5の処理によって作成されたプレイリストにおける映像データの配列(映像が撮影された時刻が早い順(メタデータの開始時刻が早い順)の配列を、ユーザが所望する再生順序、例えば客観的に測定される記録値の順と一致させることができる。   According to the process of FIG. 8, the arrangement of the video data in the playlist is rearranged based on the recorded values in the metadata measured and written objectively (steps S1104, S1107, S1110). A playlist in which the data arrangement is rearranged can be created, and the user can easily edit the playback order of videos in the playlist. Specifically, the reproduction order desired by the user is determined based on the arrangement of the video data in the playlist created by the processing of FIG. 5 (the order of the time when the video was taken (the order of the start time of the metadata is early)). For example, the order of recorded values measured objectively can be matched.

なお、図8の処理では、並び替え対象を、プレイリスト中の全ての動画ファイル(映像A〜F)としたが、メタデータの記録発生者を指定可能に構成することにより、指定された記録発生者に関連する動画ファイルに限定してもよい。これにより、指定された記録発生者、すなわち、特定のビデオカメラからコピーした動画ファイルだけで構成されたプレイリストを作成することができる。   In the processing of FIG. 8, the rearrangement targets are all the moving image files (videos A to F) in the playlist. However, the specified recording can be performed by configuring the metadata recording generator to be specified. You may limit to the moving image file relevant to a generating person. As a result, it is possible to create a playlist composed only of a designated recording generator, that is, a moving image file copied from a specific video camera.

また、上記ステップS1104,S1107,S1110では、新規のプレイリストを作成するとしたが、新規のプレイリストを作成することなく作成済みのプレイリストを書き替えてもよい。   In steps S1104, S1107, and S1110, a new playlist is created. However, the created playlist may be rewritten without creating a new playlist.

以下、本実施の形態に係る画像処理装置の第2の実施例を説明する。   A second example of the image processing apparatus according to this embodiment will be described below.

本実施例に係る画像処理装置は、単一の会場で開催されているスキージャンプ競技を単一の場所で撮影するビデオカメラである。   The image processing apparatus according to the present embodiment is a video camera that captures a ski jump competition held at a single venue at a single location.

図10(a)は、スキージャンプ競技を開催している会場の構成を概略的に示す図であり、図10(b)は、図10(a)の会場において開催されているスキージャンプ競技を撮影するビデオカメラの撮影処理に関連するタイミングチャートである。   FIG. 10A is a diagram schematically showing the configuration of the venue where the ski jump competition is held, and FIG. 10B shows the ski jump competition held in the venue of FIG. 10A. It is a timing chart relevant to the imaging | photography process of the video camera which image | photographs.

図10(a)に示す会場では、被写体としての複数の競技者43がスキージャンプ競技を順次行っている。会場には、競技者43の得点を表示するための得点表示板44と、得点表示板44に表示すべき情報を処理して得点表示板44に得点を表示させる表示情報サーバ45と、表示情報サーバ45に接続された無線LAN送信機46と、スキージャンプ競技を単一の場所で撮影するビデオカメラ48と、ビデオカメラ48に接続された無線LAN受信機47とが設置されている。無線LAN受信機47は、無線LAN送信機46と無線を介して接続されている。   In the venue shown in FIG. 10 (a), a plurality of athletes 43 as subjects sequentially perform ski jump competitions. In the venue, a score display board 44 for displaying the score of the player 43, a display information server 45 for processing information to be displayed on the score display board 44 and displaying the score on the score display board 44, and display information A wireless LAN transmitter 46 connected to the server 45, a video camera 48 that captures a ski jump competition at a single location, and a wireless LAN receiver 47 connected to the video camera 48 are installed. The wireless LAN receiver 47 is connected to the wireless LAN transmitter 46 via wireless.

図10(a)において、表示情報サーバ45は、得点表示板44に得点を表示させるタイミングに同期して、無線LAN送信機46及び無線LAN受信機47を介してビデオカメラ48に得点を配信する。従って、表示情報サーバ45、無線LAN送信機46、及び無線LAN受信機47は、図1における成績情報入力部106として機能することになり、これらに接続されたビデオカメラ48は、図1のビデオカメラ100と同様に構成される。   In FIG. 10A, the display information server 45 distributes the score to the video camera 48 via the wireless LAN transmitter 46 and the wireless LAN receiver 47 in synchronization with the timing for displaying the score on the score display board 44. . Accordingly, the display information server 45, the wireless LAN transmitter 46, and the wireless LAN receiver 47 function as the performance information input unit 106 in FIG. 1, and the video camera 48 connected to them displays the video in FIG. The configuration is the same as that of the camera 100.

図10(b)のタイミングチャートに示すように、時刻T0においてビデオカメラ48を用いて動画像の記録(録画)を開始させると、まず、メディアI/F104は、I/F処理として、カメラ部101からの動画像を記憶メディア105に記録すべく、ファイル名が「02.mpg」の動画ファイルを作成し、撮影処理としては動画像の撮影が開始される。   As shown in the timing chart of FIG. 10B, when recording (recording) of a moving image is started using the video camera 48 at time T0, first, the media I / F 104 performs a camera unit as I / F processing. In order to record the moving image from 101 in the storage medium 105, a moving image file having a file name “02.mpg” is created, and moving image shooting is started as shooting processing.

競技者43は時刻T0以降のタイミングでスキージャンプ競技を開始して着地し、着地した後には競技者43の記録値(ポイント)が計測され、ポイントに応じた得点が得点表示板44に配信されて表示される。また、この得点はビデオカメラ48にも記録値として配信される。競技者43が着地し得点表示板44及びビデオカメラ48に得点が配信されるという事象(イベント)が発生している間において、次の競技者43がスキージャンプ競技を開始する前の、例えば時刻T1のタイミングでは、メディアI/F104は、分割処理として、ファイル名が「02.mpg」の動画ファイルの管理ファイルに1周目の画像区切り情報を示すチャプタ情報を書き込む。これにより、動画ファイルにおいて1本目の映像αの映像データが特定可能になる。   The athlete 43 starts ski jumping at a timing after time T0 and lands, and after landing, the recorded value (point) of the athlete 43 is measured, and a score corresponding to the point is distributed to the score display board 44. Displayed. This score is also distributed to the video camera 48 as a recorded value. While the event that the player 43 has landed and the score is distributed to the score display board 44 and the video camera 48 is occurring, for example, the time before the next player 43 starts the ski jump competition, for example, time At the timing of T1, the media I / F 104 writes the chapter information indicating the image separation information of the first round in the management file of the moving image file whose file name is “02.mpg” as the division process. Thereby, the video data of the first video α can be specified in the moving image file.

さらに、図10(b)における時刻T1以降のタイミングにおいて、マイコン107内のメタデータ処理部108は、映像αの映像データに関連付けられた図11(a)に示すメタデータを作成し、記憶メディア105に保存する。   Further, at the timing after time T1 in FIG. 10B, the metadata processing unit 108 in the microcomputer 107 creates the metadata shown in FIG. 11A associated with the video data of the video α, and stores the storage media. Save to 105.

このメタデータの記録連続性には「OFF」が設定されている。これは、第1の実施例で説明したラップタイムのような記録値は、記録値が更新される前後の時刻においても連続的に計測する必要があるのに対して、本実施例のスキージャンプ競技の記録値としての得点は、競技と競技の合間に計測されるからである。しかしながら、記録連続性に「ON」を設定してもよいし、記録種類に応じて「ON」又は「OFF」を選択的に設定してもよい。   This metadata recording continuity is set to “OFF”. This is because the recorded value such as the lap time described in the first embodiment needs to be continuously measured at times before and after the recorded value is updated. This is because the score as a recorded value is measured between competitions. However, “ON” may be set for the recording continuity, or “ON” or “OFF” may be selectively set according to the recording type.

また、記録発生者には、各競技者43を特定する氏名などが録画時間内に登録される。なお、記録発生者の登録が録画時間内に終わらないときは、チャプタ情報が書き込まれて新規のメタデータが作成される度に、新規のメタデータに対応する映像の競技者43を区別可能な数値又は文字列(キャラクタ)が記録発生者として登録されるように構成されている。   In addition, a name or the like specifying each player 43 is registered in the recording time within the recording time. In addition, when registration of a recording person does not end within the recording time, each time chapter information is written and new metadata is created, the video player 43 corresponding to the new metadata can be distinguished. A numerical value or a character string (character) is registered as a record generator.

その後は、競技者43の競技本数に合わせて、録画終了まで、例えば時刻T2,T3のタイミングで、上述した処理と同様の処理が行われる。その結果、動画ファイルには、2本目の映像βの映像データの3本目の映像γの映像データが記録され、記憶メディア105には、動画ファイルと共に、映像βの映像データに関連付けられた図11(b)に示すメタデータ、及び映像γの映像データに関連付けられた図11(c)に示すメタデータが保存される。   Thereafter, in accordance with the number of competitions of the player 43, the same processing as described above is performed until the end of recording, for example, at timings T2 and T3. As a result, the video data of the third video γ of the video data of the second video β is recorded in the video file, and the storage media 105 is associated with the video data of the video β together with the video file in FIG. The metadata shown in FIG. 11C associated with the metadata shown in (b) and the video data of the video γ are stored.

上述したように撮影された映像α〜γの映像データを含む動画ファイルには、上記図5の処理が施され、これらの映像データが配列されたプレイリストが作成される。なお、メタデータの記録連続性が「OFF」であるので、プレイリストの各映像α〜γの映像データにはのりしろ画像の付加が禁止されている。上記第1の実施例と比較すれば分かるように、メタデータの記録連続性に応じて、のりしろ画像の付加及びその付加の禁止のいずれか一方に切り替えるので、ダイジェスト映像としてのプレイリストを作成する際の編集性を向上させることができる。   The moving image file including the video data of the videos α to γ photographed as described above is subjected to the processing shown in FIG. 5 to create a playlist in which these video data are arranged. In addition, since the recording continuity of the metadata is “OFF”, it is prohibited to add a marginal image to the video data of each video α to γ in the playlist. As can be seen from a comparison with the first embodiment, switching to either the addition of a marginal image or the prohibition of the addition is made according to the recording continuity of the metadata, so a playlist as a digest video is created. Editability can be improved.

図12(a)及び図12(b)は、上記図8のプレイリスト変更処理が施されて作成されたプレイリストを例示する図である。   FIG. 12A and FIG. 12B are diagrams illustrating playlists created by performing the playlist change process of FIG.

図12(a)に示すプレイリストでは、メタデータの記録値が小さい順、即ち得点が低い順に映像α〜γに対応する映像データの配列が並び替えられており、図12(b)に示すプレイリストでは、メタデータの記録値が大きい順、即ち得点が高い順に映像α〜γに対応する映像データの配列が並び替えられている。   In the playlist shown in FIG. 12A, the arrangement of the video data corresponding to the videos α to γ is rearranged in ascending order of the recorded value of the metadata, that is, from the lowest score, as shown in FIG. In the playlist, the arrangement of the video data corresponding to the videos α to γ is rearranged in the descending order of the recorded value of the metadata, that is, in the descending order of the score.

以下、上記実施の形態の変形例を説明する。   Hereinafter, modifications of the above embodiment will be described.

上記実施の形態では、記録値が更新される度に1つの動画ファイルの管理ファイルにチャプタ情報を書き込んだ(図2及び図3(b))が、本変形例では、1つの動画ファイルにチャプタ情報を書き込むことに代えて、図3(a)と同様のサーキット場で行われる撮影処理のタイミングチャートである図13に示すように、記録値が更新される度に新規に動画ファイルを作成する。   In the above embodiment, chapter information is written in the management file of one moving image file every time the recorded value is updated (FIG. 2 and FIG. 3B), but in this modified example, the chapter information is written in one moving image file. Instead of writing information, a moving image file is newly created every time the recorded value is updated, as shown in FIG. 13 which is a timing chart of the photographing process performed in the circuit place similar to FIG. .

図14は、図13のタイミングチャートにおいて実行されるメタデータ作成処理のフローチャートである。   FIG. 14 is a flowchart of metadata creation processing executed in the timing chart of FIG.

図14において、まず、マイコン107は、成績情報入力部106がメタデータ処理部108に記録値を入力するのを待機し、例えば図13の時刻T2において、成績情報入力部106から入力された記録値が更新すべきものであると判別したときは(ステップS901でYES)、記憶メディア105が、例えば図13の時刻T1〜T2の間の映像A’の映像データを記録したファイル名が「01.mpg」の動画ファイルを閉じて(クローズして)、記憶メディア105はクローズした動画ファイルを保存する(ステップS902)。   In FIG. 14, first, the microcomputer 107 waits for the grade information input unit 106 to input a record value to the metadata processing unit 108. For example, the record input from the grade information input unit 106 at time T2 in FIG. When it is determined that the value is to be updated (YES in step S901), the file name in which the storage medium 105 has recorded the video data of the video A ′ between the times T1 and T2 in FIG. The moving image file “mpg” is closed (closed), and the storage medium 105 stores the closed moving image file (step S902).

このとき、メタデータ処理部108は、クローズした動画ファイルに関連する関連情報として、更新前の記録値などを含むメタデータを作成すると共に(ステップS903a)、削除リスト作成部110は、クローズされた1つ以上の動画ファイルに対して所定の削除順位を設定するための削除リストを作成し、当該削除リストにクローズしたファイル名「01.mpg」の動画ファイルを格納する(ステップS903b)。この削除リストを閲覧したときには、格納されている各動画ファイル内のデータを確認し易いように、図15(a)に示すように、データの内容が映像A’であることを示すようにリストアップされることが好ましい。また、これに代えて、動画ファイルのファイル名やメタデータがリストアップされたり、データの内容の一部である静止画像などがリストアップされたりしてもよい。   At this time, the metadata processing unit 108 creates metadata including the recorded value before update as related information related to the closed video file (step S903a), and the deletion list creation unit 110 is closed. A deletion list for setting a predetermined deletion order is created for one or more moving image files, and the moving image file with the closed file name “01.mpg” is stored in the deletion list (step S903b). When viewing this deletion list, as shown in FIG. 15 (a), the list shows that the content of the data is video A 'so that the data in each stored video file can be easily confirmed. It is preferable to be uploaded. Alternatively, the file name and metadata of the moving image file may be listed, or a still image that is a part of the data content may be listed.

続くステップS904では、マイコン107は、メタデータ処理部108が作成したメタデータを記憶メディア105に送信してメタデータファイルとして保存する。   In subsequent step S904, the microcomputer 107 transmits the metadata created by the metadata processing unit 108 to the storage medium 105 and stores it as a metadata file.

続いて、マイコン107は、新規の動画ファイル、例えばファイル名が「02.mpg」の動画ファイルを記憶メディア105内に作成(オープン)して、例えば映像B’の映像データの記録を開始して、被写体の撮影を継続する。   Subsequently, the microcomputer 107 creates (opens) a new moving image file, for example, a moving image file whose file name is “02.mpg” in the storage medium 105, and starts recording of the video data of the video B ′, for example. Continue shooting the subject.

また、削除リスト作成部110は、削除リスト内の動画ファイルに、削除順位を付与することにより配列の並び替えを行う(ステップS906)。削除順位は、メタデータの記録値に基づいた所定の並び替え条件、例えば記録値の大きい順に従って決定される。該並び替え条件としては、記録値の大きい順、記録値の小さい順などがある。なお、削除リスト内に格納されている動画ファイルが1つであるときは、図15(a)に示すように、その動画ファイルの削除順位として「1」が付与される。   Further, the deletion list creation unit 110 rearranges the array by assigning deletion orders to the moving image files in the deletion list (step S906). The deletion order is determined according to a predetermined rearrangement condition based on the recorded value of the metadata, for example, in descending order of the recorded value. Examples of the rearrangement condition include the order in which the recording values are large and the order in which the recording values are small. When there is one moving image file stored in the deletion list, “1” is assigned as the deletion order of the moving image file as shown in FIG.

続くステップS907では、マイコン107は、録画中の記憶メディア105に入力可能な映像データの容量を示す残容量が所定値以下であるか否か、即ち残容量が少ないか否かを判別する。該判別の結果、記憶メディア105の残容量が十分にある場合においては(ステップS907でNO)、ユーザが所望の動画ファイルを選択して不図示の手動削除命令キーを押下することにより、選択した動画ファイルに対する手動削除を行うことが可能である。   In subsequent step S907, the microcomputer 107 determines whether or not the remaining capacity indicating the capacity of the video data that can be input to the recording medium 105 being recorded is equal to or less than a predetermined value, that is, whether or not the remaining capacity is small. As a result of the determination, when the remaining capacity of the storage medium 105 is sufficient (NO in step S907), the user selects the desired moving image file and presses a manual deletion instruction key (not shown) to select it. Manual deletion of video files is possible.

この手動削除を行わないときは(ステップS910でNO)、ステップS901に戻って、再び記録値が入力されるのを待機し、図13における時刻T3,T4のタイミングで記録値が更新されると、ステップS902〜S906の処理を行う。これにより、映像C,’D’の映像データを記録するためのファイル名「02.mpg」,「03.mpg」の動画ファイルが記憶メディア105内に作成されると共に、図15(b),(c)に示すような削除リストが作成される。   When this manual deletion is not performed (NO in step S910), the process returns to step S901 to wait for the recording value to be input again, and when the recording value is updated at times T3 and T4 in FIG. Steps S902 to S906 are performed. As a result, video files with the file names “02.mpg” and “03.mpg” for recording the video data of video C and “D” are created in the storage medium 105, and FIG. A deletion list as shown in (c) is created.

一方、撮影の継続により、記憶メディア105の残容量が少なくなったときは(ステップS907でYES)、削除リストの削除順位に従って、具体的には、記録値の大きい順で上位からn(nは1以上整数)番目まで(以下、「上位n位」という)の動画ファイル、例えば上位1位の映像A’の動画ファイル及びそれに関連するメタデータを削除し(ステップS908)、削除リストの削除順位を図15(d)に示すように繰り上げる更新を行って(ステップS909)、本処理を終了する。   On the other hand, when the remaining capacity of the storage medium 105 decreases due to continuous shooting (YES in step S907), in accordance with the deletion order of the deletion list, specifically, from the top in the descending order of recorded values (n is The video file up to the 1st (integer) integer) (hereinafter referred to as “the top n”), for example, the video file of the top first video A ′ and its related metadata are deleted (step S908), and the deletion list is deleted. Is updated as shown in FIG. 15D (step S909), and this process is terminated.

また、ユーザが、例えば映像A’の動画ファイルの手動削除を行うために、手動削除命令キーが押下したときは(ステップS910でYES)、選択した映像A’の動画ファイル及びそれに関連するメタデータを削除すると共に、削除リストの削除順位を図15(d)に示すように更新して(ステップS909)、本処理を終了する。   In addition, when the user presses the manual deletion command key to manually delete the moving image file of the video A ′, for example (YES in step S910), the selected moving image file of the video A ′ and metadata related thereto. Is deleted, and the deletion order in the deletion list is updated as shown in FIG. 15D (step S909), and this process is terminated.

図14の処理によれば、記憶メディア105の残容量が少ないときは(ステップS907でYES)、記録値に基づいて決定された削除順位に従って動画ファイル、例えば映像A’の動画ファイル及びそれに関連するメタデータを削除する(ステップS908)ので、記憶メディア105の残容量を確実に確保することができると共に、確保された残容量を有する記憶メディア105内に新規の動画ファイル、例えば映像D’の動画ファイルを作成して動画像の撮影を継続することができる。これは、削除される映像A’の動画ファイルに対して新規の映像D’の動画ファイルを上書き記録しているのと同様の効果を奏すると云える。したがって、ユーザは、手動削除を行うことなく上書き記録を行うことができるので、時刻T4において記録動作を中断することをなくしてユーザの操作性を向上させることができる。   According to the process of FIG. 14, when the remaining capacity of the storage medium 105 is small (YES in step S907), the moving image file, for example, the moving image file of the video A ′ and the related items are determined according to the deletion order determined based on the recorded value. Since the metadata is deleted (step S908), the remaining capacity of the storage medium 105 can be reliably ensured, and a new moving image file such as the moving image of the video D ′ can be stored in the storage medium 105 having the reserved remaining capacity. You can create a file and continue shooting moving images. This can be said to have the same effect as when the moving image file of the new video D ′ is overwritten and recorded on the moving image file of the video A ′ to be deleted. Therefore, since the user can perform overwrite recording without performing manual deletion, the user's operability can be improved without interrupting the recording operation at time T4.

また、客観的に測定される記録値が更新される度に、記録中の動画ファイルをクローズして(ステップS902)、新規の動画ファイルを作成する(ステップS905)ので、図2の処理と同様に、記録中の動画像を容易に分割することが可能となり、プレイリストやダイジェスト映像を作成する際の編集性を向上させることができる。   Further, every time the recorded value measured objectively is updated, the moving image file being recorded is closed (step S902), and a new moving image file is created (step S905). In addition, it is possible to easily divide a moving image being recorded, and to improve editability when creating a playlist or a digest video.

さらに、新規の動画ファイルを作成する度にクローズした動画ファイルのメタデータが作成・保存される(ステップS903a,S904)ので、図2の処理と同様に、記録値が更新される前後において映像上の違いが小さい場合であっても、客観的に測定される記録値に基づいてメタデータを作成することができ、動画ファイルのクローズ及びオープンによって分割された画像ファイルとメタデータに含まれる情報とを一対一に関連付けることが可能となり、プレイリストやダイジェスト映像を作成する際の編集性をより向上させることができる。   Further, since the metadata of the closed moving image file is created and saved every time a new moving image file is created (steps S903a and S904), the recorded image is updated before and after the recording value is updated, as in the process of FIG. Even if the difference is small, metadata can be created based on objectively measured recorded values, and the image file divided by closing and opening the video file and the information contained in the metadata Can be associated one-on-one, and editability when creating a playlist or digest video can be further improved.

なお、上記変形例において、削除リストにおける並び替え条件は、メタデータの記録値に基づくとしたが、記録値以外の情報に基づいてもよく、例えば、メタデータの開始位置及び終了位置で特定される記録時間の長い順、記録時間の短い順、また、メタデータの開始位置が早い順、遅い順などを含む。例えば、この並び替え条件として、メタデータの開始位置が早い順を設定することにより、記憶メディア105の複数の動画ファイルのうち、記録された時刻が最も古い動画ファイルから削除することができる。   In the above modification, the reordering condition in the deletion list is based on the recorded value of the metadata, but may be based on information other than the recorded value, for example, specified by the start position and end position of the metadata. The order includes the longest recording time, the shortest recording time, the early start position of the metadata, and the late order. For example, by setting the order in which the start position of the metadata is early as the rearrangement condition, it is possible to delete from the moving image file having the oldest recorded time among the plurality of moving image files of the storage medium 105.

上記実施の形態に係る画像処理装置は、ビデオカメラ100としたが、これに限られることはなく、記憶メディア105上に記録された映像データに対応する静止画像や動画像を処理可能な画像処理装置であればいかなるものであってもよい。   The image processing apparatus according to the above embodiment is the video camera 100. However, the present invention is not limited to this, and image processing that can process still images and moving images corresponding to video data recorded on the storage medium 105 is possible. Any device may be used.

また、上記実施の形態において、記憶メディア105は、ランダムアクセス可能なメモリカードやディスク媒体などであるとしたが、画像データが記憶可能な記憶媒体であればいかなるものであってもよい。   In the above embodiment, the storage medium 105 is a randomly accessible memory card or disk medium. However, any storage medium may be used as long as it can store image data.

また、本発明の目的は、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPUなど)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成される。   Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus. It is also achieved by reading and executing the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が上記実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the program code and the storage medium storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。又は、プログラムコードをネットワークを介してダウンロードしてもよい。   Examples of the storage medium for supplying the program code include a floppy (registered trademark) disk, a hard disk, a magneto-optical disk, a CD-ROM, a CD-R, a CD-RW, a DVD-ROM, a DVD-RAM, and a DVD. -RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM, etc. can be used. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. This includes a case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.

更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. A case where the CPU of the expansion board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is also included.

本発明の実施の形態に係る画像処理装置は、画像に関連した情報を用いて複数の画像の中から所望の画像を検索するための画像処理装置に適用することができる。   The image processing apparatus according to the embodiment of the present invention can be applied to an image processing apparatus for searching for a desired image from a plurality of images using information related to the image.

本発明の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置としてのビデオカメラの動画像記録中においてマイコンによって実行されるメタデータ作成処理のフローチャートである。2 is a flowchart of metadata creation processing executed by a microcomputer during moving image recording of a video camera as the image processing apparatus of FIG. 1. 本実施の形態に係る画像処理装置の第1の変形例を説明するための図であり、(a)は、サーキット場の構成を概略的に示す図であり、(b)は、(a)のサーキット場において周回するレーシングカーの車載カメラの撮影処理に関連するタイミングチャートである。It is a figure for demonstrating the 1st modification of the image processing apparatus which concerns on this Embodiment, (a) is a figure which shows the structure of a circuit field schematically, (b) is (a). It is a timing chart relevant to the imaging | photography process of the vehicle-mounted camera of the racing car which circulates in the circuit field. 第1の実施例において作成されたメタデータを例示する図であり、(a)〜(c)は、図3(a)の第1のレーシングカーの車載カメラが撮影した動画ファイルに関連付けて図3(b)における時刻T2,T3,T4において作成されたメタデータを示す図であり、(d)〜(f)は、図3(a)の第2のレーシングカーの車載カメラが撮影した動画ファイルに関連付けて図3(b)における時刻T2,T3,T4において作成されたメタデータを示す図である。It is a figure which illustrates the metadata produced in 1st Example, (a)-(c) is linked | related with the moving image file image | photographed with the vehicle-mounted camera of the 1st racing car of Fig.3 (a). It is a figure which shows the metadata produced at the time T2, T3, and T4 in 3 (b), (d)-(f) is the moving image image | photographed with the vehicle-mounted camera of the 2nd racing car of Fig.3 (a). It is a figure which shows the metadata produced in association with a file at the time T2, T3, and T4 in FIG.3 (b). 図1におけるプレイリスト作成部によって実行されるプレイリスト作成処理のフローチャートである。It is a flowchart of the playlist creation process performed by the playlist creation unit in FIG. 図3(a)における2つのビデオカメラ及びビデオカメラで撮影された動画ファイルを第3のビデオカメラにコピーするときの状態を示す図である。It is a figure which shows the state when copying the moving image file image | photographed with two video cameras and video camera in Fig.3 (a) to a 3rd video camera. 図6の第3のビデオカメラによって作成されたプレイリストの一例を示す図である。It is a figure which shows an example of the play list produced by the 3rd video camera of FIG. 図7に示したようなプレイリストにおける映像データの再生順序を変更するためのプレイリスト変更処理のフローチャートである。8 is a flowchart of playlist change processing for changing the playback order of video data in the playlist as shown in FIG. 図8のプレイリスト変更処理において作成されたプレイリストを例示する図であり、(a)は、図8のステップS1104で作成されたプレイリストを示す図であり、(b)は、図8のステップS1107で作成されたプレイリストを示す図であり、(c)は、図8のステップS1110で作成されたプレイリストを示す図である。FIG. 9 is a diagram illustrating a playlist created in the playlist change process of FIG. 8, (a) is a diagram showing the playlist created in step S1104 of FIG. 8, and (b) is a diagram of FIG. It is a figure which shows the play list produced by step S1107, (c) is a figure which shows the play list produced by step S1110 of FIG. 本実施の形態に係る画像処理装置の第2の変形例を説明するための図であり、(a)は、スキージャンプ競技を開催している会場の構成を概略的に示す図であり、(b)は、(a)の会場において開催されているスキージャンプ競技を撮影するビデオカメラの撮影処理に関連するタイミングチャートである。It is a figure for demonstrating the 2nd modification of the image processing apparatus which concerns on this Embodiment, (a) is a figure which shows schematically the structure of the venue holding the ski jump competition, b) is a timing chart related to the shooting process of the video camera for shooting the ski jump competition held in the venue of (a). 第2の実施例において、図10(b)における時刻T1,T2,T3において作成されたメタデータを示す図である。FIG. 11 is a diagram illustrating metadata created at times T1, T2, and T3 in FIG. 10B in the second embodiment. 図8のプレイリスト変更処理が施されて作成されたプレイリストを例示する図であり、(a)は、メタデータの記録値が小さい順に並び替えられたプレイリストを示す図であり、(b)は、メタデータの記録値が大きい順に並び替えられたプレイリストを示す図である。FIG. 9 is a diagram illustrating a playlist created by performing the playlist change process of FIG. 8, and (a) is a diagram illustrating playlists that are rearranged in ascending order of recorded values of metadata; ) Is a diagram showing playlists that are rearranged in descending order of recorded values of metadata. 本発明の実施の形態の変形例において、図3(a)と同様のサーキット場で行われる撮影処理のタイミングチャートである。FIG. 6 is a timing chart of a photographing process performed in a circuit field similar to FIG. 3A in a modification of the embodiment of the present invention. 図13のタイミングチャートにおいて実行されるメタデータ作成処理のフローチャートである。It is a flowchart of the metadata creation process performed in the timing chart of FIG. 本発明の実施の形態の変形例において作成された削除リストを例示する図であり、(a)〜(c)は、図13における時刻T2,T3,T4において作成された削除リストを示す図であり、(d)は、図14のステップS909において更新された削除リストを示す図である。It is a figure which illustrates the deletion list created in the modification of an embodiment of the invention, and (a)-(c) is a figure showing the deletion list created at time T2, T3, and T4 in FIG. Yes, (d) is a diagram showing the deletion list updated in step S909 of FIG.

符号の説明Explanation of symbols

33,73 ストップウォッチ
34,48,50,74,100 ビデオカメラ
45 表示情報サーバ
104 記憶メディアI/F
105 記憶メディア
106 成績情報入力部
107 マイクロコンピュータ(マイコン)
108 メタデータ処理部
109 プレイリスト作成部
110 削除リスト作成部
33, 73 Stopwatch 34, 48, 50, 74, 100 Video camera 45 Display information server 104 Storage media I / F
105 Storage Media 106 Grade Information Input Unit 107 Microcomputer
108 Metadata processing unit 109 Playlist creation unit 110 Delete list creation unit

Claims (26)

画像に関連した情報を用いて複数の画像の中から所望の画像を検索可能な画像処理装置において、画像を所定の記憶メディアに入力する画像入力手段と、画像に関連する所定の関連情報を入力する関連情報入力手段と、前記関連情報入力手段による前記関連情報の入力に同期して前記入力中の画像を分割画像として分割する画像分割手段と、前記分割画像に前記入力された関連情報を関連付けるためのメタデータを作成するメタデータ作成手段とを備えることを特徴とする画像処理装置。   In an image processing apparatus capable of retrieving a desired image from a plurality of images using information related to the image, image input means for inputting the image to a predetermined storage medium, and input of predetermined related information related to the image Related information input means, image dividing means for dividing the input image as a divided image in synchronization with the input of the related information by the related information input means, and associating the inputted related information with the divided image An image processing apparatus, comprising: a metadata creating unit that creates metadata for creating the metadata. 前記分割画像を所定の再生順序で配列させたプレイリストを作成するプレイリスト作成手段と、前記作成されたプレイリストを再生する再生手段とを備えることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a playlist creation unit that creates a playlist in which the divided images are arranged in a predetermined playback order; and a playback unit that plays back the created playlist. . 前記プレイリストにおける前記分割画像の配列を前記関連情報に基づいた所定の並び替え条件に従って並び替えることにより前記分割画像の再生順序の変更を行う再生順序変更手段を備えることを特徴とする請求項2記載の画像処理装置。   The reproduction order change means for changing the reproduction order of the divided images by rearranging the arrangement of the divided images in the playlist according to a predetermined sorting condition based on the related information. The image processing apparatus described. 前記分割画像に隣接する隣接分割画像における前記分割画像の再生時間に連続する所定時間に対応する部分画像をのりしろ画像として前記分割画像に付加するのりしろ画像付加手段を備えることを特徴とする請求項2又は3記載の画像処理装置。   3. A marginal image adding unit that adds a partial image corresponding to a predetermined time continuous with a reproduction time of the divided image in an adjacent divided image adjacent to the divided image as a marginal image to the divided image. Or the image processing apparatus of 3. 前記のりしろ画像付加手段は、前記分割画像の再生時間の後に連続する所定時間に対応する部分画像、及び前記分割画像の再生時間の前に連続する所定時間に対応する部分画像のうち少なくとも一方を前記分割画像に付加することを特徴とする請求項4記載の画像処理装置。   The marginal image adding means selects at least one of a partial image corresponding to a predetermined time continuous after the reproduction time of the divided image and a partial image corresponding to a predetermined time continuous before the reproduction time of the divided image. The image processing apparatus according to claim 4, wherein the image processing apparatus is added to the divided image. 前記メタデータ作成手段は、前記のりしろ画像付加手段による前記のりしろ画像の付加を禁止するための禁止情報を前記作成されるメタデータに書き込むことを特徴とする請求項4又は5記載の画像処理装置。   6. The image processing apparatus according to claim 4, wherein the metadata creation unit writes prohibition information for prohibiting addition of the margin image by the margin image addition unit into the created metadata. 前記禁止情報は、前記分割画像と前記隣接分割画像とが時間的に非連続的な関係であることを示す非連続性情報から成ることを特徴とする請求項6記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the prohibition information includes discontinuity information indicating that the divided images and the adjacent divided images are temporally discontinuous. 前記分割画像に対して所定の削除順序を設定するための削除リストを作成する削除リスト作成手段を備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a deletion list creating unit that creates a deletion list for setting a predetermined deletion order for the divided images. 前記所定の記憶メディアに入力可能な画像の容量を示す残容量が所定値以下になった場合に、前記分割画像のうち、前記所定の削除順序の上位から所定番目までの分割画像を削除する削除手段を備えることを特徴とする請求項8記載の画像処理装置。   Deletion that deletes the divided images from the top of the predetermined deletion order to the predetermined number of the divided images when the remaining capacity indicating the capacity of the image that can be input to the predetermined storage medium is equal to or less than a predetermined value. 9. The image processing apparatus according to claim 8, further comprising means. 前記画像分割手段は、前記分割の実行を示す画像区切り情報を、前記入力中の画像を格納する画像ファイルを管理するための管理情報を書き込むための管理ファイルに書き込む画像区切り情報書込み手段を備えることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image dividing means includes image separation information writing means for writing image separation information indicating execution of the division into a management file for writing management information for managing an image file storing the image being input. The image processing apparatus according to claim 1, wherein: 前記メタデータ作成手段は、前記記憶メディアに対する前記分割画像の入力開始位置及び入力終了位置を示す情報を前記メタデータに書き込むことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。   The image according to any one of claims 1 to 10, wherein the metadata creating unit writes information indicating an input start position and an input end position of the divided image with respect to the storage medium into the metadata. Processing equipment. 前記入力される画像は撮影した被写体の画像から成り、前記所定の関連情報は、前記被写体を評価するための所定の成績に関する成績情報から成ることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。   12. The input image according to claim 1, wherein the input image includes an image of a photographed subject, and the predetermined related information includes performance information relating to a predetermined score for evaluating the subject. The image processing apparatus according to item. 画像に関連した情報を用いて複数の画像の中から所望の画像を検索するための画像処理方法において、画像を所定の記憶メディアに入力する画像入力ステップと、画像に関連する所定の関連情報を入力する関連情報入力ステップと、前記関連情報入力ステップにおける前記関連情報の入力に同期して前記入力中の画像を分割画像として分割する画像分割ステップと、前記分割画像に前記入力された関連情報を関連付けるためのメタデータを作成するメタデータ作成ステップとを有することを特徴とする画像処理方法。   In an image processing method for retrieving a desired image from a plurality of images using information related to an image, an image input step for inputting the image to a predetermined storage medium, and predetermined related information related to the image A related information input step for inputting, an image dividing step for dividing the image being input as a divided image in synchronization with the input of the related information in the related information inputting step, and the related information input to the divided image. An image processing method comprising: a metadata creating step for creating metadata for associating. 前記分割画像を所定の再生順序で配列させたプレイリストを作成するプレイリスト作成ステップと、前記作成されたプレイリストを再生する再生ステップとを有することを特徴とする請求項13記載の画像処理方法。   The image processing method according to claim 13, further comprising: a playlist creation step for creating a playlist in which the divided images are arranged in a predetermined playback order; and a playback step for playing back the created playlist. . 前記プレイリストにおける前記分割画像の配列を前記関連情報に基づいた所定の並び替え条件に従って並び替えることにより前記分割画像の再生順序の変更を行う再生順序変更ステップを有することを特徴とする請求項14記載の画像処理方法。   15. The reproduction order changing step of changing the reproduction order of the divided images by rearranging the arrangement of the divided images in the playlist according to a predetermined sorting condition based on the related information. The image processing method as described. 前記分割画像に隣接する隣接分割画像における前記分割画像の再生時間に連続する所定時間に対応する部分画像をのりしろ画像として前記分割画像に付加するのりしろ画像付加ステップを有することを特徴とする請求項14又は15記載の画像処理方法。   15. A margin image adding step of adding a partial image corresponding to a predetermined time continuous with a reproduction time of the divided image in an adjacent divided image adjacent to the divided image as a margin image to the divided image. Or the image processing method of 15. 前記のりしろ画像付加ステップは、前記分割画像の再生時間の後に連続する所定時間に対応する部分画像、及び前記分割画像の再生時間の前に連続する所定時間に対応する部分画像のうち少なくとも一方を前記分割画像に付加することを特徴とする請求項16記載の画像処理方法。   In the marginal image adding step, at least one of a partial image corresponding to a predetermined time continuous after the reproduction time of the divided image and a partial image corresponding to a predetermined time continuous before the reproduction time of the divided image is The image processing method according to claim 16, wherein the image processing method is added to the divided image. 前記メタデータ作成ステップは、前記のりしろ画像付加ステップにおける前記のりしろ画像の付加を禁止するための禁止情報を前記作成されるメタデータに書き込むことを特徴とする請求項16又は17記載の画像処理方法。   18. The image processing method according to claim 16, wherein the metadata creating step writes prohibition information for prohibiting the addition of the margin image in the margin image adding step into the created metadata. 前記禁止情報は、前記分割画像と前記隣接分割画像とが時間的に非連続的な関係であることを示す非連続性情報から成ることを特徴とする請求項18記載の画像処理方法。   19. The image processing method according to claim 18, wherein the prohibition information includes discontinuity information indicating that the divided images and the adjacent divided images are temporally discontinuous. 前記分割画像に対して所定の削除順序を設定するための削除リストを作成する削除リスト作成ステップを有することを特徴とする請求項13乃至19のいずれか1項に記載の画像処理方法。   20. The image processing method according to claim 13, further comprising a deletion list creation step of creating a deletion list for setting a predetermined deletion order for the divided images. 前記所定の記憶メディアに入力可能な画像の容量を示す残容量が所定値以下になった場合に、前記分割画像のうち、前記所定の削除順序の上位から所定番目までの分割画像を削除する削除ステップを有することを特徴とする請求項20記載の画像処理方法。   Deletion that deletes the divided images from the top of the predetermined deletion order to the predetermined number of the divided images when the remaining capacity indicating the capacity of the image that can be input to the predetermined storage medium is equal to or less than a predetermined value. 21. The image processing method according to claim 20, further comprising steps. 前記画像分割ステップは、前記分割の実行を示す画像区切り情報を、前記入力中の画像を格納する画像ファイルを管理するための管理情報を書き込むための管理ファイルに書き込む画像区切り情報書込みステップを有することを特徴とする請求項13乃至21のいずれか1項に記載の画像処理方法。   The image dividing step includes an image delimiter information writing step for writing image delimiter information indicating execution of the division into a management file for writing management information for managing an image file storing the image being input. The image processing method according to claim 13, wherein: 前記メタデータ作成ステップは、前記記憶メディアに対する前記分割画像の入力開始位置及び入力終了位置を示す情報を前記メタデータに書き込むことを特徴とする請求項13乃至22のいずれか1項に記載の画像処理方法。   The image according to any one of claims 13 to 22, wherein the metadata creation step writes information indicating an input start position and an input end position of the divided image with respect to the storage medium in the metadata. Processing method. 前記入力される画像は撮影した被写体の画像から成り、前記所定の関連情報は、前記被写体を評価するための所定の成績に関する成績情報から成ることを特徴とする請求項13乃至23のいずれか1項に記載の画像処理方法。   The input image includes an image of a photographed subject, and the predetermined related information includes performance information relating to a predetermined result for evaluating the subject. The image processing method according to item. 画像に関連した情報を用いて複数の画像の中から所望の画像を検索するための画像処理方法をコンピュータに実行させるプログラムにおいて、画像を所定の記憶メディアに入力する画像入力モジュールと、画像に関連する所定の関連情報を入力する関連情報入力モジュールと、前記関連情報入力モジュールによる前記関連情報の入力に同期して前記入力中の画像を分割画像として分割する画像分割モジュールと、前記分割画像に前記入力された関連情報を関連付けるためのメタデータを作成するメタデータ作成モジュールとを備えることを特徴とするプログラム。   In a program for causing a computer to execute an image processing method for retrieving a desired image from a plurality of images using information related to the image, an image input module for inputting the image to a predetermined storage medium, and an image A related information input module that inputs predetermined related information, an image division module that divides the input image as a divided image in synchronization with the input of the related information by the related information input module, and A program comprising: a metadata creation module for creating metadata for associating input related information. 請求項25記載のプログラムを格納することを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 25.
JP2005163189A 2005-06-02 2005-06-02 Image processing unit, image processing method, program, and storage medium Pending JP2006340108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005163189A JP2006340108A (en) 2005-06-02 2005-06-02 Image processing unit, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005163189A JP2006340108A (en) 2005-06-02 2005-06-02 Image processing unit, image processing method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2006340108A true JP2006340108A (en) 2006-12-14

Family

ID=37560239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005163189A Pending JP2006340108A (en) 2005-06-02 2005-06-02 Image processing unit, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2006340108A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016521473A (en) * 2013-03-13 2016-07-21 フォックス スポーツ プロダクションズ,インコーポレイティッド System and method for adjusting images for in-vehicle cameras
JP2017085654A (en) * 2012-09-27 2017-05-18 株式会社Jvcケンウッド Imaging device, imaging method, and imaging program
JP2018109903A (en) * 2017-01-05 2018-07-12 Kddi株式会社 Transfer apparatus for content distribution system and program
WO2020059925A1 (en) * 2018-09-21 2020-03-26 엘지전자 주식회사 Mobile terminal
US10658006B2 (en) 2015-11-18 2020-05-19 Casio Computer Co., Ltd. Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium
US10741214B2 (en) 2015-11-18 2020-08-11 Casio Computer Co., Ltd. Image processing apparatus that selects images, image processing method, and storage medium
US10939140B2 (en) 2011-08-05 2021-03-02 Fox Sports Productions, Llc Selective capture and presentation of native image portions
US11039109B2 (en) 2011-08-05 2021-06-15 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
US11159854B2 (en) 2014-12-13 2021-10-26 Fox Sports Productions, Llc Systems and methods for tracking and tagging objects within a broadcast
US11758238B2 (en) 2014-12-13 2023-09-12 Fox Sports Productions, Llc Systems and methods for displaying wind characteristics and effects within a broadcast

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10939140B2 (en) 2011-08-05 2021-03-02 Fox Sports Productions, Llc Selective capture and presentation of native image portions
US11490054B2 (en) 2011-08-05 2022-11-01 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
US11039109B2 (en) 2011-08-05 2021-06-15 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
JP2017085654A (en) * 2012-09-27 2017-05-18 株式会社Jvcケンウッド Imaging device, imaging method, and imaging program
JP2016521473A (en) * 2013-03-13 2016-07-21 フォックス スポーツ プロダクションズ,インコーポレイティッド System and method for adjusting images for in-vehicle cameras
US11159854B2 (en) 2014-12-13 2021-10-26 Fox Sports Productions, Llc Systems and methods for tracking and tagging objects within a broadcast
US11758238B2 (en) 2014-12-13 2023-09-12 Fox Sports Productions, Llc Systems and methods for displaying wind characteristics and effects within a broadcast
US10658006B2 (en) 2015-11-18 2020-05-19 Casio Computer Co., Ltd. Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium
US10741214B2 (en) 2015-11-18 2020-08-11 Casio Computer Co., Ltd. Image processing apparatus that selects images, image processing method, and storage medium
JP2018109903A (en) * 2017-01-05 2018-07-12 Kddi株式会社 Transfer apparatus for content distribution system and program
WO2020059925A1 (en) * 2018-09-21 2020-03-26 엘지전자 주식회사 Mobile terminal
KR102446264B1 (en) * 2018-09-21 2022-09-22 엘지전자 주식회사 mobile terminal
US10979627B2 (en) 2018-09-21 2021-04-13 Lg Electronics Inc. Mobile terminal
KR20210019110A (en) * 2018-09-21 2021-02-19 엘지전자 주식회사 Mobile terminal

Similar Documents

Publication Publication Date Title
JP2006340108A (en) Image processing unit, image processing method, program, and storage medium
JP4842971B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND INFORMATION RECORDING MEDIUM
JP5128291B2 (en) Metadata recording medium for providing an extended search function, reproducing method and apparatus thereof
CN100527241C (en) Information storage medium containing multi-path data, and storage apparatus and player thereof
KR100323556B1 (en) Information playback apparatus and information recording playback apparatus
US20020097983A1 (en) Selective viewing of video based on one or more themes
JP2007208477A (en) Video reproduction device, data structure of bookmark data, storage medium storing bookmark data, and bookmark data generation method
JP2011103688A (en) Reproducing method
JP5197517B2 (en) Apparatus and method for reproducing recording medium including metadata applicable to multi-angle title
JP2005027159A (en) Recording apparatus and method therefor
JP3285029B2 (en) recoding media
WO2008018311A1 (en) Data processing device, data processing method, and computer program
JP3164111B2 (en) Recording method, recording device, and computer-readable recording medium
JP3164107B2 (en) recoding media
JP4838659B2 (en) REPRODUCTION DEVICE AND REPRODUCTION DEVICE CONTROL METHOD
JP2006033653A (en) Play-list preparation device, its method, dubbing-list preparing device and method for the dubbing-list preparing device
JP2010192027A (en) Content recording/reproducing device, and content management method
JP2009010839A (en) Image data reproduction apparatus and image data reproduction method
JP4549855B2 (en) Data recording method, data reproducing method, data recording device, data reproducing device, data structure, program, and recording medium storing the program
JP3139497B1 (en) Playback device, playback method, and computer-readable recording medium
JP4470905B2 (en) Optical recording medium reproducing apparatus, optical recording medium reproducing method, and optical recording medium reproducing program
JP2007281727A (en) Recording device and recording method
JP2008152871A (en) Information recording and reproducing device and reproducing device
JP3329339B2 (en) Reproduction method, reproduction apparatus, and computer-readable recording medium
JP2005135554A (en) Reproducing device and method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626