JP2009200601A - Video editing device and method - Google Patents

Video editing device and method Download PDF

Info

Publication number
JP2009200601A
JP2009200601A JP2008037540A JP2008037540A JP2009200601A JP 2009200601 A JP2009200601 A JP 2009200601A JP 2008037540 A JP2008037540 A JP 2008037540A JP 2008037540 A JP2008037540 A JP 2008037540A JP 2009200601 A JP2009200601 A JP 2009200601A
Authority
JP
Japan
Prior art keywords
shooting
time
position information
information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008037540A
Other languages
Japanese (ja)
Inventor
Yutaka Kuramochi
裕 倉持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2008037540A priority Critical patent/JP2009200601A/en
Publication of JP2009200601A publication Critical patent/JP2009200601A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To search a target video image portion efficiently, easily and accurately when video data are edited. <P>SOLUTION: A video editing device comprises a section 103 for acquiring photographed video data along with a time stamp indicating the time of photography, a section 102 for acquiring the information about the trace of movement recording the position and time when the video data are photographed, a section 101 for acquiring map information which shows the topography with coordinates, a section 105 for measuring the time of photography at each spot on the coordinate, a coordinate collating section 104 for associating the trace of movement, i.e. the displacement of the position of photography, in time series on the coordinate of map information, a display information generating section 106 for compounding the trace of movement on the map information and displaying the time length of photography at each spot in time series on the trace of movement as a variable figure, and an editing section 107 for setting the edit point of the video data, wherein the display information generating section 106 displays the edit point on the variable figure. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ビデオ編集装置及びビデオ編集方法に係り、特にノンリニア編集を行うためのユーザーインターフェースに関する。   The present invention relates to a video editing apparatus and a video editing method, and more particularly to a user interface for performing nonlinear editing.

近年、ビデオの編集装置においては、シーケンシャル(リニア)なアクセスメディアであるテープメディアから、ディスクメディアへと記録メディアの移行が進み、ランダムアクセス性を活かしたノンリニア編集が主流となっている。これに伴い、家庭におけるビデオ編集においてもパーソナルコンピュータ(以下、PCとも表記)の普及と、ハードディスクやDVDに代表されるディスクメディアの登場によりノンリニア編集は一般的となっている。さらに、多くのパーソナルコンピュータでは購入時の同梱ソフトウェアに、ノンリニアビデオ編集ソフトウェアが含まれていることも珍しくない。   2. Description of the Related Art In recent years, in video editing apparatuses, the transition of recording media from tape media, which is sequential (linear) access media, to disk media has progressed, and non-linear editing utilizing random accessibility has become mainstream. Along with this, non-linear editing has become common in video editing at home due to the spread of personal computers (hereinafter also referred to as PCs) and the advent of disk media represented by hard disks and DVDs. In addition, it is not uncommon for many personal computers to include non-linear video editing software in the bundled software at the time of purchase.

従来、これらビデオのノンリニア編集においては、タイムラインというユーザーインターフェースを用いて編集作業を行うことが一般的である。例えば、特許文献1では、タイムラインを用いた編集と場面切り替え効果のユーザーインターフェース技術が提案されている。   Conventionally, in non-linear editing of these videos, it is common to perform editing using a user interface called a timeline. For example, Patent Document 1 proposes a user interface technique for editing using a timeline and a scene switching effect.

前記従来技術では、マルチトラックのタイムラインによる編集方法において、単一のスケールでタイムラインを表示しようとすると、トランジションエフェクトのような短時間のトラック編集では、頻繁に表示スケールの切り替えが発生し、編集作業の効率が悪化する問題が指摘されている。そこで、トラックを複数のセグメントに分割し、各セグメントの表示スケールを編集作業がし易い長さに調整することで前記問題を解決する方法が開示されている。また、従来より、画像内容を断片的に示すサムネイル画像をトラック上に表示することで、映像の内容も分かり易く表現することも提案されている。   In the prior art, in the editing method using the multitrack timeline, when trying to display the timeline at a single scale, the display scale is frequently switched in the short-time track editing such as the transition effect, The problem that the efficiency of editing work deteriorates has been pointed out. Therefore, a method for solving the above problem by dividing a track into a plurality of segments and adjusting the display scale of each segment to a length that facilitates editing work is disclosed. Conventionally, it has also been proposed to display the contents of a video in an easy-to-understand manner by displaying a thumbnail image showing the image contents in a fragmentary manner on a track.

ところで、商用のビデオ編集では複数のビデオコンテンツを繋ぎ合わせたり、特殊効果を画像に施すなどの操作が主であるのに比べ、家庭におけるビデオ編集では、撮影したビデオ映像に含まれる多くの不必要な内容を削除する目的で行われることが多い。このため、画像内容が断片的に表示されるサムネイル画像だけでは、不要な部分と必要な部分を選別することは困難であり、編集作業の多くの時間をこの選別作業に費やすことになる。例えば、従来技術における選別作業では、タイムライン上のカーソルをスライドさせながら、映像の内容を可変速再生させて目的の映像を探す操作により行われる。
特開2003−52011号公報
By the way, in commercial video editing, operations such as connecting multiple video contents or applying special effects to images are the main operations, and in video editing at home, many unnecessary images included in the recorded video images are unnecessary. This is often done for the purpose of deleting unnecessary contents. For this reason, it is difficult to select an unnecessary part and a necessary part only with a thumbnail image in which the image content is displayed in a fragmentary manner, and much time for editing work is spent on this selection work. For example, in the sorting operation in the prior art, the content of the video is played back at a variable speed while the cursor on the timeline is slid to search for the target video.
JP 2003-52011 A

しかしながら、上述した従来技術のように、撮影内容を断片的に示すサムネイルを単に時系列順に並べて表示するのみでは、撮影内容の重要度が判らず、撮影してから時間が経ってしまっている場合には、撮影者が撮影内容を忘れてしまい、編集(削除)すべき編集ポイントを見つけ出し難いという問題があった。特に、ビデオデータが大量であるときには、上述した従来技術のように、カーソルのスライド操作によって検索するのみでは、カーソル移動量に対するビデオデータの再生速度が高速になって、目的の映像を見逃すことが多くなる一方、低速で再生すると視聴に時間が掛かるなど、編集作業の効率が低下するという課題がある。   However, as in the above-described prior art, when the thumbnails showing the shooting contents are simply displayed in chronological order, the importance of the shooting contents is not known and the time has passed since shooting. However, there is a problem that it is difficult for the photographer to forget the photographing contents and find an editing point to be edited (deleted). In particular, when there is a large amount of video data, it is possible to overlook the target video by increasing the playback speed of the video data with respect to the amount of movement of the cursor only by performing a search by a cursor slide operation as in the prior art described above. On the other hand, there is a problem that the efficiency of editing work decreases, such as when viewing at low speed, it takes time to view.

本発明は、前記課題を鑑みてなされてものであり、ビデオデータの編集を行う際に、効率よく目的の映像部分を容易且つ正確に検索できるビデオ編集装置及びビデオ編集方法を提供することを、その目的とする。   The present invention has been made in view of the above problems, and provides a video editing apparatus and a video editing method capable of efficiently and accurately searching for a target video portion when editing video data. For that purpose.

上記課題を解決するために、本発明は、撮影して得られたビデオデータを撮影時のタイムスタンプとともに取得するビデオデータ取得部と、ビデオデータに係る撮影位置を示す位置情報と撮影時刻情報とが関連付けられた撮影位置情報を取得する撮影位置情報取得部と、地図情報を取得する地図情報取得部と、それぞれ取得されたタイムスタンプ及び撮影位置情報に基づいて、撮影位置情報の位置情報が示す位置での撮影時間を計測する撮影時間計測部と、撮影位置情報の位置情報に基づいて、取得した地図情報の座標に、位置情報を時系列に対応させて移動軌跡を関連付ける移動軌跡関連付け部と、地図情報に移動軌跡を合成するとともに、位置情報が示す位置での撮影時間を表すスケールを移動軌跡上に合成して表示情報を生成する表示情報生成部と、操作者による操作に従って、取得したビデオデータの編集ポイントを設定する編集処理部とを備え、表示情報生成部は、編集ポイントに対応するビデオデータのタイムスタンプに対応したスケール上に、編集ポイントに対応するスケール上編集ポイントを設けるようにした。   In order to solve the above problems, the present invention provides a video data acquisition unit that acquires video data obtained by shooting together with a time stamp at the time of shooting, position information indicating a shooting position related to the video data, and shooting time information. The position information of the shooting position information indicates the shooting position information acquisition unit that acquires the shooting position information associated with the map, the map information acquisition unit that acquires map information, and the acquired time stamp and shooting position information, respectively. A shooting time measuring unit that measures a shooting time at a position, and a movement locus associating unit that associates a movement locus with time information in correspondence with the coordinates of the acquired map information based on the position information of the shooting position information; A display that generates display information by synthesizing a movement trajectory with map information and a scale representing a shooting time at the position indicated by the position information on the movement trajectory. An information processing unit for setting an editing point of the acquired video data according to an operation by the operator, and the display information generating unit is on a scale corresponding to the time stamp of the video data corresponding to the editing point. An edit point on the scale corresponding to the edit point was provided.

他の発明は、撮影して得られたビデオデータを撮影時のタイムスタンプとともに取得し、ビデオデータに係る撮影位置を示す位置情報と撮影時刻情報とが関連付けられた撮影位置情報を取得するステップと、地図情報を取得するステップと、それぞれ取得されたタイムスタンプ及び撮影位置情報に基づいて、撮影位置情報の位置情報が示す位置での撮影時間を計測し、撮影位置情報の位置情報に基づいて、取得した地図情報の座標に、位置情報を時系列に対応させて移動軌跡を関連付けるステップと、地図情報に移動軌跡を合成するとともに、位置情報が示す位置での撮影時間を表すスケールを移動軌跡上に合成して表示情報を生成するステップと、操作者による操作に従って、取得したビデオデータの編集ポイントを設定し、編集ポイントに対応するビデオデータのタイムスタンプに対応したスケール上に、編集ポイントに対応するスケール上編集ポイントを設けるステップとを有する。   Another aspect of the invention is to acquire video data obtained by shooting together with a time stamp at the time of shooting, and to acquire shooting position information in which position information indicating the shooting position related to the video data and shooting time information are associated with each other. The step of acquiring the map information, and based on the acquired time stamp and shooting position information, the shooting time at the position indicated by the position information of the shooting position information is measured, and based on the position information of the shooting position information, The step of associating the movement information with the coordinates of the acquired map information in time series, the movement locus is combined with the map information, and a scale representing the shooting time at the position indicated by the position information is displayed on the movement locus. In accordance with the step of generating the display information by combining the image data and the operation by the operator, the edit point of the acquired video data is set and the edit point On the scale corresponding to the time stamp of the corresponding video data, and a step of providing a scale on the edit point corresponding to the editing point.

詳述すると、本発明では、従来の時間軸という記憶に残り難い情報の代わりに、撮影時の記憶の手掛かりになり易い位置情報を利用した編集方法(以後,「ルート・トラッキング(route tracking)編集」と称する。)を採用する。このルート・トラッキングを実現するために、例えば、GPS(GlobalPositioningSystem)による位置情報を利用することができる。このGPSは、ビデオカメラと独立した別体のものでもよく、ビデオカメラに内蔵され映像信号とリンクするように撮影位置情報を記録するようにしたものでもよい。具体的には、別体のGPSによる位置記録装置とビデオカメラにより撮影された映像を、それぞれのタイムスタンプ(タイムコード)を手掛かりにリンクさせて利用することができる。そして、本発明では、映像信号であるビデオデータと共に前記撮影位置情報を取得し、これらに基づいて、地図又は上空から撮影された地形写真等の地図情報に、撮影位置の変位である移動軌跡を表示する。   More specifically, in the present invention, an editing method using position information that is likely to be a clue to memory at the time of shooting (hereinafter referred to as “route tracking editing”) instead of information that is difficult to remain in the memory of the conventional time axis. "). In order to realize this route tracking, for example, position information by GPS (Global Positioning System) can be used. The GPS may be a separate unit independent of the video camera, or may be one that is built in the video camera and records shooting position information so as to link to a video signal. Specifically, it is possible to use images captured by separate GPS position recording devices and video cameras by linking each time stamp (time code) with a clue. In the present invention, the shooting position information is acquired together with video data that is a video signal, and based on these, a moving locus that is a displacement of the shooting position is added to map information such as a map or a topographic photograph taken from above. indicate.

このような発明によれば、地図上に撮影順に沿った移動軌跡が表示されるとともに、この移動軌跡上には、各地点における撮影の時間長がスケール(例えば、時間長に応じて伸縮する棒グラフ等の可変図形)によって表示されるため、撮影場所とその撮影時間の長さとによって、撮影時間が集中しているところがより重要な撮影をした場所であるなど、撮影内容の重要度を知ることができるとともに、撮影場所を覚えていれば、その場所を契機として撮影内容を思い出すことができる。このため、これらに従って地図上に表示された軌跡の中から撮影場所を指定することで、編集ポイントとなる目的の映像を容易に探し出すことが可能となる。   According to such an invention, the movement trajectory along the shooting order is displayed on the map, and on the movement trajectory, the shooting time length at each point is scaled (for example, a bar graph that expands and contracts according to the time length). It is possible to know the importance of the content of the shooting, such as where the shooting time is concentrated and where the shooting time is concentrated, depending on the shooting location and the length of the shooting time. In addition, if you remember the shooting location, you can remember the shooting content using that location as an opportunity. For this reason, it is possible to easily find the target video as the editing point by designating the shooting location from the trajectory displayed on the map according to these.

本発明によれば、撮影場所が視覚的に分かり易く提示されるため、撮影内容の記憶が想起され易く、詳細に画像内容を確認する作業が大幅に削減されるという効果が得られる。この結果、本発明によれば、ビデオデータの編集を行う際に、効率よく目的の映像部分を容易且つ正確に検索でき、必要な映像と不必要な映像を選別し、必要な映像を繋ぎ合わせることで簡単にビデオ編集を実現することができる。   According to the present invention, since the shooting location is presented in a visually easy-to-understand manner, it is easy to recall the shooting content, and the effect of greatly reducing the work of checking the image content in detail can be obtained. As a result, according to the present invention, when editing video data, it is possible to easily and accurately search for a target video portion, select necessary video and unnecessary video, and connect necessary video together. This makes video editing easy.

(ビデオ編集装置の概要)
以下に図面を参照して、本発明に係るビデオ編集方法及びビデオ編集装置の実施形態を詳細に説明する。図1は、本実施形態に係るビデオ編集方法の手順を示すフロー図であり、図2は、ビデオ編集装置の概要を示す説明図である。
(Outline of video editing device)
Hereinafter, embodiments of a video editing method and a video editing apparatus according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a flowchart showing a procedure of a video editing method according to the present embodiment, and FIG. 2 is an explanatory diagram showing an outline of the video editing apparatus.

本発明のビデオ編集装置は、パーソナルコンピュータ等の汎用コンピュータ上で動作するアプリケーションソフトウェアとして実装することができ、図2に示すように、ビデオカメラ3からPC1に取得されたビデオデータ(映像及び音声、その他の付加情報を含む。)や、GPS端末4からPC1に取得された撮影位置情報を用い、ユーザー操作に基づくビデオデータの編集機能を提供するものである。   The video editing apparatus of the present invention can be implemented as application software that operates on a general-purpose computer such as a personal computer. As shown in FIG. 2, video data (video and audio, video data acquired from the video camera 3 to the PC 1 can be used. Other additional information is included), and the video data editing function based on the user operation is provided using the shooting position information acquired from the GPS terminal 4 to the PC 1.

なお、本実施形態では、本発明を図2のPC1のアプリケーションソフトウェアとしてビデオ編集に供される形態を採るが、本発明はこれに限定されるものではなく、編集装置としての専用の装置とすることもでき、本発明の編集機能を備えたビデオカメラや、ビデオ再生機としての形態を採ることもできる。   In the present embodiment, the present invention is applied to video editing as the application software of the PC 1 in FIG. 2, but the present invention is not limited to this and is a dedicated device as an editing device. It is also possible to adopt a form of a video camera or a video player having the editing function of the present invention.

ビデオ編集を行うにあたり、編集対象である映像及び音声を含むビデオデータと、このビデオデータを撮影した位置を記憶しているGPSデータ(撮影位置情報)をPC1に読み込み、保存する。具体的には、ビデオカメラ3とGPS端末4とを、接続ケーブル等によりPC1に接続し、前もってビデオカメラ3に収められているビデオデータと、GPS端末4に納められている撮影位置情報をPC1へ読み込んでおく。   When performing video editing, video data including video and audio to be edited and GPS data (capturing position information) storing the position where the video data is captured are read into the PC 1 and stored. Specifically, the video camera 3 and the GPS terminal 4 are connected to the PC 1 by a connection cable or the like, and the video data stored in the video camera 3 in advance and the shooting position information stored in the GPS terminal 4 are stored in the PC 1. Read to.

図3は、PC1の内部構成を示したブロック図である。同図に示すように、ビデオカメラ3やGPS端末4は入出力端子14に接続され、各データはシステムバス17を通じてデータ記憶装置16へ転送された後、保存される。   FIG. 3 is a block diagram showing the internal configuration of the PC 1. As shown in the figure, the video camera 3 and the GPS terminal 4 are connected to an input / output terminal 14, and each data is transferred to the data storage device 16 through the system bus 17 and then stored.

また、データ記憶装置16には、本発明によるアプリケーションソフトウェアも記憶されており、キーボードやマウスなどの操作デバイス15からの指示により、アプリケーションソフトウェアを起動・実行することにより、CPU10上に、本発明によるビデオ編集装置が仮想的に構築される。すなわち、起動されたビデオ編集装置は、CPU10によりデータ記憶装置16やメモリ11に展開され、仮想的な機能モジュールとして実行される。なお、以後、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を有したソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。   The data storage device 16 also stores application software according to the present invention. By starting and executing the application software according to an instruction from the operation device 15 such as a keyboard or a mouse, the data storage device 16 can execute on the CPU 10 according to the present invention. A video editing device is virtually constructed. In other words, the activated video editing apparatus is expanded in the data storage device 16 and the memory 11 by the CPU 10 and executed as a virtual functional module. Hereinafter, “module” used in the description refers to a functional unit for achieving a predetermined operation, which is configured by hardware such as an apparatus or device, software having the function, or a combination thereof. Indicates.

そして、このように実行され構築されたビデオ編集装置は、そのユーザーインターフェースであるGUI(Graphical User Interface)が画面表示部18に表示され、操作デバイス15により編集作業が可能となる。   The video editing apparatus executed and constructed in this manner displays a GUI (Graphical User Interface) as a user interface on the screen display unit 18, and can be edited by the operation device 15.

ここで、映像信号は圧縮符号化されていることが一般的であるため、編集作業中は頻繁に符号化や複合化が行われる。このため、本実施形態では、映像信号や音声信号の符号化及び複合化を高速に行うCODEC部12を具備している。ただし、CODEC部12は、必須ではなく、CPU10によりソフトウェア的に実現されるものでもよい。また、音声信号については、本実施形態においても一般的なビデオ編集装置と同様に各種加工編集が可能であるが、ここでは、ビデオ信号に付随して編集が行われるとして、その説明を省略する。   Here, since the video signal is generally compression-encoded, encoding and decoding are frequently performed during editing work. For this reason, the present embodiment includes a CODEC unit 12 that performs high-speed encoding and decoding of video signals and audio signals. However, the CODEC unit 12 is not essential and may be realized by the CPU 10 as software. In addition, the audio signal can be processed and edited in the same manner as in a general video editing apparatus in the present embodiment. However, here, the description is omitted because the editing is performed along with the video signal. .

また、地図情報は、線図又は上空から撮影された地形写真等を含み、地形を座標で表現可能としたデータであり、道路や河川、標高など地理的な形状の他、建物や店舗、各地の住所などの付加情報を含ませることができる。この地図情報は、予めデータ記憶装置16に蓄積しておいてもよく、また、通信インターフェース13を介してインターネット等の通信ネットワーク2からダウンロードするようにしてもよい。   Map information includes data such as line maps or topographical photographs taken from the sky, and is data that can express the topography with coordinates. In addition to geographical shapes such as roads, rivers, and elevations, buildings, stores, and various locations Additional information such as the address of the can be included. This map information may be stored in the data storage device 16 in advance, or may be downloaded from the communication network 2 such as the Internet via the communication interface 13.

図4は、CPU10上に展開された本発明のビデオ編集装置に関する各モジュールを示すブロック図である。同図に示すように、データ取得系のモジュールとして地図情報取得部101と、撮影位置情報取得部102と、ビデオデータ取得部103とを備えている。   FIG. 4 is a block diagram showing each module related to the video editing apparatus of the present invention developed on the CPU 10. As shown in the figure, a map information acquisition unit 101, a shooting position information acquisition unit 102, and a video data acquisition unit 103 are provided as data acquisition modules.

地図情報取得部101は、地形を座標で示す地図情報を取得するモジュールであり、具体的には、データ記憶装置16に蓄積された地図情報を、データ記憶装置16から読み出して、座標照合部104に出力する。   The map information acquisition unit 101 is a module that acquires map information indicating the terrain by coordinates. Specifically, the map information stored in the data storage device 16 is read from the data storage device 16 and the coordinate matching unit 104 is read out. Output to.

撮影位置情報取得部102は、ビデオデータに係る撮影位置を示す位置情報と撮影時刻情報とが関連付けられた撮影位置情報を取得するモジュールであり、具体的には、GPS端末4から読み込まれデータ記憶装置16に蓄積された撮影位置情報を、データ記憶装置16から読み出して、座標照合部104に出力する。   The shooting position information acquisition unit 102 is a module that acquires shooting position information in which position information indicating a shooting position related to video data and shooting time information are associated with each other. Specifically, the shooting position information acquisition unit 102 is read from the GPS terminal 4 and stores data. The shooting position information stored in the device 16 is read from the data storage device 16 and output to the coordinate matching unit 104.

ビデオデータ取得部103は、撮影して得られたビデオデータを、その撮影時のタイムスタンプとともに取得するモジュールであり、具体的には、ビデオカメラ3から読み込まれてデータ記憶装置16に蓄積されたビデオデータを、データ記憶装置16から、タイムスタンプデータと共に読み出して、編集処理部107や撮影時間計測部105に出力する。   The video data acquisition unit 103 is a module that acquires video data obtained by shooting together with a time stamp at the time of shooting. Specifically, the video data acquisition unit 103 is read from the video camera 3 and stored in the data storage device 16. The video data is read from the data storage device 16 together with the time stamp data, and is output to the editing processing unit 107 and the shooting time measuring unit 105.

また、表示系モジュールとして、座標照合部104と、撮影時間計測部105と、表示情報生成部106とを備えている。   Further, the display system module includes a coordinate matching unit 104, a photographing time measuring unit 105, and a display information generating unit 106.

座標照合部104は、撮影位置情報の位置情報に基づいて、取得した地図情報の座標に、位置情報を時系列に対応させて移動軌跡を関連付ける移動軌跡関連付け機能を提供するモジュールであり、地図情報及び撮影位置情報に基づいて、地図情報の座標上に、撮影位置の変位である移動軌跡を生成し、移動軌跡上の各地点における滞在時間を時系列に従って照合し、各座標に関連づけるとともに、生成された移動軌跡データを、表示情報生成部106に出力する。   The coordinate matching unit 104 is a module that provides a movement trajectory association function that correlates a movement trajectory by associating position information in time series with the coordinates of the acquired map information based on the positional information of the imaging position information. Based on the shooting position information, a movement trajectory that is the displacement of the shooting position is generated on the coordinates of the map information, and the stay time at each point on the movement trajectory is collated in time series and associated with each coordinate and generated. The obtained movement trajectory data is output to the display information generation unit 106.

撮影時間計測部105は、それぞれ取得されたタイムスタンプ及び撮影位置情報に基づいて、撮影位置情報の位置情報が示す位置での撮影時間を計測するモジュールである。具体的には、GPS端末4からの撮影位置情報と、ビデオデータのタイムスタンプに基づいて、座標上の各地点における撮影時間を計測し、この計測された撮影時間に関するデータは、地点毎に、そこでの撮影の時間長(開始時刻及び終了時刻)として、表示情報生成部106に出力される。なお、同一地点で複数回撮影が行われている場合には、各回における時間長(開始時刻及び終了時刻)をセットとして出力する。   The shooting time measuring unit 105 is a module that measures the shooting time at the position indicated by the position information of the shooting position information based on the acquired time stamp and shooting position information. Specifically, the shooting time at each point on the coordinates is measured based on the shooting position information from the GPS terminal 4 and the time stamp of the video data, and the data related to the measured shooting time is The time taken for shooting (start time and end time) is output to the display information generation unit 106. In addition, when the imaging | photography is performed in multiple times at the same spot, the time length (start time and end time) in each time is output as a set.

表示情報生成部106は、地図情報に移動軌跡を合成するとともに、位置情報が示す位置での撮影時間を表す可変図形を移動軌跡上に合成して表示情報を生成するモジュールである。この表示方法としては、例えば、図9(a)に示すような地図700を、同図(b)に示すような立体図や鳥瞰図などの三次元的な地図上に立体表示したり、移動軌跡を横軸とし、撮影時間を縦軸とした二次元的なグラフ表示とすることができる。なお、本実施形態では、GUIにおいて、三次元(3D)表示と、二次元(2D)表示とをタグコントロールの操作により切り替えられるようになっている。   The display information generation unit 106 is a module that combines the movement trajectory with the map information and generates display information by synthesizing a variable graphic representing the shooting time at the position indicated by the position information on the movement trajectory. As this display method, for example, a map 700 as shown in FIG. 9A is displayed three-dimensionally on a three-dimensional map such as a stereoscopic view or a bird's eye view as shown in FIG. Can be displayed in a two-dimensional graph with the horizontal axis as the horizontal axis and the shooting time as the vertical axis. In the present embodiment, the GUI can be switched between three-dimensional (3D) display and two-dimensional (2D) display by an operation of tag control.

さらに、この表示情報生成部106による表示処理では、場所毎の撮影フレーム数(撮影時間長)の違いを表現するために、各地点における撮影の時間長を、時系列に従って、移動軌跡上にスケール(棒グラフ)として表示する機能を備えている。すなわち、図9(b)のような棒グラフを上記可変図形として、移動軌跡の上に並べる方法を採り、棒グラフの長さは撮影フレーム数の多さに比例し、立ち止まって同じ位置で撮影している時間が長いほど、棒グラフの長さも長くなるように表示する。   Further, in the display processing by the display information generation unit 106, in order to express the difference in the number of shooting frames (shooting time length) for each place, the shooting time length at each point is scaled on the moving locus according to time series. It has a function to display as (bar graph). That is, the bar graph as shown in FIG. 9B is arranged as a variable figure on the movement trajectory, and the length of the bar graph is proportional to the number of frames to be captured. The longer the time is, the longer the bar graph is displayed.

また、この表示情報生成部106は、ユーザー操作のためのGUIを提供するモジュールでもあり、上記地図や移動軌跡等の表示の他に、種々のユーザーコントロールを表示する処理も行う。このユーザーコントロールの表示としては、ユーザー操作に基づく編集ポイントの表示が含まれ、この編集ポイントの表示では、各編集ポイントのタイムスタンプに応じた地点及び時間の可変図形(スケール)上に、編集ポイントをカーソルとして表示する。具体的には、図9(b)に示すように、編集ポイントに対応するビデオデータのタイムスタンプに対応したスケールである棒グラフ800上に、編集ポイントに対応するスケール上編集ポイントであるカーソル801を設け、例えば、棒グラフ800の位置(図中A点)で撮影された映像を編集ポイントして指定する場合には、棒グラフ800に付随するカーソル801を、操作デバイス15に接続されたマウスによりドラッグしスライドさせる。   The display information generation unit 106 is also a module that provides a GUI for user operations, and performs processing for displaying various user controls in addition to the display of the map and the movement trajectory. The display of this user control includes the display of edit points based on user operations. In the display of this edit point, the edit points are displayed on a variable figure (scale) of the point and time according to the time stamp of each edit point. Is displayed as a cursor. Specifically, as shown in FIG. 9B, a cursor 801 that is an edit point on the scale corresponding to the edit point is placed on a bar graph 800 that is a scale corresponding to the time stamp of the video data corresponding to the edit point. For example, when an image taken at the position of the bar graph 800 (point A in the figure) is designated as an editing point, a cursor 801 associated with the bar graph 800 is dragged with a mouse connected to the operation device 15. Slide.

さらに、編集系のモジュールとして、編集処理部107と、操作信号取得部108と、編集データ生成部109とを備えている。   Furthermore, an editing processing unit 107, an operation signal acquisition unit 108, and an editing data generation unit 109 are provided as editing modules.

編集処理部107は、操作者の操作に従って、各種編集処理を実行するモジュールであり、GUIと連動して、ビデオデータの再生や、複製や削除、挿入、保存等の一般的なデータ加工の操作を行う。この編集処理部107は、これらのデータ加工において、ビデオデータ上に、再生開始位置、終了位置、削除開始位置、エフェクト設定位置など編集加工のデータ位置を示す編集ポイントを設定する機能も提供する。   The editing processing unit 107 is a module that executes various editing processes in accordance with the operation of the operator. In conjunction with the GUI, general data processing operations such as video data reproduction, duplication, deletion, insertion, and storage are performed. I do. The edit processing unit 107 also provides a function of setting an edit point indicating a data position of editing processing such as a reproduction start position, an end position, a deletion start position, and an effect setting position on the video data in these data processing.

操作信号取得部108は、ユーザー操作に基づく操作デバイス15からの操作信号を取得し、操作信号に応じた実行命令を編集処理部107に入力するモジュールである。   The operation signal acquisition unit 108 is a module that acquires an operation signal from the operation device 15 based on a user operation, and inputs an execution command corresponding to the operation signal to the editing processing unit 107.

編集データ生成部109は、編集処理部107において加工・編集された結果を、プロジェクトデータなどの編集データとして生成し、データ記憶装置16に保存し、必要に応じて読み出すモジュールである。   The edit data generation unit 109 is a module that generates a result processed and edited by the edit processing unit 107 as edit data such as project data, saves it in the data storage device 16, and reads it out as necessary.

(ビデオ編集方法の概要)
そして、このビデオ編集装置を用いることによって、本発明のビデオ編集方法を実施することができる。なお、以下の説明では、簡単のため映像のカット編集についてのみ説明する。
(Outline of video editing method)
By using this video editing apparatus, the video editing method of the present invention can be implemented. In the following description, only video cut editing will be described for simplicity.

始めに、図1に示すように、ステップS101によりビデオデータと撮影位置情報が前述の通り入出力端子14から読み込まれる。ただし、ビデオデータと撮影位置情報は、ビデオ編集装置の起動以前に、予めデータ記憶装置16に記憶されているものを利用するようにしてもよい。この際に、図2のようにビデオカメラ3とGPS端末4が別体となっている場合には、タイムスタンプ付きのビデオ信号(ビデオデータ)と、タイムスタンプ付きの位置情報(撮影位置情報)が別々に入力される。このGPS端末4は、撮影時に撮影者が携帯し、撮影とは関係なく、時刻と共に位置情報を記録している。   First, as shown in FIG. 1, in step S101, video data and shooting position information are read from the input / output terminal 14 as described above. However, the video data and shooting position information may be stored in advance in the data storage device 16 before the video editing apparatus is activated. At this time, when the video camera 3 and the GPS terminal 4 are separated as shown in FIG. 2, a video signal with a time stamp (video data) and position information with a time stamp (shooting position information). Are entered separately. The GPS terminal 4 is carried by the photographer at the time of photographing, and records position information along with the time regardless of photographing.

図5(a)は、タイムスタンプ付き位置情報のフォーマットを模式的に表した図であり、図5(b)は、タイムスタンプ付きビデオ信号のフォーマットを模式的に表した図である。図5(a)に示すように、撮影位置情報の記録データ列400の中には、時刻を示すタイムスタンプと緯度経度による位置情報がセットになったデータ401が時系列に収められている。また、図5(b)に示すように、ビデオデータ500の中には、映像信号501と各フレームに対応したタイムスタンプ502がセットになって収められている。   FIG. 5A is a diagram schematically showing a format of position information with a time stamp, and FIG. 5B is a diagram schematically showing a format of a video signal with a time stamp. As shown in FIG. 5A, in the recording data string 400 of shooting position information, data 401 in which a time stamp indicating time and position information based on latitude and longitude are set is stored in time series. As shown in FIG. 5B, the video data 500 contains a video signal 501 and a time stamp 502 corresponding to each frame as a set.

図5(a)及び(b)に示されるそれぞれのタイムスタンプから同一又は近傍の時刻を探すことで、ビデオが撮影された場所を特定することが可能である。一例として、図5(a)及び(b)のビデオ信号とタイムスタンプ及び位置情報を1つのフォーマットとして構成し直した模式図を図6に示す。図6の位置情報付き映像データ600には、映像信号501と共に、タイムスタンプと位置情報がセットになったデータ601が収められており、この場合は、ビデオデータの各フレームと撮影位置情報とが既に関連づけられた状態で、本ビデオ編集装置に読み込まれることとなる。   By searching for the same or nearby time from the time stamps shown in FIGS. 5A and 5B, it is possible to specify the location where the video was shot. As an example, FIG. 6 shows a schematic diagram in which the video signal, time stamp, and position information in FIGS. 5A and 5B are reconfigured as one format. The video data 600 with position information in FIG. 6 includes a video signal 501 and data 601 in which a time stamp and position information are set. In this case, each frame of video data and shooting position information are stored. The video editing apparatus is read in the state of being already associated.

図7は、本実施形態に係るビデオ編集装置のGUIである表示画面900を示したものである。図1のステップS101の操作は、「開く」ボタン913により行われる。   FIG. 7 shows a display screen 900 which is a GUI of the video editing apparatus according to the present embodiment. The operation in step S <b> 101 in FIG. 1 is performed by an “Open” button 913.

次に、編集対象のビデオ信号が読み込まれると、図1のステップS102に進み、地図上に撮影場所と撮影時間を表現する軌跡を表示する。一例として、図9(a)は、上空からの衛星写真などに基づいた一般的な二次元地図であり、同図(b)は、それを三次元的に表現した鳥瞰図である。ここでは、地図700上に、撮影開始点701から撮影終了点702に至るまでに移動した移動軌跡703を表示している。ただし、撮影時の移動速度は、一定ではなく変動することから、移動軌跡703上の場所によって撮影されているフレーム数(撮影時間長)が異なることが一般的である。   Next, when the video signal to be edited is read, the process proceeds to step S102 in FIG. 1, and a locus expressing the shooting location and shooting time is displayed on the map. As an example, FIG. 9A is a general two-dimensional map based on a satellite photograph from above, and FIG. 9B is a bird's-eye view expressing it three-dimensionally. Here, a movement locus 703 that has moved from the shooting start point 701 to the shooting end point 702 is displayed on the map 700. However, since the moving speed at the time of shooting is not constant but varies, the number of frames being shot (shooting time length) is generally different depending on the location on the movement locus 703.

したがって、本実施形態では、場所毎の撮影フレーム数の違いを表現するために、図9(b)のような棒グラフを移動軌跡の上に並べる。この棒グラフの長さは撮影フレーム数の多さに比例し、立ち止まって同じ位置で撮影している時間が長いほど、棒グラフの長さも長くなるように表示される。そして、このように生成された地図画像は、図7のように、ビデオ編集装置の表示画面900内に、撮影位置表示画面901(3D表示画面又は2D表示画面)として表示される。   Therefore, in this embodiment, in order to express the difference in the number of frames taken for each place, a bar graph as shown in FIG. 9B is arranged on the movement locus. The length of the bar graph is proportional to the number of frames to be captured, and the bar graph is displayed such that the longer the time it is stopped and shooting at the same position, the longer the bar graph. The map image generated in this way is displayed as a shooting position display screen 901 (3D display screen or 2D display screen) in the display screen 900 of the video editing apparatus as shown in FIG.

図7の表示画面900では、従来と同様にタイムライン908とタイムライン上の位置を指定するカーソル909も備え、映像内の時間位置を知るためにタイムスケール907が表示される。また、図7に示すように、本発明によるルート・トラッキング編集を行う撮影位置表示画面901にも、カーソル909と同じ映像信号位置を示すカーソル915が表示される。撮影位置を示した撮影位置表示画面901で、撮影者の移動はあるが撮影は行われていない場合には、位置情報に対応した映像が存在しないため、破線906のように移動があったことだけを示す軌跡が表示される。カーソル909とカーソル915は連動して動き、どちらか一方をマウスによりドラッグして移動させると、それに追従してもう一方も動き、常に同じ映像位置を指し示している。   The display screen 900 of FIG. 7 includes a time line 908 and a cursor 909 for designating a position on the time line as in the conventional case, and a time scale 907 is displayed to know the time position in the video. Further, as shown in FIG. 7, a cursor 915 indicating the same video signal position as the cursor 909 is also displayed on the photographing position display screen 901 for performing route tracking editing according to the present invention. In the shooting position display screen 901 showing the shooting position, when there is a movement of the photographer but no shooting is performed, there is no video corresponding to the position information, and therefore there is a movement as indicated by a broken line 906. A trajectory indicating only is displayed. The cursor 909 and the cursor 915 move in conjunction with each other. When one of the cursors 909 and 915 is dragged and moved by the mouse, the other moves following it and always points to the same video position.

カーソル909とカーソル915の示す位置にある映像は映像表示枠902に表示され、カーソルをマウスでドラッグするとそれに追従して表示映像が更新される。さらに、同心円上を動くカーソル903を動かすことで、撮影位置表示画面901に表示されている地図画像を回転させ、様々な方向から撮影位置の軌跡を確認するために利用する。また、カーソル904をスライドさせることで、撮影位置表示画面901に表示されている地図画像の倍率を変えることに利用する。カーソル904の横に表示されているスケール905は、倍率を表示したインジケータである。   The video at the positions indicated by the cursor 909 and the cursor 915 is displayed in the video display frame 902, and when the cursor is dragged with the mouse, the display video is updated accordingly. Further, by moving a cursor 903 that moves on a concentric circle, the map image displayed on the shooting position display screen 901 is rotated and used to check the locus of the shooting position from various directions. Further, it is used to change the magnification of the map image displayed on the shooting position display screen 901 by sliding the cursor 904. A scale 905 displayed beside the cursor 904 is an indicator displaying a magnification.

次に、図1に示すステップS103に進み、カット(削除)するシーンの開始点に図7のカーソル915を移動し、開始点ボタン910を押してカット開始点を決定する。このとき、カーソル915の操作と同時に、タイムライン908上のカーソル909も追従して動き、図8に示すように、開始点マーカ1000がカット開始点として表示される。   Next, proceeding to step S103 shown in FIG. 1, the cursor 915 in FIG. 7 is moved to the start point of the scene to be cut (deleted), and the start point button 910 is pressed to determine the cut start point. At this time, simultaneously with the operation of the cursor 915, the cursor 909 on the timeline 908 also follows, and the start point marker 1000 is displayed as the cut start point as shown in FIG.

ここで、撮影位置表示画面901に表示されている棒グラフについて説明する。説明のため、図9(b)に示すように、地図700に表示されている棒グラフの位置にA〜Nの記号をつける。本実施形態では、この図9(b)を、図10に示すような2D表示に切り替えることができる。図10では、前記位置A〜Nの棒グラフを撮影時間と連続した撮影位置との関係を示している。この棒グラフは、同じ位置で撮影している時間の長さを表現しており、下から上に向かって時間が経過するように表現されている。ただし、棒グラフで撮影時間を表現するために、連続な位置情報は適当な間隔で離散化されているものとする。   Here, the bar graph displayed on the shooting position display screen 901 will be described. For the sake of explanation, symbols A to N are attached to the positions of the bar graph displayed on the map 700 as shown in FIG. In the present embodiment, this FIG. 9B can be switched to a 2D display as shown in FIG. In FIG. 10, the bar graph of the positions A to N shows the relationship between the shooting time and the continuous shooting position. This bar graph expresses the length of time taken at the same position, and is expressed so that time elapses from bottom to top. However, it is assumed that continuous position information is discretized at an appropriate interval in order to represent the shooting time with a bar graph.

また、一度通過した同じ撮影位置に再度戻り撮影した場合には、位置Hのように、間隔1201を空けて2つの棒グラフ1200と棒グラフ1202が表示される。例えば、位置Hで撮影した後、位置Iへ移動して撮影し、再度位置Hに戻り撮影すると図10及び図12に示すような棒グラフとなる。この様子は、例えば、図11に示すような折れ線1300で表現してもよい。図11では、折れ線1300の途中に示されている矢印の方向に時間が経過している。   Further, when shooting is performed again after returning to the same shooting position once passed, two bar graphs 1200 and 1202 are displayed with an interval 1201 as in the position H. For example, after shooting at the position H, moving to the position I and shooting, returning to the position H again and shooting, a bar graph as shown in FIGS. 10 and 12 is obtained. This state may be expressed by a broken line 1300 as shown in FIG. 11, for example. In FIG. 11, time passes in the direction of the arrow shown in the middle of the broken line 1300.

次に、図1のステップS104へ進み、図13に示すようにカットの終了点の位置にカーソル1400をマウスにより移動させる。これに連動して、タイムライン上のカーソル909も移動する。カットの終了点の位置にカーソルを移動させた後、図13の終了点ボタン911を押してカット終了点を決定する。これに伴い、図13のタイムライン上に終了点マーカ1401がカット終了点として表示され、開始点マーカ1000と終了点マーカ1401の区間が変色し、カット範囲を明示する。   Next, the process proceeds to step S104 in FIG. 1, and the cursor 1400 is moved to the position of the cut end point by the mouse as shown in FIG. In conjunction with this, the cursor 909 on the timeline also moves. After moving the cursor to the position of the cut end point, the end point button 911 in FIG. 13 is pressed to determine the cut end point. Accordingly, the end point marker 1401 is displayed as the cut end point on the timeline of FIG. 13, and the section between the start point marker 1000 and the end point marker 1401 changes color to clearly indicate the cut range.

この様子を、2D表示に切り替えて、棒グラフで示すと図14のようになる。図14では、折れ線1500の区間がカット区間であり、位置Eの棒グラフの一部1501と位置Hの棒グラフの一部1502と棒グラフ1503はカットされずに残る。カット範囲が決定されると、図13に示す状態で、カットボタン912を押すことにより、図14の折れ線1500の区間の映像がカットされ、図15に示すように、棒グラフの一部1501,1502と棒グラフ1503及びカット範囲の前後の棒グラフを残した状態になる。   When this state is switched to 2D display and shown as a bar graph, it is as shown in FIG. In FIG. 14, the section of the line 1500 is a cut section, and a part 1501 of the bar graph at position E, a part 1502 of the bar chart at position H, and the bar chart 1503 remain uncut. When the cut range is determined, by pressing the cut button 912 in the state shown in FIG. 13, the image of the section of the line 1500 in FIG. 14 is cut, and as shown in FIG. And the bar graph 1503 and the bar graph before and after the cut range are left.

この結果、図1のステップS105へ進み、図16に示す撮影位置表示画面901に図15と同様の棒グラフが表示され、カットされた後の状態に更新される。図16のカーソル1700は、カットされた後の映像に対する新たなカーソルで、次のカット操作が行われる場合に使用される。また、破線1701の位置は、元々は映像が存在していたが、カットにより完全に映像がなくなったために表示されたものである。   As a result, the process proceeds to step S105 in FIG. 1, and a bar graph similar to that in FIG. 15 is displayed on the photographing position display screen 901 shown in FIG. 16, and updated to the state after being cut. A cursor 1700 in FIG. 16 is a new cursor for the image after being cut, and is used when the next cutting operation is performed. Further, the position of the broken line 1701 is displayed because the video originally existed but the video was completely lost due to the cut.

次に、図1の判断S106へ進み、さらにカットする映像がある場合にはステップS103へ戻り、カット作業を繰り返す。また、他にカット作業がない場合には判断S106からステップS107へ進み、保存ボタン914を押すことによりカット編集後の映像が図2のデータ記憶装置16に保存されて終了する。   Next, the process proceeds to judgment S106 in FIG. 1, and if there is a video to be cut, the process returns to step S103 to repeat the cutting operation. If there is no other cut operation, the process advances from step S106 to step S107, and the image after the cut edit is saved in the data storage device 16 of FIG.

なお、本実施形態では、シングルトラックによるカット編集の例で示したが、複数の映像信号を切り換えるマルチトラックに拡張することも容易に可能である。また、従来と同様にタイムラインを供えているので、タイムラインによる編集も可能である。   In the present embodiment, an example of cut editing using a single track has been described. However, it is also possible to easily expand to a multitrack that switches a plurality of video signals. In addition, since a timeline is provided in the same manner as in the prior art, editing using the timeline is also possible.

また、本実施形態で図示した地図700では、地形が平坦な場合を例としたが、例えば、標高差などを立体的に表現することもできる。この場合には、3D表示や2D表示における棒グラフの底面位置(基点)を立体的な標高に合致させて、棒グラフを配置させ、また撮影時間長や撮影時刻の時系列は、各棒グラフの基点からの高さ方向の長さで表現する。   Further, in the map 700 illustrated in the present embodiment, the case where the terrain is flat is taken as an example. However, for example, an elevation difference or the like can be expressed three-dimensionally. In this case, the bottom position (base point) of the bar graph in 3D display or 2D display is made to match the three-dimensional elevation, the bar graph is arranged, and the shooting time length and the time series of the shooting time are determined from the base point of each bar graph. It is expressed by the length in the height direction.

(作用・効果)
以上説明した本実施形態によれば、地図700上に撮影順に沿った移動軌跡703が表示されるとともに、この移動軌跡703上には、各地点における撮影の時間長が棒グラフによって表示されるため、撮影場所とその撮影時間の長さとによって、撮影時間が集中しているところがより重要な撮影をした場所であるなど、撮影内容の重要度を知ることができるとともに、撮影場所を覚えていれば、その場所を契機として撮影内容を思い出すことができる。このため、本実施形態によれば、地図上に表示された軌跡の中から撮影場所を指定することで、編集ポイントとなる目的の映像を容易に探し出すことが可能となる。
(Action / Effect)
According to the present embodiment described above, the movement trajectory 703 along the shooting order is displayed on the map 700, and the shooting time length at each point is displayed on the movement trajectory 703 as a bar graph. Depending on the shooting location and the length of the shooting time, you can know the importance of the shooting contents, such as where the shooting time is concentrated is the place where the shooting was more important, and if you remember the shooting location, You can remember the shooting contents at that place. For this reason, according to the present embodiment, it is possible to easily find a target video as an editing point by designating a shooting location from the trajectory displayed on the map.

これらの結果、本実施形態によれば、撮影場所が視覚的に分かり易く提示されるため、撮影内容の記憶が想起され易く、詳細に画像内容を確認する作業が大幅に削減されるという効果が得られる。また、本実施形態によれば、ビデオデータの編集を行う際に、効率よく目的の映像部分を容易且つ正確に検索でき、必要な映像と不必要な映像を選別し、必要な映像を繋ぎ合わせることで簡単にビデオ編集を実現することができる。   As a result, according to the present embodiment, the shooting location is presented in a visually easy-to-understand manner, so that it is easy to recall the shooting content, and the work of confirming the image content in detail is greatly reduced. can get. Further, according to this embodiment, when editing video data, it is possible to easily and accurately search for a target video portion, select necessary video and unnecessary video, and connect necessary video. This makes video editing easy.

実施形態に係るビデオ編集方法の手順を示すフロー図である。It is a flowchart which shows the procedure of the video editing method which concerns on embodiment. 実施形態に係るビデオ編集装置の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the video editing apparatus which concerns on embodiment. 実施形態に係るビデオ編集装置を、PCにより構成した場合の、内部構成を示したブロック図である。It is the block diagram which showed the internal structure at the time of comprising the video editing apparatus concerning embodiment by PC. 実施形態において、CPU上に展開された本発明のビデオ編集装置に関する各モジュールを示すブロック図である。In an embodiment, it is a block diagram showing each module about a video editing device of the present invention developed on CPU. (a)は、実施形態において、GPS装置から取得される位置情報のフォーマット図であり、(b)は、実施形態において、ビデオカメラから取得される映像情報のフォーマット図である。(A) is a format figure of the positional information acquired from a GPS apparatus in embodiment, (b) is a format figure of the video information acquired from a video camera in embodiment. 実施形態において、映像情報に位置情報をリンクさせたフォーマット図である。In the embodiment, it is a format diagram in which position information is linked to video information. 実施形態に係るビデオ編集装置のGUIである表示画面900を示した画面構成図である。It is the screen block diagram which showed the display screen 900 which is GUI of the video editing apparatus which concerns on embodiment. 実施形態に係るビデオ編集装置のGUIである表示画面900のタイムライン部分を拡大して示した画面構成図である。It is the screen block diagram which expanded and showed the timeline part of the display screen 900 which is GUI of the video editing apparatus which concerns on embodiment. (a)は、実施形態に係る地図を二次元表示した例を示す説明図であり、(b)は、(a)の地図の鳥瞰図であり、地図上に移動経路と共に撮影時間を表示した棒グラフを表示した状態を示す。(A) is explanatory drawing which shows the example which displayed the map which concerns on embodiment two-dimensionally, (b) is a bird's-eye view of the map of (a), and the bar graph which displayed imaging | photography time with the movement path | route on the map The state where is displayed. 実施形態において、二次元表示された棒グラフを説明する画面構成図である。In an embodiment, it is a screen lineblock diagram explaining a bar graph displayed two-dimensionally. 実施形態において、二次元表示された棒グラフと映像の再生順を説明する画面構成図である。In an embodiment, it is a screen lineblock diagram explaining the order of reproduction of a bar graph and a picture displayed two-dimensionally. 図11の三次元表示を示す画面構成図である。It is a screen block diagram which shows the three-dimensional display of FIG. 実施形態においてカットの終了点を指定した二次元表示の画面構成図である。It is the screen block diagram of the two-dimensional display which designated the end point of cut in embodiment. 実施形態においてカット範囲を説明する二次元表示の画面構成図である。It is a screen block diagram of the two-dimensional display explaining a cut range in an embodiment. 実施形態においてカット後の棒グラフの二次元表示の画面構成図である。It is a screen block diagram of the two-dimensional display of the bar graph after cut in embodiment. 実施形態においてカット後の三次元表示の編集画面構成図である。It is an edit screen block diagram of the three-dimensional display after cut in embodiment.

符号の説明Explanation of symbols

1…PC
2…通信ネットワーク
3…ビデオカメラ
4…GPS端末
10…CPU
11…メモリ
12…CODEC部
13…通信インターフェース
14…入出力端子
15…操作デバイス
16…データ記憶装置
17…システムバス
18…画像表示部
101…地図情報取得部
102…撮影位置情報取得部
103…ビデオデータ取得部
104…座標照合部
105…撮影時間計測部
106…表示情報生成部
107…編集処理部
108…操作信号取得部
109…編集データ生成部
1 ... PC
2 ... Communication network 3 ... Video camera 4 ... GPS terminal 10 ... CPU
DESCRIPTION OF SYMBOLS 11 ... Memory 12 ... CODEC part 13 ... Communication interface 14 ... Input / output terminal 15 ... Operation device 16 ... Data storage device 17 ... System bus 18 ... Image display part 101 ... Map information acquisition part 102 ... Shooting position information acquisition part 103 ... Video Data acquisition unit 104 ... Coordinate collation unit 105 ... Shooting time measurement unit 106 ... Display information generation unit 107 ... Edit processing unit 108 ... Operation signal acquisition unit 109 ... Edit data generation unit

Claims (2)

撮影して得られたビデオデータを撮影時のタイムスタンプとともに取得するビデオデータ取得部と、
前記ビデオデータに係る撮影位置を示す位置情報と撮影時刻情報とが関連付けられた撮影位置情報を取得する撮影位置情報取得部と、
地図情報を取得する地図情報取得部と、
前記それぞれ取得されたタイムスタンプ及び撮影位置情報に基づいて、該撮影位置情報の前記位置情報が示す位置での撮影時間を計測する撮影時間計測部と、
前記撮影位置情報の前記位置情報に基づいて、前記取得した地図情報の座標に、前記位置情報を時系列に対応させて移動軌跡を関連付ける移動軌跡関連付け部と、
前記地図情報に前記移動軌跡を合成するとともに、前記位置情報が示す位置での撮影時間を表すスケールを前記移動軌跡上に合成して表示情報を生成する表示情報生成部と、
操作者による操作に従って、前記取得したビデオデータの編集ポイントを設定する編集処理部と
を備え、
前記表示情報生成部は、前記編集ポイントに対応する前記ビデオデータのタイムスタンプに対応した前記スケール上に、前記編集ポイントに対応するスケール上編集ポイントを設ける
ようにしたビデオ編集装置。
A video data acquisition unit that acquires video data obtained by shooting together with a time stamp at the time of shooting;
A shooting position information acquisition unit for acquiring shooting position information in which position information indicating a shooting position related to the video data and shooting time information are associated;
A map information acquisition unit for acquiring map information;
A shooting time measuring unit that measures a shooting time at a position indicated by the position information of the shooting position information based on the acquired time stamp and shooting position information;
Based on the position information of the shooting position information, a movement trajectory associating unit that correlates the movement trajectory by associating the position information in time series with the coordinates of the acquired map information;
A display information generation unit that combines the movement trajectory with the map information and generates display information by combining a scale representing a shooting time at the position indicated by the position information on the movement trajectory;
An edit processing unit for setting an edit point of the acquired video data according to an operation by an operator;
The video editing apparatus, wherein the display information generation unit provides an on-scale editing point corresponding to the editing point on the scale corresponding to the time stamp of the video data corresponding to the editing point.
撮影して得られたビデオデータを撮影時のタイムスタンプとともに取得し、前記ビデオデータに係る撮影位置を示す位置情報と撮影時刻情報とが関連付けられた撮影位置情報を取得するステップと、
地図情報を取得するステップと、
前記それぞれ取得されたタイムスタンプ及び撮影位置情報に基づいて、該撮影位置情報の前記位置情報が示す位置での撮影時間を計測し、前記撮影位置情報の前記位置情報に基づいて、前記取得した地図情報の座標に、前記位置情報を時系列に対応させて移動軌跡を関連付けるステップと、
前記地図情報に前記移動軌跡を合成するとともに、前記位置情報が示す位置での撮影時間を表すスケールを前記移動軌跡上に合成して表示情報を生成するステップと、
操作者による操作に従って、前記取得したビデオデータの編集ポイントを設定し、該編集ポイントに対応する前記ビデオデータのタイムスタンプに対応した前記スケール上に、前記編集ポイントに対応するスケール上編集ポイントを設けるステップと、
を有したビデオ編集方法。
Acquiring video data obtained by shooting together with a time stamp at the time of shooting, and acquiring shooting position information in which position information indicating a shooting position related to the video data and shooting time information are associated;
Obtaining map information;
Based on the acquired time stamp and shooting position information, the shooting time at the position indicated by the position information of the shooting position information is measured, and the acquired map is calculated based on the position information of the shooting position information. Associating a movement trajectory by associating the position information in time series with information coordinates;
Combining the movement trajectory with the map information, and generating display information by combining a scale representing a shooting time at the position indicated by the position information on the movement trajectory;
An edit point of the acquired video data is set in accordance with an operation by an operator, and an edit point on the scale corresponding to the edit point is provided on the scale corresponding to the time stamp of the video data corresponding to the edit point. Steps,
Video editing method.
JP2008037540A 2008-02-19 2008-02-19 Video editing device and method Pending JP2009200601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008037540A JP2009200601A (en) 2008-02-19 2008-02-19 Video editing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008037540A JP2009200601A (en) 2008-02-19 2008-02-19 Video editing device and method

Publications (1)

Publication Number Publication Date
JP2009200601A true JP2009200601A (en) 2009-09-03

Family

ID=41143675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008037540A Pending JP2009200601A (en) 2008-02-19 2008-02-19 Video editing device and method

Country Status (1)

Country Link
JP (1) JP2009200601A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942811A (en) * 2013-01-21 2014-07-23 中国电信股份有限公司 Method and system for determining motion trajectory of characteristic object in distributed and parallel mode
CN105323548A (en) * 2015-03-17 2016-02-10 四川浩特通信有限公司 Intelligent combat system
CN105323547A (en) * 2015-03-17 2016-02-10 四川浩特通信有限公司 Video condensing system
CN105578269A (en) * 2016-01-20 2016-05-11 努比亚技术有限公司 Mobile terminal and video processing method thereof
JP6469285B1 (en) * 2018-06-15 2019-02-13 株式会社キャッシュフローリノベーション Productivity improvement system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942811A (en) * 2013-01-21 2014-07-23 中国电信股份有限公司 Method and system for determining motion trajectory of characteristic object in distributed and parallel mode
CN103942811B (en) * 2013-01-21 2017-08-15 中国电信股份有限公司 Distributed parallel determines the method and system of characteristic target movement locus
CN105323548A (en) * 2015-03-17 2016-02-10 四川浩特通信有限公司 Intelligent combat system
CN105323547A (en) * 2015-03-17 2016-02-10 四川浩特通信有限公司 Video condensing system
CN105323548B (en) * 2015-03-17 2018-05-15 四川浩特通信有限公司 A kind of intelligence actual combat system
CN105323547B (en) * 2015-03-17 2018-05-15 四川浩特通信有限公司 A kind of video concentration systems
CN105578269A (en) * 2016-01-20 2016-05-11 努比亚技术有限公司 Mobile terminal and video processing method thereof
CN105578269B (en) * 2016-01-20 2019-04-05 努比亚技术有限公司 Mobile terminal and its method for processing video frequency
JP6469285B1 (en) * 2018-06-15 2019-02-13 株式会社キャッシュフローリノベーション Productivity improvement system
JP2019219763A (en) * 2018-06-15 2019-12-26 株式会社キャッシュフローリノベーション Productivity improvement system

Similar Documents

Publication Publication Date Title
US7110592B2 (en) Image recording apparatus, image reproducing apparatus and methods therefor
KR0184245B1 (en) Electronic camera and image reproducing device therefor
JP5053404B2 (en) Capture and display digital images based on associated metadata
US8542255B2 (en) Associating media content items with geographical data
US8139919B2 (en) Light table editor for video snippets
US20120236027A1 (en) Display control device, display control method, and program
Tompkin et al. Videoscapes: exploring sparse, unstructured video collections
JP4965475B2 (en) Virtual moving display device
JP2006279266A (en) Electronic album preparation device, electronic album preparing system, and electronic album preparation program
JP2009200601A (en) Video editing device and method
JP2014165912A (en) Video reproduction method, program and system
JP6110780B2 (en) Additional information display system
JP4458886B2 (en) Mixed reality image recording apparatus and recording method
JP4376340B2 (en) Curve slider device
JP2013182332A (en) Image display program and image display device
JP3837577B2 (en) Microscope observation reproduction method, microscope observation reproduction apparatus, microscope observation reproduction program, and recording medium thereof
JPH10187759A (en) Moving picture anchor displaying, selecting, and stetting device, moving picture hypermedia device using moving picture anchor, and moving picture provision system
JP5176605B2 (en) Video search device
KR100950070B1 (en) Apparatus and method for authoring travel information content and apparatus for reproducing the same content
JP6394729B2 (en) Information processing apparatus, music data extraction method in information processing apparatus, program, and information processing system
JP5012644B2 (en) Presentation recording apparatus, presentation playback apparatus, and program
JP2020119368A (en) Video information management system and video information management method
JP4559210B2 (en) Electronic album creation apparatus and electronic album creation system
KR102204721B1 (en) Method and user terminal for providing AR(Augmented Reality) documentary service
KR20180020187A (en) Method and system for generating content using panoramic image