JP2014150355A - Image editing apparatus and moving image display method - Google Patents

Image editing apparatus and moving image display method Download PDF

Info

Publication number
JP2014150355A
JP2014150355A JP2013017102A JP2013017102A JP2014150355A JP 2014150355 A JP2014150355 A JP 2014150355A JP 2013017102 A JP2013017102 A JP 2013017102A JP 2013017102 A JP2013017102 A JP 2013017102A JP 2014150355 A JP2014150355 A JP 2014150355A
Authority
JP
Japan
Prior art keywords
scene
moving image
image
moving images
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013017102A
Other languages
Japanese (ja)
Other versions
JP6142551B2 (en
Inventor
Ryoyu Kaji
良脩 加治
Tomohisa Hasumi
友久 蓮見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013017102A priority Critical patent/JP6142551B2/en
Publication of JP2014150355A publication Critical patent/JP2014150355A/en
Application granted granted Critical
Publication of JP6142551B2 publication Critical patent/JP6142551B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily deal with an obtained moving image file.SOLUTION: The image editing apparatus comprises: an image reading unit which reads plural moving images; a scene classification unit which aligns plural moving images read by the image reading unit and classifies the aligned moving images by each scene included in the moving images; an image acquisition unit which respectively acquires representative images in plural scenes classified by the scene classification unit; and a display unit which displays a slider representing the plural moving images classified on scene-by-scene basis and displays a time line in which representative images in the scenes classified by the moving images are displayed in the vicinity of the scenes of the slider.

Description

本発明は、画像編集装置及び動画像の表示方法に関する。   The present invention relates to an image editing apparatus and a moving image display method.

パーソナルコンピュータなどの画像編集装置を用いて動画像ファイルを編集するときには、動画像ファイルを再生(記録)開始からの経過時間を示すスライダと、撮影開始からの経過時間を示すタイムコードとからなるタイムラインを用いて表示することが一般的である。一方、動画撮影時に得られる動画像ファイルは、撮像装置に基づくファイルフォーマットに従ったものとなる。このファイルフォーマットによっては、ファイルサイズが制限され、動画撮影時に取得される動画像ファイルが複数の動画像ファイルに分割されて記録される場合がある。また、動画撮影時に、撮像装置に装着される記憶媒体の残容量が少ない場合には、複数の動画像ファイルに分割し、分割した動画像ファイルをそれぞれ複数の記憶媒体に記憶する場合もある。最近では、このように分割されて記憶される複数の動画像ファイルを1つの動画像ファイルに結合して画像編集装置に取り込むことが考案されている。   When editing a moving image file using an image editing apparatus such as a personal computer, a time composed of a slider indicating an elapsed time from the start of reproduction (recording) of the moving image file and a time code indicating an elapsed time from the start of shooting. It is common to display using lines. On the other hand, a moving image file obtained at the time of moving image shooting conforms to a file format based on the imaging device. Depending on the file format, the file size is limited, and a moving image file acquired at the time of moving image shooting may be divided into a plurality of moving image files and recorded. In addition, when the remaining capacity of the storage medium attached to the imaging device is small at the time of moving image shooting, it may be divided into a plurality of moving image files, and the divided moving image files may be stored in a plurality of storage media, respectively. Recently, it has been devised to combine a plurality of moving image files that are divided and stored in this way into one moving image file and to import them into an image editing apparatus.

特開2011−223327号公報JP 2011-223327 A

しかしながら、複数の動画像ファイルを1つの動画像ファイルとして取り込む場合であっても、複数の動画像ファイルをそのまま取り込む場合であっても、上述したタイムライン表示を用いて画像編集処理を行う場合には、それぞれのファイルの構成をユーザが確認しながら行うため、不便である。   However, even when capturing a plurality of moving image files as a single moving image file or when capturing a plurality of moving image files as they are, the image editing process is performed using the timeline display described above. Is inconvenient because the user confirms the configuration of each file.

本発明は、得られた動画像ファイルの取り扱いを容易に行うことができるようにした画像編集装置及び動画像の表示方法を提供することを目的とする。   It is an object of the present invention to provide an image editing apparatus and a moving image display method that can easily handle the obtained moving image file.

上述した課題を解決するために、本発明の画像編集装置は、複数の動画像を読み出す画像読出部と、前記画像読出部にて読み出した前記複数の動画像を配列し、配列した複数の動画像を該複数の動画像に含まれるシーン毎に仕分けるシーン仕分部と、前記シーン仕分部により仕分けられた複数のシーンにおける代表画像をそれぞれ取得する画像取得部と、前記シーン毎に仕分けた前記複数の動画像を示すスライダを表示するとともに、前記複数の動画像により仕分けられたシーンにおける代表画像を前記スライダのシーン近傍に表示したタイムライン表示を行う表示部と、を備えたことを特徴とする。   In order to solve the above-described problem, an image editing apparatus according to the present invention includes an image reading unit that reads a plurality of moving images, and a plurality of moving images that are arranged by arranging the plurality of moving images read by the image reading unit. A scene sorting unit that sorts images into scenes included in the plurality of moving images, an image acquisition unit that obtains representative images in a plurality of scenes sorted by the scene sorting unit, and the plurality of sorts for each scene And a display unit for displaying a timeline in which a representative image in a scene sorted by the plurality of moving images is displayed near the scene of the slider. .

また、本発明の動画像の表示方法は、複数の動画像を読み出す画像読出工程と、前記画像読出工程にて読み出した前記複数の動画像を配列し、配列した複数の動画像を該複数の動画像に含まれるシーン毎に仕分けるシーン仕分工程と、前記シーン仕分工程により仕分けられた複数のシーンにおける代表画像をそれぞれ取得する画像取得工程と、前記シーン毎に仕分けた前記複数の動画像を示すスライダを表示するとともに、前記複数の動画像により仕分けられたシーンにおける代表画像を前記スライダのシーン近傍に表示したタイムライン表示を行う表示工程と、を備えたことを特徴とする。   The moving image display method of the present invention includes an image reading step of reading out a plurality of moving images, and arranging the plurality of moving images read out in the image reading step, and arranging the arranged plurality of moving images into the plurality of moving images. A scene sorting process for sorting scenes included in a moving image, an image acquisition process for acquiring representative images in a plurality of scenes sorted by the scene sorting process, and the plurality of moving images sorted for each scene are shown. A display step of displaying a slider and performing a timeline display in which a representative image in a scene sorted by the plurality of moving images is displayed in the vicinity of the scene of the slider.

本発明によれば、得られた動画像ファイルの取り扱いを容易に行うことができる。   According to the present invention, it is possible to easily handle the obtained moving image file.

撮像装置とパーソナルコンピュータ(PC)との関係を示す図である。It is a figure which shows the relationship between an imaging device and a personal computer (PC). PCの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of PC. CPUの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of CPU. 画像編集画面の一例を示す図である。It is a figure which shows an example of an image edit screen. フォルダ内の画像一覧を表示する場合の画像編集画面の一例を示す図である。It is a figure which shows an example of the image edit screen in the case of displaying the image list in a folder. 動画像ファイルに基づくタイムラインを表示する場合の画像編集画面の一例を示す図である。It is a figure which shows an example of the image edit screen in the case of displaying the timeline based on a moving image file. シーンに基づくタイムラインを表示する場合の画像編集画面の一例を示す図である。It is a figure which shows an example of the image edit screen in the case of displaying the timeline based on a scene. 複数の動画像ファイルを用いてシーンに基づくタイムラインを表示する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of displaying the timeline based on a scene using a some moving image file. 複数の動画像ファイルを用いてシーンに基づくタイムラインを表示する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of displaying the timeline based on a scene using a some moving image file. 表示されるタイムラインの一部のシーンにおける動画像ファイルを記憶する場合を示す図である。It is a figure which shows the case where the moving image file in the one part scene of the timeline displayed is memorize | stored. (a)はシーン表示の粒度を「細」に設定した場合のタイムラインの表示の一例を示す図、(b)はシーン表示の粒度を「粗」に設定した場合のタイムラインの表示の一例を示す図である。(A) is a figure which shows an example of the display of a timeline when the granularity of a scene display is set to "thin", (b) is an example of the display of a timeline when the granularity of a scene display is set to "coarse" FIG. シーン表示の粒度を「粗」に設定したときに、表示されるタイムラインの一部のシーンにおける動画像ファイルを記憶する場合を示す図である。It is a figure which shows the case where the moving image file in the one part scene of the timeline displayed is memorize | stored when the granularity of a scene display is set to "rough". マーキング処理が施された動画像ファイルを含む複数の動画像ファイルを用いて、シーンに基づくタイムラインを表示する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of displaying the timeline based on a scene using the some moving image file containing the moving image file to which the marking process was performed. シーンに基づく動画像を再生する際の再生速度の一例を示す図である。It is a figure which shows an example of the reproduction speed at the time of reproducing | regenerating the moving image based on a scene.

以下、本発明を適用した画像編集装置の一例として、パーソナルコンピュータ(PC)を例に取り上げて説明する。   Hereinafter, a personal computer (PC) will be described as an example of an image editing apparatus to which the present invention is applied.

図1に示すように、PC11は、デジタルカメラ12aやビデオカメラ12bなどの撮像装置12との間でデータ通信を行うことができる。PC11と撮像装置12との間のデータ通信としては、USBケーブルなどの有線によるデータ通信の他、無線通信を用いたデータ通信が挙げられる。また、PC11は、撮像装置12から取り外された記憶媒体34を装着することにより、装着された記憶媒体34に記憶された画像データの読み出しや、該記憶媒体34に対して画像データの書き込みを行うことができる。   As shown in FIG. 1, the PC 11 can perform data communication with an imaging device 12 such as a digital camera 12a or a video camera 12b. Data communication between the PC 11 and the imaging device 12 includes data communication using wireless communication in addition to wired data communication such as a USB cable. In addition, the PC 11 attaches the storage medium 34 removed from the imaging device 12 to read out image data stored in the attached storage medium 34 and write image data to the storage medium 34. be able to.

図2に示すように、PC11は、CPU21、ROM22、RAM23、表示制御回路24、表示装置25、バッファメモリ26、画像メモリ27、メディアコントローラ28、接続用I/F29、通信部30、キーボード31、ポインティングデバイス32からなる。ここで、CPU21、ROM22、RAM23、表示制御回路24、バッファメモリ26、画像メモリ27、メディアコントローラ28、接続用I/F29及び通信部30は、バス33を介して電気的に接続される。   As shown in FIG. 2, the PC 11 includes a CPU 21, ROM 22, RAM 23, display control circuit 24, display device 25, buffer memory 26, image memory 27, media controller 28, connection I / F 29, communication unit 30, keyboard 31, It consists of a pointing device 32. Here, the CPU 21, ROM 22, RAM 23, display control circuit 24, buffer memory 26, image memory 27, media controller 28, connection I / F 29, and communication unit 30 are electrically connected via a bus 33.

CPU21は、ROM22に記憶された制御プログラムやアプリケーションプログラムを実行したときに、PCの各部を制御する。なお、このアプリケーションプログラムとして、画像編集プログラムが挙げられる。このCPU21には、キーボード31やポインティングデバイス32からの操作信号に応じた制御を実行する。ここで、ポインティングデバイス32としては、例えばマウスや、トラックボール、ペンタブレットなどが挙げられる。   The CPU 21 controls each part of the PC when the control program or application program stored in the ROM 22 is executed. An example of the application program is an image editing program. The CPU 21 executes control according to operation signals from the keyboard 31 and the pointing device 32. Here, examples of the pointing device 32 include a mouse, a trackball, and a pen tablet.

ROM22は、PC11にて実行される制御プログラムやアプリケーションプログラムの他、これらプログラムを実行する際に使用される演算子などのデータを記憶する。RAM23は、CPU21にて上述したプログラムを実行したときに生成されるデータなどを一次記憶する。   The ROM 22 stores data such as an operator used when executing these programs in addition to a control program and application programs executed by the PC 11. The RAM 23 temporarily stores data generated when the CPU 21 executes the above-described program.

表示制御回路24は、表示装置25における表示制御を行う。表示装置25の例として、液晶表示装置(LCD)、有機ELディスプレイなどが挙げられる。バッファメモリ26は、画像データなどを一時的に記憶する。画像メモリ27は、画像編集プログラムを実行したときに、取り込まれる画像ファイルを格納する。   The display control circuit 24 performs display control in the display device 25. Examples of the display device 25 include a liquid crystal display (LCD) and an organic EL display. The buffer memory 26 temporarily stores image data and the like. The image memory 27 stores an image file that is captured when the image editing program is executed.

メディアコントローラ28は、記憶媒体34を装着することで、PC11と記憶媒体34とを電気的に接続する。ここで、記憶媒体34としては、例えばメモリカードや、光学ディスク、磁気ディスクなどが挙げられる。   The media controller 28 electrically connects the PC 11 and the storage medium 34 by mounting the storage medium 34. Here, examples of the storage medium 34 include a memory card, an optical disk, and a magnetic disk.

接続用I/F29は、例えばUSBポートやIEEEポートなどから構成される。この接続用I/F29には、ケーブルの一端に設けられたコネクタが装着される。このケーブルの他端に設けられたコネクタは、撮像装置12に接続される。これにより、撮像装置12とPC11とが電気的に接続される。   The connection I / F 29 includes, for example, a USB port or an IEEE port. A connector provided at one end of the cable is attached to the connection I / F 29. A connector provided at the other end of the cable is connected to the imaging device 12. Thereby, the imaging device 12 and the PC 11 are electrically connected.

通信部30は、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。この通信部30としては、無線LAN(LocalArea Network)対応の通信部やワイヤレスUSB対応の通信部の他、有線通信に対応した通信部が挙げられる。   The communication unit 30 is a communication interface configured with a communication device or the like for connecting to a network. Examples of the communication unit 30 include a communication unit compatible with wired communication in addition to a communication unit compatible with wireless LAN (Local Area Network) and a communication unit compatible with wireless USB.

図3に示すように、CPU11は、画像編集プログラムを実行したときに、動画像管理部41、タイムライン生成部42、シーン解析部43及び代表画像取得部44の機能を実行する。動画像管理部41は、PC11に取り込まれた画像ファイル(動画像ファイル、静止画像ファイル)を管理する。   As illustrated in FIG. 3, the CPU 11 executes the functions of the moving image management unit 41, the timeline generation unit 42, the scene analysis unit 43, and the representative image acquisition unit 44 when executing the image editing program. The moving image management unit 41 manages image files (moving image files and still image files) imported to the PC 11.

タイムライン生成部42は、動画像ファイルに対するタイムライン表示を行う際に必要となる情報を生成する。例えば、詳細は後述するが、タイムライン表示は、ソートされた複数の動画像ファイルに基づいたタイムライン表示と、ソートされた動画像ファイルに含まれるシーンに基づいたタイムライン表示とからなる。例えば、ソートされた複数の動画像ファイルに基づいたタイムライン表示を行う場合、タイムライン表示を行う際に必要となる情報としては、ソートされた動画像ファイルの配列に関する情報と、ソートされた動画像ファイルにおける各フレーム画像に対するタイムコードの情報とが挙げられる。   The timeline generation unit 42 generates information necessary for performing timeline display on a moving image file. For example, although details will be described later, the timeline display includes a timeline display based on a plurality of sorted moving image files and a timeline display based on scenes included in the sorted moving image files. For example, when performing timeline display based on a plurality of sorted moving image files, information necessary for performing timeline display includes information on the arrangement of sorted moving image files and sorted moving images. And time code information for each frame image in the image file.

この場合、タイムライン生成部42は、まず、画像メモリ27に設けられたフォルダのうち、対象となるフォルダ内に格納された複数の動画像ファイルを、その録画日時の古い順にソートする。これにより、動画像ファイルの配列に関する情報が取得される。   In this case, the timeline generating unit 42 first sorts a plurality of moving image files stored in the target folder among the folders provided in the image memory 27 in order of oldest recording date and time. Thereby, the information regarding the arrangement | sequence of a moving image file is acquired.

次に、タイムライン生成部42は、ソートされた複数の動画像ファイルの各フレーム画像データに付されたタイムコードを読み出す。周知のように、撮像装置12を用いた動画撮影では、予めフレームレートが決定されている。つまり、動画像ファイルを構成する各フレーム画像には、該フレーム画像を最小単位とした時間的位置を示すタイムコードがそれぞれ付されている。そこで、タイムライン生成部42は、各動画像ファイルを構成するフレーム画像に付されたタイムコードを、ソートされた動画像ファイルの第1フレーム目のフレーム画像のタイムコードを基準にして、新たに設定する。これにより、ソートされた複数の動画像ファイルの各フレーム画像に対するタイムコードの情報が取得される。   Next, the timeline generation unit 42 reads out the time code attached to each frame image data of the plurality of sorted moving image files. As is well known, in moving image shooting using the imaging device 12, a frame rate is determined in advance. That is, each frame image constituting the moving image file is assigned a time code indicating a temporal position with the frame image as a minimum unit. Therefore, the timeline generation unit 42 newly sets the time code attached to the frame image constituting each moving image file with reference to the time code of the frame image of the first frame of the sorted moving image file. Set. Thereby, time code information for each frame image of the plurality of sorted moving image files is acquired.

一方、ソートされた動画像ファイルに含まれるシーンに基づいたタイムライン表示を行う場合に、タイムライン表示を行う際に必要となる情報としては、シーン解析部43における判定結果に基づいて設定されるシーンチェンジフラグの位置の情報が挙げられる。   On the other hand, when performing timeline display based on scenes included in the sorted moving image file, information necessary for performing timeline display is set based on the determination result in the scene analysis unit 43. Information on the position of the scene change flag is given.

シーンに基づくタイムライン表示を行う場合、タイムライン生成部42は、時間的に前後する2つのフレーム画像を読み出し、フレーム画像におけるシーンが変化しているか否かを判定する。なお、時間的に前後する2つのフレームとは、任意のフレームに対して所定数前のフレームと所定数後のフレームであってもよい。所定数前のフレームと所定数後のフレームはユーザが任意で決めてもよい。また、任意のフレームに対して1つ前のフレームと1つ後のフレームであってもよい。この判定において、シーンが変化していると判定された場合に、時間的に前後する2つのフレーム画像のうち、時間的に後に位置するフレーム画像に対して、シーンチェンジフラグを付与する。この処理を読み出した動画像ファイルの全てに対し実行する。これにより、シーンチェンジフラグが設定され、設定されたシーンチェンジフラグの位置の情報が得られる。   When performing timeline display based on a scene, the timeline generation unit 42 reads two frame images that are temporally forward and backward, and determines whether or not the scene in the frame image has changed. Note that the two frames that move forward and backward in time may be a predetermined number of frames before and a predetermined number of frames with respect to an arbitrary frame. The user may arbitrarily determine a predetermined number of previous frames and a predetermined number of subsequent frames. Moreover, the frame immediately before and one frame after an arbitrary frame may be used. In this determination, when it is determined that the scene has changed, a scene change flag is assigned to a frame image positioned later in time among the two frame images moving back and forth in time. This process is executed for all the read moving image files. Thereby, the scene change flag is set, and information on the position of the set scene change flag is obtained.

シーン解析部43は、ソートされた動画像ファイルに含まれるシーンのシーン解析を行う。シーン解析としては、例えば各フレーム画像に対する領域分割処理を用いてシーンを解析する方法の他、顕著度マップを生成することでシーンを解析する方法が挙げられる。   The scene analysis unit 43 performs scene analysis of scenes included in the sorted moving image file. Examples of the scene analysis include a method of analyzing a scene by generating a saliency map, in addition to a method of analyzing a scene using region division processing for each frame image.

代表画像取得部44は、動画像ファイルにおける代表画像や各シーンにおける代表画像を取得する。例えば動画像ファイルの代表画像としては、例えば動画像ファイルを構成する複数のフレーム画像から、第1フレーム目のフレーム画像に基づくサムネイル画像を代表画像として取得する。また、シーンにおける代表画像としては、シーンを構成するフレーム画像から、シーン解析部43の解析結果に基づいたフレーム画像に基づくサムネイル画像を代表画像として取得する。そして、代表画像取得部44は、取得したサムネイル画像を表示制御回路24に出力する。   The representative image acquisition unit 44 acquires a representative image in the moving image file and a representative image in each scene. For example, as a representative image of a moving image file, for example, a thumbnail image based on the frame image of the first frame is acquired as a representative image from a plurality of frame images constituting the moving image file. As a representative image in the scene, a thumbnail image based on the frame image based on the analysis result of the scene analysis unit 43 is acquired as a representative image from the frame images constituting the scene. Then, the representative image acquisition unit 44 outputs the acquired thumbnail image to the display control circuit 24.

図4は、表示装置25に表示される画像編集画面の一例を示す。画像編集プログラムを実行すると、表示装置25には画像編集画面51が表示される。ここで、画像編集画面51は、表示装置25の全体に表示するものであってもよいし、表示装置25の一部を用いて表示するものであってもよい。この画像編集画面51は、実行可能な機能の一覧(図4中機能メニュー)と、選択された機能メニューに基づいた内容とから構成される。ここで、ユーザは、機能メニューに表示される機能項目を選択することで、選択した機能に基づく処理を実行することができる。ここで、機能項目「かんたんバックアップ」は、撮像装置12により得られた画像ファイルの全てを、撮像装置12からPC11にバックアップする際に選択される。この場合、バックアップされる画像ファイルは、全て、PC11の画像メモリ27に格納される。また、項目「選択画像取り込み」は、撮像装置12により得られた画像ファイルのうち、ユーザがバックアップしたい画像ファイルをPC11に記憶させる際に選択される。項目「ワンタッチディスク」は、PC11に記憶されている画像ファイルを、光学ディスクなどの記憶媒体に記憶する際に選択される。   FIG. 4 shows an example of an image editing screen displayed on the display device 25. When the image editing program is executed, an image editing screen 51 is displayed on the display device 25. Here, the image editing screen 51 may be displayed on the entire display device 25 or may be displayed using a part of the display device 25. The image editing screen 51 is composed of a list of executable functions (function menu in FIG. 4) and contents based on the selected function menu. Here, the user can execute a process based on the selected function by selecting a function item displayed on the function menu. Here, the function item “Easy Backup” is selected when all the image files obtained by the imaging device 12 are backed up from the imaging device 12 to the PC 11. In this case, all the image files to be backed up are stored in the image memory 27 of the PC 11. Also, the item “selected image capture” is selected when an image file to be backed up by the user is stored in the PC 11 among the image files obtained by the imaging device 12. The item “one-touch disk” is selected when an image file stored in the PC 11 is stored in a storage medium such as an optical disk.

次に、画像編集画面51において画像編集処理を行う場合について説明する。この場合、画像編集処理を行う動画像ファイルを選択する必要がある。画像編集処理を行う動画像ファイルを選択する場合、画像編集画面51には、ディレクトリ構造とフォルダ構成とが表示される。例えば画像編集処理を行うフォルダを選択すると、選択されたフォルダ内に含まれる動画像ファイルの一覧が表示される(図5参照)。ここでは、選択されたフォルダ内に、「a.mov」,「b.mov」,「c.mov」の3つの動画像ファイルが格納されている場合を示している。   Next, a case where image editing processing is performed on the image editing screen 51 will be described. In this case, it is necessary to select a moving image file for performing image editing processing. When a moving image file to be subjected to image editing processing is selected, a directory structure and a folder structure are displayed on the image editing screen 51. For example, when a folder for image editing processing is selected, a list of moving image files included in the selected folder is displayed (see FIG. 5). Here, a case is shown in which three moving image files “a.mov”, “b.mov”, and “c.mov” are stored in the selected folder.

ここで、フォルダに含まれる動画像ファイルの一覧にかかる表示としては、各動画像ファイルの詳細表示(撮影時間、ファイルの種類などの表示)や動画像ファイルの縮小表示(第1フレーム目のサムネイル画像の表示)の他、後述するタイムライン表示が挙げられる。上述したように、タイムライン表示は、ソートされた動画像ファイルの配列に基づくタイムライン表示と、ソートされた動画像ファイルに含まれるシーンに基づいたタイムライン表示とから構成される。   Here, the display related to the list of moving image files included in the folder includes detailed display of each moving image file (display of shooting time, file type, etc.) and reduced display of moving image file (thumbnail of the first frame). In addition to (image display), a timeline display described later is included. As described above, the timeline display includes a timeline display based on the arrangement of the sorted moving image files and a timeline display based on the scenes included in the sorted moving image files.

図6は、ソートされた動画像ファイルの配列に基づいたタイムライン表示の例を示す。ここで、タイムライン表示においては、ソートされた動画像ファイルに基づく動画像の構成を示すスライダ52と、各動画像ファイルの代表画像とが表示される。ここで、動画像ファイル「a.mov」,動画像ファイル「b.mov」,動画像ファイル「c.mov」が、動画像ファイル「a.mov」,動画像ファイル「b.mov」,動画像ファイル「c.mov」の順で撮影されているのであれば、タイムライン表示においては、動画像ファイル「a.mov」,動画像ファイル「b.mov」,動画像ファイル「c.mov」の順で表示される。ここで、スライダ52においては、ファイル名と、各動画像ファイルを色分けして表示している。なお、図6においては、動画像ファイルの色分けを、ハッチングの種類を変更することで示している。また、スライダ52における各動画像ファイルを示す位置に対応して、各動画像ファイルにおける代表画像が、吹き出しを用いて表示される。   FIG. 6 shows an example of a timeline display based on the arrangement of sorted moving image files. Here, in the timeline display, a slider 52 indicating the structure of a moving image based on the sorted moving image file and a representative image of each moving image file are displayed. Here, the moving image file “a.mov”, the moving image file “b.mov”, and the moving image file “c.mov” are the moving image file “a.mov”, the moving image file “b.mov”, and the moving image. If the images are taken in the order of the image file “c.mov”, the moving image file “a.mov”, the moving image file “b.mov”, and the moving image file “c.mov” are displayed in the timeline display. Are displayed in this order. Here, in the slider 52, the file name and each moving image file are displayed in different colors. In FIG. 6, the color classification of the moving image file is shown by changing the type of hatching. Corresponding to the position indicating each moving image file on the slider 52, the representative image in each moving image file is displayed using a balloon.

なお、図6においては、スライダ52を、3本のスライダを用いて表示しているが、スライダ52の本数については、これに限定される必要はなく、タイムライン表示の際に表示されるスライダを、2本のスライダ、又は4本以上のスライダを用いて表示することも可能である。なお、図6中、動画像ファイルの境界に対して、印「▽」及び「△」が付される。   In FIG. 6, the slider 52 is displayed using three sliders. However, the number of the sliders 52 is not limited to this, and the sliders displayed when the timeline is displayed. Can be displayed using two sliders or four or more sliders. In FIG. 6, marks “及 び” and “Δ” are attached to the boundary of the moving image file.

図7は、ソートされた動画像ファイルに基づく動画像に含まれるシーンに基づいたタイムライン表示の例を示す。ソートされた動画像ファイルに基づく動画像に含まれるシーンに基づいたタイムライン表示の場合も、ソートされた動画像ファイルに基づく動画像の構成を示すタイムライン表示と同様に、複数のスライダと、代表画像とから構成される。図7中、「scene1」、「scene2」、「scene3」、「scene4」、「scene5」が、動画像ファイル「a.mov」,動画像ファイル「b.mov」,動画像ファイル「c.mov」から得られるシーンである。このタイムライン表示においては、動画像ファイルではなく、動画像ファイルに含まれるシーンの境界に対して、印「▽」及び「△」が付される。
この場合、スライダにおいては、シーン名を表示している。このタイムライン表示においては、動画像に含まれるシーンに基づいたタイムライン表示であるが、スライダにおいては、動画像ファイルとシーンとの対応付けがユーザにわかるように、動画像ファイルの色分けして示している。なお、図7においては、動画像ファイルの色分けを、ハッチングの種類を変更することで示している。また、スライダの各シーンを示す位置に対応するように、各シーン中における代表画像が、吹き出しを用いて表示される。
FIG. 7 shows an example of a timeline display based on a scene included in a moving image based on the sorted moving image file. In the case of the timeline display based on the scene included in the moving image based on the sorted moving image file, similarly to the timeline display indicating the structure of the moving image based on the sorted moving image file, a plurality of sliders, It consists of a representative image. In FIG. 7, “scene1”, “scene2”, “scene3”, “scene4”, “scene5” are a moving image file “a.mov”, a moving image file “b.mov”, and a moving image file “c.mov”. It is a scene obtained from In this timeline display, marks “▽” and “Δ” are attached not to the moving image file but to the boundary of the scene included in the moving image file.
In this case, a scene name is displayed on the slider. In this timeline display, the timeline display is based on the scene included in the moving image, but in the slider, the moving image file is color-coded so that the user can know the association between the moving image file and the scene. Show. In FIG. 7, the color coding of the moving image file is shown by changing the type of hatching. In addition, the representative image in each scene is displayed using a balloon so as to correspond to the position indicating each scene on the slider.

以下、タイムライン表示を行う場合の処理の流れについて説明する。以下、選択されたフォルダ内に含まれる複数の動画像ファイルを結合させずに処理する場合について、第1実施形態と称して説明する。
<第1実施形態>
以下、タイムライン表示時の処理の流れについて、図8のフローチャートを用いて説明する。
Hereinafter, the flow of processing when performing timeline display will be described. Hereinafter, a case where a plurality of moving image files included in a selected folder are processed without being combined will be described as a first embodiment.
<First Embodiment>
Hereinafter, the flow of processing during timeline display will be described with reference to the flowchart of FIG.

ステップS101は、フォルダを指定する処理である。ユーザがキーボード31又はポインティングデバイス32を操作し、ユーザの意図するフォルダを指定すると、CPU21は、指定されたフォルダに含まれる画像ファイルを読み出す。   Step S101 is processing for designating a folder. When the user operates the keyboard 31 or the pointing device 32 and designates a folder intended by the user, the CPU 21 reads out an image file included in the designated folder.

ステップS102は、動画像ファイルがあるか否かを判定する処理である。CPU21は、読み出した画像ファイルの中に動画像ファイルがあれば、このステップS102の判定結果をYesとする。この場合、ステップS103に進む。一方、読み出した画像ファイルの中に動画像ファイルがない場合には、ステップS102の判定結果をNoとする。この場合、このフローチャートの処理が終了する。   Step S102 is processing for determining whether or not there is a moving image file. If there is a moving image file in the read image file, the CPU 21 sets the determination result in step S102 to Yes. In this case, the process proceeds to step S103. On the other hand, if there is no moving image file in the read image file, the determination result in step S102 is No. In this case, the process of this flowchart ends.

ステップS103は、動画像ファイルをソートする処理である。CPU21は、読み出した動画像ファイルのそれぞれに付帯された撮影日時の情報を読み出す。そして、CPU21は、読み出した動画像ファイルを、撮影日時の古い順に並べ替える。そして、CPU21は、タイムライン表示を行う動画像ファイルの順序、及びタイムコードの情報を表示制御回路24に出力する。また、CPU21は、各動画像ファイルの代表画像データを取得し、取得した代表画像データを表示制御回路24に出力する。   Step S103 is processing for sorting moving image files. The CPU 21 reads information on the shooting date and time attached to each of the read moving image files. Then, the CPU 21 rearranges the read moving image files in order of shooting date and time. Then, the CPU 21 outputs to the display control circuit 24 information on the order of moving image files for timeline display and time code. Further, the CPU 21 acquires representative image data of each moving image file, and outputs the acquired representative image data to the display control circuit 24.

ステップS104は、ソートされた動画像ファイルの配列に基づいたタイムライン表示を行う処理である。表示制御回路24は、ステップS103においてCPU21から出力された情報及び代表画像データに基づいて、表示装置25における表示制御を行う。これにより、画像編集画面51に、ソートされた画像ファイルの配列に基づいたタイムラインが表示される(図6参照)。   Step S104 is a process for performing timeline display based on the arrangement of the sorted moving image files. The display control circuit 24 performs display control in the display device 25 based on the information and representative image data output from the CPU 21 in step S103. Thereby, the timeline based on the arrangement of the sorted image files is displayed on the image editing screen 51 (see FIG. 6).

ステップS105は、シーン変化を判定する処理である。CPU21は、ソートされた動画像ファイルのうち、時間的に前後する2つのフレーム画像データを読み出す。そして、時間的に前後する2つのフレーム画像データにおいてシーンが変化しているか否かを判定する。   Step S105 is processing for determining a scene change. The CPU 21 reads out two frame image data that are temporally changed in the sorted moving image file. Then, it is determined whether or not the scene has changed in the two frame image data that are temporally changed.

ステップS106は、シーンの変化があるか否かを判定する処理である。ステップS105の処理で、時間的に前後する2つのフレーム画像データにおいてシーンが変化している場合には、CPU21は、ステップS106の判定結果をYesとする。この場合、ステップS107に進む。一方、時間的に前後する2つのフレーム画像データにおけるシーンが変化していない場合には、CPU21は、ステップS106の判定結果をNoとする。この場合、ステップS108に進む。   Step S106 is processing for determining whether or not there is a scene change. In the process of step S105, when the scene changes in two frame image data that are temporally changed, the CPU 21 sets the determination result of step S106 to Yes. In this case, the process proceeds to step S107. On the other hand, when the scenes in the two frame image data that change in time are not changed, the CPU 21 sets the determination result in step S106 to No. In this case, the process proceeds to step S108.

ステップS107は、シーンチェンジフラグを設定する処理である。ステップS106においてシーンの変化があると判定された場合に実行される。CPU21は、時間的に前後する2つのフレーム画像データのうち、時間的に後になるフレーム画像データに対してシーンチェンジフラグを付与する。   Step S107 is processing for setting a scene change flag. This is executed when it is determined in step S106 that there is a scene change. The CPU 21 assigns a scene change flag to the frame image data that is later in time among the two frame image data that are temporally changed.

ステップS108は、動画像ファイルの終端であるか否かを判定する処理である。ステップS105において、ソートした動画像ファイルのいずれかの動画像ファイルにおける最終のフレーム画像を使用してシーン変化の判定を行っている場合、CPU21は、ステップS108の判定処理をYesとする。この場合、ステップS109に進む。   Step S108 is processing for determining whether or not the end of the moving image file. In step S105, when the scene change is determined using the final frame image in one of the sorted moving image files, the CPU 21 sets the determination process in step S108 to Yes. In this case, the process proceeds to step S109.

一方、ステップS105において、ソートした動画像ファイルのいずれかの動画像ファイルにおける最終のフレーム画像を使用せずにシーン変化の判定を行っている場合、CPU21は、ステップS108の判定処理をNoとする。この場合、ステップS105に戻る。この場合、動画像ファイルの最終のフレーム画像を使用したシーン変化の判定が行われるまで、ステップS105からステップS107の処理が繰り返される。   On the other hand, when the scene change is determined without using the final frame image in any one of the sorted moving image files in step S105, the CPU 21 sets the determination process in step S108 to No. . In this case, the process returns to step S105. In this case, the processing from step S105 to step S107 is repeated until the scene change determination using the final frame image of the moving image file is performed.

ステップS109は、次の動画像ファイルがあるか否かを判定する処理である。ソートされた複数の動画像ファイルのいずれかの動画像ファイルに対するシーン変化の判定が終了している。よって、ソートした動画像ファイルの次に位置する動画像ファイルがあれば、CPU21は、ステップS109の判定結果をYesとする。この場合、ステップS110に進む。この場合、CPU21は、シーンチェンジフラグが付されたフレーム画像の位置の情報を表示制御回路24に出力する。   Step S109 is processing for determining whether or not there is a next moving image file. The scene change determination for any one of the plurality of sorted moving image files has been completed. Therefore, if there is a moving image file positioned next to the sorted moving image file, the CPU 21 sets the determination result in step S109 to Yes. In this case, the process proceeds to step S110. In this case, the CPU 21 outputs information on the position of the frame image with the scene change flag to the display control circuit 24.

一方、ソートした動画像ファイルの次に位置する動画像ファイルがない場合には、CPU21は、ステップS109の判定結果をNoとする。この場合、ステップS114に進む。   On the other hand, if there is no moving image file positioned next to the sorted moving image file, the CPU 21 sets the determination result in step S109 to No. In this case, the process proceeds to step S114.

ステップS110は、シーン変化の判定を行った動画像ファイルの最終のフレーム画像と、次の動画像ファイルの第1フレームとなるフレーム画像とが同一のシーンであるか否かを判定する処理である。CPU21は、シーン変化の判定を行った動画像ファイルの最終のフレーム画像と、次の動画像ファイルの第1フレームとなるフレーム画像とを読み出す。そして、これらフレーム画像におけるシーン変化の判定処理を行う。   Step S110 is a process of determining whether or not the final frame image of the moving image file for which the scene change has been determined and the frame image that is the first frame of the next moving image file are the same scene. . The CPU 21 reads the final frame image of the moving image file for which the scene change has been determined and the frame image that becomes the first frame of the next moving image file. Then, a scene change determination process in these frame images is performed.

ステップS111は、シーンの変化があるか否かを判定する処理である。2つのフレーム画像におけるシーンが変化している場合には、CPU21は、ステップS111の判定結果をYesとする。この場合、ステップS113に進む。一方、2つのフレーム画像におけるシーンが変化していない場合には、CPU21は、ステップS111の判定結果をNoとする。この場合、ステップS112に進む。この場合、後に配列される動画像ファイルの第1フレームとなるフレーム画像にシーンチェンジフラグを付加する。   Step S111 is processing for determining whether or not there is a scene change. If the scenes in the two frame images have changed, the CPU 21 determines Yes in step S111. In this case, the process proceeds to step S113. On the other hand, when the scenes in the two frame images have not changed, the CPU 21 sets the determination result in step S111 to No. In this case, the process proceeds to step S112. In this case, a scene change flag is added to the frame image that becomes the first frame of the moving image file arranged later.

ステップS112は、動画像ファイル間の境界を削除する処理である。CPU21は、ソートされた複数の動画像ファイルの境界を削除する。   Step S112 is processing for deleting a boundary between moving image files. The CPU 21 deletes the boundaries of the plurality of sorted moving image files.

ステップS113は、次の動画像ファイルを参照する処理である。この処理が行われるとステップS105に戻り、次の動画像ファイルの各フレーム画像を用いて、シーン変化を判定する処理、シーンチェンジフラグを設定する処理を実行する。   Step S113 is processing to refer to the next moving image file. When this process is performed, the process returns to step S105, and a process for determining a scene change and a process for setting a scene change flag are executed using each frame image of the next moving image file.

一方、ステップS109の判定結果でNoとなる場合、言い換えれば、次の動画像ファイルがない場合には、ステップS114に進む。   On the other hand, if the determination result in step S109 is No, in other words, if there is no next moving image file, the process proceeds to step S114.

ステップS114は、シーンを解析する処理である。CPU21は、各シーンチェンジフラグ間のフレーム画像を用いて、シーンを解析する。   Step S114 is a process of analyzing the scene. CPU21 analyzes a scene using the frame image between each scene change flag.

ステップS115は、代表画像を取得する処理である。CPU21は、ステップS114において実行されたシーン解析の結果に基づいて、各シーンチェンジフラグ間のシーンを代表するフレーム画像を取得し、該フレーム画像に基づくサムネイル画像を代表画像として取得する。CPU21は、生成された第2タイムライン情報を表示制御回路24に出力する。   Step S115 is processing to acquire a representative image. Based on the result of the scene analysis executed in step S114, the CPU 21 acquires a frame image representing the scene between the scene change flags, and acquires a thumbnail image based on the frame image as a representative image. The CPU 21 outputs the generated second timeline information to the display control circuit 24.

ステップS116は、シーンに基づいたタイムライン表示である。表示制御回路24は、入力された情報に基づいて表示装置25の表示制御を行う。これにより、タイムライン表示がソートされた動画像ファイルに基づいたタイムラインの表示から、ソートされた動画像ファイルに含まれるシーンに基づいたタイムラインの表示に切り替わる(図7参照)。   Step S116 is a timeline display based on the scene. The display control circuit 24 performs display control of the display device 25 based on the input information. Thereby, the timeline display is switched from the timeline display based on the sorted moving image file to the timeline display based on the scene included in the sorted moving image file (see FIG. 7).

このように、フォルダ内に複数の動画像ファイルが格納されている場合に、タイムライン表示を行うと、撮影日時の古い順でソートされた複数の動画像ファイルを擬似的に1つの動画ファイルと仮定したときのタイムライン表示が行われる。その際に、動画像ファイル毎に各動画像ファイルの代表画像が表示され、また、動画像ファイルの切り分け表示が行われる。   In this way, when a plurality of moving image files are stored in a folder, when a timeline display is performed, a plurality of moving image files sorted in order of shooting date and time are pseudo-moved as one moving image file. The assumed timeline is displayed. At that time, a representative image of each moving image file is displayed for each moving image file, and the moving image file is displayed in a separated manner.

その後、ソートされた複数の動画像ファイルを擬似的に1つの動画ファイルと仮定したときのタイムライン表示から、複数の動画像ファイルに含まれるシーンに基づいたタイムライン表示に切り替わる。このソートされたシーンに基づいたタイムラインの表示においては、動画像ファイルに含まれるシーンの他に、各シーンと動画像ファイルとの関連づけが認識できるので、複数の動画像ファイルにおけるシーンのつながりを把握することができる。また、各シーンに対しては、シーンを代表する代表画像が表示されることから、各シーンの内容をユーザは認識することができる。   Thereafter, the timeline display when the plurality of sorted moving image files are assumed to be one moving image file is switched to the timeline display based on the scenes included in the plurality of moving image files. In the timeline display based on the sorted scenes, in addition to the scenes included in the moving image file, the association between each scene and the moving image file can be recognized. I can grasp it. In addition, since a representative image representing the scene is displayed for each scene, the user can recognize the contents of each scene.

第1実施形態では、ソートされた複数の動画像ファイルに基づくタイムライン表示を行った後に、シーンに基づくタイムライン表示を切り替えて表示した場合について説明しているが、ソートされた複数の動画像ファイルの配列に基づくタイムライン表示を行わずに、ソートされた複数の動画像ファイルに含まれるシーンに基づくタイムライン表示のみを行うことも可能である。   In the first embodiment, the case where the timeline display based on a plurality of sorted moving image files is performed and then the timeline display based on the scene is switched and displayed is described. However, the plurality of sorted moving images are described. It is also possible to perform only the timeline display based on the scenes included in the plurality of sorted moving image files without performing the timeline display based on the file arrangement.

第1実施形態では、選択されたフォルダ内に含まれる複数の動画像ファイルを結合させずにタイムライン表示を行う場合について説明しているが、これに限定する必要はなく、ソートされた複数の動画像ファイルを結合した後に、動画像ファイルに含まれるシーンに基づいたタイムライン表示を行うことも可能である。この場合の処理について、第2実施形態と称して説明する。
<第2実施形態>
上述したように、第2実施形態においては、ソートされた複数の動画像ファイルを結合した後に、動画像ファイルに含まれるシーンに基づいたタイムライン表示を行う。ここで、上述したタイムライン生成部42は、複数の動画像ファイルをソートした後、ソートされた複数の動画像ファイルを結合する処理を実行する。
In the first embodiment, a case has been described in which a timeline display is performed without combining a plurality of moving image files included in a selected folder. However, the present invention is not limited to this, and a plurality of sorted files are not limited. It is also possible to display a timeline based on the scenes included in the moving image file after combining the moving image files. The process in this case will be described as a second embodiment.
Second Embodiment
As described above, in the second embodiment, after combining a plurality of sorted moving image files, timeline display based on the scenes included in the moving image files is performed. Here, the timeline generation unit 42 described above sorts a plurality of moving image files, and then executes a process of combining the plurality of sorted moving image files.

以下、タイムライン表示における処理の流れを、図9のフローチャートを用いて説明する。   Hereinafter, the flow of processing in the timeline display will be described using the flowchart of FIG.

ステップS201は、フォルダを指定する処理である。このステップS201の処理は、ステップS101と同一であるので、ここでは省略する。   Step S201 is processing to specify a folder. Since the process of this step S201 is the same as that of step S101, it is omitted here.

ステップS202は、動画像ファイルがあるか否かを判定する処理である。このステップS202の処理は、ステップS102と同一である。つまり、指定したフォルダ内に動画像ファイルがあれば、CPU21はステップS202の判定結果をYesとする。この場合、ステップS203に進む。一方、指定したフォルダ内に動画像ファイルがない場合には、CPU21は、ステップS202の判定結果をNoとする。この場合、このフローチャートの処理が終了する。   Step S202 is processing to determine whether there is a moving image file. The processing in step S202 is the same as that in step S102. That is, if there is a moving image file in the designated folder, the CPU 21 sets the determination result in step S202 to Yes. In this case, the process proceeds to step S203. On the other hand, if there is no moving image file in the designated folder, the CPU 21 sets the determination result in step S202 to No. In this case, the process of this flowchart ends.

ステップS203は、動画像ファイルをソートする処理である。CPU21は、読み出した複数の動画像ファイルから撮影日時の情報を読み出す。そして、CPU21は、読み出した撮影日時の情報を用いて、複数の動画像ファイルを撮影日時の古い順に配列する。   Step S203 is processing for sorting moving image files. The CPU 21 reads shooting date / time information from the plurality of read moving image files. Then, the CPU 21 arranges a plurality of moving image files in the order of the shooting date and time using the read shooting date and time information.

ステップS204は、ソートされた動画像ファイルを結合する処理である。CPU21は、ステップS203にてソートされた動画像ファイルを結合し、1つの動画像ファイルを生成する。   Step S204 is processing for combining the sorted moving image files. The CPU 21 combines the moving image files sorted in step S203 to generate one moving image file.

ステップS205は、シーン変化を判定する処理である。このステップS205の処理は、ステップS105と同一の処理となるので、ここでは省略する。   Step S205 is processing for determining a scene change. Since the process of step S205 is the same as that of step S105, it is omitted here.

ステップS206は、シーン変化があるか否かを判定する処理である。ステップS205の処理で、時間的に前後する2つのフレーム画像におけるシーンが変化している場合には、CPU21は、ステップS206の判定結果をYesとする。この場合、ステップS207に進む。一方、時間的に前後する2つのフレーム画像におけるシーンが変化していない場合には、CPU21は、ステップS206の判定結果をNoとする。この場合ステップS208に進む。   Step S206 is processing for determining whether or not there is a scene change. In the process of step S205, when the scenes in the two frame images that change in time are changing, the CPU 21 sets the determination result of step S206 to Yes. In this case, the process proceeds to step S207. On the other hand, when the scenes in the two frame images that change in time are not changed, the CPU 21 sets the determination result in step S206 to No. In this case, the process proceeds to step S208.

ステップS207は、シーンチェンジフラグを設定する処理である。CPU21は、時間的に前後する2つのフレーム画像のうち、時間的に後になるフレーム画像に対してシーンチェンジフラグを設定する。   Step S207 is processing for setting a scene change flag. The CPU 21 sets a scene change flag for a frame image that is later in time among the two frame images that are temporally changed.

ステップS208は、元の動画像ファイルの終端に到達したか否かを判定する処理である。ステップS205において、結合する前の動画像ファイルのいずれかの動画像ファイルにおける最終のフレーム画像を使用してシーン変化の判定を行っている場合、CPU21は、ステップS208の判定処理をYesとする。この場合、ステップS209に進む。一方、結合する前の動画像ファイルのいずれかの動画像ファイルにおける最終のフレーム画像を使用してシーン変化の判定を行っていない場合、CPU21は、ステップ208の判定結果をNoとする。この場合、ステップS205に戻る。よって、元の動画像ファイルの終端に到達するまで、ステップS205からステップS207の処理が繰り返し実行される。   Step S208 is processing for determining whether or not the end of the original moving image file has been reached. In step S205, when the scene change is determined using the final frame image in any one of the moving image files before combining, the CPU 21 sets the determination process in step S208 to Yes. In this case, the process proceeds to step S209. On the other hand, when the scene change determination is not performed using the final frame image in any one of the moving image files before combining, the CPU 21 sets the determination result in step 208 to No. In this case, the process returns to step S205. Therefore, the processing from step S205 to step S207 is repeatedly executed until the end of the original moving image file is reached.

ステップS209は、ソートした複数の動画像ファイルにおいて、現在の動画ファイルの次に配列される動画像ファイルがあるか否かを判定する処理である。CPU21は、シーン変化を行ったフレーム画像が含まれる動画像ファイルの後に、次の動画像ファイルが結合されているか否かを判定する。次の動画像ファイルが結合されている場合、CPU21はステップS209の判定結果をYesとする。この場合、ステップS210に進む。一方、次の動画像ファイルが結合されていない場合には、CPU21は、ステップS209の判定結果をNoとする。この判定結果の場合、CPU21は、シーンチェンジフラグの位置の情報を表示制御回路24に出力する。そして、ステップS213に進む。   Step S209 is processing for determining whether or not there is a moving image file arranged next to the current moving image file in the plurality of sorted moving image files. The CPU 21 determines whether or not the next moving image file is combined after the moving image file including the frame image subjected to the scene change. When the next moving image file is combined, the CPU 21 determines Yes in step S209. In this case, the process proceeds to step S210. On the other hand, when the next moving image file is not combined, the CPU 21 sets the determination result of step S209 to No. In the case of this determination result, the CPU 21 outputs information on the position of the scene change flag to the display control circuit 24. Then, the process proceeds to step S213.

ステップS210は、シーン判定を行った動画像ファイルの最終フレームとなるフレーム画像と、次の動画像ファイルの第1フレームとなるフレーム画像とが同一のシーンであるか否かを判定する処理である。CPU21は、シーン変化の判定を行った動画像ファイルの最終フレームとなるフレーム画像と、新たにシーン判定を行う動画像ファイルの第1フレームとなるフレーム画像とを読み出す。そして、これらフレーム画像におけるシーンが変化しているか否かを判定する。   Step S210 is a process of determining whether or not the frame image that is the final frame of the moving image file subjected to the scene determination and the frame image that is the first frame of the next moving image file are the same scene. . The CPU 21 reads the frame image that is the final frame of the moving image file that has been subjected to the scene change determination, and the frame image that is the first frame of the moving image file that is to be subjected to a new scene determination. Then, it is determined whether or not the scene in these frame images has changed.

ステップS211は、シーンの変化があるか否かを判定する処理である。この処理は、ステップS206と同一の処理である。2つのフレーム画像データにおけるシーンが変化している場合には、CPU21は、ステップS211の判定結果をYesとする。この場合、ステップS212に進む。一方、2つのフレーム画像データにおけるシーンが変化していない場合には、CPU21は、ステップS211の判定結果をNoとする。この場合、ステップS205に進む。   Step S211 is processing for determining whether or not there is a scene change. This process is the same process as step S206. If the scenes in the two frame image data have changed, the CPU 21 sets the determination result in step S211 to Yes. In this case, the process proceeds to step S212. On the other hand, if the scenes in the two frame image data have not changed, the CPU 21 sets the determination result in step S211 to No. In this case, the process proceeds to step S205.

ステップS212は、シーンチェンジフラグを設定する処理である。CPU21は、ソ2つのフレーム画像のうち、時間的に後になるフレーム画像に対してシーンチェンジフラグを付加する。この処理の後、ステップS205に戻る。   Step S212 is processing for setting a scene change flag. The CPU 21 adds a scene change flag to a frame image that is later in time among the two frame images. After this process, the process returns to step S205.

上述したステップS209の判定処理でNoとなる場合、ステップS213に進む。   If the determination process in step S209 described above is No, the process proceeds to step S213.

ステップS213は、シーン解析を行う処理である。このステップS213の処理は、ステップS114と同様の処理である。   Step S213 is processing for performing scene analysis. The process of step S213 is the same process as step S114.

ステップS214は、代表画像を取得する処理である。このステップS214の処理は、ステップS115と同一の処理である。CPU21は、シーンを構成するフレーム画像のうち、代表的なフレーム画像に基づくサムネイル画像を代表画像として取得する。   Step S214 is processing to acquire a representative image. The process of step S214 is the same process as step S115. CPU21 acquires the thumbnail image based on a typical frame image among the frame images which comprise a scene as a representative image.

ステップS215は、全シーンに対してステップS213及びステップS214の処理を行ったか否かを判定する処理である。全シーンに対してステップS213及びステップS214の処理を行った場合には、CPU21は、ステップS215の判定結果をYesとする。CPU21は、取得した代表画像を、表示制御回路24に出力する。この場合、ステップS216に進む。一方、全シーンに対してステップS213及びステップS214の処理を行っていない場合には、CPU21は、ステップS215の判定結果をNoとする。この場合は、ステップS213に進む。   Step S215 is processing for determining whether or not the processing in steps S213 and S214 has been performed for all scenes. When the processes of step S213 and step S214 are performed on all scenes, the CPU 21 sets the determination result of step S215 to Yes. The CPU 21 outputs the acquired representative image to the display control circuit 24. In this case, the process proceeds to step S216. On the other hand, when the processes in steps S213 and S214 are not performed on all scenes, the CPU 21 sets the determination result in step S215 to No. In this case, the process proceeds to step S213.

ステップS216は、シーンに基づいたタイムライン表示を行う処理である。表示制御回路24は入力された情報及び代表画像を用いて、表示装置25に対する表示制御を行う。これにより、シーンに基づいたタイムラインの表示が行われる。   Step S216 is processing for performing timeline display based on the scene. The display control circuit 24 performs display control on the display device 25 using the input information and the representative image. Thereby, the timeline based on the scene is displayed.

この第2実施形態は、フォルダ内に記憶される複数の動画像ファイルを結合して1つの動画像ファイルを生成した後に、シーンに基づくタイムラインの表示を行っている。この第2実施形態においても、第1実施形態と同様に、表示装置25においてシーンに基づいたタイムラインが表示されることから、複数の動画像ファイルにおけるシーンのつながりやシーン内容を把握することができる。   In the second embodiment, a plurality of moving image files stored in a folder are combined to generate one moving image file, and then a timeline is displayed based on the scene. Also in the second embodiment, as in the first embodiment, since the timeline based on the scene is displayed on the display device 25, it is possible to grasp the connection of the scenes and the scene contents in a plurality of moving image files. it can.

第1実施形態及び第2実施形態においては、シーンに基づいたタイムライン表示を行うことについて説明しているが、このシーンに基づいたタイムライン表示は、動画像ファイルの一覧表示、動画像ファイルの縮小表示、ソートされた複数の動画像ファイルに基づいたタイムライン表示との間で、切り替えて表示することも可能である。この切り替え表示は、ユーザによるキーボード31やポインティングデバイス32の操作に基づいて行われることが好ましい実施形態である。   In the first embodiment and the second embodiment, it is described that the timeline display based on the scene is performed. The timeline display based on this scene is a list display of moving image files, a moving image file display, and the like. It is also possible to switch and display between reduced display and timeline display based on a plurality of sorted moving image files. In the preferred embodiment, the switching display is performed based on an operation of the keyboard 31 or the pointing device 32 by the user.

第1実施形態及び第2実施形態においては、シーンに基づいたタイムライン表示を行うことを目的としている。上述したように、シーンに基づいたタイムライン表示は、フォルダ内に記憶された全ての動画像ファイルを、連続した1つの動画像ファイルで表したときのタイムライン表示である。よって、シーンに基づいたタイムラインを表示した場合には、以下の処理を行うことも可能となる。   In the first embodiment and the second embodiment, an object is to perform timeline display based on a scene. As described above, the timeline display based on the scene is a timeline display when all the moving image files stored in the folder are represented by one continuous moving image file. Therefore, when the timeline based on the scene is displayed, the following processing can be performed.

例えばシーンに基づくタイムライン表示において、ユーザが意図するシーンがある場合、そのシーンに基づく動画像ファイルを生成したい場合がある。このような場合には、該当するシーン又は代表画像を、ポインタを用いたクリックアンドドロップ操作により、目的のフォルダに移動させる。図10においては、ユーザが“scene2”に対する動画像ファイルを生成する場合を示す。この場合、ポインタ55をスライダ52の“scene2”の位置に合わせ、例えばマウスをクリックアンドドロップ操作し、該当するフォルダ56に移動させる。この操作が行われることを受けて、CPU21は、複数の動画像ファイルから、対象となるシーンに基づいた動画像ファイルを生成する。そして、CPU21は、画像メモリ27に設けられたフォルダ内に、生成した動画像ファイルを記憶させる。この処理の際に、CPU21は、設定し直したタイムコードを用いて、該当する動画像ファイルから対象となるフレーム画像を複製する。選択されたシーンが複数の動画像ファイルに跨っている場合には、CPU21は、該当する動画像ファイルから対象となるフレーム画像を複製し、複製したフレーム画像を合成する処理を行えばよい。   For example, when there is a scene intended by the user in a timeline display based on a scene, there is a case where it is desired to generate a moving image file based on the scene. In such a case, the corresponding scene or representative image is moved to the target folder by a click-and-drop operation using a pointer. FIG. 10 shows a case where the user generates a moving image file for “scene2”. In this case, the pointer 55 is set to the position of “scene2” of the slider 52 and, for example, the mouse is clicked and dropped to move to the corresponding folder 56. In response to this operation being performed, the CPU 21 generates a moving image file based on a target scene from a plurality of moving image files. Then, the CPU 21 stores the generated moving image file in a folder provided in the image memory 27. During this process, the CPU 21 duplicates the target frame image from the corresponding moving image file using the reset time code. When the selected scene is straddling a plurality of moving image files, the CPU 21 may perform a process of duplicating the target frame image from the corresponding moving image file and synthesizing the duplicated frame images.

第1実施形態及び第2実施形態においては、動画像ファイルにおけるシーンの変化がある箇所に対して、シーンチェンジフラグを設定している。このため、数多くのシーンが生成されてしまう。このため、ユーザによっては、シーンが多すぎると感じる場合がある。このような場合に対応するために、例えば設定されるシーンチェンジフラグに優先度を持たせることも可能である。このようなシーンチェンジフラグに優先度(重要度)を持たせた場合、タイムライン表示の際に、シーン表示の細かさ(粒度)を変更するためのスライダ57を設け、このスライダ57を操作することで、シーン表示の粒度を変更することも可能である。図11(a)に示すように、タイムライン表示におけるシーンを詳細に確認したいユーザの場合には、シーン表示の粒度を示すスライダ57を「細」に移動させる。この場合には、設定される全てのシーンチェンジフラグを用いてタイムライン表示における各シーンを表示する。   In the first embodiment and the second embodiment, a scene change flag is set for a portion where there is a scene change in the moving image file. For this reason, many scenes are generated. For this reason, some users may feel that there are too many scenes. In order to cope with such a case, for example, a set scene change flag can be given priority. When priority (importance) is given to such a scene change flag, a slider 57 for changing the fineness (granularity) of the scene display is provided during timeline display, and this slider 57 is operated. Thus, the granularity of the scene display can be changed. As shown in FIG. 11A, in the case of a user who wants to confirm the scene in the timeline display in detail, the slider 57 indicating the granularity of the scene display is moved to “fine”. In this case, each scene in the timeline display is displayed using all set scene change flags.

また、タイムライン表示におけるシーンを大まかに確認したいユーザの場合には、シーン表示の粒度を示すスライダ57を「粗」に移動させる。この場合、設定される全てのシーンチェンジフラグのうち、優先度の高いシーンチェンジフラグのみを用いてタイムライン表示におけるシーンを表示する。   For a user who wants to roughly check the scene in the timeline display, the slider 57 indicating the granularity of the scene display is moved to “rough”. In this case, the scene in the timeline display is displayed using only the scene change flag having a higher priority among all the set scene change flags.

この図11(b)に示すように、“scene2”と“scene3”との境界を示すシーンチェンジフラグと、“scene4”と“scene5”との境界を示すシーンチェンジフラグとの優先度が、他のシーンチェンジフラグ(“scene1”と“scene2”と境界を示すシーンチェンジフラグと、“scene3”と“scene4”との境界を示すシーンチェンジフラグ)よりも優先度が高く設定される。なお、シーンチェンジフラグの優先度は、シーン変化における重要性を示すものであり、ユーザが設定してもよいし、動画像の内容から自動的に設定されるものであってもよい。   As shown in FIG. 11B, the priority of the scene change flag indicating the boundary between “scene2” and “scene3” and the scene change flag indicating the boundary between “scene4” and “scene5” Priority is set higher than the scene change flag (scene change flag indicating the boundary between “scene1” and “scene2” and the scene change flag indicating the boundary between “scene3” and “scene4”). The priority of the scene change flag indicates the importance of the scene change, and may be set by the user or automatically set from the content of the moving image.

なお、シーン表示の粒度を変更できる場合には、以下の処理を行うことも可能である。例えば、シーン表示の粒度を設定したときに、表示されるシーンのうち、一部のシーンにおいては、優先度の低いシーンチェンジフラグに該当する位置でシーンが分割されていない場合がある。この場合、同一のシーンに設定されていても、シーンは細分化されている。図12は、“scene1”において、“scene1-1”,“scene1-2”,“scene1-3”の3つのシーンに細分化されている場合を示す。上述したように、ユーザが意図するシーンに基づいた動画像ファイルを生成する場合、ポインタを用いてクリックアンドドラッグを行い。目的のフォルダに移動させる操作を行うと、そのシーンに基づいた動画像ファイルが生成される。この動画像ファイルを生成したときに、選択したシーン全体の動画像ファイルを生成せずに、シーンに基づくフォルダを生成した後、該フォルダ内に、細分化されたシーンに基づく動画像ファイルを複数記憶させる。   If the granularity of scene display can be changed, the following processing can be performed. For example, when the granularity of scene display is set, in some of the displayed scenes, the scene may not be divided at a position corresponding to a scene change flag with a low priority. In this case, even if the same scene is set, the scene is subdivided. FIG. 12 shows a case where “scene1” is subdivided into three scenes “scene1-1”, “scene1-2”, and “scene1-3”. As described above, when generating a moving image file based on a scene intended by the user, click and drag using a pointer. When an operation of moving to a target folder is performed, a moving image file based on the scene is generated. When the moving image file is generated, a folder based on the scene is generated without generating the moving image file of the entire selected scene, and then a plurality of moving image files based on the subdivided scenes are included in the folder. Remember.

上述した第1実施形態及び第2実施形態においては、PC11においてシーンを判別する処理を行っている。例えば、撮像装置12における動画撮影中に該撮像装置12に設けられた操作部材を操作し、ユーザにとって重要となる箇所であることを示すマーキング処理を施す場合がある。このような場合には、読み出した複数の動画像ファイルの中に、マーキング処理が施された動画像ファイルが含まれることになる。よって、マーキング処理された動画像ファイルが含まれる場合には、まず、マーキング処理が施されたフレーム画像データであるか否かの判定を行い、マーキング処理が施されていない動画像ファイルであると判定された場合に、時間的に前後する2つのフレーム画像間のシーンの変化の有無を判定する他に、うことで、シーンチェンジフラグの設定を行うことも可能である。   In the first embodiment and the second embodiment described above, the PC 11 performs a process of determining a scene. For example, there may be a case where a marking process is performed to indicate an important location for the user by operating an operation member provided in the imaging device 12 during moving image shooting in the imaging device 12. In such a case, a moving image file that has undergone marking processing is included in the plurality of read moving image files. Therefore, if a moving image file that has been subjected to marking processing is included, it is first determined whether or not the frame image data has been subjected to marking processing, and is a moving image file that has not been subjected to marking processing. When the determination is made, in addition to determining whether or not there is a change in the scene between two frame images that are temporally changed, it is also possible to set a scene change flag.

以下、複数の動画像ファイルの中に、撮像装置12においてマーキング処理が施された同画像ファイルが含まれる場合について、第3実施形態と称して説明する。
<第3実施形態>
以下、タイムライン表示に基づく処理について、図12のフローチャートを用いて説明する。
Hereinafter, a case where the same image file subjected to the marking process in the imaging device 12 is included in the plurality of moving image files will be described as a third embodiment.
<Third Embodiment>
Hereinafter, processing based on the timeline display will be described with reference to the flowchart of FIG.

ステップS301は、フォルダを指定する処理である。このステップS301の処理は、ステップS101と同一の処理である。   Step S301 is processing to specify a folder. The process of step S301 is the same process as step S101.

ステップS302は、動画像ファイルがあるか否かを判定する処理である。このステップS302の処理は、ステップS102と同一の処理である。   Step S302 is processing for determining whether or not there is a moving image file. The process of step S302 is the same process as step S102.

ステップS303は、動画像ファイルをソートする処理である。このステップS303の処理は、ステップS103と同一の処理である。   Step S303 is processing for sorting moving image files. The process in step S303 is the same as that in step S103.

ステップS304は、ソートされた動画像ファイルに基づいたタイムライン表示を行う処理である。このステップS304の処理は、ステップS104と同一の処理である。   Step S304 is processing for performing timeline display based on the sorted moving image file. The process of step S304 is the same process as step S104.

ステップS305は、マーキング処理が施されているか否かを判定する処理である。例えば動画像ファイルから読み出したフレーム画像データに対してマーキング処理が施されていない場合には、CPU21は、ステップS305の判定結果をNoとする。この場合、ステップS306に進む。一方、フレーム画像データに対してマーキング処理が施されていない場合には、CPU21は、ステップS305の判定結果をNoとする。この場合、ステップS308に進む。   Step S305 is processing for determining whether or not marking processing has been performed. For example, if the marking process is not performed on the frame image data read from the moving image file, the CPU 21 sets the determination result in step S305 to No. In this case, the process proceeds to step S306. On the other hand, when the marking process is not performed on the frame image data, the CPU 21 sets the determination result of step S305 to No. In this case, the process proceeds to step S308.

ステップS306は、シーン変化を判定する処理である。CPU21は、ソートされた動画像ファイルのうち、時間的に前後する2つのフレーム画像データを読み出す。そして、時間的に前後する2つのフレーム画像データにおけるシーンが変化しているか否かを判定する。   Step S306 is processing for determining a scene change. The CPU 21 reads out two frame image data that are temporally changed in the sorted moving image file. Then, it is determined whether or not the scenes in the two frame image data that change in time are changing.

ステップS307は、シーンの変化があるか否かを判定する処理である。ステップS306の処理で、時間的に前後する2つのフレーム画像データにおけるシーンが変化していると判定されている場合には、CPU21は、ステップS307の判定結果をYesとする。この場合、ステップS308に進む。一方、時間的に前後する2つのフレーム画像データにおけるシーンが変化していない場合には、CPU21は、ステップS307の判定結果をNoとする。この場合ステップS309に進む。   Step S307 is processing for determining whether or not there is a scene change. When it is determined in the process of step S306 that the scene in the two frame image data before and after has changed, the CPU 21 sets the determination result of step S307 to Yes. In this case, the process proceeds to step S308. On the other hand, when the scenes in the two frame image data that change in time are not changed, the CPU 21 sets the determination result in step S307 to No. In this case, the process proceeds to step S309.

ステップS308は、シーンチェンジフラグを設定する処理である。このステップS308の処理は、ステップS107と同一の処理である。   Step S308 is processing for setting a scene change flag. The process of step S308 is the same process as step S107.

なお、ステップS309〜ステップS314の処理は、ステップS108〜ステップSS113の処理と同一の処理が行われる。そして、S314の処理が終了すると、ステップS305に戻り、シーンチェンジフラグの設定が各動画像ファイルのフレーム画像データに対して施されていく。その後、全ての動画像ファイルに対してシーンチェンジフラグの設定が行われた後、シーン解析処理(S−315)、代表画像を取得する処理(S−316)が行われる。そして、シーンに基づいたタイムラインが表示される(S−317)。   In addition, the process of step S309-step S314 is the same process as the process of step S108-step SS113. When the process of S314 is completed, the process returns to step S305, and the scene change flag is set for the frame image data of each moving image file. Thereafter, after scene change flags are set for all moving image files, scene analysis processing (S-315) and processing for obtaining representative images (S-316) are performed. Then, a timeline based on the scene is displayed (S-317).

このように、マーキング処理が施された動画像ファイルを用いた場合には、マーキング処理されたフレーム画像があれば、そのフレーム画像の位置に対してシーンチェンジフラグを設定することができる。つまり、マーキング処理が施される箇所は、例えばユーザにとって重要なシーンが開始される箇所や、重要なシーンが終了する箇所を示しているので、このようなマーキング処理された箇所に対してシーンチェンジフラグを設定することで、シーンに基づくタイムライン表示において、ユーザの意図を加味した表示を行うことが可能となる。   As described above, when a moving image file on which marking processing has been performed is used, if there is a frame image on which marking processing has been performed, a scene change flag can be set for the position of the frame image. In other words, the location where the marking process is performed indicates, for example, a location where an important scene for the user starts or a location where the important scene ends. By setting the flag, it is possible to perform display that takes into account the user's intention in the timeline display based on the scene.

第3実施形態においては、マーキング処理が施されていない場合に、シーンが変化しているか否かの判定を行っているが、マーキング処理が施されている動画像ファイルに対しては、マーキング処理が施されているか否かの判定だけを行い、シーンが変化しているか否かの判定処理を省略することも可能である。この場合、マーキング処理が施されていない動画像ファイルに対して、シーンが変化しているか否かの判定処理を行ってもよいし、行わなくてもよい。   In the third embodiment, when the marking process has not been performed, it is determined whether or not the scene has changed. However, for a moving image file that has been subjected to the marking process, the marking process is performed. It is also possible to simply determine whether or not the scene has been applied and to omit the determination process whether or not the scene has changed. In this case, a determination process for determining whether or not the scene has changed may or may not be performed on a moving image file that has not been subjected to the marking process.

なお、第3実施形態の場合、撮像装置において動画像撮影を行った場合には、記憶媒体において動画像ファイルを記憶するフォルダが自動的に生成された後、該フォルダに動画像ファイルが記憶される。このため、予め撮像装置において、動画像撮影にて得られる動画像ファイルの連続性についての判定を行うことも可能である。この判定を行うことで、これら動画像ファイルを用いたタイムライン表示を行う場合には、シーンが変化したか否かの判定処理を省略することが可能となる。   In the case of the third embodiment, when moving image shooting is performed by the imaging apparatus, a folder for storing a moving image file is automatically generated on the storage medium, and then the moving image file is stored in the folder. The For this reason, it is also possible to previously determine the continuity of moving image files obtained by moving image shooting in the imaging device. By performing this determination, when performing timeline display using these moving image files, it is possible to omit the determination process of whether or not the scene has changed.

上述した第1から第3実施形態については、シーンに基づいたタイムライン表示を行うことを目的としている。このようなタイムライン表示においては、ユーザは、意図するシーンに該当する動画像を再生し、動画像の内容を確認する場合がある。しかしながら、シーンにおいては、時間的に長い動画像となる場合もあるので、シーンの内容を全て確認する手間がかかってしまう。このため、意図するシーンを再生する場合、動画像を再生する速度を変更することも可能である。   The first to third embodiments described above are intended to perform timeline display based on a scene. In such a timeline display, a user may reproduce a moving image corresponding to an intended scene and check the content of the moving image. However, in a scene, it may be a moving image that is long in time, and it takes time and effort to confirm all the contents of the scene. For this reason, when reproducing the intended scene, it is possible to change the speed at which the moving image is reproduced.

図14に示すように。例えばシーンの先頭から5秒間は、通常速度による再生を行う。そして、シーンの先頭から5秒を経過すると、通常速度に対して例えば30倍の速度による再生を行う。このような再生を行うことで、各シーンのそれぞれを個別に再生したときの再生時間を抑えることができる。このため、ユーザは各シーンの内容を短時間で把握することが可能となる。   As shown in FIG. For example, playback is performed at normal speed for 5 seconds from the beginning of the scene. When 5 seconds have elapsed from the beginning of the scene, playback is performed at a speed that is, for example, 30 times the normal speed. By performing such reproduction, it is possible to reduce the reproduction time when each scene is individually reproduced. For this reason, the user can grasp the contents of each scene in a short time.

また、この他に、隣り合うシーンの類似度を求め、隣り合うシーンの類似度に応じて、再生速度を変更することも可能である。この場合、例えば隣り合うシーンの類似度が、閾値よりも高い場合には、そのシーンにおける再生をスキップする、或いは通常再生に対して2倍の再生速度となる倍速再生とする。一方、隣り合うシーンの類似度が閾値よりも低い場合には、通常速度で再生する。この場合も、短時間でシーンの内容を把握することができる。この場合、シーンではなく、フレーム間の類似度に合わせて再生する速度を調整することも可能である。   In addition, it is also possible to obtain the similarity between adjacent scenes and change the playback speed according to the similarity between adjacent scenes. In this case, for example, when the similarity between adjacent scenes is higher than a threshold value, the playback in that scene is skipped, or the playback speed is doubled compared to normal playback. On the other hand, when the similarity between adjacent scenes is lower than the threshold value, playback is performed at a normal speed. Also in this case, the contents of the scene can be grasped in a short time. In this case, it is possible to adjust the playback speed according to the similarity between frames, not the scene.

上述した実施形態においては、タイムライン表示においてサムネイル画像は、画像を表示することを目的に取得されるものである。しかしながら、これらサムネイル画像を一括して、静止画像として記憶させることも可能である。   In the above-described embodiment, the thumbnail image is acquired for the purpose of displaying an image in the timeline display. However, these thumbnail images can be stored together as a still image.

上述した第1から第3実施形態では、画像編集装置を例に取り上げて説明しているが、図3に示す機能や、図8、図9及び図13のフローチャートを実行するための画像管理プログラムであってもよい。この場合、画像編集プログラムは、メモリカード、光学ディスク、磁気ディスクなど、PCにて読み取ることができる記憶媒体に記憶されていることが好ましい。   In the first to third embodiments described above, the image editing apparatus is described as an example. However, the image management program for executing the functions shown in FIG. 3 and the flowcharts of FIGS. It may be. In this case, the image editing program is preferably stored in a storage medium that can be read by a PC, such as a memory card, an optical disk, or a magnetic disk.

11…PC、12…撮像装置、21…CPU、24…表示制御回路、25…表示装置、27…画像メモリ、41…動画像管理部、42…タイムライン生成部、43…シーン解析部、44…代表画像取得部   DESCRIPTION OF SYMBOLS 11 ... PC, 12 ... Imaging device, 21 ... CPU, 24 ... Display control circuit, 25 ... Display device, 27 ... Image memory, 41 ... Moving image management part, 42 ... Timeline generation part, 43 ... Scene analysis part, 44 ... Representative image acquisition unit

Claims (6)

複数の動画像を読み出す画像読出部と、
前記画像読出部にて読み出した前記複数の動画像を配列し、配列した複数の動画像を該複数の動画像に含まれるシーン毎に仕分けるシーン仕分部と、
前記シーン仕分部により仕分けられた複数のシーンにおける代表画像をそれぞれ取得する画像取得部と、
前記シーン毎に仕分けた前記複数の動画像を示すスライダを表示するとともに、前記複数の動画像により仕分けられたシーンにおける代表画像を前記スライダのシーン近傍に表示したタイムライン表示を行う表示部と、
を備えたことを特徴とする画像編集装置。
An image reading unit for reading a plurality of moving images;
A plurality of moving images read by the image reading unit, a scene sorting unit that sorts the arranged moving images for each scene included in the plurality of moving images;
An image acquisition unit for acquiring representative images in a plurality of scenes sorted by the scene sorting unit;
A display unit that displays a slider indicating the plurality of moving images sorted for each scene, and performs a timeline display that displays a representative image in a scene sorted by the plurality of moving images in the vicinity of the scene of the slider;
An image editing apparatus comprising:
請求項1に記載の画像編集装置において、
前記シーン抽出部は、前記画像読出部にて読み出された複数の動画像を撮影日時に基づいて配列した後、これら動画像を1つの動画像に合成した後、合成された動画像に含まれるシーンを抽出することを特徴とする画像編集装置。
The image editing apparatus according to claim 1,
The scene extracting unit arranges a plurality of moving images read by the image reading unit based on shooting date and time, and then combines these moving images into one moving image, and then includes them in the combined moving image An image editing apparatus characterized by extracting a scene to be recorded.
請求項1に記載の画像編集装置において、
前記シーン抽出部は、動画像を構成する複数のフレーム画像のうち、時間的に前後する2つのフレーム画像間の変化を判定することで、前記複数の動画像を複数のシーンに仕分けることを特徴とする画像編集装置。
The image editing apparatus according to claim 1,
The scene extracting unit classifies the plurality of moving images into a plurality of scenes by determining a change between two frame images that are temporally changed among a plurality of frame images constituting the moving image. An image editing device.
請求項1に記載の画像編集装置において、
前記複数の動画像に含まれるシーンのそれぞれに対する優先度を設定する設定部と、
前記設定される優先度に応じて、前記タイムライン表示におけるシーンの細かさを変更する表示制御部と、
を備えていることを特徴とする画像編集装置。
The image editing apparatus according to claim 1,
A setting unit for setting a priority for each of the scenes included in the plurality of moving images;
A display control unit that changes the fineness of the scene in the timeline display according to the set priority;
An image editing apparatus comprising:
請求項1に記載の画像編集装置において、
前記タイムライン表示において表示されるシーンを選択する選択部と、
前記複数の動画像を用いて、前記選択部により選択されたシーンに基づいた動画像を生成する画像生成部と、を備えていることを特徴とする画像編集装置。
The image editing apparatus according to claim 1,
A selection unit for selecting a scene to be displayed in the timeline display;
An image editing apparatus, comprising: an image generation unit that generates a moving image based on the scene selected by the selection unit using the plurality of moving images.
複数の動画像を読み出す画像読出工程と、
前記画像読出工程にて読み出した前記複数の動画像を配列し、配列した複数の動画像を該複数の動画像に含まれるシーン毎に仕分けるシーン仕分工程と、
前記シーン仕分工程により仕分けられた複数のシーンにおける代表画像をそれぞれ取得する画像取得工程と、
前記シーン毎に仕分けた前記複数の動画像を示すスライダを表示するとともに、前記複数の動画像により仕分けられたシーンにおける代表画像を前記スライダのシーン近傍に表示したタイムライン表示を行う表示工程と、
を備えたことを特徴とする動画像の表示方法。
An image reading step of reading a plurality of moving images;
A scene sorting step of arranging the plurality of moving images read in the image reading step and sorting the arranged moving images for each scene included in the plurality of moving images;
An image acquisition step of acquiring representative images in a plurality of scenes sorted by the scene sorting step;
A display step of displaying a slider indicating the plurality of moving images sorted for each scene, and performing a timeline display in which a representative image in the scene sorted by the plurality of moving images is displayed near the scene of the slider;
A method for displaying a moving image, comprising:
JP2013017102A 2013-01-31 2013-01-31 Image editing apparatus and image editing program Active JP6142551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013017102A JP6142551B2 (en) 2013-01-31 2013-01-31 Image editing apparatus and image editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013017102A JP6142551B2 (en) 2013-01-31 2013-01-31 Image editing apparatus and image editing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017088084A Division JP6399145B2 (en) 2017-04-27 2017-04-27 Image editing apparatus and moving image display method

Publications (2)

Publication Number Publication Date
JP2014150355A true JP2014150355A (en) 2014-08-21
JP6142551B2 JP6142551B2 (en) 2017-06-07

Family

ID=51573028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013017102A Active JP6142551B2 (en) 2013-01-31 2013-01-31 Image editing apparatus and image editing program

Country Status (1)

Country Link
JP (1) JP6142551B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062761A (en) * 2015-09-22 2017-03-30 富士ゼロックス株式会社 System and method for visualizing playback plan of hypervideo
JP2020057845A (en) * 2018-09-28 2020-04-09 キヤノン株式会社 Editing device, control method thereof, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132301A (en) * 1997-07-10 1999-02-02 Sony Corp Image processing unit, image processing method and record medium
JP2005006059A (en) * 2003-06-12 2005-01-06 Casio Comput Co Ltd Dynamic image processor and its program
JP2005277702A (en) * 2004-03-24 2005-10-06 Hitachi Kokusai Electric Inc Video edit method
JP2008017041A (en) * 2006-07-04 2008-01-24 Sony Corp Information processing apparatus and method, and program
JP2011223326A (en) * 2010-04-09 2011-11-04 Sony Corp Content processing apparatus and method, and program therefor
JP2012044451A (en) * 2010-08-19 2012-03-01 Canon Inc Image reproduction device, control method therefor, image reproduction program, and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132301A (en) * 1997-07-10 1999-02-02 Sony Corp Image processing unit, image processing method and record medium
JP2005006059A (en) * 2003-06-12 2005-01-06 Casio Comput Co Ltd Dynamic image processor and its program
JP2005277702A (en) * 2004-03-24 2005-10-06 Hitachi Kokusai Electric Inc Video edit method
JP2008017041A (en) * 2006-07-04 2008-01-24 Sony Corp Information processing apparatus and method, and program
JP2011223326A (en) * 2010-04-09 2011-11-04 Sony Corp Content processing apparatus and method, and program therefor
JP2012044451A (en) * 2010-08-19 2012-03-01 Canon Inc Image reproduction device, control method therefor, image reproduction program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062761A (en) * 2015-09-22 2017-03-30 富士ゼロックス株式会社 System and method for visualizing playback plan of hypervideo
JP2020057845A (en) * 2018-09-28 2020-04-09 キヤノン株式会社 Editing device, control method thereof, and program
JP7170483B2 (en) 2018-09-28 2022-11-14 キヤノン株式会社 Editing device, its control method, and program

Also Published As

Publication number Publication date
JP6142551B2 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
US11756587B2 (en) Masking in video stream
CN101051515B (en) Image processing device and image displaying method
JP6120169B2 (en) Image editing device
US8792778B2 (en) Video data display apparatus and method thereof
JP2017503394A (en) VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE
EP2160892B1 (en) Method and system for facilitating creation of content
KR101948692B1 (en) Phtographing apparatus and method for blending images
CN101815193B (en) Reproduction apparatus and reproduction method
JPH07322183A (en) Image recording/reproducing device
JP6142551B2 (en) Image editing apparatus and image editing program
JP2007133838A (en) Image display method and image display program
JP6399145B2 (en) Image editing apparatus and moving image display method
JP2019004506A (en) Image editing apparatus and moving image display method
US20210382931A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer-readable storage medium
JP2010057003A (en) Image recording device, and image recording method
CN113840099B (en) Video processing method, device, equipment and computer readable storage medium
US10902057B2 (en) Image processing apparatus and method of controlling the same
JP6119439B2 (en) Image management program, image management method, and image management apparatus
JP2008020944A (en) Image processing method, program, and device
JP2008090526A (en) Conference information storage device, system, conference information display device, and program
US9456191B2 (en) Reproduction apparatus and reproduction method
CN110662104B (en) Video dragging bar generation method and device, electronic equipment and storage medium
JP2012156879A (en) Recording apparatus and reproducing apparatus
JP2011193386A (en) Electronic apparatus and image processing method
JP2013098790A (en) Video editing device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170315

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170323

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6142551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250