JP7051406B2 - Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program - Google Patents

Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program Download PDF

Info

Publication number
JP7051406B2
JP7051406B2 JP2017234160A JP2017234160A JP7051406B2 JP 7051406 B2 JP7051406 B2 JP 7051406B2 JP 2017234160 A JP2017234160 A JP 2017234160A JP 2017234160 A JP2017234160 A JP 2017234160A JP 7051406 B2 JP7051406 B2 JP 7051406B2
Authority
JP
Japan
Prior art keywords
image
time
time range
piece
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017234160A
Other languages
Japanese (ja)
Other versions
JP2019103059A (en
Inventor
佳之 福谷
和男 神田
和彦 志村
義久 尾形
伸之 志摩
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017234160A priority Critical patent/JP7051406B2/en
Publication of JP2019103059A publication Critical patent/JP2019103059A/en
Application granted granted Critical
Publication of JP7051406B2 publication Critical patent/JP7051406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画編集のための携帯端末、キャプチャ機器、情報処理システム、情報処理方法、情報生成方法及び情報処理プログラムに関する。 The present invention relates to a mobile terminal for video editing, a capture device, an information processing system, an information processing method, an information generation method, and an information processing program.

ユーザは、動画撮影を行うときに、決定的な瞬間を撮り逃すことがないように比較的に長い時間撮影に専念していたり、高画質及び高音質の動画を取得する設定としていたりする。このようにして撮影された動画は、記録に適した品質(画質又は音質)である。一方で、撮影により記録された動画は、冗長であるためにハイライトが分かりにくい動画であることが多い。このため、このような動画は、編集しない状態では、観賞に適さないことが多い。また、このような動画のデータ容量は大きくなる傾向にある。 When shooting a moving image, the user may concentrate on shooting for a relatively long time so as not to miss a decisive moment, or may set the setting to acquire high-quality and high-quality moving images. The moving image taken in this way has a quality (image quality or sound quality) suitable for recording. On the other hand, the moving image recorded by shooting is often a moving image whose highlights are difficult to understand because it is redundant. For this reason, such moving images are often unsuitable for viewing without editing. In addition, the data capacity of such moving images tends to be large.

このような中、特に近年のインターネット回線を通じた動画共有においては、簡潔で、見ごたえのある動画に対するニーズが高い。そのため、動画データの送受信や編集に係る技術には需要がある。例えば、特許文献1には、静止画を連続的にモニタへ出力できる映像信号処理装置に係る技術が開示されている。また、例えば、特許文献2には、ビデオタイムスタンプVTSが付された複数の符号化ビデオフレームと、オーディオタイムスタンプATSが付された複数の符号化オーディオフレームとを受信して復号した結果得られる複数のビデオフレームVF1及び複数のオーディオフレームAF1を蓄積し、音声の連続性を保持したままリップシンクさせることができるコンテンツ受信装置に係る技術が開示されている。 Under these circumstances, there is a strong need for simple and impressive videos, especially in video sharing via the Internet in recent years. Therefore, there is a demand for technology related to transmission / reception and editing of moving image data. For example, Patent Document 1 discloses a technique relating to a video signal processing device capable of continuously outputting a still image to a monitor. Further, for example, Patent Document 2 is obtained as a result of receiving and decoding a plurality of coded video frames having a video time stamp VTS and a plurality of coded audio frames having an audio time stamp ATS. A technique relating to a content receiving device capable of accumulating a plurality of video frames VF1 and a plurality of audio frames AF1 and lip-syncing while maintaining audio continuity is disclosed.

特開平2-93492号公報Japanese Unexamined Patent Publication No. 2-93492 特開2005-102192号公報Japanese Unexamined Patent Publication No. 2005-102192

本発明は、簡易な動画編集を実現できる動画編集のための携帯端末、キャプチャ機器、情報処理システム、情報処理方法、情報生成方法及び情報処理プログラムを提供することを目的とする。 An object of the present invention is to provide a portable terminal, a capture device, an information processing system, an information processing method, an information generation method, and an information processing program for video editing that can realize simple video editing.

本発明の一態様によれば、動画編集のための携帯端末は、時間的に連続した複数の画像を含む第1の画像が時間分割されて、それぞれが第1の時間情報を有して単独で再生できる画像として生成された複数の画像片と、前記第1の画像に対応する第1の音声が時間分割されて、それぞれが第2の時間情報を有して単独で再生できる音声として生成された複数の音声片とを通信により取得する端末側通信制御部と、前記第1の画像の時間範囲の中から第1の時間範囲を指定し、前記第1の音声の時間範囲の中から第2の時間範囲を指定するための端末側操作部と、受信された複数の前記画像片の中から前記第1の時間範囲に含まれる前記画像片を選択するともに、受信された複数の前記音声片の中から前記第2の時間範囲に含まれる前記音声片を選択する端末側編集部とを備える。 According to one aspect of the present invention, in a mobile terminal for moving image editing, a first image including a plurality of temporally continuous images is time-divided, and each of them has a first time information and is independent. A plurality of image pieces generated as an image that can be reproduced in the above and a first sound corresponding to the first image are time-divided, and each of them has a second time information and is generated as a sound that can be reproduced independently. A terminal-side communication control unit that acquires a plurality of voice pieces by communication, and a first time range from the time range of the first image is specified, and the time range of the first voice is selected. The terminal-side operation unit for designating the second time range, the image piece included in the first time range is selected from the received image pieces, and the received image pieces are plurality. It is provided with a terminal-side editorial unit that selects the voice piece included in the second time range from the voice pieces.

本発明の一態様によれば、動画編集のためのキャプチャ機器は、時間的に連続した複数の画像を含む第1の画像と、前記第1の画像に対応する第1の音声とが記録された記録部と、前記第1の画像を時間分割するとともに第1の時間情報を添付してそれぞれが単独で再生できる画像である複数の画像片を生成し、前記第1の音声を時間分割するとともに第2の時間情報を添付してそれぞれが単独で再生できる音声である複数の音声片を生成する分割部と、前記画像片と前記音声片とを外部に送信させる機器側通信制御部とを備える。 According to one aspect of the present invention, in the capture device for moving image editing, a first image including a plurality of images consecutive in time and a first sound corresponding to the first image are recorded. The recording unit and the first image are time-divided, and a plurality of image pieces, each of which is an image that can be reproduced independently by attaching the first time information, are generated, and the first sound is time-divided. A division unit that generates a plurality of audio pieces, each of which can be reproduced independently by attaching a second time information, and a device-side communication control unit that transmits the image piece and the audio piece to the outside. Be prepared.

本発明の一態様によれば、動画編集のための情報処理システムは、前記携帯端末と、前記キャプチャ機器とを備える。 According to one aspect of the present invention, the information processing system for video editing includes the portable terminal and the capture device.

本発明の一態様によれば、動画編集のための情報処理方法は、時間的に連続した複数の画像を含む第1の画像が時間分割されて、それぞれが第1の時間情報を有して単独で再生できる画像として生成された複数の画像片と、前記第1の画像に対応する第1の音声が時間分割されて、それぞれが第2の時間情報を有して単独で再生できる音声として生成された複数の音声片とを通信により取得することと、前記第1の画像の時間範囲の中から第1の時間範囲をユーザ操作に応じて指定することと、受信された複数の前記画像片の中から前記第1の時間範囲に含まれる前記画像片を選択することと、前記第1の音声の時間範囲の中から第2の時間範囲をユーザ操作に応じて指定することと、受信された複数の前記音声片の中から前記第2の時間範囲に含まれる前記音声片を選択することとを含む。 According to one aspect of the present invention, in the information processing method for moving image editing, a first image including a plurality of temporally continuous images is time-divided, and each has a first time information. A plurality of image pieces generated as an image that can be reproduced independently and a first sound corresponding to the first image are time-divided, and each has a second time information and can be reproduced independently. Acquiring a plurality of generated audio pieces by communication, designating a first time range from the time range of the first image according to a user operation, and receiving the plurality of received images. Select the image piece included in the first time range from the pieces, specify the second time range from the time range of the first sound according to the user operation, and receive. It includes selecting the voice piece included in the second time range from the plurality of voice pieces.

本発明の一態様によれば、動画編集のための情報生成方法は、時間的に連続した複数の画像を含む第1の画像と、前記第1の画像に対応する第1の音声とが記録されているキャプチャ機器において、前記第1の画像を時間分割して単独で再生できる複数の画像片を生成することと、複数の前記画像片のそれぞれに第1の時間情報を添付することと、前記第1の音声を時間分割して単独で再生できる複数の音声片を生成することと、複数の前記音声片のそれぞれに第2の時間情報を添付することと、前記画像片と前記音声片とを携帯端末へ送信することとを含む。 According to one aspect of the present invention, in the information generation method for moving image editing, a first image including a plurality of temporally continuous images and a first sound corresponding to the first image are recorded. In the capture device, the first image is time-divided to generate a plurality of image pieces that can be reproduced independently, and the first time information is attached to each of the plurality of image pieces. The first sound piece is time-divided to generate a plurality of sound pieces that can be reproduced independently, the second time information is attached to each of the plurality of sound pieces, and the image piece and the sound piece are attached. Includes sending and to a mobile terminal.

本発明の一態様によれば、動画編集のための情報処理プログラムは、時間的に連続した複数の画像を含む第1の画像が時間分割されて、それぞれが第1の時間情報を有して単独で再生できる画像として生成された複数の画像片と、前記第1の画像に対応する第1の音声が時間分割されて、それぞれが第2の時間情報を有して単独で再生できる音声として生成された複数の音声片とを通信により取得することと、前記第1の画像の時間範囲の中から第1の時間範囲をユーザ操作に応じて指定することと、受信された複数の前記画像片の中から前記第1の時間範囲に含まれる前記画像片を選択することと、前記第1の音声の時間範囲の中から第2の時間範囲をユーザ操作に応じて指定することと、受信された複数の前記音声片の中から前記第2の時間範囲に含まれる前記音声片を選択することとをコンピュータに実行させる。 According to one aspect of the present invention, in the information processing program for moving image editing, a first image including a plurality of temporally continuous images is time-divided, and each has a first time information. A plurality of image pieces generated as an image that can be reproduced independently and a first sound corresponding to the first image are time-divided, and each has a second time information and can be reproduced independently. Acquiring a plurality of generated audio pieces by communication, designating a first time range from the time range of the first image according to a user operation, and receiving the plurality of received images. Select the image piece included in the first time range from the pieces, specify the second time range from the time range of the first sound according to the user operation, and receive. The computer is made to select the sound piece included in the second time range from the plurality of sound pieces.

本発明によれば、簡易な動画編集を実現できる動画編集のための携帯端末、キャプチャ機器、情報処理システム、情報処理方法、情報生成方法及び情報処理プログラムを提供できる。 According to the present invention, it is possible to provide a portable terminal, a capture device, an information processing system, an information processing method, an information generation method, and an information processing program for video editing that can realize simple video editing.

図1Aは、第1の実施形態に係る情報処理システムの構成例の概略を示すブロック図である。FIG. 1A is a block diagram showing an outline of a configuration example of an information processing system according to a first embodiment. 図1Bは、第1の実施形態に係るキャプチャ機器の構成例の概略を示すブロック図である。FIG. 1B is a block diagram showing an outline of a configuration example of the capture device according to the first embodiment. 図1Cは、第1の実施形態に係る携帯端末の構成例の概略を示すブロック図である。FIG. 1C is a block diagram showing an outline of a configuration example of a mobile terminal according to the first embodiment. 図2Aは、第1の実施形態に係る情報処理システムの動作の概要について説明するための図である。FIG. 2A is a diagram for explaining an outline of the operation of the information processing system according to the first embodiment. 図2Bは、第1の実施形態に係る情報処理システムの動作の概要について説明するための図である。FIG. 2B is a diagram for explaining an outline of the operation of the information processing system according to the first embodiment. 図2Cは、第1の実施形態に係る情報処理システムの動作の概要について説明するための図である。FIG. 2C is a diagram for explaining an outline of the operation of the information processing system according to the first embodiment. 図2Dは、第1の実施形態に係る情報処理システムの動作の概要について説明するための図である。FIG. 2D is a diagram for explaining an outline of the operation of the information processing system according to the first embodiment. 図2Eは、第1の実施形態に係る情報処理システムの動作の概要について説明するための図である。FIG. 2E is a diagram for explaining an outline of the operation of the information processing system according to the first embodiment. 図3は、第1の実施形態に係るキャプチャ機器制御処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of the capture device control process according to the first embodiment. 図4は、第1の実施形態に係る画像片及び音声片送信処理の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of image piece and audio piece transmission processing according to the first embodiment. 図5は、第1の実施形態に係る仮編集付き再生処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the reproduction process with temporary editing according to the first embodiment. 図6Aは、第1の実施形態に係る携帯端末制御処理の一例を示すフローチャートである。FIG. 6A is a flowchart showing an example of the mobile terminal control process according to the first embodiment. 図6Bは、第1の実施形態に係る携帯端末制御処理の一例を示すフローチャートである。FIG. 6B is a flowchart showing an example of the mobile terminal control process according to the first embodiment. 図7Aは、第1の実施形態に係る携帯端末における表示の一例を示す模式図である。FIG. 7A is a schematic diagram showing an example of display in the mobile terminal according to the first embodiment. 図7Bは、第1の実施形態に係る携帯端末及びキャプチャ機器における表示の一例を示す模式図である。FIG. 7B is a schematic diagram showing an example of display in the mobile terminal and the capture device according to the first embodiment. 図7Cは、第1の実施形態に係る携帯端末における表示の一例を示す模式図である。FIG. 7C is a schematic diagram showing an example of display in the mobile terminal according to the first embodiment. 図7Dは、第1の実施形態に係る携帯端末における表示の一例を示す模式図である。FIG. 7D is a schematic diagram showing an example of display in the mobile terminal according to the first embodiment. 図7Eは、第1の実施形態に係る携帯端末における表示の一例を示す模式図である。FIG. 7E is a schematic diagram showing an example of display in the mobile terminal according to the first embodiment. 図8は、第1の実施形態に係る分離編集処理の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the separate editing process according to the first embodiment. 図9Aは、第1の実施形態に係る携帯端末における表示の一例を示す模式図である。FIG. 9A is a schematic diagram showing an example of display in the mobile terminal according to the first embodiment. 図9Bは、第1の実施形態に係る携帯端末における表示の一例を示す模式図である。FIG. 9B is a schematic diagram showing an example of display in the mobile terminal according to the first embodiment. 図9Cは、第1の実施形態に係る分離編集処理について説明するための模式図である。FIG. 9C is a schematic diagram for explaining the separation editing process according to the first embodiment. 図10Aは、分離編集処理の変形例に係る携帯端末における表示の一例を示す模式図である。FIG. 10A is a schematic diagram showing an example of display on a mobile terminal according to a modified example of the separation editing process. 図10Bは、分離編集処理の変形例について説明するための模式図である。FIG. 10B is a schematic diagram for explaining a modification of the separation editing process. 図11Aは、仮編集付き再生処理の別の一例を示すフローチャートである。FIG. 11A is a flowchart showing another example of the reproduction process with temporary editing. 図11Bは、仮編集付き再生処理の別の一例を示すフローチャートである。FIG. 11B is a flowchart showing another example of the reproduction process with temporary editing. 図12Aは、仮編集付き再生処理の変形例に係るキャプチャ機器における表示の一例を示す模式図である。FIG. 12A is a schematic diagram showing an example of a display in a capture device according to a modified example of the reproduction process with temporary editing. 図12Bは、仮編集付き再生処理の変形例に係るキャプチャ機器における表示の一例を示す模式図である。FIG. 12B is a schematic diagram showing an example of a display in a capture device according to a modified example of the reproduction process with temporary editing. 図12Cは、仮編集付き再生処理の変形例に係るキャプチャ機器における表示の一例を示す模式図である。FIG. 12C is a schematic diagram showing an example of a display in a capture device according to a modified example of the reproduction process with temporary editing. 図12Dは、仮編集付き再生処理の変形例に係るキャプチャ機器における表示の一例を示す模式図である。FIG. 12D is a schematic diagram showing an example of a display in a capture device according to a modified example of the reproduction process with temporary editing. 図12Eは、仮編集付き再生処理の変形例に係る携帯端末及びキャプチャ機器における表示の一例を示す模式図である。FIG. 12E is a schematic diagram showing an example of display in a mobile terminal and a capture device according to a modified example of the reproduction process with temporary editing. 図12Fは、仮編集付き再生処理の変形例に係る携帯端末における表示の一例を示す模式図である。FIG. 12F is a schematic diagram showing an example of display on a mobile terminal according to a modified example of the reproduction process with temporary editing.

<構成>
本発明の第1の実施形態について図面を参照して説明する。本実施形態に係る情報処理システム1の構成例の概略をブロック図として図1Aに示す。情報処理システム1は、動画等の情報を取得する情報取得装置と、取得された動画等の情報を処理する情報処理装置としての機能を有する。本実施形態では、図1Aに示すように、情報取得装置と情報処理装置としての機能を有するキャプチャ機器100と、情報処理装置としての機能を有する携帯端末200とを備える情報処理システム1を例として説明をする。
<Structure>
The first embodiment of the present invention will be described with reference to the drawings. FIG. 1A shows an outline of a configuration example of the information processing system 1 according to the present embodiment as a block diagram. The information processing system 1 has a function as an information acquisition device for acquiring information such as moving images and an information processing device for processing the acquired information such as moving images. In the present embodiment, as shown in FIG. 1A, an information processing system 1 including an information acquisition device, a capture device 100 having a function as an information processing device, and a portable terminal 200 having a function as an information processing device is taken as an example. I will explain.

本実施形態に係るキャプチャ機器100の構成例の概略をブロック図として図1Bに示す。また、本実施形態に係る携帯端末200の構成例の概略をブロック図として図1Cに示す。キャプチャ機器100は、例えば4K、8Kといった高品質の動画撮影ができるデジタルカメラである。また、本実施形態に係る携帯端末200は、例えばスマートフォン、タブレットPC等の情報端末である。ユーザは、携帯端末200を操作して、キャプチャ機器100によって取得された高品質の動画に基づいて、データ容量が低減されていて他のユーザと共有し易く、気軽に観賞できる動画を簡易に作成する。 FIG. 1B shows an outline of a configuration example of the capture device 100 according to the present embodiment as a block diagram. Further, FIG. 1C shows an outline of a configuration example of the mobile terminal 200 according to the present embodiment as a block diagram. The capture device 100 is a digital camera capable of shooting high-quality moving images such as 4K and 8K. Further, the mobile terminal 200 according to the present embodiment is an information terminal such as a smartphone or a tablet PC. The user operates the mobile terminal 200, and based on the high-quality video acquired by the capture device 100, the data capacity is reduced, it is easy to share with other users, and the user can easily create a video that can be easily watched. do.

キャプチャ機器100は、機器側制御部110と、機器側表示部120と、機器側音声再生部130と、機器側操作部140と、機器側記録部150と、機器側通信部160と、機器側撮像部170と、機器側収音部180と、機器側時計部190とを備える。キャプチャ機器100は、画像データに各種画像処理を施す画像処理回路をさらに備えていてもよい。 The capture device 100 includes a device-side control unit 110, a device-side display unit 120, a device-side audio reproduction unit 130, a device-side operation unit 140, a device-side recording unit 150, a device-side communication unit 160, and a device-side. It includes an image pickup unit 170, a device-side sound collection unit 180, and a device-side clock unit 190. The capture device 100 may further include an image processing circuit that performs various image processing on the image data.

機器側制御部110は、キャプチャ機器100の各部の動作を制御する。機器側制御部110は、機器側情報処理部111としての機能を有する。機器側情報処理部111は、機器側圧縮部112、機器側伸長部113、機器側分割部114、機器側通信制御部115及び機器側記録制御部116としての機能を有する。機器側圧縮部112は、静止画像データ、音声データ及び動画データの圧縮処理を行う。ここで、動画データは、時間的に連続した複数の画像を含む第1の画像と、第1の画像に対応する第1の音声とを含む。また、機器側圧縮部112は、画像データのリサイズ処理を行う。機器側伸長部113は、圧縮されている画像データ、音声データ及び動画データの伸張処理を行う。機器側分割部114は、動画データに含まれる第1の画像及び第1の音声を時間分割する。機器側分割部114は、動画データに含まれる第1の画像(動画コマ)を、特定のタイミング毎に画像化する。機器側分割部114は、動画データに含まれる第1の音声を、特定のタイミング毎に切り出す。以下、このようにして生成された画像データ及び音声データを、それぞれ、画像片及び音声片(音声クリップ)と記載する。機器側分割部114は、各々の画像片に第1の時間情報を添付する。ここで、第1の時間情報は、第1の画像におけるそれぞれの画像片の時間位置である。同様に、機器側分割部114は、各々の音声片に第2の時間情報を添付する。ここで、第2の時間情報は、第1の音声におけるそれぞれの音声片の時間位置である。機器側通信制御部115は、機器側通信部160の通信等の動作を制御する。機器側通信制御部115は、キャプチャ機器100で生成された画像片及び音声片等を携帯端末200へ送信させる。機器側記録制御部116は、機器側記録部150への各種情報の記録を制御する。機器側記録制御部116は、キャプチャ機器100で取得された動画データ(第1の画像及び第1の音声)を、それぞれ、機器側記録部150の画像記録部151及び音声記録部152に記録させる。機器側記録制御部116は、キャプチャ機器100で生成された画像片及び音声片等を、それぞれ、機器側記録部150の画像記録部151及び音声記録部152に仮記録又は記録させる。 The device-side control unit 110 controls the operation of each unit of the capture device 100. The device-side control unit 110 has a function as the device-side information processing unit 111. The information processing unit 111 on the device side has functions as a compression unit 112 on the device side, an extension unit 113 on the device side, a division unit 114 on the device side, a communication control unit 115 on the device side, and a recording control unit 116 on the device side. The device-side compression unit 112 performs compression processing for still image data, audio data, and moving image data. Here, the moving image data includes a first image including a plurality of temporally continuous images, and a first sound corresponding to the first image. Further, the device-side compression unit 112 performs image data resizing processing. The device-side decompression unit 113 performs decompression processing of compressed image data, audio data, and moving image data. The device-side dividing unit 114 time-divides the first image and the first sound included in the moving image data. The device-side dividing unit 114 images the first image (video frame) included in the moving image data at specific timings. The device-side dividing unit 114 cuts out the first sound included in the moving image data at specific timings. Hereinafter, the image data and the audio data generated in this manner will be referred to as an image piece and an audio piece (audio clip), respectively. The device-side dividing unit 114 attaches the first time information to each image piece. Here, the first time information is the time position of each image piece in the first image. Similarly, the device-side dividing unit 114 attaches a second time information to each voice piece. Here, the second time information is the time position of each voice piece in the first voice. The device-side communication control unit 115 controls operations such as communication of the device-side communication unit 160. The device-side communication control unit 115 causes the mobile terminal 200 to transmit the image piece, the sound piece, and the like generated by the capture device 100. The device-side recording control unit 116 controls the recording of various information in the device-side recording unit 150. The device-side recording control unit 116 records the moving image data (first image and first sound) acquired by the capture device 100 in the image recording unit 151 and the sound recording unit 152 of the device-side recording unit 150, respectively. .. The device-side recording control unit 116 temporarily records or records the image piece, the sound piece, and the like generated by the capture device 100 in the image recording unit 151 and the sound recording unit 152 of the device-side recording unit 150, respectively.

また、機器側制御部110は、機器側表示制御部と、機器側編集部としての機能をさらに備える。機器側表示制御部は、キャプチャ機器100の備える機器側表示部120に表示させる表示情報を生成する。動画編集時の機器側表示制御部の動作は、後述する端末側表示制御部218と同様である。機器側編集部は、動画編集に係る処理を行う。機器側編集部は、携帯端末200に送信する画像片及び音声片の範囲を設定する仮編集に係る処理を行う。 Further, the device-side control unit 110 further includes functions as a device-side display control unit and a device-side editing unit. The device-side display control unit generates display information to be displayed on the device-side display unit 120 included in the capture device 100. The operation of the device-side display control unit during video editing is the same as that of the terminal-side display control unit 218, which will be described later. The device-side editorial unit performs processing related to video editing. The device-side editorial unit performs a process related to temporary editing for setting a range of image pieces and audio pieces to be transmitted to the mobile terminal 200.

機器側表示部120は、機器側表示制御部の生成する表示情報を表示する。表示情報は、画像データを含む。機器側表示部120は、例えば液晶ディスプレイ、有機ELディスプレイである。機器側表示部120は電子ビューファインダ(EVF)としての機能を有する。機器側音声再生部130は、機器側制御部110の生成する音声情報を再生する。機器側音声再生部130は、例えばスピーカである。機器側操作部140は、ユーザのキャプチャ機器100に対する各種の操作結果を取得するための操作部材を含む。機器側操作部140は、ユーザ操作を取得できる要素であればよく、例えば押しボタン、つまみ、スライダ、ダイヤル、レバー等の機械的な操作部材であってもよいし、タッチパネルであってもよい。 The device-side display unit 120 displays the display information generated by the device-side display control unit. The display information includes image data. The device-side display unit 120 is, for example, a liquid crystal display or an organic EL display. The device-side display unit 120 has a function as an electronic viewfinder (EVF). The device-side audio reproduction unit 130 reproduces the audio information generated by the device-side control unit 110. The device-side audio reproduction unit 130 is, for example, a speaker. The device-side operation unit 140 includes an operation member for acquiring various operation results for the user's capture device 100. The operation unit 140 on the device side may be any element as long as it can acquire user operations, and may be, for example, a mechanical operation member such as a push button, a knob, a slider, a dial, or a lever, or a touch panel.

機器側記録部150には、キャプチャ機器100が取得した情報、キャプチャ機器100の動作に係る情報等の各種情報が記録される。また、機器側記録部150には、キャプチャ機器100の備える各部で用いられるプログラム及びパラメータが記録される。このプログラムは、動画データを編集するための情報処理プログラムを含む。機器側記録部150には、動画編集時に各種編集画面を機器側表示部120に表示させるために必要な表示用データが記録される。また、機器側記録部150には、キャプチャ機器100の動作時の処理データを含む各種データが一時的に記録される。機器側記録部150は、画像記録部151と、音声記録部152とを備える。画像記録部151には、キャプチャ機器100で取得された静止画像データ、動画データに含まれる時間的に連続した画像を含む第1の画像、キャプチャ機器100で生成された画像片、これらの画像データを示すサムネイル画像等の各種画像データが記録される。音声記録部152には、キャプチャ機器100で取得された音声データ、第1の画像に対応した第1の音声、キャプチャ機器100で生成された音声片等の各種音声データが記録される。音声記録部152には、観賞用動画の生成に用いられる効果音等の音声データが記録されていてもよい。ここで、観賞用動画は、ユーザ等による後の観賞に適するように編集された動画のことである。 Various information such as information acquired by the capture device 100 and information related to the operation of the capture device 100 are recorded in the device-side recording unit 150. Further, the program and parameters used in each unit included in the capture device 100 are recorded in the device-side recording unit 150. This program includes an information processing program for editing video data. The device-side recording unit 150 records display data necessary for displaying various editing screens on the device-side display unit 120 when editing a moving image. Further, various data including the processing data during the operation of the capture device 100 are temporarily recorded in the device-side recording unit 150. The device-side recording unit 150 includes an image recording unit 151 and an audio recording unit 152. The image recording unit 151 includes still image data acquired by the capture device 100, a first image including time-consecutive images included in the moving image data, an image piece generated by the capture device 100, and these image data. Various image data such as a thumbnail image indicating the above are recorded. The voice recording unit 152 records various voice data such as voice data acquired by the capture device 100, a first voice corresponding to the first image, and a voice piece generated by the capture device 100. The voice recording unit 152 may record voice data such as sound effects used for generating an ornamental moving image. Here, the ornamental moving image is a moving image edited so as to be suitable for later viewing by a user or the like.

機器側通信部160は、キャプチャ機器100が他の機器と通信するための回路を備える。キャプチャ機器100と携帯端末200との間の通信は、例えば無線通信によって行われる。機器側通信部160は、第1の機器側通信部161と、第2の機器側通信部162とを備える。第1の機器側通信部161は、Bluetooth(登録商標)通信又はBluetooth Low Energy(BLE)通信に対応した通信回路を備える。第2の機器側通信部162は、Wi-Fi(登録商標)通信に対応した通信回路を備える。例えば、画像データ、音声データ等の通信には比較的に大容量の通信であるWi-Fi通信を実行できる第1の機器側通信部161が用いられる。また、制御信号等の通信には比較的に低消費電力の通信であるBLE通信を実行できる第2の機器側通信部162が用いられる。 The device-side communication unit 160 includes a circuit for the capture device 100 to communicate with another device. Communication between the capture device 100 and the mobile terminal 200 is performed, for example, by wireless communication. The device-side communication unit 160 includes a first device-side communication unit 161 and a second device-side communication unit 162. The first device-side communication unit 161 includes a communication circuit corresponding to Bluetooth (registered trademark) communication or Bluetooth Low Energy (BLE) communication. The second device-side communication unit 162 includes a communication circuit corresponding to Wi-Fi (registered trademark) communication. For example, for communication of image data, voice data, etc., a first device-side communication unit 161 capable of executing Wi-Fi communication, which is a relatively large-capacity communication, is used. Further, for communication of control signals and the like, a second device-side communication unit 162 capable of executing BLE communication, which is communication with relatively low power consumption, is used.

なお、サムネイル画像等のデータ容量が小さい画像データは、BLE通信によって送受信されてもよい。なお、機器側通信部160は、携帯電話通信に対応した通信回路をさらに備えていてもよい。また、キャプチャ機器100と携帯端末200等のキャプチャ機器100の外部との間の通信は、有線通信によって行われてもよいし、互いにインターネット等の電気通信回線に接続されてインターネット等の電気通信回線を介して通信が行われてもよい。なお、キャプチャ機器100と携帯端末200等の間におけるデータの移動は、例えばUSBメモリ、CD-ROM、ネットワーク上のデータサーバ等の情報処理システム1の外部にある記録媒体を介して行われてもよい。 Image data having a small data capacity such as a thumbnail image may be transmitted / received by BLE communication. The device-side communication unit 160 may further include a communication circuit corresponding to mobile phone communication. Further, communication between the capture device 100 and the outside of the capture device 100 such as the mobile terminal 200 may be performed by wired communication, or may be connected to each other by a telecommunication line such as the Internet to make a telecommunication line such as the Internet. Communication may be performed via. Even if the data is moved between the capture device 100 and the mobile terminal 200 or the like via a recording medium outside the information processing system 1 such as a USB memory, a CD-ROM, or a data server on the network. good.

機器側撮像部170は、対象を撮像し、被写体に係る画像データを取得する。機器側撮像部170は、レンズと、撮像素子とを備える。レンズは、対象からの光束を撮像素子の受光面上に結像させる。レンズは、ズームレンズ、フォーカスレンズ等を備えていてもよい。撮像素子は、例えばComplementary Metal-Oxide Semiconductor(CMOS)センサやCharge-Coupled Device(CCD)センサであり、受光面に入射した光束を電気信号(画像信号)に変換する。また、撮像素子は、画像信号を増幅し、デジタル化して画像データを生成するといった前処理も行う。 The device-side image pickup unit 170 takes an image of the target and acquires image data related to the subject. The device-side image pickup unit 170 includes a lens and an image pickup element. The lens forms an image of a luminous flux from an object on a light receiving surface of an image pickup device. The lens may include a zoom lens, a focus lens, and the like. The image pickup device is, for example, a Complementary Metal-Oxide Semiconductor (CMOS) sensor or a Charge-Coupled Device (CCD) sensor, and converts a light flux incident on a light receiving surface into an electric signal (image signal). The image sensor also performs preprocessing such as amplifying an image signal and digitizing it to generate image data.

機器側収音部180は、対象の音声を収音し、対象に係る音声データを取得する。機器側収音部180は、例えばマイクロフォンであり、機器側収音部180に入射した音波を電気信号(音声信号)に変換する。また、機器側収音部180は、音声信号を増幅し、デジタル化して音声データを生成したり、音声信号のノイズ除去をしたりするといった前処理も行う。なお、これら前処理は、ハードウェアによって実現されてもよいし、ソフトウェアによって実現されてもよい。 The device-side sound collecting unit 180 picks up the target voice and acquires the voice data related to the target. The device-side sound collecting unit 180 is, for example, a microphone, and converts a sound wave incident on the device-side sound collecting unit 180 into an electric signal (voice signal). In addition, the device-side sound collecting unit 180 also performs preprocessing such as amplifying the audio signal and digitizing it to generate audio data, and removing noise from the audio signal. It should be noted that these preprocessings may be realized by hardware or software.

機器側時計部190は、日付や時刻に係る情報を生成し、機器側制御部110へ出力する。 The device-side clock unit 190 generates information related to the date and time and outputs the information to the device-side control unit 110.

携帯端末200は、図1Cに示すように、端末側制御部210と、端末側表示部220と、端末側音声再生部230と、端末側操作部240と、端末側記録部250と、端末側通信部260とを備える。 As shown in FIG. 1C, the mobile terminal 200 includes a terminal side control unit 210, a terminal side display unit 220, a terminal side audio reproduction unit 230, a terminal side operation unit 240, a terminal side recording unit 250, and a terminal side. It is provided with a communication unit 260.

端末側制御部210は、携帯端末200の各部の動作を制御する。端末側制御部210は、端末側情報処理部211としての機能を有する。端末側情報処理部211は、端末側圧縮部212と、端末側通信制御部215と、端末側記録制御部216と、端末側編集部217と、端末側表示制御部218としての機能を有する。端末側圧縮部212は、画像データ、音声データ及び動画データの圧縮処理を行う。ここで、動画データは、特定の時間範囲(第1の時間範囲)に含まれる時間的に連続した画像片と、特定の時間範囲(第2の時間範囲)に含まれる時間的に連続した音声片とに基づいて生成された観賞用動画の動画データを含む。また、端末側圧縮部212は、画像データのリサイズ処理を行う。端末側通信制御部215は、端末側通信部260の通信等の動作を制御する。端末側通信制御部215は、キャプチャ機器100で生成された画像片及び音声片等をキャプチャ機器100から受信させる。端末側記録制御部216は、端末側記録部250への各種情報の記録を制御する。端末側記録制御部216は、キャプチャ機器100から取得された画像片及び音声片を、それぞれ、添付されている時間情報毎に端末側記録部250に仮記録させる。端末側記録制御部216は、携帯端末200で生成された観賞用動画の動画データを端末側記録部250に記録させる。端末側編集部217は、観賞用動画の生成に係る各種処理を制御する。端末側編集部217は、端末側操作部240の出力に基づいて、観賞用動画の生成に用いる画像片の時間範囲(第1の時間範囲)と、音声片の時間範囲(第2の時間範囲)とを設定する。端末側編集部217は、画像(画像片)と音声(音声片)との時間範囲を分離して設定する分離編集と、画像(画像片)と音声(音声片)との時間範囲を分離せずに一括して設定する結合編集とを行う。分離編集において、端末側編集部217は、第1の時間範囲と、第2の時間範囲とを、それぞれ個別に設定する。端末側編集部217は、第1の時間範囲に含まれる画像片と、第2の時間範囲に含まれる音声片とに基づいて観賞用動画を生成する。端末側編集部217は、画像片へキャプションを追加する処理や、観賞用動画にタイトル画像等の挿入画像や効果音等を追加する処理を行う。端末側表示制御部218は、端末側表示部220に表示させる表示情報を生成する。表示情報には、動画編集のための表示画面を含む。ここで、動画編集のための表示画面には、分離編集のための表示画面と、結合編集のための表示画面とを含む。分離編集のための表示画面は、第1の時間範囲を設定するための画像範囲選択バーと、第2の時間範囲を設定するための音声範囲選択バーとを含む。結合編集のための表示画面は、画像と音声兼用の範囲選択バーである共通範囲選択バーを含む。 The terminal-side control unit 210 controls the operation of each unit of the mobile terminal 200. The terminal-side control unit 210 has a function as a terminal-side information processing unit 211. The terminal-side information processing unit 211 has functions as a terminal-side compression unit 212, a terminal-side communication control unit 215, a terminal-side recording control unit 216, a terminal-side editing unit 217, and a terminal-side display control unit 218. The terminal-side compression unit 212 performs compression processing for image data, audio data, and moving image data. Here, the moving image data includes a time-continuous image piece included in a specific time range (first time range) and a time-continuous sound included in a specific time range (second time range). Includes video data for ornamental videos generated based on the piece. Further, the terminal-side compression unit 212 performs image data resizing processing. The terminal-side communication control unit 215 controls operations such as communication of the terminal-side communication unit 260. The terminal-side communication control unit 215 receives the image piece, the sound piece, and the like generated by the capture device 100 from the capture device 100. The terminal-side recording control unit 216 controls recording of various information in the terminal-side recording unit 250. The terminal-side recording control unit 216 temporarily records the image piece and the audio piece acquired from the capture device 100 in the terminal-side recording unit 250 for each attached time information. The terminal-side recording control unit 216 causes the terminal-side recording unit 250 to record the moving image data of the ornamental moving image generated by the mobile terminal 200. The terminal-side editorial unit 217 controls various processes related to the generation of the ornamental moving image. The terminal-side editing unit 217 has a time range of an image piece (first time range) and a time range of an audio piece (second time range) used for generating an ornamental moving image based on the output of the terminal-side operation unit 240. ) And set. The terminal side editing unit 217 separates the time range between the image (image piece) and the sound (audio piece) and the separate editing that sets the time range between the image (image piece) and the sound (audio piece) separately. Performs join editing and setting all at once. In the separate editing, the terminal-side editing unit 217 sets the first time range and the second time range individually. The terminal-side editorial unit 217 generates an ornamental moving image based on the image piece included in the first time range and the audio piece included in the second time range. The terminal-side editorial unit 217 performs a process of adding a caption to an image piece and a process of adding an inserted image such as a title image, a sound effect, or the like to an ornamental moving image. The terminal side display control unit 218 generates display information to be displayed on the terminal side display unit 220. The display information includes a display screen for video editing. Here, the display screen for video editing includes a display screen for separate editing and a display screen for combined editing. The display screen for separate editing includes an image range selection bar for setting a first time range and an audio range selection bar for setting a second time range. The display screen for combined editing includes a common range selection bar which is a range selection bar for both image and sound.

端末側表示部220は、端末側表示制御部218の生成する表示情報を表示する。表示情報は、画像データを含む。端末側表示部220は、例えば液晶ディスプレイ、有機ELディスプレイである。 The terminal side display unit 220 displays the display information generated by the terminal side display control unit 218. The display information includes image data. The terminal side display unit 220 is, for example, a liquid crystal display or an organic EL display.

端末側音声再生部230は、端末側制御部210の生成する音声情報を再生する。端末側音声再生部230は、例えばスピーカである。 The terminal-side audio reproduction unit 230 reproduces the audio information generated by the terminal-side control unit 210. The terminal-side audio reproduction unit 230 is, for example, a speaker.

端末側操作部240は、ユーザの携帯端末200に対する各種の操作結果を取得するための操作部材を含む。端末側操作部240は、ユーザ操作を取得できる要素であればよく、例えば押しボタン、つまみ、スライダ、ダイヤル、レバー等の機械的な操作部材であってもよいし、タッチパネルであってもよい。なお、本実施形態に係る端末側操作部240は、少なくとも、端末側表示部220上に設けられたタッチパネルを含む。 The terminal-side operation unit 240 includes an operation member for acquiring various operation results for the user's mobile terminal 200. The terminal-side operation unit 240 may be an element that can acquire user operations, and may be, for example, a mechanical operation member such as a push button, a knob, a slider, a dial, or a lever, or may be a touch panel. The terminal-side operation unit 240 according to the present embodiment includes at least a touch panel provided on the terminal-side display unit 220.

端末側記録部250には、携帯端末200が取得した情報、携帯端末200の動作に係る情報等の各種情報が記録される。また、端末側記録部250には、携帯端末200の備える各部で用いられるプログラム及びパラメータが記録される。このプログラムは、動画データを編集するための情報処理プログラムを含む。端末側記録部250には、動画編集時に各種編集画面を端末側表示部220に表示させるために必要な表示用データが記録される。端末側記録部250は、仮記録部251と、情報記録部252とを備える。仮記録部251には、携帯端末200の動作時の処理データを含む各種データが一時的に記録される。仮記録部251には、キャプチャ機器100から受信された画像片及び音声片が、添付されている時間情報毎に仮記録される。情報記録部252には、携帯端末200で生成された観賞用動画等の各種情報が記録される。情報記録部252には、観賞用動画の生成に用いられる挿入画像、効果音等が記録されていてもよい。 Various information such as information acquired by the mobile terminal 200 and information related to the operation of the mobile terminal 200 are recorded in the terminal-side recording unit 250. Further, the terminal side recording unit 250 records programs and parameters used in each unit included in the mobile terminal 200. This program includes an information processing program for editing video data. The terminal-side recording unit 250 records display data necessary for displaying various editing screens on the terminal-side display unit 220 when editing a moving image. The terminal-side recording unit 250 includes a temporary recording unit 251 and an information recording unit 252. Various data including the processing data during the operation of the mobile terminal 200 are temporarily recorded in the temporary recording unit 251. Image pieces and audio pieces received from the capture device 100 are temporarily recorded in the temporary recording unit 251 for each attached time information. Various information such as an ornamental moving image generated by the mobile terminal 200 is recorded in the information recording unit 252. The information recording unit 252 may record an inserted image, a sound effect, or the like used for generating an ornamental moving image.

端末側通信部260は、携帯端末200が他の機器と通信するための回路を備える。端末側通信部260は、キャプチャ機器100との間で通信を行う。端末側通信部260は、第1の端末側通信部261と、第2の端末側通信部262とを備える。第1の端末側通信部261は、Bluetooth通信又はBLE通信に対応した通信回路を備える。第2の端末側通信部262は、Wi-Fi通信に対応した通信回路を備える。なお、端末側通信部260は、携帯電話通信に対応した通信回路をさらに備えていてもよい。 The terminal-side communication unit 260 includes a circuit for the mobile terminal 200 to communicate with other devices. The terminal-side communication unit 260 communicates with the capture device 100. The terminal-side communication unit 260 includes a first terminal-side communication unit 261 and a second terminal-side communication unit 262. The first terminal-side communication unit 261 includes a communication circuit corresponding to Bluetooth communication or BLE communication. The second terminal-side communication unit 262 includes a communication circuit corresponding to Wi-Fi communication. The terminal-side communication unit 260 may further include a communication circuit corresponding to mobile phone communication.

なお、機器側制御部110及び端末側制御部210は、Central Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)又はField Programmable Gate Array(FPGA)等の集積回路等を含む。機器側制御部110及び端末側制御部210は、それぞれ、1つの集積回路等で構成されてもよいし、複数の集積回路等が組み合わされて構成されてもよい。これら集積回路の動作は、例えば機器側記録部150又は端末側記録部250や集積回路内の記録領域に記録されたプログラムに従って行われるが、集積回路の構成に応じて、ハードウェアによって実現されてもよい。 The device-side control unit 110 and the terminal-side control unit 210 include integrated circuits such as a Central Processing Unit (CPU), an Application Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA). The device-side control unit 110 and the terminal-side control unit 210 may each be configured by one integrated circuit or the like, or may be configured by combining a plurality of integrated circuits or the like. The operation of these integrated circuits is performed according to a program recorded in, for example, the recording unit 150 on the device side or the recording unit 250 on the terminal side or the recording area in the integrated circuit, but is realized by hardware depending on the configuration of the integrated circuit. May be good.

なお、機器側記録部150及び端末側記録部250は、例えばフラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)のような不揮発性メモリである。機器側記録部150及び端末側記録部250は、Static Random Access Memory(SRAM)やDynamic Random Access Memory(DRAM)のような揮発性メモリをさらに有していてもよい。機器側記録部150及び端末側記録部250は、それぞれ、1つのメモリ等で構成されてもよいし、複数のメモリ等が組み合わされて構成されてもよい。また、機器側記録部150及び端末側記録部250は、外部にあるデータサーバ等を、そのメモリの一部として利用してもよい。 The device-side recording unit 150 and the terminal-side recording unit 250 are non-volatile memories such as a flash memory, a hard disk drive (HDD), and a solid state drive (SSD). The device-side recording unit 150 and the terminal-side recording unit 250 may further have a volatile memory such as a Static Random Access Memory (SRAM) or a Dynamic Random Access Memory (DRAM). The device-side recording unit 150 and the terminal-side recording unit 250 may each be configured with one memory or the like, or may be configured by combining a plurality of memories or the like. Further, the device-side recording unit 150 and the terminal-side recording unit 250 may use an external data server or the like as a part of the memory thereof.

<動作の概要>
ここで、本実施形態に係る情報処理システム1の動作の概要について、図2A~図2Eを参照して説明する。
<Outline of operation>
Here, an outline of the operation of the information processing system 1 according to the present embodiment will be described with reference to FIGS. 2A to 2E.

図2Aは、結婚式のキャンドルサービスのシーン(場面)において、ユーザUが、デジタルカメラ(キャプチャ機器100)を用いて動画撮影している様子を示す。このようなとき、ユーザUは、決定的な瞬間を撮り逃すことがないように比較的に長い時間に渡って動画撮影に専念していたり、高画質及び高音質の動画を取得する設定としていたりする。このようにして撮影された動画は、記録に適した品質(画質又は音質)である。一方で、撮影により記録された動画は、冗長であるためにハイライトが分かりにくい動画であることが多い。このため、このような動画は、編集しない状態では、観賞に適さないことが多い。特に、近年のインターネット等の電気通信回線を通じた動画共有においては、簡潔で、見ごたえのある動画に対するニーズが高い。 FIG. 2A shows a scene in which a user U is shooting a moving image using a digital camera (capture device 100) in a wedding candle service scene. In such a case, the user U may concentrate on shooting a video for a relatively long time so as not to miss a decisive moment, or may be set to acquire a high-quality and high-quality video. do. The moving image taken in this way has a quality (image quality or sound quality) suitable for recording. On the other hand, the moving image recorded by shooting is often a moving image whose highlights are difficult to understand because it is redundant. For this reason, such moving images are often unsuitable for viewing without editing. In particular, in recent years, in video sharing via telecommunication lines such as the Internet, there is a strong need for simple and impressive videos.

ユーザUは、図2Bに示すように、例えば帰りの電車内等、動画撮影後に手元のスマートフォン(携帯端末200)を操作して、鞄の中にあるキャプチャ機器100に記録されている動画(元動画)を確認する。しかしながら、元動画は、比較的長時間に渡って高画質又は高音質で撮影された動画であり、データ容量が大きい傾向にある。このような動画が無線通信によってユーザUの手元にある携帯端末200へ送信されることは困難である。また、データ容量の大きい動画ファイルは、インターネット等を介した動画共有に適さないことが多い。 As shown in FIG. 2B, the user U operates the smartphone (mobile terminal 200) at hand after shooting the moving image, for example, in the train on the way back, and the moving image recorded in the capture device 100 in the bag (original). Check the video). However, the original moving image is a moving image shot with high image quality or high sound quality over a relatively long period of time, and tends to have a large data capacity. It is difficult for such a moving image to be transmitted to the mobile terminal 200 in the hands of the user U by wireless communication. In addition, video files with a large data capacity are often unsuitable for video sharing via the Internet or the like.

そこで、本実施形態に係るキャプチャ機器100は、元動画を伸張し、特定タイミング毎に第1の画像(動画コマ)を1枚の画像(画像片)として生成する。また、各々の画像片には、時間情報(タイムスタンプ)が添付される。以下、画像片に添付される時間情報を第1の時間情報と記載する。図2Cには、時間的に連続した複数の画像片を含む一連の画像片F10として、第1の画像片F1と、第2の画像片F2と、第3の画像片F3と、第4の画像片F4と、第5の画像片F5とが生成された場合が例として示されている。同様に、キャプチャ機器100は、元動画を伸張し、特定タイミング毎に第1の音声を切り分けて、音声片(音声クリップ)を生成する。また、各々の音声片には、時間情報(タイムスタンプ)が添付される。以下、音声片に添付される時間情報を第2の時間情報と記載する。図2Cには、各々の画像片に対応する音声片を含む一連の音声片S10として、第1の音声片S1と、第2の音声片S2と、第3の音声片S3と、第4の音声片S4と、第5の音声片S5とが生成された場合が例として示されている。 Therefore, the capture device 100 according to the present embodiment stretches the original moving image and generates a first image (moving image frame) as one image (image piece) at each specific timing. In addition, time information (time stamp) is attached to each image piece. Hereinafter, the time information attached to the image piece will be referred to as the first time information. In FIG. 2C, a first image piece F1, a second image piece F2, a third image piece F3, and a fourth image piece F10 are shown as a series of image pieces F10 including a plurality of image pieces that are continuous in time. The case where the image piece F4 and the fifth image piece F5 are generated is shown as an example. Similarly, the capture device 100 expands the original moving image, separates the first audio at specific timings, and generates an audio piece (audio clip). In addition, time information (time stamp) is attached to each voice piece. Hereinafter, the time information attached to the voice piece will be described as the second time information. In FIG. 2C, as a series of audio pieces S10 including audio pieces corresponding to each image piece, a first audio piece S1, a second audio piece S2, a third audio piece S3, and a fourth sound piece S3 are shown. The case where the voice piece S4 and the fifth voice piece S5 are generated is shown as an example.

このように、本実施形態に係るキャプチャ機器100は、第1の画像を時間分割するとともに第1の時間情報を添付して単独で再生できる画像として画像片を生成する。なお、ここでの「単独で再生できる画像」とは、フレーム間圧縮(時間圧縮)された画像のように他の画像を参照することなく再生することができる画像のことである。また、キャプチャ機器100は、第1の画像に対応する第1の音声を時間分割するとともに第2の時間情報を添付して単独で再生できる音声として音声片を生成する。なお、ここでの「単独で再生できる音声」とは、隣接サンプル間の差分をとる等して時間圧縮された音声のように他の音声を参照することなく再生することができる音声のことである。ここで、第1の時間情報は、元動画(第1の画像)における画像片の時間位置を示す。同様に、第2の時間情報は、元動画(第1の音声)における音声片の時間位置を示す。 As described above, the capture device 100 according to the present embodiment generates an image piece as an image that can be reproduced independently by time-dividing the first image and attaching the first time information. The "image that can be reproduced independently" here is an image that can be reproduced without referring to another image, such as an image compressed between frames (time compression). Further, the capture device 100 divides the time of the first sound corresponding to the first image, attaches the second time information, and generates a sound piece as a sound that can be reproduced independently. The "sound that can be played independently" here is a sound that can be played without referring to other sounds, such as a time-compressed sound such as by taking a difference between adjacent samples. be. Here, the first time information indicates the time position of the image piece in the original moving image (first image). Similarly, the second time information indicates the time position of the audio piece in the original moving image (first audio).

本実施形態に係る携帯端末200は、生成された一連の画像片F10及び一連の音声片S10をキャプチャ機器100から受信し、各々の画像片又は音声片に添付されている時間情報毎に仮記録する。ユーザUは、手元のスマートフォン(携帯端末200)を操作して、時間情報毎に仮記録された一連の画像片F10及び一連の音声片S10に基づいて、共有に適した動画(観賞用動画)を作成する。 The mobile terminal 200 according to the present embodiment receives the generated series of image pieces F10 and a series of audio pieces S10 from the capture device 100, and temporarily records each time information attached to each image piece or audio piece. do. The user U operates a smartphone (mobile terminal 200) at hand, and based on a series of image pieces F10 and a series of audio pieces S10 temporarily recorded for each time information, a moving image suitable for sharing (ornamental moving image). To create.

このとき、図2Dに示すように、ユーザUは、一連の画像片F10の中から、素材画像F20として観賞用動画の作成に用いる画像片の範囲(第1の時間範囲)を選択する。ここで、素材画像F20は、第1の時間範囲内の時間的に連続した画像片である。そのシーン(元動画)を代表するような画像片が含まれる一連の画像片F10の範囲が第1の時間範囲として選択されればよい。例えば、キャンドルサービスの場面であれば、素材画像F20には、キャンドルに火が灯される直前を示す第4の画像片F4と、直後を示す第5の画像片F5とが含まれる。第1の時間範囲の時間幅を示す素材画像時間Tmは、5秒といった値が予め設定されていてもよいし、ユーザUが適宜調節して設定されてもよい。 At this time, as shown in FIG. 2D, the user U selects a range (first time range) of the image piece used for creating the ornamental moving image as the material image F20 from the series of image pieces F10. Here, the material image F20 is a temporally continuous image piece within the first time range. A range of a series of image pieces F10 including an image piece representative of the scene (original moving image) may be selected as the first time range. For example, in the case of a candle service scene, the material image F20 includes a fourth image piece F4 indicating immediately before the candle is lit, and a fifth image piece F5 indicating immediately after the candle is lit. The material image time Tm indicating the time width of the first time range may be preset to a value such as 5 seconds, or may be appropriately adjusted and set by the user U.

同様に、図2Eに示すように、ユーザUは、一連の音声片S10の中から、素材音声S20として観賞用動画の作成に用いる音声片の範囲(第2の時間範囲)を選択する。ここで、素材音声S20は、第2の時間範囲内の時間的に連続した音声片である。例えば、BGMが盛り上がったとき、皆が拍手したとき等の、そのシーン(元動画)を代表するような音声片が含まれる一連の音声片S10の範囲が第2の時間範囲として選択されればよい。例えば、キャンドルサービスの場面であれば、素材音声S20には、キャンドルに火が灯される前後の音声として、第4の音声片S4と第5の音声片S5とが含まれる。第2の時間範囲の時間幅を示す素材音声時間Tsは、第1の時間範囲(素材画像時間Tm)に合わせて設定されていてもよいし、ユーザUが適宜調節して設定されてもよい。 Similarly, as shown in FIG. 2E, the user U selects a range (second time range) of the audio piece used for creating the ornamental moving image as the material audio S20 from the series of audio pieces S10. Here, the material audio S20 is a temporally continuous audio piece within the second time range. For example, if a range of a series of audio pieces S10 including audio pieces representing the scene (original moving image) such as when the BGM is excited or when everyone applauds is selected as the second time range. good. For example, in the case of a candle service scene, the material voice S20 includes a fourth voice piece S4 and a fifth voice piece S5 as voices before and after the candle is lit. The material audio time Ts indicating the time width of the second time range may be set according to the first time range (material image time Tm), or may be appropriately adjusted and set by the user U. ..

このように、ユーザUは、元動画に由来する画像片及び音声片の各々について、個別に素材画像F20及び素材音声S20として用いる範囲を選択できる。このとき、第1の時間範囲と、第2の時間範囲とは、同一であってもよいし、異なっていてもよい。このため、本実施形態に係る情報処理システム1は、元動画において異なる時間位置に記録されている画像のハイライトと音声のハイライトとが用いられた見ごたえのある観賞用動画を生成できる。 In this way, the user U can individually select the range to be used as the material image F20 and the material sound S20 for each of the image piece and the sound piece derived from the original moving image. At this time, the first time range and the second time range may be the same or different. Therefore, the information processing system 1 according to the present embodiment can generate a spectacular ornamental moving image in which the highlight of the image and the highlight of the sound recorded at different time positions in the original moving image are used.

また、ユーザUは、生成された素材画像F20と素材音声S20とを適宜組み合わせて、観賞用動画を作成する。このとき、素材画像F20と素材音声S20とに加えて、さらにタイトル画像や効果音が用いられてもよいし、素材画像F20に含まれる画像片に画像処理が施されてもよい。画像片に対する画像処理は、画像片へキャプション等を追加する処理、画像片をモノトーン等に加工する処理等が含まれ得る。また、素材画像F20と素材音声S20とは、素材画像時間Tmと素材音声時間Tsとに応じて、何れか一方が繰り返し再生されるように組み合わせられてもよい。 Further, the user U creates an ornamental moving image by appropriately combining the generated material image F20 and the material sound S20. At this time, in addition to the material image F20 and the material sound S20, a title image or a sound effect may be further used, or an image piece included in the material image F20 may be subjected to image processing. The image processing for the image piece may include a process of adding a caption or the like to the image piece, a process of processing the image piece into a monotone or the like, and the like. Further, the material image F20 and the material sound S20 may be combined so that either one of them is repeatedly reproduced according to the material image time Tm and the material sound time Ts.

なお、観賞用動画の生成は、ユーザインターフェイス(UI)が豊富なスマートフォン等の携帯端末200で行われ得るが、キャプチャ機器100で行われてもよい。この場合には、例えば、キャプチャ機器100は、ユーザ操作に応じて、素材画像F20と素材音声S20とを、それぞれ生成する。携帯端末200は、ユーザ操作に応じて、キャプチャ機器100から受信した素材画像F20と素材音声S20とに基づいて、観賞用動画を生成する。 The ornamental moving image may be generated by the mobile terminal 200 such as a smartphone having abundant user interfaces (UI), but may be generated by the capture device 100. In this case, for example, the capture device 100 generates the material image F20 and the material sound S20 according to the user operation. The mobile terminal 200 generates an ornamental moving image based on the material image F20 and the material sound S20 received from the capture device 100 according to the user operation.

<動作>
ここで、キャプチャ機器100で行われるキャプチャ機器制御処理の一例をフローチャートとして図3に示し、これを参照して本実施形態に係る情報処理システム1の動作について説明する。以下の処理は、キャプチャ機器100が、電源オフであり、かつ、低消費電力の通信である第1の通信について通信を待機している状態で開始される。
<Operation>
Here, an example of the capture device control process performed by the capture device 100 is shown in FIG. 3 as a flowchart, and the operation of the information processing system 1 according to the present embodiment will be described with reference to this. The following processing is started in a state where the capture device 100 is powered off and is waiting for communication for the first communication, which is low power consumption communication.

ステップS101において、機器側制御部110は、キャプチャ機器100の電源をオンにするか否かを判定する。本判定では、例えば、電源スイッチがオンとされたり、第1の通信の開始要求がされたりしたときには、電源をオンにすると判定される。処理は、電源をオンすると判定された場合はステップS102へ進み、判定されなかった場合は観察装置制御処理を終了し、第1の通信について通信を待機する。なお、処理は、電源をオンすると判定されなかった場合はステップS112へ進んでもよい。 In step S101, the device-side control unit 110 determines whether or not to turn on the power of the capture device 100. In this determination, for example, when the power switch is turned on or the first communication start request is made, it is determined that the power is turned on. The process proceeds to step S102 if it is determined to turn on the power, ends the observation device control process if it is not determined, and waits for communication for the first communication. If it is not determined that the power is turned on, the process may proceed to step S112.

ステップS102において、機器側制御部110は、キャプチャ機器100の電源をオンとして、現在のキャプチャ機器100の動作モードが撮影モードであるか否かを判定する。処理は、撮影モードであると判定された場合はステップS103へ進み、判定されなかった場合はステップS109へ進む。 In step S102, the device-side control unit 110 turns on the power of the capture device 100 and determines whether or not the current operation mode of the capture device 100 is the shooting mode. The process proceeds to step S103 if it is determined to be in the shooting mode, and proceeds to step S109 if it is not determined.

ステップS103において、機器側制御部110は、ライブビュー表示と、収音とを開始させる。機器側制御部110は、ライブビュー表示において、機器側撮像部170に撮像を開始させ、撮像して得られた画像に対してライブビュー表示用の画像処理を施し、画像処理後の画像を機器側表示部120に表示させる。機器側制御部110は、機器側収音部180に収音を開始させる。ステップS104において、機器側制御部110は、撮影パラメータに係る操作が行われたか否かを機器側操作部140の出力に基づいて判定する。処理は、撮影パラメータ操作があったと判定された場合はステップS105へ進み、判定されなかった場合はステップS106へ進む。ステップS105において、機器側制御部110は、入力された撮影パラメータに応じた機器側操作部140の出力に基づいて、各種撮影パラメータの値を設定する。 In step S103, the device-side control unit 110 starts the live view display and the sound collection. In the live view display, the device-side control unit 110 causes the device-side image pickup unit 170 to start imaging, performs image processing for live view display on the image obtained by imaging, and uses the image after image processing as the device. It is displayed on the side display unit 120. The device-side control unit 110 causes the device-side sound collection unit 180 to start collecting sound. In step S104, the device-side control unit 110 determines whether or not the operation related to the photographing parameter has been performed based on the output of the device-side operation unit 140. The process proceeds to step S105 if it is determined that the shooting parameter operation has been performed, and proceeds to step S106 if it is not determined. In step S105, the device-side control unit 110 sets the values of various shooting parameters based on the output of the device-side operation unit 140 according to the input shooting parameters.

ステップS106において、機器側制御部110は、撮影又は音声記録の開始操作が行われたか否かを機器側操作部140の出力に基づいて判定する。処理は、開始操作が行われたと判定された場合はステップS107へ進み、判定されなかった場合はステップS101へ戻る。なお、開始操作は、静止画像を取得する撮影の開始操作であってもよいし、音声データを取得する録音(音声記録)の開始操作であってもよいし、動画を取得する撮影(撮影及び録音)の開始操作であってもよい。ステップS107において、機器側制御部110は、撮影又は音声記録(動画撮影)を開始する。ステップS108において、機器側制御部110は、取得された画像、音声又は画像及び音声(動画)を圧縮してファイル化し、機器側記録部150に記録する。ここで記録される動画は、例えば、記録に適した画質又は音質の動画である。なお、ステップS107及びステップS108の処理は、例えば、撮影又は音声記録(動画撮影)の終了操作が行われるまで継続される。その後、処理はステップS101へ戻る。 In step S106, the device-side control unit 110 determines whether or not the shooting or voice recording start operation has been performed based on the output of the device-side operation unit 140. The process proceeds to step S107 if it is determined that the start operation has been performed, and returns to step S101 if it is not determined. The start operation may be a start operation for shooting to acquire a still image, a start operation for recording (voice recording) to acquire audio data, or a shooting (shooting and shooting) to acquire a moving image. It may be the start operation of (recording). In step S107, the device-side control unit 110 starts shooting or voice recording (moving image shooting). In step S108, the device-side control unit 110 compresses the acquired image, voice, or image and voice (moving image) into a file, and records it in the device-side recording unit 150. The moving image recorded here is, for example, a moving image having an image quality or sound quality suitable for recording. The processing of steps S107 and S108 is continued until, for example, the end operation of shooting or voice recording (moving image shooting) is performed. After that, the process returns to step S101.

ステップS109において、機器側制御部110は、通信設定を行うか否かを機器側操作部140の出力に基づいて判定する。処理は、通信設定を行うと判定された場合はステップS110へ進み、判定されなかった場合はステップS111へ進む。ステップS110において、機器側制御部110は、キャプチャ機器100の電源をオンとして、通信に係る各種設定(通信設定)を行う。通信設定では、携帯端末200等のキャプチャ機器100の通信相手に係る情報が登録される。 In step S109, the device-side control unit 110 determines whether or not to perform communication settings based on the output of the device-side operation unit 140. The process proceeds to step S110 if it is determined that the communication setting is to be performed, and proceeds to step S111 if it is not determined. In step S110, the device-side control unit 110 turns on the power of the capture device 100 and makes various settings (communication settings) related to communication. In the communication setting, information related to the communication partner of the capture device 100 such as the mobile terminal 200 is registered.

ステップS111において、機器側制御部110は、再生モードが選択されたか否かを機器側操作部140の出力に基づいて判定する。処理は、再生モードが選択されたと判定された場合はステップS117へ進み、判定されなかった場合はステップS112へ進む。 In step S111, the device-side control unit 110 determines whether or not the reproduction mode is selected based on the output of the device-side operation unit 140. The process proceeds to step S117 if it is determined that the reproduction mode is selected, and proceeds to step S112 if it is not determined.

ステップS112において、機器側制御部110は、携帯端末200から通信要求があったか否かを判定する。処理は、通信要求があったと判定された場合はステップS113へ進み、判定されなかった場合はステップS101へ戻る。ステップS113において、機器側制御部110は、第2の機器側通信部162に、携帯端末200との間で第2の通信を確立させる。機器側制御部110は、機器側記録部150に記録されている静止画像、音声及び動画の各々を示す代表画像を画像記録部151から読み出し、通信要求を行った携帯端末200へ送信する。ここで、代表画像は、アイコンやサムネイル画像を含む。 In step S112, the device-side control unit 110 determines whether or not there is a communication request from the mobile terminal 200. The process proceeds to step S113 if it is determined that there is a communication request, and returns to step S101 if it is not determined. In step S113, the device-side control unit 110 causes the second device-side communication unit 162 to establish the second communication with the mobile terminal 200. The device-side control unit 110 reads out a representative image showing each of the still image, the sound, and the moving image recorded in the device-side recording unit 150 from the image recording unit 151, and transmits the representative image to the mobile terminal 200 that made the communication request. Here, the representative image includes an icon and a thumbnail image.

ステップS114において、機器側制御部110は、携帯端末200から受信した制御信号に基づいて、動画(動画ファイル)が選択されたか否かを判定する。処理は、動画ファイルが選択されたと判定された場合はステップS115へ進み、判定されなかった場合はステップS116へ進む。ステップS115において、機器側制御部110は、画像片及び音声片送信処理を行う。画像片及び音声片送信処理は、上述したように、画像片及び音声片を生成する処理である。画像片及び音声片送信処理の詳細は後述する。処理は、画像片及び音声片送信処理の終了後、ステップS116へ進む。ステップS116において、機器側制御部110は、携帯端末200との間に確立された第2の通信を終了させるか否かを判定する。判定は、ユーザ操作に基づいて行われてもよいし、画像片及び音声片送信処理が終了したか否かに基づいて行われてもよいし、通信が行われていない時間が所定の時間に達したか否かに基づいて行われてもよい。処理は、終了すると判定された場合は第2の通信を終了させてステップS112へ戻り、判定されなかった場合はステップS114へ戻る。 In step S114, the device-side control unit 110 determines whether or not a moving image (moving image file) has been selected based on the control signal received from the mobile terminal 200. The process proceeds to step S115 if it is determined that the moving image file is selected, and proceeds to step S116 if it is not determined. In step S115, the device-side control unit 110 performs image piece and audio piece transmission processing. The image piece and sound piece transmission process is a process of generating an image piece and a sound piece as described above. Details of the image piece and audio piece transmission processing will be described later. The process proceeds to step S116 after the image piece and sound piece transmission processing is completed. In step S116, the device-side control unit 110 determines whether or not to terminate the second communication established with the mobile terminal 200. The determination may be made based on the user operation, may be made based on whether or not the image piece and voice piece transmission processing is completed, and the time during which communication is not performed is set to a predetermined time. It may be done based on whether or not it has been reached. If it is determined that the process is terminated, the second communication is terminated and the process returns to step S112. If the process is not determined, the process returns to step S114.

ステップS117において、機器側制御部110は、仮編集付き再生処理を実行する。仮編集付き再生処理は、機器側記録部150に記録されている静止画像、音声及び動画を再生する処理である。また、仮編集付き再生処理では、動画ファイルに基づいて、仮編集画像(仮編集コマ)及び仮編集音声が生成され得る。ここで、仮編集画像及び仮編集音声は、任意の時間範囲(仮編集時間範囲)に含まれる時間的に連続した画像片及び音声片である。仮編集付き再生処理の詳細は後述する。処理は、仮編集付き再生処理の終了後、ステップS111へ戻る。 In step S117, the device-side control unit 110 executes a reproduction process with temporary editing. The reproduction process with temporary editing is a process of reproducing a still image, sound, and moving image recorded in the recording unit 150 on the device side. Further, in the reproduction process with temporary editing, a temporary editing image (temporary editing frame) and a temporary editing sound can be generated based on the moving image file. Here, the temporary editing image and the temporary editing sound are temporally continuous image pieces and sound pieces included in an arbitrary time range (temporary editing time range). The details of the playback process with temporary editing will be described later. The process returns to step S111 after the reproduction process with temporary editing is completed.

ここで、キャプチャ機器制御処理のステップS115で行われる画像片及び音声片送信処理の一例をフローチャートとして図4に示し、これを参照して情報処理システム1の動作について説明をする。 Here, an example of the image piece and audio piece transmission processing performed in step S115 of the capture device control process is shown in FIG. 4 as a flowchart, and the operation of the information processing system 1 will be described with reference to this.

ステップS201において、機器側制御部110は、画像片及び音声片を生成する際の元動画をユーザ操作の結果に応じて選択する。元動画の選択は、キャプチャ機器制御処理のステップS114で携帯端末200から受信した制御信号に基づく。その後、機器側制御部110は、選択された動画(動画データ)の伸張を開始する。 In step S201, the device-side control unit 110 selects the original moving image for generating the image piece and the sound piece according to the result of the user operation. The selection of the original moving image is based on the control signal received from the mobile terminal 200 in step S114 of the capture device control process. After that, the device-side control unit 110 starts expanding the selected moving image (moving image data).

ステップS202において、機器側制御部110は、動画データを伸張して、特定タイミング毎に第1の画像(動画コマ)を画像化(画像片化)する。画像片化する特定のタイミングは、例えば33msであるが、これに限らない。元の動画ファイルに応じて決定されてもよいし、音声片化のタイミングに応じて決定されてもよいし、通信容量に応じて決定されてもよい。ステップS203において、機器側制御部110は、画像片に時間情報(第1の時間情報)を関連付ける。機器側制御部110は、生成した画像片を携帯端末200へ送信させる。 In step S202, the device-side control unit 110 expands the moving image data and images (image fragmentation) the first image (moving image frame) at each specific timing. The specific timing for image fragmentation is, for example, 33 ms, but is not limited to this. It may be determined according to the original moving image file, it may be determined according to the timing of voice fragmentation, or it may be determined according to the communication capacity. In step S203, the device-side control unit 110 associates time information (first time information) with the image piece. The device-side control unit 110 causes the mobile terminal 200 to transmit the generated image piece.

ステップS204において、機器側制御部110は、動画データを伸張して、特定タイミング毎に第1の音声を音声片化(音声クリップ化)する。音声片化する特定のタイミングは、例えば40msであるが、これに限らない。元の動画ファイルに応じて決定されてもよいし、画像片化のタイミングに応じて決定されてもよいし、通信容量に応じて決定されてもよい。ステップS205において、機器側制御部110は、音声片に時間情報(第2の時間情報)を関連付ける。機器側制御部110は、生成した音声片を携帯端末200へ送信させる。 In step S204, the device-side control unit 110 expands the moving image data and unifies the first sound (voice clip) at each specific timing. The specific timing for voice fragmentation is, for example, 40 ms, but is not limited to this. It may be determined according to the original moving image file, it may be determined according to the timing of image fragmentation, or it may be determined according to the communication capacity. In step S205, the device-side control unit 110 associates time information (second time information) with the voice piece. The device-side control unit 110 causes the mobile terminal 200 to transmit the generated voice piece.

ステップS206において、機器側制御部110は、画像片及び音声片送信処理を終了するか否かを判定する。本判定では、例えば、選択された動画(元動画)について、一通り画像片及び音声片の生成及び送信が終了したときに、画像片及び音声片送信処理を終了すると判定される。処理は、終了すると判定されるまで、ステップS202乃至ステップS205の処理を繰り返し、終了すると判定された場合は画像片及び音声片送信処理を終了し、キャプチャ機器制御処理のステップS116へ進む。 In step S206, the device-side control unit 110 determines whether or not to end the image piece and sound piece transmission processing. In this determination, for example, it is determined that the image piece and audio piece transmission processing is completed when the generation and transmission of the image piece and the audio piece are completed for the selected moving image (original moving image). The process repeats the processes of steps S202 to S205 until it is determined to be completed, and when it is determined to be completed, the image piece and audio piece transmission processes are terminated, and the process proceeds to step S116 of the capture device control process.

ここで、キャプチャ機器制御処理のステップS117で行われる仮編集付き再生処理の一例をフローチャートとして図5に示し、これを参照して情報処理システム1の動作について説明をする。 Here, an example of the reproduction process with temporary editing performed in step S117 of the capture device control process is shown in FIG. 5 as a flowchart, and the operation of the information processing system 1 will be described with reference to this.

ステップS301において、機器側制御部110は、機器側記録部150に記録されている再生可能なコンテンツの一覧を、機器側表示部120に表示させる。ここで、再生可能なコンテンツは、動画ファイルであってもよいし、画像ファイルであってもよいし、音声ファイルであってもよい。 In step S301, the device-side control unit 110 causes the device-side display unit 120 to display a list of reproducible contents recorded in the device-side recording unit 150. Here, the playable content may be a moving image file, an image file, or an audio file.

ステップS302において、機器側制御部110は、代表画像(サムネイル画像)を選択する操作があったか否かを判定する。本判定では、例えば機器側表示部120の上にタッチパネルが配置されている場合には、代表画像がタッチされたか否かが判定される。処理は、代表画像が選択されたと判定された場合にはステップS304へ進み、判定されなかった場合にはステップS303へ進む。ステップS303において、機器側制御部110は、仮編集付き再生処理(再生モード)を終了してモード選択へ戻るか否かを判定する。本判定は、例えばユーザ操作の結果に基づく。処理は、戻ると判定された場合は仮編集付き再生処理を終了してキャプチャ機器制御処理のステップS111へ戻り、判定されなかった場合はステップS301へ戻る。ステップS304において、機器側制御部110は、ステップS302で選択されたコンテンツを再生する。 In step S302, the device-side control unit 110 determines whether or not there has been an operation of selecting a representative image (thumbnail image). In this determination, for example, when the touch panel is arranged on the device side display unit 120, it is determined whether or not the representative image is touched. The process proceeds to step S304 if it is determined that the representative image has been selected, and proceeds to step S303 if it is not determined. In step S303, the device-side control unit 110 determines whether or not to end the reproduction process with temporary editing (reproduction mode) and return to the mode selection. This determination is based on, for example, the result of a user operation. If it is determined to return, the process ends the reproduction process with temporary editing and returns to step S111 of the capture device control process, and if not determined, returns to step S301. In step S304, the device-side control unit 110 reproduces the content selected in step S302.

なお、ステップS302の判定において、動画ファイル以外の再生可能なコンテンツが選択されたと判定される場合もあり得る。この場合には、例えば、ステップS304で当該コンテンツの再生が開始された後、ステップS305で仮編集をしないと判定され続けて、ステップS312で再生を終了すると判定されるまで当該コンテンツに係る再生処理が行われればよい。以下、ステップS302で動画ファイルが選択され、ステップS304で動画ファイルの再生が開始される場合を例として説明を続ける。 In the determination of step S302, it may be determined that playable content other than the moving image file is selected. In this case, for example, after the reproduction of the content is started in step S304, it is continuously determined not to perform temporary editing in step S305, and the reproduction process related to the content is determined until it is determined that the reproduction is completed in step S312. Should be done. Hereinafter, the description will be continued by taking as an example the case where the moving image file is selected in step S302 and the reproduction of the moving image file is started in step S304.

ステップS305において、機器側制御部110は、再生されている動画について仮編集を行うか否かを判定する。本実施形態に係る仮編集処理は、仮編集画像(仮編集コマ)及び仮編集音声を生成して、携帯端末200へ送信する処理である。ここで、本実施形態に係る仮編集画像は、ユーザによって選択された時間範囲(仮編集時間範囲)に含まれる、画像片である。同様に、本実施形態に係る仮編集音声は、仮編集時間範囲に含まれる、音声片である。本判定では、例えば、動画再生中にユーザが機器側操作部140(タッチディスプレイ)をタッチしたとき等、ユーザが仮編集を指示したときに仮編集を行うと判定される。なお、仮編集の開始位置は、再生に伴って伸張された動画データが仮記録される等して、ユーザが指示したタイミングより前に設定されてもよい。また、仮編集が行われる範囲は、ユーザが開始を指示したタイミングから終了を指示するタイミングまでの間であってもよいし、ユーザが開始を指示したタイミングから所定時間経過するまでの間であってもよい。所定時間は、予め5秒等の値が設定されていてもよいし、ユーザが適宜入力して設定されてもよい。処理は、仮編集を行うと判定された場合はステップS306へ進み、判定されなかった場合はステップS312へ進む。 In step S305, the device-side control unit 110 determines whether or not to perform temporary editing on the video being played. The temporary editing process according to the present embodiment is a process of generating a temporary editing image (temporary editing frame) and a temporary editing sound and transmitting them to the mobile terminal 200. Here, the tentatively edited image according to the present embodiment is an image piece included in a time range (temporary editing time range) selected by the user. Similarly, the tentatively edited voice according to the present embodiment is a voice piece included in the tentatively edited time range. In this determination, it is determined that temporary editing is performed when the user instructs temporary editing, for example, when the user touches the operation unit 140 (touch display) on the device side during video reproduction. The start position of the temporary editing may be set before the timing instructed by the user, such as by temporarily recording the moving image data expanded with the reproduction. Further, the range in which the temporary editing is performed may be from the timing when the user instructs the start to the timing when the user instructs the end to end, or from the timing when the user instructs the start to the elapse of a predetermined time. You may. The predetermined time may be set to a value such as 5 seconds in advance, or may be appropriately input and set by the user. The process proceeds to step S306 if it is determined to perform temporary editing, and proceeds to step S312 if it is not determined.

ステップS306において、機器側制御部110は、ステップS202と同様にして、再生のために伸張された元動画(第1の画像)から画像片を生成する。ステップS307において、機器側制御部110は、ステップS203と同様にして、画像片に第1の時間情報(タイムスタンプ)を添付する。ステップS308において、機器側制御部110は、ステップS204と同様にして、元動画(第1の音声)から音声片を生成する。ステップS309において、機器側制御部110は、ステップS205と同様にして、音声片に第2の時間情報(タイムスタンプ)を添付する。ステップS310において、機器側制御部110は、仮編集を終了するか否かを判定する。本判定は、ユーザ操作に基づいて行われてもよいし、仮編集時間範囲として設定されている所定範囲について画像片化及び音声片化が終了したか否かに基づいて行われてもよい。処理は、終了すると判定された場合はステップS311へ進み、判定されなかった場合は、ステップS306へ戻る。 In step S306, the device-side control unit 110 generates an image piece from the original moving image (first image) stretched for reproduction in the same manner as in step S202. In step S307, the device-side control unit 110 attaches the first time information (time stamp) to the image piece in the same manner as in step S203. In step S308, the device-side control unit 110 generates an audio piece from the original moving image (first audio) in the same manner as in step S204. In step S309, the device-side control unit 110 attaches a second time information (time stamp) to the voice piece in the same manner as in step S205. In step S310, the device-side control unit 110 determines whether or not to end the temporary editing. This determination may be performed based on a user operation, or may be performed based on whether or not image fragmentation and audio fragmentation have been completed for a predetermined range set as a temporary editing time range. If it is determined that the process is completed, the process proceeds to step S311. If the process is not determined, the process returns to step S306.

ステップS311において、機器側制御部110は、仮編集によって生成された画像片に基づき仮編集画像(仮編集コマ)を生成し、仮編集によって生成された音声片に基づいて仮編集音声を生成する。機器側制御部110は、生成された仮編集画像及び仮編集音声を画像片及び音声片の単位で携帯端末200へ送信させる。 In step S311, the device side control unit 110 generates a temporary editing image (temporary editing frame) based on the image piece generated by the temporary editing, and generates the temporary editing sound based on the audio piece generated by the temporary editing. .. The device-side control unit 110 causes the mobile terminal 200 to transmit the generated temporary editing image and the temporary editing sound in units of the image piece and the sound piece.

ステップS312において、機器側制御部110は、動画(選択された再生可能なコンテンツ)の再生を終了するか否かを判定する。本判定は、コンテンツの再生時間が終了した場合、ユーザの再生終了を指示する操作があった場合等に再生を終了すると判定される。処理は、再生を終了すると判定された場合は仮編集付き再生処理を終了してキャプチャ機器制御処理のステップS111へ戻り、判定されなかった場合はステップS305へ戻る。 In step S312, the device-side control unit 110 determines whether or not to end the reproduction of the moving image (selected reproducible content). This determination is determined to end the reproduction when the reproduction time of the content ends, when there is an operation instructing the user to end the reproduction, or the like. If it is determined that the reproduction is finished, the process ends the reproduction process with temporary editing and returns to step S111 of the capture device control process, and if not determined, returns to step S305.

ここで、図6A及び図6Bに携帯端末200で行われる携帯端末制御処理の一例をフローチャートとして示し、これを参照して情報処理システム1の動作についてより詳細に説明する。 Here, FIGS. 6A and 6B show an example of the mobile terminal control process performed by the mobile terminal 200 as a flowchart, and the operation of the information processing system 1 will be described in more detail with reference to this.

ステップS401において、端末側制御部210は、携帯端末200にインストールされている各種アプリ(実行可能な各種機能)を示すアイコンを表示するための表示情報を生成し、生成した表示情報を端末側表示部220に表示させる。 In step S401, the terminal-side control unit 210 generates display information for displaying icons indicating various applications (various functions that can be executed) installed in the mobile terminal 200, and displays the generated display information on the terminal side. Displayed on the unit 220.

このときの表示の一例を図7Aに示す。図7Aに示す表示例では、アイコンとして、動画編集アプリを示す動画編集アイコン801と、メールアプリを示すメールアイコン802と、電話アプリを示す電話アイコン803とが表示されている。また、図7Aに示す表示例では、動画編集アプリ、メールアプリ及び電話アプリ以外のアプリを示すその他アイコン804がさらに表示されている。このように、他のアプリが携帯端末200にインストールされているときには、インストールされているアプリに応じて、表示されるアイコンは適宜変更され得る。なお、その他アイコン804は、その他のアプリを示すアイコンをさらに表示させるアイコンであってもよい。 An example of the display at this time is shown in FIG. 7A. In the display example shown in FIG. 7A, as icons, a video editing icon 801 indicating a video editing application, a mail icon 802 indicating a mail application, and a telephone icon 803 indicating a telephone application are displayed. Further, in the display example shown in FIG. 7A, another icon 804 indicating an application other than the video editing application, the mail application, and the telephone application is further displayed. As described above, when another application is installed on the mobile terminal 200, the displayed icon can be appropriately changed depending on the installed application. The other icon 804 may be an icon that further displays an icon indicating another application.

ステップS402において、端末側制御部210は、動画編集アプリが選択されたか否かを判定する。本判定は、端末側操作部240の出力するユーザ操作の結果に基づいて行われる。ユーザ操作は、例えば、ユーザが動画編集アイコン801の表示されている位置をタッチする操作である。本判定では、ユーザによって動画編集アイコン801が選択されたときに、動画編集アプリが選択されたと判定される。また、図7Aに示すように、選択されたアプリを示すアイコンが強調表示されてもよい。処理は、動画取得モードが選択されたと判定された場合はステップS404へ進み、判定されなかった場合はステップS403へ進む。 In step S402, the terminal-side control unit 210 determines whether or not the video editing application has been selected. This determination is made based on the result of the user operation output by the terminal side operation unit 240. The user operation is, for example, an operation in which the user touches the position where the video editing icon 801 is displayed. In this determination, it is determined that the video editing application is selected when the video editing icon 801 is selected by the user. Further, as shown in FIG. 7A, an icon indicating the selected application may be highlighted. The process proceeds to step S404 if it is determined that the moving image acquisition mode is selected, and proceeds to step S403 if it is not determined.

ステップS403において、端末側制御部210は、ステップS401の後にユーザが選択したアイコンの示すアプリに係る処理(その他の処理)を行う。例えば、端末側制御部210は、メールアイコン802が選択されたときには、メールアプリを起動し、メールアプリに係る処理を行う。例えば、端末側制御部210は、電話アイコン803が選択されたときには、電話アプリを起動し、電話アプリに係る処理を行う。処理は、その他の処理が終了した後、ステップS401へ戻る。 In step S403, the terminal-side control unit 210 performs processing (other processing) related to the application indicated by the icon selected by the user after step S401. For example, when the mail icon 802 is selected, the terminal-side control unit 210 activates the mail application and performs processing related to the mail application. For example, when the telephone icon 803 is selected, the terminal-side control unit 210 activates the telephone application and performs processing related to the telephone application. The process returns to step S401 after the other processes are completed.

ステップS404において、端末側制御部210は、動画編集アプリを起動する。端末側制御部210は、動画編集アプリ内の各種機能を示すアイコンを表示するための表示情報を生成し、生成した表示情報を端末側表示部220に表示させる。 In step S404, the terminal-side control unit 210 activates the video editing application. The terminal-side control unit 210 generates display information for displaying icons indicating various functions in the video editing application, and causes the terminal-side display unit 220 to display the generated display information.

このときの表示の一例を図7Bに示す。図7Bに示す表示例では、アイコンとして、動画取得アイコン805aと、仮編集データ受信アイコン805bと、画像又は音声データ取得アイコン805cと、通信設定アイコン805dとが表示されている。ここで、動画取得アイコン805aは、動画データをキャプチャ機器100から取得する機能を示すアイコンである。仮編集データ受信アイコン805bは、仮編集データ(仮編集画像及び仮編集音声)をキャプチャ機器100から取得する機能を示すアイコンである。画像又は音声データ取得アイコン805cは、画像又は音声データをキャプチャ機器100から取得する機能を示すアイコンである。通信設定アイコン805dは、通信先となるキャプチャ機器100の情報を登録したり、キャプチャ機器100との間の通信に係る各種設定をしたりする機能を示すアイコンである。また、図7Bに示す表示例では、戻るボタン806がさらに表示されている。戻るボタン806は、前の表示画面へ戻る機能を示すアイコンである。例えば、図7Bに示す表示例における戻るボタン806は、表示画面を図7Aに示す表示例の状態に戻す機能を示すアイコンである。 An example of the display at this time is shown in FIG. 7B. In the display example shown in FIG. 7B, a moving image acquisition icon 805a, a temporary edit data reception icon 805b, an image or audio data acquisition icon 805c, and a communication setting icon 805d are displayed as icons. Here, the moving image acquisition icon 805a is an icon indicating a function of acquiring moving image data from the capture device 100. The temporary editing data reception icon 805b is an icon indicating a function of acquiring temporary editing data (temporary editing image and temporary editing sound) from the capture device 100. The image or audio data acquisition icon 805c is an icon indicating a function of acquiring image or audio data from the capture device 100. The communication setting icon 805d is an icon indicating a function of registering information of the capture device 100 as a communication destination and making various settings related to communication with the capture device 100. Further, in the display example shown in FIG. 7B, the back button 806 is further displayed. The back button 806 is an icon indicating a function of returning to the previous display screen. For example, the back button 806 in the display example shown in FIG. 7B is an icon indicating a function of returning the display screen to the state of the display example shown in FIG. 7A.

なお、ステップS401及びステップS404において、各種アイコンが一覧表示される場合を例として説明をしたが、これに限らない。各種アイコンは、ユーザのスワイプ操作等に応じて順次表示されてもよい。 In steps S401 and S404, the case where various icons are displayed in a list has been described as an example, but the present invention is not limited to this. The various icons may be displayed in sequence according to the swipe operation of the user or the like.

ステップS405において、端末側制御部210は、動画取得アイコン805aが選択されたか否かを判定する。本判定は、端末側操作部240の出力するユーザ操作の結果に基づいて行われる。ユーザ操作は、例えば、ユーザが動画取得アイコン805aの表示されている位置をタッチする操作である。また、図7Bに示すように、選択された動画編集アプリ内の機能を示すアイコンが強調表示されてもよい。処理は、動画取得アイコン805aが選択されたと判定された場合はステップS406へ進み、判定されなかった場合はステップS418へ進む。 In step S405, the terminal-side control unit 210 determines whether or not the moving image acquisition icon 805a is selected. This determination is made based on the result of the user operation output by the terminal side operation unit 240. The user operation is, for example, an operation in which the user touches the position where the moving image acquisition icon 805a is displayed. Further, as shown in FIG. 7B, an icon indicating a function in the selected video editing application may be highlighted. The process proceeds to step S406 if it is determined that the moving image acquisition icon 805a is selected, and proceeds to step S418 if it is not determined.

ステップS406において、端末側制御部210は、キャプチャ機器100へ第1の通信を用いて通信要求を行う。その後、端末側制御部210は、キャプチャ機器100との間で第2の通信を確立させる。第2の通信が確立した後、端末側制御部210は、キャプチャ機器100に記録されている各々の動画データを示すサムネイル画像を取得する。端末側制御部210は、取得したサムネイル画像を端末側表示部220へ表示させる。 In step S406, the terminal-side control unit 210 makes a communication request to the capture device 100 using the first communication. After that, the terminal-side control unit 210 establishes a second communication with the capture device 100. After the second communication is established, the terminal side control unit 210 acquires a thumbnail image showing each moving image data recorded in the capture device 100. The terminal side control unit 210 causes the terminal side display unit 220 to display the acquired thumbnail image.

このときの表示の一例を図7Cに示す。図7Cに示す表示例では、第1の動画を示す第1のサムネイル画像807と、第2の動画を示す第2のサムネイル画像808と、第3の動画を示す第3のサムネイル画像809と、第4の動画を示す第4のサムネイル画像810とが表示されている。また、図7Cに示す表示例では、送り/戻しボタン811と、選択ボタン812と、戻るボタン806とが、さらに表示されている。送り/戻しボタン811は、編集する動画データの切り替えを行う際にユーザによって選択されるボタンである。例えば、図7Cでは、ユーザによる送り/戻しボタン811の操作の結果、第4のサムネイル画像810が仮選択されている状態の表示例が示されている。図7Cに示すように、仮選択されたサムネイル画像は、例えば太枠線で囲まれた強調表示等により、仮選択されていることがユーザに分かるように他のサムネイル画像と区別されていてもよい。選択ボタン812は、送り/戻しボタン811の操作によって仮選択されている動画データを、ユーザが編集する動画データであると選択するためのボタンである。戻るボタン806は、前の表示画面へ戻る機能を示すアイコンであり、例えば、図7Cに示す表示例では、表示画面を図7Bに示す表示例の状態に戻す機能を示すアイコンである。 An example of the display at this time is shown in FIG. 7C. In the display example shown in FIG. 7C, a first thumbnail image 807 showing the first moving image, a second thumbnail image 808 showing the second moving image, and a third thumbnail image 809 showing the third moving image are used. A fourth thumbnail image 810 showing the fourth moving image is displayed. Further, in the display example shown in FIG. 7C, the forward / return button 811, the selection button 812, and the back button 806 are further displayed. The forward / backward button 811 is a button selected by the user when switching the moving image data to be edited. For example, FIG. 7C shows a display example in which the fourth thumbnail image 810 is temporarily selected as a result of the operation of the forward / backward button 811 by the user. As shown in FIG. 7C, even if the tentatively selected thumbnail image is distinguished from other thumbnail images so that the user can know that the tentatively selected thumbnail image is tentatively selected, for example, by highlighting surrounded by a thick frame line. good. The selection button 812 is a button for selecting the moving image data tentatively selected by the operation of the forward / backward button 811 as the moving image data to be edited by the user. The back button 806 is an icon indicating a function of returning to the previous display screen. For example, in the display example shown in FIG. 7C, the icon indicates a function of returning the display screen to the state of the display example shown in FIG. 7B.

なお、通信要求の送信先は、例えば、後述する通信設定において予め通信相手として設定されているキャプチャ機器100であるが、これに限らない。例えば、本ステップにおいて、キャプチャ機器100が第1の通信で検索されてもよいし、キャプチャ機器100が通信相手として登録されてもよい。 The destination of the communication request is, for example, a capture device 100 that is preset as a communication partner in the communication settings described later, but is not limited to this. For example, in this step, the capture device 100 may be searched for in the first communication, or the capture device 100 may be registered as a communication partner.

なお、第2の通信によってサムネイル画像がキャプチャ機器100から取得されると説明したが、これに限らない。サムネイル画像は、第1の通信によって取得されてもよい。 Although it has been explained that the thumbnail image is acquired from the capture device 100 by the second communication, the present invention is not limited to this. The thumbnail image may be acquired by the first communication.

ステップS407において、端末側制御部210は、何れかの動画データが選択されたか否かを判定する。本判定は、端末側操作部240の出力するユーザ操作の結果に基づいて行われる。ユーザ操作は、例えば、何れかのサムネイル画像が仮選択されている状態でユーザが選択ボタン812をタッチする操作である。なお、ユーザによるサムネイル画像の仮選択は、ユーザが編集したいサムネイル画像の表示されている位置をタッチして行われてもよいし、ユーザが送り/戻しボタン811を操作してサムネイル画像を順次仮選択しながら行われてもよい。本判定では、ユーザが何れかのサムネイル画像を選択したと判定された場合に、何れかの動画データが選択されたと判定される。処理は、何れかの動画データが選択されたと判定された場合はステップS409へ進み、判定されなかった場合はステップS408へ進む。ステップS408において、端末側制御部210は、戻るボタン806が選択されたか否かを判定する。処理は、選択されたと判定されなかった場合はステップS407へ戻り、判定された場合はステップS404へ戻る。したがって、本ステップで戻るボタン806が選択されたと判定された場合は、表示画面は、図7Cに示す表示例から、図7Bに示す表示例へと戻る。 In step S407, the terminal-side control unit 210 determines whether or not any of the moving image data has been selected. This determination is made based on the result of the user operation output by the terminal side operation unit 240. The user operation is, for example, an operation in which the user touches the selection button 812 while any thumbnail image is temporarily selected. The temporary selection of the thumbnail image by the user may be performed by touching the position where the thumbnail image that the user wants to edit is displayed, or the user operates the forward / backward button 811 to temporarily select the thumbnail images in sequence. It may be done while selecting. In this determination, when it is determined that the user has selected any thumbnail image, it is determined that any moving image data has been selected. The process proceeds to step S409 if it is determined that any of the moving image data has been selected, and proceeds to step S408 if it is not determined. In step S408, the terminal-side control unit 210 determines whether or not the return button 806 has been selected. The process returns to step S407 if it is not determined to be selected, and returns to step S404 if it is determined. Therefore, when it is determined that the return button 806 is selected in this step, the display screen returns from the display example shown in FIG. 7C to the display example shown in FIG. 7B.

ステップS409において、端末側制御部210は、ステップS407で選択されたと判定された動画データに基づいて生成された画像片と音声片とを、キャプチャ機器100から順次、画像片及び音声片の単位で受信する。画像片と音声片とは、第2の通信を介して受信される。なお、ステップS406において第1の通信によってサムネイル画像が受信された場合には、第2の通信は、本ステップの処理に先立って確立されればよい。 In step S409, the terminal-side control unit 210 sequentially selects the image piece and the sound piece generated based on the moving image data determined in step S407 from the capture device 100 in units of the image piece and the sound piece. Receive. The image piece and the sound piece are received via the second communication. When the thumbnail image is received by the first communication in step S406, the second communication may be established prior to the processing of this step.

ステップS410において、端末側制御部210は、受信した画像片と音声片とを、各々に付された時間情報(タイムスタンプ)毎に仮記録部251へ仮記録する。このようにして画像片と音声片とが受信されて仮記録された後の表示の一例を図7Dに示す。図7Dに示す表示例では、プレビュー画面813と、送り/戻しボタン811と、再生ボタン814と、編集ボタン815と、戻るボタン806とが表示されている。ユーザは、受信した動画データ(画像片及び音声片)について、再生ボタン814を操作することで、プレビュー画面813で再生して確認できる。また、ユーザは、戻るボタン806を操作して図7Cに示す表示画面に戻り、別の動画データを選択することもできる。また、ユーザは、送り/戻しボタン811を操作して、別の動画データを再度選択することもできる。また、ユーザは、プレビュー画面813に表示されている動画データを編集したいときには、編集ボタン815を操作する。処理は、ユーザが編集ボタン815を操作した後に、ステップS411へ進む。 In step S410, the terminal-side control unit 210 temporarily records the received image piece and audio piece in the temporary recording unit 251 for each time information (time stamp) attached to each. FIG. 7D shows an example of the display after the image piece and the sound piece are received and provisionally recorded in this way. In the display example shown in FIG. 7D, the preview screen 813, the forward / backward button 811, the play button 814, the edit button 815, and the back button 806 are displayed. The user can play back and confirm the received moving image data (image piece and sound piece) on the preview screen 813 by operating the play button 814. The user can also operate the back button 806 to return to the display screen shown in FIG. 7C and select another moving image data. The user can also operate the forward / backward button 811 to reselect another moving image data. Further, when the user wants to edit the moving image data displayed on the preview screen 813, the user operates the edit button 815. The process proceeds to step S411 after the user operates the edit button 815.

ステップS411において、端末側制御部210は、結合編集用の表示情報を生成し、端末側表示部220に表示させる。このときの表示の一例を図7Eに示す。図7Eに示す表示例では、編集用プレビュー画面817と、共通時間幅818と、共通プレビューボタン819と、共通範囲選択バー820と、分離編集ボタン825と、戻るボタン826と、決定ボタン827とが表示されている。 In step S411, the terminal-side control unit 210 generates display information for combined editing and causes the terminal-side display unit 220 to display the display information. An example of the display at this time is shown in FIG. 7E. In the display example shown in FIG. 7E, the editing preview screen 817, the common time width 818, the common preview button 819, the common range selection bar 820, the separate editing button 825, the back button 826, and the enter button 827 are provided. It is displayed.

編集用プレビュー画面817は、編集中の素材動画(素材画像)を再生して確認するプレビュー表示ための表示画面である。共通時間幅818は、現在の共通範囲選択バーが示す時間範囲(共通時間範囲)の時間幅を表示するものであり、図7Eに示す表示例では、共通時間範囲の時間幅が1分30秒であることを示している。共通プレビューボタン819は、編集中の素材動画を再生して確認するためのプレビュー再生の開始を指示するためのボタンである。 The editing preview screen 817 is a display screen for displaying a preview for reproducing and confirming the material moving image (material image) being edited. The common time width 818 displays the time width of the time range (common time range) indicated by the current common range selection bar, and in the display example shown in FIG. 7E, the time width of the common time range is 1 minute 30 seconds. It shows that. The common preview button 819 is a button for instructing the start of preview reproduction for reproducing and confirming the material moving image being edited.

共通範囲選択バー820は、結合編集において、観賞用動画の生成に用いる画像片及び音声片の時間範囲(共通時間範囲)を設定するためのスライドバーである。共通範囲選択バー820は、共通時間スケール821と、共通始点822と、共通終点823と、共通位置インジケータ824とを含む。共通時間スケール821は、左端が元動画の開始位置を示し、右端が元動画の終了位置を示す時間軸である。共通始点822は、共通時間範囲の開始位置(開始時間)を示す。共通終点823は、共通時間範囲の終了位置(終了時間)を示す。共通位置インジケータ824は、現在、編集用プレビュー画面817に表示されている画像片の、元動画(受信した画像片及び音声片)に対する時間の位置を示す。ユーザは、共通始点822と、共通終点823とを共通時間スケール821上で各々に動かして、共通始点822と、共通終点823との間の範囲を素材動画として切り出す範囲として選択する。また、ユーザは、共通位置インジケータ824を共通時間スケール821上で動かして、共通時間スケール821上の各々の位置(時間)における画像片(音声片)を確認できる。また、ユーザが共通プレビューボタン819を選択したときには、共通位置インジケータ824の位置(時間)から、動画データのプレビュー(再生)が行われる。 The common range selection bar 820 is a slide bar for setting a time range (common time range) of an image piece and an audio piece used for generating an ornamental moving image in combined editing. The common range selection bar 820 includes a common time scale 821, a common start point 822, a common end point 823, and a common position indicator 824. In the common time scale 821, the left end indicates the start position of the original moving image, and the right end indicates the end position of the original moving image. The common start point 822 indicates the start position (start time) of the common time range. The common end point 823 indicates the end position (end time) of the common time range. The common position indicator 824 indicates the time position of the image piece currently displayed on the editing preview screen 817 with respect to the original moving image (received image piece and audio piece). The user moves the common start point 822 and the common end point 823 respectively on the common time scale 821, and selects the range between the common start point 822 and the common end point 823 as a range to be cut out as a material moving image. Further, the user can move the common position indicator 824 on the common time scale 821 to check the image piece (audio piece) at each position (time) on the common time scale 821. Further, when the user selects the common preview button 819, the video data is previewed (reproduced) from the position (time) of the common position indicator 824.

分離編集ボタン825は、分離編集の開始を指示するためのボタンである。分離編集の詳細は後述する。戻るボタン826は、図7Dに示す表示例の状態に表示画面を戻すためのボタンである。決定ボタン827は、共通範囲選択バー820が示す範囲を素材動画の範囲として決定するためのボタンである。決定ボタン827が選択されたときには、共通範囲選択バー820の示す範囲(共通時間範囲)に含まれる画像片及び音声片に基づいて、素材画像及び素材音声が生成される。 The separate edit button 825 is a button for instructing the start of separate edit. The details of separate editing will be described later. The back button 826 is a button for returning the display screen to the state of the display example shown in FIG. 7D. The decision button 827 is a button for determining the range indicated by the common range selection bar 820 as the range of the material moving image. When the enter button 827 is selected, the material image and the material sound are generated based on the image piece and the sound piece included in the range (common time range) indicated by the common range selection bar 820.

ステップS412において、端末側制御部210は、分離編集が選択されたか否かを判定する。本判定は、端末側操作部240の出力するユーザ操作の結果に基づいて行われる。ユーザ操作は、例えば、ユーザが分離編集ボタン825をタッチする操作である。処理は、分離編集が選択されたと判定された場合はステップS413へ進み、判定されなかった場合はステップS416へ進む。 In step S412, the terminal-side control unit 210 determines whether or not separate editing is selected. This determination is made based on the result of the user operation output by the terminal side operation unit 240. The user operation is, for example, an operation in which the user touches the separate edit button 825. The process proceeds to step S413 if it is determined that the separate edit is selected, and proceeds to step S416 if it is not determined.

ステップS413において、端末側制御部210は、分離編集処理を行う。ここで、本実施形態に係る分離編集処理の一例をフローチャートとして図8に示す。 In step S413, the terminal-side control unit 210 performs a separate editing process. Here, an example of the separate editing process according to the present embodiment is shown in FIG. 8 as a flowchart.

ステップS501において、端末側制御部210は、画像片と音声片との各々の時間範囲(第1の時間範囲及び第2の時間範囲)を個別にユーザに選択させるために、各々に対応した範囲選択バーをそれぞれ表示(分離表示)する。 In step S501, the terminal-side control unit 210 has a range corresponding to each of the image piece and the sound piece in order to allow the user to individually select each time range (first time range and second time range). Display each selection bar (separate display).

このときの表示の一例を図9Aに示す。図9Aに示すように、分離編集処理における表示では、共通範囲選択バー820の代わりに、画像範囲選択バー820aと、音声範囲選択バー820bとが表示される。ここで、画像範囲選択バー820aは、素材画像として用いられる画像片の時間範囲(第1の時間範囲)を選択するための範囲選択バー(画像対応バー)である。音声範囲選択バー820bは、素材音声として用いられる音声片の時間範囲(第2の時間範囲)を選択するための範囲選択バー(画像対応バー)である。なお、上述した共通範囲選択バー820は、音声兼用の画像対応バーとも表現できる。すなわち、共通範囲選択バー820は、第1の時間範囲と第2の時間範囲とが常に一致した状態で、時間範囲(共通時間範囲)を選択するための範囲選択バーとも表現できる。 An example of the display at this time is shown in FIG. 9A. As shown in FIG. 9A, in the display in the separate editing process, the image range selection bar 820a and the audio range selection bar 820b are displayed instead of the common range selection bar 820. Here, the image range selection bar 820a is a range selection bar (image corresponding bar) for selecting a time range (first time range) of an image piece used as a material image. The voice range selection bar 820b is a range selection bar (image corresponding bar) for selecting a time range (second time range) of a voice piece used as a material voice. The common range selection bar 820 described above can also be expressed as an image-compatible bar that also serves as audio. That is, the common range selection bar 820 can also be expressed as a range selection bar for selecting a time range (common time range) in a state where the first time range and the second time range always match.

同様に、共通時間スケール821は、画像時間スケール821a及び音声時間スケール821bに分離表示される。共通始点822は、画像始点822a及び音声始点822bに分離表示される。共通終点823は、画像終点823a及び音声終点823bに分離表示される。共通位置インジケータ824は、画像位置インジケータ824a及び音声位置インジケータ824bに分離表示される。また、共通時間幅818と、共通プレビューボタン819とは、それぞれ、画像時間幅818a及び音声時間幅818bと、画像プレビューボタン819a及び音声プレビューボタン819bとに分離表示される。 Similarly, the common time scale 821 is separately displayed on the image time scale 821a and the audio time scale 821b. The common start point 822 is separately displayed as an image start point 822a and an audio start point 822b. The common end point 823 is separately displayed at the image end point 823a and the audio end point 823b. The common position indicator 824 is separately displayed on the image position indicator 824a and the audio position indicator 824b. Further, the common time width 818 and the common preview button 819 are separately displayed as an image time width 818a and an audio time width 818b, and an image preview button 819a and an audio preview button 819b, respectively.

また、画像時間幅818a及び音声時間幅818bの横には、それぞれ、画像片と音声片とのうち何れの範囲選択を行うかを指定するために、画像範囲選択ボタン828と、音声範囲選択ボタン829とが設けられている。例えばユーザは、画像片の範囲(第1の時間範囲)を選択するときには、画像範囲選択ボタン828を選択した後に、画像範囲選択バー820aを操作する。なお、画像片の範囲(第1の時間範囲)を選択するときには、画像範囲選択ボタン828を選択することなく、直接的に画像範囲選択バー820aが操作されるような構成であってもよい。図9Aの表示例では、画像範囲選択ボタン828が選択されて強調表示されている場合が示されている。なお、画像範囲選択ボタン828と、音声範囲選択ボタン829とは、画像と音声とのうち何れの範囲選択に係る処理が行われているかを表示するためのアイコンであってもよい。図9Aの表示例では、戻るボタン826と、決定ボタン827とがさらに表示されている。図9Aの表示例での戻るボタン826は、表示画面を図7Eに示す表示例の状態に戻すためのボタンである。決定ボタン827は、現在の画像範囲選択バー820a及び音声範囲選択バー820bの示す時間範囲を、それぞれ、第1の時間範囲及び第2の時間範囲として決定するためのボタンである。 Further, next to the image time width 818a and the audio time width 818b, an image range selection button 828 and an audio range selection button are used to specify which range is to be selected, the image piece or the audio piece, respectively. 829 is provided. For example, when selecting a range (first time range) of an image piece, the user operates the image range selection bar 820a after selecting the image range selection button 828. When selecting the range of the image piece (first time range), the image range selection bar 820a may be directly operated without selecting the image range selection button 828. In the display example of FIG. 9A, the case where the image range selection button 828 is selected and highlighted is shown. The image range selection button 828 and the sound range selection button 829 may be icons for displaying which range selection of the image and the sound is being performed. In the display example of FIG. 9A, the back button 826 and the enter button 827 are further displayed. The return button 826 in the display example of FIG. 9A is a button for returning the display screen to the state of the display example shown in FIG. 7E. The decision button 827 is a button for determining the time range indicated by the current image range selection bar 820a and the audio range selection bar 820b as the first time range and the second time range, respectively.

ステップS502において、端末側制御部210は、画像範囲選択に係る操作が行われたか否かを判定する。本判定では、画像範囲選択ボタン828が操作されたり、画像範囲選択バー820aが操作されたりしたときに、画像範囲選択に係る操作が行われたと判定され得る。処理は、画像範囲選択に係る操作が行われたと判定された場合はステップS503へ進み、判定されなかった場合はステップS504へ進む。ステップS503において、端末側制御部210は、ユーザ操作の結果を取得し、ユーザ操作に応じた位置に画像始点822aや画像終点823aを表示させる。また、変更後の画像時間幅818aを算出し、表示を更新する。その後、処理はステップS504へ進む。 In step S502, the terminal-side control unit 210 determines whether or not the operation related to the image range selection has been performed. In this determination, it can be determined that the operation related to the image range selection has been performed when the image range selection button 828 is operated or the image range selection bar 820a is operated. The process proceeds to step S503 if it is determined that the operation related to the image range selection has been performed, and proceeds to step S504 if it is not determined. In step S503, the terminal-side control unit 210 acquires the result of the user operation and displays the image start point 822a and the image end point 823a at the positions corresponding to the user operation. In addition, the changed image time width 818a is calculated and the display is updated. After that, the process proceeds to step S504.

ここで、ステップS503において、画像範囲に係る操作が行われた場合の表示の一例を図9Bに示す。図9Bに示す表示例は、図9Aに示す表示の状態から、画像範囲選択バー820aの画像始点822a及び画像終点823aの位置が変更されたときの表示の状態を示す。このとき、変更後の画像始点822a及び画像終点823aの位置に基づき、更新された画像時間幅818aaが表示される。以下、更新された画像時間幅818aaが、図9Bの表示例に示すように、30秒である場合を例として説明を続ける。 Here, FIG. 9B shows an example of the display when the operation related to the image range is performed in step S503. The display example shown in FIG. 9B shows a display state when the positions of the image start point 822a and the image end point 823a of the image range selection bar 820a are changed from the display state shown in FIG. 9A. At this time, the updated image time width 818aa is displayed based on the positions of the changed image start point 822a and the image end point 823a. Hereinafter, the description will be continued by taking the case where the updated image time width 818aa is 30 seconds as shown in the display example of FIG. 9B as an example.

ステップS504において、端末側制御部210は、音声範囲選択に係る操作が行われたか否かを判定する。本判定では、音声範囲選択ボタン829が操作されたり、音声範囲選択バー820bが操作されたりしたときに、音声範囲に係る操作が行われたと判定され得る。処理は、音声範囲選択に係る操作が行われたと判定された場合はステップS505へ進み、判定されなかった場合はステップS506へ進む。ステップS505において、端末側制御部210は、ユーザ操作の結果を取得し、ユーザ操作に応じた位置に音声始点822bや音声終点823bを表示させる。また、変更後の音声時間幅818bを算出し、表示を更新する。その後、処理はステップS506へ進む。 In step S504, the terminal-side control unit 210 determines whether or not the operation related to the voice range selection has been performed. In this determination, it can be determined that the operation related to the voice range has been performed when the voice range selection button 829 is operated or the voice range selection bar 820b is operated. The process proceeds to step S505 if it is determined that the operation related to the voice range selection has been performed, and proceeds to step S506 if it is not determined. In step S505, the terminal-side control unit 210 acquires the result of the user operation and displays the voice start point 822b and the voice end point 823b at the positions corresponding to the user operation. In addition, the changed voice time width 818b is calculated and the display is updated. After that, the process proceeds to step S506.

ステップS506において、端末側制御部210は、確認再生、送り又は戻し等の操作があったか否かを判定する。本判定では、画像プレビューボタン819a又は音声プレビューボタン819bが選択されたと判定されたときに確認再生の操作があったと判定される。本判定では、画像位置インジケータ824a又は音声位置インジケータ824bの操作があったと判定されたときには送り又は戻し操作があったと判定される。なお、画像位置インジケータ824a又は音声位置インジケータ824bの位置が左端へ向かって移動させられた場合は戻し操作があったと判定される。また、画像位置インジケータ824a又は音声位置インジケータ824bの位置が右端へ向かって移動させられた場合は送り操作があったと判定される。処理は、確認再生、送り又は戻し等の操作があったと判定された場合はステップS507へ進み、判定されなかった場合はステップS508へ進む。ステップS507において、端末側制御部210は、確認再生、送り又は戻し等のユーザ操作に応じた処理を行う。その後、処理はステップS508へ進む。 In step S506, the terminal-side control unit 210 determines whether or not there has been an operation such as confirmation / reproduction, feed, or return. In this determination, it is determined that the confirmation reproduction operation has been performed when it is determined that the image preview button 819a or the audio preview button 819b has been selected. In this determination, when it is determined that the image position indicator 824a or the audio position indicator 824b has been operated, it is determined that the feed or return operation has been performed. When the position of the image position indicator 824a or the audio position indicator 824b is moved toward the left end, it is determined that the return operation has been performed. Further, when the position of the image position indicator 824a or the audio position indicator 824b is moved toward the right end, it is determined that the feed operation has been performed. The process proceeds to step S507 if it is determined that there has been an operation such as confirmation / reproduction, feed, or return, and proceeds to step S508 if it is not determined. In step S507, the terminal-side control unit 210 performs processing according to user operations such as confirmation / reproduction, feed / return, and the like. After that, the process proceeds to step S508.

ステップS508において、端末側制御部210は、分離編集における範囲指定を終了するか否かを判定する。本判定では、決定ボタン827が操作されたときに、分離編集における範囲指定を終了すると判定される。処理は、終了すると判定された場合はステップS509へ進み、判定されなかった場合はステップS501へ戻る。 In step S508, the terminal-side control unit 210 determines whether or not to end the range designation in the separate editing. In this determination, when the decision button 827 is operated, it is determined that the range designation in the separate editing is finished. If it is determined that the process is completed, the process proceeds to step S509, and if it is not determined, the process returns to step S501.

ステップS509において、端末側制御部210は、キャプションやタイトル等の編集画面を表示させる。また、端末側制御部210は、ユーザの操作結果に応じて画像片にキャプションを追加する等の画像処理を施したり、観賞用動画の生成に用いられる画像片以外の挿入画像を生成したりする。ステップS510において、端末側制御部210は、それぞれに範囲指定された素材画像、素材音声、その他画像等との組合せ指定を行う。 In step S509, the terminal-side control unit 210 displays an edit screen such as a caption or a title. Further, the terminal-side control unit 210 performs image processing such as adding a caption to the image piece according to the operation result of the user, and generates an inserted image other than the image piece used for generating the ornamental moving image. .. In step S510, the terminal-side control unit 210 specifies a combination of the material image, the material sound, and other images whose range is specified for each.

ここで、分離編集処理で生成される観賞用動画について説明するための図を模式図として図9Cに示し、ステップS509及びステップS510の処理についてより詳細に説明をする。図9Cに示すように、ユーザは、タイトル画像F30、エンディング画像F50等の挿入画像を作成する。例えば、ユーザは、例えばHappy Wedding等の、観賞用動画のタイトル、コメント等を入力して、タイトル画像F30を作成する。また、ユーザは、タイトル画像F30と、素材画像F40と、エンディング画像F50との組合せ、並び順等を指定する。このとき、ユーザは、素材画像とは分離して範囲指定された素材音声を聞きながら、素材画像、挿入画像の位置を指定したりする。図9Cでは、元動画の3分から3分30秒までの範囲が素材画像として用いられており、元動画の2分30秒から4分までの範囲が素材音声として用いられている場合が例として示されている。例えば、ユーザは、拍手や歓声が大きくなり会場が盛り上がったときの音声の位置に、そのシーンを代表する画像(画像片)を含む素材画像を配置する。 Here, a diagram for explaining the ornamental moving image generated by the separation editing process is shown in FIG. 9C as a schematic diagram, and the processes of steps S509 and S510 will be described in more detail. As shown in FIG. 9C, the user creates an inserted image such as a title image F30 and an ending image F50. For example, the user inputs a title, a comment, or the like of an ornamental video such as Happy Wedding to create a title image F30. Further, the user specifies a combination of the title image F30, the material image F40, the ending image F50, the order of arrangement, and the like. At this time, the user specifies the positions of the material image and the inserted image while listening to the material sound whose range is specified separately from the material image. In FIG. 9C, the range from 3 minutes to 3 minutes and 30 seconds of the original video is used as the material image, and the range from 2 minutes and 30 seconds to 4 minutes of the original video is used as the material sound as an example. It is shown. For example, the user arranges a material image including an image (image piece) representing the scene at the position of the sound when the applause or cheers become loud and the venue is excited.

ステップS511において、端末側制御部210は、分離編集を終了するか否かを判定する。本判定では、決定ボタン827が選択されたと判定されたときに分離編集を終了すると判定される。端末側制御部210は、分離編集を終了すると判定されたときには、表示を図7Eの表示例の状態にする。処理は、終了すると判定されなかった場合はステップS501へ戻り、終了すると判定された場合は携帯端末制御処理のステップS414へ進む。 In step S511, the terminal-side control unit 210 determines whether or not to end the separate editing. In this determination, it is determined that the separation editing is terminated when it is determined that the decision button 827 is selected. When it is determined that the separate editing is finished, the terminal-side control unit 210 sets the display to the state of the display example of FIG. 7E. If it is not determined to end the process, the process returns to step S501, and if it is determined to end, the process proceeds to step S414 of the mobile terminal control process.

ここで、図6A及び図6Bを再び参照して、携帯端末制御処理の説明を続ける。ステップS414において、端末側制御部210は、動画編集を終了するか否かを判定する。本判定では、決定ボタン827が選択されたと判定されたときに動画編集を終了すると判定される。処理は、終了すると判定された場合はステップS415へ進み、判定されなかった場合はステップS412へ戻る。 Here, with reference to FIGS. 6A and 6B again, the description of the mobile terminal control process will be continued. In step S414, the terminal-side control unit 210 determines whether or not to end the moving image editing. In this determination, it is determined that the moving image editing is finished when it is determined that the decision button 827 is selected. If it is determined that the process is completed, the process proceeds to step S415, and if it is not determined, the process returns to step S412.

ステップS415において、端末側制御部210は、素材画像、素材音声、挿入画像等に基づいて、観賞用動画の動画ファイルを生成する。また、端末側制御部210は、生成した動画ファイルを端末側記録部250の情報記録部252へ記録する。その後、処理はステップS401へ戻る。 In step S415, the terminal-side control unit 210 generates a moving image file of an ornamental moving image based on a material image, a material sound, an inserted image, and the like. Further, the terminal-side control unit 210 records the generated moving image file in the information recording unit 252 of the terminal-side recording unit 250. After that, the process returns to step S401.

ステップS416において、端末側制御部210は、分離編集処理のステップS502乃至ステップS507の処理と同様にして、観賞用動画の生成に用いられる画像片及び音声片の範囲(共通時間範囲)を、ユーザ操作に応じて決定する結合編集処理を実行する。上述したように、結合編集に係る処理は、ユーザによる共通範囲選択バー820等の操作に応じて行われる。そのため、結合編集において、素材画像又は素材音声として指定される画像片又は音声片の時間の位置や時間幅、すなわち時間範囲(共通時間範囲)は同一である。ステップS417において、端末側制御部210は、分離編集処理のステップS508と同様にして、キャプション、タイトル等を編集する。その後、処理はステップS414へ進む。 In step S416, the terminal-side control unit 210 sets the range (common time range) of the image piece and the audio piece used for generating the ornamental moving image in the same manner as in the processes of steps S502 to S507 of the separation editing process. Executes the join editing process that is determined according to the operation. As described above, the process related to the combined editing is performed according to the operation of the common range selection bar 820 or the like by the user. Therefore, in the combined editing, the time position and time width of the image piece or sound piece designated as the material image or material sound, that is, the time range (common time range) is the same. In step S417, the terminal-side control unit 210 edits the caption, the title, and the like in the same manner as in step S508 of the separate editing process. After that, the process proceeds to step S414.

ステップS418において、端末側制御部210は、仮編集データ(仮編集画像及び仮編集音声)をキャプチャ機器100から受信するか否かを判定する。このときの表示は、図7Bに示す表示例の状態である。本判定は、仮編集データ受信アイコン805bが選択されたか否かに基づいて行われてもよいし、キャプチャ機器100から通信要求があったか否かに基づいて行われてもよい。処理は、受信すると判定された場合はステップS419へ進み、判定されなかった場合はステップS420へ進む。ステップS419において、端末側制御部210は、仮編集画像及び仮編集音声を画像片及び音声片の単位でキャプチャ機器100から受信する。受信された仮編集画像及び仮編集音声に含まれる画像片及び音声片は、各々に添付されている時間情報毎に仮記録部251に仮記録される。仮記録された仮編集画像及び仮編集音声は、ステップS411乃至ステップS414の処理と同様にして、編集され得る。その後、処理はステップS404へ戻る。 In step S418, the terminal-side control unit 210 determines whether or not to receive the temporary editing data (temporary editing image and temporary editing sound) from the capture device 100. The display at this time is the state of the display example shown in FIG. 7B. This determination may be performed based on whether or not the temporary edit data reception icon 805b is selected, or may be performed based on whether or not there is a communication request from the capture device 100. The process proceeds to step S419 if it is determined to be received, and proceeds to step S420 if it is not determined to be received. In step S419, the terminal-side control unit 210 receives the tentatively edited image and the tentatively edited sound from the capture device 100 in units of the image piece and the sound piece. The received temporary edit image and the image piece and the sound piece included in the temporary edit sound are temporarily recorded in the temporary recording unit 251 for each time information attached to each. The tentatively recorded tentatively edited image and tentatively edited sound can be edited in the same manner as in the processes of steps S411 to S414. After that, the process returns to step S404.

ステップS420において、端末側制御部210は、通信設定を行うか否かを判定する。このときの表示は、図7Bに示す表示例の状態である。本判定は、通信設定アイコン805dが選択されたか否かに基づいて行われてもよいし、キャプチャ機器100から通信要求があったか否かに基づいて行われてもよい。処理は、通信設定を行うと判定された場合はステップS421へ進み、判定されなかった場合はステップS422へ進む。ステップS421において、端末側制御部210は、通信設定を行う。通信設定では、通信相手としてキャプチャ機器100に係る情報が登録されたりする。その後、処理はステップS404へ戻る。 In step S420, the terminal-side control unit 210 determines whether or not to set the communication. The display at this time is the state of the display example shown in FIG. 7B. This determination may be performed based on whether or not the communication setting icon 805d is selected, or may be performed based on whether or not there is a communication request from the capture device 100. The process proceeds to step S421 if it is determined that the communication setting is to be performed, and proceeds to step S422 if it is not determined. In step S421, the terminal side control unit 210 sets the communication. In the communication setting, information related to the capture device 100 may be registered as a communication partner. After that, the process returns to step S404.

ステップS422において、端末側制御部210は、動画編集アプリを終了するか否かを判定する。このときの表示は、図7Bに示す表示例の状態である。本判定では、戻るボタン806が選択されたときに動画編集アプリを終了すると判定される。端末側制御部210は、動画編集アプリを終了すると判定されたときには、表示を図7Aに示す表示例の状態にする。処理は、終了すると判定されなかった場合はステップS404へ戻り、判定された場合はステップS401へ戻る。 In step S422, the terminal-side control unit 210 determines whether or not to terminate the video editing application. The display at this time is the state of the display example shown in FIG. 7B. In this determination, it is determined that the video editing application is terminated when the back button 806 is selected. When it is determined that the video editing application is terminated, the terminal-side control unit 210 sets the display to the state of the display example shown in FIG. 7A. If it is not determined that the process is completed, the process returns to step S404, and if it is determined, the process returns to step S401.

<利点>
本実施形態に係るキャプチャ機器100は、特定タイミング毎に元動画の第1の画像(動画コマ)を画像化して画像片を生成し、また、特定タイミング毎に第1の画像に対応する第1の音声を切り分けて音声片(音声クリップ)を生成することができる。キャプチャ機器100は、これら画像片と音声片との各々に時間情報(第1の時間情報と第2の時間情報)を添付し、生成された画像片及び音声片の単位で携帯端末200へ送信できる。画像片及び音声片は、それぞれ単独で再生され得る。また、本実施形態に係るキャプチャ機器100は、携帯端末200へ送信する画像片及び音声片の範囲(仮編集時間範囲)を指定することもできる。
<Advantage>
The capture device 100 according to the present embodiment visualizes the first image (video frame) of the original moving image at each specific timing to generate an image piece, and the first image corresponding to the first image at each specific timing. It is possible to separate the voice of and generate a voice piece (voice clip). The capture device 100 attaches time information (first time information and second time information) to each of these image pieces and sound pieces, and transmits the generated image pieces and sound pieces to the mobile terminal 200 in units of the generated image pieces and sound pieces. can. The image piece and the sound piece can be reproduced independently. Further, the capture device 100 according to the present embodiment can also specify a range (temporary editing time range) of an image piece and an audio piece to be transmitted to the mobile terminal 200.

このようにして、本実施形態に係るキャプチャ機器100は、高品質の元動画をそのまま携帯端末200へ送信する場合と比べて、通信に係るデータ容量を低減できる。通信されるデータ容量の低減は、電力消費の低減や記録容量の節約に寄与することから、キャプチャ機器100や携帯端末200が携帯機器である場合には、特に有用である。 In this way, the capture device 100 according to the present embodiment can reduce the data capacity related to communication as compared with the case where the high-quality original moving image is transmitted to the mobile terminal 200 as it is. Since the reduction of the data capacity to be communicated contributes to the reduction of power consumption and the saving of the recording capacity, it is particularly useful when the capture device 100 or the mobile terminal 200 is a mobile device.

また、本実施形態に係る携帯端末200は、画像片及び音声片をキャプチャ機器100から取得し、時間情報毎に仮記録する。また、携帯端末200は、時間情報毎に仮記録された画像片及び音声片に基づいた結合編集又は分離編集により、観賞用動画を生成できる。このため、ユーザは、スマートフォン等の携帯端末200で簡易に動画データを取得して確認したり、編集して共有に適した観賞用動画を作成したりできる。 Further, the mobile terminal 200 according to the present embodiment acquires an image piece and an audio piece from the capture device 100 and temporarily records each time information. Further, the mobile terminal 200 can generate an ornamental moving image by combined editing or separate editing based on the image piece and the audio piece temporarily recorded for each time information. Therefore, the user can easily acquire and check the moving image data on the mobile terminal 200 such as a smartphone, or edit and create an ornamental moving image suitable for sharing.

また、本実施形態に係る携帯端末200の備える端末側表示制御部218は、分離編集において、第1の時間情報に対応した画像範囲選択バーと、第2の時間情報に対応した音声範囲選択バーとを表示させる表示情報を生成する。画像範囲選択バー及び音声範囲選択バーの示す各々の時間範囲は、端末側操作部240の取得したユーザ操作の結果に応じてそれぞれ変化する。端末側編集部217は、画像範囲選択バーの示す時間範囲を、観賞用動画の生成に用いられる画像片の時間範囲(第1の時間範囲)として取得し、音声範囲選択バーの示す時間範囲を、音声片の時間範囲(第2の時間範囲)として取得する。このため、ユーザは、スマートフォン等の携帯端末200で簡易に動画データを編集して、元動画において異なる時間位置に記録されている画像のハイライトと音声のハイライトとを含む見ごたえのある観賞用動画を生成できる。 Further, in the separate editing, the terminal side display control unit 218 included in the mobile terminal 200 according to the present embodiment has an image range selection bar corresponding to the first time information and an audio range selection bar corresponding to the second time information. Generate display information to display and. Each time range indicated by the image range selection bar and the voice range selection bar changes according to the result of the user operation acquired by the terminal side operation unit 240. The terminal-side editorial unit 217 acquires the time range indicated by the image range selection bar as the time range (first time range) of the image piece used for generating the ornamental moving image, and sets the time range indicated by the audio range selection bar. , Acquired as the time range (second time range) of the voice piece. For this reason, the user can easily edit the video data on the mobile terminal 200 such as a smartphone, and enjoy the spectacular viewing including the highlight of the image and the highlight of the sound recorded at different time positions in the original video. You can generate a video.

以上のことから、本実施形態に係る技術は、元の動画データより時間的に短縮された観賞用動画データ(音声付き編集動画像データ)を得るように構成された動画編集システムを実現できるとも表現できる。ここで、元の動画データは、上述の実施形態に係る時間的に連続した複数の画像を含む第1の画像(画像データ)と、第1の画像に対応する第1の音声(音声データ)とを含む。 From the above, the technique according to the present embodiment can realize a video editing system configured to obtain ornamental video data (editing video data with audio) that is shorter in time than the original video data. Can be expressed. Here, the original moving image data includes a first image (image data) including a plurality of temporally continuous images according to the above-described embodiment, and a first audio (audio data) corresponding to the first image. And include.

動画編集システムは、画像データと、画像データと同時に収音された音声データとが同時に動画データとして記録される記録部を備える。この記録部は、例えば上述の実施形態に係るキャプチャ機器100の備える機器側記録部150であるが、携帯端末200の備える端末側記録部250であってもよい。また、画像データは、例えば上述の実施形態に係る機器側撮像部170によって取得されるが、携帯端末200が端末側撮像部を備えて端末側撮像部によって取得されてもよいし、動画編集システムの外部から取得されてもよい。同様に、画像データと同時に収音される音声データは、例えば上述の実施形態に係る機器側収音部180によって取得されるが、携帯端末200が端末側収音部を備えて端末側撮像部によって取得されてもよいし、動画編集システムの外部から取得されてもよい。 The moving image editing system includes a recording unit in which the image data and the audio data collected at the same time as the image data are simultaneously recorded as moving image data. This recording unit is, for example, the device-side recording unit 150 included in the capture device 100 according to the above-described embodiment, but may be the terminal-side recording unit 250 included in the mobile terminal 200. Further, the image data is acquired by, for example, the device-side image pickup unit 170 according to the above-described embodiment, but the mobile terminal 200 may be provided with the terminal-side image pickup unit and acquired by the terminal-side image pickup unit, or a moving image editing system. It may be obtained from the outside of. Similarly, the sound data collected at the same time as the image data is acquired by, for example, the device-side sound collecting unit 180 according to the above-described embodiment, but the mobile terminal 200 includes a terminal-side sound collecting unit and is provided with a terminal-side image pickup unit. It may be obtained by, or it may be obtained from outside the video editing system.

動画編集システムでは、記録された画像データの中から第1のタイミングで画像片が切り取られる。また、画像データと同時に記録された音声データから第2のタイミングで音声片が切り取られる。ここで、第1のタイミングと第2のタイミングとは同じであってもよいし、異なっていてもよい。 In the moving image editing system, an image piece is cut out from the recorded image data at the first timing. Further, the audio piece is cut out at the second timing from the audio data recorded at the same time as the image data. Here, the first timing and the second timing may be the same or different.

動画編集システムは、第1のタイミングで切り取られた画像片と、第2のタイミングで切り取られた音声片とから、元の動画データ(画像データ及び音声データ)より時間的に短縮された音声付き編集動画像データを得るように構成されている。なお、音声付き編集動画像データの生成は、例えば、上述の実施形態に係る携帯端末200において行われるが、キャプチャ機器100で行われてもよい。 The video editing system has audio that is shorter than the original video data (image data and audio data) from the image fragment clipped at the first timing and the audio fragment clipped at the second timing. It is configured to obtain edited video data. The generation of the edited moving image data with audio is performed, for example, in the mobile terminal 200 according to the above-described embodiment, but may be performed in the capture device 100.

なお、音声データは、画像データと同時に取得された音声データであると記載したが、これは、本動画編集システムが単一の動画ファイル(元の動画データ)に含まれる画像データ(第1の画像)と音声データ(第1の音声)とを編集するためのシステムであることを示している。したがって、画像データと音声データとは、単一の動画ファイルとして記録されていればよく、必ずしも同時に取得されたものに限らない。 In addition, although it is described that the audio data is the audio data acquired at the same time as the image data, this is the image data (first) included in a single video file (original video data) by this video editing system. It shows that it is a system for editing image) and audio data (first audio). Therefore, the image data and the audio data need only be recorded as a single moving image file, and are not necessarily acquired at the same time.

<変形例>
(分離編集処理の変形例)
なお、分離編集処理では、同一の素材画像が繰り返し用いられて、素材音声と組み合わされてもよい。同様に、同一の素材音声が繰り返し用いられて、素材画像と組み合わされてもよい。ここで、素材画像が繰り返し用いられて観賞用動画を生成するときの表示の一例を図10Aに示し、素材画像が繰り返し用いられた観賞用動画について説明するための図を模式図として図10Bに示す。図10A及び図10Bを参照して、素材画像が繰り返し用いられて観賞用動画が生成される場合の処理についてより詳細に説明をする。図10Aに示す表示は、画像範囲選択バー820aが操作されて画像時間幅818aが指定された後の状態である。例えば、画像時間幅818aの表示位置がタッチされる等して選択されたとき、当該表示位置には画像繰り返しボタン818abが表示される。画像繰り返しボタン818abが選択されたとき、図10Bに示すように、現在指定されている画像時間幅818aの素材画像が繰り返し用いられて観賞用動画が生成される。このとき、さらにタイトル等の挿入画像が用いられたり、素材画像を構成する画像片にキャプションが付加されたりしてもよい。
<Modification example>
(Modified example of separate editing process)
In the separate editing process, the same material image may be repeatedly used and combined with the material sound. Similarly, the same material audio may be used repeatedly and combined with the material image. Here, an example of a display when the material image is repeatedly used to generate an ornamental moving image is shown in FIG. 10A, and a diagram for explaining the ornamental moving image in which the material image is repeatedly used is shown in FIG. 10B as a schematic diagram. show. With reference to FIGS. 10A and 10B, processing when the material image is repeatedly used to generate an ornamental moving image will be described in more detail. The display shown in FIG. 10A is a state after the image range selection bar 820a is operated and the image time width 818a is specified. For example, when the display position of the image time width 818a is touched and selected, the image repeat button 818ab is displayed at the display position. When the image repeat button 818ab is selected, as shown in FIG. 10B, the material image having the currently specified image time width 818a is repeatedly used to generate an ornamental moving image. At this time, an inserted image such as a title may be used, or a caption may be added to an image piece constituting the material image.

なお、上述の実施形態及び変形例では、画像片及び音声片に加えて挿入画像が用いられて観賞用動画が生成される場合を例として説明したが、これに限らない。観賞用動画は、画像片及び音声片のみに基づいて生成されてもよいし、画像片及び音声片に加えて効果音、又は挿入画像及び効果音が用いられて生成されてもよい。 In the above-described embodiment and modification, the case where the inserted image is used in addition to the image piece and the audio piece to generate an ornamental moving image has been described as an example, but the present invention is not limited to this. The ornamental moving image may be generated based only on the image piece and the sound piece, or may be generated by using the sound effect or the inserted image and the sound effect in addition to the image piece and the sound piece.

なお、上述の実施形態及び変形例では、ユーザがタイトル等を入力して挿入画像が生成される場合を例として説明をしたが、これに限らない。挿入画像や効果音は、インターネット等の電気通信回線上のサーバ等から取得されてもよいし、機器側記録部150又は端末側記録部250から取得されてもよい。このとき、挿入画像や効果音として、他の元動画から生成された画像片や音声片が用いられてもよい。また、携帯端末200がカメラを備えている場合には、携帯端末200が撮像して取得された画像データが挿入画像として用いられてもよい。同様に、携帯端末200がマイクを備えている場合には、携帯端末200が収音して取得された音声データが効果音として用いられてもよい。 In the above-described embodiment and modification, the case where the user inputs a title or the like to generate the inserted image has been described as an example, but the present invention is not limited to this. The inserted image and sound effect may be acquired from a server or the like on a telecommunication line such as the Internet, or may be acquired from a device-side recording unit 150 or a terminal-side recording unit 250. At this time, an image piece or an audio piece generated from another original moving image may be used as the inserted image or sound effect. When the mobile terminal 200 includes a camera, the image data captured and acquired by the mobile terminal 200 may be used as an inserted image. Similarly, when the mobile terminal 200 is provided with a microphone, the voice data acquired by the mobile terminal 200 may be used as a sound effect.

なお、上述の実施形態及び変形例では、第1の時間範囲に含まれる画像片(素材画像)の前後に挿入画像が追加される場合を例として説明をしたが、これに限らない。挿入画像は、画像片(素材画像)と画像片(素材画像)との間に挿入されてもよいし、画像片に重畳されてもよい。同様に、効果音は、音声片(素材音声)と音声片(素材音声)との間に挿入されてもよいし、音声片と重ね合わせるように追加されてもよい。 In the above-described embodiment and modification, the case where the inserted image is added before and after the image piece (material image) included in the first time range has been described as an example, but the present invention is not limited to this. The inserted image may be inserted between the image piece (material image) and the image piece (material image), or may be superimposed on the image piece. Similarly, the sound effect may be inserted between the sound piece (material sound) and the sound piece (material sound), or may be added so as to be superimposed on the sound piece.

なお、機器側情報処理部111の機能の一部は、キャプチャ機器100の外部に設けられていてもよい。また、機器側情報処理部111は、キャプチャ機器100の外部から取得された動画データに基づいて、画像片及び音声片を生成してもよい。同様に、端末側情報処理部211の機能の一部は、例えばインターネット上に設けられたサーバ等の携帯端末200の外部に設けられていてもよい。この場合、キャプチャ機器100で生成された画像片及び音声片は、当該サーバへ送信されてもよい。 A part of the functions of the information processing unit 111 on the device side may be provided outside the capture device 100. Further, the information processing unit 111 on the device side may generate an image piece and an audio piece based on the moving image data acquired from the outside of the capture device 100. Similarly, a part of the functions of the information processing unit 211 on the terminal side may be provided outside the mobile terminal 200 such as a server provided on the Internet. In this case, the image piece and the sound piece generated by the capture device 100 may be transmitted to the server.

(仮編集付き再生処理の変形例)
上述の実施形態及び変形例では、キャプチャ機器100で実行され、携帯端末200へ送信される画像片及び音声片の時間範囲(仮編集時間範囲)を選択できる仮編集付き再生処理について説明をした。また、携帯端末200で実行される分離編集処理について説明をした。
(Modified example of playback processing with temporary editing)
In the above-described embodiment and modification, the reproduction process with temporary editing, which is executed by the capture device 100 and can select the time range (temporary editing time range) of the image piece and the audio piece transmitted to the mobile terminal 200, has been described. Further, the separate editing process executed by the mobile terminal 200 has been described.

このような中、キャプチャ機器100から携帯端末200へ送信される画像片及び音声片の時間範囲(仮編集時間範囲)は、画像片と音声片との間で異なっていてもよい。そこで、本変形例では、キャプチャ機器100で実行される仮編集付き再生処理において、分離編集処理の一部が行われて、仮編集画像として選択される画像片の時間範囲(第3の時間範囲)と、仮編集音声として選択される音声片の時間範囲(第4の時間範囲)とが、個別に選択される仮編集付き再生処理について説明する。 Under such circumstances, the time range (temporary editing time range) of the image piece and the sound piece transmitted from the capture device 100 to the mobile terminal 200 may be different between the image piece and the sound piece. Therefore, in this modification, in the playback process with temporary editing executed by the capture device 100, a part of the separate editing process is performed, and the time range of the image piece selected as the temporary editing image (third time range). ) And the time range (fourth time range) of the audio piece selected as the temporary editing voice will be described with respect to the reproduction processing with temporary editing in which the time range (fourth time range) is individually selected.

ここで、本変形例に係るキャプチャ機器100で実行される仮編集付き再生処理の一例をフローチャートとして図11A及び図11Bに示し、これらを参照して情報処理システム1の動作について説明をする。なお、本変形例に係る仮編集付き再生処理は、図3を参照して説明したキャプチャ機器制御処理のステップS117で行われる。 Here, an example of the reproduction process with temporary editing executed by the capture device 100 according to the present modification is shown in FIGS. 11A and 11B as flowcharts, and the operation of the information processing system 1 will be described with reference to these. The reproduction process with temporary editing according to this modification is performed in step S117 of the capture device control process described with reference to FIG.

ステップS601乃至ステップS609の処理は、それぞれ、第1の実施形態に係る仮編集付き再生処理のステップS301乃至ステップS309の処理と同様であり、機器側制御部110は、選択された元動画から画像片及び音声片を生成する。なお、画像片及び音声片が生成される元動画の範囲は、第1の実施形態に係る仮編集と同様に元動画の一部であってもよいし、第1の実施形態に係る画像片及び音声片送信処理と同様に、元動画の全体であってもよい。ステップS610において、機器側制御部110は、ステップS310と同様にして、画像片化及び音声片化に係る処理を終了するか否かを判定する。処理は、判定されなかった場合はステップS606へ戻り、本ステップで終了すると判定されるまで、画像片化及び音声片化に係る処理を継続する。処理は、終了すると判定された場合はステップS611へ進む。 The processes of steps S601 to S609 are the same as the processes of steps S301 to S309 of the reproduction process with temporary editing according to the first embodiment, respectively, and the device side control unit 110 is an image from the selected original moving image. Generate pieces and audio pieces. The range of the original moving image in which the image piece and the audio piece are generated may be a part of the original moving image as in the provisional editing according to the first embodiment, or the image piece according to the first embodiment. And, as with the audio piece transmission process, the entire original moving image may be used. In step S610, the device-side control unit 110 determines whether or not to end the processing related to image fragmentation and audio fragmentation in the same manner as in step S310. If the process is not determined, the process returns to step S606, and the process related to image fragmentation and audio fragmentation is continued until it is determined that the process is completed in this step. If it is determined that the process ends, the process proceeds to step S611.

ここで、ステップS601における表示の一例を図12Aに示す。図12Aに示す表示例では、図7Cに示す表示例と同様に、機器側記録部150に記録されている各々の動画ファイルを示すサムネイル画像が一覧表示される。ユーザは、機器側操作部140を操作して、再生、編集等を実行する動画ファイルを選択する。 Here, an example of the display in step S601 is shown in FIG. 12A. In the display example shown in FIG. 12A, as in the display example shown in FIG. 7C, thumbnail images showing each moving image file recorded in the device-side recording unit 150 are displayed in a list. The user operates the operation unit 140 on the device side to select a moving image file to be played, edited, or the like.

ここで、ステップS604における表示の一例を図12Bに示す。図12Bに示す表示例では、ステップS601で選択された動画ファイルを示すサムネイル画像がプレビュー画面813に表示されている。また、図12Bに示す表示例では、再生ボタン814と、仮編集ボタン815aと、戻るボタン806と、送り/戻しボタン811とがさらに表示されている。機器側制御部110は、再生ボタン814が選択されたとき、当該動画ファイルの再生を開始する。機器側制御部110は、仮編集ボタン815aが選択されたとき、当該動画ファイルの仮編集に係る処理を実行する。このとき、処理はステップS606へ進み、画像片及び音声片が生成される。機器側制御部110は、戻るボタン806が選択されたとき、表示を図12Aの表示例の状態に戻して、ユーザのサムネイル画像の選択操作を待機する。機器側制御部110は、送り/戻しボタン811が選択されたとき、プレビュー画面813に表示する動画ファイル、すなわち、現在選択されている動画ファイルを他の動画ファイルに切り替える。 Here, an example of the display in step S604 is shown in FIG. 12B. In the display example shown in FIG. 12B, a thumbnail image showing the moving image file selected in step S601 is displayed on the preview screen 813. Further, in the display example shown in FIG. 12B, the play button 814, the temporary edit button 815a, the back button 806, and the forward / back button 811 are further displayed. When the play button 814 is selected, the device-side control unit 110 starts playing the moving image file. When the temporary editing button 815a is selected, the device-side control unit 110 executes a process related to temporary editing of the moving image file. At this time, the process proceeds to step S606, and an image piece and an audio piece are generated. When the return button 806 is selected, the device-side control unit 110 returns the display to the state of the display example of FIG. 12A and waits for the user to select the thumbnail image. When the forward / backward button 811 is selected, the device-side control unit 110 switches the moving image file displayed on the preview screen 813, that is, the currently selected moving image file to another moving image file.

ステップS611において、機器側制御部110は、携帯端末200で実行される携帯端末制御処理のステップS410と同様にして、時間情報毎に画像片と音声片とを機器側記録部150に仮記録する。 In step S611, the device-side control unit 110 temporarily records an image piece and an audio piece in the device-side recording unit 150 for each time information in the same manner as in step S410 of the mobile terminal control process executed by the mobile terminal 200. ..

ステップS612乃至ステップS614の処理は、それぞれ、携帯端末制御処理のステップS411乃至ステップS413の処理と同様である。機器側制御部110は、画像及び音声兼用の共通範囲選択バー820を含む、結合編集用の表示情報を生成し、キャプチャ機器100の備える機器側表示部120に表示させる。 The processes of steps S612 to S614 are the same as the processes of steps S411 to S413 of the mobile terminal control process, respectively. The device-side control unit 110 generates display information for combined editing, including a common range selection bar 820 for both image and audio, and displays it on the device-side display unit 120 included in the capture device 100.

ここで、ステップS612における表示の一例を図12Cに示す。図12Cに示す表示例では、戻るボタン806、送り/戻しボタン811、プレビュー画面813が表示されている。機器側制御部110は、戻るボタン806が選択されたとき、表示を図13Bに示す表示例の状態に戻す。また、図12Cに示す表示例では、分離編集を指示する分離編集ボタン825が表示されている。機器側制御部110は、分離編集ボタン825が選択されたとき、本変形例に係る分離編集に係る処理を開始する。このとき、処理はステップS613へ進む。 Here, an example of the display in step S612 is shown in FIG. 12C. In the display example shown in FIG. 12C, the back button 806, the forward / back button 811, and the preview screen 813 are displayed. When the return button 806 is selected, the device-side control unit 110 returns the display to the state of the display example shown in FIG. 13B. Further, in the display example shown in FIG. 12C, a separate edit button 825 for instructing separate edit is displayed. When the separation / editing button 825 is selected, the device-side control unit 110 starts the processing related to the separation / editing according to this modification. At this time, the process proceeds to step S613.

ステップS613において、機器側制御部110は、図8を参照して説明した分離編集処理と同様にして、仮編集における分離編集処理を実行する。キャプチャ機器100で実行される仮編集における分離編集処理で生成される仮編集データは、携帯端末200で実行される分離編集処理において、さらに編集(本編集)される。そのため、キャプチャ機器100で実行される仮編集における分離編集処理は、携帯端末200で実行される分離編集処理と比較して簡易なものであってもよい。例えば、本変形例に係る分離編集処理では、キャプション、タイトル等の入力に係る処理は行われなくてもよい。例えば、本変形例に係る分離編集処理では、組合せ指定に係る処理は行われない。キャプション、タイトル等の入力に係る処理や組合せ指定に係る処理は、ユーザインタフェースがキャプチャ機器100と比べて豊富であり、また、インターネット等を介して挿入画像や交換音等を取得し易い携帯端末200における本編集で行われればよい。 In step S613, the device-side control unit 110 executes the separate editing process in the provisional editing in the same manner as the separate editing process described with reference to FIG. The temporary edit data generated by the separate edit process in the temporary edit executed by the capture device 100 is further edited (main edit) in the separate edit process executed by the portable terminal 200. Therefore, the separate editing process in the temporary editing executed by the capture device 100 may be simpler than the separate editing process executed by the mobile terminal 200. For example, in the separate editing process according to this modification, the process related to the input of captions, titles, and the like may not be performed. For example, in the separate editing process according to this modification, the process related to the combination designation is not performed. The mobile terminal 200 has a richer user interface than the capture device 100 in the processing related to input of captions, titles, etc. and the processing related to combination specification, and it is easy to acquire inserted images, exchange sounds, etc. via the Internet or the like. It may be done in this editing in.

ここで、ステップS613の仮編集における分離編集処理における表示の一例を図12Dに示す。図12Dに示す表示例は、図9Bに示す表示例と同様である。ただし、図12Dに示す表示例では、図9Bに示す表示例における決定ボタン827の代わりに、決定送信ボタン830が表示されている。 Here, an example of the display in the separate editing process in the temporary editing in step S613 is shown in FIG. 12D. The display example shown in FIG. 12D is the same as the display example shown in FIG. 9B. However, in the display example shown in FIG. 12D, the decision transmission button 830 is displayed instead of the decision button 827 in the display example shown in FIG. 9B.

ステップS615及びステップS616の処理は、それぞれ、第1の実施形態に係る仮編集付き再生処理のステップS311及びステップS312の処理と同様である。機器側制御部110は、決定送信ボタン830が選択されたとき、本変形例に係る分離編集に係る処理と、仮編集処理とを終了させ、仮編集データを生成する。ここで、仮編集画像(仮編集コマ)は、現在の画像範囲選択バー820aの示す時間範囲(第3の時間範囲)に含まれる画像片である。同様に、仮編集音声は、現在の音声範囲選択バー820bの示す時間範囲(第4の時間範囲)に含まれる音声片である。機器側制御部110は、生成された仮編集データ(仮編集画像及び仮編集音声)を画像片及び音声片の単位で携帯端末200へ送信させる。送信後、機器側制御部110は、仮編集付き再生処理を終了させる。 The processes of steps S615 and S616 are the same as the processes of steps S311 and S312 of the reproduction process with temporary editing according to the first embodiment, respectively. When the decision transmission button 830 is selected, the device-side control unit 110 ends the process related to the separate edit and the temporary edit process according to this modification, and generates the temporary edit data. Here, the temporary editing image (temporary editing frame) is an image piece included in the time range (third time range) indicated by the current image range selection bar 820a. Similarly, the provisionally edited voice is a voice piece included in the time range (fourth time range) indicated by the current voice range selection bar 820b. The device-side control unit 110 causes the mobile terminal 200 to transmit the generated temporary editing data (temporary editing image and temporary editing sound) in units of an image piece and a sound piece. After transmission, the device-side control unit 110 ends the reproduction process with temporary editing.

ステップS615における表示の一例を図12Eに示す。図12Eに示す表示例は、仮編集データが携帯端末200へ送信されているときの表示を示す。図12Eに示す表示例では、送信中の仮編集画像(画像片)を順次表示するプレビュー画面831と、仮編集データが送信中であることを示す送信状態表示部832と、図12Dに示す表示例の状態に戻るための戻るボタン833とが表示されている。図12Eに示す表示例では、送信状態表示部832には送信中と表示されている。なお、プレビュー画面831は、送信中の仮編集データを示すサムネイル画像を表示していてもよい。また、戻るボタン833は、キャプチャ機器制御処理のステップS111に戻ることを指示するボタンであってもよい。また、仮編集データの送信中、携帯端末200においては、仮編集データの受信中であることを示す受信状態表示部834が表示されている。図12Eに示す表示例では、受信状態表示部834には動画受信中と表示されている。 An example of the display in step S615 is shown in FIG. 12E. The display example shown in FIG. 12E shows the display when the temporary editing data is transmitted to the mobile terminal 200. In the display example shown in FIG. 12E, a preview screen 831 for sequentially displaying the temporarily edited images (image pieces) being transmitted, a transmission status display unit 832 indicating that the temporary editing data is being transmitted, and a table shown in FIG. 12D. A back button 833 for returning to the illustrated state is displayed. In the display example shown in FIG. 12E, the transmission status display unit 832 indicates that transmission is in progress. The preview screen 831 may display a thumbnail image showing the provisional editing data being transmitted. Further, the back button 833 may be a button instructing to return to step S111 of the capture device control process. Further, while the temporary editing data is being transmitted, the mobile terminal 200 displays a reception status display unit 834 indicating that the temporary editing data is being received. In the display example shown in FIG. 12E, the reception status display unit 834 indicates that a moving image is being received.

ステップS617、ステップS618及びステップS619の処理は、それぞれ、第1の実施形態に係る携帯端末制御処理のステップS411、ステップS416及びステップS417の処理と同様である。機器側制御部110は、共通範囲選択バー820が操作されて指定された範囲(仮編集時間範囲)に基づいて、仮編集データを生成する。ただし、ステップS619で実行されるキャプション、タイトル等の編集に係る処理は、ステップS613の処理と同様に、仮編集では行われなくてもよい。 The processes of steps S617, S618 and S619 are the same as the processes of steps S411, S416 and S417 of the mobile terminal control process according to the first embodiment, respectively. The device-side control unit 110 generates temporary editing data based on the range (temporary editing time range) specified by operating the common range selection bar 820. However, the process related to the editing of captions, titles, etc. executed in step S619 may not be performed in the provisional editing as in the process of step S613.

このようにして生成されて携帯端末200へ送信された仮編集データは、携帯端末200において、観賞用動画を生成するための素材動画として用いられる。ここで、仮編集データ受信後の携帯端末200における表示の一例を図12Fに示す。図12Fに示す表示例のように、本編集の実行を指示するための本編集ボタン835が表示される。ここで、本編集は、仮編集データに含まれる画像片及び音声片を用いた動画編集である。端末側制御部210は、本編集ボタン835が選択されたとき、図9A及び図9Bを参照して説明したように、分離編集処理を実行する。 The temporary editing data generated in this way and transmitted to the mobile terminal 200 is used as a material moving image for generating an ornamental moving image in the mobile terminal 200. Here, an example of the display on the mobile terminal 200 after receiving the temporary editing data is shown in FIG. 12F. As shown in the display example shown in FIG. 12F, the main editing button 835 for instructing the execution of the main editing is displayed. Here, this editing is a moving image editing using an image piece and an audio piece included in the provisional editing data. When the edit button 835 is selected, the terminal-side control unit 210 executes the separate edit process as described with reference to FIGS. 9A and 9B.

このように、本変形例に係るキャプチャ機器100は、携帯端末200へ送信する画像片及び音声片の時間範囲を分離編集によってそれぞれ個別に設定できる。このため、本変形例に係る情報処理システム1では、通信されるデータ容量がさらに低減され得る。また、ユーザは、例えば撮影した内容を忘れないうちに、キャプチャ機器100を用いて大まかに観賞用動画に用いる元動画の範囲を指定することができる。 As described above, the capture device 100 according to the present modification can individually set the time range of the image piece and the sound piece to be transmitted to the mobile terminal 200 by separate editing. Therefore, in the information processing system 1 according to this modification, the amount of data to be communicated can be further reduced. Further, the user can roughly specify the range of the original moving image to be used for the ornamental moving image by using the capture device 100, for example, without forgetting the captured contents.

なお、本発明は、上記実施形態及び変形例に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上記実施形態及び各変形例は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態及び変形例には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態及び変形例に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 The present invention is not limited to the above-described embodiment and modification, and can be variously modified at the implementation stage without departing from the gist thereof. Further, the above-described embodiment and each modification may be carried out in combination as appropriate, and in that case, the combined effect can be obtained. Further, the above-described embodiments and modifications include various inventions, and various inventions can be extracted by a combination selected from a plurality of disclosed constituent requirements. For example, if the problem can be solved and the effect can be obtained even if some constituent elements are deleted from all the constituent elements shown in the embodiments and modifications, the configuration in which the constituent elements are deleted is extracted as an invention. Can be done.

なお、上記実施形態及び変形例中で、セクションやユニットとして記載した部分は、専用の回路や、複数の汎用の回路が組み合わされて構成されてもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイコン、CPUなどのプロセッサ、あるいはシーケンサが組み合わされて構成されてもよい。これは、一部または全部がFPGAで設計される場合もある。また、その制御の一部または全部を外部の装置が引き受けるような設計も可能で、この場合、有線や無線の通信回路が介在する。通信は、BluetoothやWi-Fi、電話回線などで行われればよく、USBなどで行われてもよい。専用の回路、汎用の回路や制御部が一体としてASICとして構成されてもよい。 In the above-described embodiment and modification, the portion described as a section or a unit may be configured by combining a dedicated circuit or a plurality of general-purpose circuits, and if necessary, pre-programmed software. A microcomputer, a processor such as a CPU, or a sequencer that operates according to the above may be combined and configured. It may be partly or wholly designed with FPGA. Further, it is possible to design so that an external device takes over a part or all of the control, and in this case, a wired or wireless communication circuit intervenes. Communication may be performed by Bluetooth, Wi-Fi, a telephone line, or the like, or may be performed by USB or the like. A dedicated circuit, a general-purpose circuit, and a control unit may be integrally configured as an ASIC.

1…情報処理システム、100…キャプチャ機器、110…機器側制御部、111…機器側情報処理部、112…機器側圧縮部、113…機器側伸長部、114…機器側分割部、115…機器側通信制御部、116…機器側記録制御部、120…機器側表示部、130…機器側音声再生部、140…機器側操作部、150…機器側記録部、151…画像記録部、152…音声記録部、160…機器側通信部、161…第1の機器側通信部、162…第2の機器側通信部、170…機器側撮像部、180…機器側収音部、190…機器側時計部、200…携帯端末、210…端末側制御部、211…端末側情報処理部、212…端末側圧縮部、215…端末側通信制御部、216…端末側記録制御部、217…端末側編集部、218…端末側表示制御部、220…端末側表示部、230…端末側音声再生部、240…端末側操作部、250…端末側記録部、251…仮記録部、252…情報記録部、260…端末側通信部、261…第1の端末側通信部、262…第2の端末側通信部。 1 ... information processing system, 100 ... capture device, 110 ... device side control unit, 111 ... device side information processing unit, 112 ... device side compression unit, 113 ... device side expansion unit, 114 ... device side division unit, 115 ... device Side communication control unit, 116 ... device side recording control unit, 120 ... device side display unit, 130 ... device side voice reproduction unit, 140 ... device side operation unit, 150 ... device side recording unit, 151 ... image recording unit, 152 ... Audio recording unit, 160 ... device side communication unit, 161 ... first device side communication unit, 162 ... second device side communication unit, 170 ... device side image pickup unit, 180 ... device side sound pickup unit, 190 ... device side Clock unit, 200 ... Mobile terminal, 210 ... Terminal side control unit, 211 ... Terminal side information processing unit, 212 ... Terminal side compression unit, 215 ... Terminal side communication control unit, 216 ... Terminal side recording control unit, 217 ... Terminal side Editing unit, 218 ... Terminal side display control unit, 220 ... Terminal side display unit, 230 ... Terminal side audio reproduction unit, 240 ... Terminal side operation unit, 250 ... Terminal side recording unit, 251 ... Temporary recording unit, 252 ... Information recording Unit 260 ... Terminal side communication unit, 261 ... First terminal side communication unit, 262 ... Second terminal side communication unit.

Claims (21)

時間的に連続した複数の画像を含む第1の画像が時間分割されて、それぞれが第1の時間情報を有して単独で再生できる画像として生成された複数の画像片と、前記第1の画像に対応する第1の音声が時間分割されて、それぞれが第2の時間情報を有して単独で再生できる音声として生成された複数の音声片とを通信により取得する端末側通信制御部と、
前記第1の画像の時間範囲の中から第1の時間範囲を指定し、前記第1の音声の時間範囲の中から第2の時間範囲を指定するための端末側操作部と、
受信された複数の前記画像片の中から前記第1の時間範囲に含まれる前記画像片を選択するともに、受信された複数の前記音声片の中から前記第2の時間範囲に含まれる前記音声片を選択する端末側編集部と
を備える、動画編集のための携帯端末。
A plurality of image pieces including a plurality of images consecutive in time are time-divided, each of which has the first time information and is generated as an image that can be reproduced independently, and the first image. A terminal-side communication control unit that acquires a plurality of voice pieces generated as voices in which the first voice corresponding to an image is time-divided and each has a second time information and can be played independently. ,
A terminal-side operation unit for designating a first time range from the time range of the first image and designating a second time range from the time range of the first sound.
The image piece included in the first time range is selected from the plurality of received image pieces, and the sound included in the second time range is selected from the received sound pieces. A mobile terminal for video editing, equipped with a terminal-side editorial unit for selecting one piece.
前記第1の画像の時間範囲の中から前記第1の時間範囲を指定するための画像範囲選択バーと、前記第1の音声の時間範囲の中から前記第2の時間範囲を指定するための音声範囲選択バーとを表示させる表示情報を生成する端末側表示制御部をさらに備える、請求項に記載の携帯端末。 An image range selection bar for designating the first time range from the time range of the first image, and a second time range for designating the second time range from the time range of the first sound. The portable terminal according to claim 1 , further comprising a terminal-side display control unit that generates display information for displaying an audio range selection bar. それぞれの前記第1の時間情報は、前記第1の画像におけるそれぞれの前記画像片の時間位置であり、それぞれの前記第2の時間情報は、前記第1の音声におけるそれぞれの前記音声片の時間位置である、請求項に記載の携帯端末。 Each of the first time information is the time position of each of the image pieces in the first image, and each of the second time information is the time of each of the voice pieces in the first voice. The mobile terminal according to claim 1 , which is a position. 前記画像片と、前記音声片とを、添付されている時間情報毎に仮記録する仮記録部をさらに備える、請求項に記載の携帯端末。 The mobile terminal according to claim 1 , further comprising a temporary recording unit for temporarily recording the image piece and the audio piece for each attached time information. 前記端末側編集部は、選択した前記画像片と前記音声片とに基づいて、動画ファイルを生成する、請求項に記載の携帯端末。 The mobile terminal according to claim 1 , wherein the terminal-side editorial unit generates a moving image file based on the selected image piece and audio piece. 前記端末側編集部は、前記第1の時間範囲と、前記第2の時間範囲との各々の時間範囲を個別に編集できる分離編集を制御する、請求項に記載の携帯端末。 The mobile terminal according to claim 1 , wherein the terminal-side editing unit controls separate editing capable of individually editing each time range of the first time range and the second time range. 時間的に連続した複数の画像を含む第1の画像と、前記第1の画像に対応する第1の音声とが記録された記録部と、
前記第1の画像を時間分割するとともに第1の時間情報を添付してそれぞれが単独で再生できる画像である複数の画像片を生成し、前記第1の音声を時間分割するとともに第2の時間情報を添付してそれぞれが単独で再生できる音声である複数の音声片を生成する分割部と、
前記画像片と前記音声片とを外部に送信させる機器側通信制御部と
を備える、動画編集のためのキャプチャ機器。
A recording unit in which a first image including a plurality of temporally continuous images and a first sound corresponding to the first image are recorded.
The first image is time-divided and the first time information is attached to generate a plurality of image pieces which are images that can be reproduced independently, and the first sound is time-divided and the second time. A split unit that generates multiple audio pieces that are audio that can be played independently by attaching information.
A capture device for video editing, comprising a device-side communication control unit for transmitting the image piece and the audio piece to the outside.
対象を撮像して画像を出力する撮像部と、
前記対象の音声を収音して音声を出力する収音部と、
前記撮像部の出力する画像及び前記収音部の出力する音声に基づいて、前記第1の画像及び前記第1の音声を前記記録部に記録する記録制御部と
をさらに備える、請求項に記載のキャプチャ機器。
An image pickup unit that captures an image of an object and outputs an image,
A sound collecting unit that collects the target sound and outputs the sound,
The seventh aspect of the present invention further comprises a recording control unit that records the first image and the first sound in the recording unit based on the image output by the imaging unit and the sound output by the sound collecting unit. The capture device described.
前記第1の画像の時間範囲の中から第3の時間範囲を指定し、前記第1の音声の時間範囲の中から第4の時間範囲を指定するための機器側操作部をさらに備え、
前記機器側通信制御部は、前記第3の時間範囲に含まれる前記画像片と、前記第4の時間範囲に含まれる前記音声片とを外部に送信させる、請求項に記載のキャプチャ機器。
A device-side operation unit for designating a third time range from the time range of the first image and designating a fourth time range from the time range of the first sound is further provided.
The capture device according to claim 7 , wherein the device-side communication control unit transmits the image piece included in the third time range and the voice piece included in the fourth time range to the outside.
前記第1の画像の時間範囲の中から前記第3の時間範囲を指定するための画像範囲選択バーと、前記第1の音声の時間範囲の中から前記第4の時間範囲を指定するための音声範囲選択バーとを表示させる表示情報を生成する機器側表示制御部をさらに備える、請求項に記載のキャプチャ機器。 An image range selection bar for designating the third time range from the time range of the first image, and a fourth time range for designating the fourth time range from the time range of the first sound. The capture device according to claim 9 , further comprising a device-side display control unit that generates display information for displaying an audio range selection bar. 請求項乃至のうち何れか1項に記載の携帯端末と、
請求項乃至10のうち何れか1項に記載のキャプチャ機器と、
を備える、情報処理システム。
The mobile terminal according to any one of claims 1 to 6 and the mobile terminal.
The capture device according to any one of claims 7 to 10 .
An information processing system equipped with.
時間的に連続した複数の画像を含む第1の画像が時間分割されて、それぞれが第1の時間情報を有して単独で再生できる画像として生成された複数の画像片と、前記第1の画像に対応する第1の音声が時間分割されて、それぞれが第2の時間情報を有して単独で再生できる音声として生成された複数の音声片とを通信により取得することと、
前記第1の画像の時間範囲の中から第1の時間範囲をユーザ操作に応じて指定することと、
受信された複数の前記画像片の中から前記第1の時間範囲に含まれる前記画像片を選択することと、
前記第1の音声の時間範囲の中から第2の時間範囲をユーザ操作に応じて指定することと、
受信された複数の前記音声片の中から前記第2の時間範囲に含まれる前記音声片を選択することと
を含む、動画編集のための情報処理方法。
A plurality of image pieces including a plurality of images consecutive in time are time-divided, each of which has the first time information and is generated as an image that can be reproduced independently, and the first image. The first sound corresponding to the image is time-divided, and a plurality of sound pieces generated as voices, each of which has a second time information and can be played independently, are acquired by communication.
Specifying the first time range from the time range of the first image according to the user operation, and
To select the image piece included in the first time range from the plurality of received image pieces, and to select the image piece.
Specifying the second time range from the first voice time range according to the user operation, and
An information processing method for video editing, which comprises selecting the audio piece included in the second time range from a plurality of received audio pieces.
前記第1の画像の時間範囲の中から前記第1の時間範囲を指定するための画像範囲選択バーと、前記第1の音声の時間範囲の中から前記第2の時間範囲を指定するための音声範囲選択バーとを表示することをさらに含む、請求項12に記載の情報処理方法。 An image range selection bar for designating the first time range from the time range of the first image, and a second time range for designating the second time range from the time range of the first sound. The information processing method according to claim 12 , further comprising displaying an audio range selection bar. 選択した前記画像片と前記音声片とに基づいて、動画ファイルの生成を行うことをさらに含む、請求項12に記載の情報処理方法。 The information processing method according to claim 12 , further comprising generating a moving image file based on the selected image piece and the audio piece. 前記第1の時間範囲と、前記第2の時間範囲との各々の時間範囲は、個別に編集される、請求項12に記載の情報処理方法。 The information processing method according to claim 12 , wherein each time range of the first time range and the second time range is edited individually. 時間的に連続した複数の画像を含む第1の画像と、前記第1の画像に対応する第1の音声とが記録されているキャプチャ機器において、
前記第1の画像を時間分割して単独で再生できる複数の画像片を生成することと、
複数の前記画像片のそれぞれに第1の時間情報を添付することと、
前記第1の音声を時間分割して単独で再生できる複数の音声片を生成することと、
複数の前記音声片のそれぞれに第2の時間情報を添付することと、
前記画像片と前記音声片とを携帯端末へ送信することと
を含む、動画編集のための情報生成方法。
In a capture device in which a first image including a plurality of temporally continuous images and a first sound corresponding to the first image are recorded.
To generate a plurality of image pieces that can be reproduced independently by time-dividing the first image,
Attaching the first time information to each of the plurality of image pieces,
To generate a plurality of audio pieces that can independently reproduce the first audio by dividing the time,
Attaching a second time information to each of the plurality of audio pieces,
An information generation method for video editing, which comprises transmitting the image piece and the sound piece to a mobile terminal.
対象を撮像して前記第1の画像を生成することと、
前記対象の音声を収音して前記第1の音声を生成することと、
前記第1の画像及び前記第1の音声を記録することと
をさらに含む、請求項16に記載の情報生成方法。
To generate the first image by imaging the object,
Collecting the target voice to generate the first voice,
The information generation method according to claim 16 , further comprising recording the first image and the first sound.
時間的に連続した複数の画像を含む第1の画像が時間分割されて、それぞれが第1の時間情報を有して単独で再生できる画像として生成された複数の画像片と、前記第1の画像に対応する第1の音声が時間分割されて、それぞれが第2の時間情報を有して単独で再生できる音声として生成された複数の音声片とを通信により取得することと、
前記第1の画像の時間範囲の中から第1の時間範囲をユーザ操作に応じて指定することと、
受信された複数の前記画像片の中から前記第1の時間範囲に含まれる前記画像片を選択することと、
前記第1の音声の時間範囲の中から第2の時間範囲をユーザ操作に応じて指定することと、
受信された複数の前記音声片の中から前記第2の時間範囲に含まれる前記音声片を選択することと
をコンピュータに実行させる、動画編集のための情報処理プログラム。
A plurality of image pieces including a plurality of images consecutive in time are time-divided, each of which has the first time information and is generated as an image that can be reproduced independently, and the first image. The first sound corresponding to the image is time-divided, and a plurality of sound pieces generated as voices, each of which has a second time information and can be played independently, are acquired by communication.
Specifying the first time range from the time range of the first image according to the user operation, and
To select the image piece included in the first time range from the plurality of received image pieces, and to select the image piece.
Specifying the second time range from the first voice time range according to the user operation, and
An information processing program for video editing that causes a computer to select a voice piece included in the second time range from a plurality of received voice pieces.
前記第1の画像の時間範囲の中から前記第1の時間範囲を指定するための画像範囲選択バーと、前記第1の音声の時間範囲の中から前記第2の時間範囲を指定するための音声範囲選択バーとを表示することをさらにコンピュータに実行させる、請求項18に記載の情報処理プログラム。 An image range selection bar for designating the first time range from the time range of the first image, and a second time range for designating the second time range from the time range of the first sound. The information processing program according to claim 18 , further causing a computer to display a voice range selection bar. 選択した前記画像片と前記音声片とに基づいて、動画ファイルの生成を行うことをさらにコンピュータに実行させる、請求項18に記載の情報処理プログラム。 The information processing program according to claim 18 , further causing a computer to generate a moving image file based on the selected image piece and the sound piece. 前記第1の時間範囲と、前記第2の時間範囲との各々の時間範囲は、個別に編集される、請求項18に記載の情報処理プログラム。 The information processing program according to claim 18 , wherein each time range of the first time range and the second time range is edited individually.
JP2017234160A 2017-12-06 2017-12-06 Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program Active JP7051406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017234160A JP7051406B2 (en) 2017-12-06 2017-12-06 Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017234160A JP7051406B2 (en) 2017-12-06 2017-12-06 Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program

Publications (2)

Publication Number Publication Date
JP2019103059A JP2019103059A (en) 2019-06-24
JP7051406B2 true JP7051406B2 (en) 2022-04-11

Family

ID=66974298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234160A Active JP7051406B2 (en) 2017-12-06 2017-12-06 Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program

Country Status (1)

Country Link
JP (1) JP7051406B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112738623B (en) 2019-10-14 2022-11-01 北京字节跳动网络技术有限公司 Video file generation method, device, terminal and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278212A (en) 1996-11-15 2005-10-06 Hitachi Kokusai Electric Inc Image editing method and image editing system
JP2016119600A (en) 2014-12-22 2016-06-30 オリンパス株式会社 Editing device and editing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2558746B2 (en) * 1987-10-14 1996-11-27 松下電器産業株式会社 Data editing device
JPH053561A (en) * 1991-05-14 1993-01-08 Matsushita Electric Ind Co Ltd Sound and image output device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278212A (en) 1996-11-15 2005-10-06 Hitachi Kokusai Electric Inc Image editing method and image editing system
JP2016119600A (en) 2014-12-22 2016-06-30 オリンパス株式会社 Editing device and editing method

Also Published As

Publication number Publication date
JP2019103059A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP2013533669A (en) Video summary instruction metadata storage
JP2011071968A (en) Data structure of still image file, image file generating device, image reproducing unit, and electronic camera
JP5253725B2 (en) Mobile communication terminal with video shooting function and operation method thereof
US20170150237A1 (en) Image processing device, image processing method, and program
JP7051406B2 (en) Mobile terminal for video editing, capture device, information processing system, information processing method, information generation method and information processing program
JP4829839B2 (en) Mobile communication terminal
KR101285382B1 (en) A device having function editting of image and Method thereof
US9595292B2 (en) Image processing apparatus
CN109474782B (en) Interface device for data editing, data editing method, and recording medium
JP5392244B2 (en) Imaging apparatus, control method, and program
JP6463967B2 (en) Imaging apparatus and control method thereof
JP2019114847A (en) Image recording control apparatus, image recording method, image recording program, imaging apparatus, and image recording control system
JP2019140568A (en) Image processing system
JP6146162B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and image processing program
JP2013146025A (en) Imaging apparatus
JP2019140567A (en) Image processing system
JP2012253692A (en) Imaging apparatus, reproducer, data structure, control method of imaging apparatus and imaging apparatus program
KR102152438B1 (en) Apparatus and method for transmitting broadcasting contents
JP2016144137A (en) Imaging device, imaging method, and program
JP6424945B2 (en) Imaging device, imaging method, and imaging program
JP5625319B2 (en) Imaging device
KR100808198B1 (en) Broadcasting Terminal and Method for Recording Broadcasting Data thereof
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP6079907B2 (en) Image editing apparatus and editing program
JP2005348362A (en) Still picture extracting method, still picture extracting apparatus and moving image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R151 Written notification of patent or utility model registration

Ref document number: 7051406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151