JP2019096950A - Imaging apparatus, imaging method and imaging program - Google Patents

Imaging apparatus, imaging method and imaging program Download PDF

Info

Publication number
JP2019096950A
JP2019096950A JP2017222768A JP2017222768A JP2019096950A JP 2019096950 A JP2019096950 A JP 2019096950A JP 2017222768 A JP2017222768 A JP 2017222768A JP 2017222768 A JP2017222768 A JP 2017222768A JP 2019096950 A JP2019096950 A JP 2019096950A
Authority
JP
Japan
Prior art keywords
moving image
imaging
display
control unit
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017222768A
Other languages
Japanese (ja)
Other versions
JP6952584B2 (en
JP2019096950A5 (en
Inventor
千紘 山崎
Chihiro Yamazaki
千紘 山崎
美香子 堀
Mikako Hori
美香子 堀
裕好 秋山
Hiroyoshi Akiyama
裕好 秋山
宏和 吉津
Hirokazu Yoshizu
宏和 吉津
貴文 熊野
Takafumi Kumano
貴文 熊野
優也 松木
Yuya Matsuki
優也 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017222768A priority Critical patent/JP6952584B2/en
Publication of JP2019096950A publication Critical patent/JP2019096950A/en
Publication of JP2019096950A5 publication Critical patent/JP2019096950A5/ja
Application granted granted Critical
Publication of JP6952584B2 publication Critical patent/JP6952584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an imaging apparatus, an imaging method and an imaging program capable of inserting a desired moving image into a recorded moving image by simple work.SOLUTION: An imaging apparatus 10 includes a reproduction control section for reproducing the moving image data, including image information and speech information, as pre-edition moving image data, an imaging section 21 for capturing the moving image of a subject, a presentation unit for outputting at least one of the moving image and speech that can be outputted by reproduction of the pre-edition moving image data, and an edition control section 16 for executing additional shooting mode for making the imaging section capture the moving image as an insertion moving image, during reproduction of the pre-edition moving image data.SELECTED DRAWING: Figure 1

Description

本発明は、映像合成編集が可能な撮像装置、撮像方法及び撮像プログラムに関する。   The present invention relates to an imaging device, an imaging method, and an imaging program capable of video composition and editing.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)は、静止画のみならず、動画撮影機能を有するものが多い。動画撮影を行った得た動画は、鑑賞上、無駄な部分や変化の乏しい部分が比較的多く、変化が少なく見栄えが良くない場合がある。そこで、動画撮影を複数回を行い、複数の動画像を編集することで鑑賞、観察に適した動画を作成する映像編集が行われることがある。   2. Description of the Related Art In recent years, mobile devices (shooting devices) with a shooting function such as digital cameras often have a moving image shooting function as well as still images. A moving image obtained by moving image shooting may have a relatively large number of useless portions or portions with a low degree of change, and may not look good due to a small number of changes. Therefore, there are cases where video editing is performed to create moving images suitable for viewing and observation by performing moving image shooting a plurality of times and editing a plurality of moving images.

このような動画像の映像編集装置においては、撮像装置によって撮影して得た複数の動画像を記録メディアや通信回線等を介して取り込んで編集作業を行う必要があり、比較的煩雑な作業を必要とする。そこで、特許文献1においては、先に撮影した映像に後から音声を合成するアフターレコーディング機能を有するビデオカメラが提案されている。この提案のビデオカメラにおいては、撮影した画像データの再生中に操作部の第2音声録音ボタンが押されると、再生中に取得した音声データを再生中の画像データに対応する音声記録部分に第2音声として記録するようになっている。   In such a moving image video editing apparatus, it is necessary to read in a plurality of moving images obtained by photographing with an imaging device via a recording medium, a communication line, etc. I need. Therefore, in Patent Document 1, there is proposed a video camera having an after-recording function of combining an audio with an image captured earlier. In the video camera of this proposal, when the second voice recording button of the operation unit is pressed during playback of the shot image data, the voice recording portion corresponding to the image data being played back is acquired in the voice recording portion. It is designed to record as 2 voices.

特開2004−72306号公報JP 2004-72306 A

しかしながら、特許文献1の装置においては、先に撮影して得た映像に音声を追加するアフターレコーディングは可能であるが、先に撮影して得た映像に後から追加した映像を挿入することはできない。特に、単に挿入するだけでなく、先に撮影した得た映像の所望の位置(タイミング)に後から撮影して得た映像を合成する作業を簡単に行う撮像装置は開発されていない。   However, in the device of Patent Document 1, after-recording is possible in which audio is added to the video taken and obtained first, but inserting the video added later in the video taken and obtained first is Can not. In particular, there has not been developed an image pickup apparatus which simply performs an operation of combining images obtained by shooting later on a desired position (timing) of the images obtained earlier than simply inserting the image.

本発明は、簡単な作業によって記録済みの動画像に所望の動画像を挿入することができる撮像装置、撮像方法及び撮像プログラムを提供することを目的とする。   An object of the present invention is to provide an imaging device, an imaging method and an imaging program capable of inserting a desired moving image into a recorded moving image by a simple operation.

本発明の一態様による撮像装置は、画像情報及び音声情報を含む動画データを編集前動画データとして再生する再生制御部と、被写体の動画像を撮像する撮像部と、前記編集前動画データの再生によって出力可能な動画像及び音声のうちの少なくとも一方を出力する提示部と、前記編集前動画データの再生時に前記撮像部に前記動画像を挿入動画として撮像させる追加撮影モードを実行する編集制御部とを具備する。   An imaging apparatus according to an aspect of the present invention includes a reproduction control unit that reproduces moving image data including image information and audio information as moving image data before editing, an imaging unit that captures a moving image of a subject, and reproduction of the moving image data before editing A presentation unit that outputs at least one of a moving image and a sound that can be output according to an editing control unit that executes an additional imaging mode that causes the imaging unit to capture the moving image as an insertion moving image And

また、本発明の一態様による撮像方法は、画像情報及び音声情報を含む動画データを編集前動画データとして再生する再生制御ステップと、前記編集前動画データの再生によって出力可能な動画像及び音声のうちの少なくとも一方を出力する提示ステップと、前記編集前動画データの再生時に撮像部に被写体の動画像を挿入動画として撮像させる追加撮影モードを実行する編集制御ステップとを具備する。   In the imaging method according to one aspect of the present invention, a reproduction control step of reproducing moving image data including image information and audio information as unedited moving image data, and moving image and audio that can be output by reproducing the unedited moving image data. The method further comprises a presenting step of outputting at least one of the steps, and an editing control step of executing an additional imaging mode of causing the imaging unit to capture a moving image of the subject as the moving image upon reproduction of the unedited moving image data.

また、本発明の一態様による撮像プログラムは、コンピュータに、画像情報及び音声情報を含む動画データを編集前動画データとして再生する再生制御ステップと、前記編集前動画データの再生によって出力可能な動画像及び音声のうちの少なくとも一方を出力する提示ステップと、前記編集前動画データの再生時に撮像部に被写体の動画像を挿入動画として撮像させる追加撮影モードを実行する編集制御ステップとを実行させる。   The imaging program according to one aspect of the present invention may include a reproduction control step of reproducing moving image data including image information and audio information as unedited moving image data on a computer, and moving image that can be output by reproducing the unedited moving image data. And an editing control step of executing an additional imaging mode of causing the imaging unit to capture a moving image of a subject as an inserted moving image at the time of reproduction of the unedited moving image data.

本発明によれば、簡単な作業によって記録済みの動画像に所望の動画像を挿入することができるという効果を有する。   According to the present invention, it is possible to insert a desired moving image into a recorded moving image by a simple operation.

本発明の第1の実施の形態に係る撮像装置の回路構成を示すブロック図。FIG. 1 is a block diagram showing a circuit configuration of an imaging device according to a first embodiment of the present invention. 図1の撮像装置の外観の一例を示す説明図。Explanatory drawing which shows an example of the external appearance of the imaging device of FIG. 図1の撮像装置の外観の一例を示す説明図。Explanatory drawing which shows an example of the external appearance of the imaging device of FIG. 第1の実施の形態の動作を説明するためのフローチャート。6 is a flowchart for explaining the operation of the first embodiment. 追加撮影モードにおける撮影の様子を説明するための説明図。Explanatory drawing for demonstrating the mode of imaging | photography in additional imaging | photography mode. 追加撮影モードにおける画面表示の表示例を示す説明図。Explanatory drawing which shows the example of a display of the screen display in additional photographing mode. 追加撮影モードにおける画面表示の表示例を示す説明図。Explanatory drawing which shows the example of a display of the screen display in additional photographing mode. 追加撮影モードにおける画面表示の表示例を示す説明図。Explanatory drawing which shows the example of a display of the screen display in additional photographing mode. 本発明の第2の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 2nd Embodiment of this invention. 画面表示を説明するための説明図。Explanatory drawing for demonstrating a screen display. 画面表示を説明するための説明図。Explanatory drawing for demonstrating a screen display. 画面表示を説明するための説明図。Explanatory drawing for demonstrating a screen display. 画面表示を説明するための説明図。Explanatory drawing for demonstrating a screen display. 複数回の挿入動画の撮影及び挿入動画の撮り直しにおける再生及び録画位置を説明するための説明図。Explanatory drawing for demonstrating the reproduction | regeneration in the imaging | photography of insertion video of multiple times, and re-shooting of insertion video. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process. 編集処理を説明するための説明図。Explanatory drawing for demonstrating an edit process.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮像装置の回路構成を示すブロック図である。また、図2A及び図2Bは図1の撮像装置の外観の一例を示す説明図である。
First Embodiment
FIG. 1 is a block diagram showing a circuit configuration of an imaging device according to a first embodiment of the present invention. FIGS. 2A and 2B are explanatory diagrams showing an example of the appearance of the imaging device of FIG.

本実施の形態の撮像装置は、記録済み動画データの再生時に、追加の動画撮影を可能にして、記録済み動画データ(以下、編集前動画データという)と追加撮影して得た動画(以下、挿入動画という)を含む動画データ(以下、挿入動画データという)とを映像合成編集するものである。   The imaging apparatus according to the present embodiment enables additional moving image shooting at the time of reproduction of recorded moving image data, and records the recorded moving image data (hereinafter referred to as pre-edit moving image data) and the moving image obtained by additional shooting (hereinafter, The video data (hereinafter referred to as insertion moving image data) including the insertion moving image) is subjected to video synthesis and editing.

この場合において、動画データ再生時の再生画像及び再生音声のうち少なくとも一方をユーザが確認しながら挿入動画の撮影を行うことで、編集前動画データ中のユーザが希望する部分の動画を所望の挿入動画に置き換えた動画データ(以下、編集後動画データという)を簡単に得ることが可能である。このように、編集後動画データに基づく画像(以下、編集後動画という)には所望の挿入動画が挿入されており、編集前動画データに基づく動画(以下、編集前動画)が単調な動画であったとしても、面白味のある編集後動画データを簡単に取得することができる。   In this case, the user can capture at least one of the reproduced image and the reproduced sound at the time of reproducing the moving image while shooting the inserted moving image, thereby inserting the desired moving image of the portion desired by the user in the unedited moving image data. It is possible to easily obtain moving image data replaced with moving images (hereinafter referred to as edited video data). As described above, a desired insertion moving image is inserted in an image based on the edited moving image data (hereinafter referred to as an edited moving image), and the moving image based on the unedited moving image data (hereinafter referred to as an unedited moving image) is a monotonous moving image. Even if it is, it is possible to easily acquire interesting edited post-edit video data.

図1において、撮像装置10は、例えばデジタルカメラ等によって構成することができる。撮像装置10には制御部11が設けられている。制御部11は、CPU等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で一部を置き換えてもよい。   In FIG. 1, the imaging device 10 can be configured by, for example, a digital camera or the like. The imaging device 10 is provided with a control unit 11. The control unit 11 may be configured by a processor using a CPU or the like, operate according to a program stored in a memory (not shown) to control each unit, or replace a part with an electronic circuit of hardware May be

撮像装置10は、CCDやCMOSセンサ等の撮像素子23を備えた撮像部21を有している。撮像部21は、光学系22を介して入射した光学像を撮像素子23によって光電変換することで、撮像信号(撮像画像)を取得する。なお、撮像素子23としては、像面位相差法においてデフォーカス量を求めるためのフォーカス制御用の画素を有するものであってもよい。   The imaging device 10 includes an imaging unit 21 provided with an imaging element 23 such as a CCD or a CMOS sensor. The imaging unit 21 obtains an imaging signal (captured image) by subjecting an optical image incident through the optical system 22 to photoelectric conversion by the imaging device 23. The imaging device 23 may have a pixel for focus control for obtaining the defocus amount in the image plane phase difference method.

光学系22は、ズームやフォーカシングのための図示しないレンズ等を備えている。光学系22は、これらのレンズを駆動する図示しないズーム(変倍)機構、ピント及び絞り機構を備えており、それぞれ変倍制御部24、ピント制御部25及び絞り制御部26によって駆動制御されるようになっている。なお、光学系22のレンズとしては、撮像部21に取り付けられた固定のレンズであってもよく、また、交換式のレンズであってもよい。   The optical system 22 includes a lens (not shown) for zooming and focusing. The optical system 22 includes a zoom (magnification) mechanism (not shown) for driving these lenses, and a focus and aperture mechanism, and is driven and controlled by the magnification change control unit 24, the focus control unit 25 and the aperture control unit 26. It is supposed to be. The lens of the optical system 22 may be a fixed lens attached to the imaging unit 21 or may be an interchangeable lens.

制御部11は、変倍制御部24、絞り制御部26及びピント制御部25を制御して、光学系22のズーム、絞り及びピントを調節することができるようになっている。撮像部21は、制御部11に制御されて撮像を行い、撮像画像(動画像及び静止画像)の撮像信号を制御部11に出力する。また、撮像装置10にはマイクロホン27が設けられている。マイクロホン27は、撮像装置10の周囲の音声を収音して、音声信号を制御部11に供給するようになっている。   The control unit 11 can adjust the zoom, the aperture, and the focus of the optical system 22 by controlling the magnification change control unit 24, the aperture control unit 26, and the focus control unit 25. The imaging unit 21 is controlled by the control unit 11 to perform imaging, and outputs an imaging signal of a captured image (moving image and still image) to the control unit 11. Further, the imaging device 10 is provided with a microphone 27. The microphone 27 picks up the sound around the imaging device 10 and supplies an audio signal to the control unit 11.

撮像装置10には操作部35が設けられている。操作部35は、図示しないレリーズボタン、ファンクションボタン、撮影モード設定、パラメータ操作等の各種スイッチ、ダイヤル、リング部材等を含み、ユーザ操作に基づく操作信号を制御部11に出力する。制御部11は、操作部35からの操作信号に基づいて、撮像部21を含む各部を制御するようになっている。   The imaging device 10 is provided with an operation unit 35. The operation unit 35 includes a release button (not shown), a function button, various switches for photographing mode setting, parameter operation, etc., a dial, a ring member and the like, and outputs an operation signal based on a user operation to the control unit 11. The control unit 11 is configured to control each unit including the imaging unit 21 based on an operation signal from the operation unit 35.

また、後述する表示部31の表示画面上には、タッチパネル32が設けられている。タッチパネル32は、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。この操作信号は、制御部11に供給される。これにより、制御部11は、ユーザがタッチした表示画面上の位置やユーザが表示画面上を指でスライドさせるスライド操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。   Further, a touch panel 32 is provided on a display screen of the display unit 31 described later. The touch panel 32 can generate an operation signal according to the position on the display screen pointed by the user with a finger. The operation signal is supplied to the control unit 11. Thereby, the control unit 11 can detect the position on the display screen touched by the user and the slide operation in which the user slides the display screen with the finger, and can execute processing corresponding to the user operation. It has become.

制御部11は、撮像部21に撮像素子の駆動信号を出力すると共に、撮像部21からの撮像画像(動画像及び静止画像)を取込む。制御部11の画像処理部12は、取込んだ撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。なお、制御部11は、マイクロホン27からの音声信号に対しても所定の音声信号処理を行う。   The control unit 11 outputs a drive signal of the imaging element to the imaging unit 21 and takes in a captured image (moving image and still image) from the imaging unit 21. The image processing unit 12 of the control unit 11 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the captured image that has been captured. The control unit 11 also performs predetermined audio signal processing on the audio signal from the microphone 27.

制御部11には記録再生制御部14が設けられている。記録再生制御部14は、信号処理後の撮像画像及び音声を圧縮処理し、圧縮後の画像及び音声を記録部38に与えて記録させることができる。記録部38は、所定の記録媒体によって構成されて、制御部11から与えられた情報を記録すると共に、記録されている情報を読み出して制御部11に出力することができる。記録部38としては、例えばカードインターフェースを採用することができ、記録部38はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。また、記録再生制御部14は、記録部38に記録されている情報を読み出して利用させることができる。即ち、記録再生制御部14は、記録部38に記録されている動画データを再生して、再生動画や再生音声を出力する提示部として機能する。   The control unit 11 is provided with a recording and reproduction control unit 14. The recording and reproduction control unit 14 can perform compression processing on the captured image and sound after signal processing, and can provide the recording unit 38 with the compressed image and sound to be recorded. The recording unit 38 is configured by a predetermined recording medium, and can record the information given from the control unit 11 and read out the recorded information and output it to the control unit 11. For example, a card interface can be employed as the recording unit 38, and the recording unit 38 can record image information, audio information, and the like on a recording medium such as a memory card. Further, the recording and reproduction control unit 14 can read out and use information recorded in the recording unit 38. That is, the recording and reproduction control unit 14 functions as a presentation unit that reproduces the moving image data recorded in the recording unit 38 and outputs the reproduced moving image and the reproduced sound.

なお、記録再生制御部14は、記録部38に記録する画像及び音声を関連付けて記録することができるようになっており、撮像部21によって取得された撮像画像及びマイクロホン27によって取得された音声は、相互に同一の時間基準を用いて録画時間と収音時間とが管理された動画データとして記録されるようになっている。なお、記録再生制御部14は、動画像のみを含む動画データを記録することもできるようになっている。   The recording and reproduction control unit 14 can associate and record the image and the sound to be recorded in the recording unit 38, and the captured image acquired by the imaging unit 21 and the sound acquired by the microphone 27 are The recording time and the sound collection time are recorded as moving image data managed using the same time reference. The recording and reproduction control unit 14 can also record moving image data including only moving images.

以後説明の簡略化のために、編集前動画データには同一の時間基準を用いて記録された動画像と音声とが含まれるものとして説明する。従って、編集前動画データの再生時には、動画像とこの動画像取得時の音声とが再生されて、表示及び音声出力を行うことが可能である。   Hereinafter, for simplification of the description, it is assumed that moving image data before editing includes moving images and sounds recorded using the same time reference. Therefore, at the time of reproduction of the moving image data before editing, it is possible to reproduce the moving image and the sound at the time of acquisition of the moving image, and to perform display and audio output.

また、制御部11には、表示制御部13が設けられている。表示制御部13は、撮像部21からの撮像画像や記録再生制御部14からの再生画像が与えられて、これらの画像表示を表示部31に対して行うことができる。また、表示制御部13は、撮像装置10の操作を行うためのメニュー表示等を表示部31に表示させることもできるようになっている。また、制御部11は、マイクロホン27によって取得した音声や記録再生制御部14からの再生音声をスピーカ33に与えて音響出力することもできるようになっている。   Further, the control unit 11 is provided with a display control unit 13. The display control unit 13 can receive the captured image from the imaging unit 21 and the reproduction image from the recording and reproduction control unit 14, and can display these images on the display unit 31. The display control unit 13 can also display a menu display or the like for operating the imaging device 10 on the display unit 31. In addition, the control unit 11 can also output the sound acquired by the microphone 27 and the reproduction sound from the recording and reproduction control unit 14 to the speaker 33 for acoustic output.

撮像装置10には通信部37が設けられている。通信部37は、制御部11に制御されて、図示しない外部機器との間で情報を送受することができるようになっている。通信部37は、例えば、ブルートゥース(登録商標)等の近距離無線による通信及び例えば、Wi−Fi(登録商標)等の無線LANによる通信が可能である。なお、通信部37は、ブルートゥース(登録商標)やWi−Fiに限らず、各種通信方式での通信を採用することが可能である。通信部37は、撮像部21によって取得された動画データを送信することができる。   A communication unit 37 is provided in the imaging device 10. The communication unit 37 is controlled by the control unit 11, and can exchange information with an external device (not shown). The communication unit 37 can perform, for example, near field communication such as Bluetooth (registered trademark) communication and wireless LAN such as Wi-Fi (registered trademark) communication. The communication unit 37 is not limited to Bluetooth (registered trademark) and Wi-Fi, and may adopt communication in various communication methods. The communication unit 37 can transmit the moving image data acquired by the imaging unit 21.

また、撮像装置10は時計部36を有している。時計部36は、時刻情報を発生して制御部11に供給することができる。制御部11は、この時刻情報を用いて、動画像同士、動画像と音声との時間情報を管理することができる。   The imaging device 10 further includes a clock unit 36. The clock unit 36 can generate time information and supply it to the control unit 11. The control unit 11 can manage time information of moving images, moving images, and voice using the time information.

表示部31は、例えば撮像装置10の筐体背面に設けられており、LCD(液晶表示装置)等の表示面を有している。   The display unit 31 is provided, for example, on the rear surface of the housing of the imaging device 10, and has a display surface such as an LCD (Liquid Crystal Display Device).

図2A及び図2Bは撮像装置10の外観を背面側から見て示すものである。筐体10aには図1の各回路部が収納される。筐体10aには背面に可動部34が取り付けられ、可動部34に表示部31が取り付けられている。可動部34は、図示しない回動部材等により表示部31の表示画面31aの向きを所定の向きに変更することができるようになっている。図2Aは表示画面31aが撮像装置10の背面側に向いている状態(以下、非反転状態という)を示しており、図2Bは表示画面31aが撮像装置10の正面側に向いている状態(以下、反転状態という)を示している。なお、図2A及び図2Bにおいては、操作部35としてボタン35a及びカーソルキー35bが設けられている例を示している。   2A and 2B show the appearance of the imaging device 10 as viewed from the rear side. Each circuit unit of FIG. 1 is accommodated in the case 10a. The movable portion 34 is attached to the rear surface of the housing 10 a, and the display portion 31 is attached to the movable portion 34. The movable portion 34 can change the orientation of the display screen 31 a of the display portion 31 to a predetermined orientation by a pivoting member or the like (not shown). FIG. 2A shows a state in which the display screen 31a faces the back side of the imaging device 10 (hereinafter referred to as a non-inverted state), and FIG. 2B shows a state in which the display screen 31a faces the front side of the imaging device 10 ( Hereinafter, it is referred to as a reverse state). 2A and 2B show an example in which a button 35a and a cursor key 35b are provided as the operation unit 35.

可動部34は、例えば、バリアングル(variable angle)式やチルト(tilt)式によって構成してもよい。本実施の形態においては、制御部11は、図示しないセンサ等により可動部34の状態を把握することができるようになっている。例えば、制御部11は、可動部34が反転状態にあるか非反転状態にあるかを把握することができるようになっている。なお、制御部11は可動部34の非反転状態を基準として、可動部34が筐体10aに対して所定の角度以上傾斜したことを傾斜状態として認識してもよく、また、筐体10aと可動部34との距離が所定の距離以上離間したことを離間状態として認識するようになっていてもよい。以後の説明において、制御部11は、反転状態、非反転状態の判定に代えて、傾斜状態や離間状態の判定を行うようになっていてもよい。   The movable portion 34 may be configured by, for example, a variable angle type or a tilt type. In the present embodiment, the control unit 11 can grasp the state of the movable unit 34 by a sensor or the like (not shown). For example, the control unit 11 can grasp whether the movable unit 34 is in the reverse state or in the non-reverse state. The control unit 11 may recognize that the movable portion 34 is inclined with respect to the housing 10a by a predetermined angle or more based on the non-inverted state of the movable portion 34 as the inclined state, and the housing 10a and the housing 10a. It may be recognized in the separated state that the distance from the movable portion 34 is separated by a predetermined distance or more. In the following description, the control unit 11 may determine the inclined state or the separated state instead of the determination of the inverted state or the non-inverted state.

本実施の形態においては、制御部11には、編集制御部16が設けられている。編集制御部16は、記録済み動画データの再生時に追加の動画撮影を可能にするモード(以下、追加撮影モードという)の制御を行う。即ち、編集制御部16は、再生モードから追加撮影モードへの移行制御、追加撮影モードにおける挿入動画の撮影制御、編集前動画に挿入動画を挿入するタイミングの制御、編集前動画と挿入動画との合成制御等を行うようになっている。   In the present embodiment, the control unit 11 is provided with an editing control unit 16. The editing control unit 16 controls a mode (hereinafter referred to as an additional shooting mode) that enables additional moving image shooting when playing back recorded moving image data. That is, the editing control unit 16 controls transition from the playback mode to the additional shooting mode, shooting control of the inserted moving image in the additional shooting mode, control of the timing of inserting the inserted moving image into the unedited moving image, and the unedited moving image and the inserted moving image. It is designed to perform composition control and the like.

次にこのように構成された実施の形態の動作について図3から図7を参照して説明する。図3は第1の実施の形態の動作を説明するためのフローチャートである。図4は追加撮影モードにおける撮影の様子を説明するための説明図である。図5から図7は追加撮影モードにおける画面表示の表示例を示す説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIG. 3 to FIG. FIG. 3 is a flowchart for explaining the operation of the first embodiment. FIG. 4 is an explanatory view for explaining the state of shooting in the additional shooting mode. 5 to 7 are explanatory diagrams showing display examples of the screen display in the additional imaging mode.

追加撮影モードは、撮像装置10により或いは他の撮影機器により撮影されて取得された動画像を再生した状態で撮影可能なモードであり、ユーザは、再生した動画像を視聴しながら、挿入動画の撮影操作を行う。図4はこの場合の撮影の様子を示している。図4の例は、撮像装置10の筐体10aの正面側をユーザ50の方に向けた状態で、三脚47により撮像装置10を支持した状態を示している。撮像装置10は筐体10aの正面側に光学系22のレンズを収納した鏡筒22aが設けられており、筐体10aの上面には操作部35を構成するシャッタボタン35cが配設されている。筐体10aに取り付けられた可動部34は、表示部31の表示画面31aが筐体10aの正面側に向く状態(反転状態)となっている。従って、図4は、所謂自分撮り撮影が可能な状態を示している。なお、追加撮影モードは自分撮り撮影が可能な可動部34の反転状態に限らず、可動部34が非反転状態であっても設定可能である。   The additional shooting mode is a mode capable of shooting in a state where a moving image captured and acquired by the imaging device 10 or another imaging device is reproduced, and the user can view an inserted moving image while viewing the reproduced moving image. Perform shooting operation. FIG. 4 shows the state of shooting in this case. The example of FIG. 4 shows a state in which the imaging device 10 is supported by the tripod 47 in a state in which the front side of the housing 10 a of the imaging device 10 is directed to the user 50. The imaging apparatus 10 is provided with a lens barrel 22a containing the lens of the optical system 22 on the front side of the housing 10a, and a shutter button 35c constituting the operation unit 35 is provided on the top surface of the housing 10a. . The movable portion 34 attached to the housing 10 a is in a state (reversed state) in which the display screen 31 a of the display unit 31 faces the front side of the housing 10 a. Therefore, FIG. 4 shows a state in which so-called self-shooting can be performed. The additional photographing mode is not limited to the reverse state of the movable portion 34 capable of self-shooting, and can be set even if the movable portion 34 is in the non-reverse state.

図4の例では、表示部31の表示画面31a上には、上方に編集前動画の再生画面41が表示され、再生画面41の下方には再生時間を示すプログレスバー43が表示され、表示画面31a上の下方にはスルー画42が表示されている状態を示している。また、表示画面31a上には、撮影の開始を指示するための「開始」ボタン44も表示されている。   In the example of FIG. 4, the reproduction screen 41 of the unedited moving image is displayed on the upper side on the display screen 31a of the display unit 31, and the progress bar 43 indicating the reproduction time is displayed on the lower side of the reproduction screen 41. A state in which the through image 42 is displayed below the upper portion 31a is shown. Further, on the display screen 31 a, a “start” button 44 for instructing start of photographing is also displayed.

図4は例えば演奏会等において行われたアンサンブルのメンバーの一人であるユーザ50が、当該演奏会を撮影して得られた動画像に、自分をクローズアップした動画像を撮影して挿入動画として挿入することを想定したものである。演奏会における撮像時には、必ずしもユーザ50が目立つように撮影が行われる訳ではなく、ユーザ50が満足する動画像が得られているとは限らない。ユーザ50は、動画像を再生して自分が満足する動画像を得るために、編集前動画の一部に例えば置き換える挿入動画を撮影する。即ち、ユーザ50は、追加撮影モードにおいて、編集前動画の再生画像及び再生音声の少なくとも一方を確認することで、編集前動画に同期させた演奏を行う。そして、後述する編集処理によって、例えば、編集前動画の一部を挿入動画に置き換える。なお、この場合には音声は挿入されず、挿入動画の挿入部分においても、編集前動画データの音声が用いられた編集後動画データが作成される。   For example, in FIG. 4, a user 50 who is one of the members of an ensemble performed in a concert etc. takes a moving image obtained by taking a close-up of the moving image obtained by shooting the concert and inserts it as an inserted moving image It is assumed to be inserted. At the time of imaging in a concert, imaging is not necessarily performed so that the user 50 stands out, and a moving image satisfying the user 50 is not necessarily obtained. The user 50 shoots, for example, an inserted moving image to be replaced with a part of the unedited moving image, in order to reproduce the moving image and obtain a moving image that satisfies the user. That is, the user 50 performs a performance synchronized with the unedited moving image by confirming at least one of the reproduced image of the unedited moving image and the reproduced sound in the additional shooting mode. Then, for example, a part of the unedited moving image is replaced with the insertion moving image by an editing process described later. In this case, the voice is not inserted, and the edited video data in which the voice of the video data before editing is used is created even in the insertion portion of the inserted video.

図3から図7を参照して追加撮影モードの動作を詳細に説明する。これらの各図において、アフレコモードは、追加撮影モードを意味する。なお、図3においては、後述するように、ステップS2〜S4は、通常録画モードと追加撮影モードとの選択処理を示し、ステップS10〜S22は追加撮影モードの処理を示している。   The operation of the additional imaging mode will be described in detail with reference to FIGS. 3 to 7. In each of these figures, the after recording mode means an additional photographing mode. In FIG. 3, as described later, steps S2 to S4 indicate selection processing of the normal recording mode and the additional photographing mode, and steps S10 to S22 indicate processing of the additional photographing mode.

ユーザ50は、撮像装置10の操作部35を操作して、通常の録画モードか又は追加撮影モードを指定する。本実施の形態においては、制御部11は、追加撮影モードへの移行は、表示画面(パネル)31aが反転状態になった場合に行う。   The user 50 operates the operation unit 35 of the imaging device 10 to specify the normal recording mode or the additional imaging mode. In the present embodiment, the control unit 11 performs transition to the additional imaging mode when the display screen (panel) 31 a is in the reverse state.

制御部11は、図3のステップS1において、表示部31の表示画面(パネル)31aが反転状態になったことを検出すると、ステップS2において、通常の録画モードが指定されているか追加撮影モード(アフレコモード)が指定されているかを判定する。制御部11は、通常の録画モードが指定されている場合には、ステップS4に処理を移行してスルー画表示を行った後ステップS8に進む。いま、追加撮影モードが指定されているものとする。この場合には、制御部11の表示制御部13は、ステップS1でパネル反転を検出すると、ステップS3において追加撮影モード表示を行う。   When the control unit 11 detects that the display screen (panel) 31a of the display unit 31 is in the reverse state in step S1 of FIG. 3, the normal recording mode is designated or the additional photographing mode (step S2). Determine whether the post-recording mode is specified. When the normal recording mode is designated, the control unit 11 shifts the process to step S4 to perform through image display, and then proceeds to step S8. Now, it is assumed that the additional photographing mode is designated. In this case, when the display control unit 13 of the control unit 11 detects panel inversion in step S1, the display control unit 13 performs additional photographing mode display in step S3.

図5はこの追加撮影モード表示の一例を示している。表示制御部13は、図5の追加撮影モード表示を行う。図5では、表示画面31aの中央に機能を選択するための選択表示60が設けられる。選択表示60中には、再生を指示する再生ボタン60a、録画を指示する録画ボタン60b及び編集を指示する編集ボタン60cが表示されている。なお、図5は斜線によって再生ボタン60aが選択されていることを示している。また、表示画面31a上の上方に編集前動画の再生画面の表示領域61aが設けられ、下方にスルー画の表示領域62aが設けられる。また、表示画面31aの下端には、再生時間軸を示すプログレスバー64が表示されており、プログレスバー64上の丸印64aは、現在の再生時間を示している。   FIG. 5 shows an example of this additional imaging mode display. The display control unit 13 performs the additional shooting mode display of FIG. 5. In FIG. 5, a selection display 60 for selecting a function is provided at the center of the display screen 31a. In the selection display 60, a reproduction button 60a for instructing reproduction, a recording button 60b for instructing recording, and an editing button 60c for instructing editing are displayed. FIG. 5 shows that the play button 60a is selected by hatching. Further, a display area 61a of the reproduction screen of the unedited moving image is provided above the display screen 31a, and a through image display area 62a is provided below the display screen 31a. Further, at the lower end of the display screen 31a, a progress bar 64 indicating a reproduction time axis is displayed, and a circle 64a on the progress bar 64 indicates the present reproduction time.

また、図6は表示制御部13による追加撮影モード表示の他の例を示している。図6においても、表示画面31aの中央に機能を選択するための選択表示60が設けられる。図6においても斜線によって再生ボタン60aが選択されていることを示している。図6の例では、表示画面31a上の中央に編集前動画の再生画面の表示領域61bが設けられ、この表示領域61bを親画面とし、この親画面中の一部の領域に子画面としてスルー画の表示領域62bが設けられる。また、図6においては、編集前動画データの再生音声の波形を示す音声波形表示63が表示され、表示画面31aの下端には、丸印64aによって現在の再生時間を示すプログレスバー64も表示されている。   Further, FIG. 6 shows another example of the additional photographing mode display by the display control unit 13. Also in FIG. 6, a selection display 60 for selecting a function is provided at the center of the display screen 31a. Also in FIG. 6, the hatching indicates that the play button 60a is selected. In the example of FIG. 6, the display area 61b of the reproduction screen of the unedited moving image is provided at the center of the display screen 31a, and this display area 61b is used as a parent screen, and a part of the area in the parent screen is used as a child screen. An image display area 62b is provided. Further, in FIG. 6, an audio waveform display 63 showing the waveform of the reproduced voice of the moving image data before editing is displayed, and a progress bar 64 showing the current reproduction time is also displayed by a circle 64a at the lower end of the display screen 31a. ing.

制御部11は、ステップS5において、録画選択が行われたか否かを判定する。ユーザ50が再生ボタン60a又は編集ボタン60cを操作すると、制御部11は処理をステップS7に移行して再生モード又は編集モードを実行する。再生モードが指定された場合には、図5及び図6において、選択表示60の表示が消えた後、編集前動画の再生が開始される。この場合には、例えば、表示領域61a,61bにおいて或いは表示画面31aの画面全体において、編集前動画の再生画像が表示される。   In step S5, the control unit 11 determines whether or not recording selection has been performed. When the user 50 operates the play button 60a or the edit button 60c, the control unit 11 shifts the process to step S7 and executes the play mode or the edit mode. When the reproduction mode is designated, the reproduction of the unedited moving image is started after the display of the selection display 60 disappears in FIGS. 5 and 6. In this case, for example, the reproduced image of the unedited moving image is displayed in the display areas 61a and 61b or the entire screen of the display screen 31a.

いま、ユーザ50が追加撮影モードにおいて挿入動画の撮影を行うものとする。なお、以下の説明では、図5の追加撮影モード表示を採用するものとして説明するが、図6の追加撮影モードを採用する場合の動作も同様である。   Now, it is assumed that the user 50 shoots an inserted moving image in the additional shooting mode. In the following description, although it is described that the additional imaging mode display of FIG. 5 is adopted, the operation in the case of adopting the additional imaging mode of FIG. 6 is also the same.

ユーザ50は、図5及び図6の選択表示60中の録画ボタン60bを例えばタッチ操作する。これにより、制御部11は、ステップS5から処理をステップS6に移行して録画モードに移行する。   The user 50 performs, for example, touch operation on the recording button 60b in the selection display 60 of FIGS. 5 and 6. Thereby, the control unit 11 shifts the process from step S5 to step S6 and shifts to the recording mode.

挿入動画の録画が開始されると、選択表示60の表示は消え、表示画面31aの下方の表示領域62aには、録画画像が表示される。   When the recording of the insertion moving image is started, the display of the selection display 60 disappears, and the recorded image is displayed in the display area 62a below the display screen 31a.

また、図7は表示制御部13による追加撮影モード表示の他の例を示している。図7は図5及び図6における選択表示60の表示が消された後の表示例を示している。図7の例では、表示画面31aの比較的広い範囲に編集前動画の再生画面の表示領域71が設けられ、この表示領域71を親画面とし、この親画面中の一部の領域に子画面としてスルー画又は録画画像の表示領域72が設けられる。表示領域72中には録画中には録画画像が表示されていることを示すマーク72aが表示されるようになっている。   Further, FIG. 7 shows another example of the additional photographing mode display by the display control unit 13. FIG. 7 shows a display example after the display of the selection display 60 in FIGS. 5 and 6 is extinguished. In the example of FIG. 7, the display area 71 of the reproduction screen of the unedited moving image is provided in a relatively wide range of the display screen 31a, and this display area 71 is used as a parent screen. A display area 72 of a through image or a recorded image is provided as In the display area 72, a mark 72a indicating that a recorded image is displayed during recording is displayed.

また、図7においては、表示領域71の下方に編集前動画データの再生音声のレベルを示すレベル表示73が表示される。レベル表示73は、左右の再生音声のレベルをそれぞれ示すL,R用の2つのバーを有しており、各バー中において音声レベルの大きさを例えば着色や発光等(図ではハッチング)によって示している。
Lレベル表示73の下方に、ハッチングで示す着色部によって現在の再生時間を示すプログレスバー74も表示される。なお、レベル表示73は、挿入動画の挿入位置の目安として用いることもできる。また、プログレスバー74の左側には再生時間(hh:mm:ss)が表示され、右側にはトータル時間(HH:MM:SS)が表示されている。
Further, in FIG. 7, a level display 73 indicating the level of the reproduced sound of the pre-editing moving image data is displayed below the display area 71. The level display 73 has two bars for L and R respectively indicating the levels of the reproduced sound on the left and right, and in each bar, the size of the sound level is indicated by, for example, coloring or light emission (hatching in the figure). ing.
Below the L level display 73, a progress bar 74 indicating the current reproduction time is also displayed by the colored portions shown by hatching. The level display 73 can also be used as a standard for the insertion position of the insertion moving image. In addition, the reproduction time (hh: mm: ss) is displayed on the left side of the progress bar 74, and the total time (HH: MM: SS) is displayed on the right side.

次に、制御部11は、例えばシャッタボタン35c等の録画開始ボタンの押下操作をステップS8において検出する。この検出により、制御部11は、処理をステップS9に移行して、追加撮影モードにおける録画が指定されているか又は通常録画モードにおける録画が指定されているかを判定する。追加撮影モードが指定されている場合には、制御部11はステップS9からステップS10に処理を移行して、再生を開始する。   Next, in step S8, the control unit 11 detects the pressing operation of the recording start button such as the shutter button 35c. Based on this detection, the control unit 11 shifts the process to step S9, and determines whether recording in the additional imaging mode is designated or recording in the normal recording mode is designated. When the additional imaging mode is designated, the control unit 11 shifts the process from step S9 to step S10 and starts reproduction.

記録再生制御部14は、記録部38に記録されている編集前動画を読出し、表示制御部13は、読出された編集前動画データの動画を表示画面31aの表示領域61aに表示し、音声をスピーカ33から出力する。次に、制御部11は、ステップS11において、録画を開始する。制御部11は撮像部21を制御し、撮像部21は被写体を撮像して撮像画像を制御部11に出力する。画像処理部12は、入力された撮像画像に所定の信号処理を施す。記録再生制御部14は、信号処理後の撮像画像を記録部38に順次記録する。   The recording and reproduction control unit 14 reads the unedited moving image recorded in the recording unit 38, and the display control unit 13 displays the read moving image of the unedited moving image data on the display area 61a of the display screen 31a and It outputs from the speaker 33. Next, in step S11, the control unit 11 starts recording. The control unit 11 controls the imaging unit 21, and the imaging unit 21 captures an object and outputs a captured image to the control unit 11. The image processing unit 12 performs predetermined signal processing on the input captured image. The recording and reproduction control unit 14 sequentially records the captured image after signal processing in the recording unit 38.

なお、ステップS11の録画に際して、制御部11は、スピーカ33が収音した音声信号を取り込むようになっていてもよい。この音声信号は編集後動画データ用としては記録部38に記録する必要はないが、編集前動画と挿入動画との同期合わせのために利用することも可能である。   Note that, at the time of recording in step S11, the control unit 11 may be configured to capture an audio signal collected by the speaker 33. This audio signal does not have to be recorded in the recording unit 38 for edited moving image data, but can also be used for synchronization between the unedited moving image and the insertion moving image.

次のステップS12,S13において、制御部11は、それぞれ再生終了操作、録画終了操作の有無を判定する。再生終了操作又は録画終了操作があった場合には、制御部11はステップS21,S22において、再生終了処理及び録画終了処理を実行する。再生終了操作及び録画終了操作のいずれも行われていない場合には、制御部11は、次のステップS14において、再生位置がカットイン等の挿入位置に到達したか否かを判定する。   In the next steps S12 and S13, the control unit 11 determines the presence or absence of the reproduction end operation and the recording end operation, respectively. When the reproduction end operation or the recording end operation is performed, the control unit 11 executes the reproduction end processing and the recording end processing in steps S21 and S22. If neither the reproduction end operation nor the recording end operation is performed, the control unit 11 determines whether the reproduction position has reached an insertion position such as a cut-in in the next step S14.

本実施の形態においては、制御部11は、ユーザ操作に基づいて、挿入動画を編集前動画のいずれの位置(挿入位置)に挿入するかを示すマーキングを設定しておくことが可能である。ステップS14では、例えばこのマーキングによって挿入位置に到達したか否かが判断可能である。マーキングが設定されている場合には、ステップS8において録画開始ボタンが操作された場合でも、マーキングによって指定された挿入位置に到達するまでは、挿入動画の挿入が行われないようにすることができる。なお、マーキングを設定することなく、ステップS8の録画開始ボタンの操作直後に、挿入動画を編集前動画の再生開始位置から挿入するようになっていてもよく、また、ステップS8の録画開始ボタンの操作から予め設定された所定時間後に、挿入動画を編集前動画に挿入するようになっていてもよい。なお、マーキングを設定しない場合には、無条件にステップS14からステップS15に処理を移行する。   In the present embodiment, the control unit 11 can set marking indicating which position (insertion position) of the pre-editing moving image to insert the insertion moving image based on the user operation. In step S14, for example, it can be determined whether or not the insertion position has been reached by this marking. When the marking is set, even if the recording start button is operated in step S8, the insertion of the insertion moving image can be prevented from being performed until the insertion position designated by the marking is reached. . The insertion moving image may be inserted from the reproduction start position of the unedited moving image immediately after the operation of the recording start button in step S8 without setting the marking, and the setting of the recording start button in step S8 The insertion moving image may be inserted into the unedited moving image after a predetermined time set in advance from the operation. When the marking is not set, the process proceeds from step S14 to step S15 unconditionally.

更に、本実施の形態においては、マーキングの設定の有無に拘わらず、編集前動画と挿入動画の同期合わせを行った後、実際の挿入位置である録画動画マーキングを設定するようになっている。編集前動画データ中の動画像と音声とは同期がとれている状態である。これに対し、編集前動画と挿入動画とは同期がとれているとは限らない。そこで、編集制御部16は、編集前動画データと挿入動画データとについて、画像同士の特徴及び音声同士の特徴の少なくとも一方の特徴に基づいて同期合わせを行う。   Furthermore, in the present embodiment, regardless of the presence or absence of the marking setting, after the synchronization between the unedited moving image and the inserted moving image is performed, the recorded moving image marking which is the actual insertion position is set. The moving image in the moving image data before editing and the audio are in a synchronized state. On the other hand, the pre-edit video and the insertion video are not necessarily synchronized. Therefore, the editing control unit 16 synchronizes the unedited moving image data and the inserted moving image data based on at least one of the features of the images and the features of the sounds.

編集制御部16は、ステップS14の次のステップS15において、再生動画(音声)特徴を抽出し、ステップS16において録画動画データ(挿入動画データ)の動画(音声)特徴を抽出する。編集制御部16は、次のステップS17において、動画特徴及び音声特徴の少なくとも一方の特徴が一致するように、編集前動画又は挿入動画を時間的にシフトさせながら特徴の比較を行う。編集制御部16は、特徴が一致した場合には、シフトさせた時間に応じて録画動画マーキングを設定することで同期合わせを行う。   In step S15 following step S14, the editing control unit 16 extracts the reproduced moving image (sound) feature, and extracts the moving image (sound) feature of the recorded moving image data (inserted moving image data) in step S16. In the next step S17, the editing control unit 16 compares the features while temporally shifting the unedited moving image or the inserted moving image so that at least one of the moving image feature and the audio feature matches. When the features match, the edit control unit 16 performs synchronization by setting the recorded moving image marking according to the shifted time.

例えば、音声特徴に基づいて同期合わせを行う場合には、編集前動画データの音声波形と挿入動画データの音声波形とを比較し、波形が一致するように、例えば音声レベルに相当する振幅が十分に大きい複数のタイミングが一致するように挿入動画を時間的にシフトさせることで、同期合わせが可能である。   For example, when performing synchronization on the basis of audio features, the audio waveform of the unedited moving image data and the audio waveform of the inserted moving image data are compared, and the amplitude corresponding to the audio level is sufficient, for example. The synchronization can be achieved by temporally shifting the insertion moving image so that multiple large timings coincide with each other.

また、画像特徴に基づいて同期合わせを行う方法として、編集前動画中の特定部分の動きベクトルと挿入動画中の対応する特定部分の動きベクトルとを比較し、動きベクトルの変化が一致するように挿入動画を時間的にシフトさせることで、同期合わせが可能である。   Also, as a method of performing synchronization on the basis of image features, the motion vector of a specific part in the unedited video is compared with the motion vector of the corresponding specific part in the inset video so that changes in the motion vector match. Synchronization can be performed by temporally shifting the insertion moving image.

編集制御部16は、動画や音声の特徴が一致しない場合には、ステップS17からステップS12に処理を戻す。編集制御部16は、動画や音声の特徴が一致した場合には、ステップS17から処理をステップS18に移行して、シフト量に応じて同期合わせのための録画動画マーキングを設定する。即ち、編集制御部16は、編集前動画の挿入位置と挿入動画の対応する位置とを特定する。   The editing control unit 16 returns the process from step S17 to step S12 when the features of the moving image and the sound do not match. When the features of the moving image and the audio match, the editing control unit 16 shifts the process from step S17 to step S18, and sets the recorded moving image marking for synchronization according to the shift amount. That is, the editing control unit 16 specifies the insertion position of the unedited moving image and the corresponding position of the inserted moving image.

本実施の形態においては、追加撮影モードの録画モードにおいて、編集前動画と挿入動画との合成画像の生成が可能である。また、追加撮影モードの編集モードにおいても、編集前動画と挿入動画との合成画像の生成が可能である。録画モードにおいて編集前動画と挿入動画との合成が指定されている場合には、編集制御部16は、次のステップS19からステップS20に移行して、録画動画マーキングを用いて編集前動画と挿入動画とを同期させて合成し、処理をステップS12に戻す。例えば、編集前動画の録画同期マーキングの位置で、挿入動画に置き換える。記録再生制御部14は、合成動画は、記録再生制御部14によって記録部38に記録される。なお、録画モードにおける合成が指示されていない場合には、編集制御部16は、合成を行うことなくステップS19から処理をステップS12に戻す。即ち、この場合には、編集前動画は編集されることなく、挿入動画はそのまま記録部38に記録される。   In the present embodiment, it is possible to generate a composite image of the unedited moving image and the insertion moving image in the recording mode of the additional shooting mode. In addition, also in the edit mode in the additional shooting mode, it is possible to generate a composite image of the unedited moving image and the insertion moving image. When combining of the unedited moving image and the insertion moving image is designated in the recording mode, the editing control unit 16 proceeds from the next step S19 to step S20, and uses the recorded moving image marking to insert the unedited moving image and the insertion The motion image is synchronized and synthesized, and the process returns to step S12. For example, at the position of recording synchronization marking of the video before editing, it is replaced with the inserted video. The recording and reproduction control unit 14 records the composite moving image in the recording unit 38 by the recording and reproduction control unit 14. In addition, when the synthesis in the recording mode is not instructed, the editing control unit 16 returns the process from step S19 to step S12 without performing the synthesis. That is, in this case, the inserted moving image is recorded as it is in the recording unit 38 without editing the unedited moving image.

なお、ステップS9において追加撮影モードが指定されていないと判定された場合には、制御部11は、ステップS31において、通常の録画動作を行う。制御部11は、ステップS32において録画終了操作があったか否かを判定し、録画の終了操作がなければ録画を継続し、終了操作が行われると処理をステップS32からステップS33に移行して、録画を終了する。   If it is determined in step S9 that the additional imaging mode is not designated, the control unit 11 performs a normal recording operation in step S31. The control unit 11 determines whether or not there is a recording end operation in step S32, continues the recording if there is no recording end operation, and shifts the process from step S32 to step S33 when the end operation is performed. Finish.

ステップS22,S33の録画終了処理では、記録再生制御部14は、記録部38に記録した動画のファイル化を行う。即ち、追加撮影モードにおいて、挿入動画が撮影された場合には、ステップS22において、編集前動画と挿入動画との合成画像の画像ファイルが生成されるか又は、編集前動画に対応する挿入動画の画像ファイルが生成される。また、追加撮影モードでない場合には、通常の動画像の画像ファイルが生成される。この時作られる、画像ファイルには、挿入動画がある場合とない場合を示すメタデータを記録するようにしてもよく、挿入動画の範囲を時間等で表して、これをメタデータ化して記録してもよい。   In the recording end process of steps S22 and S33, the recording and reproduction control unit 14 converts the moving image recorded in the recording unit 38 into a file. That is, when the insertion moving image is photographed in the additional shooting mode, an image file of a composite image of the unedited moving image and the insertion moving image is generated in step S22, or the insertion moving image corresponding to the unedited moving image An image file is generated. In addition, when not in the additional photographing mode, an image file of a normal moving image is generated. The image file created at this time may record metadata indicating the presence or absence of the insertion moving image, and the range of the insertion moving image is expressed by time etc. May be

ステップS22,S33の次に、制御部11はステップS23において可動部34が反転状態であるか否かを判定する。制御部11は、反転状態である場合には処理をステップS2に戻し、非反転状態になっている場合には、処理をステップS24に移行して、追加撮影モードを終了して通常のカメラモードに移行する。   After steps S22 and S33, the control unit 11 determines whether or not the movable portion 34 is in the reverse state in step S23. If the control unit 11 is in the reverse state, the process returns to step S2. If the control unit 11 is in the non-reverse state, the process proceeds to step S24, and the additional shooting mode is ended and the normal camera mode is performed. Migrate to

なお、図3の例では、同期合わせのために、編集前動画データ及び挿入動画データについて、画像特徴や音声特徴が一致するか否かを判定した。しかし、本実施の形態においては、例えば単調な編集前動画に、所望の挿入動画を挿入することで、面白味のある編集後動画を簡単に取得することを目的としており、必ずしも厳密な同期合わせを必要とするものではない。例えば、編集前動画である演奏会の再生画像を視聴しながら、編集前動画データの画像又は音声に同期して演奏を行うことで、十分に実用的な同期合わせを行った挿入画像の撮影が可能である。   Note that, in the example of FIG. 3, it is determined whether or not the image feature and the audio feature match for the pre-edit moving image data and the insertion moving image data for synchronization. However, in the present embodiment, for example, it is intended to easily acquire interesting post-edited moving pictures by inserting desired insertion moving pictures into monotonous pre-edited moving pictures, and strict synchronization is not always required. It is not necessary. For example, by playing in synchronization with the image or voice of the unedited video data while watching the reproduced image of the concert, which is the unedited video, shooting of the inserted image with sufficiently practical synchronization can be performed. It is possible.

なお、一般的には、人は、時間知覚に関して、視覚刺激よりも聴覚刺激の方が鋭敏である。従って、編集前動画データの画像及び音声のうち、少なくとも音声を聴きながら演奏を行うことで、十分な精度で編集前動画と挿入動画との同期合わせが可能である。   Generally, in terms of time perception, humans are more sensitive to auditory stimuli than to visual stimuli. Therefore, by performing the performance while listening to at least the voice of the image and sound of the pre-edited moving image data, it is possible to synchronize the unedited moving image and the inserted moving image with sufficient accuracy.

なお、一般的には、人は、空間知覚に関して、聴覚刺激よりも視覚刺激の方が鋭敏である。従って、編集前動画の画像の動きが特徴的である場合等においては、編集前動画データの画像及び音声のうち、少なくとも画像を見ながら撮影を行うことで、十分な精度で編集前動画と挿入動画との同期合わせが可能であることも考えられる。
ただし、ここでは音楽会の記録の例で説明したが、音楽のように音の連続感が必要でないシーンにおいても本願は活用でき、運動会の徒競走のゴールシーンの後で、後で撮影した選手の顔のアップ画像を挿入するような応用も可能で、音が連続することは必須ではなく、音を置き換えるような仕様であっても、音を重ねるような仕様であってもよい。画像についても置き換えでなく、合成であっても良い。つまり、元の動画を動画A、アフレコ動画として、またはカットイン動画として、これらの後から追記した動画を動画Bとした時、動画A→動画B→動画Aという動画を編集動画として得るイメージでもっぱら説明したが、動画A→動画A+B→動画Aという編集があってもよい。動画A+Bの時には、メイン画像に動画AまたはB、サブ画像に動画BまたはAといった表現もあり得る。サブ、メインの差異がなく並列させて鑑賞可能にしてもよい。また、再生時にこうした表現が出来るように別ファイルで動画を記録してもよい。
Generally, in terms of spatial perception, humans are more sensitive to visual stimuli than to auditory stimuli. Therefore, when the motion of the image before editing is characteristic, etc., by taking a picture while looking at at least the image and the voice of the before editing data, the motion before insertion and the insertion are performed with sufficient accuracy. It is also conceivable that synchronization with moving pictures is possible.
However, although the example of the recording of the music meeting was explained here, this application can be used also in the scene where the sense of sound continuity is not necessary like music, and after the goal scene of the race of the athletic meet, the player's It is also possible to apply an up image of a face, it is not necessary that the sound be continuous, and it may be a specification to replace the sound or a specification to overlap the sound. Images may not be replaced, but may be composited. That is, when an original moving image is a moving image A, an after-effect moving image, or a cut-in moving image, and the moving image added after these is a moving image B, Although it has been exclusively described, there may be editing such as movie A → movie A + B → movie A. In the case of the moving image A + B, expressions such as the moving image A or B in the main image and the moving image B or A in the sub image may be possible. It may be possible to view in parallel without making a difference between sub and main. Also, the moving image may be recorded as another file so that such expression can be made at the time of reproduction.

このように本実施の形態においては、追加撮影モードでは、既に記録されている編集前動画データを再生しながら、所望の挿入動画の撮影が可能であり、編集前動画と挿入動画とを合成した合成画像を簡単に得ることができる。これにより、1回の撮影では比較的単調になりがちな動画(編集前動画)に対して、所望の挿入動画を簡単な操作で合成して、面白味のある動画を生成することができる。また、表示画面の向きを変化させることで、追加撮影モードへの移行を可能にしており、挿入画像の撮影操作が極めて簡単である。しかも、追加撮影モードでは、編集前動画の再生が行われるので、再生画像及び再生音声を利用して、比較的容易に編集前動画に同期した挿入動画の撮影が可能である。更に、編集前動画データと挿入動画データとの画像や音声の特徴の一致を検出することで同期合わせを行うこともでき、編集前動画と挿入動画とを確実に同期合わせした状態の合成画像を得ることができる。   As described above, in the present embodiment, in the additional shooting mode, it is possible to shoot a desired insertion moving image while reproducing the pre-editing moving image data already recorded, and combining the pre-edit moving image and the insertion moving image A composite image can be easily obtained. As a result, it is possible to generate an interesting moving image by synthesizing a desired insertion moving image with a simple operation with respect to a moving image (moving image before editing) which tends to be relatively monotonous in one shooting. In addition, by changing the orientation of the display screen, transition to the additional imaging mode is made possible, and the imaging operation of the inserted image is extremely easy. Moreover, in the additional shooting mode, since the unedited moving image is reproduced, it is possible to relatively easily capture the inserted moving image synchronized with the unedited moving image by using the reproduced image and the reproduced sound. Furthermore, synchronization can be performed by detecting matching of the features of the image and audio of the unedited moving image data and the inserted moving image data, and the composite image in a state where the unedited moving image and the inserted moving image are surely synchronized You can get it.

例えば、結婚式や演奏会等のイベントにおいて撮影された動画を登録されたSNS(ソーシャル・ネットワーキング・サービス)を送信先に設定して、アップロードすることが考えられる。このような場合においても、追加撮影モードを利用することで、自分をクローズアップした動画像等を挿入動画として撮像して合成した後アップロードすることで、面白味のある動画像の投稿が簡単に行える。   For example, it may be considered that a social networking service (SNS) registered as a destination is set as a transmission destination for a moving image shot at an event such as a wedding or a concert. Even in such a case, by using the additional shooting mode, it is possible to easily post an interesting moving image by capturing the moving image or the like close-up of oneself as an insertion moving image and combining it and then uploading it. .

(第2の実施の形態)
図8は本発明の第2の実施の形態において採用される動作フローを示すフローチャートである。本実施の形態のハードウェア構成は第1の実施の形態と同様である。第1の実施の形態においては、追加撮影モードにおいて挿入動画の1回の撮像のみを行う例を示した。本実施の形態においては、追加撮影モードにおいて複数回の挿入動画の撮像や挿入動画の撮り直しを可能にした例を示している。即ち、本実施の形態は、制御部11の制御が第1の実施の形態と異なる。
Second Embodiment
FIG. 8 is a flow chart showing an operation flow employed in the second embodiment of the present invention. The hardware configuration of this embodiment is the same as that of the first embodiment. In the first embodiment, an example is shown in which only one imaging of the insertion moving image is performed in the additional imaging mode. In the present embodiment, an example is shown in which it is possible to capture an insertion moving image a plurality of times and to retake an insertion moving image in the additional imaging mode. That is, in the present embodiment, control of the control unit 11 is different from that of the first embodiment.

次に、図8から図13を参照して第2の実施の形態の動作について説明する。図9から図12は画面表示を説明するための説明図であり、図13は複数回の挿入動画の撮影及び挿入動画の撮り直しにおける再生及び録画位置を説明するための説明図である。   Next, the operation of the second embodiment will be described with reference to FIGS. 8 to 13. FIG. 9 to FIG. 12 are explanatory diagrams for explaining the screen display, and FIG. 13 is an explanatory diagram for explaining the reproduction and recording positions in photographing of a plurality of insertion moving images and retaking of the insertion moving images.

撮像装置10の電源が投入されると、図8のステップS41において、制御部11は通常の撮影モードが設定されているか否かを判定する。通常の撮影モードが設定されている場合には、制御部11は、ステップS42においてスルー画を表示部31に表示させた後、ステップS43において撮影操作を判定するまでステップS42のスルー画表示を繰り返す撮影開始操作の待機状態となる。撮影操作が行われると、制御部11は、ステップS43からステップS44に処理を移行して、撮像部21を制御して撮影を行う。撮像画像は記録再生制御部14によって記録部38に記録される。制御部11は、ステップS45において撮影の終了操作を判定するまで、ステップS44の撮影を繰り返す。撮影終了操作があると、制御部11は処理をステップS41に戻す。制御部11は、ステップS41において撮影モードでないものと判定すると、次のステップS51においてサムネイル表示を行う。   When the power of the imaging device 10 is turned on, the control unit 11 determines whether the normal imaging mode is set in step S41 of FIG. When the normal shooting mode is set, after the through image is displayed on the display unit 31 in step S42, the control unit 11 repeats the through image display in step S42 until the shooting operation is determined in step S43. It is in a standby state for shooting start operation. When the photographing operation is performed, the control unit 11 shifts the process from step S43 to step S44, and controls the imaging unit 21 to perform photographing. The captured image is recorded in the recording unit 38 by the recording and reproduction control unit 14. The control unit 11 repeats the shooting in step S44 until it determines the shooting end operation in step S45. If there is a photographing end operation, the control unit 11 returns the process to step S41. If the control unit 11 determines in step S41 that the shooting mode is not set, the control unit 11 performs thumbnail display in the next step S51.

図9はこのサムネイル表示を示している。記録再生制御部14は記録部38に記録されている複数の動画像を読出し、表示制御部13は、各動画像に対応するサムネイル画像を生成して表示する。図9の例では、表示画面31a上に9個のサムネイル画像81が表示されていることを示している。制御部11は次のステップS52においてサムネイル画像81が選択操作されたか否かを判定し、選択操作が行われるまでステップS51のサムネイル表示を継続する。例えば、表示制御部13は表示画面31a上にカーソル82を表示させており、ユーザのカーソル操作によってサムネイル画像81の選択が可能である。図9の例は太線によって左端上端のサムネイル画像81が選択されたことを示している。   FIG. 9 shows this thumbnail display. The recording and reproduction control unit 14 reads a plurality of moving images recorded in the recording unit 38, and the display control unit 13 generates and displays thumbnail images corresponding to the respective moving images. The example of FIG. 9 indicates that nine thumbnail images 81 are displayed on the display screen 31a. The control unit 11 determines whether or not the thumbnail image 81 has been selected in the next step S52, and continues the thumbnail display in step S51 until the selection operation is performed. For example, the display control unit 13 displays the cursor 82 on the display screen 31a, and the user can select the thumbnail image 81 by the cursor operation. The example in FIG. 9 indicates that the thumbnail image 81 at the upper left end is selected by a thick line.

ユーザがサムネイル画像81の1つを選択すると、制御部11は、次のステップS53において、選択されたサムネイル画像81に対応する動画像を読出して再生する。表示制御部13は、読出された動画像を表示画面31aに表示させる。   When the user selects one of the thumbnail images 81, the control unit 11 reads out and reproduces a moving image corresponding to the selected thumbnail image 81 in the next step S53. The display control unit 13 displays the read moving image on the display screen 31a.

図10はこの状態を示しており、表示画面31a上には、選択された動画像の再生画像85が表示されている。この動画再生状態において、ステップS54において、所定の操作が行われたことを判定するまで、通常の動画再生を継続する。所定の操作が行われると、制御部11は、ステップS54からステップS55に処理を移行して追加撮影モードに進む。図8の例では、所定の操作として、可動部34の反転状態、即ち、表示部31の表示画面31aが筐体10aの正面方向に面した(反転した)ことを判定するようになっており、可動部34が反転状態(モニタが反転)になると追加撮影モードに移行する。   FIG. 10 shows this state, and the reproduced image 85 of the selected moving image is displayed on the display screen 31a. In this moving image reproduction state, normal moving image reproduction is continued until it is determined in step S54 that a predetermined operation has been performed. When the predetermined operation is performed, the control unit 11 shifts the process from step S54 to step S55 and proceeds to the additional imaging mode. In the example of FIG. 8, as a predetermined operation, it is determined that the reverse state of the movable portion 34, that is, that the display screen 31 a of the display unit 31 faces in the front direction of the housing 10 a (reversed). When the movable portion 34 is in the reverse state (the monitor is reverse), the mode shifts to the additional imaging mode.

追加撮影モードでは、先ずステップS55において、選択されている動画の再生位置を設定し、更に、挿入画像の撮影のためのスルー画を表示する。なお、この場合の再生位置は、ステップS53における再生位置に継続した位置であってもよく、また、読出した動画像の先頭位置であってもよい。表示制御部13はステップS56において、動画像(編集前動画)の再生を行う。   In the additional photographing mode, first, in step S55, the reproduction position of the selected moving image is set, and further, a through image for photographing of the insertion image is displayed. The reproduction position in this case may be a position continued to the reproduction position in step S53, or may be the leading position of the read moving image. In step S56, the display control unit 13 reproduces a moving image (moving image before editing).

図11はこの状態を示しており、表示部31の表示画面31aの上方には再生動画の表示領域86が設けられ、下方にはスルー画の表示領域87が設けられている。また、表示画面31aの下端には丸印88aで現在の再生時間を示す時間軸表示であるプログレスバー88が表示されている。   FIG. 11 shows this state, and a display area 86 of a playback moving image is provided above the display screen 31a of the display unit 31, and a display area 87 of a through image is provided below the display screen 31a. Further, at the lower end of the display screen 31a, a progress bar 88, which is a time axis display indicating the current reproduction time by a circle 88a, is displayed.

次に、編集制御部16は、ステップS57において、挿入動画の撮影操作が行われたか否かを判定する。撮影操作が行われていない場合には、編集制御部16は処理をステップS65に移行して、戻る操作が行われたか否かを判定する。制御部11は、追加撮影モードにおいて、挿入動画の記録が1回も行われていない場合において戻る操作が行われたものと判定した場合には、処理をステップS51に戻して、サムネイル表示を行う。それ以外の場合には、制御部11はステップS65から処理をステップS56に戻して、再生状態を継続しながら撮影操作の待機状態となる。   Next, in step S57, the editing control unit 16 determines whether a shooting operation of the insertion moving image has been performed. When the photographing operation is not performed, the editing control unit 16 shifts the process to step S65 and determines whether or not the returning operation has been performed. If the control unit 11 determines that the return operation is performed when the insertion moving image has not been recorded even once in the additional shooting mode, the process returns to step S51, and the thumbnail display is performed. . Otherwise, the control unit 11 returns the process from step S65 to step S56, and is in the standby state for the photographing operation while continuing the reproduction state.

ここで、ユーザが撮影操作を行うと、編集制御部16は、処理をステップS57から次のステップS58に移行して、挿入動画の撮影を行う。記録再生制御部14は、編集制御部16の指示に従って、挿入動画を記録部38に記録(録画)する。なお、この場合には、表示部31の表示画面31aの下方の表示領域87は、録画画像(挿入動画)のスルー画表示用の表示領域となる。編集制御部16は、次のステップS59において、挿入動画の録画停止及び編集前動画の再生停止の少なくと一方の停止操作が行われたか否かを判定する。編集制御部16は、これらの停止操作が行われていない場合には、ステップS58において挿入動画の撮影を継続しながら停止操作の待機状態となる。ユーザが撮影の停止操作を行うと、編集制御部16は、編集前動画の再生及び挿入動画の録画の両方を停止させ、挿入動画を編集前動画に関連づけて記録部38に記録すると共に、処理を次のステップS60に移行してモード選択表示を行う。   Here, when the user performs a shooting operation, the editing control unit 16 shifts the process from step S57 to the next step S58, and shoots the inserted moving image. The recording and reproduction control unit 14 records (record) the inserted moving image in the recording unit 38 according to the instruction of the editing control unit 16. In this case, the display area 87 below the display screen 31a of the display unit 31 is a display area for displaying a through image of the recorded image (inserted moving image). In the next step S59, the editing control unit 16 determines whether at least one stop operation of at least the recording stop of the inserted moving image and the playback stop of the unedited moving image has been performed. When the stop operation is not performed, the editing control unit 16 is in a standby state for the stop operation while continuing the shooting of the inserted moving image in step S58. When the user performs a shooting stop operation, the editing control unit 16 stops both the reproduction of the unedited moving image and the recording of the inserted moving image, associates the inserted moving image with the unedited moving image, and records in the recording unit 38 And the mode selection display is performed at the next step S60.

図12はこのモード選択表示を示している。表示部31の表示画面31a上には、再生動画の表示領域86及びスルー画表示用の表示領域89が設けられている。録画や再生の停止操作が行われると、こられの領域86,89上にモード選択表示(アフレコ動画モード選択)90が表示される。このモード選択表示90中には、挿入動画の撮り直しボタン90a、次の挿入動画の撮影を行うための撮影継続ボタン90b及び撮影動画の確認のための撮影動画確認ボタン90cが含まれる。なお、表示画面31aの下端には、丸印91aで現在の再生時間を示す時間軸表示であるプログレスバー91が表示されている。   FIG. 12 shows this mode selection display. On the display screen 31 a of the display unit 31, a display area 86 of a playback moving image and a display area 89 for live view display are provided. When the recording and reproduction stop operation is performed, a mode selection display (after-recording moving image mode selection) 90 is displayed on these areas 86 and 89. The mode selection display 90 includes an insert moving picture retaking button 90a, a shooting continuation button 90b for shooting the next insertion moving picture, and a shot moving picture confirmation button 90c for confirming the shot moving picture. At the lower end of the display screen 31a, a progress bar 91, which is a time axis display indicating the current reproduction time by a circle 91a, is displayed.

編集制御部16は、ステップS61〜S63において、それぞれこれらのボタン90a〜90cに対する操作が行われたか否かを判定する。ユーザが撮影継続ボタン90bを例えばタッチ操作すると、編集制御部16は、処理をステップS61からステップS56に戻して、再生を再開する。また、ユーザが撮り直しボタン90aを例えばタッチ操作すると、編集制御部16は、処理をステップS61,S62からステップS64に移行して、現在録画中の挿入動画を破棄すると共に、当該挿入動画の録画開始時における編集前動画の再生位置又はその所定時間前の位置に再生位置を戻した後、処理をステップS56に戻して再生を再開する。   In steps S61 to S63, the editing control unit 16 determines whether or not an operation has been performed on these buttons 90a to 90c. For example, when the user performs a touch operation on the shooting continuation button 90b, the editing control unit 16 returns the process from step S61 to step S56 and resumes reproduction. When the user touches, for example, the retake button 90a, the editing control unit 16 shifts the process from steps S61 and S62 to step S64, discards the currently-inserted insertion moving image, and records the insertion moving image. After the playback position is returned to the playback position of the unedited moving image at the start time or to a position before the predetermined time, the process returns to step S56 to resume playback.

図13は撮り直し及び撮影継続における再生位置を示している。図13は上段に撮り直しの状態を示し、下段に撮影継続の状態を示している。図13は水平方向に時間の経過を示し、斜線部は挿入動画が録画されている期間を示している。撮り直しでは、1回の挿入動画の録画開始時点まで再生位置を戻す。撮影継続では、挿入動画の録画停止位置から再生が再開される。   FIG. 13 shows the reproduction position in retaking and continuation of photographing. FIG. 13 shows the state of retaking at the upper stage, and shows the state of continuous shooting at the lower stage. FIG. 13 shows the passage of time in the horizontal direction, and the hatched portion shows the period during which the insertion moving image is recorded. In re-shooting, the playback position is returned to the start of recording of one inserted video. In the shooting continuation, the playback is resumed from the recording stop position of the inserted moving image.

撮り直しボタン90a及び撮影継続ボタン90bが操作された場合には、ステップS56〜S62,S64が繰り返されることになり、挿入動画の複数回の録画が行われる。即ち、ユーザが撮影継続ボタン90bを操作することによって、編集前動画の各再生位置において各挿入動画を録画することができる。また、ユーザが撮り直しボタン90aを操作すると、このボタン操作時点に録画されている挿入動画を破棄して対応する編集前動画の再生位置において挿入動画の撮り直しが可能である。   When the reshooting button 90a and the shooting continuation button 90b are operated, steps S56 to S62 and S64 are repeated, and a plurality of recordings of the inserted moving image are performed. That is, when the user operates the shooting continuation button 90b, each inserted moving image can be recorded at each reproduction position of the unedited moving image. In addition, when the user operates the retake button 90a, it is possible to discard the inserted moving image recorded at the time of the button operation and retake the inserted moving image at the corresponding reproduction position of the unedited moving image.

ユーザが撮影動画確認ボタン90cを例えばタッチ操作すると、編集制御部16は、処理をステップS61,S62,S63からステップS65に移行して、記録再生制御部14に録画されている挿入動画の再生を指示する。表示制御部13は再生された挿入動画を表示部31に与えて表示画面31a上に表示させる。なお、この場合には、ステップS58において撮影された全ての挿入動画を再生してもよく、直前に撮影された挿入動画のみを再生するようになっていてもよい。挿入動画の表示が終了すると、編集制御部16は、表示画面31a上に、録画した挿入動画を採用するか破棄するかの問い合わせのための表示を行う。   When the user touches, for example, the photographed moving image confirmation button 90c, the editing control unit 16 shifts the process from steps S61, S62, and S63 to step S65, and reproduces the inserted moving image recorded in the recording and reproduction control unit 14. To direct. The display control unit 13 gives the reproduced insertion moving image to the display unit 31 and causes it to be displayed on the display screen 31 a. In this case, all the inserted moving images captured in step S58 may be reproduced, or only the inserted moving image captured immediately before may be reproduced. When the display of the insertion moving image is finished, the editing control unit 16 performs display on the display screen 31a for an inquiry as to whether to adopt or discard the recorded insertion moving image.

編集制御部16は、ステップS66において、この問い合わせに対するユーザ操作を判定する。ユーザが録画した挿入動画の破棄を指示する操作を行った場合には、編集制御部16は、ステップS68において録画した挿入動画を破棄した後処理を終了する。また、ユーザが録画した挿入動画を採用する操作を行った場合には、編集制御部16は、ステップS66からステップS67に移行して録画した挿入動画と編集前動画の編集処理を実行した後処理を終了する。   In step S66, the editing control unit 16 determines a user operation in response to the inquiry. When the user instructs to discard the recorded insertion moving image, the editing control unit 16 ends the post-processing of discarding the insertion moving image recorded in step S68. When the user performs an operation for adopting the recorded insertion video, the editing control unit 16 proceeds from step S66 to step S67 and performs post-processing for executing editing processing of the insertion video and the pre-editing video recorded. Finish.

なお、図8では撮影動画確認ボタン90cの操作によって追加撮影モードを終了するようになっているが、追加撮影モードを終了させるための終了ボタンを設けてもよく、第1の実施形態と同様に、可動部34が非反転状態になることによって、追加撮影モードを終了させてもよい。   Although the additional shooting mode is ended by the operation of the photographed moving image confirmation button 90c in FIG. 8, an end button for ending the additional photographing mode may be provided, as in the first embodiment. The additional imaging mode may be ended by the movable portion 34 being in the non-inverted state.

編集制御部16は、ステップS67の編集処理として、編集制御部16は図3のステップS20における合成処理と同様の合成処理、即ち、編集前動画の各部分を録画した挿入動画で置き換える合成処理を行ってもよい。また、この場合において、図3のステップS14〜S18における同期合わせの処理を行ってもよい。更に、編集制御部16は編集処理のためのユーザインターフェース表示を行って、録画した挿入動画を取捨選択しながら、編集前動画と挿入動画との編集を行うようになっていてもよい。   As the editing process at step S67, the editing control unit 16 performs the same combining process as the combining process at step S20 in FIG. 3, that is, the combining process to replace each part of the unedited movie with the inserted movie recorded. You may go. Further, in this case, the synchronization processing in steps S14 to S18 of FIG. 3 may be performed. Furthermore, the editing control unit 16 may display a user interface for editing processing and edit the unedited moving image and the inserted moving image while selecting and selecting the recorded inserted moving image.

このように本実施の形態においては、第1の実施の形態と同様に、撮影した動画を再生しながら、再生画像や再生音声に合わせて挿入する動画の撮影が可能であり、簡単に、撮影済み動画の所定部分に挿入動画を挿入した合成画像を得ることができる。従って、単調になりがちな動画を元にして、簡単な操作で面白味のある動画を作成することができる。   As described above, in the present embodiment, as in the first embodiment, it is possible to shoot a moving image to be inserted according to a playback image or a playback voice while playing back a shot moving image, so that shooting can be easily performed. It is possible to obtain a composite image in which the insertion moving image is inserted into a predetermined portion of the completed moving image. Therefore, based on a moving image that tends to be monotonous, it is possible to create an interesting moving image with a simple operation.

(編集処理)
図14から図20は編集処理を説明するための説明図である。なお、以下の編集処理は、上記第1及び第2の実施の形態のいずれにも適用可能である。
(Editing process)
14 to 20 are explanatory diagrams for explaining the editing process. The following editing process is applicable to any of the first and second embodiments.

図3のステップS10及び図8のステップS53の動画再生毎に挿入動画を管理することで、同一の編集前動画に対して複数のテイクを取得することができる。即ち、この場合には、同一の編集前動画の同一の編集位置において、複数の異なる挿入動画を録画することができる。図14から図20はこのような複数テイクに対応した編集処理を示している。   By managing the inserted moving image for each moving image reproduction in step S10 in FIG. 3 and step S53 in FIG. 8, it is possible to acquire a plurality of takes for the same unedited moving image. That is, in this case, a plurality of different insertion moving images can be recorded at the same editing position of the same unedited moving image. FIGS. 14 to 20 show editing processing corresponding to such multiple takes.

編集制御部16は、表示制御部13に指示を与えて、編集処理のための図14に示す編集処理表示(アフレコ編集)100を表示させることができる。また、編集制御部16は、タッチパネル32や操作部35のユーザ操作に応じて表示制御部13、記録再生制御部14を制御して、編集処理表示100の表示を変化させると共に、編集前動画及び挿入動画に対する編集処理を行うことができるようになっている。以下に示す編集処理に係る、表示を含むユーザインターフェース、画像の読出し、合成、編集、書込み処理等は、編集制御部16によって実現されるものである。   The editing control unit 16 can give an instruction to the display control unit 13 to display an editing process display (after-record editing) 100 shown in FIG. 14 for the editing process. Further, the editing control unit 16 controls the display control unit 13 and the recording and reproducing control unit 14 in accordance with the user operation of the touch panel 32 and the operation unit 35 to change the display of the editing process display 100, and It is possible to perform an editing process on the inserted video. A user interface including display, image reading, combining, editing, writing processing and the like related to the editing processing described below is realized by the editing control unit 16.

図14に示す編集処理表示100は、水平方向を時間の経過に対応させて、最上段に編集前動画(オリジナル動画)の各記録時間(再生時間)における各コマを縦線で区画して表した編集前動画コマ表示Foを示している。また、編集処理表示100には、1回目、2回目、3回目、…のテイクによる挿入動画コマ表示(TAKE1(アフレコ))Ft1、挿入動画コマ表示(TAKE2(アフレコ))Ft2、挿入動画コマ表示(TAKE3(アフレコ))Ft3、…も表示されている。   The editing process display 100 shown in FIG. 14 is a table in which each frame in each recording time (reproduction time) of the unedited moving image (original moving image) is divided by vertical lines on the top row with the horizontal direction corresponding to the passage of time. The pre-editing movie frame display Fo is shown. In addition, in the editing processing display 100, the insertion video frame display (TAKE 1 (after recording)) Ft1, the insertion video frame display (TAKE 2 (after recording)) Ft 2, the insertion video frame display by taking the first, second, third, ... (TAKE 3 (after recording)) Ft 3, ... are also displayed.

挿入動画コマ表示Ft1,Ft2,Ft3,…(以下、各テイクを区別する必要がない場合には挿入動画コマ表示Ftという)の無効部分は、挿入画像が録画されていない期間又は録画されていても有効でない期間を示している。図3のステップS14において説明したように、挿入動画の録画は継続的に行われていたとしても、マーキングによって無効部分を指定することで、録画されている挿入動画のうち編集に用いることが可能な有効期間を設定することができる。なお、図8のフローでは、ユーザの撮影操作によって、有効期間の挿入動画のみが録画される。   (The inserted moving picture frame display Ft1, Ft2, Ft3, ... (hereinafter referred to as the inserted moving picture frame display Ft when it is not necessary to distinguish each take) is a period during which the inserted image is not recorded or is recorded Also indicate periods of ineffectiveness. As described in step S14 of FIG. 3, even if the recording of the insertion moving image is continuously performed, it can be used for editing among the insertion moving images being recorded by specifying the invalid portion by the marking. The effective period can be set. In the flow of FIG. 8, only the inserted moving image of the valid period is recorded by the user's shooting operation.

編集処理表示100には、下端にタイムライン表示101が表示されている。タイムライン表示101に対する操作によって、編集前動画コマ表示Fo及び挿入動画コマ表示Ftを水平方向にシフトさせて、表示する時間帯を変化させることが可能である。また、編集処理表示100には右端にスクロールバー102が表示されている。挿入動画コマ表示Ftの表示数が多い場合には、挿入動画コマ表示Ftの一部しか表示させることができない。スクロールバー102に対するユーザ操作によって、表示させる挿入動画コマ表示Ftをシフトさせて、全ての挿入動画コマ表示Ftを編集処理表示100において表示させることができる。   In the editing process display 100, a timeline display 101 is displayed at the lower end. By the operation on the timeline display 101, it is possible to shift the time zone to be displayed by shifting the pre-edit moving image frame display Fo and the inserted moving image frame display Ft in the horizontal direction. Further, a scroll bar 102 is displayed at the right end of the editing process display 100. When the number of the inserted moving image frame display Ft is large, only a part of the inserted moving image frame display Ft can be displayed. By the user operation on the scroll bar 102, the inserted moving picture frame display Ft to be displayed can be shifted, and all the inserted moving picture frame displays Ft can be displayed on the editing processing display 100.

編集制御部16は、ユーザのスライド操作やカーソル操作等によって、合成する画像の指定を受け付けることができる。図15はハッチングによってユーザが画像編集に用いるコマ(以下、指定コマという)103を選択したことを示している。例えば、ユーザは、編集処理表示100上に表示されたカーソル103aを破線矢印にて示すようにカーソル103bの位置までスライドさせることで、指定コマ103を指定することができる。また、例えば、ユーザは、指をカーソル103aの位置のコマ部分からカーソル103bのコマ部分までスライド操作することで、指定コマ103を指定することができる。図15の例では、ユーザによりハッチングにて示す編集前動画コマ表示Foの3つの指定コマ103が指定されたことが分かる。編集制御部16は、ユーザによる指定コマ103の指定操作を受け付ける。なお、編集制御部16は、指定コマ103のコマ部分については他のコマ部分とは異なる表示態様で表示させる。   The editing control unit 16 can receive specification of an image to be synthesized by a slide operation or a cursor operation of a user. FIG. 15 shows by hatching that the user has selected a frame (hereinafter referred to as a designated frame) 103 used for image editing. For example, the user can specify the designated frame 103 by sliding the cursor 103a displayed on the editing process display 100 to the position of the cursor 103b as indicated by a broken arrow. Also, for example, the user can designate the designated frame 103 by sliding the finger from the frame portion at the position of the cursor 103a to the frame portion of the cursor 103b. In the example shown in FIG. 15, it can be seen that the user has designated three designated frames 103 of the unedited moving image frame display Fo indicated by hatching. The edit control unit 16 receives a designation operation of the designated frame 103 by the user. The editing control unit 16 causes the frame portion of the designated frame 103 to be displayed in a display mode different from that of the other frame portions.

図16は編集前動画だけでなく挿入動画についても指定コマ103の指定操作が行われたことを示している。例えば、ユーザは、指をカーソル103aの位置のコマ部分から破線矢印に示す経路でカーソル103bのコマ部分までスライド操作することで、編集前動画コマ表示Foの1つの指定コマ103と挿入動画コマ表示Ft1の4つの指定コマ103とを指定することができる。   FIG. 16 shows that the designating operation of the designated frame 103 has been performed not only for the pre-edit moving image but also for the insertion moving image. For example, the user slides the finger from the frame part at the position of the cursor 103a to the frame part of the cursor 103b along the path shown by the broken line arrow, whereby one designated frame 103 of the moving picture frame display before editing and the inserted moving picture frame display The four designated frames 103 of Ft1 can be designated.

図17はユーザによる指定コマ103の指定操作が終了した状態を示している。図17に表示された期間では、挿入動画コマ表示Ft1のコマの次に挿入動画コマ表示Ft2の3つの指定コマ103が指定され、次に挿入動画コマ表示Ft3の2つの指定コマ103が指定され、次に編集前動画コマ表示Foの1つの指定コマ103が指定されたことを示している。指定コマ103の指定が終了すると、編集制御部16は、挿入動画の表示効果を決定するための効果選択表示105を表示画面31a上に表示させる。   FIG. 17 shows a state in which the user has finished the designation operation of the designated frame 103. In the period displayed in FIG. 17, the three designated frames 103 of the inserted moving image frame display Ft2 are specified after the frame of the inserted moving image frame display Ft1, and then the two specified frames 103 of the inserted moving image frame display Ft3 are specified. Next, it shows that one designated frame 103 of the moving picture frame display before editing is designated. When the designation of the designated frame 103 is completed, the editing control unit 16 causes the effect selection display 105 for determining the display effect of the inserted moving image to be displayed on the display screen 31a.

図18はこの効果選択表示105の表示例を示している。効果選択表示105中には、編集前動画コマ表示Fo、タイムライン表示101の他に、画面全体を示す領域表示106が表示されている。編集前動画コマ表示Fo中の斜線部は、表示効果を設定する対象のコマを示しており、タイムライン表示101中の斜線部分は、表示効果が設定されるコマのタイムライン上の位置を示している。   FIG. 18 shows a display example of the effect selection display 105. In the effect selection display 105, in addition to the pre-edit moving picture frame display Fo and the timeline display 101, an area display 106 showing the entire screen is displayed. The shaded area in the pre-editing movie frame display Fo indicates the frame for which the display effect is to be set, and the hatched area in the timeline display 101 indicates the position on the timeline of the frame for which the display effect is set. ing.

領域表示106中には、画面全体を親画面とし、子画面として表示する画像の領域表示107が表示されている。初期状態では、領域表示106は編集前動画の表示領域に相当し、領域表示107は挿入動画の表示領域に相当する。ユーザが例えば領域表示106上をタップ操作することで、領域表示106及び領域表示107に表示させる画像を編集前動画と挿入動画とで入れ替えることが可能である。   In the area display 106, an area display 107 of an image to be displayed on the entire screen as a parent screen and displayed as a child screen is displayed. In the initial state, the area display 106 corresponds to the display area of the unedited moving image, and the area display 107 corresponds to the display area of the insertion moving image. For example, when the user taps on the area display 106, the images displayed on the area display 106 and the area display 107 can be switched between the pre-edit moving image and the insertion moving image.

また、領域表示107の周囲には、領域表示107の領域表示106に対するサイズ及び位置を変更するための拡縮アイコン108U,108D,108R,108L(以下、これらを区別する必要がない場合には拡縮アイコン108という)が表示されている。拡縮アイコン108Uは領域表示107の上辺を上下方向にスライドさせ、拡縮アイコン108Dは領域表示107の底辺を上下方向にスライドさせ、拡縮アイコン108Rは領域表示107の右辺を左右方向にスライドさせ、拡縮アイコン108Lは領域表示107の左辺を左右方向にスライドさせる。   In addition, enlargement / reduction icons 108U, 108D, 108R, 108L for changing the size and position of the area display 107 with respect to the area display 106 around the area display 107 (hereinafter, the enlargement / reduction icons do not need to be distinguished from each other). 108) is displayed. The enlargement / reduction icon 108 U slides the upper side of the area display 107 vertically, the enlargement / reduction icon 108 D slides the bottom side of the area display 107 vertically, and the enlargement / reduction icon 108 R slides the right side of the area display 107 horizontally. In 108L, the left side of the area display 107 is slid in the left and right direction.

ユーザが拡縮アイコン108を例えばスライド操作させることによって、領域表示107の各辺をスライドさせて、領域表示107の領域表示106に対するサイズ及び位置を変更することができる。図19は例えば拡縮アイコン108を操作することで、領域表示107が領域表示107’の範囲から矢印に示すように拡大された結果、画面全体に対応する領域表示107に変化したことを示している。即ち、図19の表示効果が指定された対象のコマについては、編集前動画に代えて挿入動画が全画面に表示されることになる。編集制御部16は、効果選択表示105に対するユーザ操作に基づいて、指定コマ103毎に、表示効果を設定することができる。   The user can slide each side of the area display 107 to change the size and position of the area display 107 with respect to the area display 106 by, for example, sliding the enlargement / reduction icon 108. FIG. 19 shows that, for example, by operating the enlargement / reduction icon 108, the area display 107 is expanded from the range of the area display 107 'as shown by the arrow to change to the area display 107 corresponding to the entire screen. . That is, for the target frame for which the display effect of FIG. 19 is designated, the inserted moving image is displayed on the entire screen instead of the pre-edit moving image. The edit control unit 16 can set a display effect for each designated frame 103 based on a user operation on the effect selection display 105.

図20は最終的な編集処理の結果及び当該編集処理に対するユーザへの確認のための表示を含む編集確認表示110を示している。編集確認表示110においては、挿入動画コマ表示Ft中のハッチングを含むコマは、指定コマ103を示している。また、図20では、編集前動画コマ表示Foは、編集後動画の各コマを示しており、表示効果が設定された指定コマによる編集後コマ111〜113を示している。   FIG. 20 shows an editing confirmation display 110 including the final editing process result and a display for confirming the editing process to the user. In the editing confirmation display 110, a frame including hatching in the inserted moving image frame display Ft indicates the designated frame 103. Also, in FIG. 20, the pre-edit moving image frame display Fo indicates each frame of the post-edit moving image, and indicates post-edit frames 111 to 113 by the designated frame for which the display effect is set.

編集後コマ111は、指定コマ103がそのまま使われたものであり、編集前動画のコマが指定コマ103として採用された場合と、挿入動画のコマが指定コマ103として採用された場合、即ちカットインの場合とがある。また、編集後コマ112は、挿入動画中の指定コマ103を子画面112bとして編集前動画の対応するコマを親画面112aとする、所謂ワイプ表示を行うものである。また、編集後コマ113は、挿入動画中の指定コマ103を親画面113aとして編集前動画の対応するコマを子画面113bとする、所謂逆ワイプ表示を行うものである。   The frame 111 after editing is the one in which the designated frame 103 is used as it is, and the frame of the moving image before editing is adopted as the designated frame 103 and the frame of the inserted moving image is adopted as the designated frame 103, that is, the cut. There is a case of in. The post-editing frame 112 performs so-called wipe display in which the designated frame 103 in the inserted moving image is a child screen 112 b and the corresponding frame of the unedited moving image is a parent screen 112 a. Further, the post-editing frame 113 performs so-called reverse wipe display in which the designated frame 103 in the inserted moving image is a parent screen 113a and the corresponding frame of the unedited moving image is a child screen 113b.

編集確認表示110中には、確認表示114が表示されている。確認表示114中には編集内容に同意して編集後動画を生成するための「はい」表示114a及び編集内容に同意せず編集作業を継続するか又は編集作業を終了するための「いいえ」表示114bが表示されている。ユーザが「はい」表示114aを例えばタップ操作することで、編集制御部16は編集内容を確定して、編集前動画及び挿入動画に対して指定された編集を施して編集後動画を作成し、記録部38に記録させる。また、ユーザが「いいえ」表示114bを例えばタップ操作した場合には、編集制御部16は編集内容を確定せず、再度編集処理に戻るか又は編集を終了する。   In the edit confirmation display 110, a confirmation display 114 is displayed. During the confirmation display 114, "Yes" display 114a for agreeing with the edited content and generating the edited video and "No" displayed for continuing the editing work without accepting the edited content or ending the editing work 114 b is displayed. For example, when the user taps the “Yes” display 114 a, the editing control unit 16 determines the editing content, performs the designated editing on the unedited video and the inserted video, and creates the edited video. The recording unit 38 is made to record. When the user taps the "No" display 114b, for example, the editing control unit 16 does not confirm the editing content, and returns to the editing process again or ends the editing.

このように図14から図20に示す編集インターフェース表示を採用することで、簡単な操作で、所望の編集処理を行うことができる。
主に、ここでは音楽会の記録の例で説明したが、音楽のように音の連続感が必要でないシーンにおいても本願は活用でき、運動会の徒競走のゴールシーンの後で、後で撮影した選手の顔のアップ画像を挿入するような応用も可能である。ニュースの報道などでも、試合中の様子に、試合後のインタビュー画像が挿入される表現はよく使われる。この場合、音が連続することは必須ではなく、音を置き換えるような仕様であっても、音を重ねるような仕様であってもよい。画像についても置き換えでなく、合成であっても良い。つまり、元の動画を動画A、アフレコ動画として、またはカットイン動画として、これらの後から追記した動画を動画Bとした時、動画A→動画B→動画Aという動画を編集動画として得るイメージでもっぱら説明したが、動画A→動画A+B→動画Aという編集があってもよい。動画A+Bの時には、メイン画像に動画AまたはB、サブ画像に動画BまたはAといった表現もあり得る。サブ、メインの差異がなく並列させて鑑賞可能にしてもよい。また、再生時にこうした表現が出来るように別ファイルで動画を記録してもよい。もちろん、動画A→動画Bで終わっても、挿入動画という言葉で表している。よって、追記動画という言葉で、これを表してもよい。
By adopting the editing interface display shown in FIG. 14 to FIG. 20 as described above, desired editing processing can be performed with a simple operation.
Mainly, although the example of the recording of the music meeting was explained here, this application can be used also in the scene where the sense of sound continuity is not necessary like music, and the player photographed later after the goal scene of the race of the athletic meet Applications such as inserting a face up image are also possible. Even in the news coverage, the expression in which the interview image after the game is inserted is often used during the game. In this case, it is not essential for the sound to be continuous, and it may be a specification to replace the sound or a specification to overlap the sound. Images may not be replaced, but may be composited. That is, when an original moving picture is a moving picture A, an after move moving picture, or a cut-in moving picture, and the moving picture added after these is a moving picture B, an image of moving picture A → moving picture B → moving picture A Although it has been exclusively described, there may be editing such as movie A → movie A + B → movie A. In the case of the moving image A + B, expressions such as the moving image A or B in the main image and the moving image B or A in the sub image may be possible. It may be possible to view in parallel without making a difference between sub and main. Also, the moving image may be recorded as another file so that such expression can be made at the time of reproduction. Of course, even if it ends with movie A → movie B, it is expressed by the word "inserted movie". Therefore, this may be expressed by the term "additional animation".

なお、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを採用する例を説明したが、動画の撮影が可能なものであれば、レンズ型カメラでも、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよく、監視カメラや車載用カメラ、据え置き型のカメラ、例えば、テレビジョン受信機やパーソナルコンピュータ等に取り付けられているカメラであってもよい。   In each embodiment of the present invention, an example in which a digital camera is adopted as an apparatus for photographing has been described, but a lens type camera or a digital single-lens reflex camera can be used as long as it is capable of photographing a moving image. Of course, it may be a compact digital camera, a video camera, a movie camera, or a camera built in a portable information terminal (PDA: Personal Digital Assist) such as a cellular phone or a smartphone. In addition, it may be an industrial or medical optical instrument such as an endoscope or a microscope, and may be a surveillance camera, an on-vehicle camera, or a stationary camera such as a camera attached to a television receiver or a personal computer. It may be.

さらに、実施形態において、部(セクションやユニット)として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイクロプロセッサ及びCPU等のプロセッサ、あるいはシーケンサを組み合わせて構成されてもよい。また、その制御の一部又は全部を外部の装置が引き受けるような設計も可能で、この場合、有線や無線の通信回路が介在する。ここでは、単純化のため通信部を特記していないが、本願の特徴的な処理や補足的な処理をサーバやパソコン等の外部機器が行う実施形態も想定される。つまり、複数の機器が連携して、本発明の特徴を成立させる場合も、本願はカバーしている。この時の通信には、ブルートゥース(登録商標)やWi−Fi(登録商標)、電話回線等が用いられる。また、この時の通信は、USB等で行われてもよい。専用の回路、汎用の回路や制御部を一体としてASICとして構成してもよい。こうした装置、あるいはシステムは、ユーザに何らかの働きかけを行ったり、部品の角度を変えたりする等の機能を有しても良く、その機構は、様々なアクチュエータと、必要に応じて連結メカニズムによって構成されており、ドライバ回路によってアクチュエータが作動する。このドライブ回路もまた、特定のプログラムに従ってマイクロプロセッサマイコンやASIC等が制御する。こうした制御は各種センサやその周辺回路が出力する情報によって、詳細な補正、調整などが行われてもよい。   Furthermore, in the embodiment, the part described as a part (section or unit) may be configured by combining a dedicated circuit or a plurality of general-purpose circuits, and the operation is performed according to pre-programmed software as needed. It may be configured by combining a microprocessor and a processor such as a CPU or a sequencer. In addition, it is possible to design such that an external device takes over all or part of the control, and in this case, a wired or wireless communication circuit intervenes. Here, although the communication unit is not particularly described for simplification, an embodiment in which an external device such as a server or a personal computer performs the characteristic processing or the supplementary processing of the present application is also assumed. That is, the present application also covers the case where a plurality of devices cooperate to establish the features of the present invention. Bluetooth (registered trademark), Wi-Fi (registered trademark), a telephone line or the like is used for communication at this time. The communication at this time may be performed by USB or the like. A dedicated circuit, a general-purpose circuit, and a control unit may be integrally configured as an ASIC. Such a device or system may have the function of acting on the user, changing the angle of parts, etc., and the mechanism is configured by various actuators and, if necessary, a coupling mechanism. The driver circuit operates the actuator. The drive circuit is also controlled by a microprocessor microcomputer, an ASIC or the like in accordance with a specific program. Such control may be performed in detail according to information output from various sensors and their peripheral circuits.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as it is, and at the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention. In addition, various inventions can be formed by appropriate combinations of a plurality of components disclosed in the above-described embodiments. For example, some components of all the components shown in the embodiment may be deleted. Furthermore, components in different embodiments may be combined as appropriate.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   In addition, with regard to the operation flow in the claims, the specification, and the drawings, it is essential to carry out in this order even if it is described using “first,” “next,” etc. for convenience. It does not mean. Further, it goes without saying that the respective steps constituting the operation flow can be appropriately omitted for portions which do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールしたりすることで、容易に本実施の形態の撮像装置を実現することができる。   Also, among the techniques described here, many of the controls and functions described in the flowchart can be set by a program, and the computer may read and execute the program to realize the controls and functions described above. it can. The program may be recorded or stored in whole or in part as a computer program product on a portable medium such as a flexible disk, a CD-ROM, a non-volatile memory, etc., or a storage medium such as a hard disk or volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the imaging device of the present embodiment by downloading the program via the communication network and installing it on a computer or installing it from a recording medium to a computer.

10…撮像装置、10a…筐体、11…制御部、、12…画像処理部、13…表示制御部、14…記録再生制御部、16…編集制御部、21…撮像部、22…光学系、23…撮像素子、24…変倍制御部、25…ピント制御部、26…絞り制御部、27…マイクロホン、31…表示部、31a…表示画面、32…タッチパネル、33…スピーカ、34…可動部、35…操作部、35c…シャッタボタン、36…時計部、37…通信部、38…記録部。     DESCRIPTION OF REFERENCE NUMERALS 10 imaging device 10a housing 11 control unit 12 image processing unit 13 display control unit 14 recording and reproduction control unit 16 editing control unit 21 imaging unit 22 optical system , 23: image pickup element, 24: magnification change control unit, 25: focus control unit, 26: aperture control unit, 27: microphone, 31: display unit, 31a: display screen, 32: touch panel, 33: speaker, 34: movable Section 35: operation section 35c: shutter button 36: clock section 37: communication section 38: recording section

Claims (9)

画像情報及び音声情報を含む動画データを編集前動画データとして再生する再生制御部と、
被写体の動画像を撮像する撮像部と、
前記編集前動画データの再生によって出力可能な動画像及び音声のうちの少なくとも一方を出力する提示部と、
前記編集前動画データの再生時に前記撮像部に前記動画像を挿入動画として撮像させる追加撮影モードを実行する編集制御部と
を具備したことを特徴とする撮像装置。
A reproduction control unit that reproduces moving image data including image information and audio information as moving image data before editing;
An imaging unit that captures a moving image of a subject;
A presentation unit that outputs at least one of a moving image and a sound that can be output by reproduction of the pre-editing moving image data;
An imaging control unit configured to execute an additional imaging mode for causing the imaging unit to capture the moving image as an inserted moving image when the moving image data before editing is reproduced.
前記編集制御部は、前記編集前動画データ中の動画と前記挿入動画とを編集した編集動画を生成する
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the editing control unit generates an edited moving image obtained by editing the moving image in the pre-edit moving image data and the inserted moving image.
前記挿入動画の撮像時における音声を含む挿入動画データを得るために周囲の音を収音するマイクロホンを具備し、
前記編集制御部は、前記編集前動画データ中の音声と前記挿入動画データ中の音声との特徴の比較に基づいて、前記編集前動画データ中の動画と前記挿入動画との同期合わせを行う
ことを特徴とする請求項1に記載の撮像装置。
A microphone is provided to pick up surrounding sound in order to obtain insertion moving image data including sound at the time of capturing the insertion moving image,
The editing control unit synchronizes the moving image in the unedited moving image data with the inserted moving image based on comparison of features of the sound in the unedited moving image data and the sound in the inserted moving image data. The imaging device according to claim 1, characterized in that
前記編集制御部は、前記編集前動画データの再生によって得られる動画と前記挿入動画との特徴の比較に基づいて、前記編集前動画データ中の動画と前記挿入動画との同期合わせを行う
ことを特徴とする請求項1又は3に記載の撮像装置。
The editing control unit synchronizes the moving image in the unedited moving image data with the inserted moving image based on comparison of features of the moving image obtained by reproduction of the unedited moving image data and the feature of the inserted moving image. The imaging device according to claim 1, wherein the imaging device is characterized.
前記編集制御部は、前記追加撮影モードにおいて、前記編集前動画データの再生位置を変えながら前記挿入動画の撮像を繰り返すことで前記編集前動画データ中の動画の複数カ所で前記挿入動画の撮像を行わせる
ことを特徴とする請求項1に記載の撮像装置。
The editing control unit repeats imaging of the inserted video while changing the playback position of the unedited video data in the additional shooting mode, thereby capturing the inserted video at a plurality of locations of the video in the unedited video data. The imaging device according to claim 1, wherein the imaging device is configured to perform.
前記編集制御部は、前記追加撮影モードにおいて、撮像して得た前記挿入動画を破棄した後、破棄した前記挿入動画に対応する前記編集前動画データの再生位置から前記編集前動画データの再生及び挿入動画の撮像を行うことで前記挿入動画の撮り直しを可能にする
ことを特徴とする請求項1に記載の撮像装置。
The editing control unit, after discarding the inserted moving image obtained by imaging in the additional shooting mode, reproduces the unedited moving image data from the reproduction position of the unedited moving image data corresponding to the inserted moving image discarded. The imaging apparatus according to claim 1, wherein retaking of the inserted moving image is enabled by capturing the inserted moving image.
前記編集前動画データの再生を行う前記提示部から出力された動画像を表示する表示部を具備し、
前記編集制御部は、前記表示部の変位によって前記追加撮影モードに移行する
ことを特徴とする請求項1に記載の撮像装置。
The display unit is configured to display a moving image output from the presentation unit that reproduces the pre-edited moving image data,
The imaging apparatus according to claim 1, wherein the editing control unit shifts to the additional imaging mode by displacement of the display unit.
画像情報及び音声情報を含む動画データを編集前動画データとして再生する再生制御ステップと、
前記編集前動画データの再生によって出力可能な動画像及び音声のうちの少なくとも一方を出力する提示ステップと、
前記編集前動画データの再生時に撮像部に被写体の動画像を挿入動画として撮像させる追加撮影モードを実行する編集制御ステップと
を具備したことを特徴とする撮像方法。
A reproduction control step of reproducing moving image data including image information and audio information as moving image data before editing;
A presentation step of outputting at least one of a moving image and a sound that can be output by reproduction of the pre-editing moving image data;
An imaging control step of executing an additional imaging mode for causing an imaging unit to capture a moving image of a subject as an inserted moving image at the time of reproduction of the moving image data before editing.
コンピュータに、
画像情報及び音声情報を含む動画データを編集前動画データとして再生する再生制御ステップと、
前記編集前動画データの再生によって出力可能な動画像及び音声のうちの少なくとも一方を出力する提示ステップと、
前記編集前動画データの再生時に撮像部に被写体の動画像を挿入動画として撮像させる追加撮影モードを実行する編集制御ステップと
を実行させるための撮像プログラム。
On the computer
A reproduction control step of reproducing moving image data including image information and audio information as moving image data before editing;
A presentation step of outputting at least one of a moving image and a sound that can be output by reproduction of the pre-editing moving image data;
An imaging control program for executing an additional imaging mode for causing an imaging unit to capture a moving image of a subject as an inserted moving image at the time of reproduction of the moving image data before editing;
JP2017222768A 2017-11-20 2017-11-20 Imaging device, imaging method and imaging program Active JP6952584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222768A JP6952584B2 (en) 2017-11-20 2017-11-20 Imaging device, imaging method and imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222768A JP6952584B2 (en) 2017-11-20 2017-11-20 Imaging device, imaging method and imaging program

Publications (3)

Publication Number Publication Date
JP2019096950A true JP2019096950A (en) 2019-06-20
JP2019096950A5 JP2019096950A5 (en) 2020-12-17
JP6952584B2 JP6952584B2 (en) 2021-10-20

Family

ID=66972013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222768A Active JP6952584B2 (en) 2017-11-20 2017-11-20 Imaging device, imaging method and imaging program

Country Status (1)

Country Link
JP (1) JP6952584B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7403711B2 (en) 2020-07-23 2023-12-22 北京字節跳動網絡技術有限公司 Video processing methods, devices, equipment and storage media

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10233963A (en) * 1997-02-18 1998-09-02 Hoei:Kk Synthesizer for video signal
JP2002290901A (en) * 2001-03-23 2002-10-04 Sharp Corp Viewer video recording and reproducing device
JP2015504629A (en) * 2011-11-14 2015-02-12 アップル インコーポレイテッド Generating multimedia clips
US20170076754A1 (en) * 2015-09-11 2017-03-16 Evergig Music S.A.S.U. Systems and methods for matching two or more digital multimedia files

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10233963A (en) * 1997-02-18 1998-09-02 Hoei:Kk Synthesizer for video signal
JP2002290901A (en) * 2001-03-23 2002-10-04 Sharp Corp Viewer video recording and reproducing device
JP2015504629A (en) * 2011-11-14 2015-02-12 アップル インコーポレイテッド Generating multimedia clips
US20170076754A1 (en) * 2015-09-11 2017-03-16 Evergig Music S.A.S.U. Systems and methods for matching two or more digital multimedia files

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7403711B2 (en) 2020-07-23 2023-12-22 北京字節跳動網絡技術有限公司 Video processing methods, devices, equipment and storage media
US11887628B2 (en) 2020-07-23 2024-01-30 Beijing Bytedance Network Technology Co., Ltd. Video processing method and apparatus, device, and storage medium

Also Published As

Publication number Publication date
JP6952584B2 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
JP5028225B2 (en) Image composition apparatus, image composition method, and program
JP2016119600A (en) Editing device and editing method
JP2011087183A (en) Imaging apparatus, image processing apparatus, and program
JP2012015830A (en) Camera
JP5393237B2 (en) Image display apparatus, control method therefor, program, and storage medium
JP6004475B2 (en) REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP2009272840A (en) Image recording/reproducing device, image recording/reproducing method, image processing device, and image processing method
JP5490689B2 (en) Method for generating sound sequence of a plurality of photographs and device for generating and reproducing the sound sequence
JP2013251724A (en) Photographing instrument
JP6957131B2 (en) Information terminal device, image pickup device, image information processing system and image information processing method
JP6952584B2 (en) Imaging device, imaging method and imaging program
JP6031670B2 (en) Imaging device
JP2010258917A (en) Imaging apparatus, program, and imaging method
JP2008258926A (en) Image reproducing device, image reproduction program, recording medium, and image reproducing method
JP6229356B2 (en) Imaging apparatus, imaging method, and program
JP5645096B2 (en) Movie processing apparatus, movie playback method, movie recording method, and program
JP4915978B2 (en) Movie playback apparatus and program thereof
JP6543147B2 (en) Image processing apparatus, photographing guide apparatus, imaging apparatus, image processing method and image processing program
JP2008097727A (en) Animation-reproducing device
JP2019114847A (en) Image recording control apparatus, image recording method, image recording program, imaging apparatus, and image recording control system
JP5412560B2 (en) Image processing apparatus, image processing method, and image processing program
JP6146162B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and image processing program
JP5589615B2 (en) Imaging device
JP6020665B2 (en) REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP2015061129A (en) Imaging equipment and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201104

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201104

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210928

R150 Certificate of patent or registration of utility model

Ref document number: 6952584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150