JP2020170998A - Image processing apparatus, imaging apparatus, image processing method, and program - Google Patents

Image processing apparatus, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2020170998A
JP2020170998A JP2019073036A JP2019073036A JP2020170998A JP 2020170998 A JP2020170998 A JP 2020170998A JP 2019073036 A JP2019073036 A JP 2019073036A JP 2019073036 A JP2019073036 A JP 2019073036A JP 2020170998 A JP2020170998 A JP 2020170998A
Authority
JP
Japan
Prior art keywords
image
image processing
frames
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019073036A
Other languages
Japanese (ja)
Inventor
輝幸 東山
Teruyuki Higashiyama
輝幸 東山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019073036A priority Critical patent/JP2020170998A/en
Publication of JP2020170998A publication Critical patent/JP2020170998A/en
Pending legal-status Critical Current

Links

Images

Abstract

To solve the problem in which it is difficult to grasp the entire moving image in a case of using one frame of the moving image as a representative image.SOLUTION: An image processing apparatus comprises selection means for allowing a user to select plural frames out of a moving image; synthesis means for generating a synthetic image on the basis of the frames; and control means which uses the synthetic image as the representative image of the moving image.SELECTED DRAWING: Figure 6

Description

本発明は、動画の代表画像の作成を行う画像処理装置に関するものである。 The present invention relates to an image processing device that creates a representative image of a moving image.

デジタルカメラなどの画像処理装置には、ユーザが動画の内容を簡単に認識できるように、動画から代表画像(サムネイル画像)を生成する機能が設けられることがある。たとえば、特許文献1には、動画の1つのフレームを使って代表画像を生成する内容が記載されている。 An image processing device such as a digital camera may be provided with a function of generating a representative image (thumbnail image) from the moving image so that the user can easily recognize the content of the moving image. For example, Patent Document 1 describes the content of generating a representative image using one frame of a moving image.

特開平8―251540号公報Japanese Patent Application Laid-Open No. 8-251540

しかしながら、特許文献1に記載の技術では、特定の1フレームを使って代表画像とするので、動画の内容を把握するのは不十分な場合がある。たとえば、ある動体がある軌跡に沿って動くような動画で、特定の1フレームを使って代表画像とすると、代表画像では動体の軌跡を把握できない。 However, in the technique described in Patent Document 1, since a specific one frame is used as a representative image, it may be insufficient to grasp the content of the moving image. For example, in a moving image in which a moving object moves along a certain trajectory, if a specific frame is used as a representative image, the trajectory of the moving object cannot be grasped from the representative image.

本発明は、上記の課題を鑑みてなされたものであり、動画の複数のフレームの内容を表せる代表画像を作成する画像処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing device that creates a representative image that can represent the contents of a plurality of frames of a moving image.

上記課題を解決するため、本願発明は、ユーザが動画像から複数のフレームを選択する選択手段と、前記複数のフレームから合成画像を生成する合成手段と、前記合成画像を、前記動画像の代表画像として用いる制御手段とを有することを特徴とする画像処理装置を提供する。 In order to solve the above problems, the present invention describes a selection means in which a user selects a plurality of frames from a moving image, a compositing means for generating a composite image from the plurality of frames, and the composite image as a representative of the moving image. Provided is an image processing apparatus characterized by having a control means used as an image.

本発明の構成によれば、動画の代表画像を生成するとき、動画の複数のフレームの内容を表せる代表画像を生成する画像処理装置を提供することができる。 According to the configuration of the present invention, when generating a representative image of a moving image, it is possible to provide an image processing device that generates a representative image that can represent the contents of a plurality of frames of the moving image.

本発明の実施形態における撮像装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the image pickup apparatus in embodiment of this invention. 本発明の実施形態における動画ファイルのフォーマットを説明するための図である。It is a figure for demonstrating the format of the moving image file in embodiment of this invention. 本発明の実施形態における静止画像のファイルのデータの構造例を説明するための図である。It is a figure for demonstrating the structural example of the data of the still image file in embodiment of this invention. 本発明の実施形態における表示部130に表示する画面の一例を説明するための図である。It is a figure for demonstrating an example of the screen to be displayed on the display part 130 in embodiment of this invention. 本発明の実施形態における代表画像の生成を説明するための図である。It is a figure for demonstrating the generation of the representative image in embodiment of this invention. 本発明の実施形態における画像の合成を説明するための図である。It is a figure for demonstrating composition of an image in embodiment of this invention. 本発明の実施形態における代表画像を代替した後の表示部130に表示する画面の一例を説明するための図である。It is a figure for demonstrating an example of the screen to be displayed on the display part 130 after substituting the representative image in embodiment of this invention.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本実施形態における撮像装置のハードウェア構成を示すブロック図である。本実施形態での撮像装置は、たとえばデジタルカメラを例として挙げられるが、これ以外にも撮像可能な携帯電話などであってもよい。 FIG. 1 is a block diagram showing a hardware configuration of an imaging device according to the present embodiment. The image pickup device in the present embodiment is, for example, a digital camera as an example, but may be a mobile phone capable of taking an image.

制御部101は、例えば、CPU(MPU)、メモリ(DRAM、SRAM)、不揮発性メモリ(EEPROM)などからなり、各種処理(プログラム)を実行して撮像装置100の各ブロックを制御したり、各ブロック間でのデータ転送を制御したりする。また、制御部101は、ユーザからの操作を受け付ける操作部102からの操作信号に応じて、撮像装置100の各ブロックを制御する。また、制御部101は、後述の画像処理部111によって得られた画像を解析し、その解析結果に応じて、撮像装置100の各ブロックを制御する。 The control unit 101 includes, for example, a CPU (MPU), a memory (DRAM, SRAM), a non-volatile memory (EEPROM), and the like, and executes various processes (programs) to control each block of the image pickup apparatus 100. Control data transfer between blocks. Further, the control unit 101 controls each block of the image pickup apparatus 100 in response to an operation signal from the operation unit 102 that receives an operation from the user. In addition, the control unit 101 analyzes the image obtained by the image processing unit 111 described later, and controls each block of the image pickup apparatus 100 according to the analysis result.

操作部102は、例えば、電源ボタン、静止画記録ボタン、動画記録開始ボタン、ズーム調整ボタン、オートフォーカスボタンなどの撮像に関連する各種操作を入力するスイッチ類からなる。また、メニュー表示ボタン、決定ボタン、その他カーソルキー、ポインティングデバイス、タッチパネル等からなり、ユーザによりこれらのキーやボタンが操作されると制御部101に操作信号を送信する。 The operation unit 102 includes switches for inputting various operations related to imaging, such as a power button, a still image recording button, a moving image recording start button, a zoom adjustment button, and an autofocus button. It also includes a menu display button, an enter button, other cursor keys, a pointing device, a touch panel, and the like, and when the user operates these keys and buttons, an operation signal is transmitted to the control unit 101.

また、バス103は、各種データ、制御信号、指示信号などを撮像装置100の各ブロックに送るための汎用バスである。 The bus 103 is a general-purpose bus for sending various data, control signals, instruction signals, and the like to each block of the image pickup apparatus 100.

不揮発性メモリ105は、電気的に消去・記録可能なメモリであり、制御部101の動作用の定数、プログラム等が記憶される。 The non-volatile memory 105 is a memory that can be electrically erased and recorded, and stores constants, programs, and the like for the operation of the control unit 101.

撮像部110は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換し、アナログデジタル変換をして、画像処理部111に送信する。 The image pickup unit 110 converts the optical image of the subject captured by the lens into an image signal by an image pickup element such as a CCD sensor or a CMOS sensor, controls the amount of light by an aperture, performs analog-to-digital conversion, and performs an analog-digital conversion to an image processing unit. Send to 111.

画像処理部111は、入力されたデジタル画像信号に、設定値に基づいてホワイトバランスや色、明るさなどを調整する画質調整処理を行う。そして、画像処理部111で処理された画像信号は、制御部101により、メモリ104や後述の映像出力部150や表示制御部131に送信される。 The image processing unit 111 performs image quality adjustment processing on the input digital image signal to adjust the white balance, color, brightness, etc. based on the set value. Then, the image signal processed by the image processing unit 111 is transmitted by the control unit 101 to the memory 104, the video output unit 150 described later, and the display control unit 131.

本実施形態においては、例えば、撮像部110は、「光学ズーム」機能、「光学防振」機能を有し、画像処理部111は、「電子ズーム」機能、「電子防振」機能を有している。ここで、「光学ズーム」機能、「電子ズーム」機能は、ユーザの操作に応じて、得られる画像を拡大する機能である。また、「光学防振」機能、「電子防振」機能は、撮像装置100本体の振動による画像の揺れを防止する機能である。そして、これらの機能は、制御部101の制御の元、同時に使用されたり交互に使用されたり、単独で使用されたりする。 In the present embodiment, for example, the image pickup unit 110 has an "optical zoom" function and an "optical vibration isolation" function, and the image processing unit 111 has an "electronic zoom" function and an "electronic vibration isolation" function. ing. Here, the "optical zoom" function and the "electronic zoom" function are functions for enlarging the obtained image according to the operation of the user. Further, the "optical vibration isolation" function and the "electronic vibration isolation" function are functions for preventing image shake due to vibration of the image pickup apparatus 100 main body. Then, these functions are used simultaneously, alternately, or independently under the control of the control unit 101.

ここで、「光学ズーム」機能とは、ユーザにより操作部102のズームキーが操作されたことに応じて、撮像部110のレンズを移動させ、取り込まれる被写体の光学像を拡大/縮小する機能である。また、「電子ズーム」機能とは、ユーザにより操作部102のズームキーが操作されたことに応じて、画像処理部111が、撮像部110により生成された画像のうち一部を切り出した画像を拡大した画像信号を生成する処理である。また、「光学防振」機能とは、不図示の振動検出部からの加速度信号の値に基づいて、レンズの移動量を算出し、レンズを移動させることで、取得される画像の揺れを防止する機能である。また、「電子防振」機能とは、不図示の振動検出部からの加速度信号の値に基づいて、撮像部110により取得された画像信号の位置を調整することにより、画像の揺れを防止する機能である。また、「電子防振」機能は、不図示の振動検出部からの加速度信号の値に基づいて、撮像部110の撮像素子における読み出し位置をずらすことによっても実現できる。 Here, the "optical zoom" function is a function of moving the lens of the imaging unit 110 in response to the operation of the zoom key of the operation unit 102 by the user to enlarge / reduce the optical image of the captured subject. .. Further, the "electronic zoom" function means that the image processing unit 111 enlarges an image obtained by cutting out a part of the image generated by the imaging unit 110 in response to the user operating the zoom key of the operation unit 102. This is a process for generating an image signal. In addition, the "optical vibration isolation" function calculates the amount of movement of the lens based on the value of the acceleration signal from the vibration detection unit (not shown) and moves the lens to prevent the acquired image from shaking. It is a function to do. Further, the "electronic vibration isolation" function prevents the image from shaking by adjusting the position of the image signal acquired by the imaging unit 110 based on the value of the acceleration signal from the vibration detection unit (not shown). It is a function. Further, the "electronic vibration isolation" function can also be realized by shifting the reading position of the image sensor of the image pickup unit 110 based on the value of the acceleration signal from the vibration detection unit (not shown).

また、音声入力部120は、例えば、内蔵された無指向性のマイクまたは音声入力端子を介して接続された外部マイク等により、撮像装置100の周囲の音声を集音(収音)し、アナログデジタル変換をして音声処理部121に送信する。音声処理部121は、入力されたデジタル音声信号のレベルの適正化処理等の音声に関する処理を行う。そして、音声処理部121で処理された音声信号は、制御部101によりメモリ104に送信される。メモリ104は、画像処理部111、音声処理部121により得られた画像信号及び音声信号を一時的に記憶する。 Further, the audio input unit 120 collects (collects) the sound around the image pickup device 100 by, for example, a built-in omnidirectional microphone or an external microphone connected via the audio input terminal, and analog. It is digitally converted and transmitted to the voice processing unit 121. The voice processing unit 121 performs processing related to voice such as processing for optimizing the level of the input digital voice signal. Then, the voice signal processed by the voice processing unit 121 is transmitted to the memory 104 by the control unit 101. The memory 104 temporarily stores the image signal and the audio signal obtained by the image processing unit 111 and the audio processing unit 121.

画像処理部111及び音声処理部121は、メモリ104に一時的に記憶された画像信号や音声信号を読み出して画像信号の符号化、音声信号の符号化などを行い、圧縮画像信号、圧縮音声信号等を生成する。制御部101は、これらの圧縮画像信号、圧縮音声信号を、記録再生部140に送信する。 The image processing unit 111 and the audio processing unit 121 read out the image signal and the audio signal temporarily stored in the memory 104, encode the image signal, encode the audio signal, and the like, and perform the compressed image signal and the compressed audio signal. Etc. are generated. The control unit 101 transmits these compressed image signals and compressed audio signals to the recording / playback unit 140.

記録再生部140は、記録媒体141に対して画像処理部111及び音声処理部121で生成された圧縮画像信号、圧縮音声信号、その他撮像に関する制御データ等を記録する。また、音声信号を圧縮符号化しない場合には、制御部101は、音声処理部121により生成された音声信号と画像処理部111により生成された圧縮画像信号とを、記録再生部140に送信し記録媒体141に記録させる。 The recording / reproducing unit 140 records the compressed image signal, the compressed audio signal, and other control data related to imaging on the recording medium 141, which are generated by the image processing unit 111 and the audio processing unit 121. When the audio signal is not compressed and encoded, the control unit 101 transmits the audio signal generated by the audio processing unit 121 and the compressed image signal generated by the image processing unit 111 to the recording / playback unit 140. It is recorded on the recording medium 141.

記録媒体141は、撮像装置100に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。記録媒体141は、撮像装置100で生成した圧縮画像信号、圧縮音声信号、音声信号を含む各種データなどを記録することができ、不揮発性メモリ105よりも大容量な媒体が一般的に使用される。例えば、記録媒体141は、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。 The recording medium 141 may be a recording medium built in the image pickup apparatus 100 or a removable recording medium. The recording medium 141 can record various data including a compressed image signal, a compressed audio signal, and an audio signal generated by the image pickup apparatus 100, and a medium having a capacity larger than that of the non-volatile memory 105 is generally used. .. For example, the recording medium 141 includes all types of recording media such as hard disks, optical disks, magneto-optical disks, CD-Rs, DVD-Rs, magnetic tapes, non-volatile semiconductor memories, and flash memories.

また、記録再生部140は、記録媒体141に記録された圧縮画像信号、圧縮音声信号、音声信号、各種データ、プログラムを読み出して再生する。そして読み出した圧縮画像信号、圧縮音声信号を、制御部101は画像処理部111及び音声処理部121に送信する。画像処理部111及び音声処理部121は、圧縮画像信号、圧縮音声信号を一時的にメモリ104に記憶させ、所定の手順で復号し、復号した音声信号を音声出力部151へ、復号化した画像信号を映像出力部150や表示制御部131に送信する。また、音声信号が記録媒体141に非圧縮記録されている場合には、制御部101は、音声信号を直接音声出力部151に送信する。 Further, the recording / reproducing unit 140 reads out and reproduces the compressed image signal, the compressed audio signal, the audio signal, various data, and the program recorded on the recording medium 141. Then, the control unit 101 transmits the read compressed image signal and compressed audio signal to the image processing unit 111 and the audio processing unit 121. The image processing unit 111 and the audio processing unit 121 temporarily store the compressed image signal and the compressed audio signal in the memory 104, decode them according to a predetermined procedure, and decode the decoded audio signal into the audio output unit 151. The signal is transmitted to the video output unit 150 and the display control unit 131. When the audio signal is uncompressed and recorded on the recording medium 141, the control unit 101 directly transmits the audio signal to the audio output unit 151.

音声出力部151は、例えば音声出力端子からなり、接続されたイヤホンやスピーカなどから音声を出力させるために音声信号を送信する。また、音声出力部151は、撮像装置100に内蔵され、音声信号にかかる音声を出力するスピーカであってもよい。映像出力部150は、例えば映像出力端子からなり、接続された外部ディスプレイ等に映像を表示させるために画像信号を送信する。また、音声出力部151、映像出力部150は、統合された1つの端子、例えばHDMI(登録商標)(High−Definition Multimedia Interface)端子のような端子であってもよい。 The audio output unit 151 is composed of, for example, an audio output terminal, and transmits an audio signal in order to output audio from a connected earphone, speaker, or the like. Further, the audio output unit 151 may be a speaker built in the image pickup apparatus 100 and outputting audio related to the audio signal. The video output unit 150 is composed of, for example, a video output terminal, and transmits an image signal in order to display the video on a connected external display or the like. Further, the audio output unit 151 and the video output unit 150 may be one integrated terminal, for example, a terminal such as an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal.

また、表示制御部131は、画像処理部111から送信された画像信号による映像や、撮像装置100の操作をするための操作画面(メニュー画面)等を表示部130に表示させる。表示部130は、例えば、液晶ディスプレイ、有機ELディスプレイ、電子ペーパー等の表示デバイスであれば何でもよい。 Further, the display control unit 131 causes the display unit 130 to display an image based on the image signal transmitted from the image processing unit 111, an operation screen (menu screen) for operating the image pickup apparatus 100, and the like. The display unit 130 may be any display device such as a liquid crystal display, an organic EL display, or electronic paper.

通信部152は、撮像装置100と外部装置との間で通信を行うもので、例えば、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、撮像開始や終了コマンド等の、撮像にかかる制御信号や、その他の情報を送信したり受信したりする。通信部152は、例えば、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、無線LAN通信モジュール、WirelessUSB、GPS受信機等の無線通信モジュールである。 The communication unit 152 communicates between the image pickup device 100 and the external device, and transmits or receives data such as an audio signal, an image signal, a compressed audio signal, and a compressed image signal, for example. It also transmits and receives control signals related to imaging, such as imaging start and end commands, and other information. The communication unit 152 is, for example, a wireless communication module such as an infrared communication module, a Bluetooth (registered trademark) communication module, a wireless LAN communication module, a WirelessUSB, and a GPS receiver.

次に、本実施形態の撮像装置100の通常の動作について説明する。 Next, the normal operation of the image pickup apparatus 100 of the present embodiment will be described.

本実施形態の撮像装置100は、ユーザが操作部102の電源ボタンを操作すると、操作部102から制御部101に起動の指示が出される。この指示を受けて、制御部101は、不図示の電源供給部を制御して、撮像装置100の各ブロックに対して電源を供給させる。 When the user operates the power button of the operation unit 102, the image pickup apparatus 100 of the present embodiment is instructed to start by the operation unit 102 to the control unit 101. In response to this instruction, the control unit 101 controls a power supply unit (not shown) to supply power to each block of the image pickup apparatus 100.

電源が供給されると、制御部101は、例えば、操作部102のモード切り換えスイッチが、例えば、静止画撮像モード、動画撮像モード、再生モード等のどのモードであるかを操作部102からの指示信号により確認する。 When the power is supplied, the control unit 101 indicates from the operation unit 102, for example, which mode the mode changeover switch of the operation unit 102 is, for example, a still image imaging mode, a moving image imaging mode, or a playback mode. Confirm by signal.

静止画撮像モードでは、撮像装置100は撮像待機状態でユーザが操作部102の静止画記録ボタンを操作することで撮像を行い、圧縮画像信号が記録媒体141に記録される。そして再び撮像待機状態になる。動画撮像モードでは、撮像装置100は撮像待機状態でユーザが操作部102の動画記録開始ボタンを操作することで撮像を開始し、その間、圧縮画像信号と圧縮音声信号または音声信号が記録媒体141に記録される。そしてユーザが操作部102の動画記録終了ボタンを操作することで撮像を終了し、再び撮像待機状態になる。再生モードでは、ユーザが選択したファイルに関する圧縮画像信号や圧縮音声信号または音声信号を記録媒体141から再生して、音声出力部151から音声信号を出力し、表示部130に映像を表示させる。 In the still image imaging mode, the imaging device 100 takes an image by operating the still image recording button of the operation unit 102 in the imaging standby state, and the compressed image signal is recorded on the recording medium 141. Then, the imaging standby state is set again. In the moving image imaging mode, the imaging device 100 starts imaging by the user operating the moving image recording start button of the operation unit 102 in the imaging standby state, and during that time, the compressed image signal and the compressed audio signal or the audio signal are transmitted to the recording medium 141. Recorded. Then, when the user operates the moving image recording end button of the operation unit 102, the imaging is terminated, and the imaging standby state is set again. In the reproduction mode, the compressed image signal, the compressed audio signal, or the audio signal related to the file selected by the user is reproduced from the recording medium 141, the audio signal is output from the audio output unit 151, and the image is displayed on the display unit 130.

まず、静止画撮像モードについて説明する。操作部102により静止画撮像モードが設定されると前述のようにまず、制御部101は、撮像装置100の各ブロックを撮像待機状態に設定させる。 First, the still image imaging mode will be described. When the still image imaging mode is set by the operation unit 102, the control unit 101 first sets each block of the imaging device 100 to the imaging standby state as described above.

撮像待機状態では、画像処理部111は、画像信号を表示制御部131に送信し表示部130に画像信号に関する映像を表示させる。ユーザはこの様にして表示された画面を見ながら撮像の準備を行う。 In the image pickup standby state, the image processing unit 111 transmits an image signal to the display control unit 131 and causes the display unit 130 to display an image related to the image signal. The user prepares for imaging while looking at the screen displayed in this way.

撮像待機状態で、ユーザが操作部102の静止画記録ボタンを操作することにより撮像指示信号が送信されると、制御部101は撮像制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせるように制御する。 When the image pickup instruction signal is transmitted by the user operating the still image recording button of the operation unit 102 in the image pickup standby state, the control unit 101 transmits the image pickup control signal to each block of the image pickup apparatus 100 as follows. Control to make the operation.

撮像部110、112は、レンズにより取り込まれた被写体の光学像を撮像素子により画像信号に変換し、アナログデジタル変換し、画像処理部111に送信する。画像処理部111は、入力されたデジタル画像信号の画質調整処理(ホワイトバランスや色、明るさなど)を設定値に基づいて処理する。そして、画像処理部111で処理された画像信号は、制御部101によりメモリ104や映像出力部150や表示制御部131に送信される。ここで、表示部130に表示された映像を見ることで、ユーザは撮像した静止画を確認することができる。 The image pickup units 110 and 112 convert the optical image of the subject captured by the lens into an image signal by the image pickup element, analog-digitally convert it, and transmit it to the image processing unit 111. The image processing unit 111 processes the image quality adjustment processing (white balance, color, brightness, etc.) of the input digital image signal based on the set value. Then, the image signal processed by the image processing unit 111 is transmitted by the control unit 101 to the memory 104, the video output unit 150, and the display control unit 131. Here, the user can confirm the captured still image by viewing the image displayed on the display unit 130.

そして、画像処理部111は、メモリ104に一時的に記憶された画像信号を読み出して所定の符号化を行い、圧縮画像信号を生成し、記録再生部140に出力する。記録再生部140は、UDF、FAT等のファイルシステム管理のもとに、圧縮画像信号を静止画ファイルとして記録媒体141に書き込んでいく。 Then, the image processing unit 111 reads out the image signal temporarily stored in the memory 104, performs predetermined coding, generates a compressed image signal, and outputs the compressed image signal to the recording / reproducing unit 140. The recording / playback unit 140 writes the compressed image signal as a still image file to the recording medium 141 under the control of a file system such as UDF or FAT.

なお、制御部101は、画像処理部111による符号化の動作が終了すると、撮像待機状態に移行させるように制御信号を撮像装置100の各ブロックに送信して、撮像待機状態に戻る。 When the coding operation by the image processing unit 111 is completed, the control unit 101 transmits a control signal to each block of the image pickup apparatus 100 so as to shift to the image pickup standby state, and returns to the image pickup standby state.

次に、動画撮像モードについて説明する。操作部102により動画撮像モードが設定されると前述のようにまず、制御部101は、撮像装置100の各ブロックを撮像待機状態に設定させる。 Next, the moving image imaging mode will be described. When the moving image imaging mode is set by the operation unit 102, first, as described above, the control unit 101 causes each block of the imaging device 100 to be set to the imaging standby state.

撮像待機状態では、画像処理部111は、画像信号を表示制御部131に送信し表示部130に画像信号に関する映像を表示させる。ユーザはこの様にして表示された画面を見ながら撮像の準備を行う。 In the image pickup standby state, the image processing unit 111 transmits an image signal to the display control unit 131 and causes the display unit 130 to display an image related to the image signal. The user prepares for imaging while looking at the screen displayed in this way.

撮像待機状態で、ユーザが操作部102の動画記録開始ボタンを操作することにより撮像開始の指示信号が送信されると、制御部101は撮像開始の制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせるように制御する。 When the user operates the moving image recording start button of the operation unit 102 in the imaging standby state to transmit the imaging start instruction signal, the control unit 101 transmits the imaging start control signal to each block of the imaging device 100. , Control to operate as follows.

撮像部110、112は、レンズにより取り込まれた被写体の光学像を撮像素子により画像信号に変換し、アナログデジタル変換し、画像処理部111に送信する。画像処理部111は、入力されたデジタル画像信号の画質調整処理(ホワイトバランスや色、明るさなど)を設定値に基づいて処理する。そして、画像処理部111で処理された画像信号は、制御部101により表示制御部131、メモリ104に送信される。表示制御部131は、受信した画像信号に関する映像を表示部130に表示させる。 The image pickup units 110 and 112 convert the optical image of the subject captured by the lens into an image signal by the image pickup element, analog-digitally convert it, and transmit it to the image processing unit 111. The image processing unit 111 processes the image quality adjustment processing (white balance, color, brightness, etc.) of the input digital image signal based on the set value. Then, the image signal processed by the image processing unit 111 is transmitted by the control unit 101 to the display control unit 131 and the memory 104. The display control unit 131 causes the display unit 130 to display an image related to the received image signal.

一方、音声入力部120は、マイクにより得られたアナログ音声信号をデジタル変換し、得られたデジタル音声信号を音声処理部121に送信する。音声処理部121は、入力されたデジタル音声信号のレベルの適正化処理等をして音声信号を出力する。制御部101は、音声処理部121により処理された音声信号をメモリ104に送信する。 On the other hand, the audio input unit 120 digitally converts the analog audio signal obtained by the microphone and transmits the obtained digital audio signal to the audio processing unit 121. The audio processing unit 121 outputs an audio signal by performing processing for optimizing the level of the input digital audio signal and the like. The control unit 101 transmits the voice signal processed by the voice processing unit 121 to the memory 104.

そして、画像処理部111及び音声処理部121は、メモリ104に一時的に記憶された画像信号や音声信号を読み出して所定の符号化を行い、圧縮画像信号、圧縮音声信号等を生成する。そして、制御部101は、これらの圧縮画像信号、圧縮音声信号を合成し、データストリームを形成し、記録再生部140に出力する。記録再生部140は、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体141に書き込んでいく。また、音声を圧縮しない場合には、制御部101は、音声処理部121で生成した音声信号を画像処理部111で生成された圧縮画像信号とともに、記録再生部140に出力する。そして、記録再生部140は、前述したように、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体141に書き込んでいく。 Then, the image processing unit 111 and the audio processing unit 121 read the image signal and the audio signal temporarily stored in the memory 104 and perform predetermined coding to generate the compressed image signal, the compressed audio signal, and the like. Then, the control unit 101 synthesizes these compressed image signals and compressed audio signals, forms a data stream, and outputs the data stream to the recording / reproducing unit 140. The recording / playback unit 140 writes the data stream as one moving image file to the recording medium 141 under the control of a file system such as UDF or FAT. When the audio is not compressed, the control unit 101 outputs the audio signal generated by the audio processing unit 121 to the recording / playback unit 140 together with the compressed image signal generated by the image processing unit 111. Then, as described above, the recording / playback unit 140 writes the data stream as one moving image file to the recording medium 141 under the control of the file system such as UDF and FAT.

以上の動作を撮像中は継続する。 The above operation is continued during imaging.

また、撮像の間、ユーザによる操作部102の操作に応じて、または画像処理部111により生成された画像信号の解析結果に応じて、制御部101は、撮像部110、112や画像処理部111、音声処理部121などに各種制御信号を送信している。例えば、レンズの移動や絞り調整などをさせるための制御信号を撮像部110、112に送信するとともに、画像や音声を調整するための制御信号を画像処理部111、音声処理部121に送信する。 Further, during imaging, the control unit 101 may perform the image pickup units 110, 112 and the image processing unit 111 according to the operation of the operation unit 102 by the user or the analysis result of the image signal generated by the image processing unit 111. , Various control signals are transmitted to the voice processing unit 121 and the like. For example, a control signal for moving the lens and adjusting the aperture is transmitted to the imaging units 110 and 112, and a control signal for adjusting the image and sound is transmitted to the image processing unit 111 and the sound processing unit 121.

また、同様に撮像の間、ユーザにより操作部102のズームキーを操作することで、制御部101により、撮像部110、112の「光学ズーム」機能や、画像処理部111の「電子ズーム」機能を動作させることができる。また、不図示の振動検出部により検出された加速度信号に基づいて、制御部101により、撮像部110、112の「光学防振」機能や、画像処理部111の「電子防振」機能が動作している。 Similarly, during imaging, the user operates the zoom key of the operation unit 102, so that the control unit 101 performs the "optical zoom" function of the imaging units 110 and 112 and the "electronic zoom" function of the image processing unit 111. Can be operated. Further, based on the acceleration signal detected by the vibration detection unit (not shown), the control unit 101 operates the "optical vibration isolation" function of the imaging units 110 and 112 and the "electronic vibration isolation" function of the image processing unit 111. are doing.

そして、ユーザが操作部102の動画記録終了ボタンを操作することにより撮像終了の指示信号が制御部101に送信されると、制御部101は、撮像終了の制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせるように制御する。 Then, when the user operates the moving image recording end button of the operation unit 102 to transmit the imaging end instruction signal to the control unit 101, the control unit 101 sends the imaging end control signal to each block of the imaging device 100. It is transmitted and controlled so that the following operations are performed.

画像処理部111、音声処理部121は、それぞれ画像信号、音声信号のメモリ104への送信を停止する。そして、メモリ104に記憶されている残りの画像信号と音声信号とを読み出して所定の符号化を行い、圧縮画像信号、圧縮音声信号等を生成する。 The image processing unit 111 and the audio processing unit 121 stop transmitting the image signal and the audio signal to the memory 104, respectively. Then, the remaining image signal and audio signal stored in the memory 104 are read out and subjected to predetermined coding to generate a compressed image signal, a compressed audio signal, and the like.

制御部101は、これらの最後の圧縮画像信号、圧縮音声信号を合成し、データストリームを形成し、記録再生部140に出力する。音声を圧縮しない場合には、制御部101は、音声処理部121により生成された音声信号と、圧縮画像信号とを記録再生部140に出力する。 The control unit 101 synthesizes these final compressed image signals and compressed audio signals to form a data stream, and outputs the data stream to the recording / reproducing unit 140. When the audio is not compressed, the control unit 101 outputs the audio signal generated by the audio processing unit 121 and the compressed image signal to the recording / playback unit 140.

記録再生部140は、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体141に書き込んでいく。そして、データストリームの供給が停止したら、制御部101はサムネイルを生成するために以下のような動作をさせるように制御する。 The recording / playback unit 140 writes the data stream as one moving image file to the recording medium 141 under the control of a file system such as UDF or FAT. Then, when the supply of the data stream is stopped, the control unit 101 controls so as to perform the following operations in order to generate thumbnails.

記録再生部140は記録媒体141に記録した動画ファイルの先頭フレームの圧縮画像信号を読み出し、画像処理部111に送信する。画像処理部111は、圧縮画像信号を一時的にメモリ104に記憶させ、所定の手順で復号する。次に画像処理部111は得られた画像信号に対してサムネイル用の所定の符号化を行い、サムネイル用圧縮画像信号を生成する。そして、制御部101はサムネイル用圧縮画像信号を記録再生部140に出力する。記録再生部140は、UDF、FAT等のファイルシステム管理のもとに、サムネイル用圧縮画像を、基となる動画ファイルに結合させるように記録媒体141に書き込み、動画ファイルを完成させるとともに記録動作を停止する。 The recording / reproducing unit 140 reads the compressed image signal of the first frame of the moving image file recorded on the recording medium 141 and transmits it to the image processing unit 111. The image processing unit 111 temporarily stores the compressed image signal in the memory 104 and decodes it in a predetermined procedure. Next, the image processing unit 111 performs predetermined coding for thumbnails on the obtained image signal to generate a compressed image signal for thumbnails. Then, the control unit 101 outputs the thumbnail compressed image signal to the recording / playback unit 140. Under the file system management of UDF, FAT, etc., the recording / playback unit 140 writes the compressed image for thumbnails to the recording medium 141 so as to be combined with the base moving image file, completes the moving image file, and performs the recording operation. Stop.

制御部101は、記録動作が停止すると、撮像待機状態に移行させるように制御信号を撮像装置100の各ブロックに送信して、撮像待機状態に戻る。 When the recording operation is stopped, the control unit 101 transmits a control signal to each block of the imaging device 100 so as to shift to the imaging standby state, and returns to the imaging standby state.

ユーザによる操作部102の操作に応じて、著作権者名および作成者名を不揮発性メモリ105に記憶させることが可能である。また、操作部102が操作されるたびに、不揮発性メモリ105に記憶された著作権者名および作成者名を変更することが可能である。不揮発性メモリ105に記憶された著作権者名および作成者名は、撮像処理に応じて静止画ファイルまたは動画ファイルにメタデータとして記録される。 It is possible to store the copyright holder name and the creator name in the non-volatile memory 105 in response to the operation of the operation unit 102 by the user. Further, each time the operation unit 102 is operated, the copyright holder name and the creator name stored in the non-volatile memory 105 can be changed. The copyright holder name and creator name stored in the non-volatile memory 105 are recorded as metadata in a still image file or a moving image file according to the imaging process.

以上説明した静止画撮像モードおよび動画撮像モードで記録される静止画ファイルおよび動画ファイルは、DCF(Design rule for Camera File system)に従って記録されるものとする。 The still image file and the moving image file recorded in the still image imaging mode and the moving image imaging mode described above are assumed to be recorded according to DCF (Design rule for Camera File system).

次に、再生モードについて説明する。操作部102により再生モードが設定されると、制御部101は、再生状態に移行させるように制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせる。 Next, the playback mode will be described. When the reproduction mode is set by the operation unit 102, the control unit 101 transmits a control signal to each block of the image pickup apparatus 100 so as to shift to the reproduction state, and performs the following operations.

記録再生部140は、記録媒体141に記録された圧縮画像信号からなる静止画ファイル、または圧縮画像信号と圧縮音声信号または音声信号とからなる動画ファイルを読み出す。制御部101は読み出された圧縮画像信号、圧縮音声信号を、画像処理部111及び音声処理部121に送る。圧縮されていない音声信号であれば、制御部101は、音声出力部151に音声信号を送信する。 The recording / playback unit 140 reads a still image file composed of a compressed image signal recorded on the recording medium 141, or a moving image file composed of a compressed image signal and a compressed audio signal or an audio signal. The control unit 101 sends the read compressed image signal and compressed audio signal to the image processing unit 111 and the audio processing unit 121. If it is an uncompressed voice signal, the control unit 101 transmits the voice signal to the voice output unit 151.

画像処理部111及び音声処理部121は、圧縮画像信号、圧縮音声を一時的にメモリ104に記憶させ、所定の手順で復号する。そして制御部101は、復号化した音声信号を音声出力部151へ、復号化した画像信号を映像出力部150や表示制御部131に送信する。表示制御部131は、入力された画像信号にかかる映像を表示部130に表示させ、音声出力部151は、入力された音声信号にかかる音声を内蔵されたスピーカや、接続されたイヤホンやスピーカから出力する。 The image processing unit 111 and the audio processing unit 121 temporarily store the compressed image signal and the compressed audio in the memory 104, and decode them in a predetermined procedure. Then, the control unit 101 transmits the decoded audio signal to the audio output unit 151, and the decoded image signal to the video output unit 150 and the display control unit 131. The display control unit 131 causes the display unit 130 to display the image related to the input image signal, and the audio output unit 151 displays the sound related to the input audio signal from the built-in speaker or the connected earphone or speaker. Output.

撮像装置100は以上のように、静止画、動画の記録再生を行う。 As described above, the image pickup apparatus 100 records and reproduces still images and moving images.

図2は、本実施形態における動画ファイルのフォーマットを説明するための図である。本実施形態で扱う動画ファイルのフォーマットはMP4とし、映像はH.264、音声はAACで圧縮されているものとする。 FIG. 2 is a diagram for explaining the format of the moving image file in the present embodiment. The format of the moving image file handled in this embodiment is MP4, and the image is H. 264, it is assumed that the audio is compressed by AAC.

MP4フォーマットでは、ファイルに記録されるデータは「ボックス」と呼ばれるデータ構造の内部に記述され、ボックスを単位としてファイルに記録される。ボックスは次のようなフィールドから構成される。
Size:Sizeフィールドを含む、ボックス全体のデータサイズを表す4バイトのフィールド
Type:ボックスの種類を表す4バイトのタイプ識別子。
In the MP4 format, the data recorded in the file is described inside a data structure called a "box" and is recorded in the file in units of boxes. The box consists of the following fields.
Size: A 4-byte field that represents the data size of the entire box, including the Size field Type: A 4-byte type identifier that represents the type of box.

Typeフィールド以降のフィールドはボックスによってはオプションであるため、ここでは説明を省略する。また、ボックス内にボックスを包含することが可能であり、それにより入れ子構造を実現している。 Since the fields after the Type field are optional depending on the box, the description thereof is omitted here. In addition, it is possible to enclose the box inside the box, thereby realizing a nested structure.

ftyp201はファイルタイプボックスであり、ファイルの種別を表すボックスである。moov202はムービーボックスであり、後述のmvhd(ムービーヘッダボックス)やtrak(トラックボックス)などを含む、音声や映像に関する情報が格納されている。mdat203はムービーデータボックスであり、音声や映像、テキストなどの実データが格納されている。 ftyp201 is a file type box, which is a box indicating a file type. The movie 202 is a movie box, and stores information related to audio and video, including mvhd (movie header box) and truck (track box) described later. The mdat 203 is a movie data box, and stores actual data such as audio, video, and text.

moov202内の代表的なボックスについて述べる。uuid204は汎用一意識別子ボックスであり、任意の識別子やデータが格納されている。格納されているデータには、記録した動画像の1フレームを切り出して縮小した画像であるサムネイル230が含まれている。udta205はユーザーデータボックスであり、撮像装置100のモデル名や通信部152で受信した撮像装置100の位置情報やUTC時刻などのメタデータが格納されている。mvhd206は、動画の作成日時や修正日時、タイムスケール、Duraionなどが記載されている。trak207は映像用のtrakであり、映像のコーデックの種類や後述のstts(時間サンプルボックス)やstsc(サンプルチャンクボックス)やstss(同期サンプルボックス)、stsz(サンプルサイズボックス)、stco(チャンクオフセット)などmdat内の映像データに関する情報が格納されている。trak208は音声用のtrakであり、サンプリング周波数やビット数、チャンネル数などのmdat内の音声データに関する情報が格納されている。trak209はテキスト用のtrakであり、mdat内のテキストデータに関する情報が格納されている。 A typical box in moov202 will be described. The uid 204 is a general-purpose unique identifier box in which an arbitrary identifier or data is stored. The stored data includes a thumbnail 230, which is an image obtained by cutting out one frame of a recorded moving image and reducing it. The udta 205 is a user data box, and stores metadata such as the model name of the image pickup device 100, the position information of the image pickup device 100 received by the communication unit 152, and the UTC time. In mvhd206, the creation date and time, modification date and time, time scale, Duraion, etc. of the moving image are described. The trak207 is a video trak, and includes the types of video codecs, stts (time sample box), stsc (sample chunk box), stss (synchronous sample box), stsz (sample size box), and stco (chunk offset) described later. Information about the video data in the mdat is stored. The trak 208 is an audio trak, and stores information about audio data in mdat such as a sampling frequency, the number of bits, and the number of channels. The trak 209 is a text trak, and stores information about the text data in mdat.

tkhd210はトラックの作成日時やDuration、そしてIDなどが格納されている。本実施形態では、映像トラックのIDは1、音声トラックのIDは2、テキストトラックのIDは3、とする。 The tkhd210 stores the track creation date and time, Duration, ID, and the like. In the present embodiment, the ID of the video track is 1, the ID of the audio track is 2, and the ID of the text track is 3.

edts211はエディットボックスであり、トラックの再生開始時間が記載されている。例えば、映像の再生開始よりも音声の再生開始を後ろにずらしたい場合には、音声のedtsに値を記載することで実現することが可能である。 The edts211 is an edit box, and the playback start time of the track is described. For example, when it is desired to shift the start of audio reproduction later than the start of reproduction of video, it can be realized by describing a value in the audio edts.

tref212は、トラック間の参照情報が記載されている。本実施形態では、映像トラックがテキストトラックをチャプタとして参照するため、映像用のtrefには、テキストトラックのIDである3が記載され、それをチャプタとして参照するため、識別子として‘chap’と記載されている。音声トラックも同様である。テキストトラックにはtrefは存在しない。 Reference information between tracks is described in tref212. In the present embodiment, since the video track refers to the text track as a chapter, the text track ID 3 is described in the video tref, and since it is referred to as a chapter, it is described as'chap'as an identifier. Has been done. The same is true for audio tracks. There is no tref in the text track.

stsc213は、1チャンクがいくつのサンプル(映像の場合はフレーム)数で構成されているかを表している。stts214は、サンプル数と各サンプルのDurationが格納されている。stss215は、キーフレーム番号が記載されており、映像トラックにのみ存在する。たとえば、GOP(Group of Pictures)が3の場合は、1、4、7・・・と記載されており、GOPが12の場合は、1、13、25・・・、GOPが15の場合は、1、16、31・・・と記載されている。216はstszであり、各サンプルのデータサイズが格納されている。stco217は、各チャンクのファイルオフセットが格納されている。 The stsc213 represents how many samples (frames in the case of video) a chunk is composed of. The stts214 stores the number of samples and the duration of each sample. The stss215 has a keyframe number and exists only in the video track. For example, when the GOP (Group of Pictures) is 3, it is described as 1, 4, 7 ..., when the GOP is 12, 1, 13, 25 ..., When the GOP is 15, it is described. It is described as 1, 16, 31 ... 216 is stsz, and the data size of each sample is stored. The stco217 stores the file offset of each chunk.

Wide218は、動画ファイルサイズが4GB以上の場合の64bit拡張用のボックスである。 Wide218 is a 64-bit expansion box when the moving image file size is 4 GB or more.

テキストチャンク219、220はmdat内に格納されているテキストチャンクであり、各チャプタのタイトルがテキストデータとして記載されている。音声チャンク221および222はmdat内に格納されている音声チャンクデータを表している。映像チャンク223および224はmdat内に格納されている映像チャンクデータを表している。 The text chunks 219 and 220 are text chunks stored in mdat, and the title of each chapter is described as text data. The voice chunks 221 and 222 represent voice chunk data stored in mdat. The video chunks 223 and 224 represent the video chunk data stored in mdat.

以上のように、映像用のstszおよびstcoに格納されている情報を用いることで、mdat内の任意の映像フレームやチャプタにアクセスすることが可能である。 As described above, by using the information stored in stsz and stco for video, it is possible to access any video frame or chapter in mdat.

図3は、本実施形態における静止画像のファイルのデータの構造例を説明するための図である。 FIG. 3 is a diagram for explaining a structural example of data of a still image file in the present embodiment.

画像ファイル301は先頭に画像ファイルの開始を示すマーカ(SOI)302を有し、その後にヘッダ部に相当するアプリケーションマーカ(APP1)303を有する。アプリケーションマーカ(APP1)303内には、以下のものから構成される。
サイズ(APP1 Length)303、アプリケーションマーカの識別コード(APP1 Identifier Code)305、画像データの作成日時(Date Time)306、画像データが生成された日時(Data Time Original)307、その他の撮像情報308、サムネイル画像(Thumbnail Data)309。
The image file 301 has a marker (SOI) 302 indicating the start of the image file at the beginning, and then has an application marker (APP1) 303 corresponding to the header portion. The application marker (APP1) 303 is composed of the following.
Size (APP1 Lens) 303, application marker identification code (APP1 Identifier Code) 305, image data creation date and time (Date Time) 306, image data generation date and time (Data Time Original) 307, other imaging information 308, Thumbnail image (Thumbnail Data) 309.

また画像ファイル301に記録される画像データは、量子化テーブル(DQT)310、ハフマンテーブル(DHT)311、フレーム開始マーカ(SOF)312、スキャン開始マーカ(SOS)313及び圧縮データ314から構成される。そして、画像ファイルデータの最後を示すマーカ(EOI)315で終端される。 The image data recorded in the image file 301 is composed of a quantization table (DQT) 310, a Huffman table (DHT) 311, a frame start marker (SOF) 312, a scan start marker (SOS) 313, and compressed data 314. .. Then, it is terminated by a marker (EOI) 315 indicating the end of the image file data.

図4は、本実施形態における表示部130に表示する画面の一例を説明するための図である。図4に示した画面で、uuid204に格納されているサムネイル230が動画像を表示し、図3のサムネイル画像309が静止画を表示する。図4では、動画像は、画像の両横にフィルムを表すアイコンを表示し、動画像であることが示されている。画像401は、動画像を代表する。 FIG. 4 is a diagram for explaining an example of a screen displayed on the display unit 130 in the present embodiment. On the screen shown in FIG. 4, the thumbnail 230 stored in the uid 204 displays a moving image, and the thumbnail image 309 in FIG. 3 displays a still image. In FIG. 4, the moving image is shown to be a moving image by displaying icons representing a film on both sides of the image. Image 401 represents a moving image.

図5は、本実施形態における代表画像の生成を説明するための図である。以下では、図5を用いながら、本実施形態のフローについて説明する。 FIG. 5 is a diagram for explaining the generation of a representative image in the present embodiment. Hereinafter, the flow of the present embodiment will be described with reference to FIG.

ステップS501で、撮像装置100の使用者(ユーザ)が操作部102を操作して、再生を指示し、記録再生部140が動画像を再生する。ここでの動画像は、予め記録媒体141に保存された動画像でもよく、直前に撮像部110が撮像した動画像でもよい。 In step S501, the user (user) of the imaging device 100 operates the operation unit 102 to instruct reproduction, and the recording / reproduction unit 140 reproduces the moving image. The moving image here may be a moving image previously stored in the recording medium 141, or may be a moving image captured by the imaging unit 110 immediately before.

ステップS502で、制御部101は、動画像の再生が完了したかどうかを判断する。ステップS503で、ユーザが、合成に用いる動画像のフレームを選択する。 In step S502, the control unit 101 determines whether or not the reproduction of the moving image is completed. In step S503, the user selects a frame of the moving image to be used for compositing.

図6は、本実施形態における画像の合成を説明するための図である。図6では、動画像のフレーム601ないし604を用いて画像610を合成することが示されている。図6の動画像では、背景の手前に動いている人が映されている。動画像が再生されているうちに、ステップS502でNOと判断しフローがステップS503に進み、ユーザがステップS503でフレーム601を、操作部102を通じて選択する。次に、ステップS501に戻り、動画像の再生が続き、再びステップS502に進み、制御部101は、動画像の再生が完了したかどうかを判断する。再生が完了していないと判断されると、ステップS503に進み、ユーザが再び合成に用いるフレーム602を選択する。かくして再生が完了するまでにユーザが合成に用いるフレーム601ないし604を選択する。 FIG. 6 is a diagram for explaining the composition of images in the present embodiment. In FIG. 6, it is shown that the image 610 is synthesized by using the frames 601 to 604 of the moving image. In the moving image of FIG. 6, a person moving in front of the background is shown. While the moving image is being reproduced, NO is determined in step S502, the flow proceeds to step S503, and the user selects the frame 601 through the operation unit 102 in step S503. Next, the process returns to step S501, the reproduction of the moving image continues, and the process proceeds to step S502 again, and the control unit 101 determines whether or not the reproduction of the moving image is completed. If it is determined that the reproduction is not completed, the process proceeds to step S503, and the user selects the frame 602 to be used for the composition again. Thus, the user selects frames 601 to 604 to be used for composition until the reproduction is completed.

次に、ステップS504で、画像処理部111は、フレーム601ないし604に対して合成を行う。合成の方法は多数あるが、一例としては、画像処理部111は、フレーム601ないし604のそれぞれから、被写体の人物像と背景とを認識し、被写体をそれぞれの画像から切り出す。次に、画像処理部111は、被写体が切り出された背景像を用いて、合成画像の背景を作る。最後に、画像処理部111は、合成画像の背景に、切り出された被写体を加えて、合成画像を作成する。 Next, in step S504, the image processing unit 111 synthesizes the frames 601 to 604. There are many methods of compositing, but as an example, the image processing unit 111 recognizes the human image and the background of the subject from each of the frames 601 to 604, and cuts out the subject from each image. Next, the image processing unit 111 creates a background of the composite image by using the background image from which the subject is cut out. Finally, the image processing unit 111 adds the cut-out subject to the background of the composite image to create a composite image.

なお、以上に述べる合成方法は一例にすぎず、他にたとえば既知の軌跡合成、もしくは比較明合成を用いることができる。 The synthesis method described above is only an example, and for example, known trajectory synthesis or comparative bright synthesis can be used.

ステップS505で、画像処理部111は、ステップS504で作成した合成画像を圧縮し、図4に示した画像401と同じ大きさにする。かくして、作成した合成画像は、動画像の代表画像として、画像401を代替することができる。 In step S505, the image processing unit 111 compresses the composite image created in step S504 to have the same size as the image 401 shown in FIG. In this way, the created composite image can replace the image 401 as a representative image of the moving image.

図7は、本実施形態における代表画像を代替した後の表示部130に表示する画面の一例を説明するための図である。図7では、代表画像701は合成画像を示すことがわかる。 FIG. 7 is a diagram for explaining an example of a screen to be displayed on the display unit 130 after substituting the representative image in the present embodiment. In FIG. 7, it can be seen that the representative image 701 shows a composite image.

また、制御部101は、合成画像を代表画像に代替させる前に、自動に判別するステップを設けてもよい。たとえば、合成で生成した合成画像に用いられる最初と最後とのフレームの時刻が近ければ、合成画像を使っても動画像の全体を把握することが困難な場合がある。このような場合では、制御部101は、表示部130を通じてユーザに適宜な提示・警告を与える。または、合成画像を生成した後、合成画像に用いられる最初のフレームと最後のフレームを比較し、違いが予め定められた閾値より少なければ、合成画像を使っても動画像の全体を把握することが困難な場合がある。このような場合では同様に、制御部101は、表示部130を通じてユーザに適宜な提示・警告を与える。または、動画像自体の記録時間が短いと、合成画像を使うメリット自体が少なく、制御部101は、表示部130を通じてユーザに合成を勧めないような提示・警告を与えてもよい。 Further, the control unit 101 may provide a step of automatically determining the composite image before substituting the composite image with the representative image. For example, if the time of the first and last frames used in the composite image generated by the composite is close, it may be difficult to grasp the entire moving image even if the composite image is used. In such a case, the control unit 101 gives an appropriate presentation / warning to the user through the display unit 130. Alternatively, after generating the composite image, compare the first frame and the last frame used for the composite image, and if the difference is less than a predetermined threshold, grasp the entire moving image even if the composite image is used. May be difficult. Similarly, in such a case, the control unit 101 gives an appropriate presentation / warning to the user through the display unit 130. Alternatively, if the recording time of the moving image itself is short, the merit of using the composite image itself is small, and the control unit 101 may give a presentation / warning to the user through the display unit 130 so as not to recommend the composition.

なお、ステップS504で生成した合成画像を用いて、さらに画像処理を行い、代表画像を作成してもよい。たとえば、カメラ映像機器工業会の策定したMPF(Multi−Picture−Format)形式をもつ画像を代表画像として使うような構成にしてもよい。 The composite image generated in step S504 may be further subjected to image processing to create a representative image. For example, an image having an MPF (Multi-Picture-Format) format formulated by the Camera & Imaging Products Association may be used as a representative image.

本実施形態で作成した合成画像を動画像の代表画像として使うことで、1フレームの画像を代表画像として使うことよりも、動画像の全体にわたる被写体の動きを把握することができる。 By using the composite image created in the present embodiment as the representative image of the moving image, it is possible to grasp the movement of the subject over the entire moving image rather than using the image of one frame as the representative image.

(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
Although the above embodiment has been described based on the implementation using a digital camera, the present embodiment is not limited to the digital camera. For example, it may be carried out by a portable device having a built-in image sensor, or a network camera capable of capturing an image.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In the present invention, a program that realizes one or more functions of the above-described embodiment is supplied to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device program. It can also be realized by the process of reading and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像装置
101 制御部
102 操作部
103 バス
104 メモリ
105 不揮発性メモリ
100 Imaging device 101 Control unit 102 Operation unit 103 Bus 104 Memory 105 Non-volatile memory

Claims (13)

ユーザが動画像から複数のフレームを選択する選択手段と、
前記複数のフレームから合成画像を生成する合成手段と、
前記合成画像を、前記動画像の代表画像として用いる制御手段と、を有することを特徴とする画像処理装置。
A selection method for the user to select multiple frames from the moving image,
A compositing means for generating a composite image from the plurality of frames, and
An image processing apparatus comprising: a control means for using the composite image as a representative image of the moving image.
前記代表画像は、サムネイル画像であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the representative image is a thumbnail image. 前記制御手段が、前記合成画像を圧縮するものを前記代表画像として用いることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the control means uses an image that compresses the composite image as the representative image. 前記合成手段は、前記複数のフレームから背景と被写体とを認識し、前記被写体を切り出して前記合成画像を生成することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the compositing means recognizes a background and a subject from the plurality of frames, cuts out the subject, and generates the composite image. .. 前記合成画像は、前記合成画像に、切り出された複数の前記被写体を加えることを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the composite image includes a plurality of cut-out subjects added to the composite image. 前記合成手段は、前記複数のフレームが予め定められた条件に満たす場合に、前記合成画像を生成することを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the compositing means generates the composite image when the plurality of frames satisfy predetermined conditions. 前記複数のフレームが予め定められた条件に満たさない場合に、警告を行う警告手段を有することを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, further comprising a warning means for giving a warning when the plurality of frames do not satisfy a predetermined condition. 前記予め定められた条件は、前記複数のフレームのうちの最初のフレームと最後のフレームの時刻との差が予め定められた値より小さいこと、および、前記複数のフレームのうちの最初のフレームと最後のフレームの違いが予め定められた閾値より小さいことの、少なくともいずれかであることを特徴とする請求項6または7に記載の画像処理装置。 The predetermined conditions are that the difference between the time of the first frame and the time of the last frame of the plurality of frames is smaller than the predetermined value, and that the first frame of the plurality of frames The image processing apparatus according to claim 6 or 7, wherein the difference between the last frames is smaller than or equal to a predetermined threshold value. 前記予め定められた値は、前記動画像の再生時間に基づいて定められることを特徴とする請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the predetermined value is determined based on the reproduction time of the moving image. 表示手段を有し、
前記表示手段は、前記代表画像を表示することを特徴とする請求項1ないし9のいずれか1項に記載の画像処理装置。
Has a display means
The image processing apparatus according to any one of claims 1 to 9, wherein the display means displays the representative image.
動画像を撮像する撮像手段と、
ユーザが前記動画像から複数のフレームを選択する選択手段と、
前記複数のフレームから合成画像を生成する合成手段と、
前記合成画像を、前記動画像の代表画像として用いる制御手段と、を有することを特徴とする画像処理装置。
Imaging means for capturing moving images and
A selection means for the user to select a plurality of frames from the moving image, and
A compositing means for generating a composite image from the plurality of frames, and
An image processing apparatus comprising: a control means for using the composite image as a representative image of the moving image.
ユーザが動画像から複数のフレームを選択する選択ステップと、
前記複数のフレームから合成画像を生成する合成ステップと、
前記合成画像を、前記動画像の代表画像として用いる制御ステップと、を有することを特徴とする画像処理方法。
A selection step in which the user selects multiple frames from the moving image,
The compositing step of generating a composite image from the plurality of frames and
An image processing method comprising: a control step of using the composite image as a representative image of the moving image.
画像処理装置をコンピュータに動作させるコンピュータのプログラムであって、
ユーザが動画像から複数のフレームを選択する選択ステップと、
前記複数のフレームから合成画像を生成する合成ステップと、
前記合成画像を、前記動画像の代表画像として用いる制御ステップと、を行わせることを特徴とするプログラム。
A computer program that operates an image processing device on a computer.
A selection step in which the user selects multiple frames from the moving image,
The compositing step of generating a composite image from the plurality of frames and
A program characterized in that a control step of using the composite image as a representative image of the moving image is performed.
JP2019073036A 2019-04-05 2019-04-05 Image processing apparatus, imaging apparatus, image processing method, and program Pending JP2020170998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019073036A JP2020170998A (en) 2019-04-05 2019-04-05 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019073036A JP2020170998A (en) 2019-04-05 2019-04-05 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2020170998A true JP2020170998A (en) 2020-10-15

Family

ID=72746071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019073036A Pending JP2020170998A (en) 2019-04-05 2019-04-05 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020170998A (en)

Similar Documents

Publication Publication Date Title
JP2004072793A (en) Video recording method and device, video replay method and device, and recording medium
JP2013258510A (en) Imaging device, and method and program of controlling the same
US10200616B2 (en) Image processing device that performs image rotation processing, method of controlling the same, and storage medium
JP6745629B2 (en) Information processing apparatus and control method thereof
JP2005348228A (en) Moving image editing system
JP2005303336A (en) Video signal recording apparatus and video signal reproducing apparatus
JP2020170998A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6278353B2 (en) RECORDING DEVICE, RECORDING METHOD, PROGRAM, AND IMAGING DEVICE
JP7013272B2 (en) Image processing equipment
JP3688214B2 (en) Viewer video recording and playback device
JP6463967B2 (en) Imaging apparatus and control method thereof
JP6218489B2 (en) Image processing device
WO2021117481A1 (en) Data processing device, data processing method, and program
JP6799092B2 (en) Imaging device and imaging method
JP2015029211A (en) Imaging device
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP2021040217A (en) Imaging apparatus, control method of the same, and program
JP2021180396A (en) Imaging apparatus and method for controlling imaging apparatus
JP4212531B2 (en) Recording method, moving picture recording apparatus and recording system
JP2017108224A (en) Recording device
JP2015035752A (en) Image processing device
JP2021061542A (en) Imaging apparatus and control method for the same, and program
JP2007151023A (en) Recording apparatus
JP5509159B2 (en) Image processing device
JP2021036723A (en) Picture processing apparatus and method