JP2013162425A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2013162425A
JP2013162425A JP2012024558A JP2012024558A JP2013162425A JP 2013162425 A JP2013162425 A JP 2013162425A JP 2012024558 A JP2012024558 A JP 2012024558A JP 2012024558 A JP2012024558 A JP 2012024558A JP 2013162425 A JP2013162425 A JP 2013162425A
Authority
JP
Japan
Prior art keywords
image
unit
moving image
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012024558A
Other languages
Japanese (ja)
Other versions
JP5806623B2 (en
Inventor
Tatsuyuki Kamimura
達之 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012024558A priority Critical patent/JP5806623B2/en
Priority to CN201611143425.3A priority patent/CN106851088B/en
Priority to CN201310049275.XA priority patent/CN103248815B/en
Publication of JP2013162425A publication Critical patent/JP2013162425A/en
Application granted granted Critical
Publication of JP5806623B2 publication Critical patent/JP5806623B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus, an imaging method, and a program capable of photographing more variety of moving images using images photographed at different field angles.SOLUTION: An imaging apparatus 1 capable of photographing a first image and a second image different in field angle and/or photographing position comprises a recording controller 274 which performs control to respectively record first moving image data and second moving image data obtained by photographing the first image and the second image consecutively in terms of time. In a case of recording the second image intermittently, the recording controller 274 interpolates each period in which the second image is not recorded, with another image.

Description

本発明は、被写体を撮像して該被写体の画像データを生成する撮像装置、撮像方法およびプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program for imaging a subject and generating image data of the subject.

近年、デジタルカメラ等の撮像装置において、被写体を異なる2つの画角で撮像して生成した2つの画像データを合成して記録することができる技術が知られている(たとえば、特許文献1を参照)。この技術では、広角側で撮影した画像に、望遠側で撮影した画像を合成して合成画像を生成することにより、1画面分の画像データを記録する。   In recent years, there has been known a technique capable of combining and recording two image data generated by imaging a subject at two different angles of view in an imaging apparatus such as a digital camera (see, for example, Patent Document 1). ). In this technique, image data for one screen is recorded by generating a composite image by combining an image captured on the telephoto side with an image captured on the wide-angle side.

特開2010−268019号公報JP 2010-268019 A

ところで、上述した従来技術は、異なる2つの画角で撮影した画像を合成しているだけであり、別々の画像として記憶しているわけではなかった。このため、たとえば動画を撮影する場合には、画角が異なる画像を別々に再生したり、途中で画角を変更しながら再生したりすることができず、変化に乏しい動画しか撮影することができなかった。   By the way, the above-described conventional technique only combines images taken at two different angles of view, and does not store them as separate images. For this reason, for example, when shooting a movie, it is not possible to play back images with different angles of view separately or while changing the angle of view in the middle. could not.

本発明は、上記に鑑みてなされたものであって、異なる画角で撮影した画像を用いて、より変化に富んだ動画の撮影を行うことができる撮像装置、撮像方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an imaging apparatus, an imaging method, and a program capable of capturing a more varied moving image using images captured at different angles of view. With the goal.

上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置であって、前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御部を備え、前記記録制御部は、前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を他の画像で補間することを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention is an imaging apparatus capable of shooting a first image and a second image having different angles of view and / or shooting positions. A recording control unit that performs control to record the first moving image data and the second moving image data obtained by continuously capturing one image and the second image in time, and the recording control unit includes the first moving image data and the second moving image data. When two images are recorded intermittently, the period during which the second image is not recorded is interpolated with another image.

また、本発明にかかる撮像装置は、上記発明において、被写体を撮像して該被写体の画像データを連続的に生成する撮像部をさらに備え、前記第2画像は、前記撮像部が生成した前記画像データに対応する撮影画像を該撮影画像と異なる画角および/または撮影位置で切り出されたことを特徴とする。   The imaging apparatus according to the present invention further includes an imaging unit that images a subject and continuously generates image data of the subject in the above invention, and the second image is the image generated by the imaging unit. The photographed image corresponding to the data is cut out at a different angle of view and / or photographing position from the photographed image.

また、本発明にかかる撮像装置は、上記発明において、前記他の画像は、前記第1画像であることを特徴とする。   In the imaging device according to the present invention as set forth in the invention described above, the other image is the first image.

また、本発明にかかる撮像装置は、上記発明において、前記撮像部が生成した前記撮影画像に画像処理を順次行って前記第1動画データを生成する第1画像処理部と、前記撮像部が生成した前記撮影画像から該撮影画像と異なる画角の領域を順次切り出す画像処理を行って前記第2動画データを生成する第2画像処理部と、前記第1動画データおよび前記第2動画データを記録する記録部と、をさらに備え、前記記録制御部は、前記第1動画データおよび前記第2動画データを同期させて再生できるように前記記録部に記録することを特徴とする。   The imaging apparatus according to the present invention is the imaging apparatus according to the above invention, wherein the imaging unit generates a first moving image data by sequentially performing image processing on the captured image generated by the imaging unit. A second image processing unit that performs image processing for sequentially cutting out a region having a different angle of view from the captured image, and generating the second moving image data; and recording the first moving image data and the second moving image data And the recording control unit records the first moving image data and the second moving image data in the recording unit so that the first moving image data and the second moving image data can be reproduced in synchronization with each other.

また、本発明にかかる撮像装置は、上記発明において、動画撮影の開始を指示する動画開始信号および動画撮影の終了を指示する動画終了信号の入力を受け付ける第1の動画撮影操作部と、前記第2画像の撮影の開始を指示する開始信号および前記第2画像の撮影の終了を指示する終了信号の入力を受け付ける第2の動画撮影操作部と、前記第2画像処理部が前記撮影画像から切り出す領域を設定する領域設定部と、をさらに備え、前記記録制御部は、前記第2の動画撮影操作部から前記開始信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第2画像に対応する領域に設定する一方、前記第2の動画撮影操作部から前記終了信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第1画像に対応する領域に設定することを特徴とする。   In the image pickup apparatus according to the present invention, in the above invention, a first moving image shooting operation unit that receives input of a moving image start signal instructing the start of moving image shooting and a moving image end signal instructing the end of moving image shooting; A second moving image photographing operation unit that accepts an input of a start signal for instructing the start of photographing of two images and an end signal for instructing the end of photographing of the second image; and the second image processing unit cuts out from the photographed image An area setting unit for setting an area, and when the start signal is input from the second moving image shooting operation unit, the recording setting unit sets the area setting unit in the second image processing unit. The region to be set is set to a region corresponding to the second image, and when the end signal is input from the second moving image shooting operation unit, the region setting unit sets the second image processing unit. And sets the frequency in a region corresponding to the first image.

また、本発明にかかる撮像装置は、上記発明において、前記撮影画像を表示可能な表示部と、前記表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、をさらに備え、前記領域設定部は、前記タッチパネルから入力される位置信号に応じた位置に対応する前記撮影画像の領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする。   The imaging device according to the present invention is the above-described invention, wherein the imaging unit according to the present invention is provided on the display unit capable of displaying the captured image and the display screen of the display unit, detects the touch of an object from the outside, and detects the touch position A touch panel that outputs a position signal corresponding to the position signal, and the region setting unit is configured to cause the second image processing unit to display a region of the captured image corresponding to the position corresponding to the position signal input from the touch panel. It is set to the area cut out from the photographed image.

また、本発明にかかる撮像装置は、上記発明において、前記第2画像を撮影している状態で、前記第2画像の撮影の終了を示す終了情報を前記表示部に表示させる表示制御部をさらに備え、前記終了信号は、前記タッチパネルから前記終了情報に対応する領域の前記位置信号であり、前記開始信号は、前記タッチパネルから入力される前記終了情報に対応する領域以外の前記位置信号であることを特徴とする。   The imaging apparatus according to the present invention may further include a display control unit that causes the display unit to display end information indicating the end of shooting of the second image in a state where the second image is shot. The end signal is the position signal of the area corresponding to the end information from the touch panel, and the start signal is the position signal other than the area corresponding to the end information input from the touch panel. It is characterized by.

また、本発明にかかる撮像装置は、上記発明において、前記タッチパネルから入力される位置信号に応じた位置を含む領域内に含まれる被写体の特徴を判定する特徴判定部と、前記特徴判定部が判定した判定結果に基づいて、隣接する前記撮影画像内で追尾する被写体を設定する追尾設定部と、をさらに備え、前記領域設定部は、前記追尾設定部が設定した被写体を含む領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする。   In the imaging device according to the present invention, in the above invention, a feature determination unit that determines a feature of a subject included in an area including a position corresponding to a position signal input from the touch panel, and the feature determination unit determine A tracking setting unit configured to set a subject to be tracked in the adjacent captured image based on the determination result, wherein the region setting unit includes a region including the subject set by the tracking setting unit as the first setting. The two-image processing unit is set to an area cut out from the captured image.

また、本発明にかかる撮像装置は、上記発明において、前記記録制御部は、前記第1動画データおよび前記第2動画データに、前記タッチパネルが外部からの物体のタッチを検出したタッチ位置および/またはタッチを検出した時間情報を含むタッチ情報を対応付けて前記記録部に記録することを特徴とする。   In the imaging device according to the present invention, in the above invention, the recording control unit may detect a touch position at which the touch panel detects a touch of an object from the outside and / or the second moving image data and / or the second moving image data. Touch information including time information when a touch is detected is associated and recorded in the recording unit.

また、本発明にかかる撮像装置は、上記発明において、前記第2画像は、前記第1画像より画角が小さいことを特徴とする。   In the imaging device according to the present invention, the second image has a smaller angle of view than the first image.

また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記記録部に記録された前記第1動画データおよび前記第2動画データを前記表示部に表示させる場合、前記第1動画データおよび前記第2動画データを同期させて前記表示部に表示させることを特徴とする。   In the imaging device according to the present invention, in the above invention, when the display control unit displays the first moving image data and the second moving image data recorded in the recording unit on the display unit, The moving image data and the second moving image data are displayed in synchronization on the display unit.

また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記第1画像に、所定の表示領域に縮小した前記第2画像を重畳して前記表示部に表示させることを特徴とする。   In the imaging device according to the present invention as set forth in the invention described above, the display control unit superimposes the second image reduced in a predetermined display area on the first image and causes the display unit to display the image. And

また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記タッチ情報に基づいて、表現効果を伴って前記第1画像および前記第2画像それぞれの表示領域を切り替えることを特徴とする。   In the imaging device according to the present invention as set forth in the invention described above, the display control unit switches display areas of the first image and the second image with an expression effect based on the touch information. And

また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記第1画像および前記第2画像それぞれの表示領域を徐々に切り替える表現効果、または前記第1画像に前記第2画像を合成する合成比率を徐々に切り替える表現効果を行って前記表示部に表示させることを特徴とする。   In the imaging device according to the aspect of the invention, in the invention described above, the display control unit may express the effect of gradually switching display areas of the first image and the second image, or the second image may be changed to the first image. An expression effect of gradually switching the composition ratio for synthesizing the images is performed and displayed on the display unit.

また、本発明にかかる撮像方法は、画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置が実行する撮像方法であって、前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、前記記録制御ステップは、前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とする。   An imaging method according to the present invention is an imaging method executed by an imaging apparatus capable of capturing a first image and a second image having different angles of view and / or imaging positions, wherein the first image and the second image Including a recording control step for controlling the recording of each of the first moving image data and the second moving image data obtained by continuously shooting the image, wherein the recording control step records the second image intermittently. In this case, the period during which the second image is not recorded is interpolated with another image.

また、本発明にかかるプログラムは、画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置に実行させるプログラムであって、前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、前記記録制御ステップは、前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とする。   The program according to the present invention is a program for causing an imaging device capable of capturing a first image and a second image having different angles of view and / or photographing positions to execute the first image and the second image over time. Including a recording control step for controlling the recording of the first moving image data and the second moving image data obtained by continuous continuous shooting, wherein the recording control step records the second image intermittently. The period during which the second image is not recorded is interpolated with another image.

本発明によれば、異なる画角で撮影した画像を用いて、より変化に富んだ動画の再生を行うことができるという効果を奏する。   According to the present invention, there is an effect that it is possible to reproduce a moving image with more changes using images taken at different angles of view.

図1は、本発明の一実施の形態にかかる撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to an embodiment of the present invention. 図2は、本発明の一実施の形態にかかる撮像装置が実行するマルチレコーディング処理の概要を説明する図である。FIG. 2 is a diagram for explaining the outline of the multi-recording process executed by the imaging apparatus according to the embodiment of the present invention. 図3は、本発明の一実施の形態にかかる撮像装置が実行する処理の概要を示すフローチャートである。FIG. 3 is a flowchart showing an outline of processing executed by the imaging apparatus according to the embodiment of the present invention. 図4は、本発明の一実施の形態にかかる撮像装置が実行する撮影制御処理の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of the imaging control process executed by the imaging apparatus according to the embodiment of the present invention. 図5は、本発明の一実施の形態にかかる撮像装置が実行する第2動画候補枠表示処理の概要を示すフローチャートである。FIG. 5 is a flowchart showing an outline of the second moving image candidate frame display process executed by the imaging apparatus according to the embodiment of the present invention. 図6は、本発明の一実施の形態にかかる撮像装置が実行する再生表示処理の概要を示すフローチャートである。FIG. 6 is a flowchart showing an outline of the reproduction display process executed by the imaging apparatus according to the embodiment of the present invention. 図7は、本発明の一実施の形態にかかる撮像装置が実行するマルチフレームの動画を手動で切り替える際の動画の遷移を模式的に示す図である。FIG. 7 is a diagram schematically illustrating moving image transition when manually switching multi-frame moving images executed by the imaging apparatus according to the embodiment of the present invention. 図8は、本発明の一実施の形態にかかる撮像装置が実行するマルチフレームの動画を自動で切り替える際の動画の遷移を模式的に示す図である。FIG. 8 is a diagram schematically showing moving image transition when a multi-frame moving image is automatically switched by the imaging apparatus according to the embodiment of the present invention. 図9は、本発明の一実施の形態にかかる撮像装置が実行するマルチフレームの動画を自動で切り替える際の動画の遷移を模式的に示す図である。FIG. 9 is a diagram schematically illustrating moving image transition when the multi-frame moving image is automatically switched by the imaging apparatus according to the embodiment of the present invention. 図10は、本発明の一実施の形態にかかる撮像装置が実行するマルチフレームの動画を自動で切り替える際の別の動画の遷移を模式的に示す図である。FIG. 10 is a diagram schematically illustrating another moving image transition when the multi-frame moving image is automatically switched by the imaging apparatus according to the embodiment of the present invention. 図11は、本発明の一実施の形態にかかる撮像装置が実行する別のマルチレコーディング処理の概要を模式的に説明する図である。FIG. 11 is a diagram schematically illustrating an outline of another multi-recording process executed by the imaging apparatus according to the embodiment of the present invention. 図12は、本発明の一実施の形態にかかる撮像装置が実行する別のマルチレコーディング処理の概要を模式的に説明する図である。FIG. 12 is a diagram schematically illustrating an outline of another multi-recording process executed by the imaging apparatus according to the embodiment of the present invention.

以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、この実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same portions are denoted by the same reference numerals for description.

図1は、本発明の一実施の形態にかかる撮像装置の構成を示すブロック図である。図1に示す撮像装置1は、レンズ部2と、レンズ駆動部3と、絞り4と、絞り駆動部5と、シャッタ6と、シャッタ駆動部7と、撮像素子8と、撮像素子駆動部9と、信号処理部10と、A/D変換部11と、第1画像処理部12と、特徴判定部13と、追尾設定部14と、第2画像処理部15と、AE処理部16と、AF処理部17と、画像圧縮展開部18と、入力部19と、表示部20と、表示駆動部21と、記録媒体22と、メモリI/F23と、SDRAM24と、Flashメモリ25と、バス26と、制御部27と、を備える。撮像装置1内部のデータの転送は、バス26を介して行われる。   FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to an embodiment of the present invention. An imaging apparatus 1 illustrated in FIG. 1 includes a lens unit 2, a lens driving unit 3, a diaphragm 4, a diaphragm driving unit 5, a shutter 6, a shutter driving unit 7, an imaging element 8, and an imaging element driving unit 9. A signal processing unit 10, an A / D conversion unit 11, a first image processing unit 12, a feature determination unit 13, a tracking setting unit 14, a second image processing unit 15, an AE processing unit 16, AF processing unit 17, image compression / decompression unit 18, input unit 19, display unit 20, display drive unit 21, recording medium 22, memory I / F 23, SDRAM 24, flash memory 25, and bus 26 And a control unit 27. Data transfer within the imaging apparatus 1 is performed via the bus 26.

レンズ部2は、一または複数のレンズを用いて構成される。レンズ部2は、所定の視野領域から光を集光する。レンズ部2は、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有する。レンズ駆動部3は、DCモータまたはステッピングモータ等を用いて構成され、制御部27から入力される指示信号に応じてレンズ部2のレンズを光軸L上で移動させることにより、レンズ部2のピント位置や画角等の変更を行う。   The lens unit 2 is configured using one or a plurality of lenses. The lens unit 2 collects light from a predetermined visual field region. The lens unit 2 has an optical zoom function that changes the angle of view and a focus function that changes the focus. The lens driving unit 3 is configured using a DC motor, a stepping motor, or the like, and moves the lens of the lens unit 2 on the optical axis L in accordance with an instruction signal input from the control unit 27, thereby Change the focus position and angle of view.

絞り4は、レンズ部2が集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部5は、ステッピングモータ等を用いて構成され、制御部27から入力される指示信号に応じて絞り4を駆動する。   The diaphragm 4 adjusts the exposure by limiting the amount of incident light collected by the lens unit 2. The aperture driving unit 5 is configured by using a stepping motor or the like, and drives the aperture 4 according to an instruction signal input from the control unit 27.

シャッタ6は、撮像素子8の状態を露光状態または遮光状態に設定する。シャッタ駆動部7は、ステッピングモータ等を用いて構成され、制御部27から入力される指示信号に応じてシャッタ6を駆動する。   The shutter 6 sets the state of the image sensor 8 to an exposure state or a light shielding state. The shutter driving unit 7 is configured using a stepping motor or the like, and drives the shutter 6 in accordance with an instruction signal input from the control unit 27.

撮像素子8は、レンズ部2が集光した光を受光して電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。撮像素子駆動部9は、所定のタイミングで撮像素子8から画像データ(アナログ信号)を連続的に信号処理部10に出力させる。この意味で、撮像素子駆動部9は、電子シャッタとして機能する。なお、本実施の形態では、撮像素子8および撮像素子駆動部9が撮像部として機能する。   The imaging element 8 is configured using a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that receives the light collected by the lens unit 2 and converts it into an electrical signal. The image sensor driving unit 9 causes the signal processing unit 10 to continuously output image data (analog signal) from the image sensor 8 at a predetermined timing. In this sense, the image sensor driving unit 9 functions as an electronic shutter. In the present embodiment, the image sensor 8 and the image sensor drive unit 9 function as an image capturing unit.

信号処理部10は、撮像素子8から入力されるアナログ信号に対して、アナログ処理を施してA/D変換部11に出力する。具体的には、信号処理部10は、画像データに対して、ノイズ低減処理およびゲインアップ処理等を行う。たとえば、信号処理部10は、アナログ信号に対して、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるようにゲインアップを行う。   The signal processing unit 10 performs analog processing on the analog signal input from the image sensor 8 and outputs the analog signal to the A / D conversion unit 11. Specifically, the signal processing unit 10 performs noise reduction processing, gain increase processing, and the like on the image data. For example, the signal processing unit 10 performs waveform shaping on the analog signal after reducing reset noise and the like, and further increases the gain so that the target brightness is obtained.

A/D変換部11は、信号処理部10から入力されるアナログ信号に対してA/D変換を行うことによってデジタルの画像データ(撮影画像)を生成し、バス26を介してSDRAM24に出力する。   The A / D conversion unit 11 performs A / D conversion on the analog signal input from the signal processing unit 10 to generate digital image data (captured image) and outputs the digital image data to the SDRAM 24 via the bus 26. .

第1画像処理部12は、画像エンジン(画像コントローラ)を用いて構成される。第1画像処理部12は、バス26を介してSDRAM24から画像データを取得し、取得した画像データ(RAWデータ)に対して各種の画像処理を行って第1処理画像データ(第1画像データ)を生成する。具体的には、第1画像処理部12は、画像データに対して、少なくとも、オプティカルブラック減算処理、ホワイトバランス(WB)調整処理、撮像素子がベイヤー配列の場合には画像データの同時化処理、カラーマトリクス演算処理、ガンマ補正処理、リサイズ処理、トリミング処理、色再現処理およびエッジ強調処理等を含む画像処理を行う。第1画像処理部12が画像処理を行った第1処理画像データは、バス26を介してSDRAM24および特徴判定部13にそれぞれ出力する。第1画像処理部12は、バス26を介してSDRAM24から撮像素子8が連続的に生成した画像データを順次取得し、取得した画像データに対応する撮影画像に対して画像処理を行って第1動画データを構成する第1処理画像データを順次生成する。   The first image processing unit 12 is configured using an image engine (image controller). The first image processing unit 12 acquires image data from the SDRAM 24 via the bus 26, performs various image processing on the acquired image data (RAW data), and performs first processing image data (first image data). Is generated. Specifically, the first image processing unit 12 performs at least optical black subtraction processing, white balance (WB) adjustment processing on the image data, and image data synchronization processing when the image sensor is a Bayer array, Image processing including color matrix calculation processing, gamma correction processing, resizing processing, trimming processing, color reproduction processing, edge enhancement processing, and the like is performed. The first processed image data subjected to the image processing by the first image processing unit 12 is output to the SDRAM 24 and the feature determination unit 13 via the bus 26, respectively. The first image processing unit 12 sequentially acquires image data continuously generated by the image sensor 8 from the SDRAM 24 via the bus 26, performs image processing on the captured image corresponding to the acquired image data, and performs first processing. First processing image data constituting the moving image data is sequentially generated.

特徴判定部13は、第1画像処理部12から入力される第1処理画像データに基づいて、この第1処理画像データに対応する処理画像に含まれる主要被写体の特徴を判定する。具体的には、特徴判定部13は、後述する入力部19から入力される指示信号または制御部27から入力される指示信号に基づいて、第1処理画像データに対応する処理画像で指定された対象領域に含まれる主要被写体の特徴点を判定し、この判定結果を追尾設定部14に出力する。ここで、特徴点とは、輝度およびコントラストである。なお、特徴判定部13は、対象領域のカラーヒストグラムを用いて特徴点を判定してもよい。   Based on the first processed image data input from the first image processing unit 12, the feature determination unit 13 determines the characteristics of the main subject included in the processed image corresponding to the first processed image data. Specifically, the feature determination unit 13 is designated by the processed image corresponding to the first processed image data based on an instruction signal input from the input unit 19 described later or an instruction signal input from the control unit 27. The feature points of the main subject included in the target area are determined, and the determination result is output to the tracking setting unit 14. Here, the feature points are brightness and contrast. Note that the feature determination unit 13 may determine a feature point using a color histogram of the target region.

追尾設定部14は、特徴判定部13から入力される特徴点と、SDRAM24に記録された処理画像データに対応する処理画像とに基づいて、主要被写体を追尾する追尾被写体として設定する。具体的には、追尾設定部14は、SDRAM24から時間的に連続する第1処理画像データを順次取得し、取得した第1処理画像データに対応する処理画像に含まれる特徴点を有する主要被写体を画像間で追尾する追尾被写体として設定する。   The tracking setting unit 14 sets the main subject as a tracking subject to be tracked based on the feature point input from the feature determination unit 13 and the processed image corresponding to the processed image data recorded in the SDRAM 24. Specifically, the tracking setting unit 14 sequentially acquires first processed image data that is temporally continuous from the SDRAM 24, and selects a main subject having a feature point included in the processed image corresponding to the acquired first processed image data. Set as a tracking subject to be tracked between images.

第2画像処理部15は、画像エンジン(画像コントローラ)を用いて構成される。第2画像処理部15は、バス26を介してSDRAM24から画像データを取得し、取得した画像データに対して、第1画像処理部12と同様の画像処理を行って第2処理画像データを生成する。また、第2画像処理部15は、バス26を介してSDRAM24から撮像素子8が連続的に生成した画像データを順次取得し、取得した画像データに対応する撮影画像に対して画像処理を行って第2の画角の第2動画を構成する第2処理画像データ(第2画像)を生成する。また、第2画像処理部15は、後述する制御部27から入力される信号または追尾設定部14から設定結果に基づいて、撮影画像から所定の領域を切り出す処理(トリミング処理)を行うことによって第2動画データを構成する第2処理画像データを順次生成する。具体的には、第2画像処理部15は、撮影画像から第1動画の画角より狭い第2の画角(望遠側)に対応する領域を切り出すことによって第2動画データを構成する第2処理画像データを生成する。   The second image processing unit 15 is configured using an image engine (image controller). The second image processing unit 15 acquires image data from the SDRAM 24 via the bus 26, and performs the same image processing as the first image processing unit 12 on the acquired image data to generate second processed image data. To do. The second image processing unit 15 sequentially acquires image data continuously generated by the image sensor 8 from the SDRAM 24 via the bus 26, and performs image processing on the captured image corresponding to the acquired image data. Second processed image data (second image) constituting the second moving image having the second angle of view is generated. Further, the second image processing unit 15 performs a process (trimming process) for cutting out a predetermined region from the captured image based on a signal input from the control unit 27 described later or a setting result from the tracking setting unit 14. Second processing image data constituting two moving image data is sequentially generated. Specifically, the second image processing unit 15 cuts out a region corresponding to a second field angle (telephoto side) narrower than the field angle of the first moving image from the captured image, thereby configuring the second moving image data. Processed image data is generated.

AE処理部16は、SDRAM24に記録された画像データを取得し、取得した画像データに基づいて、静止画撮影または動画撮影を行う際の露出条件を設定する。具体的には、AE処理部16は、画像データから輝度を算出し、算出した輝度に基づいて、たとえば絞り値(F値)の設定値、シャッタ速度等を決定することで撮像装置1の自動露出を行う。   The AE processing unit 16 acquires image data recorded in the SDRAM 24, and sets an exposure condition when performing still image shooting or moving image shooting based on the acquired image data. Specifically, the AE processing unit 16 calculates the brightness from the image data, and based on the calculated brightness, for example, determines the setting value of the aperture value (F value), the shutter speed, etc. Perform exposure.

AF処理部17は、SDRAM24に記録された画像データを取得し、取得した画像データに基づいて、撮像装置1の自動焦点の調整を行う。たとえば、AF処理部17は、画像データから高周波成分の信号を取り出し、高周波成分の信号に対してAF(Auto Focus)演算処理(コントラストAF処理と呼ばれることもある)を行うことによって、撮像装置1の合焦評価を決定することで撮像装置1の自動焦点の調整を行う。   The AF processing unit 17 acquires the image data recorded in the SDRAM 24, and adjusts the automatic focus of the imaging device 1 based on the acquired image data. For example, the AF processing unit 17 extracts a high-frequency component signal from the image data, and performs AF (Auto Focus) calculation processing (sometimes referred to as contrast AF processing) on the high-frequency component signal, whereby the imaging apparatus 1. The automatic focus adjustment of the imaging apparatus 1 is performed by determining the in-focus evaluation.

画像圧縮展開部18は、SDRAM24に記録された画像データを取得し、取得した画像データに対して所定の形式に従って圧縮し、この圧縮した画像データをSDRAM24に出力する。また、画像圧縮展開部18は、バス26を介してメモリI/F23を介して記録媒体22に記録された画像データ(圧縮画像データ)を取得し、取得した画像データを展開(伸長)してSDRAM24に出力する。画像圧縮展開部18は、静止画圧縮展開部181と、第1動画圧縮展開部182と、第2動画圧縮展開部183と、を有する。   The image compression / decompression unit 18 acquires the image data recorded in the SDRAM 24, compresses the acquired image data according to a predetermined format, and outputs the compressed image data to the SDRAM 24. The image compression / decompression unit 18 acquires image data (compressed image data) recorded on the recording medium 22 via the bus 26 and the memory I / F 23, and expands (decompresses) the acquired image data. Output to SDRAM 24. The image compression / expansion unit 18 includes a still image compression / expansion unit 181, a first moving image compression / expansion unit 182, and a second moving image compression / expansion unit 183.

静止画圧縮展開部181は、画像データに対してJPEG(Joint Photographic Experts Group)方式に従って、画像データを圧縮または展開してSDRAM24に出力する。   The still image compression / decompression unit 181 compresses or decompresses the image data according to the JPEG (Joint Photographic Experts Group) method and outputs the image data to the SDRAM 24.

第1動画圧縮展開部182は、第1動画データに対してMotionJPEG方式、MP4(H.264)方式およびAVI方式のいずれかに従って、動画データを圧縮または展開してSDRAM24に出力する。   The first moving image compression / decompression unit 182 compresses or expands the moving image data on the first moving image data according to any of the Motion JPEG method, the MP4 (H.264) method, and the AVI method, and outputs the compressed data to the SDRAM 24.

第2動画圧縮展開部183は、第2動画データに対してMotionJPEG方式、MP4(H.264)方式およびAVI方式のいずれかに従って、動画データを圧縮または展開してSDRAM24に出力する。   The second moving image compression / decompression unit 183 compresses or decompresses the moving image data for the second moving image data according to any of the Motion JPEG method, the MP4 (H.264) method, and the AVI method, and outputs the compressed data to the SDRAM 24.

入力部19は、静止画撮影の指示を与えるレリーズ信号を入力する静止画撮影操作部191と、動画撮影の指示信号を入力する動画撮影操作部192と、撮像装置1に設定された各種撮影モード切換の指示を与える切替信号を入力するモード切替操作部193と、撮像装置1の各種設定パラメータを設定する設定信号を入力するダイヤル式の設定操作部194と、表示部20の表示画面上に重ねて設けられ、外部からの接触位置に応じた信号の入力を受け付けるタッチパネル195と、を有する。静止画撮影操作部191は、外部からの押圧により進退可能である。静止画撮影操作部191が半押された場合、撮影順次動作を指示する1stレリーズ信号が入力される。これに対して、静止画撮影操作部191が全押しされた場合、静止画撮影を指示する2stレリーズ信号が入力される。なお、入力部19は、撮像装置1の各種設定を表示部20に表示される指示信号の入力を入力するメニュー操作部(図示せず)および記録媒体22が記録する画像データを表示部20に表示させる再生信号を入力する再生操作部(図示せず)を有する。   The input unit 19 includes a still image shooting operation unit 191 that inputs a release signal for giving a still image shooting instruction, a moving image shooting operation unit 192 that inputs a moving image shooting instruction signal, and various shooting modes set in the imaging apparatus 1. A mode switching operation unit 193 for inputting a switching signal for giving a switching instruction, a dial type setting operation unit 194 for inputting setting signals for setting various setting parameters of the imaging apparatus 1, and a display screen of the display unit 20 are overlapped. And a touch panel 195 that receives an input of a signal according to a contact position from the outside. The still image shooting operation unit 191 can advance and retreat by pressing from the outside. When the still image shooting operation unit 191 is half-pressed, a 1st release signal instructing a shooting sequential operation is input. On the other hand, when the still image shooting operation unit 191 is fully pressed, a 2nd release signal instructing still image shooting is input. The input unit 19 includes a menu operation unit (not shown) for inputting an instruction signal to display various settings of the imaging device 1 on the display unit 20 and image data recorded on the recording medium 22 on the display unit 20. A reproduction operation unit (not shown) for inputting a reproduction signal to be displayed is provided.

表示部20は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示駆動部21は、SDRAM24が記録する画像データまたは記録媒体22が記録する画像データを取得し、取得した画像データに対応する画像を表示部20に表示させる。ここで、画像の表示には、撮影直後の画像データを所定時間(例えば3秒間)だけ表示するレックビュー表示、記録媒体22に記録された画像データを再生する再生表示、および撮像素子8が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー表示等が含まれる。また、表示部20は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。表示部20は、画像データに対応する画像を表示する。表示部20は、撮像装置1の操作に関する操作情報や撮影に関する撮影情報を表示する。   The display unit 20 is configured using a display panel made of liquid crystal, organic EL (Electro Luminescence), or the like. The display drive unit 21 acquires image data recorded by the SDRAM 24 or image data recorded by the recording medium 22 and causes the display unit 20 to display an image corresponding to the acquired image data. Here, for image display, a rec view display that displays image data immediately after shooting for a predetermined time (for example, 3 seconds), a reproduction display that reproduces image data recorded on the recording medium 22, and an image sensor 8 are continuously displayed. Live view display that sequentially displays live view images corresponding to image data to be generated in time series. In addition, the display unit 20 appropriately displays operation information of the imaging device 1 and information related to shooting. The display unit 20 displays an image corresponding to the image data. The display unit 20 displays operation information related to the operation of the imaging apparatus 1 and shooting information related to shooting.

記録媒体22は、撮像装置1の外部から装着されるメモリカード等を用いて構成される。記録媒体22は、メモリI/F23を介して撮像装置1に着脱自在に装着される。記録媒体22には、その種類に応じた図示しない読み書き装置によって第1画像処理部12、第2画像処理部15および画像圧縮展開部18のいずれかが処理を施した画像データまたは動画データが書き込まれ、または読み書き装置によって記録媒体22に記録された画像データまたは動画データが読み出される。また、記録媒体22は、制御部27の制御のもと、メモリI/F23およびバス26を介して撮像プログラムおよび各種情報それぞれをFlashメモリ25に出力してもよい。   The recording medium 22 is configured using a memory card or the like mounted from the outside of the imaging device 1. The recording medium 22 is detachably attached to the imaging device 1 via the memory I / F 23. In the recording medium 22, image data or moving image data processed by any one of the first image processing unit 12, the second image processing unit 15, and the image compression / decompression unit 18 is written by a read / write device (not shown) according to the type. Alternatively, the image data or moving image data recorded on the recording medium 22 is read by the read / write device. Further, the recording medium 22 may output the imaging program and various types of information to the flash memory 25 via the memory I / F 23 and the bus 26 under the control of the control unit 27.

SDRAM24は、揮発性メモリを用いて構成される。SDRAM24は、バス26を介してA/D変換部11から入力される画像データ、第1画像処理部12から入力される処理画像データ、第2画像処理部15から入力される処理画像データおよび撮像装置1の処理中の情報を一時的に記録する一次記録部としての機能を有する。SDRAM24は、第1動画仮記録部241と、第2動画仮記録部242と、静止画仮記録部243とを有する。   The SDRAM 24 is configured using a volatile memory. The SDRAM 24 receives image data input from the A / D converter 11 via the bus 26, processed image data input from the first image processing unit 12, processed image data input from the second image processing unit 15, and imaging. It has a function as a primary recording unit that temporarily records information being processed by the device 1. The SDRAM 24 includes a first moving image temporary recording unit 241, a second moving image temporary recording unit 242, and a still image temporary recording unit 243.

第1動画仮記録部241は、信号処理部10、A/D変換部11およびバス26を介して、撮像素子8が1フレーム毎に順次出力する画像データ(撮影画像)を一時的に記録する。また、第1動画仮記録部241は、撮像装置1が2つの画角の動画を撮影するマルチレコーディング撮影モードに設定されている場合、第1画像処理部12が画像処理を行った第1動画データを構成する第1処理画像データを一時的に記録する。   The first moving image temporary recording unit 241 temporarily records the image data (captured image) that the image sensor 8 sequentially outputs for each frame via the signal processing unit 10, the A / D conversion unit 11, and the bus 26. . Further, the first moving image temporary recording unit 241 is a first moving image that has been subjected to image processing by the first image processing unit 12 when the imaging apparatus 1 is set to a multi-recording shooting mode in which a moving image with two angles of view is shot. First processing image data constituting the data is temporarily recorded.

第2動画仮記録部242は、第2画像処理部15が画像処理を行った第2動画データを構成する第2処理画像データを一時的に記録する。   The second moving image temporary recording unit 242 temporarily records the second processed image data constituting the second moving image data that has been subjected to image processing by the second image processing unit 15.

静止画仮記録部243は、静止画撮影操作部191から2stレリーズ信号が入力された場合、信号処理部10、A/D変換部11およびバス26を介して、撮像素子8から入力される静止画画像データを一時的に記録する。   The still image temporary recording unit 243 receives a still image input from the image sensor 8 via the signal processing unit 10, the A / D conversion unit 11, and the bus 26 when a 2st release signal is input from the still image shooting operation unit 191. Temporarily record image data.

Flashメモリ25は、不揮発性メモリを用いて構成される。Flashメモリ25は、プログラム記録部251と、特徴情報記録部252と、を有する。   The flash memory 25 is configured using a nonvolatile memory. The flash memory 25 includes a program recording unit 251 and a feature information recording unit 252.

プログラム記録部251は、撮像装置1を動作させるための各種プログラム、撮像プログラムおよびプログラムの実行中に使用される各種データ、第1画像処理部12および第2画像処理部15による画像処理の動作に必要な各種パラメータ等を記録する。   The program recording unit 251 includes various programs for operating the imaging apparatus 1, imaging programs, various data used during execution of the programs, and image processing operations performed by the first image processing unit 12 and the second image processing unit 15. Record necessary parameters.

特徴情報記録部252は、選択された候補域における特徴情報を記録する。この特徴情報は、たとえば候補域に人物の顔が含まれる場合には、その顔の特徴情報(目、口、鼻、眉毛の位置、大きさ等)である。また、候補域に人物の顔が含まれない場合には、その候補域に含まれる特徴的な色の情報や輝度等である。   The feature information recording unit 252 records the feature information in the selected candidate area. For example, when the candidate area includes a human face, the feature information is the feature information of the face (the position, size, and the like of the eyes, mouth, nose, and eyebrows). In the case where the candidate area does not include a human face, the information includes characteristic color information, luminance, and the like included in the candidate area.

制御部27は、CPU(Central Processing Unit)等を用いて構成される。制御部27は、バス26を介して撮像装置1を構成する各部に対して制御信号や各種データの転送を行うことにより、撮像装置1の動作を統括的に制御する。制御部27は、入力部19から撮影動作の開始信号が入力された場合、撮影動作を開始する制御を行う。ここで、撮影動作とは、シャッタ駆動部7および撮像素子駆動部9の駆動によって撮像素子8が出力した画像データに対し、信号処理部10、A/D変換部11および第1画像処理部12が所定の処理を施す動作をいう。このように処理が施された画像データは、制御部27の制御のもと、画像圧縮展開部18で所定の形式にしたがって圧縮され、バス26およびメモリI/F23を介して記録媒体22に記録される。なお、記録媒体22とは別に撮像装置1の内部に所定の記録領域を確保し、この記録領域に圧縮した画像データを記憶するようにしてもよい。   The control unit 27 is configured using a CPU (Central Processing Unit) or the like. The control unit 27 performs overall control of the operation of the imaging device 1 by transferring control signals and various data to each unit constituting the imaging device 1 via the bus 26. The control unit 27 performs control to start the shooting operation when a shooting operation start signal is input from the input unit 19. Here, the photographing operation refers to the signal processing unit 10, the A / D conversion unit 11, and the first image processing unit 12 for the image data output from the imaging device 8 by driving the shutter driving unit 7 and the imaging device driving unit 9. Means an operation for performing a predetermined process. The image data thus processed is compressed in accordance with a predetermined format by the image compression / decompression unit 18 under the control of the control unit 27, and recorded on the recording medium 22 via the bus 26 and the memory I / F 23. Is done. Note that a predetermined recording area may be secured inside the imaging apparatus 1 separately from the recording medium 22 and compressed image data may be stored in this recording area.

制御部27の詳細な構成について説明する。制御部27は、顔検出部271と、タッチ検出部272と、領域設定部273と、記録制御部274と、表示制御部275と、を有する。   A detailed configuration of the control unit 27 will be described. The control unit 27 includes a face detection unit 271, a touch detection unit 272, an area setting unit 273, a recording control unit 274, and a display control unit 275.

顔検出部271は、画像データに対応する画像に含まれる人の顔をパターンマッチング等によって検出する。具体的には、顔検出部271は、パターンマッチングにより画像中の顔の位置を検出後、目や鼻、口等の顔の特徴点の位置を検出することによって、顔の位置、顔の大きさ(サイズ)、顔の向き、顔の角度(傾き)等を検出する。なお、顔検出部271は、人物の顔だけでなく、犬や猫等の顔を検出してもよい。さらに、顔検出部271は、パターンマッチング以外の周知技術を用いて人の顔を検出してもよい。   The face detection unit 271 detects a human face included in an image corresponding to the image data by pattern matching or the like. Specifically, the face detection unit 271 detects the position of the face in the image by pattern matching, and then detects the position of the face feature point such as the eyes, nose, and mouth, thereby detecting the position of the face and the size of the face. The size (size), face orientation, face angle (tilt), etc. are detected. Note that the face detection unit 271 may detect not only a person's face but also a face such as a dog or a cat. Furthermore, the face detection unit 271 may detect a human face using a known technique other than pattern matching.

タッチ検出部272は、タッチパネル195から入力された位置信号に応じた表示部20上のタッチ位置を検出する。   The touch detection unit 272 detects a touch position on the display unit 20 according to the position signal input from the touch panel 195.

領域設定部273は、第2画像処理部15が撮影画像から切り出す領域(トリミング領域)を設定する。具体的には、領域設定部273は、タッチ検出部272が検出した検出結果に基づいて、タッチ位置に対応する撮影画像の領域を、第2画像処理部15が撮影画像から切り出す領域に設定する。また、領域設定部273は、追尾設定部14が設定した主要被写体が含まれる領域を、第2画像処理部15が撮影画像から切り出す領域に設定する。さらに、顔検出部271が検出した顔の領域を、第2画像処理部15が撮影画像から切り出す領域に設定してもよい。また、領域設定部273は、撮像装置1が動画撮影中に別の箇所をタッチした場合、第2画像の切り出し領域を変更する。これにより、ユーザが別の箇所をタッチした違う箇所(領域)が第2動画として記録される。さらにまた、領域設定部273は、撮像装置1が動画撮影中に画面をタッチしたままタッチ箇所を移動させた場合、タッチの軌跡に応じて撮影画像から切り出す第2画像の領域を変更する。これにより、第2画像の切り出し位置がそれに伴って連続的に移動する。   The area setting unit 273 sets an area (trimming area) that the second image processing unit 15 cuts out from the captured image. Specifically, the region setting unit 273 sets the region of the captured image corresponding to the touch position as a region that the second image processing unit 15 cuts out from the captured image based on the detection result detected by the touch detection unit 272. . Further, the area setting unit 273 sets an area including the main subject set by the tracking setting unit 14 as an area cut out from the captured image by the second image processing unit 15. Furthermore, the face area detected by the face detection unit 271 may be set as an area cut out from the captured image by the second image processing unit 15. In addition, the area setting unit 273 changes the cutout area of the second image when the imaging apparatus 1 touches another part during moving image shooting. Thereby, the different location (area) where the user touches another location is recorded as the second moving image. Furthermore, when the imaging apparatus 1 moves the touch location while touching the screen during moving image shooting, the region setting unit 273 changes the region of the second image cut out from the captured image according to the touch trajectory. Thereby, the cut-out position of the second image is continuously moved accordingly.

記録制御部274は、第1画像および第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録媒体22に記録する制御を行う。具体的には、記録制御部274は、第1動画仮記録部241に記録された第1動画データを構成する時間的に連続する第1処理画像データ群および第2動画仮記録部242に記録された第2動画データを構成する時間的に連続する第2処理画像データ群を同期して再生できるように、たとえば撮影時の時間情報を一致させて記録媒体22の1つまたは複数のファイルに記録させる制御を行う。また、記録制御部274は、第2画像を断続的に記録する場合、第2動画データの中で第2画像を記録していない期間を、他の画像で補間して第2動画データを記録媒体22に記録する。具体的には、記録制御部274は、タッチパネル195から第2画像の撮影の開始を指示する開始信号が入力された場合、領域設定部273が第2画像処理部15に設定する領域を第2画像に対応する領域に設定する一方、タッチパネル195から第2画像の撮影を終了する終了信号が入力された場合、領域設定部273が第2画像処理部15に設定する領域を第1画像(広角側)に対応する領域に設定する。   The recording control unit 274 performs control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in the recording medium 22. Specifically, the recording control unit 274 records the first processed image data group that constitutes the first moving image data recorded in the first moving image temporary recording unit 241 and the second moving image temporary recording unit 242. For example, the time information at the time of shooting is matched to one or a plurality of files on the recording medium 22 so that the time-sequential second processed image data group constituting the second moving image data can be reproduced in synchronization. Control to record. Further, when the second image is intermittently recorded, the recording control unit 274 records the second moving image data by interpolating with the other image during the period in which the second image is not recorded in the second moving image data. Recording on the medium 22. Specifically, the recording control unit 274 sets the second region set by the region setting unit 273 in the second image processing unit 15 when the start signal instructing the start of the second image capturing is input from the touch panel 195. When an end signal for ending the second image capture is input from the touch panel 195 while the region corresponding to the image is set, the region set by the region setting unit 273 in the second image processing unit 15 is set to the first image (wide angle). Side)).

表示制御部275は、画像データに対応する画像を表示部20に表示させる。表示制御部275は、撮像装置1の各種情報を表示部20に表示させる。また、表示制御部275は、撮像装置1が第1動画および第2動画の撮影を行っている場合、第2画角の動画撮影の終了の入力を受け付ける終了情報を表示部20に表示させる。さらに、表示制御部275は、第2画像処理部15が撮影画像から切り出す領域に対応する第2画像の撮影範囲に対応する情報(たとえば矩形の枠)を表示部20に表示させる。本実施の形態では、表示制御部275およびタッチパネル195が第2の動画撮影操作部として機能する。   The display control unit 275 causes the display unit 20 to display an image corresponding to the image data. The display control unit 275 causes the display unit 20 to display various information about the imaging device 1. Further, when the imaging device 1 is shooting the first moving image and the second moving image, the display control unit 275 causes the display unit 20 to display end information that receives an input of the end of moving image shooting at the second angle of view. Furthermore, the display control unit 275 causes the display unit 20 to display information (for example, a rectangular frame) corresponding to the shooting range of the second image corresponding to the area cut out from the shot image by the second image processing unit 15. In the present embodiment, the display control unit 275 and the touch panel 195 function as a second moving image shooting operation unit.

以上の構成を有する撮像装置1に対して、電子ビューファインダ、音声入出力部、被写体に対して補助光(フラッシュ)を発光する補助光発光部、インターネットを介して外部の装置と双方向に通信を行う機能を有する通信部などをさらに設けてもよい。   Bi-directional communication with an external device via the Internet, an electronic viewfinder, an audio input / output unit, an auxiliary light emitting unit that emits auxiliary light (flash) to the subject, and the imaging apparatus 1 having the above configuration You may provide further the communication part etc. which have the function to perform.

図2は、上述した撮像装置1が実行するマルチレコーディング処理の概要を説明する図である。なお、図2において、撮像装置1は、同時刻の視野領域(被写体)に対して、2つの画角の動画の撮影時の時間情報を揃えたり、ファイルを関連づけたりして、これらを同期して再生できるように撮影するマルチレコーディング撮影モードが設定されている。さらに、図2において、表示部20にはライブビュー画像P0が表示されている。また、図2において、図2(a)が撮影時のユーザの操作を示し、図2(b)が第1動画の記録内容を示し、図2(c)が第2動画の記録内容を示す。なお、図2において、各画像の間には、複数の画像が存在する。 FIG. 2 is a diagram for explaining the outline of the multi-recording process executed by the imaging apparatus 1 described above. In FIG. 2, the imaging apparatus 1 synchronizes the visual field area (subject) at the same time by aligning time information at the time of shooting moving images with two angles of view or associating files. Multi-recording shooting mode is set to shoot so that it can be played back. Further, in FIG. 2, the live view image P 0 is displayed on the display unit 20. In FIG. 2, FIG. 2 (a) shows the user's operation at the time of shooting, FIG. 2 (b) shows the recorded content of the first moving image, and FIG. 2 (c) shows the recorded content of the second moving image. . In FIG. 2, there are a plurality of images between the images.

図2に示すように、時間t=t1において、ユーザが動作撮影操作部192を操作して動画撮影の開始信号が入力された場合、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn(n=1、2、3、・・・自然数)および第2画像処理部15が生成した第2処理画像Rnそれぞれの記録を開始する。その後、記録制御部274は、時系列に沿って第1画像処理部12が順次生成した第1処理画像Qn+1および第2画像処理部15が順次生成した第2処理画像Rn+1を記録媒体22に記録する。 As shown in FIG. 2, when the user operates the motion shooting operation unit 192 and a moving image shooting start signal is input at time t = t 1 , the recording control unit 274 is generated by the first image processing unit 12. Recording of the first processed image Q n (n = 1, 2, 3,... Natural number) and the second processed image R n generated by the second image processing unit 15 is started. Thereafter, the recording control unit 274, in time sequence, the first processed image Q n + 1 sequentially generated by the first image processing unit 12 and the second processed image R n + 1 sequentially generated by the second image processing unit 15. Is recorded on the recording medium 22.

続いて、時間t=t2において、ユーザがタッチパネル195を介してライブビュー画像Pn+2に写る被写体Aをタッチした場合、記録制御部274は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2動画の画角を領域設定部273に設定させる。具体的には、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、タッチ位置を含む所定の領域(たとえば撮像素子8における撮像面の1/4)に変更することで被写体Aが写る領域(第2の画角)を設定する。これにより、第2画像処理部15は、ユーザがタッチしたタッチ位置を含む領域を切り出して第2処理画像Rn+2を生成する。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+2および第2画像処理部15が生成した第2処理画像Rn+2をそれぞれ記録媒体22に記録する。なお、図2においては、ユーザがタッチした点を中心とした所定の範囲を選択する方法の場合について説明するが、ユーザが選択したい範囲の対角の頂点を指定する方法であってもよい。 Subsequently, when the user touches the subject A shown in the live view image P n + 2 via the touch panel 195 at time t = t 2 , the recording control unit 274 is based on the touch position detected by the touch detection unit 272. Thus, the area setting unit 273 is caused to set the angle of view of the second moving image generated by the second image processing unit 15. Specifically, the area setting unit 273 selects a predetermined area including the touch position (for example, in the image sensor 8) as a region that the second image processing unit 15 cuts out from the captured image corresponding to the image data generated by the image sensor 8. The area (second angle of view) in which the subject A is captured is set by changing to [1/4] of the imaging surface. Thereby, the second image processing unit 15 cuts out an area including the touch position touched by the user and generates a second processed image R n + 2 . At this time, the recording control unit 274 stores the first processed image Q n + 2 generated by the first image processing unit 12 and the second processed image R n + 2 generated by the second image processing unit 15 on the recording medium 22, respectively. Record. In addition, although FIG. 2 demonstrates the case of the method of selecting the predetermined range centering on the point which the user touched, the method of designating the diagonal vertex of the range which a user wants to select may be used.

その後、時間t=t3において、表示制御部275は、ライブビュー画像P上に第2の画角を示すMR領域K1(マルチレコーディング領域)および第2の画角の動画撮影の終了を指示する終了信号の入力を受け付ける閉じるアイコンZ1を表示部20に表示させる。これにより、ユーザは、ワイド側(広角側)の撮影を行いながら、第2画像の領域(望遠側)を直感的に把握することができる。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+3および第2画像処理部15が生成した第2処理画像Rn+3をそれぞれ記録媒体22に記録する。 Thereafter, at time t = t 3 , the display control unit 275 instructs the MR region K1 (multi-recording region) indicating the second angle of view on the live view image P and the end of moving image shooting of the second angle of view. A close icon Z1 for receiving an input of an end signal is displayed on the display unit 20. Thereby, the user can grasp | ascertain intuitively the area | region (telephoto side) of a 2nd image, image | photographing a wide side (wide angle side). At this time, the recording control unit 274 stores the first processed image Q n + 3 generated by the first image processing unit 12 and the second processed image R n + 3 generated by the second image processing unit 15 on the recording medium 22, respectively. Record.

続いて、時間t=t4において、ユーザがタッチパネル195を介してライブビュー画像Pn+4上の閉じるアイコンZ1をタッチした場合、記録制御部274は、第2画像処理部15が生成する第2画像から第1動画の第1画像の領域に変更して領域設定部273に設定させる。具体的には、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を第1画像処理部12と同じ第1画像(第1の画角)に対応する領域(広角側)に設定する。これにより、記録制御部274は、第2画像を断続的に記録する場合、第2動画データの中で第2画像を記録していない期間を、第1画像で補間して第2動画データを記録することができる。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+4および第2画像処理部15が生成した第2処理画像Rn+4をそれぞれ記録媒体22に記録する。 Subsequently, when the user touches the close icon Z1 on the live view image P n + 4 via the touch panel 195 at time t = t 4 , the recording control unit 274 generates the second image processing unit 15 to generate The region setting unit 273 is changed from the two images to the region of the first image of the first moving image. Specifically, the region setting unit 273 uses the first image (first image) that is the same as the first image processing unit 12 for the region that the second image processing unit 15 cuts out from the captured image corresponding to the image data generated by the image sensor 8. To the area (wide angle side) corresponding to the angle of view. Thereby, when recording the second image intermittently, the recording control unit 274 interpolates the second moving image data by interpolating the period during which the second image is not recorded in the second moving image data with the first image. Can be recorded. At this time, the recording control unit 274 stores the first processed image Q n + 4 generated by the first image processing unit 12 and the second processed image R n + 4 generated by the second image processing unit 15 on the recording medium 22, respectively. Record.

その後、時間t=t5において、記録制御部274は、第1画像処理部12が生成した第1画像の第1処理画像Qn+5および第2画像処理部15が生成した第2画像の第2処理画像Rn+5を記録媒体22に記録する。 Thereafter, at time t = t 5 , the recording control unit 274 outputs the first processed image Q n + 5 of the first image generated by the first image processing unit 12 and the second image generated by the second image processing unit 15. The second processed image R n + 5 is recorded on the recording medium 22.

続いて、時間t=t6において、ユーザがタッチパネル195を介してライブビュー画像Pn+6に写る被写体Bをタッチした場合、記録制御部274は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2画像の領域を領域設定部273に設定させる。具体的には、領域設定部273は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2画像の領域を設定する。たとえば、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を被写体Bが写る領域に変更することで第2画像の領域を設定する。これにより、第2画像処理部15は、ユーザがタッチしたタッチ位置を含む領域を切り出して第2処理画像Rn+6を生成する。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+6および第2画像処理部15が生成した第2処理画像Rn+6をそれぞれ記録媒体22に記録する。 Subsequently, when the user touches the subject B shown in the live view image P n + 6 via the touch panel 195 at time t = t 6 , the recording control unit 274 is based on the touch position detected by the touch detection unit 272. Thus, the region setting unit 273 sets the region of the second image generated by the second image processing unit 15. Specifically, the region setting unit 273 sets the region of the second image generated by the second image processing unit 15 based on the touch position detected by the touch detection unit 272. For example, the region setting unit 273 sets the region of the second image by changing the region that the second image processing unit 15 cuts out from the captured image corresponding to the image data generated by the image sensor 8 to the region where the subject B is captured. To do. As a result, the second image processing unit 15 cuts out a region including the touch position touched by the user and generates a second processed image R n + 6 . At this time, the recording control unit 274 stores the first processed image Q n + 6 generated by the first image processing unit 12 and the second processed image R n + 6 generated by the second image processing unit 15 on the recording medium 22, respectively. Record.

その後、時間t=t7において、表示制御部275は、ライブビュー画像Pn+7上に第2の画角を示すMR領域K2および第2画像の撮影の終了を指示する信号の入力を受け付ける閉じるアイコンZ1を表示部20に表示させる。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+3および第2画像処理部15が生成した第2処理画像Rn+3をそれぞれ記録媒体22に記録する。 Thereafter, at time t = t 7 , the display control unit 275 receives an input of a signal instructing the end of photographing of the MR region K2 indicating the second angle of view and the second image on the live view image P n + 7. The close icon Z1 is displayed on the display unit 20. At this time, the recording control unit 274 stores the first processed image Q n + 3 generated by the first image processing unit 12 and the second processed image R n + 3 generated by the second image processing unit 15 on the recording medium 22, respectively. Record.

続いて、時間t=t8において、ユーザがタッチパネル195を介してライブビュー画像Pn+8に写る被写体Aをタッチした場合、記録制御部274は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2画像の領域を領域設定部273に設定させる。具体的には、領域設定部273は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を被写体Aが写る領域に変更することで第2画像の領域を設定する。これにより、第2画像処理部15は、ユーザがタッチしたタッチ位置を含む領域を切り出して第2画像の第2処理画像Rn+8を生成する。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+8および第2画像処理部15が生成した第2処理画像Rn+8をそれぞれ記録媒体22に記録する。 Subsequently, when the user touches the subject A captured in the live view image P n + 8 via the touch panel 195 at time t = t 8 , the recording control unit 274 is based on the touch position detected by the touch detection unit 272. Thus, the region setting unit 273 sets the region of the second image generated by the second image processing unit 15. Specifically, the region setting unit 273 determines, based on the touch position detected by the touch detection unit 272, the region that the second image processing unit 15 cuts out from the captured image corresponding to the image data generated by the image sensor 8. The area of the second image is set by changing to the area where A is shown. Thereby, the second image processing unit 15 cuts out an area including the touch position touched by the user and generates a second processed image R n + 8 of the second image. At this time, the recording control unit 274 stores the first processed image Q n + 8 generated by the first image processing unit 12 and the second processed image R n + 8 generated by the second image processing unit 15 on the recording medium 22, respectively. Record.

その後、記憶制御部274は、動画撮影操作部192から動画の撮影を終了する終了信号が入力されるまで、第1画像処理部12が生成する第1処理画像および第2画像処理部15が生成する第2画像処理を記録媒体22に記録し続ける。   Thereafter, the storage control unit 274 generates the first processed image generated by the first image processing unit 12 and the second image processing unit 15 until an end signal for ending the shooting of the moving image is input from the moving image shooting operation unit 192. The second image processing is continuously recorded on the recording medium 22.

このように、ユーザは、動画撮影を行っている際に画面内で拡大して見たい被写体や場所を指定しながら全体の撮影を同時に行うことができる。さらに、ユーザは、表示部20が表示するライブビュー画像を見ながら、タッチパネル195をタッチすることで所望の被写体を拡大して撮影することができる。さらにまた、ユーザは、異なる被写体や場所にタッチして指定するだけで、第2動画における第2画像の位置(望遠側の位置)を変更することができる。   In this way, the user can simultaneously shoot the entire image while designating a subject and a place to be enlarged and viewed on the screen during moving image shooting. Furthermore, the user can enlarge and photograph a desired subject by touching the touch panel 195 while viewing the live view image displayed on the display unit 20. Furthermore, the user can change the position of the second image (the position on the telephoto side) in the second moving image simply by touching and specifying a different subject or place.

つぎに、撮像装置1が実行する処理の概要について説明する。図3は、撮像装置1が実行する処理の概要を示すフローチャートである。   Next, an outline of processing executed by the imaging apparatus 1 will be described. FIG. 3 is a flowchart illustrating an outline of processing executed by the imaging apparatus 1.

図3に示すように、撮像装置1が撮影モードに設定されている場合(ステップS101:Yes)、撮像装置1は、撮影モードに応じて各種パラメータを制御しながら静止画撮影または動画撮影を行う撮影制御処理を実行する(ステップS102)。なお、撮影制御処理の詳細な内容について後述する。   As shown in FIG. 3, when the imaging device 1 is set to the shooting mode (step S101: Yes), the imaging device 1 performs still image shooting or moving image shooting while controlling various parameters according to the shooting mode. An imaging control process is executed (step S102). The detailed contents of the shooting control process will be described later.

続いて、撮像装置1の電源がオフされた場合(ステップS103:Yes)、撮像装置1は、本処理を終了する。これに対して、撮像装置1の電源がオフされていない場合(ステップS103:No)、撮像装置1は、ステップS101へ戻る。   Subsequently, when the power of the imaging device 1 is turned off (step S103: Yes), the imaging device 1 ends this process. On the other hand, when the power of the imaging device 1 is not turned off (step S103: No), the imaging device 1 returns to step S101.

ステップS101において、撮像装置1が撮影モードに設定されておらず(ステップS101:No)、再生モードに設定されている場合(ステップS104:Yes)、撮像装置1は、記録媒体22が記録する画像ファイル内の画像データや動画データを再生して表示する再生表示を実行する(ステップS105)。なお、再生表示処理の詳細な内容については後述する。ステップS105の後、撮像装置1は、ステップS103へ移行する。   In step S101, when the imaging device 1 is not set to the shooting mode (step S101: No) and is set to the reproduction mode (step S104: Yes), the imaging device 1 records an image recorded on the recording medium 22. Reproduction display for reproducing and displaying image data and moving image data in the file is executed (step S105). The detailed contents of the reproduction display process will be described later. After step S105, the imaging apparatus 1 proceeds to step S103.

つぎに、図3のステップS102で説明した撮影制御処理について説明する。図4は、撮影制御処理の概要を示すフローチャートである。   Next, the photographing control process described in step S102 of FIG. 3 will be described. FIG. 4 is a flowchart showing an outline of the imaging control process.

図4に示すように、表示制御部275は、撮像素子8が生成した画像データに対応するライブビュー画像を表示部20に表示させ(ステップS201)、記録制御部274は、撮像素子8が生成した画像データをSDRAM24の第1動画仮記録部241に仮記録する(ステップS202)。   As illustrated in FIG. 4, the display control unit 275 causes the display unit 20 to display a live view image corresponding to the image data generated by the image sensor 8 (Step S <b> 201), and the recording control unit 274 generates the image sensor 8. The recorded image data is temporarily recorded in the first moving image temporary recording unit 241 of the SDRAM 24 (step S202).

続いて、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2の画角として撮影する部分指定があった場合(ステップS203:Yes)、撮像装置1は、第2動画の候補となる第2画角を示すMR領域を表示する第2動画候補枠表示処理を実行する(ステップS204)。   Subsequently, when there is a partial designation for shooting as the second angle of view for the live view image displayed on the display unit 20 via the touch panel 195 (step S203: Yes), the imaging device 1 displays the second moving image. A second moving image candidate frame display process for displaying an MR area indicating the candidate second angle of view is executed (step S204).

図5は、ステップS204の第2動画候補枠表示処理の概要を示すフローチャートである。   FIG. 5 is a flowchart showing an overview of the second moving image candidate frame display process in step S204.

図5に示すように、特徴判定部13は、タッチ検出部272が検出したタッチ位置に基づいて、タッチ位置に含まれる主要被写体の特徴を判定する(ステップS301)。   As shown in FIG. 5, the feature determination unit 13 determines the feature of the main subject included in the touch position based on the touch position detected by the touch detection unit 272 (step S301).

続いて、追尾設定部14は、特徴判定部13が判定した特徴を有する被写体を連続する画像間で追尾する主要被写体を追尾被写体に設定する(ステップS302)。これにより、ユーザが所望する主要被写体を追尾することができる。なお、本実施の形態では、撮影前の撮像装置1の各種設定処理において、主要被写体を追尾する追尾モードを設定することができる。このため、撮像装置1の設定処理において、主要被写体を追尾する追尾モードが設定されていない場合、タッチ位置に含まれる被写体を追尾せず、この位置で待機させてもよい。   Subsequently, the tracking setting unit 14 sets, as a tracking subject, a main subject that tracks a subject having the characteristics determined by the feature determination unit 13 between successive images (step S302). As a result, the main subject desired by the user can be tracked. In the present embodiment, a tracking mode for tracking the main subject can be set in various setting processes of the imaging apparatus 1 before shooting. For this reason, in the setting process of the imaging apparatus 1, when the tracking mode for tracking the main subject is not set, the subject included in the touch position may not be tracked and may be placed on standby at this position.

その後、設定操作部194から第2動画の位置(画角)を変更する変更信号が入力された場合(ステップS303:Yes)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を1/9に設定する(ステップS304)。これに対して、設定操作部194から第2の動画の画角を変更する変更信号が入力されていない場合(ステップS303:No)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を1/4に設定する(ステップS305)。   Thereafter, when a change signal for changing the position (angle of view) of the second moving image is input from the setting operation unit 194 (step S303: Yes), the region setting unit 273 is configured so that the second image processing unit 15 is moved by the imaging device 8. The area cut out from the captured image corresponding to the generated image data is set to 1/9 (step S304). On the other hand, when the change signal for changing the angle of view of the second moving image is not input from the setting operation unit 194 (step S303: No), the region setting unit 273 is configured such that the second image processing unit 15 uses the image sensor. A region to be cut out from the captured image corresponding to the image data generated by 8 is set to ¼ (step S305).

続いて、表示制御部275は、ライブビュー画像上に第2画像の領域を示すMR領域の枠K1を表示部20に表示させる(ステップS306)。その後、撮像装置1は、図4の撮影制御処理に戻る。   Subsequently, the display control unit 275 causes the display unit 20 to display an MR region frame K1 indicating the region of the second image on the live view image (step S306). Thereafter, the imaging apparatus 1 returns to the shooting control process of FIG.

ステップS203において、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定がない場合(ステップS203:No)およびステップS204の後、撮像装置1は、ステップS205へ移行する。   In step S203, if there is no designation of a part to be captured as the second image for the live view image displayed on the display unit 20 via the touch panel 195 (step S203: No), and after step S204, the imaging apparatus 1 performs step The process proceeds to S205.

続いて、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除があった場合(ステップS205:Yes)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、第1画像処理部12が生成する第1動画の第1画像に対応する領域に設定する(ステップS206)。具体的には、領域設定部273は、閉じるアイコンZ1がタッチされた場合、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、第1画像処理部12が生成する第1動画の第1画像の領域に設定する。その後、撮像装置1は、ステップS207へ移行する。これに対して、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除がなかった場合(ステップS205:No)、撮像装置1は、ステップS207へ移行する。   Subsequently, when the partial designation to be captured as the second image is canceled for the live view image displayed on the display unit 20 via the touch panel 195 (step S205: Yes), the region setting unit 273 displays the second image. The area cut out from the captured image corresponding to the image data generated by the image sensor 8 by the processing unit 15 is set as the area corresponding to the first image of the first moving image generated by the first image processing unit 12 (step S206). . Specifically, when the close icon Z1 is touched, the region setting unit 273 performs a first image processing on a region that the second image processing unit 15 cuts out from a captured image corresponding to the image data generated by the image sensor 8. It sets to the area | region of the 1st image of the 1st moving image which the part 12 produces | generates. Thereafter, the imaging apparatus 1 proceeds to step S207. On the other hand, when there is no cancellation of the designation of the part to be captured as the second image for the live view image displayed on the display unit 20 via the touch panel 195 (step S205: No), the imaging apparatus 1 performs step S207. Migrate to

その後、静止画撮影操作部191から2stレリーズ信号が入力されることにより、静止画撮影の指示があった場合(ステップS207:Yes)、撮像装置1は、静止画撮影を行う(ステップS208)。この場合において、記録制御部274は、第2画像の部分指定が設定されているとき、第1の画像処理部12が画像処理を行った第1画像の静止画データと、第2の画像処理部15が画像処理を行った第2画像の静止画データとをSDRAM24の静止画仮記録部243に記録する。   Thereafter, when a 2st release signal is input from the still image capturing operation unit 191 and there is an instruction for still image capturing (step S207: Yes), the imaging apparatus 1 performs still image capturing (step S208). In this case, when the partial designation of the second image is set, the recording control unit 274 performs the first image still image data subjected to the image processing by the first image processing unit 12 and the second image processing. The still image data of the second image subjected to image processing by the unit 15 is recorded in the still image temporary recording unit 243 of the SDRAM 24.

続いて、記録制御部274は、静止画データに、第1動画仮記録部241が記録する動画データ、たとえば静止画データを撮影した際の前後(たとえば3秒間)の動画データを対応付けて記録媒体22に記録する(ステップS209)。その後、撮像装置1は、図3のメインルーチンへ戻る。   Subsequently, the recording control unit 274 records the moving image data recorded by the first moving image temporary recording unit 241 in association with the still image data, for example, moving image data before and after the shooting of the still image data (for example, 3 seconds). Recording is performed on the medium 22 (step S209). Thereafter, the imaging apparatus 1 returns to the main routine of FIG.

ステップS207において、静止画撮影の指示がなく(ステップS207:No)、動画撮影操作部192から動画の開始を指示する開始信号が入力されることにより、動画撮影の指示があった場合(ステップS210:Yes)、撮像装置1は、第1動画および第2動画の記録を開始する(ステップS211)。この場合、記録制御部274は、第1画像処理部12が生成する第1動画の第1処理画像データ、第2画像処理部15が生成する第2動画の第2処理画像データを時系列に沿って同期できるように記録(前述のようにファイル関連付けや時間情報を揃える措置を差す。以下同様)するための動画ファイルを記録媒体22に生成し、この動画ファイルに第1処理画像データおよび第2画像処理データを同期させて記録を開始する。   In step S207, when there is no instruction to shoot a still image (step S207: No) and a start signal instructing the start of a moving image is input from the moving image shooting operation unit 192, a moving image shooting instruction is given (step S210). : Yes), the imaging apparatus 1 starts recording the first moving image and the second moving image (step S211). In this case, the recording control unit 274 sets the first processed image data of the first moving image generated by the first image processing unit 12 and the second processed image data of the second moving image generated by the second image processing unit 15 in time series. A moving image file is generated on the recording medium 22 for recording (to prevent file association and time information as described above, and so forth) so as to be synchronized with each other. Recording is started by synchronizing the two image processing data.

続いて、静止画撮影操作部191から2stレリーズ信号が入力されることにより、静止画撮影の指示があった場合(ステップS212:Yes)、撮像装置1は、静止画撮影を行う(ステップS213)。この場合、記録制御部274は、第1画像と第2画像との画角が異なっている場合、第1画像の静止画データと、第2画像の静止画データとを動画ファイルに記録する。また、記録制御部274は、第1画像と第2画像との画角(トリミング領域)が同じ場合、第1画像の静止画データのみを動画ファイルに記録してもよい。これに対して、静止画撮影の指示がない場合(ステップS212:No)、撮像装置1は、ステップS214へ移行する。   Subsequently, when a 2st release signal is input from the still image capturing operation unit 191 and a still image capturing instruction is received (step S212: Yes), the imaging apparatus 1 performs still image capturing (step S213). . In this case, the recording control unit 274 records the still image data of the first image and the still image data of the second image in the moving image file when the field angles of the first image and the second image are different. The recording control unit 274 may record only the still image data of the first image in the moving image file when the angle of view (trimming area) of the first image and the second image is the same. On the other hand, when there is no instruction for still image shooting (step S212: No), the imaging apparatus 1 proceeds to step S214.

その後、動画撮影操作部192から動画の終了を指示する終了信号が入力されることにより、撮像装置1が動画撮影を終了した場合(ステップS214:Yes)、記録制御部274は、画像圧縮展開部18に所定の形式に従って記録媒体22に記録された動画ファイルを圧縮させて記録媒体22に記録する(ステップS215)。その後、撮像装置1は、図3のメインルーチンへ戻る。   Thereafter, when the imaging device 1 finishes moving image shooting by inputting an end signal instructing the end of the moving image from the moving image shooting operation unit 192 (step S214: Yes), the recording control unit 274 displays the image compression / expansion unit. 18 compresses the moving image file recorded on the recording medium 22 in accordance with a predetermined format and records it on the recording medium 22 (step S215). Thereafter, the imaging apparatus 1 returns to the main routine of FIG.

ステップS214において、撮像装置1が動画撮影を終了しない場合(ステップS214:No)、撮像装置1は、ステップS216へ移行する。   In step S214, when the imaging device 1 does not end moving image shooting (step S214: No), the imaging device 1 proceeds to step S216.

続いて、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2の画角として撮影する部分指定があった場合(ステップS216:Yes)、記録制御部274は、第2動画をタッチ位置に応じた画角で記録する(ステップS217)。この場合、領域設定部273は、検出部272が検出したタッチ位置に基づいて、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を設定する。これにより、タッチ位置を含む領域を拡大した第2の画角である第2動画を記録することができる。この際、記録制御部274は、タッチパネル195がタッチされたタッチ位置および時間情報(タッチタイミング)を含むタッチ情報を第1動画および第2動画に対応付けて記録媒体22に記録する。もちろん、第2動画の位置を変えない場合もあり、タッチ以外で変える場合もあって、時間情報だけでもよい。タッチ操作は、直感的であり、簡単に操作ができるので、撮影者の意志を尊重した操作が直感的にできる。また、この状況下で、撮像装置1に主要被写体を追尾する追尾モードが設定されている場合、特徴判定部13がタッチ位置に含まれる特徴を判定し、追尾設定部14が特徴判定部13によって判定された特徴を有する被写体を第2の画角で追尾し、領域設定部273が追尾設定部14の追尾結果に基づいて、第2画像処理部15が切り出す領域を連続する画像間で変更しながら追尾してもよい。このような特徴判定も、追尾以外のケースもあるので、必ずしも必要ではない。その後、撮像装置1はステップS218へ移行する。   Subsequently, when the live view image displayed on the display unit 20 via the touch panel 195 is designated as a second angle of view (step S216: Yes), the recording control unit 274 displays the second moving image. Is recorded at an angle of view corresponding to the touch position (step S217). In this case, the region setting unit 273 sets a region to be cut out from the captured image corresponding to the image data generated by the image sensor 8 based on the touch position detected by the detection unit 272. Thereby, the 2nd moving image which is the 2nd angle of view which expanded the field containing a touch position can be recorded. At this time, the recording control unit 274 records touch information including the touch position where the touch panel 195 is touched and time information (touch timing) in the recording medium 22 in association with the first moving image and the second moving image. Of course, there is a case where the position of the second moving image is not changed, and there is a case where the position is changed by other than touch, and only the time information may be used. Since the touch operation is intuitive and can be easily performed, an operation that respects the will of the photographer can be performed intuitively. Also, in this situation, when the tracking mode for tracking the main subject is set in the imaging apparatus 1, the feature determination unit 13 determines the feature included in the touch position, and the tracking setting unit 14 uses the feature determination unit 13. The subject having the determined characteristics is tracked at the second angle of view, and the region setting unit 273 changes the region extracted by the second image processing unit 15 between successive images based on the tracking result of the tracking setting unit 14. You may track while. Such feature determination is not always necessary because there are cases other than tracking. Thereafter, the imaging apparatus 1 proceeds to step S218.

ステップS216において、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定がない場合(ステップS216:No)、撮像装置1は、ステップS218へ移行する。   In step S <b> 216, when there is no designation of a part to be captured as the second image for the live view image displayed on the display unit 20 via the touch panel 195 (step S <b> 216: No), the imaging device 1 proceeds to step S <b> 218.

その後、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除があった場合(ステップS218:Yes)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、第1画像処理部12が生成する第1動画の第1画角に設定し、記憶制御部274は、第2動画を第1動画の画角で記録する(ステップS219)。具体的には、記録制御部274は、第2画像処理部15が生成する第2動画の第2画像の領域から第1動画の第1画像の領域に変更して領域設定部273に設定させる。この場合、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を第1画像処理部12と同じ第1画像に対応する領域に設定する。その後、撮像装置1は、ステップS212へ戻る。   After that, when there is cancellation of the designation of a part to be captured as the second image for the live view image displayed on the display unit 20 via the touch panel 195 (step S218: Yes), the region setting unit 273 performs the second image processing. The region cut out from the captured image corresponding to the image data generated by the image sensor 8 by the unit 15 is set as the first angle of view of the first moving image generated by the first image processing unit 12, and the storage control unit 274 Two moving images are recorded at the angle of view of the first moving image (step S219). Specifically, the recording control unit 274 changes the region of the second image of the second moving image generated by the second image processing unit 15 from the region of the first image of the first moving image and causes the region setting unit 273 to set it. . In this case, the region setting unit 273 sets the region extracted from the captured image corresponding to the image data generated by the image sensor 8 by the second image processing unit 15 to the region corresponding to the same first image as the first image processing unit 12. Set. Thereafter, the imaging device 1 returns to step S212.

ステップS218において、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除がなかった場合(ステップS218:No)、撮像装置1は、ステップS212へ戻る。   In step S218, when the live designation image displayed on the display unit 20 via the touch panel 195 is not canceled as part of the image to be captured as the second image (step S218: No), the imaging apparatus 1 proceeds to step S212. Return.

ステップS210において、動画撮影の指示がなく(ステップS210:No)、撮影モードが終了の場合(ステップS220:Yes)、撮像装置1は、図3のメインルーチンへ戻る。これに対して、動画撮影の指示がなく(ステップS210:No)、撮影モードが終了していない場合(ステップS220:No)、撮像装置1は、ステップS201へ戻る。   In step S210, when there is no instruction for moving image shooting (step S210: No) and the shooting mode is ended (step S220: Yes), the imaging apparatus 1 returns to the main routine of FIG. On the other hand, when there is no instruction for moving image shooting (step S210: No) and the shooting mode has not ended (step S220: No), the imaging apparatus 1 returns to step S201.

つぎに、図3のステップS105の再生表示処理について説明する。図6は、再生表示処理の概要を示すフローチャートである。   Next, the reproduction display process in step S105 of FIG. 3 will be described. FIG. 6 is a flowchart showing an outline of the reproduction display process.

図6に示すように、表示制御部275は、記録媒体22が記録するファイルの一覧を表示部20に表示する(ステップS401)。   As shown in FIG. 6, the display control unit 275 displays a list of files recorded on the recording medium 22 on the display unit 20 (step S401).

続いて、設定操作部194またはタッチパネル195を介してファイルが選択された場合(ステップS402:Yes)、制御部27は、選択されたファイルがマルチフレームであるか否かを判断する(ステップS403)。選択されたファイルがマルチフレームであると制御部27が判断した場合(ステップS403:Yes)、撮像装置1は、後述するステップS404へ移行する。これに対して、選択されたファイルがマルチフレームでないと制御部27が判断した場合(ステップS403:No)、撮像装置1は、後述するステップS413へ移行する。   Subsequently, when a file is selected via the setting operation unit 194 or the touch panel 195 (step S402: Yes), the control unit 27 determines whether or not the selected file is a multiframe (step S403). . When the control unit 27 determines that the selected file is multiframe (step S403: Yes), the imaging device 1 proceeds to step S404 described below. On the other hand, when the control unit 27 determines that the selected file is not a multi-frame (step S403: No), the imaging device 1 proceeds to step S413 described later.

ステップS404において、制御部27は、第1動画圧縮展開部182および第2動画圧縮展開部183に記録媒体22が記録する圧縮された第1動画データおよび圧縮された第2動画データをSDRAM24で展開させ、この展開した第1動画データに対応する第1動画および第2動画データに対応する第2動画の再生を開始する。   In step S404, the control unit 27 expands the compressed first moving image data and the compressed second moving image data recorded on the recording medium 22 in the first moving image compression / decompression unit 182 and the second moving image compression / decompression unit 183 in the SDRAM 24. Then, the reproduction of the first moving image corresponding to the developed first moving image data and the second moving image corresponding to the second moving image data is started.

続いて、第2動画に第1動画の画角と異なる別の画角がある場合(ステップS405:Yes)、表示制御部275は、第1動画をメインで表示して、第2動画をサブで表示し(ステップS406)、サブで表示された動画がタッチされた場合(ステップS407:Yes)、表示制御部275は、第1動画と第2動画との表示領域を徐々に切り替えて表示部20に表示させる(ステップS408)。   Subsequently, when the second moving image has another angle of view different from the angle of view of the first moving image (step S405: Yes), the display control unit 275 displays the first moving image as a main and subtracts the second moving image. (Step S406), and when the moving image displayed in the sub is touched (step S407: Yes), the display control unit 275 gradually switches the display area between the first moving image and the second moving image and displays the display unit. 20 is displayed (step S408).

図7は、マルチフレームの動画を手動で切り替える際の動画の遷移を模式的に示す図である。図7に示すように、ユーザがタッチパネル195を介して表示部20がサブで表示する第2動画Rnを選択した場合(図7(a))、表示制御部275は、第1動画Qn+1と第2動画Rn+1との表示領域を徐々に切り替えて表示部20に表示させる(図7(b)→図7(c)→図7(d)→図7(e))。これにより、第1動画から第2動画に滑らかに表示領域が遷移するので、ユーザは、違和感なく画像を鑑賞することができる。さらに、ユーザは、同時刻で撮影した全体の雰囲気を楽しみながら、第2動画を拡大して確認することができる。なお、表示制御部275は、第2動画がメインで表示され、第1動画がサブで表示されている場合において、ユーザがタッチパネル195を介して第1動画を選択したとき、第1動画と第2動画との表示領域を徐々に切り替えながら表示部20に表示させる。この際、表示制御部275は、瞬時に第1動画と第2動画とを切り替えてもよい。ステップS408の後、撮像装置1は、ステップS409に移行する。 FIG. 7 is a diagram schematically illustrating transition of moving images when a multi-frame moving image is manually switched. As illustrated in FIG. 7, when the user selects the second moving image R n that the display unit 20 displays as a sub via the touch panel 195 (FIG. 7A), the display control unit 275 displays the first moving image Q n. The display area of +1 and the second video R n + 1 is gradually switched and displayed on the display unit 20 (FIG. 7 (b) → FIG. 7 (c) → FIG. 7 (d) → FIG. 7 (e)). . Thereby, since the display area smoothly transitions from the first moving image to the second moving image, the user can appreciate the image without a sense of incongruity. Furthermore, the user can enlarge and confirm the second moving image while enjoying the entire atmosphere photographed at the same time. Note that the display control unit 275 displays the first moving image and the first moving image when the user selects the first moving image via the touch panel 195 when the second moving image is mainly displayed and the first moving image is displayed as a sub. The display area 20 is displayed while gradually switching the display area of the two moving images. At this time, the display control unit 275 may switch between the first moving image and the second moving image instantaneously. After step S408, the imaging apparatus 1 proceeds to step S409.

ステップS409において、動画の再生が終了した場合(ステップS409:Yes)撮像装置1は、図3のメインルーチンへ戻る。これに対して、動画の再生が終了していない場合(ステップS409:No)、撮像装置1は、ステップS407へ戻る。   In step S409, when the reproduction of the moving image is completed (step S409: Yes), the imaging apparatus 1 returns to the main routine of FIG. On the other hand, when the reproduction of the moving image has not ended (step S409: No), the imaging device 1 returns to step S407.

ステップS407において、サブで表示された動画がタッチされていない場合(ステップS407:No)、制御部27は、第2動画データに撮影時のタッチ情報が含まれているか否かを判断する(ステップS410)。撮影時のタッチ情報が含まれていると制御部27が判断した場合(ステップS410:Yes)、表示制御部275は、タッチ情報に基づいて、第1動画と第2動画との表示領域を徐々に切り替えて表示部20に表示させる(ステップS411)。   In step S407, when the moving image displayed in the sub is not touched (step S407: No), the control unit 27 determines whether or not touch information at the time of shooting is included in the second moving image data (step S407). S410). When the control unit 27 determines that touch information at the time of shooting is included (step S410: Yes), the display control unit 275 gradually displays display areas of the first moving image and the second moving image based on the touch information. To display on the display unit 20 (step S411).

図8および図9は、マルチフレームの動画を自動で切り替える際の動画の遷移を模式的に示す図である。図8および図9において、表示制御部275は、第1動画をメインで表示し、第2動画をサブで表示する。さらに、表示制御部275は、マルチフレームにおける動画再生時間の全体の長さを示すタイムバーT1を表示部20に表示させる。さらにまた、表示制御部275は、選択されたファイルに記録された撮影時のタッチ情報に基づいて、タイムバーT1上にユーザが撮影時にタッチしたタッチの時間情報を示す指標I1および指標I2をタイムバーT1上に表示させる。指標I1は、第2動画を第1の画角で撮影している場合において、第2の画角に変更したときの時刻を示し、指標I2は、第2動画を第2の画角で撮影している場合において、異なる位置で第2の画角の第2動画を開始したときのタイミングを示す。また、表示制御部275は、現在の撮影時刻を示すアイコンD1をタイムバーT1上に表示させる。 FIG. 8 and FIG. 9 are diagrams schematically illustrating moving image transition when a multi-frame moving image is automatically switched. 8 and 9, the display control unit 275 displays the first moving image as a main and the second moving image as a sub. Further, the display control unit 275 causes the display unit 20 to display a time bar T1 indicating the entire length of the moving image playback time in the multiframe. Furthermore, the display control unit 275 displays the index I 1 and the index I 2 that indicate the time information of the touch that the user touched at the time of shooting on the time bar T1 based on the touch information at the time of shooting recorded in the selected file. Is displayed on the time bar T1. The index I 1 indicates the time when the second moving image is captured at the first angle of view, and the second moving angle is changed to the second angle of view, and the index I 2 indicates the second moving image at the second angle of view. The timing when the second moving image having the second angle of view is started at a different position in the case of shooting at is shown. The display control unit 275 displays the icon D 1 indicative of the current imaging time on the time bar T1.

図8に示すように、表示制御部275は、タッチ情報に基づいて、第1動画と第2動画との表示領域を徐々に切り替えて表示部20に表示させる(図8(a)→図8(b)→図8(c)→図8(d)→図8(e))。この際、表示制御部275は、撮影時刻(アイコンD1)がタイムバーT1上の指標I1に近づくにつれて、第2動画の表示領域を拡大する。これにより、第1動画から第2動画に滑らかに表示領域が遷移するので、ユーザは、違和感なく画像を鑑賞することができる。さらに、ユーザは、同時刻で撮影した全体の雰囲気を楽しみながら、第2動画を拡大して確認することができる。 As shown in FIG. 8, the display control unit 275 gradually switches the display area between the first moving image and the second moving image based on the touch information and causes the display unit 20 to display the display area (FIG. 8A → FIG. 8). (B) → FIG. 8 (c) → FIG. 8 (d) → FIG. 8 (e)). At this time, the display control unit 275 enlarges the display area of the second moving image as the shooting time (icon D 1 ) approaches the index I 1 on the time bar T1. Thereby, since the display area smoothly transitions from the first moving image to the second moving image, the user can appreciate the image without a sense of incongruity. Furthermore, the user can enlarge and confirm the second moving image while enjoying the entire atmosphere photographed at the same time.

また、図9に示すように、表示制御部275は、タッチ情報に基づいて、異なる画角の第2動画を切り替えて表示部20に表示させる場合、第2動画の遷移の途中で黒く塗り潰した画像O1(ブラックアウト)を連続する動画の中に挟みこむことで表示部20に表示させる(図9(a)→図9(b)→図9(c)→図9(d)→図9(e))。この際、表示制御部275は、撮影時刻(アイコンD1)がタイムバーT1上の指標I2に到達したときに、黒塗り画像O1を表示部20に表示させる。これにより、第2の画角から別の第2の画角に切り替わっても、違和感なく再生することができる。ステップS411の後、撮像装置1は、ステップS409へ移行する。 Further, as illustrated in FIG. 9, when the second moving image having a different angle of view is switched and displayed on the display unit 20 based on the touch information, the display control unit 275 is blacked out during the transition of the second moving image. The image O 1 (blackout) is sandwiched between continuous videos and displayed on the display unit 20 (FIG. 9A → FIG. 9B → FIG. 9C → FIG. 9D → FIG. 9). 9 (e)). At this time, the display control unit 275 displays the black image O 1 on the display unit 20 when the shooting time (icon D 1 ) reaches the index I 2 on the time bar T1. Thereby, even if the second angle of view is switched to another second angle of view, it can be reproduced without a sense of incongruity. After step S411, the imaging apparatus 1 proceeds to step S409.

ステップS410において、選択されたファイルに撮影時のタッチ情報がない場合(ステップS410:No)、撮像装置1は、ステップS409へ移行する。   In step S410, when there is no touch information at the time of shooting in the selected file (step S410: No), the imaging apparatus 1 proceeds to step S409.

ステップS405において、第2動画に別な画角がない場合(ステップS405:No)、表示制御部275は、第2動画を非表示にする(ステップS412)。この場合、第2動画は、第1動画に同期して再生されている。その後、撮像装置1は、ステップS409へ移行する。   In step S405, when the second moving image does not have another angle of view (step S405: No), the display control unit 275 hides the second moving image (step S412). In this case, the second moving image is played back in synchronization with the first moving image. Thereafter, the imaging apparatus 1 proceeds to step S409.

ステップS403において、選択されたファイルがマルチフレームでない場合(ステップS403:No)、表示制御部275は、選択されたファイルの画像データを再生する(ステップS413)。   In step S403, when the selected file is not a multiframe (step S403: No), the display control unit 275 reproduces the image data of the selected file (step S413).

続いて、画像データが終了した場合(ステップS414:Yes)、撮像装置1は、図3のメインルーチンへ戻る。これに対して、画像データが終了していない場合(ステップS414:No)、制御部27は、この判断を続ける。   Subsequently, when the image data is completed (step S414: Yes), the imaging apparatus 1 returns to the main routine of FIG. On the other hand, when the image data has not ended (step S414: No), the control unit 27 continues this determination.

ステップS402において、ファイルが選択されておらず(ステップS402:No)、再生モードが終了の場合(ステップS415:Yes)、撮像装置1は、図3のメインルーチンへ戻る。これに対して、再生モードが終了していない場合(ステップS415:No)、撮像装置1は、ステップS401へ戻る。   In step S402, when no file is selected (step S402: No) and the reproduction mode is ended (step S415: Yes), the imaging apparatus 1 returns to the main routine of FIG. On the other hand, when the reproduction mode has not ended (step S415: No), the imaging apparatus 1 returns to step S401.

以上説明した本発明の一実施の形態によれば、記録制御部274が第2画像を断続的に記録する場合、第2動画データの中で第2画像を記録していない期間を、他の画像で補間して第2動画データを記録する。この結果、異なる画角で撮影した画像を用いて、より変化に富んだ動画の撮影を行うことができるという。   According to the embodiment of the present invention described above, when the recording control unit 274 intermittently records the second image, the period during which the second image is not recorded in the second moving image data is The second moving image data is recorded by interpolating with the image. As a result, it is possible to shoot more varied moving images using images taken at different angles of view.

また、本発明の一実施の形態によれば、記録制御部274が第1動画データおよび第2動画データをそれぞれ記録媒体22に記録する。この結果、ユーザは、所望の被写体を拡大した第2動画データのみを再生することもできるし、全体を写した第1動画データのみを再生することもできる。   Further, according to the embodiment of the present invention, the recording control unit 274 records the first moving image data and the second moving image data on the recording medium 22, respectively. As a result, the user can reproduce only the second moving image data obtained by enlarging the desired subject, or can reproduce only the first moving image data showing the whole.

また、本発明の一実施の形態によれば、記録制御部274が第1動画データおよび第2動画データを同期させて再生できるように記録媒体22に記憶する。この結果、ユーザは、第1動画データおよび第2動画データを同時に再生する場合、第1動画データを構成する第1画像と、第2動画データを構成する第2画像との表示領域や表示を再生時に手動で切り替えながら鑑賞することができ、変化に富んだ動画を楽しむことができる。   In addition, according to the embodiment of the present invention, the recording control unit 274 stores the first moving image data and the second moving image data in the recording medium 22 so that they can be reproduced in synchronization. As a result, when the user reproduces the first moving image data and the second moving image data at the same time, the display area and display of the first image that forms the first moving image data and the second image that forms the second moving image data are displayed. You can watch while switching manually during playback, and enjoy a variety of videos.

また、本発明の一実施の形態によれば、記録制御部274が第1動画データおよび第2動画データを同期させて再生できるように記録媒体22に記録すると、同時に第2画像の切り出し位置の変更や切り出しの終了の時間情報を付加している。この結果、ユーザは、第1動画データおよび第2動画データを同時に再生する場合、第1動画データを構成する第1画像と、第2動画データを構成する第2画像との表示領域や表示を自動的に切り替えながら鑑賞することができ、変化に富んだ動画を楽しむことができる。   According to one embodiment of the present invention, when the recording control unit 274 records the first moving image data and the second moving image data on the recording medium 22 so that they can be reproduced in synchronization, the cutout position of the second image is simultaneously recorded. Time information for the end of change or cutout is added. As a result, when the user reproduces the first moving image data and the second moving image data at the same time, the display area and display of the first image that forms the first moving image data and the second image that forms the second moving image data are displayed. You can watch while switching automatically and enjoy a variety of videos.

また、本発明の一実施の形態によれば、領域設定部273がタッチパネル195から入力される位置信号に応じた位置に対応する撮影画像の領域を第2画像処理部15が第2画像として切り出す領域に設定する。この結果、ユーザは、直感的な操作で所望の領域を拡大した第2動画データの領域を設定することができる。これにより、ユーザの意志を直感的に反映することができる。   Further, according to the embodiment of the present invention, the second image processing unit 15 cuts out the region of the captured image corresponding to the position according to the position signal input from the touch panel 195 by the region setting unit 273 as the second image. Set to area. As a result, the user can set the area of the second moving image data in which the desired area is enlarged by an intuitive operation. Thereby, a user's will can be reflected intuitively.

また、本発明の一実施の形態によれば、ユーザがタッチパネル195を操作するだけで、第2動画データを構成する第2画像の領域を変化させることができるので、画角や撮影位置をユーザの意志で変化を付けた第2動画を撮影することができる。この結果、より変化に富んだ動画の撮影を行うことができるという。   In addition, according to the embodiment of the present invention, since the area of the second image constituting the second moving image data can be changed only by the user operating the touch panel 195, the angle of view and the shooting position can be set by the user. It is possible to shoot a second moving image with a change of will. As a result, it is possible to shoot more varied video.

また、本実施の一実施の形態によれば、画像圧縮展開部18が所定の方式に従ってコマ間圧縮を行っているので、記録制御部274が第1動画データおよび第2動画データを同期させて記録媒体22に記録する。これにより、第1動画データおよび第2動画データを同時に再生した場合において、ユーザがサブに表示された一方の動画を選択したとき、選択した動画にコマ(フレーム)落ちが生じないため、滑らかに動画の遷移を行うことができる。なお、第1動画および第2動画を同期して記録しない場合、画像圧縮展開部18が所定の方式に従ってコマ間圧縮を行っているので、ユーザがサブに表示された一方の動画を選択したとき、この選択した動画にコマ落ちが生じるため、次のコマまで待機させる必要があり、動画の遷移が断続的になる。   Further, according to the embodiment of the present invention, since the image compression / decompression unit 18 performs inter-frame compression according to a predetermined method, the recording control unit 274 synchronizes the first moving image data and the second moving image data. Recording is performed on the recording medium 22. Accordingly, when the first moving image data and the second moving image data are reproduced simultaneously, when the user selects one of the moving images displayed in the sub, a frame (frame) is not dropped in the selected moving image. Video transitions can be made. When the first moving image and the second moving image are not recorded in synchronization, the image compression / decompression unit 18 performs inter-frame compression according to a predetermined method, and therefore the user selects one of the moving images displayed in the sub. Since the selected moving image has dropped frames, it is necessary to wait until the next frame, and the moving image transitions intermittently.

さらに、本実施の一実施の形態によれば、領域設定部273が追尾設定部14によって設定された追尾被写体に対応する領域を第2の画角として第2画像処理部15が撮影画像から切り出す領域に設定するので、ユーザが所望する主要被写体を拡大した動画を第2動画として撮影することができる。なお、追尾設定部14は、追尾被写体が撮像装置1の視野領域から消失した場合、追尾被写体が消失した位置で所定時間(たとえば3秒)待機後、追尾を解除してもよい。また、追尾設定部14は、所定時間内に追尾被写体が撮像装置1の視野領域内に写り込んだ場合、追尾被写体の追尾を継続してもよい。この際、追尾設定部14は、待機している位置から徐々(ヒステリシス数や係数を持たせる)に追尾被写体に移動させて、画角が急激に変わることを防止してもよい。さらに、領域設定部273は、追尾被写体の大きさが一定になるように、第2の画角として第2画像処理部15が撮影画像から切り出す領域を適宜調整してもよい。   Furthermore, according to the embodiment of the present invention, the second image processing unit 15 cuts out the region corresponding to the tracking subject set by the tracking setting unit 14 by the region setting unit 273 from the captured image as the second angle of view. Since the area is set, a moving image in which the main subject desired by the user is enlarged can be taken as the second moving image. When the tracking subject disappears from the field of view of the imaging device 1, the tracking setting unit 14 may cancel the tracking after waiting for a predetermined time (for example, 3 seconds) at the position where the tracking subject disappears. In addition, the tracking setting unit 14 may continue tracking the tracking subject when the tracking subject appears in the field of view of the imaging apparatus 1 within a predetermined time. At this time, the tracking setting unit 14 may gradually move from the standby position (having a hysteresis number or coefficient) to the tracking subject to prevent the angle of view from changing suddenly. Furthermore, the region setting unit 273 may appropriately adjust the region that the second image processing unit 15 cuts out from the captured image as the second angle of view so that the size of the tracking subject is constant.

なお、本実施の一実施の形態では、領域設定部273がタッチ位置に応じて第2画像処理部15が撮影画像から切り出す領域を設定していたが、デフォルト(初期設定)で第2画像処理部15が撮影画像から切り出す領域を撮影画像の中央を含む領域に設定してもよい。さらに、領域設定部273は、顔検出部271の検出結果に応じて、第2画像処理部15が撮影画像から切り出す領域を設定してもよい。   In the present embodiment, the area setting unit 273 sets the area that the second image processing unit 15 cuts out from the captured image according to the touch position, but the second image processing is performed by default (initial setting). The area cut out from the captured image by the unit 15 may be set as an area including the center of the captured image. Furthermore, the region setting unit 273 may set a region that the second image processing unit 15 cuts out from the captured image according to the detection result of the face detection unit 271.

また、本実施の一実施の形態では、領域設定部273がタッチ位置に応じて第2画像処理部15が撮影画像から切り出す領域を設定していたが、ピンチ操作(ピンチインやピンチアウト)、タップ操作またはホールド操作に応じて第2画像処理部15が撮影画像から切り出す領域を設定してもよい。さらに、領域設定部273は、タッチの軌跡に応じて第2画像処理部15が撮影画像から切り出す領域を設定してもよい。   In the embodiment, the area setting unit 273 sets an area to be cut out from the captured image by the second image processing unit 15 according to the touch position. However, a pinch operation (pinch-in or pinch-out), tap An area to be cut out from the captured image by the second image processing unit 15 may be set according to the operation or the hold operation. Furthermore, the region setting unit 273 may set a region that the second image processing unit 15 cuts out from the captured image in accordance with the touch trajectory.

また、本実施の一実施の形態では、記録制御部274は、第2動画データの中で第2画像を記録していない記録を第1動画で補間して第2動画を記録媒体22に記録していたが、他の動画、たとえば予め設定されているブラックアウト画像やホワイトアウト画像等によって補間した第2動画を記録媒体22に記録してもよい。   In one embodiment of the present invention, the recording control unit 274 interpolates a recording in which the second image is not recorded in the second moving image data with the first moving image, and records the second moving image on the recording medium 22. However, another moving image, for example, a second moving image interpolated with a preset blackout image, whiteout image, or the like may be recorded on the recording medium 22.

また、本実施の一実施の形態では、動画のアスペクト比を16:9で説明していたが、アスペクト比を、たとえば4:3や3:2に適宜設定することができる。   In the present embodiment, the aspect ratio of the moving image has been described as 16: 9. However, the aspect ratio can be appropriately set to 4: 3 or 3: 2, for example.

また、本実施の一実施の形態では、第1画像処理部12が撮影画像に対して画像処理を行って第1動画データを構成する第1処理画像データを生成したが、たとえば撮影画像(有効領域)から所定の領域を切り出し、この切り出した領域の画像に画像処理を行って第1動画データを構成する第1処理画像データを生成してもよい。   In the present embodiment, the first image processing unit 12 performs image processing on the captured image to generate the first processed image data constituting the first moving image data. A predetermined area may be cut out from (area), and image processing may be performed on the image of the cut out area to generate first processed image data constituting the first moving image data.

また、本実施の一実施の形態では、第1画像が第2画像よりも画角が小さくてもよい。   In the embodiment, the first image may have a smaller angle of view than the second image.

また、本実施の一実施の形態では、記録制御部274は、第1動画データおよび第2動画データを同期させて再生できるように記録媒体22に記録していたが、第1動画データおよび第2動画データを同期させて表示することができればよく、第1動画データおよび第2動画データを時分割で記録媒体22に記録してもよい。   In the embodiment, the recording control unit 274 records the first moving image data and the second moving image data on the recording medium 22 so that the first moving image data and the second moving image data can be reproduced in synchronization with each other. As long as the two moving image data can be displayed in synchronization, the first moving image data and the second moving image data may be recorded on the recording medium 22 in a time division manner.

また、本実施の一実施の形態では、再生時に第2動画から第1動画に切り替える場合、撮影時のタッチ情報に基づいて、第2動画が第1動画の中に吸い込まれるように表示領域を徐々に小さくしながら遷移させてもよい。具体的には、図10に示すように、表示制御部275は、撮影時のタッチ情報に基づいて、第2の画角に対応する第1動画の位置に第2動画の表示領域を徐々に縮小しつつ戻しながら、第1動画の表示領域を拡大する(図10(a)→図10(b)→図10(c)→図10(d)。その後、表示制御部275は、第2動画をサブ領域に表示させる(図10(e))。これにより、ユーザは、撮影時でタッチした位置を容易に把握することができる。   In the embodiment, when switching from the second video to the first video during playback, the display area is set so that the second video is sucked into the first video based on the touch information at the time of shooting. The transition may be made while gradually decreasing. Specifically, as illustrated in FIG. 10, the display control unit 275 gradually shifts the display area of the second moving image to the position of the first moving image corresponding to the second angle of view based on the touch information at the time of shooting. The display area of the first moving image is enlarged while being returned while being reduced (FIG. 10 (a) → FIG. 10 (b) → FIG. 10 (c) → FIG. 10 (d)). The moving image is displayed in the sub-region (FIG. 10E), so that the user can easily grasp the position touched at the time of shooting.

また、本実施の一実施の形態では、ユーザが撮影時にタッチパネル195を介してライブビュー画像にタッチした場合、表示制御部275が第2の画角の位置を示す領域をライブビュー画像上に重畳して表示していたが、タッチ位置を含む領域を切り出してライブビュー画像上の所定の位置に表示させてもよい。具体的には、図11に示すように、表示制御部275は、ユーザがタッチパネル195を介して表示部20が表示するライブビュー画像をタッチした場合、タッチ検出部272の検出結果に応じて、タッチ位置を含む領域を拡大してライブビュー画像上の左上に第2画角の第2動画A10を重畳させて表示させてもよい。これにより、タッチによって隠れる被写体を確認することができるとともに、より第2画像の内容を直感的に把握することができる。   In this embodiment, when the user touches the live view image via the touch panel 195 during shooting, the display control unit 275 superimposes the region indicating the position of the second angle of view on the live view image. However, an area including the touch position may be cut out and displayed at a predetermined position on the live view image. Specifically, as illustrated in FIG. 11, when the user touches a live view image displayed on the display unit 20 via the touch panel 195, the display control unit 275 determines according to the detection result of the touch detection unit 272. The area including the touch position may be enlarged and the second moving image A10 having the second angle of view may be superimposed and displayed on the upper left on the live view image. As a result, it is possible to confirm a subject that is hidden by touch, and more intuitively understand the content of the second image.

また、本実施の一実施の形態では、表示制御部275がタッチ情報に基づいて、表現効果を伴って第1画像および第2画像それぞれの表示領域を切り替えていたが、たとえば第1画像と第2画像とを合成(多重露出)し、この第1画像と第2画像とを合成する合成比率を徐々に切り替える表現効果を行って表示部20に表示させてもよい。さらに、表現効果として、第1画像および第2画像それぞれにフェードアウト、フェードイン、オーバラップおよびクロスフェード等の表現効果(映像効果)を用いて表示部20に表示させてもよい。   Further, in the embodiment of the present embodiment, the display control unit 275 switches the display areas of the first image and the second image with an expression effect based on the touch information. The two images may be combined (multiple exposure), and the display unit 20 may display the expression effect by gradually switching the combination ratio for combining the first image and the second image. Further, as the expression effect, the first image and the second image may be displayed on the display unit 20 using expression effects (video effects) such as fade-out, fade-in, overlap, and cross-fade.

また、本実施の一実施の形態では、記録制御部274が第1動画および第2動画をそれぞれ記録媒体22に記録させていたが、図12に示すように、第1動画および第2動画を同期させながら合成することによって記録媒体22に記録させてもよい(期間(a),期間(c))。この場合、記録制御部274は、図12に示すように、同じ画角の記録期間の画像を削除して記録媒体に記録させてもよい(期間(b))。   In the embodiment, the recording control unit 274 records the first moving image and the second moving image on the recording medium 22 respectively. However, as shown in FIG. 12, the first moving image and the second moving image are recorded. You may make it record on the recording medium 22 by synthesize | combining synchronizing (period (a), period (c)). In this case, as shown in FIG. 12, the recording control unit 274 may delete the image having the same angle of view and record it on the recording medium (period (b)).

また、本実施の一実施の形態では、領域設定部273が顔検出部271によって検出された顔を含む領域を、第2画像処理部15が撮影画像から切り出す領域に設定してもよい。なお、領域設定部273は、顔検出部271が撮影画像から複数の顔を検出している場合、顔のサイズが最も大きい顔を含む領域を第2画像処理部15が撮影画像から切り出す領域に設定してもよい。さらに、領域設定部273は、顔検出部271が撮影画像から検出した顔が笑顔の場合のみ、この笑顔の顔を含む領域を第2画像処理部15が撮影画像から切り出す領域に設定してもよい。   In the embodiment, the area setting unit 273 may set an area including the face detected by the face detection unit 271 as an area cut out from the captured image by the second image processing unit 15. In addition, when the face detection unit 271 detects a plurality of faces from the photographed image, the region setting unit 273 is an area where the second image processing unit 15 cuts out the region including the face having the largest face size from the photographed image. It may be set. Furthermore, the region setting unit 273 sets the region including the smiling face as a region to be cut out from the captured image only when the face detected by the face detection unit 271 from the captured image is a smile. Good.

また、本実施の一実施の形態では、第1動画および第2動画のみであったが、第1動画および第2動画の画角と異なる第3動画を記録してもよい。さらに、複数の画角の動画を記録してもよい。さらにまた、第1動画の画角が広角側(第1の画角)でなく、望遠側(第2の画角)であってもよい。   In the embodiment, only the first moving image and the second moving image are used. However, a third moving image different from the angle of view of the first moving image and the second moving image may be recorded. Furthermore, moving images having a plurality of angles of view may be recorded. Furthermore, the angle of view of the first moving image may be on the telephoto side (second angle of view) instead of on the wide angle side (first angle of view).

また、本実施の一実施の形態では、第1画像、または第1画像と第2画像の両方は、撮影画像と異なる画角および/または撮影位置で切り出されてもよい。   In the embodiment of the present embodiment, the first image or both the first image and the second image may be cut out at a different angle of view and / or shooting position from the shot image.

また、本実施の一実施の形態では、第1動画がすでに、撮像素子8で取得できた元の画像(撮影画像)のうち、たとえば必要なアスペクト比で所定領域を切り取った動画であって、第2動画は、第1動画からではなく、元の画像から切り取ったものであってもよい。実際、カメラで撮影される静止画の画像のアスペクト比と、例えばテレビで再生する動画用のアスペクト比は異なる場合が多い。したがって、元の画像から、第1動画と第2動画をそれぞれ取り出すような仕様も容易に考えられるが、このような仕様にも、本発明が応用可能であることは言うまでもない。   In one embodiment of the present invention, the first moving image is a moving image obtained by cutting out a predetermined area with a required aspect ratio, for example, from the original image (captured image) already acquired by the image sensor 8. The second moving image may be cut from the original image instead of the first moving image. Actually, the aspect ratio of a still image taken by a camera is often different from the aspect ratio for a moving image reproduced on a television, for example. Therefore, a specification for extracting the first moving image and the second moving image from the original image can be easily considered, but it goes without saying that the present invention can be applied to such a specification.

また、本実施の一実施の形態では、「動画データ」と表現して説明を単純化したが、厳密には、これらの中には、スルー画(ライブビュー)用にリサイズされた静止画の連続のものもあれば、記録されるためにコマ間圧縮されたものもある。再生時の動画データでも、所定のフォーマットでファイル化されていたりする。さらに、ユーザにとっては、いずれも同じような画像が表示されるので、これらの違いは認識されていない場合もあり、また、技術的にも、設計に応じて、記録時にコマ間圧縮しない場合もある。これらの事を鑑みて、撮像素子8の出力を画像処理したものを包括して「動画データ」という表現を行っている。   Further, in the embodiment of the present invention, the description is simplified by expressing it as “moving image data”, but strictly speaking, there is a still image resized for a through image (live view). Some are continuous, others are inter-frame compressed for recording. Even moving image data at the time of reproduction is filed in a predetermined format. Furthermore, since the same image is displayed for the user, these differences may not be recognized, and technically, depending on the design, inter-frame compression may not be performed during recording. is there. In view of the above, the expression “moving image data” is comprehensively including the output of the image sensor 8 subjected to image processing.

なお、本発明においては、レンズ部2と撮像素子8が1つの筐体に設けられたデジタルカメラを例に説明したが、レンズ部2が着脱自在なレンズ装置と本体部とで構成されたデジタル一眼レフカメラであっても適用することができる。   In the present invention, a digital camera in which the lens unit 2 and the image sensor 8 are provided in one housing has been described as an example. However, the digital unit is configured by a lens device to which the lens unit 2 is detachable and a main body unit. Even a single-lens reflex camera can be applied.

また、本発明に係る撮像装置は、デジタルカメラ以外にも、例えばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮影機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。   In addition to the digital camera, the imaging device according to the present invention is also applicable to electronic devices such as a digital camera that can be equipped with accessories, a digital video camera, and a mobile phone or a tablet-type mobile device having a photographing function. Can do.

本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。   In the description of the flowchart in the present specification, the context of processing between steps is clearly shown using expressions such as “first”, “subsequent”, and “follow”, but this is necessary for carrying out the present invention. The order of processing is not uniquely determined by their expression. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.

(付記1)
画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置であって、
被写体を撮像して該被写体の画像データを生成する撮像部と、
前記撮像部が生成した前記画像データに対応する撮影画像を表示可能な表示部と、
前記表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、
前記タッチパネルから入力される位置信号に応じた位置に対応する前記撮影画像の領域を、撮影画像から前記第2画像として切り出す領域として設定する領域設定部と、
前記領域設定部が設定した前記領域を前記撮影画像から順次切り出すことによって前記第2画像が時間的に連続する第2動画データを生成する画像処理部と、
前記第1画像を時間的に連続して撮影することによって得られる第1動画データおよび前記第2動画データをそれぞれ記録する制御を行う記録制御部と、
を備えたことを特徴とする撮像装置。
(Appendix 1)
An imaging apparatus capable of capturing a first image and a second image having different angles of view and / or shooting positions,
An imaging unit that images a subject and generates image data of the subject;
A display unit capable of displaying a captured image corresponding to the image data generated by the imaging unit;
A touch panel that is provided on the display screen of the display unit, detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position;
An area setting unit that sets an area of the captured image corresponding to a position according to a position signal input from the touch panel as an area to be cut out as the second image from the captured image;
An image processing unit that generates second moving image data in which the second image is temporally continuous by sequentially cutting out the region set by the region setting unit from the captured image;
A recording control unit that performs control to record the first moving image data and the second moving image data obtained by continuously capturing the first image in time, and
An imaging apparatus comprising:

1 撮像装置
2 レンズ部
3 レンズ駆動部
4 絞り
5 絞り駆動部
6 シャッタ
7 シャッタ駆動部
8 撮像素子
9 撮像素子駆動部
10 信号処理部
11 A/D変換部
12 第1画像処理部
13 特徴判定部
14 追尾設定部
15 第2画像処理部
16 AE処理部
17 AF処理部
18 画像圧縮展開部
19 入力部
20 表示部
21 表示駆動部
22 記録媒体
23 メモリI/F
24 SDRAM
25 Flashメモリ
26 バス
27 制御部
181 静止画圧縮展開部
182 第1動画圧縮展開部
183 第2動画圧縮展開部
191 静止画撮影操作部
192 動画撮影操作部
193 モード切替操作部
194 設定操作部
195 タッチパネル
241 第1動画仮記録部
242 第2動画仮記録部
243 静止画仮記録部
251 プログラム記録部
252 特徴情報記録部
271 顔検出部
272 タッチ検出部
273 領域設定部
274 記録制御部
275 表示制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Lens part 3 Lens drive part 4 Aperture 5 Aperture drive part 6 Shutter 7 Shutter drive part 8 Image sensor 9 Image sensor drive part 10 Signal processing part 11 A / D conversion part 12 1st image process part 13 Feature determination part 14 Tracking setting unit 15 Second image processing unit 16 AE processing unit 17 AF processing unit 18 Image compression / decompression unit 19 Input unit 20 Display unit 21 Display drive unit 22 Recording medium 23 Memory I / F
24 SDRAM
25 Flash memory 26 Bus 27 Control unit 181 Still image compression / expansion unit 182 First moving image compression / expansion unit 183 Second moving image compression / expansion unit 191 Still image shooting operation unit 192 Movie shooting operation unit 193 Mode switching operation unit 194 Setting operation unit 195 Touch panel 241 First moving image temporary recording unit 242 Second moving image temporary recording unit 243 Still image temporary recording unit 251 Program recording unit 252 Feature information recording unit 271 Face detection unit 272 Touch detection unit 273 Area setting unit 274 Recording control unit 275 Display control unit

Claims (16)

画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置であって、
前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御部を備え、
前記記録制御部は、
前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を他の画像で補間することを特徴とする撮像装置。
An imaging apparatus capable of capturing a first image and a second image having different angles of view and / or shooting positions,
A recording control unit that performs control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in time,
The recording control unit
When the second image is intermittently recorded, an imaging apparatus that interpolates a period during which the second image is not recorded with another image.
被写体を撮像して該被写体の画像データを連続的に生成する撮像部をさらに備え、
前記第2画像は、前記撮像部が生成した前記画像データに対応する撮影画像を該撮影画像と異なる画角および/または撮影位置で切り出されたことを特徴とする請求項1に記載の撮像装置。
An imaging unit that captures an image of the subject and continuously generates image data of the subject;
The imaging apparatus according to claim 1, wherein the second image is obtained by cutting a captured image corresponding to the image data generated by the imaging unit at an angle of view and / or a shooting position different from the captured image. .
前記他の画像は、前記第1画像であることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the other image is the first image. 前記撮像部が生成した前記撮影画像に画像処理を順次行って前記第1動画データを生成する第1画像処理部と、
前記撮像部が生成した前記撮影画像から該撮影画像と異なる画角の領域を順次切り出す画像処理を行って前記第2動画データを生成する第2画像処理部と、
前記第1動画データおよび前記第2動画データを記録する記録部と、
をさらに備え、
前記記録制御部は、前記第1動画データおよび前記第2動画データを同期させて再生できるように前記記録部に記録することを特徴とする請求項3に記載の撮像装置。
A first image processing unit that sequentially performs image processing on the captured image generated by the imaging unit to generate the first moving image data;
A second image processing unit that performs image processing for sequentially cutting out regions of an angle of view different from the captured image from the captured image generated by the imaging unit, and generates the second moving image data;
A recording unit for recording the first moving image data and the second moving image data;
Further comprising
The imaging apparatus according to claim 3, wherein the recording control unit records the first moving image data and the second moving image data in the recording unit so that the first moving image data and the second moving image data can be reproduced in synchronization.
動画撮影の開始を指示する動画開始信号および動画撮影の終了を指示する動画終了信号の入力を受け付ける第1の動画撮影操作部と、
前記第2画像の撮影の開始を指示する開始信号および前記第2画像の撮影の終了を指示する終了信号の入力を受け付ける第2の動画撮影操作部と、
前記第2画像処理部が前記撮影画像から切り出す領域を設定する領域設定部と、
をさらに備え、
前記記録制御部は、前記第2の動画撮影操作部から前記開始信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第2画像に対応する領域に設定する一方、前記第2の動画撮影操作部から前記終了信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第1画像に対応する領域に設定することを特徴とする請求項4に記載の撮像装置。
A first moving image shooting operation unit that receives input of a moving image start signal instructing the start of moving image shooting and a moving image end signal instructing the end of moving image shooting;
A second moving image shooting operation unit for receiving input of a start signal for instructing start of shooting of the second image and an end signal for instructing end of shooting of the second image;
An area setting unit for setting an area to be cut out from the captured image by the second image processing unit;
Further comprising
When the start signal is input from the second moving image shooting operation unit, the recording control unit sets the region set by the region setting unit to the second image processing unit as a region corresponding to the second image. On the other hand, when the end signal is input from the second moving image shooting operation unit, the region setting unit sets the region set in the second image processing unit to a region corresponding to the first image. The imaging apparatus according to claim 4.
前記撮影画像を表示可能な表示部と、
前記表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、
をさらに備え、
前記領域設定部は、前記タッチパネルから入力される位置信号に応じた位置に対応する前記撮影画像の領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする請求項5に記載の撮像装置。
A display unit capable of displaying the captured image;
A touch panel that is provided on the display screen of the display unit, detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position;
Further comprising
The area setting unit sets an area of the captured image corresponding to a position corresponding to a position signal input from the touch panel as an area cut out from the captured image by the second image processing unit. Item 6. The imaging device according to Item 5.
前記第2画像を撮影している状態で、前記第2画像の撮影の終了を示す終了情報を前記表示部に表示させる表示制御部をさらに備え、
前記終了信号は、前記タッチパネルから前記終了情報に対応する領域の前記位置信号であり、
前記開始信号は、前記タッチパネルから入力される前記終了情報に対応する領域以外の前記位置信号であることを特徴とする請求項6に記載の撮像装置。
A display control unit for displaying end information indicating the end of shooting of the second image on the display unit in a state of shooting the second image;
The end signal is the position signal of an area corresponding to the end information from the touch panel,
The imaging apparatus according to claim 6, wherein the start signal is the position signal other than an area corresponding to the end information input from the touch panel.
前記タッチパネルから入力される位置信号に応じた位置を含む領域内に含まれる被写体の特徴を判定する特徴判定部と、
前記特徴判定部が判定した判定結果に基づいて、隣接する前記撮影画像内で追尾する被写体を設定する追尾設定部と、
をさらに備え、
前記領域設定部は、前記追尾設定部が設定した被写体を含む領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする請求項6または7に記載の撮像装置。
A feature determination unit that determines a feature of a subject included in an area including a position according to a position signal input from the touch panel;
A tracking setting unit that sets a subject to be tracked in the adjacent captured image based on the determination result determined by the feature determination unit;
Further comprising
The imaging device according to claim 6 or 7, wherein the region setting unit sets a region including the subject set by the tracking setting unit as a region cut out from the captured image by the second image processing unit. .
前記記録制御部は、前記第1動画データおよび前記第2動画データに、前記タッチパネルが外部からの物体のタッチを検出したタッチ位置および/またはタッチを検出した時間情報を含むタッチ情報を対応付けて前記記録部に記録することを特徴とする請求項6〜8のいずれか一つに記載の撮像装置。   The recording control unit associates the first moving image data and the second moving image data with touch information including a touch position at which the touch panel detects a touch of an object from the outside and / or time information at which the touch is detected. The imaging apparatus according to claim 6, wherein recording is performed in the recording unit. 前記第2画像は、前記第1画像より画角が小さいことを特徴とする請求項6〜9のいずれか一つに記載の撮像装置。   The imaging apparatus according to claim 6, wherein the second image has a smaller angle of view than the first image. 前記表示制御部は、前記記録部に記録された前記第1動画データおよび前記第2動画データを前記表示部に表示させる場合、前記第1動画データおよび前記第2動画データを同期させて前記表示部に表示させることを特徴とする請求項10に記載の撮像装置。   The display control unit synchronizes the first moving image data and the second moving image data when displaying the first moving image data and the second moving image data recorded in the recording unit on the display unit. The imaging device according to claim 10, wherein the imaging device is displayed on a screen. 前記表示制御部は、前記第1画像に、所定の表示領域に縮小した前記第2画像を重畳して前記表示部に表示させることを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the display control unit superimposes the second image reduced in a predetermined display area on the first image and causes the display unit to display the superimposed image. 前記表示制御部は、前記タッチ情報に基づいて、表現効果を伴って前記第1画像および前記第2画像それぞれの表示領域を切り替えることを特徴とする請求項11または12に記載の撮像装置。   The imaging device according to claim 11 or 12, wherein the display control unit switches display areas of the first image and the second image with an expression effect based on the touch information. 前記表示制御部は、前記第1画像および前記第2画像それぞれの表示領域を徐々に切り替える表現効果、または前記第1画像に前記第2画像を合成する合成比率を徐々に切り替える表現効果を行って前記表示部に表示させることを特徴とする請求項13に記載の撮像装置。   The display control unit performs an expression effect of gradually switching display areas of the first image and the second image, or an expression effect of gradually switching a composition ratio for synthesizing the second image with the first image. The image pickup apparatus according to claim 13, wherein the image pickup apparatus is displayed on the display unit. 画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置が実行する撮像方法であって、
前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、
前記記録制御ステップは、
前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とする撮像方法。
An imaging method executed by an imaging apparatus capable of capturing a first image and a second image having different angles of view and / or shooting positions,
A recording control step for performing control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in time,
The recording control step includes
When the second image is intermittently recorded, a period during which the second image is not recorded is interpolated with another image.
画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置に実行させるプログラムであって、
前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、
前記記録制御ステップは、
前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とするプログラム。
A program for causing an imaging device capable of capturing a first image and a second image having different angles of view and / or shooting positions to be executed,
A recording control step for performing control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in time,
The recording control step includes
When the second image is intermittently recorded, a program in which a period during which the second image is not recorded is interpolated with another image.
JP2012024558A 2012-02-07 2012-02-07 Imaging apparatus, imaging method, and program Expired - Fee Related JP5806623B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012024558A JP5806623B2 (en) 2012-02-07 2012-02-07 Imaging apparatus, imaging method, and program
CN201611143425.3A CN106851088B (en) 2012-02-07 2013-02-07 Image pickup apparatus and image pickup method
CN201310049275.XA CN103248815B (en) 2012-02-07 2013-02-07 Camera head, image capture method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012024558A JP5806623B2 (en) 2012-02-07 2012-02-07 Imaging apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2013162425A true JP2013162425A (en) 2013-08-19
JP5806623B2 JP5806623B2 (en) 2015-11-10

Family

ID=48928016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012024558A Expired - Fee Related JP5806623B2 (en) 2012-02-07 2012-02-07 Imaging apparatus, imaging method, and program

Country Status (2)

Country Link
JP (1) JP5806623B2 (en)
CN (2) CN103248815B (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609215B2 (en) 2014-06-12 2017-03-28 Olympus Corporation Moving-image recording/reproduction apparatus
WO2017164140A1 (en) * 2016-03-22 2017-09-28 キヤノン株式会社 Electronic device and method for controlling same
JP2017175606A (en) * 2016-03-22 2017-09-28 キヤノン株式会社 Electronic device, control method of the same, and imaging apparatus
JP2017208658A (en) * 2016-05-17 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method and program
WO2021182190A1 (en) * 2020-03-11 2021-09-16 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging system, and imaging method
WO2021210807A1 (en) * 2020-04-17 2021-10-21 삼성전자 주식회사 Electronic device comprising multi-camera, and photographing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114143464A (en) * 2016-05-20 2022-03-04 麦克赛尔株式会社 Image pickup apparatus and setting screen thereof
JP6911392B2 (en) * 2017-03-07 2021-07-28 カシオ計算機株式会社 Image acquisition device, image acquisition method, program and image acquisition system
WO2018179824A1 (en) 2017-03-30 2018-10-04 富士フイルム株式会社 Imaging device, imaging control method, and program
JP7080103B2 (en) * 2018-05-16 2022-06-03 キヤノン株式会社 Imaging device, its control method, and program
CN112019735B (en) * 2019-05-31 2023-01-17 中兴通讯股份有限公司 Shooting method and device, storage medium and electronic device
EP3829159A1 (en) * 2019-11-29 2021-06-02 Ricoh Company, Ltd. Image capturing device, image communication system, and method for display control, and carrier means

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259155A (en) * 2006-03-23 2007-10-04 Olympus Imaging Corp Camera, determination method thereof, and control method thereof
JP2010193476A (en) * 2010-03-19 2010-09-02 Sanyo Electric Co Ltd Imaging device and image reproducing device
JP2011091571A (en) * 2009-10-21 2011-05-06 Olympus Imaging Corp Moving image creation device and moving image creation method
JP2012009915A (en) * 2010-06-22 2012-01-12 Nikon Corp Imaging device, reproduction device, and reproduction program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101959021B (en) * 2004-05-13 2015-02-11 索尼株式会社 Image display apparatus and image display method
JP4882989B2 (en) * 2007-12-10 2012-02-22 ソニー株式会社 Electronic device, reproduction method and program
CN102016909A (en) * 2008-12-19 2011-04-13 松下电器产业株式会社 Image search device and image search method
JP5775659B2 (en) * 2009-05-07 2015-09-09 オリンパス株式会社 Imaging apparatus and mode switching method in imaging apparatus
JP2010268019A (en) * 2009-05-12 2010-11-25 Nikon Corp Photographing apparatus
JP5471124B2 (en) * 2009-07-29 2014-04-16 ソニー株式会社 Image search apparatus, image search method, and image search program
JP2010193475A (en) * 2010-03-19 2010-09-02 Sanyo Electric Co Ltd Imaging device and image reproducing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259155A (en) * 2006-03-23 2007-10-04 Olympus Imaging Corp Camera, determination method thereof, and control method thereof
JP2011091571A (en) * 2009-10-21 2011-05-06 Olympus Imaging Corp Moving image creation device and moving image creation method
JP2010193476A (en) * 2010-03-19 2010-09-02 Sanyo Electric Co Ltd Imaging device and image reproducing device
JP2012009915A (en) * 2010-06-22 2012-01-12 Nikon Corp Imaging device, reproduction device, and reproduction program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609215B2 (en) 2014-06-12 2017-03-28 Olympus Corporation Moving-image recording/reproduction apparatus
WO2017164140A1 (en) * 2016-03-22 2017-09-28 キヤノン株式会社 Electronic device and method for controlling same
JP2017175606A (en) * 2016-03-22 2017-09-28 キヤノン株式会社 Electronic device, control method of the same, and imaging apparatus
US10649313B2 (en) 2016-03-22 2020-05-12 Canon Kabushiki Kaisha Electronic apparatus and method for controlling same
JP2017208658A (en) * 2016-05-17 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method and program
WO2021182190A1 (en) * 2020-03-11 2021-09-16 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging system, and imaging method
WO2021210807A1 (en) * 2020-04-17 2021-10-21 삼성전자 주식회사 Electronic device comprising multi-camera, and photographing method
US11956530B2 (en) * 2020-04-17 2024-04-09 Samsung Electronics Co., Ltd. Electronic device comprising multi-camera, and photographing method

Also Published As

Publication number Publication date
CN106851088A (en) 2017-06-13
JP5806623B2 (en) 2015-11-10
CN103248815B (en) 2017-03-01
CN103248815A (en) 2013-08-14
CN106851088B (en) 2020-01-07

Similar Documents

Publication Publication Date Title
JP5806623B2 (en) Imaging apparatus, imaging method, and program
US8525894B2 (en) Camera and camera control method
US20110102621A1 (en) Method and apparatus for guiding photographing
JP2012049651A (en) Imaging apparatus and imaging method
JP5782813B2 (en) Imaging apparatus and image display method
KR101739379B1 (en) Digital photographing apparatus and control method thereof
JP2009268037A (en) Imaging apparatus and imaging method
JP4639965B2 (en) Imaging apparatus, image processing method, and program
JP2007124279A (en) Image processor
JP6721084B2 (en) Zoom control device, zoom control method, and program
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP4957263B2 (en) Imaging apparatus, imaging method, and program thereof
JP2006303961A (en) Imaging apparatus
JP2017163191A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2007142702A (en) Image processing apparatus
JP6056551B2 (en) Image processing program and digital camera
JP6031670B2 (en) Imaging device
US20130063621A1 (en) Imaging device
JP6460783B2 (en) Image processing apparatus and control method thereof
JP2009070374A (en) Electronic device
JP5126392B2 (en) REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP2007124278A (en) Imaging apparatus
JP2010273268A (en) Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program
JP2007124280A (en) Imaging apparatus
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150310

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150904

R151 Written notification of patent or utility model registration

Ref document number: 5806623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees