JP5628992B2 - CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD - Google Patents

CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD Download PDF

Info

Publication number
JP5628992B2
JP5628992B2 JP2013219226A JP2013219226A JP5628992B2 JP 5628992 B2 JP5628992 B2 JP 5628992B2 JP 2013219226 A JP2013219226 A JP 2013219226A JP 2013219226 A JP2013219226 A JP 2013219226A JP 5628992 B2 JP5628992 B2 JP 5628992B2
Authority
JP
Japan
Prior art keywords
image
image data
trimmed
unit
trimming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013219226A
Other languages
Japanese (ja)
Other versions
JP2014027691A (en
Inventor
植村 有為子
有為子 植村
薫示 高橋
薫示 高橋
聡司 原
聡司 原
憲 谷
憲 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013219226A priority Critical patent/JP5628992B2/en
Publication of JP2014027691A publication Critical patent/JP2014027691A/en
Application granted granted Critical
Publication of JP5628992B2 publication Critical patent/JP5628992B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラ、カメラの制御方法、および表示制御装置に関し、詳しくは、デジタルカメラ、ビデオカメラ、カメラ付き携帯電話など、静止画撮影や動画撮影の機能を有するカメラ、カメラの制御方法、表示制御装置、表示制御方法に関する。   The present invention relates to a camera, a camera control method, and a display control device, and more specifically, a digital camera, a video camera, a camera-equipped mobile phone, and the like, a camera having a still image shooting function and a moving image shooting function, a camera control method, and a display. The present invention relates to a control device and a display control method.

従来のフィルム写真のように、一瞬を切り取るような静止画撮影は、一般ユーザにとって比較的に簡単である。一方、動画撮影は、開始のタイミングと終了のタイミングの取り方が難しく、運動会や結婚式のように形式化した行事でしか、ムービーカメラを使用することはなかった。また、詳細な演出を予め決めておいた場合以外には、撮影動画の変化は乏しく、鑑賞に耐える画像とはなり難いものであった。テレビ番組のように頻繁に構図に変化のある動画に慣れたユーザにとっては、単調な画像は耐えにくいものがあるからである。さらに、撮影パラメータを変更することにより、多彩な表現が可能であるが、素人のユーザにとっては困難なものがあった。   As in conventional film photography, still image shooting that cuts out a moment is relatively easy for a general user. On the other hand, in video shooting, it was difficult to determine the start timing and end timing, and movie cameras were used only for events that were formalized, such as athletic meet and wedding ceremony. In addition, except for the case where a detailed performance is determined in advance, the change in the captured moving image is scarce and it is difficult to obtain an image that can withstand viewing. This is because a monotonous image is difficult to endure for a user who is used to a moving image whose composition changes frequently such as a television program. Furthermore, although various expressions can be made by changing the shooting parameters, there are things that are difficult for an amateur user.

そこで、静止画と動画を組み合わせる等、画像に変化をつけることが考えられる。例えば、特許文献1、2には、動画の撮影中に静止画の撮影を行うことのできるカメラが開示されている。また、動画の撮影後に動画の編集を行うようによって単調とならないようにしたカメラが提案されている。また、例えば、特許文献3には、静止画撮影の前後で動画を記録できるカメラが開示されている。さらに、例えば、特許文献4には、動画の編集時に、動画を接続する際に、接続時のルール(パンで終了し、パンで開始する)に従っていない時に、トランジション効果を付与しており、動画編集に関して専門的知識のないユーザであっても動画編集を容易に行えるようにしたカメラが開示されている。   Therefore, it is conceivable to change the image by combining a still image and a moving image. For example, Patent Documents 1 and 2 disclose a camera that can capture a still image while capturing a moving image. In addition, there has been proposed a camera that does not become monotonous by editing a moving image after shooting the moving image. For example, Patent Document 3 discloses a camera that can record a moving image before and after still image shooting. Furthermore, for example, in Patent Document 4, when editing a video, when connecting the video, a transition effect is given when the rules at the time of connection (end with pan and start with pan) are not followed. There has been disclosed a camera that can easily edit a moving image even for a user who has no technical knowledge about editing.

特開平4−331583号公報Japanese Patent Laid-Open No. 4-331583 特許3673528号公報Japanese Patent No. 3673528 特開2001−078137号公報Japanese Patent Application Laid-Open No. 2001-078137 特開2003−110995号公報JP 2003-110995 A

特許文献1、2、3に記載に開示されたカメラはいずれも、動画と静止画を同じ装置で撮影できるだけであって、単調さをなくした画像を撮影するものではない。また、特許文献4に開示されたカメラは、動画編集時の提案であって、撮影時に単調とならないようにした画像を撮影するものではない。   The cameras disclosed in Patent Documents 1, 2, and 3 can only shoot moving images and still images with the same device, and do not shoot images that are not monotonous. The camera disclosed in Patent Document 4 is a proposal for editing a moving image, and does not capture an image that is not monotonous at the time of shooting.

本発明は、このような事情を鑑みてなされたものであり、変化に富んだ多彩な画像を、簡単に誰でも撮影若しくは表示することを可能としたカメラ、カメラの制御方法、表示制御装置、および表示制御方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and a camera, a camera control method, a display control device, and a camera that enable anyone to easily shoot or display a variety of varied images. It is another object of the present invention to provide a display control method.

上記目的を達成するため第1の発明に係わるカメラは、被写体像を画像データに変換する撮像部と、レリーズ動作に応答し、上記撮像部から画像データを取得すると共に、上記レリーズ動作の前若しくは後に、上記撮像部から複数の画像データを取得する撮影部と、上記複数の画像データから、異なる領域で順次トリミング画像データを生成するトリミング部と、上記トリミング部で生成されたトリミング画像データ、および上記レリーズ動作時に取得した画像データを記録する制御部と、を有し、上記制御部は、人物と関係のある特徴がある部分を検出し、上記異なる領域で生成されるトリミング画像データとして、上記特徴がある部分を先に、次に上記特徴のある部分からトリミング位置を移動させた画像を、最後に画面全体を、順次生成する。 In order to achieve the above object, a camera according to a first aspect of the present invention is an imaging unit that converts a subject image into image data, acquires image data from the imaging unit in response to a release operation, and before or after the release operation. A shooting unit that acquires a plurality of image data from the imaging unit; a trimming unit that sequentially generates trimmed image data in different regions from the plurality of image data; and trimmed image data generated by the trimming unit; A controller that records the image data acquired during the release operation, and the controller detects a portion having a characteristic related to a person, and the trimmed image data generated in the different area includes before the portion is characterized, the image moves the trimming position from the portion next of the feature, finally the entire screen, sequentially raw To.

第2の発明に係わるカメラは、上記第1の発明において、上記トリミング画像データは、拡大画像から縮小するように、順次生成する。 In the camera according to the second invention, in the first invention, the trimmed image data is sequentially generated so as to be reduced from the enlarged image.

の発明に係わるカメラは、上記第1の発明において、上記トリミング画像データは、縮小画像から拡大するように、順次生成する。 In the camera according to the third invention, in the first invention, the trimmed image data is sequentially generated so as to be enlarged from the reduced image.

の発明に係わるカメラは、上記第1の発明において、上記トリミング画像データは露出補正を施し、上記レリーズ動作時に取得した画像データは適正露光となるように、順次生成する。 In the camera according to a fourth aspect of the present invention, in the first aspect, the trimmed image data is subjected to exposure correction, and the image data acquired during the release operation is sequentially generated so as to achieve proper exposure.

の発明に係わるカメラの制御方法は、被写体像を画像データに変換し、撮影指示に応じて、変換された画像データを取得し、これを記録部に記録し、この記録された画像データから人物と関係のある特徴がある部分を検出し、特徴がある部分の位置の第1の部分をトリミング処理し、これを記録部に記録し、上記第1の部分とは別の位置の第2の部分をトリミング処理し、最後に画面全体を順次再生できるように記録部に記録する。 According to a fifth aspect of the present invention, there is provided a camera control method for converting a subject image into image data, obtaining the converted image data in accordance with a photographing instruction, recording the converted image data in a recording unit, and recording the recorded image data. A portion having a characteristic related to the person is detected, the first portion at the position of the characteristic is trimmed, and this is recorded in the recording unit, and the first portion at a position different from the first portion is recorded. The portion 2 is trimmed and finally recorded in the recording unit so that the entire screen can be reproduced sequentially.

の発明に係わる表示制御装置は、レリーズ動作時に取得されたレリーズ時画像データと、レリーズ動作時の前若しくは後に取得され、複数フレームで異なる領域でトリミング処理されたトリミング画像データを記録する記録部と、上記記録部に記録された上記画像データから人物と関係のある特徴がある部分を検出し、上記画像データの内、最初に特徴がある第1の部分のトリミング画像データを再生し、続いて、上記第1の部分とは別の位置の第2の部分のトリミング画像を再生し、最後に、上記レリーズ動作時に取得した画像データを順次再生する再生制御部と、を有する。 According to a sixth aspect of the present invention, there is provided a display control apparatus for recording the image data at the time of release acquired during the release operation and the trimmed image data acquired before or after the release operation and trimmed in different areas in a plurality of frames. A portion having a characteristic related to a person from the image data recorded in the recording unit, and reproducing trimmed image data of a first portion having a characteristic first in the image data, Subsequently, a trimming image of the second part at a position different from the first part is reproduced, and finally, a reproduction control unit that sequentially reproduces the image data acquired during the release operation.

の発明に係わる表示制御方法は、レリーズ動作時に取得されたレリーズ時画像データと、レリーズ動作時の前若しくは後に取得され、複数フレームで異なる領域でトリミング処理されたトリミング画像データが記録部に記録されている表示装置における表示制御方法であって、上記記録部に記録された上記画像データから人物と関係のある特徴がある部分を検出し、上記画像データの内、最初に特徴がある第1の部分のトリミング画像データを再生し、続いて、上記第1の部分とは別の位置の第2の部分のトリミング画像を再生し、最後に、上記レリーズ動作時に取得した画像データを順次再生する。 According to a seventh aspect of the present invention, there is provided a display control method comprising: recording image data acquired during a release operation and trimmed image data acquired before or after the release operation and trimmed in different areas in a plurality of frames; A display control method in a recorded display device, wherein a portion having a characteristic related to a person is detected from the image data recorded in the recording unit, and the first of the image data having a characteristic is detected . The trimmed image data of the first part is reproduced, then the trimmed image of the second part at a position different from the first part is reproduced, and finally the image data acquired during the release operation is sequentially reproduced. To do.

本発明によれば、被写体全体が表示されるまでの間、何が(誰が)写っているのかを鑑賞者に想像させ、表示する被写体に対する期待感を鑑賞者が高めることを可能としたカメラ、カメラの制御方法、表示制御装置、および表示制御方法を提供することができる。   According to the present invention, a camera that allows a viewer to imagine what (who) is captured until the entire subject is displayed, and allows the viewer to increase expectation on the displayed subject, A camera control method, a display control device, and a display control method can be provided.

本発明の第1実施形態に係わるカメラの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラの画像処理部の詳細を示すブロック図である。It is a block diagram which shows the detail of the image processing part of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラにおいて、静止画の撮影とこの静止画の撮影に先だって行う動画撮影の手順を示す図である。FIG. 5 is a diagram illustrating a procedure of shooting a still image and moving image shooting performed before shooting the still image in the camera according to the first embodiment of the present invention. 本発明の第1実施形態に係わるカメラにおいて、静止画の撮影とこの静止画の撮影に先だって行う動画撮影における表示および記録される画像の関係を示す図である。In the camera according to the first embodiment of the present invention, it is a diagram showing the relationship between still image shooting and displayed and recorded images in moving image shooting performed prior to the still image shooting. 本発明の第1実施形態に係わるカメラにおいて、不要画像削除の動作を示すフローチャートである。6 is a flowchart illustrating an operation for deleting unnecessary images in the camera according to the first embodiment of the present invention. 本発明の第1実施形態に係わるカメラにおいて、静止画撮影とこの静止画の撮影に先だって撮影された動画の表示状態を示す図である。FIG. 3 is a diagram illustrating still image shooting and a display state of a moving image shot prior to shooting of the still image in the camera according to the first embodiment of the present invention. 本発明の第1実施形態の変形例に係わるカメラにおいて、静止画の撮影とこの静止画の撮影に先だって行う動画撮影における表示および記録される画像の関係を示す図である。FIG. 6 is a diagram illustrating a relationship between a still image shooting and a displayed and recorded image in moving image shooting performed prior to the still image shooting in the camera according to the modification of the first embodiment of the present invention. 本発明の第2実施形態に係わるカメラにおいて、静止画の撮影とこの静止画の撮影に先だって行う動画撮影における表示および記録される画像の関係を示す図である。In the camera concerning 2nd Embodiment of this invention, it is a figure which shows the relationship of the image displayed and recorded in the video recording performed before imaging | photography of a still image and this still image. 本発明の第2実施形態に係わるカメラにおいて、トリミング範囲を変化させていく動作を示すフローチャートである。It is a flowchart which shows the operation | movement which changes the trimming range in the camera concerning 2nd Embodiment of this invention. 本発明の第2実施形態の変形例に係わるカメラにおいて、トリミング範囲を表情変化の時間に合わせて移動させる様子を説明する図である。It is a figure explaining a mode that the trimming range is moved according to the time of expression change in the camera concerning the modification of 2nd Embodiment of this invention. 本発明の第3実施形態に係わるカメラにおいて、静止画の撮影とこの静止画の撮影後に続けて行う動画撮影の手順を示す図である。It is a figure which shows the procedure of the video recording performed in the camera concerning 3rd Embodiment of this invention continuously after image | photographing of a still image and this still image. 本発明の第3実施形態に係わるカメラにおいて、静止画の撮影とこの静止画の撮影後に続けて行う動画撮影における表示および記録される画像の関係を示す図である。It is a figure which shows the relationship between the image displayed and recorded in the video recording performed in the camera concerning 3rd Embodiment of this invention after a still image imaging | photography and this still image imaging | photography. 本発明の第3実施形態に係わるカメラにおいて、静止画撮影後にカメラの向きが変わって行く様子を示す図である。In the camera concerning 3rd Embodiment of this invention, it is a figure which shows a mode that the direction of a camera changes after still image photography. 本発明の第3実施形態に係わるカメラにおいて、静止画撮影後にカメラの向きが変わった場合にでも、画面中央部分を動画として記録し表示する様子を示す図である。In the camera concerning 3rd Embodiment of this invention, it is a figure which shows a mode that the center part of a screen is recorded and displayed as a moving image, even when the direction of a camera changes after a still image photography.

以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。図1は、本発明の第1実施形態に係わるカメラ10の電気回路を示すブロック図である。カメラ10は、デジタルカメラであり、制御部1、撮像部2、顔検出部2a、パラメータ設定部3、モーション判定部4、記録部6、パラメータ制御部7、表示部8、操作部9、時計部11等から構成される。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied according to the drawings. FIG. 1 is a block diagram showing an electric circuit of a camera 10 according to the first embodiment of the present invention. The camera 10 is a digital camera, and includes a control unit 1, an imaging unit 2, a face detection unit 2a, a parameter setting unit 3, a motion determination unit 4, a recording unit 6, a parameter control unit 7, a display unit 8, an operation unit 9, and a clock. It consists of part 11 grade.

撮像部2は、ズーム機能とピント合わせ機能を有する撮影レンズ(ズームレンズ)や、シャッタ・絞り等の露出制御部、撮像素子、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって画像データに変換し、これを出力する。顔検出部2aは撮像部2から出力され、制御部1によって処理された画像データに基づいて、被写体像の中に人物の顔が含まれているか否か、また顔が含まれていた場合には、人物の顔の数、その位置や大きさ等を検出し、検出結果を制御部1に出力する。また、笑顔度等、顔の表情も検出する。なお、顔の検出にあたっては、顔の中の目、鼻、口等のパーツの陰影を抽出し、パターンマッチング法等によって行う。   The imaging unit 2 includes a photographing lens (zoom lens) having a zoom function and a focusing function, an exposure control unit such as a shutter / aperture, an imaging element, a driving and reading circuit for the imaging element, and the like. The subject image is converted into image data by the image sensor and output. The face detection unit 2a is based on the image data output from the imaging unit 2 and processed by the control unit 1, whether or not a human face is included in the subject image, and if a face is included Detects the number of human faces, their positions and sizes, and outputs the detection results to the control unit 1. It also detects facial expressions such as smile levels. In detecting a face, shadows of parts such as eyes, nose, and mouth in the face are extracted and performed by a pattern matching method or the like.

制御部1は、制御部1内の記憶部(不図示)に記憶されているプログラムに従ってカメラ10の全体のシーケンスを制御する。制御部1は、構図変化判定部1a、トリミング部1b、画像処理部5を有する。構図変化判定部1aは、画面の構図やカメラ10の構え方が変化したか否かを判定する。画面の構図変化の判定にあっては、撮像部2から出力される画像データに基づいて動きベクトル等を利用する。また、カメラ10の構え方については、後述するモーション判定部4の判定出力に基づいて判定する。   The control unit 1 controls the entire sequence of the camera 10 according to a program stored in a storage unit (not shown) in the control unit 1. The control unit 1 includes a composition change determination unit 1a, a trimming unit 1b, and an image processing unit 5. The composition change determination unit 1a determines whether the composition of the screen and the way the camera 10 is held have changed. In determining the composition change of the screen, a motion vector or the like is used based on the image data output from the imaging unit 2. Further, how to hold the camera 10 is determined based on a determination output of a motion determination unit 4 described later.

トリミング部1bは、撮像部2から出力される画像データの一部を切り出すトリミング処理を行う。画像データの切り出しにあたっては、静止画の撮影に先だって、もしくは静止画の撮影後に撮影された動画の画像データのうち、顔検出部2aによって検出された顔位置から遠い位置や近い部分の複数個所について、トリミング処理を行う。   The trimming unit 1b performs a trimming process for cutting out part of the image data output from the imaging unit 2. When cutting out the image data, among the image data of the moving image shot before or after the still image shooting, a plurality of positions far from or near the face position detected by the face detection unit 2a Then, trimming processing is performed.

画像処理部5は、撮像部2から出力される画像データを取り込み、間引き処理、切り出し処理、リサイズ処理、エッジ強調、色補正、ホワイトバランス、画像圧縮等の種々の画像処理を行い、動画のライブビュー表示用、記録部6における静止画および動画の記録用、静止画および動画の再生表示用等の画像処理を行う。画像圧縮・伸張等にあたっては、静止画用圧縮・伸張回路、動画用圧縮・伸張回路等、それぞれの処理に応じて静止画用や動画用の回路を有する。   The image processing unit 5 captures image data output from the imaging unit 2, performs various image processing such as thinning processing, clipping processing, resizing processing, edge enhancement, color correction, white balance, and image compression, and Image processing for view display, for recording a still image and a moving image in the recording unit 6, and for reproducing and displaying a still image and a moving image is performed. In image compression / expansion, a still image compression / expansion circuit, a moving image compression / expansion circuit, and the like are provided for still images and moving images in accordance with respective processes.

また、画像処理部5は、静止画撮影の前後で所定時間(例えば、0.5秒〜2秒程度)の間、撮影した動画のフルサイズの画像データ、または画像処理された画像データを、フレーム毎に仮記憶可能である。特に、第1実施形態においては、トリミング部1bによって静止画撮影前に取得した動画の画像データのトリミング処理を行い、この処理された画像データを仮記憶する。このトリミング処理については、図3および図4を用いて後述する。   In addition, the image processing unit 5 stores the full-size image data or the image-processed image data of a captured moving image for a predetermined time (for example, about 0.5 second to 2 seconds) before and after still image shooting. Temporary storage is possible for each frame. In particular, in the first embodiment, the trimming unit 1b performs a trimming process on the image data of a moving image acquired before shooting a still image, and temporarily stores the processed image data. This trimming process will be described later with reference to FIGS.

パラメータ設定部3は、撮像部2における焦点距離を変化させるためのズーム釦、絞り値を設定させるための絞り値設定操作部等によって、撮影パラメータを手動設定し、制御部1に出力する。なお、絞り値等の場合には、測光の結果に応じて自動的に設定されるようにしても良い。パラメータ制御部7は、パラメータ設定部3において手動設定または自動設定された撮影パラメータに基づいて撮像部2の制御を行う。撮影パラメータを制御することにより、露出や画角や背景のボケ(被写界深度)等を調整可能となる。   The parameter setting unit 3 manually sets shooting parameters using a zoom button for changing the focal length in the imaging unit 2, an aperture value setting operation unit for setting an aperture value, and the like, and outputs the shooting parameters to the control unit 1. In the case of an aperture value or the like, it may be automatically set according to the result of photometry. The parameter control unit 7 controls the imaging unit 2 based on the imaging parameters that are set manually or automatically by the parameter setting unit 3. By controlling the shooting parameters, it is possible to adjust exposure, angle of view, background blur (depth of field), and the like.

モーション判定部4は、3次元空間の加速度、すなわち3軸加速度と、3次元空間での回転速度、すなわち3軸角速度の計6軸の物理量を検出する6軸センサ等を有している。このモーション判定部4は、カメラ10の構え方が変わっていないか否かについて判定することができる。   The motion determination unit 4 includes a six-axis sensor or the like that detects a total of six axes of physical quantities including acceleration in a three-dimensional space, that is, three-axis acceleration, and rotation speed in the three-dimensional space, that is, a three-axis angular velocity. The motion determination unit 4 can determine whether or not the way the camera 10 is held.

操作部9は、レリーズ釦、パワースイッチ、再生釦、メニュー釦等、種々の操作部材を含み、これらの操作部材の操作状態を判定し、制御部1に判定結果を送る。前述の制御部1は、操作部材の操作状態に応じて、所定のシーケンスで撮影や再生の制御を行う。記録部6は、レリーズ釦によって撮影の指示がなされた際に、撮像部2によって取得され、画像処理部5によって圧縮処理された静止画や動画の画像データを記録する。   The operation unit 9 includes various operation members such as a release button, a power switch, a reproduction button, a menu button, and the like, determines the operation state of these operation members, and sends a determination result to the control unit 1. The above-described control unit 1 controls photographing and reproduction in a predetermined sequence according to the operation state of the operation member. The recording unit 6 records image data of still images and moving images acquired by the imaging unit 2 and compressed by the image processing unit 5 when a shooting instruction is given by the release button.

表示部8は、カメラ10の背面等に配置された液晶パネルや有機ELパネル等の表示モニタを有し、撮影前のライブビュー表示や、記録済みの画像の再生表示や、カメラ情報の表示等を行う。撮影者はライブビュー表示を観察し、構図やタイミングを決定することができる。時計部11は、計時動作を行い、撮影日時情報を出力する。この撮影日時情報は、静止画や動画の画像データを記録部6に記録する際に合わせて記録する。   The display unit 8 includes a display monitor such as a liquid crystal panel or an organic EL panel disposed on the back surface of the camera 10 and the like. A live view display before shooting, a playback display of recorded images, a camera information display, and the like. I do. The photographer can observe the live view display and determine the composition and timing. The clock unit 11 performs a timekeeping operation and outputs shooting date information. This shooting date / time information is recorded when image data of a still image or a moving image is recorded in the recording unit 6.

次に、図2を用いて画像処理部5の構成の詳細について説明する。画像処理部5は、前述したように、撮像部2から出力される画像データを取り込み、間引き処理やリサイズ処理等の各種画像処理を行うが、ここでは、静止画撮影の前後で撮影した動画の画像データの画像処理に関連する構成を主に説明する。   Next, details of the configuration of the image processing unit 5 will be described with reference to FIG. As described above, the image processing unit 5 captures the image data output from the imaging unit 2 and performs various image processing such as thinning processing and resizing processing. Here, the moving image captured before and after the still image shooting is performed. A configuration related to image processing of image data will be mainly described.

仮記録部5aは、撮像部2からの画像データを仮記憶するためのメモリであり、静止画の画像データを仮記憶するためのメモリ0と、この静止画の先立つ所定時間、および静止画の後に続く所定時間の間、撮影される動画(連写)の各フレームに対応する画像データをそれぞれ仮記憶するためのメモリ(−n)〜メモリ(−1)、メモリ0、メモリ1〜メモリnを有する。ここで、メモリ(−n)〜メモリ(−1)は静止画の撮影に先立つ所定時間の間の動画を仮記録するためのメモリであり、メモリ0は静止画の画像データを仮記録するためのメモリであり、メモリ1〜メモリnは静止画撮影後の所定時間の間の動画を仮記録するためのメモリである。なお、メモリ(−n)〜メモリnの全てに画像データを記録する必要はなく、このうちの限られたメモリのみを、動画と静止画の画像データの記録に使用するようにしても良い。   The temporary recording unit 5a is a memory for temporarily storing image data from the imaging unit 2, a memory 0 for temporarily storing image data of a still image, a predetermined time prior to the still image, and a still image Memory (−n) to memory (−1), memory 0, memory 1 to memory n for temporarily storing image data corresponding to each frame of a moving image (continuous shooting) to be captured for a predetermined time that follows. Have Here, the memory (−n) to the memory (−1) are memories for temporarily recording moving images for a predetermined time prior to still image shooting, and the memory 0 is for temporarily recording image data of still images. The memories 1 to n are memories for temporarily recording a moving image for a predetermined time after still image shooting. Note that it is not necessary to record image data in all of the memories (-n) to the memory n, and only a limited memory among them may be used for recording image data of moving images and still images.

時間制御部5hは、時計部11から計時情報を入力し、動画の画像データをフレームの更新時間間隔で、上述の仮記録部5aの各メモリに順次記録するための計時制御を行う。画像データの仮記録を行う時間間隔は、本実施形態としては、撮像部2から出力される画像データの1フレーム間隔となるようにするが、数フレーム間隔となるようにしても良い。   The time control unit 5h inputs timekeeping information from the clock unit 11 and performs timekeeping control for sequentially recording moving image data at each frame update time interval in each memory of the temporary recording unit 5a. In this embodiment, the time interval for temporarily recording the image data is set to one frame interval of the image data output from the imaging unit 2, but may be set to several frame intervals.

静止画の画像データを仮記憶するためのメモリ0は静止画圧縮部5bに接続されている。静止画圧縮部5bは、JPEG等の画像圧縮を行う。動画(連写)の各フレームの画像データを記憶するメモリ(−n)〜メモリ(−1)、メモリ1〜メモリnは、効果処理部5eに接続されている。   A memory 0 for temporarily storing still image data is connected to the still image compression unit 5b. The still image compression unit 5b performs image compression such as JPEG. Memory (-n) to memory (-1) and memory 1 to memory n for storing image data of each frame of the moving image (continuous shooting) are connected to the effect processing unit 5e.

効果処理部5eは、入力した動画の画像データに対して画像効果が生ずるような画像処理を行う。動画圧縮部5fは効果処理部5eによって画像処理された画像データを、MPEG4やモーションJPEG等による動画圧縮を行う。   The effect processing unit 5e performs image processing that produces an image effect on the input moving image data. The moving image compression unit 5f performs moving image compression on the image data processed by the effect processing unit 5e by MPEG4, motion JPEG, or the like.

接続データ部5gは、動画圧縮部5fによって生成された動画の画像データと、静止画圧縮部5bによって生成された静止画の画像データを結合し、両画像データを連続的に再生するための接続情報を生成する。接続データ部5fによる接続情報と、静止画圧縮部5bからの画像データと、動画圧縮部5gからの画像データは、記録部6に送られ、1つの画像ファイルとして記録される。もちろん、別ファイルで記録しておき、それを関連付けた情報を静止画又は動画ファイルに記録するようにしても良い。また、時刻情報でこれを代用することも可能である。記録部6に記録された画像データの再生にあたっては、再生速度を速めたり、逆にゆっくりさせ、早送りやスローモーションで再生を可能としている。また、1秒に何コマ撮影するかによっても、仮記録部5aのメモリの容量が、何秒相当であるかは変化する。このように自由度をもって使用するメモリである。   The connection data unit 5g combines the moving image data generated by the moving image compression unit 5f and the still image data generated by the still image compression unit 5b, and continuously connects both image data. Generate information. The connection information by the connection data unit 5f, the image data from the still image compression unit 5b, and the image data from the moving image compression unit 5g are sent to the recording unit 6 and recorded as one image file. Of course, it is also possible to record in a separate file and record information associated therewith in a still image or moving image file. It is also possible to substitute this with time information. When the image data recorded in the recording unit 6 is reproduced, the reproduction speed is increased, or conversely, the image data is reproduced by fast-forwarding or slow motion. Also, the number of seconds corresponding to the memory capacity of the temporary recording unit 5a varies depending on how many frames are taken per second. Thus, the memory is used with a degree of freedom.

次に、図3を用いて、本実施形態における画像の撮影と再生について説明する。撮影時には画像21a〜21dの順に撮影を行うが、この中で、画像21dが静止画像であり、画像21a〜21cは静止画の撮影に先だって撮影された動画である。撮影者は被写体22の撮影を意図して静止画で画像21dを取得するが、再生時に最初から画像21dを表示するのでは、鑑賞する際にどんな画像が表示されるのかを楽しむ時間がなく、期待感を高めることができない。   Next, shooting and reproduction of an image in this embodiment will be described with reference to FIG. Images are taken in the order of images 21a to 21d at the time of shooting. Among them, the image 21d is a still image, and the images 21a to 21c are moving images shot prior to shooting of a still image. The photographer intends to shoot the subject 22 and acquires the image 21d as a still image. However, since the image 21d is displayed from the beginning at the time of reproduction, there is no time to enjoy what image is displayed when viewing. Can't raise expectations.

そこで、本実施形態においては、被写体22の顔を含めて全体を最初から再生表示するのではなく、顔以外の部分を最初に表示し、次第に全体像が見えるようにしている。具体的には、撮影時に記録された画像データの中から、最初に手の部分を拡大した画像21aを読み出しこれを表示し、続いて、手の部分を含む広めの範囲の画像21bを読み出しこれを表示し、次に顔の部分を拡大した画像21cを読み出しこれを表示し、最後に、被写体22の全体が写っている画像21dを読み出しこれを表示する。鑑賞者は何が(誰が)写っているのか早く知りたいという期待感を持っていることから、その心理を利用して効果的な再生表示を行うことができる。すなわち、誰が写っているかや、どんな表情をしているかといった鑑賞者が気になる部分をなかなか分からないようにし、期待感を高めるようにしている。このとき、動画特有の表情変化を併用することにより、例えば、口元が微笑んだ瞬間の動きを示すことにより、誰が写っているかを知りたいという欲求を高める演出ができる。   Therefore, in the present embodiment, the entire portion including the face of the subject 22 is not reproduced and displayed from the beginning, but the portion other than the face is displayed first so that the whole image can be seen gradually. Specifically, from the image data recorded at the time of shooting, the image 21a in which the hand portion is enlarged is first read and displayed, and then the image 21b in a wider range including the hand portion is read and displayed. Next, the image 21c in which the face portion is enlarged is read and displayed, and finally the image 21d in which the entire subject 22 is reflected is read and displayed. Since the viewer has a sense of expectation to quickly know what (who) is reflected, it is possible to perform effective reproduction display using the psychology. In other words, it is difficult for the viewer to easily understand the part that the viewer is concerned about, such as who is in the picture and what kind of facial expression they are doing. At this time, by using a facial expression change peculiar to a moving image, for example, by showing the movement at the moment when the mouth smiles, it is possible to enhance the desire to know who is in the picture.

本実施形態におけるカメラ10は、このような再生表示を行うに適した画像データの記録を行う。勿論、画像21dのように全体が写っている画像データから画像21a〜21cの画像を切り出すようにしてもよいが、それでは表情の変化がない画像となり、面白みに欠けるので、本実施形態においては、動画表現で再生するようにしている。   The camera 10 in the present embodiment records image data suitable for performing such playback display. Of course, the images 21a to 21c may be cut out from the entire image data such as the image 21d. However, in this embodiment, the image does not change in expression and is not interesting. The video is played back as a video.

次に、本実施形態におけるカメラ10の撮影動作について、図3に示すフローチャートを用いて説明する。動画撮影のフローに入ると、まず、撮影を行うか否かの判定を行う(S1)。撮影者が表示部8のライブビュー表示を観察し、構図を決定すると、操作部9中のレリーズ釦を操作するので、ここではレリーズ釦が操作されたか否かを判定する。   Next, the photographing operation of the camera 10 in the present embodiment will be described using the flowchart shown in FIG. When the moving image shooting flow is entered, it is first determined whether or not shooting is to be performed (S1). When the photographer observes the live view display on the display unit 8 and determines the composition, the release button in the operation unit 9 is operated, and it is determined here whether or not the release button has been operated.

ステップS1における判定の結果、撮影でなかった場合には、次に、ステップS2〜S4において、前述の画像21a〜21cに相当する画像の取得を行う。まず、顔の下部1についてトリミング撮影を行う(S2)。ここでは、被写体22の顔の部分より下にある部分、この例では手の部分について、フルサイズの画像データ(例えば、12M(1200万画素))から、トリミング部1bによって2M(200万画素)でトリミングを行い、画像21aに対応する画像データを仮記録部5aのメモリに仮記録する。ここで、画素数として2Mとしたのは、ハイビジョン画像で再生表示する場合を想定した画素数であるが、想定再生表示装置に応じて、異なる値としても良い。トリミング処理を行う際に、表示部のサイズに抑えるようにしているのは、表示時に画面いっぱいに無駄なく表示できるようにするためであり、演出によって画面の半分のサイズで良い場合には、画像データもこの半分で良い。サイズが小さい方が取り扱いやすく、トリミングの位置を移動させる際の自由度も大きくできる。サイズが大きいと表示しきれず無駄になる。   If the result of determination in step S <b> 1 is that shooting has not been performed, images corresponding to the aforementioned images 21 a to 21 c are acquired in steps S <b> 2 to S <b> 4. First, trimming photography is performed on the lower part 1 of the face (S2). Here, from the full size image data (for example, 12M (12 million pixels)) for the portion below the face portion of the subject 22, in this example, the hand portion, 2M (2 million pixels) is obtained by the trimming unit 1b. The image data corresponding to the image 21a is temporarily recorded in the memory of the temporary recording unit 5a. Here, the number of pixels is 2M, which is the number of pixels assumed to be reproduced and displayed as a high-definition image, but may be a different value depending on the assumed reproduction display device. When trimming is performed, the size of the display unit is limited so that the screen can be displayed without waste during display. The data can be half of this. Smaller sizes are easier to handle, and the degree of freedom in moving the trimming position can be increased. If the size is large, it cannot be displayed and is wasted.

続いて、顔の下部2についてトリミング撮影を行う(S3)。ここでは、顔の下部1より上側でかつ下部1の範囲より広い範囲、この例では、手の部分を含み下部1より広げた部分について、フルサイズの画像データから2Mでトリミングを行い、画像21bに対応する画像データを仮記録部5aのメモリに仮記録する。この下部2について撮影を行うと、次に、顔の下部3についてトリミング撮影を行う(S4)。ここでは、顔の下部2より上側でかつ下部2の範囲とほぼ同程度の範囲、この例では、顔の部分をふくむ拡大された部分について、フル画像データから2Mでトリミングを行い、画像21cに対応する画像データを仮記録部5aのメモリに仮記録する。仮記録が終わるとステップS1に戻る。   Subsequently, trimming photography is performed on the lower part 2 of the face (S3). Here, the range above the lower part 1 of the face and wider than the range of the lower part 1, in this example, the part including the hand part and extending from the lower part 1 is trimmed at 2M from the full-size image data, and the image 21b Is temporarily recorded in the memory of the temporary recording unit 5a. Once the lower part 2 is photographed, next, trimming photographing is performed for the lower part 3 of the face (S4). Here, the range above the lower part 2 of the face and approximately the same as the range of the lower part 2, in this example, the enlarged part including the face part is trimmed at 2M from the full image data, and the image 21c is trimmed. Corresponding image data is temporarily recorded in the memory of the temporary recording unit 5a. When provisional recording ends, the process returns to step S1.

このように、ステップS2〜S4において、フルサイズの画像データから一部分(下部1〜3)を切り出すトリミング処理を行っているが、ここで重要なのは、各画像の連続性である。本実施形態においては、次第に顔の部分が見えるようにしているので、画像21cにおける顔と画像21dにおける顔の大きさを比較すると、顔の大きさが小さくなる方向(拡大→縮小)に変化している。したがって、画像21a〜21cにおいても、拡大→縮小の関係が乱されない方がよい。ただし、画像21bから画像21cに移る場合には、拡大率の変化がない状態でトリミング位置のみをシフトさせている。このように拡大率は一定の方向に変化するようにしているが、トリミング位置の変化も一定の方向に移動し、逆転しない方が良い。   As described above, in steps S2 to S4, a trimming process for cutting out a part (lower parts 1 to 3) of full-size image data is performed. What is important here is the continuity of each image. In this embodiment, since the face portion is gradually made visible, when the face size in the image 21c and the face size in the image 21d are compared, the face size changes in a direction of decreasing (enlargement → reduction). ing. Therefore, it is better not to disturb the enlargement → reduction relationship also in the images 21a to 21c. However, when moving from the image 21b to the image 21c, only the trimming position is shifted in a state where there is no change in the enlargement ratio. As described above, the enlargement ratio is changed in a fixed direction, but it is preferable that the change in the trimming position is also moved in a fixed direction and is not reversed.

ステップS1における判定の結果、撮影であった場合には、次に静止画の撮影を行う(S11)。ここでは、撮像部2から出力される静止画のフルサイズの画像データ(12M(1200万画素))を記録部6に記録する。   If the result of determination in step S1 is shooting, a still image is next shot (S11). Here, the full-size image data (12M (12 million pixels)) of the still image output from the imaging unit 2 is recorded in the recording unit 6.

静止画の撮影を行うと、次に、不要画像の削除を行う(S12)。ここでは、ステップS2〜S4において、仮記録部5aに仮記録された画像データのうち、最終的に記録部6に記録する画像データ以外を削除する。ステップS2〜S4におけるトリミング撮影は、ステップS11における静止画撮影を行うまで、繰り返し行われており、記録部6に記録されるトリミング画像は静止画撮影の行われた直近の画像のみである。そこで、ステップS12においては、記録部6に記録されなかったトリミング画像等の削除を行っている。なお、仮記録される仮記録部5aの最大記録容量を超えたトリミング画像については、ステップS2〜S4の処理中に削除されている。不要画像の削除を行うと、動画撮影のフローを終了する。   Once a still image is shot, unnecessary images are deleted (S12). Here, in step S2 to S4, image data other than the image data finally recorded in the recording unit 6 is deleted from the image data temporarily recorded in the temporary recording unit 5a. The trimming shooting in steps S2 to S4 is repeated until the still image shooting in step S11 is performed, and the trimming image recorded in the recording unit 6 is only the latest image on which the still image shooting has been performed. Therefore, in step S12, trimming images and the like not recorded in the recording unit 6 are deleted. Note that a trimmed image that exceeds the maximum recording capacity of the temporary recording unit 5a to be temporarily recorded is deleted during the processing of steps S2 to S4. When unnecessary images are deleted, the flow of moving image shooting ends.

このように顔下部1,2、3のトリミング画像および静止画像の画像データが記録されることから、再生時には、顔下部1→顔下部2→顔下部3→静止画の順に画像データを読み出し、再生表示する。すなわち、部分から初めて、部分を移動しながら、最後にレリーズ時の全体画像を表示することができる。本実施形態においては、顔の下の部分を最初にトリミングし、トリミングの位置を顔の位置に向けて上に移動させていった。これは、顔の上から初めると、その人と無関係な空などから始まり、期待感を高めることが難しい場合が多い。一般的に、人物が立っていたり、座っている場合を想定し、その人物に関連する部分を優先するようにした観点から、顔の下を最初にトリミングするようにした。人物の輪郭情報や肌の色の情報を利用し、手や足等の部位に沿って、トリミングする位置を移動させ、期待感を高めるようにしても良い。なるべく、表情の変化を表示してから、顔全体を表示するようにしたいので、顔全体を表示する前に、目や口等、表情によって変わりやすい部分を大きく見せることが好ましい。また、同じ人物が写っている写真集の場合には、誰が写っているのかが分かっており、表情の変化も単調になりがちなる。そこで、同じ人物が続くような場合には、顔以外で、色が鮮やかなものから、顔にトリミング位置をずらすような制御を行うようにしても良い。なお、トリミングして切り出された画像は、リサイズを行い、表示部に収まるようにする。   Since the trimmed images and still image data of the lower face 1, 2, and 3 are recorded in this way, during playback, the image data is read in the order of lower face 1 → lower face 2 → lower face 3 → still image, Display playback. That is, it is possible to display the entire image at the time of release at the end while moving the portion from the beginning. In the present embodiment, the lower part of the face is first trimmed, and the trimming position is moved upward toward the face position. This starts from the top of the face and starts from the sky unrelated to the person, and it is often difficult to raise expectations. In general, assuming that a person is standing or sitting, the lower part of the face is trimmed first from the viewpoint of giving priority to the part related to the person. By using the contour information of the person and the information of the skin color, the trimming position may be moved along the part such as the hand or the foot to enhance the expectation. Since it is desirable to display the entire face after displaying the change in facial expression as much as possible, before displaying the entire face, it is preferable to display a large portion that is easily changed depending on the expression, such as eyes and mouth. In addition, in the case of a photo book in which the same person is shown, it is known who is shown, and the change in facial expression tends to be monotonous. Therefore, when the same person continues, control that shifts the trimming position to the face from a bright color other than the face may be performed. Note that the image cut out by trimming is resized so that it fits in the display unit.

図3を用いて説明した動画撮影および静止画撮影における画像の仮記録および最終記録の関係について、図4を用いて説明する。図4の「撮像(フル)」に対応するラインには、時刻T1〜時刻T8における撮像されたフルサイズの画像データを示している。この画像データを基に制御部1および画像処理部5はライブビュー画像を生成し、表示部8に表示している。ライブビュー画像は、表示部8の画素数に応じた画素数にリサイズまたは間引き処理により生成している。   The relationship between temporary recording and final recording of images in moving image shooting and still image shooting described with reference to FIG. 3 will be described with reference to FIG. The line corresponding to “imaging (full)” in FIG. 4 indicates the full-size image data captured at time T1 to time T8. Based on this image data, the control unit 1 and the image processing unit 5 generate a live view image and display it on the display unit 8. The live view image is generated by resizing or thinning out the number of pixels corresponding to the number of pixels of the display unit 8.

また、フル画像データに基づいてトリミング処理を行うことにより、仮記録用のトリミング画像データを生成している。図4に示すように、1コマ分のフルサイズの画像データから画面内の3か所のトリミング画像を生成し、このトリミング画像を仮記録部5aに仮記録している。なお、本実施形態においては、トリミング画像の画像データの画素数は、前述したように2Mである。   Further, trimming image data for temporary recording is generated by performing trimming processing based on the full image data. As shown in FIG. 4, three trimmed images in the screen are generated from the full-size image data for one frame, and the trimmed images are temporarily recorded in the temporary recording unit 5a. In the present embodiment, the number of pixels of the image data of the trimmed image is 2M as described above.

図4の例では、時刻T8において静止画の撮影が行われている(図3におけるS11のタイミングに対応)。このタイミングにおいて取得された静止画フル画像データ24dが、記録部6に最終記録される。また、時刻T8の直近である時刻T5〜T7において仮記録されたトリミング画像も、記録部6に最終記録される。トリミング画像の画像データを最終記録するにあたっては、時刻T5で仮記録されたトリミング画像データ23a、時刻T6で仮記録されたトリミング画像データ23b、時刻T7で仮記録されたトリミング画像データ23cが、それぞれ最終トリミング画像データ24a、24b、24cとして最終記録される。これ以外の、時刻T1〜時刻T4において仮記録されたトリミング画像データ、また時刻T5〜時刻T7において仮記録されたトリミング画像データ23a〜23c以外のトリミング画像データは不要画像として削除される。   In the example of FIG. 4, a still image is taken at time T8 (corresponding to the timing of S11 in FIG. 3). The still image full image data 24d acquired at this timing is finally recorded in the recording unit 6. In addition, the trimmed image temporarily recorded at times T5 to T7, which is closest to time T8, is finally recorded on the recording unit 6. In the final recording of the image data of the trimmed image, the trimmed image data 23a temporarily recorded at time T5, the trimmed image data 23b temporarily recorded at time T6, and the trimmed image data 23c temporarily recorded at time T7, respectively. Finally recorded as final trimmed image data 24a, 24b, 24c. Other trimmed image data temporarily recorded at time T1 to time T4 and trimmed image data other than the trimmed image data 23a to 23c temporarily recorded at time T5 to time T7 are deleted as unnecessary images.

このように本実施形態におけるカメラ10によれば、時刻T8において静止画を撮影すると、その直近に仮記録されたトリミング画像データが最終画像として記録される。このため、最終記録された画像データを再生することにより、図3を用いて説明したような被写体22の部分から再生を開始し、最後に被写体22の全体画像で終わる表示となる。このため、動画と静止画を組み合わせ、変化に富んだ多彩な画像を、簡単に誰でも撮影し、また再生表示することができる。   As described above, according to the camera 10 of the present embodiment, when a still image is captured at time T8, the trimmed image data temporarily recorded immediately before the still image is recorded as the final image. Therefore, by reproducing the last recorded image data, the reproduction is started from the portion of the subject 22 as described with reference to FIG. 3, and finally the display ends with the entire image of the subject 22. For this reason, anyone can easily shoot and display a variety of varied images by combining moving images and still images.

なお、トリミング画像の画像データをフルサイズの画像データから生成していた。トリミングにあたっては、画像データの一部を切り出すので、基となる画像データは画素数が大きい方が望ましいが、想定表示装置の画素数等を考慮して問題がなければ、必ずしもフルサイズの画像データではなく、リサイズや間引きされた画像データを用いても構わない。また、フルサイズの画像データを最終記録した場合であっても、表示する画面に従ってリサイズが必要になることは言うまでもない。静止画をフルサイズで記録するのは、印刷や部分拡大のためであって、本実施形態のように動画の効果付きで、カメラの液晶モニタ、テレビ、携帯電話等の表示部で再生表示する場合には、表示部のサイズに応じてリサイズを行う。また、本実施形態においては、静止画に対する期待感を高める例を示しているが、動画において人物が登場する場合においても期待感を高めるテクニックとして本実施形態を応用することができる。この場合には、静止画ではなく、動画を続けて撮影すれば良い。   Note that the image data of the trimmed image is generated from the full-size image data. When trimming, a part of the image data is cut out. Therefore, it is desirable that the base image data has a larger number of pixels. However, if there is no problem in consideration of the number of pixels of the assumed display device, the full-size image data is not necessarily used. Instead, resized or thinned image data may be used. Needless to say, even when full-size image data is finally recorded, resizing is necessary according to the screen to be displayed. The still image is recorded in full size for printing or partial enlargement, and with the effect of moving images as in this embodiment, it is reproduced and displayed on the display unit of a camera LCD monitor, TV, mobile phone, etc. In this case, resizing is performed according to the size of the display unit. Moreover, although the example which raises the expectation with respect to a still image is shown in this embodiment, even when a person appears in a moving image, this embodiment can be applied as a technique which raises an expectation. In this case, it is only necessary to continuously shoot a moving image instead of a still image.

本実施形態においては、静止画撮影前の動画からトリミング画像を生成しているので、顔画像の表情変化を再生することが可能となっている。このため顔画像の表情変化がはっきりと見えた方が楽しい画像となる。そこで、静止画撮影の直前である時刻T7において顔の部分の表情変化を捉えることのできるような画像データの取得が望ましい。また、表情変化の時間(図4中の表情変化時間Tf)に応じて、時刻T5、T6のタイミングを決定するようにしても良い。   In the present embodiment, since the trimmed image is generated from the moving image before still image shooting, it is possible to reproduce the facial expression change. For this reason, it is a more enjoyable image when the facial expression change is clearly seen. Therefore, it is desirable to acquire image data that can capture facial expression changes at time T7, which is immediately before still image shooting. Also, the timings of times T5 and T6 may be determined according to the facial expression change time (facial expression change time Tf in FIG. 4).

このような下部3における顔画像の表情変化の面白さを活かした画像の再生を行うための不要画像削除のフローを、図5を用いて説明する。このフローはステップS12(図3参照)のサブルーチンであり、また、本フローを実行するにあたって、ステップS4(図3参照)における顔の下部3のトリミング撮影時に、表情変化時間Tfを予め計測し、この時間Tfを記憶しておく。なお、表情変化時間Tfとしては、例えば、真顔から笑顔になるまでの時間であり、顔検出部2aは顔部を検出すると共に顔の表情も検出可能とし、このときの表情変化を求める。このように、撮影前に顔の表情をモニタすることができ、顔の表情の笑顔データの最高値の情報が記録部に記憶してあれば、ユーザがレリーズ操作を行わなくても、自動的にレリーズを行うことができる。この場合には、最高の笑顔を最終画像として記録することができ、かつ、その笑顔に到るまでの表情変化も捉える撮影を誰にでも可能となる。構えているだけで良いことから、初心者にも魅力的な動画撮影を行える。なお、表情変化時間Tfの測定は、後述するように、撮影後に行っても良い。この場合、ユーザの好みに従った表情を選択することができるが、必ずしも、その直前に表情が変化しているわけではないので、表情変化なしの前の表情変化部分を探し、撮影までの時間をTfとする。   A flow of unnecessary image deletion for reproducing an image utilizing the fun of the facial expression change in the lower part 3 will be described with reference to FIG. This flow is a subroutine of step S12 (see FIG. 3), and when executing this flow, the facial expression change time Tf is measured in advance at the time of trimming photographing of the lower part 3 of the face in step S4 (see FIG. 3). This time Tf is stored. The facial expression change time Tf is, for example, the time from a true face to a smile, and the face detection unit 2a can detect the facial part as well as the facial expression, and obtain the facial expression change at this time. In this way, the facial expression can be monitored before shooting, and if the maximum information of the facial expression smile data is stored in the recording unit, the user can automatically perform the release operation without performing the release operation. Release can be done. In this case, the best smile can be recorded as the final image, and anyone can take a picture that captures the change in facial expression until the smile is reached. Since it is only necessary to hold it, it can be used for beginners. Note that the facial expression change time Tf may be measured after shooting, as will be described later. In this case, the user can select a facial expression according to the user's preference, but the facial expression does not necessarily change immediately before that. Is Tf.

不要画像削除のフローに入ると、まず、撮影直前の顔の下部3の表情変化を検出する(S21)。これは、例えば、下部3に対応する時刻T7における被写体22の顔のトリミング画像と、その直前の時刻T6における被写体22の顔のトリミング画像を比較し、表情に変化があるか否かを判定する。なお、時刻T6〜T7までの間の時間で更に多数の画像データを記憶している場合には、これらの画像を比較するようにしても良い。   If the flow for unnecessary image deletion is entered, first, the expression change of the lower part 3 of the face immediately before photographing is detected (S21). For example, the trimmed image of the face of the subject 22 at time T7 corresponding to the lower part 3 is compared with the trimmed image of the face of the subject 22 at time T6 immediately before it, and it is determined whether there is a change in expression. . In addition, when more image data is memorize | stored in the time between time T6-T7, you may make it compare these images.

続いて、表情変化が有ったか否かを判定する(S22)。ステップS21で表情変化を検出しているので、この検出結果に基づいて判定する。この判定の結果、表情変化があった場合には、表情変化時間を計測し、これをTfとする(S23)。この表情変化時間Tfを用いて、ステップS24以下において、表情変化が有った場合には、下部1、2、3の画像の表示時間を制御する。   Subsequently, it is determined whether or not there is a change in facial expression (S22). Since the expression change is detected in step S21, the determination is made based on the detection result. If the result of this determination is that there is a change in facial expression, the facial expression change time is measured and set as Tf (S23). Using this facial expression change time Tf, if there is a facial expression change in step S24 and subsequent steps, the display time of the lower 1, 2, and 3 images is controlled.

表情変化時間Tfを求めると、次に、表情変化時間Tfが1秒より長いか否かを判定する(S24)。この判定の結果、表情変化時間Tfが1秒より長い場合には、表情変化時間Tfだけ顔の下部3の画像を表示可能にする(S25)。続いて、表情変化時間Tfが3秒より短いか否かを判定する(S26)。この判定の結果、表情変化時間が3秒より短かった場合には、表情変化時間Tfの時間だけ顔の下部1の画像を表示可能にし(S27)、表情変化時間Tfの時間だけ顔の下部2の画像を表示可能にする(S28)。これによって、それぞれの下部1、2、3の画像、すなわち、最終トリミング画像データ24a〜24cに基づいて表示される画像の表示時間が表情変化時間Tfとなり、この表情変化時間Tfが表示時間としてトリミング画像の画像データと共に最終記録される。被写体22の表情が変化する時間と同じ時間間隔でトリミング画像が変化し、魅力的な表情変化の過程を楽しむことができる。   Once the facial expression change time Tf is obtained, it is next determined whether or not the facial expression change time Tf is longer than 1 second (S24). If the facial expression change time Tf is longer than 1 second as a result of this determination, the image of the lower part 3 of the face can be displayed for the facial expression change time Tf (S25). Subsequently, it is determined whether the facial expression change time Tf is shorter than 3 seconds (S26). If the result of this determination is that the facial expression change time is shorter than 3 seconds, the image of the lower part 1 of the face can be displayed for the duration of the facial expression change time Tf (S27), and the lower part of the face 2 for the duration of the facial expression change time Tf. Can be displayed (S28). As a result, the display time of each of the lower 1, 2, and 3 images, that is, the images displayed based on the final trimmed image data 24a to 24c becomes the facial expression change time Tf, and this facial expression change time Tf is trimmed as the display time. It is finally recorded together with the image data of the image. The trimmed image changes at the same time interval as the time when the facial expression of the subject 22 changes, and an attractive facial expression change process can be enjoyed.

一方、ステップS22における判定の結果、撮影直前の顔の下部3に表情変化がなかった場合には、顔の下部1、2、3の画像をそれぞれ1秒間、表示可能とする(S31)。表情変化がない場合であっても、再生表示の際の期待感を高めるために、各トリミング画像を1秒間ずつ再生表示するようにしている。   On the other hand, if the result of determination in step S22 is that there is no change in facial expression in the lower part 3 of the face immediately before photographing, the images of the lower part 1, 2, and 3 of the face can be displayed for 1 second each (S31). Even when there is no change in facial expression, each trimmed image is reproduced and displayed for one second in order to increase the expectation at the time of reproduction and display.

また、ステップS26における判定の結果、表情変化時間Tfが3秒より長かった場合には、顔の下部1、2、3の画像をそれぞれ1秒間、表示可能とする(S32)。表情変化に時間が長くかかる場合に、この表情変化時間Tfの間隔でトリミング画像を変化させるとすると、画像表示の時間が長くなりすぎることから、この場合には1秒間隔としている。   If the result of determination in step S26 is that the facial expression change time Tf is longer than 3 seconds, the images of the lower parts 1, 2, and 3 of the face can be displayed for 1 second each (S32). When it takes a long time to change the facial expression, if the trimmed image is changed at the interval of the facial expression change time Tf, the image display time becomes too long. In this case, the interval is set to 1 second.

前述のステップS28、S31、S32を実行すると、次に、それ以外の画像を削除する(S29)。ここでは、最終記録に残した画像以外の仮記録部5aに仮記録された画像を削除する。画像削除が終わると、元のフローに戻る。   When the above-described steps S28, S31, and S32 are executed, the other images are then deleted (S29). Here, the image temporarily recorded in the temporary recording unit 5a other than the image left in the final recording is deleted. When the image deletion is completed, the original flow is restored.

このように、本フローにおいては、トリミング画像を再生表示する時間を画像データと共に記録しているので、再生表示にあたっては、この記録されている再生時間の間、トリミング画像が表示される。特に、表情変化時間Tfで再生される場合には、真顔から笑顔に変化するのに要した時間と同じ時間で表情変化することが期待感を高めると共に臨場感あふれる画像再生となる。なお、本フローにおいては、表情変化時間Tfと比較する時間として、1秒および3秒を用いているが、これは例示であり、期待感を高めると共に臨場感あふれる画像再生を行う時間であれば、これに限らない。   Thus, in this flow, since the time for reproducing and displaying the trimmed image is recorded together with the image data, the trimmed image is displayed during the recorded reproduction time during the reproduction display. In particular, when the image is reproduced with the expression change time Tf, changing the expression in the same time as the time required to change from a true face to a smile increases the expectation and the image reproduction full of realism. In this flow, 1 second and 3 seconds are used as the time to be compared with the expression change time Tf. However, this is only an example, and it is a time to increase the sense of expectation and perform image reproduction full of realism. Not limited to this.

次に、最終記録されたトリミング画像(図4参照)を、表示部8に設けたサブ画面において表示する例について図6を用いて説明する。表示部8のメイン画面8aの脇に、図6(a)に示すようにサブ画面8bを設け、このサブ画面8bに最終記録されたトリミング画像と、静止画像を表示させるようにしている。すなわち、サブ画面8bには、トリミング画像26a〜26cを表示すると共に、静止画像26dを表示する。このように、サブ画面8bに撮影結果を表示するようにすることにより、効果を確認することができる。なお、静止画撮影前に仮記録部5aに記録されているトリミング画像を順次、読み出して表示するようにしても良い。この場合には、静止画像を表示することはできないが、トリミング画像を事前に予想することができる。   Next, an example of displaying the finally recorded trimmed image (see FIG. 4) on the sub-screen provided in the display unit 8 will be described with reference to FIG. A sub screen 8b is provided beside the main screen 8a of the display unit 8 as shown in FIG. 6A, and a trimmed image and a still image that are finally recorded on the sub screen 8b are displayed. That is, on the sub screen 8b, the trimmed images 26a to 26c are displayed and the still image 26d is displayed. Thus, the effect can be confirmed by displaying the photographing result on the sub-screen 8b. Note that the trimmed images recorded in the temporary recording unit 5a may be sequentially read and displayed before still image shooting. In this case, a still image cannot be displayed, but a trimmed image can be predicted in advance.

また、図6(b)に示すように、サブ画面8cに画像を1つのみ表示可能とし、このサブ画面8cにトリミング画像や静止画像を順次再生表示するようにしても良い。この場合には、実際の再生表示と同じように時系列的に画像を再生表示することから、静止画像が表示されるまでの期待感を味合うことができる。   Further, as shown in FIG. 6B, only one image may be displayed on the sub screen 8c, and trimmed images and still images may be sequentially reproduced and displayed on the sub screen 8c. In this case, since the images are reproduced and displayed in time series as in the actual reproduction display, it is possible to satisfy the expectation until the still image is displayed.

次に、本発明の第1実施形態の変形例について、図7を用いて説明する。第1実施形態においては、時刻T1〜T8においてフル画像データから、表示部8における表示用の画像データと、仮記録部5aに仮記録するトリミング画像の画像データの両方を生成していた。しかし、この変形例においては、時刻T11、T13、T15において間引きで撮像を行い、この時の画像データを用いて表示用の画像データを生成している。また時刻T12、T14、T16においてはフルサイズで画像データを取得し、この画像データを用いて、トリミング画像の画像データを生成するようにしている。   Next, a modification of the first embodiment of the present invention will be described with reference to FIG. In the first embodiment, at time T1 to T8, both the image data for display on the display unit 8 and the image data of the trimmed image temporarily recorded in the temporary recording unit 5a are generated from the full image data. However, in this modification, imaging is performed by thinning out at times T11, T13, and T15, and image data for display is generated using the image data at this time. At times T12, T14, and T16, image data is acquired in full size, and image data of a trimmed image is generated using this image data.

表示部8のフレームレートに応じてフルサイズを撮像し、このフル画像から表示用の画像データと仮記録用のトリミング画像の両方を、高速で生成することができない場合には、本変形例のようにフルサイズの画像データを離散的に取得し、スピードを稼ぐようにすれば良い。この場合もフルサイズの画像データから生成したトリミング画像の画像データを仮記録部5aに仮記録する。そして、時刻T18において静止画の画像データを最終記録し、またこの直近(時刻T12、T14、T16)の仮記録されたトリミング画像の画像データを最終記録する。   When the full size is imaged according to the frame rate of the display unit 8 and both the image data for display and the trimmed image for temporary recording cannot be generated at high speed from this full image, In this way, full-size image data may be obtained discretely to increase speed. Also in this case, the image data of the trimmed image generated from the full-size image data is temporarily recorded in the temporary recording unit 5a. Then, the image data of the still image is finally recorded at time T18, and the image data of the trimmed image temporarily recorded at the latest (time T12, T14, T16) is finally recorded.

以上、説明したように、本発明の第1実施形態およびその変形例においては、静止画の撮影に先だって、動画(連写)で画像データを取得し、その画像データの複数個所についてトリミングし、トリミングされた複数の画像データを仮記録している。そして、静止画を撮影した際に、静止画のフルサイズの画像データと共に、直近の仮記録されたトリミング画像の画像データの中から選択した画像データを記録部6に最終記録している。   As described above, in the first embodiment of the present invention and the modified example thereof, prior to the shooting of a still image, image data is acquired by a moving image (continuous shooting), and trimming is performed on a plurality of portions of the image data. A plurality of trimmed image data are temporarily recorded. When a still image is captured, the image data selected from the image data of the latest temporarily recorded trimmed image is finally recorded in the recording unit 6 together with the full-size image data of the still image.

このように記録された画像データを再生すると、いきなり被写体全体が再生表示されるのではなく、被写体の一部が再生表示されてから全体が再生表示される。このとき表情の変化などを記録し、その時の表情を表すことができる。このため、被写体全体が表示されるまでの間、画面の一部だけを拡大して見て、表情なども楽しみながら、何が(誰が)写っているのを予想したり空想しながら、期待感を高めることができる。なお、この技術を画面推移時に応用することができ、静止画撮影のみならず、動画のカット割りのトランジションにも使用することができる。また、期待感だけでなく、名残惜しさを表すために、画像表示を終わるときに、この動画部を利用してもよい。このとき露出補正が画像処理を併用してもよい。また、本実施形態においては、動画(連写)を仮記録するにあたって、トリミング画像の画像データを仮記録することから、フル画像データを仮記録する場合に比較し、仮記録部5aの容量を減らすことができる。   When the image data recorded in this way is reproduced, the entire subject is not reproduced and displayed suddenly, but is reproduced and displayed after a part of the subject is reproduced and displayed. At this time, changes in facial expressions and the like can be recorded to express the facial expressions at that time. Therefore, until the entire subject is displayed, you can zoom in on a part of the screen, enjoy the facial expression, and expect (and who) you are in, Can be increased. This technique can be applied during screen transitions, and can be used not only for still image shooting but also for transitions for cut cuts of moving images. Further, this moving image portion may be used when the image display is ended in order to represent not only the expectation but also the regret. At this time, exposure correction may be used in combination with image processing. Further, in the present embodiment, when temporarily recording a moving image (continuous shooting), the image data of the trimmed image is temporarily recorded. Therefore, the capacity of the temporary recording unit 5a is increased as compared with the case of temporarily recording full image data. Can be reduced.

次に、本発明の第2実施形態について、図8ないし図10を用いて説明する。第1実施形態は、各時刻においてフルサイズの画像データからトリミング画像を生成し、このトリミング画像を仮記録していた。これに対して、第2実施形態においては、フルサイズの画像データを毎時刻、あるいは毎フレームにおいて仮記録し、静止画を撮影した時点において、仮記録したフルサイズの画像データから所定部分をトリミングして最終記録するようにしている。   Next, a second embodiment of the present invention will be described with reference to FIGS. In the first embodiment, a trimmed image is generated from full-size image data at each time, and the trimmed image is temporarily recorded. In contrast, in the second embodiment, full-size image data is temporarily recorded every time or every frame, and a predetermined portion is trimmed from the temporarily recorded full-size image data when a still image is captured. And make a final record.

第2実施形態の構成は、図1及び図2に示した第1実施形態と同様であることから、詳しい説明を省略する。ただし、仮記録部5aの動画記録用メモリは第1実施形態においてはトリミング画像の画像データを仮記録していたが、本実施形態においては、フルサイズの画像データを仮記録する点は相違する。   Since the configuration of the second embodiment is the same as that of the first embodiment shown in FIGS. 1 and 2, detailed description thereof is omitted. However, the moving image recording memory of the temporary recording unit 5a temporarily records the image data of the trimmed image in the first embodiment. However, the present embodiment is different in that the full-size image data is temporarily recorded. .

本実施形態においては、図8に示すように、各時刻T21〜T27において、撮像部2はフルサイズで画像データを取得し、このフルサイズの画像データをリサイズして表示用の画像データを生成している。また、フルサイズの画像データを毎時刻あるいは毎フレーム、仮記録している。時刻T28において、静止画の撮影が行われると、その直近である時刻T25〜T27で仮記録したフルサイズの画像データから所定部分のトリミングを行う。このとき生成されたトリミング画像の最終トリミング画像データ28a〜28cと、撮影時の静止画フル画像データ28dを記録部6に最終記録する。   In the present embodiment, as shown in FIG. 8, at each time T21 to T27, the imaging unit 2 acquires image data at full size, and resizes this full size image data to generate image data for display. doing. In addition, full-size image data is temporarily recorded every time or every frame. When a still image is shot at time T28, a predetermined portion is trimmed from the full-size image data temporarily recorded at times T25 to T27, which is the nearest time. The final trimmed image data 28 a to 28 c of the trimmed image generated at this time and the still image full image data 28 d at the time of shooting are finally recorded in the recording unit 6.

また、トリミングにあたって、トリミング枠29a〜29cを、被写体の顔から遠い部分(この例では手の部分)から、顔の部分に向けて移動させると共に、トリミング枠29bはトリミング枠29aよりも大きく、トリミング枠29bとトリミング枠29cは同じ大きさとしている。   In trimming, the trimming frames 29a to 29c are moved from a portion far from the face of the subject (the hand portion in this example) toward the face portion, and the trimming frame 29b is larger than the trimming frame 29a and is trimmed. The frame 29b and the trimming frame 29c have the same size.

なお、トリミング画像を生成する際にフェードインとなるようにしても良い。すなわち、静止画の画像がはっきりするように、トリミング画像データ28aは露出オーバーとなるように露出補正を施し、静止画フル画像データ28dにおいて適正露光となるようにする。露出補正はパラメータ制御部7または画像処理部5によって行う。   Note that fade-in may be performed when the trimmed image is generated. That is, the trimming image data 28a is subjected to exposure correction so that the still image is overexposed so that the still image full image data 28d is properly exposed. Exposure correction is performed by the parameter control unit 7 or the image processing unit 5.

このように第2実施形態においては、最終トリミング画像データ28a、28b、28cおよび静止画フル画像データ28dが記録部6に記録されるので、再生時には、まず最終トリミング画像データ28a→最終トリミング画像データ28b→最終トリミング画像データ28cの順に読み出し、これを順次再生する。そして、最後に静止画フル画像データ28dを読み出し、再生表示を行う。このため、被写体の部分が先に再生され、被写体の部分が移動しながら、最後に被写体全体が再生表示される。   As described above, in the second embodiment, the final trimmed image data 28a, 28b, 28c and the still image full image data 28d are recorded in the recording unit 6. Therefore, at the time of reproduction, first the final trimmed image data 28a → the final trimmed image data. The data is read out in the order of 28b → final trimmed image data 28c, and this is sequentially reproduced. Finally, the still image full image data 28d is read out and reproduced and displayed. For this reason, the subject portion is reproduced first, and finally the entire subject is reproduced and displayed while the subject portion moves.

図8における説明では、トリミング画像は3つであったが、これより多いトリミング画像を生成し、滑らかに移動するように再生できるようにしても良い。図9に示すトリミング範囲のフローチャートは、3つに限らず、多数のトリミング画像を生成するためのフローである。第2実施形態における動画撮影のフローは、図3に示した第1実施形態におけるフローにおいて、ステップS2〜S4に対応するステップおいて、フルサイズの画像データを仮記録する。この仮記録する画像データは、仮記録部5aのメモリに仮記録できるだけの数とする。そして、ステップS1において撮影の指示がなされると、ステップS11において静止画を撮影する。図3のステップS12の不要画像削除のサブルーチンを、図9に示すトリミング範囲のサブルーチンに置き換える。   In the description of FIG. 8, there are three trimmed images. However, more trimmed images may be generated and reproduced so as to move smoothly. The flowchart of the trimming range shown in FIG. 9 is not limited to three, and is a flow for generating a large number of trimmed images. The flow of moving image shooting in the second embodiment temporarily records full-size image data in steps corresponding to steps S2 to S4 in the flow in the first embodiment shown in FIG. The number of image data to be temporarily recorded is the number that can be temporarily recorded in the memory of the temporary recording unit 5a. When a shooting instruction is given in step S1, a still image is shot in step S11. The unnecessary image deletion subroutine of step S12 in FIG. 3 is replaced with a trimming range subroutine shown in FIG.

トリミング範囲のフローに入ると、まず、顔検出を行う(S41)。このステップでは、仮記録部5aのメモリ0に仮記録された静止画の画像データについて、顔検出部2aによって顔が含まれているか否かを検出する。続いて、顔の大きさ(D)の検出を行う(S42)。このステップでは、顔検出部2aによって顔が含まれていることを検出した場合に、その顔の大きさを検出し、この検出した大きさをDとする。次に、顔の位置を検出する(S43)。このステップでは、顔検出部2aによって、検出された顔の位置を検出し、検出された顔位置を(Xf、Yf)とする。   When the flow of the trimming range is entered, face detection is first performed (S41). In this step, whether or not a face is included in the image data of the still image temporarily recorded in the memory 0 of the temporary recording unit 5a is detected by the face detection unit 2a. Subsequently, the face size (D) is detected (S42). In this step, when the face detection unit 2a detects that a face is included, the size of the face is detected, and this detected size is set as D. Next, the face position is detected (S43). In this step, the face detection unit 2a detects the position of the detected face, and the detected face position is set to (Xf, Yf).

続いて、位置指定があるか否かの判定を行う(S44)。ここでは、トリミング画像の初期位置について、ユーザがマニュアルで指定したか否かを判定する。位置指定の仕方としては、例えば、図6(b)に示すように、メイン画面8aに静止画を表示した際に、トリミング画像の初期位置をタッチすることにより指定すれば良い。この場合、ユーザのタッチ操作は図示しないタッチパネル等によって検出する。また、十字釦等の操作によりカーソルを移動させ、OK釦等によって位置を確定するようにしても良い。   Subsequently, it is determined whether or not there is a position designation (S44). Here, it is determined whether or not the user has manually designated the initial position of the trimmed image. For example, as shown in FIG. 6B, the position may be specified by touching the initial position of the trimmed image when a still image is displayed on the main screen 8a. In this case, the user's touch operation is detected by a touch panel (not shown) or the like. Alternatively, the cursor may be moved by operating a cross button or the like, and the position may be determined by an OK button or the like.

ステップS44における判定の結果、位置指定があった場合には、次に、指定位置中心を求める(S45)。このステップでは、タッチパネルや十字釦等によって指定された画面上の位置の座標を求め、これを(X1、Y1)とする。続いて、指定された位置座標(X1、Y1)において、表示部と同じサイズ(d)で画像の大きさを決める(S46)。このステップでは、サイズdとしては、例えば、ハイビジョン画像での表示を想定して、2M程度とするが、想定表示部に合わせて異なる値でも良い。   If the position is designated as a result of the determination in step S44, then the designated position center is obtained (S45). In this step, the coordinates of the position on the screen designated by the touch panel, the cross button or the like are obtained, and these are set as (X1, Y1). Subsequently, at the designated position coordinates (X1, Y1), the size of the image is determined with the same size (d) as the display unit (S46). In this step, for example, the size d is set to about 2M on the assumption that a high-definition image is displayed. However, the size d may be different depending on the assumed display unit.

ステップS44における判定の結果、位置指定がなかった場合には、次に、顔から遠い位置で表示部と同じサイズ(d)の画像を決める(S51)。顔から遠い位置、言い換えると顔から離れた位置の中心座標は次のステップS52において決定するが、遠い位置としては、人物の部分で、顔以外の部分、例えば、手のような特徴的部分であってその中で一番遠い部分を画像解析により決めれば良い。この顔から遠い位置の決め方は、この方法に限らず、期待感を盛り上げるように、顔と異なる位置から移動させるものであれば良い。他の例については、図10を用いて後述する。また、ステップS46で述べたことと同様に、表示部と同じサイズdでとリンミグ画像の大きさを決める。トリミング画像の大きさとしてハイビジョン画像と同じであれば2Mとする。続いて、その画像の中心座標(X1、Y1)を決める(S52)。ここでは、ステップS51において、顔から遠い位置を求めているので、その位置の中心座標を求める。   If the position is not specified as a result of the determination in step S44, then an image having the same size (d) as the display unit is determined at a position far from the face (S51). The central coordinates of a position far from the face, in other words, a position away from the face are determined in the next step S52. The far position is a person part, a part other than the face, for example, a characteristic part such as a hand. Therefore, the farthest part can be determined by image analysis. The method of determining a position far from the face is not limited to this method, and any method may be used as long as the position is moved from a position different from the face so as to increase the expectation. Another example will be described later with reference to FIG. Further, as described in step S46, the size of the linmig image is determined with the same size d as that of the display unit. If the size of the trimmed image is the same as that of the high-definition image, 2M is set. Subsequently, center coordinates (X1, Y1) of the image are determined (S52). Here, since a position far from the face is obtained in step S51, the center coordinates of the position are obtained.

ステップS52において中心座標を求めると、またはステップS46においてサイズdを決めると、次に、座標(X1、Y1)でサイズdの画像をトリミングする(S53)。ここではフルサイズの画像データから、座標(X1、Y1)を中心にサイズdで、トリミング部1bによってトリミングを行う。   If the central coordinates are obtained in step S52 or the size d is determined in step S46, then an image of size d is trimmed with the coordinates (X1, Y1) (S53). Here, the trimming unit 1b performs trimming from the full-size image data with the size d around the coordinates (X1, Y1).

ステップS53においてトリミング処理を行うと、次に、現在位置が顔位置にあるか否かの判定を行う(S54)。トリミング処理は最初、座標(X1、Y1)を中心位置として行うが、後述するように、ステップS64において座標を移動させている。このステップS54においては、現在位置が顔位置(Xf、Yf)に達したか否かの判定を行う。   Once the trimming process is performed in step S53, it is next determined whether or not the current position is the face position (S54). The trimming process is initially performed with the coordinates (X1, Y1) as the center position, but the coordinates are moved in step S64 as described later. In step S54, it is determined whether or not the current position has reached the face position (Xf, Yf).

ステップS54における判定の結果、顔位置でなかった場合には、次に、顔の大きさDがトリミング画像のサイズdよりも大きいか否かを判定する(S61)。この判定の結果、顔の大きさDが画像のサイズdよりも小さかった場合には、次に、サイズdを(d+Δd)にする(S63)。すなわち、サイズdをΔdだけ大きくする。これは、トリミングを最初、行う場合には、トリミング画像の大きさがdであるが、最後には顔の大きさDと一致するように、トリミング画像の大きさをΔdずつ徐々に広げるためである。   If the face position is not the result of the determination in step S54, it is next determined whether or not the face size D is larger than the trimmed image size d (S61). As a result of this determination, if the face size D is smaller than the image size d, then the size d is set to (d + Δd) (S63). That is, the size d is increased by Δd. This is because when the trimming is performed first, the size of the trimmed image is d, but finally the size of the trimmed image is gradually increased by Δd so as to coincide with the size D of the face. is there.

ステップS61における判定の結果、顔の大きさDが画像のサイズdよりも大きかった場合には、画像のサイズdを顔の大きさDに固定する(S62)。これは、トリミング部分が顔のサイズより大きくならないようにするためである。画像のサイズdが顔のサイズDよりも大きくなると、顔が縮小し表情変化よりも大きさの変化の方が気になってしまうことを防止している。これによって画面上の顔の大きさを変えずに、表情を楽しむことができる。本実施形態においては、画像の全体を見せるまえに動画で部分を見せるようにしている。つまり、最初に顔以外を見せるようにし、また顔を見せる場合には表情の変化を大きく見せる等の工夫を行っている。したがって、顔のアップから全体という構図変化(望遠からワイド方向)が重視されているので、顔以外のものから顔を見せる場合も、その方向を揃えるようにし、自然なズーミング効果を狙っている。しかし、さらに画面変化を求める場合には、必ずしもこのような制約はなくても良い。   If the result of determination in step S61 is that the face size D is larger than the image size d, the image size d is fixed to the face size D (S62). This is to prevent the trimming portion from becoming larger than the face size. When the size d of the image becomes larger than the size D of the face, it is possible to prevent the face from shrinking and being concerned about the size change rather than the expression change. This makes it possible to enjoy facial expressions without changing the size of the face on the screen. In the present embodiment, the moving image is shown before the entire image is shown. In other words, the device is designed such that the face other than the face is shown first, and when the face is shown, the change in facial expression is greatly shown. Therefore, the emphasis is on the composition change from the face up to the whole (from the telephoto to the wide direction), so even when the face is shown from something other than the face, the direction is aligned to aim for a natural zooming effect. However, such a restriction is not necessarily required when further screen changes are required.

ステップS62において画像サイズdをDに固定すると、またはステップS63において画像サイズをd+Δdにすると、次に、トリミング画像の初期位置(X1、Y1)から、顔の位置(Xf、Yf)に向けて近づけていく(S64)。すなわち、トリミング画像の中心位置を少しずつ移動させていく。この場合の移動速度は、トリミング初期位置から、顔位置まで、0.5秒ないし2秒程度の時間で移動できる程度の速度とするが、ユーザの好みでこれよりも遅くても早くても良い。   If the image size d is fixed to D in step S62 or the image size is set to d + Δd in step S63, then the trimming image is moved closer to the face position (Xf, Yf) from the initial position (X1, Y1). (S64). That is, the center position of the trimmed image is moved little by little. In this case, the moving speed is set to such a speed that it can move from the initial trimming position to the face position in a time of about 0.5 second to 2 seconds, but may be slower or faster depending on the user's preference. .

続いて、その移動位置で、その画像サイズでトリミングを行う(S65)。ここでは、フルサイズの画像データからステップS64において決定した位置において、かつステップS62若しくはS63において決定した画像サイズで、トリミング部1bがトリミングを行い、トリミング画像の画像データを記録部6に最終記録する。トリミングを行うと、ステップS54に戻り、顔の位置に達するまでは、画像サイズdやトリミング位置を変えながら、トリミング処理を繰り返す。ステップS54における判定の結果、顔位置に達すると、トリミング範囲の処理を終了し、元のフローに戻る。   Subsequently, trimming is performed with the image size at the movement position (S65). Here, the trimming unit 1b performs trimming at the position determined in step S64 from the full-size image data and the image size determined in step S62 or S63, and finally the image data of the trimmed image is recorded in the recording unit 6. . When trimming is performed, the process returns to step S54, and the trimming process is repeated while changing the image size d and the trimming position until the face position is reached. If the face position is reached as a result of the determination in step S54, the processing of the trimming range is terminated and the process returns to the original flow.

このように、トリミング範囲のフローにおいて、フルサイズの画像データから、ステップS45またはS52において決定された中心位置(X1、Y1)から顔位置(Xf、Yf)まで、画像サイズを変化させながら、トリミング画像を切り出し、この切り出されたトリミング画像の最終記録を行っている。このフローでは、トリミング画像を3コマに限らず、多数のトリミング画像を容易に生成することができるので、初期位置(X1、Y1)から顔位置(Xf、Yf)までの間を滑らかに滑るようにトリミング画像を生成することができる。   As described above, in the flow of the trimming range, the trimming is performed while changing the image size from the full-size image data to the face position (Xf, Yf) from the center position (X1, Y1) determined in step S45 or S52. The image is cut out, and the trimmed image thus cut out is finally recorded. In this flow, the trimmed image is not limited to three frames, and a large number of trimmed images can be easily generated. Therefore, the user can smoothly slide from the initial position (X1, Y1) to the face position (Xf, Yf). A trimmed image can be generated.

また、本フローでは、ステップS63においてトリミング画像のサイズを変更してから、ステップS64において、顔に近づけるようにしている。これは、最後に顔のアップに相当する枠サイズに揃えた状態で、表情の変化を楽しめるようにしたものである。また、先に顔位置に移動させてからトリミング画像のサイズを変更すると、最初からその人物の正体が分かってしまい、期待感をもたせることができない。そのため顔の位置にトリミング画像を移動させるのを最後にした。しかし、逆の効果を求めるシーンやユーザもいることから、ステップS61とS54の関係を逆にしても良い。   In this flow, after the size of the trimmed image is changed in step S63, the face is brought closer to the face in step S64. This is a way to enjoy the change of facial expression with the frame size corresponding to the face up. Also, if the size of the trimming image is changed after first moving to the face position, the person's identity is known from the beginning, and no expectation can be given. Therefore, the trimming image was moved to the face position last. However, since there are scenes and users that require the opposite effect, the relationship between steps S61 and S54 may be reversed.

なお、トリミング範囲のフローは、撮影中に実行するものとして説明したが、再生時に実行することも可能である。すなわち、記録部6には静止画撮影前の所定時間内の動画(連写)のフルサイズの画像データを記録しておき、再生時に図9に示すトリミング範囲のフローを実行することにより、トリミング画像を切り出し、この切り出されたトリミング画像を順次再生表示すれば良い。また、撮影前に仮記録部5aに記録される画像データはフルサイズとしたが、想定再生装置の表示部の画像サイズを考慮の上、フルサイズよりも小さな画像データでも良い。   Although the flow of the trimming range has been described as being executed during shooting, it can also be executed during playback. That is, full-size image data of a moving image (continuous shooting) within a predetermined time before still image shooting is recorded in the recording unit 6, and the trimming range flow shown in FIG. The image may be cut out, and the cut out trimmed image may be sequentially reproduced and displayed. Further, although the image data recorded in the temporary recording unit 5a before shooting is set to the full size, the image data smaller than the full size may be used in consideration of the image size of the display unit of the assumed playback device.

次に、ステップS51における顔から遠い位置の決め方の他の例について、図10を用いて説明する。遠い位置として画像解析を行い、手の部分等、特定位置を決める場合のほか、単純に人物の中で顔から一番遠い部分を選択する方法がある。この場合、顔の位置から十分遠いと、初期位置から顔の位置に移動するに要する時間がかかり、鑑賞する際に飽きてしまうおそれがある。そこで、この例では、鑑賞した際に期待感を抱かせるような効果を生ずるようにトリミングの開始位置と枠移動の速度を決めている。   Next, another example of how to determine a position far from the face in step S51 will be described with reference to FIG. In addition to determining a specific position such as a hand part by performing image analysis as a distant position, there is a method of simply selecting a part of a person farthest from the face. In this case, if it is sufficiently far from the face position, it takes time to move from the initial position to the face position, and there is a risk of getting bored when viewing. Therefore, in this example, the trimming start position and the frame moving speed are determined so as to produce an effect that gives a sense of expectation when viewing.

図10(a)は、動画を撮影している際の全体画像29aと、その時のトリミング画像29b〜29dを示す。この場合も前述の実施形態と同様、顔から遠い部分から顔の部分に向けてトリミング画像を移動させている。トリミング画像29cでは、被写体の顔の部分の下側が見えており、この状態では笑っていない。しかし、トリミング画像29bでは被写体の顔全体が見えており、この状態では笑っている。このように笑っていない状態から笑った状態になるまでの時間Tfを計測する。顔の端部から顔の中心までの距離差(約D/2)(ここで、Dは顔の大きさ)を、時間Tfで除算すると、移動速度vが算出できる。この移動速度vで所定時間(例えば、約2秒間)、移動した位置をトリミング開始位置とすれば、被写体の表情変化にタイミングを合わせたトリミング画像と静止画の再生表示を行うことができる。   FIG. 10A shows an entire image 29a when shooting a moving image and trimmed images 29b to 29d at that time. In this case as well, the trimmed image is moved from the portion far from the face toward the face as in the above-described embodiment. In the trimmed image 29c, the lower side of the face portion of the subject is visible, and in this state, no laughing is made. However, the entire face of the subject can be seen in the trimmed image 29b, and in this state, he is laughing. In this way, the time Tf from the state of not laughing to the state of laughing is measured. The movement speed v can be calculated by dividing the difference in distance from the edge of the face to the center of the face (about D / 2) (where D is the size of the face) by the time Tf. If the position moved at the moving speed v for a predetermined time (for example, about 2 seconds) is set as the trimming start position, the trimmed image and the still image can be reproduced and displayed in time with the expression change of the subject.

このようなトリミング位置と表情変化の様子を図10(b)(c)に示す。図10(b)は、縦軸にトリミング位置を、横軸に時間経過をとり、時間と共にトリミング枠が移動していく様子を示している。また、図10(c)は、縦軸に数値化した表情を、横軸に時間経過をとり、時間と共に人物の顔の表情が変化していく様子を示している。ここで表情は、目の大きさの変化や、口の端部の上がり具合等を数値化する。この数値が高いほど、笑顔度が高くなるので、この数値の変化が大きい部分は、笑顔になっていく過程であり、この変化が大きいときの時間Tfを求め、この時間Tfの間にちょうど、顔の下端部から顔の中心にトリミング枠が移動するようにトリミングライン29eを決めれば良い。   FIGS. 10B and 10C show such trimming positions and changes in facial expressions. FIG. 10B shows a state in which the trimming position is moved with time, with the trimming position on the vertical axis and the passage of time on the horizontal axis. Further, FIG. 10C shows a state in which the expression of a person's face changes with time, with the expression expressed as a numerical value on the vertical axis and the passage of time on the horizontal axis. Here, the expression expresses changes in the size of the eyes, the degree of rising of the mouth edge, and the like. The higher this value is, the higher the smile level is. Therefore, the portion where the change in this value is large is the process of becoming a smile. The time Tf when this change is large is obtained, and during this time Tf, The trimming line 29e may be determined so that the trimming frame moves from the lower end of the face to the center of the face.

このようにしてトリミング開始位置とトリミング枠の移動速度を決定することにより、被写体の顔の表情変化を楽しむことができる。また、トリミングを行っていることから、表情変化を拡大して表示することができる。なお、被写体によっては表情変化がない場合があり、この場合には、顔以外の場所の撮影位置の変化によって、画面に変化をつけることによって、期待感を高めるようにすれば良い。なお、この例は、第2実施形態に限らず、第1実施形態においても利用することができる。すなわち、この例では表情変化をモニタしているが、第1実施形態において、表情変化が有った場合に撮影を自動的に行ったり、また、撮影のチャンスであることを表示するようにしても良い。   Thus, by determining the trimming start position and the moving speed of the trimming frame, it is possible to enjoy the facial expression change of the subject. In addition, since the trimming is performed, the expression change can be enlarged and displayed. Depending on the subject, there may be no change in facial expression. In this case, the expectation may be enhanced by changing the screen by changing the shooting position in a place other than the face. This example can be used not only in the second embodiment but also in the first embodiment. In other words, the expression change is monitored in this example, but in the first embodiment, when there is a change in the expression, shooting is automatically performed, or it is displayed that it is a shooting opportunity. Also good.

以上、説明したように、本発明の第2実施形態およびその変形例においては、静止画の撮影に先だって、動画(連写)で画像データをフルサイズ等で取得し、そのまま仮記録している。そして、静止画を撮影した際に、直近のフルサイズ等の動画の画像データからトリミング画像の画像データを生成し、この生成された画像データと、静止画の画像データを記録部6に最終記録している。   As described above, in the second embodiment of the present invention and its modifications, image data is acquired in full size or the like as a moving image (continuous shooting) and temporarily recorded as it is before shooting a still image. . Then, when a still image is shot, image data of a trimmed image is generated from the latest full-size moving image data, and the generated image data and still image data are finally recorded in the recording unit 6. doing.

このように記録された画像データを再生すると、第1実施形態の場合と同様、いきなり被写体全体が再生表示されるのではなく、被写体の一部が再生表示されてから全体が再生表示される。このため、被写体全体が表示されるまでの間、何が(誰が)写っているのを想像することができ、期待感を高めることができる。   When the image data recorded in this way is reproduced, as in the first embodiment, the entire subject is not suddenly reproduced and displayed, but is reproduced and displayed after a part of the subject is reproduced and displayed. Therefore, it is possible to imagine what (who) is captured until the entire subject is displayed, and the expectation can be enhanced.

また、本実施形態においては、フルサイズ等の画像データを仮記録することから、トリミング画像を仮記録する場合に比較し、大容量の仮記録部5aが必要となる。しかし、静止画撮影後にトリミング画像を生成する際の自由度が高く、期待感を更に高めた画像を得ることができる。   Further, in the present embodiment, image data of a full size or the like is temporarily recorded, so that a large-capacity temporary recording unit 5a is required as compared with the case of temporarily recording a trimmed image. However, the degree of freedom in generating a trimmed image after still image shooting is high, and an image with a higher expectation can be obtained.

さらに、本実施形態においては、静止画撮影後にトリミング画像を生成せずに、画像を再生する際に、トリミング画像を生成するようにしても良い。この場合、再生用のトリミング画像の生成は、カメラで行っても良く、例えば、パーソナルコンピュータ等の画像再生装置において行っても良い。   Furthermore, in this embodiment, a trimmed image may be generated when an image is reproduced without generating a trimmed image after still image shooting. In this case, the reproduction trimmed image may be generated by a camera, for example, by an image reproduction device such as a personal computer.

次に、本発明の第3実施形態について、図11ないし図14を用いて説明する。第1および第2実施形態においては、静止画の撮影に先だって、常時、動画(連写)を仮記録部5aに仮記録していた。この第3実施形態においては、静止画の撮影後に、動画(連写)を撮影し、このとき得られた動画の画像データからトリミング画像を生成し、これを記録するようにしている。   Next, a third embodiment of the present invention will be described with reference to FIGS. In the first and second embodiments, a moving image (continuous shooting) is always temporarily recorded in the temporary recording unit 5a prior to shooting a still image. In the third embodiment, after shooting a still image, a moving image (continuous shooting) is shot, a trimming image is generated from the image data of the moving image obtained at this time, and this is recorded.

第3実施形態の構成は、図1及び図2に示した第1実施形態と同様であることから、詳しい説明を省略する。ただし、仮記録部5aの動画記録用メモリは第1実施形態においては静止画撮影前に画像データを記録していたが、本実施形態においては、仮記録を行わないので、仮記録部5aを省略することができる。   Since the configuration of the third embodiment is the same as that of the first embodiment shown in FIGS. 1 and 2, detailed description thereof is omitted. However, the moving image recording memory of the temporary recording unit 5a records image data before taking a still image in the first embodiment. However, in this embodiment, the temporary recording unit 5a is not used because temporary recording is not performed. Can be omitted.

図11を用いて、本実施形態における画像の撮影と再生について説明する。撮影時には画像31a〜31dの順に撮影を行うが、この中で、画像31aが静止画像であり、画像31b〜31dは静止画の撮影後に撮影された動画(連写)である。   With reference to FIG. 11, shooting and reproduction of an image in the present embodiment will be described. Images are taken in the order of images 31a to 31d at the time of shooting. Among them, the image 31a is a still image, and the images 31b to 31d are moving images (continuous shooting) shot after shooting a still image.

本実施形態においても、被写体22の顔を含めて全体が写っている静止画像31aを最初から再生表示するのではなく、顔以外の部分を最初に表示し、次第に全体像が見えるようにしている。すなわち、最初に手の部分を拡大したトリミング画像31bを表示し、続いて、手の部分を含む広めの範囲のトリミング画像31cを表示し、次に顔の部分を拡大したトリミング画像31dを表示し、最後に、被写体22の全体が写っている静止画像31aを表示する。本実施形態においても、何が(誰が)写っているのか早く知りたいという鑑賞者の期待感を利用して効果的な再生表示を行うことができる。   Also in this embodiment, the still image 31a showing the entire face including the face of the subject 22 is not reproduced and displayed from the beginning, but the portion other than the face is displayed first so that the whole image can be seen gradually. . That is, a trimmed image 31b in which the hand portion is enlarged is displayed first, then a wide range trimmed image 31c including the hand portion is displayed, and then a trimmed image 31d in which the face portion is enlarged is displayed. Finally, a still image 31a showing the entire subject 22 is displayed. Also in the present embodiment, it is possible to perform effective reproduction display by utilizing the expectation of the viewer who wants to know what (who) is captured as soon as possible.

次に、本実施形態におけるカメラ10の撮影動作について、図11に示すフローチャートを用いて説明する。動画撮影のフローに入ると、まず、ステップS1と同様に、撮影を行うか否かの判定を行う(S71)。動画撮影のフローに入ると撮像部2の出力に基づいて、ライブビュー画像が表示されており、撮影者が構図を決め、静止画を撮影する場合には、レリーズ釦を操作するので、ここではレリーズ釦が操作されたか否かを判定する。   Next, the photographing operation of the camera 10 in the present embodiment will be described using the flowchart shown in FIG. When the moving image shooting flow is entered, first, as in step S1, it is determined whether or not shooting is to be performed (S71). When the moving image shooting flow is entered, a live view image is displayed based on the output of the imaging unit 2, and when the photographer decides the composition and shoots a still image, the release button is operated. It is determined whether or not the release button has been operated.

ステップS1における判定の結果、撮影でなかった場合には、待機状態となり、ライブビュー画像を表示した状態で、レリーズ釦が操作されるのを待つ。一方、ステップS71における判定の結果、撮影となると、静止画の撮影を行う(S72)。ここでは、撮像部2から出力される静止画の画像データをフル画像データ(12M(1200万画素))で記録部6に記録する。この画像は、前述の静止画像31aに相当する。   If the result of determination in step S <b> 1 is that there was no shooting, the camera enters a standby state, and waits for the release button to be operated while a live view image is displayed. On the other hand, if the result of determination in step S71 is shooting, a still image is shot (S72). Here, the image data of the still image output from the imaging unit 2 is recorded in the recording unit 6 as full image data (12M (12 million pixels)). This image corresponds to the still image 31a described above.

静止画の撮影を行うと、次に、顔の下部1についてトリミング撮影を行う(S73)。ここでは、被写体22の顔の部分より下にある部分、この例では手の部分について、フル画像データから、トリミング部1bによって2M(200万画素)でトリミングを行い、画像31bに対応する画像データを記録部6に最終記録する。なお、画素数として2Mとしたのは、第1実施形態の場合と同様に、ハイビジョン画像で再生表示する場合を想定した画素数であり、想定再生表示装置に応じて、異なる値としても良い。   Once the still image has been shot, trimming shooting is then performed on the lower part 1 of the face (S73). Here, the portion below the face portion of the subject 22, that is, the hand portion in this example, is trimmed from the full image data with 2M (2 million pixels) by the trimming unit 1b, and the image data corresponding to the image 31b. Is finally recorded in the recording unit 6. Note that the number of pixels is 2M, as in the case of the first embodiment, is the number of pixels that is assumed to be reproduced and displayed as a high-definition image, and may be a different value depending on the assumed reproduction display device.

続いて、顔の下部2についてトリミング撮影を行う(S74)。ここでは、顔の下部1より上側でかつ下部1の範囲より広い範囲、この例では、手の部分を含み下部1より広げた部分について、フルサイズの画像データから2Mでトリミングを行い、画像31cに対応する画像データを記録部6に最終記録する。この下部2について撮影を行うと、次に、顔の下部3についてトリミング撮影を行う(S75)。ここでは、顔の下部2より上側でかつ下部2の範囲とほぼ同程度の範囲、この例では、顔の部分をふくむ拡大された部分について、フルサイズの画像データから2Mでトリミングを行い、画像31dに対応する画像データを記録部6に最終記録する。この記録が終わるとこのフローを終了する。   Subsequently, trimming photography is performed for the lower part 2 of the face (S74). Here, the range above the lower part 1 of the face and wider than the range of the lower part 1, in this example, the part including the hand part and extending from the lower part 1 is trimmed at 2M from the full-size image data, and the image 31c Is finally recorded in the recording unit 6. Once the lower part 2 is photographed, next, trimming photographing is performed for the lower part 3 of the face (S75). Here, the range above the lower part 2 of the face and approximately the same as the range of the lower part 2, in this example, the enlarged part including the face part is trimmed at 2M from the full-size image data. The image data corresponding to 31d is finally recorded in the recording unit 6. When this recording is finished, this flow is finished.

このように、第3実施形態においても、ステップS73〜S75において、フルサイズの画像データから一部分(下部1〜3)を切り出すトリミング処理を行っているが、ここも各画像の連続性が重要である。そのため、トリミング画像においても顔の大きさが小さくなる方向に変化させ、また、トリミング位置の方向も一定の方向に変化することが望ましい。以上の説明では、ステップS73〜S75においてトリミング画像を最終記録していたが、一旦、仮記録部5aに仮記録した後、まとめて記録部6に最終記録するようにしてもかまわない。   As described above, also in the third embodiment, in steps S73 to S75, a trimming process for cutting out a part (lower parts 1 to 3) from full-size image data is performed. However, continuity of each image is also important here. is there. For this reason, it is desirable to change the size of the face in the trimmed image so that the size of the face decreases, and to change the direction of the trimming position in a certain direction. In the above description, the trimmed image is finally recorded in steps S73 to S75. However, the trimmed image may be temporarily recorded in the temporary recording unit 5a and then collectively recorded in the recording unit 6.

図12は、動画撮影および静止画撮影された画像データの表示および記録の仕方を示す。時刻T55が静止画撮影のタイミングであり、その前の時刻T51〜T54は静止画撮影前であり、時刻T56〜T58は静止画撮影後のトリミング処理のタイミングである。時刻T51〜T54においては、撮像部2から出力される画像データは、表示部8においてライブビュー表示されるだけである。この間においては、撮像部2からの画像データは間引き処理された後、表示部6に送られるだけで、第1、第2実施形態のように画像データの仮記録は行われない。   FIG. 12 shows how to display and record image data obtained by moving image shooting and still image shooting. Time T55 is the timing of still image shooting, previous times T51 to T54 are before still image shooting, and times T56 to T58 are trimming processing timing after still image shooting. At times T <b> 51 to T <b> 54, the image data output from the imaging unit 2 is only displayed as a live view on the display unit 8. During this time, the image data from the imaging unit 2 is thinned out and then sent to the display unit 6, and the temporary recording of the image data is not performed as in the first and second embodiments.

時刻T55において、静止画のフルサイズの画像データが記録部6に最終記録される。次に、時刻T56〜T58において、フルサイズの動画の画像データからトリミング範囲が切り出され、このトリミング画像の画像データが記録部6に最終記録される。また、このとき生成されたトリミング画像の画像データに基づいて、表示部8に表示される。   At time T55, the full-size image data of the still image is finally recorded in the recording unit 6. Next, at times T56 to T58, a trimming range is cut out from the image data of the full-size moving image, and the image data of the trimmed image is finally recorded in the recording unit 6. In addition, the image is displayed on the display unit 8 based on the image data of the trimmed image generated at this time.

このように、第3実施形態においては、静止画像31aを撮影後、順次、動画からトリミング画像31b、31c、31dの画像データを生成し、記録部6に最終記録を行っている。そして、再生表示する際には、トリミング画像31b→31c→31d→静止画像31aの順に再生を行う。このため、静止画撮影前に、常時、動画の仮記録を行う必要がなく、構成を簡単にすることができる。なお、トリミング画像の生成の順番は、顔に遠い位置から生成しており、この順番は時系列の方向であることから、再生時に違和感が少ない。しかし、先に、顔に近い位置から生成しても勿論かまわない。   As described above, in the third embodiment, after capturing the still image 31a, the image data of the trimmed images 31b, 31c, and 31d is sequentially generated from the moving image, and the final recording is performed on the recording unit 6. Then, when reproducing and displaying, reproduction is performed in the order of the trimmed image 31b → 31c → 31d → still image 31a. For this reason, it is not always necessary to temporarily record a moving image before shooting a still image, and the configuration can be simplified. Note that the generation order of the trimmed images is generated from a position far from the face, and since this order is a time-series direction, there is little discomfort during reproduction. However, it may of course be generated from a position close to the face first.

本実施形態においては、静止画の撮影後も連続して動画の撮影を行っている。このため、静止画の撮影後も所定時間(実施形態においては、0.5秒から2秒程度)の間、被写体にカメラ10を向けていないと、見苦しい画像となってしまう。そこで、本実施形態においては、撮影者に必要以上のストレスをかけさせないようにするために、画面中央に位置する人物25を自動的に抽出し、人物21の顔の部分をトリミングして記録するようにしている。   In the present embodiment, a moving image is continuously captured after a still image is captured. For this reason, if the camera 10 is not pointed at the subject for a predetermined time (in the embodiment, about 0.5 second to 2 seconds) even after the still image is captured, the image becomes unsightly. Therefore, in the present embodiment, in order to prevent the photographer from applying unnecessary stress, the person 25 located at the center of the screen is automatically extracted, and the face portion of the person 21 is trimmed and recorded. I am doing so.

このトリミングの仕方について、図13および図14を用いて説明する。図13は被写体22を撮影している様子を示しており、静止画は撮影領域15aで撮影され、この後に続く動画は撮影領域15b、15cで撮影される。このとき、カメラ10で撮像される画像の内、図14(a)は、撮影領域15aに対応する画像であり、図14(b)は撮影領域15bに対応する画像であり、図14(c)は撮影領域15cに対応する画像である。   This trimming method will be described with reference to FIGS. FIG. 13 shows a state in which the subject 22 is being photographed. A still image is photographed in the photographing region 15a, and a subsequent moving image is photographed in the photographing regions 15b and 15c. At this time, among images captured by the camera 10, FIG. 14A is an image corresponding to the imaging region 15a, FIG. 14B is an image corresponding to the imaging region 15b, and FIG. ) Is an image corresponding to the imaging region 15c.

静止画の撮影領域15aに対応する図14(a)の画像は、そのまま図14(d)に示すように記録されるが、動画の撮影領域15bに対応する画像は、撮影領域15aの画面中央を含むトリミング領域17b(被写体22の顔が中央に存在)が、図14(e)に示すように記録され、動画の撮影領域15cに対応する画像は、撮影領域15aの画面中央を含むトリミング領域17cが、図14(f)に示すように記録される。ここで、トリミング領域17b、17cのアスペクト比は、静止画のアスペクト比と変えても良いが、同じアスペクト比とすることにより、違和感をなくすことができることから、本実施形態においては、同一アスペクト比としている。   The image of FIG. 14A corresponding to the still image shooting area 15a is recorded as shown in FIG. 14D, but the image corresponding to the moving image shooting area 15b is the center of the screen of the shooting area 15a. 14b (the face of the subject 22 exists in the center) is recorded as shown in FIG. 14E, and the image corresponding to the moving image shooting area 15c is a trimming area including the center of the shooting area 15a. 17c is recorded as shown in FIG. Here, the aspect ratios of the trimming regions 17b and 17c may be changed from the aspect ratio of the still image. However, by setting the same aspect ratio, the uncomfortable feeling can be eliminated. It is said.

なお、図13および図14を用いて説明したトリミング処理は、制御部1内の構図変化判定部1aおよびトリミング部1bによって実行される。すなわち、構図変化判定部1aは撮影領域15a〜15cに変化したことを判定すると、トリミング部1bが判定結果に基づいてトリミング処理を行う。また、このトリミング処理は、撮影後に行うことで説明したが、撮影前に行うこともできる。すなわち、撮影前から動画の撮影を行い、静止画が撮影されると、直近の動画の画像データから撮影領域17b、17cに対応する部分のトリミングを行えば良い。   The trimming process described with reference to FIGS. 13 and 14 is executed by the composition change determination unit 1a and the trimming unit 1b in the control unit 1. In other words, when the composition change determination unit 1a determines that the photographing regions 15a to 15c have been changed, the trimming unit 1b performs a trimming process based on the determination result. Further, although the trimming process has been described as being performed after shooting, it can also be performed before shooting. That is, when a moving image is shot before shooting and a still image is shot, the portions corresponding to the shooting areas 17b and 17c may be trimmed from the image data of the latest moving image.

以上、説明したように、本発明の第3実施形態においては、静止画の撮影後に、動画(連写)で画像データを取得し、この画像データからトリミングを行い、静止画の画像データと共に、トリミング画像の画像データも記録するようにしている。このため、静止画の撮影前に動画の画像データを仮記録する必要がなくなり、構成を簡単にすることができる。   As described above, in the third embodiment of the present invention, after capturing a still image, the image data is acquired by a moving image (continuous shooting), trimmed from the image data, and together with the image data of the still image, The image data of the trimmed image is also recorded. For this reason, it is not necessary to temporarily record moving image data before shooting a still image, and the configuration can be simplified.

以上説明したように、本発明の各実施形態においては、レリーズ動作に応答し撮像部2から画像データを取得すると共に、レリーズ動作の前若しくは後に撮像部2から連写の画像データを取得し、連写の画像データに基づいて、各フレームで異なる領域で順次トリミング画像を生成し、この生成されたトリミング画像とレリーズ時の画像データを記録している。このため、単に撮影する場合に比較し、変化に富んだ多彩な画像を、簡単に誰でも撮影することができる。   As described above, in each embodiment of the present invention, the image data is acquired from the imaging unit 2 in response to the release operation, and the continuous shooting image data is acquired from the imaging unit 2 before or after the release operation. Based on the continuous shooting image data, trimmed images are sequentially generated in different regions in each frame, and the generated trimmed image and the image data at the time of release are recorded. For this reason, anyone can easily shoot a variety of images that are rich in change compared to the case of simply shooting.

また、本発明の各実施形態においては、画面全体の画像を表示する前に、その画像を撮影する前もしくは後に撮影された画像の一部分をトリミングし、このトリミング画像を先に表示するようにしている。このため、変化に富んだ多彩な画像を鑑賞することができる。特に、最初に、人物の手等の部分を表示し、その後、少しずつその人物の部分を移動しながら、最後に顔の拡大表示から全体表示を行うと、何が(誰が)写っているのかを想像し期待感が高まるという効果を奏する。また、従来の写真鑑賞にあっては、人物が写っているとその人を見るだけで満足していた。つまり、興味のある人が写っている写真であれば丁寧に鑑賞し、興味がない人が写っている写真であったり、表情が良くなければ、その写真を飛ばしてしまうような場合が多々あった。人物の顔以外にも、周囲に何か興味深いものがあっても、興味が持たれず、写真が見過ごされてしまうのは残念である。本発明の各実施形態においては、顔以外の部分を拡大して表示しており、このような画像を興味深く鑑賞する際の手助けになる。   Further, in each embodiment of the present invention, before displaying an image of the entire screen, a part of the image captured before or after capturing the image is trimmed, and the trimmed image is displayed first. Yes. For this reason, it is possible to appreciate a wide variety of images. In particular, if you first display the part of a person's hand, then move the part of the person little by little, and finally display the entire face from the enlarged display of the face, what is (who) is shown? Imagine the effect of increasing expectations. In addition, in conventional photo appreciation, when a person was reflected, it was satisfactory just to see that person. In other words, if you are interested in photos that you are interested in, please carefully watch them, and if you are not interested in the photos, or if your facial expressions are not good, you may skip the photos. It was. It is unfortunate that even if there is something interesting in the surroundings other than the person's face, the photograph is overlooked without being interested. In each embodiment of the present invention, the part other than the face is enlarged and displayed, which is helpful when such an image is interestingly appreciated.

なお、本発明の各実施形態においては、レリーズ釦が操作され撮影を行う際に、静止画を撮影していた。しかし、これに限らずレリーズ釦の操作に応じて動画の撮影を開始するようにしても良い。第3実施形態においては、静止画の撮影後に動画(連写)の撮影を行っていたが、レリーズ釦の操作に応じて動画の撮影を終了した後に、トリミング用の動画(連写)の撮影を行うようにしても良い。   In each embodiment of the present invention, when a release button is operated and shooting is performed, a still image is shot. However, the present invention is not limited to this, and moving image shooting may be started in accordance with the operation of the release button. In the third embodiment, shooting of a moving image (continuous shooting) is performed after shooting of a still image. However, after shooting of a moving image is terminated in accordance with the operation of the release button, shooting of a moving image for trimming (continuous shooting) is performed. May be performed.

また、本発明の各実施形態においては、被写体の人物の関係ある部分のトリミングを行い、顔の位置に向けて直線的にトリミング位置を移動させていたが、これに限らず、人物の身体の輪郭に従って、顔に向けていくような処理を行っても良い。また、初期位置として人物の関係有る部分としていたが、人物に関係ある部分以外の特徴的なものであっても良く、この特徴的なものから、人物に向けてトリミング範囲の変更を行っても良い。特徴的なものとしては、前後の画像と比較し、その画像の周辺にあって、形状に特徴が有れば良く、例えば、花束のような色彩や、アクセサリのような光沢感のあるものがある。また、顔が最初にでてしまうと、どんな表情とか、誰が写っているか等の鑑賞者の興味が失われてしまう。そこで、あえて画面に映っているのに目が届きにくいものから、次第に人物に注意が向くようにする。同じ表現ばかり続き、単調になってしまう場合には、トリミング開始位置を、人物の関連部分から、このような特徴的なものに変更する、同じ画像であっても、鑑賞者は沢山の情報に誘導され、イマジネーションが喚起される。   Further, in each embodiment of the present invention, the relevant portion of the subject person is trimmed, and the trimming position is linearly moved toward the face position. You may perform the process which turns to a face according to an outline. In addition, although the initial position is a part related to the person, it may be a characteristic part other than the part related to the person, and the trimming range may be changed toward the person from this characteristic part. good. As a characteristic, it is only necessary to have a shape in the periphery of the image compared to the previous and subsequent images, for example, a color like a bouquet or a glossy like accessory. is there. Also, if the face appears first, the viewer's interests such as what facial expression and who is in the photo are lost. Therefore, gradually focus attention on people from things that are hard to reach even though they are on the screen. If the same expression continues and becomes monotonous, the trimming start position is changed from the relevant part of the person to such a characteristic one. Guided and imaginated.

また、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。   In each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. It may be a camera for moving images, or may be a camera built in a mobile phone, a personal digital assistant (PDA), a game device, or the like.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・制御部、1a・・・画像処理部、1b・・・トリミング部、2・・・撮像部、2a・・・顔検出部、3・・・パラメータ設定部、4・・・モーション判定部、5・・・画像処理部、5a・・・仮記録部、5b・・・静止画圧縮部、5e・・・効果処理部、5f・・・画圧縮部、5g・・・接続データ部、5h・・・時間制御部、6・・・記録部、7・・・パラメータ制御部、8・・・表示部、8a・・・メイン画面、8b・・・サブ画面、8c・・・サブ画面、9・・・操作部、10・・・カメラ、11・・・時計部、15a・・・撮影領域、15b・・・撮影領域、15c・・・撮影領域、17b・・・トリミング領域、17c・・・トリミング領域、21a・・・画像、21b・・・画像、21c・・・画像、21d・・・画像、22・・・被写体、23a・・・トリミング画像データ、23b・・・トリミング画像データ、23c・・・トリミング画像データ、24a・・・最終トリミング画像データ、24b・・・最終トリミング画像データ、24c・・・最終トリミング画像データ、24d・・・静止画フル画像データ、26a・・・トリミング画像、26b・・・トリミング画像、26c・・・トリミング画像、26d・・・静止画像、27・・・トリミング指示枠、28a・・・最終トリミング画像データ、28b・・・最終トリミング画像データ、28c・・・最終トリミング画像データ、28d・・・静止画フル画像データ、29a・・・全体画像、29b・・・トリミング画像、29c・・・トリミング画像、29d・・・トリミング画像、31a・・・静止画像、31b・・・トリミング画像、31c・・・トリミング画像、31d・・・トリミング画像 DESCRIPTION OF SYMBOLS 1 ... Control part, 1a ... Image processing part, 1b ... Trimming part, 2 ... Imaging part, 2a ... Face detection part, 3 ... Parameter setting part, 4 ... Motion Determination unit, 5 ... image processing unit, 5a ... temporary recording unit, 5b ... still image compression unit, 5e ... effect processing unit, 5f ... image compression unit, 5g ... connection data Part, 5h ... time control part, 6 ... recording part, 7 ... parameter control part, 8 ... display part, 8a ... main screen, 8b ... sub-screen, 8c ... Sub-screen, 9 ... operation unit, 10 ... camera, 11 ... clock unit, 15a ... shooting area, 15b ... shooting area, 15c ... shooting area, 17b ... trimming area 17c: Trimming area, 21a: Image, 21b: Image, 21c: Image, 21d: Image 22 ... Subject, 23a ... Trimmed image data, 23b ... Trimmed image data, 23c ... Trimmed image data, 24a ... Final trimmed image data, 24b ... Final trimmed image data, 24c .. Final trimmed image data, 24d: still image full image data, 26a: trimmed image, 26b ... trimmed image, 26c ... trimmed image, 26d ... still image, 27 ... trimmed Instruction frame, 28a... Final trimmed image data, 28b... Final trimmed image data, 28c... Final trimmed image data, 28d .. still image full image data, 29a. Trimmed image 29c Trimmed image 29d Trimmed image 31a And still image, 31b ··· trimming image, 31c ··· trimming image, 31d ··· trimming image

Claims (7)

被写体像を画像データに変換する撮像部と、
レリーズ動作に応答し、上記撮像部から画像データを取得すると共に、上記レリーズ動作の前若しくは後に、上記撮像部から複数の画像データを取得する撮影部と、
上記複数の画像データから、異なる領域で順次トリミング画像データを生成するトリミング部と、
上記トリミング部で生成されたトリミング画像データ、および上記レリーズ動作時に取得した画像データを記録する制御部と、
を有し、
上記制御部は、人物と関係のある特徴がある部分を検出し、上記異なる領域で生成されるトリミング画像データとして、上記特徴がある部分を先に、次に上記特徴のある部分からトリミング位置を移動させた画像を、最後に画面全体を、順次生成することを特徴とするカメラ。
An imaging unit for converting a subject image into image data;
In response to the release operation, the image capturing unit acquires image data from the image capturing unit, and acquires a plurality of image data from the image capturing unit before or after the release operation;
A trimming unit that sequentially generates trimmed image data in different areas from the plurality of image data;
A control unit for recording the trimmed image data generated by the trimming unit and the image data acquired during the release operation;
Have
The control unit detects a part having a characteristic related to a person, and sets trimming positions from the characteristic part as the trimming image data generated in the different areas, and then the trimming position from the characteristic part. A camera that sequentially generates a moved image and finally the entire screen.
上記トリミング画像データは、拡大画像から縮小するように、順次生成することを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the trimmed image data is sequentially generated so as to be reduced from the enlarged image. 上記トリミング画像データは、縮小画像から拡大するように、順次生成することを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the trimmed image data is sequentially generated so as to be enlarged from the reduced image. 上記トリミング画像データは露出補正を施し、上記レリーズ動作時に取得した画像データは適正露光となるように、順次生成することを特徴とする請求項1に記載のカメラ。   2. The camera according to claim 1, wherein the trimmed image data is subjected to exposure correction, and the image data acquired during the release operation is sequentially generated so as to achieve proper exposure. 被写体像を画像データに変換し、
撮影指示に応じて、変換された画像データを取得し、これを記録部に記録し、
この記録された画像データから人物と関係のある特徴がある部分を検出し、特徴がある部分の位置の第1の部分をトリミング処理し、これを記録部に記録し、
上記第1の部分とは別の位置の第2の部分をトリミング処理し、最後に画面全体を順次再生できるように記録部に記録する、
ことを特徴とするカメラの制御方法。
Convert the subject image into image data,
Acquire the converted image data in accordance with the shooting instruction, record this in the recording unit,
A portion having a characteristic related to a person is detected from the recorded image data, a first portion at a position of the characteristic portion is trimmed, and this is recorded in a recording unit.
Trimming the second part at a position different from the first part, and finally recording in the recording unit so that the entire screen can be reproduced sequentially,
A camera control method.
レリーズ動作時に取得されたレリーズ時画像データと、レリーズ動作時の前若しくは後に取得され、複数フレームで異なる領域でトリミング処理されたトリミング画像データを記録する記録部と、
上記記録部に記録された上記画像データから人物と関係のある特徴がある部分を検出し、上記画像データの内、最初に特徴がある第1の部分のトリミング画像データを再生し、続いて、上記第1の部分とは別の位置の第2の部分のトリミング画像を再生し、最後に、上記レリーズ動作時に取得した画像データを順次再生する再生制御部と、
を有することを特徴とする表示制御装置。
A recording unit that records the image data at the time of release acquired during the release operation and the trimmed image data that is acquired before or after the release operation and is trimmed in different areas in a plurality of frames;
A portion having a characteristic related to a person is detected from the image data recorded in the recording unit, and the trimmed image data of the first portion having the characteristic is reproduced first in the image data, A reproduction control unit that reproduces the trimmed image of the second part at a position different from the first part, and finally reproduces the image data acquired during the release operation;
A display control device comprising:
レリーズ動作時に取得されたレリーズ時画像データと、レリーズ動作時の前若しくは後に取得され、複数フレームで異なる領域でトリミング処理されたトリミング画像データが記録部に記録されている表示装置における表示制御方法であって、
上記記録部に記録された上記画像データから人物と関係のある特徴がある部分を検出し、上記画像データの内、最初に特徴がある第1の部分のトリミング画像データを再生し、続いて、上記第1の部分とは別の位置の第2の部分のトリミング画像を再生し、最後に、上記レリーズ動作時に取得した画像データを順次再生する、
ことを特徴とする表示制御方法。
A display control method in a display device in which image data at the time of release acquired during the release operation and trimmed image data acquired before or after the release operation and trimmed in different areas in a plurality of frames are recorded in the recording unit. There,
A portion having a characteristic related to a person is detected from the image data recorded in the recording unit, and the trimmed image data of the first portion having the characteristic is reproduced first in the image data, Replaying the trimmed image of the second portion at a position different from the first portion, and finally replaying the image data acquired during the release operation sequentially,
A display control method characterized by the above.
JP2013219226A 2013-10-22 2013-10-22 CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD Expired - Fee Related JP5628992B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013219226A JP5628992B2 (en) 2013-10-22 2013-10-22 CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013219226A JP5628992B2 (en) 2013-10-22 2013-10-22 CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009184558A Division JP5398408B2 (en) 2009-08-07 2009-08-07 CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2014027691A JP2014027691A (en) 2014-02-06
JP5628992B2 true JP5628992B2 (en) 2014-11-19

Family

ID=50200881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013219226A Expired - Fee Related JP5628992B2 (en) 2013-10-22 2013-10-22 CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP5628992B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4926416B2 (en) * 2005-06-15 2012-05-09 キヤノン株式会社 Image display method, program, recording medium, and image display apparatus
JP4898284B2 (en) * 2006-05-15 2012-03-14 オリンパスイメージング株式会社 camera

Also Published As

Publication number Publication date
JP2014027691A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5398408B2 (en) CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD
JP5436975B2 (en) CAMERA, CAMERA DISPLAY CONTROL METHOD, DISPLAY DEVICE, AND DISPLAY METHOD
JP5350928B2 (en) Camera and camera control method
JP5028225B2 (en) Image composition apparatus, image composition method, and program
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP2007251429A (en) Moving image imaging unit, and zoom adjustment method
JP5451197B2 (en) Imaging device
JP6242428B2 (en) Imaging apparatus and imaging method
JP5628992B2 (en) CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD
JP2013081136A (en) Image processing apparatus, and control program
JP4911287B2 (en) Image reproducing apparatus and program thereof
JP5509287B2 (en) Reproduction display device, reproduction display program, reproduction display method, and image processing server
JP5329311B2 (en) Imaging apparatus, imaging method, playback apparatus, and playback method
JP5722399B2 (en) Image processing apparatus, image processing method, and photographing method
JP5603978B2 (en) Imaging apparatus and imaging method
JP5695728B2 (en) Imaging apparatus and imaging method
JP5106240B2 (en) Image processing apparatus and image processing server
JP5816732B2 (en) Imaging apparatus and imaging method
JP2012235481A (en) Image processing apparatus, image processing method, and image processing program
JP2011176869A (en) Imaging device, and imaging control method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141002

R151 Written notification of patent or utility model registration

Ref document number: 5628992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees