JP5718502B2 - Image creating apparatus and image creating method - Google Patents

Image creating apparatus and image creating method Download PDF

Info

Publication number
JP5718502B2
JP5718502B2 JP2014025772A JP2014025772A JP5718502B2 JP 5718502 B2 JP5718502 B2 JP 5718502B2 JP 2014025772 A JP2014025772 A JP 2014025772A JP 2014025772 A JP2014025772 A JP 2014025772A JP 5718502 B2 JP5718502 B2 JP 5718502B2
Authority
JP
Japan
Prior art keywords
image
face
unit
enlarged
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014025772A
Other languages
Japanese (ja)
Other versions
JP2014135732A (en
Inventor
一 村山
一 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2014025772A priority Critical patent/JP5718502B2/en
Publication of JP2014135732A publication Critical patent/JP2014135732A/en
Application granted granted Critical
Publication of JP5718502B2 publication Critical patent/JP5718502B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像を作成する画像作成装置及びそのための画像作成方法に関する。   The present invention relates to an image creating apparatus for creating an image and an image creating method therefor.

近年、デジタルスチルカメラや撮影機能付携帯電話機等の各種の撮影装置において動画像作成機能を有するものが増えてきている。しかしながら、このような撮影装置を用いてユーザが望むような動画像を撮影するのは困難である。これは、一般に動画像の撮影が比較的長時間に及ぶためである。また、ユーザが撮影したいと考える被写体が撮影シーン内に複数存在しているような場合に、何れかの被写体のみに注目して撮影を行うと、注目する被写体を変える毎に撮影装置の向きを変える必要が生じる。これに対し、全ての被写体が撮影されるように画角を広くすると、画像内の個々の被写体の大きさが相対的に小さくなってしまう。   In recent years, various types of photographing apparatuses such as a digital still camera and a mobile phone with a photographing function have a moving image creation function. However, it is difficult to capture a moving image desired by the user using such an imaging device. This is because generally moving images are taken for a relatively long time. In addition, when there are a plurality of subjects that the user wants to shoot in the shooting scene, and shooting is performed while paying attention to only one of the subjects, the orientation of the shooting device is changed each time the subject of interest is changed. Need to change. On the other hand, if the angle of view is widened so that all the subjects are photographed, the size of each subject in the image becomes relatively small.

特許文献1には、全体画像と個々の被写体の顔の画像とを同時に見られるように表示する技術に関する提案がなされている。この特許文献1においては、入力された画像における顔部分の画像を検出し、検出した顔部分の画像を拡大した上で、もとの全体画像と顔画像とを合成して表示するようにしている。このような技術により、全体画像中の人物と、各人物の顔との対応をユーザが容易に把握することができる。   Patent Document 1 proposes a technique for displaying an entire image and images of faces of individual subjects so that they can be viewed simultaneously. In Patent Document 1, an image of a face part in an input image is detected, and the detected face part image is enlarged, and then the original whole image and the face image are combined and displayed. Yes. With such a technique, the user can easily grasp the correspondence between the person in the entire image and the face of each person.

特開2008―262416号公報JP 2008-262416 A

特許文献1の技術は、人物の顔画像を1人ずつ拡大表示するようにしており、仮に全体画像中のある狭い画像領域に複数の人物が混在しているような場合であっても、1人ずつ顔画像を拡大表示するようにしている。ここで、狭い画像領域に複数の人物が同時に存在しているような画像においては、それらの人物の間には何らかの関係があると考えられる。したがって、これらの人物についてはその関係性が分かるように、同じ画像領域内に同時に表示できるようにすることが望ましい。また、このような領域が複数存在する場合には、画像領域中の人物の数に応じて各画像領域の大きさを変更することがユーザにとって見易い動画像となると考えられる。   In the technique of Patent Document 1, a person's face image is enlarged and displayed one by one. Even if a plurality of persons are mixed in a narrow image area in the entire image, The face image is enlarged and displayed for each person. Here, in an image in which a plurality of persons are present simultaneously in a narrow image area, it is considered that there is some relationship between the persons. Therefore, it is desirable that these persons can be simultaneously displayed in the same image area so that the relationship can be understood. In addition, when there are a plurality of such areas, it is considered that changing the size of each image area according to the number of persons in the image area results in a moving image that is easy for the user to see.

本発明は、上記の事情に鑑みてなされたもので、全体画像中に複数の人物被写体が写っている画像領域が存在する場合において、各画像領域の人物の数に応じて画像領域の大きさを変更した画像を作成可能な画像作成装置及びそのための画像作成方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and in the case where an image area in which a plurality of human subjects are present exists in the entire image, the size of the image area according to the number of persons in each image area. It is an object of the present invention to provide an image creating apparatus capable of creating an image with a modified image and an image creating method therefor.

上記の目的を達成するために、本発明の第1の態様の画像作成装置は、画像を表示する表示部と、上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部とを具備し、上記拡大した顔画像が選択された場合に、上記拡大した顔画像の記録を行うことを特徴とする。   In order to achieve the above object, an image creating apparatus according to a first aspect of the present invention detects a display unit that displays an image and a face included in an image area in the image displayed on the display unit. Generated by the face detection unit, a face image generation unit that generates a face image including the face detected by the face detection unit for each image region, and the face image generation unit according to the number of faces included in the image region. In addition, an enlargement factor determination unit that determines the enlargement factor of each face image, and a face image that is enlarged according to the enlargement factor determined by the enlargement factor determination unit in the background image corresponding to the screen size of the display unit. And an image creating unit that creates a synthesized composite image. When the enlarged face image is selected, the enlarged face image is recorded.

上記の目的を達成するために、本発明の第2の態様の画像作成装置は、画像を表示する表示部と、上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部とを具備し、記録の指示に従い、上記合成画像の記録を行うことを特徴とする。   In order to achieve the above object, an image creating apparatus according to a second aspect of the present invention detects a display unit that displays an image and a face included in an image area in the image displayed on the display unit. Generated by the face detection unit, a face image generation unit that generates a face image including the face detected by the face detection unit for each image region, and the face image generation unit according to the number of faces included in the image region. In addition, an enlargement factor determination unit that determines the enlargement factor of each face image, and a face image that is enlarged according to the enlargement factor determined by the enlargement factor determination unit in the background image corresponding to the screen size of the display unit. An image creating unit for creating a synthesized image, and recording the synthesized image in accordance with a recording instruction.

上記の目的を達成するために、本発明の第3の態様の画像作成方法は、表示部に表示されている画像中の画像領域に含まれる顔を顔検出部によって検出し、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、上記画像領域が選択された場合に、上記選択された画像の記録を行うことを特徴とする。   In order to achieve the above object, an image creating method according to a third aspect of the present invention is a method in which a face included in an image region in an image displayed on a display unit is detected by a face detection unit, A face image including a face detected by the step is generated for each image area, and the enlargement ratio of each face image generated by the trimming control unit is determined according to the number of faces included in the image area, and the screen of the display unit is determined. In the background image corresponding to the size, a composite image is created by synthesizing the face image enlarged in accordance with the determined enlargement ratio, and when the image area is selected, the selected image is recorded. It is characterized by performing.

上記の目的を達成するために、本発明の第4の態様の画像作成方法は、表示部に表示されている画像中の画像領域に含まれる顔を顔検出部によって検出し、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、記録の指示に従い、上記合成画像の記録を行うことを特徴とする。   In order to achieve the above object, an image creating method according to a fourth aspect of the present invention is such that a face included in an image region in an image displayed on a display unit is detected by a face detection unit, and the face detection unit A face image including a face detected by the step is generated for each image area, and the enlargement ratio of each face image generated by the trimming control unit is determined according to the number of faces included in the image area, and the screen of the display unit is determined. A synthesized image obtained by synthesizing a face image enlarged in accordance with the determined enlargement ratio is created in a background image corresponding to the size, and the synthesized image is recorded in accordance with a recording instruction.

本発明によれば、全体画像中に複数の人物被写体が写っている画像領域が存在する場合において、各画像領域の人物の数に応じて画像領域の大きさを変更した画像を作成可能な画像作成装置及びそのための画像作成方法を提供することができる。   According to the present invention, when there is an image area in which a plurality of human subjects are present in the entire image, an image capable of creating an image in which the size of the image area is changed according to the number of persons in each image area A creation apparatus and an image creation method therefor can be provided.

本発明の一実施形態に係る動画像作成装置の一例としてのデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera as an example of the moving image production apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態におけるデジタルカメラの動作の概要を示す図である。It is a figure which shows the outline | summary of operation | movement of the digital camera in one Embodiment of this invention. 本発明の一実施形態におけるデジタルカメラの動画像撮影動作を示すフローチャートである。It is a flowchart which shows the moving image imaging operation | movement of the digital camera in one Embodiment of this invention. 顔画像の位置について説明するための図である。It is a figure for demonstrating the position of a face image. 指定位置関係判定処理について示すフローチャートである。It is a flowchart shown about a designated positional relationship determination process. 指定位置関係判定処理について説明するための図である。It is a figure for demonstrating the designated positional relationship determination process. 拡大率判定処理について示すフローチャートである。It is a flowchart shown about an enlargement rate determination process. 拡大率判定処理について説明するための図である。It is a figure for demonstrating an enlargement rate determination process. 図9(a)は顔画像中の全ての顔の数に従って拡大率を決定した場合の図であり、図9(b)は顔画像中の水平方向に並ぶ顔の数のみに従って拡大率を決定した場合の図である。FIG. 9A is a diagram when the enlargement ratio is determined according to the number of all faces in the face image, and FIG. 9B is an enlargement ratio determined only according to the number of faces arranged in the horizontal direction in the face image. FIG. 拡大率判定処理の変形例について示すフローチャートである。It is a flowchart shown about the modification of an enlargement rate determination process. 拡大率判定処理の変形例について説明するための図である。It is a figure for demonstrating the modification of an enlargement rate determination process. 一部拡大スルー画表示処理について示すフローチャートである。10 is a flowchart illustrating a partially enlarged through image display process. 余白部分について説明するための図である。It is a figure for demonstrating a margin part. 全体画像の合成手法の例を示す図である。It is a figure which shows the example of the synthetic | combination method of a whole image.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る動画像作成装置の一例としてのデジタルカメラ(以下、単にカメラと記す)の構成を示す図である。図1に示すカメラ100は、制御部101と、撮像部102と、顔検出部103と、表示部104と、位置指定部105と、操作部106と、記録部107と、時計部108とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a digital camera (hereinafter simply referred to as a camera) as an example of a moving image creation apparatus according to an embodiment of the present invention. 1 includes a control unit 101, an imaging unit 102, a face detection unit 103, a display unit 104, a position designation unit 105, an operation unit 106, a recording unit 107, and a clock unit 108. Have.

制御部101は、カメラ100の各ブロックの動作を統括的に制御する制御回路である。この制御部101は、ユーザによる位置指定部105や操作部106の操作に応じて、撮像部102、顔検出部103、表示部104等の動作制御を行う。また、制御部101は、トリミング制御部1011と、トリミング画像合成制御部1012と、画像処理部1013とを有している。   The control unit 101 is a control circuit that comprehensively controls the operation of each block of the camera 100. The control unit 101 performs operation control of the imaging unit 102, the face detection unit 103, the display unit 104, and the like according to the operation of the position specifying unit 105 and the operation unit 106 by the user. In addition, the control unit 101 includes a trimming control unit 1011, a trimming image composition control unit 1012, and an image processing unit 1013.

顔画像生成部としての機能を有するトリミング制御部1011は、後述する合成動画像を生成するためのトリミング制御を行う。即ち、トリミング制御部1011は、表示部104において表示された画像においてユーザにより指定された複数のポイントのそれぞれに対応した所定の画像領域であるトリミング範囲を決定し、決定した各トリミング範囲内の画像をスルー画表示用の画像処理がなされた画像又は撮像素子102cを介して得られた画像からトリミングして顔画像を生成する処理を行う。なお、本実施形態における「顔画像」とは、必ずしも画像中に1人分の顔が写っている画像を示すものではない。トリミング範囲中に複数の顔が存在していた場合にはその複数の顔を含む画像も本実施形態における「顔画像」になる。   A trimming control unit 1011 having a function as a face image generating unit performs trimming control for generating a composite moving image to be described later. In other words, the trimming control unit 1011 determines a trimming range that is a predetermined image area corresponding to each of a plurality of points designated by the user in the image displayed on the display unit 104, and images within each determined trimming range. The image is trimmed from the image that has been subjected to the image processing for through image display or the image obtained through the image sensor 102c, to generate a face image. Note that the “face image” in the present embodiment does not necessarily indicate an image in which one person's face is shown in the image. When a plurality of faces exist in the trimming range, an image including the plurality of faces is also a “face image” in the present embodiment.

指定位置関係判定部、拡大率判定部、及び動画像作成部としての機能を有するトリミング画像合成制御部1012は、トリミング制御部1011によってトリミングされた顔画像と表示部104に表示されている画像の全体を示す全体画像とを合成して1枚の合成動画像を生成するための制御を行う。即ち、トリミング画像合成制御部1012は、各顔画像の位置関係から各顔画像の合成位置を決定するとともに、各顔画像中の顔の数から各顔画像の拡大率を決定する。そして、トリミング画像合成制御部1012は、画像処理部1013による顔画像と全体画像との合成動画像の作成を制御する。   A trimming image composition control unit 1012 having functions as a designated positional relationship determination unit, an enlargement ratio determination unit, and a moving image creation unit is configured to display the face image trimmed by the trimming control unit 1011 and the image displayed on the display unit 104. Control is performed for synthesizing the whole image showing the whole to generate one synthesized moving image. That is, the trimming image composition control unit 1012 determines the composition position of each face image from the positional relationship of each face image, and determines the enlargement ratio of each face image from the number of faces in each face image. The trimming image composition control unit 1012 controls the image processing unit 1013 to create a composite moving image of the face image and the entire image.

画像処理部1013は、撮像部102において得られた画像に対する画像処理を行う。この画像処理には、例えば撮像部102において得られた画像に対する色補正処理、階調補正処理、拡大縮小処理、圧縮処理(静止画圧縮又は動画圧縮)、圧縮された画像に対する伸張処理等が含まれる。また、画像処理部1013は、トリミング画像合成制御部1012とともに動画像作成部としての機能も有し、トリミング画像合成制御部1012の制御に従って合成動画像を作成することも行う。さらに、画像処理部1013は、トリミング範囲の位置等の種々のデータを記録しておくための仮記録部1013aを有している。この仮記録部1013aは例えばRAMで構成されている。   The image processing unit 1013 performs image processing on the image obtained by the imaging unit 102. This image processing includes, for example, color correction processing, gradation correction processing, enlargement / reduction processing, compression processing (still image compression or moving image compression) for an image obtained in the imaging unit 102, expansion processing for a compressed image, and the like. It is. The image processing unit 1013 also has a function as a moving image creation unit together with the trimming image synthesis control unit 1012, and creates a synthesized moving image according to the control of the trimming image synthesis control unit 1012. Further, the image processing unit 1013 has a temporary recording unit 1013a for recording various data such as the position of the trimming range. The temporary recording unit 1013a is configured by a RAM, for example.

撮像部102は、レンズ102a、絞り102b、撮像素子102c、A/D変換器(ADC)102d等を有している。レンズ102aは、被写体からの光束を撮像素子102cの光電変換面に結像させるための光学系である。ここで、本実施形態におけるレンズ102aは、ズームレンズを含む光学系であり、該ズームレンズを駆動することによって焦点距離を可変になされている。レンズ102aの焦点距離を変更することによって画角を調整することが可能である。絞り102bは、撮像素子102cの光電変換面への光束の入射量を制限する。撮像素子102cは、画素が2次元状に配置された光電変換面を有し、レンズを介して入射した光束を電気信号(画像信号)に変換する。ADC102dは、撮像素子102cで得られたアナログの画像信号をデジタルの画像データ(以下、単に画像と言う)に変換する。このような構成を有する撮像部102は、制御部101の制御に従って被写体を撮像し、被写体に係る画像を取得する。   The imaging unit 102 includes a lens 102a, a diaphragm 102b, an imaging element 102c, an A / D converter (ADC) 102d, and the like. The lens 102a is an optical system for forming an image of the light flux from the subject on the photoelectric conversion surface of the image sensor 102c. Here, the lens 102a in the present embodiment is an optical system including a zoom lens, and the focal length is made variable by driving the zoom lens. It is possible to adjust the angle of view by changing the focal length of the lens 102a. The stop 102b limits the amount of light incident on the photoelectric conversion surface of the image sensor 102c. The image sensor 102c has a photoelectric conversion surface in which pixels are two-dimensionally arranged, and converts a light beam incident through a lens into an electric signal (image signal). The ADC 102d converts an analog image signal obtained by the image sensor 102c into digital image data (hereinafter simply referred to as an image). The imaging unit 102 having such a configuration captures a subject under the control of the control unit 101 and acquires an image related to the subject.

顔検出部103は、撮像部102で得られた画像における顔を検出する。この顔検出部103は、例えば目、鼻、口といった顔パーツの陰影を画像中から検出することで顔を検出する。顔検出部103による顔検出結果は、撮像部102におけるレンズの焦点調節等に利用される。また、本実施形態における顔検出部103は、視線検知部1031としての機能も有している。即ち、顔検出部103の視線検知部1031は、顔の向き及び黒目と白目の位置関係を検知することで、被写体の視線を検知する。   The face detection unit 103 detects a face in the image obtained by the imaging unit 102. The face detection unit 103 detects a face by detecting shadows of face parts such as eyes, nose, and mouth from the image. The face detection result by the face detection unit 103 is used for lens focus adjustment in the imaging unit 102. Further, the face detection unit 103 in the present embodiment also has a function as the line-of-sight detection unit 1031. That is, the gaze detection unit 1031 of the face detection unit 103 detects the gaze of the subject by detecting the orientation of the face and the positional relationship between the black eyes and the white eyes.

表示部104は、例えばカメラ100の背面に設けられた液晶ディスプレイ(LCD)や有機エレクトロルミネッセンスディスプレイ(ELD)等の表示部である。この表示部104は、制御部101の制御の下、撮像部102で得られた画像等の各種の画像を表示する。   The display unit 104 is a display unit such as a liquid crystal display (LCD) or an organic electroluminescence display (ELD) provided on the back surface of the camera 100, for example. The display unit 104 displays various images such as an image obtained by the imaging unit 102 under the control of the control unit 101.

位置指定部105は、例えば表示部104と一体的に構成されたタッチパネルであり、表示部104の表示画面上の任意の位置を指定するための操作部である。この位置指定部105は、表示部104の表示画面へのユーザの指等の接触を検出し、検出位置に応じた信号を制御部101に出力する。制御部101は、位置指定部105からの信号を識別することで、表示部104の表示画面上のどの位置へのユーザの指等の接触があったかを認識する。なお、制御部101は、位置指定部105の出力から、連続的な接触位置変化を検出した場合にユーザの指等がスライドされたことを認識する。   The position designation unit 105 is a touch panel configured integrally with the display unit 104, for example, and is an operation unit for designating an arbitrary position on the display screen of the display unit 104. The position specifying unit 105 detects contact of the user's finger or the like with the display screen of the display unit 104 and outputs a signal corresponding to the detected position to the control unit 101. The control unit 101 recognizes the position on the display screen of the display unit 104 that has been touched by the user's finger or the like by identifying the signal from the position specifying unit 105. Note that the control unit 101 recognizes from the output of the position specifying unit 105 that the user's finger or the like has been slid when detecting a continuous contact position change.

操作部106は、位置指定部105以外の各種の操作部である。この操作部106は、電源ボタン、レリーズボタン、ズームスイッチ、モードダイヤル等が含まれる。電源ボタンはカメラ100の電源のオン又はオフを指示するための操作部である。レリーズボタンはカメラ100による撮影(記録用の画像取得)を指示するための操作部である。ズームスイッチは撮像部102のレンズのズーム駆動を指示するための操作部である。モードダイヤルはカメラ100の動作モードを撮影モード(静止画、動画)や再生モードに切り替えるための操作部である。   The operation unit 106 is various operation units other than the position specifying unit 105. The operation unit 106 includes a power button, a release button, a zoom switch, a mode dial, and the like. The power button is an operation unit for instructing to turn on or off the power of the camera 100. The release button is an operation unit for instructing photographing with the camera 100 (acquisition of an image for recording). The zoom switch is an operation unit for instructing zoom driving of the lens of the imaging unit 102. The mode dial is an operation unit for switching the operation mode of the camera 100 to a shooting mode (still image, moving image) or a playback mode.

記録部107は、撮像部102で得られ制御部101で圧縮されて得られた記録用の画像を記録する。この記録部107は、例えばカメラ100に着脱自在になされたメモリカードである。時計部108は、撮影日時等の各種の時間を計時する。記録部107に記録される画像の例えばヘッダ情報部に撮影日時を関連付けしておくことにより記録部107に記録される画像の管理が行い易くなる。   The recording unit 107 records an image for recording obtained by the imaging unit 102 and compressed by the control unit 101. The recording unit 107 is a memory card that is detachably attached to the camera 100, for example. The clock unit 108 measures various times such as shooting date and time. By associating the shooting date and time with, for example, the header information portion of the image recorded in the recording unit 107, it becomes easier to manage the image recorded in the recording unit 107.

図2は、本実施形態におけるカメラ100の動作の概要を示す図である。以降の動作はカメラ100の撮影モードが例えば動画撮影モードに切り替えられた際に実行される。   FIG. 2 is a diagram showing an outline of the operation of the camera 100 in the present embodiment. The subsequent operation is executed when the shooting mode of the camera 100 is switched to, for example, the moving image shooting mode.

まず、カメラ100による撮影動作を実行させるに当たって、ユーザは、図2(a)に示すように、自身が撮影したいと考える被写体がレンズ102aの画角内に全て入るようにカメラ100の設定を行う。図2(a)の例は、ユーザが結婚式やパネルディスカッション等の多人数が集まるような状況で撮影を行うような場合を示している。このような状況において、ユーザは、1人からなる第1の被写体(例えば、結婚式の場合には挨拶する人、パネルディスカッションの場合には司会者)200aと複数人からなる第2の被写体(例えば、結婚式の場合には新郎新婦、パネルディスカッションの場合には討論者)200bの両方を撮影したいと考える場合がある。この場合に、ユーザは、レンズ102aの画角A内に第1の被写体200aと第2の被写体200bの両方が入るように、本実施形態に係るカメラ100の設置位置を決め、またレンズ102aの画角を調整(図2(a)の場合はズームレンズを広角側に調整)する。   First, when executing the shooting operation by the camera 100, the user sets the camera 100 so that the subject that he / she wants to shoot falls within the angle of view of the lens 102a, as shown in FIG. . The example of FIG. 2A shows a case where the user performs shooting in a situation where a large number of people gather, such as a wedding or a panel discussion. In such a situation, the user has a first subject composed of one person (for example, a person who greets in the case of a wedding or a moderator in the case of a panel discussion) 200a and a second subject composed of a plurality of persons ( For example, there are cases where it is desired to photograph both the bride and groom in the case of a wedding and the debate in the case of a panel discussion. In this case, the user determines the installation position of the camera 100 according to the present embodiment so that both the first subject 200a and the second subject 200b are within the angle of view A of the lens 102a. The angle of view is adjusted (in the case of FIG. 2A, the zoom lens is adjusted to the wide angle side).

なお、カメラ100では電源投入後にスルー画表示(ライブビュー表示等とも呼ばれる)が実行される。スルー画表示においては撮像部102による画像の取得が一定のタイミング毎に実行される。撮像部102において画像の取得がなされる毎に、制御部101の画像処理部1013において画像処理(階調補正処理、色補正処理、縮小処理等)が施される。これにより、撮像部102で取得された画像の大きさ(画素数)が表示部104の画面大きさ(表示画素数)に合わされる。そして、画像処理された画像が制御部101の制御に従って表示部104に表示される。このようなスルー画表示により、ユーザは表示部104を用いて被写体の観察を行うことが可能である。   In the camera 100, a live view display (also referred to as a live view display) is executed after the power is turned on. In the through image display, the image acquisition by the imaging unit 102 is executed at a certain timing. Each time an image is acquired in the imaging unit 102, image processing (tone correction processing, color correction processing, reduction processing, etc.) is performed in the image processing unit 1013 of the control unit 101. Accordingly, the size (number of pixels) of the image acquired by the imaging unit 102 is matched with the screen size (number of display pixels) of the display unit 104. Then, the image processed image is displayed on the display unit 104 under the control of the control unit 101. With such a through image display, the user can observe the subject using the display unit 104.

図2(a)のようにしてカメラ100を設定すると、カメラ100のスルー画表示が開始され、図2(b)に示すようにして、レンズ102aの画角内の画像が表示部104に表示される。図2(b)のようなスルー画表示がなされている状態において、ユーザは表示部104の画面上の任意の位置に例えば指301を接触させる。上述したように、表示部104の画面上のある位置への接触があると、その位置に対応した信号が位置指定部105から制御部101に入力される。制御部101が表示部104の画面への接触を認識すると、その接触位置における人物の顔が顔検出部103により認識される。この位置において人物の顔が認識された場合には、その人物の顔を含む画像領域を示す枠表示104aがなされる。また、スルー画表示時には、拡大開始ボタン104c、記録ボタン104kも表示される。ユーザが、指301等を記録ボタン104kに接触させると、通常の動画撮影(図2(b)に示す画角内の画像を動画像として記録する処理)が行われる。   When the camera 100 is set as shown in FIG. 2A, the through image display of the camera 100 is started, and an image within the angle of view of the lens 102a is displayed on the display unit 104 as shown in FIG. Is done. In a state where the through image display as shown in FIG. 2B is being performed, the user touches, for example, the finger 301 at an arbitrary position on the screen of the display unit 104. As described above, when there is a contact with a certain position on the screen of the display unit 104, a signal corresponding to the position is input from the position specifying unit 105 to the control unit 101. When the control unit 101 recognizes contact with the screen of the display unit 104, the face detection unit 103 recognizes the face of the person at the contact position. When a person's face is recognized at this position, a frame display 104a indicating an image area including the person's face is displayed. In addition, when a through image is displayed, an enlargement start button 104c and a recording button 104k are also displayed. When the user touches the recording button 104k with the finger 301 or the like, normal moving image shooting (processing for recording an image within the angle of view shown in FIG. 2B as a moving image) is performed.

図2(b)に示すような選択がなされた後、さらに、ユーザは、図2(c)のようにして、表示部104の画面上の別の位置に例えば指301を接触させる。この場合も、制御部101が表示部104の画面への接触を認識すると、その接触位置の人物の顔を含む画像領域を示す枠表示がなされる。ここで、図2(c)はユーザが指301を矢印B方向にスライドさせて複数の人物を選択した例を示している。図2(c)のように複数の人物の顔が認識された場合にはその全ての人物の顔を含む画像領域を示す枠表示104bがなされる。   After the selection as shown in FIG. 2B is made, the user further brings the finger 301 into contact with another position on the screen of the display unit 104 as shown in FIG. Also in this case, when the control unit 101 recognizes contact with the screen of the display unit 104, a frame display indicating an image region including the face of the person at the contact position is made. Here, FIG. 2C shows an example in which the user selects a plurality of persons by sliding the finger 301 in the arrow B direction. When a plurality of human faces are recognized as shown in FIG. 2C, a frame display 104b indicating an image area including all the human faces is displayed.

その後、ユーザは、指301を拡大開始ボタン104cに接触させる。制御部101が拡大開始ボタン104cの位置への指301等の接触を認識すると、一部拡大スルー画表示が実行される。この一部拡大スルー画表示においては、ユーザによって指定された位置を含む画像領域であるトリミング領域内の画像がトリミングされて顔画像が生成される。そして、この生成された各顔画像の拡大画像と全体画像とが、表示部104の画面大きさに対応した大きさを有する所定の背景画像に合成されて合成画像が生成され、この合成画像がスルー画表示される。   Thereafter, the user brings the finger 301 into contact with the enlargement start button 104c. When the control unit 101 recognizes the contact of the finger 301 or the like to the position of the enlargement start button 104c, a partially enlarged through image display is executed. In this partially enlarged through image display, a face image is generated by trimming an image in a trimming area which is an image area including a position designated by the user. The generated enlarged image of each face image and the entire image are combined with a predetermined background image having a size corresponding to the screen size of the display unit 104 to generate a combined image. A live view is displayed.

図2(d)に一部拡大スルー画表示の例を示す。ここで、拡大画像104dの表示大きさと拡大画像104eの表示大きさとはそれぞれの画像中の顔(人物)の数に応じて変化させるものとする。また、各拡大画像の合成位置は表示部104に表示されていた全体画像中での各顔の位置関係と対応したものとする。例えば、図2(d)に示す拡大画像104dに対応した顔画像104aは表示部104の画面左上に存在し、顔画像104a中の顔の数は1つである。また、拡大画像104eに対応した顔画像104bは表示部104の画面右上に存在し、顔画像104b中の顔の数は2つである。この場合、拡大画像104dは背景画像の左上部に合成するとともに、拡大画像104eは背景画像の右上部に合成する。さらに、拡大画像104dの大きさと拡大画像104eの大きさとの比を顔の数の比と同じ1:2とする。また、このようにして背景画像に拡大画像104d、104eを合成したことによって生じる残余の部分に全体画像104fを縮小して合成する。このようにして生成される合成動画像をスルー画表示する。   FIG. 2D shows an example of a partially enlarged through image display. Here, the display size of the enlarged image 104d and the display size of the enlarged image 104e are changed in accordance with the number of faces (persons) in each image. Also, the combined position of each enlarged image corresponds to the positional relationship of each face in the entire image displayed on the display unit 104. For example, the face image 104a corresponding to the enlarged image 104d shown in FIG. 2D exists at the upper left of the screen of the display unit 104, and the number of faces in the face image 104a is one. Further, the face image 104b corresponding to the enlarged image 104e exists at the upper right of the screen of the display unit 104, and the number of faces in the face image 104b is two. In this case, the enlarged image 104d is combined with the upper left portion of the background image, and the enlarged image 104e is combined with the upper right portion of the background image. Further, the ratio between the size of the enlarged image 104d and the size of the enlarged image 104e is set to 1: 2, which is the same as the ratio of the number of faces. In addition, the entire image 104f is reduced and combined with the remaining portion generated by combining the enlarged images 104d and 104e with the background image in this way. The synthesized moving image generated in this way is displayed as a through image.

なお、図2(d)では、表示部104の長辺に沿って平行な方向である顔画像の水平方向については顔の数の比と一致するように拡大しているが、表示部104の短辺に沿って平行な方向である顔画像の垂直方向の長さについては一定倍率で拡大している。勿論、水平・垂直の長さの両方とも、顔の数の比に一致するように拡大を行うようにしても良い。   In FIG. 2D, the horizontal direction of the face image, which is a direction parallel to the long side of the display unit 104, is enlarged so as to coincide with the ratio of the number of faces. The vertical length of the face image that is parallel to the short side is enlarged at a constant magnification. Of course, enlargement may be performed so that both the horizontal and vertical lengths coincide with the ratio of the number of faces.

図2(d)に示すような一部拡大スルー画表示を行うことにより、結婚式やパネルディスカッション等において実際にやり取りをしている人物のみを抽出して拡大表示することができ、結婚式やパネルディスカッション等において実際にやり取りをしている各人物の表情を詳細に観察することができる。また、顔画像中の顔の数が多くなるほど拡大画像の大きさが大きくなるので、顔画像中の顔の数が多くなったとしても各顔の表情の観察が容易である。また、各拡大画像の位置によって人物の位置関係を大まかに把握することができるとともに、全体画像によって人物の位置関係を詳細に把握することもできる。   By performing a partially enlarged live view display as shown in FIG. 2 (d), it is possible to extract and enlarge only the person actually interacting in a wedding or a panel discussion. It is possible to observe in detail the facial expressions of each person actually communicating in a panel discussion or the like. Further, since the size of the enlarged image increases as the number of faces in the face image increases, even if the number of faces in the face image increases, the expression of each face can be easily observed. In addition, it is possible to roughly grasp the positional relationship of the person based on the position of each enlarged image, and it is also possible to grasp the positional relationship of the person in detail based on the entire image.

ここで、図2(d)に示す一部拡大スルー画表示時には、拡大終了ボタン104g、記録ボタン104hも表示される。制御部101が拡大終了ボタン104gの位置への指301等の接触を認識すると、一部拡大スルー画表示が終了され、もとのスルー画表示に戻る。また、制御部101が記録ボタン104hの位置への指301等の接触を認識すると、拡大画像104d、104eと全体画像104fとを図2(d)に示すように配置してなる合成動画像が制御部101の画像処理部1013で動画圧縮された後、記録部107に記録される。   Here, when displaying a partially enlarged through image shown in FIG. 2D, an enlargement end button 104g and a recording button 104h are also displayed. When the control unit 101 recognizes the contact of the finger 301 or the like to the position of the enlargement end button 104g, the partially enlarged through image display is ended and the original through image display is restored. When the control unit 101 recognizes the contact of the finger 301 or the like to the position of the recording button 104h, a synthesized moving image in which the enlarged images 104d and 104e and the entire image 104f are arranged as shown in FIG. The moving image is compressed by the image processing unit 1013 of the control unit 101 and then recorded in the recording unit 107.

さらに、図2(d)に示す一部拡大スルー画表示時において、制御部101が拡大画像104d又は拡大画像104eの位置への指301等の接触を認識すると、その位置の拡大画像が図2(e)に示すようにしてさらに全面スルー画表示される。ここで、図2(e)に示す全面スルー画表示時には、戻るボタン104iと記録ボタン104jも表示される。制御部101が戻るボタン104iの位置への指301等の接触を認識すると、全面スルー画表示が終了され、もとの一部拡大スルー画表示に戻る。また、制御部101が記録ボタン104jの位置への指301等の接触を認識すると、表示部104に現在表示中の拡大画像が制御部101の画像処理部1013で動画圧縮された後、記録部107に記録される。   2D, when the control unit 101 recognizes the contact of the finger 301 or the like to the position of the enlarged image 104d or the enlarged image 104e during the partial enlarged through image display shown in FIG. 2D, the enlarged image at that position is displayed in FIG. As shown in (e), a full-screen through image is further displayed. Here, during full-screen through image display shown in FIG. 2E, a return button 104i and a record button 104j are also displayed. When the control unit 101 recognizes the contact of the finger 301 or the like to the position of the return button 104i, the entire through image display is terminated and the original partially enlarged through image display is restored. When the control unit 101 recognizes the contact of the finger 301 or the like to the position of the recording button 104j, the enlarged image currently displayed on the display unit 104 is compressed by the image processing unit 1013 of the control unit 101, and then the recording unit 107 is recorded.

次に、図3を参照してカメラ100による動画像作成方法の具体的な処理の流れを説明する。図3は、カメラ100の動画像撮影動作を示すフローチャートである。   Next, a specific processing flow of the moving image creation method by the camera 100 will be described with reference to FIG. FIG. 3 is a flowchart showing the moving image shooting operation of the camera 100.

カメラ100の動作モードが動画撮影モードに設定されることによって、図3の動作が開始される。制御部101は、まず、スルー画表示を実行する(ステップS101)。なお、このスルー画表示の際には、拡大開始ボタン104c、記録ボタン104kも表示させる。上述したように、ユーザが、指301等を記録ボタン104kに接触させると、通常の動画撮影が行われる。ここでは、通常の動画撮影についての詳細な説明は省略する。   The operation of FIG. 3 is started when the operation mode of the camera 100 is set to the moving image shooting mode. First, the control unit 101 executes through image display (step S101). It should be noted that an enlargement start button 104c and a recording button 104k are also displayed during the live view display. As described above, when the user touches the recording button 104k with the finger 301 or the like, normal moving image shooting is performed. Here, a detailed description of normal movie shooting is omitted.

スルー画表示の後、制御部101は、ユーザによって指定された顔画像の数を示すパラメータn(n=1、2、3、…)を初期値1に設定する(ステップS102)。その後、制御部101は、位置指定部105の出力から、ユーザによって表示部104の画面内に対する位置指定がなされたか否かを判定する(ステップS103)。なお、ここでの位置指定はスライド操作による複数の位置の指定も含むものとする。ステップS103の判定において、位置指定がなされた場合に、制御部101は、ユーザにより指定された位置に含まれる顔を顔検出部103により検出する。そして、検出した顔を含む画像領域からなる顔画像Fnの位置(Xn,Yn)を仮記録部1013aに記録させる。また、顔画像Fnを示す枠を、例えば図2(b)や図2(c)のようにして表示部104に表示させる(ステップS104)。   After the through image display, the control unit 101 sets a parameter n (n = 1, 2, 3,...) Indicating the number of face images designated by the user to an initial value 1 (step S102). Thereafter, the control unit 101 determines from the output of the position specifying unit 105 whether or not the user has specified the position of the display unit 104 within the screen (step S103). The position designation here includes designation of a plurality of positions by a slide operation. In the determination in step S103, when the position is designated, the control unit 101 detects the face included in the position designated by the user by the face detection unit 103. Then, the position (Xn, Yn) of the face image Fn composed of the image area including the detected face is recorded in the temporary recording unit 1013a. Further, a frame indicating the face image Fn is displayed on the display unit 104 as shown in FIG. 2B or 2C, for example (step S104).

ここで、位置(Xn,Yn)は、表示部104の所定位置(例えば、左下端)を(0,0)とし、この(0,0)から水平方向、垂直方向にX軸、Y軸を設定した場合の相対位置とする。また、検出された顔が1つのみである場合の位置(Xn,Yn)は、例えば図4(a)に示すように、顔の中心位置(顔を円形と見なした場合の中心位置)とする。なお、上述したように、ユーザによるスライド操作がなされた場合には複数の顔が検出される。このような複数の顔が検出された場合の位置(Xn,Yn)は、例えば、指定された複数の顔位置を平均した位置とする。この他、図4(b)に示すように、各顔を囲むように外接する矩形の画像領域の重心位置を位置(Xn,Yn)としても良い。   Here, the position (Xn, Yn) is a predetermined position (for example, the lower left corner) of the display unit 104 (0, 0), and from this (0, 0), the X and Y axes are set in the horizontal and vertical directions. The relative position when set. The position (Xn, Yn) when there is only one detected face is the center position of the face (center position when the face is regarded as a circle), for example, as shown in FIG. And As described above, a plurality of faces are detected when the user performs a slide operation. The position (Xn, Yn) when such a plurality of faces are detected is, for example, a position obtained by averaging a plurality of designated face positions. In addition, as shown in FIG. 4B, the position of the center of gravity of the rectangular image area that circumscribes each face may be set as the position (Xn, Yn).

顔画像Fnの位置記録及び枠表示の後、制御部101はパラメータnに1を加えた後(ステップS105)、ステップS103の判定を再び行う。また、ステップS103の判定において、位置指定がなされていない場合に、制御部101は、ユーザによる位置指定済みの指示操作がなされたか、即ちユーザの指等が表示部104の画面上に表示されている拡大開始ボタン104cの位置に接触したか否かを判定する(ステップS106)。ステップS106の判定において、位置指定済みの指示操作がなされていない場合に、制御部101は、所定時間(例えば10秒程度)が経過したか否かを判定する(ステップS107)。ステップS107の判定において、所定時間が経過した場合に、制御部101は、仮記録部1013aに記録されている顔画像Fnの位置に係るデータをクリアする(ステップS108)。その後、処理がステップS101に戻り、制御部101はスルー画表示を継続する。一方、ステップS107の判定において、所定時間が経過していない場合に、制御部101は、仮記録部1013aに記録されている顔画像Fnの位置に係るデータをクリアせずに、スルー画表示を継続する。   After the position recording and frame display of the face image Fn, the control unit 101 adds 1 to the parameter n (step S105), and then performs the determination in step S103 again. Also, in the determination in step S103, if the position is not designated, the control unit 101 indicates that the user has performed the designated designation operation, that is, the user's finger or the like is displayed on the screen of the display unit 104. It is determined whether or not the position of the current enlargement start button 104c has been touched (step S106). If it is determined in step S106 that no designated operation has been performed, the control unit 101 determines whether or not a predetermined time (for example, about 10 seconds) has elapsed (step S107). If it is determined in step S107 that a predetermined time has elapsed, the control unit 101 clears data relating to the position of the face image Fn recorded in the temporary recording unit 1013a (step S108). Thereafter, the process returns to step S101, and the control unit 101 continues the through image display. On the other hand, if it is determined in step S107 that the predetermined time has not elapsed, the control unit 101 displays a through image display without clearing the data related to the position of the face image Fn recorded in the temporary recording unit 1013a. continue.

また、ステップS106の判定において、位置指定済みの指示操作がなされた場合に、制御部101は、ユーザによって指定された位置に存在する各顔画像の位置関係を判定するための指定位置関係判定処理を行う(ステップS109)。   Also, in the determination in step S106, when an instruction operation for which position designation has been performed is performed, the control unit 101 performs designated position relationship determination processing for determining the position relationship of each face image existing at the position specified by the user. Is performed (step S109).

ここで、指定位置関係判定処理について説明する。図5は、指定位置関係判定処理について示すフローチャートである。指定位置関係判定処理は、ユーザにより指定された顔画像の位置関係を概略的に判定することによって、拡大画像の合成位置を決定するための処理である。   Here, the specified positional relationship determination process will be described. FIG. 5 is a flowchart showing the specified positional relationship determination process. The designated positional relationship determination process is a process for determining the composite position of the enlarged image by roughly determining the positional relationship of the face image designated by the user.

図5において、制御部101は、顔画像の数を示すパラメータnに1をセットする(ステップS201)。次に、制御部101は、仮記録部1013aに記録されている顔画像Fn、Fn+1の位置情報(Xn,Yn)、(Xn+1,Yn+1)を取得する(ステップS202)。   In FIG. 5, the control unit 101 sets 1 to a parameter n indicating the number of face images (step S201). Next, the control unit 101 acquires position information (Xn, Yn) and (Xn + 1, Yn + 1) of the face images Fn and Fn + 1 recorded in the temporary recording unit 1013a (step S202).

その後、制御部101は、顔画像Fnの垂直方向位置Ynと顔画像Fn+1の垂直方向位置Yn+1との差が所定値以上(例えば顔画像Fnにおける顔幅以上)であるか否かを判定する(ステップS203)。ステップS203の判定において、YnとYn+1との差が所定値以上でない場合に、制御部101は、YnとYn+1の平均が表示部104の画面下半分の位置に対応しているか否かを判定する(ステップS204)。即ち、ステップS204においては、図4(a)に示すようにして、表示部104の垂直方向幅(垂直方向画素数)をHとした場合に、(Yn+(Yn+1))/2がH/2よりも小さいか否かを判定する。ステップS204の判定において、YnとYn+1の平均が表示部104の画面下半分の位置に対応している場合には、制御部101は、一部拡大スルー画表示時の拡大画像Fn'と拡大画像Fn+1'の垂直方向の合成位置を表示部104の画面下側とする(ステップS205)。一方、ステップS204の判定において、YnとYn+1の平均が表示部104の画面下半分の位置に対応していない場合に、制御部101は、一部拡大スルー画表示時の拡大画像Fn'と拡大画像Fn+1'の垂直方向の合成位置を表示部104の画面上側とする(ステップS206)。   Thereafter, the control unit 101 determines whether or not the difference between the vertical position Yn of the face image Fn and the vertical position Yn + 1 of the face image Fn + 1 is greater than or equal to a predetermined value (for example, greater than or equal to the face width in the face image Fn) ( Step S203). If it is determined in step S203 that the difference between Yn and Yn + 1 is not equal to or greater than a predetermined value, the control unit 101 determines whether the average of Yn and Yn + 1 corresponds to the position of the lower half of the screen of the display unit 104. (Step S204). That is, in step S204, as shown in FIG. 4A, when the vertical width (number of pixels in the vertical direction) of the display unit 104 is H, (Yn + (Yn + 1)) / 2 is H / 2. Or less. If it is determined in step S204 that the average of Yn and Yn + 1 corresponds to the position of the lower half of the screen of the display unit 104, the control unit 101 displays the enlarged image Fn ′ and the enlarged image when displaying a partially enlarged through image. The composite position in the vertical direction of Fn + 1 ′ is set to the lower side of the screen of the display unit 104 (step S205). On the other hand, when the average of Yn and Yn + 1 does not correspond to the position of the lower half of the screen of the display unit 104 in the determination of step S204, the control unit 101 enlarges the enlarged image Fn ′ and the enlarged image when displaying a partially enlarged through image. The composite position in the vertical direction of the image Fn + 1 ′ is set as the upper side of the screen of the display unit 104 (step S206).

例えば、図6(a)のように、2つの顔画像F1、F2がともに表示部104の画面上側の位置にある場合には、Y1とY2の平均が表示部104の画面上半分に対応した位置となる。この場合には、拡大画像F1'、F2'の合成位置を、図6(b)に示すように、画面上側位置とする。なお、実際には、拡大画像F1'、F2'の垂直方向の合成位置を画面上端位置とすることが好ましい。これは、全体画像の合成範囲をなるべく広くとれるようにするためである。一方、図6(c)のように、顔画像F1、F2がともに表示部104の画面下側の位置にある場合には、Y1とY2の平均が表示部104の画面下半分に対応した位置となる。この場合には、拡大画像F1'、F2'の合成位置を、図6(d)に示すように、画面下側位置とする。この場合も、拡大画像F1'、F2'の垂直方向の合成位置を画面下端位置とすることが好ましい。   For example, as shown in FIG. 6A, when two face images F1 and F2 are both at the upper position on the screen of the display unit 104, the average of Y1 and Y2 corresponds to the upper half of the screen of the display unit 104. Position. In this case, the combined position of the enlarged images F1 ′ and F2 ′ is set as the screen upper position as shown in FIG. In practice, it is preferable that the vertical position of the enlarged images F1 ′ and F2 ′ is the upper end position of the screen. This is to make the synthesis range of the entire image as wide as possible. On the other hand, as shown in FIG. 6C, when both the face images F <b> 1 and F <b> 2 are at the lower position on the screen of the display unit 104, the average of Y <b> 1 and Y <b> 2 corresponds to the lower half of the screen of the display unit 104. It becomes. In this case, the combined position of the enlarged images F1 ′ and F2 ′ is set as the screen lower position as shown in FIG. Also in this case, it is preferable to set the combined position of the enlarged images F1 ′ and F2 ′ in the vertical direction as the lower end position of the screen.

また、ステップS203の判定において、YnとYn+1との差が所定値以上である場合に、制御部101は、Yが大きい方の顔画像に対応した拡大画像の垂直方向の合成位置を表示部104の画面上側に、Yが小さい方の顔画像に対応した拡大画像の垂直方向の合成位置を表示部104の画面下側にする(ステップS207)。例えば、図6(e)のように、顔画像F1が表示部104の画面上側の位置にあり、顔画像F2が表示部104の画面下側の位置にある場合には、Y1とY2の差が大きくなる。この場合には、図6(f)に示すように、拡大画像F1'の合成位置を画面上側位置とし、拡大画像F2'の合成位置を画面下側位置とする。この場合も、拡大画像F1'の垂直方向の合成位置を画面上端位置とし、拡大画像F2'の垂直方向の合成位置を画面下端位置とすることが好ましい。   If the difference between Yn and Yn + 1 is greater than or equal to the predetermined value in the determination in step S203, the control unit 101 displays the vertical composite position of the enlarged image corresponding to the face image with the larger Y in the display unit 104. The vertical composition position of the enlarged image corresponding to the face image with the smaller Y is set to the lower side of the screen of the display unit 104 (step S207). For example, as shown in FIG. 6E, when the face image F1 is at the upper position on the screen of the display unit 104 and the face image F2 is at the lower position on the screen of the display unit 104, the difference between Y1 and Y2 Becomes larger. In this case, as shown in FIG. 6 (f), the combined position of the enlarged image F1 ′ is the upper screen position, and the combined position of the enlarged image F2 ′ is the lower screen position. Also in this case, it is preferable that the combined position in the vertical direction of the enlarged image F1 ′ be the upper end position of the screen and the combined position in the vertical direction of the enlarged image F2 ′ be the lower end position of the screen.

ステップS205〜S207の処理によって、拡大画像Fn'、Fn+1'の垂直方向の合成位置を決定した後、制御部101は、XとXn+1とを比較して、XnがXn+1よりも小さいか、即ち顔画像Fnが顔画像Fn+1よりも表示部104の画面左側に存在しているか否かを判定する(ステップS208)。ステップS208の判定において、XnがXn+1よりも小さい場合に、制御部101は、一部拡大スルー画表示時の拡大画像Fn'の水平方向の合成位置を表示部104の画面左側とし、拡大画像Fn+1'の水平方向の合成位置を表示部104の画面右側とする(ステップS209)。一方、ステップS208の判定において、XnがXn+1よりも小さくない場合に、制御部101は、一部拡大スルー画表示時の拡大画像Fn'の水平方向の合成位置を表示部104の画面右側とし、拡大画像Fn+1'の水平方向の合成位置を表示部104の画面左側とする(ステップS210)。   After determining the combined position in the vertical direction of the enlarged images Fn ′ and Fn + 1 ′ by the processing in steps S205 to S207, the control unit 101 compares X and Xn + 1, and whether Xn is smaller than Xn + 1, that is, the face It is determined whether or not the image Fn is present on the left side of the screen of the display unit 104 with respect to the face image Fn + 1 (step S208). If it is determined in step S208 that Xn is smaller than Xn + 1, the control unit 101 sets the horizontal composite position of the enlarged image Fn ′ at the time of partially enlarged live view display as the left side of the display unit 104, and the enlarged image Fn + 1. The horizontal composition position of 'is set as the right side of the screen of the display unit 104 (step S209). On the other hand, if it is determined in step S208 that Xn is not smaller than Xn + 1, the control unit 101 sets the horizontal composite position of the enlarged image Fn ′ at the time of displaying a partially enlarged through image as the right side of the screen of the display unit 104, The combined position of the enlarged image Fn + 1 ′ in the horizontal direction is set to the left side of the display unit 104 (step S210).

例えば、図6(a)のように、顔画像F1が表示部104の画面左側の位置にあり、顔画像F2が表示部104の画面右側の位置にある場合には、X1がX2よりも小さくなる。この場合には、拡大画像F1'の合成位置を、図6(b)に示すように、画面左側位置とする。一方、拡大画像F2'の合成位置を画面右位置とする。また、例えば、図6(c)のように、顔画像F1が表示部104の画面右側の位置にあり、顔画像F2が表示部104の画面左側の位置にある場合には、X1がX2よりも大きくなる。この場合には、拡大画像F1'の合成位置を、図6(d)に示すように、画面右側位置とする。一方、拡大画像F2'の合成位置を画面左側位置とする。なお、実際の水平方向の合成位置は画面端から順次拡大画像が並ぶように決定していくことが好ましい。例えば、拡大画像F1'の合成位置を左側、拡大画像F2'の合成位置を右側とするように決定された場合には、拡大画像F1'の水平方向の合成位置を表示部104の画面左端位置、拡大画像F2'の水平方向の合成位置を表示部104の画面右端位置とする。その後、例えば拡大画像F3'の合成位置を左側とするように決定された場合には、拡大画像F1'の右隣の位置に拡大画像F3'の水平方向の合成位置を決定する。   For example, as shown in FIG. 6A, when the face image F1 is at the position on the left side of the screen of the display unit 104 and the face image F2 is at the position on the right side of the screen of the display unit 104, X1 is smaller than X2. Become. In this case, the combined position of the enlarged image F1 ′ is set to the left side position of the screen as shown in FIG. On the other hand, the combined position of the enlarged image F2 ′ is set as the screen right position. For example, as shown in FIG. 6C, when the face image F1 is at the position on the right side of the screen of the display unit 104 and the face image F2 is at the position on the left side of the screen of the display unit 104, X1 is greater than X2. Also grows. In this case, the combined position of the enlarged image F1 ′ is set to the right side position of the screen as shown in FIG. On the other hand, the combined position of the enlarged image F2 ′ is set as the left side position of the screen. Note that it is preferable that the actual horizontal combining position is determined so that enlarged images are arranged sequentially from the screen edge. For example, when it is determined that the composite position of the enlarged image F1 ′ is on the left side and the composite position of the enlarged image F2 ′ is on the right side, the horizontal composite position of the enlarged image F1 ′ is the screen left end position of the display unit 104. The combined position in the horizontal direction of the enlarged image F2 ′ is set as the screen right end position of the display unit 104. After that, for example, when it is determined that the synthesis position of the enlarged image F3 ′ is on the left side, the horizontal synthesis position of the enlarged image F3 ′ is determined at a position adjacent to the right side of the enlarged image F1 ′.

ステップS209〜S210の処理によって、拡大画像Fn'、Fn+1'の水平方向の合成位置を決定した後、制御部101は、全ての拡大画像の合成位置を決定したか否かを判定する(ステップS211)。ステップS211の判定において、全ての拡大画像の合成位置を決定していない場合に、制御部101は、nに2を加える(ステップS212)。その後、処理がステップS202に戻り、制御部101は、次の2つの拡大画像の合成位置決定を行う。一方、ステップS211の判定において、全ての拡大画像の合成位置を決定した場合に、制御部101は、図5の処理を終了させて図3の処理に復帰する。   After determining the horizontal combined position of the enlarged images Fn ′ and Fn + 1 ′ by the processing of steps S209 to S210, the control unit 101 determines whether or not the combined position of all the enlarged images has been determined (step S211). ). If it is determined in step S211 that the combined positions of all enlarged images have not been determined, the control unit 101 adds 2 to n (step S212). Thereafter, the process returns to step S202, and the control unit 101 determines the synthesis position of the next two enlarged images. On the other hand, if it is determined in step S211 that the combined positions of all the enlarged images have been determined, the control unit 101 ends the process of FIG. 5 and returns to the process of FIG.

以上のような指定位置関係判定処理を行うことにより、一部拡大スルー画表示時に表示されている顔画像の位置関係を拡大画像の位置関係と対応させることが可能である。なお、図5の処理では、各顔画像の位置のみで各顔画像の位置関係を概略的に判定するようにしている。これに対し、視線検知部1031で検知される視線に従って拡大画像の合成位置を決定するようにしても良い。例えば、判定対象となっている2つの顔画像の視線が向き合うように合成位置を決定するようにしても良い。   By performing the specified positional relationship determination process as described above, it is possible to make the positional relationship of the face image displayed when displaying a partially enlarged through image correspond to the positional relationship of the enlarged image. In the process of FIG. 5, the positional relationship between the face images is roughly determined based only on the position of each face image. On the other hand, you may make it determine the synthetic | combination position of an enlarged image according to the gaze detected by the gaze detection part 1031. FIG. For example, the synthesis position may be determined so that the lines of sight of two face images that are the determination targets face each other.

また、図5の例では、指定位置の関係判定を2画像ずつ行うようにしている。したがって、指定された顔画像の数が奇数の場合には余りが生じることになる。この場合は、1つの顔画像に対して合成位置を決定することになる。この例としては、図5において、ステップS203をNOに分岐させてステップS204の処理を行うことで垂直方向の合成位置を決定する。また、ステップS208の判定においてXnの位置が画面左側と右側の何れに対応しているかに応じて水平方向の合成位置を決定する。例えば、Xnが画面左側の位置に対応している場合には水平方向の合成位置を画面左側に、右側の位置に対応している場合には水平方向の合成位置を画面右側に決定する。   In the example of FIG. 5, the relationship between the designated positions is determined every two images. Therefore, a surplus occurs when the number of designated face images is an odd number. In this case, the synthesis position is determined for one face image. As an example of this, in FIG. 5, step S203 is branched to NO, and the process of step S204 is performed to determine the vertical synthesis position. Further, in the determination in step S208, the horizontal combined position is determined depending on whether the position of Xn corresponds to the left side or the right side of the screen. For example, if Xn corresponds to the position on the left side of the screen, the horizontal composition position is determined on the left side of the screen, and if it corresponds to the right side position, the horizontal composition position is determined on the right side of the screen.

ここで、図3に戻って説明を続ける。ステップS109の指定位置関係判定処理の後、制御部101は、各拡大画像の表示大きさを判定するための拡大率判定処理を行う(ステップS110)。拡大率判定処理について説明する。図7は、拡大率判定処理について示すフローチャートである。拡大率判定処理は、各顔画像中の顔の数から各顔画像の拡大率を決定するための処理である。   Here, returning to FIG. 3, the description will be continued. After the designated positional relationship determination process in step S109, the control unit 101 performs an enlargement ratio determination process for determining the display size of each enlarged image (step S110). The enlargement ratio determination process will be described. FIG. 7 is a flowchart illustrating the enlargement ratio determination process. The enlargement ratio determination process is a process for determining the enlargement ratio of each face image from the number of faces in each face image.

図7において、制御部101は、顔画像の数を示すパラメータnに1をセットする(ステップS301)。次に、制御部101は、顔画像Fnに含まれる顔の数Nnを顔検出部103によって検出する(ステップS302)。なお、図3のステップ104の処理において顔の数を仮記録部1013aに記録しておけば、ステップS302においては仮記録部1013aに記録されている顔の数Nnを取得するだけで良い。   In FIG. 7, the control unit 101 sets 1 to a parameter n indicating the number of face images (step S301). Next, the control unit 101 uses the face detection unit 103 to detect the number Nn of faces included in the face image Fn (step S302). If the number of faces is recorded in the temporary recording unit 1013a in the process of step 104 in FIG. 3, it is only necessary to acquire the number Nn of faces recorded in the temporary recording unit 1013a in step S302.

顔の数Nnの取得後、制御部101は、全ての顔画像について顔の数Nnの取得が終了したか否かを判定する(ステップS303)。ステップS303の判定において、全ての顔画像についての顔の数Nnの取得が終了していない場合に、制御部101は、nに1を加える(ステップS304)。その後、処理がステップS302に戻り、制御部101は、次の顔の数の検出を行う。一方、ステップS303の判定において、全ての顔画像についての顔の数Nnの取得が終了した場合に、制御部101は、顔の数N1〜Nnの比で表示部104の画面が分割されるように各顔画像の拡大率を決定する(ステップS305)。その後、制御部101は、図7の処理を終了させて図3の処理に復帰する。   After acquiring the number of faces Nn, the control unit 101 determines whether or not the acquisition of the number of faces Nn has been completed for all face images (step S303). If it is determined in step S303 that acquisition of the number of faces Nn for all face images has not been completed, the control unit 101 adds 1 to n (step S304). Thereafter, the process returns to step S302, and the control unit 101 detects the number of the next face. On the other hand, in the determination in step S303, when the acquisition of the number of faces Nn for all face images is completed, the control unit 101 divides the screen of the display unit 104 by the ratio of the number of faces N1 to Nn. Then, the enlargement ratio of each face image is determined (step S305). Thereafter, the control unit 101 ends the process of FIG. 7 and returns to the process of FIG.

ステップS305の拡大率の決定手法の一例について説明する。ここでは例えば、図8(a)に示すように、表示部104の画面内の水平方向に沿って配置された顔画像F1と顔画像F2とがユーザによって指定された場合を例に説明する。ここで、表示部104の水平方向の幅(実際には水平方向の画素数)がLであるとする。また、顔画像F1の水平方向の幅長さ(実際には水平方向の画素数)が表示部104の画面内でl1であるとし、顔画像F2の水平方向の幅(実際には水平方向の画素数)が表示部104の画面内でl2であるとする。この場合に、拡大後の顔画像(拡大画像)F1'の水平方向の幅l'と拡大後の顔画像(拡大画像)F2'の水平方向の幅l2'との比でLが内分されるようにする。また、l1'とl2'との比は顔画像F1の顔の数N1(図8(a)の例では2)と顔画像F2の顔の数N2(図8(a)の例では1)との比と等しい。したがって、拡大率E1、E2はそれぞれ以下の(式1)に示すようにして算出できる。
E1=(N1/(N1+N2))×(L/l1)
E2=(N1/(N1+N2))×(L/l2) (式1)なお、顔画像がN個の場合の拡大率Enは以下の(式2)に示すようにして算出できる。
An example of the enlargement ratio determination method in step S305 will be described. Here, for example, as shown in FIG. 8A, a case where the user designates a face image F1 and a face image F2 arranged along the horizontal direction in the screen of the display unit 104 will be described. Here, it is assumed that the horizontal width of the display unit 104 (actually the number of pixels in the horizontal direction) is L. Further, the horizontal width of the face image F1 (actually the number of pixels in the horizontal direction) is assumed to be l1 in the screen of the display unit 104, and the horizontal width of the face image F2 (actually the horizontal direction) It is assumed that the number of pixels is 12 in the screen of the display unit 104. In this case, L is internally divided by the ratio of the horizontal width l ′ of the enlarged face image (enlarged image) F1 ′ and the horizontal width l2 ′ of the enlarged face image (enlarged image) F2 ′. So that The ratio between l1 ′ and l2 ′ is the number N1 of faces in the face image F1 (2 in the example of FIG. 8A) and the number N2 of faces in the face image F2 (1 in the example of FIG. 8A). Is equal to the ratio. Therefore, the enlargement factors E1 and E2 can be calculated as shown in the following (Equation 1).
E1 = (N1 / (N1 + N2)) × (L / l1)
E2 = (N1 / (N1 + N2)) × (L / l2) (Expression 1) Note that the enlargement ratio En for N face images can be calculated as shown in (Expression 2) below.


En=(Nn/(N1+N2+…+Nn))×(L/ln) (式2)ここで、Nnは顔画像Fnの顔の数を示し、lnは顔画像Fnの水平方向の幅(実際には水平方向の画素数)を示している。

En = (Nn / (N1 + N2 +... + Nn)) × (L / ln) (Expression 2) where Nn represents the number of faces of the face image Fn, and ln is the horizontal width of the face image Fn (in practice, The number of pixels in the horizontal direction).

図8(a)に示すようにして、スルー画表示用の画像処理が施された画像から顔画像F1、F2をトリミングし、各トリミングした顔画像のうち、顔画像F1をE1倍に拡大するとともに顔画像F2をE2倍に拡大し、これらの拡大によって得られる拡大画像F1'、F2'を合成してスルー画表示することで、上述したような一部拡大スルー画表示を行うことが可能である。なお、スルー画表示用の画像処理が施された顔画像を拡大する代わりに、図8(b)に示すように、撮像素子102cからの画像信号の読み出しの際に拡大画像F1'、F2'に相当する画像信号を取得して合成動画像を生成するようにしても良い。スルー画表示用の画像処理が施された画像は表示部104の画面大きさに応じた縮小がなされているため、拡大後の顔画像の解像度の向上は望めない。これに対し、撮像素子102cから直接トリミングした画像をスルー画表示に用いることで拡大画像の解像度を高めることが可能である。   As shown in FIG. 8A, face images F1 and F2 are trimmed from an image subjected to image processing for through image display, and among the trimmed face images, face image F1 is enlarged E1 times. At the same time, the face image F2 is enlarged to E2 times, and the enlarged images F1 ′ and F2 ′ obtained by the enlargement are combined and displayed as a through image, so that the partially enlarged through image display as described above can be performed. It is. Instead of enlarging the face image that has been subjected to image processing for through image display, as shown in FIG. 8B, enlarged images F1 ′ and F2 ′ are read when the image signal is read from the image sensor 102c. An image signal corresponding to the above may be acquired to generate a composite moving image. Since the image subjected to the image processing for through image display is reduced according to the screen size of the display unit 104, the resolution of the enlarged face image cannot be expected. On the other hand, it is possible to increase the resolution of the enlarged image by using an image directly trimmed from the image sensor 102c for the through image display.

なお、図8(a)は拡大画像F1'と拡大画像F2'との間に隙間を設けないように合成を行う例を示している。これに対し、図2(d)に示すようにして、拡大画像F1'と拡大画像F2'との間に隙間を設けるように合成を行っても良い。この場合には、隙間分を含めて顔画像F1と顔画像F2の拡大率を算出する。   FIG. 8A shows an example in which composition is performed such that no gap is provided between the enlarged image F1 ′ and the enlarged image F2 ′. On the other hand, as shown in FIG. 2D, the composition may be performed so that a gap is provided between the enlarged image F1 ′ and the enlarged image F2 ′. In this case, the enlargement ratio of the face image F1 and the face image F2 including the gap is calculated.

また、図7の例では顔画像Fn中の顔の数を単純に数えて拡大率を決定するようにしている。この場合、例えば図9(a)に示すように顔画像内の水平・垂直の両方向に顔が配置されているような場合では不必要な顔画像の拡大が行われてしまうおそれがある。実際には、図9(b)のように必要な拡大率で拡大を行えたほうが良い。このためには、単純に顔の数に応じて拡大するのではなく、水平方向や垂直方向といった表示部104の画面の一辺に沿った方向に並んだ顔の数に応じて拡大するようにする。   In the example of FIG. 7, the number of faces in the face image Fn is simply counted to determine the enlargement ratio. In this case, for example, as shown in FIG. 9A, when the face is arranged in both the horizontal and vertical directions in the face image, unnecessary enlargement of the face image may be performed. Actually, it is better to enlarge at a necessary enlargement ratio as shown in FIG. For this purpose, it is not simply enlarged according to the number of faces, but is enlarged according to the number of faces arranged in a direction along one side of the screen of the display unit 104 such as a horizontal direction or a vertical direction. .

図10は、拡大率判定処理の変形例について示す図である。図10において、制御部101は、顔画像の数を示すパラメータnに1をセットする(ステップS401)。次に、制御部101は、顔画像Fnに含まれる全ての顔のX座標であるXFn1〜XFnNを顔検出部103によって検出する(ステップS402)。ここで、XFn1〜XFnNは上述の位置Xnではなく、顔画像Fnに含まれる個々の顔のX座標である。なお、図3のステップ104の処理において各顔のX座標を仮記録部1013aに記録しておけば、ステップS402においては仮記録部1013aに記録されている各顔のX座標を取得するだけで良い。   FIG. 10 is a diagram illustrating a modification of the enlargement ratio determination process. In FIG. 10, the control unit 101 sets 1 to a parameter n indicating the number of face images (step S401). Next, the control unit 101 uses the face detection unit 103 to detect XFn1 to XFnN, which are X coordinates of all the faces included in the face image Fn (step S402). Here, XFn1 to XFnN are not the position Xn described above, but the X coordinates of individual faces included in the face image Fn. If the X coordinate of each face is recorded in the temporary recording unit 1013a in the process of step 104 in FIG. 3, only the X coordinate of each face recorded in the temporary recording unit 1013a is acquired in step S402. good.

各顔のX座標XFn1〜XFnNの検出後、制御部101は、XFn1〜XFnNの最大と最小値との差ΔXnを算出する(ステップS403)。図11の例では、顔画像F1は顔の数が1つである。したがって、ΔX1は0となる。また、顔画像F2は顔の数が5つである。そして、ΔX2は顔画像F2中で最も右側にある顔F22のX座標と顔画像F2中で最も左側にある顔F21のX座標との差となる。   After detecting the X coordinates XFn1 to XFnN of each face, the control unit 101 calculates a difference ΔXn between the maximum and minimum values of XFn1 to XFnN (step S403). In the example of FIG. 11, the face image F1 has one face. Therefore, ΔX1 is zero. Further, the face image F2 has five faces. ΔX2 is a difference between the X coordinate of the rightmost face F22 in the face image F2 and the X coordinate of the leftmost face F21 in the face image F2.

ΔXnの算出後、制御部101は、顔画像Fnに含まれる顔の幅の平均FLnを算出する(ステップS404)。例えば、図11の例において、顔画像F1は顔の数が1つである。したがって、FL1はその1つの顔の幅(水平方向の画素数)となる。一方、顔画像F2は顔の数が5つである。したがって、FL2は5つの顔の幅(水平方向の画素数)の平均となる。なお、図11の例では5つの顔の幅が全て等しい場合を例示している。   After calculating ΔXn, the control unit 101 calculates an average FLn of the widths of the faces included in the face image Fn (step S404). For example, in the example of FIG. 11, the face image F1 has one face. Therefore, FL1 is the width of the face (the number of pixels in the horizontal direction). On the other hand, the face image F2 has five faces. Therefore, FL2 is the average of the widths of the five faces (the number of pixels in the horizontal direction). Note that the example of FIG. 11 illustrates the case where the widths of all five faces are equal.

FLnの算出後、制御部101は、水平方向に並ぶ顔の数Nnを以下の(式3)に従って算出する(ステップS405)。
Nn=(ΔXn+FLn)/FLn(端数切り上げ) (式3) 例えば、図11の例において、顔画像F1についての顔の数N1は(0+FL1)/FL1=1となる。一方、顔画像F2についての顔の数N2は(2FL2+FL2)/FL2=3となる。
After calculating FLn, the control unit 101 calculates the number Nn of faces arranged in the horizontal direction according to the following (Equation 3) (step S405).
Nn = (ΔXn + FLn) / FLn (rounded up) (Expression 3) For example, in the example of FIG. 11, the number of faces N1 for the face image F1 is (0 + FL1) / FL1 = 1. On the other hand, the number of faces N2 for the face image F2 is (2FL2 + FL2) / FL2 = 3.

水平方向に並ぶ顔の数Nnを算出した後、制御部101は、全ての顔画像について顔の数Nnの取得が終了したか否かを判定する(ステップS406)。ステップS406の判定において、全ての顔画像についての顔の数Nnの取得が終了していない場合に、制御部101は、nに1を加える(ステップS407)。その後、処理がステップS402に戻り、制御部101は、次の顔の数の検出を行う。一方、ステップS406の判定において、全ての顔画像についての顔の数nの取得が終了した場合に、制御部101は、顔の数N1〜Nnの比で表示部104の画面が分割されるように各顔画像の拡大率を決定する(ステップS408)。なお、図11の例では、水平・垂直とも1:3で内分するように顔画像F1、F2の拡大率を決定した例を示している。拡大率の決定後、制御部101は、図10の処理を終了させて図3の処理に復帰する。   After calculating the number Nn of faces arranged in the horizontal direction, the control unit 101 determines whether or not the acquisition of the number Nn of faces has been completed for all the face images (step S406). If the acquisition of the number of faces Nn for all face images has not been completed in the determination in step S406, the control unit 101 adds 1 to n (step S407). Thereafter, the process returns to step S402, and the control unit 101 detects the number of next faces. On the other hand, in the determination of step S406, when the acquisition of the number n of faces for all the face images is completed, the control unit 101 divides the screen of the display unit 104 by the ratio of the number of faces N1 to Nn. Then, the enlargement ratio of each face image is determined (step S408). In the example of FIG. 11, an example is shown in which the enlargement ratios of the face images F1 and F2 are determined so that the horizontal and vertical divisions are 1: 3. After determining the enlargement ratio, the control unit 101 ends the process of FIG. 10 and returns to the process of FIG.

図10のような処理に従って拡大率を決定することにより、不必要な拡大が行われる可能性を低減することができる。なお、図10の処理では水平方向に沿った顔の数で拡大率を決定するようにしているが、垂直方向に沿った顔の数で拡大率を決定するようにしても良い。   By determining the enlargement ratio according to the processing as shown in FIG. 10, the possibility of unnecessary enlargement can be reduced. In the process of FIG. 10, the enlargement ratio is determined by the number of faces along the horizontal direction, but the enlargement ratio may be determined by the number of faces along the vertical direction.

ここで、図3に戻って説明を続ける。ステップS110の拡大率判定処理の後、制御部101は、一部拡大スルー画表示を行う(ステップS111)。この一部拡大スルー画表示処理について説明する。図12は、一部拡大スルー画表示処理について示すフローチャートである。一部拡大スルー画表示処理は、各顔画像を拡大した拡大画像と全体画像とを背景画像に合成して得られる合成動画像をスルー画表示するための処理である。   Here, returning to FIG. 3, the description will be continued. After the enlargement rate determination process in step S110, the control unit 101 performs a partially enlarged through image display (step S111). This partially enlarged through image display process will be described. FIG. 12 is a flowchart showing a partially enlarged through image display process. The partially enlarged through image display process is a process for displaying a combined moving image obtained by combining an enlarged image obtained by enlarging each face image and an entire image with a background image, as a through image.

図12において、制御部101は、ユーザによって指定された各顔画像をスルー画表示用の画像処理がなされた画像からトリミングする。そして、制御部101は、トリミングした各顔画像を拡大率判定処理で決定された拡大率で拡大した後、拡大によって得られる各拡大画像を、背景画像中の、指定位置関係判定処理で決定された各合成位置に合成する(ステップS501)。次に、制御部101は、各拡大画像を合成した場合に残余する余白部分を検出する(ステップS502)。例えば、図13のようにして拡大画像F1'が画面左上端位置に合成された場合、図13に示す、拡大画像F1'の部分を除く領域が余白部分となる。ただし、余白部分に合成する全体画像は矩形画像である。したがって、余白部分も矩形領域とする必要がある。このため、制御部101は、拡大画像F1'の合成によって残余した部分を複数の矩形領域S1、S2に分割し、それぞれの矩形領域を余白部分として検出する。実際には、拡大画像は複数合成されるので、複数の拡大画像を合成した場合に残余する部分を複数の矩形領域に分割して余白部分を検出する。   In FIG. 12, the control unit 101 trims each face image designated by the user from an image that has been subjected to image processing for through image display. Then, the control unit 101 enlarges each trimmed face image at the enlargement ratio determined by the enlargement ratio determination process, and then determines each enlarged image obtained by the enlargement by the designated positional relationship determination process in the background image. Then, they are synthesized at the respective synthesis positions (step S501). Next, the control unit 101 detects a blank portion remaining when the enlarged images are combined (step S502). For example, when the enlarged image F1 ′ is synthesized at the upper left position of the screen as shown in FIG. 13, the area excluding the portion of the enlarged image F1 ′ shown in FIG. However, the entire image to be combined with the margin part is a rectangular image. Therefore, it is necessary to make the margin part a rectangular area. For this reason, the control unit 101 divides the remaining portion by the synthesis of the enlarged image F1 ′ into a plurality of rectangular regions S1 and S2, and detects each rectangular region as a blank portion. Actually, since a plurality of enlarged images are combined, a remaining portion when a plurality of enlarged images are combined is divided into a plurality of rectangular areas to detect a blank portion.

余白部分の検出後、制御部101は、余白部分の面積(画素数)比較を行う(ステップS503)。そして、制御部101は、面積比較の結果、最大の面積を有する余白部分に全体画像を合成する(ステップS504)。例えば、図14(a)のようにして余白部分S1、S2が検出された場合には余白部分S2に全体画像Aを合成する。一方、図14(b)のようにして余白部分S1、S2が検出された場合には余白部分S1に全体画像Aを合成する。なお、全体画像は余白部分に収まる大きさではないので、合成する際には全体画像を縮小する必要がある。この際は、単純に余白部分の大きさに収まるように全体画像の水平方向及び垂直方向を一律の縮小率で縮小すれば良い。また、一部拡大スルー画表示時において表示される全体画像からは、ユーザが指定した顔画像の位置関係が分かれば良い。したがって、全体画像のアスペクト比を変える、即ち水平方向と垂直方向とで縮小率を変更して縮小するようにしても良い。これにより、余白部分の大きさに応じた大きさで全体画像を合成することが可能である。   After detecting the margin part, the control unit 101 compares the area (number of pixels) of the margin part (step S503). Then, as a result of the area comparison, the control unit 101 synthesizes the entire image with the blank portion having the maximum area (step S504). For example, when the blank portions S1 and S2 are detected as shown in FIG. 14A, the entire image A is synthesized with the blank portion S2. On the other hand, when the margin portions S1 and S2 are detected as shown in FIG. 14B, the entire image A is synthesized with the margin portion S1. Since the entire image is not large enough to fit in the margin, it is necessary to reduce the entire image when combining. At this time, the horizontal direction and the vertical direction of the entire image may be reduced at a uniform reduction rate so that the size of the blank portion is simply accommodated. Further, it is only necessary to know the positional relationship of the face image designated by the user from the entire image displayed when the partially enlarged through image is displayed. Therefore, the aspect ratio of the entire image may be changed, that is, the image may be reduced by changing the reduction ratio between the horizontal direction and the vertical direction. Thereby, it is possible to synthesize the entire image with a size corresponding to the size of the margin.

全体画像の合成後、制御部101は、合成動画像をスルー画表示する(ステップS505)。その後、制御部101は、図12の処理を終了させて図3の処理に復帰する。   After synthesizing the entire image, the control unit 101 displays the synthesized moving image as a through image (step S505). Thereafter, the control unit 101 ends the process of FIG. 12 and returns to the process of FIG.

ここで、図3に戻って説明を続ける。ステップS111の一部拡大スルー画表示の後、制御部101は、動画像記録を行うか否かを判定する(ステップS112)。このステップS112の判定においては、ユーザの指等が表示部104の画面上に表示されている記録ボタン104hの位置に接触した場合或いは操作部106のレリーズボタンが押された場合に動画像記録を行うと判定する。ステップS112の判定において、動画像記録を行う場合に、制御部101は、一部拡大スルー画表示されている合成動画像を画像処理部1013において動画像圧縮して記録部107に記録させる(ステップS113)。動画像記録の開始後、制御部101は、動画像記録を終了するか否かを判定する(ステップS114)。このステップS114の判定においては、ユーザの指等が表示部104の画面上に表示されている図示しない記録終了ボタンの位置に接触した場合或いは操作部106のレリーズボタンが再び押された場合に動画像記録を終了すると判定する。ステップS114の判定において、動画像記録を終了しない場合には処理がステップS113に戻り、制御部101は動画像記録を継続する。一方、ステップS114の判定において、動画像記録を終了する場合に、制御部101は図3の処理を終了させる。   Here, returning to FIG. 3, the description will be continued. After displaying the partially enlarged through image in step S111, the control unit 101 determines whether or not to perform moving image recording (step S112). In the determination in step S112, moving image recording is performed when the user's finger or the like touches the position of the recording button 104h displayed on the screen of the display unit 104 or when the release button of the operation unit 106 is pressed. Determine to do. In the determination in step S112, when moving image recording is performed, the control unit 101 compresses the moving image that is displayed as a partially enlarged through image in the image processing unit 1013, and causes the recording unit 107 to record the compressed moving image (step S112). S113). After starting the moving image recording, the control unit 101 determines whether or not to end the moving image recording (step S114). In the determination in step S114, when the user's finger or the like touches the position of a recording end button (not shown) displayed on the screen of the display unit 104, or when the release button of the operation unit 106 is pressed again, It is determined that the image recording is finished. If it is determined in step S114 that the moving image recording is not terminated, the process returns to step S113, and the control unit 101 continues the moving image recording. On the other hand, in the determination in step S114, when the moving image recording is ended, the control unit 101 ends the process of FIG.

また、ステップS112の判定において、動画像記録を行わない場合に、制御部101は、一部拡大スルー画表示を終了するか、即ちユーザの指等が表示部104の画面上に表示されている拡大終了ボタン104gの位置に接触したか否かを判定する(ステップS115)。ステップS115の判定において、一部拡大スルー画表示を終了する場合には、処理がステップS101に戻る。この場合に、制御部101は、通常のスルー画表示を実行する。一方、ステップS115の判定において、一部拡大スルー画表示を終了しない場合に、制御部101は、一部拡大スルー画表示されている画像中の顔画像が選択されたか、即ちユーザの指等が表示部104の画面上に表示されている顔画像の位置に接触したか否かを判定する(ステップS116)。ステップS116の判定において、顔画像が選択されていない場合には処理がステップS111に戻る。この場合に、制御部101は、一部拡大スルー画表示を継続する。   Further, in the determination in step S112, when the moving image recording is not performed, the control unit 101 ends the partially enlarged through image display, that is, the user's finger or the like is displayed on the screen of the display unit 104. It is determined whether or not the position of the enlargement end button 104g has been touched (step S115). If it is determined in step S115 that the partially enlarged through image display is to be terminated, the process returns to step S101. In this case, the control unit 101 performs normal through image display. On the other hand, if it is determined in step S115 that the partial enlarged live view display is not to be ended, the control unit 101 has selected a face image in the partially displayed live view image, that is, the user's finger or the like. It is determined whether or not the position of the face image displayed on the screen of the display unit 104 has been touched (step S116). If it is determined in step S116 that no face image is selected, the process returns to step S111. In this case, the control unit 101 continues the partially enlarged through image display.

また、ステップS116の判定において、顔画像が選択された場合に、制御部101は、ユーザによって選択された顔画像の部分をトリミングし、このトリミングした顔画像を画像処理部1013において画像処理した後、図2(e)のようにして表示部104に全画面表示させる(ステップS117)。この後、制御部101は、動画像記録を行うか否かを判定する(ステップS118)。ステップS118の判定において、動画像記録を行う場合に、制御部101は、全画面スルー画表示されている顔の動画像を画像処理部1013において動画像圧縮して記録部107に記録させる(ステップS119)。動画像記録の開始後、制御部101は、動画像記録を終了するか否かを判定する(ステップS120)。ステップS120の判定において、動画像記録を終了しない場合には処理がステップS119に戻り、制御部101は動画像記録を継続する。一方、ステップS120の判定において、動画像記録を終了する場合に、制御部101は図3の処理を終了させる。   In the determination in step S116, when a face image is selected, the control unit 101 trims the face image portion selected by the user, and the image processing unit 1013 performs image processing on the trimmed face image. As shown in FIG. 2E, the display unit 104 displays the entire screen (step S117). Thereafter, the control unit 101 determines whether or not to perform moving image recording (step S118). In the determination in step S118, when moving image recording is performed, the control unit 101 compresses the moving image of the face displayed on the full screen through the moving image in the image processing unit 1013 and causes the recording unit 107 to record the moving image (step S118). S119). After starting the moving image recording, the control unit 101 determines whether or not to end the moving image recording (step S120). If it is determined in step S120 that the moving image recording is not terminated, the process returns to step S119, and the control unit 101 continues the moving image recording. On the other hand, when the moving image recording is ended in the determination in step S120, the control unit 101 ends the process of FIG.

また、ステップS118の判定において、動画像記録を行わない場合に、制御部101は、戻る操作がなされたか、即ちユーザの指等が表示部104の画面上に表示されている戻るボタン104iの位置に接触したか否かを判定する(ステップS121)。ステップS121の判定において、戻る操作がなされた場合には処理がステップS111に戻る。この場合に、制御部101は一部拡大スルー画表示を行う。一方、ステップS121の判定において、戻る操作がなされていない場合には処理がステップS117に戻る。この場合に、制御部101は顔画像の全面スルー画表示を継続する。   In the determination of step S118, when moving image recording is not performed, the control unit 101 determines whether the return operation has been performed, that is, the position of the return button 104i on which the user's finger or the like is displayed on the screen of the display unit 104. It is determined whether or not a contact has been made (step S121). If it is determined in step S121 that a return operation has been performed, the process returns to step S111. In this case, the control unit 101 performs partial enlarged through image display. On the other hand, if it is determined in step S121 that no return operation has been performed, the process returns to step S117. In this case, the control unit 101 continues to display the entire face image of the face image.

以上説明したように、本実施形態によれば、全体画像中の顔画像を抽出して拡大した拡大画像と全体画像とを合成した画像をスルー画表示することにより、複数の被写体の表情や反応等を詳細に観察することが可能である。また、顔画像の拡大率を顔画像中の顔の数に応じて変えるようにしているので、顔画像中に複数の顔が含まれていたとしても各顔を詳細に観察することが可能である。さらに、顔画像の拡大率を表示部104の画面の一辺と平行な方向に並ぶ顔の数に従って決定するようにすることで、顔画像が不必要に拡大される可能性を低減させることも可能である。   As described above, according to the present embodiment, by displaying a through image of an image obtained by synthesizing an enlarged image obtained by extracting and enlarging a face image from the entire image and the entire image, expressions and reactions of a plurality of subjects are displayed. Etc. can be observed in detail. In addition, since the enlargement ratio of the face image is changed according to the number of faces in the face image, each face can be observed in detail even if the face image includes a plurality of faces. is there. Furthermore, the possibility that the face image is unnecessarily enlarged can be reduced by determining the enlargement ratio of the face image according to the number of faces arranged in a direction parallel to one side of the screen of the display unit 104. It is.

また、拡大画像の配置を全体画像中の拡大画像の配置に対応させるようにすることで、拡大画像のみでも各顔の位置関係を大まかに把握することができる。また、拡大画像の合成位置を表示部104の画面端位置から順次決定されるようにすることにより、全体画像を合成するための余白部分を確保し易くなる。   In addition, by making the arrangement of the enlarged images correspond to the arrangement of the enlarged images in the entire image, it is possible to roughly grasp the positional relationship between the faces even with the enlarged images alone. Further, by sequentially determining the composition position of the enlarged image from the screen edge position of the display unit 104, it becomes easy to secure a margin part for compositing the entire image.

なお、上述した実施形態においては、ユーザがn個の顔画像を指定できるようになっている。しかしながら、指定できる顔画像の数が多くなると、一部拡大スルー画表示によって表示される個々の拡大画像の大きさが小さくなって被写体の表情等の観察が困難になるおそれがある。したがって、指定できる顔画像の数を制限して、拡大画像が必要以上に小さくならないようにしても良い。また、表示部104に一度に表示させる拡大画像の数を制限して、表示部104に表示させる拡大画像を所定時間毎に順次切り替えるようにしても良い。   In the above-described embodiment, the user can designate n face images. However, if the number of face images that can be specified increases, the size of each enlarged image displayed by partially enlarged through image display may be reduced, making it difficult to observe the facial expression of the subject. Therefore, the number of face images that can be specified may be limited so that the enlarged image does not become unnecessarily small. Further, the number of enlarged images displayed on the display unit 104 at a time may be limited, and the enlarged images displayed on the display unit 104 may be sequentially switched every predetermined time.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…カメラ、101…制御部、102…撮像部、102a…レンズ、102b…絞り、102c…撮像素子、102d…A/D変換器(ADC)、103…顔検出部、104…表示部、105…位置指定部、106…操作部、107…記録部、108…時計部、1011…トリミング制御部、1012…トリミング画像合成制御部、1013…画像処理部、1013a…仮記録部、1031…視線検知部   DESCRIPTION OF SYMBOLS 100 ... Camera, 101 ... Control part, 102 ... Imaging part, 102a ... Lens, 102b ... Aperture, 102c ... Imaging element, 102d ... A / D converter (ADC), 103 ... Face detection part, 104 ... Display part, 105 ... Position specifying part 106 ... Operation part 107 ... Recording part 108 ... Clock part 1011 ... Trimming control part 1012 ... Trimming image composition control part 1013 ... Image processing part 1013a ... Temporary recording part 1031 ... Gaze detection Part

Claims (11)

画像を表示する表示部と、
上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、
上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、
上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部と、
を具備し、
上記拡大した顔画像が選択された場合に、上記拡大した顔画像の記録を行うことを特徴とする画像作成装置。
A display for displaying an image;
A face detection unit for detecting a face included in an image region in the image displayed on the display unit;
A face image generation unit that generates a face image including the face detected by the face detection unit for each image region;
An enlargement rate determination unit that determines an enlargement rate of each face image generated by the face image generation unit according to the number of faces included in the image region;
An image creation unit that creates a composite image in which a face image enlarged according to the enlargement rate determined by the enlargement rate determination unit is synthesized in a background image corresponding to the screen size of the display unit;
Comprising
An image creating apparatus that records the enlarged face image when the enlarged face image is selected.
画像を表示する表示部と、
上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、
上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、
上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部と、
を具備し、
記録の指示に従い、上記合成画像の記録を行うことを特徴とする画像作成装置。
A display for displaying an image;
A face detection unit for detecting a face included in an image region in the image displayed on the display unit;
A face image generation unit that generates a face image including the face detected by the face detection unit for each image region;
An enlargement rate determination unit that determines an enlargement rate of each face image generated by the face image generation unit according to the number of faces included in the image region;
An image creation unit that creates a composite image in which a face image enlarged according to the enlargement rate determined by the enlargement rate determination unit is synthesized in a background image corresponding to the screen size of the display unit;
Comprising
An image creating apparatus that records the composite image in accordance with a recording instruction.
上記合成画像は拡大合成画像の表示を終了するボタンが合成して作成され、上記ボタンの操作指示に従い、合成画像の表示をスルー画に戻すことを特徴とする請求項1又は2に記載の画像作成装置。   3. The image according to claim 1, wherein the synthesized image is created by synthesizing a button for terminating the display of the enlarged synthesized image, and the synthesized image is returned to a through image in accordance with an operation instruction of the button. Creation device. 上記画像作成部は、上記合成画像の作成の際に、上記拡大した顔画像の合成によって上記背景画像に生じる残余の部分に上記表示部に表示されている画像の全体を示す画像を縮小してさらに合成することを特徴とする請求項1乃至3の何れか1項に記載の画像作成装置。   The image creation unit reduces an image showing the entire image displayed on the display unit to a remaining portion generated in the background image by the synthesis of the enlarged face image when creating the composite image. The image creating apparatus according to claim 1, further comprising a composition. 上記拡大率判定部は、上記各顔画像中の顔の数の比で上記表示部の画面が分割されるように上記各顔画像の拡大率を決定することを特徴とする請求項1乃至4の何れか1項に記載の画像作成装置。   5. The enlargement ratio determining unit determines the enlargement ratio of each face image so that a screen of the display unit is divided by a ratio of the number of faces in each face image. The image creating apparatus according to any one of the above. 上記拡大率判定部は、上記各顔画像中において上記表示部の画面の一辺に沿って並ぶ顔の数の比で上記表示部の画面が分割されるように上記各顔画像の拡大率を決定することを特徴とする請求項1乃至5の何れか1項に記載の画像作成装置。   The enlargement factor determination unit determines the enlargement factor of each face image so that the screen of the display unit is divided by the ratio of the number of faces arranged along one side of the screen of the display unit in each face image. The image creating apparatus according to claim 1, wherein the image creating apparatus includes: 上記画像領域の位置関係に従って上記顔画像生成部で生成された各顔画像の合成位置を決定する指定位置関係判定部をさらに具備し、
上記指定位置関係判定部は、上記表示部の画面端に対応した上記顔画像の合成位置に上記各顔画像の合成位置を決定することを特徴とする請求項3に記載の画像作成装置。
A specified positional relationship determination unit that determines a combined position of each face image generated by the face image generation unit according to the positional relationship of the image region;
The image creation apparatus according to claim 3, wherein the specified positional relationship determination unit determines a synthesis position of each face image at a synthesis position of the face image corresponding to a screen edge of the display unit.
上記画像作成部は、上記表示部に表示されている画像の全体を示す画像のアスペクト比を上記残余の部分の形状に応じて変えるように上記縮小を行うことを特徴とする請求項4に記載の画像作成装置。   The said image creation part performs the said reduction | decrease so that the aspect-ratio of the image which shows the whole image currently displayed on the said display part may be changed according to the shape of the said remaining part. Image creation device. 被写体を撮像して該被写体に係る画像を取得する撮像部をさらに具備し、
上記顔画像生成部は、上記撮像部で取得された画像から上記顔画像を生成することを特徴とする請求項1乃至8の何れか1項に記載の画像作成装置。
An imaging unit that captures an image of the subject and acquires an image related to the subject;
The image creating apparatus according to claim 1, wherein the face image generation unit generates the face image from an image acquired by the imaging unit.
表示部に表示されている画像中の画像領域に含まれる顔を顔検出部によって検出し、
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、
上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、
上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、
上記画像領域が選択された場合に、上記選択された画像の記録を行うことを特徴とする画像作成方法。
The face included in the image area in the image displayed on the display unit is detected by the face detection unit,
Generating a face image including a face detected by the face detection unit for each image region;
Determine the enlargement ratio of each face image generated by the trimming control unit according to the number of faces included in the image area,
In the background image corresponding to the screen size of the display unit, create a composite image that combines the face image enlarged according to the determined enlargement rate,
An image creating method comprising: recording the selected image when the image area is selected.
表示部に表示されている画像中の画像領域に含まれる顔を顔検出部によって検出し、
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、
上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、
上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、
記録の指示に従い、上記合成画像の記録を行うことを特徴とする画像作成方法。
The face included in the image area in the image displayed on the display unit is detected by the face detection unit,
Generating a face image including a face detected by the face detection unit for each image region;
Determine the enlargement ratio of each face image generated by the trimming control unit according to the number of faces included in the image area,
In the background image corresponding to the screen size of the display unit, create a composite image that combines the face image enlarged according to the determined enlargement rate,
An image creating method, wherein the composite image is recorded in accordance with a recording instruction.
JP2014025772A 2014-02-13 2014-02-13 Image creating apparatus and image creating method Expired - Fee Related JP5718502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014025772A JP5718502B2 (en) 2014-02-13 2014-02-13 Image creating apparatus and image creating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014025772A JP5718502B2 (en) 2014-02-13 2014-02-13 Image creating apparatus and image creating method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009251336A Division JP5479850B2 (en) 2009-10-30 2009-10-30 Moving image creating apparatus and moving image creating method

Publications (2)

Publication Number Publication Date
JP2014135732A JP2014135732A (en) 2014-07-24
JP5718502B2 true JP5718502B2 (en) 2015-05-13

Family

ID=51413680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014025772A Expired - Fee Related JP5718502B2 (en) 2014-02-13 2014-02-13 Image creating apparatus and image creating method

Country Status (1)

Country Link
JP (1) JP5718502B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102193567B1 (en) * 2015-06-17 2020-12-22 삼성전자주식회사 Electronic Apparatus displaying a plurality of images and image processing method thereof
KR20210101087A (en) 2020-02-07 2021-08-18 삼성전자주식회사 An electronic device and method for displaying image at the electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4746295B2 (en) * 2003-08-25 2011-08-10 富士フイルム株式会社 Digital camera and photographing method
JP4625356B2 (en) * 2005-03-30 2011-02-02 セイコーエプソン株式会社 Image trimming with reduced user burden
JP4794584B2 (en) * 2007-03-30 2011-10-19 カシオ計算機株式会社 Imaging device, image display device, and program thereof
JP2008262416A (en) * 2007-04-12 2008-10-30 Olympus Imaging Corp Image reproduction device, image reproduction program, recording medium and image reproduction method

Also Published As

Publication number Publication date
JP2014135732A (en) 2014-07-24

Similar Documents

Publication Publication Date Title
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
JP5036599B2 (en) Imaging device
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
JP2011130382A (en) Image-capturing apparatus and control method therefor
JP2011147109A (en) Image capturing apparatus and image processing apparatus
CN108605087B (en) Terminal photographing method and device and terminal
JP2010093422A (en) Imaging apparatus
JP2014232181A (en) Imaging device and control method thereof
JP2009267787A (en) Composition determination device, composition determination method, and program
JP2005128156A (en) Focusing device and method
JP2011023814A (en) Imaging apparatus
JP5479850B2 (en) Moving image creating apparatus and moving image creating method
JP2008281385A (en) Image processing device
JP6116436B2 (en) Image processing apparatus and image processing method
JP2009288945A (en) Image display unit and image display method
JP2013247543A (en) Imaging device, display device, image processing method and program
JP5718502B2 (en) Image creating apparatus and image creating method
JP2017143354A (en) Image processing apparatus and image processing method
JP6104066B2 (en) Image processing apparatus and image processing method
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
JP6213470B2 (en) Image processing apparatus, imaging apparatus, and program
KR101700360B1 (en) Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method
JP2008282077A (en) Image pickup device and image processing method, and program therefor
JP2014236244A (en) Image processing system, image processing program, and digital camera
JP2015118274A (en) Imaging device, imaging device control method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150318

R151 Written notification of patent or utility model registration

Ref document number: 5718502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees