JP5555344B2 - IMAGING DEVICE AND IMAGING DEVICE PROGRAM - Google Patents

IMAGING DEVICE AND IMAGING DEVICE PROGRAM Download PDF

Info

Publication number
JP5555344B2
JP5555344B2 JP2013042466A JP2013042466A JP5555344B2 JP 5555344 B2 JP5555344 B2 JP 5555344B2 JP 2013042466 A JP2013042466 A JP 2013042466A JP 2013042466 A JP2013042466 A JP 2013042466A JP 5555344 B2 JP5555344 B2 JP 5555344B2
Authority
JP
Japan
Prior art keywords
image
display unit
unit
displayed
enlarged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013042466A
Other languages
Japanese (ja)
Other versions
JP2013150336A (en
Inventor
岳史 川和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013042466A priority Critical patent/JP5555344B2/en
Publication of JP2013150336A publication Critical patent/JP2013150336A/en
Application granted granted Critical
Publication of JP5555344B2 publication Critical patent/JP5555344B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を撮像して該画像の電子的な画像データを生成する撮像装置および撮像装置用プログラムに関する。     The present invention relates to an imaging apparatus and an imaging apparatus program that capture an image and generate electronic image data of the image.

近年、画像を撮像して電子的な画像データを生成するデジタルカメラでは、液晶パネル等を用いて実現される表示部の画像表示領域の高さ(縦方向の長さ)がデジタルカメラの高さとほぼ等しい程度にまで大きくなってきている。このような状況の下、表示部にタッチパネルを積層することによってグラフィカルユーザインターフェース(GUI)としての機能を具備させる技術が考えられている。具体的には、例えば表示部が画像を表示している最中にユーザが表示部上でタッチした部分の画像を拡大して表示する技術が知られている(例えば、特許文献1および2を参照)。この技術によれば、表示部が表示している画像の中で写り具合を十分に判別できないような箇所を拡大して表示することにより、その箇所の写り具合を正確に把握することができる。   In recent years, in a digital camera that captures an image and generates electronic image data, the height (length in the vertical direction) of an image display area of a display unit realized by using a liquid crystal panel or the like is the height of the digital camera. It has grown to almost the same level. Under such circumstances, a technique for providing a function as a graphical user interface (GUI) by stacking a touch panel on a display unit has been considered. Specifically, for example, a technique for enlarging and displaying an image of a part touched on the display unit while the display unit is displaying an image is known (for example, Patent Documents 1 and 2). reference). According to this technique, by displaying an enlarged portion of the image displayed by the display unit where the image quality cannot be sufficiently determined, it is possible to accurately grasp the image quality of the image.

特開2005−348363号公報JP 2005-348363 A 特開2003−233368号公報JP 2003-233368 A

しかしながら、上述した従来技術において、画像の拡大表示を行ってから元の表示状態へ戻すには、拡大した画像の縮小や削除等の操作を別に行う必要があった。このため、画像の一部を拡大表示してから元の表示状態へ戻す操作を1枚ずつ行いながら複数の画像を連続的に再生する場合には、個々の画像に対する操作に時間がかかってしまい、テンポよく再生して表示することができなかった。   However, in the above-described prior art, in order to return to the original display state after performing the enlarged display of the image, it is necessary to separately perform operations such as reduction and deletion of the enlarged image. For this reason, when a plurality of images are continuously reproduced while performing an operation of returning a part of an image to an original display state one by one, it takes time to operate each image. , Could not be played and displayed at a good tempo.

本発明は、上記に鑑みてなされたものであって、表示部で表示している画像の一部を拡大表示した後で容易にかつ迅速に元の表示状態へ戻すことができ、複数の画像をテンポよく再生して表示することができる撮像装置および撮像装置用プログラムを提供することを目的とする。   The present invention has been made in view of the above, and can display a plurality of images that can be easily and quickly returned to the original display state after a part of the image displayed on the display unit is enlarged and displayed. An object of the present invention is to provide an imaging device and a program for the imaging device that can reproduce and display the image at a good tempo.

上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、特許請求の範囲に記載されるように構成した。   In order to solve the above-described problems and achieve the object, the imaging apparatus according to the present invention is configured as described in the claims.

本発明によれば、表示部で拡大画像を合成した合成画像を表示するのは拡大対象の顔の部分に外部からの接触が生じている間だけであり、その後外部からの接触がなくなった場合には合成前の画像を再表示するため、表示部で表示している画像の一部を拡大表示した後で容易にかつ迅速に元の表示状態へ戻すことができ、複数の画像をテンポよく再生して表示することができる。 According to the present invention, the combined image obtained by combining the magnified images on the display unit is displayed only while external contact is occurring on the face portion to be magnified, and then the external contact is lost. Since the pre-combination image is re-displayed, a part of the image displayed on the display unit can be enlarged and displayed easily and quickly, and the multiple display images can be restored quickly. Can be played and displayed.

本発明の実施の形態1に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on Embodiment 1 of this invention. 表示部における再生画像の表示例を示す図である。It is a figure which shows the example of a display of the reproduction | regeneration image in a display part. 図2に示す状態から表示部に指がタッチされた後の合成画像の表示例を示す 図である。FIG. 3 is a diagram illustrating a display example of a composite image after a finger is touched on the display unit from the state illustrated in FIG. 2. 合成画像を表示した後で再生画像を再表示した状態を示す図である。It is a figure which shows the state which redisplayed the reproduction | regeneration image after displaying a synthesized image. 表示部で顔以外の部分がタッチされた状態を示す図である。It is a figure which shows the state in which parts other than the face were touched on the display part. 図5に示す状態から指がシフトされた場合の連続画像の表示例を示す図であ る。FIG. 6 is a diagram showing a display example of continuous images when a finger is shifted from the state shown in FIG. 5. 再生画像が切り替わった状態を示す図である。It is a figure which shows the state which the reproduction image switched. 本発明の実施の形態1に係る撮像装置が撮影モードまたは再生モードに設定 されている場合の処理の概要を示すフローチャートである。5 is a flowchart showing an outline of processing when the imaging apparatus according to Embodiment 1 of the present invention is set to a shooting mode or a playback mode. 表示部上での接触位置と合成画像における拡大画像の主表示領域との関係を 示す図である。FIG. 6 is a diagram showing a relationship between a contact position on a display unit and a main display area of an enlarged image in a composite image. 表示部における表示領域の分類を示す図である。It is a figure which shows the classification | category of the display area in a display part. 表示部の主表示領域を説明する図である。It is a figure explaining the main display area of a display part. 本発明の実施の形態2に係る撮像装置が撮影モードまたは再生モードに設 定されている場合の処理の概要を示すフローチャートである。10 is a flowchart showing an outline of processing when the imaging apparatus according to Embodiment 2 of the present invention is set to a shooting mode or a playback mode. 合成画像生成部が生成した合成画像の例を示す図である。It is a figure which shows the example of the synthesized image which the synthesized image generation part produced | generated. 図13に示す状態から表示部に指をタッチした後の合成画像の表示例を示 す図である。It is a figure which shows the example of a display of the synthesized image after touching a finger | toe to a display part from the state shown in FIG. 図14に示す状態から表示部の幅方向左側へ指がシフトされた後の合成画 像の表示例を示す図である。FIG. 15 is a diagram showing a display example of a composite image after the finger is shifted from the state shown in FIG. 14 to the left side in the width direction of the display unit. 本発明の別の実施の形態における合成画像の表示例を示す図である。It is a figure which shows the example of a display of the synthesized image in another embodiment of this invention. 図16に示す状態から表示部の幅方向左側へ指がシフトされた後の合成画 像の表示例(第1例)を示す図である。FIG. 17 is a diagram showing a display example (first example) of a composite image after the finger is shifted from the state shown in FIG. 16 to the left side in the width direction of the display unit. 図16に示す状態から表示部の左方向に指をシフトした後の合成画像の別 な表示例(第2例)を示す図である。FIG. 17 is a diagram showing another display example (second example) of the composite image after the finger is shifted to the left of the display unit from the state shown in FIG. 本発明のさらに別の実施の形態における合成画像の表示例を示す図である 。FIG. 10 is a diagram showing a display example of a composite image in still another embodiment of the present invention. 図19に示す状態から表示部に指がタッチされた後の合成画像の表示例を示す図である。It is a figure which shows the example of a display of the synthesized image after a finger | toe is touched to the display part from the state shown in FIG.

以下、添付図面を参照して本発明を実施するための最良の形態(以後、「実施の形態」と称する)を説明する。   The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below with reference to the accompanying drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る撮像装置の構成を示すブロック図である。同図に示す撮像装置1は、所定の視野領域の画像を撮像してデジタルの画像データを生成する撮像部2と、撮像部2が生成した画像データに対して所定の画像処理を施す画像処理部3と、画像処理部3で処理が施された画像データに対応する画像を表示する表示部4と、撮像装置1の操作信号等の入力を受け付ける入力部5と、撮影日時の判定機能やタイマー機能を有する時計6と、撮像装置1が撮影した画像データを含む各種情報を記憶する記憶部7と、撮像装置1の動作を制御する制御部8と、を備える。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention. An imaging apparatus 1 shown in FIG. 1 captures an image of a predetermined visual field and generates digital image data, and image processing for performing predetermined image processing on the image data generated by the imaging unit 2 Unit 3, display unit 4 that displays an image corresponding to the image data processed by image processing unit 3, input unit 5 that receives an input of an operation signal or the like of imaging device 1, a shooting date determination function, A clock 6 having a timer function, a storage unit 7 that stores various types of information including image data captured by the imaging device 1, and a control unit 8 that controls the operation of the imaging device 1 are provided.

撮像部2は、一または複数のレンズによって構成され、所定の視野領域に存在する被写体からの光を集光する光学系と、光学系が集光した光の入射量を調整する絞りと、絞りを通過した光を受光して電気信号に変換するCCD(Charge Coupled Device)等の撮像素子と、撮像素子から出力されるアナログ信号をデジタル信号からなる画像データに変換するA/D変換部とを有する。   The imaging unit 2 includes one or a plurality of lenses, an optical system that collects light from a subject existing in a predetermined visual field region, a diaphragm that adjusts an incident amount of light collected by the optical system, and a diaphragm An image sensor such as a CCD (Charge Coupled Device) that receives light passing through and converts it into an electrical signal, and an A / D converter that converts an analog signal output from the image sensor into image data composed of a digital signal. Have.

画像処理部3は、撮影済みの画像に含まれる人物の顔を検出する顔検出部31と、顔検出部31が検出した人物の顔を表示部4で表示する際の拡大率を検出した顔ごとに算出する拡大率算出部32と、入力部5を介して指定された人物の顔を拡大率算出部32の算出結果に基づいて拡大することによってその顔の拡大画像を生成する拡大画像生成部33と、拡大画像生成部33が生成した拡大画像を拡大元の顔を含む撮影済みの画像の所定領域へ重ねることによって合成画像を生成する合成画像生成部34とを有する。   The image processing unit 3 includes a face detection unit 31 that detects a person's face included in a captured image, and a face that has detected an enlargement ratio when the face of the person detected by the face detection unit 31 is displayed on the display unit 4. An enlargement factor calculation unit 32 that calculates for each, and an enlarged image generation that generates an enlarged image of the face by enlarging the face of a person specified via the input unit 5 based on the calculation result of the enlargement factor calculation unit 32 And a composite image generation unit 34 that generates a composite image by superimposing the enlarged image generated by the enlarged image generation unit 33 on a predetermined area of the captured image including the enlargement face.

表示部4は、液晶または有機EL等からなり、表面が矩形状を有する表示パネルを用いて実現され、画像データのほかに撮像装置1の操作情報や撮影に関する情報を適宜表示する。   The display unit 4 is made of a display panel made of a liquid crystal, an organic EL, or the like, and has a rectangular surface. The display unit 4 appropriately displays operation information of the imaging apparatus 1 and information related to shooting in addition to image data.

入力部5は、表示部4に積層して設けられ、表示部4の表面に対する外部からの接触を検知し、該接触が生じている接触位置に応じた操作信号の入力を受け付けるタッチパネル51を有する。タッチパネル51は、抵抗膜方式や静電容量方式など、従来より知られているいずれかの方式によって実現されている。また、入力部5は、撮像装置1の電源ボタン、撮像指示を与えるシャッターボタン、撮像装置1で設定可能な各種動作モードの切替を行うモード切替ボタン、画像データの再生や編集の指示を含む制御ボタンなどを有する。   The input unit 5 includes a touch panel 51 provided on the display unit 4 so as to detect an external contact with the surface of the display unit 4 and receive an input of an operation signal corresponding to the contact position where the contact is generated. . The touch panel 51 is realized by any conventionally known method such as a resistive film method or a capacitance method. The input unit 5 also includes a power button of the imaging apparatus 1, a shutter button that gives an imaging instruction, a mode switching button that switches between various operation modes that can be set by the imaging apparatus 1, and a control that includes instructions for reproducing and editing image data. Has buttons and the like.

記憶部7は、撮像部2が撮影し、画像処理部3によって処理が施された撮影済みの画像データを記憶する画像データ記憶部71と、顔検出部31が検出した顔の位置や大きさに関する情報を記憶する顔情報記憶部72と、顔検出部31が顔を検出する際に参照する顔のテンプレートを記憶するテンプレート記憶部73と、本実施の形態1に係る撮像装置用プログラムを含み、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部74とを有する。記憶部7は、撮像装置1の内部に固定的に設けられるフラッシュメモリやRAM等の半導体メモリを用いて実現される。なお、記憶部7が、外部から装着されるメモリカード等の記録媒体に対して情報を記録する一方、記録媒体が記録する情報を読み出す記録媒体インターフェースとしての機能を有していてもよい。   The storage unit 7 stores an image data storage unit 71 that stores captured image data that has been captured by the imaging unit 2 and processed by the image processing unit 3, and the position and size of the face detected by the face detection unit 31. A face information storage unit 72 that stores information on the image, a template storage unit 73 that stores a face template to be referred to when the face detection unit 31 detects a face, and the imaging apparatus program according to the first embodiment. And a program storage unit 74 that stores various programs executed by the imaging apparatus 1. The storage unit 7 is realized using a semiconductor memory such as a flash memory or a RAM that is fixedly provided inside the imaging apparatus 1. The storage unit 7 may have a function as a recording medium interface for reading information recorded on a recording medium while recording information on a recording medium such as a memory card mounted from the outside.

制御部8は、タッチパネル51からの入力信号と顔情報記憶部72が記憶する顔の位置情報とを用いることによってタッチパネル51の信号入力位置に顔が表示されているか否かを判定する判定部81を有する。制御部8は、MPU(Micro Processing Unit)等を用いて実現され、制御対象である撮像装置1の各構成部位とバスラインを介して接続されている。   The control unit 8 uses the input signal from the touch panel 51 and the face position information stored in the face information storage unit 72 to determine whether or not a face is displayed at the signal input position of the touch panel 51. Have The control unit 8 is realized using an MPU (Micro Processing Unit) or the like, and is connected to each component of the imaging device 1 that is a control target via a bus line.

なお、撮像装置1に対し、他の撮像装置などとの間で無線または有線による情報の通信を行う機能や、GPS(Global Positioning System)から送信されてくる位置情報を受信して撮像装置1の位置を検出する機能を具備させてもよい。   Note that the imaging device 1 receives a function of performing wireless or wired information communication with another imaging device or the like, or position information transmitted from a GPS (Global Positioning System) and receives the imaging device 1. A function of detecting the position may be provided.

図2〜図4は、撮像装置1に特徴的な第1の処理の概要を示す図である。このうち、 図2は、撮像装置1が再生モードに設定されており、表示部4に大人と子供が一緒に写っている再生画像101が表示されている状態を示している。この状態でユーザが子供の顔111の上に指201をタッチすると、表示部4では、図3に示すように、再生画像101に拡大画像121を重ねることによって生成された合成画像102が表示される。拡大画像121は、指201による接触位置と重ならない領域( 図3では右上部)に配置される。この後、ユーザが表示部4から指201を離すと、図4に示すように表示部4では拡大画像121が削除され、再生画像101が再び表示される。このように、本実施の形態1においては、再生画像の中で拡大したい顔の位置に指をタッチさせるだけでその顔の拡大画像が表示される一方、顔へのタッチを解除すると即座に拡大画像が消えて元の再生画像に戻る。したがって、拡大画像の表示および削除を指一本で容易に行うことができる。    2 to 4 are diagrams illustrating an outline of a first process characteristic of the imaging apparatus 1. Among these, FIG. 2 shows a state in which the imaging apparatus 1 is set to the reproduction mode and the reproduction image 101 in which the adult and the child are photographed together is displayed on the display unit 4. When the user touches the finger 201 on the child's face 111 in this state, the display unit 4 displays the composite image 102 generated by superimposing the enlarged image 121 on the reproduced image 101 as shown in FIG. The The enlarged image 121 is arranged in a region that does not overlap the contact position with the finger 201 (upper right portion in FIG. 3). Thereafter, when the user removes the finger 201 from the display unit 4, the enlarged image 121 is deleted on the display unit 4 and the reproduced image 101 is displayed again as shown in FIG. As described above, in the first embodiment, an enlarged image of a face is displayed just by touching a finger on the position of the face to be enlarged in the reproduced image. On the other hand, when the touch on the face is released, the enlarged image is instantly enlarged. The image disappears and the original playback image is restored. Therefore, it is possible to easily display and delete the enlarged image with one finger.

図5〜図7は、撮像装置1に特徴的な第2の処理の概要を示す図である。このうち 図5は、図2と同じ再生画像101を表示している最中に、ユーザが人物の顔111、112以外の部分をタッチした状態を示している。この状態で指201を顔111の表示部分にタッチしたまま右方向へスライドさせると、図6に示すように再生画像101におけるタッチ位置は変化せず、再生画像101が指201の動きにあわせて右側へシフトしていく。再生画像101がシフトした表示部4の幅方向の左端部(接触位置が変化する向きの後方側の端部)には、顔113を有する再生画像103が再生画像101に接続されており、この2つの再生画像101,103が連続画像104を構成している。再生画像103は、例えば再生画像101の次に撮影された画像である。指201をさらに右方向へシフトさせていき、やがて指201が表示部4からはみ出すと、図7に示すように表示部4では再生画像103が全画面で表示されるようになる。このように、本実施の形態1においては、再生画像の中で顔以外の位置を指でタッチしたまま指をスライドさせることによって画像の切り替えを行うことができる。なお、指201で左側にシフトさせた場合、再生画像101の右側に再生画像103を連続して表示するようにしてもよい。また、指201をシフトする方向に応じて、再生画像101の前後で撮影した画像のいずれかに切り替えるようにしてもよい。    5 to 7 are diagrams illustrating an outline of the second processing characteristic of the imaging apparatus 1. Among these, FIG. 5 shows a state in which the user touches a part other than the human faces 111 and 112 while displaying the same reproduced image 101 as in FIG. If the finger 201 is slid rightward while touching the display portion of the face 111 in this state, the touch position in the reproduced image 101 does not change as shown in FIG. 6, and the reproduced image 101 matches the movement of the finger 201. Shift to the right. A playback image 103 having a face 113 is connected to the playback image 101 at the left end in the width direction of the display unit 4 to which the playback image 101 has been shifted (the end on the rear side in the direction in which the contact position changes). Two reproduced images 101 and 103 constitute a continuous image 104. The reproduced image 103 is an image taken after the reproduced image 101, for example. When the finger 201 is further shifted rightward and eventually the finger 201 protrudes from the display unit 4, the display unit 4 displays the reproduced image 103 on the full screen as shown in FIG. As described above, in the first embodiment, images can be switched by sliding a finger while touching a position other than the face with the finger in a reproduced image. When the finger 201 is shifted to the left side, the reproduced image 103 may be continuously displayed on the right side of the reproduced image 101. In addition, depending on the direction in which the finger 201 is shifted, the image may be switched to one of images captured before and after the reproduced image 101.

図8は、撮像装置1が撮影モードまたは再生モードに設定されている場合の処理の概要を示すフローチャートである。まず、撮像装置1が撮影モードに設定されている場合(ステップS1:撮影モード)、表示部4は撮像部2が撮像している画像(スルー画)を表示する(ステップS2)。    FIG. 8 is a flowchart illustrating an outline of processing when the imaging apparatus 1 is set to the shooting mode or the playback mode. First, when the imaging device 1 is set to the shooting mode (step S1: shooting mode), the display unit 4 displays an image (through image) captured by the imaging unit 2 (step S2).

この後、顔検出部31は、スルー画像中に存在する人物の顔を検出し、検出した顔の位置、高さ、幅等の顔情報を顔情報記憶部72に記録する(ステップS3)。このステップS3において、顔検出部31は、テンプレート記憶部73が記憶している顔のテンプレートを用いてテンプレートマッチングを行うことにより、スルー画像中の人物の顔の有無を検出する。顔検出部31が顔を検出した場合(ステップS3:Yes)、拡大率算出部32は、その顔が有する顔情報に基づいて顔の拡大率Mを算出する(ステップS4)。ここで、顔の拡大率Mは、顔検出部31が検出した顔の高さをF、表示部4の画面幅をWとするとき、M=W/(2F)で与えられる。この定義式は、一辺の長さがFの正方形領域を一辺の長さがW/2すなわち表示部4の幅の半分の正方形領域へ拡大することを意味している。顔検出部31がスルー画像中で顔を検出しなかった場合(ステップS3:No)、撮像装置1はステップS5へ進む。   After that, the face detection unit 31 detects the face of a person present in the through image, and records face information such as the detected face position, height, width, etc. in the face information storage unit 72 (step S3). In step S <b> 3, the face detection unit 31 detects the presence or absence of a human face in the through image by performing template matching using the face template stored in the template storage unit 73. When the face detection unit 31 detects a face (step S3: Yes), the enlargement rate calculation unit 32 calculates the face enlargement rate M based on the face information of the face (step S4). Here, the face enlargement ratio M is given by M = W / (2F), where F is the height of the face detected by the face detection unit 31 and W is the screen width of the display unit 4. This definition formula means that a square region having a side length of F is expanded to a square region having a side length of W / 2, that is, half the width of the display unit 4. When the face detection unit 31 does not detect a face in the through image (step S3: No), the imaging device 1 proceeds to step S5.

続いて、制御部8はピント調整を行う(ステップS5)。制御部8は、顔検出部31が人物の顔を検出していれば、検出した顔の位置にピントを合わせる制御を行う。   Subsequently, the control unit 8 performs focus adjustment (step S5). If the face detection unit 31 detects a human face, the control unit 8 performs control to focus on the detected face position.

この後、入力部5の一部をなすレリーズボタンが押下されてレリーズ信号が入力される(ステップS6:Yes)と、撮像部2が制御部8の制御のもとで画像の撮影を行う(ステップS7)。その後、制御部8は、撮像部2によって生成され、画像処理部3によって画像処理が施された画像データに対し、時計6の出力を参照してデータ生成日時等の情報を付加し、画像データ記憶部71に記録する(ステップS8)。なお、ステップS6においてレリーズボタンが押下されない場合(ステップS6:No)、撮像装置1はステップS1に戻る。   Thereafter, when a release button that forms a part of the input unit 5 is pressed and a release signal is input (step S6: Yes), the imaging unit 2 captures an image under the control of the control unit 8 ( Step S7). Thereafter, the control unit 8 adds information such as the data generation date and time to the image data generated by the imaging unit 2 and subjected to image processing by the image processing unit 3 with reference to the output of the clock 6, and the image data It records in the memory | storage part 71 (step S8). If the release button is not pressed in step S6 (step S6: No), the imaging device 1 returns to step S1.

ステップS8の後、撮影を終了する終了指示が入力部5によって入力された場合(ステップS9:Yes)、撮像装置1は一連の処理を終了する。一方、撮影の終了指示が入力部5によって入力されない場合(ステップS9:No)、撮像装置1はステップS1に戻る。   After step S8, when an end instruction to end shooting is input by the input unit 5 (step S9: Yes), the imaging apparatus 1 ends a series of processes. On the other hand, when an instruction to end shooting is not input by the input unit 5 (step S9: No), the imaging apparatus 1 returns to step S1.

次に、撮像装置1が再生モードに設定されている場合(ステップS1:再生モード)を説明する。この場合、撮像装置1は、ユーザが入力部5を介して選択入力した撮影済みの画像を表示部4で再生表示する(ステップS10)。   Next, a case where the imaging device 1 is set to the playback mode (step S1: playback mode) will be described. In this case, the imaging apparatus 1 reproduces and displays the captured image selected and input by the user via the input unit 5 on the display unit 4 (step S10).

その後、タッチパネル51が表示部4に対する外部からの接触を検知(以下、「タッチパネル51が外部からの接触を検知」という)した場合(ステップS11:Yes)、判定部81は顔情報記憶部72を参照することにより、タッチパネル51の操作信号入力位置すなわち表示部4に対する外部からの接触位置(以下、「接触位置」という)における顔の表示の有無を判定する(ステップS12)。換言すれば、判定部81は、接触位置が表示部4で表示中の画像における顔の表示領域に含まれているか否かを判定する。判定部81が判定した結果、接触位置に顔が表示されている場合(ステップS12:Yes)、拡大画像生成部33はタッチパネル51からの信号によって指定された顔を拡大率Mで拡大することにより、その顔の拡大画像を生成する(ステップS13)。一方、判定部81が判定した結果、接触位置に顔が表示されていない場合(ステップS12:No)、撮像装置1はステップS19へ進む。   Thereafter, when the touch panel 51 detects an external contact with the display unit 4 (hereinafter referred to as “the touch panel 51 detects a contact from the outside”) (step S11: Yes), the determination unit 81 sets the face information storage unit 72. By referencing, it is determined whether or not a face is displayed at the operation signal input position of the touch panel 51, that is, the external contact position (hereinafter referred to as "contact position") with respect to the display unit 4 (step S12). In other words, the determination unit 81 determines whether or not the contact position is included in the face display area in the image being displayed on the display unit 4. If the determination unit 81 determines that a face is displayed at the contact position (step S12: Yes), the enlarged image generation unit 33 enlarges the face specified by the signal from the touch panel 51 at an enlargement ratio M. Then, an enlarged image of the face is generated (step S13). On the other hand, if the determination unit 81 determines that no face is displayed at the contact position (step S12: No), the imaging apparatus 1 proceeds to step S19.

ステップS11において、タッチパネル51が表示部4に対する外部からの接触を検知しない場合(ステップS11:No)、撮像装置1はステップS24へ進む。   In step S11, when the touch panel 51 does not detect external contact with the display unit 4 (step S11: No), the imaging device 1 proceeds to step S24.

ステップS13の後、合成画像生成部34は、拡大画像を再生画像の所定位置に重ねることによって合成画像を生成する(ステップS14)。図9は、表示部4上での接触位置と合成画像における拡大画像の主表示領域との関係を示す図である。同図に示すテーブルTbに記載されている第1〜第4象限は、矩形状をなす表示部4を縦横に2等分ずつして4等分した場合の表示領域の区分を示している。より具体的には、図10に示すように、表示部4を上記の如く4等分した場合の右上部が第1象限、左上部が第2象限、左下部が第3象限、右下部が第4象限である。次に、主表示領域について説明する。主表示領域とは、拡大画像によって全領域が埋め尽くされる領域のことである。上記ステップS4で説明したように、拡大画像は一辺の長さが表示部4の幅Wの1/2である正方形領域に表示される。このため、接触位置が第1象限である場合、図11に示すように、拡大画像は第3象限の全領域に第2象限の一部領域を加えた正方形領域Dに重ねられることとなる。したがって、この場合の主表示領域は第3象限となる。   After step S13, the composite image generation unit 34 generates a composite image by superimposing the enlarged image on a predetermined position of the reproduced image (step S14). FIG. 9 is a diagram showing the relationship between the contact position on the display unit 4 and the main display area of the enlarged image in the composite image. The first to fourth quadrants described in the table Tb shown in FIG. 4 indicate the display area divisions when the rectangular display unit 4 is divided into two equal parts vertically and horizontally. More specifically, as shown in FIG. 10, when the display unit 4 is divided into four equal parts as described above, the upper right part is the first quadrant, the upper left part is the second quadrant, the lower left part is the third quadrant, and the lower right part is The fourth quadrant. Next, the main display area will be described. The main display area is an area where the entire area is filled with the enlarged image. As described in step S <b> 4, the enlarged image is displayed in a square area in which the length of one side is ½ of the width W of the display unit 4. For this reason, when the contact position is in the first quadrant, as shown in FIG. 11, the enlarged image is superimposed on a square area D in which a partial area of the second quadrant is added to the entire area of the third quadrant. Accordingly, the main display area in this case is the third quadrant.

ここで、タッチパネル51が隣接する2つの象限の境界線上における外部からの接触を検知した場合の主表示領域について説明する。まず、接触位置が第1象限と第2象限の境界線上である場合、主表示領域を第3象限とする。次に、接触位置が第1象限と第4象限の境界線上である場合、および接触位置が第3象限と第4象限の境界線上である場合、主表示領域を第2象限とする。最後に、接触位置が第2象限と第3象限の境界線上である場合、主表示領域を第1象限とする。なお、接触位置が第1〜第4象限の境界すなわち表示部4の中心である場合には、主表示領域を第2象限とする。   Here, the main display area when the touch from the outside on the boundary line between two quadrants adjacent to the touch panel 51 is detected will be described. First, when the contact position is on the boundary line between the first quadrant and the second quadrant, the main display area is set to the third quadrant. Next, when the contact position is on the boundary line between the first quadrant and the fourth quadrant, and when the contact position is on the boundary line between the third quadrant and the fourth quadrant, the main display area is set as the second quadrant. Finally, when the contact position is on the boundary line between the second quadrant and the third quadrant, the main display area is set to the first quadrant. When the contact position is the boundary of the first to fourth quadrants, that is, the center of the display unit 4, the main display area is set to the second quadrant.

ステップS14に続いて、表示部4は合成画像生成部34が生成した合成画像を表示する(ステップS15)。ここで合成画像の表示例を、図2および図3を参照して説明する。図2に示す再生画像101において、子供の顔111は表示部4の第3象限に属している。このため、ユーザが指201で顔111の表示領域をタッチした場合、合成画像生成部34は、テーブルTbを参照して拡大画像121の主表示領域を第1象限と決定し、 図3に示す合成画像102を生成する。なお、ユーザが指201で顔112の表示領域をタッチした場合、顔112は表示部4の第2象限に属しているため、合成画像生成部34は、顔112の拡大画像の主表示領域を第4象限として合成画像を生成する。   Subsequent to step S14, the display unit 4 displays the composite image generated by the composite image generation unit 34 (step S15). Here, a display example of a composite image will be described with reference to FIGS. In the reproduced image 101 shown in FIG. 2, the child's face 111 belongs to the third quadrant of the display unit 4. Therefore, when the user touches the display area of the face 111 with the finger 201, the composite image generation unit 34 determines the main display area of the enlarged image 121 as the first quadrant with reference to the table Tb, as shown in FIG. A composite image 102 is generated. Note that when the user touches the display area of the face 112 with the finger 201, the face 112 belongs to the second quadrant of the display unit 4, so the composite image generation unit 34 selects the main display area of the enlarged image of the face 112. A composite image is generated as the fourth quadrant.

この後、表示部4は、タッチパネル51が外部からの接触を検知した場合(ステップS16:Yes)、その接触位置に顔が表示されていれば(ステップS17:Yes)、合成画像の表示(ステップS15)を継続する。   Thereafter, when the touch panel 51 detects contact from the outside (step S16: Yes), the display unit 4 displays a composite image (step S17: Yes) if a face is displayed at the contact position (step S17: Yes). S15) is continued.

一方、タッチパネル51が外部からの接触を検知し(ステップS16:Yes)、かつその接触位置に顔が表示されていない場合(ステップS17:No)、表示部4は合成前の画像を再表示する(ステップS18)。ここで再表示する画像は、例えば図2に示す再生画像101である。ステップS16において、タッチパネル51が表示部4に対する外部からの接触を検知しない場合(ステップS16:No)、撮像装置1はステップS23へ進む。   On the other hand, when the touch panel 51 detects contact from the outside (step S16: Yes) and no face is displayed at the contact position (step S17: No), the display unit 4 redisplays the image before composition. (Step S18). The image to be redisplayed here is, for example, a reproduced image 101 shown in FIG. In step S16, when the touch panel 51 does not detect external contact with the display unit 4 (step S16: No), the imaging device 1 proceeds to step S23.

その後、接触位置が所定の時間内に表示部4の幅方向へ変化している場合(ステップS19:Yes)、表示部4では、制御部8の制御のもと、次候補の画像を再生中の画像に接続した連続画像を接触位置の変化に合わせてスライドさせる(ステップS20)。ここでの連続画像は、例えば図6に示す連続画像104である。一方、接触位置が所定の時間内に表示部4の幅方向へ変化せずに静止している場合(ステップS19:No)、撮像装置1はステップS22へ進む。   Thereafter, when the contact position has changed in the width direction of the display unit 4 within a predetermined time (step S19: Yes), the display unit 4 is reproducing the next candidate image under the control of the control unit 8. The continuous image connected to the image is slid in accordance with the change of the contact position (step S20). The continuous image here is, for example, the continuous image 104 shown in FIG. On the other hand, if the contact position is stationary without changing in the width direction of the display unit 4 within a predetermined time (step S19: No), the imaging device 1 proceeds to step S22.

ステップS20に続いて、タッチパネル51が外部からの接触を検知した場合(ステップS21:Yes)、撮像装置1はステップS19に戻る。一方、タッチパネル51が外部からの接触を検知しなかった場合(ステップS21:No)、表示している画像の切替が完了していなければ(ステップS22:No)、表示部4は合成前の画像を再表示する(ステップS23)。ここで合成前の画像を再表示するのは、連続画像を表示した状態で指201が離れたためである。なお、ステップS23において、次候補の画像に切り替えて表示するようにしてもよい。   Subsequent to step S20, when the touch panel 51 detects an external contact (step S21: Yes), the imaging device 1 returns to step S19. On the other hand, when the touch panel 51 does not detect contact from the outside (step S21: No), if the switching of the displayed image is not completed (step S22: No), the display unit 4 displays the pre-combination image. Is displayed again (step S23). The reason why the pre-combination image is displayed again is that the finger 201 has been released while the continuous image is displayed. In step S23, the next candidate image may be switched to be displayed.

この後、入力部5から再生の終了指示が入力された場合(ステップS24:Yes)、撮像装置1は一連の処理を終了する。一方、入力部5から再生の終了指示が入力されない場合(ステップS24:No)、撮像装置1はステップS1に戻る。   Thereafter, when an instruction to end reproduction is input from the input unit 5 (step S24: Yes), the imaging device 1 ends a series of processes. On the other hand, when the reproduction end instruction is not input from the input unit 5 (step S24: No), the imaging apparatus 1 returns to step S1.

ステップS20の後、タッチパネル51が外部からの接触を検知せず(ステップS21:No)、かつ表示している画像の切替が完了していれば(ステップS22:Yes)、撮像装置1はステップS24に進む。ここで画像が切替が完了した状態とは、例えば図7に示すような状態のことである。   After step S20, if the touch panel 51 does not detect contact from the outside (step S21: No) and switching of the displayed image is completed (step S22: Yes), the imaging device 1 performs step S24. Proceed to Here, the state where the image has been switched is a state as shown in FIG. 7, for example.

以上説明した本発明の実施の形態1によれば、表示部4で拡大画像を合成した合成画像を表示するのは拡大対象の顔の部分に外部からの接触が生じている間だけであり、その後外部からの接触がなくなった場合には合成前の画像を再表示するため、表示部4で表示している画像の一部を拡大表示した後で容易にかつ迅速に元の表示状態へ戻すことができ、複数の画像をテンポよく再生して表示することができる。   According to Embodiment 1 of the present invention described above, the combined image obtained by combining the enlarged images on the display unit 4 is displayed only while contact from the outside occurs on the face portion to be enlarged, Thereafter, when there is no contact from the outside, the pre-combination image is redisplayed, so that a part of the image displayed on the display unit 4 is enlarged and displayed, and then easily and quickly returned to the original display state. It is possible to reproduce and display a plurality of images with a good tempo.

また、本実施の形態1によれば、タッチパネル51が検知した外部からの接触位置に応じて拡大画像の主表示領域が定められるため、タッチしている指などとの干渉が最も少なくて見やすい位置で拡大画像を表示することができる。   Further, according to the first embodiment, since the main display area of the enlarged image is determined according to the external contact position detected by the touch panel 51, the position that is easy to see with the least interference with the touched finger or the like Can display an enlarged image.

また、本実施の形態1によれば、表示部4の上で顔以外が表示されている位置を指でタッチしたままそのタッチしている位置を変化させるだけで画像の切り替えを行うことができるため、連続的な画像の再生を容易に行うことができる。したがって、撮像装置1をアルバム代わりとして使用することも可能である。   Further, according to the first embodiment, it is possible to switch images by simply changing the touched position while touching a position where a face other than the face is displayed on the display unit 4 with a finger. Therefore, continuous image reproduction can be easily performed. Therefore, it is possible to use the imaging device 1 as an album substitute.

なお、本実施の形態1において、図9に示す接触位置と主表示領域との関係はあくまでも一例に過ぎない。例えば、接触位置が表示部4の右半分(第1、第4象限)である場合には拡大画像を第3象限に表示する一方、接触位置が表示部4の左半分(第2、第3象限)である場合には拡大画像を第1象限に表示するようにしてもよい。   In the first embodiment, the relationship between the contact position and the main display area shown in FIG. 9 is merely an example. For example, when the contact position is in the right half (first and fourth quadrants) of the display unit 4, the enlarged image is displayed in the third quadrant, while the contact position is in the left half (second and third quadrants) of the display unit 4. (Quadrant), an enlarged image may be displayed in the first quadrant.

(実施の形態2)
本発明の実施の形態2は、ユーザが撮像装置の表示部で所望の人物の顔をタッチした場合の合成画像の表示態様が実施の形態1と異なる。本実施の形態2に係る撮像装置は、上記実施の形態1に係る撮像装置1と若干の機能の違いはあるものの、構成要素は同じである。そこで、以下の説明においては、上述した撮像装置1の構成要素に対応する構成要素にはそれぞれ同一の符号を付して説明する。
(Embodiment 2)
The second embodiment of the present invention is different from the first embodiment in the composite image display mode when the user touches the face of a desired person on the display unit of the imaging apparatus. The imaging apparatus according to the second embodiment has the same components as the imaging apparatus 1 according to the first embodiment, although there are some functional differences. Therefore, in the following description, components corresponding to the components of the imaging device 1 described above will be described with the same reference numerals.

図12は、撮像装置1が撮影モードまたは再生モードに設定されている場合の処理の概要を示すフローチャートである。撮像装置1が撮影モードに設定されている場合(ステップS31:撮影モード)に行うステップS32〜S39の処理は、図8のステップS2〜S9の処理に順次対応している。ただし、ステップS34で拡大率算出部32が算出する画像の拡大率M2は、表示部4の高さをHとしてM2=H/Fと定義される。この拡大率M2を用いると、一辺の長さがFの正方形領域は、一辺の長さがHの正方形領域に拡大される。 FIG. 12 is a flowchart illustrating an outline of processing when the imaging apparatus 1 is set to the shooting mode or the playback mode. The processes in steps S32 to S39 performed when the imaging apparatus 1 is set in the shooting mode (step S31: shooting mode) sequentially correspond to the processes in steps S2 to S9 in FIG. However, the enlargement factor M 2 of the image calculated by the enlargement factor calculator 32 in step S34 is defined as M 2 = H / F where the height of the display unit 4 is H. When this enlargement factor M 2 is used, a square region having a side length of F is expanded to a square region having a side length of H.

次に、撮像装置1が再生モードに設定されている場合を説明する(ステップS31:再生モード)。この場合、撮像装置1は、入力部5からの入力によって選択された撮影済みの画像を表示部4で再生表示する(ステップS40)。   Next, the case where the imaging device 1 is set to the playback mode will be described (step S31: playback mode). In this case, the imaging apparatus 1 reproduces and displays the captured image selected by the input from the input unit 5 on the display unit 4 (step S40).

その後、タッチパネル51が接触を検知した場合(ステップS41:Yes)、判定部81は顔情報記憶部72を参照することにより、接触位置における顔の表示の有無を判定する(ステップS42)。判定部81が判定した結果、接触位置に顔が表示されている場合(ステップS42:Yes)、拡大画像生成部33はタッチパネル51からの信号によって指定された顔を拡大率M2で拡大することにより、その顔の拡大画像を生成する(ステップS43)。一方、判定部81が判定した結果、接触位置に顔が表示されていない場合(ステップS42:No)、撮像装置1はステップS51へ進む。 Thereafter, when the touch panel 51 detects contact (step S41: Yes), the determination unit 81 refers to the face information storage unit 72 to determine whether or not a face is displayed at the contact position (step S42). If the result of the determination unit 81 determines, for the face to the contact position is displayed (step S42: Yes), the enlarged image generating unit 33 to expand the face specified by a signal from the touch panel 51 at a magnification M 2 Thus, an enlarged image of the face is generated (step S43). On the other hand, if the determination unit 81 determines that no face is displayed at the contact position (step S42: No), the imaging apparatus 1 proceeds to step S51.

ステップS41においてタッチパネル51が外部からの接触を検知しない場合(ステップS41:No)、撮像装置1はステップS56へ進む。   If the touch panel 51 does not detect contact from the outside in step S41 (step S41: No), the imaging device 1 proceeds to step S56.

ステップS43の後、合成画像生成部34は、拡大画像を再生画像の所定位置に重ねることによって合成画像を生成する(ステップS44)。図13は、合成画像生成部34が生成した合成画像の例を示す図である。同図に示す合成画像105は、図2に示す再生画像101を表示部4が表示している最中に、ユーザが顔111に指201をタッチした場合に生成されたものである。具体的には、合成画像105は、再生画像101の顔111の右側に拡大画像151を重ねた画像である。拡大画像151は、接触位置が表示部4の第2、第3象限(図9を参照)である場合、その接触位置から所定距離だけ右側に左端部が来るように配置される。これに対して、接触位置が表示部4の第1、第4象限である場合、その接触位置から所定距離だけ左側に右端部が来るように配置される。このようにして生成される合成画像105の幅W'は、表示部4の幅Wよりも大きい。このため、表示部4では合成画像105の全貌を表示することはできず、その一部を切り出して表示することとなる。   After step S43, the composite image generation unit 34 generates a composite image by superimposing the enlarged image on a predetermined position of the reproduced image (step S44). FIG. 13 is a diagram illustrating an example of a composite image generated by the composite image generation unit 34. A composite image 105 shown in the figure is generated when the user touches the finger 201 on the face 111 while the display unit 4 is displaying the reproduced image 101 shown in FIG. Specifically, the composite image 105 is an image in which the enlarged image 151 is superimposed on the right side of the face 111 of the reproduced image 101. When the contact position is in the second and third quadrants of the display unit 4 (see FIG. 9), the enlarged image 151 is arranged so that the left end portion is on the right side by a predetermined distance from the contact position. On the other hand, when the contact position is in the first and fourth quadrants of the display unit 4, the right end part is arranged on the left side by a predetermined distance from the contact position. The width W ′ of the composite image 105 generated in this way is larger than the width W of the display unit 4. For this reason, the display unit 4 cannot display the entire picture of the composite image 105, and a part thereof is cut out and displayed.

続いて表示部4は、合成画像生成部34が生成した合成画像105を表示する(ステップS45)。図14は、表示部4における合成画像105の表示例を示す図である。同図に示す合成画像105Aは、再生画像101が当初の再生位置で表示されており、拡大画像151は左半分の領域しか表示されていない。    Subsequently, the display unit 4 displays the composite image 105 generated by the composite image generation unit 34 (step S45). FIG. 14 is a diagram illustrating a display example of the composite image 105 on the display unit 4. In the composite image 105A shown in the figure, the reproduction image 101 is displayed at the original reproduction position, and the enlarged image 151 displays only the left half area.

この後、タッチパネル51が外部からの接触を検知した場合(ステップS46:Yes)、判定部81は顔情報記憶部72を参照することにより、接触位置における顔の表示の有無を判定する(ステップS47)。   Thereafter, when the touch panel 51 detects an external contact (step S46: Yes), the determination unit 81 refers to the face information storage unit 72 to determine whether or not a face is displayed at the contact position (step S47). ).

ステップS47で判定部81が判定した結果、接触位置に顔が表示されている場合(ステップS47:Yes)、所定時間内に接触位置が表示部4の幅方向に変化すれば(ステップS48:Yes)、表示部4は、制御部8の制御のもとで合成画像を接触位置の変化に合わせてスライドして表示する(ステップS49)。図15は、図14に示す状態から指201を幅方向左側へスライドさせた場合の合成画像105の表示例を示す図である。図15に示す合成画像105Bにおいて、拡大画像151の占有面積は合成画像105Bよりも大きい。したがって、合成画像105Bの方が、合成画像105Aよりも顔111の写り具合を正確に把握することができる。この後、撮像装置1はステップS46に戻る。   If the determination unit 81 determines in step S47 that a face is displayed at the contact position (step S47: Yes), the contact position changes in the width direction of the display unit 4 within a predetermined time (step S48: Yes). The display unit 4 slides and displays the composite image according to the change of the contact position under the control of the control unit 8 (step S49). FIG. 15 is a diagram illustrating a display example of the composite image 105 when the finger 201 is slid to the left in the width direction from the state illustrated in FIG. In the composite image 105B shown in FIG. 15, the area occupied by the enlarged image 151 is larger than that of the composite image 105B. Therefore, the composite image 105B can more accurately grasp the appearance of the face 111 than the composite image 105A. Thereafter, the imaging apparatus 1 returns to step S46.

一方、ステップS47で判定部81が判定した結果、接触位置に顔が表示されていない場合(ステップS47:No)、表示部4は合成前の表示画像を再表示する(ステップS50)。このステップS50に続くステップS51〜S56の処理は、図8を参照して説明したステップS19〜S24の処理に順次対応している。   On the other hand, as a result of the determination by the determination unit 81 in step S47, when the face is not displayed at the contact position (step S47: No), the display unit 4 redisplays the display image before composition (step S50). The processes in steps S51 to S56 subsequent to step S50 sequentially correspond to the processes in steps S19 to S24 described with reference to FIG.

ステップS46でタッチパネル51が外部からの接触を検知しない場合(ステップS46:No)、およびステップS48で所定時間内に接触位置の幅方向の変化がない場合(ステップS48:No)、撮像装置1はステップS55へ進む。   If the touch panel 51 does not detect contact from the outside in step S46 (step S46: No), and if there is no change in the width direction of the contact position within a predetermined time in step S48 (step S48: No), the imaging device 1 Proceed to step S55.

以上説明した本発明の実施の形態2によれば、上記実施の形態1と同様、表示部4で表示している画像の一部を拡大表示した後で容易にかつ迅速に元の表示状態へ戻すことができ、複数の画像をテンポよく再生して表示することができる。   According to the second embodiment of the present invention described above, as in the first embodiment, after the part of the image displayed on the display unit 4 is enlarged and displayed, it can be easily and quickly returned to the original display state. It is possible to revert and to display and display a plurality of images with a good tempo.

また、本実施の形態2によれば、拡大画像の拡大率が実施の形態1よりも大きいため、より確実に顔の写り具合を把握することができる。   Further, according to the second embodiment, since the enlargement ratio of the enlarged image is larger than that of the first embodiment, it is possible to grasp the appearance of the face more reliably.

(その他の実施の形態)
以上、本発明を実施するための最良の形態として、実施の形態1、2を詳述してきたが、本発明は上記2つの実施の形態によってのみ限定されるべきものではない。例えば、指のスライドにあわせて拡大画像の大きさを変更するようにしてもよい。図16は、この場合の拡大画像の表示例を示す図である。同図に示す合成画像106Aは、指201の右側に拡大画像161Aが表示されている。これは、図16に示す表示部4において、指201の右側の領域が指201の左側の領域よりも広いからである。この後、指201を表示部4にタッチしたまま幅方向左側へスライドさせると、表示部4における指201の右側の領域がさらに大きくなる。そこで、図17に示す合成画像106Bのように、指201の右側の領域の増加に伴って拡大率を増加させて生成した拡大画像161Bを表示部4で表示するようにすれば、指201のスライドによって拡大画像をより見やすく表示することが可能となる。
(Other embodiments)
As described above, the first and second embodiments have been described in detail as the best mode for carrying out the present invention. However, the present invention should not be limited only by the two embodiments. For example, the size of the enlarged image may be changed according to the finger slide. FIG. 16 is a diagram illustrating a display example of an enlarged image in this case. In the composite image 106A shown in the figure, an enlarged image 161A is displayed on the right side of the finger 201. This is because the area on the right side of the finger 201 is wider than the area on the left side of the finger 201 in the display unit 4 shown in FIG. Thereafter, when the finger 201 is slid to the left in the width direction while touching the display unit 4, the area on the right side of the finger 201 in the display unit 4 is further increased. Therefore, as shown in the composite image 106B shown in FIG. 17, if the enlarged image 161B generated by increasing the magnification rate with the increase in the area on the right side of the finger 201 is displayed on the display unit 4, the finger 201 The enlarged image can be displayed more easily by the slide.

なお、指201が図17と同じ位置にある状態で、図18に示す合成画像106Cを表示するようにしてもよい。合成画像106Cに含まれる拡大画像161Cでは、拡大された顔を有する被写体の情報として「○○ちゃん」という名前が表示されている。ここで表示する被写体の情報は、顔情報記憶部72に顔情報とともに予め記憶しておけばよい。このような合成画像106Cを表示することにより、拡大画像そのものの付加価値を高めることができ、より魅力的で楽しめる画像の再生を実現することができる。また、顔情報とともに被写体の識別情報を記憶しておけば、撮影済みの画像の検索を迅速に行うことができる。   Note that the composite image 106C shown in FIG. 18 may be displayed with the finger 201 in the same position as in FIG. In the enlarged image 161C included in the composite image 106C, the name “OO-chan” is displayed as information on the subject having the enlarged face. Information on the subject to be displayed here may be stored in advance in the face information storage unit 72 together with the face information. By displaying such a composite image 106C, the added value of the enlarged image itself can be increased, and more attractive and enjoyable image reproduction can be realized. In addition, if the identification information of the subject is stored together with the face information, a photographed image can be searched quickly.

ここまで、顔検出部31によって検出された人物の顔の拡大画像を生成する場合を説明してきたが、ユーザが顔以外の場所を指でタッチした場合にその場所を拡大表示するようにしてもよい。具体的には、図19に示す再生画像301で山311の頂上付近に指201をタッチした場合、図20に示すように頂上付近の拡大画像321を所定領域に重ね合わせた合成画像302を表示するようにしてもよい。   So far, the case where the enlarged image of the face of the person detected by the face detection unit 31 is generated has been described. However, when the user touches a place other than the face with a finger, the place may be enlarged and displayed. Good. Specifically, when the finger 201 is touched near the top of the mountain 311 in the reproduced image 301 shown in FIG. 19, a composite image 302 is displayed in which an enlarged image 321 near the top is superimposed on a predetermined area as shown in FIG. You may make it do.

1 撮像装置
2 撮像部
3 画像処理部
4 表示部
5 入力部
6 時計
7 記憶部
8 制御部
31 顔検出部
32 拡大率算出部
33 拡大画像生成部
34 合成画像生成部
51 タッチパネル
71 画像データ記憶部
72 顔情報記憶部
73 テンプレート記憶部
74 プログラム記憶部
81 判定部
101、103、301 再生画像
102、105、105A、105B、106A、106B、106C、302 合成画像
104 連続画像
111、112、113 顔
121、151、161A、161B、161C、321 拡大画像
201 指
311 山
D 正方形領域
Tb テーブル
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 3 Image processing part 4 Display part 5 Input part 6 Clock 7 Storage part 8 Control part 31 Face detection part 32 Magnification factor calculation part 33 Enlarged image generation part 34 Composite image generation part 51 Touch panel 71 Image data storage part 72 face information storage unit 73 template storage unit 74 program storage unit 81 determination unit 101, 103, 301 reproduced image 102, 105, 105A, 105B, 106A, 106B, 106C, 302 composite image 104 continuous image 111, 112, 113 face 121 , 151, 161A, 161B, 161C, 321 Enlarged image 201 Finger 311 Mountain D Square area Tb Table

Claims (4)

画像を撮像して該画像の電子的な画像データを生成する撮像装置であって、
撮像した画像を表示する表示部と、
撮像した画像に存在する人物の顔を検出する顔検出部と、
前記表示部に積層して設けられ、該表示部に対する外部からの接触を検知し、該接触が生じている接触位置に応じた操作信号の入力を受け付ける入力部と、
撮影済みの画像を前記表示部が表示している最中に前記入力部が外部からの接触を検知し該接触を検知した位置に前記顔検出部が人物の顔を検出すると、該顔の拡大画像を生成する拡大画像生成部と、
前記拡大画像生成部が生成した前記拡大画像を前記撮影済みの画像と合成することによって合成画像を生成する合成画像生成部と、
を備え、
前記表示部は、
前記合成画像を表示している最中に、前記接触位置が前記表示部の幅方向に沿ってスライドする場合、このスライドに応じて前記表示部の幅方向へ前記撮影済みの画像をスライドさせると共にこのスライドに応じて前記拡大画像の大きさが変更された前記合成画像を表示し、
前記合成画像を表示している最中に前記入力部が外部からの接触を検知しなくなったとき、前記撮影済みの画像を再表示することを特徴とする撮像装置。
An imaging device that captures an image and generates electronic image data of the image,
A display unit for displaying the captured image;
A face detection unit for detecting a human face existing in the captured image;
An input unit that is provided on the display unit in a stacked manner, detects an external contact with the display unit, and receives an input of an operation signal according to a contact position where the contact occurs;
When the input unit detects an external contact while the display unit is displaying a captured image , and the face detection unit detects a human face at the position where the contact is detected, An enlarged image generating unit for generating an enlarged image;
And composite image generating unit that generates a composite image by combining the enlarged image the enlarged image generating unit has generated to the photographed image,
With
The display unit
While the composite image is being displayed, when the contact position slides along the width direction of the display unit, the captured image is slid in the width direction of the display unit according to the slide. The composite image in which the size of the enlarged image is changed according to the slide is displayed,
An image pickup apparatus that re-displays the captured image when the input unit no longer detects contact from outside while the composite image is being displayed.
前記表示部は、
前記人物に対応する情報を前記拡大画像と合わせて表示することを特徴とする請求項1に記載の撮像装置。
The display unit
The image pickup apparatus according to claim 1, wherein information corresponding to the person is displayed together with the enlarged image .
前記合成画像生成部は、
前記撮影済みの画像の中で前記接触位置と重ならない領域に前記拡大画像を配置することを特徴とする請求項1または2に記載の撮像装置。
The composite image generation unit
The imaging apparatus according to claim 1, wherein the enlarged image is arranged in a region that does not overlap the contact position in the photographed image.
画像を表示する表示部と、前記表示部に積層して設けられ、該表示部に対する外部からの接触を検知し、該接触が生じている接触位置に応じた操作信号の入力を受け付ける入力部と、画像に存在する人物の顔を検出する顔検出部とを備え、画像を撮像して該画像の電子的な画像データを生成する撮像装置に、
撮影済みの画像を前記表示部が表示している最中に前記入力部によって外部からの接触を検知し、該接触を検知した位置に前記顔検出部が人物の顔を検出すると、該顔の拡大画像を生成する拡大画像生成ステップ、
前記拡大画像生成ステップで生成した前記拡大画像を前記撮影済みの画像と合成することによって合成画像を生成する合成画像生成ステップ、
前記合成画像生成ステップで生成した前記合成画像を前記表示部に表示させる合成画像表示ステップ、
前記合成画像表示ステップで前記表示部によって前記合成画像を表示している最中に前記入力部によって外部からの接触を検知しなくなったとき、前記撮影済みの画像を再表示する撮影済画像再表示ステップ、
を実行させ、
前記合成画像表示ステップは、
前記合成画を表示している最中に、前記接触位置が前記表示部の幅方向に沿ってスライドする場合、このスライド応じて前記表示部の幅方向へ前記撮影済みの画像をスライドさせると共にこのスライドに応じて前記拡大画像の大きさが変更された前記合成画像を前記表示部に表示させることを特徴とする撮像装置用プログラム。
A display unit that displays an image; and an input unit that is stacked on the display unit, detects an external contact with the display unit, and receives an input of an operation signal according to a contact position where the contact is generated An imaging device that detects a face of a person present in the image and captures the image to generate electronic image data of the image;
While the display unit is displaying a photographed image, contact from the outside is detected by the input unit , and when the face detection unit detects a human face at the position where the contact is detected, An enlarged image generating step for generating an enlarged image;
Composite image generation step of generating a composite image by combining said already captured image the enlarged image generated by the enlarged image generating step,
Composite image display step of displaying the composite image generated in the synthetic image generating step on the display unit,
In the composite image display step, the captured image is redisplayed when the input unit no longer detects external contact while the composite image is displayed on the display unit. Step,
And execute
The composite image display step includes
While the composite image is being displayed, when the contact position slides along the width direction of the display unit, the photographed image is slid in the width direction of the display unit according to the slide. A program for an imaging apparatus, wherein the composite image in which the size of the enlarged image is changed according to a slide is displayed on the display unit.
JP2013042466A 2013-03-05 2013-03-05 IMAGING DEVICE AND IMAGING DEVICE PROGRAM Expired - Fee Related JP5555344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013042466A JP5555344B2 (en) 2013-03-05 2013-03-05 IMAGING DEVICE AND IMAGING DEVICE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013042466A JP5555344B2 (en) 2013-03-05 2013-03-05 IMAGING DEVICE AND IMAGING DEVICE PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008299885A Division JP5220567B2 (en) 2008-11-25 2008-11-25 IMAGING DEVICE AND IMAGING DEVICE PROGRAM

Publications (2)

Publication Number Publication Date
JP2013150336A JP2013150336A (en) 2013-08-01
JP5555344B2 true JP5555344B2 (en) 2014-07-23

Family

ID=49047368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013042466A Expired - Fee Related JP5555344B2 (en) 2013-03-05 2013-03-05 IMAGING DEVICE AND IMAGING DEVICE PROGRAM

Country Status (1)

Country Link
JP (1) JP5555344B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234199A (en) * 2004-02-19 2005-09-02 Nec Saitama Ltd Image display control method and image display control unit, and personal digital assistant equipped therewith
JP4720167B2 (en) * 2004-12-03 2011-07-13 株式会社ニコン Electronic camera and program
JP4882319B2 (en) * 2005-09-08 2012-02-22 パナソニック株式会社 Information display device
US8264545B2 (en) * 2006-12-11 2012-09-11 Nikon Corporation Electronic camera

Also Published As

Publication number Publication date
JP2013150336A (en) 2013-08-01

Similar Documents

Publication Publication Date Title
US8384816B2 (en) Electronic apparatus, display control method, and program
US9496005B2 (en) Electronic apparatus, display control method and program for displaying an image for selecting a content item to be reproduced
JP2011097441A (en) Information processing apparatus, image display method and computer program
US9632579B2 (en) Device and method of processing image
JP2016119600A (en) Editing device and editing method
JP5220567B2 (en) IMAGING DEVICE AND IMAGING DEVICE PROGRAM
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
JP5785038B2 (en) Photography equipment
JP5733956B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, MOVIE RECORDING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5604916B2 (en) Image processing apparatus and program
JP2013117908A (en) Image processor, image processing method, and imaging apparatus
JP5555344B2 (en) IMAGING DEVICE AND IMAGING DEVICE PROGRAM
JP5479149B2 (en) Image generation device
JP2010166417A (en) Camera, display control unit for camera, display control method, and program for display control
JP4899538B2 (en) Information processing apparatus and method, and program
JP7098495B2 (en) Image processing device and its control method
JP5930693B2 (en) Movie recording apparatus and control method thereof
JP2018038090A (en) Image creation device, image creation method, image creation program, and image creation system
JP2010166418A (en) Camera, display control device for camera, display control method, and program for display control
JP7150590B2 (en) Electronics
JP2010187119A (en) Image capturing apparatus, and program for the same
JP2005252803A (en) Apparatus, method, and program for image processing and recording medium with the program stored
JP5677598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5932963B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

R151 Written notification of patent or utility model registration

Ref document number: 5555344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees