JP4540580B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4540580B2
JP4540580B2 JP2005291742A JP2005291742A JP4540580B2 JP 4540580 B2 JP4540580 B2 JP 4540580B2 JP 2005291742 A JP2005291742 A JP 2005291742A JP 2005291742 A JP2005291742 A JP 2005291742A JP 4540580 B2 JP4540580 B2 JP 4540580B2
Authority
JP
Japan
Prior art keywords
image
sub
camera
images
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005291742A
Other languages
Japanese (ja)
Other versions
JP2007104337A5 (en
JP2007104337A (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2005291742A priority Critical patent/JP4540580B2/en
Publication of JP2007104337A publication Critical patent/JP2007104337A/en
Publication of JP2007104337A5 publication Critical patent/JP2007104337A5/ja
Application granted granted Critical
Publication of JP4540580B2 publication Critical patent/JP4540580B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

この発明は、複数の画像を組み合わせて表示やプリント等して画像鑑賞を楽しむカメラ並びにその制御方法に関する。また、本発明はその制御方法をコンピュータに実行させるプログラム並びにそのようなプログラムが記録された記録媒体に関する。   The present invention relates to a camera that enjoys image appreciation by combining a plurality of images for display or printing, and a control method therefor. The present invention also relates to a program for causing a computer to execute the control method and a recording medium on which such a program is recorded.

図1、図2を用いて従来の画像鑑賞スタイルについて説明する。従来ユーザーは、図1(A)のようにカメラで写真を撮影したあと、各画像を図1(B)のように画像を個別にプリントして、図1(C)のようにアルバムに貼り付け保存する。そして、時により図1(D)のようにアルバムをめくって撮影時の思い出を振り返るという鑑賞法が一般的であった。特にフィルムカメラの場合、画像は現像してからでないと出来栄えがわからないので、全てのコマをプリントして、本当に失敗の写真以外はアルバムに入れてしまうという整理鑑賞法が一般的であった。また、ユーザーはその中で特別なものだけを他の人にプレゼントしていた。   A conventional image appreciation style will be described with reference to FIGS. A conventional user takes a picture with a camera as shown in FIG. 1 (A), then prints each image individually as shown in FIG. 1 (B), and pastes it on an album as shown in FIG. 1 (C). Save it. Then, as shown in FIG. 1D, an appreciation method is generally used in which an album is turned to look back on memories at the time of shooting. Especially in the case of a film camera, the image is not developed until it is developed, so the general appreciation method is to print all the frames and put them in the album except for the really failed photos. In addition, users gave only special ones to others.

一方最近は銀塩カメラに代わってデジタルカメラが主流になってきているが、デジタルカメラにおいても、プリントをプレゼントするという文化はニーズとして大きい。きれいな写真をプレゼントしたり、されたりすることが楽しいことには変わりはない。   On the other hand, digital cameras have recently become the mainstream in place of film cameras, but there is a great need for digital cameras in the culture of presenting prints. It is still fun to give beautiful photos as gifts.

そして、デジタル画像は加工編集が容易なことから、このデジタル化の時代にあっては、同じ一枚の写真をプリントする際して単にその人が写っている写真を単独でプリントするのではなく、画像の合成などの処理によって複数の画像を1の画面に配置して、より雰囲気豊かなプリントを作成することも行われる。具体的には、図2(A)のように別々に撮影された画像から、同図(B)のように1つの画面にサイズを調整配置して新たな画像が作成されたり、あるいは同図(C)のような1つの画像に溶け込ませた合成画像も作成される。また、特開2000−215212号公報には、画像につけられた識別子によって画像を分類してアルバムを作るフォトコラージュの作成方法も提案されている。
特開2000−215212号公報
And since digital images are easy to edit and edit, in the age of digitization, when you print the same single photo, you don't just print the photo of the person alone. A plurality of images are arranged on one screen by processing such as image synthesis, and a print with a richer atmosphere is created. Specifically, a new image is created by adjusting and arranging the size on one screen as shown in FIG. 2B from images taken separately as shown in FIG. A composite image blended into one image as shown in (C) is also created. Japanese Laid-Open Patent Publication No. 2000-215212 also proposes a photo collage creation method for classifying an image by an identifier attached to the image to create an album.
JP 2000-215212 A

上記のような複数の画像を合成して1の画像を作成することは、専用のソフトがインストールされたパーソナルコンピュータを用いて行えば可能である。そのプリント画像も同様である。しかし、複数の画像を組合せれば常に雰囲気豊かな画像が得られるわけではない。つまり、雰囲気豊かな組合せ画像を得るためには、単なる画像処理の技術だけではなく、組み合わせる画像を適切に選択することも重要なポイントになる。   A single image can be created by combining a plurality of images as described above using a personal computer in which dedicated software is installed. The same applies to the print image. However, if a plurality of images are combined, an image rich in atmosphere is not always obtained. In other words, in order to obtain a combination image with a rich atmosphere, it is important to select not only a simple image processing technique but also an image to be combined.

しかし、どのような画像を組み合わせればより雰囲気豊かな組合せ画像やそのプリントができるかは、経験の浅いユーザーには簡単に判るものではなく、現状では適切な組合せ画像を作るのは容易でない。適切な組み合わせる画像が選択なされて、初心者でも適切な組み合わ画像を作成することのできるカメラが望まれる。   However, it is not easy for inexperienced users to know which images can be combined with a richer atmosphere and to print the images, and it is not easy to create an appropriate combination image at present. An appropriate combination image is selected, and a camera capable of creating an appropriate combination image even by a beginner is desired.

本発明は上記課題に鑑みなされたものであって、組合せ画像作成に用いる組み合わせる画像を適切に選択するカメラを提供することをこの発明の目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a camera that appropriately selects a combined image to be used for creating a combined image.

1)前述の目的を達成するために、本発明によるカメラは、撮影された画像を画像メモリに記録する記録制御部と、上記撮影された画像に写っている人数を検出する特徴抽出部と、上記特徴検出部の検出に基づいて、上記画像メモリに記録された画像の中で指定された画像に対するサブ画像を画像メモリから選択する選択部と、上記指定された画像及び上記選択された画像の少なくとも2つの画像から1つの画像を形成する画像処理部とを備え上記選択部は、上記指定された画像が上記特徴検出部の検出に基づいてポートレイト画像であると判断された場合に、対応するサブ画像として複数の人が集合する集合画像を画像メモリから選択することを特徴とする。 1) In order to achieve the above-described object, a camera according to the present invention includes a recording control unit that records a captured image in an image memory, a feature extraction unit that detects the number of people in the captured image, Based on the detection of the feature detection unit, a selection unit that selects a sub-image from the image memory for the specified image among the images recorded in the image memory, and the specified image and the selected image An image processing unit that forms one image from at least two images, and the selection unit is configured to cope with a case where the designated image is determined to be a portrait image based on detection by the feature detection unit. A collective image in which a plurality of people gather is selected from the image memory as a sub-image to be performed.

2)さらにこの発明のカメラは、上記記録制御部は、上記特徴抽出部によって検出された人数を撮影情報として撮影された画像とともに前記画像メモリに記録することを特徴とする。 2) Further, in the camera according to the present invention, the recording control unit records the number of persons detected by the feature extracting unit together with a photographed image in the image memory.

3)またこの発明によるカメラは、上記選択部は、上記特徴検出部の検出に基づいて上記指定された画像に人が写っていないと判断された場合には、当該指定された画像に対するサブ画像として人の写っていない画像を画像メモリから選択することを特徴とする。 3) In the camera according to the present invention, if the selection unit determines that no person is included in the specified image based on the detection by the feature detection unit, the sub-image corresponding to the specified image is displayed. As described above, an image in which no person is photographed is selected from the image memory.

本発明によれば、デジタルカメラ、特に組合せ画像作成に用いる組み合わせる画像を適切に選択することのできるカメラを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the camera which can select appropriately the digital camera, especially the combined image used for combined image preparation can be provided.

以下、図示の実施形態によって本発明を説明する。   Hereinafter, the present invention will be described with reference to the illustrated embodiments.

以下図3〜図9を用いて本発明の実施例1について説明する。図3は本願発明の実施例であるカメラ10のブロック図である。   Embodiment 1 of the present invention will be described below with reference to FIGS. FIG. 3 is a block diagram of the camera 10 which is an embodiment of the present invention.

カメラ10には、被写体11の像を結像するための撮影レンズ2、光学像を光電変換する撮像素子3、撮像素子3からの電気信号をデジタルデータに変換するA/D変換手段4、ホワイトバランス調整やガンマ補正や画像圧縮伸長処理及び後述するように複数画像から1つの画像を形成する処理を行う画像処理手段5、不揮発性のメモリ(例えば、フラッシュやハードディスク)から成る画像メモリ6、画像メモリ6に画像を記録させる記録制御手段1aが設けられる。   The camera 10 includes a photographing lens 2 for forming an image of the subject 11, an image pickup device 3 for photoelectrically converting an optical image, an A / D conversion means 4 for converting an electrical signal from the image pickup device 3 into digital data, white Image processing means 5 for performing balance adjustment, gamma correction, image compression / decompression processing, and processing for forming one image from a plurality of images as will be described later, an image memory 6 comprising a non-volatile memory (for example, a flash or a hard disk), an image A recording control unit 1a for recording an image in the memory 6 is provided.

撮影レンズ2はズームレンズ(不図示)を有し、そのズーム位置を制御するズーム制御手段2bが設けられる。ズーム制御手段2bはレンズ駆動モータを有する。   The photographing lens 2 has a zoom lens (not shown), and is provided with zoom control means 2b for controlling the zoom position. The zoom control means 2b has a lens drive motor.

また、撮影時に撮影レンズ2のピント合わせを行うピント合わせ手段2aが設けられる。ピント合わせ手段2aはアクチュエータ等からなり、被写体像が最もくっきり映る位置に撮影レンズ2のピント合わせを行なうように、画像処理手段5から出力される画像のコントラスト信号に従って、それが最も高コントラストを示すように撮影レンズ2の位置を制御する。   In addition, a focusing means 2a for focusing the photographing lens 2 at the time of photographing is provided. The focusing means 2a is composed of an actuator or the like, and it exhibits the highest contrast according to the contrast signal of the image output from the image processing means 5 so that the photographing lens 2 is focused at a position where the subject image is most clearly reflected. In this way, the position of the taking lens 2 is controlled.

またカメラ10には、操作状況を通知するスイッチ12a、スイッチ12bや、本発明の特徴部である、画像の特徴を抽出するための画像の特徴抽出手段8、撮影の日時を検出する時計8a、撮影中の画像や記録された画像を表示する表示手段9(例えばLCDからなる)、外部機器として接続されるプリンタ20に画像データを出力する送信手段7が設けられる。   Further, the camera 10 includes a switch 12a and a switch 12b for notifying operation status, an image feature extracting means 8 for extracting image features, which is a feature of the present invention, and a clock 8a for detecting the shooting date and time. Display means 9 (for example, composed of an LCD) for displaying an image being photographed or recorded, and transmission means 7 for outputting image data to a printer 20 connected as an external device are provided.

カメラ10には、カメラ10全体のシーケンスを司るCPU1が設けられる。CPU1は、ズーム制御手段2b、ピント合わせ手段2a、画像処理手段5、特徴抽出手段8、送信手段7等を制御する。また、CPU1はプログラムに応じた制御をすることにより、機能部として、画像メモリ6に画像データを記録させる記録制御部1aと、詳細は後述する選択部1bを有する。   The camera 10 is provided with a CPU 1 that controls the entire sequence of the camera 10. The CPU 1 controls the zoom control unit 2b, the focusing unit 2a, the image processing unit 5, the feature extraction unit 8, the transmission unit 7, and the like. Further, the CPU 1 has a recording control unit 1a for recording image data in the image memory 6 and a selection unit 1b, which will be described in detail later, as functional units by performing control according to the program.

以下、カメラ10の動作を簡単に説明する。CPU1は、スイッチ12a、スイッチ12bの操作状態を検出してユーザーの操作を判定する。そして、撮影等指示があると、ピント合わせ手段2a及びズーム制御手段2b等によって撮影レンズ2を制御して撮影を行う。   Hereinafter, the operation of the camera 10 will be briefly described. The CPU 1 determines the user's operation by detecting the operation state of the switch 12a and the switch 12b. Then, when there is an instruction for photographing, the photographing lens 2 is controlled by the focusing means 2a, the zoom control means 2b, etc., and photographing is performed.

撮影レンズ2を通った被写体11の像は撮像素子3に結像されて出力され、A/D変換手段4でデジタル画像信号に変換される。さらにこの画像信号は画像処理手段5にてホワイトバランス調整やガンマ補正および圧縮されて、記録制御部1aによって画像データとして画像メモリ6に記録される。   The image of the subject 11 passing through the photographing lens 2 is formed on the image sensor 3 and output, and is converted into a digital image signal by the A / D conversion means 4. Further, the image signal is subjected to white balance adjustment, gamma correction and compression by the image processing means 5, and is recorded in the image memory 6 as image data by the recording control unit 1a.

更に、CPU1は、ピント合わせ手段2aでピントを合わせた時のレンズ位置から被写体の距離Lを検出し、またズーム制御手段2bからズーム位置情報Zを検出する。特徴抽出手段8は、被写体の距離Lやズーム位置情報Zや画像処理手段5が出力する像の特徴を表すデータから個々の撮影画像の特徴(明るさ、色等)を抽出する。被写体の距離L、ズーム位置情報Z等の抽出された特徴データは記録制御部1aによって画像データをともに画像メモリ6に記録される。     Further, the CPU 1 detects the distance L of the subject from the lens position when the focus is adjusted by the focus adjusting unit 2a, and detects the zoom position information Z from the zoom control unit 2b. The feature extraction unit 8 extracts the characteristics (brightness, color, etc.) of each captured image from the data indicating the feature L of the subject, the zoom position information Z, and the image feature output by the image processing unit 5. The extracted feature data such as the subject distance L and the zoom position information Z are recorded together with the image data in the image memory 6 by the recording control unit 1a.

そして、画像メモリ6に記録された画像は表示手段9に再生表示がされる。またカメラ
10に外部機器としてプリンタ20が接続された場合には、画像メモリ6に記録された画像データは、指示に応じて画像処理手段5 から送信手段7 を介してプリンタ20に対して出力される。そしてプリンタ20から写真20aとしてプリントアウトされる。さらに、後述するように、画像メモリ6に記録された複数の画像( 例えば2つの画像) から画像処理手段5により1つの画像として形成された画像も、表示手段9 に表示され、プリントアウトもされる。
The image recorded in the image memory 6 is reproduced and displayed on the display means 9. When the printer 20 is connected to the camera 10 as an external device, the image data recorded in the image memory 6 is output from the image processing unit 5 to the printer 20 via the transmission unit 7 according to the instruction. The Then, it is printed out from the printer 20 as a photograph 20a. Further, as will be described later, an image formed as one image by the image processing means 5 from a plurality of images (for example, two images) recorded in the image memory 6 is also displayed on the display means 9 and printed out. The

図4(A)はこのようなカメラ10の外観を背面から見た斜視図である。カメラ10の背面には大型のLCDからなる表示手段9が搭載されており、表示手段9の横のユーザーの右手親指で操作できる位置に、スイッチ12aである十字キー型の組スイッチ及び単一のスイッチであるスイッチ12bが配置されている。また、カメラ10の下面にはプリンタ用コネクタ部14が設けられている。表示手段9の画面には、例えば本図で示すように大きな領域のメイン画面9aと小さな領域のサブ画面9bの2つの画面が表示される。2つの画像の表示によって見る楽しみが倍加するように、ここではサブ画面9bの画像として、ポートレイト撮影のメイン画像と対照的な集合写真の画像が選ばれているが、詳細は後述する。   FIG. 4A is a perspective view of the appearance of the camera 10 as viewed from the back. A display unit 9 made of a large LCD is mounted on the rear surface of the camera 10. A cross key type switch as a switch 12 a and a single switch are arranged at a position where the user can operate with the right thumb of the user next to the display unit 9. A switch 12b which is a switch is arranged. A printer connector 14 is provided on the lower surface of the camera 10. On the screen of the display means 9, for example, as shown in the figure, two screens are displayed: a main screen 9a having a large area and a sub-screen 9b having a small area. In order to double the enjoyment of viewing by displaying two images, a group photo image contrasting with the main image of portrait shooting is selected here as the image of the sub-screen 9b. Details will be described later.

図4( B ) は、図4( A )で表示された2つの画像がプリントされたプリント画像例である。カメラ10にプリンタ20 が接続され、図4( A )のメイン画面9aとサブ画面9 bで表示された2つの画像から組み合わせて形成された画像の画像データが画像処理手段5から送信手段7を介してプリンタ20 に出力され、図4( B ) のようなプリントが得られる。 FIG. 4B is an example of a printed image in which the two images displayed in FIG. 4A are printed. A printer 20 is connected to the camera 10, and image data of an image formed by combining two images displayed on the main screen 9 a and the sub screen 9 b in FIG. 4A is transmitted from the image processing unit 5 to the transmission unit 7. And output to the printer 20 to obtain a print as shown in FIG.

このように複数の画像が組み合わさった画像をプリントすることによって、今までシステム化されて愛用されてきたフィルムカメラの1コマ1枚のプリントよりも情報量の多いプリントを作成することができ、撮って楽しくもらってうれしいプリントを提供することができる。   By printing an image in which a plurality of images are combined in this way, it is possible to create a print with a larger amount of information than one frame-by-frame print that has been systematized and used habitually until now. It is possible to provide nice prints that you can enjoy taking.

図5は、実施例1のカメラにおける撮影再生処理を説明するフローチャートである。このフローチャートは、図4(A)(B)に示した再生およびプリント等のための2画像からなる画像を設定する等の処理についてメインのフローチャートである。この処理はCPU1に内蔵または外付けROM(不図示)に記憶されたプログラムを読み込んだCPU1、及び特徴抽出手段8により主に実行される。   FIG. 5 is a flowchart for explaining shooting / playback processing in the camera of the first embodiment. This flowchart is a main flowchart for the process of setting an image composed of two images for reproduction and printing shown in FIGS. 4A and 4B. This process is mainly executed by the CPU 1 reading the program stored in the CPU 1 or stored in an external ROM (not shown) and the feature extraction means 8.

図5のステップS1とステップS11は、カメラ10の動作が撮影シーケンスか再生モードかを判定するステップである。まず不図示のレリーススイッチの操作検出がなされ、レリース操作を検出すると(ステップS1Y)撮影シーケンスに入る。ピント合わせ手段2aにピント合わせ制御を行わせ(ステップS2)、続いて撮影を行う(ステップS3)。   Steps S1 and S11 in FIG. 5 are steps for determining whether the operation of the camera 10 is a shooting sequence or a playback mode. First, an operation of a release switch (not shown) is detected, and when a release operation is detected (step S1Y), a shooting sequence is started. The focusing unit 2a performs focusing control (step S2), and then photographing is performed (step S3).

撮影終了後に撮影レンズ2のピント合わせの位置から被写体の距離Lを検出する(ステップS4)。次に撮像素子3の出力から画面内の輝度情報Bを検出し(ステップS5)、ズーム制御手段2bの出力より撮影時のズーム位置情報Zを検出し(ステップS6)、時計手段8aを利用して撮影時の時刻情報Tを検出し(ステップS7)、撮像素子3からの出力から色情報Cを検出する(ステップS8)。   After the photographing is completed, the subject distance L is detected from the focusing position of the photographing lens 2 (step S4). Next, the brightness information B in the screen is detected from the output of the image sensor 3 (step S5), the zoom position information Z at the time of shooting is detected from the output of the zoom control means 2b (step S6), and the clock means 8a is used. Then, time information T at the time of photographing is detected (step S7), and color information C is detected from the output from the image sensor 3 (step S8).

さらに、顔を認識する内蔵プログラムにより画像データから被写体の顔の数情報を認識して人数Nを検出する(ステップS9)。顔の数は、目や鼻の部分を利用して人肌の色から画像に含まれる人物の顔を検出することにより行う。   Further, the number N of the faces of the subject is recognized from the image data by the built-in program for recognizing the face and the number N of people is detected (step S9). The number of faces is determined by detecting the faces of persons included in the image from the color of human skin using the eyes and nose.

以上ステップS4からステップS10まで各情報検出は、CPU1の制御による特徴抽出手段8により行われる。そして、このようにして得られた情報は撮影画像に付随させる情報(L、B、Z、C、N、T)として画像データとともに記録制御部1aによって画像メモリ6に記録させる(ステップS10)。   The information detection from step S4 to step S10 is performed by the feature extraction means 8 under the control of the CPU 1. The information thus obtained is recorded in the image memory 6 by the recording control unit 1a together with the image data as information (L, B, Z, C, N, T) attached to the photographed image (step S10).

一方、レリース操作を検出しない(ステップS1N)ときには、ステップS11に進む。ステップS11は、再生モードか撮影モードかを判定するステップであり、ユーザーが再生モードに設定しているときは(ステップS11Y)、最後に撮影した画像を表示手段9に表示させる(ステップS12)。   On the other hand, when the release operation is not detected (step S1N), the process proceeds to step S11. Step S11 is a step of determining whether the mode is the playback mode or the shooting mode. When the user has set the playback mode (step S11Y), the last captured image is displayed on the display means 9 (step S12).

この表示状態で、ユーザーのマルチ画面スイッチ12bの操作を判定する(ステップS13)。マルチ画面表示の操作が行われない(ステップS13N)ときには、さらにユーザーの画像切換操作を判定する(ステップS14)。切換え操作があれば(ステップS14Y)別の画像を画像メモリ6から読み出し全画面表示して(ステップ15)、ステップS11に戻る。一方、ステップS14で切換え操作がなければ(N)、そのままステップS11に戻る。   In this display state, the user's operation of the multi-screen switch 12b is determined (step S13). When the multi-screen display operation is not performed (step S13N), the user's image switching operation is further determined (step S14). If there is a switching operation (step S14Y), another image is read from the image memory 6 and displayed on the full screen (step 15), and the process returns to step S11. On the other hand, if there is no switching operation in step S14 (N), the process directly returns to step S11.

一方、マルチ画面表示の操作を検出すると(ステップS13Y)、ユーザーに画像メモリ6に記録された画像の中から表示手段9のメイン画面9aに表示させる主画像を指定させる(ステップS21)。この指定がなされない時には、ステップS12で表示されている画像を主画像とする。この指定はスイッチ12a(十字キースイッチ)の操作を検出して、順次画像を切り換るようにする。   On the other hand, when an operation for multi-screen display is detected (step S13Y), the user is caused to designate a main image to be displayed on the main screen 9a of the display means 9 from the images recorded in the image memory 6 (step S21). When this designation is not made, the image displayed in step S12 is set as the main image. This designation detects the operation of the switch 12a (cross key switch) and sequentially switches the images.

主画像が指定された後に、サブ画像選択を行なう(ステップS22)。このステップでは、前述のステップS10で主画像に付加された付随情報L,B,Z,C、Nに基づいて、主画像を引き立てるような、主画像と対照的な画像をサブ画像として選択する。   After the main image is designated, sub-image selection is performed (step S22). In this step, based on the accompanying information L, B, Z, C, and N added to the main image in step S10 described above, an image that contrasts with the main image is selected as a sub image. .

図6、図7は、このサブ画像選択処理の詳細を説明するフローチャートである。このサブ画像選択は、CPU1の制御機能の一部としての選択手段1bによって主に実行される。   6 and 7 are flowcharts for explaining the details of the sub-image selection processing. This sub-image selection is mainly executed by the selection means 1b as a part of the control function of the CPU 1.

まず、サブ画像選択の処理の内で図6のフローで説明する部分は、現在の日時に応じてサブ画像を選択することに特徴がある。つまり、サブ画像選択の第1段階として、主画像の撮影日時に近い画像からサブ画像を選択するが、この時にサブ画像の候補が多いほど適切な画像選択ができるわけであるが、むやみに範囲を広げると主画像と関係ない画像をサブ画像に選択してしまうことになる。そこで、選択する際に再生する現在の日時と撮影日時の間隔を考慮してその範囲を適切に設定するようにする。   First, the part described in the flow of FIG. 6 in the sub image selection process is characterized in that a sub image is selected according to the current date and time. In other words, as the first stage of sub-image selection, sub-images are selected from images close to the shooting date and time of the main image. At this time, the more sub-image candidates, the more appropriate image selection can be made. If it is widened, an image unrelated to the main image is selected as the sub image. Therefore, the range is appropriately set in consideration of the interval between the current date and time of reproduction and the shooting date and time when selecting.

まず、ユーザーに指定された主画像について、この主画像に付加されている時刻情報Tを読み出し、これから撮影日時情報を算出してこれをDoとする(ステップS31)。次に、このマルチ画面再生をおこなっている操作日時(現在)の情報Dopを時計8aから算出する(ステップS32)。   First, for the main image designated by the user, the time information T added to the main image is read out, and the shooting date / time information is calculated therefrom, and this is set to Do (step S31). Next, the information Dop of the operation date / time (current) during the multi-screen reproduction is calculated from the clock 8a (step S32).

次に、操作日時Dopと主画像撮影日時Doとの時間差ΔDを算出する(ステップS33)。これは、主画像からこの主画像に関連するサブ画像を選択するときに、現時点と主画像撮影時が時間的に離れていれば、主画像からサブ画像の2つの画像の撮影時点が離れていても、同じ時代の記憶として回想可能であるということに着目したものである。   Next, a time difference ΔD between the operation date / time Dop and the main image shooting date / time Do is calculated (step S33). This is because when the sub-image related to the main image is selected from the main image, if the current time and the main image shooting time are separated from each other in time, the shooting time of the two images of the sub image is separated from the main image. However, it focuses on the fact that it can be recollected as a memory of the same era.

図8はこの様子を概念的に説明するための図である。横軸は時間軸で、左方向が過去で、右方向が現在方向を示す。縦軸は画像メモリ6に記録されている画像数を示す。旅行などである日時の範囲に画像撮影を集中して行ったとする。操作時点が主画像の撮影時点Doから近い時点Dop1の時には、例えば主画像と同日であるような狭い期間(候補1)に撮影された画像からサブ画像から選ばないと不自然になるので、候補1の範囲で選ぶ必要がある。   FIG. 8 is a diagram for conceptually explaining this state. The horizontal axis is the time axis, the left direction is the past, and the right direction is the current direction. The vertical axis indicates the number of images recorded in the image memory 6. Assume that the image shooting is concentrated on a range of dates and times such as travel. When the operation time point is a time point Dop1 close to the main image capturing time Do, for example, it becomes unnatural unless it is selected from sub-images from images captured in a narrow period (candidate 1) that is the same day as the main image. It is necessary to select in the range of 1.

一方、操作時点が旅行から帰ってしばらく経過した時点Dop2になると、旅行中の事であればどの日の写真でも頭の中では、同じ旅の日の記録として整理されるので、サブ画像の候補としては候補1より広い候補2の期間から選んでも問題なくなるからである。   On the other hand, when the operation time point is Dop2, which is a time point after returning from the trip, the photos of any day are arranged in the head as a record of the same trip date as long as it is a trip. This is because there is no problem even if it is selected from the period of candidate 2 wider than candidate 1.

そこで、図6に戻り、時間差ΔDが例えば1日より長いかを判断し(ステップS34)、1日より長いとき(ステップS34Y)は、さらに時間差ΔDが例えば7日より長いかを判断し(ステップS35)、7日より長いとき(ステップ35Y)はステップ36に進む。そして主画像の撮影日時(Do)の前後3日をサブ画像の候補範囲に設定する(ステップ36)。   Returning to FIG. 6, it is determined whether the time difference ΔD is longer than 1 day (step S34). If longer than 1 day (step S34Y), it is further determined whether the time difference ΔD is longer than 7 days (step S34). S35) When longer than 7 days (step 35Y), the process proceeds to step 36. Then, three days before and after the shooting date (Do) of the main image are set as the candidate range of the sub image (step 36).

一方ステップS35で、時間差ΔDが7日以下のとき(ステップS35N)は、主画像の撮影日時(Do)の前後1日をサブ画像の候補範囲に設定する(ステップS37)。   On the other hand, when the time difference ΔD is 7 days or less in step S35 (step S35N), one day before and after the main image shooting date and time (Do) is set as the sub image candidate range (step S37).

またステップS34で、時間差ΔDが1日以下のとき(ステップS34N)は、主画像の撮影日時(Do)と同日をサブ画像の候補範囲に設定する(ステップS38)。   In step S34, when the time difference ΔD is 1 day or less (step S34N), the same date as the main image shooting date and time (Do) is set as the sub image candidate range (step S38).

前述したように、最近の画像であれば、ステップS38のようにその画像と同じ日の出来事の方が好ましく、しばらく経った思い出であれば、ステップS36のように±3日くらいの差があっても、同じ時期の思い出として、自然に回想することができるからである。   As described above, if it is a recent image, an event on the same day as that image is preferable as in step S38, and if it is a memory that has passed for a while, there is a difference of about ± 3 days as in step S36. However, it is possible to recollect naturally as memories of the same period.

以上のように、再生(操作)時点と撮影時間の経過時間によって候補とする撮影日時範囲を切換えるようにするので、サブ画像の選択用の候補範囲を適切に設定することができる。   As described above, the candidate shooting date / time range is switched according to the reproduction (operation) time and the elapsed shooting time, so that the candidate range for selecting the sub image can be appropriately set.

上記ステップS36,S37,S38の後は、図7のステップS41に進む。図7は、図6のフローで設定された候補範囲に含まれる画像の中から、さらにサブ画像を絞るための要件を説明するフローチャートである。なお表示されるサブ画像の数は1つでなく複数でも良いが、以下の説明では単純化のためにサブ画像の数を1つとして説明する。   After steps S36, S37, and S38, the process proceeds to step S41 in FIG. FIG. 7 is a flowchart for explaining the requirements for further narrowing down the sub-images from the images included in the candidate range set in the flow of FIG. Note that the number of displayed sub-images is not limited to one, but a plurality of sub-images may be used. However, in the following description, the number of sub-images will be described as one for simplification.

ステップS41では、画像メモリ6に記録された画像の中で、ステップS36,S37,S38いずれかで設定された候補範囲に該当する候補画像がいくつあるかを、各画像データに添付されている撮影日時に基づいて判定する。そして候補画像が複数あるかを判定し(ステップS41)、複数個ない場合つまり候補が1以下である場合(ステップS41N)は、ステップS42に進む。   In step S41, the number of candidate images corresponding to the candidate range set in any of steps S36, S37, and S38 among the images recorded in the image memory 6 is photographed attached to each image data. Judgment based on date and time. Then, it is determined whether there are a plurality of candidate images (step S41). If there are not a plurality of candidate images, that is, if the number of candidates is 1 or less (step S41N), the process proceeds to step S42.

次に候補画像が1つであるかを判定し1つのときは(ステップS42Y)、その候補画像をサブ画像に決定し(ステップS44)、このサブルーチンを終了する。   Next, it is determined whether there is one candidate image. If there is one (step S42Y), the candidate image is determined as a sub-image (step S44), and this subroutine is terminated.

しかし、候補が1つもないとき(ステップS42N)は、上記ステップS36,S37,S38等で日付から候補に選ばれた画像データとは無関係なデフォルト画像を選択し(ステップS43)、これをサブ画像として決定する(ステップS44)。このデフォルト画像としては、例えば主画像を画像処理手段5で白黒画像に処理させたり、絵画風にデコレートさせたりした画像を利用しても良い。また、画像メモリ6に予めデフォルト画像用に装飾用画像を記録しておけば、ユーザーが撮影した画像以外でも、サブ画像に利用することができる。   However, when there is no candidate (step S42N), a default image irrelevant to the image data selected as the candidate from the date in the above steps S36, S37, S38, etc. is selected (step S43), and this is selected as the sub-image. (Step S44). As this default image, for example, an image obtained by processing the main image into a black and white image by the image processing means 5 or decorating like a painting may be used. Further, if a decoration image for a default image is recorded in the image memory 6 in advance, an image other than the image taken by the user can be used as a sub image.

一方ステップS41にて、候補画像が複数あるとき(ステップS41Y)は、ステップ51に進む。これ以降では、被写体の距離Lによる判定及び画像の明るさ情報B、色情報C等による判定を行ってサブ画像を絞り込む。   On the other hand, when there are a plurality of candidate images in step S41 (step S41Y), the process proceeds to step 51. Thereafter, the sub-image is narrowed down by performing determination based on the distance L of the subject and determination based on image brightness information B, color information C, and the like.

まず被写体の距離Lに基づいてサブ画像を選択する。主画像撮影時の被写体の距離をLoとして、このLoを近距離L01(例えば1.5m)と比較し(ステップS51)、Lo<L01のとき(ステップS51Y)はステップS52に進む。このばあいには、主要被写体が人物である場合には人物のアップの写真であると推定されるからである。   First, a sub image is selected based on the distance L of the subject. The object distance at the time of main image shooting is set to Lo, and this Lo is compared with a short distance L01 (for example, 1.5 m) (step S51). When Lo <L01 (step S51Y), the process proceeds to step S52. In this case, if the main subject is a person, it is estimated that the photograph is a close-up picture of the person.

そして、L>L03(中距離、L03は例えば4m)の距離で撮影された画像を候補画像とする(ステップS52)。つまり、主画像のアップの写真に対しては、図4(B)のサブ画面9bのようにより多くの人が映っている写真をサブ画像にして対で配置することによって、画面に変化をもたせられるからである。   Then, an image photographed at a distance of L> L03 (medium distance, L03 is 4 m, for example) is set as a candidate image (step S52). That is to say, with respect to the photograph of the main image up, the screen can be changed by arranging the photograph in which more people are reflected as a sub-image as a sub-image 9b in FIG. Because it is.

次に、L>L03に該当する候補があるかを判定し(ステップS53)、候補がないとき(ステップS53Y)には、ステップ54に進む。そして、逆に近接距離L04(例えば1m)未満の画像をサブ画像候補に選択する(ステップS54)。ここで近接距離(マクロ)撮影された画像は、主画像であるアップの人物とは異なる被写体であると推定されるからである。   Next, it is determined whether there is a candidate corresponding to L> L03 (step S53). If there is no candidate (step S53Y), the process proceeds to step 54. On the contrary, an image shorter than the proximity distance L04 (for example, 1 m) is selected as a sub-image candidate (step S54). This is because the image captured at close distance (macro) is estimated to be a subject different from the up person who is the main image.

次に、ステップ54に該当する候補が1 つかを判定し( ステップS64) 、候補数が1のときは、これをサブ画像に決定する( ステップS44) 。図9 は、このようにして決定された画像をサブ画像として、サブ画像と主画像の2 つの画像から形成された1 つの画像の表示例である。図9の9aがアップ撮影された主画像で、9cがマクロ撮影されたサブ画像である。このように、アップ撮影画像に対してマクロ撮影の画像をサブ画像として対比して配置することによって、画面に変化を持たせることができる。 Next, one candidate corresponding to step 54 is determined (step S64). When the number of candidates is 1, this is determined as a sub-image (step S44). 9, an image determined in this way as a sub-image, a display example of an image formed from two images of the sub image and the main image. 9a in FIG. 9 is a main image that has been shot up, and 9c is a sub-image that has been shot in macro. In this way, by arranging the macro-photographed image as a sub-image relative to the up-photographed image, the screen can be changed.

一方、ステップ54の候補がないときまたは複数あるとき(ステップS64N)は、別な選択方法のためにステップS55に進む。   On the other hand, when there is no candidate or a plurality of candidates in step 54 (step S64N), the process proceeds to step S55 for another selection method.

次に、ステップS51に戻る。主画像がLo<L01(近距離、L01は例えば1.5m)でないとき(ステップS51N)には、ステップS61に進む。L<L02(例えば1.2m)で撮影された画像をサブ画像候補として画像メモリ6から選択して、ステップS62に進む。主画像がアップ写真ではないと推定されるから、対するサブ画像としては、逆に近距離で撮影した画像が適するからである。   Next, the process returns to step S51. When the main image is not Lo <L01 (short distance, L01 is, for example, 1.5 m) (step S51N), the process proceeds to step S61. An image photographed with L <L02 (for example, 1.2 m) is selected from the image memory 6 as a sub image candidate, and the process proceeds to step S62. This is because, since the main image is presumed not to be an up-photo, an image taken at a short distance is suitable as a sub-image.

そして、ステップS61での候補がないかを判定し(ステップS62)、候補がないときには(ステップS62Y)、L>L05(中距離、L05は例えば5m)で撮影された画像をサブ画像の候補とする(ステップS63)。そして、L>L05によるサブ画像の候補が1つかを判定し(ステップS64)、1つのときは(ステップS64Y)、これをサブ画像に決定する(ステップS44)。   Then, it is determined whether or not there is a candidate in step S61 (step S62). If there is no candidate (step S62Y), an image shot at L> L05 (medium distance, L05 is 5 m, for example) is set as a sub-image candidate. (Step S63). Then, it is determined whether there is one sub-image candidate with L> L05 (step S64). If there is one (step S64Y), this is determined as a sub-image (step S44).

一方ステップS63による候補がない場合や1つに絞りきれないときは、ステップ55に進む(ステップS64N)。   On the other hand, if there is no candidate in step S63 or if it cannot be narrowed down to one, the process proceeds to step 55 (step S64N).

ステップS55では、主画像に付帯された明るさ(輝度)情報Bに基づき主画像が暗いかを判断する。主画像が暗いと判断されるとき(ステップS55Y)は、候補画像の各画像データの明るさ情報Bと色情報Cに基づき明るくて色あざやかな画像をさらにサブ画像候補として選択する(ステップS56)。そして、これにより候補数が1つになったかを判定し(ステップS57)、1つのとき(ステップS57Y)はこれをサブ画像に決定する(ステップS44)。   In step S55, it is determined whether the main image is dark based on the brightness (luminance) information B attached to the main image. When it is determined that the main image is dark (step S55Y), a bright and colorful image is further selected as a sub image candidate based on the brightness information B and color information C of each image data of the candidate image (step S56). . Then, it is determined whether or not the number of candidates has become one (step S57). When the number is one (step S57Y), this is determined as a sub-image (step S44).

一方候補数が1でなく(ステップS57N)、0のとき(ステップS58Y)は、デフォルト画像をサブ画像に決定する(ステップS43)。   On the other hand, when the number of candidates is not 1 (step S57N) and 0 (step S58Y), the default image is determined as a sub-image (step S43).

一方この候補がまだ複数有るとき(ステップS58N)には、主画像と撮影時点が近い画像をサブ画像として選択(ステップS59)し、これをサブ画像に決定する(ステップS44)。   On the other hand, when there are still a plurality of candidates (step S58N), an image whose photographing point is close to the main image is selected as a sub image (step S59), and this is determined as a sub image (step S44).

次に、ステップS55に戻る。主画像が暗くないとき(ステップS55N)つまり明るいときには、まず主画像に付帯された時刻情報Tから主画像の撮影が夜の撮影かを判定する(ステップS71)。   Next, the process returns to step S55. When the main image is not dark (step S55N), that is, when it is bright, it is first determined from the time information T attached to the main image whether the main image is shot at night (step S71).

主画像が夜撮影の画像と判定された場合には(ステップS71Y)、サブ画像候補としてストロボ撮影された画像を選択する(ステップS72)。主画像が夜撮影の画像でないとき(ステップS72N)には、色情報Cに基づいて色鮮やかなものをサブ画像候補として選択する(ステップS73)。そしてステップS57に進む。ステップS57以降は前述した通りであるので省略する。   When it is determined that the main image is an image captured at night (step S71Y), an image captured with flash is selected as a sub image candidate (step S72). When the main image is not a night image (step S72N), a bright image is selected as a sub image candidate based on the color information C (step S73). Then, the process proceeds to step S57. Since step S57 and subsequent steps are the same as described above, a description thereof will be omitted.

図6のメインのフローチャートに戻る。選択手段1bによるサブ画像選択によってサブ画像と決定された画像を表示させる(ステップS23)。このさいに、画像処理手段5によって、主画像を主画面9aに、サブ画像をサブ画面9bにそれぞれ配置するように、主画像とサブ画像の2つの画像から1つの画像を形成させる。そして、主画面9a、サブ画面9bとして1つに組み合わされた画像を表示手段9に表示させる。   Returning to the main flowchart of FIG. The image determined as the sub image by the sub image selection by the selection means 1b is displayed (step S23). At this time, the image processing means 5 forms one image from the two images of the main image and the sub image so that the main image is arranged on the main screen 9a and the sub image is arranged on the sub screen 9b. Then, the combined image is displayed on the display means 9 as the main screen 9a and the sub screen 9b.

そして、表示を見た結果ユーザーがこのサブ画像が気に入らない場合に、ユーザーはスイッチ12aで画像切換えの操作を行う。ユーザーによる画像切換を検出したら(ステップS24Y)、サブ画像として次の候補の画像を表示させる。このときには、ステップS22のサブ画像選択で選択時にもれた画像のうち、メイン画像との変化が大きいものを選択する。   If the user does not like the sub-image as a result of viewing the display, the user performs an image switching operation with the switch 12a. When image switching by the user is detected (step S24Y), the next candidate image is displayed as a sub-image. At this time, an image having a large change from the main image is selected from the images leaked at the time of selection in the sub image selection in step S22.

以上本実施例では、再生(操作)時点と撮影時間の経過時間によってサブ画像候補とする撮影日時範囲を切換えるようにするので、サブ画像候補の選択範囲を適切に設定することができる。さらに、撮影時に主画像に撮影情報として被写体の距離、明るさ情報、色情報、時刻情報を付加して記録しておき、サブ画像選択時にこれらの情報に基づき、画像メモリに記録された画像の中から、主画像と対照的な被写体の距離の画像や主画像の明るさや色と対照的な画像等を選んでサブ画像候補にするので、カメラに不慣れなユーザーでも、適切なサブ画像を選択することができ、変化の有る再生表示や効果的なプリントを作成することができる。   As described above, in this embodiment, the shooting date / time range as the sub image candidate is switched according to the playback (operation) time and the elapsed time of the shooting time, so that the selection range of the sub image candidate can be appropriately set. Furthermore, the subject distance, brightness information, color information, and time information are added to the main image as shooting information at the time of shooting, and the image recorded in the image memory is recorded based on these information at the time of sub-image selection. The sub-image candidates are selected from among the images of the subject distance in contrast to the main image and the brightness and color of the main image, so even users unfamiliar with the camera can select the appropriate sub-image. It is possible to create a reproduction display with change and an effective print.

以上説明したように、このカメラでは主画像とは異なるあるいは対照的な撮影条件で撮影された画像をサブ画像として選択して、これと主画像を組み合わせた画像を作成して、再生またはプリントする。同じような写真ばかり見せられると退屈してしまうが、このような表示やプリントにより2つ以上の画像が補い合って鑑賞者に豊かなイメージを伝えることができる。   As described above, with this camera, an image shot under shooting conditions different from or contrasting with the main image is selected as a sub-image, and an image obtained by combining this with the main image is created and played back or printed. . If you show only similar pictures, you will be bored, but with such a display and print, two or more images can complement each other to convey a rich image to the viewer.

次に、実施例2について、図10を用いて説明する。実施例2は、被写体の距離情報に更にズーム情報を加えて撮影の状況を推定して、主画像に対照的なサブ画像を選択する例である。つまり、カメラがズームレンズ付きカメラの場合には、距離の情報だけでなくズームレンズの位置の情報なども考慮してサブ画像を選択するようにする例である。なおカメラ10のブロック図は実施例1のブロック図である図3と同様であるので、図示は省略する。   Next, Example 2 will be described with reference to FIG. The second embodiment is an example in which zoom information is further added to the distance information of the subject to estimate the shooting situation, and a sub-image contrasting with the main image is selected. That is, when the camera is a camera with a zoom lens, the sub image is selected in consideration of not only the distance information but also the position information of the zoom lens. Since the block diagram of the camera 10 is the same as that of FIG. 3 which is the block diagram of the first embodiment, the illustration is omitted.

図10は、実施例2におけるサブ画像選択の処理を示すフローチャートである。本例は実施例1 とサブ画像選択の内容のみが異なり、全体の処理は実施例1の図5と同様なので、全体のフローチャートは省略する。サブ画像選択の処理は、実施例1 と同様に、CPU1の機能である選択部1b によって主に実行される。 FIG. 10 is a flowchart illustrating a sub image selection process according to the second embodiment. This example is different from the first embodiment only in the contents of sub-image selection, and the overall processing is the same as that of FIG. 5 of the first embodiment, so the entire flowchart is omitted. The sub-image selection process is mainly executed by the selection unit 1b which is a function of the CPU 1, as in the first embodiment.

主画像データより主画像撮影時のズーム位置情報Zoを検出する(ステップS81)。続いて主画像データより主画像の被写体の距離Loを検出する(ステップS82)。   The zoom position information Zo at the time of main image shooting is detected from the main image data (step S81). Subsequently, the distance Lo of the subject of the main image is detected from the main image data (step S82).

ここで、ZoとLoから主画像の撮影状況を推定できる理由を、図11を用いて説明する。図11は、画面内で人物の顔が幅に占める割合を、被写体距離Lo及びズーム焦点距離Zoから求められることを説明するための図である。カメラ10の内部と被写体11が並んだ状況を上から見た模式図である。   Here, the reason why the shooting situation of the main image can be estimated from Zo and Lo will be described with reference to FIG. FIG. 11 is a diagram for explaining that the ratio of the human face to the width in the screen can be obtained from the subject distance Lo and the zoom focal length Zo. It is the schematic diagram which looked at the condition where the inside of the camera 10 and the subject 11 were lined up from the top.

撮像素子3の撮像面の横幅をS、人物の顔の幅Fwがレンズ2を通過し撮像素子3に結像される長さをSwとすると、画面内で人物の顔が幅に占める割合は、S:Swとなる。
一方、図から判るようにSw=(Zo/Lo)×Fw なので、画面内で人物の顔が幅に占める割合であるS:Sw=S:(Zo/Lo)×Fwとなる。ここでSおよびFw(約15cm)はほぼ一定であるから、(Zo/Lo)が画面内で人物が占める割合に相当する変数に相当することになる。これを利用して、本実施例では、Zo/Loを所定の値(αo、β、α2)と比較して人物写真の状態(例えばアップかどうか)を判定する。ただし、β<αo<α2 となる関係とする。
When the horizontal width of the imaging surface of the image sensor 3 is S and the width Fw of the person's face passes through the lens 2 and the length imaged on the image sensor 3 is Sw, the ratio of the human face to the width in the screen is , S: Sw.
On the other hand, since Sw = (Zo / Lo) × Fw as can be seen from the figure, the ratio of the human face to the width in the screen is S: Sw = S: (Zo / Lo) × Fw. Here, since S and Fw (about 15 cm) are substantially constant, (Zo / Lo) corresponds to a variable corresponding to the proportion of the person in the screen. Using this, in this embodiment, Zo / Lo is compared with predetermined values (αo, β, α2) to determine the state of the person photograph (for example, whether it is up). However, β <αo <α2 is established.

図10に戻る。主画像においてZo/Lo>αoかを判断し(ステップS83)、YESと判断すると(ステップS83Y)、主画像が人物アップ写真であると判定する(ステップS91)。   Returning to FIG. It is determined whether Zo / Lo> αo in the main image (step S83). If YES is determined (step S83Y), it is determined that the main image is a person-up photo (step S91).

そして、サブ画像候補としてZo/Lo<βに該当する画像を画像メモリ6の中から選択し(ステップS92)、ステップS93に進む。人物アップ写真である主画像に対しては、これと対照的な遠景風の画像がサブ画像として効果を発揮するからである。   Then, an image corresponding to Zo / Lo <β is selected from the image memory 6 as a sub image candidate (step S92), and the process proceeds to step S93. This is because, for a main image that is a person-up photo, a distant view-like image is effective as a sub-image.

一方、主画像においてZo/Lo>αoでないとの判定(ステップS83N)ではステップS84に進む。そして主画像においてZo/Lo<βかを判定し(ステップS84)、Zo/Lo<βのとき(ステップS84Y)は主画像が遠景であると判定する(ステップS95)。   On the other hand, if it is determined that Zo / Lo> αo is not satisfied in the main image (step S83N), the process proceeds to step S84. Then, it is determined whether Zo / Lo <β in the main image (step S84). If Zo / Lo <β (step S84Y), it is determined that the main image is a distant view (step S95).

そして、サブ画像候補としてZo/Lo>α2に該当する画像を画像メモリ6の中から選択し(ステップS96)、ステップS93に進む。遠景写真である主画像に対しては、近距離でズームも長焦点である小さいものを大きく写そうとした写真(マクロ写真)が対照的なサブ画像として効果を発揮するからである。   Then, an image corresponding to Zo / Lo> α2 is selected from the image memory 6 as a sub image candidate (step S96), and the process proceeds to step S93. This is because, for a main image that is a distant view photo, a photo (macro photo) that attempts to take a large image of a small object with a short focus and a long focal length is effective as a contrasting sub-image.

一方、主画像においてZo/Lo<βでないとの判定(ステップS84N)では、主画像が通常のスナップ写真であると判定する(ステップS85)。このときには主画像が通常のスナップ写真なので、距離データによるサブ画像候補化は行わず、ステップS93に進む。   On the other hand, in the determination that Zo / Lo <β is not satisfied in the main image (step S84N), it is determined that the main image is a normal snapshot (step S85). At this time, since the main image is a normal snapshot, sub-image candidateization is not performed based on the distance data, and the process proceeds to step S93.

ステップS93では、ステップS92、ステップS96によるサブ画像候補の中から、更に色情報Cを利用して、より色鮮やかものを優先して選択する。以上によりサブ画像を決定する(ステップS94)。   In step S93, the color information C is further used from the sub-image candidates obtained in steps S92 and S96 to select a brighter color with priority. The sub image is determined as described above (step S94).

以上の処理により、撮影時のズーム情報を利用して、主画像に対してアクセントがあり変化にとんだサブ画像が選択される。そして、この2枚の画像からなる変化にとんだ1枚の作品を作成することができる。   Through the above processing, the sub-image that is accented with respect to the main image and is varied is selected using the zoom information at the time of shooting. Then, it is possible to create one piece of work that is composed of these two images.

次に、実施例3について、図12を用いて説明する。実施例3は、人物の数に基づいてサブ画像を選択する例である。実施例1,2では、主に撮影時のズーム情報や被写体距離や明るさ情報を用いて主画像と対照的な画像をサブ画像として選択したが、本実施例ではそのような考え方を拡張し、画面内の人の数を調べ、その情報に従って、主画像と対照的な画像をサブ画像にする。なおカメラ10のブロック図は実施例1のブロック図である図3と同様であるので、図示は省略する。 Next, Example 3 will be described with reference to FIG. Example 3 is an example in which a sub-image is selected based on the number of persons. In the first and second embodiments, an image contrasting with the main image is selected as a sub-image mainly using zoom information at the time of shooting, subject distance, and brightness information. However, in this embodiment, such a concept is extended. The number of people in the screen is checked, and the image contrasted with the main image is set as a sub-image according to the information. Since the block diagram of the camera 10 is the same as that of FIG. 3 which is the block diagram of the first embodiment, the illustration is omitted.

図12は、実施例3におけるサブ画像選択の処理を示すフローチャートである。本例は実施例1とサブ画像選択の内容のみが異なり、全体の処理は実施例1の図5と同様なので、全体のフローチャートは省略する。サブ画像選択は、実施例1と同様に、CPU1の機能である選択部1bによって主に実行される。 FIG. 12 is a flowchart illustrating a sub image selection process according to the third embodiment. This example differs from the first example only in the contents of sub-image selection, and the overall processing is the same as that of FIG. 5 of the first example, so the entire flowchart is omitted. Sub-image selection is mainly executed by the selection unit 1b , which is a function of the CPU 1, as in the first embodiment.

実施例1で説明したように、図5のステップ9において、目や鼻の部分を利用して人肌の色から画像に含まれる人物の顔を検出する特徴抽出手段8によって、各画像における検出された顔の数情報から人数情報Nが検出され、同じくステップ10で人数情報Nがその画像に付帯されて記録される。その人数情報Nが、以下のステップで利用される。   As described in the first embodiment, in step 9 of FIG. 5, detection in each image is performed by the feature extraction unit 8 that detects the face of a person included in the image from the color of the human skin using the eyes and nose. The number-of-persons information N is detected from the number-of-faces-number information, and the number-of-peoples information N is also attached to the image and recorded in step 10. The number information N is used in the following steps.

まず、図12のステップS110では、主画像に人がいないかを判定する。主画像に誰もいないとき(ステップS110Y)には、人の映っていない画像をサブ画像とする(ステップS111)。主画像として人のいない写真が選ばれたので、サブ画像としては人の映っていない画像を候補とし、その中から人数とは別の情報で対照的な画像を選ぶようにする。例えば、色の鮮やかさの点で対照的な画像、あるいは撮影距離の大きく異なる画像を選ぶようにする。   First, in step S110 in FIG. 12, it is determined whether there is a person in the main image. When there is no person in the main image (step S110Y), an image in which no person is shown is set as a sub image (step S111). Since a photograph without a person is selected as a main image, an image with no person is selected as a sub-image, and a contrasting image is selected from information different from the number of persons. For example, an image which is contrasted in terms of color vividness or an image with a significantly different shooting distance is selected.

一方、主画像に人が写っているときは(ステップS110N)、ステップ112に進み。さらに、主画像に一人が写っていると判定されたとき(ステップS112Y)には、対照的に二人以上の人物が写っている写真をサブ画像に選択する(ステップS113)。   On the other hand, when a person is shown in the main image (step S110N), the process proceeds to step 112. Further, when it is determined that one person is included in the main image (step S112Y), a photograph in which two or more persons are reflected is selected as a sub image (step S113).

一方、主画像に二人以上写っていると判定されたとき(ステップS112N)には、集合写真をサブ画像に選択する(ステップS114)。以上、撮影された人数によって対照的となる画像を並べることにより変化をもたせ、見栄えのする画像を作成することができる。   On the other hand, when it is determined that two or more people are included in the main image (step S112N), the group photo is selected as a sub image (step S114). As described above, it is possible to change the image by arranging the contrasting images according to the number of photographed people, and to create an image that looks good.

最後に、以上の実施例1,2,3で説明したようなカメラによるプリント例を説明する。図13は、カメラ10がドッキングされたプリンタ20からプリント紙が出力される様子を示す斜視図である。図12( A )は、カメラ10とこのカメラ10がドッキングされたプリンタ20を示し、同( B )はさらに主画像とサブ画像の2つからなる画像がプリントされる状態を示す。 Finally, an example of printing by a camera as described in the first, second, and third embodiments will be described. FIG. 13 is a perspective view illustrating a state in which print paper is output from the printer 20 to which the camera 10 is docked. FIG. 12A shows the camera 10 and the printer 20 to which the camera 10 is docked, and FIG. 12B shows a state in which an image composed of two images, ie, a main image and a sub image, is printed.

長方形のプリンタ20の上面にカメラ10が背面を手前に向けた状態で斜め方向から差し込まれる。まず同図( A ) ではカメラ10は通常の再生モードになっていて、カメラ10の表示部9には、ユーザーによって指定されたメイン画像9 が大きく表示されている。 The camera 10 is inserted into the upper surface of the rectangular printer 20 from an oblique direction with the rear surface facing forward. First, in FIG. 2A, the camera 10 is in a normal playback mode, and the main image 9 designated by the user is displayed large on the display unit 9 of the camera 10.

そして、ユーザーによってマルチ画面が選択され、現在の主画像がそのまま主画像として指定されたとすると、前述したサブ画像選択の処理によってこの主画像に対照的なサブ画像が自動的に選択される。そして同図( B )で示すように、表示部9には主画像9aと選択されたサブ画像9bの2つの画像が大きさを変えて表示される。そして、プリント指示がされると、表示されている画像と同じ画像が、プリンタ20 内部で印刷処理されて、プリンタ20から出力される。このようなカメラシステムを利用すれば、誰でも簡単に2 つの画像情報からより情緒的な情報量の多い見栄えのするプリントが得られる。 If the multi-screen is selected by the user and the current main image is designated as the main image as it is, a sub-image contrasting with the main image is automatically selected by the above-described sub-image selection processing. As shown in FIG. 5B, the display unit 9 displays two images of the main image 9a and the selected sub image 9b with different sizes. When the print instruction is, the same image as the image displayed, printed processed in the printer 20, is output from the printer 20. If such a camera system is used, anyone can easily obtain a print with a large amount of emotional information from two pieces of image information.

本発明によれば、写真に不慣れなユーザーでも、2つ以上の複数の画像が配置され変化のあるプリントが、作成可能になる。   According to the present invention, even a user who is unfamiliar with photography can create a print in which two or more images are arranged and changed.

なお、上記選択手段1bはプログラムに従ったCPU1の制御処理によって実現されるが、つまりこれは上記プログラム自体が上述した実施の形態の機能を実現することになり、このプログラム自体が本発明を構成する。   The selection means 1b is realized by the control processing of the CPU 1 according to the program. That is, the program itself realizes the functions of the above-described embodiment, and the program itself constitutes the present invention. To do.

そして、これらのプログラムは前述のROM以外の記録媒体の形式でも良く、カメラに着脱可能な記録媒体に格納されても良い。又、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の格納装置を記録媒体として使用し、通信網を介してプログラムをカメラに提供してもよい。或いは他のアプリケーションソフト等と共同して上述の実施の形態の機能が実現される場合にも、かかるプログラムが本発明の実施の態様に含まれることはいうまでもない。   These programs may be in the form of a recording medium other than the ROM described above, or may be stored in a recording medium that can be attached to and detached from the camera. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the camera via the communication network. Alternatively, it goes without saying that such a program is also included in the embodiment of the present invention even when the functions of the above-described embodiment are realized in cooperation with other application software or the like.

尚、実施例1乃至3ではその表示制御処理をプログラムをCPU1で実行して実現するものとして説明したが、これに限られることはなく、例えば、各処理の一部または全部をハードウェアにより実現するようにしても良い。   In the first to third embodiments, the display control process is described as being realized by executing the program by the CPU 1, but the present invention is not limited to this. For example, part or all of each process is realized by hardware. You may make it do.

また、上記実施形態ではカメラを単体としてのカメラで説明したが、カメラ付き携帯電話等のカメラ部に適用してもよい。   In the above embodiment, the camera is described as a single camera. However, the present invention may be applied to a camera unit such as a camera-equipped mobile phone.

また、本発明は上記実施形態をそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより、種々の発明を形成できる。例えば、実施形態にしめされる全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組合せてもよい。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

撮影し、撮影された写真をアルバムで鑑賞するという、従来の一連の写真鑑賞法を示す図。The figure which shows the conventional series of photography appreciation methods of taking a photograph and appreciating the photographed photograph with an album. (A)は別々に撮影された画像を示す図、(B)は別々の画像から縮小レイアウトされて作成された画像を示す図、(C)は別々の画像から合成された画像を示す図。(A) is a diagram showing images taken separately, (B) is a diagram showing images created by reducing layout from the separate images, and (C) is a diagram showing images synthesized from the separate images. 実施例1のカメラについて、電気的な内部構成を示すブロック図。FIG. 2 is a block diagram showing an electrical internal configuration of the camera of Embodiment 1. (A)は図1のカメラの外観を背面側から見た斜視図、(B)はこのカメラから出力された画像によるプリントを示す図。1A is a perspective view of the appearance of the camera of FIG. 1 as viewed from the back side, and FIG. 2B is a diagram showing a print using an image output from the camera. 実施例1において、カメラの撮影再生処理を示すフローチャート。3 is a flowchart illustrating camera shooting and reproduction processing according to the first exemplary embodiment. 実施例1において、図5のフローチャートのサブ画像選択に関するサブルーチン処理の前半を示すフローチャート。6 is a flowchart illustrating the first half of a subroutine process related to sub image selection in the flowchart of FIG. 5 according to the first embodiment. 実施例1において、図5のフローチャートのサブ画像選択に関するサブルーチン処理の後半を示すフローチャート。6 is a flowchart illustrating the second half of a subroutine process related to sub image selection in the flowchart of FIG. 5 according to the first embodiment. 実施例1において、操作日時と撮影日時の間隔により候補範囲を変化させることを説明するグラフ。6 is a graph for explaining that the candidate range is changed according to the interval between the operation date and time and the shooting date and time in the first embodiment. 実施例1において、被写体距離に基づいて選択されたサブ画像が主画像に組み合わされた画像の例を示す図。6 is a diagram illustrating an example of an image in which a sub image selected based on a subject distance is combined with a main image in Embodiment 1. FIG. 実施例2において、サブ画像選択の処理を示すフローチャート。9 is a flowchart illustrating a sub image selection process according to the second embodiment. 実施例2において、画面内で人物の顔が幅に占める割合を被写体距離Lo及びズーム焦点距離Zoから求めることを説明する図である。In Example 2, it is a figure explaining calculating | requiring the ratio for which a person's face occupies the width | variety within a screen from object distance Lo and zoom focal distance Zo. 実施例3において、サブ画像選択の処理を示すフローチャート。9 is a flowchart illustrating a sub image selection process according to the third embodiment. (A)はプリンタ20と、このプリンタ20にドッキングされ、表示手段9に主画像が表示されるカメラ10を示す斜視図、(B)は主画像とサブ画像がカメラ10の表示手段9に表示され、プリンタ20からは表示されている画像がプリントされる様子を示す斜視図である。(A) is a perspective view showing the printer 20 and the camera 10 docked on the printer 20 and displaying the main image on the display means 9, and (B) shows the main image and the sub-image on the display means 9 of the camera 10. FIG. 4 is a perspective view showing a state in which a displayed image is printed from the printer 20.

符号の説明Explanation of symbols

1… C P U 、1 a …記録制御部、1 b …選択部、2… 撮影レンズ、2 a … ピント合わせ手段、2 b … ズーム制御手段、3 … 撮像素子、4 … A / D 変換手段、5 … 画像処理手段、6 … 画像メモリ、7 … 送信手段、8 … 特徴抽出手段、8 a … 時計、9 … 表示手段、9 a … メイン画面、9 b … サブ画面、1 0 … カメラ、1 1 … 被写体、
1 2 a 、1 2 b … スイッチ、1 4… プリンタ用コネクタ部、2 0 … プリンタ、
2 0 a… プリント紙、L … 被写体の距離、Z … ズーム位置情報、B … 明るさ情報、C … 色情報、T … 時刻情報、N … 人数情報、D o p … 操作日時情報、D o … 主画像の撮影日時情報、Δ D … 時間差、S … 撮像面の横幅、F w … 人物の顔の幅、S w … 撮像素子3 に結像される長さ


DESCRIPTION OF SYMBOLS 1 ... CPU, 1a ... Recording control part , 1b ... Selection part , 2 ... Shooting lens, 2a ... Focusing means, 2b ... Zoom control means, 3 ... Imaging element, 4 ... A / D conversion means 5 ... Image processing means, 6 ... Image memory, 7 ... Transmission means, 8 ... Feature extraction means, 8a ... Clock, 9 ... Display means, 9a ... Main screen, 9b ... Sub-screen, 10 ... Camera, 1 1 ... subject,
1 2 a, 1 2 b ... switch, 1 4 ... printer connector, 2 0 ... printer,
20 a ... printed paper, L ... subject distance , Z ... zoom position information, B ... brightness information, C ... color information, T ... time information, N ... number of people information, Dop ... operation date and time information, Do ... Date and time information of main image, Δ D ... Time difference, S ... Horizontal width of imaging surface, F w ... Width of human face, S w ... Length formed on imaging device 3


Claims (3)

撮影された画像を画像メモリに記録する記録制御部と、
上記撮影された画像に写っている人数を検出する特徴抽出部と、
上記特徴検出部の検出に基づいて、上記画像メモリに記録された画像の中で指定された画像に対するサブ画像を画像メモリから選択する選択部と、
上記指定された画像及び上記選択された画像の少なくとも2つの画像から1つの画像を形成する画像処理部とを備え
上記選択部は、上記指定された画像が上記特徴検出部の検出に基づいてポートレイト画像であると判断された場合に、対応するサブ画像として複数の人が集合する集合画像を画像メモリから選択する
ことを特徴とするカメラ。
A recording control unit for recording the captured image in an image memory;
A feature extraction unit for detecting the number of people in the captured image;
A selection unit that selects, from the image memory, a sub-image for an image designated among the images recorded in the image memory based on the detection of the feature detection unit;
An image processing unit that forms one image from at least two of the designated image and the selected image.
The selection unit selects, from the image memory, a group image in which a plurality of people gather as corresponding sub-images when it is determined that the designated image is a portrait image based on the detection of the feature detection unit. A camera characterized in that it does.
上記記録制御部は、上記特徴抽出部によって検出された人数を撮影情報として撮影された画像とともに前記画像メモリに記録する
ことを特徴とする請求項1に記載のカメラ。
The camera according to claim 1, wherein the recording control unit records the number of persons detected by the feature extraction unit in the image memory together with an image captured as shooting information .
上記選択部は、上記特徴検出部の検出に基づいて上記指定された画像に人が写っていないと判断された場合には、当該指定された画像に対するサブ画像として人の写っていない画像を画像メモリから選択する
ことを特徴とする請求項1に記載のカメラ。
If the selection unit determines that no person is included in the designated image based on the detection by the feature detection unit, the selection unit selects an image that does not include a person as a sub-image for the designated image. The camera of claim 1, wherein the camera is selected from a memory .
JP2005291742A 2005-10-04 2005-10-04 camera Expired - Fee Related JP4540580B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005291742A JP4540580B2 (en) 2005-10-04 2005-10-04 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005291742A JP4540580B2 (en) 2005-10-04 2005-10-04 camera

Publications (3)

Publication Number Publication Date
JP2007104337A JP2007104337A (en) 2007-04-19
JP2007104337A5 JP2007104337A5 (en) 2008-11-06
JP4540580B2 true JP4540580B2 (en) 2010-09-08

Family

ID=38030832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005291742A Expired - Fee Related JP4540580B2 (en) 2005-10-04 2005-10-04 camera

Country Status (1)

Country Link
JP (1) JP4540580B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4802790B2 (en) * 2006-03-20 2011-10-26 セイコーエプソン株式会社 Server device
JP5884873B1 (en) * 2014-08-19 2016-03-15 カシオ計算機株式会社 Image extraction apparatus, image extraction method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037820A (en) * 2001-07-25 2003-02-07 Matsushita Electric Ind Co Ltd Image reproducing device
JP2004362403A (en) * 2003-06-06 2004-12-24 Fuji Photo Film Co Ltd Image output system and its method
JP2005269126A (en) * 2004-03-18 2005-09-29 Tecmo Ltd Image compositing system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3793864B2 (en) * 1997-05-15 2006-07-05 カシオ計算機株式会社 Image processing apparatus and program recording medium thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037820A (en) * 2001-07-25 2003-02-07 Matsushita Electric Ind Co Ltd Image reproducing device
JP2004362403A (en) * 2003-06-06 2004-12-24 Fuji Photo Film Co Ltd Image output system and its method
JP2005269126A (en) * 2004-03-18 2005-09-29 Tecmo Ltd Image compositing system

Also Published As

Publication number Publication date
JP2007104337A (en) 2007-04-19

Similar Documents

Publication Publication Date Title
US7317485B1 (en) Digital still camera with composition advising function, and method of controlling operation of same
TW535425B (en) Electronic still camera
US6806906B1 (en) Digital still camera with composition assist function, and method of controlling operation of same
JP4395619B2 (en) Imaging apparatus, imaging condition setting method, and program
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
US20060061659A1 (en) Image capturing apparatus and control method thereof
JP2011035486A (en) Camera system and control method of camera
JP2007324965A (en) Digital camera, photography control method, and image output system
JP2002010134A (en) Camera apparatus, recording medium and apparatus for forming photographing data
JP4695480B2 (en) camera
CN101365059B (en) Information display device
JP4540580B2 (en) camera
JP2008085671A (en) Apparatus and method for displaying image
JP4509829B2 (en) Camera device
JP4783073B2 (en) Camera, display control apparatus for the camera, and display control method therefor
JP2002223403A (en) Electronic camera
JP2010200362A (en) Camera, and device and method for display control of the same
JP5167964B2 (en) Display control apparatus, display control method, and program
JP4769693B2 (en) Imaging apparatus, method, and program
JP2002010066A (en) Image reproducer
JP5138001B2 (en) camera
JP5580927B2 (en) Camera and camera control method
JP6200194B2 (en) Imaging apparatus, control method therefor, and program
JP3997970B2 (en) Camera device
JP2009027462A (en) Imaging apparatus, imaging method and imaging program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100616

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100622

R151 Written notification of patent or utility model registration

Ref document number: 4540580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees