JP2007228118A - Determination of shooting scene - Google Patents

Determination of shooting scene Download PDF

Info

Publication number
JP2007228118A
JP2007228118A JP2006044784A JP2006044784A JP2007228118A JP 2007228118 A JP2007228118 A JP 2007228118A JP 2006044784 A JP2006044784 A JP 2006044784A JP 2006044784 A JP2006044784 A JP 2006044784A JP 2007228118 A JP2007228118 A JP 2007228118A
Authority
JP
Japan
Prior art keywords
scene
shooting
subject
digital camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006044784A
Other languages
Japanese (ja)
Other versions
JP4775029B2 (en
Inventor
Takashige Tanaka
敬重 田中
Kenji Fukazawa
賢二 深沢
Michihiro Nagaishi
道博 長石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006044784A priority Critical patent/JP4775029B2/en
Publication of JP2007228118A publication Critical patent/JP2007228118A/en
Application granted granted Critical
Publication of JP4775029B2 publication Critical patent/JP4775029B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable the user to more easily set up a shooting scene suitable for photographing a subject. <P>SOLUTION: A digital camera is equipped with a subject image acquiring portion for acquiring a subject image, a shooting situation information acquiring portion for acquiring the information on the photographic situation, including at least one of the position and the direction of the digital camera and the current time, and a subject information acquiring portion for acquiring the information on the subject by analyzing the subject image. A photographic scene determining portion of the digital camera selects candidates for shooting scenes among a plurality of shooting scenes, which can be set up by the digital camera, based on the information on the subject and the information on the shooting situation, and displays the selected candidates for shooting scenes on the display portion of the digital camera. Then, by selecting a shooting scene to be used for shooting from the candidates for shooting scenes in accordance with the user's instruction, a photographic mode suitable for photographing the subject. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、被写体の撮影に適した撮影シーンを決定する技術に関する。   The present invention relates to a technique for determining a shooting scene suitable for shooting a subject.

近年、撮像素子を用いて被写体を撮影することによりデジタルデータとしての画像データを生成するデジタルスチルカメラ(以下「DSC」とも呼ぶ)が広く普及している。このようなDSCを用いた撮影の際、被写体の撮影に適した画像の撮影シーン(例えば人物を撮影するシーンや夜景を撮影するシーン)が設定されている場合には、撮影シーンに応じて設定される撮影条件に従って被写体の画像が取得され、撮影シーンに応じて設定される画像処理条件に従って取得された画像に画像処理が施される。設定された撮影シーンが被写体の撮影に適している場合、これらの撮影条件や画像処理条件(撮影モード)は、被写体に適したものとなるので、好ましい被写体の画像を得ることが可能となる。   In recent years, digital still cameras (hereinafter also referred to as “DSC”) that generate image data as digital data by photographing a subject using an image sensor have become widespread. When shooting using such DSC, if a shooting scene of an image suitable for shooting a subject (for example, a scene for shooting a person or a scene for shooting a night view) is set, the setting is made according to the shooting scene. The image of the subject is acquired according to the shooting conditions, and the image processing is performed on the images acquired according to the image processing conditions set according to the shooting scene. When the set shooting scene is suitable for shooting a subject, these shooting conditions and image processing conditions (shooting modes) are suitable for the subject, so that a preferable subject image can be obtained.

特開2002−94838JP 2002-94838 A

しかしながら、一般に、このような撮影シーンの設定操作は煩雑であるため、被写体に適した撮影シーンが設定可能であるにもかかわらず、撮影シーンの設定を行うことなく撮影が行われることが多い。また、ユーザにとって、撮影シーンの選択は必ずしも容易とは言えず、適切な撮影シーンが設定されない場合もある。   However, in general, such a shooting scene setting operation is complicated, and thus shooting is often performed without setting a shooting scene, although a shooting scene suitable for a subject can be set. Also, it is not always easy for the user to select a shooting scene, and an appropriate shooting scene may not be set.

本発明は、上述した従来の課題を解決するためになされたものであり、ユーザによる被写体の撮影に適した撮影シーンの設定をより容易にする技術を提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and an object of the present invention is to provide a technique that makes it easier to set a shooting scene suitable for shooting a subject by a user.

上記目的の少なくとも一部を達成するために、本発明のデジタルカメラは、被写体画像を取得する被写体画像取得部と、前記デジタルカメラの位置と、前記デジタルカメラの方向と、現在時刻とのうち、少なくとも1つを含む撮影状況情報を取得する撮影状況情報取得部と、前記被写体画像を解析することにより、被写体画像に含まれる被写体に関する被写体情報を取得する被写体情報取得部と、前記被写体の撮影に適した撮影モードを設定するための撮影シーンを決定する撮影シーン決定部と、を備え、前記撮影シーン決定部は、前記被写体情報取得部により取得された前記被写体情報と、前記撮影状況情報取得部により取得された前記撮影状況情報と、に基づいて前記デジタルカメラで設定可能な複数の撮影シーンの中からシーン候補を選定するシーン候補選定部と、前記シーン候補選定部により選定されたシーン候補を前記デジタルカメラの表示部に表示するシーン候補表示部と、前記デジタルカメラのユーザからの指示に従って、前記シーン候補から撮影に使用する撮影シーンを選択する撮影シーン選択部と、を有することを特徴とする。   In order to achieve at least a part of the above object, a digital camera of the present invention includes a subject image acquisition unit that acquires a subject image, a position of the digital camera, a direction of the digital camera, and a current time. A shooting status information acquisition unit that acquires shooting status information including at least one, a subject information acquisition unit that acquires subject information related to a subject included in the subject image by analyzing the subject image, and shooting of the subject A shooting scene determining unit that determines a shooting scene for setting a suitable shooting mode, the shooting scene determining unit including the subject information acquired by the subject information acquiring unit and the shooting situation information acquiring unit A scene candidate is selected from a plurality of shooting scenes that can be set by the digital camera based on the shooting status information acquired by A scene candidate selection unit to be set, a scene candidate display unit for displaying the scene candidate selected by the scene candidate selection unit on the display unit of the digital camera, and shooting from the scene candidate according to an instruction from a user of the digital camera A photographic scene selection unit for selecting a photographic scene to be used.

この構成によれば、被写体情報取得部により取得された被写体情報と、撮影状況情報取得部により取得された撮影状況情報と、に基づいて被写体の撮影に適した撮影シーンがシーン候補として選定され、デジタルカメラの表示部に表示される。ユーザは、表示されたシーン候補から撮影に使用する撮影シーンを選択することにより、より容易に、被写体の撮影に適した撮影シーンを設定することが可能になる。   According to this configuration, a shooting scene suitable for shooting a subject is selected as a scene candidate based on the subject information acquired by the subject information acquisition unit and the shooting status information acquired by the shooting status information acquisition unit, It is displayed on the display part of the digital camera. The user can set a shooting scene suitable for shooting a subject more easily by selecting a shooting scene to be used for shooting from the displayed scene candidates.

前記シーン候補選定部は、前記位置と前記方向と前記現在時刻との全てを使用してシーン候補を選定するものとしても良い。   The scene candidate selection unit may select a scene candidate using all of the position, the direction, and the current time.

この構成によれば、シーン候補の選定は、被写体を撮影する際の影響が大きいデジタルカメラの位置とデジタルカメラの方向と現在時刻との全てに基づいて選定されるので、シーン候補の選定をより正確に行うことができる。   According to this configuration, the selection of the scene candidate is selected based on all of the position of the digital camera, the direction of the digital camera, and the current time, which have a large influence when the subject is photographed. Can be done accurately.

前記撮影シーン決定部は、さらに、前記シーン候補選定部が選定したシーン候補に含まれる撮影シーンに予め関連づけられた関連シーンを選定する関連シーン選定部を有しており、前記シーン候補表示部は、前記シーン候補と前記関連シーンとの両方を前記表示部に表示するものとしても良い。   The shooting scene determination unit further includes a related scene selection unit that selects a related scene previously associated with a shooting scene included in the scene candidate selected by the scene candidate selection unit, and the scene candidate display unit includes: Both the scene candidate and the related scene may be displayed on the display unit.

この構成によれば、関連シーンを表示することにより、シーン候補では選定されなかったシーンを撮影シーンとして選択することが可能となる。そのため、ユーザは、より被写体の撮影に適したシーンを撮影シーンとして設定することが可能となる。   According to this configuration, by displaying a related scene, it is possible to select a scene that was not selected as a scene candidate as a shooting scene. Therefore, the user can set a scene more suitable for shooting a subject as a shooting scene.

前記シーン候補表示部は、前記シーン候補選定部が複数のシーン候補を選定した場合に、前記複数のシーン候補を第1の方向に配列するとともに、各シーン候補についての関連シーンを前記第1の方向とは異なる第2の方向に配列する、ものとしても良い。   The scene candidate display unit arranges the plurality of scene candidates in a first direction when the scene candidate selection unit selects a plurality of scene candidates, and displays related scenes for each scene candidate in the first scene. It may be arranged in a second direction different from the direction.

この構成によれば、前記シーン候補選定部が選定した複数のシーン候補と、各シーン候補に関連付けられた関連シーンとが、平面上にマッピングして表示される。そのため、ユーザは、シーン候補と関連シーンとの関係を容易に把握することができ、撮影シーンをより容易に選択することができる。   According to this configuration, the plurality of scene candidates selected by the scene candidate selection unit and the related scenes associated with each scene candidate are mapped and displayed on a plane. Therefore, the user can easily grasp the relationship between the scene candidate and the related scene, and can more easily select the shooting scene.

なお、本発明は、種々の態様で実現することが可能である。例えば、デジタルカメラとデジタルカメラ制御方法、それらのデジタルカメラまたはデジタルカメラ制御方法の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の態様で実現することができる。   Note that the present invention can be realized in various modes. For example, a digital camera and a digital camera control method, a computer program for realizing the functions of the digital camera or the digital camera control method, a recording medium recording the computer program, and the computer program including the computer program embodied in a carrier wave It can be realized in the form of a data signal or the like.

次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.実施例:
B.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. Example:
B. Variation:

A.実施例:
図1、本発明の一実施例としてのデジタルスチルカメラ100(以下「DSC100」とも呼ぶ)の概略構成を示す説明図である。このDSC100は、レンズ110と、レンズ駆動部120と、撮像部130と、露出決定部140と、GPS受信部150と、カメラ方向取得部160と、時刻取得部170と、表示部180と、操作部190と、撮影シーン決定部200と、を有している。
A. Example:
FIG. 1 is an explanatory diagram showing a schematic configuration of a digital still camera 100 (hereinafter also referred to as “DSC 100”) as an embodiment of the present invention. The DSC 100 includes a lens 110, a lens driving unit 120, an imaging unit 130, an exposure determination unit 140, a GPS reception unit 150, a camera direction acquisition unit 160, a time acquisition unit 170, a display unit 180, and an operation. Unit 190 and shooting scene determination unit 200.

撮像部130は、撮像部130が有するCCD(Charge Coupled Device:電荷結合素子)等の撮像素子(図示しない)の受光面上に、レンズ110により結像された画像の明暗を表す画像データを生成する。ユーザがDSC100のシャッタボタン(図示しない)を操作すると、撮像部130により生成された画像データは画像処理部132に供給され、画像処理部132により適宜画像処理を施される。画像処理後の画像データは、画像データ格納部(図示しない)に格納される。画像処理部132による画像処理は、撮影シーン決定部200から供給される撮影シーン情報(後述する)に基づいて、シーン別設定データベース(DB)142から取得される画像処理条件設定値に従って行われる。   The imaging unit 130 generates image data representing light and darkness of an image formed by the lens 110 on a light receiving surface of an imaging device (not shown) such as a CCD (Charge Coupled Device) included in the imaging unit 130. To do. When the user operates a shutter button (not shown) of the DSC 100, the image data generated by the imaging unit 130 is supplied to the image processing unit 132, and the image processing unit 132 appropriately performs image processing. The image data after the image processing is stored in an image data storage unit (not shown). The image processing by the image processing unit 132 is performed according to the image processing condition setting value acquired from the scene-specific setting database (DB) 142 based on shooting scene information (described later) supplied from the shooting scene determination unit 200.

露出決定部140は、撮影シーン決定部200から供給される撮影シーン情報とに基づいて、シーン別設定データベース142を参照する。そして、シーン別設定データベース142から供給される撮影条件設定値と、撮像部130から供給される受光面上の光量の情報とに従って、レンズ110の絞り値等を決定する。レンズ駆動部120は、露出決定部140により決定された絞り値等に従って、レンズ110を制御し、撮影時の撮像部130の受光面上の光量を調整する。また、レンズ駆動部120は、ユーザからの指示に応じてレンズ110を駆動して、レンズ110の焦点距離を調整する機能も有している。   The exposure determination unit 140 refers to the scene-specific setting database 142 based on the shooting scene information supplied from the shooting scene determination unit 200. Then, the aperture value and the like of the lens 110 are determined according to the shooting condition setting value supplied from the scene-specific setting database 142 and the light amount information on the light receiving surface supplied from the imaging unit 130. The lens driving unit 120 controls the lens 110 according to the aperture value determined by the exposure determining unit 140 and adjusts the light amount on the light receiving surface of the imaging unit 130 at the time of shooting. The lens driving unit 120 also has a function of driving the lens 110 in accordance with an instruction from the user and adjusting the focal length of the lens 110.

図2は、シーン別設定データベース142に格納されている情報の一例を示す説明図である。シーン別設定データベース142には、複数の撮影シーンのそれぞれに対応付けられて、撮影条件の設定値と画像処理条件の設定値とが格納されている。図2の例では、撮影条件設定値としては、シャッタ速度の設定方法(シャッタ速度)、絞り値の設定方法(絞り)、露出補正係数(露出補正)等が格納されている。また、画像処理条件設定値としては、ホワイトバランス調整パラメータ(ホワイトバランス)、記憶色変換処理パラメータ(記憶色)、シャープネス調整パラメータ(シャープネス)等が格納されている。   FIG. 2 is an explanatory diagram illustrating an example of information stored in the scene-specific setting database 142. The scene-specific setting database 142 stores shooting condition setting values and image processing condition setting values associated with each of a plurality of shooting scenes. In the example of FIG. 2, as the shooting condition setting value, a shutter speed setting method (shutter speed), an aperture value setting method (aperture), an exposure correction coefficient (exposure correction), and the like are stored. As the image processing condition setting value, a white balance adjustment parameter (white balance), a memory color conversion processing parameter (memory color), a sharpness adjustment parameter (sharpness), and the like are stored.

図2に示すように、「ポートレート」、「風景」、「夕日」等の各撮影シーンに対応して、撮影条件と画像処理条件(これらの条件は、併せて「撮影モード」とも呼ばれる)が設定される。そのため、撮影の対象となる被写体に適した撮影シーンを選択することにより、被写体のより好ましい画像を取得することが可能となる。なお、本明細書において、「被写体」とは、画像の全体にわたって撮影される人、物、景色といった撮影対象を意味している。   As shown in FIG. 2, shooting conditions and image processing conditions corresponding to each of the shooting scenes such as “portrait”, “landscape”, “sunset” (these conditions are also referred to as “shooting mode”). Is set. Therefore, it is possible to obtain a more preferable image of the subject by selecting a shooting scene suitable for the subject to be shot. In the present specification, the “subject” means a subject to be photographed such as a person, an object, or a landscape that is photographed over the entire image.

図1の表示部180は、液晶表示器等により構成され、画像や各種設定情報を表示する機能を有している。操作部190は、ボタンやタッチパネル等を有しており、ユーザからの指示を取得する機能を有している。ユーザは、表示部180に表示される画像や設定情報を見ながら、操作部190を操作することにより、DSC100の設定変更等の操作を行うことができる。また、DSC100による撮影時には、表示部180に被写体の画像が表示される。   The display unit 180 in FIG. 1 is configured by a liquid crystal display or the like, and has a function of displaying an image and various setting information. The operation unit 190 has buttons, a touch panel, and the like, and has a function of acquiring an instruction from the user. The user can perform operations such as changing the setting of the DSC 100 by operating the operation unit 190 while viewing the image and setting information displayed on the display unit 180. In addition, an image of the subject is displayed on the display unit 180 when the DSC 100 performs shooting.

GPS受信部150は、GPS(Global Positioning System)衛星からの電波を受信し、DSC100の位置(緯度、経度、標高)を取得する。カメラ方向取得部160は、ジャイロあるいは加速度センサ等によりDSC100のレンズ110が向いている方向(以下、「カメラ方向」とも呼ぶ)を取得する。また、時刻取得部170は、DSC100に内蔵されたリアルタイムクロック(RTC)から、現在時刻を取得する。但し、GPS受信部150により現在時刻を取得する場合には、時刻取得部170を省略することも可能である。なお、本明細書においては、DSC100の位置とカメラ方向とを併せて、DSC100の「配位」とも呼ぶ。   The GPS receiver 150 receives radio waves from a GPS (Global Positioning System) satellite and acquires the position (latitude, longitude, altitude) of the DSC 100. The camera direction acquisition unit 160 acquires a direction in which the lens 110 of the DSC 100 is facing (hereinafter also referred to as “camera direction”) using a gyroscope, an acceleration sensor, or the like. The time acquisition unit 170 acquires the current time from a real time clock (RTC) built in the DSC 100. However, when the current time is acquired by the GPS receiving unit 150, the time acquiring unit 170 can be omitted. In the present specification, the position of the DSC 100 and the camera direction are collectively referred to as “coordination” of the DSC 100.

撮影シーン決定部200は、画像解析部210と、配位・時刻取得部220と、シーン候補選定部230と、関連シーン選定部240と、選択指示取得部250と、を備えている。   The shooting scene determination unit 200 includes an image analysis unit 210, a coordination / time acquisition unit 220, a scene candidate selection unit 230, a related scene selection unit 240, and a selection instruction acquisition unit 250.

画像解析部210は、撮像部130から供給される被写体の画像データを解析することにより、被写体に関する情報を取得する。配位・時刻取得部220は、GPS受信部150およびカメラ方向取得部160から供給されるDSC100の配位と、時刻取得部170から供給される現在時刻とを取得する。なお、画像解析部210は、被写体に関する情報を取得するので、「被写体情報取得部」であるともいうことができる。また、配位・時刻取得部220は、撮影状況に関する情報を取得するので、「撮影状況情報取得部」であるともいうことができる。   The image analysis unit 210 acquires information about the subject by analyzing the image data of the subject supplied from the imaging unit 130. The coordination / time acquisition unit 220 acquires the coordination of the DSC 100 supplied from the GPS reception unit 150 and the camera direction acquisition unit 160 and the current time supplied from the time acquisition unit 170. In addition, since the image analysis unit 210 acquires information about the subject, it can also be said to be a “subject information acquisition unit”. Further, since the coordination / time acquisition unit 220 acquires information related to the shooting situation, it can also be said to be a “shooting situation information acquisition unit”.

シーン候補選定部230は、被写体に関する情報と、DSC100の配位と、現在時刻とに基づいて、シーン評価データベース(DB)232を参照することにより、被写体の撮影に適したシーンの候補を選定する。関連シーン選定部240は、関連シーンデータベース(DB)242を参照することにより、シーン候補のうちからユーザにより選択されたシーンに関連した関連シーンを選定する。なお、シーン候補の選定や関連シーンの選定に関しては、後述する。   The scene candidate selection unit 230 refers to the scene evaluation database (DB) 232 based on the information about the subject, the configuration of the DSC 100, and the current time, thereby selecting a scene candidate suitable for photographing the subject. . The related scene selection unit 240 selects a related scene related to the scene selected by the user from the scene candidates by referring to the related scene database (DB) 242. Note that selection of scene candidates and selection of related scenes will be described later.

選択指示取得部250は、操作部190を介して与えられるユーザの指示を取得する。選択指示取得部250は、シーン候補や関連シーンからのシーンの選択や、選択されたシーンを撮影に使用するか否かのユーザの指示を取得する。ユーザが選択したシーンを撮影に使用する指示をDSC100に与えた場合、選択されたシーンを指定する情報が撮影シーン情報として露出決定部140と画像処理部132とに供給される。   The selection instruction acquisition unit 250 acquires a user instruction given via the operation unit 190. The selection instruction acquisition unit 250 acquires a user's instruction as to whether to select a scene from a scene candidate or a related scene, and whether to use the selected scene for shooting. When the DSC 100 is instructed to use the scene selected by the user for shooting, information specifying the selected scene is supplied to the exposure determination unit 140 and the image processing unit 132 as shooting scene information.

図3は、撮影シーン決定部200(図1)により実行される撮影シーン決定ルーチンを示すフローチャートである。図4は、DSC100による紅葉の撮影状況の一例を示す説明図である。図4(a)の例は、ユーザUSRが太陽SUNを背景にしてモミジの木MTRを撮影している様子を示している。図4(b)は、図4(a)の例において、撮像部130(図1)により取得される被写体画像IPSを示している。図4(b)に示す被写体画像IPSには、太陽SUNと、紅葉した多数のモミジの葉MLFと、モミジの枝MBRが含まれている。なお、図4(b)では、図示の便宜上、被写体画像IPSの全面に渡って含まれるモミジの葉MLFの一部のみが描かれている。   FIG. 3 is a flowchart showing a shooting scene determination routine executed by the shooting scene determination unit 200 (FIG. 1). FIG. 4 is an explanatory diagram showing an example of a shooting situation of autumn leaves by the DSC 100. The example of Fig.4 (a) has shown a mode that the user USR image | photographed the maple tree MTR against the sun SUN. FIG. 4B shows a subject image IPS acquired by the imaging unit 130 (FIG. 1) in the example of FIG. The subject image IPS shown in FIG. 4B includes a sun SUN, a large number of maple leaves MLF that have fallen, and a maple branch MBR. In FIG. 4B, for convenience of illustration, only a part of the maple leaf MLF included over the entire surface of the subject image IPS is depicted.

ステップS100において、配位・時刻取得部220は、DSC100の配位と現在時刻を取得する。具体的には、配位・時刻取得部220は、GPS受信部150から取得したDSC100の位置から撮影場所を特定し、時刻取得部170から取得した現在時刻から撮影日時を特定する。また、配位・時刻取得部220は、カメラ方向取得部160からDSC100のカメラ方向を取得する。   In step S100, the coordination / time acquisition unit 220 acquires the coordination and the current time of the DSC 100. Specifically, the coordination / time acquisition unit 220 specifies the shooting location from the position of the DSC 100 acquired from the GPS reception unit 150 and specifies the shooting date and time from the current time acquired from the time acquisition unit 170. The coordination / time acquisition unit 220 acquires the camera direction of the DSC 100 from the camera direction acquisition unit 160.

図4の例では、撮影場所は長野県の○○○山と特定され、撮影日時は2005年11月8日の16時30分と特定されている。また、カメラ方向は、太陽SUNの方向となっていると判断されている。なお、カメラ方向が太陽の方向となっているか否かは、例えば、DSC100の位置および現在時刻から算出される太陽SUNの高度および方位角で表される方向と、カメラ方向とのずれが所定の角度差内であるか否かにより判断することができる。なお、所定の角度差は、固定的な角度(例えば、10°)であっても良く、レンズ110(図1)の焦点距離と撮像素子の大きさによって定まる画角に基づいて算出される角度であっても良い。   In the example of FIG. 4, the shooting location is specified as XX mountain in Nagano Prefecture, and the shooting date and time is specified as 16:30 on November 8, 2005. The camera direction is determined to be the direction of the sun SUN. Whether or not the camera direction is the sun direction is determined by, for example, a deviation between the camera direction and the direction represented by the altitude and azimuth of the sun SUN calculated from the position of the DSC 100 and the current time. Judgment can be made based on whether or not the difference is within the angle difference. The predetermined angle difference may be a fixed angle (for example, 10 °), and is an angle calculated based on the angle of view determined by the focal length of the lens 110 (FIG. 1) and the size of the image sensor. It may be.

図3のステップS200において、画像解析部210は、撮像部130(図1)から取得した画像データを解析することにより、画像データで表される被写体画像中の特定の色の割合を表す情報(色情報)と、被写体画像中に含まれる物体の種類を表す情報と(以下これらの情報を併せて「被写体情報」とも呼ぶ)を取得する。   In step S200 of FIG. 3, the image analysis unit 210 analyzes the image data acquired from the imaging unit 130 (FIG. 1), thereby representing information indicating the proportion of a specific color in the subject image represented by the image data ( Color information) and information indicating the type of object included in the subject image (hereinafter, this information is also referred to as “subject information”).

被写体画像中の特定の色の割合(以下、「特定色比率」とも呼ぶ)は、被写体画像を構成する画素数に対する特定の色の領域(特定色領域)に画素の色(画素色)が含まれる画素数の比率を算出することにより求めることが可能である。なお、画素の色が特定色領域に含まれるか否かは、例えば、所定の色空間において、画素の色を表す点が色空間内の特定色領域に対応する領域に属するか否かにより判断することが可能である。所定の色空間としては、例えば、RGB色空間、HSV色空間、YCrCb色空間等の種々の色空間を使用することが可能である。また、複数の特定色領域のそれぞれに画素色が含まれるか否かを、特定色領域ごとに異なる色空間を用いて判断することも可能である。   The ratio of the specific color in the subject image (hereinafter also referred to as “specific color ratio”) includes the pixel color (pixel color) in the specific color region (specific color region) with respect to the number of pixels constituting the subject image. It can be obtained by calculating the ratio of the number of pixels to be determined. Whether or not the pixel color is included in the specific color area is determined by, for example, whether or not a point representing the pixel color belongs to an area corresponding to the specific color area in the color space in a predetermined color space. Is possible. As the predetermined color space, for example, various color spaces such as an RGB color space, an HSV color space, and a YCrCb color space can be used. It is also possible to determine whether or not a pixel color is included in each of the plurality of specific color areas using a different color space for each specific color area.

図4(b)の例では、被写体画像IPS中には、紅葉したモミジの葉MLFのうちが多数含まれている。そのため、被写体画像IPS中では、モミジの葉MLFの色に相当する黄(15%)、赤(15%)、および、オレンジ(40%)の割合が多くなっている。また、被写体画像IPSにはこれらの色の他に、白(5%)と、茶(10%)と、黒(10%)とが含まれている。   In the example of FIG. 4B, the subject image IPS includes a large number of autumn maple leaf MLFs. Therefore, in the subject image IPS, the ratio of yellow (15%), red (15%), and orange (40%) corresponding to the maple leaf MLF color is high. In addition to these colors, the subject image IPS includes white (5%), brown (10%), and black (10%).

被写体画像に含まれる物体は、例えば、被写体画像に対して領域分割を行い、領域分割結果のテンプレートマッチング等を行うことによって、認識することが可能である。図4(b)の例では、被写体画像IPS中の太陽SUNが認識されている。   An object included in a subject image can be recognized, for example, by performing region division on the subject image and performing template matching of the region division result. In the example of FIG. 4B, the sun SUN in the subject image IPS is recognized.

図3のステップS300において、撮影シーン決定部200は、ステップS100において取得したDSC100の配位および現在時刻と、ステップS200において取得した被写体情報とに基づいて、撮影状況に適したシーンの候補を選定する。   In step S300 of FIG. 3, the shooting scene determination unit 200 selects a scene candidate suitable for the shooting situation based on the coordinates and current time of the DSC 100 acquired in step S100 and the subject information acquired in step S200. To do.

図5は、図3のステップS300において、シーン候補選定部230(図1)により実行されるシーン候補選定サブルーチンを示すフローチャートである。また、図6は、シーン候補の選定に使用される、シーン評価データベース232(図1)に格納された情報の一例を示す説明図である。   FIG. 5 is a flowchart showing a scene candidate selection subroutine executed by the scene candidate selection unit 230 (FIG. 1) in step S300 of FIG. FIG. 6 is an explanatory diagram showing an example of information stored in the scene evaluation database 232 (FIG. 1) used for selecting scene candidates.

ステップS310において、シーン候補選定部230は、シーン評価データベース232からシーン選定に使用する評価パラメータを取得する。具体的には、1つのシーンについて、予め定められている特定色の重み(特定色重み)と、被写体画像中に含まれることが多い物体と、撮影が行われる可能性が高い場所および時間帯と、通常設定されるカメラ方向と、の各パラメータを取得する。   In step S <b> 310, the scene candidate selection unit 230 acquires evaluation parameters used for scene selection from the scene evaluation database 232. Specifically, with respect to one scene, a predetermined specific color weight (specific color weight), an object that is often included in the subject image, and a place and time zone where shooting is likely to be performed And the normally set camera direction parameters.

ステップS320において、シーン候補選定部230は、ステップS200(図3)において取得した被写体情報のうちの色情報と、特定色重みとに基づいて、被写体画像の特徴量を算出する。ここで、特徴量とは、評価対象のシーンが被写体画像中の特定色比率に適しているか否かを表す一種の評価値である。具体的には、特定色重みのパラメータに含まれるN個の特定色のうちi(iは、1以上、N以下の整数)番目の特定色について、特定色比率Riと特定色重みWiとの積(Ri×Wi)を計算する。本実施例では、このi=1〜Nまでの、N個の特定色比率Riと特定色重みWiとの積(Ri×Wi)積の総和を特徴量αとしている。   In step S320, the scene candidate selection unit 230 calculates the feature amount of the subject image based on the color information of the subject information acquired in step S200 (FIG. 3) and the specific color weight. Here, the feature amount is a kind of evaluation value indicating whether or not the scene to be evaluated is suitable for the specific color ratio in the subject image. Specifically, among the N specific colors included in the specific color weight parameter, for the i-th specific color (i is an integer of 1 or more and N or less), the specific color ratio Ri and the specific color weight Wi Calculate the product (Ri × Wi). In this embodiment, the total sum of the products (Ri × Wi) of the N specific color ratios Ri and the specific color weights Wi from i = 1 to N is used as the feature amount α.

図6の例では、まずシーン「夕日」について特徴量αの算出が行われる。シーン「夕日」では、特定色重みのパラメータには、オレンジ、赤、黄、白の4個の特定色が含まれている。そこで、特徴量としては、これら4個の特定色ごとに被写体画像IPS(図4(b))の特定色比率と特定色重みとの積が計算され、これらの積の総和が特徴量αとなる。図6に示すように、シーン「夕日」の特徴量αは、0.2225となる。   In the example of FIG. 6, first, the feature amount α is calculated for the scene “sunset”. In the scene “sunset”, the specific color weight parameter includes four specific colors of orange, red, yellow, and white. Therefore, as the feature amount, the product of the specific color ratio and the specific color weight of the subject image IPS (FIG. 4B) is calculated for each of these four specific colors, and the sum of these products is the feature amount α. Become. As shown in FIG. 6, the feature amount α of the scene “sunset” is 0.2225.

図5のステップS330において、シーン候補選定部230は、被写体情報のうち、被写体画像から認識された物体に関する情報と、DSC100の配位と、現在時刻とに基づいて、評価対象のシーンが被写体や撮影状況に適合しているか否かを表す適合量を算出する。ここで、適合量βとは、0と1との論理値で表される評価値の総和である。本実施例では、被写体画像中に含まれることが多い物体が被写体画像から認識されているか否か、撮影場所と時刻が撮影が行われる可能性が高い場所および時間帯となっているか否か、および、DSC100の方向が通常設定されるカメラ方向となっているか否か、のそれぞれについて判定される。そして、評価パラメータと適合する項目数が本実施例の適合量βとなる。   In step S330 of FIG. 5, the scene candidate selection unit 230 determines that the scene to be evaluated is the subject or the scene based on the information related to the object recognized from the subject image, the configuration of the DSC 100, and the current time. A conforming amount representing whether or not the subject conforms to the shooting situation is calculated. Here, the adaptation amount β is a total sum of evaluation values represented by logical values of 0 and 1. In this embodiment, whether or not an object that is often included in the subject image is recognized from the subject image, whether or not the shooting location and time are likely to be taken and whether or not the time zone, Whether the direction of the DSC 100 is a normally set camera direction is determined. The number of items that match the evaluation parameter is the matching amount β of the present embodiment.

図4の例では、被写体画像IPSから太陽SUNが認識されている。また、カメラ方向は太陽の方向となっており、撮影時刻は、16時30分である。これらは、図6のシーン「夕日」について定められた評価パラメータのうち、ハッチングで示した、物体、カメラ方向、および、時間帯の3つの条件が適合する。そのため、図4に示す撮影状況に対するシーン「夕日」の適合値は3となる。   In the example of FIG. 4, the sun SUN is recognized from the subject image IPS. Further, the camera direction is the sun direction, and the photographing time is 16:30. Among these, the evaluation parameters defined for the scene “sunset” in FIG. 6 meet the three conditions of hatching, the object, the camera direction, and the time zone. Therefore, the adaptation value of the scene “sunset” for the shooting situation shown in FIG.

図5のステップS340において、シーン候補選定部230は、ステップS320で求められた特徴量αと、ステップS330で求められた適合量βとに基づいて、シーンを選定するための得点Pを算出する。本実施例において、得点Pは、特徴量αと適合量βとを用いて、以下の式(1)によって算出される。   In step S340 in FIG. 5, the scene candidate selection unit 230 calculates a score P for selecting a scene based on the feature amount α obtained in step S320 and the adaptation amount β obtained in step S330. . In this embodiment, the score P is calculated by the following equation (1) using the feature amount α and the adaptation amount β.

P=α×(1+β) …(1)   P = α × (1 + β) (1)

図5のステップS350において、シーン候補選定部230は、評価対象のシーンの得点が所定の閾値(例えば、0.1)以上か否かを判断する。評価対象のシーンの得点が所定の閾値以上であると判断された場合には、制御はステップS360に移される。一方、評価対象のシーンの得点が所定の閾値未満であると判断された場合には、制御はステップS370に移される。   In step S350 in FIG. 5, the scene candidate selection unit 230 determines whether or not the score of the scene to be evaluated is equal to or greater than a predetermined threshold (for example, 0.1). If it is determined that the score of the scene to be evaluated is equal to or greater than a predetermined threshold, control is transferred to step S360. On the other hand, if it is determined that the score of the scene to be evaluated is less than the predetermined threshold, control is transferred to step S370.

ステップS360において、シーン候補選定部230は、評価対象のシーンをシーン候補に追加する。評価対象シーンのシーン候補への追加は、例えば、シーン評価データベース232の評価対象シーンについて、候補に選定したことを表すフラグを付加することにより行うことができる。また、シーン評価データベース232とは別個に設けられた記憶装置にシーン候補リストを格納し、シーン候補リストに評価対象シーンを追加することも可能である。   In step S360, the scene candidate selection unit 230 adds the scene to be evaluated to the scene candidate. The addition of the evaluation target scene to the scene candidate can be performed, for example, by adding a flag indicating that the evaluation target scene in the scene evaluation database 232 is selected as a candidate. It is also possible to store a scene candidate list in a storage device provided separately from the scene evaluation database 232 and add an evaluation target scene to the scene candidate list.

ステップS370において、シーン候補選定部230は、シーン評価データベース232に評価パラメータが格納された全てのシーンについて評価を行ったか否かを判断する。全てのシーンについて評価を行ったと判断された場合、図5のシーン候補選定サブルーチンは終了し、制御は、図3に示す撮影シーン決定ルーチンに戻される。一方、評価が行われていないシーンがある場合には、制御は、ステップS310に戻されて、全てのシーンについて評価が行われるまで、ステップS310〜S370が繰り返し実行される。   In step S <b> 370, the scene candidate selection unit 230 determines whether or not all scenes whose evaluation parameters are stored in the scene evaluation database 232 have been evaluated. If it is determined that all the scenes have been evaluated, the scene candidate selection subroutine of FIG. 5 ends, and control is returned to the shooting scene determination routine shown in FIG. On the other hand, if there is a scene that has not been evaluated, control is returned to step S310, and steps S310 to S370 are repeatedly executed until all scenes have been evaluated.

図6の例では、シーン「紅葉」、シーン「逆光」の順で上述のようにシーンの得点が算出される。そして、シーン「紅葉」の得点は閾値以上(0.44)であるので、シーン「紅葉」はシーン候補に追加される。一方、シーン「逆光」の得点は、閾値未満(0.44)であるので、シーン「逆光」はシーン候補に追加されない。同様に、夜景、セピア等の他のシーンについても評価が行われるが、これらのシーンではいずれも得点が閾値未満となるので、シーン候補には追加されない。   In the example of FIG. 6, the score of the scene is calculated as described above in the order of the scene “Autumn leaves” and the scene “backlight”. Since the score of the scene “Autumn leaves” is equal to or greater than the threshold (0.44), the scene “Autumn leaves” is added to the scene candidate. On the other hand, since the score of the scene “backlight” is less than the threshold (0.44), the scene “backlight” is not added to the scene candidate. Similarly, other scenes such as night views and sepia are also evaluated, but in these scenes, the score is less than the threshold value, so they are not added to the scene candidates.

図3のステップS400において、撮影シーン決定部200(図1)は、ステップS300で選定されたシーン候補を表示部180(図1)に表示する。そして、ステップS500において、ユーザが操作部190(図1)を操作することにより入力されたユーザの指示が取得される。   In step S400 of FIG. 3, the photographic scene determination unit 200 (FIG. 1) displays the scene candidate selected in step S300 on the display unit 180 (FIG. 1). In step S500, the user's instruction input by the user operating the operation unit 190 (FIG. 1) is acquired.

図7は、撮影シーン決定部200により表示部180に表示される画面DSPを示す説明図である。図7に示す画面DSPは、被写体画像を表示する被写体画像表示ウィンドウWPSと、シーン候補のうちからユーザにシーンを選択させるためのシーン候補表示ウィンドウWSCと、を有している。   FIG. 7 is an explanatory diagram showing a screen DSP displayed on the display unit 180 by the shooting scene determination unit 200. The screen DSP shown in FIG. 7 has a subject image display window WPS for displaying a subject image, and a scene candidate display window WSC for allowing the user to select a scene from the scene candidates.

シーン候補表示ウィンドウWSCは、シーン候補としてステップS300で選定された2つのシーン候補(夕日、紅葉)のシーン名のボタンBS1,BS2と、「決定」ボタンBDCと、「中止」ボタンBCNとが表示されている。シーン候補表示ウィンドウWSCに表示されるシーン候補は、シーン候補の選定に使用された得点の高い方から順番に上から下に向かって配列されている。また、シーン候補のうち最も得点の高いシーン「夕日」は、現在選択されているシーンとして反転表示されている。なお、シーン候補表示ウィンドウWSCに表示されるシーン候補のそれぞれに、シーン候補の選定に使用された得点を併せて表示するものとしても良い。   The scene candidate display window WSC displays the buttons BS1 and BS2 of the scene names of the two scene candidates (sunset and autumn leaves) selected as the scene candidates in step S300, the “OK” button BDC, and the “Cancel” button BCN. Has been. The scene candidates displayed in the scene candidate display window WSC are arranged from top to bottom in order from the highest score used for selecting the scene candidates. Further, the scene “sunset” having the highest score among the scene candidates is highlighted as the currently selected scene. In addition, it is good also as what displays the score used for selection of a scene candidate together with each of the scene candidates displayed on the scene candidate display window WSC.

ユーザは、画面DSP上に表示された4つのボタンBS1,BS2,BDC,BCNのいずれかに指を触れることにより、ユーザの指示をDSC100に与えることができる。ユーザがシーン名のボタンBS1,BS2のいずれかを操作すると、選択指示取得部250によりシーンの選択指示が撮影シーン決定部200に与えられる。一方、ユーザが「決定」ボタンBDCを操作すると、選択されているシーンを撮影シーンとして使用する決定指示が撮影シーン決定部200に与えられる。また、ユーザが「中止」ボタンBCNを操作すると撮影シーンの設定を中止する中止指示が撮影シーン決定部200に与えられる。   The user can give a user instruction to the DSC 100 by touching one of the four buttons BS1, BS2, BDC, and BCN displayed on the screen DSP. When the user operates one of the scene name buttons BS1 and BS2, the selection instruction acquisition unit 250 gives a scene selection instruction to the shooting scene determination unit 200. On the other hand, when the user operates the “decision” button BDC, a decision instruction to use the selected scene as a shooting scene is given to the shooting scene determination unit 200. Further, when the user operates the “Cancel” button BCN, an instruction to cancel the setting of the shooting scene is given to the shooting scene determination unit 200.

図3のステップS600において、撮影シーン決定部200(図1)は、ユーザから与えられた指示が、シーンの選択指示か、あるいは、決定と中止とのいずれかの指示かを判断する。ユーザの指示が決定と中止とのいずれかの指示であった場合、図3の撮影シーン決定ルーチンは終了する。ユーザの指示がシーンの選択指示であった場合、制御はステップS700に移され、ユーザからの決定指示もしくは中止指示を取得するまでステップS400からS600が繰り返し実行される。   In step S600 of FIG. 3, the shooting scene determination unit 200 (FIG. 1) determines whether the instruction given by the user is an instruction to select a scene or an instruction to determine and cancel. When the user's instruction is one of determination and cancellation, the shooting scene determination routine of FIG. 3 ends. If the user instruction is a scene selection instruction, control is transferred to step S700, and steps S400 to S600 are repeatedly executed until a determination instruction or a stop instruction from the user is acquired.

なお、ユーザの指示が決定指示であった場合には、撮影シーンとして選択されていたシーンを指定する指示が露出決定部140(図1)と画像処理部132(図1)とに供給され、露出決定部140と画像処理部132とは、指定された撮影シーンの設定に従って露出の決定と画像処理を行う。一方、ユーザの指示が中止指示であった場合には、露出決定部140と画像処理部132とには、撮影シーンを指定する指示が与えられず、先に指定されていた撮影シーンの設定に従って露出の決定と画像処理を行う。   If the user's instruction is a determination instruction, an instruction to specify the scene selected as the shooting scene is supplied to the exposure determination unit 140 (FIG. 1) and the image processing unit 132 (FIG. 1). The exposure determination unit 140 and the image processing unit 132 perform exposure determination and image processing according to the setting of the designated shooting scene. On the other hand, if the user's instruction is a cancel instruction, the exposure determination unit 140 and the image processing unit 132 are not given an instruction to specify a shooting scene, and follow the setting of the shooting scene previously specified. Perform exposure determination and image processing.

図7の例では、図7(b)においてユーザは、シーン「紅葉」のボタンBS2を操作している。そのため、図3に示す撮影シーン決定ルーチンの制御は、ステップS600からステップS700に移される。   In the example of FIG. 7, in FIG. 7B, the user operates the button BS2 of the scene “Autumn leaves”. Therefore, the control of the shooting scene determination routine shown in FIG. 3 is moved from step S600 to step S700.

図3のステップS700において、撮影シーン決定部200(図1)は、ユーザにより選択されたシーン(選択シーン)に関連するシーン(関連シーン)を選定する。具体的には、撮影シーン決定部200の関連シーン選定部240が関連シーンデータベース242(図1)を参照し選択シーンに関連するシーンを選定する。そして、撮影シーン決定部200は、選択シーンと関連シーンとを新たなシーン候補に設定した後、制御はステップS400に戻される。   In step S700 of FIG. 3, the shooting scene determination unit 200 (FIG. 1) selects a scene (related scene) related to the scene (selected scene) selected by the user. Specifically, the related scene selection unit 240 of the shooting scene determination unit 200 selects a scene related to the selected scene with reference to the related scene database 242 (FIG. 1). Then, after the shooting scene determination unit 200 sets the selected scene and the related scene as new scene candidates, the control is returned to step S400.

ステップS700から制御が戻されたステップS400では、新たに設定されたシーン候補がシーン候補表示ウィンドウWSCに表示される。なお、ステップS700で新たに設定されたシーン候補には、ステップS300において選択された元のシーン候補である選択シーンと、関連シーンとが含まれる。そのため、ステップS400においては、元のシーン候補と関連シーンとの両方が表示部180に表示されるということも可能である。   In step S400 where control is returned from step S700, the newly set scene candidate is displayed in the scene candidate display window WSC. Note that the scene candidates newly set in step S700 include the selected scene that is the original scene candidate selected in step S300 and the related scene. Therefore, in step S400, both the original scene candidate and the related scene can be displayed on the display unit 180.

図8は、関連シーンデータベース242に登録された情報の一例を示す説明図である。関連シーンデータベースには、選択シーンのそれぞれに予め対応付けられた関連シーンが、その優先順位とともに格納されている。図8では、優先順位が高い順番に左から関連シーンが設定されている。図8の例では、選択シーン「紅葉」には、シーン「逆光」とシーン「セピア」とが関連付けられている。また、選択シーン「逆光」には、シーン「人物」とシーン「紅葉」とが関連付けられている。   FIG. 8 is an explanatory diagram illustrating an example of information registered in the related scene database 242. In the related scene database, related scenes associated with the selected scenes in advance are stored together with their priorities. In FIG. 8, related scenes are set from the left in descending order of priority. In the example of FIG. 8, the scene “backlight” and the scene “sepia” are associated with the selected scene “autumn leaves”. Also, the scene “person” and the scene “autumn leaves” are associated with the selected scene “backlight”.

図7の例では、図7(b)においてユーザがシーン「紅葉」を選択しているので、関連シーンは、シーン「逆光」およびシーン「セピア」の2つのシーンとなり、シーン候補は選択シーン「紅葉」と2つの関連シーン「逆光」および「セピア」に設定される。そのため、図7(c)に示すように、シーン候補表示ウィンドウWSCには、これらのシーン(紅葉,逆光,セピア)に対応するボタンBS1a,BS2a,BS3aが表示される。   In the example of FIG. 7, since the user selects the scene “Autumn leaves” in FIG. 7B, the related scenes are two scenes of the scene “backlight” and the scene “sepia”, and the scene candidate is the selected scene “ “Autumn leaves” and two related scenes “Backlight” and “Sepia”. Therefore, as shown in FIG. 7C, buttons BS1a, BS2a, BS3a corresponding to these scenes (autumn leaves, backlight, sepia) are displayed in the scene candidate display window WSC.

このように、選択シーンと関連シーンとがシーン候補として表示されることにより、ユーザは、最初のシーン候補では選定されなかったシーンを撮影シーンとして選択することが可能となる。図7(c)の例では、シーン候補表示ウィンドウWSCにシーン「逆光」のボタンBS2aが表示されるので、ユーザは紅葉の色がより鮮やかに撮影されるシーン「逆光」を選択することが可能となる。   In this way, the selected scene and the related scene are displayed as scene candidates, so that the user can select a scene that has not been selected as the first scene candidate as a photographic scene. In the example of FIG. 7C, since the scene “backlight” button BS2a is displayed in the scene candidate display window WSC, the user can select the scene “backlight” in which the color of autumn leaves is captured more vividly. It becomes.

このように、本実施例では、画像解析部210から取得された被写体情報と、DSC100の配位と、現在時刻とに基づいて、シーン候補を選定することにより、被写体の撮影に適した撮影シーンをユーザに提示することが可能となる。そして、シーン候補からユーザが選択した選択シーンに関連する関連シーンと、選択シーンと、をシーン候補に設定することにより、より被写体の撮影に適した撮影シーンをユーザに提示することが可能となる。   As described above, in this embodiment, a scene suitable for shooting a subject is selected by selecting a scene candidate based on the subject information acquired from the image analysis unit 210, the configuration of the DSC 100, and the current time. Can be presented to the user. Then, by setting the related scene related to the selected scene selected by the user from the scene candidates and the selected scene as the scene candidates, it is possible to present the user with a shooting scene more suitable for shooting the subject. .

B.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
B. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

B1.変形例1:
上記実施例では、ステップS350,S360(図5)において、シーンの得点が所定の閾値以上のシーンをシーン候補に追加することによりシーン候補を選定しているが、異なる方法によりシーン候補を選定することも可能である。例えば、全てのシーンについて得点を算出した後、得点が高いシーンから順に所定数のシーンを選定することによりシーン候補を選定することも可能である。
B1. Modification 1:
In the above embodiment, in steps S350 and S360 (FIG. 5), a scene candidate is selected by adding a scene with a scene score equal to or higher than a predetermined threshold to the scene candidate. However, the scene candidate is selected by a different method. It is also possible. For example, after calculating scores for all scenes, it is possible to select scene candidates by selecting a predetermined number of scenes in order from the scene with the highest score.

B2.変形例2:
上記実施例では、選択シーンと選択シーンの関連シーンとを新たなシーン候補に設定することにより、シーン候補に含まれるシーンの関連シーンをユーザに提示しているが、異なる方法により関連シーンを提示することも可能である。例えば、シーン候補に含まれる各シーンごとに関連シーンを選定し、シーン候補と、選定された関連シーンとを併せて表示部180に表示するものとしても良い。この場合、シーン候補を表示部180の第1の方向(例えば、横方向)に配列するとともに、各シーンの関連シーンを第1の方向とは異なる第2の方向(例えば、縦方向)に配列するのが好ましい。ユーザは、このように表示されたシーン候補と各シーンの関連シーンとから、所望のシーンをより容易に選択することができる。
B2. Modification 2:
In the above embodiment, the related scene of the scene included in the scene candidate is presented to the user by setting the selected scene and the related scene of the selected scene as a new scene candidate, but the related scene is presented by a different method. It is also possible to do. For example, a related scene may be selected for each scene included in the scene candidate, and the scene candidate and the selected related scene may be displayed together on the display unit 180. In this case, the scene candidates are arranged in the first direction (for example, the horizontal direction) of the display unit 180, and the related scenes of each scene are arranged in the second direction (for example, the vertical direction) different from the first direction. It is preferable to do this. The user can more easily select a desired scene from the displayed scene candidates and the related scenes of each scene.

B3.変形例3:
上記実施例では、シーン候補に含まれるシーンの名称を表示部180(図1)に表示することにより、シーン候補をユーザに提示しているが、他の方法によりシーン候補をユーザに提示するものとしても良い。シーン候補の提示は、例えば、シーン候補中の各シーンを表す画像を表示部180に表示することにより行うことも可能であり、シーン候補中の各シーンに対応した画像処理を行った被写体画像を表示部180に表示することにより行うことも可能である。
B3. Modification 3:
In the above embodiment, scene candidates are presented to the user by displaying the names of the scenes included in the scene candidates on the display unit 180 (FIG. 1), but the scene candidates are presented to the user by other methods. It is also good. Presentation of a scene candidate can be performed, for example, by displaying an image representing each scene in the scene candidate on the display unit 180, and subject images subjected to image processing corresponding to each scene in the scene candidate are displayed. It can also be performed by displaying on the display unit 180.

B4.変形例4:
上記実施例では、シーン別設定データベース142(図1)と、シーン評価データベース232(図1)と、関連シーンデータベース242(図1)と、のそれぞれに格納された情報の一例を示しているが、これらの情報は、被写体の撮影に適した撮影モードが設定可能であれば、適宜変更することが可能である。例えば、シーン評価データベースには、各シーンに対応して、被写体に関するパラメータと、DSC100の位置とカメラ方向と現在時刻との少なくとも1つに関するパラメータと、が格納されていればよい。このようにしても、被写体の撮影に適した撮影モードが設定可能となるように、シーン評価データベースの各パラメータを実験的に決定することが可能である。なお、この場合、シーン候補の選定は、シーン評価データベースに格納されたパラメータに対応する情報に基づいて行われる。
B4. Modification 4:
In the above-described embodiment, an example of information stored in each of the scene-specific setting database 142 (FIG. 1), the scene evaluation database 232 (FIG. 1), and the related scene database 242 (FIG. 1) is shown. These pieces of information can be appropriately changed as long as a shooting mode suitable for shooting a subject can be set. For example, in the scene evaluation database, a parameter related to the subject and a parameter related to at least one of the position of the DSC 100, the camera direction, and the current time may be stored corresponding to each scene. Even in this way, it is possible to experimentally determine each parameter of the scene evaluation database so that a shooting mode suitable for shooting a subject can be set. In this case, the selection of scene candidates is performed based on information corresponding to parameters stored in the scene evaluation database.

本発明の一実施例としてのデジタルスチルカメラ100の概略構成を示す説明図。1 is an explanatory diagram showing a schematic configuration of a digital still camera 100 as one embodiment of the present invention. シーン別設定データベース142に格納されている情報の一例を示す説明図。Explanatory drawing which shows an example of the information stored in the setting database 142 classified by scene. 撮影シーン決定部200より実行される撮影シーン決定ルーチンを示すフローチャート。6 is a flowchart showing a shooting scene determination routine executed by the shooting scene determination unit 200. デジタルスチルカメラ100による紅葉の撮影状況の一例を示す説明図。Explanatory drawing which shows an example of the imaging | photography condition of the autumnal leaves by the digital still camera 100. FIG. シーン候補選定部230により実行されるシーン候補選定サブルーチンを示すフローチャート。9 is a flowchart showing a scene candidate selection subroutine executed by the scene candidate selection unit 230. シーン評価データベース232に格納されている情報の一例を示す説明図。Explanatory drawing which shows an example of the information stored in the scene evaluation database. 撮影シーン決定部200により表示部180に表示される画面を示す説明図。Explanatory drawing which shows the screen displayed on the display part 180 by the imaging scene determination part 200. FIG. 関連シーンデータベース242に格納されている情報の一例を示す説明図。Explanatory drawing which shows an example of the information stored in the related scene database 242.

符号の説明Explanation of symbols

100…デジタルスチルカメラ
110…レンズ
120…レンズ駆動部
130…撮像部
132…画像処理部
140…露出決定部
142…シーン別設定データベース
150…GPS受信部
160…カメラ方向取得部
170…時刻取得部
180…表示部
190…操作部
200…撮影シーン決定部
210…画像解析部
220…配位・時刻取得部
230…シーン候補選定部
232…シーン評価データベース
240…関連シーン選定部
242…関連シーンデータベース
250…選択指示取得部
DESCRIPTION OF SYMBOLS 100 ... Digital still camera 110 ... Lens 120 ... Lens drive part 130 ... Imaging part 132 ... Image processing part 140 ... Exposure determination part 142 ... Setting database 150 classified by scene 150 ... GPS receiving part 160 ... Camera direction acquisition part 170 ... Time acquisition part 180 ... Display unit 190 ... Operation unit 200 ... Shooting scene determination unit 210 ... Image analysis unit 220 ... Coordination / time acquisition unit 230 ... Scene candidate selection unit 232 ... Scene evaluation database 240 ... Related scene selection unit 242 ... Related scene database 250 ... Selection instruction acquisition unit

Claims (5)

デジタルカメラであって、
被写体画像を取得する被写体画像取得部と、
前記デジタルカメラの位置と、前記デジタルカメラの方向と、現在時刻とのうち、少なくとも1つを含む撮影状況情報を取得する撮影状況情報取得部と、
前記被写体画像を解析することにより、被写体画像に含まれる被写体に関する被写体情報を取得する被写体情報取得部と、
前記被写体の撮影に適した撮影モードを設定するための撮影シーンを決定する撮影シーン決定部と、
を備え、
前記撮影シーン決定部は、
前記被写体情報取得部により取得された前記被写体情報と、前記撮影状況情報取得部により取得された前記撮影状況情報と、に基づいて前記デジタルカメラで設定可能な複数の撮影シーンの中からシーン候補を選定するシーン候補選定部と、
前記シーン候補選定部により選定されたシーン候補を前記デジタルカメラの表示部に表示するシーン候補表示部と、
前記デジタルカメラのユーザからの指示に従って、前記シーン候補から撮影に使用する撮影シーンを選択する撮影シーン選択部と、
を有する、デジタルカメラ。
A digital camera,
A subject image acquisition unit for acquiring a subject image;
A shooting status information acquisition unit that acquires shooting status information including at least one of the position of the digital camera, the direction of the digital camera, and the current time;
A subject information acquisition unit that acquires subject information related to a subject included in the subject image by analyzing the subject image;
A shooting scene determining unit that determines a shooting scene for setting a shooting mode suitable for shooting the subject;
With
The shooting scene determination unit
Scene candidates are selected from a plurality of shooting scenes that can be set by the digital camera based on the subject information acquired by the subject information acquisition unit and the shooting status information acquired by the shooting status information acquisition unit. A scene candidate selection section to select;
A scene candidate display unit for displaying the scene candidate selected by the scene candidate selection unit on the display unit of the digital camera;
In accordance with an instruction from the user of the digital camera, a shooting scene selection unit that selects a shooting scene to be used for shooting from the scene candidates;
Having a digital camera.
請求項1記載のデジタルカメラであって、
前記シーン候補選定部は、前記位置と前記方向と前記現在時刻との全てを使用してシーン候補を選定する、デジタルカメラ。
The digital camera according to claim 1,
The scene candidate selection unit selects a scene candidate using all of the position, the direction, and the current time.
請求項1または2記載のデジタルカメラであって、
前記撮影シーン決定部は、さらに、前記シーン候補選定部が選定したシーン候補に含まれる撮影シーンに予め関連づけられた関連シーンを選定する関連シーン選定部を有しており、
前記シーン候補表示部は、前記シーン候補と前記関連シーンとの両方を前記表示部に表示する、デジタルカメラ。
The digital camera according to claim 1 or 2,
The shooting scene determination unit further includes a related scene selection unit that selects a related scene previously associated with a shooting scene included in the scene candidate selected by the scene candidate selection unit,
The scene candidate display unit is a digital camera that displays both the scene candidate and the related scene on the display unit.
請求項3記載のデジタルカメラであって、
前記シーン候補表示部は、前記シーン候補選定部が複数のシーン候補を選定した場合に、前記複数のシーン候補を第1の方向に配列するとともに、各シーン候補についての関連シーンを前記第1の方向とは異なる第2の方向に配列する、デジタルカメラ。
The digital camera according to claim 3,
The scene candidate display unit arranges the plurality of scene candidates in a first direction when the scene candidate selection unit selects a plurality of scene candidates, and displays related scenes for each scene candidate in the first scene. A digital camera arranged in a second direction different from the direction.
被写体の撮影に適した撮影モードをデジタルカメラに設定するための撮影シーンを決定する撮影シーン決定方法であって、
(a)前記被写体を含む被写体画像を取得する工程と、
(b)前記デジタルカメラの位置と、前記デジタルカメラの方向と、現在時刻とのうち、少なくとも1つを含む撮影状況情報を取得する工程と、
(c)前記被写体画像を解析することにより、前記被写体に関する被写体情報を取得する工程と、
(d)前記工程(c)において取得された前記被写体情報と、前記工程(b)において取得された撮影状況情報と、に基づいて前記デジタルカメラで設定可能な複数の撮影シーンの中からシーン候補を選定する工程と、
(e)前記工程(d)において選定されたシーン候補を前記デジタルカメラの表示部に表示する工程と、
(f)前記デジタルカメラのユーザからの指示に従って、前記シーン候補から撮影に使用する撮影シーンを選択する工程と、
を備える、撮影シーン決定方法。
A shooting scene determination method for determining a shooting scene for setting a shooting mode suitable for shooting a subject to a digital camera,
(A) obtaining a subject image including the subject;
(B) acquiring shooting situation information including at least one of the position of the digital camera, the direction of the digital camera, and the current time;
(C) obtaining subject information relating to the subject by analyzing the subject image;
(D) Scene candidates from among a plurality of shooting scenes that can be set by the digital camera based on the subject information acquired in the step (c) and the shooting situation information acquired in the step (b). A process of selecting
(E) displaying the scene candidate selected in the step (d) on the display unit of the digital camera;
(F) selecting a shooting scene to be used for shooting from the scene candidates according to an instruction from a user of the digital camera;
A method for determining a shooting scene.
JP2006044784A 2006-02-22 2006-02-22 Determination of shooting scene Expired - Fee Related JP4775029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006044784A JP4775029B2 (en) 2006-02-22 2006-02-22 Determination of shooting scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006044784A JP4775029B2 (en) 2006-02-22 2006-02-22 Determination of shooting scene

Publications (2)

Publication Number Publication Date
JP2007228118A true JP2007228118A (en) 2007-09-06
JP4775029B2 JP4775029B2 (en) 2011-09-21

Family

ID=38549505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006044784A Expired - Fee Related JP4775029B2 (en) 2006-02-22 2006-02-22 Determination of shooting scene

Country Status (1)

Country Link
JP (1) JP4775029B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268093A (en) * 2009-05-13 2010-11-25 Nikon Corp Camera
JP2011050107A (en) * 2010-11-25 2011-03-10 Casio Computer Co Ltd Camera, camera control program, and imaging method
JP2011091512A (en) * 2009-10-20 2011-05-06 Canon Inc Photographing system and photographic processing method
JP2011124896A (en) * 2009-12-14 2011-06-23 Casio Computer Co Ltd Analyzer, image pickup device, server, and analyzing system
US8036998B2 (en) 2007-08-31 2011-10-11 Seiko Epson Corporation Category classification method
US8243328B2 (en) 2007-04-20 2012-08-14 Seiko Epson Corporation Printing method, printing apparatus, and storage medium storing a program
WO2012165088A1 (en) * 2011-05-31 2012-12-06 富士フイルム株式会社 Image-capturing device and program
EP2219369A3 (en) * 2009-02-16 2013-06-26 Lg Electronics Inc. Method for processing image data in portable electronic device, and portable electronic device having camera thereof
JP2014096621A (en) * 2012-11-07 2014-05-22 Olympus Imaging Corp Imaging apparatus and imaging method
EP2809062B1 (en) * 2013-04-15 2018-05-23 Omron Corporation Image processor, image processing method and program, and recording medium
JP2021517413A (en) * 2018-03-26 2021-07-15 華為技術有限公司Huawei Technologies Co.,Ltd. Intelligent assist control methods and terminal devices

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151375A (en) * 2003-11-19 2005-06-09 Casio Comput Co Ltd Camera apparatus and its photographic condition setting method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151375A (en) * 2003-11-19 2005-06-09 Casio Comput Co Ltd Camera apparatus and its photographic condition setting method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8243328B2 (en) 2007-04-20 2012-08-14 Seiko Epson Corporation Printing method, printing apparatus, and storage medium storing a program
US8036998B2 (en) 2007-08-31 2011-10-11 Seiko Epson Corporation Category classification method
US8514315B2 (en) 2009-02-16 2013-08-20 Lg Electronics Inc. Method for processing image data in portable electronic device, and portable electronic device having camera thereof
KR101559583B1 (en) 2009-02-16 2015-10-12 엘지전자 주식회사 Method for processing image data and portable electronic device having camera thereof
EP2219369A3 (en) * 2009-02-16 2013-06-26 Lg Electronics Inc. Method for processing image data in portable electronic device, and portable electronic device having camera thereof
JP2010268093A (en) * 2009-05-13 2010-11-25 Nikon Corp Camera
JP2011091512A (en) * 2009-10-20 2011-05-06 Canon Inc Photographing system and photographic processing method
JP2011124896A (en) * 2009-12-14 2011-06-23 Casio Computer Co Ltd Analyzer, image pickup device, server, and analyzing system
JP2011050107A (en) * 2010-11-25 2011-03-10 Casio Computer Co Ltd Camera, camera control program, and imaging method
WO2012165088A1 (en) * 2011-05-31 2012-12-06 富士フイルム株式会社 Image-capturing device and program
CN103563351A (en) * 2011-05-31 2014-02-05 富士胶片株式会社 Image-capturing device and program
US20140132801A1 (en) * 2011-05-31 2014-05-15 Fujifilm Corporation Shooting device and program
US8913158B2 (en) 2011-05-31 2014-12-16 Fujifilm Corporation Shooting device and program
JP2014096621A (en) * 2012-11-07 2014-05-22 Olympus Imaging Corp Imaging apparatus and imaging method
US9210334B2 (en) 2012-11-07 2015-12-08 Olympus Corporation Imaging apparatus and imaging method for flare portrait scene imaging
EP2809062B1 (en) * 2013-04-15 2018-05-23 Omron Corporation Image processor, image processing method and program, and recording medium
JP2021517413A (en) * 2018-03-26 2021-07-15 華為技術有限公司Huawei Technologies Co.,Ltd. Intelligent assist control methods and terminal devices
JP7072667B2 (en) 2018-03-26 2022-05-20 華為技術有限公司 Intelligent assist control methods and terminal devices
US11503208B2 (en) 2018-03-26 2022-11-15 Huawei Technologies Co., Ltd. Intelligent assistant control method and terminal device for recommending a photographing mode to a user

Also Published As

Publication number Publication date
JP4775029B2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
JP4775029B2 (en) Determination of shooting scene
TWI450111B (en) Method, computer useable medium, and device for guided photography based on image capturing device rendered user recommendations
US9143677B1 (en) Automatic real-time composition feedback for still and video cameras
JP4984044B2 (en) Image capturing system, image capturing condition setting method, terminal and server used therefor
JP5454158B2 (en) Imaging apparatus, control method thereof, and program
JP2011054071A (en) Image processing device, image processing method and program
US20080024621A1 (en) System for and method of taking image and computer program
JP2007324965A (en) Digital camera, photography control method, and image output system
JPWO2019026746A1 (en) Image processing apparatus and method, imaging apparatus, and program
JP2016144050A (en) Imaging equipment
JP2007258927A (en) Imaging apparatus
JP2007078842A (en) Display control apparatus and display control method
JP2009288945A (en) Image display unit and image display method
JP2005065048A (en) Picture processing method, picture processor and picture processing program
CN113454980A (en) Panorama shooting method, electronic device and storage medium
CN110971814B (en) Shooting adjustment method and device, electronic equipment and storage medium
JP2021136555A (en) Image processing device and image processing method
JP6039471B2 (en) Imaging apparatus and control method thereof
JP6532370B2 (en) Imaging system, composition setting device, and composition setting program
JP2001275031A (en) Method and device for image processing, camera, and photography system
JP2012195760A (en) Shooting setting adjustment system, information processing unit, and control method and control program therefor
JP2005072949A (en) Image photographing device and program
JP5287430B2 (en) Image editing apparatus, image editing method, and image editing program
JP2019033470A (en) Image processing system, imaging apparatus, image processing apparatus, control method, and program
JP5543636B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

R150 Certificate of patent or registration of utility model

Ref document number: 4775029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees