JP2009010472A - Imaging device and program thereof - Google Patents

Imaging device and program thereof Download PDF

Info

Publication number
JP2009010472A
JP2009010472A JP2007167537A JP2007167537A JP2009010472A JP 2009010472 A JP2009010472 A JP 2009010472A JP 2007167537 A JP2007167537 A JP 2007167537A JP 2007167537 A JP2007167537 A JP 2007167537A JP 2009010472 A JP2009010472 A JP 2009010472A
Authority
JP
Japan
Prior art keywords
subject
imaging
type
displayed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007167537A
Other languages
Japanese (ja)
Inventor
Kazuhisa Kitamura
和久 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007167537A priority Critical patent/JP2009010472A/en
Publication of JP2009010472A publication Critical patent/JP2009010472A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device and a program thereof that improve decision precision of the kind of a subject. <P>SOLUTION: A display control unit 101 of a CPU 10 displays a photography instruction message and a template, prompting a user to photograph a part as a feature characteristic of the kind of a selected subject, corresponding to the kind of the subject at an image display unit 15 (S43). Through the display of the template, the user can determine a composition such that the displayed feature part is photographed. A shutter release button is pressed (Y at S44), and based upon image data on the feature part photographed as a still picture at S45, it is decided whether or not the photographed subject is of the kind of the selected subject (S46). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、被写体の種類を判定する撮像装置及びそのプログラムに関する。   The present invention relates to an imaging device and a program thereof, and more particularly, to an imaging device and a program thereof that determine the type of a subject.

近年、電子カメラ等の撮像装置においては、画像認識により被写体の種類を判定し、該判定した被写体の名称や説明を表示する技術が開発された。(特許文献1)。   In recent years, in an imaging apparatus such as an electronic camera, a technique has been developed in which the type of a subject is determined by image recognition, and the name and description of the determined subject are displayed. (Patent Document 1).

公開特許公報 特開2006−270137Japanese Patent Laid-Open No. 2006-270137

しかしながら、従来の技術では、例えば、草や花等は、種類が異なっていても非常に似ているものが多く、このような場合は、被写体の種類を誤って判定してしまったり、被写体の種類を判定することができないという事態を招いてしまっていた。   However, with conventional techniques, for example, grass and flowers are often very similar even if they are of different types.In such cases, the type of subject may be erroneously determined, The situation that the kind cannot be judged has been invited.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、被写体の種類の判定精度を向上させる撮像装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and an object of the present invention is to provide an imaging apparatus and a program for improving the accuracy of determining the type of subject.

上記目的達成のため、請求項1記載の発明による撮像装置は、撮像素子を用いて被写体を撮像する撮像手段と、
被写体を選択する選択手段と、
前記選択手段により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御手段と、
前記表示制御手段により表示された部位の撮影の促しにしたがって、前記撮像手段により撮像された部位の画像データに基づいて、被写体の種類を判定する第1の被写体判定手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image pickup apparatus according to the first aspect of the present invention includes an image pickup means for picking up an image of a subject using an image pickup element,
A selection means for selecting a subject;
Display control means for performing display for prompting photographing of a part of the subject, which differs depending on the subject selected by the selection means;
First subject determination means for determining the type of subject based on the image data of the part imaged by the imaging means in accordance with the prompting of imaging of the part displayed by the display control means;
It is provided with.

また、例えば、請求項2に記載されているように、前記選択手段は、
被写体のカテゴリーを選択し、
前記表示制御手段は、
前記選択手段により選択された被写体のカテゴリーに応じて異なる、該被写体の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 2, the selection unit includes:
Select the subject category,
The display control means includes
Different displays may be displayed depending on the category of the subject selected by the selection means to prompt the photographing of the part of the subject.

また、例えば、請求項3に記載されているように、前記選択手段は、
被写体の種類を選択し、
前記表示制御手段は、
前記選択手段により選択された被写体の種類に応じて異なる、該被写体の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 3, the selection unit includes:
Select the type of subject,
The display control means includes
A display for prompting photographing of the part of the subject, which differs depending on the type of the subject selected by the selection means, may be performed.

また、例えば、請求項4に記載されているように、前記表示制御手段は、
前記選択手段により選択された被写体の種類の特徴となる部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 4, the display control unit includes:
You may make it perform the display which encourages imaging | photography of the site | part used as the characteristic of the kind of to-be-photographed object selected by the said selection means.

また、例えば、請求項5に記載されているように、前記表示制御手段は、
前記選択手段により選択された被写体に応じて異なるテンプレート、及び/又は、メッセージを表示させることにより、該被写体の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 5, the display control means includes
By displaying different templates and / or messages depending on the subject selected by the selection means, a display for prompting photographing of the part of the subject may be performed.

また、例えば、請求項6に記載されているように、前記表示制御手段は、
少なくとも1つ以上の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 6, the display control unit includes:
You may make it perform the display which encourages imaging | photography of at least 1 or more site | part.

また、例えば、請求項7に記載されているように、前記表示制御手段は、
前記選択手段により選択された被写体に応じて、撮影を促す表示を行なう部位の数を異ならせるようにしてもよい。
For example, as described in claim 7, the display control unit includes:
Depending on the subject selected by the selection means, the number of parts for performing the display for prompting photographing may be varied.

また、例えば、請求項8に記載されているように、前記第1の被写体判定手段は、
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により撮像された全ての部位の画像データに基づいて、被写体の種類を判定するようにしてもよい。
Further, for example, as described in claim 8, the first subject determination unit includes:
When the display control means performs a display prompting imaging of a plurality of parts, the image data of all parts imaged by the imaging means is displayed according to the display prompting imaging of the part displayed by the display control means. Based on this, the type of subject may be determined.

また、例えば、請求項9に記載されているように、前記第1の被写体判定手段は、
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により最初に撮像される部位の画像データに基づいて被写体の種類を判定し、該被写体の種類を判定することができなかった場合は、被写体の種類が判定できるまで、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段によりその後撮像される各部位の画像データに基づいて被写体の種類の判定を行なっていくようにしてもよい。
Further, for example, as described in claim 9, the first subject determination unit includes:
In the case where the display controller prompts the imaging of a plurality of parts, the image data of the part first imaged by the imaging unit is displayed according to the display prompting the imaging of the part displayed by the display controller. The type of the subject is determined based on the display, and if the type of the subject cannot be determined, the display control means is configured to display the portion displayed by the display control unit until the type of the subject can be determined. The type of the subject may be determined based on the image data of each part that is subsequently imaged by the imaging means.

また、例えば、請求項10に記載されているように、前記表示制御手段による部位の撮影を促す表示が行われる前に、前記撮像手段により撮像された被写体全体の画像データに基づいて、被写体の種類を判定する第2の被写体判定手段を備え、
前記表示制御手段、前記第1の被写体判定手段は、
前記第2の被写体判定手段により被写体の種類を判定することができなかった場合に、動作を実行するようにしてもよい。
Further, for example, as described in claim 10, based on the image data of the entire subject imaged by the imaging unit before the display control unit prompts the imaging of the region, A second object determining means for determining the type;
The display control means and the first subject determination means are
The operation may be executed when the type of subject cannot be determined by the second subject determining means.

また、例えば、請求項11に記載されているように、複数の被写体をリスト表示させるリスト表示制御手段を備え、
前記選択手段は、
前記リスト表示制御手段によりリスト表示された複数の被写体の中から、ユーザの操作にしたがって任意の被写体を選択するようにしてもよい。
In addition, for example, as described in claim 11, a list display control means for displaying a list of a plurality of subjects is provided,
The selection means includes
An arbitrary subject may be selected from a plurality of subjects displayed in a list by the list display control means in accordance with a user operation.

また、例えば、請求項12に記載されているように、前記リスト表示制御手段は、
前記第2の被写体判定手段により一致度が高いと判定された被写体順、又は、一致度が高い被写体のみをリスト表示させるようにしてもよい。
For example, as described in claim 12, the list display control unit includes:
Only the subjects in the order of subjects determined to have a high degree of coincidence by the second subject judging means or only subjects having a high degree of coincidence may be displayed in a list.

また、例えば、請求項13に記載されているように、前記選択手段は、
前記撮像手段により撮像された画像データに対する画像認識に基づいて、被写体を選択するようにしてもよい。
For example, as described in claim 13, the selection unit includes:
The subject may be selected based on image recognition for the image data captured by the imaging means.

上記目的達成のため、請求項14記載の発明によるプログラムは、撮像素子を用いて被写体を撮像する撮像処理と、
被写体を選択する選択処理と、
前記選択処理により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御処理と、
前記表示制御処理により表示された部位の撮影の促しにしたがって、前記撮像処理により撮像された部位の画像データに基づいて、被写体の種類を判定する被写体判定処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
In order to achieve the above object, a program according to the invention described in claim 14 includes an imaging process for imaging a subject using an imaging device;
A selection process for selecting a subject,
Display control processing for performing display for prompting photographing of a portion of the subject, which differs depending on the subject selected by the selection processing;
Subject determination processing for determining the type of subject based on image data of the part imaged by the imaging process in accordance with the prompting of imaging of the part displayed by the display control process;
And each of the above processes is executed by a computer.

本願発明によれば、被写体の種類の判定精度を向上させることができる。   According to the present invention, it is possible to improve the accuracy of determining the type of subject.

以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes a photographing lens 2, a lens driving block 3, an aperture 4, a CCD 5, a driver 6, a TG (timing generator) 7, a unit circuit 8, an image generation unit 9, a CPU 10, a key input unit 11, a memory 12, a DRAM 13, A flash memory 14, an image display unit 15, and a bus 16 are provided.

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。   The photographing lens 2 includes a focus lens, a zoom lens, and the like that are constituted by a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 includes a focus motor and a zoom motor that drive the focus lens and the zoom lens along the optical axis direction, respectively, and a focus motor driver that drives the focus motor and the zoom motor according to a control signal sent from the CPU 10. And a zoom motor driver (not shown).

絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 10.
The diaphragm 4 is a mechanism that controls the amount of light that enters from the photographing lens 2.

CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。   The CCD 5 is driven by the driver 6 and photoelectrically converts the intensity of light of each color of the RGB value of the subject image for every fixed period and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a Bayer color filter and also functions as an electronic shutter. The shutter speed of the electronic shutter is controlled by the CPU 10 via the driver 6 and TG7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. An (Automatic Gain Control) circuit and an A / D converter that converts an analog image pickup signal after the automatic gain adjustment into a digital signal, the image pickup signal output from the CCD 5 passes through the unit circuit 8 as a digital signal. It is sent to the image generator 9.

画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。   The image generation unit 9 performs processing such as γ correction processing and white balance processing on the image data sent from the unit circuit 8, generates a luminance color difference signal (YUV data), and generates the generated luminance color difference. The image data of the signal is stored in the DRAM 13 (buffer memory). That is, the image generation unit 9 performs image processing on the image data output from the CCD 5.

CPU10は、CCD5への撮像制御、バッファメモリに記憶された画像データのフラッシュメモリ14への記録処理、バッファメモリに記憶された画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、撮影指示メッセージ及びテンプレートを画像表示部15に表示させる表示制御部101と、撮像された画像データに基づいて被写体の種類を判定する被写体判定部102を有する。
The CPU 10 has functions of performing imaging control to the CCD 5, recording processing of image data stored in the buffer memory to the flash memory 14, display processing of image data stored in the buffer memory, and each part of the digital camera 1 It is a one-chip microcomputer to control.
In particular, the CPU 10 includes a display control unit 101 that displays a shooting instruction message and a template on the image display unit 15, and a subject determination unit 102 that determines the type of subject based on the captured image data.

キー入力部11は、シャッタボタン、モード切替キー、十字キー、SETキー、キャンセルキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。   The key input unit 11 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, a SET key, and a cancel key, and outputs an operation signal corresponding to the user's key operation to the CPU 10.

メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
特に、メモリ12には、カテゴリー別データベースと、類別データベースとが記録されている。
The memory 12 stores a control program and necessary data necessary for the CPU 10 to control each unit, and the CPU 10 operates according to the program. The memory 12 is a rewritable nonvolatile memory.
In particular, the memory 12 stores a category database and a category database.

図2(A)は、メモリ12に記録されているカテゴリー別データベースの様子の一例を示す図であり、図2(A)を見ると分かるように、被写体のカテゴリー(花、昆虫、動物(トラ、馬、象等の人以外の哺乳類動物を主に指す)等)毎に、該カテゴリーの被写体全体の撮影を促す撮影指示メッセージ及びテンプレートと、該カテゴリーの被写体の各部位の撮影を促す部位別(例えば、花の場合は、花、茎、葉などの花全体の各部位)の撮影指示メッセージ及びテンプレートが設定されている。   FIG. 2A is a diagram showing an example of a state of the category database recorded in the memory 12. As can be seen from FIG. 2A, the subject category (flower, insect, animal (trait) , Mainly a mammal animal other than a human such as a horse, an elephant, etc.)), etc.) for each part of the category, and a photography instruction message and a template for encouraging the whole subject of the category to be photographed. For example, in the case of a flower, a shooting instruction message and a template for each part of the whole flower such as a flower, a stem, and a leaf are set.

この部位別の撮影指示メッセージ及びテンプレートによって撮影が促される被写体の部位の数は、被写体のカテゴリーに応じて異なり、例えば、花の場合は、3つの部位(ここでは、花、茎、葉の部位)の撮影を促す撮影指示メッセージが設定されており、昆虫の場合は4つの部位の撮影を促す撮影指示メッセージが設定されており、動物の場合は3つの部位の撮影を促す撮影指示メッセージが設定されている。
なお、部位の数は、被写体のカテゴリーに応じて異なるようにしたが、被写体のカテゴリーにかかわらず部位の数を一律同じにするようにしてもよい。
The number of parts of the subject to be photographed by the photographing instruction message for each part and the template varies depending on the category of the subject. For example, in the case of a flower, three parts (here, parts of a flower, a stem, and a leaf) ) Is set, a shooting instruction message is set to shoot four parts for insects, and a shooting instruction message is set to shoot three parts for animals. Has been.
Although the number of parts differs depending on the category of the subject, the number of parts may be made uniform regardless of the category of the subject.

また、種別データベースは、被写体のカテゴリー毎(花、昆虫、動物、人、鳥、魚等のカテゴリー毎)にメモリ12に記録されており、図2(B)は、メモリ12に記録されている花の種別データベースの様子の一例を示す図である。
図2(B)を見るとわかるように、花の種別データベースには、花の種類(バラ、コスモス、菊など)毎に、花の全体(花や茎や葉を含む)の特徴データ(全体特徴データ)、花の部位別(ここでは、花、茎、葉の各部位)の特徴データ、花の特徴となる部位の特徴データ(特徴部位特徴データ)、該特徴部位の撮影を促す特徴部位の撮影指示メッセージ及びテンプレート、及び花のサンプル画像データ、花の説明データが設定されている。なお、他の被写体のカテゴリーの種別データベースについても同様に、図2(B)に示すようなデータ、つまり、種類毎に、全体特徴データ、部位別の特徴データ、特徴部位特徴データ、特徴部位の撮影指示メッセージ及びテンプレート、サンプル画像、説明データが設定されている。
The type database is recorded in the memory 12 for each category of subject (flower, insect, animal, person, bird, fish, etc.), and FIG. 2B is recorded in the memory 12. It is a figure which shows an example of the mode of the classification database of a flower.
As can be seen from FIG. 2 (B), in the flower type database, for each type of flower (rose, cosmos, chrysanthemum, etc.), feature data (including flowers, stems and leaves) of the whole flower (whole) Feature data), feature data for each part of the flower (here, each part of the flower, stem, and leaf), feature data of the part that is a feature of the flower (feature part feature data), and a feature part that prompts photographing of the feature part Shooting instruction messages and templates, flower sample image data, and flower explanation data are set. Similarly for the category database of other subject categories, the data as shown in FIG. 2B, that is, for each type, the entire feature data, the feature data for each part, the feature part feature data, the feature part A shooting instruction message, template, sample image, and explanation data are set.

また、上記テンプレートやメッセージは、撮影を促すための情報であり、詳しくは後で説明する。また、図2(A)の被写体のカテゴリー毎に設定されている部位別の撮影指示メッセージ及びテンプレートによって撮影が促される被写体の部位の数と、カテゴリー毎の種別データベースに設定されている部位別の特徴データの部位の数とは、同じカテゴリー同士で同じ数である。例えば、被写体のカテゴリーが花の場合であって、カテゴリー別データベースに設定されている花の部位別の撮影指示メッセージ及びテンプレートによって撮影が促される部位の数が3つの場合は、花の種別データベースに設定されている部位別特徴データの部位の数も3つとなる(図2(A)、(B)参照)。   The template and message are information for prompting photographing, and will be described in detail later. Further, the number of parts of the subject to be photographed by the photographing instruction message for each part and the template set for each category of the subject in FIG. 2A and the part-by-part set in the type database for each category. The number of parts of the feature data is the same number in the same category. For example, when the category of the subject is a flower and the number of parts to be photographed by the photographing instruction message for each part of the flower and the template set in the category database is three, the flower type database The number of the site-specific feature data set is also 3 (see FIGS. 2A and 2B).

DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
The DRAM 13 is used as a buffer memory for temporarily storing image data sent to the CPU 10 after being imaged by the CCD 5 and also as a working memory for the CPU 10.
The flash memory 14 is a recording medium that stores compressed image data.

画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。   The image display unit 15 includes a color LCD and its driving circuit, and displays the subject imaged by the CCD 5 as a through image when in a shooting standby state, and is read out from the flash memory 14 and decompressed when a recorded image is reproduced. The recorded image is displayed.

B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図3乃至5のフローチャートに従って説明する。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the embodiment will be described with reference to the flowcharts of FIGS.

ユーザのキー入力部11のモード切替キーの操作により被写体判定モードに設定されると、ステップS1に進み、CPU10は、CCD5による撮像を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する。   When the subject determination mode is set by the user's operation of the mode switching key of the key input unit 11, the process proceeds to step S <b> 1, and the CPU 10 starts imaging by the CCD 5, and is sequentially captured by the CCD 5 and generated by the image generation unit 9. A so-called through image display is performed in which frame image data (YUV data) of luminance color difference signals is stored in a buffer memory (DRAM 13), and an image based on the stored frame image data is displayed on the image display unit 15. Start.

次いで、ステップS2で、CPU10は、メモリ12に記録されているカテゴリー別データベースから被写体の各カテゴリーの名称(花、昆虫、動物等の名称)を取得し、該取得した名称の一覧をスルー画像に重ねて表示させる(リスト表示させる)。ここで、この一覧表示によって表示されるスルー画像が隠れないように、カテゴリーの名称の一覧が透けるように表示してもよいし、画像表示部15の1部の領域に対して表示させるようにしてもよい。   Next, in step S2, the CPU 10 acquires the names of the categories of the subject (names of flowers, insects, animals, etc.) from the category database recorded in the memory 12, and displays a list of the acquired names as a through image. Overlay the display (display the list). Here, the list of category names may be displayed so that the through image displayed by the list display is not hidden, or may be displayed in one area of the image display unit 15. May be.

次いで、ステップS3で、CPU10は、ユーザによって何れか1つの被写体のカテゴリーが指定されたか否かを判断する。
ここで、ユーザは、一覧表示された被写体のカテゴリーの名称を見ながら、十字キー、SETキーの操作を行なうことにより何れか1つの被写体のカテゴリーを指定することができ、この一連の操作に対応する操作信号がキー入力部11から送られてきた場合はカテゴリーが指定されたと判断する。これにより、ユーザが撮影する被写体のカテゴリーを自由に指定(選択)することができる。
Next, in step S3, the CPU 10 determines whether or not any one subject category has been designated by the user.
Here, the user can designate one of the subject categories by operating the cross key and the SET key while looking at the names of the subject categories displayed in the list, and this series of operations is supported. When the operation signal to be sent is sent from the key input unit 11, it is determined that the category is designated. Thereby, the category of the subject to be photographed by the user can be freely designated (selected).

ステップS3で、被写体のカテゴリーが指定されていないと判断すると、指定されるまでステップS3に留まり、被写体のカテゴリーが指定されたと判断すると、ステップS4に進み、CPU10は、該指定された被写体のカテゴリーを選択する。
次いで、ステップS5に進み、CPU10の表示制御部101は、該選択された被写体のカテゴリーに対応する被写体の全体の撮影を促す撮影指示メッセージ及びテンプレートを図2(A)に示すカテゴリー別データベースから読み出して、スルー画像に重ねて表示させる(重畳表示させる)。この撮影メッセージ及びテンプレートの内容は、該選択されたカテゴリーの被写体の全体を撮影するように促す内容である。ここでは、花を撮像しているので、ユーザは被写体のカテゴリーとして花を指定して選択したものとする。
If it is determined in step S3 that the subject category is not specified, the process stays in step S3 until it is specified. If it is determined that the subject category is specified, the process proceeds to step S4, and the CPU 10 determines the category of the specified subject. Select.
Next, in step S5, the display control unit 101 of the CPU 10 reads out a shooting instruction message and a template for prompting shooting of the entire subject corresponding to the selected subject category from the database by category shown in FIG. Then, it is displayed so as to overlap the through image (superimposed display). The contents of the photographing message and the template are contents prompting to photograph the whole subject of the selected category. Here, since the image of the flower is taken, it is assumed that the user has selected and selected the flower as the category of the subject.

図7(A)は、被写体のカテゴリーとして花が選択されたときに、表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
図7(A)を見ると「表示された花のテンプレートに合わせて花全体を撮影してください」というメッセージと、花全体のテンプレートが表示されているのがわかる。このテンプレート表示される全体の花は一般的な花全体(任意の花の全体)なので、テンプレート表示される花と、実際に撮影されスルー画像表示されている花が同一でない場合もあり得る。
FIG. 7A is a diagram illustrating an example of a shooting instruction message and a template that are displayed when a flower is selected as a subject category.
FIG. 7A shows that a message “Please shoot the entire flower according to the displayed flower template” and a template for the entire flower are displayed. Since the entire flower displayed in the template is the entire general flower (the entire arbitrary flower), the flower displayed in the template and the flower actually captured and displayed in the through image may not be the same.

ここで、ユーザは、この表示された花全体のテンプレートを見ながら大まかに、スルー画像表示されている花全体を、テンプレート表示されている花全体に合わせる。つまり、現在撮像されている花、茎、葉を、テンプレート表示の花、茎、葉の位置に合うようにデジタルカメラ1の位置を変える。このテンプレートの表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まることになる。   Here, the user roughly matches the entire flower displayed in the through image with the entire flower displayed in the template while viewing the template of the displayed entire flower. That is, the position of the digital camera 1 is changed so that the currently imaged flower, stem, and leaf match the position of the flower, stem, and leaf displayed on the template. By displaying this template, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.

次いで、ステップS6で、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する。この判断は、シャッタボタンの押下に対応する操作信号がキー入力部11に送られてきたか否かにより判断する。
ここで、ユーザは、スルー画像表示されている被写体(撮像している被写体)が、テンプレート表示されている被写体とおおよそ合わさったと判断したときにシャッタボタンを押下する。
Next, in step S6, the CPU 10 determines whether or not the shutter button has been pressed by the user. This determination is made based on whether or not an operation signal corresponding to pressing of the shutter button has been sent to the key input unit 11.
Here, the user presses the shutter button when it is determined that the subject displayed in the through image (the subject being imaged) is approximately aligned with the subject displayed in the template.

ステップS6で、シャッタボタンが押下されていないと判断すると、押下されるまでステップS6に留まり、シャッタボタンが押下されたと判断すると、ステップS7に進み、CPU10は、静止画撮影処理を行う。   If it is determined in step S6 that the shutter button is not pressed, the process stays in step S6 until the shutter button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S7, and the CPU 10 performs still image shooting processing.

次いで、ステップS8で、CPU10の被写体判定部102は、該静止画撮影処理により得られた画像データに基づいて、被写体の種類判定処理を行う。この種類判定処理は、簡単に説明すると、ステップS4で設定した被写体のカテゴリーの種別データベースに設定されている各種類の全体特徴データを用いて、撮影された被写体が「何であるか?」を具体的に判定する。なお、この被写体の種類判定処理は、撮像された静止画像データを認識することにより被写体の種類を判定しているので、画像認識処理の一種といえよう。   Next, in step S8, the subject determination unit 102 of the CPU 10 performs subject type determination processing based on the image data obtained by the still image shooting processing. This type determination process will be briefly described. Specifically, what kind of subject has been photographed is determined using each type of overall feature data set in the category category database set in step S4. Judgment. Note that this subject type determination processing is a kind of image recognition processing because the type of subject is determined by recognizing captured still image data.

以下、このステップS8の被写体の種類判定処理の動作を図6に示すサブフローチャートにしたがって説明する。なお、図6のサブフローチャートは、後述するステップS28の被写体の種類判定処理の動作の説明も含むものである。
ステップS8に進むと、図6のステップS51に進み、被写体判定部102は、撮影された静止画像データから、撮像された被写体の特徴を複数抽出し、それらの特徴の形状や色、及びそれら特徴の相対位置関係等のデータ(特徴データ)を算出する。ここでは、花全体が撮影されているので、該撮影された花全体の特徴データを算出する。つまり、花びらの形状、花びらの枚数、花びらの色、葉の形状、葉の色、花全体の形状等の特徴データを算出する。
Hereinafter, the operation of the subject type determination process in step S8 will be described with reference to the sub-flowchart shown in FIG. Note that the sub-flowchart of FIG. 6 includes an explanation of the operation of the subject type determination process in step S28 described later.
When the process proceeds to step S8, the process proceeds to step S51 in FIG. 6, and the subject determination unit 102 extracts a plurality of features of the photographed subject from the photographed still image data, the shape and color of those features, and these features. The data (characteristic data) such as the relative positional relationship is calculated. Here, since the whole flower is photographed, the feature data of the whole photographed flower is calculated. That is, feature data such as the petal shape, the number of petals, the petal color, the leaf shape, the leaf color, and the overall flower shape are calculated.

次いで、ステップS52に進み、被写体判定部102は、ステップS4で選択された被写体のカテゴリーに属する各種類の全体特徴データを種別データベースから取得する。ここでは、被写体のカテゴリーとして花が選択されているので、図2(B)に示す花の種別データベースから各種類の花の全体特徴データを取得する。   Next, the process proceeds to step S52, where the subject determination unit 102 acquires each type of overall feature data belonging to the category of the subject selected in step S4 from the type database. Here, since the flower is selected as the category of the subject, the entire feature data of each type of flower is acquired from the flower type database shown in FIG.

次いで、ステップS53に進み、被写体判定部102は、該算出した撮影された花全体の特徴データと、該取得した各種類の全体特徴データとを比較照合して、その一致度(類似度)を算出する。つまり、算出した花の特徴データとバラの全体特徴データ、算出した花の特徴データとコスモスの全体特徴データ、算出した花の特徴データと菊の全体特徴データというように、算出した花の特徴データと各種類の全体特徴データとをそれぞれ比較照合して、バラの全体特徴データとの一致度、コスモスの全体特徴データの一致度、菊の全体特徴データとの一致度というように各種類の特徴データとの一致度をそれぞれ算出する。   Next, the process proceeds to step S53, where the subject determination unit 102 compares the calculated feature data of the entire photographed flower with the acquired overall feature data of each type, and determines the degree of coincidence (similarity). calculate. That is, the calculated feature data of the flower, such as the calculated feature data of the flower and the overall feature data of the rose, the calculated feature data of the flower and the overall feature data of the cosmos, the calculated feature data of the flower and the overall feature data of the chrysanthemum And each type of global feature data are compared and collated. The degree of coincidence with the data is calculated.

ここで、算出された特徴データと、取得したある全体特徴データとが完全に一致するときの一致度が100%であり、両者の特徴データがズレていくにつれて一致度が下がっていくことになる。つまり、算出された特徴データと一致度が高い全体特徴データ程、該全体特徴データに対応する種類の被写体が撮影された確率が高くなる。   Here, the degree of coincidence when the calculated feature data and the acquired whole feature data completely coincide is 100%, and the degree of coincidence decreases as the feature data of both of them deviate. . In other words, the overall feature data having a higher degree of coincidence with the calculated feature data has a higher probability that a subject of the type corresponding to the overall feature data has been shot.

次いで、ステップS54に進み、被写体判定部102は、該算出された一致度の中で、最も高い一致度が所定値(ここでは、90%とする)以上であるか否かを判断する。
ステップS54で、算出された一致度の中で最も高い一致度が所定値以上であると判断すると、ステップS55に進み、被写体判定部102は、最も高い一致度と判断された全体特徴データに対応する被写体の種類を、撮影された被写体の種類と判定する。つまり、撮影された花の特徴データと、最も一致度の高い全体特徴データに対応する花の種類を、該撮影された花の種類と判定することになる。
一方、ステップS54で、算出された一致度の中で最も高い一致度が所定値以上でないと判断すると、ステップS56に進み、被写体判定部102は、被写体の種類が不明と判定する。
Next, the process proceeds to step S54, and the subject determination unit 102 determines whether or not the highest matching degree among the calculated matching degrees is equal to or greater than a predetermined value (in this case, 90%).
If it is determined in step S54 that the highest matching degree among the calculated matching degrees is equal to or greater than a predetermined value, the process proceeds to step S55, and the subject determination unit 102 corresponds to the entire feature data determined to have the highest matching degree. The type of the subject to be photographed is determined as the type of the photographed subject. In other words, the type of flower corresponding to the feature data of the photographed flower and the overall feature data having the highest degree of coincidence is determined as the kind of photographed flower.
On the other hand, if it is determined in step S54 that the highest matching degree among the calculated matching degrees is not equal to or greater than the predetermined value, the process proceeds to step S56, and the subject determination unit 102 determines that the type of the subject is unknown.

ステップS55、又は、ステップS56で判定を行なうと、図3のステップS9に進み、CPU10は、被写体の種類を判定することができたか否かを判断する。このとき、ステップS55で判定した場合は被写体の種類を判定することができたと判断し、ステップS56で判定した場合は被写体の種類を判定することができなかったと判断する。   When the determination is made in step S55 or step S56, the process proceeds to step S9 in FIG. 3, and the CPU 10 determines whether or not the type of subject has been determined. At this time, if it is determined in step S55, it is determined that the type of the subject can be determined, and if it is determined in step S56, it is determined that the type of the subject cannot be determined.

ステップS9で、被写体の種類を判定することができたと判断すると、ステップS10に進み、CPU10は、該判定した被写体の種類の説明データを種別データベースから取得し、該取得した説明データを画像表示部15に表示させる。このとき、撮影された静止画像データをプレビュー表示させるとともに、該説明データを重畳表示させるようにしてもよい。
例えば、被写体の種類がバラと判定された場合は、図2(B)に示す種別データベースからバラの説明データを取得し、該取得した説明データを表示させる。
If it is determined in step S9 that the type of the subject has been determined, the process proceeds to step S10, where the CPU 10 acquires the description data of the determined type of the subject from the type database, and the acquired description data is displayed in the image display unit. 15 is displayed. At this time, the captured still image data may be displayed as a preview and the explanation data may be displayed in a superimposed manner.
For example, when it is determined that the type of the subject is rose, the explanation data of the rose is acquired from the type database shown in FIG. 2B, and the acquired explanation data is displayed.

この説明データとは、いわゆる辞書データであり、各種類の被写体毎に、該種類の被写体の説明を示す情報から構成されている。例えば、バラの説明としては、「バラ バラ科 開花時期:5〜11月ごろ トゲのある木の総称である、うばら、又は、いばらがバラに略された。 甘い香りがし、香水の材料にも使われる。 古代から、繁栄と愛の象徴とされた。 花言葉:私はあなたにふさわしい、輝かしい、愛嬌、美」といった内容である。
また、コスモスの説明としては、「コスモス 菊科 開花時期:7〜12月ごろ 原産地メキシコ。 秋の代表花であり、秋桜とも呼ばれる。早いものは夏のあいだから咲き始める。 コスモスの語源はギリシャ語の秩序、飾り、美しいという意味の言葉に由来する。 花言葉:乙女のまごころ、愛情、たおやかさ」といった内容である。
This explanation data is so-called dictionary data, and is composed of information indicating the explanation of each type of subject for each type of subject. For example, the description of roses is as follows: “Rosaceae Flowering time: Around May to November, roses or thorns are a generic term for thorny trees. Since ancient times, it has been regarded as a symbol of prosperity and love.Hana language: I am worthy of you, brilliant, caress, beauty.
As for the explanation of Cosmos, “Cosmos Chrysanthemum Flowering Period: Around July-December Mexico. It is the representative flower of autumn and is also called autumn cherry. The early ones begin to bloom during the summer. It is derived from a word that means “order, decoration, and beauty.” Hanago: The maiden's heart, love, and warmth.

フローチャートの説明に戻り、ステップS9で被写体の種類を判定することができなかったと判断すると、図4のステップS21に進み、CPU10は、候補となる被写体の種類をリスト表示させる。このリスト表示は、図6のステップS53で算出された一致度の高い順に、被写体の種類の名称及びサンプル画像を表示させたり、算出された一致度の高い被写体の種類の名称及びサンプル画像のみを表示させる。これにより、ユーザは撮影された被写体である確率が高い種類の被写体をすぐに視認することができ、後述する被写体の種類の指定も迅速に行なうことができる。
なお、ステップS4で選択された被写体のカテゴリーに属する全ての種類の名称及びサンプル画像をリスト表示させるようにしてもよい。
Returning to the description of the flowchart, if it is determined in step S9 that the type of subject has not been determined, the process proceeds to step S21 in FIG. 4, and the CPU 10 displays a list of candidate subject types. In this list display, the names of subject types and sample images are displayed in descending order of the degree of coincidence calculated in step S53 in FIG. 6, or only the names and sample images of subject types with a high degree of coincidence calculated are displayed. Display. Thus, the user can immediately view a type of subject that has a high probability of being a photographed subject, and can quickly specify the type of subject to be described later.
Note that all kinds of names and sample images belonging to the category of the subject selected in step S4 may be displayed in a list.

図7(B)は、リスト表示された被写体の種類の様子の一例を示す図である。ここでは、ステップS4で被写体のカテゴリーとして花が選択されたので、当然にリスト表示される被写体の種類は花の種類となる。図を見ると分かるように、各種類の花の名称と花画像(サンプル画像)がリスト表示されているのが分かる。この各種類の花の名称とサンプル画像は、図2(B)に示す種別データベースから取得して表示させることになる。
また、このとき、一番上にリスト表示される花の名称及びサンプル画像にカーソルを合わせた状態で表示させる。図を見ると、一番上に表示されているバラとそのサンプル画像にカーソルが合わさっているのがわかる。
FIG. 7B is a diagram illustrating an example of the types of subjects displayed in a list. Here, since flowers are selected as the subject category in step S4, the types of subjects displayed as a list are naturally the types of flowers. As can be seen from the figure, the name of each type of flower and the flower image (sample image) are listed. The name and sample image of each type of flower are acquired from the type database shown in FIG. 2B and displayed.
At this time, the name of the flower displayed on the top and the sample image are displayed in a state where the cursor is set. Looking at the figure, you can see that the cursor is positioned on the rose displayed at the top and the sample image.

次いで、ステップS22で、CPU10は、ユーザによって被写体の種類が指定されたか否かを判断する。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてくると被写体の種類が指定されたと判断し、キャンセルキーの操作に対応する操作信号がキー入力部11から送られてくると被写体の種類が指定されないと判断する。   Next, in step S22, the CPU 10 determines whether or not the type of subject has been designated by the user. In this determination, when an operation signal corresponding to the operation of the SET key is sent from the key input unit 11, it is determined that the type of the subject has been designated, and an operation signal corresponding to the operation of the cancel key is sent from the key input unit 11. When it is displayed, it is determined that the subject type is not specified.

ユーザは、このリスト表示された被写体の種類(ここでは花の種類)の名称及びサンプル画像を見ながら、撮影した被写体の種類(ここでは花の種類)をある程度推測することができる場合は被写体の種類の指定を行ない、撮影した被写体の種類を推測することができない場合は被写体の種類の非指定を行なう。
また、ユーザの被写体の種類の指定操作について説明すると、リスト表示された複数の被写体の種類をみながら、十字キーを操作することにより、カーソルを指定したい被写体の種類に移動させることができ、指定したい被写体の種類にカーソルが合わさっている時点でSETキーの操作を行なうと、カーソルが合わさっている被写体の種類を指定することができる。これにより、ユーザは撮影している種類の被写体を任意に選択することができる。
If the user can estimate the type of the photographed subject (here, the type of flower) to some extent while looking at the name of the subject type (here, the type of flower) and the sample image displayed on the list, The type is designated, and when the type of the photographed subject cannot be estimated, the type of the subject is not designated.
In addition, the operation of specifying the type of subject by the user will be described. The cursor can be moved to the type of subject to be specified by operating the cross key while looking at the types of subjects displayed in the list. If the SET key is operated when the cursor is placed on the type of subject to be desired, the type of subject on which the cursor is placed can be designated. Thereby, the user can arbitrarily select the type of subject being photographed.

例えば、図7(B)に示すように、カーソルがバラに合わさっている状態で、十字キーの「↓」キーを操作すると、カーソルがバラからベゴニアに移動し、更に十字キーの「↓」キーを操作すると、カーソルがベゴニアからチューリップに移動する。また、図7(B)に示すように、カーソルがバラに合わさっている状態でSETキーの選択を行なうとバラが指定され、カーソルがベゴニアに合わさっている状態でSETキーの操作を行なうとベゴニアが指定されることになる。   For example, as shown in FIG. 7B, when the cursor key is moved to a rose and the “↓” key of the cross key is operated, the cursor moves from rose to begonia, and then the “↓” key of the cross key. The cursor moves from Begonia to Tulip. Further, as shown in FIG. 7B, when the SET key is selected while the cursor is aligned with the rose, the rose is designated, and when the SET key is operated while the cursor is aligned with the begonia, the begonia is operated. Will be specified.

なお、ここではリスト表示を、被写体の種類の名称及びサンプル画像を一覧表示させることにより行ったが、被写体の種類の名称及びサンプル画像を単体表示させるようにしてもよい。
例えば、図7(B)に示すように一覧表示されたものを単体表示させると、まず、バラのサンプル画像及びその名称を単体表示させる。そして、次にベゴニアのサンプル画像及びその名称を単体表示させ、次にチューリップのサンプル画像及びその名称を単体表示させるというように、単体表示させるサンプル画像及びその名称を順々に切り替える。この切り替えはユーザの十字キーの操作によって行なわれるようにしてもよいし、所定時間表示させたら自動的に行われるようにしてもよい。そして、ユーザは、被写体の種類が単体表示されているときに、SETキーの操作を行なうことにより、該単体表示されている被写体の種類を指定することができる。
Here, the list display is performed by displaying a list of subject type names and sample images, but the subject type name and sample images may be displayed alone.
For example, when the list displayed as shown in FIG. 7B is displayed alone, first, the sample image of the rose and its name are displayed alone. Then, the sample image and its name to be displayed are sequentially switched such that the begonia sample image and its name are displayed as a single unit, and then the tulip sample image and its name are displayed as a single unit. This switching may be performed by the user's operation of the cross key, or may be performed automatically after displaying for a predetermined time. Then, when the type of the subject is displayed alone, the user can specify the type of the subject displayed alone by operating the SET key.

図4のステップS22で、被写体の種類が指定されていないと判断すると、つまり、キャンセルキーの操作に対応する操作信号がキー入力部11から送られてくると、ステップS23に進み、CPU10は、部位別撮影モードに移行し、スルー画像表示を開始する。   If it is determined in step S22 of FIG. 4 that the type of subject is not designated, that is, if an operation signal corresponding to the operation of the cancel key is sent from the key input unit 11, the process proceeds to step S23, and the CPU 10 The mode shifts to the part-specific imaging mode and the through image display is started.

次いで、ステップS24で、CPU10の表示制御部101は、部位1を選択して、ステップS25に進み、CPU10の表示制御部101は、ステップS4で選択した被写体カテゴリーの該選択した部位の撮影指示メッセージ及びテンプレートをカテゴリー別データベースの部位別の撮影指示メッセージ及びテンプレートから読み出して、スルー画像に重ねて表示させる。
ここでは、花が選択されているので、例えば、部位1が選択された場合は、花に対応する部位1の撮影指示メッセージ及びテンプレートをスルー画像に重畳表示させる。ここでは、部位1を花、部位2を茎、部位3を葉とする。なお、被写体のカテゴリーに応じて、部位の場所は異なることになる。例えば、同じ部位1であっても、被写体のカテゴリーが花の場合は花になり、被写体のカテゴリーが動物の場合は頭となる。
Next, in step S24, the display control unit 101 of the CPU 10 selects the part 1 and proceeds to step S25, and the display control unit 101 of the CPU 10 captures an imaging instruction message for the selected part of the subject category selected in step S4. And the template is read out from the imaging instruction message for each part and the template in the database for each category, and is displayed superimposed on the through image.
Here, since the flower is selected, for example, when the part 1 is selected, the imaging instruction message and the template of the part 1 corresponding to the flower are superimposed and displayed on the through image. Here, site 1 is a flower, site 2 is a stem, and site 3 is a leaf. Note that the location of the part varies depending on the category of the subject. For example, even if it is the same part 1, if the subject category is a flower, it will be a flower, and if the subject category is an animal, it will be a head.

図8(A)は、選択された被写体のカテゴリーが花の場合であって、選択された部位が部位1のときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
図8(A)を見ると、「表示された花のテンプレートに合わせて花を撮影してください」というメッセージと、花のテンプレートが表示されているのがわかる。このテンプレート表示される花は一般的な花(任意の花)なので、テンプレート表示される花と、実際に撮影されスルー画像表示されている花が同一でない場合もあり得る。
ここで、ユーザは、この表示された花のテンプレートを見ながら大まかに、スルー画像表示されている花を、テンプレート表示されている花に合わせる。このテンプレート表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まる。
FIG. 8A is a diagram illustrating an example of a photographing instruction message and a template that are displayed when the category of the selected subject is a flower and the selected part is the part 1.
FIG. 8A shows that a message “Please shoot a flower according to the displayed flower template” and a flower template are displayed. Since the flowers displayed in the template are general flowers (arbitrary flowers), the flowers displayed in the template and the flowers actually captured and displayed in the through image may not be the same.
Here, the user roughly matches the flower displayed in the through image with the flower displayed in the template while viewing the displayed flower template. By this template display, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.

次いで、ステップS26で、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する。ここで、ユーザは、スルー画像表示されている被写体の部位が、テンプレート表示されている被写体の部位とおおよそ合わさったと判断したときにシャッタボタンを押下する。
ステップS26で、シャッタボタンが押下されていないと判断すると、押下されるまでステップS26に留まり、シャッタボタンが押下されたと判断すると、ステップS27に進み、CPU10は、静止画撮影処理を行う。
Next, in step S26, the CPU 10 determines whether or not the shutter button has been pressed by the user. Here, the user presses the shutter button when it is determined that the part of the subject displayed in the through image is approximately aligned with the part of the subject displayed in the template.
If it is determined in step S26 that the shutter button is not pressed, the process stays in step S26 until the button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S27, and the CPU 10 performs a still image shooting process.

次いで、ステップS28で、被写体判定部102は、該撮影処理により得られた静止画像データに基づいて、被写体の種類判定処理を行う。ここでの判定処理は、簡単に説明すると、ステップS4で設定した被写体のカテゴリーの種別データベースに設定されている各種類の部位の特徴データを用いて、撮像された被写体が「何であるか?」を具体的に判定する。
この被写体の種類判定処理の動作は、図6に示すサブフローチャートと同じであるが、ここでの被写体の種類判定処理は、上述した種別データベースから各種類の全体特徴データと比較照合して、その一致度を算出するのではなく、種別データベースの各種類の部位の特徴データと比較照合してその一致度を算出することになる。
Next, in step S28, the subject determination unit 102 performs subject type determination processing based on the still image data obtained by the photographing processing. The determination process here will be briefly described. “What is the imaged subject?” Using the feature data of each type of part set in the category category database set in step S4. Is specifically determined.
The operation of the subject type determination process is the same as that of the sub-flowchart shown in FIG. 6, but the subject type determination process here is performed by comparing and collating with the entire feature data of each type from the type database described above. Rather than calculating the degree of coincidence, the degree of coincidence is calculated by comparing with the feature data of each type of part in the type database.

具体的に説明すると、まず、図6のステップS51で、被写体判定部102は、撮像された静止画像データから、撮像された被写体の特徴を複数抽出し、それらの特徴の形状や色、及びそれら特徴の相対位置関係等のデータ(特徴データ)を算出する。ここでは、ステップS24又はステップS32で選択された部位(現在選択されている部位)が撮影されているので、該部位の特徴データを算出する。例えば、部位1(花)が撮像された場合は、花びらの形状、花びらの枚数、花びらの色等の特徴データを算出する。   Specifically, first, in step S51 of FIG. 6, the subject determination unit 102 extracts a plurality of features of the captured subject from the captured still image data, the shape and color of those features, and Data such as the relative positional relationship of features (feature data) is calculated. Here, since the part selected at step S24 or step S32 (the part currently selected) is photographed, the feature data of the part is calculated. For example, when the part 1 (flower) is imaged, feature data such as the shape of the petal, the number of petals, and the color of the petals are calculated.

次いで、ステップS52で、被写体判定部102は、ステップS24又はステップS32で選択された(現在選択されている)部位の特徴データを、ステップS4で選択された被写体のカテゴリーの種別データベースの部位別特徴データからすべて取得する。つまり、ステップS4で選択された被写体のカテゴリーに属する各種類の、ステップS24又はステップS32で選択された部位の特徴データを取得する。
ここでは、ステップS4で花が選択されているので、例えば、部位1が選択されている場合は、図2(B)に示す花の種別データベースの部位別特徴データから各種類の花の部位1の特徴データを取得する。
Next, in step S52, the subject determination unit 102 uses the feature data of the part selected in step S24 or step S32 (currently selected) as the feature data for each part in the category type database of the subject selected in step S4. Get everything from the data. That is, the feature data of the part selected in step S24 or step S32 for each type belonging to the category of the subject selected in step S4 is acquired.
Here, since the flower is selected in step S4, for example, when the part 1 is selected, the part 1 of each type of flower is obtained from the part-specific feature data in the flower type database shown in FIG. Get feature data.

次いで、ステップS53で、被写体判定部102は、ステップS51で該算出したステップS24又はステップS32で選択された部位の特徴データと、ステップS52で取得した各種類の、ステップS24又はステップS32で選択された部位の特徴データとを比較照合して、その一致度(類似度)を算出し、その後、ステップ54〜ステップS56の動作を行なう。 例えば、部位1が選択されている場合は、撮影された部位1(花)の特徴データと、各種類の部位1(花)の特徴データとを比較照合することになる。
なお、ここでは、ステップS54〜ステップS56の動作は上述した動作と変わらないので説明を省略する。
Next, in step S53, the subject determination unit 102 is selected in step S24 or step S32 of the feature data of the part selected in step S24 or step S32 calculated in step S51 and each type acquired in step S52. The feature data of the parts thus compared are compared and the degree of coincidence (similarity) is calculated, and then the operations of step 54 to step S56 are performed. For example, when the part 1 is selected, the feature data of the photographed part 1 (flower) and the feature data of each type of part 1 (flower) are compared and collated.
In addition, since the operation | movement of step S54-step S56 is not different from the operation | movement mentioned above here, description is abbreviate | omitted.

そして、ステップS55、又はステップS56で判定を行なうと、図4のステップS29に進み、CPU10は、被写体の種類を判定することができたか否かを判断する。このとき、ステップS55で判定した場合は被写体の種類を判定することができたと判断し、ステップS56で判定した場合は被写体の種類を判定することができなかったと判断する。   If the determination is made in step S55 or step S56, the process proceeds to step S29 in FIG. 4, and the CPU 10 determines whether or not the type of subject has been determined. At this time, if it is determined in step S55, it is determined that the type of the subject can be determined, and if it is determined in step S56, it is determined that the type of the subject cannot be determined.

ステップS29で、被写体の種類を判定することができたと判断すると、図3のステップS10に進み、CPU10は、該判定した被写体の種類の説明データを種別データベースから取得し、該取得した説明データを画像表示部15に表示させる。このとき、撮影された静止画像データをプレビュー表示させるとともに、該説明データを重畳表示させるようにしてもよい。   If it is determined in step S29 that the type of the subject has been determined, the process proceeds to step S10 in FIG. 3, and the CPU 10 acquires the determined description data of the type of the subject from the type database, and uses the acquired description data. The image is displayed on the image display unit 15. At this time, the captured still image data may be displayed as a preview and the explanation data may be displayed in a superimposed manner.

一方、ステップS29で、被写体の種類を判定することができなかったと判断すると、ステップS30に進み、CPU10は、最後の部位まで撮影したか否かを判断する。この部位の数は、被写体のカテゴリーに応じて異なるので、例えば、花の場合は部位の数は3つとなるので、部位3の撮影をしたか否かを判断することになる。   On the other hand, if it is determined in step S29 that the type of subject could not be determined, the process proceeds to step S30, and the CPU 10 determines whether or not the last part has been imaged. Since the number of parts differs depending on the category of the subject, for example, in the case of a flower, the number of parts is three, so it is determined whether or not the part 3 has been imaged.

ステップS30で、最後の部位まで撮影していないと判断すると、ステップS31に進み、CPU10は、CCD5による撮像及びスルー画像表示を復帰させ、ステップS32で、現在選択している部位の次の部位を選択してステップS25に戻る。例えば、現在部位1を選択している場合は部位2を選択し、現在部位2を選択している場合は部位3を選択する。   If it is determined in step S30 that the last part has not been photographed, the process proceeds to step S31, and the CPU 10 restores the imaging and through image display by the CCD 5, and in step S32, the part next to the currently selected part is displayed. Select and return to step S25. For example, when the current site 1 is selected, the site 2 is selected, and when the current site 2 is selected, the site 3 is selected.

ステップS25に戻ると、ステップS4で選択した被写体カテゴリーのステップS32で選択した部位の撮影指示メッセージ及びテンプレートをカテゴリー別データベースの部位別の撮影指示メッセージ及びテンプレートから読み出して、スルー画像に重畳表示させて上記した動作を繰り返す。   When returning to step S25, the imaging instruction message and template for the part selected in step S32 of the subject category selected in step S4 are read from the imaging instruction message and template for each part in the category database and superimposed on the through image. Repeat the above operation.

ここで、図8(B)は、選択された被写体のカテゴリーが花の場合であって、選択された部位が部位2のときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
花の場合の部位2は茎なので、図8(B)を見ると、「表示された茎のテンプレートに合わせて花を撮影しください」というメッセージと、茎のテンプレートが表示されているのがわかる。このテンプレート表示される茎は一般的な茎(任意の花の茎)なので、テンプレート表示される茎と、実際に撮影されスルー画像表示されている茎が同一でない場合もあり得る。
ここで、ユーザは、この表示された茎のテンプレートを見ながら、スルー画像表示されている茎を、テンプレート表示されている茎に合わせる。このテンプレートの表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まることになる。
Here, FIG. 8B is a diagram showing an example of a photographing instruction message and a template displayed when the category of the selected subject is a flower and the selected part is the part 2. is there.
Since part 2 in the case of a flower is a stem, when looking at FIG. 8 (B), it can be seen that the message “Please shoot a flower according to the displayed stem template” and the stem template are displayed. . Since the stem displayed as a template is a general stem (arbitrary flower stem), the stem displayed as a template and the stem actually captured and displayed as a through image may not be the same.
Here, the user matches the stem displayed on the through image with the stem displayed on the template while viewing the displayed stem template. By displaying this template, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.

また、図8(C)は、選択された被写体のカテゴリーが花の場合であって、選択された部位が部位3のときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
花の場合の部位3は葉なので、図8(C)を見ると、「表示された葉のテンプレートに合わせて葉を撮影しください」というメッセージと、葉のテンプレートが表示されているのがわかる。このテンプレート表示される葉は一般的な葉(任意の花の葉)なので、テンプレート表示される葉と、実際に撮影されスルー画像表示されている葉が同一でない場合もあり得る。
FIG. 8C is a diagram illustrating an example of a shooting instruction message and a template that are displayed when the category of the selected subject is a flower and the selected part is the part 3. .
Since part 3 in the case of a flower is a leaf, looking at FIG. 8C shows that the message “Please photograph the leaf in accordance with the displayed leaf template” and the leaf template are displayed. . Since the leaf displayed in this template is a general leaf (arbitrary flower leaf), the leaf displayed in the template and the leaf actually captured and displayed in the through image may not be the same.

ここで、ユーザは、この表示された葉のテンプレートを見ながら、スルー画像表示されている葉を、テンプレート表示されている葉に合わせる。このテンプレートの表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まることになる。
このように、被写体の種類が判定できるまで、各部位の撮影の指示を行っていき、該撮影された部位に基づいて被写体の種類を判定していく。
Here, the user matches the leaf displayed in the through image with the leaf displayed in the template while viewing the displayed leaf template. By displaying this template, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.
In this way, the imaging instruction for each part is issued until the type of the subject can be determined, and the type of the subject is determined based on the captured part.

一方、ステップS30で、最後の部位まで撮影したと判断すると、ステップS21に戻り、候補となる被写体の種類のリスト表示を行い、上記した動作を繰り返す。   On the other hand, if it is determined in step S30 that the last part has been imaged, the process returns to step S21, a list of candidate subject types is displayed, and the above-described operation is repeated.

また、ステップS22で、被写体の種類が指定されたと判断すると、図5のステップS41に進み、CPU10は、該指定された被写体の種類を選択して、ステップS42に進み、特徴部位撮影モードに移行し、スルー画像表示を開始する。   If it is determined in step S22 that the subject type has been designated, the process proceeds to step S41 in FIG. 5, and the CPU 10 selects the designated subject type, proceeds to step S42, and shifts to the characteristic part imaging mode. And through image display is started.

次いで、ステップS43で、表示制御部101は、ステップS41で選択した被写体の種類に対応する特徴部位の撮影指示メッセージ及びテンプレートを、種別データベースから読み出して、スルー画像上に重畳表示させる。
図9は、選択された被写体の種類がバラの場合に、表示される特徴部位の撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
図9を見ると、「表示されたトゲのテンプレートに合わせてバラのトゲを撮影してください」というメッセージと、バラのトゲのテンプレートが表示されているのがわかる。
Next, in step S43, the display control unit 101 reads out the imaging instruction message and template of the characteristic part corresponding to the type of the subject selected in step S41 from the type database, and displays them on the through image in a superimposed manner.
FIG. 9 is a diagram illustrating an example of the imaging instruction message and template of the characteristic part displayed when the type of the selected subject is rose.
Referring to FIG. 9, it can be seen that a message “Please shoot a rose thorn in accordance with the displayed thorn template” and a rose thorn template are displayed.

ここで、ユーザは、この表示されたバラのトゲのテンプレートを見ながら、スルー画像表示されているバラのトゲを、テンプレート表示されているトゲに合わせる。このテンプレート表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まる。
なお、この特徴部位は、被写体の種類によって異なり、バラの場合は特徴部位がトゲとなっているが、他の種類の被写体の場合は特徴部位がトゲになるとは限らない。この特徴部位とは、その種類の被写体特有の特徴となる部位のことであり、例えば、象の場合は特徴部位が例えば鼻になったり、カバの場合は例えば口となったりする。
Here, the user matches the rose thorn displayed in the through image with the thorn displayed in the template while viewing the displayed rose thorn template. By this template display, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.
Note that this characteristic part differs depending on the type of the subject, and in the case of a rose, the characteristic part becomes a thorn, but in the case of another type of subject, the characteristic part does not necessarily become a thorn. This characteristic part is a part which is a characteristic peculiar to the type of subject. For example, in the case of an elephant, the characteristic part becomes, for example, the nose, and in the case of a hippo, for example, the mouth.

次いで、ステップS44で、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する。ここで、ユーザは、スルー画像表示されている被写体の特徴部位が、テンプレート表示されている被写体の特徴部位とおおよそ合わさったと判断したときにシャッタボタンを押下する。   Next, in step S44, the CPU 10 determines whether or not the shutter button has been pressed by the user. Here, the user presses the shutter button when determining that the feature part of the subject displayed in the through image is approximately matched with the feature part of the subject displayed in the template.

ステップS44で、シャッタボタンが押下されていないと判断すると、押下されるまでステップS44に留まり、シャッタボタンが押下されたと判断すると、ステップS45に進み、CPU10は、静止画撮影処理を行う。
次いで、ステップS46で、被写体判定部102は、該撮像処理により得られた静止画像データに基づいて、被写体の種類の判定処理を行う。ここでの判定処理は、撮影された被写体がステップS41で選択された被写体の種類であるか否かを判定する。
If it is determined in step S44 that the shutter button is not pressed, the process stays in step S44 until the button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S45, and the CPU 10 performs a still image shooting process.
In step S46, the subject determination unit 102 performs subject type determination processing based on the still image data obtained by the imaging processing. In this determination process, it is determined whether or not the photographed subject is the type of the subject selected in step S41.

具体的に説明すると、撮像処理により得られた静止画像データから撮像された被写体の特徴を複数抽出し、それらの特徴の形状や色、及びそれら特徴の相対位置関係等のデータ(特徴データ)を算出する。ここでは、トゲが撮像されているので、トゲの特徴データを算出する。
そして、ステップS41で選択した被写体の種類の特徴部位特徴データを種別データベースから取得し、該取得した特徴部位特徴データと該算出した特徴データとを比較照合して、その一致度を算出する。
More specifically, a plurality of features of the subject captured from the still image data obtained by the imaging process are extracted, and data (feature data) such as the shape and color of those features and the relative positional relationship between these features are extracted. calculate. Here, since thorns are captured, thorn feature data is calculated.
Then, the feature part feature data of the type of the subject selected in step S41 is acquired from the type database, the acquired feature part feature data is compared with the calculated feature data, and the degree of coincidence is calculated.

そして、該算出した一致度が所定値(90%)以上であれば、撮影された被写体はステップS41で選択された被写体であると判定し、一致度が所定値未満の場合は被写体の種類は不明であると判定する。
被写体の種類判定処理により判定が行なわれると、ステップS47に進み、CPU10は、被写体の種類が判定することができたか否かを判断する。
If the calculated degree of coincidence is a predetermined value (90%) or more, it is determined that the photographed subject is the subject selected in step S41. If the degree of coincidence is less than the predetermined value, the type of subject is Judged as unknown.
When the determination is made by the subject type determination process, the process proceeds to step S47, and the CPU 10 determines whether or not the subject type has been determined.

ステップS47で、被写体の種類を判定することができなかったと判断すると、図4のステップS21に戻り、候補となる被写体の種類のリスト表示を行い、上記した動作を繰り返す。このときのリスト表示は、既にステップS41で選択された種類の被写体を選択されていない他の種類の被写体と差別表示させる。ユーザに被写体の種類判定処理により判定できなった種類の被写体であることを視認させるためである。なお、既にステップS41で選択された種類の被写体をリスト表示させないようにしてもよい。   If it is determined in step S47 that the subject type could not be determined, the process returns to step S21 in FIG. 4 to display a list of candidate subject types, and the above-described operation is repeated. In the list display at this time, the subject of the type already selected in step S41 is displayed differently from the other types of subjects not selected. This is to make the user visually recognize that the subject is of a type that cannot be determined by the subject type determination process. Note that the types of subjects already selected in step S41 may not be displayed in a list.

一方、ステップS47で、被写体の種類を判定することができたと判断すると、図3のステップS10に進み、CPU10は、該判定した被写体の種類の説明データを種別データベースから取得し、該取得した説明データを画像表示部15に表示させる。このとき、撮影された静止画像データをプレビュー表示させるとともに、該説明データを重畳表示させるようにしてもよい。
なお、ステップS41で被写体の種類が選択された場合、直ちに図3のステップS10に進み、ステップS41で選択された被写体の種類の説明データを表示させるようにしてもよい。
On the other hand, if it is determined in step S47 that the type of subject has been determined, the process proceeds to step S10 in FIG. 3, and the CPU 10 acquires description data of the determined type of subject from the type database, and the acquired description. Data is displayed on the image display unit 15. At this time, the captured still image data may be displayed as a preview and the explanation data may be displayed in a superimposed manner.
If the subject type is selected in step S41, the process immediately proceeds to step S10 in FIG. 3, and the description data of the subject type selected in step S41 may be displayed.

以上のように、実施の形態においては、選択された被写体のカテゴリーに応じて異なる部位の撮影を促す表示を行なって撮影された該部位の画像データに基づいて撮影された被写体の種類を判定するので、被写体の種類の判定精度を向上させることができる。
また、選択された被写体のカテゴリーに応じて異なる複数の部位の撮影を促す表示を行って撮影された各部位の画像データに基づいて、撮影された被写体の種類を判定していくので判定精度を向上させることができる。
また、被写体の種類が判定できるまで部位の撮影を促す表示と撮影を順次行なうので、必要以上に、部位の撮影を促す表示と撮影、及び、被写体の種類の判定処理を行わなくてすみ、被写体の種類判定処理時間を最小限に抑えることができる。
また、選択された種類の被写体特有の特徴部位の撮影を促す表示を行って撮影された該特徴部位の画像データに基づいて、撮影された被写体が該選択された被写体の種類であるかを判定するので、被写体の種類の判定精度を向上させることができる。
また、被写体のカテゴリーに応じて撮影を促す部位の数が異なるので、被写体のカテゴリーに応じて適切に被写体の種類を判定することができ、且つ、被写体の種類の判定の処理負担を最小に抑えることができる。
また、被写体全体を撮影した画像データに基づいて被写体の種類が判定できない場合のみ、撮影された被写体の部位の画像データに基づいて被写体の種類を判定するので、迅速に被写体の種類を判定することができる。
[変形例]
C.上記実施の形態は以下のような態様でもよい。
As described above, in the embodiment, the type of the photographed subject is determined based on the image data of the part that is photographed by performing display for prompting photographing of a different part according to the category of the selected subject. Therefore, the accuracy of determining the type of subject can be improved.
In addition, the type of the photographed subject is judged based on the image data of each part photographed with a display that prompts photographing of a plurality of different parts depending on the category of the selected subject. Can be improved.
In addition, since the display prompting the imaging of the part and the imaging are sequentially performed until the type of the subject can be determined, it is not necessary to perform the display and the imaging for prompting the imaging of the part and the process of determining the type of the subject. The type determination processing time can be minimized.
In addition, based on the image data of the characteristic part photographed by performing display for prompting photographing of the characteristic part peculiar to the selected type of subject, it is determined whether the photographed subject is the type of the selected subject. Therefore, the accuracy of determining the type of subject can be improved.
In addition, since the number of parts that prompt photographing depends on the subject category, the subject type can be appropriately determined according to the subject category, and the processing load for determining the subject type can be minimized. be able to.
Also, only when the subject type cannot be determined based on the image data obtained by photographing the entire subject, the subject type is determined based on the image data of the part of the photographed subject, so that the subject type can be quickly determined. Can do.
[Modification]
C. The above embodiment may be the following modes.

(01)上記実施の形態においては、ステップS4で、ユーザによって指定された被写体のカテゴリーを選択するようにしたが、スルー画像表示されている画像データに基づいて、画像認識によりどのカテゴリーの被写体が撮像されているのかを自動的に検出して選択するようにしてもよい。
このときは、各被写体のカテゴリーの一般的な特徴データをメモリ12に記録しておき、撮像された画像データと、被写体のカテゴリー毎の特徴データとを比較照合することにより、どのカテゴリーの被写体が撮像されているかを検出する。
これにより、迅速に被写体を選択することができ、被写体の種類の判定も早く行なうことができる。なお、この場合は、被写体のカテゴリーの一覧表示(リスト表示)を行なう必要はない。
また、ステップS2では、単に被写体のカテゴリーの一覧表示を行うようにしたが、スルー画像表示されている画像データと、被写体のカテゴリー毎の特徴データとを比較照合して各被写体のカテゴリー毎にその一致度を算出し、一致度の高い順に被写体のカテゴリーを表示させるようにしてもよいし、一致度の高い被写体のカテゴリーのみを一覧表示させるようにしてもよい。これにより、ユーザは撮影された被写体のカテゴリーである確率が高い被写体のカテゴリーをすぐに視認することができ、被写体のカテゴリーの指定も迅速に行なうことができる。
(01) In the above embodiment, the category of the subject designated by the user is selected in step S4. However, which category of subject is recognized by image recognition based on the image data displayed in the through image. You may be made to detect automatically and select whether it is imaged.
At this time, general feature data of the category of each subject is recorded in the memory 12, and by comparing and comparing the captured image data with the feature data for each category of the subject, which category of subject is obtained. Detect whether the image is being captured.
As a result, the subject can be quickly selected, and the type of the subject can be determined quickly. In this case, it is not necessary to display a list of subject categories (list display).
In step S2, the subject category list is simply displayed, but the image data displayed in the through image and the feature data for each subject category are compared and collated for each subject category. The degree of coincidence may be calculated, and the subject categories may be displayed in descending order of the degree of coincidence, or only the subject categories with the highest degree of coincidence may be displayed in a list. Accordingly, the user can immediately recognize the category of the subject having a high probability of being the category of the photographed subject, and can quickly specify the category of the subject.

(02)上記実施の形態においては、ステップS5、ステップS25、ステップS43で、撮影指示メッセージ及びテンプレートを表示させるようにしたが、撮影指示メッセージのみを表示させるようにしてもよいし、撮影指示テンプレートのみを表示させるようにしてもよい。
また、撮影指示メッセージや撮影指示テンプレートに限られず、撮影を促すものであればよい。
(02) In the above embodiment, the shooting instruction message and the template are displayed in steps S5, S25, and S43. However, only the shooting instruction message may be displayed, or the shooting instruction template may be displayed. May be displayed.
Further, the present invention is not limited to the shooting instruction message or the shooting instruction template, and may be anything that prompts shooting.

(03)上記実施の形態においては、ステップS5、ステップS25、ステップS43で、撮影指示テンプレートを表示させるようにしたが、撮影指示テンプレートに替えて、撮影して欲しい画像のサンプル画像を表示させるようにしてもよい。例えば、ステップS5では被写体全体を撮影したサンプル画像を表示させ、ステップS25では被写体の部位を撮影したサンプル画像を表示させ、ステップS43では被写体の特徴部位を撮影したサンプル画像を表示させるようにする。
このサンプル画像の表示でも、撮影を促すことはできるからであり、被写体の撮影位置(表示位置)等の構図も大まかに定まるからである。
(03) In the above embodiment, the shooting instruction template is displayed in step S5, step S25, and step S43, but instead of the shooting instruction template, a sample image of an image that is desired to be shot is displayed. It may be. For example, a sample image obtained by photographing the entire subject is displayed in step S5, a sample image obtained by photographing the part of the subject is displayed in step S25, and a sample image obtained by photographing the characteristic part of the subject is displayed in step S43.
This is because even the display of the sample image can prompt the photographing, and the composition such as the photographing position (display position) of the subject is roughly determined.

(04)上記実施の形態において、部位別撮影モードにより各部位の画像を撮影して被写体の種類を判定する場合は、予め撮影させる全ての部位の撮影を促す表示を行なうことにより、ユーザに撮影する各部位を知らせ、その後、ユーザが、撮影を促された各部位を撮影していくという方法であってもよい。つまり、上記実施の形態においては、部位1の撮影を促す表示→該部位1の撮影、判定不可の場合は、部位2の撮影を促す表示→該部位2の撮影というように、判定できるまで撮影を促す表示と撮影を交互に行なうようにしたが、本変形例では、各部位の撮影を促す表示→部位1の撮影、判定不可の場合は、部位2の撮影というように、各部位の撮影を促す表示を一括して行い、その後順々に各部位の撮影を行なう。
これにより、部位の撮影を迅速に行なうことができ、被写体の種類の判定も迅速に行なうことができる。
(04) In the above-described embodiment, when the image of each part is photographed in the part-by-part photographing mode and the type of the subject is determined, the user is photographed by performing a display prompting photographing of all parts to be photographed in advance. It may be a method in which each part to be notified is notified, and then the user photographs each part that is prompted to shoot. That is, in the above-described embodiment, the display prompting the photographing of the part 1 → the photographing of the part 1, the display prompting the photographing of the part 2 when the determination is impossible, the photographing until the judgment can be performed. In this modification, the display for prompting the imaging of each part → the imaging of the part 1, and the imaging of the part 2 such as the imaging of the part 2 when the determination is impossible. The display prompting is performed in a lump, and then each part is photographed in order.
Thereby, imaging | photography of a site | part can be performed rapidly and the kind of to-be-photographed object can also be determined rapidly.

(05)上記実施の形態において、部位別撮影モードにより各部位の画像を撮影して被写体の種類を判定する場合は、撮影された部位の画像データに基づいて被写体の種類が判定できない場合のみ、次の部位の撮影を促し、該撮影された次の部位の画像データに基づいて被写体の種類を判定するようにしたが、被写体の種類判定処理を行うことなく部位の撮影を促す表示と撮影を順次行なって、全ての部位の撮影が終了した後、撮影された全ての部位の画像データに基づいて被写体の種類を判定するようにしてもよい。
これにより、迅速に被写体の種類を判定することができる。
(05) In the above embodiment, when the type of subject is determined by capturing an image of each part in the part-specific imaging mode, only when the type of subject cannot be determined based on the image data of the captured part. The user is prompted to shoot the next part, and the type of subject is determined based on the image data of the next part taken. It may be performed sequentially, and after the imaging of all the parts has been completed, the type of the subject may be determined based on the image data of all the parts that have been imaged.
As a result, the type of subject can be quickly determined.

(06)上記実施の形態においては、ステップS8の被写体の種類判定処理は、ステップS6の押下によって静止画撮影された静止画像データに基づいて行うようにしたが、スルー画像表示されている(動画撮像されている)フレーム画像に基づいて被写体の種類を判定するようにしてもよい。この場合は、ステップS5で撮影指示メッセージ及びテンプレートが表示されてから一定時間の間被写体の種類判定処理を周期的に行うようにしてもよい。この撮影指示メッセージ及びテンプレートの表示にしたがって、ユーザが被写体の撮像位置等の構図を変えるには一定の時間が必要となるからである。これにより、現在撮像している被写体の種類を迅速に判定することができる。   (06) In the above embodiment, the subject type determination process in step S8 is performed based on the still image data captured by pressing the step S6, but a through image is displayed (moving image). The type of the subject may be determined based on the frame image (captured). In this case, the subject type determination process may be periodically performed for a predetermined time after the shooting instruction message and the template are displayed in step S5. This is because a certain amount of time is required for the user to change the composition of the imaging position of the subject in accordance with the display of the shooting instruction message and the template. This makes it possible to quickly determine the type of subject currently being imaged.

詳しく説明すると、ステップS5の動作を行なうと、ステップS8に進み、被写体の種類判定処理を行う。そして、ステップS9で被写体の種類を判定することができないと判断すると、撮影指示メッセージ等の表示を行ってから一定時間が経過したか否かを判断し、一定時間経過していないと判断するとステップS8に戻り、一定時間経過したと判断するとステップS21に進む。   More specifically, when the operation of step S5 is performed, the process proceeds to step S8, and subject type determination processing is performed. If it is determined in step S9 that the type of subject cannot be determined, it is determined whether or not a predetermined time has elapsed since the shooting instruction message or the like was displayed. Returning to S8, if it is determined that a certain time has elapsed, the process proceeds to step S21.

また、ステップS28、ステップS46の被写体の種類判定処理も同様に、スルー画像表示されている(動画撮像されている)フレーム画像に基づいて被写体の種類を判定するようにしてもよい。この場合も、ステップS25、ステップS43で撮影指示メッセージ及びテンプレートが表示されてから一定時間の間被写体の種類判定処理を周期的に行うようにしてもよい。   Similarly, in the subject type determination process in step S28 and step S46, the subject type may be determined based on a frame image in which a through image is displayed (moving-image captured). Also in this case, the subject type determination process may be periodically performed for a predetermined time after the shooting instruction message and the template are displayed in step S25 and step S43.

詳しく説明すると、ステップS25、ステップS43の動作を行なうと、ステップS28、ステップS46にそれぞれ進み、被写体の種類判定処理を行う。そして、ステップS29、ステップS47で被写体の種類を判定することができないと判断すると、撮影指示メッセージ等の表示を行ってから一定時間が経過したか否かを判断し、一定時間経過していないと判断するとステップS28、ステップS46にそれぞれ戻り、一定時間経過したと判断するとステップS30、ステップS21にそれぞれ進む。このときは、ステップS31の動作は不要ということになる。   More specifically, when the operations of Step S25 and Step S43 are performed, the process proceeds to Step S28 and Step S46, respectively, and subject type determination processing is performed. If it is determined in step S29 or step S47 that the type of subject cannot be determined, it is determined whether or not a certain time has elapsed since the shooting instruction message was displayed. If it judges, it will respectively return to Step S28 and Step S46, and if it judges that fixed time has passed, it will progress to Step S30 and Step S21, respectively. In this case, the operation in step S31 is unnecessary.

(07)上記実施の形態においては、被写体全体が撮影された画像データに基づいて被写体の種類が判定できなかった場合に、部位別撮影モード、特徴部位撮影モードに移行して、撮影された被写体の部位の画像データに基づいて被写体の種類を判定するようにしたが、最初から、部位別撮影モード、特徴部位撮影モードで被写体の種類を判定するようにしてもよい。
特徴部位撮影モードの場合は、被写体の種類を選択する必要があるので、ユーザによって選択された被写体のカテゴリー、若しくは、画像認識により自動的に検出された被写体のカテゴリーに属する被写体の種類をリスト表示させるようにしてもよいし、全カテゴリーに属する被写体の種類をリスト表示させるようにしてもよいし、画像認識を行なうことにより自動的に被写体の種類を選択するようにしてもよい。
これにより、迅速に被写体の種類を判定することができる。
(07) In the above embodiment, when the type of the subject cannot be determined based on the image data obtained by photographing the entire subject, the subject is photographed by shifting to the part-by-part photographing mode and the characteristic part photographing mode. The type of the subject is determined based on the image data of the part, but from the beginning, the type of the subject may be determined in the part-specific imaging mode and the characteristic part imaging mode.
In the feature part imaging mode, it is necessary to select the type of the subject, so the subject type selected by the user or the subject type belonging to the category of the subject automatically detected by image recognition is displayed as a list. The types of subjects belonging to all categories may be displayed as a list, or the types of subjects may be automatically selected by performing image recognition.
As a result, the type of subject can be quickly determined.

(08)上記実施の形態においては、被写体の種類毎に1つの特徴部位特徴データと、1つの特徴部位の撮影指示メッセージ及びテンプレートを設けるようにしたが、被写体の種類毎に複数の特徴部位を設けるようにしてもよい。
この場合の動作は、図4に示す部位別撮影モードの動作と同様に、選択された種類の被写体の特徴部位1の撮影指示メッセージ及びテンプレートを表示させて撮影された特徴部位1の静止画像データに基づいて被写体の種類を判定し、判定することができない場合は、特徴部位2の撮影指示メッセージ及びテンプレートを表示させて撮影された特徴部位2の撮影指示メッセージ及びテンプレートに基づいて被写体の種類を判定するというように、被写体の種類が判定できない場合は次の特徴部位で被写体の種類を判定する。
(08) In the above embodiment, one feature part feature data, a shooting instruction message for one feature part, and a template are provided for each type of subject, but a plurality of feature parts are provided for each type of subject. You may make it provide.
The operation in this case is the same as the operation in the part-specific imaging mode shown in FIG. 4, and still image data of the characteristic part 1 captured by displaying the imaging instruction message and the template of the characteristic part 1 of the selected type of subject. The type of the subject is determined based on the image, and if the determination is not possible, the type of the subject is determined based on the imaging instruction message and the template of the characteristic part 2 that is imaged by displaying the imaging instruction message and the template of the characteristic part 2 When the subject type cannot be determined as in the determination, the subject type is determined based on the next characteristic part.

この場合は、種別データベースに、複数の特徴部位の特徴データ、及び、各特徴部位の撮影指示メッセージ及びテンプレートを被写体の種類毎にそれぞれ設定させておく。また、この特徴部位の数、特徴部位の場所は、被写体の種類毎に異ならせるようにしてもよい。つまり、特徴部位の数、特徴部位の場所は、該種類の被写体特有の特徴となる場所の数によって変わってくる。
これにより、被写体の種類の判定精度を向上させることができる。
In this case, feature data of a plurality of feature parts, and an imaging instruction message and a template for each feature part are set for each type of subject in the type database. Further, the number of feature parts and the location of the feature parts may be different for each type of subject. In other words, the number of feature parts and the location of the feature parts vary depending on the number of places that are characteristic of the type of subject.
Thereby, the determination accuracy of the type of subject can be improved.

(09)上記変形例(08)においては、被写体の種類毎に複数の特徴部位の特徴データ、該複数の特徴部位の撮影を促す撮影指示メッセージ及びテンプレートを設けるようにしたが、単に被写体の種類毎に複数の部位の特徴データ、該複数の部位の撮影を促す撮影指示メッセージ及びテンプレートを設けるようにしてよい。
この場合の動作は、図4に示す部位別撮影モードの動作と同様に、選択された種類の被写体の部位1の撮影指示メッセージ及びテンプレートを表示させて撮影された部位1の静止画像データに基づいて被写体の種類を判定し、判定することができない場合は、部位2の撮影指示メッセージ及びテンプレートを表示させて撮影された部位2の撮影指示メッセージ及びテンプレートに基づいて被写体の種類を判定するというように、被写体の種類が判定できない場合は次の部位で被写体の種類を判定する。
(09) In the modified example (08), the feature data of a plurality of characteristic parts, the photographing instruction message for prompting photographing of the plurality of characteristic parts, and the template are provided for each kind of subject. A feature data of a plurality of parts, a photographing instruction message for prompting photographing of the plurality of parts, and a template may be provided for each.
The operation in this case is based on the still image data of the region 1 imaged by displaying the imaging instruction message and the template of the region 1 of the selected type of subject as in the operation of the region-specific imaging mode shown in FIG. The type of subject is determined, and if it cannot be determined, the type of subject is determined based on the imaging instruction message and template of the region 2 displayed by displaying the imaging instruction message and template of the region 2 If the subject type cannot be determined, the subject type is determined at the next site.

この場合は、被写体の種類毎に複数の部位を設けるので、被写体の種類毎に部位の場所が異なるようにすることも可能であるし、被写体の種類毎に部位の数が異なるようにすることも可能である。つまり、上記実施の形態で説明した部位別撮影モードにおいては被写体のカテゴリー毎に部位の数は異なるが、同じカテゴリーに属する被写体同士では部位の数、及び部位の場所が一緒になってしまうが、本変形例では、同じカテゴリーに属する被写体同士であっても、部位の数、及び部位の場所を異ならせることができる。
これにより、被写体の種類の判定精度を向上させることができる。
In this case, since a plurality of parts are provided for each type of subject, the location of the part may be different for each type of subject, and the number of parts may be different for each type of subject. Is also possible. That is, in the part-by-part imaging mode described in the above embodiment, the number of parts is different for each category of subjects, but the number of parts and the location of parts are the same for subjects belonging to the same category, In the present modification, even if subjects belong to the same category, the number of parts and the location of the parts can be made different.
Thereby, the determination accuracy of the type of subject can be improved.

(10)また、上記変形例(01)乃至(09)を任意に組み合わせた態様であってもよい。   (10) Moreover, the aspect which combined the said modification (01) thru | or (09) arbitrarily may be sufficient.

(11)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(11) The above embodiments of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体を撮像し、該撮像された画像データに基づいて被写体の種類を判定することができる機器であれば適用可能である。したがって、カメラ付携帯電話や、カメラ付PDA等であってもよい。   Finally, in each of the above-described embodiments, the case where the imaging device of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above-described embodiment. Any device that can determine the type of subject based on the captured image data is applicable. Accordingly, it may be a camera-equipped mobile phone, a camera-equipped PDA, or the like.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. メモリ12に記録されているカテゴリー別データベース、及び、花の種別データベースの様子の一例を示す図である。It is a figure which shows an example of the state of the database classified by category currently recorded on the memory 12, and the classification database of a flower. 実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of embodiment. 実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of embodiment. 実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of embodiment. ステップS8、ステップS28の被写体の種類判定処理の動作を示すサブフローチャートである。10 is a sub-flowchart showing an operation of subject type determination processing in steps S8 and S28. 被写体のカテゴリーとして花が選択されたときに、表示される撮影指示メッセージ及びテンプレートの様子、及び、リスト表示された被写体の種類の様子の一例を示す図である。It is a figure which shows an example of the mode of the imaging | photography instruction | indication message and template which are displayed when a flower is selected as a category of a to-be-photographed object, and the mode of the kind of to-be-photographed object displayed as a list. 選択された被写体のカテゴリーが花の場合であって、部位1、部位2、部位3がそれぞれ選択されたときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。FIG. 10 is a diagram illustrating an example of a shooting instruction message and a template displayed when a category of a selected subject is a flower and a part 1, a part 2, and a part 3 are respectively selected. 選択された被写体の種類がバラの場合に、表示される特徴部位の撮影指示メッセージ及びテンプレートの様子の一例を示す図である。It is a figure which shows an example of the mode of the imaging | photography instruction | indication message and template of the characteristic part displayed when the type of the selected to-be-photographed object is rose.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Aperture 5 CCD
6 Driver 7 TG
8 Unit circuit 9 Image generator 10 CPU
11 Key input section 12 Memory 13 DRAM
14 Flash memory 15 Image display unit 16 Bus

Claims (14)

撮像素子を用いて被写体を撮像する撮像手段と、
被写体を選択する選択手段と、
前記選択手段により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御手段と、
前記表示制御手段により表示された部位の撮影の促しにしたがって、前記撮像手段により撮像された部位の画像データに基づいて、被写体の種類を判定する第1の被写体判定手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject using an imaging element;
A selection means for selecting a subject;
Display control means for performing display for prompting photographing of a part of the subject, which differs depending on the subject selected by the selection means;
First subject determination means for determining the type of subject based on the image data of the part imaged by the imaging means in accordance with the prompting of imaging of the part displayed by the display control means;
An imaging apparatus comprising:
前記選択手段は、
被写体のカテゴリーを選択し、
前記表示制御手段は、
前記選択手段により選択された被写体のカテゴリーに応じて異なる、該被写体の部位の撮影を促す表示を行なうことを特徴とする請求項1記載の撮像装置。
The selection means includes
Select the subject category,
The display control means includes
The imaging apparatus according to claim 1, wherein a display that prompts photographing of a part of the subject, which differs depending on a category of the subject selected by the selection unit, is performed.
前記選択手段は、
被写体の種類を選択し、
前記表示制御手段は、
前記選択手段により選択された被写体の種類に応じて異なる、該被写体の部位の撮影を促す表示を行なうことを特徴とする請求項1記載の撮像装置。
The selection means includes
Select the type of subject,
The display control means includes
The image pickup apparatus according to claim 1, wherein a display that prompts photographing of a portion of the subject that differs depending on a type of the subject selected by the selection unit is performed.
前記表示制御手段は、
前記選択手段により選択された被写体の種類の特徴となる部位の撮影を促す表示を行なうことを特徴とする請求項3記載の撮像装置。
The display control means includes
The imaging apparatus according to claim 3, wherein a display that prompts photographing of a part that is characteristic of the type of the subject selected by the selection unit is performed.
前記表示制御手段は、
前記選択手段により選択された被写体に応じて異なるテンプレート、及び/又は、メッセージを表示させることにより、該被写体の部位の撮影を促す表示を行なうことを特徴とする請求項1乃至4の何れかに記載の撮像装置。
The display control means includes
5. The display for prompting photographing of a part of the subject is performed by displaying a different template and / or message depending on the subject selected by the selection unit. The imaging device described.
前記表示制御手段は、
少なくとも1つ以上の部位の撮影を促す表示を行なうことを特徴とする請求項1乃至5の何れかに記載の撮像装置。
The display control means includes
6. The imaging apparatus according to claim 1, wherein a display that prompts photographing of at least one part is performed.
前記表示制御手段は、
前記選択手段により選択された被写体に応じて、撮影を促す表示を行なう部位の数を異ならせることを特徴とする請求項6記載の撮像装置。
The display control means includes
The imaging apparatus according to claim 6, wherein the number of parts to be displayed for prompting photographing is varied according to the subject selected by the selection unit.
前記第1の被写体判定手段は、
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により撮像された全ての部位の画像データに基づいて、被写体の種類を判定することを特徴とする請求項6又は7記載の撮像装置。
The first subject determination means includes
When the display control means performs a display prompting imaging of a plurality of parts, the image data of all parts imaged by the imaging means is displayed according to the display prompting imaging of the part displayed by the display control means. 8. The imaging apparatus according to claim 6, wherein the type of the subject is determined based on the determination.
前記第1の被写体判定手段は、
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により最初に撮像される部位の画像データに基づいて被写体の種類を判定し、該被写体の種類を判定することができなかった場合は、被写体の種類が判定できるまで、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段によりその後撮像される各部位の画像データに基づいて被写体の種類の判定を行なっていくことを特徴とする請求項6又は7記載の撮像装置。
The first subject determination means includes
In the case where the display controller prompts the imaging of a plurality of parts, the image data of the part first imaged by the imaging unit is displayed according to the display prompting the imaging of the part displayed by the display controller. The type of the subject is determined based on the display, and if the type of the subject cannot be determined, the display control means is configured to display the portion displayed by the display control unit until the type of the subject can be determined. 8. The imaging apparatus according to claim 6, wherein the type of the subject is determined based on image data of each part that is subsequently imaged by the imaging means.
前記表示制御手段による部位の撮影を促す表示が行われる前に、前記撮像手段により撮像された被写体全体の画像データに基づいて、被写体の種類を判定する第2の被写体判定手段を備え、
前記表示制御手段、前記第1の被写体判定手段は、
前記第2の被写体判定手段により被写体の種類を判定することができなかった場合に、動作を実行することを特徴とする請求項1乃至9の何れかに記載の撮像装置。
A second subject determination unit that determines the type of the subject based on the image data of the entire subject imaged by the imaging unit before the display control unit prompts the imaging of the part.
The display control means and the first subject determination means are
10. The image pickup apparatus according to claim 1, wherein an operation is executed when a type of a subject cannot be determined by the second subject determination unit. 11.
複数の被写体をリスト表示させるリスト表示制御手段を備え、
前記選択手段は、
前記リスト表示制御手段によりリスト表示された複数の被写体の中から、ユーザの操作にしたがって任意の被写体を選択することを特徴とする請求項1乃至10の何れかに記載の撮像装置。
Provided with a list display control means for displaying a list of a plurality of subjects,
The selection means includes
The imaging apparatus according to claim 1, wherein an arbitrary subject is selected from a plurality of subjects displayed in a list by the list display control unit in accordance with a user operation.
前記リスト表示制御手段は、
前記第2の被写体判定手段により一致度が高いと判定された被写体順、又は、一致度が高い被写体のみをリスト表示させることを特徴とする請求項11記載の撮像装置。
The list display control means includes
12. The imaging apparatus according to claim 11, wherein only a subject in which the degree of coincidence is determined to be high by the second subject determination unit or a subject having a high degree of coincidence is displayed in a list.
前記選択手段は、
前記撮像手段により撮像された画像データに対する画像認識に基づいて、被写体を選択することを特徴とする請求項1乃至12の何れかに記載の撮像装置。
The selection means includes
The imaging apparatus according to claim 1, wherein a subject is selected based on image recognition for image data captured by the imaging unit.
撮像素子を用いて被写体を撮像する撮像処理と、
被写体を選択する選択処理と、
前記選択処理により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御処理と、
前記表示制御処理により表示された部位の撮影の促しにしたがって、前記撮像処理により撮像された部位の画像データに基づいて、被写体の種類を判定する被写体判定処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。
Imaging processing for imaging a subject using an imaging element;
A selection process for selecting a subject,
Display control processing for performing display for prompting photographing of a portion of the subject, which differs depending on the subject selected by the selection processing;
Subject determination processing for determining the type of subject based on image data of the part imaged by the imaging process in accordance with the prompting of imaging of the part displayed by the display control process;
A program characterized by causing a computer to execute the processes described above.
JP2007167537A 2007-06-26 2007-06-26 Imaging device and program thereof Pending JP2009010472A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007167537A JP2009010472A (en) 2007-06-26 2007-06-26 Imaging device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007167537A JP2009010472A (en) 2007-06-26 2007-06-26 Imaging device and program thereof

Publications (1)

Publication Number Publication Date
JP2009010472A true JP2009010472A (en) 2009-01-15

Family

ID=40325148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007167537A Pending JP2009010472A (en) 2007-06-26 2007-06-26 Imaging device and program thereof

Country Status (1)

Country Link
JP (1) JP2009010472A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203848A (en) * 2011-03-28 2012-10-22 Japan Research Institute Ltd Photographing support device and photographing support method
WO2013099473A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Server
JP2015082822A (en) * 2013-10-24 2015-04-27 オリンパス株式会社 Image display terminal, image display method, and program
WO2020080140A1 (en) * 2018-10-19 2020-04-23 ソニー株式会社 Sensor device and signal processing method
JP2022512125A (en) * 2018-12-06 2022-02-02 華為技術有限公司 Methods and Electronic Devices for Taking Long Exposure Images

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203848A (en) * 2011-03-28 2012-10-22 Japan Research Institute Ltd Photographing support device and photographing support method
WO2013099473A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Server
JP2015082822A (en) * 2013-10-24 2015-04-27 オリンパス株式会社 Image display terminal, image display method, and program
WO2015060075A1 (en) * 2013-10-24 2015-04-30 オリンパス株式会社 Image display terminal, image display method, and program
US10178320B2 (en) 2013-10-24 2019-01-08 Olympus Corporation Image display terminal, image display method, and non-transitory computer readable recording medium storing program
WO2020080140A1 (en) * 2018-10-19 2020-04-23 ソニー株式会社 Sensor device and signal processing method
US11495008B2 (en) 2018-10-19 2022-11-08 Sony Group Corporation Sensor device and signal processing method
US11785183B2 (en) 2018-10-19 2023-10-10 Sony Group Corporation Sensor device and signal processing method
JP2022512125A (en) * 2018-12-06 2022-02-02 華為技術有限公司 Methods and Electronic Devices for Taking Long Exposure Images

Similar Documents

Publication Publication Date Title
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
US8611605B2 (en) Image pick-up apparatus having a function of recognizing a face and method of controlling the apparatus
JP4518157B2 (en) Imaging apparatus and program thereof
JP5293206B2 (en) Image search apparatus, image search method and program
JP4900014B2 (en) Imaging apparatus and program thereof
JP2007010898A (en) Imaging apparatus and program therefor
JP2008009263A (en) Imaging device and program therefor
JP4974812B2 (en) Electronic camera
CN101262561B (en) Imaging apparatus and control method thereof
JP2006025238A (en) Imaging device
JP5030022B2 (en) Imaging apparatus and program thereof
JP2011182252A (en) Imaging device, and image imaging method
JP4853707B2 (en) Imaging apparatus and program thereof
CN108471503A (en) Picture pick-up device and its control method
JP2009141475A (en) Camera
JP2009010472A (en) Imaging device and program thereof
JP4492273B2 (en) Imaging apparatus and program
JP5178441B2 (en) Electronic camera
JP4989362B2 (en) IMAGING DEVICE, THROUGH IMAGE DISPLAY METHOD, AND CAPTURED IMAGE RECORDING METHOD
JP5206422B2 (en) Composition selection device and program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP4553134B2 (en) Image generating apparatus and program thereof
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP5297766B2 (en) Electronic camera
JP5217843B2 (en) Composition selection apparatus, composition selection method and program