JP2009010472A - Imaging device and program thereof - Google Patents
Imaging device and program thereof Download PDFInfo
- Publication number
- JP2009010472A JP2009010472A JP2007167537A JP2007167537A JP2009010472A JP 2009010472 A JP2009010472 A JP 2009010472A JP 2007167537 A JP2007167537 A JP 2007167537A JP 2007167537 A JP2007167537 A JP 2007167537A JP 2009010472 A JP2009010472 A JP 2009010472A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- imaging
- type
- displayed
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置及びそのプログラムに係り、詳しくは、被写体の種類を判定する撮像装置及びそのプログラムに関する。 The present invention relates to an imaging device and a program thereof, and more particularly, to an imaging device and a program thereof that determine the type of a subject.
近年、電子カメラ等の撮像装置においては、画像認識により被写体の種類を判定し、該判定した被写体の名称や説明を表示する技術が開発された。(特許文献1)。 In recent years, in an imaging apparatus such as an electronic camera, a technique has been developed in which the type of a subject is determined by image recognition, and the name and description of the determined subject are displayed. (Patent Document 1).
しかしながら、従来の技術では、例えば、草や花等は、種類が異なっていても非常に似ているものが多く、このような場合は、被写体の種類を誤って判定してしまったり、被写体の種類を判定することができないという事態を招いてしまっていた。 However, with conventional techniques, for example, grass and flowers are often very similar even if they are of different types.In such cases, the type of subject may be erroneously determined, The situation that the kind cannot be judged has been invited.
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、被写体の種類の判定精度を向上させる撮像装置及びそのプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of such conventional problems, and an object of the present invention is to provide an imaging apparatus and a program for improving the accuracy of determining the type of subject.
上記目的達成のため、請求項1記載の発明による撮像装置は、撮像素子を用いて被写体を撮像する撮像手段と、
被写体を選択する選択手段と、
前記選択手段により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御手段と、
前記表示制御手段により表示された部位の撮影の促しにしたがって、前記撮像手段により撮像された部位の画像データに基づいて、被写体の種類を判定する第1の被写体判定手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image pickup apparatus according to the first aspect of the present invention includes an image pickup means for picking up an image of a subject using an image pickup element,
A selection means for selecting a subject;
Display control means for performing display for prompting photographing of a part of the subject, which differs depending on the subject selected by the selection means;
First subject determination means for determining the type of subject based on the image data of the part imaged by the imaging means in accordance with the prompting of imaging of the part displayed by the display control means;
It is provided with.
また、例えば、請求項2に記載されているように、前記選択手段は、
被写体のカテゴリーを選択し、
前記表示制御手段は、
前記選択手段により選択された被写体のカテゴリーに応じて異なる、該被写体の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in
Select the subject category,
The display control means includes
Different displays may be displayed depending on the category of the subject selected by the selection means to prompt the photographing of the part of the subject.
また、例えば、請求項3に記載されているように、前記選択手段は、
被写体の種類を選択し、
前記表示制御手段は、
前記選択手段により選択された被写体の種類に応じて異なる、該被写体の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 3, the selection unit includes:
Select the type of subject,
The display control means includes
A display for prompting photographing of the part of the subject, which differs depending on the type of the subject selected by the selection means, may be performed.
また、例えば、請求項4に記載されているように、前記表示制御手段は、
前記選択手段により選択された被写体の種類の特徴となる部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 4, the display control unit includes:
You may make it perform the display which encourages imaging | photography of the site | part used as the characteristic of the kind of to-be-photographed object selected by the said selection means.
また、例えば、請求項5に記載されているように、前記表示制御手段は、
前記選択手段により選択された被写体に応じて異なるテンプレート、及び/又は、メッセージを表示させることにより、該被写体の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in claim 5, the display control means includes
By displaying different templates and / or messages depending on the subject selected by the selection means, a display for prompting photographing of the part of the subject may be performed.
また、例えば、請求項6に記載されているように、前記表示制御手段は、
少なくとも1つ以上の部位の撮影を促す表示を行なうようにしてもよい。
For example, as described in
You may make it perform the display which encourages imaging | photography of at least 1 or more site | part.
また、例えば、請求項7に記載されているように、前記表示制御手段は、
前記選択手段により選択された被写体に応じて、撮影を促す表示を行なう部位の数を異ならせるようにしてもよい。
For example, as described in
Depending on the subject selected by the selection means, the number of parts for performing the display for prompting photographing may be varied.
また、例えば、請求項8に記載されているように、前記第1の被写体判定手段は、
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により撮像された全ての部位の画像データに基づいて、被写体の種類を判定するようにしてもよい。
Further, for example, as described in claim 8, the first subject determination unit includes:
When the display control means performs a display prompting imaging of a plurality of parts, the image data of all parts imaged by the imaging means is displayed according to the display prompting imaging of the part displayed by the display control means. Based on this, the type of subject may be determined.
また、例えば、請求項9に記載されているように、前記第1の被写体判定手段は、
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により最初に撮像される部位の画像データに基づいて被写体の種類を判定し、該被写体の種類を判定することができなかった場合は、被写体の種類が判定できるまで、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段によりその後撮像される各部位の画像データに基づいて被写体の種類の判定を行なっていくようにしてもよい。
Further, for example, as described in
In the case where the display controller prompts the imaging of a plurality of parts, the image data of the part first imaged by the imaging unit is displayed according to the display prompting the imaging of the part displayed by the display controller. The type of the subject is determined based on the display, and if the type of the subject cannot be determined, the display control means is configured to display the portion displayed by the display control unit until the type of the subject can be determined. The type of the subject may be determined based on the image data of each part that is subsequently imaged by the imaging means.
また、例えば、請求項10に記載されているように、前記表示制御手段による部位の撮影を促す表示が行われる前に、前記撮像手段により撮像された被写体全体の画像データに基づいて、被写体の種類を判定する第2の被写体判定手段を備え、
前記表示制御手段、前記第1の被写体判定手段は、
前記第2の被写体判定手段により被写体の種類を判定することができなかった場合に、動作を実行するようにしてもよい。
Further, for example, as described in
The display control means and the first subject determination means are
The operation may be executed when the type of subject cannot be determined by the second subject determining means.
また、例えば、請求項11に記載されているように、複数の被写体をリスト表示させるリスト表示制御手段を備え、
前記選択手段は、
前記リスト表示制御手段によりリスト表示された複数の被写体の中から、ユーザの操作にしたがって任意の被写体を選択するようにしてもよい。
In addition, for example, as described in
The selection means includes
An arbitrary subject may be selected from a plurality of subjects displayed in a list by the list display control means in accordance with a user operation.
また、例えば、請求項12に記載されているように、前記リスト表示制御手段は、
前記第2の被写体判定手段により一致度が高いと判定された被写体順、又は、一致度が高い被写体のみをリスト表示させるようにしてもよい。
For example, as described in
Only the subjects in the order of subjects determined to have a high degree of coincidence by the second subject judging means or only subjects having a high degree of coincidence may be displayed in a list.
また、例えば、請求項13に記載されているように、前記選択手段は、
前記撮像手段により撮像された画像データに対する画像認識に基づいて、被写体を選択するようにしてもよい。
For example, as described in
The subject may be selected based on image recognition for the image data captured by the imaging means.
上記目的達成のため、請求項14記載の発明によるプログラムは、撮像素子を用いて被写体を撮像する撮像処理と、
被写体を選択する選択処理と、
前記選択処理により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御処理と、
前記表示制御処理により表示された部位の撮影の促しにしたがって、前記撮像処理により撮像された部位の画像データに基づいて、被写体の種類を判定する被写体判定処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
In order to achieve the above object, a program according to the invention described in
A selection process for selecting a subject,
Display control processing for performing display for prompting photographing of a portion of the subject, which differs depending on the subject selected by the selection processing;
Subject determination processing for determining the type of subject based on image data of the part imaged by the imaging process in accordance with the prompting of imaging of the part displayed by the display control process;
And each of the above processes is executed by a computer.
本願発明によれば、被写体の種類の判定精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of determining the type of subject.
以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a
The
撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。
The photographing
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the
The diaphragm 4 is a mechanism that controls the amount of light that enters from the photographing
CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。
The CCD 5 is driven by the
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。
A
画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。
The
CPU10は、CCD5への撮像制御、バッファメモリに記憶された画像データのフラッシュメモリ14への記録処理、バッファメモリに記憶された画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、撮影指示メッセージ及びテンプレートを画像表示部15に表示させる表示制御部101と、撮像された画像データに基づいて被写体の種類を判定する被写体判定部102を有する。
The
In particular, the
キー入力部11は、シャッタボタン、モード切替キー、十字キー、SETキー、キャンセルキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
The
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
特に、メモリ12には、カテゴリー別データベースと、類別データベースとが記録されている。
The
In particular, the
図2(A)は、メモリ12に記録されているカテゴリー別データベースの様子の一例を示す図であり、図2(A)を見ると分かるように、被写体のカテゴリー(花、昆虫、動物(トラ、馬、象等の人以外の哺乳類動物を主に指す)等)毎に、該カテゴリーの被写体全体の撮影を促す撮影指示メッセージ及びテンプレートと、該カテゴリーの被写体の各部位の撮影を促す部位別(例えば、花の場合は、花、茎、葉などの花全体の各部位)の撮影指示メッセージ及びテンプレートが設定されている。
FIG. 2A is a diagram showing an example of a state of the category database recorded in the
この部位別の撮影指示メッセージ及びテンプレートによって撮影が促される被写体の部位の数は、被写体のカテゴリーに応じて異なり、例えば、花の場合は、3つの部位(ここでは、花、茎、葉の部位)の撮影を促す撮影指示メッセージが設定されており、昆虫の場合は4つの部位の撮影を促す撮影指示メッセージが設定されており、動物の場合は3つの部位の撮影を促す撮影指示メッセージが設定されている。
なお、部位の数は、被写体のカテゴリーに応じて異なるようにしたが、被写体のカテゴリーにかかわらず部位の数を一律同じにするようにしてもよい。
The number of parts of the subject to be photographed by the photographing instruction message for each part and the template varies depending on the category of the subject. For example, in the case of a flower, three parts (here, parts of a flower, a stem, and a leaf) ) Is set, a shooting instruction message is set to shoot four parts for insects, and a shooting instruction message is set to shoot three parts for animals. Has been.
Although the number of parts differs depending on the category of the subject, the number of parts may be made uniform regardless of the category of the subject.
また、種別データベースは、被写体のカテゴリー毎(花、昆虫、動物、人、鳥、魚等のカテゴリー毎)にメモリ12に記録されており、図2(B)は、メモリ12に記録されている花の種別データベースの様子の一例を示す図である。
図2(B)を見るとわかるように、花の種別データベースには、花の種類(バラ、コスモス、菊など)毎に、花の全体(花や茎や葉を含む)の特徴データ(全体特徴データ)、花の部位別(ここでは、花、茎、葉の各部位)の特徴データ、花の特徴となる部位の特徴データ(特徴部位特徴データ)、該特徴部位の撮影を促す特徴部位の撮影指示メッセージ及びテンプレート、及び花のサンプル画像データ、花の説明データが設定されている。なお、他の被写体のカテゴリーの種別データベースについても同様に、図2(B)に示すようなデータ、つまり、種類毎に、全体特徴データ、部位別の特徴データ、特徴部位特徴データ、特徴部位の撮影指示メッセージ及びテンプレート、サンプル画像、説明データが設定されている。
The type database is recorded in the
As can be seen from FIG. 2 (B), in the flower type database, for each type of flower (rose, cosmos, chrysanthemum, etc.), feature data (including flowers, stems and leaves) of the whole flower (whole) Feature data), feature data for each part of the flower (here, each part of the flower, stem, and leaf), feature data of the part that is a feature of the flower (feature part feature data), and a feature part that prompts photographing of the feature part Shooting instruction messages and templates, flower sample image data, and flower explanation data are set. Similarly for the category database of other subject categories, the data as shown in FIG. 2B, that is, for each type, the entire feature data, the feature data for each part, the feature part feature data, the feature part A shooting instruction message, template, sample image, and explanation data are set.
また、上記テンプレートやメッセージは、撮影を促すための情報であり、詳しくは後で説明する。また、図2(A)の被写体のカテゴリー毎に設定されている部位別の撮影指示メッセージ及びテンプレートによって撮影が促される被写体の部位の数と、カテゴリー毎の種別データベースに設定されている部位別の特徴データの部位の数とは、同じカテゴリー同士で同じ数である。例えば、被写体のカテゴリーが花の場合であって、カテゴリー別データベースに設定されている花の部位別の撮影指示メッセージ及びテンプレートによって撮影が促される部位の数が3つの場合は、花の種別データベースに設定されている部位別特徴データの部位の数も3つとなる(図2(A)、(B)参照)。 The template and message are information for prompting photographing, and will be described in detail later. Further, the number of parts of the subject to be photographed by the photographing instruction message for each part and the template set for each category of the subject in FIG. 2A and the part-by-part set in the type database for each category. The number of parts of the feature data is the same number in the same category. For example, when the category of the subject is a flower and the number of parts to be photographed by the photographing instruction message for each part of the flower and the template set in the category database is three, the flower type database The number of the site-specific feature data set is also 3 (see FIGS. 2A and 2B).
DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
The
The
画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。
The
B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図3乃至5のフローチャートに従って説明する。
B. Operation of
ユーザのキー入力部11のモード切替キーの操作により被写体判定モードに設定されると、ステップS1に進み、CPU10は、CCD5による撮像を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する。
When the subject determination mode is set by the user's operation of the mode switching key of the
次いで、ステップS2で、CPU10は、メモリ12に記録されているカテゴリー別データベースから被写体の各カテゴリーの名称(花、昆虫、動物等の名称)を取得し、該取得した名称の一覧をスルー画像に重ねて表示させる(リスト表示させる)。ここで、この一覧表示によって表示されるスルー画像が隠れないように、カテゴリーの名称の一覧が透けるように表示してもよいし、画像表示部15の1部の領域に対して表示させるようにしてもよい。
Next, in step S2, the
次いで、ステップS3で、CPU10は、ユーザによって何れか1つの被写体のカテゴリーが指定されたか否かを判断する。
ここで、ユーザは、一覧表示された被写体のカテゴリーの名称を見ながら、十字キー、SETキーの操作を行なうことにより何れか1つの被写体のカテゴリーを指定することができ、この一連の操作に対応する操作信号がキー入力部11から送られてきた場合はカテゴリーが指定されたと判断する。これにより、ユーザが撮影する被写体のカテゴリーを自由に指定(選択)することができる。
Next, in step S3, the
Here, the user can designate one of the subject categories by operating the cross key and the SET key while looking at the names of the subject categories displayed in the list, and this series of operations is supported. When the operation signal to be sent is sent from the
ステップS3で、被写体のカテゴリーが指定されていないと判断すると、指定されるまでステップS3に留まり、被写体のカテゴリーが指定されたと判断すると、ステップS4に進み、CPU10は、該指定された被写体のカテゴリーを選択する。
次いで、ステップS5に進み、CPU10の表示制御部101は、該選択された被写体のカテゴリーに対応する被写体の全体の撮影を促す撮影指示メッセージ及びテンプレートを図2(A)に示すカテゴリー別データベースから読み出して、スルー画像に重ねて表示させる(重畳表示させる)。この撮影メッセージ及びテンプレートの内容は、該選択されたカテゴリーの被写体の全体を撮影するように促す内容である。ここでは、花を撮像しているので、ユーザは被写体のカテゴリーとして花を指定して選択したものとする。
If it is determined in step S3 that the subject category is not specified, the process stays in step S3 until it is specified. If it is determined that the subject category is specified, the process proceeds to step S4, and the
Next, in step S5, the
図7(A)は、被写体のカテゴリーとして花が選択されたときに、表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
図7(A)を見ると「表示された花のテンプレートに合わせて花全体を撮影してください」というメッセージと、花全体のテンプレートが表示されているのがわかる。このテンプレート表示される全体の花は一般的な花全体(任意の花の全体)なので、テンプレート表示される花と、実際に撮影されスルー画像表示されている花が同一でない場合もあり得る。
FIG. 7A is a diagram illustrating an example of a shooting instruction message and a template that are displayed when a flower is selected as a subject category.
FIG. 7A shows that a message “Please shoot the entire flower according to the displayed flower template” and a template for the entire flower are displayed. Since the entire flower displayed in the template is the entire general flower (the entire arbitrary flower), the flower displayed in the template and the flower actually captured and displayed in the through image may not be the same.
ここで、ユーザは、この表示された花全体のテンプレートを見ながら大まかに、スルー画像表示されている花全体を、テンプレート表示されている花全体に合わせる。つまり、現在撮像されている花、茎、葉を、テンプレート表示の花、茎、葉の位置に合うようにデジタルカメラ1の位置を変える。このテンプレートの表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まることになる。
Here, the user roughly matches the entire flower displayed in the through image with the entire flower displayed in the template while viewing the template of the displayed entire flower. That is, the position of the
次いで、ステップS6で、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する。この判断は、シャッタボタンの押下に対応する操作信号がキー入力部11に送られてきたか否かにより判断する。
ここで、ユーザは、スルー画像表示されている被写体(撮像している被写体)が、テンプレート表示されている被写体とおおよそ合わさったと判断したときにシャッタボタンを押下する。
Next, in step S6, the
Here, the user presses the shutter button when it is determined that the subject displayed in the through image (the subject being imaged) is approximately aligned with the subject displayed in the template.
ステップS6で、シャッタボタンが押下されていないと判断すると、押下されるまでステップS6に留まり、シャッタボタンが押下されたと判断すると、ステップS7に進み、CPU10は、静止画撮影処理を行う。
If it is determined in step S6 that the shutter button is not pressed, the process stays in step S6 until the shutter button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S7, and the
次いで、ステップS8で、CPU10の被写体判定部102は、該静止画撮影処理により得られた画像データに基づいて、被写体の種類判定処理を行う。この種類判定処理は、簡単に説明すると、ステップS4で設定した被写体のカテゴリーの種別データベースに設定されている各種類の全体特徴データを用いて、撮影された被写体が「何であるか?」を具体的に判定する。なお、この被写体の種類判定処理は、撮像された静止画像データを認識することにより被写体の種類を判定しているので、画像認識処理の一種といえよう。
Next, in step S8, the
以下、このステップS8の被写体の種類判定処理の動作を図6に示すサブフローチャートにしたがって説明する。なお、図6のサブフローチャートは、後述するステップS28の被写体の種類判定処理の動作の説明も含むものである。
ステップS8に進むと、図6のステップS51に進み、被写体判定部102は、撮影された静止画像データから、撮像された被写体の特徴を複数抽出し、それらの特徴の形状や色、及びそれら特徴の相対位置関係等のデータ(特徴データ)を算出する。ここでは、花全体が撮影されているので、該撮影された花全体の特徴データを算出する。つまり、花びらの形状、花びらの枚数、花びらの色、葉の形状、葉の色、花全体の形状等の特徴データを算出する。
Hereinafter, the operation of the subject type determination process in step S8 will be described with reference to the sub-flowchart shown in FIG. Note that the sub-flowchart of FIG. 6 includes an explanation of the operation of the subject type determination process in step S28 described later.
When the process proceeds to step S8, the process proceeds to step S51 in FIG. 6, and the
次いで、ステップS52に進み、被写体判定部102は、ステップS4で選択された被写体のカテゴリーに属する各種類の全体特徴データを種別データベースから取得する。ここでは、被写体のカテゴリーとして花が選択されているので、図2(B)に示す花の種別データベースから各種類の花の全体特徴データを取得する。
Next, the process proceeds to step S52, where the
次いで、ステップS53に進み、被写体判定部102は、該算出した撮影された花全体の特徴データと、該取得した各種類の全体特徴データとを比較照合して、その一致度(類似度)を算出する。つまり、算出した花の特徴データとバラの全体特徴データ、算出した花の特徴データとコスモスの全体特徴データ、算出した花の特徴データと菊の全体特徴データというように、算出した花の特徴データと各種類の全体特徴データとをそれぞれ比較照合して、バラの全体特徴データとの一致度、コスモスの全体特徴データの一致度、菊の全体特徴データとの一致度というように各種類の特徴データとの一致度をそれぞれ算出する。
Next, the process proceeds to step S53, where the
ここで、算出された特徴データと、取得したある全体特徴データとが完全に一致するときの一致度が100%であり、両者の特徴データがズレていくにつれて一致度が下がっていくことになる。つまり、算出された特徴データと一致度が高い全体特徴データ程、該全体特徴データに対応する種類の被写体が撮影された確率が高くなる。 Here, the degree of coincidence when the calculated feature data and the acquired whole feature data completely coincide is 100%, and the degree of coincidence decreases as the feature data of both of them deviate. . In other words, the overall feature data having a higher degree of coincidence with the calculated feature data has a higher probability that a subject of the type corresponding to the overall feature data has been shot.
次いで、ステップS54に進み、被写体判定部102は、該算出された一致度の中で、最も高い一致度が所定値(ここでは、90%とする)以上であるか否かを判断する。
ステップS54で、算出された一致度の中で最も高い一致度が所定値以上であると判断すると、ステップS55に進み、被写体判定部102は、最も高い一致度と判断された全体特徴データに対応する被写体の種類を、撮影された被写体の種類と判定する。つまり、撮影された花の特徴データと、最も一致度の高い全体特徴データに対応する花の種類を、該撮影された花の種類と判定することになる。
一方、ステップS54で、算出された一致度の中で最も高い一致度が所定値以上でないと判断すると、ステップS56に進み、被写体判定部102は、被写体の種類が不明と判定する。
Next, the process proceeds to step S54, and the
If it is determined in step S54 that the highest matching degree among the calculated matching degrees is equal to or greater than a predetermined value, the process proceeds to step S55, and the
On the other hand, if it is determined in step S54 that the highest matching degree among the calculated matching degrees is not equal to or greater than the predetermined value, the process proceeds to step S56, and the
ステップS55、又は、ステップS56で判定を行なうと、図3のステップS9に進み、CPU10は、被写体の種類を判定することができたか否かを判断する。このとき、ステップS55で判定した場合は被写体の種類を判定することができたと判断し、ステップS56で判定した場合は被写体の種類を判定することができなかったと判断する。
When the determination is made in step S55 or step S56, the process proceeds to step S9 in FIG. 3, and the
ステップS9で、被写体の種類を判定することができたと判断すると、ステップS10に進み、CPU10は、該判定した被写体の種類の説明データを種別データベースから取得し、該取得した説明データを画像表示部15に表示させる。このとき、撮影された静止画像データをプレビュー表示させるとともに、該説明データを重畳表示させるようにしてもよい。
例えば、被写体の種類がバラと判定された場合は、図2(B)に示す種別データベースからバラの説明データを取得し、該取得した説明データを表示させる。
If it is determined in step S9 that the type of the subject has been determined, the process proceeds to step S10, where the
For example, when it is determined that the type of the subject is rose, the explanation data of the rose is acquired from the type database shown in FIG. 2B, and the acquired explanation data is displayed.
この説明データとは、いわゆる辞書データであり、各種類の被写体毎に、該種類の被写体の説明を示す情報から構成されている。例えば、バラの説明としては、「バラ バラ科 開花時期:5〜11月ごろ トゲのある木の総称である、うばら、又は、いばらがバラに略された。 甘い香りがし、香水の材料にも使われる。 古代から、繁栄と愛の象徴とされた。 花言葉:私はあなたにふさわしい、輝かしい、愛嬌、美」といった内容である。
また、コスモスの説明としては、「コスモス 菊科 開花時期:7〜12月ごろ 原産地メキシコ。 秋の代表花であり、秋桜とも呼ばれる。早いものは夏のあいだから咲き始める。 コスモスの語源はギリシャ語の秩序、飾り、美しいという意味の言葉に由来する。 花言葉:乙女のまごころ、愛情、たおやかさ」といった内容である。
This explanation data is so-called dictionary data, and is composed of information indicating the explanation of each type of subject for each type of subject. For example, the description of roses is as follows: “Rosaceae Flowering time: Around May to November, roses or thorns are a generic term for thorny trees. Since ancient times, it has been regarded as a symbol of prosperity and love.Hana language: I am worthy of you, brilliant, caress, beauty.
As for the explanation of Cosmos, “Cosmos Chrysanthemum Flowering Period: Around July-December Mexico. It is the representative flower of autumn and is also called autumn cherry. The early ones begin to bloom during the summer. It is derived from a word that means “order, decoration, and beauty.” Hanago: The maiden's heart, love, and warmth.
フローチャートの説明に戻り、ステップS9で被写体の種類を判定することができなかったと判断すると、図4のステップS21に進み、CPU10は、候補となる被写体の種類をリスト表示させる。このリスト表示は、図6のステップS53で算出された一致度の高い順に、被写体の種類の名称及びサンプル画像を表示させたり、算出された一致度の高い被写体の種類の名称及びサンプル画像のみを表示させる。これにより、ユーザは撮影された被写体である確率が高い種類の被写体をすぐに視認することができ、後述する被写体の種類の指定も迅速に行なうことができる。
なお、ステップS4で選択された被写体のカテゴリーに属する全ての種類の名称及びサンプル画像をリスト表示させるようにしてもよい。
Returning to the description of the flowchart, if it is determined in step S9 that the type of subject has not been determined, the process proceeds to step S21 in FIG. 4, and the
Note that all kinds of names and sample images belonging to the category of the subject selected in step S4 may be displayed in a list.
図7(B)は、リスト表示された被写体の種類の様子の一例を示す図である。ここでは、ステップS4で被写体のカテゴリーとして花が選択されたので、当然にリスト表示される被写体の種類は花の種類となる。図を見ると分かるように、各種類の花の名称と花画像(サンプル画像)がリスト表示されているのが分かる。この各種類の花の名称とサンプル画像は、図2(B)に示す種別データベースから取得して表示させることになる。
また、このとき、一番上にリスト表示される花の名称及びサンプル画像にカーソルを合わせた状態で表示させる。図を見ると、一番上に表示されているバラとそのサンプル画像にカーソルが合わさっているのがわかる。
FIG. 7B is a diagram illustrating an example of the types of subjects displayed in a list. Here, since flowers are selected as the subject category in step S4, the types of subjects displayed as a list are naturally the types of flowers. As can be seen from the figure, the name of each type of flower and the flower image (sample image) are listed. The name and sample image of each type of flower are acquired from the type database shown in FIG. 2B and displayed.
At this time, the name of the flower displayed on the top and the sample image are displayed in a state where the cursor is set. Looking at the figure, you can see that the cursor is positioned on the rose displayed at the top and the sample image.
次いで、ステップS22で、CPU10は、ユーザによって被写体の種類が指定されたか否かを判断する。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてくると被写体の種類が指定されたと判断し、キャンセルキーの操作に対応する操作信号がキー入力部11から送られてくると被写体の種類が指定されないと判断する。
Next, in step S22, the
ユーザは、このリスト表示された被写体の種類(ここでは花の種類)の名称及びサンプル画像を見ながら、撮影した被写体の種類(ここでは花の種類)をある程度推測することができる場合は被写体の種類の指定を行ない、撮影した被写体の種類を推測することができない場合は被写体の種類の非指定を行なう。
また、ユーザの被写体の種類の指定操作について説明すると、リスト表示された複数の被写体の種類をみながら、十字キーを操作することにより、カーソルを指定したい被写体の種類に移動させることができ、指定したい被写体の種類にカーソルが合わさっている時点でSETキーの操作を行なうと、カーソルが合わさっている被写体の種類を指定することができる。これにより、ユーザは撮影している種類の被写体を任意に選択することができる。
If the user can estimate the type of the photographed subject (here, the type of flower) to some extent while looking at the name of the subject type (here, the type of flower) and the sample image displayed on the list, The type is designated, and when the type of the photographed subject cannot be estimated, the type of the subject is not designated.
In addition, the operation of specifying the type of subject by the user will be described. The cursor can be moved to the type of subject to be specified by operating the cross key while looking at the types of subjects displayed in the list. If the SET key is operated when the cursor is placed on the type of subject to be desired, the type of subject on which the cursor is placed can be designated. Thereby, the user can arbitrarily select the type of subject being photographed.
例えば、図7(B)に示すように、カーソルがバラに合わさっている状態で、十字キーの「↓」キーを操作すると、カーソルがバラからベゴニアに移動し、更に十字キーの「↓」キーを操作すると、カーソルがベゴニアからチューリップに移動する。また、図7(B)に示すように、カーソルがバラに合わさっている状態でSETキーの選択を行なうとバラが指定され、カーソルがベゴニアに合わさっている状態でSETキーの操作を行なうとベゴニアが指定されることになる。 For example, as shown in FIG. 7B, when the cursor key is moved to a rose and the “↓” key of the cross key is operated, the cursor moves from rose to begonia, and then the “↓” key of the cross key. The cursor moves from Begonia to Tulip. Further, as shown in FIG. 7B, when the SET key is selected while the cursor is aligned with the rose, the rose is designated, and when the SET key is operated while the cursor is aligned with the begonia, the begonia is operated. Will be specified.
なお、ここではリスト表示を、被写体の種類の名称及びサンプル画像を一覧表示させることにより行ったが、被写体の種類の名称及びサンプル画像を単体表示させるようにしてもよい。
例えば、図7(B)に示すように一覧表示されたものを単体表示させると、まず、バラのサンプル画像及びその名称を単体表示させる。そして、次にベゴニアのサンプル画像及びその名称を単体表示させ、次にチューリップのサンプル画像及びその名称を単体表示させるというように、単体表示させるサンプル画像及びその名称を順々に切り替える。この切り替えはユーザの十字キーの操作によって行なわれるようにしてもよいし、所定時間表示させたら自動的に行われるようにしてもよい。そして、ユーザは、被写体の種類が単体表示されているときに、SETキーの操作を行なうことにより、該単体表示されている被写体の種類を指定することができる。
Here, the list display is performed by displaying a list of subject type names and sample images, but the subject type name and sample images may be displayed alone.
For example, when the list displayed as shown in FIG. 7B is displayed alone, first, the sample image of the rose and its name are displayed alone. Then, the sample image and its name to be displayed are sequentially switched such that the begonia sample image and its name are displayed as a single unit, and then the tulip sample image and its name are displayed as a single unit. This switching may be performed by the user's operation of the cross key, or may be performed automatically after displaying for a predetermined time. Then, when the type of the subject is displayed alone, the user can specify the type of the subject displayed alone by operating the SET key.
図4のステップS22で、被写体の種類が指定されていないと判断すると、つまり、キャンセルキーの操作に対応する操作信号がキー入力部11から送られてくると、ステップS23に進み、CPU10は、部位別撮影モードに移行し、スルー画像表示を開始する。
If it is determined in step S22 of FIG. 4 that the type of subject is not designated, that is, if an operation signal corresponding to the operation of the cancel key is sent from the
次いで、ステップS24で、CPU10の表示制御部101は、部位1を選択して、ステップS25に進み、CPU10の表示制御部101は、ステップS4で選択した被写体カテゴリーの該選択した部位の撮影指示メッセージ及びテンプレートをカテゴリー別データベースの部位別の撮影指示メッセージ及びテンプレートから読み出して、スルー画像に重ねて表示させる。
ここでは、花が選択されているので、例えば、部位1が選択された場合は、花に対応する部位1の撮影指示メッセージ及びテンプレートをスルー画像に重畳表示させる。ここでは、部位1を花、部位2を茎、部位3を葉とする。なお、被写体のカテゴリーに応じて、部位の場所は異なることになる。例えば、同じ部位1であっても、被写体のカテゴリーが花の場合は花になり、被写体のカテゴリーが動物の場合は頭となる。
Next, in step S24, the
Here, since the flower is selected, for example, when the
図8(A)は、選択された被写体のカテゴリーが花の場合であって、選択された部位が部位1のときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
図8(A)を見ると、「表示された花のテンプレートに合わせて花を撮影してください」というメッセージと、花のテンプレートが表示されているのがわかる。このテンプレート表示される花は一般的な花(任意の花)なので、テンプレート表示される花と、実際に撮影されスルー画像表示されている花が同一でない場合もあり得る。
ここで、ユーザは、この表示された花のテンプレートを見ながら大まかに、スルー画像表示されている花を、テンプレート表示されている花に合わせる。このテンプレート表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まる。
FIG. 8A is a diagram illustrating an example of a photographing instruction message and a template that are displayed when the category of the selected subject is a flower and the selected part is the
FIG. 8A shows that a message “Please shoot a flower according to the displayed flower template” and a flower template are displayed. Since the flowers displayed in the template are general flowers (arbitrary flowers), the flowers displayed in the template and the flowers actually captured and displayed in the through image may not be the same.
Here, the user roughly matches the flower displayed in the through image with the flower displayed in the template while viewing the displayed flower template. By this template display, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.
次いで、ステップS26で、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する。ここで、ユーザは、スルー画像表示されている被写体の部位が、テンプレート表示されている被写体の部位とおおよそ合わさったと判断したときにシャッタボタンを押下する。
ステップS26で、シャッタボタンが押下されていないと判断すると、押下されるまでステップS26に留まり、シャッタボタンが押下されたと判断すると、ステップS27に進み、CPU10は、静止画撮影処理を行う。
Next, in step S26, the
If it is determined in step S26 that the shutter button is not pressed, the process stays in step S26 until the button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S27, and the
次いで、ステップS28で、被写体判定部102は、該撮影処理により得られた静止画像データに基づいて、被写体の種類判定処理を行う。ここでの判定処理は、簡単に説明すると、ステップS4で設定した被写体のカテゴリーの種別データベースに設定されている各種類の部位の特徴データを用いて、撮像された被写体が「何であるか?」を具体的に判定する。
この被写体の種類判定処理の動作は、図6に示すサブフローチャートと同じであるが、ここでの被写体の種類判定処理は、上述した種別データベースから各種類の全体特徴データと比較照合して、その一致度を算出するのではなく、種別データベースの各種類の部位の特徴データと比較照合してその一致度を算出することになる。
Next, in step S28, the
The operation of the subject type determination process is the same as that of the sub-flowchart shown in FIG. 6, but the subject type determination process here is performed by comparing and collating with the entire feature data of each type from the type database described above. Rather than calculating the degree of coincidence, the degree of coincidence is calculated by comparing with the feature data of each type of part in the type database.
具体的に説明すると、まず、図6のステップS51で、被写体判定部102は、撮像された静止画像データから、撮像された被写体の特徴を複数抽出し、それらの特徴の形状や色、及びそれら特徴の相対位置関係等のデータ(特徴データ)を算出する。ここでは、ステップS24又はステップS32で選択された部位(現在選択されている部位)が撮影されているので、該部位の特徴データを算出する。例えば、部位1(花)が撮像された場合は、花びらの形状、花びらの枚数、花びらの色等の特徴データを算出する。
Specifically, first, in step S51 of FIG. 6, the
次いで、ステップS52で、被写体判定部102は、ステップS24又はステップS32で選択された(現在選択されている)部位の特徴データを、ステップS4で選択された被写体のカテゴリーの種別データベースの部位別特徴データからすべて取得する。つまり、ステップS4で選択された被写体のカテゴリーに属する各種類の、ステップS24又はステップS32で選択された部位の特徴データを取得する。
ここでは、ステップS4で花が選択されているので、例えば、部位1が選択されている場合は、図2(B)に示す花の種別データベースの部位別特徴データから各種類の花の部位1の特徴データを取得する。
Next, in step S52, the
Here, since the flower is selected in step S4, for example, when the
次いで、ステップS53で、被写体判定部102は、ステップS51で該算出したステップS24又はステップS32で選択された部位の特徴データと、ステップS52で取得した各種類の、ステップS24又はステップS32で選択された部位の特徴データとを比較照合して、その一致度(類似度)を算出し、その後、ステップ54〜ステップS56の動作を行なう。 例えば、部位1が選択されている場合は、撮影された部位1(花)の特徴データと、各種類の部位1(花)の特徴データとを比較照合することになる。
なお、ここでは、ステップS54〜ステップS56の動作は上述した動作と変わらないので説明を省略する。
Next, in step S53, the
In addition, since the operation | movement of step S54-step S56 is not different from the operation | movement mentioned above here, description is abbreviate | omitted.
そして、ステップS55、又はステップS56で判定を行なうと、図4のステップS29に進み、CPU10は、被写体の種類を判定することができたか否かを判断する。このとき、ステップS55で判定した場合は被写体の種類を判定することができたと判断し、ステップS56で判定した場合は被写体の種類を判定することができなかったと判断する。
If the determination is made in step S55 or step S56, the process proceeds to step S29 in FIG. 4, and the
ステップS29で、被写体の種類を判定することができたと判断すると、図3のステップS10に進み、CPU10は、該判定した被写体の種類の説明データを種別データベースから取得し、該取得した説明データを画像表示部15に表示させる。このとき、撮影された静止画像データをプレビュー表示させるとともに、該説明データを重畳表示させるようにしてもよい。
If it is determined in step S29 that the type of the subject has been determined, the process proceeds to step S10 in FIG. 3, and the
一方、ステップS29で、被写体の種類を判定することができなかったと判断すると、ステップS30に進み、CPU10は、最後の部位まで撮影したか否かを判断する。この部位の数は、被写体のカテゴリーに応じて異なるので、例えば、花の場合は部位の数は3つとなるので、部位3の撮影をしたか否かを判断することになる。
On the other hand, if it is determined in step S29 that the type of subject could not be determined, the process proceeds to step S30, and the
ステップS30で、最後の部位まで撮影していないと判断すると、ステップS31に進み、CPU10は、CCD5による撮像及びスルー画像表示を復帰させ、ステップS32で、現在選択している部位の次の部位を選択してステップS25に戻る。例えば、現在部位1を選択している場合は部位2を選択し、現在部位2を選択している場合は部位3を選択する。
If it is determined in step S30 that the last part has not been photographed, the process proceeds to step S31, and the
ステップS25に戻ると、ステップS4で選択した被写体カテゴリーのステップS32で選択した部位の撮影指示メッセージ及びテンプレートをカテゴリー別データベースの部位別の撮影指示メッセージ及びテンプレートから読み出して、スルー画像に重畳表示させて上記した動作を繰り返す。 When returning to step S25, the imaging instruction message and template for the part selected in step S32 of the subject category selected in step S4 are read from the imaging instruction message and template for each part in the category database and superimposed on the through image. Repeat the above operation.
ここで、図8(B)は、選択された被写体のカテゴリーが花の場合であって、選択された部位が部位2のときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
花の場合の部位2は茎なので、図8(B)を見ると、「表示された茎のテンプレートに合わせて花を撮影しください」というメッセージと、茎のテンプレートが表示されているのがわかる。このテンプレート表示される茎は一般的な茎(任意の花の茎)なので、テンプレート表示される茎と、実際に撮影されスルー画像表示されている茎が同一でない場合もあり得る。
ここで、ユーザは、この表示された茎のテンプレートを見ながら、スルー画像表示されている茎を、テンプレート表示されている茎に合わせる。このテンプレートの表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まることになる。
Here, FIG. 8B is a diagram showing an example of a photographing instruction message and a template displayed when the category of the selected subject is a flower and the selected part is the
Since
Here, the user matches the stem displayed on the through image with the stem displayed on the template while viewing the displayed stem template. By displaying this template, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.
また、図8(C)は、選択された被写体のカテゴリーが花の場合であって、選択された部位が部位3のときに表示される撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
花の場合の部位3は葉なので、図8(C)を見ると、「表示された葉のテンプレートに合わせて葉を撮影しください」というメッセージと、葉のテンプレートが表示されているのがわかる。このテンプレート表示される葉は一般的な葉(任意の花の葉)なので、テンプレート表示される葉と、実際に撮影されスルー画像表示されている葉が同一でない場合もあり得る。
FIG. 8C is a diagram illustrating an example of a shooting instruction message and a template that are displayed when the category of the selected subject is a flower and the selected part is the part 3. .
Since part 3 in the case of a flower is a leaf, looking at FIG. 8C shows that the message “Please photograph the leaf in accordance with the displayed leaf template” and the leaf template are displayed. . Since the leaf displayed in this template is a general leaf (arbitrary flower leaf), the leaf displayed in the template and the leaf actually captured and displayed in the through image may not be the same.
ここで、ユーザは、この表示された葉のテンプレートを見ながら、スルー画像表示されている葉を、テンプレート表示されている葉に合わせる。このテンプレートの表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まることになる。
このように、被写体の種類が判定できるまで、各部位の撮影の指示を行っていき、該撮影された部位に基づいて被写体の種類を判定していく。
Here, the user matches the leaf displayed in the through image with the leaf displayed in the template while viewing the displayed leaf template. By displaying this template, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.
In this way, the imaging instruction for each part is issued until the type of the subject can be determined, and the type of the subject is determined based on the captured part.
一方、ステップS30で、最後の部位まで撮影したと判断すると、ステップS21に戻り、候補となる被写体の種類のリスト表示を行い、上記した動作を繰り返す。 On the other hand, if it is determined in step S30 that the last part has been imaged, the process returns to step S21, a list of candidate subject types is displayed, and the above-described operation is repeated.
また、ステップS22で、被写体の種類が指定されたと判断すると、図5のステップS41に進み、CPU10は、該指定された被写体の種類を選択して、ステップS42に進み、特徴部位撮影モードに移行し、スルー画像表示を開始する。
If it is determined in step S22 that the subject type has been designated, the process proceeds to step S41 in FIG. 5, and the
次いで、ステップS43で、表示制御部101は、ステップS41で選択した被写体の種類に対応する特徴部位の撮影指示メッセージ及びテンプレートを、種別データベースから読み出して、スルー画像上に重畳表示させる。
図9は、選択された被写体の種類がバラの場合に、表示される特徴部位の撮影指示メッセージ及びテンプレートの様子の一例を示す図である。
図9を見ると、「表示されたトゲのテンプレートに合わせてバラのトゲを撮影してください」というメッセージと、バラのトゲのテンプレートが表示されているのがわかる。
Next, in step S43, the
FIG. 9 is a diagram illustrating an example of the imaging instruction message and template of the characteristic part displayed when the type of the selected subject is rose.
Referring to FIG. 9, it can be seen that a message “Please shoot a rose thorn in accordance with the displayed thorn template” and a rose thorn template are displayed.
ここで、ユーザは、この表示されたバラのトゲのテンプレートを見ながら、スルー画像表示されているバラのトゲを、テンプレート表示されているトゲに合わせる。このテンプレート表示により、現在撮像している被写体の撮像位置(表示位置)等の構図がおおよそ定まる。
なお、この特徴部位は、被写体の種類によって異なり、バラの場合は特徴部位がトゲとなっているが、他の種類の被写体の場合は特徴部位がトゲになるとは限らない。この特徴部位とは、その種類の被写体特有の特徴となる部位のことであり、例えば、象の場合は特徴部位が例えば鼻になったり、カバの場合は例えば口となったりする。
Here, the user matches the rose thorn displayed in the through image with the thorn displayed in the template while viewing the displayed rose thorn template. By this template display, the composition such as the imaging position (display position) of the subject currently being imaged is roughly determined.
Note that this characteristic part differs depending on the type of the subject, and in the case of a rose, the characteristic part becomes a thorn, but in the case of another type of subject, the characteristic part does not necessarily become a thorn. This characteristic part is a part which is a characteristic peculiar to the type of subject. For example, in the case of an elephant, the characteristic part becomes, for example, the nose, and in the case of a hippo, for example, the mouth.
次いで、ステップS44で、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する。ここで、ユーザは、スルー画像表示されている被写体の特徴部位が、テンプレート表示されている被写体の特徴部位とおおよそ合わさったと判断したときにシャッタボタンを押下する。
Next, in step S44, the
ステップS44で、シャッタボタンが押下されていないと判断すると、押下されるまでステップS44に留まり、シャッタボタンが押下されたと判断すると、ステップS45に進み、CPU10は、静止画撮影処理を行う。
次いで、ステップS46で、被写体判定部102は、該撮像処理により得られた静止画像データに基づいて、被写体の種類の判定処理を行う。ここでの判定処理は、撮影された被写体がステップS41で選択された被写体の種類であるか否かを判定する。
If it is determined in step S44 that the shutter button is not pressed, the process stays in step S44 until the button is pressed. If it is determined that the shutter button is pressed, the process proceeds to step S45, and the
In step S46, the
具体的に説明すると、撮像処理により得られた静止画像データから撮像された被写体の特徴を複数抽出し、それらの特徴の形状や色、及びそれら特徴の相対位置関係等のデータ(特徴データ)を算出する。ここでは、トゲが撮像されているので、トゲの特徴データを算出する。
そして、ステップS41で選択した被写体の種類の特徴部位特徴データを種別データベースから取得し、該取得した特徴部位特徴データと該算出した特徴データとを比較照合して、その一致度を算出する。
More specifically, a plurality of features of the subject captured from the still image data obtained by the imaging process are extracted, and data (feature data) such as the shape and color of those features and the relative positional relationship between these features are extracted. calculate. Here, since thorns are captured, thorn feature data is calculated.
Then, the feature part feature data of the type of the subject selected in step S41 is acquired from the type database, the acquired feature part feature data is compared with the calculated feature data, and the degree of coincidence is calculated.
そして、該算出した一致度が所定値(90%)以上であれば、撮影された被写体はステップS41で選択された被写体であると判定し、一致度が所定値未満の場合は被写体の種類は不明であると判定する。
被写体の種類判定処理により判定が行なわれると、ステップS47に進み、CPU10は、被写体の種類が判定することができたか否かを判断する。
If the calculated degree of coincidence is a predetermined value (90%) or more, it is determined that the photographed subject is the subject selected in step S41. If the degree of coincidence is less than the predetermined value, the type of subject is Judged as unknown.
When the determination is made by the subject type determination process, the process proceeds to step S47, and the
ステップS47で、被写体の種類を判定することができなかったと判断すると、図4のステップS21に戻り、候補となる被写体の種類のリスト表示を行い、上記した動作を繰り返す。このときのリスト表示は、既にステップS41で選択された種類の被写体を選択されていない他の種類の被写体と差別表示させる。ユーザに被写体の種類判定処理により判定できなった種類の被写体であることを視認させるためである。なお、既にステップS41で選択された種類の被写体をリスト表示させないようにしてもよい。 If it is determined in step S47 that the subject type could not be determined, the process returns to step S21 in FIG. 4 to display a list of candidate subject types, and the above-described operation is repeated. In the list display at this time, the subject of the type already selected in step S41 is displayed differently from the other types of subjects not selected. This is to make the user visually recognize that the subject is of a type that cannot be determined by the subject type determination process. Note that the types of subjects already selected in step S41 may not be displayed in a list.
一方、ステップS47で、被写体の種類を判定することができたと判断すると、図3のステップS10に進み、CPU10は、該判定した被写体の種類の説明データを種別データベースから取得し、該取得した説明データを画像表示部15に表示させる。このとき、撮影された静止画像データをプレビュー表示させるとともに、該説明データを重畳表示させるようにしてもよい。
なお、ステップS41で被写体の種類が選択された場合、直ちに図3のステップS10に進み、ステップS41で選択された被写体の種類の説明データを表示させるようにしてもよい。
On the other hand, if it is determined in step S47 that the type of subject has been determined, the process proceeds to step S10 in FIG. 3, and the
If the subject type is selected in step S41, the process immediately proceeds to step S10 in FIG. 3, and the description data of the subject type selected in step S41 may be displayed.
以上のように、実施の形態においては、選択された被写体のカテゴリーに応じて異なる部位の撮影を促す表示を行なって撮影された該部位の画像データに基づいて撮影された被写体の種類を判定するので、被写体の種類の判定精度を向上させることができる。
また、選択された被写体のカテゴリーに応じて異なる複数の部位の撮影を促す表示を行って撮影された各部位の画像データに基づいて、撮影された被写体の種類を判定していくので判定精度を向上させることができる。
また、被写体の種類が判定できるまで部位の撮影を促す表示と撮影を順次行なうので、必要以上に、部位の撮影を促す表示と撮影、及び、被写体の種類の判定処理を行わなくてすみ、被写体の種類判定処理時間を最小限に抑えることができる。
また、選択された種類の被写体特有の特徴部位の撮影を促す表示を行って撮影された該特徴部位の画像データに基づいて、撮影された被写体が該選択された被写体の種類であるかを判定するので、被写体の種類の判定精度を向上させることができる。
また、被写体のカテゴリーに応じて撮影を促す部位の数が異なるので、被写体のカテゴリーに応じて適切に被写体の種類を判定することができ、且つ、被写体の種類の判定の処理負担を最小に抑えることができる。
また、被写体全体を撮影した画像データに基づいて被写体の種類が判定できない場合のみ、撮影された被写体の部位の画像データに基づいて被写体の種類を判定するので、迅速に被写体の種類を判定することができる。
[変形例]
C.上記実施の形態は以下のような態様でもよい。
As described above, in the embodiment, the type of the photographed subject is determined based on the image data of the part that is photographed by performing display for prompting photographing of a different part according to the category of the selected subject. Therefore, the accuracy of determining the type of subject can be improved.
In addition, the type of the photographed subject is judged based on the image data of each part photographed with a display that prompts photographing of a plurality of different parts depending on the category of the selected subject. Can be improved.
In addition, since the display prompting the imaging of the part and the imaging are sequentially performed until the type of the subject can be determined, it is not necessary to perform the display and the imaging for prompting the imaging of the part and the process of determining the type of the subject. The type determination processing time can be minimized.
In addition, based on the image data of the characteristic part photographed by performing display for prompting photographing of the characteristic part peculiar to the selected type of subject, it is determined whether the photographed subject is the type of the selected subject. Therefore, the accuracy of determining the type of subject can be improved.
In addition, since the number of parts that prompt photographing depends on the subject category, the subject type can be appropriately determined according to the subject category, and the processing load for determining the subject type can be minimized. be able to.
Also, only when the subject type cannot be determined based on the image data obtained by photographing the entire subject, the subject type is determined based on the image data of the part of the photographed subject, so that the subject type can be quickly determined. Can do.
[Modification]
C. The above embodiment may be the following modes.
(01)上記実施の形態においては、ステップS4で、ユーザによって指定された被写体のカテゴリーを選択するようにしたが、スルー画像表示されている画像データに基づいて、画像認識によりどのカテゴリーの被写体が撮像されているのかを自動的に検出して選択するようにしてもよい。
このときは、各被写体のカテゴリーの一般的な特徴データをメモリ12に記録しておき、撮像された画像データと、被写体のカテゴリー毎の特徴データとを比較照合することにより、どのカテゴリーの被写体が撮像されているかを検出する。
これにより、迅速に被写体を選択することができ、被写体の種類の判定も早く行なうことができる。なお、この場合は、被写体のカテゴリーの一覧表示(リスト表示)を行なう必要はない。
また、ステップS2では、単に被写体のカテゴリーの一覧表示を行うようにしたが、スルー画像表示されている画像データと、被写体のカテゴリー毎の特徴データとを比較照合して各被写体のカテゴリー毎にその一致度を算出し、一致度の高い順に被写体のカテゴリーを表示させるようにしてもよいし、一致度の高い被写体のカテゴリーのみを一覧表示させるようにしてもよい。これにより、ユーザは撮影された被写体のカテゴリーである確率が高い被写体のカテゴリーをすぐに視認することができ、被写体のカテゴリーの指定も迅速に行なうことができる。
(01) In the above embodiment, the category of the subject designated by the user is selected in step S4. However, which category of subject is recognized by image recognition based on the image data displayed in the through image. You may be made to detect automatically and select whether it is imaged.
At this time, general feature data of the category of each subject is recorded in the
As a result, the subject can be quickly selected, and the type of the subject can be determined quickly. In this case, it is not necessary to display a list of subject categories (list display).
In step S2, the subject category list is simply displayed, but the image data displayed in the through image and the feature data for each subject category are compared and collated for each subject category. The degree of coincidence may be calculated, and the subject categories may be displayed in descending order of the degree of coincidence, or only the subject categories with the highest degree of coincidence may be displayed in a list. Accordingly, the user can immediately recognize the category of the subject having a high probability of being the category of the photographed subject, and can quickly specify the category of the subject.
(02)上記実施の形態においては、ステップS5、ステップS25、ステップS43で、撮影指示メッセージ及びテンプレートを表示させるようにしたが、撮影指示メッセージのみを表示させるようにしてもよいし、撮影指示テンプレートのみを表示させるようにしてもよい。
また、撮影指示メッセージや撮影指示テンプレートに限られず、撮影を促すものであればよい。
(02) In the above embodiment, the shooting instruction message and the template are displayed in steps S5, S25, and S43. However, only the shooting instruction message may be displayed, or the shooting instruction template may be displayed. May be displayed.
Further, the present invention is not limited to the shooting instruction message or the shooting instruction template, and may be anything that prompts shooting.
(03)上記実施の形態においては、ステップS5、ステップS25、ステップS43で、撮影指示テンプレートを表示させるようにしたが、撮影指示テンプレートに替えて、撮影して欲しい画像のサンプル画像を表示させるようにしてもよい。例えば、ステップS5では被写体全体を撮影したサンプル画像を表示させ、ステップS25では被写体の部位を撮影したサンプル画像を表示させ、ステップS43では被写体の特徴部位を撮影したサンプル画像を表示させるようにする。
このサンプル画像の表示でも、撮影を促すことはできるからであり、被写体の撮影位置(表示位置)等の構図も大まかに定まるからである。
(03) In the above embodiment, the shooting instruction template is displayed in step S5, step S25, and step S43, but instead of the shooting instruction template, a sample image of an image that is desired to be shot is displayed. It may be. For example, a sample image obtained by photographing the entire subject is displayed in step S5, a sample image obtained by photographing the part of the subject is displayed in step S25, and a sample image obtained by photographing the characteristic part of the subject is displayed in step S43.
This is because even the display of the sample image can prompt the photographing, and the composition such as the photographing position (display position) of the subject is roughly determined.
(04)上記実施の形態において、部位別撮影モードにより各部位の画像を撮影して被写体の種類を判定する場合は、予め撮影させる全ての部位の撮影を促す表示を行なうことにより、ユーザに撮影する各部位を知らせ、その後、ユーザが、撮影を促された各部位を撮影していくという方法であってもよい。つまり、上記実施の形態においては、部位1の撮影を促す表示→該部位1の撮影、判定不可の場合は、部位2の撮影を促す表示→該部位2の撮影というように、判定できるまで撮影を促す表示と撮影を交互に行なうようにしたが、本変形例では、各部位の撮影を促す表示→部位1の撮影、判定不可の場合は、部位2の撮影というように、各部位の撮影を促す表示を一括して行い、その後順々に各部位の撮影を行なう。
これにより、部位の撮影を迅速に行なうことができ、被写体の種類の判定も迅速に行なうことができる。
(04) In the above-described embodiment, when the image of each part is photographed in the part-by-part photographing mode and the type of the subject is determined, the user is photographed by performing a display prompting photographing of all parts to be photographed in advance. It may be a method in which each part to be notified is notified, and then the user photographs each part that is prompted to shoot. That is, in the above-described embodiment, the display prompting the photographing of the
Thereby, imaging | photography of a site | part can be performed rapidly and the kind of to-be-photographed object can also be determined rapidly.
(05)上記実施の形態において、部位別撮影モードにより各部位の画像を撮影して被写体の種類を判定する場合は、撮影された部位の画像データに基づいて被写体の種類が判定できない場合のみ、次の部位の撮影を促し、該撮影された次の部位の画像データに基づいて被写体の種類を判定するようにしたが、被写体の種類判定処理を行うことなく部位の撮影を促す表示と撮影を順次行なって、全ての部位の撮影が終了した後、撮影された全ての部位の画像データに基づいて被写体の種類を判定するようにしてもよい。
これにより、迅速に被写体の種類を判定することができる。
(05) In the above embodiment, when the type of subject is determined by capturing an image of each part in the part-specific imaging mode, only when the type of subject cannot be determined based on the image data of the captured part. The user is prompted to shoot the next part, and the type of subject is determined based on the image data of the next part taken. It may be performed sequentially, and after the imaging of all the parts has been completed, the type of the subject may be determined based on the image data of all the parts that have been imaged.
As a result, the type of subject can be quickly determined.
(06)上記実施の形態においては、ステップS8の被写体の種類判定処理は、ステップS6の押下によって静止画撮影された静止画像データに基づいて行うようにしたが、スルー画像表示されている(動画撮像されている)フレーム画像に基づいて被写体の種類を判定するようにしてもよい。この場合は、ステップS5で撮影指示メッセージ及びテンプレートが表示されてから一定時間の間被写体の種類判定処理を周期的に行うようにしてもよい。この撮影指示メッセージ及びテンプレートの表示にしたがって、ユーザが被写体の撮像位置等の構図を変えるには一定の時間が必要となるからである。これにより、現在撮像している被写体の種類を迅速に判定することができる。 (06) In the above embodiment, the subject type determination process in step S8 is performed based on the still image data captured by pressing the step S6, but a through image is displayed (moving image). The type of the subject may be determined based on the frame image (captured). In this case, the subject type determination process may be periodically performed for a predetermined time after the shooting instruction message and the template are displayed in step S5. This is because a certain amount of time is required for the user to change the composition of the imaging position of the subject in accordance with the display of the shooting instruction message and the template. This makes it possible to quickly determine the type of subject currently being imaged.
詳しく説明すると、ステップS5の動作を行なうと、ステップS8に進み、被写体の種類判定処理を行う。そして、ステップS9で被写体の種類を判定することができないと判断すると、撮影指示メッセージ等の表示を行ってから一定時間が経過したか否かを判断し、一定時間経過していないと判断するとステップS8に戻り、一定時間経過したと判断するとステップS21に進む。 More specifically, when the operation of step S5 is performed, the process proceeds to step S8, and subject type determination processing is performed. If it is determined in step S9 that the type of subject cannot be determined, it is determined whether or not a predetermined time has elapsed since the shooting instruction message or the like was displayed. Returning to S8, if it is determined that a certain time has elapsed, the process proceeds to step S21.
また、ステップS28、ステップS46の被写体の種類判定処理も同様に、スルー画像表示されている(動画撮像されている)フレーム画像に基づいて被写体の種類を判定するようにしてもよい。この場合も、ステップS25、ステップS43で撮影指示メッセージ及びテンプレートが表示されてから一定時間の間被写体の種類判定処理を周期的に行うようにしてもよい。 Similarly, in the subject type determination process in step S28 and step S46, the subject type may be determined based on a frame image in which a through image is displayed (moving-image captured). Also in this case, the subject type determination process may be periodically performed for a predetermined time after the shooting instruction message and the template are displayed in step S25 and step S43.
詳しく説明すると、ステップS25、ステップS43の動作を行なうと、ステップS28、ステップS46にそれぞれ進み、被写体の種類判定処理を行う。そして、ステップS29、ステップS47で被写体の種類を判定することができないと判断すると、撮影指示メッセージ等の表示を行ってから一定時間が経過したか否かを判断し、一定時間経過していないと判断するとステップS28、ステップS46にそれぞれ戻り、一定時間経過したと判断するとステップS30、ステップS21にそれぞれ進む。このときは、ステップS31の動作は不要ということになる。 More specifically, when the operations of Step S25 and Step S43 are performed, the process proceeds to Step S28 and Step S46, respectively, and subject type determination processing is performed. If it is determined in step S29 or step S47 that the type of subject cannot be determined, it is determined whether or not a certain time has elapsed since the shooting instruction message was displayed. If it judges, it will respectively return to Step S28 and Step S46, and if it judges that fixed time has passed, it will progress to Step S30 and Step S21, respectively. In this case, the operation in step S31 is unnecessary.
(07)上記実施の形態においては、被写体全体が撮影された画像データに基づいて被写体の種類が判定できなかった場合に、部位別撮影モード、特徴部位撮影モードに移行して、撮影された被写体の部位の画像データに基づいて被写体の種類を判定するようにしたが、最初から、部位別撮影モード、特徴部位撮影モードで被写体の種類を判定するようにしてもよい。
特徴部位撮影モードの場合は、被写体の種類を選択する必要があるので、ユーザによって選択された被写体のカテゴリー、若しくは、画像認識により自動的に検出された被写体のカテゴリーに属する被写体の種類をリスト表示させるようにしてもよいし、全カテゴリーに属する被写体の種類をリスト表示させるようにしてもよいし、画像認識を行なうことにより自動的に被写体の種類を選択するようにしてもよい。
これにより、迅速に被写体の種類を判定することができる。
(07) In the above embodiment, when the type of the subject cannot be determined based on the image data obtained by photographing the entire subject, the subject is photographed by shifting to the part-by-part photographing mode and the characteristic part photographing mode. The type of the subject is determined based on the image data of the part, but from the beginning, the type of the subject may be determined in the part-specific imaging mode and the characteristic part imaging mode.
In the feature part imaging mode, it is necessary to select the type of the subject, so the subject type selected by the user or the subject type belonging to the category of the subject automatically detected by image recognition is displayed as a list. The types of subjects belonging to all categories may be displayed as a list, or the types of subjects may be automatically selected by performing image recognition.
As a result, the type of subject can be quickly determined.
(08)上記実施の形態においては、被写体の種類毎に1つの特徴部位特徴データと、1つの特徴部位の撮影指示メッセージ及びテンプレートを設けるようにしたが、被写体の種類毎に複数の特徴部位を設けるようにしてもよい。
この場合の動作は、図4に示す部位別撮影モードの動作と同様に、選択された種類の被写体の特徴部位1の撮影指示メッセージ及びテンプレートを表示させて撮影された特徴部位1の静止画像データに基づいて被写体の種類を判定し、判定することができない場合は、特徴部位2の撮影指示メッセージ及びテンプレートを表示させて撮影された特徴部位2の撮影指示メッセージ及びテンプレートに基づいて被写体の種類を判定するというように、被写体の種類が判定できない場合は次の特徴部位で被写体の種類を判定する。
(08) In the above embodiment, one feature part feature data, a shooting instruction message for one feature part, and a template are provided for each type of subject, but a plurality of feature parts are provided for each type of subject. You may make it provide.
The operation in this case is the same as the operation in the part-specific imaging mode shown in FIG. 4, and still image data of the
この場合は、種別データベースに、複数の特徴部位の特徴データ、及び、各特徴部位の撮影指示メッセージ及びテンプレートを被写体の種類毎にそれぞれ設定させておく。また、この特徴部位の数、特徴部位の場所は、被写体の種類毎に異ならせるようにしてもよい。つまり、特徴部位の数、特徴部位の場所は、該種類の被写体特有の特徴となる場所の数によって変わってくる。
これにより、被写体の種類の判定精度を向上させることができる。
In this case, feature data of a plurality of feature parts, and an imaging instruction message and a template for each feature part are set for each type of subject in the type database. Further, the number of feature parts and the location of the feature parts may be different for each type of subject. In other words, the number of feature parts and the location of the feature parts vary depending on the number of places that are characteristic of the type of subject.
Thereby, the determination accuracy of the type of subject can be improved.
(09)上記変形例(08)においては、被写体の種類毎に複数の特徴部位の特徴データ、該複数の特徴部位の撮影を促す撮影指示メッセージ及びテンプレートを設けるようにしたが、単に被写体の種類毎に複数の部位の特徴データ、該複数の部位の撮影を促す撮影指示メッセージ及びテンプレートを設けるようにしてよい。
この場合の動作は、図4に示す部位別撮影モードの動作と同様に、選択された種類の被写体の部位1の撮影指示メッセージ及びテンプレートを表示させて撮影された部位1の静止画像データに基づいて被写体の種類を判定し、判定することができない場合は、部位2の撮影指示メッセージ及びテンプレートを表示させて撮影された部位2の撮影指示メッセージ及びテンプレートに基づいて被写体の種類を判定するというように、被写体の種類が判定できない場合は次の部位で被写体の種類を判定する。
(09) In the modified example (08), the feature data of a plurality of characteristic parts, the photographing instruction message for prompting photographing of the plurality of characteristic parts, and the template are provided for each kind of subject. A feature data of a plurality of parts, a photographing instruction message for prompting photographing of the plurality of parts, and a template may be provided for each.
The operation in this case is based on the still image data of the
この場合は、被写体の種類毎に複数の部位を設けるので、被写体の種類毎に部位の場所が異なるようにすることも可能であるし、被写体の種類毎に部位の数が異なるようにすることも可能である。つまり、上記実施の形態で説明した部位別撮影モードにおいては被写体のカテゴリー毎に部位の数は異なるが、同じカテゴリーに属する被写体同士では部位の数、及び部位の場所が一緒になってしまうが、本変形例では、同じカテゴリーに属する被写体同士であっても、部位の数、及び部位の場所を異ならせることができる。
これにより、被写体の種類の判定精度を向上させることができる。
In this case, since a plurality of parts are provided for each type of subject, the location of the part may be different for each type of subject, and the number of parts may be different for each type of subject. Is also possible. That is, in the part-by-part imaging mode described in the above embodiment, the number of parts is different for each category of subjects, but the number of parts and the location of parts are the same for subjects belonging to the same category, In the present modification, even if subjects belong to the same category, the number of parts and the location of the parts can be made different.
Thereby, the determination accuracy of the type of subject can be improved.
(10)また、上記変形例(01)乃至(09)を任意に組み合わせた態様であってもよい。 (10) Moreover, the aspect which combined the said modification (01) thru | or (09) arbitrarily may be sufficient.
(11)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(11) The above embodiments of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.
最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体を撮像し、該撮像された画像データに基づいて被写体の種類を判定することができる機器であれば適用可能である。したがって、カメラ付携帯電話や、カメラ付PDA等であってもよい。
Finally, in each of the above-described embodiments, the case where the imaging device of the present invention is applied to the
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス
1
6
8
11
14
Claims (14)
被写体を選択する選択手段と、
前記選択手段により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御手段と、
前記表示制御手段により表示された部位の撮影の促しにしたがって、前記撮像手段により撮像された部位の画像データに基づいて、被写体の種類を判定する第1の被写体判定手段と、
を備えたことを特徴とする撮像装置。 Imaging means for imaging a subject using an imaging element;
A selection means for selecting a subject;
Display control means for performing display for prompting photographing of a part of the subject, which differs depending on the subject selected by the selection means;
First subject determination means for determining the type of subject based on the image data of the part imaged by the imaging means in accordance with the prompting of imaging of the part displayed by the display control means;
An imaging apparatus comprising:
被写体のカテゴリーを選択し、
前記表示制御手段は、
前記選択手段により選択された被写体のカテゴリーに応じて異なる、該被写体の部位の撮影を促す表示を行なうことを特徴とする請求項1記載の撮像装置。 The selection means includes
Select the subject category,
The display control means includes
The imaging apparatus according to claim 1, wherein a display that prompts photographing of a part of the subject, which differs depending on a category of the subject selected by the selection unit, is performed.
被写体の種類を選択し、
前記表示制御手段は、
前記選択手段により選択された被写体の種類に応じて異なる、該被写体の部位の撮影を促す表示を行なうことを特徴とする請求項1記載の撮像装置。 The selection means includes
Select the type of subject,
The display control means includes
The image pickup apparatus according to claim 1, wherein a display that prompts photographing of a portion of the subject that differs depending on a type of the subject selected by the selection unit is performed.
前記選択手段により選択された被写体の種類の特徴となる部位の撮影を促す表示を行なうことを特徴とする請求項3記載の撮像装置。 The display control means includes
The imaging apparatus according to claim 3, wherein a display that prompts photographing of a part that is characteristic of the type of the subject selected by the selection unit is performed.
前記選択手段により選択された被写体に応じて異なるテンプレート、及び/又は、メッセージを表示させることにより、該被写体の部位の撮影を促す表示を行なうことを特徴とする請求項1乃至4の何れかに記載の撮像装置。 The display control means includes
5. The display for prompting photographing of a part of the subject is performed by displaying a different template and / or message depending on the subject selected by the selection unit. The imaging device described.
少なくとも1つ以上の部位の撮影を促す表示を行なうことを特徴とする請求項1乃至5の何れかに記載の撮像装置。 The display control means includes
6. The imaging apparatus according to claim 1, wherein a display that prompts photographing of at least one part is performed.
前記選択手段により選択された被写体に応じて、撮影を促す表示を行なう部位の数を異ならせることを特徴とする請求項6記載の撮像装置。 The display control means includes
The imaging apparatus according to claim 6, wherein the number of parts to be displayed for prompting photographing is varied according to the subject selected by the selection unit.
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により撮像された全ての部位の画像データに基づいて、被写体の種類を判定することを特徴とする請求項6又は7記載の撮像装置。 The first subject determination means includes
When the display control means performs a display prompting imaging of a plurality of parts, the image data of all parts imaged by the imaging means is displayed according to the display prompting imaging of the part displayed by the display control means. 8. The imaging apparatus according to claim 6, wherein the type of the subject is determined based on the determination.
前記表示制御手段により複数の部位の撮影を促す表示が行われる場合は、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段により最初に撮像される部位の画像データに基づいて被写体の種類を判定し、該被写体の種類を判定することができなかった場合は、被写体の種類が判定できるまで、前記表示制御手段により表示された部位の撮影を促す表示にしたがって、前記撮像手段によりその後撮像される各部位の画像データに基づいて被写体の種類の判定を行なっていくことを特徴とする請求項6又は7記載の撮像装置。 The first subject determination means includes
In the case where the display controller prompts the imaging of a plurality of parts, the image data of the part first imaged by the imaging unit is displayed according to the display prompting the imaging of the part displayed by the display controller. The type of the subject is determined based on the display, and if the type of the subject cannot be determined, the display control means is configured to display the portion displayed by the display control unit until the type of the subject can be determined. 8. The imaging apparatus according to claim 6, wherein the type of the subject is determined based on image data of each part that is subsequently imaged by the imaging means.
前記表示制御手段、前記第1の被写体判定手段は、
前記第2の被写体判定手段により被写体の種類を判定することができなかった場合に、動作を実行することを特徴とする請求項1乃至9の何れかに記載の撮像装置。 A second subject determination unit that determines the type of the subject based on the image data of the entire subject imaged by the imaging unit before the display control unit prompts the imaging of the part.
The display control means and the first subject determination means are
10. The image pickup apparatus according to claim 1, wherein an operation is executed when a type of a subject cannot be determined by the second subject determination unit. 11.
前記選択手段は、
前記リスト表示制御手段によりリスト表示された複数の被写体の中から、ユーザの操作にしたがって任意の被写体を選択することを特徴とする請求項1乃至10の何れかに記載の撮像装置。 Provided with a list display control means for displaying a list of a plurality of subjects,
The selection means includes
The imaging apparatus according to claim 1, wherein an arbitrary subject is selected from a plurality of subjects displayed in a list by the list display control unit in accordance with a user operation.
前記第2の被写体判定手段により一致度が高いと判定された被写体順、又は、一致度が高い被写体のみをリスト表示させることを特徴とする請求項11記載の撮像装置。 The list display control means includes
12. The imaging apparatus according to claim 11, wherein only a subject in which the degree of coincidence is determined to be high by the second subject determination unit or a subject having a high degree of coincidence is displayed in a list.
前記撮像手段により撮像された画像データに対する画像認識に基づいて、被写体を選択することを特徴とする請求項1乃至12の何れかに記載の撮像装置。 The selection means includes
The imaging apparatus according to claim 1, wherein a subject is selected based on image recognition for image data captured by the imaging unit.
被写体を選択する選択処理と、
前記選択処理により選択された被写体に応じて異なる、該被写体の部位の撮影を促す表示を行なう表示制御処理と、
前記表示制御処理により表示された部位の撮影の促しにしたがって、前記撮像処理により撮像された部位の画像データに基づいて、被写体の種類を判定する被写体判定処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。
Imaging processing for imaging a subject using an imaging element;
A selection process for selecting a subject,
Display control processing for performing display for prompting photographing of a portion of the subject, which differs depending on the subject selected by the selection processing;
Subject determination processing for determining the type of subject based on image data of the part imaged by the imaging process in accordance with the prompting of imaging of the part displayed by the display control process;
A program characterized by causing a computer to execute the processes described above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007167537A JP2009010472A (en) | 2007-06-26 | 2007-06-26 | Imaging device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007167537A JP2009010472A (en) | 2007-06-26 | 2007-06-26 | Imaging device and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009010472A true JP2009010472A (en) | 2009-01-15 |
Family
ID=40325148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007167537A Pending JP2009010472A (en) | 2007-06-26 | 2007-06-26 | Imaging device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009010472A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012203848A (en) * | 2011-03-28 | 2012-10-22 | Japan Research Institute Ltd | Photographing support device and photographing support method |
WO2013099473A1 (en) * | 2011-12-27 | 2013-07-04 | ソニー株式会社 | Server |
JP2015082822A (en) * | 2013-10-24 | 2015-04-27 | オリンパス株式会社 | Image display terminal, image display method, and program |
WO2020080140A1 (en) * | 2018-10-19 | 2020-04-23 | ソニー株式会社 | Sensor device and signal processing method |
JP2022512125A (en) * | 2018-12-06 | 2022-02-02 | 華為技術有限公司 | Methods and Electronic Devices for Taking Long Exposure Images |
-
2007
- 2007-06-26 JP JP2007167537A patent/JP2009010472A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012203848A (en) * | 2011-03-28 | 2012-10-22 | Japan Research Institute Ltd | Photographing support device and photographing support method |
WO2013099473A1 (en) * | 2011-12-27 | 2013-07-04 | ソニー株式会社 | Server |
JP2015082822A (en) * | 2013-10-24 | 2015-04-27 | オリンパス株式会社 | Image display terminal, image display method, and program |
WO2015060075A1 (en) * | 2013-10-24 | 2015-04-30 | オリンパス株式会社 | Image display terminal, image display method, and program |
US10178320B2 (en) | 2013-10-24 | 2019-01-08 | Olympus Corporation | Image display terminal, image display method, and non-transitory computer readable recording medium storing program |
WO2020080140A1 (en) * | 2018-10-19 | 2020-04-23 | ソニー株式会社 | Sensor device and signal processing method |
US11495008B2 (en) | 2018-10-19 | 2022-11-08 | Sony Group Corporation | Sensor device and signal processing method |
US11785183B2 (en) | 2018-10-19 | 2023-10-10 | Sony Group Corporation | Sensor device and signal processing method |
JP2022512125A (en) * | 2018-12-06 | 2022-02-02 | 華為技術有限公司 | Methods and Electronic Devices for Taking Long Exposure Images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
US8611605B2 (en) | Image pick-up apparatus having a function of recognizing a face and method of controlling the apparatus | |
JP4518157B2 (en) | Imaging apparatus and program thereof | |
JP5293206B2 (en) | Image search apparatus, image search method and program | |
JP4900014B2 (en) | Imaging apparatus and program thereof | |
JP2007010898A (en) | Imaging apparatus and program therefor | |
JP2008009263A (en) | Imaging device and program therefor | |
JP4974812B2 (en) | Electronic camera | |
CN101262561B (en) | Imaging apparatus and control method thereof | |
JP2006025238A (en) | Imaging device | |
JP5030022B2 (en) | Imaging apparatus and program thereof | |
JP2011182252A (en) | Imaging device, and image imaging method | |
JP4853707B2 (en) | Imaging apparatus and program thereof | |
CN108471503A (en) | Picture pick-up device and its control method | |
JP2009141475A (en) | Camera | |
JP2009010472A (en) | Imaging device and program thereof | |
JP4492273B2 (en) | Imaging apparatus and program | |
JP5178441B2 (en) | Electronic camera | |
JP4989362B2 (en) | IMAGING DEVICE, THROUGH IMAGE DISPLAY METHOD, AND CAPTURED IMAGE RECORDING METHOD | |
JP5206422B2 (en) | Composition selection device and program | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP4553134B2 (en) | Image generating apparatus and program thereof | |
JP4849330B2 (en) | Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program | |
JP5297766B2 (en) | Electronic camera | |
JP5217843B2 (en) | Composition selection apparatus, composition selection method and program |