JP2012151886A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2012151886A
JP2012151886A JP2012060250A JP2012060250A JP2012151886A JP 2012151886 A JP2012151886 A JP 2012151886A JP 2012060250 A JP2012060250 A JP 2012060250A JP 2012060250 A JP2012060250 A JP 2012060250A JP 2012151886 A JP2012151886 A JP 2012151886A
Authority
JP
Japan
Prior art keywords
imaging
image
object scene
processing
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012060250A
Other languages
Japanese (ja)
Other versions
JP5188633B2 (en
JP2012151886A5 (en
Inventor
Wataru Takayanagi
渉 高柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012060250A priority Critical patent/JP5188633B2/en
Publication of JP2012151886A publication Critical patent/JP2012151886A/en
Publication of JP2012151886A5 publication Critical patent/JP2012151886A5/ja
Application granted granted Critical
Publication of JP5188633B2 publication Critical patent/JP5188633B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the usability of a camera.SOLUTION: An image sensor 18 has an imaging surface for capturing a subject field, and outputs raw image data repeatedly. A CPU 40 displays a through image based on the raw image data output from the image sensor 18 on an LCD monitor 32 in parallel with image processing, and detects the attributes (=imaging position, imaging direction, angle of view, focus distance) of the subject field captured by the imaging surface repeatedly in parallel with image processing. The CPU 40 also acquires a sample image where an object existing in the subject field captured by the imaging surface appears from an external server based at least on some attributes of the subject field, and displays the sample image thus acquired on the LCD monitor 32 in parallel with the through image.

Description

この発明は、電子カメラに関し、特に撮像面によって捉えられた被写界の属性を繰り返
し検出する、電子カメラに関する。
The present invention relates to an electronic camera, and more particularly to an electronic camera that repeatedly detects an attribute of a scene captured by an imaging surface.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、撮影
部によって捉えられた被写体を表す画像は、表示部によって画面に表示される。また、フ
ラッシュメモリは、装置本体の位置周囲を含む地図,地図上に存在するオブジェクトの名
称,およびオブジェクトの高さを含む地図情報を記憶する。さらに、装置本体の位置およ
び方位は、測位部および方位センサによってそれぞれ検出される。表示制御部は、測位部
および方位センサによって検出された位置および方位に基づいて被写体の名称と高さを地
図情報から抽出し、抽出された名称と高さを画面に多重表示する。これによって、所望の
被写体をユーザが誤認する事態が防止される。
An example of this type of camera is disclosed in Patent Document 1. According to this background art, an image representing a subject captured by the photographing unit is displayed on the screen by the display unit. Further, the flash memory stores a map including the surroundings of the position of the apparatus main body, the name of the object existing on the map, and the map information including the height of the object. Further, the position and orientation of the apparatus main body are detected by the positioning unit and the orientation sensor, respectively. The display control unit extracts the name and height of the subject from the map information based on the position and direction detected by the positioning unit and the direction sensor, and multiplex-displays the extracted name and height on the screen. This prevents a user from misidentifying a desired subject.

特開2008−131217号公報JP 2008-131217 A

しかし、背景技術では、撮影された被写体を表す画像を保存することを想定しておらず
、画像の保存に関連する使い勝手に限界がある。
However, in the background art, it is not assumed that an image representing a photographed subject is stored, and there is a limit to the ease of use related to image storage.

それゆえに、この発明の主たる目的は、使い勝手を高めることができる、電子カメラを
提供することである。
Therefore, a main object of the present invention is to provide an electronic camera capable of enhancing usability.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、被写界を捉
える撮像面を有し、被写界像を繰り返し出力する撮像手段(18)、撮像手段から出力された
被写界像を撮像手段の処理と並列して表示する第1表示手段(S3)、撮像面によって捉えら
れた被写界の属性を撮像手段の処理と並列して繰り返し検出する属性検出手段(S63, S67~
S69, S75)、撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を属
性検出手段によって検出された属性の少なくとも一部に基づいて取得する取得手段(S83~S
89)、および取得手段によって取得されたサンプル画像を第1表示手段の処理と並列して
表示する第2表示手段(S91)を備える。
An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) has an imaging surface that captures an object scene, and outputs an image from the imaging means (18) that repeatedly outputs the object scene image. Display means (S3) for displaying the captured scene image in parallel with the processing of the imaging means, and attribute detection for repeatedly detecting the attribute of the scene captured by the imaging surface in parallel with the processing of the imaging means Means (S63, S67 ~
S69, S75), acquisition means for acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least part of the attributes detected by the attribute detection means (S83 to S)
89) and second display means (S91) for displaying the sample image obtained by the obtaining means in parallel with the processing of the first display means.

好ましくは、取得手段によって取得されたサンプル画像に対応する被写界が捉えられる
位置を第2表示手段の処理に関連して出力する報知手段(S93, S97~S103)がさらに備えら
れる。
Preferably, a notification unit (S93, S97 to S103) is further provided for outputting a position where the object scene corresponding to the sample image acquired by the acquisition unit is captured in relation to the processing of the second display unit.

好ましくは、取得手段によって取得されたサンプル画像の品質を定義するパラメータを
取得手段の取得処理に関連して検出するパラメータ検出手段(S93)、および検出手段によ
って検出されたパラメータを第2表示手段によって表示されたサンプル画像に対する第1
既定操作に応答して設定するパラメータ設定手段(S23, S27~S29)がさらに備えられる。
Preferably, parameter detection means (S93) for detecting a parameter defining the quality of the sample image acquired by the acquisition means in relation to the acquisition process of the acquisition means, and the parameter detected by the detection means by the second display means The first for the displayed sample image
Parameter setting means (S23, S27 to S29) for setting in response to the default operation is further provided.

さらに好ましくは、第1既定操作の後の第2既定操作に応答して第2表示手段の処理を
停止する停止手段(S31~S33)、および撮像手段から出力された被写界像を第2既定操作の
後の第3既定操作に応答して記録する記録手段(S39, S43~S45)がさらに備えられる。
More preferably, the stop means (S31 to S33) for stopping the processing of the second display means in response to the second predetermined operation after the first predetermined operation, and the object scene image output from the imaging means is the second Recording means (S39, S43 to S45) for recording in response to the third default operation after the default operation is further provided.

好ましくは、取得手段は、属性を含む画像要求を通信回線に接続された外部装置に送信
する送信手段(S83)、および送信手段の処理に対して外部装置から返送されたサンプル画
像を受信する受信手段(S85)を含む。
Preferably, the acquisition unit transmits the image request including the attribute to the external device connected to the communication line, and receives the sample image returned from the external device in response to the processing of the transmission unit. Means (S85).

さらに好ましくは、送信手段の処理に先立つ特定タイミングで撮像手段から出力された
被写界像を抽出する抽出手段(S81)がさらに備えられ、送信手段によって送信される画像
要求は抽出手段によって抽出された被写界像をさらに含む。
More preferably, an extraction means (S81) for extracting an object scene image output from the imaging means at a specific timing prior to processing of the transmission means is further provided, and an image request transmitted by the transmission means is extracted by the extraction means. In addition, the object scene image.

好ましくは、第1表示手段の処理と並列してズーム倍率を調整する第1調整手段(S13~S
15)がさらに備えられ、属性検出手段は第1調整手段によって調整されたズーム倍率に対
応する画角を属性の一部として検出する第1部分属性検出手段(S69)を含む。
Preferably, first adjustment means (S13 to S13) for adjusting the zoom magnification in parallel with the processing of the first display means.
15), and the attribute detecting means includes first partial attribute detecting means (S69) for detecting the angle of view corresponding to the zoom magnification adjusted by the first adjusting means as part of the attribute.

好ましくは、撮像面の前方に設けられたフォーカスレンズ(14)、およびフォーカスレン
ズと撮像面との間隔を撮像手段から出力された被写界像に基づいて継続的に調整する第2
調整手段(S51~S59)がさらに備えられ、属性検出手段は第2調整手段によって調整された
間隔に対応する合焦距離を属性の一部として検出する第2部分属性検出手段(S75)を含む
Preferably, a focus lens (14) provided in front of the imaging surface, and a second that continuously adjusts the distance between the focus lens and the imaging surface based on the object scene image output from the imaging means.
Adjustment means (S51 to S59) is further provided, and the attribute detection means includes second partial attribute detection means (S75) for detecting a focusing distance corresponding to the interval adjusted by the second adjustment means as part of the attribute. .

好ましくは、属性検出手段は撮像面の位置および/または向きを属性の一部として検出
する第3部分属性検出手段(S63, S67)をさらに含む。
Preferably, the attribute detection means further includes third partial attribute detection means (S63, S67) for detecting the position and / or orientation of the imaging surface as a part of the attribute.

この発明に従う撮像制御プログラムは、被写界を捉える撮像面を有し、被写界像を繰り
返し出力する撮像手段(18)を備える電子カメラ(10)のプロセッサ(40)に、撮像手段から出
力された被写界像を撮像手段の処理と並列して表示する第1表示ステップ(S3)、撮像面に
よって捉えられた被写界の属性を撮像手段の処理と並列して繰り返し検出する属性検出ス
テップ(S63, S67~S69, S75)、撮像面によって捉えられた被写界に存在する物体が現れた
サンプル画像を属性検出ステップによって検出された属性の少なくとも一部に基づいて取
得する取得ステップ(S83~S89)、および取得ステップによって取得されたサンプル画像を
第1表示ステップの処理と並列して表示する第2表示ステップ(S91)を実行させるための
、撮像制御プログラムである。
An imaging control program according to the present invention outputs an image from an imaging means to a processor (40) of an electronic camera (10) having an imaging surface for capturing an object scene and including an imaging means (18) for repeatedly outputting an object scene image. A first display step (S3) for displaying the captured scene image in parallel with the processing of the imaging means, and attribute detection for repeatedly detecting the attribute of the scene captured by the imaging surface in parallel with the processing of the imaging means Step (S63, S67 to S69, S75), an acquisition step of acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection step ( This is an imaging control program for executing S83 to S89) and a second display step (S91) for displaying the sample image acquired in the acquisition step in parallel with the processing of the first display step.

この発明に従う撮像制御方法は、被写界を捉える撮像面を有し、被写界像を繰り返し出
力する撮像手段(18)を備える電子カメラ(10)によって実行される撮像制御方法であって、
撮像手段から出力された被写界像を撮像手段の処理と並列して表示する第1表示ステップ
(S3)、撮像面によって捉えられた被写界の属性を撮像手段の処理と並列して繰り返し検出
する属性検出ステップ(S63, S67~S69, S75)、撮像面によって捉えられた被写界に存在す
る物体が現れたサンプル画像を属性検出ステップによって検出された属性の少なくとも一
部に基づいて取得する取得ステップ(S83~S89)、および取得ステップによって取得された
サンプル画像を第1表示ステップの処理と並列して表示する第2表示ステップ(S91)を備
える。
The imaging control method according to the present invention is an imaging control method executed by an electronic camera (10) having an imaging surface for capturing an object scene and including an imaging means (18) for repeatedly outputting an object scene image,
A first display step of displaying the object scene image output from the imaging means in parallel with the processing of the imaging means;
(S3), an attribute detection step (S63, S67 to S69, S75) for repeatedly detecting the attributes of the scene captured by the imaging plane in parallel with the processing of the imaging means, and for the scene captured by the imaging plane. An acquisition step (S83 to S89) for acquiring a sample image in which an existing object appears based on at least part of the attribute detected by the attribute detection step, and a process of the first display step for the sample image acquired by the acquisition step And a second display step (S91) for displaying in parallel.

この発明に従う外部制御プログラムは、被写界を捉える撮像面を有し、被写界像を繰り
返し出力する撮像手段(18)、およびメモリ(52)に保存された内部制御プログラムに従う処
理を実行するプロセッサ(40)を備える電子カメラ(10)に供給される外部制御プログラムで
あって、撮像手段から出力された被写界像を撮像手段の処理と並列して表示する第1表示
ステップ(S3)、撮像面によって捉えられた被写界の属性を撮像手段の処理と並列して繰り
返し検出する属性検出ステップ(S63, S67~S69, S75)、撮像面によって捉えられた被写界
に存在する物体が現れたサンプル画像を属性検出ステップによって検出された属性の少な
くとも一部に基づいて取得する取得ステップ(S83~S89)、および取得ステップによって取
得されたサンプル画像を第1表示ステップの処理と並列して表示する第2表示ステップ(S
91)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラ
ムである。
An external control program according to the present invention has an imaging surface for capturing an object scene, and executes processing according to an image pickup means (18) for repeatedly outputting the object scene image and an internal control program stored in a memory (52). A first display step (S3), which is an external control program supplied to an electronic camera (10) having a processor (40) and displays an object scene image output from the imaging means in parallel with the processing of the imaging means Attribute detection step (S63, S67 to S69, S75) that repeatedly detects the attributes of the scene captured by the imaging plane in parallel with the processing of the imaging means, objects existing in the scene captured by the imaging plane An acquisition step (S83 to S89) for acquiring a sample image on which the image appears on the basis of at least a part of the attribute detected by the attribute detection step, and the sample image acquired by the acquisition step in the first display step A second display step of displaying by column (S
91) is an external control program for causing the processor to execute in cooperation with the internal control program.

この発明に従う電子カメラ(10)は、被写界を捉える撮像面を有し、被写界像を繰り返し
出力する撮像手段(18)、外部制御プログラムを取り込む取り込み手段(54)、および取り込
み手段によって取り込まれた外部制御プログラムとメモリ(52)に保存された内部制御プロ
グラムとに従う処理を実行するプロセッサ(40)を備える電子カメラであって、外部制御プ
ログラムは、撮像手段から出力された被写界像を撮像手段の処理と並列して表示する第1
表示ステップ(S3)、撮像面によって捉えられた被写界の属性を撮像手段の処理と並列して
繰り返し検出する属性検出ステップ(S63, S67~S69, S75)、撮像面によって捉えられた被
写界に存在する物体が現れたサンプル画像を属性検出ステップによって検出された属性の
少なくとも一部に基づいて取得する取得ステップ(S83~S89)、および取得ステップによっ
て取得されたサンプル画像を第1表示ステップの処理と並列して表示する第2表示ステッ
プ(S91)を内部制御プログラムと協働して実行するプログラムに相当する。
An electronic camera (10) according to the present invention has an imaging surface for capturing an object scene, an image pickup means (18) for repeatedly outputting the object scene image, an input means for acquiring an external control program (54), and an input means. An electronic camera comprising a processor (40) for executing processing according to a captured external control program and an internal control program stored in a memory (52), wherein the external control program is a field output from an imaging means. A first image is displayed in parallel with the processing of the imaging means.
Display step (S3), attribute detection step (S63, S67 to S69, S75) for detecting the attributes of the object scene captured by the imaging surface repeatedly in parallel with the processing of the imaging means, and the object captured by the imaging surface An acquisition step (S83 to S89) for acquiring a sample image in which an object existing in the field appears based on at least a part of the attribute detected by the attribute detection step, and a first display step of the sample image acquired by the acquisition step This corresponds to a program that executes the second display step (S91) displayed in parallel with the above processing in cooperation with the internal control program.

この発明によれば、被写界像とともに表示されるサンプル画像は、被写界に存在する物
体が現れた画像に相当する。撮影者は、表示された2つの画像を参照して撮影位置を決め
ることができる。こうして、カメラの使い勝手が向上する。
According to the present invention, the sample image displayed together with the object scene image corresponds to an image in which an object existing in the object scene appears. The photographer can determine the shooting position with reference to the two displayed images. Thus, the usability of the camera is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の
実施例の詳細な説明から一層明らかとなろう。
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 図2実施例に適用されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register applied to the embodiment in FIG. 2; (A)は画像表示動作の一部を示す図解図であり、(B)は画像表示動作の他の一部を示す図解図である。(A) is an illustrative view showing a part of an image display operation, and (B) is an illustrative view showing another part of the image display operation. (A)は画像表示動作のその他の一部を示す図解図であり、(B)は画像表示動作のさらにその他の一部を示す図解図である。(A) is an illustrative view showing another part of the image display operation, and (B) is an illustrative view showing still another part of the image display operation. (A)は画像表示動作の他の一部を示す図解図であり、(B)は画像表示動作のその他の一部を示す図解図である。(A) is an illustrative view showing another part of the image display operation, and (B) is an illustrative view showing another part of the image display operation. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2;

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手
段1は、被写界を捉える撮像面を有し、被写界像を繰り返し出力する。第1表示手段2は
、撮像手段1から出力された被写界像を撮像手段1の処理と並列して表示する。属性検出
手段3は、撮像面によって捉えられた被写界の属性を撮像手段1の処理と並列して繰り返
し検出する。取得手段4は、撮像面によって捉えられた被写界に存在する物体が現れたサ
ンプル画像を属性検出手段3によって検出された属性の少なくとも一部に基づいて取得す
る。第2表示手段5は、取得手段4によって取得されたサンプル画像を第1表示手段2の
処理と並列して表示する。
Referring to FIG. 1, the electronic camera of this embodiment is basically configured as follows. The imaging means 1 has an imaging surface that captures the object scene and repeatedly outputs the object scene image. The first display unit 2 displays the object scene image output from the imaging unit 1 in parallel with the processing of the imaging unit 1. The attribute detection unit 3 repeatedly detects the attribute of the object scene captured by the imaging surface in parallel with the processing of the imaging unit 1. The acquisition unit 4 acquires a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attributes detected by the attribute detection unit 3. The second display unit 5 displays the sample image acquired by the acquisition unit 4 in parallel with the processing of the first display unit 2.

被写界像とともに表示されるサンプル画像は、被写界に存在する物体が現れた画像に相
当する。撮影者は、表示された2つの画像を参照して撮影位置を決めることができる。こ
うして、カメラの使い勝手が向上する。
[実施例]
The sample image displayed together with the object scene image corresponds to an image in which an object existing in the object scene appears. The photographer can determine the shooting position with reference to the two displayed images. Thus, the usability of the camera is improved.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ20a,20bおよ
び20cによってそれぞれ駆動されるズームレンズ12,フォーカスレンズ14および絞
り機構16を含む。これらの部材を経た被写界の光学像は、撮像装置18の撮像面に照射
され、光電変換を施される。これによって、被写界像を表す電荷が生成される。
Referring to FIG. 2, the digital camera 10 of this embodiment includes a zoom lens 12, a focus lens 14 and an aperture mechanism 16 driven by drivers 20a, 20b and 20c, respectively. The optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the imaging device 18 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.

電源が投入されると、CPU40は、撮像タスクの下で動画取り込み処理を実行するべ
く、ドライバ20dに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ
20dは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsy
ncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す
。撮像装置18からは、読み出された電荷に基づく生画像データが周期的に出力される。
When the power is turned on, the CPU 40 instructs the driver 20d to repeat the exposure operation and the charge readout operation in order to execute the moving image capturing process under the imaging task. The driver 20d receives a vertical synchronization signal Vsy generated periodically from an SG (Signal Generator) (not shown).
In response to nc, the imaging surface is exposed, and the charges generated on the imaging surface are read out in a raster scanning manner. From the imaging device 18, raw image data based on the read charges is periodically output.

カメラ処理回路22は、撮像装置18から出力された生画像データに色分離,白バラン
ス調整,YUV変換などの処理を施し、これによって生成されたYUV形式の画像データ
をメモリ制御回路24を通してSDRAM26のYUV画像エリア26a(図3参照)に
書き込む。LCDドライバ28は、YUV画像エリア26aに格納された画像データをメ
モリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCD
モニタ32を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ
画面に表示される。
The camera processing circuit 22 performs processing such as color separation, white balance adjustment, and YUV conversion on the raw image data output from the imaging device 18, and the YUV format image data generated thereby is stored in the SDRAM 26 through the memory control circuit 24. The data is written in the YUV image area 26a (see FIG. 3). The LCD driver 28 repeatedly reads out the image data stored in the YUV image area 26a through the memory control circuit 30, and based on the read image data, the LCD driver 28
The monitor 32 is driven. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen.

図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアE
VAは、水平方向および垂直方向の各々において16分割され、合計256個の分割エリ
アが評価エリアEVAを構成する。
Referring to FIG. 4, an evaluation area EVA is assigned to the center of the imaging surface. Evaluation area E
The VA is divided into 16 parts in each of the horizontal direction and the vertical direction, and a total of 256 divided areas constitute the evaluation area EVA.

AE/AF評価回路38は、カメラ処理回路22から出力されたYデータのうち評価エ
リアEVAに属するYデータを分割エリア毎に積分する。積分処理は、垂直同期信号Vs
yncが発生する毎に実行される。この結果、256個の積分値つまり256個のAE評
価値が、垂直同期信号Vsyncに応答してAE/AF評価回路38から出力される。A
E/AF評価回路38はまた、評価エリアEVAに属するYデータの高周波成分を分割エ
リア毎に積分する。この積分処理も、垂直同期信号Vsyncが発生する毎に実行される
。この結果、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsync
に応答してAE/AF評価回路38から出力される。
The AE / AF evaluation circuit 38 integrates Y data belonging to the evaluation area EVA among the Y data output from the camera processing circuit 22 for each divided area. The integration process is performed by the vertical synchronization signal Vs.
It is executed every time ync occurs. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE / AF evaluation circuit 38 in response to the vertical synchronization signal Vsync. A
The E / AF evaluation circuit 38 also integrates the high frequency component of the Y data belonging to the evaluation area EVA for each divided area. This integration process is also executed each time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values are converted into the vertical synchronization signal Vsync.
In response to the AE / AF evaluation circuit 38.

CPU40は、AE/AF評価回路38から出力された256個のAE評価値に基づい
て適正EV値を算出するべく、撮像タスクの下で簡易AE処理を実行する。算出された適
正EV値を定義する絞り量および露光時間は、ドライバ20cおよび20dにそれぞれ設
定される。この結果、LCDモニタ32から出力されるスルー画像の明るさが適度に調整
される。
The CPU 40 executes a simple AE process under the imaging task so as to calculate an appropriate EV value based on the 256 AE evaluation values output from the AE / AF evaluation circuit 38. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 20c and 20d, respectively. As a result, the brightness of the through image output from the LCD monitor 32 is appropriately adjusted.

キー入力装置50に設けられたズームボタン50zが操作されると、CPU40は、撮
像タスクの下でズーム処理を実行するべく、対応する命令をドライバ20aに与える。ズ
ームレンズ12はドライバ20aによって光軸方向に移動され、これによってスルー画像
の倍率が変化する。
When a zoom button 50z provided on the key input device 50 is operated, the CPU 40 gives a corresponding command to the driver 20a to execute zoom processing under the imaging task. The zoom lens 12 is moved in the optical axis direction by the driver 20a, thereby changing the magnification of the through image.

CPU40は、このような撮像タスクと並列するコンティニュアスAFタスクの下で、
AE/AF評価回路38から出力された256個のAF評価値を繰り返し取り込み、AF
起動条件が満足されるか否かを取り込まれたAF評価値に基づいて判別する。AF起動条
件が満足されると、CPU40は、同じAF評価値を参照したAF処理を実行する。フォ
ーカスレンズ14は、AF評価値の取り込みと並列してドライバ20bによって光軸方向
に移動され、AF評価値が基準を上回る位置に配置される。この結果、スルー画像の鮮鋭
度が継続的に向上する。
Under the continuous AF task in parallel with such an imaging task, the CPU 40
The 256 AF evaluation values output from the AE / AF evaluation circuit 38 are repeatedly fetched, and AF
Whether or not the activation condition is satisfied is determined based on the fetched AF evaluation value. When the AF activation condition is satisfied, the CPU 40 executes an AF process with reference to the same AF evaluation value. The focus lens 14 is moved in the optical axis direction by the driver 20b in parallel with the capture of the AF evaluation value, and is disposed at a position where the AF evaluation value exceeds the reference. As a result, the sharpness of the through image is continuously improved.

キー入力装置50に設けられたシャッタボタン50sが半押しされると、コンティニュ
アスAFタスクが停止される。CPU40は、最適EV値を算出するべく、撮像タスクの
下で厳格AE処理を実行する。この結果、AE/AF評価回路38から出力された256
個のAE評価値に基づいて最適EV値が算出され、算出された最適EV値を定義する絞り
量および露光時間がドライバ20cおよび20dにそれぞれ設定される。スルー画像の明
るさは、最適値に調整される。
When the shutter button 50s provided on the key input device 50 is half-pressed, the continuous AF task is stopped. The CPU 40 executes a strict AE process under the imaging task in order to calculate the optimum EV value. As a result, the 256 output from the AE / AF evaluation circuit 38.
An optimum EV value is calculated based on the individual AE evaluation values, and an aperture amount and an exposure time that define the calculated optimum EV value are set in the drivers 20c and 20d, respectively. The brightness of the through image is adjusted to an optimum value.

CPU40は続いて、厳格AF処理を実行する。厳格AF処理もまた、フォーカスレン
ズ14の移動処理と並列して取り込まれるAF評価値を参照して実行される。フォーカス
レンズ14はAF評価値が最大値を示す位置に配置され、これによってスルー画像の鮮鋭
度が最適値に調整される。
Subsequently, the CPU 40 executes a strict AF process. The strict AF process is also executed with reference to the AF evaluation value taken in parallel with the movement process of the focus lens 14. The focus lens 14 is disposed at a position where the AF evaluation value shows the maximum value, and thereby the sharpness of the through image is adjusted to the optimum value.

シャッタボタン50sが全押しされると、静止画取り込み処理および記録処理が実行さ
れる。静止画取り込み処理の結果、シャッタボタン50sが全押しされた時点の被写界を
表す1フレームの画像データがSDRAM26の静止画像エリア26b(図3参照)に退
避される。また、記録処理の結果、記録命令がメモリI/F34に向けて発行される。メ
モリI/F34は、静止画像エリア26bに退避された1フレームの画像データをメモリ
制御回路24を通して読み出し、読み出された画像データをファイル形式で記録媒体36
に記録する。停止したコンティニュアスAFタスクは、記録処理が完了した後に再起動さ
れる。
When the shutter button 50s is fully pressed, a still image capturing process and a recording process are executed. As a result of the still image capturing process, one frame of image data representing the scene when the shutter button 50s is fully pressed is saved in the still image area 26b (see FIG. 3) of the SDRAM 26. As a result of the recording process, a recording command is issued toward the memory I / F 34. The memory I / F 34 reads one frame of image data saved in the still image area 26b through the memory control circuit 24, and reads the read image data in a file format in the recording medium 36.
To record. The stopped continuous AF task is restarted after the recording process is completed.

キー入力装置50に設けられたモードスイッチ50mによって撮像支援モードが選択さ
れると、撮像支援タスクが起動され、以下の支援処理がCPU40によって実行される。
When the imaging support mode is selected by the mode switch 50m provided in the key input device 50, the imaging support task is activated, and the following support processing is executed by the CPU 40.

まず、位置検出周期が到来する毎に、GPS装置42の出力に基づいて現在位置が検出
される。また、検出された現在位置の周辺に存在する1または2以上の撮影スポットが、
フラッシュメモリ52に設けられた内部データベース52dbから抽出される。抽出され
た撮影スポットの名称および位置は、撮影スポット情報として図5に示すレジスタRGS
Tに設定される。
First, every time the position detection cycle arrives, the current position is detected based on the output of the GPS device 42. Also, one or more shooting spots existing around the detected current position are
Extracted from the internal database 52db provided in the flash memory 52. The names and positions of the extracted shooting spots are registered in the register RGS shown in FIG. 5 as shooting spot information.
Set to T.

さらに、位置検出周期の到来に関係なく、撮像方向がコンパス44,高度計46および
水準器48の出力に基づいて繰り返し検出され、撮像画角がズームレンズ12の位置つま
りズーム倍率に基づいて繰り返し検出され、そして検出された撮像方向および撮像画角に
対応する一部の撮影スポット情報つまり撮像装置18によって捉えられた1または2以上
の撮影スポットの情報がレジスタRGSTから抽出される。キャラクタジェネレータ30
には、抽出された撮影スポット情報に対応するタグを出力すべき旨の命令が与えられる。
Further, regardless of the arrival of the position detection cycle, the imaging direction is repeatedly detected based on the outputs of the compass 44, the altimeter 46, and the level 48, and the imaging field angle is repeatedly detected based on the position of the zoom lens 12, that is, the zoom magnification. Then, a part of shooting spot information corresponding to the detected imaging direction and imaging angle of view, that is, information of one or more shooting spots captured by the imaging device 18 is extracted from the register RGST. Character generator 30
Is given a command to output a tag corresponding to the extracted shooting spot information.

キャラクタジェネレータ30は、出力すべきタグを表すキャラクタデータを作成し、作
成されたキャラクタデータをLCDドライバ28に与える。LCDドライバ28は、キャ
ラクタジェネレータ30から与えられたキャラクタデータに基づいてLCDモニタ32を
駆動する。この結果、撮影スポットの名称が記述されたタグが、スルー画像に現れた撮影
スポットに対応して画面に表示される。
The character generator 30 creates character data representing a tag to be output, and gives the created character data to the LCD driver 28. The LCD driver 28 drives the LCD monitor 32 based on the character data given from the character generator 30. As a result, the tag describing the name of the shooting spot is displayed on the screen in correspondence with the shooting spot appearing in the through image.

図6(A)に示す被写界が捉えられたときは、“京都タワー”および“京都駅”の名称
がそれぞれ記述された2つのタグが図6(B)に示す要領でスルー画像に多重される。ま
た、図7(A)に示す被写界が捉えられたときは、“東寺”の名称が記述されたタグが図
7(B)に示す要領でスルー画像に多重される。
When the object scene shown in FIG. 6 (A) is captured, two tags each having the names “Kyoto Tower” and “Kyoto Station” are multiplexed on the through image as shown in FIG. 6 (B). Is done. When the object scene shown in FIG. 7A is captured, a tag in which the name “Toji” is described is multiplexed on the through image as shown in FIG. 7B.

キー入力装置50に設けられたサンプル画像ボタン50pが操作されると、フォーカス
レンズ14の位置に基づいて合焦距離が算出され、現時点で捉えられている被写界が遠景
であるか否かが算出された合焦距離に基づいて判別される。さらに、インターネットへの
接続が可能であるか否かが、通信I/F54の出力に基づいて判別される。現時点で捉え
られている被写界が遠景ではなく、かつインターネットへの接続が可能であれば、上述と
同様の静止画取り込み処理が実行される。この結果、最新1フレームの画像データがYU
V画像エリア26aから静止画像エリア26bに退避される。
When the sample image button 50p provided on the key input device 50 is operated, the in-focus distance is calculated based on the position of the focus lens 14, and it is determined whether or not the object scene currently captured is a distant view. A determination is made based on the calculated focus distance. Further, whether or not connection to the Internet is possible is determined based on the output of the communication I / F 54. If the scene currently captured is not a distant view and can be connected to the Internet, a still image capturing process similar to that described above is executed. As a result, the latest one frame of image data is YU.
The V image area 26a is saved to the still image area 26b.

続いて、上述の要領で検出ないし算出された撮像位置,撮像方向および合焦距離と静止
画像エリア26bに退避された画像データとが埋め込まれたサンプル画像要求が作成され
、作成されたサンプル画像要求が通信I/F54を通して外部サーバに送信される。サン
プル画像要求は、インターネットを経由して外部サーバに転送される。
Subsequently, a sample image request is created in which the imaging position, imaging direction and focusing distance detected or calculated in the manner described above and the image data saved in the still image area 26b are embedded, and the created sample image request Is transmitted to the external server through the communication I / F 54. The sample image request is transferred to an external server via the Internet.

外部サーバは、撮像装置18によって捉えられた物体が現れたサンプル画像データをサ
ンプル画像要求に含まれた撮像位置,撮像方向,合焦距離および画像データに基づいて外
部データベースから検索する。所望のサンプル画像データが発見されると、外部サーバは
、発見されたサンプル画像データをインターネットを介してディジタルカメラ10に返送
する。
The external server searches the external database for sample image data in which an object captured by the imaging device 18 appears based on the imaging position, imaging direction, focus distance, and image data included in the sample image request. When the desired sample image data is found, the external server returns the found sample image data to the digital camera 10 via the Internet.

返送されたサンプル画像データは、通信I/F54によって受信され、メモリ制御回路
24を通してSDRAM26のワークエリア26c(図3参照)に書き込まれる。書き込
みが完了すると、サンプル画像を表示すべき旨の命令がLCDモニタ32に与えられる。
The returned sample image data is received by the communication I / F 54, and is written into the work area 26c (see FIG. 3) of the SDRAM 26 through the memory control circuit 24. When the writing is completed, an instruction to display the sample image is given to the LCD monitor 32.

LCDドライバ28は、YUV画像エリア26aに格納された画像データとワークエリ
ア26cに格納されたサンプル画像データとをメモリ制御回路24を通して選択的に読み
出し、読み出された画像データに基づいてLCDモニタ32を駆動する。この結果、サン
プル画像とスルー画像とを合成した合成画像がLCDモニタ32に表示される。
The LCD driver 28 selectively reads out the image data stored in the YUV image area 26a and the sample image data stored in the work area 26c through the memory control circuit 24, and the LCD monitor 32 based on the read image data. Drive. As a result, a composite image obtained by combining the sample image and the through image is displayed on the LCD monitor 32.

したがって、図7(A)に示す被写界が捉えられているときにサンプル画像ボタン50
pが操作されると、サンプル画像SPLが図7(B)に示す要領でスルー画像に合成され
る。
Therefore, the sample image button 50 is displayed when the object scene shown in FIG.
When p is operated, the sample image SPL is combined with the through image in the manner shown in FIG.

外部サーバから返送されたサンプル画像データには、サンプル画像を撮影したときの露
光設定,フォーカス設定および撮像位置がサンプル画像情報として付随する。なお、説明
の便宜上、サンプル画像の撮影位置を特に“サンプル位置”と定義する。サンプル画像情
報はサンプル画像の表示が完了した後に検出され、図5に示すレジスタRGSTに設定さ
れる。過去にレジスタRGSTに設定されたサンプル画像情報は、新規のサンプル画像情
報によって更新される。
The sample image data returned from the external server is accompanied by the exposure setting, focus setting, and imaging position when the sample image is captured as sample image information. For convenience of explanation, the photographing position of the sample image is particularly defined as “sample position”. The sample image information is detected after the display of the sample image is completed, and is set in the register RGST shown in FIG. The sample image information set in the register RGST in the past is updated with new sample image information.

こうして設定されたサンプル画像情報がレジスタRGSTに存在し、かつサンプル位置
が撮像装置18によって捉えられていれば、サンプル位置を指向する矢印を出力すべき旨
の命令がキャラクタジェネレータ30に与えられる。キャラクタジェネレータ30は、出
力すべき矢印を表すキャラクタデータを作成し、作成されたキャラクタデータをLCDド
ライバ28に与える。LCDドライバ28は、キャラクタジェネレータ30から与えられ
たキャラクタデータに基づいてLCDモニタ32を駆動する。この結果、スルー画像に現
れたサンプル位置を指向する矢印が画面に表示される。
If the sample image information set in this way exists in the register RGST and the sample position is captured by the imaging device 18, an instruction to output an arrow pointing to the sample position is given to the character generator 30. The character generator 30 creates character data representing an arrow to be output, and provides the created character data to the LCD driver 28. The LCD driver 28 drives the LCD monitor 32 based on the character data given from the character generator 30. As a result, an arrow pointing to the sample position appearing in the through image is displayed on the screen.

したがって、図7(B)に示すサンプル画像に対応するサンプル位置が図7(A)に示
す被写界の左下に相当する場合は、矢印ARWが図7(B)に示す要領でスルー画像に合
成される。
Therefore, when the sample position corresponding to the sample image shown in FIG. 7B corresponds to the lower left of the object scene shown in FIG. 7A, the arrow ARW is changed to the through image as shown in FIG. 7B. Synthesized.

LCDモニタ32に表示されたサンプル画像に対するタッチ操作は、タッチセンサ56
によって検知される。タッチ操作が行われると、コンティニュアスAFタスクが停止され
、レジスタRGSTに登録されたサンプル画像情報を定義する露光設定およびフォーカス
設定が検出される。検出された露光設定を示す絞り量および露光時間はドライバ20cお
よび20dにそれぞれ設定され、検出されたフォーカス設定に従う位置はドライバ20b
に設定される。この結果、サンプル画像を撮影したときの露光設定およびフォーカス設定
がディジタルカメラ10において有効化される。
A touch operation on the sample image displayed on the LCD monitor 32 is performed by a touch sensor 56.
Detected by. When the touch operation is performed, the continuous AF task is stopped, and the exposure setting and the focus setting that define the sample image information registered in the register RGST are detected. The aperture amount and the exposure time indicating the detected exposure setting are set in the drivers 20c and 20d, respectively, and the position according to the detected focus setting is the driver 20b.
Set to As a result, the exposure setting and the focus setting when the sample image is taken are validated in the digital camera 10.

シャッタボタン50sが半押しされると、サンプル画像を非表示とすべき旨の命令がL
CDドライバ28に与えられる。LCDドライバ28は画像データの読み出し先をYUV
画像エリア26aに固定し、この結果、サンプル画像の表示が終了される。レジスタRG
STに設定されたサンプル画像情報は、サンプル画像の非表示の後に削除される。
When the shutter button 50s is half-pressed, an instruction to hide the sample image is L
It is given to the CD driver 28. The LCD driver 28 sets the image data read destination to YUV.
As a result, the display of the sample image is terminated. Register RG
The sample image information set to ST is deleted after the sample image is not displayed.

したがって、撮影者が図7(B)の矢印ARWが指向する位置(=サンプル位置)に移
動し、サンプル画像SPLを参考にして撮像方向および撮像画角を調整すると、LCDモ
ニタ32の表示は図7(B)に示す状態から図8(A)に示す状態に遷移する。この状態
でシャッタボタン50sが半押しされると、図8(B)に示すようにサンプル画像SPL
がモニタ画面から消失する。
Accordingly, when the photographer moves to the position (= sample position) where the arrow ARW in FIG. 7B is directed and adjusts the imaging direction and the imaging angle of view with reference to the sample image SPL, the display on the LCD monitor 32 is shown in FIG. Transition from the state shown in FIG. 7B to the state shown in FIG. When the shutter button 50s is half-pressed in this state, as shown in FIG. 8B, the sample image SPL
Disappears from the monitor screen.

続いてシャッタボタン50sが全押しされると、静止画取り込み処理および記録処理が
上述の要領で実行される。この結果、シャッタボタン50sが全押しされた時点の被写界
を表す1フレームの画像データがファイル形式で記録媒体36に記録される。停止したコ
ンティニュアスAFタスクは、記録処理が完了した後に再起動される。
Subsequently, when the shutter button 50s is fully pressed, the still image capturing process and the recording process are executed as described above. As a result, one frame of image data representing the scene at the time when the shutter button 50s is fully pressed is recorded on the recording medium 36 in the file format. The stopped continuous AF task is restarted after the recording process is completed.

CPU40は、図9〜図11に示す撮像タスク,図12に示すコンティニュアスAFタ
スクおよび図13〜図15に示す撮像支援タスクをマルチタスクOSの下で並列的に実行
する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ52に記憶
される。
The CPU 40 executes the imaging task shown in FIGS. 9 to 11, the continuous AF task shown in FIG. 12, and the imaging support task shown in FIGS. 13 to 15 in parallel under the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 52.

図9を参照して、ステップS1ではフラグFLGを“0”に設定する。フラグFLGは
サンプル画像データが取得されたか否かを識別するためのフラグであり、“0”が未だ取
得されていないことを示す一方、“1”が取得済みであることを示す。フラグFLGの設
定が完了すると、ステップS3で動画取込み処理を開始し、ステップS5でコンティニュ
アスAFタスクを起動する。動画取り込み処理が開始された結果、被写界を表すスルー画
像がLCDモニタ32に表示される。また、コンティニュアスAFタスクが起動された結
果、スルー画像の鮮鋭度が継続的に向上する。ステップS7ではフラグFLGが“0”を
示すか否かを判別し、判別結果がYESであればステップS9に進む一方、判別結果がN
OであればステップS23に進む。
Referring to FIG. 9, in step S1, flag FLG is set to “0”. The flag FLG is a flag for identifying whether or not sample image data has been acquired, and indicates that “0” has not yet been acquired, while “1” has already been acquired. When the setting of the flag FLG is completed, the moving image capturing process is started in step S3, and the continuous AF task is activated in step S5. As a result of starting the moving image capturing process, a through image representing the object scene is displayed on the LCD monitor 32. Further, as a result of the continuous AF task being activated, the sharpness of the through image is continuously improved. In step S7, it is determined whether or not the flag FLG indicates “0”. If the determination result is YES, the process proceeds to step S9 while the determination result is N
If it is O, the process proceeds to step S23.

ステップS9ではシャッタボタン50sが半押しされたか否かを判別し、判別結果がN
OであればステップS11で簡易AE処理を実行する。この結果、スルー画像の明るさが
適度に調整される。ステップS13ではズームボタン50zが操作されたか否かを判別し
、判別結果がNOであればそのままステップS7に戻る一方、判別結果がYESであれば
ステップS15でズーム処理を実行してからステップS7に戻る。ズーム処理の結果、ズ
ームレンズ12が光軸方向に移動し、スルー画像の倍率が変化する。
In step S9, it is determined whether or not the shutter button 50s is half-pressed, and the determination result is N.
If it is O, a simple AE process is executed in step S11. As a result, the brightness of the through image is appropriately adjusted. In step S13, it is determined whether or not the zoom button 50z has been operated. If the determination result is NO, the process directly returns to step S7. If the determination result is YES, the zoom process is performed in step S15, and then the process proceeds to step S7. Return. As a result of the zoom process, the zoom lens 12 moves in the optical axis direction, and the magnification of the through image changes.

ステップS9の判別結果がYESであれば、ステップS17でコンティニュアスAFタ
スクを停止し、ステップS19で厳格AE処理を実行し、そしてステップS21で厳格A
F処理を実行する。厳格AE処理の結果、スルー画像の明るさが厳格に調整される。また
、コンティニュアスAFタスクに代替して実行される厳格AF処理の結果、スルー画像の
鮮鋭度が厳格に調整される。ステップS21の処理が完了すると、図11に示すステップ
S39に進む。
If the decision result in the step S9 is YES, the continuous AF task is stopped in a step S17, the strict AE process is executed in a step S19, and the strict A is executed in a step S21.
F process is executed. As a result of the strict AE process, the brightness of the through image is adjusted strictly. Further, as a result of the strict AF process executed in place of the continuous AF task, the sharpness of the through image is strictly adjusted. When the process of step S21 is completed, the process proceeds to step S39 shown in FIG.

ステップS7の判別結果がNOである場合、LCDモニタ32にはサンプル画像が多重
表示され、レジスタRGSTにはサンプル画像情報が登録される。図9に示すステップS
23では、このサンプル画像に対するタッチ操作が行われたか否かを、タッチセンサ56
の出力に基づいて繰り返し判別する。判別結果がNOからYESに更新されると、ステッ
プS25でコンティニュアスAFタスクを停止する。
If the determination result in step S7 is NO, the sample image is displayed in multiple on the LCD monitor 32, and the sample image information is registered in the register RGST. Step S shown in FIG.
23, the touch sensor 56 indicates whether or not a touch operation has been performed on the sample image.
It repeatedly discriminates based on the output of. When the determination result is updated from NO to YES, the continuous AF task is stopped in step S25.

ステップS27では、レジスタRGSTに登録されたサンプル画像情報を形成する露光
設定およびフォーカス設定を検出する。ステップS29では、検出された露光設定を示す
絞り量および露光時間をドライバ20cおよび20dにそれぞれ設定し、検出されたフォ
ーカス設定に従う位置をドライバ20bに設定する。この結果、サンプル画像を撮影した
ときの露光設定およびフォーカス設定がディジタルカメラ10において有効化される。
In step S27, an exposure setting and a focus setting for forming sample image information registered in the register RGST are detected. In step S29, the aperture amount and the exposure time indicating the detected exposure setting are set in the drivers 20c and 20d, respectively, and the position according to the detected focus setting is set in the driver 20b. As a result, the exposure setting and the focus setting when the sample image is taken are validated in the digital camera 10.

ステップS31ではシャッタボタン50sが半押しされたか否かを判別し、判別結果が
NOからYESに更新されるとステップS33に進む。ステップS33では、サンプル画
像を非表示とするべく、対応する命令をLCDドライバ28に与える。LCDドライバ2
8は画像データの読み出し先をYUV画像エリア26aに固定し、この結果、サンプル画
像の表示が終了される。ステップS35ではレジスタRGSTに設定されたサンプル画像
情報を削除し、ステップS37ではフラグFLGを“0”に戻す。ステップS37の処理
が完了すると、ステップS39に進む。
In step S31, it is determined whether or not the shutter button 50s is half-pressed. If the determination result is updated from NO to YES, the process proceeds to step S33. In step S33, a corresponding command is given to the LCD driver 28 in order to hide the sample image. LCD driver 2
In 8, the image data read destination is fixed to the YUV image area 26a, and as a result, the display of the sample image is terminated. In step S35, the sample image information set in the register RGST is deleted, and in step S37, the flag FLG is returned to "0". When the process of step S37 is completed, the process proceeds to step S39.

ステップS39ではシャッタボタン50sが全押しされたか否かを判別し、ステップS
41ではシャッタボタン50sの操作が解除されたか否かを判別する。ステップS39で
YESであれば、ステップS43で静止画取り込み処理を実行し、ステップS45で記録
処理を実行し、その後にステップS47に進む。ステップS41でYESであれば、その
ままステップS47に進む。
In step S39, it is determined whether or not the shutter button 50s has been fully pressed.
In 41, it is determined whether or not the operation of the shutter button 50s is released. If “YES” in the step S39, a still image capturing process is executed in a step S43, a recording process is executed in a step S45, and then the process proceeds to a step S47. If “YES” in the step S41, the process proceeds to a step S47 as it is.

静止画取り込み処理の結果、シャッタボタン50sが全押しされた時点の被写界を表す
1フレームの画像データがYUV画像エリア26aから静止画像エリア26bに退避され
る。また、記録処理の結果、メモリI/F34が起動され、静止画像エリア26bに退避
された画像データがファイル形式で記録媒体36に記録される。ステップS47ではコン
ティニュアスAFタスクを再起動し、その後にステップS7に戻る。
As a result of the still image capturing process, one frame of image data representing the scene when the shutter button 50s is fully pressed is saved from the YUV image area 26a to the still image area 26b. As a result of the recording process, the memory I / F 34 is activated, and the image data saved in the still image area 26b is recorded in the recording medium 36 in a file format. In step S47, the continuous AF task is restarted, and then the process returns to step S7.

図12を参照して、ステップS51ではフォーカスレンズ14の位置を初期化し、ステ
ップS53では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOか
らYESに更新されると、AE/AF評価回路38から出力された256個のAF評価値
をステップS55で取り込む。ステップS57ではAF起動条件が満足されるか否かを取
り込まれたAF評価値に基づいて判別し、判別結果がNOであればステップS53に戻る
一方、判別結果がYESであればステップS59に進む。ステップS59では、フォーカ
スレンズ12を合焦点が存在する方向に移動させるべく、取り込まれたAF評価値に基づ
いてAF処理を実行する。AF処理が完了すると、ステップS53に戻る。
Referring to FIG. 12, in step S51, the position of the focus lens 14 is initialized, and in step S53, it is determined whether or not the vertical synchronization signal Vsync has been generated. When the determination result is updated from NO to YES, 256 AF evaluation values output from the AE / AF evaluation circuit 38 are fetched in step S55. In step S57, whether or not the AF activation condition is satisfied is determined based on the fetched AF evaluation value. If the determination result is NO, the process returns to step S53, whereas if the determination result is YES, the process proceeds to step S59. . In step S59, an AF process is executed based on the captured AF evaluation value in order to move the focus lens 12 in the direction in which the in-focus point exists. When the AF process is completed, the process returns to step S53.

図13を参照して、ステップS61では位置検出周期が到来したか否かを判別し、判別
結果がNOであればそのままステップS67に進む一方、判別結果がYESであればステ
ップS63〜S65の処理を経てステップS67に進む。なお、1回目の判別結果は必ず
YESとなる。
Referring to FIG. 13, in step S61, it is determined whether or not the position detection cycle has come. If the determination result is NO, the process proceeds to step S67 as it is. If the determination result is YES, the processes in steps S63 to S65 are performed. Then, the process proceeds to step S67. Note that the first determination result is always YES.

ステップS63では、GPS装置42の出力に基づいて現在位置を検出する。ステップ
S65では、検出された現在位置の周辺の撮影スポットを示す撮影スポット情報をフラッ
シュメモリ52に設けられた内部データベース52dbから抽出する。抽出された撮影ス
ポット情報は、レジスタRGSTに設定される。
In step S63, the current position is detected based on the output of the GPS device. In step S65, shooting spot information indicating shooting spots around the detected current position is extracted from the internal database 52db provided in the flash memory 52. The extracted shooting spot information is set in the register RGST.

ステップS67ではコンパス44,高度計46および水準器48の出力に基づいて撮像
方向を検出し、ステップS69ではズームレンズ12の位置つまりズーム倍率に基づいて
撮像画角を検出する。ステップS71では、検出された撮像方向および撮像画角に対応す
る一部の撮影スポット情報つまり撮像面で捉えられた1または2以上の撮影スポットの情
報をレジスタRGSTに登録された撮影スポット情報の中から抽出し、抽出された撮影ス
ポット情報に対応するタグの出力をキャラクタジェネレータ30に命令する。この結果、
撮影スポットの名称が記述されたタグが、スルー画像に現れた撮影スポットに対応してL
CDモニタ32に表示される。
In step S67, the imaging direction is detected based on the outputs of the compass 44, altimeter 46, and level 48, and in step S69, the imaging field angle is detected based on the position of the zoom lens 12, that is, the zoom magnification. In step S71, partial shooting spot information corresponding to the detected imaging direction and imaging angle of view, that is, information on one or more shooting spots captured on the imaging surface is included in the shooting spot information registered in the register RGST. The character generator 30 is instructed to output a tag corresponding to the extracted shooting spot information. As a result,
A tag in which the name of the shooting spot is described corresponds to the shooting spot appearing in the through image.
It is displayed on the CD monitor 32.

ステップS73ではサンプル画像ボタン50pが操作されたか否かを判別し、判別結果
がNOであればステップS97に進む一方、判別結果がYESであればステップS75に
進む。ステップS75ではフォーカスレンズ14の位置を参照して合焦距離を算出し、ス
テップS77では現時点で捉えられている被写界が遠景であるか否かを算出された合焦距
離に基づいて判別する。判別結果がYESであればステップS97に進む一方、判別結果
がNOであればステップS79に進む。
In step S73, it is determined whether or not the sample image button 50p has been operated. If the determination result is NO, the process proceeds to step S97, and if the determination result is YES, the process proceeds to step S75. In step S75, the focus distance is calculated by referring to the position of the focus lens 14, and in step S77, it is determined based on the calculated focus distance whether or not the object scene currently captured is a distant view. . If the determination result is YES, the process proceeds to step S97, while if the determination result is NO, the process proceeds to step S79.

ステップS79ではインターネットへの接続が可能であるか否かを通信I/F54の出
力に基づいて判別し、判別結果がNOであればステップS97に進む一方、判別結果がY
ESであればステップS81で静止画取り込み処理を実行する。ステップS81の処理の
結果、最新1フレームの画像データがYUV画像エリア26aから静止画像エリア26b
に退避される。
In step S79, it is determined whether or not connection to the Internet is possible based on the output of the communication I / F 54. If the determination result is NO, the process proceeds to step S97, while the determination result is Y
If it is ES, a still image capturing process is executed in step S81. As a result of the processing in step S81, the latest one frame of image data is transferred from the YUV image area 26a to the still image area 26b.
Is evacuated.

ステップS83では、ステップS63で検出された現在位置,ステップS67で検出さ
れた撮像方向,ステップS75で算出された合焦距離,およびステップS81で取り込ま
れた画像データが埋め込まれたサンプル画像要求を作成し、作成されたサンプル画像要求
を通信I/F54を通して外部サーバに送信する。サンプル画像要求は、インターネット
を経由して外部サーバに転送される。
In step S83, a sample image request is created in which the current position detected in step S63, the imaging direction detected in step S67, the in-focus distance calculated in step S75, and the image data captured in step S81 are embedded. Then, the created sample image request is transmitted to the external server through the communication I / F 54. The sample image request is transferred to an external server via the Internet.

ステップS85では外部サーバから返送されたサンプル画像データが通信I/F54に
よって受信されたか否かを判別し、ステップS87ではタイムアウトが発生したか否かを
判別する。サンプル画像データを受信することなく既定時間が経過すると、タイムアウト
とみなしてステップS87からステップS97に進む。既定時間が経過する前にサンプル
画像データが受信されると、ステップS85からステップS89に進む。
In step S85, it is determined whether the sample image data returned from the external server has been received by the communication I / F 54. In step S87, it is determined whether a timeout has occurred. If the predetermined time elapses without receiving the sample image data, it is regarded as time-out and the process proceeds from step S87 to step S97. If sample image data is received before the predetermined time elapses, the process proceeds from step S85 to step S89.

ステップS89では、通信I/F54によって受信されたサンプル画像データをメモリ
制御回路24を通してSDRAM26のワークエリア26cに書き込む。ステップS91
では、サンプル画像をLCDモニタ32に表示するべく、対応する命令をLCDドライバ
28に与える。
In step S89, the sample image data received by the communication I / F 54 is written into the work area 26c of the SDRAM 26 through the memory control circuit 24. Step S91
Then, in order to display the sample image on the LCD monitor 32, a corresponding command is given to the LCD driver 28.

LCDドライバ28は、YUV画像エリア26aに格納された画像データとワークエリ
ア26cに格納されたサンプル画像データとをメモリ制御回路24を通して選択的に読み
出し、読み出された画像データに基づいてLCDモニタ32を駆動する。この結果、サン
プル画像とスルー画像とを合成した合成画像がLCDモニタ32に表示される。
The LCD driver 28 selectively reads out the image data stored in the YUV image area 26a and the sample image data stored in the work area 26c through the memory control circuit 24, and the LCD monitor 32 based on the read image data. Drive. As a result, a composite image obtained by combining the sample image and the through image is displayed on the LCD monitor 32.

外部サーバから返送されたサンプル画像データには、サンプル画像を撮影したときの露
光設定,フォーカス設定およびサンプル位置がサンプル画像情報として付随する。ステッ
プS93では、このサンプル画像情報を検出し、検出されたサンプル画像情報をレジスタ
RGSTに設定する。過去にレジスタRGSTに設定されたサンプル画像情報は、新規の
サンプル画像情報によって更新される。ステップS93の処理が完了すると、ステップS
95でフラグFLGを“1”に更新し、その後にステップS97に進む。
The sample image data returned from the external server is accompanied by the exposure setting, focus setting and sample position when the sample image is taken as sample image information. In step S93, this sample image information is detected, and the detected sample image information is set in the register RGST. The sample image information set in the register RGST in the past is updated with new sample image information. When step S93 is completed, step S93 is executed.
At 95, the flag FLG is updated to "1", and then the process proceeds to step S97.

ステップS97では、サンプル画像情報がレジスタRGSTに登録されているか否かを
判別する。判別結果がNOであればステップS61に戻る一方、判別結果がYESであれ
ばステップS99に進む。ステップS99ではレジスタRGSTに登録されたサンプル位
置を検出し、ステップS101では検出されたサンプル位置が撮像装置18によって捉え
られているか否かをステップS67〜S69で検出された撮像方向および撮像画角に基づ
いて判別する。
In step S97, it is determined whether or not the sample image information is registered in the register RGST. If the determination result is NO, the process returns to step S61, while if the determination result is YES, the process proceeds to step S99. In step S99, the sample position registered in the register RGST is detected, and in step S101, whether or not the detected sample position is captured by the imaging device 18 is determined based on the imaging direction and the imaging field angle detected in steps S67 to S69. Determine based on.

判別結果がNOであればステップS61に戻る一方、判別結果がYESであればステッ
プS103に進む。ステップS103では、ステップS99で検出されたサンプル位置を
指向する矢印の出力をキャラクタジェネレータ30に命令する。この結果、サンプル位置
を指向する矢印がLCDモニタ32に表示される。
If the determination result is NO, the process returns to step S61, while if the determination result is YES, the process proceeds to step S103. In step S103, the character generator 30 is commanded to output an arrow pointing to the sample position detected in step S99. As a result, an arrow pointing to the sample position is displayed on the LCD monitor 32.

以上の説明から分かるように、イメージセンサ18は、被写界を捉える撮像面を有し、
生画像データを繰り返し出力する(18)。CPU40は、イメージセンサ18から出力され
た生画像データに基づくスルー画像を撮像処理と並列してLCDモニタ32に表示し(S3)
、撮像面によって捉えられた被写界の属性(=撮像位置,撮像方向,撮像画角,合焦距離
)を撮像処理と並列して繰り返し検出する(S63, S67~S69, S75)。CPU40はまた、撮
像面によって捉えられた被写界に存在する物体が現れたサンプル画像を被写界の属性の少
なくとも一部に基づいて外部サーバから取得し(S83~S89)、取得されたサンプル画像をス
ルー画像と並列してLCDモニタ32に表示する(S91)。
As can be seen from the above description, the image sensor 18 has an imaging surface for capturing the object scene.
The raw image data is output repeatedly (18). The CPU 40 displays a through image based on the raw image data output from the image sensor 18 on the LCD monitor 32 in parallel with the imaging process (S3).
The attributes of the object scene captured by the imaging surface (= imaging position, imaging direction, imaging angle of view, and focusing distance) are repeatedly detected in parallel with the imaging process (S63, S67 to S69, S75). The CPU 40 also acquires a sample image in which an object existing in the scene captured by the imaging surface appears from an external server based on at least a part of the attributes of the scene (S83 to S89). The image is displayed on the LCD monitor 32 in parallel with the through image (S91).

スルー画像とともに表示されるサンプル画像は、被写界に存在する物体が現れた画像に
相当する。撮影者は、表示された2つの画像を参照して撮影位置を決めることができる。
こうして、カメラの使い勝手が向上する。
The sample image displayed together with the through image corresponds to an image in which an object existing in the object scene appears. The photographer can determine the shooting position with reference to the two displayed images.
Thus, the usability of the camera is improved.

なお、この実施例では、撮像装置18によって捉えられている被写界が遠景であるとき
にはサンプル画像ボタン50pの操作を無効とするようにしている。しかし、被写界が遠
景である状態でのサンプル画像ボタン50pの操作に応答してサンプル画像データを取得
するようにしてもよい。この場合、図6(A)の例では京都タワーが現れたサンプル画像
データと京都駅が現れたサンプル画像データとが取得される。
In this embodiment, when the object scene captured by the imaging device 18 is a distant view, the operation of the sample image button 50p is invalidated. However, the sample image data may be acquired in response to the operation of the sample image button 50p when the object scene is a distant view. In this case, in the example of FIG. 6A, sample image data in which Kyoto Tower appears and sample image data in which Kyoto Station appears are acquired.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスク
に相当する制御プログラムは、フラッシュメモリ52に予め記憶される。しかし、一部の
制御プログラムを内部制御プログラムとしてフラッシュメモリ52に当初から準備する一
方、他の一部の制御プログラムを外部制御プログラムとして別の外部サーバから取得する
ようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログ
ラムの協働によって実現される。
In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 52 in advance. However, a part of the control program may be prepared in the flash memory 52 from the beginning as an internal control program, while another part of the control program may be acquired from another external server as an external control program. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU40によって実行される処理を上述の要領で複数のタ
スクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分し
てもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにして
もよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外
部サーバから取得するようにしてもよい。
Furthermore, in this embodiment, the processing executed by the CPU 40 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
12 …ズームレンズ
14 …フォーカスレンズ
18 …撮像装置
38 …AE/AF評価回路
40 …CPU
42 …GPS装置
44 …コンパス
54 …通信I/F
DESCRIPTION OF SYMBOLS 10 ... Digital camera 12 ... Zoom lens 14 ... Focus lens 18 ... Imaging device 38 ... AE / AF evaluation circuit 40 ... CPU
42 ... GPS device 44 ... Compass 54 ... Communication I / F

Claims (13)

被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段、
前記撮像手段から出力された被写界像を前記撮像手段の処理と並列して表示する第1表
示手段、
前記撮像面によって捉えられた被写界の属性を前記撮像手段の処理と並列して繰り返し
検出する属性検出手段、
前記撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を前記属性
検出手段によって検出された属性の少なくとも一部に基づいて取得する取得手段、および
前記取得手段によって取得されたサンプル画像を前記第1表示手段の処理と並列して表
示する第2表示手段を備える、電子カメラ。
An imaging means having an imaging surface for capturing an object scene and repeatedly outputting the object scene image;
First display means for displaying the object scene image output from the imaging means in parallel with the processing of the imaging means;
Attribute detection means for repeatedly detecting the attributes of the object scene captured by the imaging surface in parallel with the processing of the imaging means;
An acquisition means for acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection means; and the sample acquired by the acquisition means An electronic camera comprising second display means for displaying an image in parallel with the processing of the first display means.
前記取得手段によって取得されたサンプル画像に対応する被写界が捉えられる位置を前
記第2表示手段の処理に関連して出力する報知手段をさらに備える、請求項1記載の電子
カメラ。
The electronic camera according to claim 1, further comprising notification means for outputting a position where the object scene corresponding to the sample image acquired by the acquisition means is captured in relation to the processing of the second display means.
前記取得手段によって取得されたサンプル画像の品質を定義するパラメータを前記取得
手段の取得処理に関連して検出するパラメータ検出手段、および
前記検出手段によって検出されたパラメータを前記第2表示手段によって表示されたサ
ンプル画像に対する第1既定操作に応答して設定するパラメータ設定手段をさらに備える
、請求項1または2記載の電子カメラ。
A parameter detecting unit that detects a parameter that defines the quality of the sample image acquired by the acquiring unit in relation to an acquisition process of the acquiring unit; and a parameter that is detected by the detecting unit is displayed by the second display unit. The electronic camera according to claim 1, further comprising parameter setting means for setting in response to a first predetermined operation on the sample image.
前記第1既定操作の後の第2既定操作に応答して前記第2表示手段の処理を停止する停
止手段、および
前記撮像手段から出力された被写界像を前記第2既定操作の後の第3既定操作に応答し
て記録する記録手段をさらに備える、請求項3記載の電子カメラ。
Stop means for stopping the processing of the second display means in response to a second predetermined operation after the first predetermined operation; and an object scene image output from the imaging means after the second predetermined operation. The electronic camera according to claim 3, further comprising recording means for recording in response to the third predetermined operation.
前記取得手段は、前記属性を含む画像要求を通信回線に接続された外部装置に送信する
送信手段、および前記送信手段の処理に対して前記外部装置から返送されたサンプル画像
を受信する受信手段を含む、請求項1ないし4のいずれかに記載の電子カメラ。
The acquisition means includes: transmission means for transmitting an image request including the attribute to an external apparatus connected to a communication line; and reception means for receiving a sample image returned from the external apparatus in response to processing of the transmission means. The electronic camera according to claim 1, further comprising:
前記送信手段の処理に先立つ特定タイミングで前記撮像手段から出力された被写界像を
抽出する抽出手段をさらに備え、
前記送信手段によって送信される画像要求は前記抽出手段によって抽出された被写界像
をさらに含む、請求項5記載の電子カメラ。
An extraction means for extracting an object scene image output from the imaging means at a specific timing prior to the processing of the transmission means;
The electronic camera according to claim 5, wherein the image request transmitted by the transmission unit further includes an object scene image extracted by the extraction unit.
前記第1表示手段の処理と並列してズーム倍率を調整する第1調整手段をさらに備え、
前記属性検出手段は前記第1調整手段によって調整されたズーム倍率に対応する画角を
前記属性の一部として検出する第1部分属性検出手段を含む、請求項1ないし6のいずれ
かに記載の電子カメラ。
A first adjusting means for adjusting the zoom magnification in parallel with the processing of the first display means;
The said attribute detection means includes the 1st partial attribute detection means which detects the angle of view corresponding to the zoom magnification adjusted by the said 1st adjustment means as a part of said attribute. Electronic camera.
前記撮像面の前方に設けられたフォーカスレンズ、および
前記フォーカスレンズと前記撮像面との間隔を前記撮像手段から出力された被写界像に
基づいて継続的に調整する第2調整手段をさらに備え、
前記属性検出手段は前記第2調整手段によって調整された間隔に対応する合焦距離を前
記属性の一部として検出する第2部分属性検出手段を含む、請求項1ないし7のいずれか
に記載の電子カメラ。
A focus lens provided in front of the imaging surface; and a second adjustment unit that continuously adjusts an interval between the focus lens and the imaging surface based on an object scene image output from the imaging unit. ,
The said attribute detection means contains the 2nd partial attribute detection means which detects the focusing distance corresponding to the space | interval adjusted by the said 2nd adjustment means as a part of said attribute. Electronic camera.
前記属性検出手段は前記撮像面の位置および/または向きを前記属性の一部として検出
する第3部分属性検出手段をさらに含む、請求項1ないし8のいずれかに記載の電子カメ
ラ。
The electronic camera according to claim 1, wherein the attribute detection unit further includes a third partial attribute detection unit that detects a position and / or orientation of the imaging surface as a part of the attribute.
被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段を備える電子カメ
ラのプロセッサに、
前記撮像手段から出力された被写界像を前記撮像手段の処理と並列して表示する第1表
示ステップ、
前記撮像面によって捉えられた被写界の属性を前記撮像手段の処理と並列して繰り返し
検出する属性検出ステップ、
前記撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を前記属性
検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ
、および
前記取得ステップによって取得されたサンプル画像を前記第1表示ステップの処理と並
列して表示する第2表示ステップを実行させるための、撮像制御プログラム。
In the processor of an electronic camera having an imaging surface that captures the scene and having imaging means for repeatedly outputting the scene image,
A first display step of displaying the object scene image output from the imaging means in parallel with the processing of the imaging means;
An attribute detection step of repeatedly detecting in parallel the processing of the imaging means the attribute of the object scene captured by the imaging surface;
An acquisition step of acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection step; and the sample acquired by the acquisition step An imaging control program for executing a second display step of displaying an image in parallel with the processing of the first display step.
被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段を備える電子カメ
ラによって実行される撮像制御方法であって、
前記撮像手段から出力された被写界像を前記撮像手段の処理と並列して表示する第1表
示ステップ、
前記撮像面によって捉えられた被写界の属性を前記撮像手段の処理と並列して繰り返し
検出する属性検出ステップ、
前記撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を前記属性
検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ
、および
前記取得ステップによって取得されたサンプル画像を前記第1表示ステップの処理と並
列して表示する第2表示ステップを備える、撮像制御方法。
An imaging control method executed by an electronic camera having an imaging surface for capturing an object scene and having an imaging means for repeatedly outputting an object scene image,
A first display step of displaying the object scene image output from the imaging means in parallel with the processing of the imaging means;
An attribute detection step of repeatedly detecting in parallel the processing of the imaging means the attribute of the object scene captured by the imaging surface;
An acquisition step of acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection step; and the sample acquired by the acquisition step An imaging control method comprising a second display step of displaying an image in parallel with the processing of the first display step.
被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子
カメラに供給される外部制御プログラムであって、
前記撮像手段から出力された被写界像を前記撮像手段の処理と並列して表示する第1表
示ステップ、
前記撮像面によって捉えられた被写界の属性を前記撮像手段の処理と並列して繰り返し
検出する属性検出ステップ、
前記撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を前記属性
検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ
、および
前記取得ステップによって取得されたサンプル画像を前記第1表示ステップの処理と並
列して表示する第2表示ステップを前記内部制御プログラムと協働して前記プロセッサに
実行させるための、外部制御プログラム。
An external control program supplied to an electronic camera having an imaging surface that captures a scene and that repeatedly outputs an image of the scene and a processor that executes a process according to an internal control program stored in a memory. And
A first display step of displaying the object scene image output from the imaging means in parallel with the processing of the imaging means;
An attribute detection step of repeatedly detecting in parallel the processing of the imaging means the attribute of the object scene captured by the imaging surface;
An acquisition step of acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection step; and the sample acquired by the acquisition step An external control program for causing the processor to execute a second display step for displaying an image in parallel with the processing of the first display step in cooperation with the internal control program.
被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部
制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
前記撮像手段から出力された被写界像を前記撮像手段の処理と並列して表示する第1表
示ステップ、
前記撮像面によって捉えられた被写界の属性を前記撮像手段の処理と並列して繰り返し
検出する属性検出ステップ、
前記撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を前記属性
検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ
、および
前記取得ステップによって取得されたサンプル画像を前記第1表示ステップの処理と並
列して表示する第2表示ステップを前記内部制御プログラムと協働して実行するプログラ
ムに相当する、電子カメラ。
An imaging means having an imaging surface for capturing an object scene and repeatedly outputting the object scene image;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A first display step of displaying the object scene image output from the imaging means in parallel with the processing of the imaging means;
An attribute detection step of repeatedly detecting in parallel the processing of the imaging means the attribute of the object scene captured by the imaging surface;
An acquisition step of acquiring a sample image in which an object existing in the object scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection step; and the sample acquired by the acquisition step An electronic camera corresponding to a program that executes a second display step of displaying an image in parallel with the processing of the first display step in cooperation with the internal control program.
JP2012060250A 2012-03-16 2012-03-16 Electronics Expired - Fee Related JP5188633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012060250A JP5188633B2 (en) 2012-03-16 2012-03-16 Electronics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012060250A JP5188633B2 (en) 2012-03-16 2012-03-16 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011006438A Division JP2012151527A (en) 2011-01-14 2011-01-14 Electronic camera

Publications (3)

Publication Number Publication Date
JP2012151886A true JP2012151886A (en) 2012-08-09
JP2012151886A5 JP2012151886A5 (en) 2012-10-18
JP5188633B2 JP5188633B2 (en) 2013-04-24

Family

ID=46793637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012060250A Expired - Fee Related JP5188633B2 (en) 2012-03-16 2012-03-16 Electronics

Country Status (1)

Country Link
JP (1) JP5188633B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020021858A1 (en) * 2018-07-24 2020-01-30 コニカミノルタ株式会社 Image-capturing support device and image-capturing support method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064970A (en) * 2006-09-06 2008-03-21 Sky Kk Camera photographing support system
JP2010119069A (en) * 2008-11-11 2010-05-27 Plaza Create Co Ltd Digital camera system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064970A (en) * 2006-09-06 2008-03-21 Sky Kk Camera photographing support system
JP2010119069A (en) * 2008-11-11 2010-05-27 Plaza Create Co Ltd Digital camera system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020021858A1 (en) * 2018-07-24 2020-01-30 コニカミノルタ株式会社 Image-capturing support device and image-capturing support method
JPWO2020021858A1 (en) * 2018-07-24 2021-08-05 コニカミノルタ株式会社 Imaging support device and imaging support method

Also Published As

Publication number Publication date
JP5188633B2 (en) 2013-04-24

Similar Documents

Publication Publication Date Title
US10237466B2 (en) Recognition of degree of focus of an image
JP2007081772A (en) Image processor, method and program
EP2858341B1 (en) Information processing device, system, and storage medium
KR20100066864A (en) Terminal having camera and method for processing image thereof
JPWO2017047012A1 (en) Imaging device and system including imaging device and server
WO2012096106A1 (en) Electronic camera
US9691362B2 (en) Display control apparatus, display control method, and recording medium displaying frames indicating portions of an image
JP2014107775A (en) Electronic camera
JP5188633B2 (en) Electronics
JP2012074894A (en) Electronic camera
JP2009111827A (en) Photographing apparatus and image file providing system
JP2013009204A (en) Imaging device, imaging method and program
US11445116B2 (en) Imaging apparatus and display control method
JP2013070121A (en) System, imaging apparatus, providing apparatus, control method, and program
KR102249139B1 (en) Terminal having camera and method for processing image thereof
JP5108698B2 (en) Image processing device
KR101853054B1 (en) Terminal having camera and method for processing image thereof
KR101755520B1 (en) Terminal having camera and method for processing image thereof
US20130016242A1 (en) Electronic camera
JP2017017471A (en) Information processing system, and control method and program thereof
KR101644888B1 (en) Terminal having camera and method for processing image thereof
JP2013174719A (en) Image display device, camera, and image display program
JP2012244278A (en) Electronic camera
JP2014086805A (en) Imaging apparatus, imaging apparatus control method, and program
JP2012129796A (en) Image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120326

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120326

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees