JP4337825B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4337825B2
JP4337825B2 JP2006021427A JP2006021427A JP4337825B2 JP 4337825 B2 JP4337825 B2 JP 4337825B2 JP 2006021427 A JP2006021427 A JP 2006021427A JP 2006021427 A JP2006021427 A JP 2006021427A JP 4337825 B2 JP4337825 B2 JP 4337825B2
Authority
JP
Japan
Prior art keywords
image
imaging
pattern
trigger
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006021427A
Other languages
Japanese (ja)
Other versions
JP2006121761A (en
Inventor
吉弘 三島
英雄 阿部
剛 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006021427A priority Critical patent/JP4337825B2/en
Publication of JP2006121761A publication Critical patent/JP2006121761A/en
Application granted granted Critical
Publication of JP4337825B2 publication Critical patent/JP4337825B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明はデジタルカメラ等の撮像装置でのセルフタイマーやリモートコントロールに代る撮像技術に関する。   The present invention relates to an imaging technique that replaces a self-timer or remote control in an imaging apparatus such as a digital camera.

カメラ撮影等で撮影者自身も被写体として撮像したい場合(例えば、集合写真や風景等を背景として自分自身を撮る場合等)や手動シャッター操作では手振れの心配があるような場合に、従来、カメラを固定してから、タイマーと連動させてシャッター動作を行なうセルフタイマー機能を備えたカメラや、リモコン(遠隔操縦装置)によりシャッター動作を行なうリモコン機能を備えたカメラがある。   If the photographer himself / herself wants to take an image as a subject when shooting with a camera (for example, taking a picture of himself / herself against a group photo or landscape), or if there is a risk of camera shake during manual shutter operation, There are cameras with a self-timer function that performs a shutter operation in conjunction with a timer after being fixed, and cameras with a remote control function that performs a shutter operation with a remote control (remote control device).

上記従来のセルフタイマー機能を用いて撮影者自身が参加した撮像を行なう場合には、撮像アングルを決めてから時間を設定し、撮影者が被写体として参加するが、タイマーの設定時間の如何によってはシャッターチャンスを失うという問題点、すなわち、設定時間が短過ぎると撮影者が被写体としてポーズをとりきれないうちにシャッターが動作してしまい、設定時間が長過ぎると時間が余ってしまいシャッターチャンスを逃してしまうという不都合(例えば、集合写真の場合カメラに注意を向けさせてから、タイマーをセットするがセットした時間が長過ぎると被写体である人の注意力が低下し、視線があらぬほうを向いた統一のない写真となる)があった。   When taking an image with the photographer himself participating using the conventional self-timer function, the time is set after the imaging angle is determined, and the photographer participates as a subject, but depending on how the timer is set, The problem of losing a photo opportunity, that is, if the set time is too short, the shutter will operate before the photographer can pose as a subject, and if the set time is too long, the time will be left and time will be missed. (For example, in the case of a group photo, set the timer after focusing on the camera, but if the set time is too long, the attention of the person who is the subject will be reduced and the line of sight will not appear. It was a photo with no unity).

また、リモコン機能を備えたカメラではリモコン装置を携帯するか、カメラに取り付けておき使用時に取り外して用いるようにする必要があるが、リモコン装置を携帯する方式では忘れることがあり、カメラに取り付けておく方式ではかさばるといった点から特殊な用途の場合を除いてあまり普及していない。   In addition, it is necessary to carry a remote control device with a camera equipped with a remote control function, or attach it to the camera and remove it when using it. It is not very popular except for special applications because it is bulky.

本発明は上記問題点に鑑みてなされたものであり、被写体の特定の部分をトリガとして撮像(または撮像停止)を行なう撮像方法および撮像装置の提供を目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide an imaging method and an imaging apparatus that perform imaging (or imaging stop) using a specific portion of a subject as a trigger.

上記の目的を達成するために本発明の撮像装置は、画像パターンおよびそのパターンデータを登録した画像パターン情報登録手段と、その画像パターン情報登録手段に登録された画像パターンを選択する画像パターン選択手段と、表示されている被写体画像のうちの所望の画像部分を指定する部分指定手段と、その部分指定手段によって指定された画像部分を前記被写体画像から切り出して、画像パターン選択手段によって選択された画像パターンのパターンデータをもとにその切り出された画像部分を認識処理する画像認識手段と、その画像認識手段による認識処理の結果、切出した画像部分と画像パターンが一致したときを撮像開始或いは撮像終了のトリガとする撮像制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention includes an image pattern information registration unit that registers an image pattern and its pattern data, and an image pattern selection unit that selects an image pattern registered in the image pattern information registration unit. And a part designating unit for designating a desired image part of the displayed subject image, and an image selected by the image pattern selecting unit by cutting out the image part designated by the part designating unit from the subject image Image recognition means for recognizing the cut-out image portion based on the pattern data of the pattern, and start or end of imaging when the cut-out image portion matches the image pattern as a result of recognition processing by the image recognition means And an imaging control means as a trigger.

また、上記の撮像装置において、撮像制御手段は、画像認識手段による認識処理の結果、切出した画像部分と画像パターンが不一致となったときを撮像 開始或いは撮像終了のトリガとすることを特徴とする。 In the above imaging apparatus, the imaging control means may use the start of imaging or the end of imaging as a result of a recognition process performed by the image recognition means when the extracted image portion and the image pattern do not match. .

また、上記の撮像装置において、画像パターンは、下記(1)〜(4)のパターンの少なくとも1つを含むことを特徴とする。
(1) 幾何学的な図形パターン、
(2) パルスパターン、
(3) 人間の手などで形取った幾何学図形、
(4) 人間の手などで表現した一連の動作パターン。
In the above imaging device, the image pattern includes at least one of the following patterns (1) to (4).
(1) Geometric figure pattern,
(2) Pulse pattern,
(3) Geometric figures shaped by human hands,
(4) A series of motion patterns expressed by human hands.

以上説明したように、本発明の撮像方法および撮像装置によれば、指定した画像部分が一致したときを撮像のトリガとすることができるので、従来のセルフタイマーのように設定時間に束縛されるようなことがなく、所望のタイミングで撮像を行なうことができる。また、リモコンユニットを必要としないので余分な構造を設ける必要がなく、装置が嵩ばらない。 As described above, according to the imaging method and the imaging apparatus of the present invention, when the designated image portion matches, it can be set as a trigger for imaging, so that it is constrained to the set time like a conventional self-timer. There is no such thing, and imaging can be performed at a desired timing. Further, since no remote control unit is required, there is no need to provide an extra structure, and the apparatus does not become bulky.

<実施の形態1> 指定部分の変化検出による撮像
本発明の撮像方法では、ユーザがキー操作等により被写体のある部分(例えば、目印が含まれている部分)を変化検出エリアとして指定し、その部分での変化検出をトリガとして撮像を行なう。
また、変化検出の例として指定部分(=検出エリア)の輝度変化(実施例1)、指定部分の色(色相)変化(実施例2)、指定部分の動きの検出(実施例3)が挙げられるが、これらに限定されない。
<Embodiment 1> Imaging by Change Detection of Specified Part In the imaging method of the present invention, a user designates a part of a subject (for example, a part including a mark) as a change detection area by a key operation or the like. Imaging is performed with the change detection in the part as a trigger.
Further, as examples of change detection, luminance change (Example 1) of a designated part (= detection area), color (hue) change (Example 2) of the designated part, and motion detection (Example 3) of the designated part are given. However, it is not limited to these.

[回路構成例]
図1は、本発明を適用した撮像装置の一実施例としてのデジタルカメラの回路構成例を示すブロック図であり、図1でデジタルカメラ100は、バス1、画像入力系10、制御部20、操作部30、表示部40、フラッシュメモリ50を備えている。なお、音響出力装置60を設けて撮像報知(後述)を行なうようにしてもよい。
[Circuit configuration example]
FIG. 1 is a block diagram showing a circuit configuration example of a digital camera as an embodiment of an imaging apparatus to which the present invention is applied. In FIG. 1, the digital camera 100 includes a bus 1, an image input system 10, a control unit 20, An operation unit 30, a display unit 40, and a flash memory 50 are provided. Note that an acoustic output device 60 may be provided to perform imaging notification (described later).

画像入力系10は、光学系11,信号変換部12,信号処理部13,データ圧縮/伸張部14,およびDRAM15を有している。   The image input system 10 includes an optical system 11, a signal conversion unit 12, a signal processing unit 13, a data compression / decompression unit 14, and a DRAM 15.

光学系11は、撮像レンズおよび絞り機構、シャッター機構等の光学系機構を含み、被写体からの光を後段の信号変換部12のCCD121上に結像させる。   The optical system 11 includes an optical system mechanism such as an imaging lens, an aperture mechanism, and a shutter mechanism, and forms an image of light from the subject on the CCD 121 of the signal conversion unit 12 at the subsequent stage.

信号変換部12は、CCD121,CCD駆動用タイミング信号生成回路(TG)122,CCD駆動用垂直ドライバ123,サンプリホールド回路124およびA/D変換器125を含み、前段の光学系11を介してCCD121に結像した画像を電気信号に変換し、デジタルデータ(以下、画像データ)に変換して一定の周期で出力する。   The signal conversion unit 12 includes a CCD 121, a CCD drive timing signal generation circuit (TG) 122, a CCD drive vertical driver 123, a sample hold circuit 124, and an A / D converter 125, and the CCD 121 via the preceding optical system 11. The image formed in (1) is converted into an electrical signal, converted into digital data (hereinafter referred to as image data), and output at a constant cycle.

信号処理部13は、カラープロセス回路131およびDMAコントローラ132を有している。
カラープロセス回路131は信号変換部12からの出力をカラープロセス処理して、デジタルの輝度信号および色差マルチプレクス信号(YUVデータ)としてDMAコントローラ132のバッファに書込む。DMAコントローラ132はバッファに書込まれたYUVデータをDRAM14の指定領域にDMA(ダイレクトメモリーアクセス)転送し、展開する。また、DMAコントローラ132は、記録保存の際にDRAM15に書込まれているYUVデータを読み出してデータ圧縮/伸張部14に書込む。また、スルー画像(動画)表示するために、取込んだ画像データを間引いて表示部40に送る。また、シャッター操作がされるとその時点の画像データを表示部40に送って静止画表示させる。
The signal processing unit 13 includes a color process circuit 131 and a DMA controller 132.
The color process circuit 131 performs color process processing on the output from the signal conversion unit 12 and writes it as a digital luminance signal and color difference multiplex signal (YUV data) in the buffer of the DMA controller 132. The DMA controller 132 transfers the YUV data written in the buffer to a designated area of the DRAM 14 by DMA (direct memory access) and develops it. Further, the DMA controller 132 reads the YUV data written in the DRAM 15 at the time of recording and saving and writes it in the data compression / decompression unit 14. Further, in order to display a through image (moving image), the captured image data is thinned out and sent to the display unit 40. When the shutter operation is performed, the image data at that time is sent to the display unit 40 to display a still image.

データ圧縮/伸張部14はDMAコントローラ132により取り込まれたDRAM15からのYUVデータにJPEG圧縮処理を施す。また、再生モード下で、フラッシュメモリ50に保存記録されていた画像データに伸張処理を施してYUVデータを再生する。   The data compression / decompression unit 14 performs JPEG compression processing on the YUV data from the DRAM 15 fetched by the DMA controller 132. Further, under the reproduction mode, YUV data is reproduced by performing an expansion process on the image data stored and recorded in the flash memory 50.

DRAM15は作業用メモリとして用いられ、撮像画像を一時的に記憶する画像バッファ領域やJPEG圧縮/伸張時の作業用領域および設定値等を記憶する領域等が確保される。   The DRAM 15 is used as a work memory, and an image buffer area for temporarily storing captured images, a work area for JPEG compression / decompression, an area for storing setting values, and the like are secured.

制御部20はCPU、RAM、プログラム格納用ROMおよびタイマ等を有したマイクロプロセッサ構成を有しており、CPUは、上述の各回路および図示しない電源切換えスイッチ等にバス1を介して接続し、プログラム格納用ROMに格納されている制御プログラムによりデジタルカメラ100全体の制御を行なうと共に、操作部30からの状態信号に対応してプログラム格納用ROMに格納されている各モードに対応の処理プログラムを取り出して、デジタルカメラ100の各機能の実行制御、例えば、撮像や記録画像の再生機能の実行等を行なう他、自動撮像モード下では自動撮像プログラムによる画像の特定部分の変化の検出および撮像トリガの出力等の実行制御等を行なう。   The control unit 20 has a microprocessor configuration including a CPU, a RAM, a program storage ROM, a timer, and the like. The CPU is connected to the above-described circuits and a power supply switch (not shown) via the bus 1, The entire digital camera 100 is controlled by a control program stored in the program storage ROM, and a processing program corresponding to each mode stored in the program storage ROM corresponding to the status signal from the operation unit 30 is provided. In addition to performing execution control of each function of the digital camera 100, for example, execution of imaging or playback function of a recorded image, etc., in automatic imaging mode, detection of a change in a specific part of an image by an automatic imaging program and imaging trigger Performs execution control such as output.

操作部30は処理モード切替えスイッチ、機能選択用ボタン、メインスイッチ、自動撮像モード設定ボタン35、シャッターボタン36および検出部分指定キー(枠カーソル移動指示キー)37等のスイッチやボタンを構成部分としており、これらのスイッチ或いはボタンが操作されると状態信号が制御部20に送出される。   The operation unit 30 includes switches and buttons such as a processing mode switch, a function selection button, a main switch, an automatic imaging mode setting button 35, a shutter button 36, and a detection portion designation key (frame cursor movement instruction key) 37. When these switches or buttons are operated, a status signal is sent to the control unit 20.

また、自動撮像モード設定ボタン35が操作されるとプログラム用ROMから自動撮像プログラムが読み出され、自動撮像モードが起動される。また、ユーザは検出部分指定キー37を操作して表示部40の液晶画面に表示されるスルー画像(被写体画像)のなかで変化検出対象としたい特定の部分を指定する。   When the automatic imaging mode setting button 35 is operated, the automatic imaging program is read from the program ROM and the automatic imaging mode is activated. In addition, the user operates the detection portion designation key 37 to designate a specific portion that is to be a change detection target in the through image (subject image) displayed on the liquid crystal screen of the display unit 40.

表示部40はビデオエンコーダ、VRAMおよび液晶画面(LCD)等から構成されており、制御部20の表示制御により、撮像時のスルー画像および再生時の再生画像、処理選択時の選択用メニューやガイド(或いはアイコン)の表示等を行なう。   The display unit 40 is composed of a video encoder, a VRAM, a liquid crystal screen (LCD), and the like. By the display control of the control unit 20, a through image at the time of imaging, a reproduced image at the time of reproduction, a selection menu and a guide at the time of processing selection are selected. (Or icon) is displayed.

フラッシュメモリ50は画像圧縮/伸張部14でJPEG圧縮された画像データを保存記録する。また、フラッシュメモリ50には画像データを記録する領域の他、画像データの記録時に当該画像の撮像モードや撮像条件および撮像時間間隔等を登録する画像情報登録リストを記録することもできる。また、プログラムROMに代えて各プログラムを記録するようにしてもよい。なお、フラッシュメモリに代えて着脱可能なICカードを用いるようにしてもよい。   The flash memory 50 stores and records the image data that has been JPEG compressed by the image compression / decompression unit 14. In addition to the area for recording image data, the flash memory 50 can also record an image information registration list for registering the imaging mode, imaging conditions, imaging time interval, and the like of the image when the image data is recorded. Further, each program may be recorded instead of the program ROM. A removable IC card may be used instead of the flash memory.

音響出力装置60は撮像されたことを被写体となった人物に報知するようにした場合に設けられ、撮像がなされると音或いは音声等を出力して撮像されたことを知らせる。なお、音響出力装置に代えて表示ランプを設けてもよい。   The sound output device 60 is provided when notifying a person who has become a subject that an image has been picked up. When the image is picked up, the sound output device 60 outputs a sound or a voice to notify that the image has been picked up. A display lamp may be provided instead of the sound output device.

[カラープロセス回路]
信号処理部13のカラープロセス回路131では、画像データから輝度信号、色成分信号等を分離し、生成する。
図2はカラープロセス回路131の構成例を示すブロック図である。
図2で、カラープロセス回路131は、R成分積分器1311,G成分積分器1312,B成分積分器1313,AE(オートアイリス)用積分器1314,AF(オートフォーカス)用フィルタ1315,各種カウンタ1316,AWB回路1317,および信号合成回路1318を有している。
[Color process circuit]
The color process circuit 131 of the signal processing unit 13 separates and generates a luminance signal, a color component signal, and the like from the image data.
FIG. 2 is a block diagram illustrating a configuration example of the color process circuit 131.
In FIG. 2, a color process circuit 131 includes an R component integrator 1311, a G component integrator 1312, a B component integrator 1313, an AE (auto iris) integrator 1314, an AF (auto focus) filter 1315, various counters 1316, and the like. An AWB circuit 1317 and a signal synthesis circuit 1318 are included.

CCDで光電変換された画像信号は、信号変換部12のA/D変換器でA/D変換されカラープロセス回路131に入力される。
カラープロセス回路131では、入力信号に対しオートアイリス(AE)用信号,オートホワイトバランス(AWB)用信号,オートフォーカス(AF)用信号,およびY,Cb,Cr信号の生成処理等を行なう。
The image signal photoelectrically converted by the CCD is A / D converted by the A / D converter of the signal converter 12 and input to the color process circuit 131.
The color process circuit 131 performs processing for generating an auto iris (AE) signal, an auto white balance (AWB) signal, an auto focus (AF) signal, and Y, Cb, and Cr signals for the input signal.

AE用積分器1314では入力信号を積分してその積分値を出力し、AF用フィルタ1315では入力信号からコントラストオートフォーカス用高周波を検出するため、入力信号に対しハイパスフィルタ(HPF)をかけた後にその出力の積分値を出力し、AWB回路1317ではR成分積分器1311,G成分積分器1312およびB成分積分器1313によって積分された各成分の積分値を出力する。これら積分出力は制御部20に入力され、制御部20はこれらの信号を基に信号処理部12のAGCに与えるゲインや、シャッタースピードや、レンズ11を制御する制御信号を出力する。したがって、上記カラープロセス回路131を変化検知手段の一つとして、スルー画像上で指定された部分(検出エリア)の状態を検知することができる。   The AE integrator 1314 integrates the input signal and outputs the integrated value, and the AF filter 1315 detects a high frequency for contrast autofocus from the input signal, so that a high-pass filter (HPF) is applied to the input signal. The integrated value of the output is output, and the AWB circuit 1317 outputs the integrated value of each component integrated by the R component integrator 1311, the G component integrator 1312 and the B component integrator 1313. These integration outputs are input to the control unit 20, and the control unit 20 outputs a gain to be given to the AGC of the signal processing unit 12 based on these signals, a shutter speed, and a control signal for controlling the lens 11. Therefore, the state of the portion (detection area) designated on the through image can be detected using the color process circuit 131 as one of the change detection means.

図3,図4は本発明の自動撮像方法の一実施例の説明図であり、図3は集合写真撮像時の撮影者の動作説明図、図4はメッシュ分割による検出エリア指定方法の説明図である。
また、図5は本実施の形態での自動撮像方法によるデジタルカメラの動作例を示すフローチャートであり、図5で、(a)は指定部分の輝度の変化により撮像を行なう例、(b)は指定部分の色(色相)の変化により撮像を行なう例、(c)は指定部分の動きの検出により撮像を行なう例である。
3 and 4 are explanatory views of an embodiment of the automatic imaging method of the present invention, FIG. 3 is an explanatory view of the photographer's operation at the time of taking a group photo, and FIG. 4 is an explanatory view of a detection area designation method by mesh division. It is.
FIG. 5 is a flowchart showing an example of the operation of the digital camera according to the automatic imaging method of the present embodiment. In FIG. 5, (a) is an example in which imaging is performed by changing the luminance of a designated portion, and (b) is An example in which imaging is performed by changing the color (hue) of a designated portion, and (c) is an example in which imaging is performed by detecting movement of the designated portion.

[実施例1] 指定部分の輝度変化による撮像
図6は指定部分の輝度分布の一例を示す図である。
以下、図5(a)のフローチャートに基づくデジタルカメラ100の撮像動作について説明する。
[Example 1] Imaging by luminance change of a designated portion FIG. 6 is a diagram illustrating an example of a luminance distribution of a designated portion.
Hereinafter, the imaging operation of the digital camera 100 based on the flowchart of FIG.

前提として、ユーザは撮像を行なうために撮像モードを選択する。被写体側では図3に示すように被写体人物41,42のうち一人が背景とは輝度の異なる物(例えば、黒い上着の人物が胸の前に白いハンカチをかざしたり、白シャツの人物が黒い財布を腹の辺りで握り締めたりするようにする)を目印として持つようにする(図3(a)の例では、説明上、人物42が白いハンカチを目印45として左手に持っているものとする)。   As a premise, the user selects an imaging mode in order to perform imaging. On the subject side, as shown in FIG. 3, one of the subject persons 41, 42 has a brightness different from that of the background (for example, a person in a black coat holds a white handkerchief in front of his chest, or a person in a white shirt is black. (In the example of FIG. 3 (a), it is assumed that the person 42 holds a white handkerchief 45 as a mark 45 in the left hand). ).

(動作例)
ステップS1:(被写体画像の取込、スルー画像表示)
撮像モード下で被写体像が取込まれ、液晶ファインダ(=表示部40の液晶画面)に人物41,42がスルー画像表示される(図3(a))。
(Operation example)
Step S1: (Subject image capture, through image display)
The subject image is captured under the imaging mode, and the persons 41 and 42 are displayed as a through image on the liquid crystal finder (= the liquid crystal screen of the display unit 40) (FIG. 3A).

ステップS2:(自動撮像モード設定)
撮影者(兼被写体)43がデジタルカメラ100の撮像アングルを決めてからデジタルカメラ100をそのアングルに固定し、自動撮像モード設定ボタン35を押すと自動撮像モードが起動され、制御部20は時間カウンタに所定値(実施例では2秒)を設定する。また、DRAM15の画像記憶領域151(図4(a):実施例ではスルー画像や撮像画像或いは再生画像が一時記憶される)および液晶ファインダ40を矩形領域(図4の例では5×5=20)に分割するようにし、液晶ファインダ上に分割線分51,52を重畳表示する(図4(b))。これによりスルー画像は液晶ファインダ40上で分割される(図4(c))。なお、分割線分を表示しないようにしてもよい)。また、液晶ファインダ40にカーソル47を表示する(図3(a),図4(c))。
Step S2: (Automatic imaging mode setting)
When the photographer (also a subject) 43 determines the imaging angle of the digital camera 100, the digital camera 100 is fixed to that angle, and when the automatic imaging mode setting button 35 is pressed, the automatic imaging mode is activated, and the control unit 20 sets the time counter. Is set to a predetermined value (2 seconds in the embodiment). Further, the image storage area 151 of the DRAM 15 (FIG. 4A: In the embodiment, a through image, a captured image or a reproduced image is temporarily stored) and the liquid crystal finder 40 are rectangular areas (5 × 5 = 20 in the example of FIG. 4). The dividing line segments 51 and 52 are superimposed and displayed on the liquid crystal finder (FIG. 4B). As a result, the through image is divided on the liquid crystal finder 40 (FIG. 4C). The dividing line segment may not be displayed). Further, a cursor 47 is displayed on the liquid crystal finder 40 (FIGS. 3A and 4C).

ステップS3:(目印の指定操作)
図3で、撮影者43は検出部分指定キー37を操作して、カーソル47を移動させて人物42が持っている目印(白のハンカチ)45をポイント(指定)する。この時、図4(d)に示すようにカーソル47の位置を含む分割領域(線分で囲まれた矩形部分45)を差別表示して(すなわち、強調表示、反転表示、点滅表示等、周囲の画像部分とは別に認識可能に表示する)カーソルがどの部分を指定しているかをユーザが見やすいようにする。この後、撮影者(兼被写体)43はカメラから離れ、自らが被写体として参加するためにカメラの視野内に入る(図3(b))。
Step S3: (Marking designation operation)
In FIG. 3, the photographer 43 operates the detection portion designation key 37 to move the cursor 47 to point (designate) a mark (white handkerchief) 45 held by the person 42. At this time, as shown in FIG. 4D, the divided area including the position of the cursor 47 (rectangular portion 45 surrounded by the line segment) is displayed in a discriminative manner (that is, highlighted, highlighted, flashing, etc.) The user can easily see which part the cursor is pointing to). Thereafter, the photographer (cum subject) 43 leaves the camera and enters the field of view of the camera in order to participate as a subject (FIG. 3B).

ステップS4:(検出エリアの特定)
制御部20は指定部分、すなわち、カーソル47の位置を含む矩形部分の液晶ファインダ40上の位置(座標)、すなわち、矩形枠の四隅の座標からDRAM15の画像記憶領域151上の検出エリア{(x1,y1)、(x2,y1)、(x1,y2)、(x2,y2)}を特定(算出)する。
Step S4: (Identification of detection area)
The control unit 20 determines the detection area {(x1) on the image storage area 151 of the DRAM 15 based on the position (coordinates) on the liquid crystal finder 40 of the specified portion, that is, the rectangular portion including the position of the cursor 47, that is, the coordinates of the four corners of the rectangular frame. , Y1), (x2, y1), (x1, y2), (x2, y2)} are specified (calculated).

ステップS5:(輝度範囲の決定)
次に、制御部20はカラープロセス回路131の出力をもとに検出エリアの輝度範囲を決定する。
輝度範囲の決定は、例えば、AF用フィルタ1315の積分出力の出力のうち、主走査方向の区間の輝度の積分値の分布(=x2−x1の色輝度分布(図6(a))を調べその平均値を検出エリアの基準輝度値K0とし、図6(b)に示すように閾値Knを定めることにより行なうことができる。なお、閾値Knは平均値に対する所定の割合とすることができるがこれらに限定されず、例えば、基準値K0+定数とするようにしてもよく、また、経験値や、公知の方法によって決定するようにしてもよい。決定された値は制御部20のRAM(或いはDRAM15)に記憶される。
Step S5: (Determination of luminance range)
Next, the control unit 20 determines the luminance range of the detection area based on the output of the color process circuit 131.
For example, the luminance range is determined by examining the distribution of the integral value of the luminance in the section in the main scanning direction (= x2-x1 color luminance distribution (FIG. 6A)) of the integrated output of the AF filter 1315. The average value can be set as the reference luminance value K0 of the detection area, and the threshold value Kn can be determined as shown in Fig. 6B, although the threshold value Kn can be a predetermined ratio with respect to the average value. For example, the reference value K0 + constant may be used, or an empirical value or a known method may be used to determine the determined value as the RAM (or the control unit 20). DRAM 15).

ステップS6:(検出エリア(指定部分)の輝度変化の検出)
制御部20は検出エリア内の輝度分布の平均値K1(またはK2)がK1>K0+Kn(または、K2<K0−Kn)の場合に輝度変化ありとしてS7に遷移する。
すなわち、図3の例で撮影者43は被写体人物42の隣でポーズをとりながら被写体人物42の持っている目印(白いハンカチ)45を隠すと(図3(b))、検出エリア内の輝度の平均値がステップS6で得た基準値K0と異なる。すなわち、そのときの輝度検出値の平均値K1>K0+Knとなり検出エリアに輝度変化が生じたのでS7に遷移する。なお、目印45は撮影者43が隠したり、被写体人物42に隠させるようにする。
図6(b)は輝度変化の閾値の説明図であり、閾値Knは検出エリア内の輝度検出時に光線の加減や被写体人物42の手振れ等による検出エリア内の画像部分の輝度変化量として許容(無視)する値(変化許容値:遠隔撮影モード設定に自動設定される)である。
Step S6: (Detection of luminance change in detection area (designated portion))
When the average value K1 (or K2) of the luminance distribution in the detection area is K1> K0 + Kn (or K2 <K0−Kn), the control unit 20 transitions to S7 because there is a luminance change.
That is, in the example of FIG. 3, when the photographer 43 poses next to the subject person 42 and hides the mark (white handkerchief) 45 held by the subject person 42 (FIG. 3B), the brightness in the detection area Is different from the reference value K0 obtained in step S6. That is, the average value K1> K0 + Kn of the luminance detection values at that time is satisfied, and a change in luminance occurs in the detection area. The mark 45 is hidden by the photographer 43 or hidden by the subject person 42.
FIG. 6B is an explanatory diagram of a threshold value for luminance change, and the threshold value Kn is allowed as a luminance change amount of an image portion in the detection area due to the addition or subtraction of light rays or camera shake of the subject person 42 when detecting the luminance in the detection area ( Ignored) (allowable change: automatically set to the remote shooting mode setting).

ステップS7:(撮像余裕時間のカウントダウン)
制御部20は時間カウンタのカウントダウンを開始し、時間カウンタが0(ゼロ)になるとS8に遷移する。これにより、目印45を持っていた被写体人物42や撮影者43が目印45を隠しても、ポーズを整える余裕時間ができるので、目印45を隠した直後の手の動き等が撮像されるようなことを防止できる。なお、実施例では時間カウンタの設定時間を2秒(ステップS2)としたが、これに限定されない。
Step S7: (Countdown of imaging allowance time)
The control unit 20 starts counting down the time counter. When the time counter reaches 0 (zero), the process proceeds to S8. Thereby, even if the subject person 42 or the photographer 43 who has the mark 45 hides the mark 45, there is a margin time for adjusting the pose, so that the movement of the hand immediately after the mark 45 is hidden can be imaged. Can be prevented. In the embodiment, the setting time of the time counter is 2 seconds (step S2), but the present invention is not limited to this.

ステップS8:(撮像トリガ信号の出力)
制御部20は上記ステップS7で時間カウンタが0になると撮像トリガ信号(撮像指示信号)を出力してシャッター機構(光学系11)を制御する。
なお、シャッター機構を制御する代りに撮像トリガ信号で撮像報知用の音響出力装置60(または、撮像報知用のランプ表示装置)を制御するようにしてもよく、また、シャッター機構或いは撮像報知用の装置を制御することなく(次のステップS9を省略してS10に遷移し)、画像の記録保存処理を行なうようにしてもよい。
Step S8: (Output of imaging trigger signal)
When the time counter reaches 0 in step S7, the control unit 20 outputs an imaging trigger signal (imaging instruction signal) to control the shutter mechanism (optical system 11).
In addition, instead of controlling the shutter mechanism, the imaging output signal for the imaging notification (or the lamp display device for imaging notification) may be controlled by the imaging trigger signal, or the shutter mechanism or the imaging notification may be controlled. The image recording / storing process may be performed without controlling the apparatus (the next step S9 is omitted and the process proceeds to S10).

ステップS9:(シャッター動作(撮像および撮像報知))
シャッター機構は撮像指示信号によりシャッターボタン36を動作させ、「カシャリ」というような機械音を出して被写体人物に撮像の終了を報知する。この間、制御部20は撮像処理のためにS10に遷移する。
Step S9: (Shutter operation (imaging and imaging notification))
The shutter mechanism operates the shutter button 36 in response to the imaging instruction signal and makes a mechanical sound such as “crisp” to notify the subject person of the end of imaging. During this time, the control unit 20 transitions to S10 for imaging processing.

なお、上述(ステップS9)したように、シャッター動作による撮像終了報知に代えて音響出力装置に音または「撮像終了」の旨の音声メッセージを出力するようにしてもよく、或いは表示ランプにより「撮像終了」を報知するようにしてもよい。   Note that, as described above (step S9), a sound or a voice message indicating “imaging end” may be output to the sound output device instead of the imaging end notification by the shutter operation, or “image capturing” may be performed by a display lamp. You may make it alert | report "end".

ステップS10:(撮像画像の保存記録処理)
上記ステップS7で時間カウント値が0と判定された時点でDRAM15に取込まれている(=撮像された)画像データをJPEG圧縮処理してフラッシュメモリ50に保存記録する。
Step S10: (Saved image recording process)
When the time count value is determined to be 0 in step S7, the image data captured (= captured) in the DRAM 15 is JPEG compressed and stored in the flash memory 50.

上記実施例1では、目印45と目印45を隠した場合に表われる背景色との輝度が似ていると検出される輝度変化量が閾値Knの範囲(つまり、K0−Kn<輝度変化量<K0+Kn)となって目印がなくなったことが検知されない可能性があるので、被写体人物42の持つ目印45は背景とは輝度が明らかに異なるものを用いるようにすることが望ましい。   In the first embodiment, the brightness change amount detected when the mark 45 and the background color appearing when the mark 45 is hidden is similar to the range of the threshold Kn (that is, K0−Kn <brightness change < (K0 + Kn), it may not be detected that the mark has disappeared. Therefore, it is desirable that the mark 45 of the subject person 42 has a brightness that is clearly different from the background.

また、上記実施例1で輝度変化を撮像(開始)トリガとしたが、撮像終了トリガとするようにしてもよい(例えば、連続撮影や動画撮影の撮影中に目印の輝度変化により撮影を終了させる(変形例2参照))。
また、上記実施例1ではメッシュ分割された矩形部分を一つ指定し、検出エリア1つを設定したが、複数の矩形部分を指定(=複数検出エリアを設定)してもよく、更には、隣接していない複数の矩形部分を指定するようにしてもよい。
Further, although the luminance change is used as the imaging (start) trigger in the first embodiment, it may be used as the imaging end trigger (for example, the shooting is ended by the luminance change of the mark during continuous shooting or moving image shooting). (See Modification 2)).
In the first embodiment, one mesh-divided rectangular portion is designated and one detection area is set. However, a plurality of rectangular portions may be designated (= multiple detection areas are set). You may make it designate the some rectangular part which is not adjacent.

また、上記実施例1では画面をメッシュ分割して得た矩形部分を指定するようにとしていたが画面を任意の形に分割し、分割された領域を指定するようにしてもよい。
また、上記実施例1では閾値Kn(輝度検出時に無視する変化許容量)を基準値K0を中心として明方向、暗方向共に同じ値として設定したが、明方向と暗方向の閾値を別々の値(Kn1≠Kn2)としてもよい。
また、上記実施例1ではステップS6でそのときの輝度検出値の平均値K1(またはK2)がK1>K0+Kn(または、K2<K0−Kn)の場合は検出エリアに輝度変化ありとしたが、逆に、一定時間内の輝度変化がKn以下になった場合、すなわち、K0−Kn<K1<K0+Kn(または、K0−Kn<K2<K0+Kn)のときに輝度変化ありとするようにしてもよい。
In the first embodiment, the rectangular portion obtained by dividing the screen into meshes is designated. However, the screen may be divided into arbitrary shapes and the divided regions may be designated.
In the first embodiment, the threshold value Kn (allowable change amount ignored at the time of luminance detection) is set to the same value for both the bright direction and the dark direction with the reference value K0 as the center. It is good also as (Kn1 <> Kn2).
In the first embodiment, when the average value K1 (or K2) of the luminance detection values at that time is K1> K0 + Kn (or K2 <K0−Kn) in Step S6, the detection area has a luminance change. On the contrary, when the luminance change within a certain time is equal to or less than Kn, that is, when K0−Kn <K1 <K0 + Kn (or K0−Kn <K2 <K0 + Kn), the luminance may be changed. .

[実施例2] 指定部分の色(色相)の変化による撮像
上記実施例1(図5(a))では指定部分の輝度の変化を撮像のトリガとしたが(S6)、図7に示すように色(色相)の変化を撮像のトリガとするようにしてもよい。なお、図7は指定部分の色分布の一例を示す図である。
この例では、前提として、ユーザは撮像を行なうために撮像モードを選択する。被写体側では図3に示すように被写体人物41,42のうち一人が彩度の高い物(例えば、真紅のハンカチ、青い財布等、色ができるだけ鮮やかなもの)を持っているようにする(図3(a)の例では人物42が目印(この例では、真紅のハンカチ45)を左手に持っているものとする)。
[Example 2] Imaging by change in color (hue) of a designated portion In Example 1 (Fig. 5 (a)), a change in luminance of a designated portion was used as a trigger for imaging (S6), as shown in Fig. 7. In addition, a change in color (hue) may be used as a trigger for imaging. FIG. 7 is a diagram showing an example of the color distribution of the designated portion.
In this example, as a premise, the user selects an imaging mode in order to perform imaging. As shown in FIG. 3, on the subject side, one of the subject persons 41 and 42 has a highly saturated object (for example, a crimson handkerchief, a blue wallet, or the like that is as bright as possible). In the example of 3 (a), the person 42 is a landmark (in this example, the crimson handkerchief 45 is held in the left hand).

(動作例)
図5(b)で、ステップS1〜S3、ステップS7〜S10は図5(a)の動作と同様であり、以下、ステップS5’、S6’での動作について説明する。
(Operation example)
In FIG. 5B, steps S1 to S3 and steps S7 to S10 are the same as the operations in FIG. 5A, and the operations in steps S5 ′ and S6 ′ will be described below.

ステップS5’:(色範囲の決定)
ステップS4で検出エリアが特定された後、制御部20はカラープロセス回路131の出力をもとに指定部分(検出エリア)の色特徴(色範囲)を決定する。色範囲は、例えば、AWB回路1317の出力、すなわち、R成分積分器1311,G成分積分器1312およびB成分積分器1313によって積分された各成分の積分値のうち、主走査方向のx2−x1の区間の積分値の分布(=x2−x1の色分布)を調べ(図7(a))、その最大値MAX(R,G,B)=f(xm)を含むxm±kの範囲の色成分比率で表わされる範囲を特徴色範囲として決定できる(この方法に限定されない)。決定値は制御部20のRAM(或いはDAM15)に記憶される。
特徴色の分布は被写体人物が持つ目印(物)45の色の彩度が低いと図7(b)に示すような分布となり、色感度を一定限度の範囲(斜線の部分)で維持するためにはkの値を小さくする必要があるので被写体人物の手振れ等によりカーソル枠320から目印がずれた場合に次のステップS6で「色変化あり」と判定される可能性があるが、目印45として一色で彩度の高いものを用いるようにすると図7(c)に示すような台形状の分布となるのでkの値が大きくなり、被写体人物の手振れがあっても「色変化あり」と判定されることを防止できる。
Step S5 ′: (Determination of color range)
After the detection area is specified in step S4, the control unit 20 determines the color feature (color range) of the designated portion (detection area) based on the output of the color process circuit 131. The color range is, for example, the output of the AWB circuit 1317, that is, x2-x1 in the main scanning direction among the integrated values of each component integrated by the R component integrator 1311, the G component integrator 1312, and the B component integrator 1313. The integrated value distribution (= x2-x1 color distribution) in the interval of (1) is examined (FIG. 7 (a)), and in the range of xm ± k including the maximum value MAX (R, G, B) = f (xm). The range represented by the color component ratio can be determined as the characteristic color range (not limited to this method). The determined value is stored in the RAM (or DAM 15) of the control unit 20.
The distribution of the characteristic color becomes a distribution as shown in FIG. 7B when the color saturation of the mark (object) 45 held by the subject person is low, so that the color sensitivity is maintained within a certain range (shaded portion). Since it is necessary to reduce the value of k, the mark may be determined as “color change” in the next step S6 when the mark is deviated from the cursor frame 320 due to hand shake of the subject person or the like. If one having one color and high saturation is used, a trapezoidal distribution as shown in FIG. 7C is obtained, so that the value of k increases, and even if there is a hand shake of the subject person, “color change”. It can prevent being judged.

ステップS6’:(指定部分の色変化の検出)
制御部20は検出エリア内の色分布の最大値がρ未満のとき、色変化ありとしてステップS7に遷移する。すなわち、撮影者43または被写体人物42が目印45を隠すと(図3(b))、色検出エリア内の色の最大値MAX(R,G,B)がρ未満となり色範囲から外れるので、色変化ありとしてステップS7に遷移する。
Step S6 ′: (Detection of color change of specified portion)
When the maximum value of the color distribution in the detection area is less than ρ, the control unit 20 transitions to step S7 that there is a color change. That is, when the photographer 43 or the subject person 42 hides the mark 45 (FIG. 3B), the maximum color value MAX (R, G, B) in the color detection area becomes less than ρ and falls outside the color range. Transition to step S7 because there is a color change.

上記実施例2では、目印45と目印45を隠した場合に表われる背景色との色相が似ていると検出される色相変化度が許容範囲ρを越えてしまい撮像トリガが出力されないので、被写体人物42の持つ目印45は背景とは色相が異なり、彩度の高いものを用いるようにすることが望ましい。   In the second embodiment, if the hue of the mark 45 and the background color that appears when the mark 45 is hidden is similar, the detected hue change degree exceeds the allowable range ρ and the imaging trigger is not output. It is desirable to use the mark 45 of the person 42 having a different hue from the background and high saturation.

[実施例3] 指定部分の動き検出による撮像
上記実施例1(図5(a)),実施例2(図5(b))では指定部分の輝度や色の変化を撮像のトリガとしたが、指定部分の動きの検出(すなわち、指定部分の変化)を撮像のトリガとするようにしてもよい。
本実施例では、デジタルカメラ100の撮像データ(カラープロセス回路131の積分出力)を用いて指定部分の動きを検出しているが動き検出方法はこれに限定されず、公知の方法でよい。
[Embodiment 3] Imaging by motion detection of specified portion In the above-described Embodiment 1 (FIG. 5 (a)) and Embodiment 2 (FIG. 5 (b)), a change in luminance and color of the specified portion is used as an imaging trigger. The detection of the movement of the designated portion (that is, the change in the designated portion) may be used as an imaging trigger.
In this embodiment, the motion of the designated portion is detected using the image data of the digital camera 100 (integrated output of the color process circuit 131). However, the motion detection method is not limited to this, and a known method may be used.

図8は指定部分の動き検出に用いるAF用高周波の積分出力分布の一例を示す図であり、(a)は前回のサンプリング時点での積分出力の分布図、(b)は動きのない場合の撮像時点での積分出力の分布図、(c)は動きがあった場合の撮像時点での積分出力の分布図、(d),(e)は動きの有無による差分の変化を示す図である。
この例では、前提として、ユーザは撮像を行なうために撮像モードを選択する。被写体側では図3に示すように被写体人物41,42のうち一人が目印(例えば、ハンカチ)を持っているようにする。
8A and 8B are diagrams showing an example of the integrated output distribution of the high frequency for AF used for motion detection of the designated portion. FIG. 8A is a distribution diagram of the integrated output at the previous sampling time, and FIG. 8B is a case of no motion. The distribution diagram of the integrated output at the time of imaging, (c) is the distribution diagram of the integrated output at the time of imaging when there is a motion, (d), (e) is a diagram showing the change of the difference depending on the presence or absence of motion. .
In this example, as a premise, the user selects an imaging mode in order to perform imaging. As shown in FIG. 3, on the subject side, one of the subject persons 41 and 42 has a mark (for example, a handkerchief).

(動作例)
図5(c)で、ステップS1〜S3、ステップS7〜S10は図5(a)の動作と同様であり、以下、ステップS4”〜S6”の動作について説明する。
(Operation example)
In FIG. 5C, steps S1 to S3 and steps S7 to S10 are the same as those in FIG. 5A, and the operations in steps S4 ″ to S6 ″ will be described below.

ステップS4”:(動き検出エリアの特定)
ステップS3の目印の指定動作の終了後、制御部20は指定部分、すなわち、カーソル320の位置を含む矩形部分の液晶ファインダ上の位置(座標)、すなわち、矩形枠の四隅の座標からDRAM15の画像記憶領域151上の検出エリア{(x1,y1)、(x2,y1)、(x1,y2)、(x2,y2)}を動き検出エリアとして特定(算出)する。
Step S4 ": (Specification of motion detection area)
After completion of the mark designation operation in step S3, the control unit 20 determines the image of the DRAM 15 from the designated portion, that is, the position (coordinates) on the liquid crystal finder including the position of the cursor 320, that is, the coordinates of the four corners of the rectangular frame. The detection area {(x1, y1), (x2, y1), (x1, y2), (x2, y2)} on the storage area 151 is specified (calculated) as a motion detection area.

ステップS5”:(検出エリアの積分出力のサンプリング)
制御部20は特定された動き検出エリア{(x1,y1)、(x2,y1)、(x1,y2)、(x2,y2)}のAF用高周波の積分出力を一定時間間隔tでサンプリングする。すなわち、撮像モードでは入力された画像信号を基にカラープロセス回路131でAF用高周波信号が出力されAE用積分器1314で積分されるので、検出エリア区間(x2−x1(図8))分の積分値を制御部20のRAM(またはDRAM15)に記憶して時間t毎にサンプリングし、前回および今回のサンプリング値を保持することができる。
Step S5 ": (Sampling of integral output in detection area)
The control unit 20 samples the AF high-frequency integrated output in the specified motion detection area {(x1, y1), (x2, y1), (x1, y2), (x2, y2)} at a constant time interval t. . That is, in the imaging mode, since the high frequency signal for AF is output by the color process circuit 131 based on the input image signal and is integrated by the integrator for AE 1314, it corresponds to the detection area section (x2-x1 (FIG. 8)). The integrated value can be stored in the RAM (or DRAM 15) of the control unit 20, sampled at every time t, and the previous and current sampling values can be held.

なお、前回のサンプリング時点t0のAF用フィルタ1315の積分出力をY0-tとし(図8(a))、現時点で検出エリアの被写体(例えば、目印)に動きがない場合の積分出力をY0とすると(図8(b))、動きが全くなければ時間tの間の積分出力の差ΔY=Y0−Y0-tは一定値Cとなって(図8(d))に示すように区間(x2−x1)全体にわたって一定となる。しかし、現時点で被写体に動きがあった場合には時間tだけ前の積分出力Y0-tと撮像時点での積分出力Y’0の差ΔY’=Y0−Y’0-tは(図8(e))に示すように区間上で変動する。そこで、AF用高周波の積分値の1回前の積分値と今回の積分値の差が区間(x2−x2)で閾値ρ以内か否かを調べ、閾値ρ以上の場合に被写体の動き等により画像がぶれたものとする。 Note that the integration output of the AF filter 1315 at the previous sampling time t0 is Y0- t (FIG. 8A), and the integration output when the subject (for example, a mark) in the detection area does not move is Y0. Then (FIG. 8 (b)), the difference ΔY = Y0-Y0 -t integral output during if there is no motion time t becomes a constant value C as shown in (FIG. 8 (d)) interval ( x2-x1) constant throughout. However, if there is a movement of the subject at the present time, the difference ΔY ′ = Y0−Y′0 −t between the integral output Y0 −t before time t and the integral output Y′0 at the time of imaging is (FIG. 8 ( As shown in e)), it varies on the section. Therefore, it is checked whether or not the difference between the previous integration value of the AF high-frequency integration value and the current integration value is within the threshold value ρ in the section (x2−x2). Assume that the image is blurred.

ステップS6”:(動き検出)
制御部20は上記ステップS5”での1回前のサンプリング値(積分値)と今回のサンプリング値(積分値)の差が区間(x2−x1)で閾値ρ以内か否かを調べ、閾値ρ以上の場合には動きがあったものとしてS7に遷移する。
すなわち、図3の例で、撮影者(兼被写体)43または被写体人物42が目印45を大きく動かすと、動き検出エリア内のAF用高周波の積分値のサンプリング値が前回のサンプリング値と異なり、閾値ρを越えるた場合に動きありとしてステップS7に遷移する。
なお、上記ステップS5”で、理想的には積分出力の差ΔY=Y0−Y0-t=Cの場合が動きなしの場合であるが、実施上は三脚等の器具でカメラを固定しても地面の振動が伝達されること、およびカメラの構造や解像度上、多少の振動は無視できる等の実施上の要素を考慮してカメラの性能上振動を吸収できる範囲で閾値ρを定めることが望ましい。
Step S6 ": (Motion detection)
The control unit 20 checks whether or not the difference between the previous sampling value (integral value) in step S5 ″ and the current sampling value (integral value) is within the threshold ρ in the section (x2−x1). In the above case, it is assumed that there is a movement and the process proceeds to S7.
That is, in the example of FIG. 3, when the photographer (cum subject) 43 or the subject person 42 moves the mark 45 greatly, the sampling value of the integrated value of the high frequency for AF in the motion detection area differs from the previous sampling value, and the threshold value When ρ is exceeded, there is a movement and the process proceeds to step S7.
In the above step S5 ″, ideally, the difference in integral output ΔY = Y0−Y0− t = C is a case where there is no movement, but in practice, even if the camera is fixed with an instrument such as a tripod. It is desirable to set the threshold ρ within the range that can absorb the vibration from the viewpoint of the performance of the camera in consideration of the fact that the vibration of the ground is transmitted and the camera structure and resolution can ignore the slight vibration. .

[変形例1] 枠カーソルによる検出エリアの指定
上記実施例1〜3では、液晶ファインダ40をn分割して得た矩形部分(目印の全部又は大部分が入っている矩形部分)をユーザが指定し、検出エリアを特定したが(S1〜S4)、液晶ファインダ40をn分割して矩形部分を指定する代りに、枠カーソルを表示して目印部分をカーソルの枠内に入れるようにして指定するようにしてもよい。
[Modification 1] Designation of detection area by frame cursor In the above first to third embodiments, the user designates a rectangular portion obtained by dividing the liquid crystal finder 40 into n (a rectangular portion containing all or most of the mark). Although the detection area is specified (S1 to S4), instead of dividing the liquid crystal finder 40 into n parts and specifying a rectangular part, a frame cursor is displayed and the mark part is specified so as to be within the frame of the cursor. You may do it.

図9(a)は実施例1〜3の変形例の動作を示すフローチャートであり、枠カーソルで目印を指定する例である。また、図10は枠カーソルによる検出エリア指定方法の説明図である。   FIG. 9A is a flowchart showing the operation of the modification of the first to third embodiments, and is an example in which a mark is designated with a frame cursor. FIG. 10 is an explanatory diagram of a detection area designation method using a frame cursor.

(動作例)
図9(a)で、ステップS1、ステップS5〜S10は図5(a),(b),または(c)のステップS1、ステップS5〜S10の動作と同様である。以下、ステップT2〜T4での動作について説明する。
(Operation example)
In FIG. 9A, steps S1 and S5 to S10 are the same as the operations of steps S1 and S5 to S10 in FIG. 5A, 5B, or 5C. Hereinafter, the operation in steps T2 to T4 will be described.

ステップT2:(遠隔撮影モード設定)
ステップS1(図5(a))で、被写体画像が取込まれ、液晶ファインダ40にスルー画像表示された後、撮影者43がデジタルカメラ100の撮像アングルを決めてからデジタルカメラ100をそのアングルで固定し、自動撮像モード設定ボタン35を押すと、自動撮像モードが起動され制御部20は自動撮像プログラムの実行制御を開始し、時間カウンタに所定値(実施例では2秒)を設定する。また、図10(a)に示すように枠カーソル49を液晶ファインダに表示する。
Step T2: (Remote shooting mode setting)
In step S1 (FIG. 5A), the subject image is captured and a through image is displayed on the liquid crystal finder 40. After the photographer 43 determines the imaging angle of the digital camera 100, the digital camera 100 is set at that angle. When the automatic image capturing mode setting button 35 is pressed, the automatic image capturing mode is activated, and the control unit 20 starts execution control of the automatic image capturing program, and sets a predetermined value (2 seconds in the embodiment) in the time counter. Further, a frame cursor 49 is displayed on the liquid crystal finder as shown in FIG.

ステップT3:(目印の指定操作)
撮影者43は検出部分指定キー37を操作して、枠カーソル49を移動させて人物42が持っている目印(白のハンカチ)45”の全部または大部分を枠内に入れるようにして指定する(図10(b))。この時、枠カーソル49の枠内を差別表示して(すなわち、強調表示、反転表示、点滅表示等、周囲の画像部分とは別に認識可能に表示する)カーソルがどの部分を指定しているかをユーザが見やすいようにする。この後、撮影者(兼被写体)43はカメラから離れ、自らが被写体に参加するためにカメラの視野内に入る(図10(c))。
Step T3: (designating mark)
The photographer 43 operates the detection portion designation key 37 to move the frame cursor 49 and designates all or most of the marks (white handkerchiefs) 45 ″ held by the person 42 within the frame. (FIG. 10 (b)) At this time, the cursor is displayed in a discriminative manner within the frame of the frame cursor 49 (that is, displayed in a recognizable manner separately from surrounding image portions such as highlighting, reverse display, and blinking display). After the photographer (cum subject) 43 moves away from the camera and enters the field of view of the subject to participate in the subject (FIG. 10C). ).

ステップT4:(検出エリアの特定)
制御部20は指定部分、すなわち、枠カーソル49の枠の液晶ファインダ上の位置(座標)、すなわち、矩形枠の四隅の座標からDRAM15の画像記憶領域151上の検出エリア{(x1,y1)、(x2,y1)、(x1,y2)、(x2,y2)}を特定(算出)してS5(S5’またはS5”)に遷移する。
Step T4: (Identification of detection area)
The control unit 20 determines a detection area {(x1, y1) on the image storage area 151 of the DRAM 15 from the position (coordinates) on the liquid crystal finder of the designated part, that is, the frame of the frame cursor 49, that is, the coordinates of the four corners of the rectangular frame. (X2, y1), (x1, y2), (x2, y2)} are specified (calculated), and the process proceeds to S5 (S5 ′ or S5 ″).

なお、上記変形例1のステップS3”で、目印45”を指定する際に所定のキー操作により枠カーソル49の枠の大きさを目印45”に合わせて縮小/拡大できるようにしてもよい。これにより、目印45”の全部を枠内に入れるようにできるので、検出エリアの特定精度が向上する。
また、上記変形例1では枠カーソル49の形状を矩形としたがこれに限定されず、円、楕円、長方形三角形でもよく、上記ステップS2”でカーソル枠の形状を複数個表示して目印に近似した枠を選択できるようにしてもよい。
また、上記変形例1では枠カーソル49を表示して目印45”を指定するようにしたが、点カーソルを表示してキー操作により目印45”を囲むように動かすか、タッチペン等のポインティングデバイスで目印45”を囲むようにポイントして目印45”を指定するようにしてもよい。
In step S3 ″ of the first modification, when the mark 45 ″ is designated, the frame size of the frame cursor 49 may be reduced / enlarged according to the mark 45 ″ by a predetermined key operation. As a result, the entire mark 45 ″ can be put in the frame, so that the detection area specifying accuracy is improved.
In the first modification, the frame cursor 49 has a rectangular shape. However, the shape is not limited to this, and may be a circle, an ellipse, or a rectangular triangle. In step S2 ″, a plurality of cursor frame shapes are displayed and approximated to a mark. The selected frame may be selectable.
In the first modification, the frame cursor 49 is displayed and the mark 45 "is designated. However, the point cursor is displayed and moved so as to surround the mark 45" by a key operation, or a pointing device such as a touch pen is used. The mark 45 "may be designated by pointing so as to surround the mark 45".

[変形例2] 連写或いは動画撮像モード下の自動撮像
上記実施例1〜3では、トリガ1回で撮像を行なう例、すなわち、1トリガで1シャッター動作を行ない1フレームの画像を撮像する通常撮影の場合について説明したが、本発明の自動撮像方法は撮影開始と撮影終了のトリガを被写体の指定部分の変化検出で別々に得るようにして、連続撮影や動画撮影等の連続撮影の場合に適用することができる。
図9(b)は実施例1の変形例の動作を示すフローチャートであり、指定部分の輝度の変化を連写或いは動画撮影の撮影開始および撮影終了のトリガとする例である。また、図11は連写或いは動画撮影時の遠隔撮影方法の一実施例の説明図である。
[Modification 2] Automatic shooting in continuous shooting or moving image shooting mode In the first to third embodiments, an example in which shooting is performed with one trigger, that is, a one-shutter operation is performed with one trigger to capture a single frame image. Although the case of shooting has been described, the automatic imaging method of the present invention obtains triggers for shooting start and shooting separately by detecting the change in the designated portion of the subject, and in the case of continuous shooting such as continuous shooting or movie shooting. Can be applied.
FIG. 9B is a flowchart showing the operation of the modification of the first embodiment, and is an example in which the change in the luminance of the designated portion is used as a trigger for the start of shooting and the end of shooting for continuous shooting or moving image shooting. FIG. 11 is an explanatory diagram of an embodiment of a remote shooting method during continuous shooting or moving image shooting.

(動作例)
図9(b)で、ステップS1〜S5は図5(a),(b),または(c)のステップS1〜S5(或いは、図9(a)のステップS1〜T5)の動作と同様である。以下、ステップT6’〜T9’での動作について説明する(なお、図3(a)のステップS9はこの場合キャンセルする)。
説明の前提として、図11で、ユーザは右方向から左方向に向って進行する電車403を連写(或いは、動画撮影)しようとし、図11(a)に示すように線路402の向う側に立っている標識401を目印として指定したものとする(図3(a)のS3または図9(a)のT3)。
ユーザが標識401を目印として指定すると、検出エリアが特定され(S4)、輝度範囲が決定される(S5)。
(Operation example)
In FIG. 9B, steps S1 to S5 are the same as the operations of steps S1 to S5 in FIG. 5A, 5B, or 5C (or steps S1 to T5 in FIG. 9A). is there. Hereinafter, the operation in steps T6 ′ to T9 ′ will be described (note that step S9 in FIG. 3A is canceled in this case).
As a premise for explanation, in FIG. 11, the user tries to continuously shoot (or shoot a movie) the train 403 traveling from the right to the left, and stands on the side facing the track 402 as shown in FIG. It is assumed that the marker 401 is designated as a mark (S3 in FIG. 3A or T3 in FIG. 9A).
When the user designates the sign 401 as a landmark, the detection area is specified (S4), and the luminance range is determined (S5).

ステップT6’:(検出エリア(指定部分)の輝度変化の検出)
制御部20は図3(a)のステップS6と同様の動作で検出エリア内の輝度分布の変化を調べ輝度変化がある場合にT7’に遷移する。
すなわち、図11(a)の目印401を指定した後、電車403が来るまでは輝度変化が生じないので輝度の検出動作を繰り返すが、図11(b)に示すように電車403が来ると目印401が電車403で隠れ輝度変化が生じるのでT7’に遷移する(1度目のトリガ)。また、図11(c)に示すように電車403が目印401の前を通過中は輝度変化が生じないので輝度の検出動作を繰り返す。更に、図11(d)に示すように電車403が目印401の前を通過中し終わると、輝度変化が生じるのでT7’に遷移する(2度目のトリガ)。
Step T6 ′: (Detection of luminance change in detection area (designated portion))
The control unit 20 checks the change in the luminance distribution in the detection area by the same operation as step S6 in FIG. 3A, and transitions to T7 ′ when there is a luminance change.
That is, after the mark 401 in FIG. 11A is designated, the luminance detection operation is repeated until the train 403 arrives, so the luminance detection operation is repeated. However, when the train 403 comes as shown in FIG. Since 401 has a hidden luminance change in the train 403, transition to T7 '(first trigger). Further, as shown in FIG. 11C, since the luminance change does not occur while the train 403 passes in front of the mark 401, the luminance detection operation is repeated. Furthermore, as shown in FIG. 11 (d), when the train 403 finishes passing in front of the mark 401, a change in luminance occurs, so that a transition is made to T7 ′ (second trigger).

ステップT7’:(連続撮影中か否かの判定)
上記T6’で輝度変化があると、制御部20は、現在、撮影中(連続撮影中或いは動画撮影中)か否かを判定し、撮影中でない場合にはT8’に遷移して連続撮像(或いは動画撮像)を開始し、連続撮像中の場合にはT9’に遷移して連続撮影終了処理(或いは動画撮影終了処理)を行なう。なお、撮影中か否かは、例えば、ステップT8’で撮像状態判定フラグをセットしておき、その値(例えば、撮像状態判定フラグ=1なら撮像中、起動時は撮像状態判定フラグ=0)を調べるようにすることにより判定することができる。
Step T7 ': (Determination whether or not continuous shooting is in progress)
When there is a change in brightness at T6 ′, the control unit 20 determines whether or not the current shooting is being performed (during continuous shooting or moving image shooting). Alternatively, moving image capturing) is started, and when continuous image capturing is in progress, the process proceeds to T9 ′ to perform continuous shooting end processing (or moving image shooting end processing). Whether or not shooting is in progress is set, for example, by setting an imaging state determination flag in step T8 ′ (for example, if the imaging state determination flag = 1, the imaging state determination flag = 0 at startup). This can be determined by examining the above.

ステップT8’:(連続撮影或いは動画撮影の開始)
制御部20は、連続撮影(或いは動画撮影)を開始し、被写体像を取込んで一定時間間隔でDRAM15に順次記憶する。また、取込んだ被写体像を液晶ファインダ40にスルー表示する(また、実施例では撮像状態判定フラグを1にセットする)。
なお、撮像動作は撮影開始後、撮影終了処理に遷移するまでステップT6’、T7’の動作とは独立して画像データ入力系10で行なわれる。
Step T8 ′: (Start of continuous shooting or movie shooting)
The control unit 20 starts continuous shooting (or moving image shooting), captures a subject image, and sequentially stores it in the DRAM 15 at regular time intervals. In addition, the captured subject image is displayed through on the liquid crystal finder 40 (and the imaging state determination flag is set to 1 in the embodiment).
The imaging operation is performed by the image data input system 10 independently of the operations of steps T6 ′ and T7 ′ until the transition to the shooting end process after the start of shooting.

ステップT9’:(撮影終了処理)
2度めの輝度変化があると、制御部20は撮像を停止し、DRAM15に記憶された画像(複数)を順次JPEG圧縮してフラッシュメモリ50に保存記録し、全ての撮像画像の保存記録が終ると処理を終了する。
Step T9 ′: (shooting end process)
When there is a second luminance change, the control unit 20 stops imaging, sequentially JPEG-compresses the images (plural) stored in the DRAM 15 and saves and records them in the flash memory 50, and saves and records all the captured images. When finished, the process ends.

なお、上記変形例2では撮影開始の場合も撮影終了の場合も輝度基準K0,閾値Knを同じ値としたが、別々の値としてもよい。
また、上記変形例2では、説明上、指定部分の輝度変化を撮影開始または撮影終了のトリガとする例としたが、ステップT6’で「色相の変化検出」或いは、「動き検出」を行なうようにすれば、図9(b)と同様の手順で指定部分の色相の変化や、動きの変化を撮影開始または撮影終了のトリガとすることができる。
In the second modification, the luminance reference K0 and the threshold Kn are set to the same value when shooting is started and when shooting is ended. However, different values may be used.
In the second modification, for the sake of explanation, the luminance change at the designated portion is used as a trigger for starting or ending the shooting. However, at step T6 ′, “hue change detection” or “motion detection” is performed. By doing so, a change in hue or movement in the designated portion can be used as a trigger for the start or end of shooting in the same procedure as in FIG. 9B.

また、上記変形例2では、ステップT8’ではDRAM15に撮像画像を順次記憶し、2度目のトリガ(変化)が生じるとステップT9’でDRAM15に記憶された撮像画像をフラッシュメモリ50に保存記録するようにしたが、ステップT8’で撮像画像をその都度JPEG圧縮してフラッシュメモリ50に保存記録するようにしてもよい(この場合、ステップT9’では制御部20は撮影を終了させる)。   In the second modification, the captured images are sequentially stored in the DRAM 15 in step T8 ′, and when the second trigger (change) occurs, the captured images stored in the DRAM 15 are stored and recorded in the flash memory 50 in step T9 ′. However, in step T8 ′, the captured image may be JPEG compressed each time and stored and recorded in the flash memory 50 (in this case, the control unit 20 ends the shooting in step T9 ′).

<実施の形態2> 目印の認識結果の変化による自動撮像
本発明の撮像方法では、ユーザがキー操作等により被写体のある部分を目印として指定(または撮像)すると、その目印の形状を撮像装置が認識処理(または、撮像後認識処理)し、認識結果の変化(例えば、一致或いは不一致)をトリガとして自動撮像を行なう。
<Embodiment 2> Automatic imaging by change of recognition result of mark In the imaging method of the present invention, when a user designates (or images) a certain part of a subject by a key operation or the like, the imaging device displays the shape of the mark. Recognition processing (or recognition processing after imaging) is performed, and automatic imaging is performed using a change in recognition result (for example, coincidence or mismatch) as a trigger.

[回路構成]
図12は、本発明を適用した撮像装置の一実施例としてのデジタルカメラの回路構成例を示すブロック図であり、図1でデジタルカメラ100’は、バス1、画像データ入力系10、制御部20、操作部30、表示部40、フラッシュメモリ50、画像認識部70および画像辞書部80を備えている。なお、音響出力装置60を設けて撮像報知を行なうようにしてもよい。また、図12で、バス1〜フラッシュメモリ50(および、撮像報知(後述)を行なう場合には音響出力装置60)までの構成および機能は図1のデジタルカメラ100の構成および機能と同様である。
[Circuit configuration]
FIG. 12 is a block diagram showing a circuit configuration example of a digital camera as an embodiment of an imaging apparatus to which the present invention is applied. In FIG. 1, the digital camera 100 ′ includes a bus 1, an image data input system 10, and a control unit. 20, an operation unit 30, a display unit 40, a flash memory 50, an image recognition unit 70, and an image dictionary unit 80. Note that an acoustic output device 60 may be provided to perform imaging notification. In FIG. 12, the configuration and functions up to the bus 1 to the flash memory 50 (and the sound output device 60 when imaging notification (described later) is performed) are the same as the configuration and functions of the digital camera 100 in FIG. .

画像認識部70は指定された部分の形状を認識処理し、画像辞書部80に登録された画像の特徴により得た画像との一致或いは不一致を判定する。なお、一致或いは不一致の判定基準は公知の方法(認識処理による類似度(または、距離)が閾値以上の場合を一致、以下の場合を不一致)で得るようにしてもよい。   The image recognition unit 70 recognizes the shape of the designated portion, and determines whether or not it matches or does not match the image obtained from the image features registered in the image dictionary unit 80. It should be noted that the determination criterion for coincidence or non-coincidence may be obtained by a known method (match when the similarity (or distance) by the recognition process is greater than or equal to a threshold, and disagree when the following is the case).

また、画像辞書部80はフラッシュメモリ50に設けられ、画像認識に必要な画像の画像パターン(正規化されたパターン)とその特徴データ(辺(線分)の方向、隣接する辺との角度、隣接する辺や対抗する辺との比率、辺の数、頂点の数等々)が登録されている。また、撮像画像の特徴を抽出してその正規化パターンおよび特徴を画像辞書部80に登録することもできる。   The image dictionary unit 80 is provided in the flash memory 50, and an image pattern (normalized pattern) of an image necessary for image recognition and its feature data (side (line segment) direction, angle between adjacent sides, The ratios of adjacent sides and opposing sides, the number of sides, the number of vertices, etc.) are registered. It is also possible to extract the features of the captured image and register the normalized pattern and features in the image dictionary unit 80.

[画像パターン]
画像パターンの例としては、
(1)単純な幾何学的な図形パターン(正方形、長方形、三角形、円、楕円、多角形、星型、Vサイン等)、
(2)上記(1)の図形パターンで色彩の異なるもの、
(3)光パルス(白色光線、赤外線等)の発射、
(4)人間の手などで形取った幾何学図形(例えば、指で作るVサインや丸印)、
(5)人間の手などで作った一連の動作(例えば、ブロックサイン)、
が挙げられるが、これらに限定されない。
[Image pattern]
Examples of image patterns include
(1) Simple geometric figure pattern (square, rectangle, triangle, circle, ellipse, polygon, star, V-sign, etc.),
(2) The figure pattern of (1) above with different colors,
(3) firing light pulses (white light, infrared, etc.)
(4) Geometric figures (eg, V-signs or circles made with fingers) shaped by human hands,
(5) A series of actions (eg, block sign) made with human hands,
However, it is not limited to these.

[実施例4] 指定した目印(認識対象)の認識結果に基づく撮像
図13は、自動撮像モード下のデジタルカメラの動作例(目印の認識結果に基づく撮像)を示すフローチャートであり、(a)は登録されている画像パターンを選択してから、それに一致する画像が表われた時(または、消えた時)を撮像トリガとする例、(b)は変形例であり被写体画像中の特定の部分の画像が登録されている画像パターンと一致するとき(または、不一致になった時)を撮像トリガとする例である。
説明上、認識対象部分の指定を枠カーソル49(図10)で行ない、撮像準備が整って撮影者がカメラの視野内にはいってから特定の被写体人物がVサインを出して撮像のトリガとし、自動撮像を行なう例について説明する。
[Embodiment 4] Imaging based on recognition result of designated mark (recognition target) FIG. 13 is a flowchart showing an operation example (imaging based on a recognition result of a mark) of a digital camera in an automatic imaging mode. Is an example in which an image trigger is selected when a registered image pattern is selected and a matching image appears (or disappears), and (b) is a modified example of a specific image in a subject image. This is an example in which an imaging trigger is when a partial image matches (or does not match) a registered image pattern.
For the sake of explanation, the recognition target part is designated with the frame cursor 49 (FIG. 10), and after the photographer is ready and the photographer is within the field of view of the camera, a specific subject person gives a V-sign as a trigger for imaging. An example of performing automatic imaging will be described.

(動作例)
ステップU1:(自動撮像モード設定)
図13(a)で、撮影者がデジタルカメラ100の撮像アングルを決めてからデジタルカメラ100をそのアングルで固定し、自動撮像モード設定ボタン35を押すと、自動撮像モードが起動される。
(Operation example)
Step U1: (Automatic imaging mode setting)
In FIG. 13A, when the photographer determines the imaging angle of the digital camera 100 and then fixes the digital camera 100 at that angle and presses the automatic imaging mode setting button 35, the automatic imaging mode is activated.

ステップU2:(比較する画像パターンの表示)
制御部20は画像辞書部80に登録されている画像パターンを取り出して液晶ファインダ40に表示し、撮影者に選択を促す。登録されている画像パターンが多くて1画面に表示し切れない場合にはスクロールして所望の画像パターンを選択することができる。
Step U2: (Display of image pattern to be compared)
The control unit 20 takes out the image pattern registered in the image dictionary unit 80 and displays it on the liquid crystal finder 40 to prompt the photographer to select. If there are too many registered image patterns to be displayed on one screen, the user can scroll to select a desired image pattern.

ステップU3:(画像パターンの選択)
撮影者はカーソル移動キー等の操作により所望の画像パターンを選択する。画像パターンが選択されると制御部20はその画像パターンの特徴データを制御部20のRAMまたはDRAM15に記憶(保持)する。
例えば、ユーザがVサインの画像パターンを選択すると、その特徴データ(2本の線分が45°以内の角度の1つの頂点を共有し、その頂点は下側にある)が制御部20のRAM(または、DRAM15)に記憶(保持)される。
Step U3: (Selection of image pattern)
The photographer selects a desired image pattern by operating a cursor movement key or the like. When an image pattern is selected, the control unit 20 stores (holds) the feature data of the image pattern in the RAM or DRAM 15 of the control unit 20.
For example, when the user selects a V-sine image pattern, the feature data (two line segments share one vertex of an angle within 45 ° and the vertex is on the lower side) is stored in the RAM of the control unit 20. (Or stored (held) in the DRAM 15).

ステップU4:(被写体画像の取込、スルー画像表示)
被写体画像が取込まれ、液晶ファインダ40に被写体画像がスルー表示される。
Step U4: (Subject image capture, through image display)
The subject image is taken in, and the subject image is displayed through on the liquid crystal finder 40.

ステップU5:(認識対象部分の指定操作)
撮影者43は検出部分指定キー37を操作して、枠カーソル49を移動させてスルー表示されている被写体像のうち認識対象とする部分(例えば、目印)全部または大部分を枠内に入れるようにして指定する(図10(b))。この時、枠カーソル49の枠内を差別表示して枠カーソル49がどの部分を指定しているかをユーザが見やすいようにようにする(例えば、撮影者がある被写体人物の右胸の辺りを認識対象部分として指定し、この後、撮影者はカメラから離れ、被写体となるためにカメラの視野内に入るようにする)。
なお、認識対象部分を指定する際に所定のキー操作により枠カーソル49の枠の大きさを目印に合わせて縮小/拡大できるようにしてもよい。これにより、認識対象の全部を枠内に入れるようにできるので、次のステップU6での検出エリアの特定精度が向上する。
Step U5: (recognition target part designation operation)
The photographer 43 operates the detection portion designation key 37 to move the frame cursor 49 so that all or most of the portion (for example, a mark) to be recognized in the through-displayed subject image is within the frame. (FIG. 10B). At this time, the inside of the frame of the frame cursor 49 is displayed differently so that the user can easily see which part the frame cursor 49 designates (for example, the photographer recognizes the area around the right chest of a subject person). Designate it as the target part, after which the photographer leaves the camera and enters the field of view of the camera to become a subject).
Note that when specifying the recognition target portion, the size of the frame of the frame cursor 49 may be reduced / enlarged according to the mark by a predetermined key operation. Thereby, since all the recognition objects can be put in the frame, the accuracy of specifying the detection area in the next step U6 is improved.

ステップU6:(認識エリのア特定および切出し)
制御部20は指定部分、すなわち、枠カーソル49の枠の液晶ファインダ上の位置(座標)、すなわち、矩形枠の四隅の座標からDRAM15の画像記憶領域151上の検出エリア{(x1,y1)、(x2,y1)、(x1,y2)、(x2,y2)}を特定(算出)し、その部分を切出してDRAM15に記憶してU7に遷移する(例えば、上記ステップU5で指定した被写体人物が右胸の前に指でVサインを作ると、そのVサインを含む部分が切出される)。
Step U6: (Identification and extraction of recognition area)
The control unit 20 determines a detection area {(x1, y1) on the image storage area 151 of the DRAM 15 from the position (coordinates) on the liquid crystal finder of the designated part, that is, the frame of the frame cursor 49, that is, the coordinates of the four corners of the rectangular frame. (X2, y1), (x1, y2), (x2, y2)} are specified (calculated), and the portion is cut out, stored in the DRAM 15, and transitioned to U7 (for example, the subject person specified in step U5 above) If you make a V-sign with your finger in front of your right chest, the part that contains the V-sign is cut out).

ステップU7:(特徴抽出処理)
制御部20は画像認識部70を制御して、画像認識処理を行なう。認識処理は、例えば、DRAM15に記憶された認識対象部分を背景処理してVサイン像を抽出すると共に、正規化する(例えば、最大辺で各辺を割算して、1に対する比率とする)と共にその特徴データを抽出し、抽出した各特徴データと上記ステップU3で選択した画像パターンの各特徴データとの差を得る(例えば、上記ステップU5で指定の被写体人物がVサインを指で作っていた場合には、背景処理により認識対象部分からVサイン像を抽出してから、その特徴データ(2本の線分が45°以内の角度の1つの頂点を共有し、その頂点は下側にある)を抽出して、各特徴との差を求める)。
Step U7: (feature extraction process)
The control unit 20 controls the image recognition unit 70 to perform image recognition processing. In the recognition process, for example, a recognition target portion stored in the DRAM 15 is background-processed to extract a V-sine image and normalize (for example, each side is divided by the maximum side to obtain a ratio of 1). At the same time, the feature data is extracted, and the difference between each extracted feature data and each feature data of the image pattern selected at the step U3 is obtained (for example, the designated subject person makes a V-sign with a finger at the step U5). In this case, after extracting a V-sine image from the recognition target portion by background processing, the feature data (two vertices share one vertex with an angle within 45 °, and the vertex is on the lower side. And extract the difference from each feature).

ステップU8:(一致判定)
制御部20は上記ステップで得た各特徴データから認識対象部分と選択された画像パターンの距離X(差の平均二乗)を算出して、その大きさと閾値Ρとを比較して距離X<Ρのとき一致と判定し、U6に遷移する。また、X≧Ρのときは撮像トリガとしての画像が出されていないものとして、U6に戻る(例えば、上記ステップU5で指定の被写体人物がVサインを指で作っていた場合には、そのVサインと画像パターンのVサインの特徴データの差の二乗平均がΡ以内であればU6に遷移する)。
Step U8: (coincidence determination)
The control unit 20 calculates a distance X (mean square of the difference) between the recognition target portion and the selected image pattern from each feature data obtained in the above step, and compares the size with a threshold value Ρ to determine the distance X <Ρ. If it is, it is determined that they match, and the process proceeds to U6. Further, when X ≧ Ρ, it is determined that an image as an imaging trigger is not output, and the process returns to U6 (for example, if the subject person designated in step U5 made a V sign with his finger, the V If the mean square of the difference between the feature data of the sine and the V-sign of the image pattern is within Ρ, the process proceeds to U6).

ステップU9:(撮像トリガ信号の出力)
制御部20は上記ステップU8で認識結果が「一致」の場合に撮像トリガ信号(撮像指示信号)を出力してシャッター機構(光学系11)を制御する。なお、シャッター機構を制御する代りに撮像トリガ信号で撮像報知用の音響出力装置60(または、撮像報知用のランプ表示装置)を制御するようにしてもよく、また、シャッター機構或いは撮像報知用の装置を制御することなく(次のステップU10を省略してU11に遷移し)、画像の記録保存処理を行なうようにしてもよい。
Step U9: (Output of imaging trigger signal)
The control unit 20 outputs an imaging trigger signal (imaging instruction signal) and controls the shutter mechanism (optical system 11) when the recognition result is “match” in step U8. In addition, instead of controlling the shutter mechanism, the imaging output signal for the imaging notification (or the lamp display device for imaging notification) may be controlled by the imaging trigger signal, or the shutter mechanism or the imaging notification may be controlled. An image recording / storing process may be performed without controlling the apparatus (the next step U10 is omitted and the process proceeds to U11).

ステップU10:(シャッター動作(撮像および撮像報知))
シャッター機構は撮像指示信号によりシャッターボタン36を動作させ、「カシャリ」というような機械音を出して被写体人物に撮像の終了を報知する。この間、制御部20は撮像処理を行ない、U11に遷移する。
なお、上述(ステップU10)したように、シャッター動作による撮像終了報知に代えて音響出力装置に音または「撮像終了」の旨の音声メッセージを出力するようにしてもよく、或いは表示ランプにより「撮像終了」を報知するようにしてもよい。
Step U10: (Shutter operation (imaging and imaging notification))
The shutter mechanism operates the shutter button 36 in response to the imaging instruction signal and makes a mechanical sound such as “crisp” to notify the subject person of the end of imaging. During this time, the control unit 20 performs an imaging process and transitions to U11.
Note that, as described above (step U10), a sound or a voice message to the effect of “imaging has been completed” may be output to the sound output device instead of the imaging completion notification by the shutter operation, or “imaging” may be performed by a display lamp. You may make it alert | report "end".

ステップU11:(撮像画像の保存記録処理)
上記ステップU8で一致と判定された時点でDRAM15に取込まれている(=撮像された)画像データをJPEG圧縮処理してフラッシュメモリ50に保存記録する。
なお、上記実施例4ではステップU8で一致判定がなされた場合を撮像トリガとしたが、不一致(X≧Ρ)になった場合を撮像トリガとするようにしてもよい。
Step U11: (Saved image recording process)
The image data captured (= captured) in the DRAM 15 when it is determined to match in the above step U8 is JPEG compressed and stored in the flash memory 50.
In the fourth embodiment, the case where the coincidence determination is made in step U8 is used as the imaging trigger. However, the case where there is a mismatch (X ≧ Ρ) may be used as the imaging trigger.

また、上記実施例4では一致判定がなされた時点から撮像を開始したが、DRAM15に撮像画像を循環記憶する複数の画像バッファ領域を設定し、取込まれた画像を所定時間間隔で順次循環記憶し、一致判定がなされた時点から過去に数秒間遡った画像から順次取り出すようにして過去の画像の撮像を開始(PAST撮影)するようにしてもよい。
また、上記実施例では一致判定がなされた時点から撮像を開始したが、連続撮影や動画撮影の場合に一致判定(或いは、不一致判定)がなされたときに撮像を終了するようにしてもよい。
また、上記実施例では、画像パターンがVサインの場合について述べたが、前述した画像パターン(1)〜(5)をそれぞれ画像辞書80に登録しておくことにより様々な認識対象に用いることができる。
また、上記実施例4では枠カーソル49の形状を矩形としたがこれに限定されず、円、楕円、長方形三角形でもよく、上記ステップU5でカーソル枠の形状を複数個表示して目印に近似した枠を選択できるようにしてもよい(実施例5参照)。 また、上記実施例4では枠カーソルを表示して目印を指定するようにしたが、点カーソルを表示してキー操作により目印を囲むように動かすか、タッチペン等のポインティングデバイスで目印を囲むようにポイントして目印を指定するようにしてもよい。
In the fourth embodiment, the imaging is started from the time when the coincidence determination is made. However, a plurality of image buffer areas for circulating and storing the captured images are set in the DRAM 15, and the captured images are sequentially and cyclically stored at predetermined time intervals. Then, it is also possible to start imaging (PAST imaging) of past images by sequentially taking out images that have been traced back several seconds in the past from the time when the coincidence determination is made.
Further, in the above embodiment, the imaging is started from the time when the coincidence determination is made. However, the imaging may be ended when the coincidence determination (or the non-coincidence determination) is made in the case of continuous shooting or moving image shooting.
In the above embodiment, the case where the image pattern is a V sign has been described. However, by registering the image patterns (1) to (5) described above in the image dictionary 80, they can be used for various recognition objects. it can.
In the fourth embodiment, the frame cursor 49 has a rectangular shape. However, the shape is not limited to this, and may be a circle, an ellipse, or a rectangular triangle. In step U5, a plurality of cursor frame shapes are displayed to approximate the mark. A frame may be selected (see Example 5). In the fourth embodiment, the frame cursor is displayed and the mark is designated. However, the point cursor is displayed and moved so as to surround the mark by key operation, or the mark is surrounded by a pointing device such as a touch pen. You may make it point and designate a mark.

[変形例3]
上記実施例4では、登録されている画像パターンを選択してから、それに一致する画像が現われた時(または、消えた時)を撮像トリガとしたが、被写体画像中の特定の部分の画像が登録されている画像パターンと一致するとき(または、不一致になった時)を撮像トリガとしてもよい。なお、図13(b)で、ステップU9以下は図13(a)のステップU9以下と同様である(図13(a)のステップU8は図13(b)の場合はキャンセルする)。
[Modification 3]
In the fourth embodiment, when a registered image pattern is selected and an image that matches the selected image pattern appears (or disappears) as an imaging trigger, an image of a specific part in the subject image is displayed. An imaging trigger may be set when it matches the registered image pattern (or when it does not match). In FIG. 13B, step U9 and subsequent steps are the same as step U9 and subsequent steps in FIG. 13A (step U8 in FIG. 13A is canceled in the case of FIG. 13B).

(動作例)
ステップU1’:(被写体画像の取込、スルー画像表示)
図13(b)で、被写体画像が取込まれ液晶ファインダ40に被写体画像がスルー表示される。
(Operation example)
Step U1 ': (Subject image capture, through image display)
In FIG. 13B, the subject image is captured, and the subject image is displayed through on the liquid crystal finder 40.

ステップU2’:(遠隔撮影モード設定)
撮影者43がデジタルカメラ100の撮像アングルを決めてからデジタルカメラ100をそのアングルに固定し、遠隔撮影モード設定ボタン35を押すと、撮像モードが起動される。
Step U2 ': (Remote shooting mode setting)
When the photographer 43 determines the imaging angle of the digital camera 100 and then fixes the digital camera 100 to that angle and presses the remote shooting mode setting button 35, the imaging mode is activated.

ステップU3’:(認識対象部分の指定操作)
撮影者43は検出部分指定キー37を操作して、枠カーソル49を移動させてスルー表示されている被写体像の内認識対象とする部分の全部または一部を枠内に入れるようにして指定する。この時、枠カーソル49の枠内を差別表示してカーソルがどの部分を指定しているかをユーザが見やすいようにようにする。また、撮影者がある被写体人物の右胸の辺りを認識対象部分として指定し、この後、撮影者はカメラから離れ、被写体となるためにカメラの視野内に入るようにする。
Step U3 ′: (Operation for designating recognition target part)
The photographer 43 operates the detection part designation key 37 to move the frame cursor 49 to designate all or part of the part to be recognized in the through-displayed subject image within the frame. . At this time, the inside of the frame of the frame cursor 49 is discriminated to make it easy for the user to see which part the cursor specifies. In addition, the photographer designates the right chest area of a subject person as a recognition target portion, and thereafter, the photographer leaves the camera and enters the field of view of the camera to become a subject.

ステップU4’:(認識エリアの切出し)
制御部20は指定部分、すなわち、枠カーソル49の枠の液晶ファインダ上の位置(座標)、すなわち、矩形枠の四隅の座標からDRAM15の画像記憶領域151上の検出エリアを算出して認識対象部分を特定し、それを切出してDRAM15に記憶してU5’に遷移する。
Step U4 ': (Recognition area extraction)
The control unit 20 calculates the detection area on the image storage area 151 of the DRAM 15 from the designated part, that is, the position (coordinates) of the frame of the frame cursor 49 on the liquid crystal finder, that is, the coordinates of the four corners of the rectangular frame. Is extracted, stored in the DRAM 15, and transited to U5 '.

ステップU5’:(画像認識処理)
制御部20は画像認識部70を制御して、画像認識処理を行なう。認識処理は、例えば、DRAM15に記憶された認識対象部分を背景処理してVサイン像を抽出すると共に、正規化すると共にその特徴データを抽出する。
Step U5 ′: (Image recognition processing)
The control unit 20 controls the image recognition unit 70 to perform image recognition processing. In the recognition process, for example, a recognition target portion stored in the DRAM 15 is background-processed to extract a V-sine image, normalize it, and extract its feature data.

ステップU6’:(画像辞書部のサーチ)
制御部20は画像辞書部80をサーチして登録されている画像パターンの各特徴データと、抽出した部分画像の各特徴データとの差を得る。
Step U6 ′: (Search image dictionary section)
The control unit 20 searches the image dictionary unit 80 to obtain a difference between each feature data of the registered image pattern and each feature data of the extracted partial image.

ステップU7’:(一致判定)
制御部20は上記ステップで得た各特徴データの差から認識対象部分と選択された画像パターンの距離X(差の平均二乗)を算出して、その大きさと閾値Ρとを比較して距離X<Ρのとき一致と判定し、U9に遷移する。また、X≧Ρのときは撮像トリガとしての画像が出されていないものとして次の画像パターンをサーチするためにU6’に戻る。
Step U7 ′: (match determination)
The control unit 20 calculates the distance X (mean square of the difference) between the recognition target portion and the selected image pattern from the difference between the feature data obtained in the above step, and compares the size with the threshold value 距離 to determine the distance X. <If it is Ρ, it is determined to match, and the process proceeds to U9. When X ≧ Ρ, it is determined that an image as an imaging trigger is not output, and the process returns to U6 ′ to search for the next image pattern.

[実施例5] 撮像した画像の変化をトリガとして撮像を行なう例
本実施例は、デジタルカメラ100で撮像した撮像画像の変化(この例では、移動による消失)をトリガとして撮像を行なう例であり、ゴルフスイングを連続撮影する場合を例としている。
[Example 5] Example in which imaging is performed using change in captured image as a trigger This example is an example in which imaging is performed using a change in a captured image captured by the digital camera 100 (in this example, disappearance due to movement) as a trigger. In this example, the golf swing is continuously shot.

図14は本実施例でのDRAM15のレイアウト例を示す図であり、図15はゴルフスイングを例としたトリガ画像および連続撮影の撮像タイミングの説明図である。また、図16は自動撮像モード下のデジタルカメラの動作例を示すフローチャートであり、撮像画像の変化によるPAST撮影の例を示す。
ゴルフのインパクトの瞬間の前後を撮影するにはインパクトの瞬間から所定時間過去の画像を記憶しておく必要がある。本実施例では図14に示すようにDRAM15に連続撮影される画像を順次循環的に記憶する複数の画像バッファ(この例では、G(1)〜G(n))181とトリガ画像記憶用のトリガ画像バッファ182を確保している。
FIG. 14 is a diagram showing a layout example of the DRAM 15 in the present embodiment, and FIG. 15 is an explanatory diagram of a trigger image and an imaging timing of continuous shooting taking a golf swing as an example. FIG. 16 is a flowchart showing an example of the operation of the digital camera in the automatic imaging mode, and shows an example of PAST imaging based on a change in the captured image.
In order to photograph before and after the moment of impact of golf, it is necessary to store images past for a predetermined time from the moment of impact. In this embodiment, as shown in FIG. 14, a plurality of image buffers (in this example, G (1) to G (n)) 181 for sequentially and cyclically storing images continuously photographed in the DRAM 15 and a trigger image storage. A trigger image buffer 182 is secured.

また、図15で、(a)はティー162にセットされたゴルフボール161を示し、(b)は撮像された比較用のトリガ画像160(ゴルフボール161およびティー162からなる部分画像)を示す。
また、(c)はインパクト前のゴルフクラブの動きを示す図でありPAST画像に相当する。また、(d)はインパクト後のゴルフクラブの動きを示す図でありFUTURE画像に相当する。
また、(e)は連続撮影中にトリガ画像に変化が生じた場合の撮像タイミングを示す図である。(c)に示すようにインパクト前はトリガ画像160と一致していたスルー画像の指定部分165内の画像が、インパクト後は(d)に示すように消失しているので撮像のトリガとなるが、この例では、インパクト時から過去に数秒(t)遡った時点からインパクトまでの画像(PAST画像)とインパクトから数秒(t’)経過する間の画像(FUTURE画像)のトリガとしてトリガ画像との不一致(ゴルフボールおよびティ−の消失)を用いる。以下、図16のフローチャートに基づいて説明する。
15A shows the golf ball 161 set on the tee 162, and FIG. 15B shows a comparative trigger image 160 (partial image made up of the golf ball 161 and the tee 162).
Moreover, (c) is a figure which shows the motion of the golf club before an impact, and is equivalent to a PAST image. Moreover, (d) is a figure which shows the motion of the golf club after an impact, and is equivalent to a FUTURE image.
Moreover, (e) is a figure which shows the imaging timing when a change arises in a trigger image during continuous imaging | photography. As shown in (c), the image in the designated portion 165 of the through image that coincided with the trigger image 160 before the impact disappears as shown in (d) after the impact. In this example, a trigger image is used as a trigger for an image (PAST image) from a point in time several seconds (t) before the impact to the impact (PAST image) and an image (FUTURE image) during the passage of several seconds (t ′) from the impact. Use discrepancy (disappearance of golf ball and tee). Hereinafter, description will be given based on the flowchart of FIG.

ステップV1:(被写体画像の取込、スルー画像表示)
被写体画像が取込まれ液晶ファインダ40に被写体画像がスルー表示される。
Step V1: (Subject image capture, through image display)
The subject image is taken in, and the subject image is displayed through on the liquid crystal finder 40.

ステップV2:(遠隔撮影モード設定)
撮影者43がデジタルカメラ100の撮像アングルを決めてからデジタルカメラ100をそのアングルに固定し、自動撮像モード設定ボタン35を押すと、自動撮像モードが起動される。
Step V2: (Remote shooting mode setting)
When the photographer 43 determines the imaging angle of the digital camera 100 and then fixes the digital camera 100 to that angle and presses the automatic imaging mode setting button 35, the automatic imaging mode is activated.

ステップV3:(トリガ画像(比較画像)の撮像)
スルー画像中、撮影者はトリガ画像(比較画像)としたい画像(図14のゴルフボールのようにスルー画像の一部でもよい)があるとそれを枠カーソル移動指定キー37を操作して枠カーソルで指定してからシャッターボタン36を操作してそれを撮像する。
Step V3: (Taking a trigger image (comparison image))
In the through image, if there is an image (a part of the through image as in the golf ball of FIG. 14) that the photographer wants to use as a trigger image (comparison image), the photographer operates the frame cursor movement designation key 37 to operate the frame cursor. Then, the shutter button 36 is operated to pick up an image.

ステップV4:(背景処理およびトリガ画像の記憶)
制御部20はトリガ画像としたい画像部分の位置情報(実施例ではその部分を含む矩形の4隅の座標)を制御部20のRAM(または、DRAM15のワークエリア183)に記憶(保持)すると共に、その矩形内のトリガ画像をDRAM15のトリガ画像バッファ182に記憶する(図14(b)参照))。
Step V4: (Background processing and storage of trigger image)
The control unit 20 stores (holds) the position information (coordinates of the four corners of the rectangle including the portion) of the image portion to be used as the trigger image in the RAM (or the work area 183 of the DRAM 15) of the control unit 20. The trigger image within the rectangle is stored in the trigger image buffer 182 of the DRAM 15 (see FIG. 14B)).

ステップV5:(連写モード判定)
制御部20は操作部30からの状態信号を調べ、撮影者が連写モードを選択した場合にV6に遷移する。
Step V5: (Continuous shooting mode determination)
The control unit 20 examines the status signal from the operation unit 30, and transitions to V6 when the photographer selects the continuous shooting mode.

ステップV6:(画像循環記憶、スルー画像表示)
制御部20は取込まれた画像を画像バッファG(1)〜G(n)に順次記憶すると共に、スルー画像表示する。取込まれた画像は所定時間間隔で循環的に表示される(例えば、図14に示すように画像バッファの数を16とし、0.2秒間隔で取込むとすると3.2秒毎に循環記憶される(現在より3.2秒前に記憶された画像は現在の画像で置換される)。
Step V6: (Image circulation storage, through image display)
The control unit 20 sequentially stores the captured images in the image buffers G (1) to G (n) and displays a through image. The captured images are cyclically displayed at predetermined time intervals (for example, if the number of image buffers is 16 as shown in FIG. 14 and the images are captured at 0.2 second intervals, the images are rotated every 3.2 seconds. Stored (the image stored 3.2 seconds before the current is replaced with the current image).

ステップV7:(比較対象部分の抽出)
制御部20は、今取込まれた画像(=スルー表示された画像)からトリガ画像の位置に相当する比較対象の画像部分を抽出する。
Step V7: (Extraction of comparison target part)
The control unit 20 extracts a comparison target image portion corresponding to the position of the trigger image from the image that has been captured (= the through-displayed image).

ステップV8:(トリガ画像との比較)
次に、制御部20は抽出された部分画像とトリガ画像とを比較し、一致している場合には変化なしとしてV6に戻り、一致しない場合にはV9に遷移する(例えば、図15でインパクト前はゴルフボール161とティー162があるので一致するのでV6に戻り、インパクトによりゴルフボール161とティー162が消失した場合には不一致となってV9に遷移する)。
Step V8: (Comparison with the trigger image)
Next, the control unit 20 compares the extracted partial image with the trigger image. If they match, the control unit 20 returns to V6 as no change, and if they do not match, transitions to V9 (for example, the impact in FIG. 15). Since the golf ball 161 and the tee 162 coincide with each other before that, they return to V6, and when the golf ball 161 and the tee 162 disappear due to the impact, they are inconsistent and transition to V9).

比較方法としては、例えば、抽出した部分画像の画素を反転して反転後の部分画像とトリガ画像の画素の論理積がすべて1になれば一致、そうでなけれな不一致とすることができる。なお、この場合、ゴルファーがスイング姿勢をとったことなどによる光線の加減や背景による影響を考慮して、反転後の部分画像とトリガ画像の論理積が全て1とならなくても1となった画素が所定の閾値(例えば、40%)以下になれば不一致とするようにしてもよい。   As a comparison method, for example, the pixel of the extracted partial image is inverted, and if the logical product of the inverted partial image and the pixel of the trigger image is all 1, it can be matched, and otherwise it can be mismatched. In this case, in consideration of the effect of light rays due to the golfer taking a swing posture and the influence of the background, the logical product of the inverted partial image and the trigger image is 1 even if it is not all 1. If the pixel falls below a predetermined threshold (for example, 40%), it may be determined that the pixels do not match.

ステップV9:(PAST撮影)
制御部20は、画像の変化があるとそれをトリガとしてその時点から所定時間(例えば、1.6秒)遡った時点からトリガ時点までの画像を画像バッファから取り出して、順次JPEG圧縮処理してからフラッシュメモリ50に保存記憶する(例えば、トリガ時点でG(16)に画像が記憶された場合にはG(8)〜G(16)までに記憶された画像がPAST画像として保存記憶される)。
Step V9: (PAST shooting)
When there is a change in the image, the control unit 20 takes the image as a trigger, takes out an image from the time point that is a predetermined time (for example, 1.6 seconds) from the time point to the trigger time point, and sequentially performs JPEG compression processing. To the flash memory 50 (for example, when an image is stored in G (16) at the time of the trigger, the images stored in G (8) to G (16) are stored and stored as PAST images. ).

ステップV10:(FUTURE撮影)
制御部20はPAST撮影後、トリガ時点から所定時間後(例えば、1.4秒)までの画像を画像バッファから取り出して順次JPEG圧縮処理してからフラッシュメモリ50に保存記憶する(例えば、トリガ時点でG(16)に画像が記憶された場合にはG(1)〜G(7)までに記憶された画像がFUTURE画像として保存記憶される)。
Step V10: (FUTURE shooting)
After the PAST shooting, the control unit 20 takes out images from the trigger time to a predetermined time (for example, 1.4 seconds) from the image buffer, sequentially JPEG compresses them, and saves and stores them in the flash memory 50 (for example, the trigger time) When the image is stored in G (16), the images stored in G (1) to G (7) are stored and stored as FUTURE images).

なお、上記実施例5ではトリガ画像が消えたときを撮影開始のトリガとしたが、撮影終了のトリガとしてもよく、トリガ画像が出現したときを撮影開始(または撮影終了)のトリガとするようにしてもよい。   In the fifth embodiment, the shooting start trigger is set when the trigger image disappears. However, the shooting end trigger may be set. When the trigger image appears, the shooting start (or shooting end) trigger is set. May be.

以上本発明の幾つかの実施例および変形例について説明したが、本発明は上記実施例及び変形例に限定されるものではなく、種々の変形実施が可能であることはいうまでもない。   Although several embodiments and modifications of the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and it goes without saying that various modifications can be made.

本発明の撮像装置の一実施例としてのデジタルカメラの回路構成例を示すブロック図である。1 is a block diagram illustrating a circuit configuration example of a digital camera as an embodiment of an imaging apparatus of the present invention. カラープロセス回路の構成例を示すブロック図である。It is a block diagram which shows the structural example of a color process circuit. 本発明の撮像方法の一実施例の説明図である。It is explanatory drawing of one Example of the imaging method of this invention. 画面分割による検出エリア指定方法の説明図である。It is explanatory drawing of the detection area designation | designated method by screen division. 遠隔撮影モード下のデジタルカメラの動作例(目印の変化検出による撮像)を示すフローチャートである。It is a flowchart which shows the operation example (imaging by a change detection of a mark) of the digital camera under remote photography mode. 指定部分の輝度分布の一例を示す図である。It is a figure which shows an example of the luminance distribution of a designated part. 指定部分の色分布の一例を示す図である。It is a figure which shows an example of the color distribution of a designated part. 指定部分の動き検出に用いるAF用高周波の積分出力分布の一例を示す図である。It is a figure which shows an example of the integrated output distribution of the high frequency for AF used for the motion detection of the designated part. 遠隔撮影モード下のデジタルカメラの動作例(変形例)を示すフローチャートである。It is a flowchart which shows the operation example (modification) of the digital camera under remote imaging mode. 枠カーソルによる検出エリア指定方法の説明図である。It is explanatory drawing of the detection area designation | designated method by a frame cursor. 連写或いは動画撮影時の自動撮像方法の一実施例の説明図である。It is explanatory drawing of one Example of the automatic imaging method at the time of continuous shooting or video recording. 本発明の撮像装置の一実施例としてのデジタルカメラの回路構成例を示すブロック図である。1 is a block diagram illustrating a circuit configuration example of a digital camera as an embodiment of an imaging apparatus of the present invention. 自動撮像モード下のデジタルカメラの動作例(目印の認識結果に基づく撮像)を示すフローチャートである。It is a flowchart which shows the operation example (imaging based on the recognition result of a mark) of the digital camera in automatic imaging mode. DRAMのレイアウト例を示す図である。It is a figure which shows the example of a layout of DRAM. ゴルフスイングを例とした連続撮影の撮像タイミングの説明図である。It is explanatory drawing of the imaging timing of the continuous imaging | photography which made the golf swing an example. 自動撮像モード下のデジタルカメラの動作例(撮像画像の変化によるPAST撮像の例)を示すフローチャートである。It is a flowchart which shows the operation example (example of PAST imaging by the change of a captured image) of the digital camera in automatic imaging mode.

符号の説明Explanation of symbols

20 制御部(画像状態比較手段、撮像制御手段、画像抽出手段、画像比較手段)
37 検出部分指定キー、枠カーソル移動指示キー(部分指定手段、比較画像抽出手段)
45 カーソル(部分指定手段、比較画像抽出手段)
49 枠カーソル(部分指定手段、比較画像抽出手段)
50 スルー画像(動画表示されている被写体画像)
70 認識処理部(画像認識手段)
80 画像辞書部(画像パターン登録手段)
131 カラープロセス回路(画像状態検出手段)
20 control unit (image state comparison means, imaging control means, image extraction means, image comparison means)
37 Detection part designation key, frame cursor movement instruction key (part designation means, comparison image extraction means)
45 Cursor (part designation means, comparison image extraction means)
49 Frame cursor (part designation means, comparison image extraction means)
50 Through image (Subject image displayed as a movie)
70 Recognition processing unit (image recognition means)
80 Image dictionary (image pattern registration means)
131 Color process circuit (image state detection means)

Claims (3)

画像パターンおよびそのパターンデータを登録した画像パターン情報登録手段と、その画像パターン情報登録手段に登録された画像パターンを選択する画像パターン選択手段と、表示されている被写体画像のうちの所望の画像部分を指定する部分指定手段と、その部分指定手段によって指定された画像部分を前記被写体画像から切り出して、前記画像パターン選択手段によって選択された画像パターンのパターンデータをもとにその切り出された画像部分を認識処理する画像認識手段と、その画像認識手段による認識処理の結果、切出した画像部分と画像パターンが一致したときを撮像開始或いは撮像終了のトリガとする撮像制御手段と、を備えたことを特徴とする撮像装置。   Image pattern information registration means for registering an image pattern and its pattern data, image pattern selection means for selecting an image pattern registered in the image pattern information registration means, and a desired image portion of the displayed subject image A part designating unit for designating the image part, and an image part cut out based on the pattern data of the image pattern selected by the image pattern selecting unit by cutting out the image part specified by the part specifying unit from the subject image An image recognition means for recognizing the image, and an image pickup control means for triggering the start or end of the image pickup when the image pattern matches the image pattern extracted as a result of the recognition process by the image recognition means. An imaging device that is characterized. 前記撮像制御手段は、前記画像認識手段による認識処理の結果、切出した画像部分と画像パターンが不一致となったときを撮像終了或いは撮像開始のトリガとすることを特徴とする請求項1記載の撮像装置。 2. The imaging according to claim 1 , wherein the imaging control unit uses, as a result of recognition processing by the image recognition unit, a trigger to end imaging or start imaging when a cut-out image portion and an image pattern do not match. apparatus. 前記画像パターンは、下記(1)〜(4)のパターンの少なくとも1つを含むことを特徴とする請求項1または2記載の撮像装置。
(1) 幾何学的な図形パターン、
(2) パルスパターン、
(3) 人間の手などで形取った幾何学図形、
(4) 人間の手などで表現した一連の動作パターン。
The imaging apparatus according to claim 1, wherein the image pattern includes at least one of the following patterns (1) to (4).
(1) Geometric figure pattern,
(2) Pulse pattern,
(3) Geometric figures shaped by human hands,
(4) A series of motion patterns expressed by human hands.
JP2006021427A 2006-01-30 2006-01-30 Imaging device Expired - Fee Related JP4337825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006021427A JP4337825B2 (en) 2006-01-30 2006-01-30 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006021427A JP4337825B2 (en) 2006-01-30 2006-01-30 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP37041298A Division JP4341936B2 (en) 1998-12-25 1998-12-25 Imaging method and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2006121761A JP2006121761A (en) 2006-05-11
JP4337825B2 true JP4337825B2 (en) 2009-09-30

Family

ID=36539127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006021427A Expired - Fee Related JP4337825B2 (en) 2006-01-30 2006-01-30 Imaging device

Country Status (1)

Country Link
JP (1) JP4337825B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008263422A (en) * 2007-04-12 2008-10-30 Yasumasa Muto Imaging apparatus and imaging method
US7817914B2 (en) * 2007-05-30 2010-10-19 Eastman Kodak Company Camera configurable for autonomous operation
JP2010239169A (en) * 2007-08-08 2010-10-21 Panasonic Corp Imaging device
JP5473260B2 (en) * 2008-06-27 2014-04-16 キヤノン株式会社 Imaging device
CN102057664B (en) 2008-06-03 2013-07-17 佳能株式会社 Image pickup apparatus
CN102761685B (en) * 2012-02-24 2016-08-17 联想(北京)有限公司 A kind of method obtaining image and electronic equipment
JP5308607B1 (en) * 2012-08-27 2013-10-09 善郎 水野 Release control device, release control method, and program for executing release control method
CN105306801A (en) * 2014-06-09 2016-02-03 中兴通讯股份有限公司 Shooting method and device and terminal
JP6337980B2 (en) * 2017-02-15 2018-06-06 カシオ計算機株式会社 Exercise state detection apparatus, control method thereof, and control program thereof

Also Published As

Publication number Publication date
JP2006121761A (en) 2006-05-11

Similar Documents

Publication Publication Date Title
JP4341936B2 (en) Imaging method and imaging apparatus
JP4337825B2 (en) Imaging device
JP4577275B2 (en) Imaging apparatus, image recording method, and program
US8159561B2 (en) Digital camera with feature extraction device
US8786725B2 (en) Camera
WO2016016984A1 (en) Image pickup device and tracking method for subject thereof
CN113630545B (en) Shooting method and equipment
JP5293206B2 (en) Image search apparatus, image search method and program
JP4552997B2 (en) Imaging apparatus and program
JP4952920B2 (en) Subject determination apparatus, subject determination method and program thereof
JP4802884B2 (en) Imaging apparatus, captured image recording method, and program
JP2009117975A (en) Image pickup apparatus and method
JPH11155118A (en) Electronic camera system
JP4577445B2 (en) Imaging apparatus, image recording method, and program
JP2009147574A (en) Imaging apparatus, and program thereof
CN101611347A (en) Imaging device
JP2010093539A (en) Imaging apparatus
JP2014107750A (en) Photographing apparatus
JP2013183185A (en) Imaging apparatus, and imaging control method and program
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5272773B2 (en) Image processing apparatus, image processing method, and program
JP2010161547A (en) Composition selecting device and program
JP2010085530A (en) Autofocus system
JP2015217122A (en) Image notification device, imaging device, image notification method, and image notification program
JP4877186B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090622

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130710

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees