JP2000196934A - Method and device for picking up image - Google Patents

Method and device for picking up image

Info

Publication number
JP2000196934A
JP2000196934A JP10370412A JP37041298A JP2000196934A JP 2000196934 A JP2000196934 A JP 2000196934A JP 10370412 A JP10370412 A JP 10370412A JP 37041298 A JP37041298 A JP 37041298A JP 2000196934 A JP2000196934 A JP 2000196934A
Authority
JP
Japan
Prior art keywords
image
imaging
pattern
trigger
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10370412A
Other languages
Japanese (ja)
Other versions
JP4341936B2 (en
Inventor
Yoshihiro Mishima
吉弘 三島
Hideo Abe
英雄 阿部
Takeshi Matsunaga
剛 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP37041298A priority Critical patent/JP4341936B2/en
Publication of JP2000196934A publication Critical patent/JP2000196934A/en
Application granted granted Critical
Publication of JP4341936B2 publication Critical patent/JP4341936B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and device for picking up image by which the image of an object is picked up (the picking up of the image is stopped) by using the variation of a specific part of the object as a trigger. SOLUTION: A person to be photographed has a mark 45 (a). A photographer 43 fixes the angle of an image pickup device and, at the same time, brings the mark 45 in the visual field of the device after designating the mark 45 as a section to be detected by operating keys. The image pickup device monitors the luminance of the mark 45 and, when the luminance changes beyond a threshold, picks up the image of the person by operating a shutter. When the photographer 43 conceals the mark 45 after the mark 45 is brought in the visual field of the image pickup device (b), the device picks up the image, because the luminance of the mark 45 changes beyond the threshold.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はデジタルカメラ等の
撮像装置でのセルフタイマーやリモートコントロールに
代る撮像技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging technique that replaces a self-timer and a remote control in an imaging apparatus such as a digital camera.

【0002】[0002]

【従来の技術】カメラ撮影等で撮影者自身も被写体とし
て撮像したい場合(例えば、集合写真や風景等を背景と
して自分自身を撮る場合等)や手動シャッター操作では
手振れの心配があるような場合に、従来、カメラを固定
してから、タイマーと連動させてシャッター動作を行な
うセルフタイマー機能を備えたカメラや、リモコン(遠
隔操縦装置)によりシャッター動作を行なうリモコン機
能を備えたカメラがある。
2. Description of the Related Art In a case where a photographer himself wants to take an image as a subject in a camera photographing or the like (for example, a case where himself or herself is photographed against a background of a group photograph or a landscape) or a case where there is a risk of camera shake due to manual shutter operation. Conventionally, there is a camera having a self-timer function for performing a shutter operation in conjunction with a timer after fixing the camera, and a camera having a remote control function for performing a shutter operation using a remote control (remote control device).

【0003】[0003]

【発明が解決しようとする課題】上記従来のセルフタイ
マー機能を用いて撮影者自身が参加した撮像を行なう場
合には、撮像アングルを決めてから時間を設定し、撮影
者が被写体として参加するが、タイマーの設定時間の如
何によってはシャッターチャンスを失うという問題点、
すなわち、設定時間が短過ぎると撮影者が被写体として
ポーズをとりきれないうちにシャッターが動作してしま
い、設定時間が長過ぎると時間が余ってしまいシャッタ
ーチャンスを逃してしまうという不都合(例えば、集合
写真の場合カメラに注意を向けさせてから、タイマーを
セットするがセットした時間が長過ぎると被写体である
人の注意力が低下し、視線があらぬほうを向いた統一の
ない写真となる)があった。
In the case where the photographer himself participates in imaging using the above-mentioned conventional self-timer function, the photographer participates as a subject after setting an imaging angle and then setting a time. , The problem of losing a photo opportunity depending on the setting time of the timer,
That is, if the set time is too short, the shutter operates before the photographer can take a pose as a subject, and if the set time is too long, there is an inconvenience that time is left and a photo opportunity is missed. In the case of photographs, set the timer after paying attention to the camera, but if the timer is set for too long, the attention of the subject will be reduced, and the photograph will be ununiform and look unfocused) was there.

【0004】また、リモコン機能を備えたカメラではリ
モコン装置を携帯するか、カメラに取り付けておき使用
時に取り外して用いるようにする必要があるが、リモコ
ン装置を携帯する方式では忘れることがあり、カメラに
取り付けておく方式ではかさばるといった点から特殊な
用途の場合を除いてあまり普及していない。
In a camera having a remote control function, it is necessary to carry the remote control device or to attach it to the camera and remove it when using it. It is not widely used except for special applications because it is bulky when it is attached to

【0005】本発明は上記問題点に鑑みてなされたもの
であり、被写体の特定の部分の変化をトリガとして撮像
(または撮像停止)を行なう撮像方法および撮像装置の
提供を目的とする。
The present invention has been made in view of the above problems, and has as its object to provide an imaging method and an imaging apparatus that perform imaging (or stop imaging) by using a change in a specific portion of a subject as a trigger.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明の撮像方法は、表示されている被写体
画像のうちの所望の部分を指定した後、指定した所望の
部分がその部分を指定した時の状態と比べて変化したと
きを撮像開始或いは撮像終了のトリガとすることを特徴
とする。
In order to achieve the above object, according to a first aspect of the present invention, there is provided an imaging method, wherein a desired portion of a displayed subject image is designated, and then the designated desired portion is displayed. It is characterized in that a time when the portion is changed as compared with the state when the portion is designated is used as a trigger for starting or ending the imaging.

【0007】また、第2の発明の撮像方法は、表示され
ている被写体画像のうちの指定部分と登録された画像パ
ターンが一致したときを撮像開始或いは撮像終了のトリ
ガとすることを特徴とする。
[0007] The imaging method according to a second aspect of the invention is characterized in that the start of imaging or the end of imaging is triggered when a designated portion of the displayed subject image matches a registered image pattern. .

【0008】また、第3の発明の撮像方法は、表示され
ている被写体画像のうちの指定部分と登録された画像パ
ターンが不一致となったときを撮像開始或いは撮像終了
のトリガとすることを特徴とする。
[0008] The imaging method according to a third aspect of the present invention is characterized in that, when a designated portion of the displayed subject image and the registered image pattern do not match, the start or end of imaging is triggered. And

【0009】また、第4の発明の撮像方法は、所定の画
角で撮像した画像のうちの指定部分と所定の画角で動画
表示されている被写体画像のうち指定部分と対応する画
像部分とが異なったときを撮像のトリガとすることを特
徴とする。
In a fourth aspect of the present invention, there is provided an image pickup method, comprising: a designated portion of an image taken at a predetermined angle of view and an image portion corresponding to the designated portion of a subject image displayed as a moving image at a predetermined angle of view. Are different from each other as a trigger for imaging.

【0010】また、第5の発明の撮像装置は、表示され
ている被写体画像のうちの所望の画像部分を指定する部
分指定手段と、その部分指定手段によって指定された画
像部分の状態を検出する画像状態検出手段と、その部分
指定手段によって指定されたときに画像状態検出手段に
よって検出された画像部分の画像状態と、その後に画像
状態検出手段によって検出された画像部分の画像状態と
を比較する画像状態比較手段と、その画像状態比較手段
による比較の結果、部分指定手段によって指定されたと
きの部分画像の画像状態に比べてその後の画像状態が変
化したときを撮像開始或いは撮像終了のトリガとする撮
像制御手段と、を備えたことを特徴とする。
The image pickup apparatus according to a fifth aspect of the present invention includes a part designating means for designating a desired image part in a displayed subject image and a state of the image part designated by the part designating means. Comparing the image state of the image part detected by the image state detecting means when specified by the image state detecting means with the image state detecting means, and the image state of the image part detected by the image state detecting means thereafter As a result of the comparison by the image state comparing means and the image state comparing means, when the subsequent image state changes compared to the image state of the partial image specified by the partial specifying means, a trigger to start or end the imaging And an imaging control unit that performs the operation.

【0011】また、第6の発明は上記第5の発明の撮像
装置において、画像状態検出手段は、輝度、色相或いは
指定した画像部分の動きから画像部分の状態を検出する
ことを特徴とする。
According to a sixth aspect of the present invention, in the imaging apparatus of the fifth aspect, the image state detecting means detects a state of the image portion from luminance, hue, or movement of the designated image portion.

【0012】また、第7の発明の撮像装置は、画像パタ
ーンおよびそのパターンデータを登録した画像パターン
情報登録手段と、その画像パターン情報登録手段に登録
された画像パターンを選択する画像パターン選択手段
と、表示されている被写体画像のうちの所望の画像部分
を指定する部分指定手段と、その部分指定手段によって
指定された画像部分を前記被写体画像から切り出して、
画像パターン選択手段によって選択された画像パターン
のパターンデータをもとにその切り出された画像部分を
認識処理する画像認識手段と、その画像認識手段による
認識処理の結果、切出した画像部分と画像パターンが一
致したときを撮像開始或いは撮像終了のトリガとする撮
像制御手段と、を備えたことを特徴とする。
An image pickup apparatus according to a seventh aspect of the present invention comprises an image pattern information registering means for registering an image pattern and its pattern data, and an image pattern selecting means for selecting an image pattern registered in the image pattern information registering means. A part designating means for designating a desired image part of the displayed subject image, and cutting out the image part designated by the part designating means from the subject image,
Image recognition means for recognizing the cut out image portion based on the pattern data of the image pattern selected by the image pattern selection means, and as a result of the recognition processing by the image recognition means, the cut out image portion and the image pattern Imaging control means for triggering the start or end of imaging when coincidence occurs.

【0013】また、第8の発明は上記第7の発明の撮像
装置において、撮像制御手段は、画像認識手段による認
識処理の結果、切出した画像部分と画像パターンが不一
致となったときを撮像開始或いは撮像終了のトリガとす
ることを特徴とする。
According to an eighth aspect of the present invention, in the imaging apparatus of the seventh aspect, the imaging control means starts imaging when the cut-out image portion and the image pattern do not match as a result of the recognition processing by the image recognition means. Alternatively, a trigger for ending the imaging is provided.

【0014】また、第9の発明は上記第7または第8の
発明の撮像装置において、画像パターンは、下記(1)
〜(4)のパターンの少なくとも1つを含むことを特徴
とする。 (1) 幾何学的な図形パターン、(2) パルスパタ
ーン、(3) 人間の手などで形取った幾何学図形、
(4) 人間の手などで表現した一連の動作パターン。
According to a ninth aspect of the present invention, in the image pickup apparatus of the seventh or eighth aspect, the image pattern is defined by the following (1).
It is characterized by including at least one of the patterns of (4) to (4). (1) geometric figure patterns, (2) pulse patterns, (3) geometric figures taken by human hands, etc.
(4) A series of motion patterns expressed by human hands and the like.

【0015】また、第10の発明の撮像装置は、所定の
画角で撮像した画像のうちの所望の画像部分を抽出する
比較画像抽出手段と、所定の画角で動画表示されている
被写体画像のうちから比較画像抽出手段によって抽出さ
れた比較画像と比較するための画像部分を抽出する画像
抽出手段と、その画像抽出手段によって抽出された画像
部分と比較画像とを比較する画像比較手段と、その画像
比較手段による比較の結果、比較画像と抽出した画像部
分が異なった時を撮像のトリガとする撮像制御手段と、
を備えたことを特徴とする。
[0015] The imaging apparatus according to a tenth aspect of the present invention provides a comparison image extracting means for extracting a desired image portion from an image captured at a predetermined angle of view, and a subject image displayed as a moving image at a predetermined angle of view. Image extracting means for extracting an image portion for comparison with the comparative image extracted by the comparative image extracting means, image comparing means for comparing the image portion extracted by the image extracting means with the comparative image, An imaging control unit that triggers imaging when a comparison image and an extracted image portion are different as a result of the comparison by the image comparison unit;
It is characterized by having.

【0016】[0016]

【発明の実施の形態】<実施の形態1> 指定部分の変
化検出による撮像 本発明の撮像方法では、ユーザがキー操作等により被写
体のある部分(例えば、目印が含まれている部分)を変
化検出エリアとして指定し、その部分での変化検出をト
リガとして撮像を行なう。また、変化検出の例として指
定部分(=検出エリア)の輝度変化(実施例1)、指定
部分の色(色相)変化(実施例2)、指定部分の動きの
検出(実施例3)が挙げられるが、これらに限定されな
い。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment Imaging by Detecting Change of Specified Part In the imaging method of the present invention, a user changes a certain part (for example, a part including a mark) of a subject by operating a key or the like. It is designated as a detection area, and imaging is performed with a change detection in that part as a trigger. Further, examples of the change detection include a luminance change of the designated portion (= detection area) (Example 1), a color (hue) change of the designated portion (Example 2), and a motion detection of the designated portion (Example 3). But not limited to these.

【0017】[回路構成例]図1は、本発明を適用した
撮像装置の一実施例としてのデジタルカメラの回路構成
例を示すブロック図であり、図1でデジタルカメラ10
0は、バス1、画像入力系10、制御部20、操作部3
0、表示部40、フラッシュメモリ50を備えている。
なお、音響出力装置60を設けて撮像報知(後述)を行
なうようにしてもよい。
[Circuit Configuration Example] FIG. 1 is a block diagram showing a circuit configuration example of a digital camera as an embodiment of an imaging apparatus to which the present invention is applied.
0 is a bus 1, an image input system 10, a control unit 20, an operation unit 3.
0, a display unit 40, and a flash memory 50.
Note that the sound output device 60 may be provided to perform imaging notification (described later).

【0018】画像入力系10は、光学系11,信号変換
部12,信号処理部13,データ圧縮/伸張部14,お
よびDRAM15を有している。
The image input system 10 has an optical system 11, a signal conversion unit 12, a signal processing unit 13, a data compression / decompression unit 14, and a DRAM 15.

【0019】光学系11は、撮像レンズおよび絞り機
構、シャッター機構等の光学系機構を含み、被写体から
の光を後段の信号変換部12のCCD121上に結像さ
せる。
The optical system 11 includes an optical system mechanism such as an imaging lens, an aperture mechanism, and a shutter mechanism, and forms light from a subject on the CCD 121 of the signal conversion unit 12 at the subsequent stage.

【0020】信号変換部12は、CCD121,CCD
駆動用タイミング信号生成回路(TG)122,CCD
駆動用垂直ドライバ123,サンプリホールド回路12
4およびA/D変換器125を含み、前段の光学系11
を介してCCD121に結像した画像を電気信号に変換
し、デジタルデータ(以下、画像データ)に変換して一
定の周期で出力する。
The signal converter 12 includes a CCD 121, a CCD
Driving timing signal generation circuit (TG) 122, CCD
Driving vertical driver 123, sample hold circuit 12
4 and the A / D converter 125, and the optical system 11
The image formed on the CCD 121 is converted into an electric signal, converted into digital data (hereinafter, image data), and output at a constant period.

【0021】信号処理部13は、カラープロセス回路1
31およびDMAコントローラ132を有している。カ
ラープロセス回路131は信号変換部12からの出力を
カラープロセス処理して、デジタルの輝度信号および色
差マルチプレクス信号(YUVデータ)としてDMAコ
ントローラ132のバッファに書込む。DMAコントロ
ーラ132はバッファに書込まれたYUVデータをDR
AM14の指定領域にDMA(ダイレクトメモリーアク
セス)転送し、展開する。また、DMAコントローラ1
32は、記録保存の際にDRAM15に書込まれている
YUVデータを読み出してデータ圧縮/伸張部14に書
込む。また、スルー画像(動画)表示するために、取込
んだ画像データを間引いて表示部40に送る。また、シ
ャッター操作がされるとその時点の画像データを表示部
40に送って静止画表示させる。
The signal processing unit 13 includes a color processing circuit 1
31 and a DMA controller 132. The color process circuit 131 performs a color process on the output from the signal conversion unit 12 and writes the digital output as a digital luminance signal and a color difference multiplex signal (YUV data) in a buffer of the DMA controller 132. The DMA controller 132 converts the YUV data written in the buffer into a DR.
DMA (direct memory access) transfer to the designated area of AM 14 and expansion. DMA controller 1
Numeral 32 reads out the YUV data written in the DRAM 15 at the time of recording and saving, and writes it in the data compression / decompression unit 14. Further, in order to display a through image (moving image), the captured image data is thinned out and sent to the display unit 40. When a shutter operation is performed, the image data at that time is sent to the display unit 40 to display a still image.

【0022】データ圧縮/伸張部14はDMAコントロ
ーラ132により取り込まれたDRAM15からのYU
VデータにJPEG圧縮処理を施す。また、再生モード
下で、フラッシュメモリ50に保存記録されていた画像
データに伸張処理を施してYUVデータを再生する。
The data compression / expansion unit 14 receives the YU from the DRAM 15
JPEG compression processing is performed on the V data. In the reproduction mode, the image data stored in the flash memory 50 is subjected to decompression processing to reproduce the YUV data.

【0023】DRAM15は作業用メモリとして用いら
れ、撮像画像を一時的に記憶する画像バッファ領域やJ
PEG圧縮/伸張時の作業用領域および設定値等を記憶
する領域等が確保される。
The DRAM 15 is used as a working memory, and an image buffer area or J
A work area for PEG compression / expansion and an area for storing set values and the like are secured.

【0024】制御部20はCPU、RAM、プログラム
格納用ROMおよびタイマ等を有したマイクロプロセッ
サ構成を有しており、CPUは、上述の各回路および図
示しない電源切換えスイッチ等にバス1を介して接続
し、プログラム格納用ROMに格納されている制御プロ
グラムによりデジタルカメラ100全体の制御を行なう
と共に、操作部30からの状態信号に対応してプログラ
ム格納用ROMに格納されている各モードに対応の処理
プログラムを取り出して、デジタルカメラ100の各機
能の実行制御、例えば、撮像や記録画像の再生機能の実
行等を行なう他、自動撮像モード下では自動撮像プログ
ラムによる画像の特定部分の変化の検出および撮像トリ
ガの出力等の実行制御等を行なう。
The control unit 20 has a microprocessor configuration including a CPU, a RAM, a ROM for storing programs, a timer, and the like. The digital camera 100 is controlled by the control program stored in the program storage ROM and connected to each mode stored in the program storage ROM in response to a status signal from the operation unit 30. The processing program is taken out to control the execution of each function of the digital camera 100, for example, to execute an imaging function and a playback function of a recorded image, and to detect a change in a specific portion of an image by the automatic imaging program in the automatic imaging mode. Performs execution control such as output of an imaging trigger.

【0025】操作部30は処理モード切替えスイッチ、
機能選択用ボタン、メインスイッチ、自動撮像モード設
定ボタン35、シャッターボタン36および検出部分指
定キー(枠カーソル移動指示キー)37等のスイッチや
ボタンを構成部分としており、これらのスイッチ或いは
ボタンが操作されると状態信号が制御部20に送出され
る。
The operation unit 30 includes a processing mode changeover switch,
Switches and buttons, such as a function selection button, a main switch, an automatic imaging mode setting button 35, a shutter button 36, and a detection portion designation key (frame cursor movement instruction key) 37, are included as components, and these switches or buttons are operated. Then, a state signal is sent to the control unit 20.

【0026】また、自動撮像モード設定ボタン35が操
作されるとプログラム用ROMから自動撮像プログラム
が読み出され、自動撮像モードが起動される。また、ユ
ーザは検出部分指定キー37を操作して表示部40の液
晶画面に表示されるスルー画像(被写体画像)のなかで
変化検出対象としたい特定の部分を指定する。
When the automatic imaging mode setting button 35 is operated, the automatic imaging program is read from the program ROM, and the automatic imaging mode is started. Further, the user operates the detection portion designation key 37 to designate a specific portion to be a change detection target in the through image (subject image) displayed on the liquid crystal screen of the display section 40.

【0027】表示部40はビデオエンコーダ、VRAM
および液晶画面(LCD)等から構成されており、制御
部20の表示制御により、撮像時のスルー画像および再
生時の再生画像、処理選択時の選択用メニューやガイド
(或いはアイコン)の表示等を行なう。
The display unit 40 is a video encoder, a VRAM
And a liquid crystal screen (LCD). The display control of the control unit 20 enables display of a through image at the time of imaging, a reproduced image at the time of reproduction, a selection menu and a guide (or an icon) at the time of processing selection, and the like. Do.

【0028】フラッシュメモリ50は画像圧縮/伸張部
14でJPEG圧縮された画像データを保存記録する。
また、フラッシュメモリ50には画像データを記録する
領域の他、画像データの記録時に当該画像の撮像モード
や撮像条件および撮像時間間隔等を登録する画像情報登
録リストを記録することもできる。また、プログラムR
OMに代えて各プログラムを記録するようにしてもよ
い。なお、フラッシュメモリに代えて着脱可能なICカ
ードを用いるようにしてもよい。
The flash memory 50 stores and records the image data JPEG-compressed by the image compression / expansion unit 14.
In addition to the area for recording image data, the flash memory 50 can also record an image information registration list for registering an image capturing mode, an image capturing condition, an image capturing time interval, and the like of the image when recording the image data. Also, the program R
Each program may be recorded instead of the OM. Note that a removable IC card may be used instead of the flash memory.

【0029】音響出力装置60は撮像されたことを被写
体となった人物に報知するようにした場合に設けられ、
撮像がなされると音或いは音声等を出力して撮像された
ことを知らせる。なお、音響出力装置に代えて表示ラン
プを設けてもよい。
The sound output device 60 is provided to notify the person who has become the subject that the image has been picked up.
When the image is captured, a sound or a sound is output to notify that the image has been captured. Note that a display lamp may be provided instead of the sound output device.

【0030】[カラープロセス回路]信号処理部13の
カラープロセス回路131では、画像データから輝度信
号、色成分信号等を分離し、生成する。図2はカラープ
ロセス回路131の構成例を示すブロック図である。図
2で、カラープロセス回路131は、R成分積分器13
11,G成分積分器1312,B成分積分器1313,
AE(オートアイリス)用積分器1314,AF(オー
トフォーカス)用フィルタ1315,各種カウンタ13
16,AWB回路1317,および信号合成回路131
8を有している。
[Color Process Circuit] The color process circuit 131 of the signal processing unit 13 separates and generates a luminance signal, a color component signal, and the like from the image data. FIG. 2 is a block diagram illustrating a configuration example of the color process circuit 131. In FIG. 2, the color process circuit 131 includes an R component integrator 13
11, G component integrator 1312, B component integrator 1313
AE (auto iris) integrator 1314, AF (auto focus) filter 1315, various counters 13
16, AWB circuit 1317, and signal synthesizing circuit 131
Eight.

【0031】CCDで光電変換された画像信号は、信号
変換部12のA/D変換器でA/D変換されカラープロ
セス回路131に入力される。カラープロセス回路13
1では、入力信号に対しオートアイリス(AE)用信
号,オートホワイトバランス(AWB)用信号,オート
フォーカス(AF)用信号,およびY,Cb,Cr信号
の生成処理等を行なう。
The image signal photoelectrically converted by the CCD is A / D converted by an A / D converter of the signal converter 12 and input to the color process circuit 131. Color process circuit 13
In step 1, a process for generating an auto iris (AE) signal, an auto white balance (AWB) signal, an auto focus (AF) signal, and Y, Cb, Cr signals is performed on an input signal.

【0032】AE用積分器1314では入力信号を積分
してその積分値を出力し、AF用フィルタ1315では
入力信号からコントラストオートフォーカス用高周波を
検出するため、入力信号に対しハイパスフィルタ(HP
F)をかけた後にその出力の積分値を出力し、AWB回
路1317ではR成分積分器1311,G成分積分器1
312およびB成分積分器1313によって積分された
各成分の積分値を出力する。これら積分出力は制御部2
0に入力され、制御部20はこれらの信号を基に信号処
理部12のAGCに与えるゲインや、シャッタースピー
ドや、レンズ11を制御する制御信号を出力する。した
がって、上記カラープロセス回路131を変化検知手段
の一つとして、スルー画像上で指定された部分(検出エ
リア)の状態を検知することができる。
The AE integrator 1314 integrates the input signal and outputs the integrated value, and the AF filter 1315 detects a high frequency for contrast autofocus from the input signal.
F), the integrated value of the output is output, and the AWB circuit 1317 outputs an R component integrator 1311 and a G component integrator 1
An integrated value of each component integrated by 312 and B component integrator 1313 is output. These integrated outputs are output to the control unit 2
0, the control unit 20 outputs a control signal for controlling the gain, the shutter speed, and the lens 11 to be applied to the AGC of the signal processing unit 12 based on these signals. Therefore, the color process circuit 131 can be used as one of the change detection means to detect the state of the designated portion (detection area) on the through image.

【0033】図3,図4は本発明の自動撮像方法の一実
施例の説明図であり、図3は集合写真撮像時の撮影者の
動作説明図、図4はメッシュ分割による検出エリア指定
方法の説明図である。また、図5は本実施の形態での自
動撮像方法によるデジタルカメラの動作例を示すフロー
チャートであり、図5で、(a)は指定部分の輝度の変
化により撮像を行なう例、(b)は指定部分の色(色
相)の変化により撮像を行なう例、(c)は指定部分の
動きの検出により撮像を行なう例である。
FIGS. 3 and 4 are explanatory views of an embodiment of the automatic image pickup method of the present invention. FIG. 3 is an explanatory view of the operation of the photographer at the time of group photographing, and FIG. 4 is a detection area specifying method by mesh division. FIG. FIG. 5 is a flowchart illustrating an operation example of the digital camera according to the automatic imaging method according to the present embodiment. In FIG. 5, (a) illustrates an example in which imaging is performed based on a change in luminance of a designated portion, and (b) illustrates an example. An example in which imaging is performed based on a change in color (hue) of a specified portion, and FIG. 3C is an example in which imaging is performed by detecting movement of a specified portion.

【0034】[実施例1] 指定部分の輝度変化による
撮像 図6は指定部分の輝度分布の一例を示す図である。以
下、図5(a)のフローチャートに基づくデジタルカメ
ラ100の撮像動作について説明する。
[Example 1] Image pick-up by change in luminance of designated portion FIG. 6 is a diagram showing an example of luminance distribution of a designated portion. Hereinafter, the imaging operation of the digital camera 100 based on the flowchart of FIG.

【0035】前提として、ユーザは撮像を行なうために
撮像モードを選択する。被写体側では図3に示すように
被写体人物41,42のうち一人が背景とは輝度の異な
る物(例えば、黒い上着の人物が胸の前に白いハンカチ
をかざしたり、白シャツの人物が黒い財布を腹の辺りで
握り締めたりするようにする)を目印として持つように
する(図3(a)の例では、説明上、人物42が白いハ
ンカチを目印45として左手に持っているものとす
る)。
As a premise, the user selects an imaging mode to perform imaging. On the subject side, as shown in FIG. 3, one of the subject persons 41 and 42 has a different brightness from the background (for example, a person in a black jacket holds a white handkerchief in front of the chest, or a person in a white shirt is black). In this example, the person 42 has a white handkerchief as a mark 45 on his left hand in the example of FIG. 3A. ).

【0036】(動作例) ステップS1:(被写体画像の取込、スルー画像表示) 撮像モード下で被写体像が取込まれ、液晶ファインダ
(=表示部40の液晶画面)に人物41,42がスルー
画像表示される(図3(a))。
(Example of Operation) Step S1: (Capture of subject image, display of through image) The subject image is captured in the imaging mode, and the persons 41 and 42 are passed through the liquid crystal finder (= the liquid crystal screen of the display unit 40). An image is displayed (FIG. 3A).

【0037】ステップS2:(自動撮像モード設定) 撮影者(兼被写体)43がデジタルカメラ100の撮像
アングルを決めてからデジタルカメラ100をそのアン
グルに固定し、自動撮像モード設定ボタン35を押すと
自動撮像モードが起動され、制御部20は時間カウンタ
に所定値(実施例では2秒)を設定する。また、DRA
M15の画像記憶領域151(図4(a):実施例では
スルー画像や撮像画像或いは再生画像が一時記憶され
る)および液晶ファインダ40を矩形領域(図4の例で
は5×5=20)に分割するようにし、液晶ファインダ
上に分割線分51,52を重畳表示する(図4
(b))。これによりスルー画像は液晶ファインダ40
上で分割される(図4(c))。なお、分割線分を表示
しないようにしてもよい)。また、液晶ファインダ40
にカーソル47を表示する(図3(a),図4
(c))。
Step S2: (Automatic imaging mode setting) When the photographer (and subject) 43 determines the imaging angle of the digital camera 100, the digital camera 100 is fixed to that angle, and when the automatic imaging mode setting button 35 is pressed, the automatic The imaging mode is activated, and the control unit 20 sets a predetermined value (2 seconds in the embodiment) in the time counter. Also, DRA
The image storage area 151 of M15 (FIG. 4A: a through image, a captured image, or a reproduced image is temporarily stored in the embodiment) and the liquid crystal finder 40 are set to a rectangular area (5 × 5 = 20 in the example of FIG. 4). The image is divided, and division lines 51 and 52 are superimposed on the liquid crystal finder (FIG. 4).
(B)). This allows the through image to be displayed on the LCD finder 40.
The above is divided (FIG. 4C). Note that the division line segment may not be displayed). In addition, the liquid crystal finder 40
The cursor 47 is displayed on the screen (FIG. 3A, FIG. 4).
(C)).

【0038】ステップS3:(目印の指定操作) 図3で、撮影者43は検出部分指定キー37を操作し
て、カーソル47を移動させて人物42が持っている目
印(白のハンカチ)45をポイント(指定)する。この
時、図4(d)に示すようにカーソル47の位置を含む
分割領域(線分で囲まれた矩形部分45)を差別表示し
て(すなわち、強調表示、反転表示、点滅表示等、周囲
の画像部分とは別に認識可能に表示する)カーソルがど
の部分を指定しているかをユーザが見やすいようにす
る。この後、撮影者(兼被写体)43はカメラから離
れ、自らが被写体として参加するためにカメラの視野内
に入る(図3(b))。
Step S3: (Operation of Designating Marks) In FIG. 3, the photographer 43 operates the detection portion designation key 37 to move the cursor 47 to place the mark (white handkerchief) 45 held by the person 42. Point (specify). At this time, as shown in FIG. 4D, the divided area including the position of the cursor 47 (the rectangular portion 45 surrounded by the line segment) is differentially displayed (that is, highlighted, inverted, blinking, etc.). (Displayed so as to be recognizable separately from the image portion) so that the user can easily see which portion is designated by the cursor. Thereafter, the photographer (also a subject) 43 leaves the camera and enters the field of view of the camera to participate as a subject (FIG. 3B).

【0039】ステップS4:(検出エリアの特定) 制御部20は指定部分、すなわち、カーソル47の位置
を含む矩形部分の液晶ファインダ40上の位置(座
標)、すなわち、矩形枠の四隅の座標からDRAM15
の画像記憶領域151上の検出エリア{(x1,y
1)、(x2,y1)、(x1,y2)、(x2,y
2)}を特定(算出)する。
Step S4: (Specification of Detection Area) The control unit 20 determines the position of the specified portion, that is, the rectangular portion including the position of the cursor 47 on the liquid crystal finder 40, that is, the coordinates of the four corners of the rectangular frame.
Detection area 上 の (x1, y) on the image storage area 151
1), (x2, y1), (x1, y2), (x2, y
2) Specify (calculate)}.

【0040】ステップS5:(輝度範囲の決定) 次に、制御部20はカラープロセス回路131の出力を
もとに検出エリアの輝度範囲を決定する。輝度範囲の決
定は、例えば、AF用フィルタ1315の積分出力の出
力のうち、主走査方向の区間の輝度の積分値の分布(=
x2−x1の色輝度分布(図6(a))を調べその平均
値を検出エリアの基準輝度値K0とし、図6(b)に示
すように閾値Knを定めることにより行なうことができ
る。なお、閾値Knは平均値に対する所定の割合とする
ことができるがこれらに限定されず、例えば、基準値K
0+定数とするようにしてもよく、また、経験値や、公
知の方法によって決定するようにしてもよい。決定され
た値は制御部20のRAM(或いはDRAM15)に記
憶される。
Step S5: (Determination of Luminance Range) Next, the control unit 20 determines the luminance range of the detection area based on the output of the color process circuit 131. The luminance range is determined, for example, by the distribution of the integrated value of the luminance in the section in the main scanning direction (== the integral output of the AF filter 1315).
This can be performed by examining the color luminance distribution of x2-x1 (FIG. 6A), setting the average value as the reference luminance value K0 of the detection area, and determining the threshold value Kn as shown in FIG. 6B. The threshold value Kn can be a predetermined ratio to the average value, but is not limited thereto.
It may be set to 0 + constant, or may be determined by an empirical value or a known method. The determined value is stored in the RAM (or DRAM 15) of the control unit 20.

【0041】ステップS6:(検出エリア(指定部分)
の輝度変化の検出) 制御部20は検出エリア内の輝度分布の平均値K1(ま
たはK2)がK1>K0+Kn(または、K2<K0−
Kn)の場合に輝度変化ありとしてS7に遷移する。す
なわち、図3の例で撮影者43は被写体人物42の隣で
ポーズをとりながら被写体人物42の持っている目印
(白いハンカチ)45を隠すと(図3(b))、検出エ
リア内の輝度の平均値がステップS6で得た基準値K0
と異なる。すなわち、そのときの輝度検出値の平均値K
1>K0+Knとなり検出エリアに輝度変化が生じたの
でS7に遷移する。なお、目印45は撮影者43が隠し
たり、被写体人物42に隠させるようにする。図6
(b)は輝度変化の閾値の説明図であり、閾値Knは検
出エリア内の輝度検出時に光線の加減や被写体人物42
の手振れ等による検出エリア内の画像部分の輝度変化量
として許容(無視)する値(変化許容値:遠隔撮影モー
ド設定に自動設定される)である。
Step S6: (Detection area (designated part)
The control unit 20 determines that the average value K1 (or K2) of the luminance distribution in the detection area is K1> K0 + Kn (or K2 <K0−).
In the case of Kn), it is determined that there is a luminance change, and the process transits to S7. That is, in the example of FIG. 3, when the photographer 43 poses next to the subject person 42 and hides the mark (white handkerchief) 45 of the subject person 42 (FIG. 3B), the brightness in the detection area is reduced. Is the reference value K0 obtained in step S6.
And different. That is, the average value K of the detected luminance values at that time
1> K0 + Kn, and a change in luminance occurs in the detection area. The mark 45 is hidden by the photographer 43 or hidden by the subject person 42. FIG.
(B) is an explanatory diagram of the threshold value of the luminance change, and the threshold value Kn is adjusted when the luminance in the detection area is detected and the light amount of the subject person 42 is detected.
Is a value allowed (ignored) as the amount of change in luminance of the image portion in the detection area due to camera shake or the like (change allowable value: automatically set in the remote shooting mode setting).

【0042】ステップS7:(撮像余裕時間のカウント
ダウン) 制御部20は時間カウンタのカウントダウンを開始し、
時間カウンタが0(ゼロ)になるとS8に遷移する。こ
れにより、目印45を持っていた被写体人物42や撮影
者43が目印45を隠しても、ポーズを整える余裕時間
ができるので、目印45を隠した直後の手の動き等が撮
像されるようなことを防止できる。なお、実施例では時
間カウンタの設定時間を2秒(ステップS2)とした
が、これに限定されない。
Step S7: (Countdown of imaging allowance time) The control unit 20 starts counting down the time counter.
When the time counter becomes 0 (zero), the flow goes to S8. Thus, even if the subject person 42 or the photographer 43 holding the mark 45 hides the mark 45, there is still enough time to set a pose, so that the hand movement or the like immediately after hiding the mark 45 is captured. Can be prevented. Although the set time of the time counter is set to 2 seconds (step S2) in the embodiment, the present invention is not limited to this.

【0043】ステップS8:(撮像トリガ信号の出力) 制御部20は上記ステップS7で時間カウンタが0にな
ると撮像トリガ信号(撮像指示信号)を出力してシャッ
ター機構(光学系11)を制御する。なお、シャッター
機構を制御する代りに撮像トリガ信号で撮像報知用の音
響出力装置60(または、撮像報知用のランプ表示装
置)を制御するようにしてもよく、また、シャッター機
構或いは撮像報知用の装置を制御することなく(次のス
テップS9を省略してS10に遷移し)、画像の記録保
存処理を行なうようにしてもよい。
Step S8: (Output of Imaging Trigger Signal) When the time counter becomes 0 in step S7, the control section 20 outputs an imaging trigger signal (imaging instruction signal) to control the shutter mechanism (optical system 11). Note that, instead of controlling the shutter mechanism, the sound output device 60 (or a lamp display device for imaging notification) may be controlled by an imaging trigger signal, or the shutter mechanism or the imaging display signal may be controlled. The image recording / storing process may be performed without controlling the apparatus (the next step S9 is omitted and the process proceeds to S10).

【0044】ステップS9:(シャッター動作(撮像お
よび撮像報知)) シャッター機構は撮像指示信号によりシャッターボタン
36を動作させ、「カシャリ」というような機械音を出
して被写体人物に撮像の終了を報知する。この間、制御
部20は撮像処理のためにS10に遷移する。
Step S9: (Shutter operation (imaging and imaging notification)) The shutter mechanism operates the shutter button 36 in response to the imaging instruction signal, and emits a mechanical sound such as "sharp" to notify the subject person of the end of imaging. . During this time, the control unit 20 transitions to S10 for the imaging process.

【0045】なお、上述(ステップS9)したように、
シャッター動作による撮像終了報知に代えて音響出力装
置に音または「撮像終了」の旨の音声メッセージを出力
するようにしてもよく、或いは表示ランプにより「撮像
終了」を報知するようにしてもよい。
As described above (step S9),
A sound or a voice message to the effect that “imaging has been completed” may be output to the sound output device instead of notifying that the imaging has been completed by the shutter operation, or “imaging has been completed” may be notified using a display lamp.

【0046】ステップS10:(撮像画像の保存記録処
理) 上記ステップS7で時間カウント値が0と判定された時
点でDRAM15に取込まれている(=撮像された)画
像データをJPEG圧縮処理してフラッシュメモリ50
に保存記録する。
Step S10: (Storing and Recording Process of Captured Image) At the time when the time count value is determined to be 0 in step S7, the image data loaded (= captured) into the DRAM 15 is subjected to JPEG compression processing. Flash memory 50
Save and record.

【0047】上記実施例1では、目印45と目印45を
隠した場合に表われる背景色との輝度が似ていると検出
される輝度変化量が閾値Knの範囲(つまり、K0−K
n<輝度変化量<K0+Kn)となって目印がなくなっ
たことが検知されない可能性があるので、被写体人物4
2の持つ目印45は背景とは輝度が明らかに異なるもの
を用いるようにすることが望ましい。
In the first embodiment, the amount of change in the luminance that is detected when the luminance of the mark 45 and the background color appearing when the mark 45 is hidden is similar to the range of the threshold Kn (that is, K0−K).
n <brightness change amount <K0 + Kn), and it may not be detected that the mark has disappeared.
It is desirable to use a mark 45 of 2 which is clearly different in luminance from the background.

【0048】また、上記実施例1で輝度変化を撮像(開
始)トリガとしたが、撮像終了トリガとするようにして
もよい(例えば、連続撮影や動画撮影の撮影中に目印の
輝度変化により撮影を終了させる(変形例2参照))。
また、上記実施例1ではメッシュ分割された矩形部分を
一つ指定し、検出エリア1つを設定したが、複数の矩形
部分を指定(=複数検出エリアを設定)してもよく、更
には、隣接していない複数の矩形部分を指定するように
してもよい。
Although the change in luminance is used as the imaging (start) trigger in the first embodiment, the change in luminance may be used as an imaging end trigger. (See Modification Example 2)).
In the first embodiment, one mesh-divided rectangular part is designated and one detection area is set. However, a plurality of rectangular parts may be designated (= a plurality of detection areas are set). A plurality of non-adjacent rectangular portions may be specified.

【0049】また、上記実施例1では画面をメッシュ分
割して得た矩形部分を指定するようにとしていたが画面
を任意の形に分割し、分割された領域を指定するように
してもよい。また、上記実施例1では閾値Kn(輝度検
出時に無視する変化許容量)を基準値K0を中心として
明方向、暗方向共に同じ値として設定したが、明方向と
暗方向の閾値を別々の値(Kn1≠Kn2)としてもよ
い。また、上記実施例1ではステップS6でそのときの
輝度検出値の平均値K1(またはK2)がK1>K0+
Kn(または、K2<K0−Kn)の場合は検出エリア
に輝度変化ありとしたが、逆に、一定時間内の輝度変化
がKn以下になった場合、すなわち、K0−Kn<K1
<K0+Kn(または、K0−Kn<K2<K0+K
n)のときに輝度変化ありとするようにしてもよい。
In the first embodiment, the rectangular portion obtained by dividing the screen into meshes is specified. However, the screen may be divided into arbitrary shapes and the divided areas may be specified. Further, in the first embodiment, the threshold value Kn (the permissible change to be ignored when detecting the luminance) is set to the same value in the light direction and the dark direction with the reference value K0 as the center, but the threshold values in the light direction and the dark direction are set to different values. (Kn1 ≠ Kn2). In the first embodiment, in step S6, the average value K1 (or K2) of the detected luminance values at that time is K1> K0 +
In the case of Kn (or K2 <K0−Kn), it is determined that there is a luminance change in the detection area. Conversely, when the luminance change within a predetermined time becomes equal to or less than Kn, that is, K0−Kn <K1.
<K0 + Kn (or K0−Kn <K2 <K0 + K
At the time of n), the luminance may be changed.

【0050】[実施例2] 指定部分の色(色相)の変
化による撮像 上記実施例1(図5(a))では指定部分の輝度の変化
を撮像のトリガとしたが(S6)、図7に示すように色
(色相)の変化を撮像のトリガとするようにしてもよ
い。なお、図7は指定部分の色分布の一例を示す図であ
る。この例では、前提として、ユーザは撮像を行なうた
めに撮像モードを選択する。被写体側では図3に示すよ
うに被写体人物41,42のうち一人が彩度の高い物
(例えば、真紅のハンカチ、青い財布等、色ができるだ
け鮮やかなもの)を持っているようにする(図3(a)
の例では人物42が目印(この例では、真紅のハンカチ
45)を左手に持っているものとする)。
Second Embodiment Imaging by Changing Color (Hue) of Specified Portion In the first embodiment (FIG. 5A), a change in luminance of a specified portion was used as a trigger for imaging (S6). As shown in (1), a change in color (hue) may be used as a trigger for imaging. FIG. 7 is a diagram showing an example of the color distribution of the designated portion. In this example, as a premise, the user selects an imaging mode to perform imaging. On the subject side, as shown in FIG. 3, one of the subject persons 41 and 42 is required to have an object with high saturation (for example, a crimson handkerchief, a blue wallet, or the like whose color is as vivid as possible). 3 (a)
In the example, the person 42 has a mark (in this example, crimson handkerchief 45) in his left hand.

【0051】(動作例)図5(b)で、ステップS1〜
S3、ステップS7〜S10は図5(a)の動作と同様
であり、以下、ステップS5’、S6’での動作につい
て説明する。
(Example of operation) In FIG.
S3 and steps S7 to S10 are the same as the operations in FIG. 5A, and the operations in steps S5 'and S6' will be described below.

【0052】ステップS5’:(色範囲の決定) ステップS4で検出エリアが特定された後、制御部20
はカラープロセス回路131の出力をもとに指定部分
(検出エリア)の色特徴(色範囲)を決定する。色範囲
は、例えば、AWB回路1317の出力、すなわち、R
成分積分器1311,G成分積分器1312およびB成
分積分器1313によって積分された各成分の積分値の
うち、主走査方向のx2−x1の区間の積分値の分布
(=x2−x1の色分布)を調べ(図7(a))、その
最大値MAX(R,G,B)=f(xm)を含むxm±
kの範囲の色成分比率で表わされる範囲を特徴色範囲と
して決定できる(この方法に限定されない)。決定値は
制御部20のRAM(或いはDAM15)に記憶され
る。特徴色の分布は被写体人物が持つ目印(物)45の
色の彩度が低いと図7(b)に示すような分布となり、
色感度を一定限度の範囲(斜線の部分)で維持するため
にはkの値を小さくする必要があるので被写体人物の手
振れ等によりカーソル枠320から目印がずれた場合に
次のステップS6で「色変化あり」と判定される可能性
があるが、目印45として一色で彩度の高いものを用い
るようにすると図7(c)に示すような台形状の分布と
なるのでkの値が大きくなり、被写体人物の手振れがあ
っても「色変化あり」と判定されることを防止できる。
Step S5 ': (Determination of Color Range) After the detection area is specified in step S4, the control unit 20
Determines the color feature (color range) of the designated portion (detection area) based on the output of the color process circuit 131. The color range is, for example, the output of the AWB circuit 1317, that is, R
Among the integral values of the components integrated by the component integrator 1311, the G component integrator 1312, and the B component integrator 1313, the distribution of the integral values in the x2-x1 section in the main scanning direction (= x2-x1 color distribution) ) (FIG. 7 (a)), and xm ± including the maximum value MAX (R, G, B) = f (xm).
The range represented by the color component ratio in the range of k can be determined as the characteristic color range (not limited to this method). The determined value is stored in the RAM (or DAM 15) of the control unit 20. The distribution of the characteristic colors is as shown in FIG. 7B when the saturation of the color of the mark (object) 45 possessed by the subject person is low.
In order to maintain the color sensitivity within a certain limit range (shaded portion), it is necessary to reduce the value of k. Therefore, when the mark is displaced from the cursor frame 320 due to hand shake of the subject person or the like, "k" is set in the next step S6. There is a possibility that it is determined that there is a color change. However, if a mark of one color and high saturation is used as the mark 45, a trapezoidal distribution as shown in FIG. In other words, it is possible to prevent the determination of "color change" even if the subject person's hand shakes.

【0053】ステップS6’:(指定部分の色変化の検
出) 制御部20は検出エリア内の色分布の最大値がρ未満の
とき、色変化ありとしてステップS7に遷移する。すな
わち、撮影者43または被写体人物42が目印45を隠
すと(図3(b))、色検出エリア内の色の最大値MA
X(R,G,B)がρ未満となり色範囲から外れるの
で、色変化ありとしてステップS7に遷移する。
Step S6 ': (Detection of Color Change in Specified Portion) When the maximum value of the color distribution in the detection area is less than ρ, the control section 20 determines that there is a color change and shifts to step S7. That is, when the photographer 43 or the subject person 42 hides the mark 45 (FIG. 3B), the maximum value MA of the color in the color detection area is obtained.
Since X (R, G, B) is less than ρ and is out of the color range, the process proceeds to step S7 as a color change.

【0054】上記実施例2では、目印45と目印45を
隠した場合に表われる背景色との色相が似ていると検出
される色相変化度が許容範囲ρを越えてしまい撮像トリ
ガが出力されないので、被写体人物42の持つ目印45
は背景とは色相が異なり、彩度の高いものを用いるよう
にすることが望ましい。
In the second embodiment, when the mark 45 and the background color appearing when the mark 45 is hidden are detected to have similar hues, the degree of hue change detected exceeds the allowable range ρ, and no imaging trigger is output. Therefore, the mark 45 of the subject person 42
It is preferable to use a color having a different hue from the background and a high saturation.

【0055】[実施例3] 指定部分の動き検出による
撮像 上記実施例1(図5(a)),実施例2(図5(b))
では指定部分の輝度や色の変化を撮像のトリガとした
が、指定部分の動きの検出(すなわち、指定部分の変
化)を撮像のトリガとするようにしてもよい。本実施例
では、デジタルカメラ100の撮像データ(カラープロ
セス回路131の積分出力)を用いて指定部分の動きを
検出しているが動き検出方法はこれに限定されず、公知
の方法でよい。
Third Embodiment Imaging by Detecting Motion of a Specified Part The first embodiment (FIG. 5A) and the second embodiment (FIG. 5B)
In the above description, the change in the luminance or the color of the designated portion is used as the trigger for imaging, but the detection of the movement of the designated portion (that is, the change in the designated portion) may be used as the trigger for imaging. In the present embodiment, the motion of the designated portion is detected using the image data of the digital camera 100 (integrated output of the color process circuit 131), but the motion detection method is not limited to this, and a known method may be used.

【0056】図8は指定部分の動き検出に用いるAF用
高周波の積分出力分布の一例を示す図であり、(a)は
前回のサンプリング時点での積分出力の分布図、(b)
は動きのない場合の撮像時点での積分出力の分布図、
(c)は動きがあった場合の撮像時点での積分出力の分
布図、(d),(e)は動きの有無による差分の変化を
示す図である。この例では、前提として、ユーザは撮像
を行なうために撮像モードを選択する。被写体側では図
3に示すように被写体人物41,42のうち一人が目印
(例えば、ハンカチ)を持っているようにする。
FIGS. 8A and 8B are diagrams showing an example of the integrated output distribution of the high frequency for AF used for detecting the motion of the designated portion. FIG. 8A is a distribution diagram of the integrated output at the previous sampling time, and FIG.
Is a distribution diagram of the integral output at the time of imaging when there is no motion,
(C) is a distribution diagram of the integral output at the time of imaging when there is a motion, and (d) and (e) are diagrams showing a change in a difference depending on the presence or absence of a motion. In this example, as a premise, the user selects an imaging mode to perform imaging. On the subject side, one of the subject persons 41 and 42 has a mark (for example, a handkerchief) as shown in FIG.

【0057】(動作例)図5(c)で、ステップS1〜
S3、ステップS7〜S10は図5(a)の動作と同様
であり、以下、ステップS4”〜S6”の動作について
説明する。
(Example of operation) In FIG.
S3 and steps S7 to S10 are the same as the operation in FIG. 5A, and the operation of steps S4 ″ to S6 ″ will be described below.

【0058】ステップS4”:(動き検出エリアの特
定) ステップS3の目印の指定動作の終了後、制御部20は
指定部分、すなわち、カーソル320の位置を含む矩形
部分の液晶ファインダ上の位置(座標)、すなわち、矩
形枠の四隅の座標からDRAM15の画像記憶領域15
1上の検出エリア{(x1,y1)、(x2,y1)、
(x1,y2)、(x2,y2)}を動き検出エリアと
して特定(算出)する。
Step S4 ″: (Specification of Motion Detection Area) After the operation of designating the mark in step S3 is completed, the control unit 20 sets the position (coordinates) of the designated portion, that is, the rectangular portion including the position of the cursor 320 on the liquid crystal finder. ), That is, from the coordinates of the four corners of the rectangular frame, the image storage area 15
1, the detection area {(x1, y1), (x2, y1),
(X1, y2), (x2, y2)} are specified (calculated) as a motion detection area.

【0059】ステップS5”:(検出エリアの積分出力
のサンプリング) 制御部20は特定された動き検出エリア{(x1,y
1)、(x2,y1)、(x1,y2)、(x2,y
2)}のAF用高周波の積分出力を一定時間間隔tでサ
ンプリングする。すなわち、撮像モードでは入力された
画像信号を基にカラープロセス回路131でAF用高周
波信号が出力されAE用積分器1314で積分されるの
で、検出エリア区間(x2−x1(図8))分の積分値
を制御部20のRAM(またはDRAM15)に記憶し
て時間t毎にサンプリングし、前回および今回のサンプ
リング値を保持することができる。
Step S5 ″: (Sampling of integrated output of detection area) The control unit 20 determines the specified motion detection area {(x1, y
1), (x2, y1), (x1, y2), (x2, y
2) The high-frequency integrated output for AF in (1) is sampled at fixed time intervals t. That is, in the imaging mode, the high frequency signal for AF is output by the color process circuit 131 based on the input image signal and is integrated by the integrator 1314 for AE, so that the detection area section (x2-x1 (FIG. 8)) The integrated value can be stored in the RAM (or the DRAM 15) of the control unit 20, sampled at every time t, and the previous and current sampled values can be held.

【0060】なお、前回のサンプリング時点t0のAF
用フィルタ1315の積分出力をY0- tとし(図8
(a))、現時点で検出エリアの被写体(例えば、目
印)に動きがない場合の積分出力をY0とすると(図8
(b))、動きが全くなければ時間tの間の積分出力の
差ΔY=Y0−Y0- tは一定値Cとなって(図8
(d))に示すように区間(x2−x1)全体にわたっ
て一定となる。しかし、現時点で被写体に動きがあった
場合には時間tだけ前の積分出力Y0- tと撮像時点での
積分出力Y’0の差ΔY’=Y0−Y’0- tは(図8
(e))に示すように区間上で変動する。そこで、AF
用高周波の積分値の1回前の積分値と今回の積分値の差
が区間(x2−x2)で閾値ρ以内か否かを調べ、閾値
ρ以上の場合に被写体の動き等により画像がぶれたもの
とする。
The AF at the previous sampling time t0
The output of the filter 1315 is defined as Y0 - t (FIG. 8).
(A)), assuming that the integrated output when there is no movement of the subject (for example, a mark) in the detection area at this time is Y0 (FIG. 8).
(B)), the difference between the integrated output during If there is no motion time t ΔY = Y0-Y0 - t is a constant value C (FIG. 8
As shown in (d)), it becomes constant over the entire section (x2-x1). However, this time period when there is motion in the object at t just before the integration output Y0 - difference integral output Y'0 at t and the imaging time ΔY '= Y0-Y'0 - t is (FIG. 8
It fluctuates on the section as shown in (e)). Therefore, AF
It is checked whether or not the difference between the integration value one time before the integration value of the high frequency for use and the integration value this time is within a threshold ρ in a section (x2−x2). It shall be assumed.

【0061】ステップS6”:(動き検出) 制御部20は上記ステップS5”での1回前のサンプリ
ング値(積分値)と今回のサンプリング値(積分値)の
差が区間(x2−x1)で閾値ρ以内か否かを調べ、閾
値ρ以上の場合には動きがあったものとしてS7に遷移
する。すなわち、図3の例で、撮影者(兼被写体)43
または被写体人物42が目印45を大きく動かすと、動
き検出エリア内のAF用高周波の積分値のサンプリング
値が前回のサンプリング値と異なり、閾値ρを越えるた
場合に動きありとしてステップS7に遷移する。なお、
上記ステップS5”で、理想的には積分出力の差ΔY=
Y0−Y0- t=Cの場合が動きなしの場合であるが、実
施上は三脚等の器具でカメラを固定しても地面の振動が
伝達されること、およびカメラの構造や解像度上、多少
の振動は無視できる等の実施上の要素を考慮してカメラ
の性能上振動を吸収できる範囲で閾値ρを定めることが
望ましい。
Step S6 ": (Motion Detection) The control unit 20 determines that the difference between the previous sampling value (integrated value) in step S5" and the current sampling value (integrated value) is in the section (x2-x1). It is checked whether it is within the threshold ρ or not. That is, in the example of FIG.
Alternatively, when the subject person 42 greatly moves the mark 45, the sampling value of the high frequency integration value for AF in the motion detection area is different from the previous sampling value, and if the sampling value exceeds the threshold value ρ, the process proceeds to step S7. In addition,
In the above step S5 ″, ideally, the difference ΔY =
The case of Y0−Y0 t = C is the case of no motion. However, in practice, the vibration of the ground is transmitted even if the camera is fixed with a tripod or the like. It is desirable to determine the threshold value ρ within a range in which the vibration can be absorbed in view of the performance of the camera in consideration of practical factors such as the fact that the vibration can be ignored.

【0062】[変形例1] 枠カーソルによる検出エリ
アの指定 上記実施例1〜3では、液晶ファインダ40をn分割し
て得た矩形部分(目印の全部又は大部分が入っている矩
形部分)をユーザが指定し、検出エリアを特定したが
(S1〜S4)、液晶ファインダ40をn分割して矩形
部分を指定する代りに、枠カーソルを表示して目印部分
をカーソルの枠内に入れるようにして指定するようにし
てもよい。
[Modification 1] Designation of Detection Area by Frame Cursor In the first to third embodiments, the rectangular portion (the rectangular portion containing all or most of the marks) obtained by dividing the liquid crystal finder 40 into n parts is used. Although the user has specified and specified the detection area (S1 to S4), instead of dividing the liquid crystal finder 40 into n and specifying a rectangular portion, a frame cursor is displayed and the mark portion is placed in the frame of the cursor. May be specified.

【0063】図9(a)は実施例1〜3の変形例の動作
を示すフローチャートであり、枠カーソルで目印を指定
する例である。また、図10は枠カーソルによる検出エ
リア指定方法の説明図である。
FIG. 9A is a flowchart showing the operation of a modification of the first to third embodiments, in which a mark is designated by a frame cursor. FIG. 10 is an explanatory diagram of a detection area specifying method using a frame cursor.

【0064】(動作例)図9(a)で、ステップS1、
ステップS5〜S10は図5(a),(b),または
(c)のステップS1、ステップS5〜S10の動作と
同様である。以下、ステップT2〜T4での動作につい
て説明する。
(Example of operation) In FIG.
Steps S5 to S10 are the same as the operations of steps S1 and S5 to S10 in FIG. 5 (a), (b), or (c). Hereinafter, the operation in steps T2 to T4 will be described.

【0065】ステップT2:(遠隔撮影モード設定) ステップS1(図5(a))で、被写体画像が取込ま
れ、液晶ファインダ40にスルー画像表示された後、撮
影者43がデジタルカメラ100の撮像アングルを決め
てからデジタルカメラ100をそのアングルで固定し、
自動撮像モード設定ボタン35を押すと、自動撮像モー
ドが起動され制御部20は自動撮像プログラムの実行制
御を開始し、時間カウンタに所定値(実施例では2秒)
を設定する。また、図10(a)に示すように枠カーソ
ル49を液晶ファインダに表示する。
Step T2: (Remote shooting mode setting) In step S1 (FIG. 5 (a)), after the subject image is captured and a through image is displayed on the liquid crystal finder 40, the photographer 43 picks up the image using the digital camera 100. After deciding the angle, fix the digital camera 100 at that angle,
When the automatic imaging mode setting button 35 is pressed, the automatic imaging mode is activated and the control unit 20 starts the execution control of the automatic imaging program, and sets a predetermined value (2 seconds in the embodiment) in the time counter.
Set. Further, a frame cursor 49 is displayed on the liquid crystal finder as shown in FIG.

【0066】ステップT3:(目印の指定操作) 撮影者43は検出部分指定キー37を操作して、枠カー
ソル49を移動させて人物42が持っている目印(白の
ハンカチ)45”の全部または大部分を枠内に入れるよ
うにして指定する(図10(b))。この時、枠カーソ
ル49の枠内を差別表示して(すなわち、強調表示、反
転表示、点滅表示等、周囲の画像部分とは別に認識可能
に表示する)カーソルがどの部分を指定しているかをユ
ーザが見やすいようにする。この後、撮影者(兼被写
体)43はカメラから離れ、自らが被写体に参加するた
めにカメラの視野内に入る(図10(c))。
Step T3: (Operation of Designating Marks) The photographer 43 operates the detection portion designating key 37 to move the frame cursor 49 so as to move all or all of the marks (white handkerchiefs) 45 ″ held by the person 42. (FIG. 10B) At this time, the inside of the frame of the frame cursor 49 is discriminated (ie, highlighted, inverted, blinking, etc.). The cursor (displayed so as to be recognizable separately from the part) makes it easy for the user to see which part is designated by the user. It enters the field of view of the camera (FIG. 10 (c)).

【0067】ステップT4:(検出エリアの特定) 制御部20は指定部分、すなわち、枠カーソル49の枠
の液晶ファインダ上の位置(座標)、すなわち、矩形枠
の四隅の座標からDRAM15の画像記憶領域151上
の検出エリア{(x1,y1)、(x2,y1)、(x
1,y2)、(x2,y2)}を特定(算出)してS5
(S5’またはS5”)に遷移する。
Step T4: (Specification of Detection Area) The control section 20 determines the image storage area of the DRAM 15 from the designated portion, that is, the position (coordinate) of the frame of the frame cursor 49 on the liquid crystal finder, ie, the coordinates of the four corners of the rectangular frame. 151 (x1, y1), (x2, y1), (x
(1, y2), (x2, y2)} are specified (calculated) and S5
(S5 ′ or S5 ″).

【0068】なお、上記変形例1のステップS3”で、
目印45”を指定する際に所定のキー操作により枠カー
ソル49の枠の大きさを目印45”に合わせて縮小/拡
大できるようにしてもよい。これにより、目印45”の
全部を枠内に入れるようにできるので、検出エリアの特
定精度が向上する。また、上記変形例1では枠カーソル
49の形状を矩形としたがこれに限定されず、円、楕
円、長方形三角形でもよく、上記ステップS2”でカー
ソル枠の形状を複数個表示して目印に近似した枠を選択
できるようにしてもよい。また、上記変形例1では枠カ
ーソル49を表示して目印45”を指定するようにした
が、点カーソルを表示してキー操作により目印45”を
囲むように動かすか、タッチペン等のポインティングデ
バイスで目印45”を囲むようにポイントして目印4
5”を指定するようにしてもよい。
In step S3 ″ of the first modification,
When the mark 45 "is designated, the size of the frame of the frame cursor 49 may be reduced / enlarged in accordance with the mark 45" by operating a predetermined key. Thus, the entirety of the mark 45 "can be put in the frame, so that the accuracy of specifying the detection area is improved. In the first modification, the shape of the frame cursor 49 is rectangular, but is not limited thereto. A circle, an ellipse, or a rectangular triangle may be used. In step S2 ", a plurality of cursor frame shapes may be displayed so that a frame approximate to a mark can be selected. In the first modification, the frame cursor 49 is displayed and the mark 45 "is designated. However, a point cursor is displayed and moved so as to surround the mark 45" by key operation, or a pointing device such as a touch pen is used. Point around mark 45 "and mark 4
5 "may be specified.

【0069】[変形例2] 連写或いは動画撮像モード
下の自動撮像 上記実施例1〜3では、トリガ1回で撮像を行なう例、
すなわち、1トリガで1シャッター動作を行ない1フレ
ームの画像を撮像する通常撮影の場合について説明した
が、本発明の自動撮像方法は撮影開始と撮影終了のトリ
ガを被写体の指定部分の変化検出で別々に得るようにし
て、連続撮影や動画撮影等の連続撮影の場合に適用する
ことができる。図9(b)は実施例1の変形例の動作を
示すフローチャートであり、指定部分の輝度の変化を連
写或いは動画撮影の撮影開始および撮影終了のトリガと
する例である。また、図11は連写或いは動画撮影時の
遠隔撮影方法の一実施例の説明図である。
[Modification 2] Automatic imaging in continuous shooting or moving image imaging mode In the first to third embodiments, an example in which imaging is performed by one trigger,
That is, the case of normal shooting in which one shutter operation is performed by one trigger to capture one frame of image has been described. However, in the automatic imaging method of the present invention, the trigger of shooting start and the end of shooting are separately determined by detecting a change in a designated portion of a subject. The present invention can be applied to the case of continuous shooting such as continuous shooting or moving image shooting. FIG. 9B is a flowchart illustrating an operation of a modification of the first embodiment, in which a change in luminance of a designated portion is used as a trigger for starting shooting and ending shooting for continuous shooting or moving image shooting. FIG. 11 is an explanatory diagram of an embodiment of a remote shooting method during continuous shooting or moving image shooting.

【0070】(動作例)図9(b)で、ステップS1〜
S5は図5(a),(b),または(c)のステップS
1〜S5(或いは、図9(a)のステップS1〜T5)
の動作と同様である。以下、ステップT6’〜T9’で
の動作について説明する(なお、図3(a)のステップ
S9はこの場合キャンセルする)。説明の前提として、
図11で、ユーザは右方向から左方向に向って進行する
電車403を連写(或いは、動画撮影)しようとし、図
11(a)に示すように線路402の向う側に立ってい
る標識401を目印として指定したものとする(図3
(a)のS3または図9(a)のT3)。ユーザが標識
401を目印として指定すると、検出エリアが特定され
(S4)、輝度範囲が決定される(S5)。
(Operation Example) Referring to FIG.
S5 is the step S in FIG. 5 (a), (b) or (c).
1 to S5 (or steps S1 to T5 in FIG. 9A)
The operation is the same as that described above. Hereinafter, the operation in steps T6 ′ to T9 ′ will be described (note that step S9 in FIG. 3A is canceled in this case). As a premise of explanation,
In FIG. 11, the user intends to perform continuous shooting (or moving image shooting) of the train 403 traveling from the right direction to the left direction, and as shown in FIG. It is assumed that it is designated as a landmark (Fig. 3
(S3 in FIG. 9A or T3 in FIG. 9A). When the user designates the sign 401 as a mark, a detection area is specified (S4), and a luminance range is determined (S5).

【0071】ステップT6’:(検出エリア(指定部
分)の輝度変化の検出) 制御部20は図3(a)のステップS6と同様の動作で
検出エリア内の輝度分布の変化を調べ輝度変化がある場
合にT7’に遷移する。すなわち、図11(a)の目印
401を指定した後、電車403が来るまでは輝度変化
が生じないので輝度の検出動作を繰り返すが、図11
(b)に示すように電車403が来ると目印401が電
車403で隠れ輝度変化が生じるのでT7’に遷移する
(1度目のトリガ)。また、図11(c)に示すように
電車403が目印401の前を通過中は輝度変化が生じ
ないので輝度の検出動作を繰り返す。更に、図11
(d)に示すように電車403が目印401の前を通過
中し終わると、輝度変化が生じるのでT7’に遷移する
(2度目のトリガ)。
Step T6 ': (Detection of luminance change in detection area (designated portion)) The control unit 20 checks the change in the luminance distribution in the detection area by the same operation as step S6 in FIG. In some cases, the state transits to T7 '. That is, since the luminance does not change until the train 403 arrives after designating the mark 401 in FIG. 11A, the luminance detecting operation is repeated.
As shown in (b), when the train 403 arrives, the mark 401 is hidden by the train 403 and a change in luminance occurs, so that the transition is made to T7 '(first trigger). In addition, as shown in FIG. 11C, while the train 403 passes in front of the mark 401, the luminance does not change, so that the luminance detecting operation is repeated. Further, FIG.
As shown in (d), when the train 403 finishes passing in front of the mark 401, a transition to T7 'occurs because a luminance change occurs (second trigger).

【0072】ステップT7’:(連続撮影中か否かの判
定) 上記T6’で輝度変化があると、制御部20は、現在、
撮影中(連続撮影中或いは動画撮影中)か否かを判定
し、撮影中でない場合にはT8’に遷移して連続撮像
(或いは動画撮像)を開始し、連続撮像中の場合にはT
9’に遷移して連続撮影終了処理(或いは動画撮影終了
処理)を行なう。なお、撮影中か否かは、例えば、ステ
ップT8’で撮像状態判定フラグをセットしておき、そ
の値(例えば、撮像状態判定フラグ=1なら撮像中、起
動時は撮像状態判定フラグ=0)を調べるようにするこ
とにより判定することができる。
Step T7 ': (Determination as to whether or not continuous shooting is in progress) If there is a luminance change in T6', the control unit 20
It is determined whether or not shooting is in progress (during continuous shooting or moving image shooting). If not, transition is made to T8 'and continuous shooting (or moving image shooting) is started.
The process transitions to 9 'to perform continuous shooting end processing (or moving image shooting end processing). It is to be noted that whether or not shooting is being performed is set, for example, by setting an imaging state determination flag in step T8 ', and the value thereof (for example, if imaging state determination flag = 1, imaging is in progress, imaging state determination flag = 0 at startup). Can be determined by checking.

【0073】ステップT8’:(連続撮影或いは動画撮
影の開始) 制御部20は、連続撮影(或いは動画撮影)を開始し、
被写体像を取込んで一定時間間隔でDRAM15に順次
記憶する。また、取込んだ被写体像を液晶ファインダ4
0にスルー表示する(また、実施例では撮像状態判定フ
ラグを1にセットする)。なお、撮像動作は撮影開始
後、撮影終了処理に遷移するまでステップT6’、T
7’の動作とは独立して画像データ入力系10で行なわ
れる。
Step T8 ': (Start of continuous shooting or moving image shooting) The controller 20 starts continuous shooting (or moving image shooting),
The subject images are fetched and sequentially stored in the DRAM 15 at regular time intervals. In addition, the captured subject image is
The live view is displayed at 0 (and the imaging state determination flag is set to 1 in the embodiment). It should be noted that the imaging operation is performed after the start of imaging until steps T6 ′, T6
The operation is performed by the image data input system 10 independently of the operation of 7 '.

【0074】ステップT9’:(撮影終了処理) 2度めの輝度変化があると、制御部20は撮像を停止
し、DRAM15に記憶された画像(複数)を順次JP
EG圧縮してフラッシュメモリ50に保存記録し、全て
の撮像画像の保存記録が終ると処理を終了する。
Step T 9 ′: (Shooting end processing) When there is a second luminance change, the control unit 20 stops the image pickup, and sequentially reads the images (plurality) stored in the DRAM 15 by JP.
The EG compression is performed, and the data is stored and recorded in the flash memory 50. When the storage and recording of all the captured images are completed, the process ends.

【0075】なお、上記変形例2では撮影開始の場合も
撮影終了の場合も輝度基準K0,閾値Knを同じ値とし
たが、別々の値としてもよい。また、上記変形例2で
は、説明上、指定部分の輝度変化を撮影開始または撮影
終了のトリガとする例としたが、ステップT6’で「色
相の変化検出」或いは、「動き検出」を行なうようにす
れば、図9(b)と同様の手順で指定部分の色相の変化
や、動きの変化を撮影開始または撮影終了のトリガとす
ることができる。
In the second modification, the luminance reference K0 and the threshold Kn are set to the same value both at the start of photographing and at the end of photographing, but they may be different values. In the second modification, for the sake of explanation, an example in which a change in luminance of a designated portion is used as a trigger to start or end shooting is described. However, in step T6 ′, “hue change detection” or “motion detection” is performed. In this case, a change in hue or a change in movement of the designated portion can be used as a trigger for starting or ending shooting in the same procedure as in FIG. 9B.

【0076】また、上記変形例2では、ステップT8’
ではDRAM15に撮像画像を順次記憶し、2度目のト
リガ(変化)が生じるとステップT9’でDRAM15
に記憶された撮像画像をフラッシュメモリ50に保存記
録するようにしたが、ステップT8’で撮像画像をその
都度JPEG圧縮してフラッシュメモリ50に保存記録
するようにしてもよい(この場合、ステップT9’では
制御部20は撮影を終了させる)。
In the second modification, step T8 '
In step T9 ', the captured images are sequentially stored in the DRAM 15, and when a second trigger (change) occurs, the DRAM 15
Is stored and recorded in the flash memory 50, but the captured image may be JPEG-compressed and stored and recorded in the flash memory 50 in step T8 '(in this case, step T9). ', The control unit 20 ends the shooting.)

【0077】<実施の形態2> 目印の認識結果の変化
による自動撮像 本発明の撮像方法では、ユーザがキー操作等により被写
体のある部分を目印として指定(または撮像)すると、
その目印の形状を撮像装置が認識処理(または、撮像後
認識処理)し、認識結果の変化(例えば、一致或いは不
一致)をトリガとして自動撮像を行なう。
<Embodiment 2> Automatic imaging by change in recognition result of mark In the imaging method of the present invention, when a user designates (or captures) a certain part of the subject as a mark by key operation or the like,
The imaging device performs recognition processing (or recognition processing after imaging) on the shape of the mark, and performs automatic imaging using a change in recognition result (for example, coincidence or non-coincidence) as a trigger.

【0078】[回路構成]図12は、本発明を適用した
撮像装置の一実施例としてのデジタルカメラの回路構成
例を示すブロック図であり、図1でデジタルカメラ10
0’は、バス1、画像データ入力系10、制御部20、
操作部30、表示部40、フラッシュメモリ50、画像
認識部70および画像辞書部80を備えている。なお、
音響出力装置60を設けて撮像報知を行なうようにして
もよい。また、図12で、バス1〜フラッシュメモリ5
0(および、撮像報知(後述)を行なう場合には音響出
力装置60)までの構成および機能は図1のデジタルカ
メラ100の構成および機能と同様である。
[Circuit Configuration] FIG. 12 is a block diagram showing an example of a circuit configuration of a digital camera as an embodiment of an imaging apparatus to which the present invention is applied.
0 ′ is a bus 1, an image data input system 10, a control unit 20,
An operation unit 30, a display unit 40, a flash memory 50, an image recognition unit 70, and an image dictionary unit 80 are provided. In addition,
The sound output device 60 may be provided to perform imaging notification. Also, in FIG.
The configuration and functions up to 0 (and the sound output device 60 when performing imaging notification (described later)) are the same as those of the digital camera 100 in FIG.

【0079】画像認識部70は指定された部分の形状を
認識処理し、画像辞書部80に登録された画像の特徴に
より得た画像との一致或いは不一致を判定する。なお、
一致或いは不一致の判定基準は公知の方法(認識処理に
よる類似度(または、距離)が閾値以上の場合を一致、
以下の場合を不一致)で得るようにしてもよい。
The image recognizing section 70 recognizes the shape of the designated portion, and judges whether the image registered with the image dictionary section 80 matches or does not match the image obtained by the feature of the image. In addition,
The criterion for matching or non-matching is a known method (matching when the similarity (or distance) by the recognition processing is equal to or greater than a threshold,
The following cases may not be matched).

【0080】また、画像辞書部80はフラッシュメモリ
50に設けられ、画像認識に必要な画像の画像パターン
(正規化されたパターン)とその特徴データ(辺(線
分)の方向、隣接する辺との角度、隣接する辺や対抗す
る辺との比率、辺の数、頂点の数等々)が登録されてい
る。また、撮像画像の特徴を抽出してその正規化パター
ンおよび特徴を画像辞書部80に登録することもでき
る。
The image dictionary section 80 is provided in the flash memory 50, and stores an image pattern (normalized pattern) of the image necessary for image recognition and its characteristic data (the direction of the side (line segment), , The ratio between adjacent sides and opposing sides, the number of sides, the number of vertices, etc.) are registered. Further, it is also possible to extract a feature of the captured image and register the normalized pattern and the feature in the image dictionary unit 80.

【0081】[画像パターン]画像パターンの例として
は、 単純な幾何学的な図形パターン(正方形、長方形、
三角形、円、楕円、多角形、星型、Vサイン等)、 上記の図形パターンで色彩の異なるもの、 光パルス(白色光線、赤外線等)の発射、 人間の手などで形取った幾何学図形(例えば、指で
作るVサインや丸印)、 人間の手などで作った一連の動作(例えば、ブロッ
クサイン)、 が挙げられるが、これらに限定されない。
[Image Pattern] Examples of image patterns include simple geometric figure patterns (square, rectangular,
(Triangles, circles, ellipses, polygons, stars, V-signs, etc.), those with different colors in the above figure patterns, emission of light pulses (white light rays, infrared rays, etc.), geometric figures shaped by human hands, etc. (For example, a V-sign or a circle made with a finger), a series of actions made with a human hand (for example, a block sign), but are not limited thereto.

【0082】[実施例4] 指定した目印(認識対象)
の認識結果に基づく撮像 図13は、自動撮像モード下のデジタルカメラの動作例
(目印の認識結果に基づく撮像)を示すフローチャート
であり、(a)は登録されている画像パターンを選択し
てから、それに一致する画像が表われた時(または、消
えた時)を撮像トリガとする例、(b)は変形例であり
被写体画像中の特定の部分の画像が登録されている画像
パターンと一致するとき(または、不一致になった時)
を撮像トリガとする例である。説明上、認識対象部分の
指定を枠カーソル49(図10)で行ない、撮像準備が
整って撮影者がカメラの視野内にはいってから特定の被
写体人物がVサインを出して撮像のトリガとし、自動撮
像を行なう例について説明する。
[Embodiment 4] Specified mark (recognition target)
FIG. 13 is a flowchart illustrating an operation example (imaging based on the recognition result of a landmark) of the digital camera in the automatic imaging mode. FIG. 13A illustrates a state in which a registered image pattern is selected. An example in which a time when an image coincident with the image appears (or disappears) is used as an imaging trigger. FIG. 2B is a modified example in which an image of a specific part in the subject image matches an image pattern registered. When (or when there is a mismatch)
Is an example in which is used as an imaging trigger. For the purpose of description, the recognition target portion is designated by the frame cursor 49 (FIG. 10), and after the imaging preparation is completed and the photographer enters the field of view of the camera, a specific subject person issues a V-sign to trigger the imaging, An example in which automatic imaging is performed will be described.

【0083】(動作例) ステップU1:(自動撮像モード設定) 図13(a)で、撮影者がデジタルカメラ100の撮像
アングルを決めてからデジタルカメラ100をそのアン
グルで固定し、自動撮像モード設定ボタン35を押す
と、自動撮像モードが起動される。
(Operation Example) Step U1: (Automatic Imaging Mode Setting) In FIG. 13 (a), after the photographer determines the imaging angle of the digital camera 100, the digital camera 100 is fixed at that angle, and the automatic imaging mode setting is performed. Pressing the button 35 activates the automatic imaging mode.

【0084】ステップU2:(比較する画像パターンの
表示) 制御部20は画像辞書部80に登録されている画像パタ
ーンを取り出して液晶ファインダ40に表示し、撮影者
に選択を促す。登録されている画像パターンが多くて1
画面に表示し切れない場合にはスクロールして所望の画
像パターンを選択することができる。
Step U2: (Display of Image Patterns to be Compared) The control section 20 takes out the image patterns registered in the image dictionary section 80 and displays them on the liquid crystal finder 40 to urge the photographer to select. There are at most 1 registered image patterns
If the image cannot be displayed on the screen, the user can scroll to select a desired image pattern.

【0085】ステップU3:(画像パターンの選択) 撮影者はカーソル移動キー等の操作により所望の画像パ
ターンを選択する。画像パターンが選択されると制御部
20はその画像パターンの特徴データを制御部20のR
AMまたはDRAM15に記憶(保持)する。例えば、
ユーザがVサインの画像パターンを選択すると、その特
徴データ(2本の線分が45°以内の角度の1つの頂点
を共有し、その頂点は下側にある)が制御部20のRA
M(または、DRAM15)に記憶(保持)される。
Step U3: (Selection of Image Pattern) The photographer selects a desired image pattern by operating a cursor moving key or the like. When an image pattern is selected, the control unit 20 stores the feature data of the image pattern in the R
It is stored (held) in the AM or DRAM 15. For example,
When the user selects the V-sign image pattern, the characteristic data (two line segments share one vertex of an angle within 45 ° and the vertex is on the lower side) is stored in the RA of the control unit 20.
M (or the DRAM 15).

【0086】ステップU4:(被写体画像の取込、スル
ー画像表示) 被写体画像が取込まれ、液晶ファインダ40に被写体画
像がスルー表示される。
Step U4: (Acquisition of subject image, through image display) The subject image is acquired, and the subject image is displayed through the liquid crystal finder 40.

【0087】ステップU5:(認識対象部分の指定操
作) 撮影者43は検出部分指定キー37を操作して、枠カー
ソル49を移動させてスルー表示されている被写体像の
うち認識対象とする部分(例えば、目印)全部または大
部分を枠内に入れるようにして指定する(図10
(b))。この時、枠カーソル49の枠内を差別表示し
て枠カーソル49がどの部分を指定しているかをユーザ
が見やすいようにようにする(例えば、撮影者がある被
写体人物の右胸の辺りを認識対象部分として指定し、こ
の後、撮影者はカメラから離れ、被写体となるためにカ
メラの視野内に入るようにする)。なお、認識対象部分
を指定する際に所定のキー操作により枠カーソル49の
枠の大きさを目印に合わせて縮小/拡大できるようにし
てもよい。これにより、認識対象の全部を枠内に入れる
ようにできるので、次のステップU6での検出エリアの
特定精度が向上する。
Step U5: (Operation of Specifying Recognition Portion) The photographer 43 operates the detection portion specification key 37 to move the frame cursor 49, and the portion to be recognized of the through-displayed subject image ( For example, a mark is specified so that all or most of the mark is put in the frame (FIG. 10).
(B)). At this time, the inside of the frame cursor 49 is differentially displayed so that the user can easily see which part the frame cursor 49 designates (for example, the photographer recognizes the vicinity of the right breast of a certain subject person). Designated as a target portion, after which the photographer moves away from the camera and enters the field of view of the camera to become a subject). When the recognition target portion is specified, the size of the frame of the frame cursor 49 may be reduced / enlarged in accordance with the mark by a predetermined key operation. As a result, the entire recognition target can be put in the frame, so that the accuracy of specifying the detection area in the next step U6 is improved.

【0088】ステップU6:(認識エリのア特定および
切出し) 制御部20は指定部分、すなわち、枠カーソル49の枠
の液晶ファインダ上の位置(座標)、すなわち、矩形枠
の四隅の座標からDRAM15の画像記憶領域151上
の検出エリア{(x1,y1)、(x2,y1)、(x
1,y2)、(x2,y2)}を特定(算出)し、その
部分を切出してDRAM15に記憶してU7に遷移する
(例えば、上記ステップU5で指定した被写体人物が右
胸の前に指でVサインを作ると、そのVサインを含む部
分が切出される)。
Step U6: (Identification and Extraction of Recognition Area) The control unit 20 determines the position of the designated portion, that is, the position (coordinates) of the frame of the frame cursor 49 on the liquid crystal finder, that is, the coordinates of the four corners of the rectangular frame. Detection area 画像 (x1, y1), (x2, y1), (x
1, y2) and (x2, y2)} are specified (calculated), the portions are cut out, stored in the DRAM 15, and transited to U7 (for example, when the subject person specified in step U5 is a finger in front of the right chest). When a V-sign is created with, a portion including the V-sign is cut out).

【0089】ステップU7:(特徴抽出処理) 制御部20は画像認識部70を制御して、画像認識処理
を行なう。認識処理は、例えば、DRAM15に記憶さ
れた認識対象部分を背景処理してVサイン像を抽出する
と共に、正規化する(例えば、最大辺で各辺を割算し
て、1に対する比率とする)と共にその特徴データを抽
出し、抽出した各特徴データと上記ステップU3で選択
した画像パターンの各特徴データとの差を得る(例え
ば、上記ステップU5で指定の被写体人物がVサインを
指で作っていた場合には、背景処理により認識対象部分
からVサイン像を抽出してから、その特徴データ(2本
の線分が45°以内の角度の1つの頂点を共有し、その
頂点は下側にある)を抽出して、各特徴との差を求め
る)。
Step U7: (Feature Extraction Processing) The control section 20 controls the image recognition section 70 to perform image recognition processing. In the recognition processing, for example, the recognition target portion stored in the DRAM 15 is subjected to background processing to extract and normalize the V-sign image (for example, each side is divided by the maximum side to obtain a ratio to 1). At the same time, the characteristic data is extracted, and a difference between each extracted characteristic data and each characteristic data of the image pattern selected in step U3 is obtained (for example, the subject person specified in step U5 makes a V-sign with a finger). In this case, after extracting the V-sign image from the recognition target portion by the background processing, the characteristic data (two line segments share one vertex with an angle within 45 °, and the vertex Is found) and the difference from each feature is determined).

【0090】ステップU8:(一致判定) 制御部20は上記ステップで得た各特徴データから認識
対象部分と選択された画像パターンの距離X(差の平均
二乗)を算出して、その大きさと閾値Ρとを比較して距
離X<Ρのとき一致と判定し、U6に遷移する。また、
X≧Ρのときは撮像トリガとしての画像が出されていな
いものとして、U6に戻る(例えば、上記ステップU5
で指定の被写体人物がVサインを指で作っていた場合に
は、そのVサインと画像パターンのVサインの特徴デー
タの差の二乗平均がΡ以内であればU6に遷移する)。
Step U8: (Match judgment) The control unit 20 calculates the distance X (mean square of the difference) between the recognition target part and the selected image pattern from each feature data obtained in the above step, and calculates the size and the threshold value. When the distance X <Ρ, it is determined that there is a match, and the process transits to U6. Also,
When X ≧ Ρ, it is determined that an image as an imaging trigger has not been output, and the process returns to U6 (for example, step U5
If the specified subject person is making a V-sign with a finger, the process transits to U6 if the square mean of the difference between the characteristic data of the V-sign and the V-sign of the image pattern is within Ρ).

【0091】ステップU9:(撮像トリガ信号の出力) 制御部20は上記ステップU8で認識結果が「一致」の
場合に撮像トリガ信号(撮像指示信号)を出力してシャ
ッター機構(光学系11)を制御する。なお、シャッタ
ー機構を制御する代りに撮像トリガ信号で撮像報知用の
音響出力装置60(または、撮像報知用のランプ表示装
置)を制御するようにしてもよく、また、シャッター機
構或いは撮像報知用の装置を制御することなく(次のス
テップU10を省略してU11に遷移し)、画像の記録
保存処理を行なうようにしてもよい。
Step U9: (Output of Imaging Trigger Signal) The control section 20 outputs an imaging trigger signal (imaging instruction signal) and activates the shutter mechanism (optical system 11) when the recognition result is "match" in step U8. Control. Note that, instead of controlling the shutter mechanism, the sound output device 60 (or a lamp display device for imaging notification) may be controlled by an imaging trigger signal, or the shutter mechanism or the imaging display signal may be controlled. The image recording / storing process may be performed without controlling the apparatus (transition to U11 omitting the next step U10).

【0092】ステップU10:(シャッター動作(撮像
および撮像報知)) シャッター機構は撮像指示信号によりシャッターボタン
36を動作させ、「カシャリ」というような機械音を出
して被写体人物に撮像の終了を報知する。この間、制御
部20は撮像処理を行ない、U11に遷移する。なお、
上述(ステップU10)したように、シャッター動作に
よる撮像終了報知に代えて音響出力装置に音または「撮
像終了」の旨の音声メッセージを出力するようにしても
よく、或いは表示ランプにより「撮像終了」を報知する
ようにしてもよい。
Step U10: (Shutter operation (imaging and imaging notification)) The shutter mechanism operates the shutter button 36 in response to the imaging instruction signal, and emits a mechanical sound such as "sharp" to notify the subject person of the end of imaging. . During this time, the control unit 20 performs an imaging process and makes a transition to U11. In addition,
As described above (step U10), a sound or a voice message to the effect that “imaging has been completed” may be output to the sound output device instead of notifying that the imaging has been completed by the shutter operation, or “imaging is completed” may be performed using the display lamp. May be notified.

【0093】ステップU11:(撮像画像の保存記録処
理) 上記ステップU8で一致と判定された時点でDRAM1
5に取込まれている(=撮像された)画像データをJP
EG圧縮処理してフラッシュメモリ50に保存記録す
る。なお、上記実施例4ではステップU8で一致判定が
なされた場合を撮像トリガとしたが、不一致(X≧Ρ)
になった場合を撮像トリガとするようにしてもよい。
Step U11: (Storing and Recording Process of Captured Image) When it is determined in step U8 that they match, the DRAM 1
Image data captured (= imaged) in JP5
EG compression processing is performed, and the data is stored and recorded in the flash memory 50. In the fourth embodiment, the case where the coincidence is determined in step U8 is set as the imaging trigger. However, the coincidence is not determined (X ≧ Ρ).
May be set as the imaging trigger.

【0094】また、上記実施例4では一致判定がなされ
た時点から撮像を開始したが、DRAM15に撮像画像
を循環記憶する複数の画像バッファ領域を設定し、取込
まれた画像を所定時間間隔で順次循環記憶し、一致判定
がなされた時点から過去に数秒間遡った画像から順次取
り出すようにして過去の画像の撮像を開始(PAST撮
影)するようにしてもよい。また、上記実施例では一致
判定がなされた時点から撮像を開始したが、連続撮影や
動画撮影の場合に一致判定(或いは、不一致判定)がな
されたときに撮像を終了するようにしてもよい。また、
上記実施例では、画像パターンがVサインの場合につい
て述べたが、前述した画像パターン〜をそれぞれ画
像辞書80に登録しておくことにより様々な認識対象に
用いることができる。また、上記実施例4では枠カーソ
ル49の形状を矩形としたがこれに限定されず、円、楕
円、長方形三角形でもよく、上記ステップU5でカーソ
ル枠の形状を複数個表示して目印に近似した枠を選択で
きるようにしてもよい(実施例5参照)。 また、上記
実施例4では枠カーソルを表示して目印を指定するよう
にしたが、点カーソルを表示してキー操作により目印を
囲むように動かすか、タッチペン等のポインティングデ
バイスで目印を囲むようにポイントして目印を指定する
ようにしてもよい。
In the fourth embodiment, the image pickup is started from the time when the coincidence is determined. However, a plurality of image buffer areas for circulating and storing the picked-up images are set in the DRAM 15, and the fetched images are stored at predetermined time intervals. The image may be sequentially stored in a cyclic manner, and the image may be sequentially taken out from the image several seconds before the point of time when the coincidence is determined, and the imaging of the past image may be started (PAST imaging). Further, in the above-described embodiment, the imaging is started from the time when the coincidence determination is performed. However, the imaging may be terminated when the coincidence determination (or the non-coincidence determination) is performed in the case of continuous shooting or moving image shooting. Also,
In the above-described embodiment, the case where the image pattern is a V-sign is described. However, by registering the above-described image patterns to in the image dictionary 80, the image patterns can be used for various recognition targets. In the fourth embodiment, the shape of the frame cursor 49 is rectangular. However, the shape is not limited to this, and may be a circle, an ellipse, or a rectangular triangle. In step U5, a plurality of cursor frame shapes are displayed to approximate the mark. A frame may be selectable (see Embodiment 5). In the fourth embodiment, the frame cursor is displayed and the mark is specified. However, the point cursor is displayed and moved so as to surround the mark by key operation, or the mark is surrounded by a pointing device such as a touch pen. Pointing may be performed to designate a landmark.

【0095】[変形例3]上記実施例4では、登録され
ている画像パターンを選択してから、それに一致する画
像が現われた時(または、消えた時)を撮像トリガとし
たが、被写体画像中の特定の部分の画像が登録されてい
る画像パターンと一致するとき(または、不一致になっ
た時)を撮像トリガとしてもよい。なお、図13(b)
で、ステップU9以下は図13(a)のステップU9以
下と同様である(図13(a)のステップU8は図13
(b)の場合はキャンセルする)。
[Third Modification] In the fourth embodiment, when a registered image pattern is selected and an image corresponding to the selected image pattern appears (or disappears), the imaging trigger is set. A time when an image of a specific part in the image matches a registered image pattern (or a time when the image pattern does not match) may be used as an imaging trigger. FIG. 13 (b)
The steps after step U9 are the same as the steps after step U9 in FIG. 13A (step U8 in FIG.
(In the case of (b), cancel).

【0096】(動作例) ステップU1’:(被写体画像の取込、スルー画像表
示) 図13(b)で、被写体画像が取込まれ液晶ファインダ
40に被写体画像がスルー表示される。
(Operation Example) Step U1 ': (Capturing of Subject Image, Through Image Display) In FIG. 13B, the subject image is captured and the subject image is displayed through the liquid crystal finder 40.

【0097】ステップU2’:(遠隔撮影モード設定) 撮影者43がデジタルカメラ100の撮像アングルを決
めてからデジタルカメラ100をそのアングルに固定
し、遠隔撮影モード設定ボタン35を押すと、撮像モー
ドが起動される。
Step U2 ': (Remote shooting mode setting) When the photographer 43 decides the shooting angle of the digital camera 100, fixes the digital camera 100 to that angle, and presses the remote shooting mode setting button 35, the shooting mode is set. Is activated.

【0098】ステップU3’:(認識対象部分の指定操
作) 撮影者43は検出部分指定キー37を操作して、枠カー
ソル49を移動させてスルー表示されている被写体像の
内認識対象とする部分の全部または一部を枠内に入れる
ようにして指定する。この時、枠カーソル49の枠内を
差別表示してカーソルがどの部分を指定しているかをユ
ーザが見やすいようにようにする。また、撮影者がある
被写体人物の右胸の辺りを認識対象部分として指定し、
この後、撮影者はカメラから離れ、被写体となるために
カメラの視野内に入るようにする。
Step U3 ': (Operation for Specifying Recognition Portion) The photographer 43 operates the detection portion specification key 37 to move the frame cursor 49 and to set a portion to be recognized in the through-displayed subject image. Is specified so that all or part of the At this time, the inside of the frame of the frame cursor 49 is differentially displayed so that the user can easily see which part the cursor designates. Also, the photographer designates the area around the right chest of a certain subject as a recognition target part,
Thereafter, the photographer moves away from the camera and enters the field of view of the camera to become a subject.

【0099】ステップU4’:(認識エリアの切出し) 制御部20は指定部分、すなわち、枠カーソル49の枠
の液晶ファインダ上の位置(座標)、すなわち、矩形枠
の四隅の座標からDRAM15の画像記憶領域151上
の検出エリアを算出して認識対象部分を特定し、それを
切出してDRAM15に記憶してU5’に遷移する。
Step U4 ': (Cut out recognition area) The control unit 20 stores the image of the DRAM 15 from the designated portion, that is, the position (coordinates) of the frame of the frame cursor 49 on the liquid crystal finder, ie, the coordinates of the four corners of the rectangular frame. The detection area on the area 151 is calculated to specify the recognition target portion, which is cut out, stored in the DRAM 15, and transits to U5 '.

【0100】ステップU5’:(画像認識処理) 制御部20は画像認識部70を制御して、画像認識処理
を行なう。認識処理は、例えば、DRAM15に記憶さ
れた認識対象部分を背景処理してVサイン像を抽出する
と共に、正規化すると共にその特徴データを抽出する。
Step U5 ': (Image Recognition Processing) The control section 20 controls the image recognition section 70 to perform image recognition processing. In the recognition process, for example, a recognition target portion stored in the DRAM 15 is subjected to background processing to extract a V-sign image, and is also normalized and its characteristic data is extracted.

【0101】ステップU6’:(画像辞書部のサーチ) 制御部20は画像辞書部80をサーチして登録されてい
る画像パターンの各特徴データと、抽出した部分画像の
各特徴データとの差を得る。
Step U6 ': (Search of Image Dictionary Unit) The control unit 20 searches the image dictionary unit 80 and determines the difference between each feature data of the image pattern registered and each feature data of the extracted partial image. obtain.

【0102】ステップU7’:(一致判定) 制御部20は上記ステップで得た各特徴データの差から
認識対象部分と選択された画像パターンの距離X(差の
平均二乗)を算出して、その大きさと閾値Ρとを比較し
て距離X<Ρのとき一致と判定し、U9に遷移する。ま
た、X≧Ρのときは撮像トリガとしての画像が出されて
いないものとして次の画像パターンをサーチするために
U6’に戻る。
Step U7 ': (Match determination) The controller 20 calculates the distance X (the mean square of the difference) between the recognition target portion and the selected image pattern from the difference between the respective feature data obtained in the above step, and The size is compared with the threshold value Ρ, and when the distance X <Ρ, it is determined that they match, and the process transits to U9. When X ≧ Ρ, it is determined that no image as an imaging trigger has been output, and the process returns to U6 ′ to search for the next image pattern.

【0103】[実施例5] 撮像した画像の変化をトリ
ガとして撮像を行なう例 本実施例は、デジタルカメラ100で撮像した撮像画像
の変化(この例では、移動による消失)をトリガとして
撮像を行なう例であり、ゴルフスイングを連続撮影する
場合を例としている。
[Fifth Embodiment] Example in which imaging is performed by using a change in a captured image as a trigger In this embodiment, imaging is performed using a change in a captured image captured by digital camera 100 (in this example, disappearance due to movement) as a trigger. This is an example, and is a case where a golf swing is continuously photographed.

【0104】図14は本実施例でのDRAM15のレイ
アウト例を示す図であり、図15はゴルフスイングを例
としたトリガ画像および連続撮影の撮像タイミングの説
明図である。また、図16は自動撮像モード下のデジタ
ルカメラの動作例を示すフローチャートであり、撮像画
像の変化によるPAST撮影の例を示す。ゴルフのイン
パクトの瞬間の前後を撮影するにはインパクトの瞬間か
ら所定時間過去の画像を記憶しておく必要がある。本実
施例では図14に示すようにDRAM15に連続撮影さ
れる画像を順次循環的に記憶する複数の画像バッファ
(この例では、G(1)〜G(n))181とトリガ画
像記憶用のトリガ画像バッファ182を確保している。
FIG. 14 is a diagram showing an example of the layout of the DRAM 15 in this embodiment, and FIG. 15 is an explanatory diagram of a trigger image and an imaging timing of continuous photographing in an example of a golf swing. FIG. 16 is a flowchart illustrating an operation example of the digital camera in the automatic imaging mode, and illustrates an example of PAST imaging due to a change in a captured image. In order to photograph before and after the moment of the impact of golf, it is necessary to store an image that is past a predetermined time from the moment of the impact. In this embodiment, as shown in FIG. 14, a plurality of image buffers (G (1) to G (n) in this example) 181 for sequentially and cyclically storing images continuously captured in the DRAM 15 and a trigger image storage 181 are provided. The trigger image buffer 182 is secured.

【0105】また、図15で、(a)はティー162に
セットされたゴルフボール161を示し、(b)は撮像
された比較用のトリガ画像160(ゴルフボール161
およびティー162からなる部分画像)を示す。また、
(c)はインパクト前のゴルフクラブの動きを示す図で
ありPAST画像に相当する。また、(d)はインパク
ト後のゴルフクラブの動きを示す図でありFUTURE
画像に相当する。また、(e)は連続撮影中にトリガ画
像に変化が生じた場合の撮像タイミングを示す図であ
る。(c)に示すようにインパクト前はトリガ画像16
0と一致していたスルー画像の指定部分165内の画像
が、インパクト後は(d)に示すように消失しているの
で撮像のトリガとなるが、この例では、インパクト時か
ら過去に数秒(t)遡った時点からインパクトまでの画
像(PAST画像)とインパクトから数秒(t’)経過
する間の画像(FUTURE画像)のトリガとしてトリ
ガ画像との不一致(ゴルフボールおよびティ−の消失)
を用いる。以下、図16のフローチャートに基づいて説
明する。
FIG. 15A shows a golf ball 161 set on a tee 162, and FIG. 15B shows a captured trigger image 160 for comparison (the golf ball 161).
And a partial image comprising a tee 162). Also,
(C) is a diagram showing the movement of the golf club before impact, and corresponds to a PAST image. (D) is a diagram showing the movement of the golf club after the impact, and FIG.
Corresponds to an image. FIG. 4E is a diagram illustrating an imaging timing when a trigger image changes during continuous imaging. Before the impact, as shown in FIG.
Since the image in the designated portion 165 of the through image, which coincides with 0, disappears after the impact as shown in (d), it triggers the imaging. In this example, however, in this example, several seconds ( t) Inconsistency between the trigger image and the image (FASTURE image) during which several seconds (t ') have elapsed since the impact and the image (PAST image) from the point in time to the impact (loss of golf ball and tee)
Is used. Hereinafter, description will be made based on the flowchart of FIG.

【0106】ステップV1:(被写体画像の取込、スル
ー画像表示) 被写体画像が取込まれ液晶ファインダ40に被写体画像
がスルー表示される。
Step V1: (Capturing of subject image, through image display) The subject image is captured and the subject image is displayed through the liquid crystal finder 40.

【0107】ステップV2:(遠隔撮影モード設定) 撮影者43がデジタルカメラ100の撮像アングルを決
めてからデジタルカメラ100をそのアングルに固定
し、自動撮像モード設定ボタン35を押すと、自動撮像
モードが起動される。
Step V2: (Remote Shooting Mode Setting) When the photographer 43 determines the shooting angle of the digital camera 100, fixes the digital camera 100 to that angle, and presses the automatic shooting mode setting button 35, the automatic shooting mode is set. Is activated.

【0108】ステップV3:(トリガ画像(比較画像)
の撮像) スルー画像中、撮影者はトリガ画像(比較画像)とした
い画像(図14のゴルフボールのようにスルー画像の一
部でもよい)があるとそれを枠カーソル移動指定キー3
7を操作して枠カーソルで指定してからシャッターボタ
ン36を操作してそれを撮像する。
Step V3: (Trigger image (comparative image)
In the through image, when the photographer has an image (or a part of the through image like the golf ball in FIG. 14) to be used as the trigger image (comparison image), the photographer uses the frame cursor movement designation key 3
The user operates the shutter button 36 to operate the shutter button 36 to specify the image with the frame cursor, and captures the image.

【0109】ステップV4:(背景処理およびトリガ画
像の記憶) 制御部20はトリガ画像としたい画像部分の位置情報
(実施例ではその部分を含む矩形の4隅の座標)を制御
部20のRAM(または、DRAM15のワークエリア
183)に記憶(保持)すると共に、その矩形内のトリ
ガ画像をDRAM15のトリガ画像バッファ182に記
憶する(図14(b)参照))。
Step V4: (Background processing and storage of trigger image) The control unit 20 stores the position information (in the embodiment, the coordinates of the four corners of the rectangle including the portion) of the image part to be used as the trigger image in the RAM ( Alternatively, the trigger image is stored (held) in the work area 183) of the DRAM 15 and the trigger image within the rectangle is stored in the trigger image buffer 182 of the DRAM 15 (see FIG. 14B).

【0110】ステップV5:(連写モード判定) 制御部20は操作部30からの状態信号を調べ、撮影者
が連写モードを選択した場合にV6に遷移する。
Step V5: (Continuous Shooting Mode Judgment) The control unit 20 checks the status signal from the operation unit 30, and transitions to V6 when the photographer selects the continuous shooting mode.

【0111】ステップV6:(画像循環記憶、スルー画
像表示) 制御部20は取込まれた画像を画像バッファG(1)〜
G(n)に順次記憶すると共に、スルー画像表示する。
取込まれた画像は所定時間間隔で循環的に表示される
(例えば、図14に示すように画像バッファの数を16
とし、0.2秒間隔で取込むとすると3.2秒毎に循環
記憶される(現在より3.2秒前に記憶された画像は現
在の画像で置換される)。
Step V6: (Image circulating storage, through image display) The control unit 20 stores the fetched image in the image buffers G (1) to G (1).
G (n) is sequentially stored and a through image is displayed.
The captured images are cyclically displayed at predetermined time intervals (for example, as shown in FIG.
Assuming that data is captured at intervals of 0.2 seconds, the data is cyclically stored every 3.2 seconds (the image stored 3.2 seconds before the current time is replaced with the current image).

【0112】ステップV7:(比較対象部分の抽出) 制御部20は、今取込まれた画像(=スルー表示された
画像)からトリガ画像の位置に相当する比較対象の画像
部分を抽出する。
Step V7: (Extraction of Comparison Target Part) The control unit 20 extracts a comparison target image part corresponding to the position of the trigger image from the currently acquired image (= through-displayed image).

【0113】ステップV8:(トリガ画像との比較) 次に、制御部20は抽出された部分画像とトリガ画像と
を比較し、一致している場合には変化なしとしてV6に
戻り、一致しない場合にはV9に遷移する(例えば、図
15でインパクト前はゴルフボール161とティー16
2があるので一致するのでV6に戻り、インパクトによ
りゴルフボール161とティー162が消失した場合に
は不一致となってV9に遷移する)。
Step V8: (Comparison with Trigger Image) Next, the control unit 20 compares the extracted partial image with the trigger image, and if they match, returns to V6 without any change, and returns to V6 if they do not match. (For example, before impact in FIG. 15, the golf ball 161 and the tee 16)
Therefore, when the golf ball 161 and the tee 162 disappear due to the impact, the golf ball 161 and the tee 162 disappear.

【0114】比較方法としては、例えば、抽出した部分
画像の画素を反転して反転後の部分画像とトリガ画像の
画素の論理積がすべて1になれば一致、そうでなけれな
不一致とすることができる。なお、この場合、ゴルファ
ーがスイング姿勢をとったことなどによる光線の加減や
背景による影響を考慮して、反転後の部分画像とトリガ
画像の論理積が全て1とならなくても1となった画素が
所定の閾値(例えば、40%)以下になれば不一致とす
るようにしてもよい。
As a comparison method, for example, the pixels of the extracted partial image are inverted, and if all the logical products of the inverted partial image and the pixels of the trigger image become 1, a match is obtained, otherwise a mismatch is determined. it can. In this case, the logical product of the inverted partial image and the trigger image is set to 1 even if the logical image of the inverted image and the trigger image are not all set to 1 in consideration of the influence of the background and the adjustment of the light beam due to the golfer taking the swing posture. If a pixel falls below a predetermined threshold (for example, 40%), it may be determined that there is no match.

【0115】ステップV9:(PAST撮影) 制御部20は、画像の変化があるとそれをトリガとして
その時点から所定時間(例えば、1.6秒)遡った時点
からトリガ時点までの画像を画像バッファから取り出し
て、順次JPEG圧縮処理してからフラッシュメモリ5
0に保存記憶する(例えば、トリガ時点でG(16)に
画像が記憶された場合にはG(8)〜G(16)までに
記憶された画像がPAST画像として保存記憶され
る)。
Step V9: (PAST photographing) When there is a change in the image, the control unit 20 uses the image as a trigger to store the image from the point in time retrospectively (for example, 1.6 seconds) from that point to the trigger point in the image buffer. Out of the flash memory 5
0 (for example, when an image is stored in G (16) at the time of triggering, the images stored in G (8) to G (16) are stored and stored as PAST images).

【0116】ステップV10:(FUTURE撮影) 制御部20はPAST撮影後、トリガ時点から所定時間
後(例えば、1.4秒)までの画像を画像バッファから
取り出して順次JPEG圧縮処理してからフラッシュメ
モリ50に保存記憶する(例えば、トリガ時点でG(1
6)に画像が記憶された場合にはG(1)〜G(7)ま
でに記憶された画像がFUTURE画像として保存記憶
される)。
Step V10: (FUTURE photographing) After the PAST photographing, the control unit 20 takes out images from the image buffer until a predetermined time (for example, 1.4 seconds) from the trigger point, sequentially performs JPEG compression processing, and then flash memory. 50 (for example, G (1
When the image is stored in 6), the images stored in G (1) to G (7) are stored and stored as FUTURE images).

【0117】なお、上記実施例5ではトリガ画像が消え
たときを撮影開始のトリガとしたが、撮影終了のトリガ
としてもよく、トリガ画像が出現したときを撮影開始
(または撮影終了)のトリガとするようにしてもよい。
In the fifth embodiment, when the trigger image disappears, the shooting start is triggered. However, the shooting end trigger may be used. When the trigger image appears, the shooting start (or shooting end) trigger is used. You may make it.

【0118】以上本発明の幾つかの実施例および変形例
について説明したが、本発明は上記実施例及び変形例に
限定されるものではなく、種々の変形実施が可能である
ことはいうまでもない。
Although several embodiments and modifications of the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and it goes without saying that various modifications can be made. Absent.

【0119】[0119]

【発明の効果】以上説明したように、本発明の撮像方法
および撮像装置によれば、指定した画像部分に変化のあ
ったときを撮像のトリガとすることができるので、従来
のセルフタイマーのように設定時間に束縛されるような
ことがなく、所望のタイミングで撮像を行なうことがで
きる。また、リモコンユニットを必要としないので余分
な構造を設ける必要がなく、装置が嵩ばらない。
As described above, according to the imaging method and the imaging apparatus of the present invention, when a change occurs in a designated image portion, it is possible to use the trigger of the imaging as a conventional self-timer. It is possible to perform imaging at a desired timing without being restricted by the set time. Further, since a remote control unit is not required, there is no need to provide an extra structure, and the device does not become bulky.

【0120】また、第1〜第3の撮像方法および第5〜
第9の発明の撮像装置によれば、1回のシャッター操作
で1枚の画像を撮像する通常撮像の他、1回のシャッタ
ー操作で複数枚の画像を撮像する連写や動画を撮像する
動画撮影時の撮影開始や撮影終了のタイミングを得るこ
ともできる。
The first to third imaging methods and the fifth to fifth imaging methods
According to the imaging apparatus of the ninth aspect, in addition to normal imaging in which one image is captured by one shutter operation, continuous shooting in which a plurality of images are captured in one shutter operation, and moving image in which a moving image is captured It is also possible to obtain the start and end timings of shooting at the time of shooting.

【0121】また、第4の撮像方法および第10の発明
の撮像装置によれば撮像画像と指定した画像部分を比較
して異なった場合をトリガとするので、PAST画像撮
影時のタイミングを簡単に得ることができる。
Further, according to the fourth imaging method and the imaging apparatus of the tenth aspect of the present invention, since the difference between the captured image and the designated image portion is used as a trigger, the timing at the time of capturing the PAST image can be simplified. Obtainable.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の撮像装置の一実施例としてのデジタル
カメラの回路構成例を示すブロック図である。
FIG. 1 is a block diagram illustrating a circuit configuration example of a digital camera as one embodiment of an imaging device of the present invention.

【図2】カラープロセス回路の構成例を示すブロック図
である。
FIG. 2 is a block diagram illustrating a configuration example of a color process circuit.

【図3】本発明の撮像方法の一実施例の説明図である。FIG. 3 is an explanatory diagram of an embodiment of an imaging method according to the present invention.

【図4】画面分割による検出エリア指定方法の説明図で
ある。
FIG. 4 is an explanatory diagram of a detection area designating method by screen division.

【図5】遠隔撮影モード下のデジタルカメラの動作例
(目印の変化検出による撮像)を示すフローチャートで
ある。
FIG. 5 is a flowchart illustrating an operation example (imaging by detecting a change in a mark) of the digital camera in a remote shooting mode.

【図6】指定部分の輝度分布の一例を示す図である。FIG. 6 is a diagram illustrating an example of a luminance distribution of a designated portion.

【図7】指定部分の色分布の一例を示す図である。FIG. 7 is a diagram illustrating an example of a color distribution of a designated portion.

【図8】指定部分の動き検出に用いるAF用高周波の積
分出力分布の一例を示す図である。
FIG. 8 is a diagram illustrating an example of an integrated output distribution of high frequency for AF used for motion detection of a designated portion.

【図9】遠隔撮影モード下のデジタルカメラの動作例
(変形例)を示すフローチャートである。
FIG. 9 is a flowchart showing an operation example (modification) of the digital camera in the remote shooting mode.

【図10】枠カーソルによる検出エリア指定方法の説明
図である。
FIG. 10 is an explanatory diagram of a detection area designation method using a frame cursor.

【図11】連写或いは動画撮影時の自動撮像方法の一実
施例の説明図である。
FIG. 11 is an explanatory diagram of one embodiment of an automatic imaging method at the time of continuous shooting or moving image shooting.

【図12】本発明の撮像装置の一実施例としてのデジタ
ルカメラの回路構成例を示すブロック図である。
FIG. 12 is a block diagram illustrating a circuit configuration example of a digital camera as one embodiment of the imaging apparatus of the present invention.

【図13】自動撮像モード下のデジタルカメラの動作例
(目印の認識結果に基づく撮像)を示すフローチャート
である。
FIG. 13 is a flowchart illustrating an operation example (imaging based on a recognition result of a mark) of the digital camera in the automatic imaging mode.

【図14】DRAMのレイアウト例を示す図である。FIG. 14 is a diagram showing a layout example of a DRAM.

【図15】ゴルフスイングを例とした連続撮影の撮像タ
イミングの説明図である。
FIG. 15 is an explanatory diagram of an imaging timing of continuous shooting using a golf swing as an example.

【図16】自動撮像モード下のデジタルカメラの動作例
(撮像画像の変化によるPAST撮像の例)を示すフロ
ーチャートである。
FIG. 16 is a flowchart illustrating an operation example of a digital camera in an automatic imaging mode (an example of PAST imaging due to a change in a captured image).

【符号の説明】[Explanation of symbols]

20 制御部(画像状態比較手段、撮像制御手段、画像
抽出手段、画像比較手段) 37 検出部分指定キー、枠カーソル移動指示キー(部
分指定手段、比較画像抽出手段) 45 カーソル(部分指定手段、比較画像抽出手段) 49 枠カーソル(部分指定手段、比較画像抽出手段) 50 スルー画像(動画表示されている被写体画像) 70 認識処理部(画像認識手段) 80 画像辞書部(画像パターン登録手段) 131 カラープロセス回路(画像状態検出手段)
20 control unit (image state comparison means, imaging control means, image extraction means, image comparison means) 37 detection part designation key, frame cursor movement instruction key (part designation means, comparison image extraction means) 45 cursor (part designation means, comparison Image extraction means) 49 Frame cursor (part designation means, comparison image extraction means) 50 Through image (subject image displayed as a moving image) 70 Recognition processing unit (image recognition means) 80 Image dictionary unit (image pattern registration means) 131 color Process circuit (image state detection means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松永 剛 東京都羽村市栄町3丁目2番1号 カシオ 計算機株式会社羽村技術センター内 Fターム(参考) 5C022 AA13 AB31 AB64 AB65 AC00 AC03 AC13 AC52 AC69  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Tsuyoshi Matsunaga 3-2-1 Sakaemachi, Hamura-shi, Tokyo Casio Computer Co., Ltd. Hamura Technical Center F-term (reference) 5C022 AA13 AB31 AB64 AB65 AC00 AC03 AC13 AC52 AC69

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 表示されている被写体画像のうちの所望
の部分を指定した後、指定した所望の部分がその部分を
指定した時の状態と比べて変化したときを撮像開始或い
は撮像終了のトリガとすることを特徴とする撮像方法。
1. A trigger for starting or terminating imaging when a desired portion of a displayed subject image is designated and then the designated desired portion changes as compared with a state when the designated portion is designated. An imaging method characterized by the following.
【請求項2】 表示されている被写体画像のうちの指定
部分と登録された画像パターンが一致したときを撮像開
始或いは撮像終了のトリガとすることを特徴とする撮像
方法。
2. An imaging method characterized in that a time when a designated portion of a displayed subject image matches a registered image pattern is used as a trigger to start or end imaging.
【請求項3】 表示されている被写体画像のうちの指定
部分と登録された画像パターンが不一致となったときを
撮像開始或いは撮像終了のトリガとすることを特徴とす
る撮像方法。
3. An imaging method, characterized in that a time when a designated portion of a displayed subject image does not match a registered image pattern is used as a trigger to start or end imaging.
【請求項4】 所定の画角で撮像した画像のうちの指定
部分と前記所定の画角で動画表示されている被写体画像
のうち前記指定部分と対応する画像部分とが異なったと
きを撮像のトリガとすることを特徴とする撮像方法。
4. When a designated portion of an image captured at a predetermined angle of view is different from an image portion corresponding to the specified portion of a subject image displayed as a moving image at the predetermined angle of view, the image capturing is performed. An imaging method characterized by using as a trigger.
【請求項5】 表示されている被写体画像のうちの所望
の画像部分を指定する部分指定手段と、 その部分指定手段によって指定された画像部分の状態を
検出する画像状態検出手段と、 その部分指定手段によって指定されたときに前記画像状
態検出手段によって検出された画像部分の画像状態と、
その後に前記画像状態検出手段によって検出された画像
部分の画像状態とを比較する画像状態比較手段と、 その画像状態比較手段による比較の結果、前記部分指定
手段によって指定されたときの部分画像の画像状態に比
べてその後の画像状態が変化したときを撮像開始或いは
撮像終了のトリガとする撮像制御手段と、を備えたこと
を特徴とする撮像装置。
5. A part designating means for designating a desired image part in a displayed subject image; an image state detecting means for detecting a state of the image part designated by the part designating means; An image state of an image portion detected by the image state detecting means when specified by the means,
Then, an image state comparing means for comparing the image state of the image portion detected by the image state detecting means with the image state of the image portion, and an image of the partial image specified by the partial specifying means as a result of the comparison by the image state comparing means An imaging apparatus, comprising: imaging control means for triggering the start or end of imaging when a subsequent image state changes compared to the state.
【請求項6】 前記画像状態検出手段は、輝度、色相或
いは指定した画像部分の動きから画像部分の状態を検出
することを特徴とする請求項5記載の撮像装置。
6. The image pickup apparatus according to claim 5, wherein said image state detecting means detects a state of the image portion from a luminance, a hue, or a movement of a designated image portion.
【請求項7】 画像パターンおよびそのパターンデータ
を登録した画像パターン情報登録手段と、 その画像パターン情報登録手段に登録された画像パター
ンを選択する画像パターン選択手段と、 表示されている被写体画像のうちの所望の画像部分を指
定する部分指定手段と、 その部分指定手段によって指定された画像部分を前記被
写体画像から切り出して、前記画像パターン選択手段に
よって選択された画像パターンのパターンデータをもと
にその切り出された画像部分を認識処理する画像認識手
段と、 その画像認識手段による認識処理の結果、切出した画像
部分と画像パターンが一致したときを撮像開始或いは撮
像終了のトリガとする撮像制御手段と、を備えたことを
特徴とする撮像装置。
7. An image pattern information registering means for registering an image pattern and its pattern data; an image pattern selecting means for selecting an image pattern registered in the image pattern information registering means; Part designating means for designating a desired image part, and an image part designated by the part designating means is cut out from the subject image, and the image part is extracted based on the pattern data of the image pattern selected by the image pattern selecting means. Image recognition means for recognizing the cut-out image portion; and, as a result of the recognition processing by the image recognition means, an image-pickup control means for triggering the start or end of image-pickup when the cut-out image portion matches the image pattern; An imaging device comprising:
【請求項8】 前記撮像制御手段は、前記画像認識手段
による認識処理の結果、切出した画像部分と画像パター
ンが不一致となったときを撮像開始或いは撮像終了のト
リガとすることを特徴とする請求項7記載の撮像装置。
8. The imaging control means according to claim 1, wherein, as a result of the recognition processing by said image recognizing means, when a cut-out image part and an image pattern do not match, a trigger to start imaging or end imaging is made. Item 8. The imaging device according to Item 7.
【請求項9】 前記画像パターンは、下記(1)〜
(4)のパターンの少なくとも1つを含むことを特徴と
する請求項7または8記載の撮像装置。(1) 幾何学
的な図形パターン、(2) パルスパターン、(3)
人間の手などで形取った幾何学図形、(4) 人間の手
などで表現した一連の動作パターン。
9. The image pattern includes the following (1) to
The imaging device according to claim 7, wherein the imaging device includes at least one of the patterns of (4). (1) geometric figure pattern, (2) pulse pattern, (3)
(4) A series of motion patterns expressed by human hands and the like.
【請求項10】 所定の画角で撮像した画像のうちの所
望の画像部分を抽出する比較画像抽出手段と、 前記所定の画角で表示されている被写体画像のうちから
前記比較画像抽出手段によって抽出された比較画像と比
較するための画像部分を抽出する画像抽出手段と、 その画像抽出手段によって抽出された画像部分と前記比
較画像とを比較する画像比較手段と、 その画像比較手段による比較の結果、前記比較画像と前
記画像部分が異なった時を撮像のトリガとする撮像制御
手段と、を備えたことを特徴とする撮像装置。
10. A comparison image extracting means for extracting a desired image portion from an image captured at a predetermined angle of view, and said comparison image extracting means from a subject image displayed at the predetermined angle of view. An image extracting means for extracting an image part for comparison with the extracted comparative image; an image comparing means for comparing the image part extracted by the image extracting means with the comparative image; An imaging control unit that triggers imaging when the comparison image and the image portion are different, as an imaging trigger.
JP37041298A 1998-12-25 1998-12-25 Imaging method and imaging apparatus Expired - Lifetime JP4341936B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37041298A JP4341936B2 (en) 1998-12-25 1998-12-25 Imaging method and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37041298A JP4341936B2 (en) 1998-12-25 1998-12-25 Imaging method and imaging apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006021427A Division JP4337825B2 (en) 2006-01-30 2006-01-30 Imaging device

Publications (2)

Publication Number Publication Date
JP2000196934A true JP2000196934A (en) 2000-07-14
JP4341936B2 JP4341936B2 (en) 2009-10-14

Family

ID=18496849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37041298A Expired - Lifetime JP4341936B2 (en) 1998-12-25 1998-12-25 Imaging method and imaging apparatus

Country Status (1)

Country Link
JP (1) JP4341936B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122934A (en) * 2000-10-12 2002-04-26 Olympus Optical Co Ltd Camera
JP2002333652A (en) * 2001-05-10 2002-11-22 Oki Electric Ind Co Ltd Photographing device and reproducing apparatus
JP2003250120A (en) * 2002-02-25 2003-09-05 Ricoh Co Ltd Digital camera
JP2004173202A (en) * 2002-11-22 2004-06-17 Canon Inc Image recorder
JP2004187043A (en) * 2002-12-04 2004-07-02 Fuji Xerox Co Ltd Video processor
JP2005109814A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Image photographing device and program
JP2005260933A (en) * 2004-03-01 2005-09-22 Microsoft Corp Portable recall device
JP2006222883A (en) * 2005-02-14 2006-08-24 Olympus Imaging Corp Digital camera
JP2006279116A (en) * 2005-03-28 2006-10-12 Casio Comput Co Ltd Digital camera device
JP2008219428A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Imaging apparatus
US7502492B2 (en) * 2004-09-10 2009-03-10 Seiko Epson Corporation Integrated circuit device and microcomputer
JP2009117975A (en) * 2007-11-02 2009-05-28 Oki Electric Ind Co Ltd Image pickup apparatus and method
JP2009147574A (en) * 2007-12-13 2009-07-02 Casio Comput Co Ltd Imaging apparatus, and program thereof
WO2010073615A1 (en) * 2008-12-24 2010-07-01 三洋電機株式会社 Image pickup apparatus and smiling face recording program
US7817915B2 (en) 2006-07-25 2010-10-19 Fujifilm Corporation Image taking system
JP2010239447A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image capturing apparatus, image processing method, and program
JP2011030089A (en) * 2009-07-28 2011-02-10 Casio Computer Co Ltd Image processing apparatus and program
WO2011052492A1 (en) * 2009-11-02 2011-05-05 日本電気株式会社 Mobile communication apparatus
US7995106B2 (en) 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
WO2011121917A1 (en) * 2010-03-30 2011-10-06 Sony Corporation Image processing apparatus, method, and computer program storage device
JP2013031127A (en) * 2011-07-29 2013-02-07 Car Mate Mfg Co Ltd Automatic imaging device
JP2013162240A (en) * 2012-02-02 2013-08-19 Car Mate Mfg Co Ltd Automatic photography device
JP2013162233A (en) * 2012-02-02 2013-08-19 Olympus Imaging Corp Imaging apparatus and imaging method of the same
KR101299153B1 (en) * 2006-07-31 2013-08-22 삼성전자주식회사 Method of controlling digital photographing apparatus, and digital photographing apparatus adopting the method
JP2013225860A (en) * 2007-05-30 2013-10-31 Intellectual Ventures Second Llc Camera configurable for autonomous operation
KR101345304B1 (en) * 2007-06-26 2013-12-27 삼성전자주식회사 Apparatus and method for photographing image
JP2014186559A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Video image extraction device, video image extraction method and program
JP2015099969A (en) * 2013-11-18 2015-05-28 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program
CN109756696A (en) * 2019-01-18 2019-05-14 苏州科达科技股份有限公司 Logo addition and video conference image generation method, system, equipment and medium
WO2021171685A1 (en) * 2020-02-28 2021-09-02 富士フイルム株式会社 Control device for printer-equipped digital camera, method for operating control device for printer-equipped digital camera, and program for operating control device for printer-equipped digital camera

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122934A (en) * 2000-10-12 2002-04-26 Olympus Optical Co Ltd Camera
JP2002333652A (en) * 2001-05-10 2002-11-22 Oki Electric Ind Co Ltd Photographing device and reproducing apparatus
JP2003250120A (en) * 2002-02-25 2003-09-05 Ricoh Co Ltd Digital camera
JP2004173202A (en) * 2002-11-22 2004-06-17 Canon Inc Image recorder
JP2004187043A (en) * 2002-12-04 2004-07-02 Fuji Xerox Co Ltd Video processor
JP2005109814A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Image photographing device and program
JP4541183B2 (en) * 2004-03-01 2010-09-08 マイクロソフト コーポレーション Portable recall device
US9918049B2 (en) 2004-03-01 2018-03-13 Microsoft Technology Licensing, Llc Recall device
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
JP2005260933A (en) * 2004-03-01 2005-09-22 Microsoft Corp Portable recall device
US9344688B2 (en) 2004-03-01 2016-05-17 Microsoft Technology Licensing, Llc Recall device
US7502492B2 (en) * 2004-09-10 2009-03-10 Seiko Epson Corporation Integrated circuit device and microcomputer
JP2006222883A (en) * 2005-02-14 2006-08-24 Olympus Imaging Corp Digital camera
JP2006279116A (en) * 2005-03-28 2006-10-12 Casio Comput Co Ltd Digital camera device
US7817915B2 (en) 2006-07-25 2010-10-19 Fujifilm Corporation Image taking system
US7848633B2 (en) 2006-07-25 2010-12-07 Fujfilm Corporation Image taking system
KR101299153B1 (en) * 2006-07-31 2013-08-22 삼성전자주식회사 Method of controlling digital photographing apparatus, and digital photographing apparatus adopting the method
JP2008219428A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Imaging apparatus
US7995106B2 (en) 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
JP2013225860A (en) * 2007-05-30 2013-10-31 Intellectual Ventures Second Llc Camera configurable for autonomous operation
KR101345304B1 (en) * 2007-06-26 2013-12-27 삼성전자주식회사 Apparatus and method for photographing image
JP2009117975A (en) * 2007-11-02 2009-05-28 Oki Electric Ind Co Ltd Image pickup apparatus and method
JP2009147574A (en) * 2007-12-13 2009-07-02 Casio Comput Co Ltd Imaging apparatus, and program thereof
CN102265601A (en) * 2008-12-24 2011-11-30 三洋电机株式会社 Image pickup apparatus and smiling face recording program
WO2010073615A1 (en) * 2008-12-24 2010-07-01 三洋電機株式会社 Image pickup apparatus and smiling face recording program
JP2010153954A (en) * 2008-12-24 2010-07-08 Sanyo Electric Co Ltd Image pickup apparatus and smiling face recording program
JP2010239447A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image capturing apparatus, image processing method, and program
JP2011030089A (en) * 2009-07-28 2011-02-10 Casio Computer Co Ltd Image processing apparatus and program
WO2011052492A1 (en) * 2009-11-02 2011-05-05 日本電気株式会社 Mobile communication apparatus
JPWO2011052492A1 (en) * 2009-11-02 2013-03-21 日本電気株式会社 Portable communication device
EP2498487A1 (en) * 2009-11-02 2012-09-12 Nec Corporation Mobile communication apparatus
EP2498487A4 (en) * 2009-11-02 2014-05-07 Nec Corp Mobile communication apparatus
JP5594485B2 (en) * 2009-11-02 2014-09-24 日本電気株式会社 Portable communication device
US20120224074A1 (en) * 2009-11-02 2012-09-06 Nec Corporation Mobile communication apparatus
US8941745B2 (en) 2009-11-02 2015-01-27 Lenovo Innovations Limited (Hong Kong) Mobile communication apparatus for controlling imaging based on facial recognition
JP2011211631A (en) * 2010-03-30 2011-10-20 Sony Corp Image processing device and method, and program
WO2011121917A1 (en) * 2010-03-30 2011-10-06 Sony Corporation Image processing apparatus, method, and computer program storage device
US9509903B2 (en) 2010-03-30 2016-11-29 Sony Corporation Image processing apparatus, method, and computer program storage device
US8964038B2 (en) 2010-03-30 2015-02-24 Sony Corporation Image processing apparatus, method, and computer program storage device
JP2013031127A (en) * 2011-07-29 2013-02-07 Car Mate Mfg Co Ltd Automatic imaging device
JP2013162233A (en) * 2012-02-02 2013-08-19 Olympus Imaging Corp Imaging apparatus and imaging method of the same
JP2013162240A (en) * 2012-02-02 2013-08-19 Car Mate Mfg Co Ltd Automatic photography device
JP2014186559A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Video image extraction device, video image extraction method and program
JP2015099969A (en) * 2013-11-18 2015-05-28 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program
CN109756696A (en) * 2019-01-18 2019-05-14 苏州科达科技股份有限公司 Logo addition and video conference image generation method, system, equipment and medium
CN109756696B (en) * 2019-01-18 2020-11-06 苏州科达科技股份有限公司 Station caption adding method, video conference image generating method, system, device and medium
WO2021171685A1 (en) * 2020-02-28 2021-09-02 富士フイルム株式会社 Control device for printer-equipped digital camera, method for operating control device for printer-equipped digital camera, and program for operating control device for printer-equipped digital camera
CN115053512A (en) * 2020-02-28 2022-09-13 富士胶片株式会社 Control device for digital camera with printer, method for operating control device for digital camera with printer, and program for operating control device for digital camera with printer

Also Published As

Publication number Publication date
JP4341936B2 (en) 2009-10-14

Similar Documents

Publication Publication Date Title
JP4341936B2 (en) Imaging method and imaging apparatus
JP4337825B2 (en) Imaging device
US8159561B2 (en) Digital camera with feature extraction device
JP4577275B2 (en) Imaging apparatus, image recording method, and program
JP2010226558A (en) Apparatus, method, and program for processing image
JP5293206B2 (en) Image search apparatus, image search method and program
CN106575027A (en) Image pickup device and tracking method for subject thereof
JP2008276214A (en) Digital camera
JP2006101186A (en) Camera
JP2000278584A (en) Image input device provided with image processing function and recording medium recording its image processing program
JP4552997B2 (en) Imaging apparatus and program
JP4952920B2 (en) Subject determination apparatus, subject determination method and program thereof
JPH11155118A (en) Electronic camera system
US20100188520A1 (en) Imaging device and storage medium storing program
JP5030022B2 (en) Imaging apparatus and program thereof
JP2009117975A (en) Image pickup apparatus and method
JP4577445B2 (en) Imaging apparatus, image recording method, and program
JP2014107750A (en) Photographing apparatus
JP2013183185A (en) Imaging apparatus, and imaging control method and program
JP5272773B2 (en) Image processing apparatus, image processing method, and program
JP4877186B2 (en) Image processing apparatus, image processing method, and program
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP2011097502A (en) Photographing control device, and photographing control method
JP2020115679A (en) Object detection device, detection control method, and program
JP2005223660A (en) Digital camera

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060130

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060523

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090706

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

EXPY Cancellation because of completion of term