JP2004304822A - Image processing system and its image processing method - Google Patents

Image processing system and its image processing method Download PDF

Info

Publication number
JP2004304822A
JP2004304822A JP2004130187A JP2004130187A JP2004304822A JP 2004304822 A JP2004304822 A JP 2004304822A JP 2004130187 A JP2004130187 A JP 2004130187A JP 2004130187 A JP2004130187 A JP 2004130187A JP 2004304822 A JP2004304822 A JP 2004304822A
Authority
JP
Japan
Prior art keywords
imaging
image
image data
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004130187A
Other languages
Japanese (ja)
Other versions
JP3903048B2 (en
Inventor
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004130187A priority Critical patent/JP3903048B2/en
Publication of JP2004304822A publication Critical patent/JP2004304822A/en
Application granted granted Critical
Publication of JP3903048B2 publication Critical patent/JP3903048B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system that can control a series of processings from the setting of image picking-up conditions to the generation of extracted images on a terminal processing side. <P>SOLUTION: In an image pickup system in which a camera 1 and a terminal device 21 are connected to each other through a data communication bus 24, the camera 1 picks up the image of the same object by controlling an image pickup parameter so as to photograph the object under a plurality of image pickup conditions in response to a command for setting an object extracting photographing mode when the terminal device 21 transmits the command to the camera 1. The terminal device 21 receives the plurality of image data photographed by means of the camera 1 and displays one image data of the received image data on a display device 26. Then the terminal device 21 designates an arbitrary point on the displayed image data and segments the image data of an objective area for extracting the object from the plurality of image data based on the plurality of image data and the designated point. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像パラメータを制御することにより得られる画像を処理する画像処理システム及び画像処理システムの画像処理方法に関する。   The present invention relates to an image processing system that processes an image obtained by controlling an imaging parameter and an image processing method of the image processing system.

従来、この種の画像処理システムの撮像部では、信号処理のディジタル化に伴い、映像情報の処理、加工の自由度の向上にしたがって内部での処理には、輝度レベル、色調の変換、ホワイトバランス処理、量子化サイズ変換などの比較的軽易な処理の他、エッジ抽出機能や色成分の逐次成長法を用いた画像抽出機能(非特許文献1)を有する処理などがある。   Conventionally, in the image pickup unit of this type of image processing system, with the digitization of signal processing, processing of video information and internal processing according to the improvement of the degree of freedom of processing include brightness level, color tone conversion, white balance. In addition to relatively simple processing such as processing and quantization size conversion, there are processing having an edge extraction function and an image extraction function using a sequential growth method of color components (Non-Patent Document 1).

また、背景画像との差分に基づいて画像抽出を行う手法において、背景画像の撮影時に平均輝度が適正となるように絞り制御部を設定し、背景画像と同じ設定値を用いて現画像を撮像してそれらの差分データに基づき物体画像の抽出を行うことが示されている(特許文献1)。
特開平6−253197号公報では テレビジョン学会技術報告、vol.18,pp.13−18,1994
In the method of extracting an image based on the difference from the background image, the aperture control unit is set so that the average luminance is appropriate when the background image is captured, and the current image is captured using the same setting values as the background image. It is disclosed that an object image is extracted based on these difference data (Patent Document 1).
In JP-A-6-253197, Technical Report of the Institute of Television Engineers of Japan, vol. 18, pp. 13-18, 1994

しかしながら、従来の画像処理システムでは撮像部の内部に被写体抽出時に撮像モードを外部から適正に制御するためのコマンド通信制御部、または撮像部内に被写体抽出用画像を撮像する際に必要な撮像パラメータの制御機能を有しないために画像抽出に最適な撮像条件を設定することができなかった。したがって、画像抽出の目的のために照明条件の変化、被写体運動の有無、撮像部自体の運動の有無など撮影状況に応じて撮像条件を最適に設定することができなかった。   However, in a conventional image processing system, a command communication control unit for appropriately controlling an imaging mode from the outside when a subject is extracted in the imaging unit, or an imaging parameter necessary for capturing an image for subject extraction in the imaging unit. The lack of a control function makes it impossible to set the optimal imaging conditions for image extraction. Therefore, for the purpose of image extraction, it has not been possible to optimally set the imaging conditions according to the imaging conditions, such as changes in lighting conditions, the presence or absence of subject movement, and the presence or absence of movement of the imaging unit itself.

また、カメラを遠隔地点から操作して特定の被写体を抽出する際、通信制御手段、通信方式および制御コマンドなどが確立していなかった。特に、指定された被写体に対して適切な画角設定、フォーカシング、照明条件(例えば、ストロボ発光の有無)などの最適撮像条件の設定を自動的または対話的に行うことができなかった。   Further, when a camera is operated from a remote location to extract a specific subject, communication control means, a communication method, a control command, and the like have not been established. In particular, it has not been possible to automatically or interactively set optimal imaging conditions such as setting of an angle of view, focusing, and lighting conditions (for example, whether or not to use a strobe) for a specified subject.

例えば、画角の最適設定は不要な背景領域を最大限排除し、画像抽出処理を効率的に行うためにも重要であるが、これを自動的または対話的に行うためのカメラと端末装置との間の通信制御および撮像制御方式が確立していないので、その機能を実現することができなかった。   For example, the optimal setting of the angle of view is important to eliminate unnecessary background areas as much as possible and to perform the image extraction process efficiently, but the camera and the terminal device for performing this automatically or interactively Since the communication control and the imaging control method between the two have not been established, the functions cannot be realized.

そこで、本発明は、撮像条件の設定から抽出画像の生成まで一連の処理を端末処理側で制御することができる画像処理システム及び画像処理システムの画像処理方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide an image processing system and an image processing method of the image processing system, in which a series of processes from setting of imaging conditions to generation of an extracted image can be controlled on the terminal processing side.

上記目的を達成するために、本発明の画像処理システムは、撮像装置と端末装置との間で通信媒体を介したデータ通信を行う画像処理システムであって、前記撮像装置は、被写体を撮像して画像データを得る撮像手段と、前記撮像手段の撮像パラメータを制御する撮像パラメータ制御手段と、を有し、前記端末装置は、前記撮像装置に対して被写体抽出のための撮像指令を送信する送信手段と、前記撮像指令の応答として前記撮像パラメータ手段が同一の被写体を複数の撮像条件で撮影するように前記撮像パラメータを制御して前記撮像手段により撮像された複数の画像データを受信する受信手段と、前記撮像装置から受信した複数の画像データのうち1つの画像データを表示する表示手段と、前記表示手段により表示された画像データ上の任意の点を指定する指定手段と、前記複数の画像データと前記指定された点に基づき、被写体抽出の対象領域を判別する領域判別処理手段と、前記領域判別処理手段により判別された対象領域の画像データを前記複数の画像データから切り出す切出手段と、を有することを特徴とする。   In order to achieve the above object, an image processing system of the present invention is an image processing system for performing data communication between an imaging device and a terminal device via a communication medium, wherein the imaging device captures an image of a subject. A terminal for transmitting an image capturing command for extracting a subject to the image capturing apparatus, comprising: an image capturing unit that obtains image data by using the image capturing unit; and an image capturing parameter control unit that controls an image capturing parameter of the image capturing unit. Receiving means for receiving the plurality of image data captured by the imaging means by controlling the imaging parameters so that the imaging parameter means captures the same subject under a plurality of imaging conditions in response to the imaging command Display means for displaying one image data of a plurality of image data received from the imaging device; and display means for displaying image data displayed by the display means. Designating means for designating a desired point; area discriminating processing means for discriminating a target area for subject extraction based on the plurality of image data and the designated point; and a target area determined by the area discriminating processing means. Cutting means for cutting out image data from the plurality of image data.

本発明の画像処理システムの画像処理方法は、撮像装置と端末装置との間で通信媒体を介したデータ通信を行う画像処理システムの画像処理方法であって、前記端末装置において、前記撮像装置に対して被写体抽出のための撮像指令を送信し、前記撮像装置において、前記撮像指令の応答として同一の被写体を複数の撮像条件で撮影するように撮像パラメータを制御して撮像手段に撮像させ、前記端末装置において、前記撮像手段により撮像された複数の画像データを受信し、前記撮像装置から受信した複数の画像データのうち1つの画像データを表示手段に表示し、前記表示手段により表示された画像データ上の任意の点を指定し、前記複数の画像データと前記指定された点に基づき、被写体抽出の対象領域を判別し、判別された対象領域の画像データを前記複数の画像データから切り出すことを特徴とする。   An image processing method for an image processing system according to the present invention is an image processing method for an image processing system that performs data communication between an imaging device and a terminal device via a communication medium. In response to the imaging command, the imaging device transmits an imaging command for subject extraction, and controls the imaging parameters so that the same subject is imaged under a plurality of imaging conditions in response to the imaging command, and causes the imaging unit to perform imaging. In the terminal device, receiving a plurality of image data captured by the imaging unit, displaying one image data of the plurality of image data received from the imaging device on a display unit, and displaying an image displayed by the display unit Specifying an arbitrary point on the data, determining a target area for subject extraction based on the plurality of image data and the specified point, and determining the determined target area Wherein the cut out image data from said plurality of image data.

本発明によれば、撮像条件の設定から抽出画像の生成まで一連の処理を端末処理側で制御することができる。   According to the present invention, a series of processes from setting of imaging conditions to generation of an extracted image can be controlled on the terminal processing side.

本発明の画像処理システム及び画像処理システムの画像処理方法の実施の形態について説明する。本実施の形態における画像処理システムは撮像システムに適用される。   An embodiment of an image processing system and an image processing method of the image processing system according to the present invention will be described. The image processing system according to the present embodiment is applied to an imaging system.

[第1の実施の形態]
第1の実施の形態における撮像システムは、ピント状態を制御して異なる撮像条件での画像から特定の被写体抽出処理を照明条件などによらず安定かつ高速に行うことに特徴を有する。特定の被写体抽出処理とは背景画像から被写体画像を切り出す処理であるが、この処理を画像の分類、認識、追跡などの処理に適用してもよい。
[First Embodiment]
The imaging system according to the first embodiment is characterized in that the focus state is controlled to perform a specific subject extraction process from images under different imaging conditions stably and at high speed regardless of lighting conditions and the like. The specific subject extraction process is a process of extracting a subject image from a background image, but this process may be applied to processes such as image classification, recognition, and tracking.

図1は第1の実施の形態における撮像システムの構成を示すブロック図である。撮像システムは、少なくとも1台以上のカメラ(撮像装置)1、複数の端末装置21、表示装置22およびプリンタ25がデータ通信バス24に接続された構成を有する。端末装置21には指示選択を行うマウス23や表示装置26が設けられている。マウス23の代わりにペン入力で指示選択を行ってもよい。また、データ通信バス24にはバスコントロールが含まれている。   FIG. 1 is a block diagram illustrating a configuration of an imaging system according to the first embodiment. The imaging system has a configuration in which at least one or more cameras (imaging devices) 1, a plurality of terminal devices 21, a display device 22, and a printer 25 are connected to a data communication bus 24. The terminal device 21 is provided with a mouse 23 and a display device 26 for selecting an instruction. The instruction may be selected by pen input instead of the mouse 23. The data communication bus 24 includes a bus control.

本撮像システムでは、端末装置21およびカメラ1がいずれも複数台接続されている場合、任意の端末装置21から任意のカメラ1における撮像モードの制御、およびカメラ内部での画像処理の制御を行うことが可能であり、いずれかの端末装置21がサーバとして機能する。   In the present imaging system, when a plurality of terminal devices 21 and cameras 1 are connected, control of an imaging mode of an arbitrary camera 1 from an arbitrary terminal device 21 and control of image processing inside the camera are performed. Is possible, and one of the terminal devices 21 functions as a server.

また、所定のモードで撮像されカメラ1から出力される画像データを端末装置21で処理して特定の被写体の切り出し処理を行うことも可能である。さらに、抽出された画像を任意の表示装置(表示装置22、表示装置26あるいは図示しないカメラ内部のファインダディスプレイ)に出力したり、プリンタ25に出力することも可能である。   In addition, it is also possible to process the image data captured in a predetermined mode and output from the camera 1 by the terminal device 21 to perform a cutout process of a specific subject. Further, it is also possible to output the extracted image to an arbitrary display device (the display device 22, the display device 26 or a finder display inside the camera not shown) or to the printer 25.

図2はカメラ1の内部構成を示すブロック図である。カメラ1は特定の被写体抽出用撮像モードで撮像された画像から特定の画像を抽出する抽出処理機構を有する。但し、画像の抽出に必要な処理はカメラ1で行わず、端末装置21で行うようにしてもよい。ここで、被写体抽出用撮像モードとは、撮像パラメータ(レンズ配置、シャッタ速度、絞り径など)を制御して複数の画像データをイメージセンサから画像記録部に出力するまでの撮像動作モードを指す。   FIG. 2 is a block diagram showing an internal configuration of the camera 1. The camera 1 has an extraction processing mechanism for extracting a specific image from an image captured in a specific subject extraction imaging mode. However, the processing necessary for extracting the image may not be performed by the camera 1 but may be performed by the terminal device 21. Here, the subject extraction imaging mode refers to an imaging operation mode until a plurality of image data is output from the image sensor to the image recording unit by controlling imaging parameters (lens arrangement, shutter speed, aperture diameter, and the like).

図2に示すカメラ1の内部において、2は結像光学系である。結像光学系2としては、焦点深度の浅いものが望ましい。3はレンズモータ駆動制御部であり、合焦レンズ駆動部(フォーカスモータ)、ズームレンズ駆動部、およびマウントされたレンズの種別などを読み出すレンズ情報読み出し(計測)部などから構成される。   In the camera 1 shown in FIG. 2, reference numeral 2 denotes an imaging optical system. It is desirable that the imaging optical system 2 has a small depth of focus. Reference numeral 3 denotes a lens motor drive control unit, which includes a focusing lens drive unit (focus motor), a zoom lens drive unit, a lens information readout (measurement) unit that reads the type of the mounted lens, and the like.

4はイメージセンサであり、典型的なCCDなどの固体撮像素子が用いられる。5は撮像パラメータ計測制御部であり、ズーム制御部51、合焦状態検出部52a、フォーカス制御部52b、シャッタ速度制御部53、絞り計測制御部54、画像信号特性パラメータ(ガンマ、ニー、ホワイトバランス補正、CCDなどの蓄積時間)の特徴量(例えばガンマについては補正係数など)検出部55などを含む。   Reference numeral 4 denotes an image sensor, which uses a typical solid-state imaging device such as a CCD. Reference numeral 5 denotes an imaging parameter measurement control unit, which includes a zoom control unit 51, a focus state detection unit 52a, a focus control unit 52b, a shutter speed control unit 53, an aperture measurement control unit 54, and image signal characteristic parameters (gamma, knee, white balance). A characteristic amount (for example, a correction coefficient for gamma) of a correction, an accumulation time of a CCD or the like, and a detection unit 55 are included.

シャッタ速度制御部53は図示しない機械的シャッタの制御を行うもので、電子シャッタを用いる場合、後述するセンサ駆動回路18で実質的なシャッタ速度(電荷蓄積時間)を制御する。合焦状態の検出は映像信号を用いた検出方式、赤外線を用いた測距方式のいずれでもよい。6は画像記録再生部であり、撮影時に記録媒体(テープ媒体、光(磁気)ディスクなどのディスク媒体、あるいはICメモリカードなどのICメモリ媒体など)に所定のフォーマットでディジタル記録を行う。尚、記録媒体または画像記録再生部6はカメラ本体と着脱可能に設けてもよい。また、記録媒体には被写体抽出モードでの撮像動作手順プログラムおよび必要データなどを書き込んでおき、その情報に基づいて撮像を行うように制御してもよい。   The shutter speed control unit 53 controls a mechanical shutter (not shown). When an electronic shutter is used, a substantial shutter speed (charge accumulation time) is controlled by a sensor drive circuit 18 described later. The in-focus state can be detected by any of a detection method using a video signal and a distance measurement method using infrared rays. Reference numeral 6 denotes an image recording / reproducing unit which performs digital recording in a predetermined format on a recording medium (a disk medium such as a tape medium, an optical (magnetic) disk, or an IC memory medium such as an IC memory card) at the time of photographing. Note that the recording medium or the image recording / reproducing unit 6 may be provided detachably from the camera body. In addition, an imaging operation procedure program in the subject extraction mode, necessary data, and the like may be written in the recording medium, and control may be performed such that imaging is performed based on the information.

画像の再生時、ビューファインダ(EVF)7または後述するデータ転送部12に画像データを出力する。8は撮像パラメータ記憶部であり、レンズモータ駆動部3からのレンズ情報、撮像パラメータ、画像信号特性パラメータおよびストロボ発光の有無、スキャニングなどの意図的なカメラ操作(運動)、手ぶれの有無などを含む撮像時の情報を記録する。これらの情報は外部制御、マニュアル操作、内蔵プログラムによる自律制御のいずれの場合にも記録され、後で同一撮像条件を再生するために用いられる。   At the time of image reproduction, the image data is output to a viewfinder (EVF) 7 or a data transfer unit 12 described later. Reference numeral 8 denotes an imaging parameter storage unit, which includes lens information from the lens motor driving unit 3, imaging parameters, image signal characteristic parameters, presence / absence of strobe light emission, intentional camera operation (movement) such as scanning, presence / absence of camera shake, and the like. Records information at the time of imaging. Such information is recorded in any of external control, manual operation, and autonomous control by a built-in program, and is used later to reproduce the same imaging conditions.

尚、カメラ操作(スキャン、パンなど)情報については映像信号処理により検出してもよいし、撮像装置に図示しない加速度センサ、あるいはジャイロなどを内蔵させ、その出力データから判定してもよい。   Note that camera operation (scanning, panning, etc.) information may be detected by video signal processing, or an imaging device may include an acceleration sensor (not shown) or a gyro, and may be determined from output data.

9は被写体抽出、追跡、識別などのための撮像モード設定スイッチであり、このスイッチが設定されると、スイッチの投入に続く図示しないシャッタボタンなどからの撮像開始動作信号により同撮像モードによる画像取り込みが行われる。尚、撮像開始用スイッチは撮像モード設定スイッチを兼ねるように構成してもよい。   Reference numeral 9 denotes an imaging mode setting switch for subject extraction, tracking, identification, and the like. When this switch is set, an image capturing operation in the same imaging mode is performed by an imaging start operation signal from a shutter button (not shown) subsequent to turning on the switch. Is performed. Note that the imaging start switch may be configured to also serve as an imaging mode setting switch.

10は外部からのコマンドデータ通信制御部である。11は出力画像生成部であり、出力先に応じてアナログ/ディジタル画像信号を生成する。例えば、TV受像機にはNTSC信号、またはPAL信号を生成する。さらに、出力機器に応じた濃淡の階調補正、誤差拡散処理、色成分補正処理が行われた画像信号をディスプレイ、プリンタなどに出力してもよい。このような信号の生成、加工の指示は、コマンドデータ通信制御部10を介して外部から行うか、または図示しないカメラの操作パネル上のスイッチなどを用いて行うことができる。   Reference numeral 10 denotes an external command data communication control unit. An output image generation unit 11 generates an analog / digital image signal according to an output destination. For example, an NTSC signal or a PAL signal is generated for a TV receiver. Further, an image signal that has been subjected to gradation correction of light and shade, error diffusion processing, and color component correction processing according to the output device may be output to a display, a printer, or the like. Such a signal generation and processing instruction can be performed externally via the command data communication control unit 10, or can be performed using a switch on an operation panel of a camera (not shown).

12はデータ転送部であり、図示しない通信インターフェース部、アダプター端子などを含み、外部の表示装置やコンピュータなどに画像データなどを出力する。13は被写体抽出用の領域判別処理部(切り出し画像処理部)であり、複数の撮像条件で得られる画像を後述する方法により背景領域と被写体領域との判別、画像の切り出し等を行う。   A data transfer unit 12 includes a communication interface unit, an adapter terminal, and the like (not shown), and outputs image data and the like to an external display device or computer. Reference numeral 13 denotes a subject extraction area discrimination processing unit (cutout image processing unit), which discriminates a background area and a subject area from an image obtained under a plurality of imaging conditions by a method described later, cuts out an image, and the like.

14は画像取り込み信号発生部であり、露光条件、撮像条件の制御状態のチェック、イメージセンサ(CCD)での電荷蓄積・転送時間、および画像記録再生部6での画像の書き込み制御信号のタイミングなどを自動的に考慮して、適切な撮像の取り込みを行う。   Reference numeral 14 denotes an image capture signal generation unit which checks the control state of exposure conditions and imaging conditions, charge accumulation / transfer time in an image sensor (CCD), and the timing of an image writing control signal in the image recording / reproducing unit 6. Is automatically taken into account and appropriate image capture is performed.

15は複数の撮像条件の設定部としてのシステム制御部であり、コマンドデータ通信制御部10、撮像モード設定スイッチ9からの信号、あるいは画像記録再生部6の記録媒体に書き込まれた制御プログラムの情報を読み込むことにより被写体抽出モードでの一連の撮像動作用制御信号を発生する。   Reference numeral 15 denotes a system control unit as a setting unit for a plurality of imaging conditions, which is a command data communication control unit 10, a signal from the imaging mode setting switch 9, or information of a control program written on a recording medium of the image recording / reproducing unit 6. Is read, a series of control signals for the imaging operation in the subject extraction mode are generated.

16は絞りである。17は映像信号処理部であり、前処理回路(サンプルアンドホールド回路、オートゲインコントロール回路、A/D変換回路など)17a、ガンマ補正処理回路17b、その他の映像信号処理回路(ホワイトバランス補正回路、手ぶれ補正回路等を含む)17cから構成される。尚、これらの回路構成は図2に概略的に示したものに限定されない。   Reference numeral 16 denotes an aperture. Reference numeral 17 denotes a video signal processing unit, which includes a preprocessing circuit (a sample and hold circuit, an auto gain control circuit, an A / D conversion circuit, etc.) 17a, a gamma correction processing circuit 17b, and other video signal processing circuits (white balance correction circuit, 17c (including a camera shake correction circuit). Note that these circuit configurations are not limited to those schematically shown in FIG.

18はイメージセンサ4を駆動するセンサ駆動回路であり、電荷蓄積時間、転送タイミングなどを制御する。また、同図において、本実施の形態に特に関係した制御信号の流れを太線の矢印で示している。   Reference numeral 18 denotes a sensor driving circuit that drives the image sensor 4, and controls a charge accumulation time, a transfer timing, and the like. Also, in the figure, the flow of control signals particularly related to the present embodiment is indicated by thick arrows.

本実施の形態では、被写体抽出用撮像モードでは、合焦状態検出部52aからの出力に基づき、合焦用レンズモータ(フォーカスモータ)を駆動し、最適合焦レベル、即ち被写体に最もピントの合った状態においてイメージセンサ4から高解像度画像の取り込みを行った後、続いて直前の合焦レンズモータの駆動方向と同一方向にピントずれが生じるように駆動し、適切な非合焦レベルでの低解像度の取り込みを連続的に行う。   In the present embodiment, in the subject extraction imaging mode, the focusing lens motor (focus motor) is driven based on the output from the focusing state detection unit 52a, and the optimal focusing level, that is, the focusing on the subject is achieved. After the high-resolution image is captured from the image sensor 4 in the state where the focus lens motor is driven, the focus lens motor is driven so that the focus shifts in the same direction as the driving direction of the immediately preceding focusing lens motor. Capture resolution continuously.

ここで、適切な非合焦レベルとは予め設定され、画像記録再生部6などの記憶部に記憶された値または外部の端末装置21などからコマンド信号により設定された値のことであり、例えば合焦レベルからの割合(合焦値の9割のような数値)に設定される。   Here, the appropriate out-of-focus level is a value that is set in advance and stored in a storage unit such as the image recording / reproducing unit 6 or a value set by a command signal from the external terminal device 21 or the like. It is set to a ratio from the focus level (a numerical value such as 90% of the focus value).

また、異なる非合焦レベルで撮像し、画像切り出しの初期データ抽出(粗く切り出された画像データ)のために用いてもよい。   Alternatively, an image may be taken at a different out-of-focus level and used for initial data extraction (roughly extracted image data) for image extraction.

上記連続撮像動作が終了すると、自動的に被写体抽出モードが解除されるか、あるいは撮像モード設定スイッチ9により標準モードへの復帰設定がなされる。尚、上述した撮像モードの設定および解除などの操作は端末装置21からのコマンド入力により行ってもよい。   When the continuous imaging operation is completed, the subject extraction mode is automatically canceled, or the return to the standard mode is set by the imaging mode setting switch 9. Note that operations such as setting and canceling of the above-described imaging mode may be performed by inputting a command from the terminal device 21.

図3はピント制御による複数の撮像条件での撮影を行う場合の焦点信号とフォーカスレンズの撮像位置との関係を模式的に示したグラフである。初期位置からフォーカスレンズを駆動し、一旦、合焦レベルを検知して撮影した後、所定量フォーカスレンズを駆動して許容範囲内でのピントずれ画像を取り込むことが示されている。   FIG. 3 is a graph schematically showing a relationship between a focus signal and an imaging position of a focus lens when performing imaging under a plurality of imaging conditions by focus control. It is shown that a focus lens is driven from an initial position, a focus level is once detected and an image is taken, and then the focus lens is driven by a predetermined amount to capture an out-of-focus image within an allowable range.

図4はカメラおよび端末装置が接続された基本の撮像システムにおいてそれぞれの機能を示す説明図である。図中、太線の枠で示される機能(ステップS51、S52、S54、S58、S60、S61)は端末装置21のものであり、破線で示される機能(ステップS57、S59、S62)はカメラまたは端末装置のいずれかのものである。その他はカメラ内の機能(ステップS53、S55、S56)である。これらの機能を順に以下に説明する。   FIG. 4 is an explanatory diagram showing respective functions in a basic imaging system to which a camera and a terminal device are connected. In the figure, functions indicated by thick frames (steps S51, S52, S54, S58, S60, S61) belong to the terminal device 21, and functions indicated by broken lines (steps S57, S59, S62) correspond to the camera or the terminal. Is one of the devices. Others are functions in the camera (steps S53, S55, S56). These functions will be described below in order.

まず、端末装置21はカメラ1との通信セッションを確立する(ステップS51)。カメラ1に対して被写体抽出用撮像モードの設定コマンドを送信する(ステップS52)。   First, the terminal device 21 establishes a communication session with the camera 1 (step S51). A command for setting the imaging mode for subject extraction is transmitted to the camera 1 (step S52).

この段階では、基本制御プログラムが作動する(ステップS53)か、または制御すべき撮像パラメータ、撮像条件の制御量、撮影枚数、およびカメラ内部での処理範囲(例えば、切り出し処理のための差分データ算出などの前処理まで、複数の撮像条件での撮影のみなどのように指定される)などを端末装置21から入力して設定する(ステップS54)かのいずれかを選択する。これは、端末装置21の表示装置26に表示されるメニューなどから選択すればよい。   At this stage, the basic control program is activated (step S53), or the imaging parameters to be controlled, the control amount of the imaging conditions, the number of shots, and the processing range inside the camera (for example, calculation of difference data for clipping processing) And the like are designated from the terminal device 21 and set (step S54). This may be selected from a menu or the like displayed on the display device 26 of the terminal device 21.

尚、基本制御プログラムには、これらの条件が予め標準的に設定されている。複数の撮像条件設定による撮像時(ステップS56)には、設定されたパラメータに基づく撮像条件の制御とその時の撮像パラメータ(レンズデータ、焦点距離、倍率、焦点信号、フォーカスレンズ配置、ガンマ制御値、絞り径、電荷蓄積時間など)の記録が行われる。   These conditions are standardly set in advance in the basic control program. At the time of imaging by setting a plurality of imaging conditions (step S56), control of imaging conditions based on the set parameters and imaging parameters (lens data, focal length, magnification, focus signal, focus lens arrangement, gamma control value, Recording of the aperture diameter, charge accumulation time, etc.) is performed.

その後はカメラ内部での処理範囲に応じて、3通りの制御処理手順がある。標準モードに自動復帰する(ステップS57)か、被写体抽出モードでの撮像動作終了後は切り出し条件入力を受ける(ステップS58)か、あるいは予め設定された標準条件で切り出し処理を行う(ステップS59)。   After that, there are three control processing procedures according to the processing range inside the camera. It automatically returns to the standard mode (step S57), receives a cutout condition after the end of the imaging operation in the subject extraction mode (step S58), or performs a cutout process under a preset standard condition (step S59).

処理終了後、切り出し画像をカメラ本体内の画像記録再生部6に記録するか、外部メモリまたは表示装置22に転送する(ステップS60)か、あるいはファインダディスプレイに表示してもよい(ステップS61)。尚、切り出し画像の出力形態は予め制御データ入力時または基本プログラムに指定されているものとする。上記処理の後、最終的には標準撮像モードへの自動または手動による復帰(ステップS62)が行われる。   After the processing is completed, the cut-out image may be recorded in the image recording / reproducing unit 6 in the camera body, transferred to an external memory or the display device 22 (step S60), or displayed on a finder display (step S61). It is assumed that the output form of the cut-out image is specified in advance when inputting the control data or in the basic program. After the above processing, finally, the automatic or manual return to the standard imaging mode is performed (step S62).

つぎに、イメージセンサ4から取り込まれた各画像の処理過程について詳述する。まず、合焦状態(ピント)を制御して得られる少なくとも2つのセンサからの映像信号に対してそれぞれ映像信号処理部17においてガンマ補正、ホワイトバランス補正などが行われる。   Next, a process of processing each image captured from the image sensor 4 will be described in detail. First, gamma correction, white balance correction, and the like are performed in the video signal processing unit 17 on video signals from at least two sensors obtained by controlling the in-focus state (focus).

撮像装置内部の領域判別処理部13では高解像画像(合焦画像)と低解像画像(非合焦画像)との差分または2つの異なる低解像度画像間の差分データを求め、これらに対して平滑化、2値化、細線化の処理を行う。   The area discrimination processing unit 13 inside the imaging apparatus calculates a difference between a high-resolution image (focused image) and a low-resolution image (unfocused image) or difference data between two different low-resolution images. To perform smoothing, binarization, and thinning processing.

尚、差分以外の処理については、端末装置21からコマンドデータ通信制御部10を介して適切な処理パラメータを入力して行ってもよい。   The processing other than the difference may be performed by inputting appropriate processing parameters from the terminal device 21 via the command data communication control unit 10.

非合焦度の異なる低解像度の複数画像を用いる場合、空間周波数の高い成分がカットされ、それらの差分データから特定対象の輪郭線を抽出する際、余分な孤立特徴点または孤立領域の影響を抑制することができる。従って、ノイズや背景部の高い空間周波数成分、あるいは照明条件に左右されずに精度の安定した初期データ(輪郭線)を得ることができる。尚、差分によって負となる画素の出力値は値0に設定するか、あるいは各画素での差分の絶対値を出力してもよい。   When using low-resolution multiple images with different degrees of out-of-focus, components with high spatial frequencies are cut, and when extracting a contour line of a specific target from their difference data, the effects of extra isolated feature points or isolated regions may be reduced. Can be suppressed. Therefore, stable initial data (contour lines) can be obtained without being influenced by noise, high spatial frequency components in the background portion, or lighting conditions. The output value of a pixel that becomes negative due to the difference may be set to the value 0, or the absolute value of the difference at each pixel may be output.

つぎに、後続する初期データ(輪郭線)抽出処理について説明する。この処理はカメラ1に接続された端末装置21においても行うことができるが、カメラ内部での演算処理については標準処理モードとして登録しておくか、コマンドデータ通信制御部10を介して端末装置21などから指定することもできる。典型的にはカメラ内部での標準処理として複数の撮像条件の画像間の差分算出および2値化処理または差分算出および平滑化処理などのように基本制御プログラムに設定される。   Next, the subsequent initial data (contour line) extraction processing will be described. This processing can also be performed in the terminal device 21 connected to the camera 1. However, calculation processing inside the camera is registered as a standard processing mode, or the terminal device 21 is controlled via the command data communication control unit 10. It can also be specified from such as. Typically, it is set in a basic control program as a standard process inside the camera, such as a difference calculation between images under a plurality of imaging conditions and a binarization process or a difference calculation and a smoothing process.

撮像条件の制御により得られる画像間の比較(差分)データ算出後の平滑化処理は、孤立特徴(不定形の同一輝度または色を有する局所領域、ラインセグメントなど)の除去およびガウシアンフィルタ等との畳み込み演算、あるいは一般的なローパスフィルタ処理などによって行われる。その後の2値化処理の閾値の設定には、大津の方法(電子情報通信学会論文誌、vol.J63,pp. 349−356,1980)、あるいは画像を適切なサイズのブロックに分割した後、局所的な画像データ(輝度、色など)の統計処理(平均、分散値、ヒストグラムからの仮説検定など)に基づいて設定する方法などを用いればよい。   The smoothing process after calculating comparison (difference) data between images obtained by controlling the imaging conditions includes removing isolated features (local regions having irregular shapes or colors having the same brightness or color, line segments, and the like), and performing processing with a Gaussian filter or the like. This is performed by a convolution operation or general low-pass filter processing. After that, the threshold value of the binarization process is set by the method of Otsu (Transactions of the Institute of Electronics, Information and Communication Engineers, vol. J63, pp. 349-356, 1980), or after dividing an image into blocks of an appropriate size, A method of setting based on statistical processing (average, variance, hypothesis test from histogram, etc.) of local image data (luminance, color, etc.) may be used.

また、本実施の形態では、領域判別処理部13において合焦状態を連続的に制御して得られる3つ以上の複数画像間の差分データ(複数ある)の平均化処理を行い、その結果に対して切り出すべき画像の初期輪郭線抽出処理(平滑化、2値化、細線化処理など)を行ってもよい。   Further, in the present embodiment, the region discrimination processing unit 13 performs averaging processing of difference data (a plurality of data) between three or more images obtained by continuously controlling the in-focus state. On the other hand, initial contour extraction processing (smoothing, binarization, thinning processing, etc.) of the image to be cut out may be performed.

このためには合焦状態検出部52aからの出力に基づき、レンズモータを高速駆動して最適合焦値を含む前半(前ピン)または後半(後ピン)、あるいは前ピン、後ピン両方を含む静止画像を少なくとも3枚、所定の時間間隔で連続撮像し、画像記録再生部6に保持する。典型的には合焦検出による画像取り込み後、複数の非合焦画像を所定枚数だけ連続撮影する。   For this purpose, the lens motor is driven at a high speed based on the output from the focus state detection unit 52a to include the first half (front focus) or the second half (back focus) including the optimum focus value, or includes both the front focus and the rear focus. At least three still images are continuously captured at predetermined time intervals, and are stored in the image recording / reproducing unit 6. Typically, after capturing an image by focusing detection, a predetermined number of unfocused images are continuously photographed.

この場合、イメージセンサ4からの信号は映像信号処理部17を介さずに直接、キャッシュメモリなどの一時記憶部(図示せず)に高速切替転送部(図示せず)などにより転送記録される。複数撮像条件による撮像、即ち一時記憶部への画像書き込みの終了後は順次転送して映像信号処理と画像切り出しに必要な前処理などを行う。   In this case, a signal from the image sensor 4 is directly transferred and recorded in a temporary storage unit (not shown) such as a cache memory without passing through the video signal processing unit 17 by a high-speed switching transfer unit (not shown). After completion of image capturing under a plurality of image capturing conditions, that is, image writing to the temporary storage unit, the image data is sequentially transferred to perform video signal processing and preprocessing necessary for image clipping.

尚、高速切替転送部はこのとき、領域判別処理部13に直接転送してもよい。このようにイメージセンサからの映像信号に対して通常行われる非線形処理を施さないことにより撮像時の照明条件の変化、被写体の運動などの影響を抑止して処理精度の安定化をもたらすことができる。   At this time, the high-speed switching transfer unit may directly transfer the data to the area determination processing unit 13. As described above, by not performing the non-linear processing that is normally performed on the video signal from the image sensor, it is possible to suppress the influence of a change in the lighting condition at the time of imaging, the movement of the subject, and the like, thereby stabilizing the processing accuracy. .

また、映像信号処理を一連の画像取り込み後に行うことにより、撮像動作の高速化と切り出し処理の安定化、柔軟性の向上をもたらすことができる。尚、時系列的に撮像する際、直前の画像データと平均化処理により更新された差分データのみを一時的に保持してもよい。また、初期輪郭線抽出処理に使う画像の枚数を予めNと指定すると、合焦過程においてN以上の画像取り込みがなされる場合、最新のN枚画像を保持し(古い順に消去)、しかる後、差分データの算出と平均化処理を行ってもよい。本実施の形態のように複数の合焦状態の僅かに異なる画像間の差分データを平均化することによりノイズの影響を抑制し、精度、分解能の高い画像抽出を実現できる。   Further, by performing the video signal processing after a series of image capturing, it is possible to increase the speed of the imaging operation, stabilize the clipping process, and improve flexibility. When capturing images in time series, only the immediately preceding image data and the difference data updated by the averaging process may be temporarily stored. Also, if the number of images used for the initial contour line extraction processing is designated in advance as N, if more than N images are taken in the focusing process, the latest N images are held (deleted in the oldest order). The calculation and the averaging process of the difference data may be performed. By averaging the difference data between a plurality of slightly different images in the in-focus state as in the present embodiment, it is possible to suppress the influence of noise and realize an image extraction with high accuracy and high resolution.

図5は画像データの処理過程を示す説明図である。同図(a)はピントの合った画像、同図(b)はピントずれを起こした場合の画像を模式的に強調した図、同図(c)はユーザが同図(a)の画像を表示装置26上で確認しながら抽出被写体内の一点を指示した場合に設定された局所領域を示す。   FIG. 5 is an explanatory diagram showing a process of processing image data. FIG. 2A is a focused image, FIG. 2B is a diagram schematically highlighting an image in a case where the image is out of focus, and FIG. 2C is a diagram in which the user views the image shown in FIG. This shows a local region set when one point in the extracted subject is designated while checking on the display device 26.

同図(d)は同図(a)、(b)の差分画像データから局所領域内において平滑化、2値化、細線化を行い、さらに輪郭線追跡処理を行った結果得られる初期輪郭線内の画像を示す。尚、図示しないが、差分画像データを求める際、上述のように合焦度が異なり、かついずれもピントずれのある画像2枚を用いてもよい。また、平滑化、2値化を行わずに輪郭線追跡処理のみを行ってもよい。   FIG. 3D shows an initial contour obtained as a result of performing smoothing, binarization, and thinning in the local region from the difference image data of FIGS. The image inside is shown. Although not shown, when obtaining the difference image data, two images having different degrees of focus as described above and both of which are out of focus may be used. Further, only the contour line tracking processing may be performed without performing the smoothing and binarization.

図6および図7は画像抽出処理手順を示すフローチャートである。まず、撮像システムを初期化し(ステップS1)、ネットワーク上に接続された機器を待機状態にする。この初期化は通常、端末装置21側で行う。   6 and 7 are flowcharts showing the procedure of the image extraction processing. First, the imaging system is initialized (step S1), and the devices connected to the network are set in a standby state. This initialization is usually performed on the terminal device 21 side.

つぎに、撮像動作から出力動作までの制御を行う機器を選択する(ステップS2)。制御機器が端末装置21であるか否かを判別し(ステップS3)、制御機器が端末装置21である場合、始めに待機状態で受信データまたはコマンドの有無チェックを行い(ステップS4)、受信データが無い場合、動作を行う撮像装置1を指定する(ステップS5)。   Next, a device that performs control from the imaging operation to the output operation is selected (step S2). It is determined whether or not the control device is the terminal device 21 (step S3). If the control device is the terminal device 21, the presence or absence of received data or a command is first checked in a standby state (step S4). If there is no, the imaging device 1 to be operated is specified (step S5).

ユーザが表示装置22上に表示された初期メニューパネルから被写体抽出モード設定を選択すると、撮像装置1に対して被写体抽出用撮像モード設定コマンドが送信される(ステップS6)。撮像装置1ではこのコマンドを受信すると、被写体抽出のための標準データセットを備えた基本制御プログラムをシステム制御部15に内蔵するメモリ(ROMなど)から読み出す。   When the user selects a subject extraction mode setting from the initial menu panel displayed on the display device 22, a subject extraction imaging mode setting command is transmitted to the imaging device 1 (step S6). Upon receiving this command, the imaging device 1 reads a basic control program including a standard data set for extracting a subject from a memory (such as a ROM) built in the system control unit 15.

本実施の形態では、標準データセットとは、制御用撮像パラメータ(ピント)、撮像枚数、制御される撮像パラメータの許容範囲(本実施の形態では合焦レベルに対する比などで与える)、画像データ出力先(端末装置またはカメラ本体のメモリなどで与える)等の項目からなる。尚、この基本プログラムは画像記録再生部6内の記録媒体から読み出してもよい。   In the present embodiment, the standard data set includes a control imaging parameter (focus), the number of images to be captured, an allowable range of the imaging parameter to be controlled (in the present embodiment, a ratio to a focus level, etc.), and image data output. (E.g., provided by the terminal device or the memory of the camera body). This basic program may be read from a recording medium in the image recording / reproducing unit 6.

このとき、標準データの内容を示してユーザに対して標準データの変更有無を促すメッセージを表示し、それらの変更を必要ならばここで行う。そして、前述した方法で複数の撮像条件の設定制御と切り出しのための前処理(複数画像間の比較データなど)を行う(ステップS7)。   At this time, a message indicating the contents of the standard data and prompting the user to change the standard data is displayed, and these changes are performed here if necessary. Then, preprocessing (such as comparison data between a plurality of images) for setting control of a plurality of imaging conditions and cutting out is performed by the method described above (step S7).

つぎに、撮像装置1からの画像を表示装置26の画面上に表示し、抽出すべき被写体をユーザに選択させる(ステップS8)。即ち、マウスなどのポインティングデバイス23で、例えば被写体内部と背景との境界付近の点を指示する(クリックする)。この場合、撮像時の画角露光条件を適切に設定することが望ましい。そこで、この段階での撮像条件の適正判断(例えば、被写体が適切な露光条件で撮像されること、抽出すべき領域の全体が存在すること、サイズが十分に大きいことなど)を行い(ステップS9)、問題なければ領域判別と切り出し処理に入る(ステップS11)。   Next, an image from the imaging device 1 is displayed on the screen of the display device 26, and the user selects a subject to be extracted (step S8). That is, a point near the boundary between the inside of the subject and the background is indicated (clicked) by the pointing device 23 such as a mouse. In this case, it is desirable to appropriately set the angle of view exposure condition at the time of imaging. Therefore, appropriate determination of the imaging conditions at this stage (for example, that the subject is imaged under appropriate exposure conditions, that the entire area to be extracted exists, that the size is sufficiently large, etc.) is performed (step S9). If there is no problem, the process proceeds to area determination and cutout processing (step S11).

適切でない場合、ズーミング、撮像装置1の姿勢変更、その他の撮像パラメータの変更を画像データに基づいて自動的に行う(ステップS10)。例えば、指示された点を中心とする所定領域での測光と露光条件設定、類似する画像属性を有する領域面積の算出とその画面内に占める割合が一定値以上となるようなズーミング制御を行ってもよい。   If it is not appropriate, the zooming, the change of the attitude of the imaging device 1, and the change of other imaging parameters are automatically performed based on the image data (step S10). For example, by performing photometry and exposure condition setting in a predetermined area centered on the designated point, calculating an area area having a similar image attribute, and performing zooming control such that the ratio of the area in the screen becomes a certain value or more. Is also good.

対話的な指定方法としては、複数の点を指示して被写体の概略の領域を指示するか、あるいは被写体を囲む領域の形状、サイズを指定し、例えば矩形または楕円状領域をユーザが被写体画像上でマウスでその位置のポイント指示を行うか、または一方向にスキャンニングすることによりその長さに応じたサイズの所定形状領域を半自動設定してもよい。   As an interactive designation method, the user designates a plurality of points to designate a rough region of the subject, or designates the shape and size of a region surrounding the subject, and for example, designates a rectangular or elliptical region on the subject image by the user. The mouse may be used to designate a point at that position, or may be scanned in one direction to semi-automatically set a predetermined shape area having a size corresponding to the length.

しかる後、その領域を中心としたズーミングおよびフォーカシング動作を行い、合焦レベルを判定してから非合焦レベルでの前述したような撮像と差分データの算出、および被写体領域の抽出のための前述した境界上の輪郭線追跡処理までを行う。   Thereafter, zooming and focusing operations are performed centering on the region, the focus level is determined, and the above-described imaging at the out-of-focus level and calculation of difference data, and the above-described process for extracting a subject region are performed. Up to the contour tracing process on the determined boundary.

切り出し処理終了後は抽出データを記録するか否かを選択し(ステップS12)、記録する場合、場所を指定し、データを書き込む(撮像装置1の内部の記憶部、端末装置内部の記憶部、ステップS13)。また、この段階で画像記録しない場合も含め、つぎに抽出画像の編集(他の画像との合成など)を端末装置1のマウス23を用いて行う(ステップS14)。さらに、出力機器(プリンタ、ディスプレイなど)の特性に応じて人間の視覚特性に合わせた画像データの変換処理(ステップS15)を行ってから表示してもよい(ステップS16)。   After the cut-out processing, it is selected whether or not to record the extracted data (step S12), and when recording, specify the location and write the data (the storage unit inside the imaging device 1, the storage unit inside the terminal device, Step S13). At this stage, the editing of the extracted image (such as synthesis with another image) is performed using the mouse 23 of the terminal device 1 including the case where no image is recorded (step S14). Further, the image data may be converted (Step S15) according to the characteristics of the output device (such as a printer or a display) and then displayed (Step S16).

受信データの有無チェック(ステップS4)の際、撮像装置1からデータ送信があった場合、あるいは被写体抽出モードの撮像制御プログラムなどを内蔵した記録媒体が端末装置1に装填された場合について説明する。   A description will be given of a case where data is transmitted from the imaging device 1 at the time of the presence / absence check of received data (step S4), or a case where a recording medium having a built-in imaging control program in the subject extraction mode is loaded in the terminal device 1.

送信機器を判別し(ステップS17)、画像データと共に撮像モードの読み出し(標準、被写体抽出モードなど)を行う(ステップS18)。ここで、撮像モードを同一条件として被写体抽出での撮像と切り出し処理を行うか否かを判別し(ステップS19)、撮像モードを同一条件として被写体抽出での撮像と切り出し処理を行う場合、撮像装置1を指定してステップ7以降の処理を実行する。   The transmission device is determined (step S17), and the imaging mode is read out together with the image data (standard, subject extraction mode, etc.) (step S18). Here, it is determined whether or not to perform imaging and clipping processing in subject extraction under the same imaging mode condition (step S19). 1 is specified, and the processing after step 7 is executed.

そうでない場合、切り出し処理を端末装置1で行うか否かをユーザに選択させ(ステップS20)、それぞれに応じてステップS11またはステップS12以降を実行する。また、ステップS4で他の端末装置からのコマンドデータを受信した場合、それぞれの要求に応じた処理(ステップS21)を行うことはいうまでもない。   If not, the user is made to select whether or not to perform the cutout processing in the terminal device 1 (step S20), and step S11 or step S12 and subsequent steps are executed accordingly. Further, when command data is received from another terminal device in step S4, it goes without saying that processing corresponding to each request (step S21) is performed.

一方、制御機器の選択(ステップS2)の際、撮像装置1が選択された場合、撮像装置1上での操作が第1優先として実行される。外部からの制御コマンドを受けず、基本的にカメラ上のスイッチ操作などで行う場合、ピント状態の異なる複数画像を撮像して画像切り出しの前処理を行うまでの基本処理(ステップS22)の処理手順は以下の通りである。   On the other hand, when the imaging device 1 is selected at the time of selecting the control device (step S2), the operation on the imaging device 1 is executed with the first priority. Basically (step S22) of a basic process (step S22) from capturing a plurality of images having different focus states and performing pre-processing of image clipping when basically performing a switch operation on the camera without receiving a control command from the outside. Is as follows.

まず、電源投入後、被写体抽出モードに設定されると、複数の撮像条件設定部において内蔵する撮像条件制御のための標準パラメータ値(例えば、非合焦レベルの範囲、切り出し処理を行うため撮像枚数など)、あるいは基本制御プログラムなどを読み出す。   First, after the power is turned on, when the subject extraction mode is set, the standard parameter values (for example, the range of the out-of-focus level, the number ) Or a basic control program.

レンズ情報などマウントされた結像光学系のスペック、種別をレンズモータ駆動部3により検出する。この情報は、ピント制御時にフォーカスモータの駆動量を適切に制御するか、あるいは以前に用いられた撮像条件と同一に設定する際に光学系の種別に応じた設定の高速化を可能とする目的で用いられる。   The specifications and type of the mounted imaging optical system such as lens information are detected by the lens motor drive unit 3. This information is used to properly control the drive amount of the focus motor during focus control, or to speed up the setting according to the type of optical system when setting the same as the previously used imaging condition. Used in

その後、通常の撮像モードと同様に倍率設定、測光と(自動)露出条件の設定を行い、つぎに被写体に対して最適合焦レベルになるまでフォーカスモータを駆動し、山登り法などに基づいて合焦判断し、被写体にピントの合った画像を撮像する。   After that, the magnification setting, photometry and (automatic) exposure conditions are set in the same manner as in the normal imaging mode. Then, the focus motor is driven until the optimum focusing level is reached for the subject, and the focusing is performed based on the hill-climbing method or the like. A focus is determined, and an image in which the subject is in focus is captured.

フォーカスモータを同一方向に所定幅駆動して、焦点信号レベルを評価し、予め設定した許容範囲内の非合焦レベルであれば、撮像を行う。このとき、撮像枚数をチェックし、予め設定された最大枚数になるまでピント制御と撮像動作を繰り返す。以下、焦点信号レベルの差が小さい複数画像間で差分画像データの抽出を行い、画像切り出し処理を行う。   The focus motor is driven in the same direction by a predetermined width to evaluate the focus signal level, and if the level is out of focus within a preset allowable range, imaging is performed. At this time, the number of captured images is checked, and focus control and the imaging operation are repeated until the number reaches the preset maximum number. Hereinafter, difference image data is extracted between a plurality of images having a small difference in focus signal level, and an image clipping process is performed.

画像切り出し処理(輪郭線抽出処理)について説明する。ここまではマウスなどで設定した指定点を中心とする一定サイズの局所領域(またはマウスなどで任意の形状に設定した領域)に対しての統計処理に基づいて2値化閾値を設定し、2値化および細線化、輪郭追跡処理をその領域内で行ってもよい。   The image cutout processing (contour line extraction processing) will be described. Up to this point, a binarization threshold has been set based on statistical processing of a local area of a fixed size centered on a specified point set with a mouse or the like (or an area set in an arbitrary shape with a mouse or the like). The binarization, thinning, and contour tracking processing may be performed within the area.

処理終了後、その端点を中心とする局所領域を自動設定し、同様の処理を繰り返す。この中で細線化は太い処理輪郭線中の代表点を得るための処理であり、従来の画像処理で行われる方式に限定されるものではない。例えば、粗い初期輪郭中の任意の一点から左右上下いずれかの方向に端点を探索し、つぎにその点に隣接する端点を探索して代表点としてもよい。   After the processing is completed, a local region centered on the end point is automatically set, and the same processing is repeated. Of these, thinning is a process for obtaining a representative point in a thick processing contour line, and is not limited to a method performed by conventional image processing. For example, an end point may be searched from any one point in the coarse initial contour in any of the left, right, up, and down directions, and then an end point adjacent to the point may be searched for as a representative point.

尚、細線化により近傍領域内で複数のエッジまたは輪郭線が存在する場合、それらをディスプレイに入力画像と重ね合わせて表示し、いずれのエッジをとるかをマウスなどの手段を用いて選択指示することを可能としてもよい。   If there are a plurality of edges or outlines in the vicinity area due to thinning, these are superimposed on the input image and displayed on the display, and the edge to be taken is selected and selected using a mouse or the like. It may be possible to do that.

近傍領域内に単一のエッジのみ存在するか、あるいはユーザによりエッジが選択されると予め設定された方向に輪郭線追跡処理が行われ、そのエッジに連結する細線化像の各点を初期輪郭線のサンプリング点としてそれぞれの位置を逐次記録する。   If only a single edge exists in the neighboring area, or if an edge is selected by the user, a contour tracing process is performed in a preset direction, and each point of the thinned image connected to the edge is defined as an initial contour. Each position is sequentially recorded as a line sampling point.

また、細線化像が分岐構造を有する場合、分岐方向の選択としては分岐前の点の追跡方向と直交方向の輪郭線の画像データ属性(色、輝度、またはそれらの分散など)が連続する分岐方向、分岐前後の方向変化が少ない方向を優先して選択する。この場合、分岐後の各点を中心とする微小領域の画像属性を検出して行う。   When the thinned image has a branching structure, the branching direction may be selected such that the image data attributes (color, luminance, or their variance, etc.) of the contour in the direction orthogonal to the tracking direction of the point before the branching are continuous. The direction in which the direction and the direction change before and after branching are small is preferentially selected. In this case, the detection is performed by detecting the image attribute of the minute area centered on each point after the branch.

他の方法としては、輪郭追跡を中断し、分岐点を中心とする領域を点滅表示するなどして、いずれの分岐をとるかをユーザに選択させてもよい。但し、焦点深度の浅い結像光学系を用いた場合、抽出対象と背景との距離が被写体距離に比べて十分大きい場合、差分画像データに背景と被写体との境界部に分岐構造が出現することを抑制することができることはいうまでもない。   As another method, the user may select which branch to take, for example, by suspending contour tracing and blinking an area around the branch point. However, when an imaging optical system having a shallow depth of focus is used, when the distance between the extraction target and the background is sufficiently larger than the subject distance, a branch structure may appear at the boundary between the background and the subject in the differential image data. Needless to say, this can be suppressed.

また、2値化、細線化処理により輪郭線が途中で分断された場合、エッジの接続処理を行う。この場合、所定のアルゴリズム(第23回画像工学コンファレンス論文集、pp.67−70,1992など参照)により接続を自動的に行うか、あるいは輪郭追跡の結果として残存する端点に対して表示装置上で点滅表示するか、または他の輪郭線と異なる色表示を行うなど端点であることを明示するように表示を行い、ユーザがそれを確認して接続すべき端点を指示選択部を用いて指示することにより接続してもよい。接続点同士を結ぶ輪郭線としては、直線または輪郭線上の代表点を用いてスプライン補間曲線などを生成してもよい。特に、輪郭追跡後の端点が画像フレーム上にある場合、他のフレーム上の端点と結んでもよい。   When the outline is cut off in the middle by the binarization and thinning processing, an edge connection processing is performed. In this case, connection is automatically performed by a predetermined algorithm (see the 23rd Collection of Image Engineering Conference Papers, pp. 67-70, 1992, etc.), or an end point remaining as a result of contour tracking is displayed on a display device. Flashing or displaying a different color from the other outlines to indicate that it is an end point, and the user confirms it and specifies the end point to be connected using the instruction selection unit. The connection may be made by doing so. As a contour line connecting the connection points, a spline interpolation curve or the like may be generated using a straight line or a representative point on the contour line. In particular, when the end point after the contour tracking is on the image frame, it may be connected to the end point on another frame.

上述のように、閉じた輪郭線とその内側の画像データを抽出した後、統計的処理などによる背景領域の除去処理、領域成長法、あるいは動的輪郭処理法などを適用してさらに精緻な画像抽出を行ってもよい。   As described above, after extracting the closed contour and the image data inside the closed contour, the background area is removed by statistical processing, the area growing method, or the dynamic contour processing method is applied to further refine the image. An extraction may be performed.

尚、本実施の形態では、フォーカスレンズ制御によりピント状態の異なる複数画像を処理したが、他の撮像パラメータ(絞り、シャッタ速度など)、撮像条件(露光条件、センサ信号特性など)、あるいはそれらの組み合わせの異なる複数画像を処理して特定被写体の抽出または識別、追跡などを行ってもよい。   In the present embodiment, a plurality of images having different focus states are processed by the focus lens control. However, other imaging parameters (aperture, shutter speed, etc.), imaging conditions (exposure conditions, sensor signal characteristics, etc.), or those A plurality of images having different combinations may be processed to extract or identify or track a specific subject.

[第2の実施の形態]
第2の実施の形態では、前記第1の実施の形態に示した撮像方式と特定被写体画像の抽出原理をコンピュータ端末などに接続されたディジタル複写機に適用した場合を示す。
[Second embodiment]
In the second embodiment, a case will be described in which the imaging method and the principle of extracting a specific subject image shown in the first embodiment are applied to a digital copying machine connected to a computer terminal or the like.

図8は第2の実施の形態における撮像システムの構成を示すブロック図である。撮像システムでは、通信ネットワークに画像入力部としての複写機27が接続された場合を示す。   FIG. 8 is a block diagram illustrating a configuration of an imaging system according to the second embodiment. In the imaging system, a case is shown in which a copying machine 27 as an image input unit is connected to a communication network.

図9はディジタル複写機の概略的構成を示す説明図である。画像入力部200は、ズーム、ピント調整機能を有する光学系201、イメージセンサ202、ハロゲンランプなどの照明手段203、フォーカスズームレンズモータ204、可視光分光フィルタ205、制御部206および赤外カット/分光補正フィルタ(図示せず)などから構成される。   FIG. 9 is an explanatory diagram showing a schematic configuration of a digital copying machine. The image input unit 200 includes an optical system 201 having zoom and focus adjustment functions, an image sensor 202, an illumination unit 203 such as a halogen lamp, a focus zoom lens motor 204, a visible light spectral filter 205, a control unit 206, and an infrared cut / spectrum. It is composed of a correction filter (not shown) and the like.

プリンタ部220は、画像処理プロセッサ210、半導体レーザ221、感光ドラム222、転写ドラム223、回転現像機224などから構成される。定着機230、給紙部240、トナー供給部(図示せず)、制御プロセッサ250、原稿台260、指示選択部270、データ通信制御部280、操作パネルなどを有する。   The printer unit 220 includes an image processor 210, a semiconductor laser 221, a photosensitive drum 222, a transfer drum 223, a rotary developing machine 224, and the like. The image forming apparatus includes a fixing device 230, a paper supply unit 240, a toner supply unit (not shown), a control processor 250, a document table 260, an instruction selection unit 270, a data communication control unit 280, and an operation panel.

また、プリンタ部220の図示しない光学系は、典型的に感光ドラムに近い順に反射ミラー、トーリックレンズ(f−θレンズ)、球面レンズ、ポリゴンミラー、シリンドリカルレンズなどから構成される。   Further, an optical system (not shown) of the printer unit 220 typically includes a reflecting mirror, a toric lens (f-θ lens), a spherical lens, a polygon mirror, a cylindrical lens, and the like in the order close to the photosensitive drum.

操作パネル290は複写機を被写体抽出複写モード設定用スイッチ291を有する。尚、同モードの設定は、端末装置21のキーボードあるいはペンまたはマウスなどの指示選択部などから行うこともできる。本実施の形態では、同モード設定後、複写すべき領域マスクデータ作成のための画像取り込みを、一旦、行った後、マスク領域のみに対して半導体レーザ221から予め読み取られた画像データの濃淡に応じた出力の光が射出し、感光ドラム222に潜像が形成される。   The operation panel 290 has a switch 291 for setting a copy mode of the copying machine. The setting of the same mode can also be performed from the keyboard of the terminal device 21 or an instruction selecting unit such as a pen or a mouse. In the present embodiment, after the same mode is set, once image capturing for creating area mask data to be copied is performed, then only the mask area is shaded with image data previously read from the semiconductor laser 221. Light of the corresponding output is emitted, and a latent image is formed on the photosensitive drum 222.

端末装置21の表示部に通常の複写モードで撮像して得られる画像を表示し、ユーザはそれを確認し、抽出したい被写体の背景との輪郭線上の点またはその近傍を指示する。   An image obtained by imaging in the normal copy mode is displayed on the display unit of the terminal device 21, and the user confirms the image and designates a point on the contour line with the background of the subject to be extracted or its vicinity.

つぎに、制御プロセッサ250が撮像パラメータを制御し、異なる撮像条件(例えば、ピント)で画像を取り込み、画像処理プロセッサ210でそれら画像間の差分データを算出する。以下、前記第1の実施の形態と同様の抽出領域の切り出し処理(マスクデータ作成処理)を行うことにより、抽出すべき画像のみが複写される。また、抽出画像をネットワーク上の他の端末装置21あるいは表示装置22に転送して出力してもよい。   Next, the control processor 250 controls the imaging parameters, captures images under different imaging conditions (for example, focus), and calculates difference data between the images by the image processor 210. Thereafter, by performing the same extraction region cutout processing (mask data generation processing) as in the first embodiment, only the image to be extracted is copied. Further, the extracted image may be transferred to another terminal device 21 or the display device 22 on the network and output.

また、本発明は上述の構成の一部を結像光学系を有する電子写真方式のファクシミリ装置に適用することもできる。このファクシミリ装置の読み取り部は、照明部、ミラースキャン機構、前記第1の実施の形態と同様に撮像パラメータの制御可能な光学系、およびイメージセンサを有する。   The present invention can also be applied to an electrophotographic facsimile apparatus having a part of the above configuration and having an imaging optical system. The reading unit of the facsimile apparatus has an illuminating unit, a mirror scanning mechanism, an optical system capable of controlling imaging parameters as in the first embodiment, and an image sensor.

記録部は電子写真方式またはレーザビームプリンタ方式、感熱転写記録方式のいずれを用いてもよい。通信制御部はディジタル回線に対して、例えばG4プロトコル制御、加入回線に対してG3/G2通信制御機能を有する。制御部は符号/復号部を有する。   The recording unit may use any of an electrophotographic system, a laser beam printer system, and a thermal transfer recording system. The communication controller has, for example, a G4 protocol control function for a digital line and a G3 / G2 communication control function for a subscribed line. The control unit has an encoding / decoding unit.

このファクシミリ装置27は外部の端末装置21と接続され、端末装置21から制御することができる。即ち、通常モードでの撮影後、画像データを端末装置21の表示部に表示する。ユーザは表示部に表示された画像から抽出しかつ転送したい特定被写体を指示することにより上述の方法で画像を抽出する。   The facsimile device 27 is connected to the external terminal device 21 and can be controlled from the terminal device 21. That is, after shooting in the normal mode, the image data is displayed on the display unit of the terminal device 21. The user extracts an image from the image displayed on the display unit and extracts the image by the above-described method by designating a specific subject to be transferred.

尚、上述のピント制御による撮像と特定被写体の抽出と複写は、立体物に適用することにより高精度かつ効率的に行うことができる。この場合、複写機は、立体物の設置台、撮像装置、画像処理プロセッサ、プリンタ部、定着器など通常の複写機の構成要素により構成する。特に、画像入力部200は他の複写機の構成要素から分離し、立体物設置台の上方に設置してもよい。画像処理プロセッサ210で抽出された画像領域を感光ドラムに転写し、最終的に特定被写体のみを複写するまでのプロセスは上述の方法と同様である。   Note that the above-described imaging by the focus control and the extraction and copying of the specific subject can be performed with high accuracy and efficiency by applying to a three-dimensional object. In this case, the copying machine is configured by components of a normal copying machine such as a three-dimensional object installation table, an imaging device, an image processor, a printer unit, and a fixing device. In particular, the image input unit 200 may be separated from other components of the copying machine and installed above the three-dimensional object installation table. The process of transferring the image area extracted by the image processor 210 to the photosensitive drum and finally copying only the specific subject is the same as the above-described method.

また、紙面などの平面状領域から特定対象画像を抽出するための好適な撮像制御方式として、画像入力部200内の可視光分光フィルタ205の特性をフィルタ制御部206で制御することにより複数の撮像条件で画像を入力し、それらの差分データに基づき、特定被写体領域を抽出し、複写してもよい。   In addition, as a suitable imaging control method for extracting a specific target image from a planar area such as a paper surface, a filter control unit 206 controls a characteristic of a visible light spectral filter 205 in an image input unit 200 to perform a plurality of imaging operations. An image may be input under a condition, and a specific subject area may be extracted and copied based on the difference data.

例えば、色調特性が特定のスペクトルに偏在する物体(例えば、全体的に赤い物体など)を抽出する際、そのスペクトルに対して透過率が高くなるように分光フィルタを制御して得られる画像と通常モードで得られる画像とを入力し、それらの差分データに基づく抽出を行う。   For example, when extracting an object whose color tone characteristic is unevenly distributed in a specific spectrum (for example, a red object as a whole), an image obtained by controlling a spectral filter so as to increase the transmittance with respect to that spectrum is usually used as an image. An image obtained in the mode is input, and extraction based on their difference data is performed.

他の撮像制御方式として、イメージセンサ202の映像信号特性(ガンマなど)または露光条件(照明光強度、絞りがある場合にその径、走査入力する場合に走査速度など)を制御して得られる複数画像に対して抽出処理を行ってもよい。   As another imaging control method, a plurality of image signals obtained by controlling the image signal characteristics (gamma or the like) of the image sensor 202 or the exposure conditions (illumination light intensity, the diameter of the diaphragm if there is a diaphragm, the scanning speed when performing scanning input, etc.) An extraction process may be performed on an image.

この場合、特に複数画像データ間で正規化処理(例えば、最大輝度レベルが同じになるように輝度値をスケーリング変換する)をした後に両画像間の差分データを算出し、前述した方法と同様に切り出し処理を行うことが望ましい。   In this case, in particular, after performing normalization processing (for example, scaling conversion of the luminance value so that the maximum luminance level becomes the same) between a plurality of image data, difference data between the two images is calculated, and the same as the method described above. It is desirable to perform a clipping process.

[第3の実施の形態]
第3の実施の形態では、既に説明した特定被写体の抽出原理を他の密着型イメージセンサ(CCD素子など)を有する画像入力機器(画像スキャナ、ファクシミリ装置など)に適用した場合を示す。ここでは、簡単のためにファクシミリ装置に適用した場合を示す。
[Third Embodiment]
In the third embodiment, a case is described in which the above-described principle of extracting a specific subject is applied to an image input device (image scanner, facsimile device, or the like) having another contact image sensor (CCD device or the like). Here, a case where the present invention is applied to a facsimile machine is shown for simplicity.

図10は画像入力機器の概略的構成を示す説明図である。本体300は、端末装置21と接続されており、原稿350は密着型イメージセンサ310により光電変換されて画像情報が読み取られる。   FIG. 10 is an explanatory diagram showing a schematic configuration of the image input device. The main body 300 is connected to the terminal device 21, and the original 350 is photoelectrically converted by the contact image sensor 310 to read image information.

本実施の形態では、イメージセンサ310をそのセンサ面と略直交方向に微動させる駆動制御機構320を有し、これにより通常モード(高解像度画像入力モード)での原稿画像入力とピントずれの生じた画像入力を行う。   In the present embodiment, there is provided a drive control mechanism 320 for finely moving the image sensor 310 in a direction substantially orthogonal to the sensor surface, thereby causing a defocus and a document image input in a normal mode (high-resolution image input mode). Perform image input.

同微動制御機構320の駆動部として、圧電素子またはボイスコイルモータなどが典型的に用いられる。尚、モデム370を介して転送された画像データは他のファクシミリ装置と同様、記録部(熱ヘッドなど)330により記録紙360に転写される。画像処理ユニット340では、イメージセンサ310からの出力を基に文字領域と画像領域とに分割し、前記第1の実施の形態で説明した方法に基づき、画像領域の予め指定された特定の図形要素、あるいは特定被写体領域を抽出する。   A piezoelectric element, a voice coil motor, or the like is typically used as a drive unit of the fine movement control mechanism 320. The image data transferred via the modem 370 is transferred to a recording paper 360 by a recording unit (such as a thermal head) 330 as in other facsimile machines. The image processing unit 340 divides the image area into a character area and an image area based on the output from the image sensor 310 and, based on the method described in the first embodiment, specifies a specific graphic element specified in advance in the image area. Alternatively, a specific subject area is extracted.

具体的には通常のセンサ面位置において画像の走査、読み取りを行い、第1の画像データを取り込み、つぎにセンサ面を微動させることによりピントずれ状態で同画像領域の走査、読み取りを行い、第2の画像データを得る。さらに、第1、第2画像間の差分データに対して前記第1の実施の形態に示したように被写体の輪郭抽出および切り出し処理を行う。   Specifically, the image is scanned and read at a normal sensor surface position, the first image data is captured, and then the sensor surface is slightly moved to scan and read the same image region in a defocused state. 2 is obtained. Further, the contour extraction and cutout processing of the subject are performed on the difference data between the first and second images as described in the first embodiment.

制御プロセッサ380は、画像の読み出し、被写体抽出、密着センサ位置の駆動制御、熱ヘッド記録、紙送りなどの制御を統括するが、端末装置21からの制御コマンドによる制御も可能とする。   The control processor 380 controls image reading, subject extraction, drive control of a contact sensor position, thermal head recording, paper feed, and the like, but also enables control by a control command from the terminal device 21.

[第4の実施の形態]
第4の実施の形態では、撮像装置は赤外線通信機能を有する安価でかつ小型の無線通信制御手段を具備する。カメラ内部のその他の構成要素は前記第1の実施の形態と同様である。
[Fourth Embodiment]
In the fourth embodiment, the imaging apparatus includes an inexpensive and small wireless communication control unit having an infrared communication function. Other components inside the camera are the same as those in the first embodiment.

また、端末装置においても通信制御部を内蔵させることにより、撮像装置の被写体抽出用撮像モードの設定信号、撮像パラメータ制御データ、切り出し画像データなどの送受信を行う。変調方式、符号化方式、データ伝送速度、データフォーマット、通信プロトコルなどによって規定される通信方式は特に限定しないが、典型的にはIrDAの定める方式が用いられる。この場合、相互に数メートル(標準的には1m)以内の距離で1対1の双方向通信であることが前提となるが、原理的には1対多通信(1つの撮像装置および多数の端末装置間の通信、1つの端末装置と多数の撮像装置間の通信)が可能である。   In addition, by incorporating a communication control unit in the terminal device, transmission / reception of a setting signal of the imaging mode for subject extraction of the imaging device, imaging parameter control data, cutout image data, and the like are performed. The communication system defined by the modulation system, coding system, data transmission speed, data format, communication protocol, etc. is not particularly limited, but typically the system defined by IrDA is used. In this case, it is assumed that one-to-one two-way communication is performed within a distance of several meters (typically 1 m) from each other, but in principle, one-to-many communication (one imaging device and many Communication between terminal devices, and communication between one terminal device and a large number of imaging devices) are possible.

通常、相手との通信開始時に最初に9600ビット/秒の速度でセッションを確立し、このときに両者が対応可能な最高の伝送速度を調べ、以後はその速度で通信する。   Normally, a session is first established at a speed of 9600 bits / second at the start of communication with the other party, and at this time, the maximum transmission speed that both can support is checked, and thereafter, communication is performed at that speed.

また、データの送信権を5msから500ms毎に交換して半2重通信を行う。端末装置から特定の撮像装置との通信セッションを確立すると、それぞれの種別(撮像装置または端末装置)、使用者のID番号などを互いに送受信することにより、撮像装置は遠隔操作による撮像待機状態となる。   Also, half-duplex communication is performed by exchanging the data transmission right every 5 ms to 500 ms. When a communication session with a specific imaging device is established from the terminal device, the type (imaging device or terminal device), the ID number of the user, and the like are mutually transmitted and received, so that the imaging device enters an imaging standby state by remote operation. .

この場合、カメラの操作パネルディスプレイに通信制御モードであることを示す表示がなされるようにしてもよい。これ以降、被写体抽出用撮像モードの設定から取り込まれた画像データの転送または記録までの過程は、前記第1の実施の形態と同様である。尚、同じ通信方式を採用する通信機器を通じて制御データまたは適切に圧縮符号化された画像データを公衆網またはISDNなどの回線に接続して遠隔地へ転送することもできる。また、撮像装置の操作パネルと同様の操作パネルを端末装置の表示パネル上に表示し、タッチパネル方式で手またはペン入力によりカメラ操作情報を撮像装置に送ってもよい。   In this case, a display indicating the communication control mode may be made on the operation panel display of the camera. Thereafter, the process from the setting of the subject extraction imaging mode to the transfer or recording of the captured image data is the same as in the first embodiment. Note that control data or appropriately compressed and encoded image data can be connected to a line such as a public network or ISDN and transferred to a remote location through communication equipment employing the same communication method. Further, an operation panel similar to the operation panel of the imaging device may be displayed on the display panel of the terminal device, and camera operation information may be transmitted to the imaging device by a touch or a hand or a pen.

第1の実施の形態における撮像システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an imaging system according to a first embodiment. カメラ1の内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of the camera 1. ピント制御による複数の撮像条件での撮影を行う場合の焦点信号とフォーカスレンズの撮像位置との関係を模式的に示したグラフである。5 is a graph schematically showing a relationship between a focus signal and an imaging position of a focus lens when performing imaging under a plurality of imaging conditions by focus control. カメラおよび端末装置が接続された基本の撮像システムにおいてそれぞれの機能を示す説明図である。It is an explanatory view showing each function in a basic imaging system to which a camera and a terminal device were connected. 画像データの処理過程を示す説明図である。FIG. 4 is an explanatory diagram illustrating a process of processing image data. 画像抽出処理手順を示すフローチャートである。It is a flowchart which shows an image extraction processing procedure. 図6につづく画像抽出処理手順を示すフローチャートである。FIG. 7 is a flowchart illustrating an image extraction processing procedure following FIG. 6; 第2の実施の形態における撮像システムの構成を示すブロック図である。It is a block diagram showing the composition of the imaging system in a 2nd embodiment. ディジタル複写機の概略的構成を示す説明図である。FIG. 2 is an explanatory diagram illustrating a schematic configuration of a digital copying machine. 画像入力機器の概略的構成を示す説明図である。FIG. 3 is an explanatory diagram illustrating a schematic configuration of an image input device.

符号の説明Explanation of reference numerals

1 カメラ
9 撮像モード設定スイッチ
15 システム制御部
17 映像信号処理部
21 端末装置
26 表示装置
52b フォーカス制御部
Reference Signs List 1 camera 9 imaging mode setting switch 15 system control unit 17 video signal processing unit 21 terminal device 26 display device 52b focus control unit

Claims (7)

撮像装置と端末装置との間で通信媒体を介したデータ通信を行う画像処理システムであって、
前記撮像装置は、
被写体を撮像して画像データを得る撮像手段と、
前記撮像手段の撮像パラメータを制御する撮像パラメータ制御手段と、を有し、
前記端末装置は、
前記撮像装置に対して被写体抽出のための撮像指令を送信する送信手段と、
前記撮像指令の応答として前記撮像パラメータ手段が同一の被写体を複数の撮像条件で撮影するように前記撮像パラメータを制御して前記撮像手段により撮像された複数の画像データを受信する受信手段と、
前記撮像装置から受信した複数の画像データのうち1つの画像データを表示する表示手段と、
前記表示手段により表示された画像データ上の任意の点を指定する指定手段と、
前記複数の画像データと前記指定された点に基づき、被写体抽出の対象領域を判別する領域判別処理手段と、
前記領域判別処理手段により判別された対象領域の画像データを前記複数の画像データから切り出す切出手段と、
を有することを特徴とする画像処理システム。
An image processing system for performing data communication between an imaging device and a terminal device via a communication medium,
The imaging device,
Imaging means for imaging a subject to obtain image data;
Imaging parameter control means for controlling imaging parameters of the imaging means,
The terminal device,
Transmission means for transmitting an imaging command for subject extraction to the imaging device,
A receiving unit that receives the plurality of image data captured by the imaging unit by controlling the imaging parameter so that the imaging parameter unit captures the same subject under a plurality of imaging conditions in response to the imaging command;
Display means for displaying one image data of the plurality of image data received from the imaging device;
Designation means for designating an arbitrary point on the image data displayed by the display means,
Area determination processing means for determining a target area for subject extraction based on the plurality of image data and the designated point;
A cutout unit that cuts out the image data of the target region determined by the region determination processing unit from the plurality of image data;
An image processing system comprising:
前記撮像装置は、前記複数の撮像条件で撮像するための撮像パラメータを少なくとも含む前記撮像指令に対応する標準データを予め記憶する記憶手段をさらに有し、
前記撮像パラメータ制御手段は、前記撮像指令を受信した場合、前記記憶手段に記憶された撮像パラメータを読み出すことを特徴とする請求項1に記載の画像処理システム。
The imaging apparatus further includes a storage unit that stores in advance standard data corresponding to the imaging command including at least imaging parameters for imaging under the plurality of imaging conditions,
2. The image processing system according to claim 1, wherein the imaging parameter control unit reads the imaging parameters stored in the storage unit when receiving the imaging command.
前記端末装置は、前記標準データを前記表示手段に表示させ、表示させた前記標準データを変更可能とすることを特徴とする請求項2に記載の画像処理システム。   3. The image processing system according to claim 2, wherein the terminal device displays the standard data on the display unit, and changes the displayed standard data. 4. 前記複数の撮像条件の1つは前記被写体に合焦させて撮影し合焦画像データを得るための条件であり、1つは前記被写体を合焦させないで撮影し非合焦画像データを得るための条件であることを特徴とする請求項1乃至3のいずれかに記載の画像処理システム。   One of the plurality of imaging conditions is a condition for obtaining the focused image data by focusing on the subject and obtaining the focused image data, and one is a condition for capturing the subject without being focused and obtaining the out-of-focus image data. 4. The image processing system according to claim 1, wherein the following condition is satisfied. 前記領域判別処理手段は、前記合焦画像データと前記非合焦画像データの差分データと前記指定された点に基づき、被写体抽出の対象領域を判別することを特徴とする請求項4に記載の画像処理システム。   5. The area determination unit according to claim 4, wherein the target area for subject extraction is determined based on difference data between the in-focus image data and the out-of-focus image data and the designated point. 6. Image processing system. 前記表示手段は、前記切出手段により切り出された画像データを表示することを特徴とする請求項1乃至5のいずれかに記載の画像処理システム。   The image processing system according to claim 1, wherein the display unit displays the image data clipped by the clipping unit. 撮像装置と端末装置との間で通信媒体を介したデータ通信を行う画像処理システムの画像処理方法であって、
前記端末装置において、
前記撮像装置に対して被写体抽出のための撮像指令を送信し、
前記撮像装置において、
前記撮像指令の応答として同一の被写体を複数の撮像条件で撮影するように撮像パラメータを制御して撮像手段に撮像させ、
前記端末装置において、
前記撮像手段により撮像された複数の画像データを受信し、
前記撮像装置から受信した複数の画像データのうち1つの画像データを表示手段に表示し、
前記表示手段により表示された画像データ上の任意の点を指定し、
前記複数の画像データと前記指定された点に基づき、被写体抽出の対象領域を判別し、
判別された対象領域の画像データを前記複数の画像データから切り出すことを特徴とする画像処理システムの画像処理方法。
An image processing method of an image processing system that performs data communication between a capturing device and a terminal device via a communication medium,
In the terminal device,
Transmitting an imaging command for subject extraction to the imaging device;
In the imaging device,
In response to the imaging command, the imaging unit controls the imaging parameters so that the same subject is imaged under a plurality of imaging conditions, and the imaging unit performs imaging,
In the terminal device,
Receiving a plurality of image data imaged by the imaging means,
Displaying one image data of the plurality of image data received from the imaging device on a display unit;
Designating an arbitrary point on the image data displayed by the display means,
Based on the plurality of image data and the designated points, determine a target area for subject extraction,
An image processing method for an image processing system, wherein image data of a determined target area is cut out from the plurality of image data.
JP2004130187A 2004-04-26 2004-04-26 Image extraction method Expired - Fee Related JP3903048B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004130187A JP3903048B2 (en) 2004-04-26 2004-04-26 Image extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004130187A JP3903048B2 (en) 2004-04-26 2004-04-26 Image extraction method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8192728A Division JPH1023317A (en) 1995-11-01 1996-07-04 Image pickup picture processor and method therefor

Publications (2)

Publication Number Publication Date
JP2004304822A true JP2004304822A (en) 2004-10-28
JP3903048B2 JP3903048B2 (en) 2007-04-11

Family

ID=33411226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004130187A Expired - Fee Related JP3903048B2 (en) 2004-04-26 2004-04-26 Image extraction method

Country Status (1)

Country Link
JP (1) JP3903048B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336386A (en) * 2006-06-16 2007-12-27 Canon Inc Image pick-up device and image pick-up method
JP2010525374A (en) * 2007-03-08 2010-07-22 セラビジョン、アクチボラグ Method for determining focus position and vision inspection system
JP2013505509A (en) * 2009-12-02 2013-02-14 タタ コンサルタンシー サービシズ リミテッド Cost-effective system and method for detecting, classifying, and tracking pedestrians using near infrared cameras
CN109663174A (en) * 2019-01-11 2019-04-23 王冬萍 Blood backflow alarm platform and method
JP7231877B1 (en) 2022-08-31 2023-03-02 岩崎通信機株式会社 Angle measuring device, angle measuring method, angle measuring program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336386A (en) * 2006-06-16 2007-12-27 Canon Inc Image pick-up device and image pick-up method
JP2010525374A (en) * 2007-03-08 2010-07-22 セラビジョン、アクチボラグ Method for determining focus position and vision inspection system
US10210376B2 (en) 2007-03-08 2019-02-19 Cellavision Ab Method for determining an in-focus position and a vision inspection system
JP2013505509A (en) * 2009-12-02 2013-02-14 タタ コンサルタンシー サービシズ リミテッド Cost-effective system and method for detecting, classifying, and tracking pedestrians using near infrared cameras
CN109663174A (en) * 2019-01-11 2019-04-23 王冬萍 Blood backflow alarm platform and method
JP7231877B1 (en) 2022-08-31 2023-03-02 岩崎通信機株式会社 Angle measuring device, angle measuring method, angle measuring program
JP2024033803A (en) * 2022-08-31 2024-03-13 岩崎通信機株式会社 Angle measurement device, method for measuring angle, and angle measurement program
JP7518433B2 (en) 2022-08-31 2024-07-18 岩崎通信機株式会社 Angle measurement device, angle measurement method, and angle measurement program

Also Published As

Publication number Publication date
JP3903048B2 (en) 2007-04-11

Similar Documents

Publication Publication Date Title
US6993184B2 (en) Object extraction method, and image sensing apparatus using the method
KR101265358B1 (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
WO2018201809A1 (en) Double cameras-based image processing device and method
CN101621626B (en) Image pickup apparatus and auto-focus detection method
JP4411037B2 (en) Lens apparatus and photographing system
JP2008252508A (en) Imaging device and photographing method
CN106506939B (en) Image acquisition device and acquisition method
JP4944393B2 (en) Imaging device
US7307662B2 (en) Controller for auto-focus in a photographing apparatus
JP2011182252A (en) Imaging device, and image imaging method
JP2007150603A (en) Electronic camera
JP2007258869A (en) Image trimming method and apparatus, and program
JP2001298659A (en) Image pickup device, image processing system, image pickup method and storage medium
JP5361502B2 (en) Focus detection apparatus and method, and imaging apparatus
JP3903048B2 (en) Image extraction method
JP2010072121A (en) Imaging apparatus and control method therefor
JPH1023317A (en) Image pickup picture processor and method therefor
JP2004145022A (en) Digital camera
JP3624037B2 (en) Image input apparatus and image processing apparatus
JP2010009228A (en) Image processor, image processing method, computer program, and storage medium
JP2002305676A (en) Electronic camera
JP2020043398A (en) Imaging device and control method thereof, program, and storage medium
JP2009021893A (en) Imaging device and method
JP2009177316A (en) Imaging apparatus
JP2008011244A (en) Imaging apparatus, its control method, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140112

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees