JPH1196373A - Image pickup device - Google Patents

Image pickup device

Info

Publication number
JPH1196373A
JPH1196373A JP9275128A JP27512897A JPH1196373A JP H1196373 A JPH1196373 A JP H1196373A JP 9275128 A JP9275128 A JP 9275128A JP 27512897 A JP27512897 A JP 27512897A JP H1196373 A JPH1196373 A JP H1196373A
Authority
JP
Japan
Prior art keywords
image
target
dictionary
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9275128A
Other languages
Japanese (ja)
Inventor
Nobuyoshi Enomoto
暢芳 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9275128A priority Critical patent/JPH1196373A/en
Publication of JPH1196373A publication Critical patent/JPH1196373A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely pick up the image of a desired image pickup object by identifying the object while comparing feature information registered in an object identification dictionary with the image area of the extracted object, and displaying the image area of the object and the identified result. SOLUTION: An object area extracting part 4 extracts the image area of the object by comparing the feature information of a retrieval area on each hierarchy registered in an object area extraction dictionary 3 registering the feature information of the respective plural retrieval areas in a hierarchical implication relation while implication the image area of the object for retrieving the image area in the object inside a fetched image with the fetched image. An object identifying part 9 identifies the object by comparing an object identification dictionary 8 registering the feature information of the object with the image area of the object extracted by the object area extracting part 4. Then, a display part 10 displays the image area of the object extracted by the object area extracting part 4 and the identified result at the object identifying part 9. Thus, the image of the desired image pickup object can be surely picked up.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、所望の対象物を撮
像する撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging device for imaging a desired object.

【0002】[0002]

【従来の技術】一般の映像中から所望の対象物を見付け
それを識別するものとして、光学式、またはディジタル
式の静止画カメラ、およびテレビカメラによって撮像
し、この映像をアナログ、またはディジタル映像信号に
変換、蓄積した複数映像をユーザに提示して、ユーザが
所望の対象物が含まれたものかどうかを判定し、蓄積手
段にその映像と対象物の属性(名前等)を関連づけるた
めのデータ構造を保存する映像編集装置といわれるもの
がある。
2. Description of the Related Art An optical or digital still camera and a television camera are used to detect and identify a desired object in a general image, and the image is analog or digital image signal. Data for presenting to the user the plurality of videos converted and stored to determine whether the user includes the desired object, and associating the storage device with the attribute (name, etc.) of the video and the object. There is an image editing device that saves a structure.

【0003】このような映像編集装置では、入力映像は
ユーザが目視対象識別を行ないやすいようにディジタル
信号化され提示されるが、複数の画像列の中から所望対
象物の含まれるものを探し、識別を行なうのはユーザで
あるため、その負担が大きい。
In such a video editing apparatus, an input video is digitized and presented so that a user can easily identify a visual target. However, a video including a desired target is searched from a plurality of image sequences. Since it is the user who performs the identification, the burden is large.

【0004】また、撮像され蓄積されたディジタル映像
の列(フレーム)について、フレーム間の映像変化の量
や、フレーム内の画素の移動ベクトルの大きさや向きに
よってシーンの切れ目を見付け、それを代表フレームと
し、代表フレームのみ、または代表フレーム周囲の少数
フレームをユーザに提示することで、ユーザが全映像を
目視せずに所望の対象を捜し出せる可能性を高めた映像
編集装置といわれるものがある。
[0004] Further, regarding a sequence (frame) of digital images captured and stored, a break in the scene is found based on the amount of video change between frames and the magnitude and direction of the movement vector of the pixels in the frame. There is an image editing apparatus that presents only a representative frame or a small number of frames around the representative frame to the user, thereby increasing the possibility that the user can search for a desired target without viewing the entire image.

【0005】このような映像編集装置では、映像列の変
動をとらえ、代表画像(フレーム)を決定、提示するた
め、全画像列の目視をユーザが行なうという負担はない
が、代表フレームについては対象かどうかの判断を人間
が行なう必要がある。
[0005] In such a video editing apparatus, since the fluctuation of the video sequence is captured and the representative image (frame) is determined and presented, there is no burden on the user to view the entire image sequence. It is necessary for a human to determine whether or not.

【0006】さらに、代表フレームについて、所望の対
象の画像特徴を辞書として持ち、保有しているうちの唯
一、またはいくつかの辞書パターンと似ているかどうか
の判断を行なう機能を適用することによって、対象の識
別を行なう装置がある。
Further, by applying a function of having a desired image characteristic of a representative frame as a dictionary and determining whether or not the representative frame is similar to only one or several of the dictionary patterns, There is a device for identifying an object.

【0007】このような装置では、抽出された代表フレ
ームの中に対象があるかどうかを判定する手段を具備す
るため、ユーザの負担は軽減されるが、そもそも代表画
像列が所望対象を含まない場合も存在する可能性があ
る。
[0007] Such an apparatus includes means for determining whether or not there is a target in the extracted representative frame, so that the burden on the user is reduced, but the representative image sequence does not include the desired target in the first place. May also be present.

【0008】一般情景中の画像を撮影する場合に所望の
対象がどのようなものかが、あらかじめわかっている場
合が多い。たとえば、以下の(1)〜(3)のような場
合がそれにあたる。
When an image in a general scene is photographed, it is often known in advance what kind of desired object is. For example, the following cases (1) to (3) correspond to such cases.

【0009】(1)ハンディVCRやカメラを用いて、
なにかのイベントがあった場合に登場する人物やあらか
じめ概略わかっている物(たとえば製品など)のみを注
目して撮影したい場合や看板に注目して撮影し、さらに
内容を読み取ったりする場合。
(1) Using a handy VCR or camera,
When you want to focus on a person who appears in the event of an event or an object (for example, a product) that you know in advance (such as a product), or when you want to focus on a signboard and shoot, and then read the content.

【0010】(2)移動荷物上の着店コードを読み取
り、荷物の配送先振り分けを行ったり荷物の通し番号読
みとりによって荷物の配達状況追跡を行う場合。
(2) A case in which a store arrival code on a moving bag is read and the delivery destination of the bag is sorted, or the delivery status of the bag is tracked by reading the serial number of the bag.

【0011】(3)車両、船、列車、飛行機等の乗り物
に記述されているナンバーやマークなどを注目して撮影
し、内容を読みとり、不正通行発見、旅行時間計測、な
どの機能を可搬型の装置で実現する場合。
(3) Attention is paid to the numbers and marks written on vehicles such as vehicles, ships, trains, airplanes, etc., and images are taken, the contents are read, and illegal traffic detection, travel time measurement, and other functions are carried. When realizing with the device of.

【0012】上記(1)〜(3)のような場合には、従
来は所望対象をユーザがよくねらって撮像し、かつその
映像も所望映像がもれないために、所望でないものも大
量に撮像しておいて、後でその中から所望の部分ののみ
をユーザが抽出し内容を判別するか、または持ち帰った
大量のデータ中から連続画像間の画素変化量や移動ベク
トルなどの何らかの特徴を用いてシーンの切れ目を自動
検出してそれを手がかりに所望の画像を選択し、また選
択画像が所望画像かどうかを自動識別していた。
In the above-mentioned cases (1) to (3), conventionally, the user takes an image of a desired object with good aim, and there is no desired image. After capturing the image, the user can extract only the desired portion from the image and determine the content, or select some characteristic such as the pixel change amount between consecutive images or the movement vector from the large amount of data brought back. In this method, a scene break is automatically detected, a desired image is selected based on the automatically detected break, and whether or not the selected image is a desired image is automatically identified.

【0013】[0013]

【発明が解決しようとする課題】このように、従来は、
撮像された画像中に実際に所望する対象物が含まれてい
るか否かは、最終的にユーザがその撮像された画像を見
て判断するしかなく、所望する対象物を確実に撮像する
ことができなかった。
As described above, conventionally,
Whether or not the desired object is actually included in the captured image is ultimately determined by the user looking at the captured image, and it is possible to reliably capture the desired object. could not.

【0014】また、映像を撮像して蓄積し、その蓄積さ
れた映像中から所望の対象物を抽出、識別する従来の方
式では、撮像、光電変換、蓄積までをビデオカメラ等の
可搬型デバイスで行ない、対象抽出、および識別の処理
は別の装置で行なうことになるために、あらかじめ所望
対象が含まれるかどうかが不明の大量のデータをも収集
しておく必要がある。さらに、所望対象を抽出するため
の撮像系のパラメータは対象を撮像するときの状況に応
じて、対象を識別しやすいようにユーザが予め調整する
必要があった。
In the conventional method, a video is captured and stored, and a desired object is extracted and identified from the stored video by a portable device such as a video camera. Since the processes of performing, object extraction, and identification are performed by another device, it is necessary to collect in advance a large amount of data which is unknown whether or not a desired object is included. Furthermore, the user has to adjust the parameters of the imaging system for extracting the desired target in advance according to the situation when the target is imaged so that the target can be easily identified.

【0015】そこで、本発明は、撮像対象物の撮像状況
に応じてその撮像対象物が所望のものであるか否かを判
定しながら確実に所望の撮像対象物を撮像することので
きる撮像装置を提供することを目的とする。
Accordingly, the present invention provides an imaging apparatus capable of reliably imaging a desired imaging target while determining whether or not the imaging target is a desired one according to the imaging state of the imaging target. The purpose is to provide.

【0016】[0016]

【課題を解決するための手段】本発明の撮像装置(請求
項1)は、画像を取り込む画像取込手段と、前記画像中
の対象物の像域を検索するための該対象物の像域を包含
して階層的な包含関係にある複数の検索領域のそれぞれ
の特徴情報を登録した対象領域抽出辞書と、この対象領
域抽出辞書に登録された各階層の検索領域の特徴情報と
前記画像取込手段で取り込まれた画像とを比較して、該
対象物の像域を抽出する対象領域抽出手段と、前記対象
物の特徴情報を登録した対象識別辞書と、この対象識別
辞書に登録された特徴情報と、前記対象領域抽出手段で
抽出された前記対象物の像域とを比較して前記対象物を
識別する対象識別手段と、前記対象領域抽出手段で抽出
された前記対象物の像域および前記対象識別手段での識
別結果を表示する表示手段と、を具備したことにより、
確実に所望の撮像対象物を撮像することができる。
According to the present invention, there is provided an imaging apparatus comprising: an image capturing means for capturing an image; and an image area of the object for retrieving an image area of the object in the image. , A target area extraction dictionary in which characteristic information of each of a plurality of search areas in a hierarchical inclusion relationship is registered, and the characteristic information of the search area of each hierarchy registered in the target area extraction dictionary and the image capture A target area extracting unit that compares the image captured by the reading unit and extracts an image area of the target object; a target identification dictionary in which feature information of the target object is registered; and a target identification dictionary registered in the target identification dictionary. A target identifying unit that compares the feature information with the image area of the target object extracted by the target region extracting unit to identify the target object; and an image region of the target object extracted by the target region extracting unit. And the identification result of the object identification means is displayed. And shows means by provided with the,
It is possible to reliably image a desired imaging target.

【0017】また、本発明の撮像装置(請求項2)は、
画像を取り込む画像取込手段と、前記画像を取り込む際
の環境条件に応じて、該画像中に対象物の像域を検索す
るための該対象物の像域を包含して階層的な包含関係に
ある複数の検索領域のそれぞれの特徴情報を登録した複
数の対象領域抽出辞書と、前記取込手段で取り込まれた
画像に基づき前記複数の対象領域抽出辞書のうちの1つ
を選択する選択手段と、この選択手段で選択された対象
領域抽出辞書に登録されている各階層の検索領域の特徴
情報と前記画像取込手段で取り込まれた画像とを比較し
て、前記対象物の像域を抽出する対象領域抽出手段と、
前記対象物の特徴情報を登録した対象識別辞書と、この
対象識別辞書に登録された特徴情報と前記対象領域抽出
手段で抽出された前記対象物の像域とを比較して前記対
象物を識別する対象識別手段と、前記対象領域抽出手段
で抽出された前記対象物の像域および前記対象識別手段
での識別結果を表示する表示手段と、を具備したことに
より、撮像対象物の撮像環境の変化に関わりなく確実に
所望の撮像対象物を撮像することができる。
Further, the imaging apparatus of the present invention (claim 2)
An image capturing means for capturing an image, and a hierarchical inclusion relationship including an image area of the object for searching for an image area of the object in the image according to environmental conditions at the time of capturing the image. A plurality of target area extraction dictionaries in which respective feature information of a plurality of search areas are registered, and a selection unit for selecting one of the plurality of target area extraction dictionaries based on the image captured by the capture unit And comparing the feature information of the search area of each hierarchy registered in the target area extraction dictionary selected by the selection means with the image captured by the image capturing means, to determine the image area of the object. Target region extracting means to be extracted;
The target identification dictionary in which the characteristic information of the target is registered, and the characteristic information registered in the target identification dictionary and the image area of the target extracted by the target region extracting means are compared to identify the target. Object identification means, and display means for displaying the image area of the object extracted by the object area extraction means and the identification result of the object identification means, It is possible to reliably image a desired imaging target regardless of the change.

【0018】また、本発明の撮像装置(請求項3)は、
画像を取り込む画像取込手段と、前記画像を取り込む際
の環境条件に応じて、該画像中に対象物の像域を検索す
るための該対象物の像域を包含して階層的な包含関係に
ある複数の検索領域のそれぞれの特徴情報を登録した複
数の対象領域抽出辞書と、前記環境条件に対応した前記
画像の特徴情報と前記対象領域抽出辞書の識別子を登録
した環境条件辞書と、この環境条件辞書に登録されてい
る特徴情報と前記取込手段で取り込まれた画像とを比較
して前記複数の対象領域抽出辞書のうちの1つを選択す
る選択手段と、この選択手段で選択された対象領域抽出
辞書に登録されている各階層の検索領域の特徴情報と前
記画像取込手段で取り込まれた画像とを比較して、前記
対象物の像域を抽出する対象領域抽出手段と、前記対象
物の特徴情報を登録した対象識別辞書と、この対象識別
辞書に登録された特徴情報と前記対象領域抽出手段で抽
出された前記対象物の像域とを比較して前記対象物を識
別する対象識別手段と、前記対象領域抽出手段で抽出さ
れた前記対象物の像域および前記対象識別手段での識別
結果を表示する表示手段と、を具備したことにより、撮
像環境の変化に関わりなく確実に所望の撮像対象物を撮
像することができる。
Further, the image pickup apparatus of the present invention (claim 3)
An image capturing means for capturing an image, and a hierarchical inclusion relationship including an image area of the object for searching for an image area of the object in the image according to environmental conditions at the time of capturing the image. A plurality of target region extraction dictionaries in which feature information of each of a plurality of search regions is registered; an environment condition dictionary in which the image feature information corresponding to the environmental condition and an identifier of the target region extraction dictionary are registered; Selecting means for comparing one of the plurality of target area extraction dictionaries by comparing feature information registered in the environmental condition dictionary with the image captured by the capturing means; Comparing the feature information of the search area of each hierarchy registered in the target area extraction dictionary with the image captured by the image capturing means, and extracting an image area of the target object; Register the feature information of the object A target identification dictionary for identifying the target object by comparing feature information registered in the target identification dictionary with an image area of the target object extracted by the target region extraction unit; Display means for displaying the image area of the target object extracted by the region extracting means and the identification result by the target identifying means, and thereby ensuring the desired imaging target object regardless of a change in the imaging environment. Images can be taken.

【0019】[0019]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。 (1) 撮像装置の概要 図1は、本実施形態に係る撮像装置の構成例を概略的に
示したもので、絞り、フォーカシングがディジタル制御
可能な光学系からなる画像入力部1と、シャッター速度
をディジタル制御可能な電子シャッターを内蔵している
CMOSイメージセンサアレイとA/D変換器とからな
る撮像部2と、撮像部2のディジタル出力をランダムア
クセスし所望の対象領域を対象領域抽出辞書3を用いて
検出するための対象領域抽出部4と、この動作に先立っ
て、撮像部2からの画像を逐次アクセスして一時所定の
メモリに格納した複数画像と撮像状況辞書5とを用いて
現在の撮像状況を推定して対象領域抽出辞書3を選択す
る撮像状況選択部6と、対象領域抽出部4で対象領域が
抽出された後に光学系と対象との位置関係によって生ず
る抽出領域の3次元的幾何学変形を対象識別辞書8に登
録されている位置の形状へと逆変換する幾何変換部7
と、所望対象領域の抽出と幾何変換の後、対象識別辞書
8を用いて対象領域内部の識別を行う対象識別部9、対
象領域抽出結果やその識別結果をユーザに提示する表示
部10とを具備する。
Embodiments of the present invention will be described below with reference to the drawings. (1) Outline of Imaging Apparatus FIG. 1 schematically illustrates an example of the configuration of an imaging apparatus according to the present embodiment. An image input unit 1 including an optical system capable of digitally controlling the aperture and focusing, and a shutter speed Unit 2 comprising a CMOS image sensor array having an electronic shutter capable of digitally controlling the image and an A / D converter, and a digital output of the imaging unit 2 which is randomly accessed and a desired target region is extracted as a target region extraction dictionary 3 Prior to this operation, a target area extracting unit 4 for detecting the image by using a plurality of images that are sequentially accessed and temporarily stored in a predetermined memory and an imaging state dictionary 5 are used. The imaging condition selection unit 6 for estimating the imaging condition of the target and selecting the target region extraction dictionary 3, and the positional relationship between the optical system and the target after the target region is extracted by the target region extraction unit 4. Geometric conversion unit 7 inversely converted into 3-dimensional geometry of the position registered in the object identification dictionary 8 a variation of the extraction region generated
And a target identification unit 9 for identifying the inside of the target region using the target identification dictionary 8 after the extraction and geometric transformation of the desired target region, and a display unit 10 for presenting the target region extraction result and the identification result to the user. Have.

【0020】また、表示部10の表示結果に基づいてユ
ーザが画像入力部1および対象領域抽出部4に用いるパ
ラメータを調整可能とするユーザ操作部11と、その操
作パラメータを記録した撮像調整パラメータ辞書16
と、撮像調整パラメータ辞書16に基づいて、別の撮像
機会に上記調整を自動的に行うための自動撮像調整部1
7とを具備する。
A user operation unit 11 that allows a user to adjust parameters used in the image input unit 1 and the target area extraction unit 4 based on the display result of the display unit 10, and an imaging adjustment parameter dictionary that records the operation parameters 16
And an automatic imaging adjustment unit 1 for automatically performing the adjustment at another imaging opportunity based on the imaging adjustment parameter dictionary 16.
7 is provided.

【0021】さらに、対象領域抽出辞書3、対象識別辞
書8、撮像状況辞書5、撮像調整パラメータ辞書16の
各辞書を作成するための複数のデータを一時的に保存し
ておくための記憶手段12と、それらデータを外部装置
へ出力したり、外部装置から辞書データを入力したりす
るデータ入出力部13と、複数の入力画像データを用い
て対象領域抽出辞書3、対象識別辞書8、撮像状況辞書
5の各辞書を作成するための辞書作成部14とを具備し
ている。
Further, storage means 12 for temporarily storing a plurality of data for creating respective dictionaries of the target area extraction dictionary 3, the target identification dictionary 8, the imaging situation dictionary 5, and the imaging adjustment parameter dictionary 16. A data input / output unit 13 for outputting the data to an external device or inputting dictionary data from the external device; a target area extraction dictionary 3, a target identification dictionary 8, and an imaging condition using a plurality of input image data. A dictionary creating unit 14 for creating each dictionary of the dictionary 5;

【0022】なお、上記各部は、全て1つの筐体内に格
納された可搬型の撮像装置を構成する。ただし、辞書作
成は統計的手法によって行うため、より大量の画像デー
タを使用して作成する方が精度が高くなる。したがって
上述の辞書作成部14は、本撮像装置外部の高速大容量
計算機上に構築しておき、データ入出力部13を通じて
辞書作成に必要なデータを送り、辞書作成を行ってもよ
い。
The above components constitute a portable imaging device all housed in one housing. However, since the dictionary is created by a statistical method, it is more accurate to create the dictionary using a larger amount of image data. Therefore, the dictionary creation unit 14 may be built on a high-speed, large-capacity computer outside the imaging apparatus, send data necessary for dictionary creation through the data input / output unit 13, and create the dictionary.

【0023】また、本撮像装置では、撮像部2中の撮像
デバイスとして、半導体ダイナミックメモリとほぼ同一
構造であるCMOSイメージセンサデバイスを用いるこ
とにより、画像データのランダムアクセスを可能とし、
対象領域抽出部4を撮像部2と同一のLSIに組み込む
ことで対象領域抽出処理を並列化し高速化が可能であ
る。
Further, in the imaging apparatus, a CMOS image sensor device having substantially the same structure as the semiconductor dynamic memory is used as an imaging device in the imaging section 2, thereby enabling random access to image data.
By incorporating the target area extraction unit 4 into the same LSI as the imaging unit 2, the target area extraction processing can be parallelized and speeded up.

【0024】以下、図1の撮像装置を構成する各部につ
いて詳細に説明する。
Hereinafter, each unit constituting the image pickup apparatus of FIG. 1 will be described in detail.

【0025】(2)画像入力部1 絞り、およびフォーカシングに対するディジタル信号を
与えると、それに対応するレンズ絞り値、フォーカシン
グ値の対応テーブルを内蔵しており、指定通りの絞り
値、フォーカシング値に自動的に設定される機能を持っ
た既存の画像入力手段を使用して差し支えない。
(2) Image input unit 1 When a digital signal for aperture and focusing is given, a correspondence table of lens aperture value and focusing value corresponding to the digital signal is built in, and the aperture value and focusing value as specified are automatically set. An existing image input means having a function set to the above may be used.

【0026】(3)撮像部2 撮像素子とその表面への光の入射時間間隔(シャッター
速度)を外部からのディジタル制御信号によって制御す
る電子シャッターと撮像素子の出力をディジタル信号に
変換するA/D変換器とからなる。
(3) Imager 2 An electronic shutter for controlling the time interval (shutter speed) of light incident on the image sensor and its surface by an external digital control signal, and an A / A for converting the output of the image sensor to a digital signal. And a D converter.

【0027】撮像素子としては出力が直接ランダムアク
セス可能なCMOSイメージメンサアレイを使用してよ
く、電子シャッターとしては液晶方式のものなどを使用
して良い。
As the image pickup device, a CMOS image Mensa array whose output can be directly accessed at random may be used, and as the electronic shutter, a liquid crystal type shutter or the like may be used.

【0028】A/D変換器はセンサアレイの出力を一定
のbit長のディジタルデータに変換するために使用す
る。
The A / D converter is used to convert the output of the sensor array into digital data having a fixed bit length.

【0029】(4)対象領域抽出部4と対象領域抽出辞
書3 撮像部2のディジタル出力画像内部のものが何であるの
かを識別する場合に、その前段で画像内部に所望の範疇
の対象領域(たとえば映像中から特定の人を識別したか
ったら、この場合の所望の範疇の領域とは顔領域とな
る)を抽出する処理を行って識別対象の領域を絞り込
む。この処理は対象領域抽出部4にて行う。すなわち、
あらかじめ撮像されて本撮像装置に入力されている所望
の対象物候補の画像をおおまかに表現する2次元的テン
プレート(対象領域抽出辞書3)と撮像部2のディジタ
ル出力画像をランダムアクセスして得られた部分画像と
のテンプレートマッチングを行った結果がある統計的基
準を満たす領域として所望の対象領域を抽出する。
(4) The target area extraction unit 4 and the target area extraction dictionary 3 When identifying what is inside the digital output image of the imaging unit 2, the target area of a desired category is included in the image at the preceding stage. For example, if it is desired to identify a specific person from the video, the area of the desired category in this case is a face area), and the area to be identified is narrowed down. This processing is performed by the target area extraction unit 4. That is,
A two-dimensional template (target area extraction dictionary 3) that roughly represents an image of a desired target candidate that has been captured in advance and input to the imaging apparatus and a digital output image of the imaging unit 2 are obtained by random access. A desired target region is extracted as a region satisfying a certain statistical criterion as a result of performing the template matching with the partial image.

【0030】ここに、たとえばテンプレートマッチング
による所望領域選択の基準としては、撮像部2の出力画
像上でテンプレートをずらしながら、テンプレートと重
なった領域内の画像をベクトルと見て、それとテンプレ
ートとのユークリッド距離、すなわち対応画素同士の画
素値の差の2乗のテンプレート領域内総和の平方が最小
の位置を選ぶ方法を用いてもよい。また、たとえばユー
クリッド距離の代わりに部分空間法(参照文献1:飯
島、パターン認識理論、PP119)によって求めた類
似度を用いてもよい。これは辞書からのテンプレートベ
クトルとして所望対象を示す複数のサンプル画像ベクト
ルの分散共分散行列を主成分分析したときの固有ベクト
ルを対応する固有値の大きい方から有限個あつめて並べ
たものを用い、テンプレートと重なった領域内の画像を
ベクトルと見たときの出力画像ベクトルとテンプレート
内の各固有ベクトルとの内積の総和が最大となる領域を
所望対象領域とするものである。
Here, as a criterion for selecting a desired area by template matching, for example, while shifting the template on the output image of the imaging unit 2, the image in the area overlapping the template is regarded as a vector, and the Euclidean A method of selecting a position at which the distance, that is, the square of the sum of the squares of the pixel value difference between corresponding pixels in the template area is the minimum may be used. Further, for example, a similarity calculated by a subspace method (Reference 1: Iijima, Pattern Recognition Theory, PP119) may be used instead of the Euclidean distance. This uses a finite number of eigenvectors obtained by performing principal component analysis of the variance-covariance matrix of a plurality of sample image vectors indicating a desired target as template vectors from the dictionary, and arranging them in finite order from the largest corresponding eigenvalue. When the image in the overlapped area is viewed as a vector, the area where the sum of the inner products of the output image vector and each of the eigenvectors in the template is the maximum is defined as the desired target area.

【0031】上記での所望対象物のみに関する部分空間
法の類似度ではなく、所望領域以外の対象物辞書データ
をも用いた混合類似度(参照文献2:飯島、パターン認
識理論、PP122)を算出して、それが最大となる領
域を所望対象領域として抽出してもよい。
A similarity similar to that of the subspace method relating only to the desired object as described above, but a mixed similarity (Reference Document 2: Iijima, Pattern Recognition Theory, PP122) using object dictionary data other than the desired area is calculated. Then, a region where the maximum is obtained may be extracted as a desired target region.

【0032】また撮像部2の出力画像は、光学系と対象
物の位置関係によって、さまざまな幾何学的な変換を受
けているため、対象領域辞書3では、ある1つの配置に
対する対象物の複数サンプル画像から作成したその対象
物に対する辞書データ(テンプレート)にさらにさまざ
まな幾何学変換を適用した結果できた複数のテンプレー
トを持つことにし(マルチエントリ)、マッチング結果
としてはこれら複数のテンプレートのうち、もっとも前
記統計的基準を満たすようなものを選択する。
Since the output image of the image pickup unit 2 has undergone various geometric transformations depending on the positional relationship between the optical system and the object, the object area dictionary 3 stores a plurality of objects corresponding to one arrangement. The dictionary data (template) for the object created from the sample image will have multiple templates (multi-entries) obtained as a result of applying various geometric transformations, and as a matching result, among these multiple templates, The one that satisfies the statistical standard is selected.

【0033】さらに対象領域抽出辞書3には、対象識別
部9で識別される対象そのもののみを表わすものではな
く、その対象を幾何学的に包含するような領域をおおま
かに表わすような辞書パターンを1つ、または複数含め
てあり、それらのうち最も大きなものから小さなものを
順次選択し、次第に入力画像内の所望対象物の検索領域
を狭めていく。
Further, the target area extraction dictionary 3 does not represent only the target itself identified by the target identification unit 9 but includes a dictionary pattern that roughly represents an area geometrically including the target. One or more of them are included, and the smallest one is selected sequentially from the largest one, and the search area for the desired object in the input image is gradually narrowed.

【0034】したがって上記のような階層的マッチング
を行うために、対象領域抽出辞書3を所望対象物のカテ
ゴリごとに、例えば、図2に示すような階層構成にす
る。各階層ごとに幾何学変換種類数のマルチエントリ辞
書が存在し、上位階層の辞書エントリに続いて下位階層
のより詳細領域の辞書が記述されるが、上位階層のエン
トリには、それに包含される下位階層領域との座標関係
(その階層のパターン重心を原点し画素数を単位とす
る)が記述される。そして、この構成にしたがって、上
位から下位へ順に所望の対象領域を限定していくが、こ
のとき上位階層で所望対象領域を包含する領域が決定さ
れたら、前記下位階層領域との座標関係を参考にし、次
の階層でマッチングすべき領域を絞り込んで、最終的に
所望対象領域を抽出する。
Therefore, in order to perform the above-described hierarchical matching, the target area extraction dictionary 3 has a hierarchical structure as shown in FIG. 2 for each desired object category. There is a multi-entry dictionary of the number of geometric transformation types for each hierarchy, and a dictionary of a more detailed area of the lower hierarchy is described following the dictionary entry of the upper hierarchy, and the entry of the upper hierarchy is included in the dictionary. A coordinate relationship with the lower hierarchical area (the origin of the pattern centroid of the hierarchical level and the number of pixels as a unit) is described. Then, according to this configuration, the desired target area is limited in order from the upper level to the lower level. At this time, when the area including the desired target area in the upper level is determined, the coordinate relationship with the lower level area is referred to. Then, a region to be matched is narrowed down in the next hierarchy, and a desired target region is finally extracted.

【0035】図3に示すフローチャートを参照して対象
領域抽出部4の対象領域抽出処理について説明する。
The target area extraction processing of the target area extraction unit 4 will be described with reference to the flowchart shown in FIG.

【0036】ここである階層ごとの幾何学変換として
は、たとえば対象の画面平面内での回転やサイズなどが
あるので、実際は以下の処理手順となる。
The geometrical transformation for each layer includes, for example, rotation and size in a target screen plane, so that the following processing procedure is actually used.

【0037】撮像部2の出力画像のマッチングによる対
象領域の検索領域を全画面に設定して、対象領域抽出辞
書3の最上位階層(例えば、図2では「階層1」)の辞
書データと撮像部2の出力画像とのマッチングを行う
(ステップS1〜ステップS2)。その際、撮像部2の
出力画像を複数の解像度でそれぞれ縮小して作成された
複数の画像と最上位階層における全ての幾何学変換種類
の辞書データ(幾何変換パターン)とでマッチングを行
う(ステップS3〜ステップS4)。そして、1つの幾
何学変換種類(回転)の辞書データ(ベクトル)と、撮
像部2の出力画像を複数解像度で縮小した画像とのマッ
チングを複数の幾何学変換種類の辞書データに対して行
った結果が前述の統計的基準を最も満たすものを見つけ
る。
The search area of the target area by matching the output image of the image pickup unit 2 is set on the entire screen, and the dictionary data of the highest level (for example, “level 1” in FIG. 2) of the target area extraction dictionary 3 is picked up. Matching with the output image of the unit 2 is performed (steps S1 and S2). At this time, matching is performed between a plurality of images created by reducing the output image of the imaging unit 2 at a plurality of resolutions and dictionary data (geometric conversion patterns) of all geometric conversion types in the highest hierarchy (step). S3 to step S4). Then, matching between dictionary data (vector) of one geometric conversion type (rotation) and an image obtained by reducing the output image of the imaging unit 2 at a plurality of resolutions was performed on dictionary data of a plurality of geometric conversion types. Find the ones whose results best meet the aforementioned statistical criteria.

【0038】マッチングの結果が最良であった(所望領
域の検出された)解像度の画像を選択し、その画像の検
索領域(この場合、全画面)と辞書3内の次階層での検
索領域の相対的位置から次階層の検索領域を取得する
(ステップS5)。すなわち、撮像部2から出力された
画像を上位階層から下位階層へとその各階層の辞書デー
タとマッチングを順次行っていき、その結果に基づき所
望対象物の存在し得る可能性のあるより小さな領域へと
検索領域を絞っていく。
An image having the best matching result (the desired area is detected) is selected, and the search area of the image (in this case, the entire screen) and the search area in the next hierarchy in the dictionary 3 are selected. The search area of the next hierarchy is acquired from the relative position (step S5). That is, the image output from the imaging unit 2 is sequentially matched with the dictionary data of each hierarchy from the upper hierarchy to the lower hierarchy, and based on the result, a smaller area where a desired target object may exist may be obtained. Narrow the search area to.

【0039】そして、この新たな検索領域と次階層の辞
書データとのマッチング処理を、上記ステップS3〜ス
テップS5と同様に、その階層での複数の幾何学変換種
類辞書について行い統計的基準を最も満たすものを見つ
ける。最下位階層にいたるまで上記ステップS3〜ステ
ップS5の処理を繰り返す。
Then, the matching process between the new search area and the dictionary data of the next hierarchy is performed for a plurality of geometric transformation type dictionaries in that hierarchy, as in the above-described steps S3 to S5, and the statistical standard is set to the maximum. Find what meets you. The processes of steps S3 to S5 are repeated until the lowest hierarchical level is reached.

【0040】(5)対象領域抽出辞書3の作成処理 辞書作成部14での対象領域抽出辞書3の作成処理動作
について、図4のフローチャートを参照して説明する。
(5) Processing for Creating Target Area Extraction Dictionary 3 The operation for creating the target area extraction dictionary 3 in the dictionary creation section 14 will be described with reference to the flowchart in FIG.

【0041】ある状況シーンでの複数の画像中のある1
画像(フレーム)について実際識別すべき対象物領域に
外接する領域をユーザ操作部11を介して指定する(ス
テップS11)。
One of a plurality of images in a situation scene
An area circumscribing the target object area to be actually identified in the image (frame) is specified via the user operation unit 11 (step S11).

【0042】上述のある状況シーンでの複数の画像を用
い、それらの画素ごとの対応づけを求め、ユーザ操作部
11を介して指定された指定対象領域のフレーム間での
対応関係(移動ベクトル)を求め、その代表ベクトルU
を求める(ステップS12)。
Using the plurality of images in the above-mentioned situation scene, the correspondence between the pixels is obtained, and the correspondence (movement vector) between the frames of the designated area designated through the user operation unit 11 is obtained. And its representative vector U
Is obtained (step S12).

【0043】指定対象領域を画面内で包含するような領
域のフレーム間での対応関係(移動ベクトル)Uo
(x、y)を求める。ただしx、yは画面内のx、y座
標である(ステップS13)。
Correspondence (movement vector) Uo between frames of an area that includes the specified area in the screen
(X, y) is obtained. Here, x and y are x and y coordinates in the screen (step S13).

【0044】ステップS13で求められた領域内での全
移動ベクトルUo(x、y)に対して、前述のUとの距
離がある閾値Tu以下のものUt(x、y)を求め、各
ベクトルUt(x、y)についての座標(x、y)の外
接領域を求める(ステップS14)。
With respect to all the movement vectors Uo (x, y) in the area determined in step S13, Ut (x, y) having a distance from U equal to or less than a threshold value Tu is determined, and each vector is determined. A circumscribed area of coordinates (x, y) for Ut (x, y) is obtained (step S14).

【0045】ステップS14で求められた外接領域内の
画像パターンを主成分分析する(ステップS15)。
The image pattern in the circumscribed area obtained in step S14 is subjected to principal component analysis (step S15).

【0046】なお、ステップS12での移動ベクトル算
出には、フレーム間での小領域の相関による方法などを
用いてよい(参考文献3:高木、下田、「画像解析ハン
ドブック」 PP.553.)。
The calculation of the movement vector in step S12 may use a method based on the correlation of small areas between frames (Reference 3: Takagi, Shimoda, "Image Analysis Handbook", PP.553.).

【0047】また、ステップS13での閾値Tuは画面
内についてUo(x、y)とUとの差ベクトルのユーク
リッド距離を求め、これを判別分析(参考文献4:大
津、栗田、関田、「パターン認識−理論と応用−」、朝
倉書店 pp65−71、1996.)する方法などを
用いて求めてよい。
The threshold value Tu in step S13 determines the Euclidean distance of the difference vector between Uo (x, y) and U in the screen, and performs discriminant analysis (Ref. 4: Otsu, Kurita, Sekida, "pattern Recognition—Theory and Application— ”, Asakura Shoten, pp. 65-71, 1996.).

【0048】また、ステップS14において外接領域を
求めるためには、Ut(x、y)の各座標の外接矩形を
連結領域ラベリング(参考文献5:高木、下田、「画像
解析ハンドブック」 PP.578.)を用いて求めて
おき、その外接矩形に初期制御点を配置したB−spl
ineスネーク(参考文献6:R.Cipolla、
A.Blake、“the dynamic anal
ysis of apparent cotours”
in proc.3rd int.conf.on c
omputer vision、pp616−623
(1990))を用いて求めるなどしてよい。
Further, in order to obtain the circumscribed area in step S14, the circumscribed rectangle of each coordinate of Ut (x, y) is connected area labeling (Ref. 5: Takagi, Shimoda, "Image Analysis Handbook", PP.578. ), And an initial control point is arranged in the circumscribed rectangle.
ine snake (Reference 6: R. Cipolla,
A. Blake, "the dynamic anal
ysis of apparel coats ”
in proc. 3rd int. conf. on c
output vision, pp 616-623
(1990)).

【0049】また、移動ベクトルの算出のために複数フ
レーム間での対応画素の輝度の相関を用いてもよいし、
各フレーム画像にあらかじめsobel−operat
or(参考文献7:高木、下田、「画像解析ハンドブッ
ク」 PP.553.)などの微分フィルタを施した結
果画像(エッジ強調)の輝度相関を用いてもよい。さら
に所望対象物がある特定色で構成されている場合には、
各フレーム画像をそれら特定色を強調するような表色系
に変換した後、前述のエッジ強調画像を作成してその輝
度相関を用いてもよい。このような例として人物の顔を
抽出するような場合には顔の肌色を強調するような表色
系としてYIQ表色系(参考文献8:高木、下田、「画
像解析ハンドブック」 PP.103.)のI成分を用
いてよい。
Further, the correlation of the luminance of the corresponding pixel among a plurality of frames may be used for calculating the movement vector,
Sobel-operat beforehand for each frame image
or (Reference Document 7: Takagi and Shimoda, “Image Analysis Handbook”, PP.553.), and the like, and the luminance correlation of an image (edge enhancement) obtained by applying a differential filter may be used. Further, if the desired object is composed of a specific color,
After converting each frame image into a color system that emphasizes those specific colors, the above-described edge-emphasized image may be created and its luminance correlation may be used. As an example of such a case, when a human face is extracted, a YIQ color system is used as a color system that emphasizes the skin color of the face (Ref. 8: Takagi and Shimoda, “Image Analysis Handbook”, PP.103. )) May be used.

【0050】さらに、上記説明では、画素ごとの対応づ
けを求めたが対象領域を包含する領域についてあらかじ
め前述のエッジ強調画像を求め、これをある閾値で2値
化したエッジ領域についてフレーム間対応づけを求めて
移動ベクトルを求めるようにしてもよい。
Further, in the above description, the correspondence for each pixel is obtained. However, the above-mentioned edge-enhanced image is obtained in advance for the region including the target region, and the edge region obtained by binarizing the image with a certain threshold is used for frame-to-frame association. May be obtained to obtain the movement vector.

【0051】(6)撮像状況選択部6と撮像状況辞書5 撮像状況選択部6は、撮像状況辞書5を用いて撮像状況
ごとに複数の対象領域抽出辞書3の中から所望対象物の
撮像状況に最適な対象領域抽出辞書を選択(ユーザによ
る選択、自動選択)する。
(6) Imaging situation selection unit 6 and imaging situation dictionary 5 The imaging situation selection unit 6 uses the imaging situation dictionary 5 to select an imaging situation of a desired target object from a plurality of target area extraction dictionaries 3 for each imaging situation. Is selected (selection by the user, automatic selection).

【0052】撮像状況辞書5は、各状況ごとの代表パタ
ーン、およびそれに対応する対象領域抽出辞書3の識別
番号が記述されている。
The imaging situation dictionary 5 describes a representative pattern for each situation and an identification number of the target area extraction dictionary 3 corresponding to the representative pattern.

【0053】まず、辞書作成部14において、撮像状況
辞書5の作成処理動作について、図5に示すフローチャ
ートを参照して説明する。
First, the operation of the dictionary creating section 14 for creating the imaging situation dictionary 5 will be described with reference to the flowchart shown in FIG.

【0054】ある撮像条件下での撮像を開始し、撮像部
2のディジタル出力画像を数枚記憶部12に保存してお
く(ステップS21〜ステップS22)。これについて
統計的に求めた状況の代表パターンを作成する(ステッ
プS23)。ここでの代表パターンの作成は、あるシー
ンについての複数のフレーム画像について前述の部分空
間法(参考文献1)を用いて行う。したがって代表パタ
ーンは1つではなく前述の固有値の数だけ生成可能であ
るが、このうちのあるn個を用いる。
Image pickup under a certain image pickup condition is started, and several digital output images of the image pickup section 2 are stored in the storage section 12 (steps S21 to S22). A representative pattern of the situation statistically obtained for this is created (step S23). The creation of the representative pattern here is performed by using the above-described subspace method (Reference Document 1) for a plurality of frame images of a certain scene. Therefore, not only one representative pattern but the number of the above-described eigenvalues can be generated, and a certain n of them are used.

【0055】このときに、さらに、上記入力画像を用い
て、前述の対象領域抽出辞書の作成処理(図4参照)を
行う(ステップS24)。
At this time, the above-described input image is used to perform the above-described target area extraction dictionary creation processing (see FIG. 4) (step S24).

【0056】ステップS24で作成された対象領域抽出
辞書の識別番号と、ステップS22〜ステップS23の
処理で求められた、その撮像条件下における代表パター
ンとを対応付けて撮像状況辞書に登録し、撮像状況辞書
を作成していく(ステップS25)。
The identification number of the target area extraction dictionary created in step S24 and the representative pattern under the imaging conditions obtained in the processing of steps S22 to S23 are registered in the imaging situation dictionary in association with each other, and the A situation dictionary is created (step S25).

【0057】以上、ステップS21〜ステップS25ま
での処理を使用が想定される状況数行って、状況に対応
した撮像状況辞書5を作成する(ステップS26)。
As described above, the processing from step S21 to step S25 is performed for the number of situations that are assumed to be used, and the imaging situation dictionary 5 corresponding to the situation is created (step S26).

【0058】次に、撮像状況選択部6にて、所望対象物
の撮像状況に最適な対象領域抽出辞書をユーザ選択する
場合について説明する。
Next, a case will be described in which the imaging situation selection unit 6 selects the target area extraction dictionary that is optimal for the imaging situation of the desired object.

【0059】まず、ユーザ選択の場合には、撮像部2の
ディジタル出力画像を数枚記憶部12に保存しておき、
表示部10によってこれを縮小した画像を画面内に一覧
表示する。このとき画面内の別領域には撮像状況辞書5
中の辞書パターンを表示し、ユーザ操作部11を用いて
選択する。なお撮像状況辞書5内の辞書パターンは後述
のように複数の状況シーンの代表パターンである。そし
て、撮像状況選択部6は、この選択された撮像状況辞書
5内の辞書パターンに対応する対象領域抽出辞書3の識
別番号を読み出す。
First, in the case of user selection, several digital output images of the image pickup unit 2 are stored in the storage unit 12, and
The display unit 10 displays a list of reduced images on the screen. At this time, the imaging situation dictionary 5
The inside dictionary pattern is displayed and selected using the user operation unit 11. Note that the dictionary patterns in the imaging situation dictionary 5 are representative patterns of a plurality of situation scenes as described later. Then, the imaging situation selection unit 6 reads the identification number of the target area extraction dictionary 3 corresponding to the dictionary pattern in the selected imaging situation dictionary 5.

【0060】次に、撮像状況選択部6にて対象領域抽出
辞書を自動選択する場合について、図6のフローチャー
トを参照して説明する。
Next, the case where the target area extraction dictionary is automatically selected by the imaging condition selection section 6 will be described with reference to the flowchart of FIG.

【0061】実際の撮像を行う直前に入力複数枚を用い
て、図5のステップS23と同じじ統計手法によって、
その撮像状況下での代表パターンを求める(ステップS
31〜ステップS33)。
Immediately before the actual imaging, a plurality of input images are used and the same statistical method as in step S23 of FIG. 5 is used.
A representative pattern under the imaging condition is obtained (step S
31 to step S33).

【0062】撮像状況辞書5内の各代表パターンとステ
ップS33で求めた現在の撮像状況での代表パターンと
の間の類似度または距離を求め、類似度最大、または距
離最小なる撮像状況辞書5内の代表パターン(辞書パタ
ーン)を選択し、その選択された辞書パターンに対応す
る対象領域抽出辞書3の識別番号を読み出す(ステップ
S35)。以後、実際の撮像動作が開始されたとき、こ
の選択された対象領域抽出辞書3を用いて対象領域抽出
部4で撮像部2から出力された画像から対象領域を抽出
する。
The similarity or distance between each representative pattern in the imaging situation dictionary 5 and the representative pattern in the current imaging situation obtained in step S33 is obtained, and the similarity or maximum distance in the imaging situation dictionary 5 is determined. Is selected, and the identification number of the target area extraction dictionary 3 corresponding to the selected dictionary pattern is read (step S35). Thereafter, when the actual imaging operation is started, the target area extraction unit 4 extracts the target area from the image output from the imaging unit 2 by using the selected target area extraction dictionary 3.

【0063】なお、ステップS34で求める撮像状況辞
書5内の各代表パターンと現在の撮像状況での代表パタ
ーンとの類似度は、例えば、部分空間法(参考文献1参
照)における類似度でもよい。また距離としては上述の
撮像状況辞書5および現在の代表パターンの内のある1
つの代表パターンのうち固有値最大なるもの同士のユー
クリッド距離を用いてもよい。
The similarity between each representative pattern in the imaging situation dictionary 5 obtained in step S34 and the representative pattern in the current imaging situation may be, for example, the similarity in the subspace method (see Reference Document 1). In addition, as the distance, a certain one of the above-described imaging situation dictionary 5 and the current representative pattern is used.
The Euclidean distance between one of the representative patterns having the largest eigenvalue may be used.

【0064】(7)対象物抽出結果の修正 表示部10において、対象領域抽出部4での所望領域抽
出結果を表示した際に、それがユーザの所望のものでな
かった場合に、ユーザ操作部11を介して撮像部2の撮
像パラメータを調整し、さらに所望領域選択を行う。つ
ぎに、このときのユーザの調整量と対象領域抽出部4に
おけるその時のマッチング結果、およびマッチング時に
使用した対象領域抽出辞書3の代表パターンの番号Di
とを記憶部12に一時的に保存する。
(7) Correction of Object Extraction Result When the display of the desired region extraction result by the target region extraction unit 4 on the display unit 10 is not desired by the user, the user operation unit The imaging parameters of the imaging unit 2 are adjusted via the interface 11 and a desired area is selected. Next, the adjustment amount of the user at this time, the matching result at that time in the target area extraction unit 4, and the number Di of the representative pattern of the target area extraction dictionary 3 used at the time of matching.
Are temporarily stored in the storage unit 12.

【0065】辞書作成部14では、記憶部12に記憶さ
れた上述の内容をもとに、以下のように撮像調整パラメ
ータ辞書16を作成する。以下、図7に示すフローチャ
ートを参照して説明する。
The dictionary creating unit 14 creates the imaging adjustment parameter dictionary 16 as described below based on the above-mentioned contents stored in the storage unit 12. Hereinafter, description will be made with reference to the flowchart shown in FIG.

【0066】ある1つの対象領域抽出辞書3の代表パタ
ーンDiについての複数の修正操作に対応したマッチン
グ結果ベクトルVmiを統計的に尤もらしいk個のクラ
スにあらかじめ分類しておき各クラスごとにその代表ベ
クトルパターンVmkを求める(ステップS41〜ステ
ップS42)。ただし、Vmiはここでは前述の対象領
域抽出における類似度、または代表パターンとの距離最
大なる領域として抽出された領域、およびそのときの類
似度または距離の組をベクトルの要素としたものであ
る。またクラス分類にはクラスタリング手法として一般
に知られているK−平均アルゴリズム(参考文献9:高
木、下田、「画像解析ハンドブック」 PP.65
0.)などを使用して差し支えない。
The matching result vectors Vmi corresponding to a plurality of correction operations on the representative pattern Di of a certain target region extraction dictionary 3 are classified in advance into k classes that are statistically likely, and each class has its representative vector Vmi. A vector pattern Vmk is obtained (steps S41 to S42). Here, Vmi is a vector element using a set of the similarity in the above-described target area extraction or the area extracted as the area having the maximum distance from the representative pattern and the similarity or distance at that time. For class classification, a K-means algorithm generally known as a clustering method (Ref. 9: Takagi and Shimoda, “Image Analysis Handbook”, PP.65)
0. ) Can be used.

【0067】代表ベクトルパターンVmkのそれぞれと
もっとも距離の近いクラスk内のマッチング結果ベクト
ルVmkiに対応する修正操作パラメータVpkiを求
め(ステップS43)、対象領域抽出辞書3の代表パタ
ーン番号Di、マッチング結果代表ベクトルVmk、お
よび修正操作パラメータベクトルVpkiとを対応させ
て撮像調整パラメータ辞書16に登録する(ステップS
44)。
The correction operation parameter Vpki corresponding to the matching result vector Vmki in the class k closest to each of the representative vector patterns Vmk is obtained (step S43), and the representative pattern number Di of the target area extraction dictionary 3 and the matching result representative The vector Vmk and the correction operation parameter vector Vpki are registered in the imaging adjustment parameter dictionary 16 in association with each other (Step S).
44).

【0068】なお、VmkとVmkiとの距離としては
ユークリッド距離やマハラノビス距離(参考文献10:
高木、下田、「画像解析ハンドブック」 PP.65
4.)などを用いてよい。
The distance between Vmk and Vmki is Euclidean distance or Mahalanobis distance (see Reference 10:
Takagi, Shimoda, "Image Analysis Handbook" PP. 65
4. ) May be used.

【0069】自動撮像調整部17では、撮像調整パラメ
ータ辞書16を用いて、以下のように撮像調整パラメー
タを取得し、撮像パラメータの自動調整を行う。以下、
図8に示すフローチャートを参照して、自動撮像調整部
17の撮像調整処理動作について説明する。
The automatic imaging adjustment section 17 obtains the imaging adjustment parameters as described below using the imaging adjustment parameter dictionary 16 and automatically adjusts the imaging parameters. Less than,
The imaging adjustment processing operation of the automatic imaging adjustment unit 17 will be described with reference to the flowchart shown in FIG.

【0070】撮像により対象領域抽出辞書3を選択し、
その中で、現在使用されている代表パターンの番号Di
を取得する(ステップS51)。
The target area extraction dictionary 3 is selected by imaging,
Among them, the number Di of the representative pattern currently used is
Is acquired (step S51).

【0071】現在の対象領域抽出結果からマッチング結
果ベクトルVmtを求め(ステップS52)、撮像調整
パラメータ辞書16内で領域抽出辞書の代表パターン番
号Diに相当するk個のクラスのマッチング結果代表ベ
クトルパターンVmj(j=1、…k)とVmtとの距
離を求め距離最小なるクラスjを求める(ステップS5
3〜ステップS54)。
A matching result vector Vmt is obtained from the current target region extraction result (step S52), and a matching result representative vector pattern Vmj of k classes corresponding to the representative pattern number Di of the region extraction dictionary in the imaging adjustment parameter dictionary 16 is obtained. The distance between (j = 1,... K) and Vmt is determined, and the class j with the minimum distance is determined (step S5).
3 to Step S54).

【0072】クラスjに相当する撮像調整パラメータベ
クトルVpjを撮像調整パラメータ辞書16内で領域抽
出辞書の代表パターン番号Diに相当する辞書から求め
る(ステップS55)。
The imaging adjustment parameter vector Vpj corresponding to the class j is obtained from the dictionary corresponding to the representative pattern number Di of the area extraction dictionary in the imaging adjustment parameter dictionary 16 (step S55).

【0073】ステップS55で求めた撮像調整パラメー
タベクトルVpjにしたがって撮像系の調整操作を自動
的に行い(ステップS55)、その結果画像を表示部1
0によってユーザに提示し(ステップS56)、さらに
提示結果に対してユーザの了解がユーザ操作部11から
得られた場合には調整操作結果を対象領域抽出結果とす
る(ステップS58)。
An adjustment operation of the imaging system is automatically performed according to the imaging adjustment parameter vector Vpj obtained in step S55 (step S55), and the resulting image is displayed on the display unit 1.
0 is presented to the user (step S56), and when the user's consent is obtained from the user operation unit 11 with respect to the presentation result, the adjustment operation result is set as the target area extraction result (step S58).

【0074】このように、対象領域抽出部4の抽出結果
を表示部10に表示し、それがユーザの所望のものでな
かった場合に、ユーザがマニュアルで撮像部2の撮像パ
ラメータを調整し、所望領域選択を行うことを可能とす
るユーザ操作部11を具備し、ユーザの調整操作量と対
象領域抽出部4におけるその時のマッチング結果、およ
びマッチング時に使用した対象領域抽出辞書とを関連付
けて記憶しておき、自動撮像調整部17は、別の撮像時
において前記記憶されている辞書を用いたマッチング結
果に対し、ある評価に基づいて近い結果が得られた場合
に記憶されている調整操作を自動的に行い、その結果を
ユーザに提示し、さらに提示結果に対してユーザの了解
が得られた場合には上記調整操作結果を対象領域抽出結
果とする。
As described above, the extraction result of the target area extraction unit 4 is displayed on the display unit 10, and if the extraction result is not the one desired by the user, the user manually adjusts the imaging parameters of the imaging unit 2, A user operation unit 11 that enables selection of a desired region is provided, and the user's adjustment operation amount, the matching result at that time in the target region extraction unit 4, and the target region extraction dictionary used at the time of matching are stored in association with each other. In addition, the automatic imaging adjustment unit 17 automatically adjusts the stored adjustment operation when a similar result is obtained based on a certain evaluation with respect to the matching result using the stored dictionary during another imaging. The result is presented to the user, and when the user's consent is obtained with respect to the presentation result, the result of the adjustment operation is set as the target area extraction result.

【0075】また、ユーザが調整操作を行う場合が複数
にわたることがある場合について、ユーザの調整操作量
と対象領域抽出部4における各調整操作時のマッチング
結果、およびマッチングに使用した辞書とを関連付けて
記憶しておくが、ある1つのマッチング辞書についての
複数の修正操作に対応したマッチング結果を統計的に尤
もらしい数のクラスにあらかじめ分類しておき、あらた
な別の撮像時に対象領域抽出部4でのその時点のマッチ
ング結果にある評価基準に基づいて最も近い前記記憶済
み結果クラスの代表値を求め、それと関連付けられて記
憶されている調整操作を行った結果をユーザに提示し、
さらに結果に対してユーザの了解が得られた場合には上
記調整操作結果を対象領域抽出結果とする。
In a case where the user performs an adjustment operation in a plurality of cases, the user's adjustment operation amount is associated with the matching result of each adjustment operation in the target area extraction unit 4 and the dictionary used for the matching. The matching results corresponding to a plurality of correction operations on a certain matching dictionary are classified in advance into statistically plausible numbers of classes, and the target area extracting unit 4 is used for new imaging. Finding the closest representative value of the stored result class based on the evaluation criteria in the matching result at that point in time, presenting to the user the result of performing the adjustment operation stored in association with it,
When the user's consent is obtained for the result, the result of the adjustment operation is set as the target area extraction result.

【0076】(8)幾何変換部7 幾何変換部7では、対象領域抽出部4で所望対象領域候
補であることが確定した領域について、あらかじめ対象
識別辞書8に設定されていた標準所望対象領域に対し
て、どの程度の幾何変形を受けたものなのかを2次元平
面内の幾何変換で近似する。
(8) Geometric Transformation Unit 7 The geometric transformation unit 7 converts a region determined to be a desired target region candidate by the target region extraction unit 4 into a standard desired target region previously set in the target identification dictionary 8. On the other hand, the degree of the geometric deformation is approximated by a geometric transformation in a two-dimensional plane.

【0077】幾何変換の一般形は射影変換であり、入力
(X Y w)に対する、出力 (X*** )への
写像は以下のような線形方程式で表される。
The general form of the geometric transformation is a projective transformation, and the mapping of the input (XY w) to the output (X * Y * w * ) is represented by the following linear equation.

【0078】[0078]

【数1】 ここでは、入力を標準所望対象領域の外接多角形座標、
出力を対象領域抽出部4にて抽出された対象領域候補の
外接多角形座標とし、2次元平面内での歪みは少ないと
仮定して、(1)(2)(3)式を以下のAffine
変換で近似する。
(Equation 1) Here, the input is the circumscribed polygon coordinates of the standard desired target area,
The output is assumed to be the circumscribed polygon coordinates of the target area candidate extracted by the target area extraction unit 4, and the equations (1), (2), and (3) are converted into the following Affine assuming that the distortion in the two-dimensional plane is small.
Approximate by transformation.

【0079】[0079]

【数2】 ここに(x、y)は標準所望対象領域の外接矩形の各頂
点座標であり、(x*、y* )は対象領域抽出部4で抽
出された領域候補の外接矩形の各頂点座標であり、この
方程式を解くために少なくとも3頂点を要する。
(Equation 2) Here, (x, y) are the coordinates of each vertex of the circumscribed rectangle of the standard desired target area, and (x * , y * ) are the coordinates of each vertex of the circumscribed rectangle of the area candidate extracted by the target area extraction unit 4. , It takes at least three vertices to solve this equation.

【0080】次に(4)式の写像の各係数にしたがって
座標変換し、標準所望対象領域候内の全画素に対応する
対象抽出領域中の各画素を取得すると、それは対象抽出
領域に対して幾何学逆変換をかけたものとなり、外接形
状は標準所望対象領域とほぼ等しくなる。
Next, when the coordinates are transformed according to the coefficients of the mapping of the equation (4) to obtain the respective pixels in the target extraction area corresponding to all the pixels in the standard desired target area, it is determined that the target extraction area The circumscribed shape is substantially equal to the standard desired target area.

【0081】以上のように求められた幾何学逆変換画像
に対して、後述の対象識別部9での識別処理を行う。
The identification processing performed by the object identification section 9 described below is performed on the geometric inverse transformed image obtained as described above.

【0082】(9)対象識別部9 対象識別部9においては、あらかじめ対象識別辞書8に
登録されている標準所望対象パターンとの照合演算によ
って、入力画像が所望対象であるかどうかを識別する。
この場合、幾何変換部7で求められた幾何学逆変換画像
と、標準所望領域パターンとの照合演算を行なって識別
する。この場合の照合演算には部分空間法(参考文献1
参照)などを用いてよい。
(9) Object Identification Unit 9 The object identification unit 9 identifies whether or not the input image is a desired object by performing a collation operation with a standard desired object pattern registered in the object identification dictionary 8 in advance.
In this case, identification is performed by performing a collation operation between the geometric inverse transform image obtained by the geometric transform unit 7 and the standard desired area pattern. The matching operation in this case is based on the subspace method (Ref.
Reference) etc. may be used.

【0083】対象識別辞書8の構成は、照合演算に部分
空間法(参考文献1参照)を用いるとすると、所望対象
に対しさまざまに変化(光学的、幾何学的など)した複
数サンプルパターンをベクトルで表現し、それらの分散
共分散行列(または相関行列)を主成分分析した結果の
固有ベクトルを固有値の大きい順にならべた行列形式で
表現されるが、その他として辞書作成に使用したサンプ
ルパターン画像領域を囲む外接矩形(または外接多角
形)座標を点列データとして持つ。
The structure of the object identification dictionary 8 is such that if the subspace method (see Reference 1) is used for the collation operation, a plurality of sample patterns variously changed (optically, geometrically, etc.) with respect to a desired object are vectorized. And the eigenvectors of the results of principal component analysis of those variance-covariance matrices (or correlation matrices) are expressed in a matrix format in which the eigenvalues are arranged in descending order of eigenvalues. It has the coordinates of the surrounding circumscribed rectangle (or circumscribed polygon) as point sequence data.

【0084】ここで、辞書中の点列データは、幾何変換
部7で幾何変換パラメータを算出するために用いるもの
であり、その作り方は各サンプルパターン画像を囲むよ
うな外接矩形(または外接多角形)の頂点の座標列を以
下のようにベクトルとして表現した場合にそれらベクト
ルの全サンプルパターンについての統計的代表ベクトル
を求めたものである。ただし代表ベクトルの算出にはさ
まざまな手法があるが、ここでは以下のように平均、主
成分分析などを用いて良い。各サンプルパターン周囲の
点列数は一定でnだとし、サンプル数はMとすると、サ
ンプルパターンiでの点列ベクトルPiは Pi=(x1i、x2i、…xni、y1i、y2i、
…yni) と表わされる(但し、i=1、…M)。
Here, the point sequence data in the dictionary is used for calculating the geometric transformation parameters in the geometric transformation section 7, and the way of producing the data is a circumscribed rectangle (or circumscribed polygon) surrounding each sample pattern image. When the coordinate sequence of the vertices in ()) is expressed as vectors as follows, statistical representative vectors for all sample patterns of those vectors are obtained. However, there are various methods for calculating the representative vector. Here, an average, a principal component analysis, or the like may be used as described below. Assuming that the number of point sequences around each sample pattern is constant and n, and the number of samples is M, the point sequence vector Pi in the sample pattern i is Pi = (x1i, x2i,... Xni, y1i, y2i,
... Yni) (where i = 1,... M).

【0085】これら各ベクトルにサンプル数について平
均Paを辞書登録する点列データとする場合
When the average Pa of the number of samples in each of these vectors is used as point sequence data to be registered in a dictionary

【0086】[0086]

【数3】 で示される。(Equation 3) Indicated by

【0087】また、主成分分析を用いる場合では全Pi
に関してnxn次元の分散共分散行列Mpを求め、これ
に対して固有値λjと固有ベクトルVi(ただしi=
1、…n)を求め、そのうち最大固有値に対応する固有
ベクトルをVimaxとし、このVimaxを辞書登録
する点列データとする。 (10)効果 以上説明したように、上記実施形態によれば、あらかじ
め撮像状況や撮像対象に対するおおまかな知識を辞書と
して保有し所望のものらしいかどうかを判定しながら撮
像するので、大量の画像データを収集する必要が軽減さ
れる。また撮像、所望画像領域の選択、対象の識別を一
体型の装置のみで実行可能な構成としたことで、とくに
可搬型の用途に使用することができる。また撮像手段と
対象領域抽出手段とは同一LSI上に形成されたもので
あるためこの部分のみを別用途、たとえば所望対象に類
似の画像のみを出力するカメラやハンディVCRなどを
作成することに容易に転用できる。さらに、もし所望の
対象がうまく抽出できなかった場合にユーザが抽出が可
能となるようにパラメータの調整を可能とし、さらにそ
の場合、領域抽出時の調整パラメータを学習し、別の機
会の撮像時にはこれを使用して自動的に所望対象をより
良く抽出し識別することを可能とするため、撮影条件の
変動にも徐々に耐えるようになるとともに、装置性能の
メンテナンスをする頻度が減少する。
When the principal component analysis is used, all Pi
, An nxn dimensional variance-covariance matrix Mp is obtained, and an eigenvalue λj and an eigenvector Vi (where i =
1,... N), and the eigenvector corresponding to the largest eigenvalue is Vimax, and this Vimax is point sequence data to be registered in the dictionary. (10) Effects As described above, according to the above-described embodiment, a large amount of image data is stored because rough knowledge about the imaging situation and the imaging target is held in advance as a dictionary and images are determined while judging whether or not it is desired. The need to collect is reduced. Further, by adopting a configuration in which imaging, selection of a desired image area, and identification of an object can be performed only by an integrated device, the device can be used particularly for portable use. Further, since the imaging means and the target area extracting means are formed on the same LSI, only this part can be easily used for another purpose, such as a camera or a handy VCR which outputs only an image similar to a desired target. Can be diverted to Furthermore, if the desired target is not successfully extracted, it is possible to adjust the parameters so that the user can extract, and in that case, the adjustment parameters at the time of region extraction are learned, and when imaging at another opportunity, By using this, it is possible to automatically extract and identify a desired target automatically, so that it is possible to gradually endure fluctuations in imaging conditions and to reduce the frequency of maintenance of device performance.

【0088】[0088]

【発明の効果】以上説明したように、本発明によれば、
撮像対象物の撮像状況に応じてその撮像対象物が所望の
ものであるか否かを判定しながら確実に所望の撮像対象
物を撮像することができる。
As described above, according to the present invention,
A desired imaging target can be reliably imaged while determining whether or not the imaging target is a desired one according to the imaging state of the imaging target.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本装置の実施形態にかかる撮像装置の構成例を
示した図。
FIG. 1 is a diagram showing a configuration example of an imaging apparatus according to an embodiment of the present apparatus.

【図2】対象領域抽出辞書の構成例を示した図。FIG. 2 is a diagram showing a configuration example of a target area extraction dictionary.

【図3】対象領域抽出部の処理動作を説明するためのフ
ローチャート。
FIG. 3 is a flowchart illustrating a processing operation of a target area extraction unit.

【図4】辞書作成部における対象領域抽出辞書の作成処
理動作を説明するためのフローチャート。
FIG. 4 is a flowchart for explaining an operation of creating a target area extraction dictionary in the dictionary creating unit.

【図5】辞書作成部における撮像状況辞書の作成処理動
作を説明するためのフローチャート。
FIG. 5 is a flowchart illustrating an operation of creating a shooting situation dictionary in the dictionary creating unit.

【図6】撮像状況選択部の処理動作を説明するためのフ
ローチャート。
FIG. 6 is a flowchart illustrating a processing operation of an imaging situation selection unit.

【図7】辞書作成部における撮像調整パラメータ辞書の
作成処理動作を説明するためのフローチャート。
FIG. 7 is a flowchart for explaining the operation of a dictionary creation unit for creating an imaging adjustment parameter dictionary.

【図8】自動撮像調整部の処理動作を説明するためのフ
ローチャート。
FIG. 8 is a flowchart illustrating a processing operation of an automatic imaging adjustment unit.

【符号の説明】[Explanation of symbols]

1…画像入力部 2…撮像部 3…対象領域抽出辞書 4…対象領域抽出部 5…撮像状況辞書 6…撮像状況選択部 7…幾何変換部 8…対象識別辞書 9…対象識別部 10…表示部 11…ユーザ操作部 12…記憶部 13…データ入出力部 14…辞書作成部 16…撮像調整パラメータ辞書 17…自動撮像調整部 DESCRIPTION OF SYMBOLS 1 ... Image input part 2 ... Imaging part 3 ... Target area extraction dictionary 4 ... Target area extraction part 5 ... Imaging situation dictionary 6 ... Imaging situation selection part 7 ... Geometric conversion part 8 ... Object identification dictionary 9 ... Object identification part 10 ... Display Unit 11: User operation unit 12: Storage unit 13: Data input / output unit 14: Dictionary creation unit 16: Imaging adjustment parameter dictionary 17: Automatic imaging adjustment unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 画像を取り込む画像取込手段と、 前記画像中の対象物の像域を検索するための該対象物の
像域を包含して階層的な包含関係にある複数の検索領域
のそれぞれの特徴情報を登録した対象領域抽出辞書と、 この対象領域抽出辞書に登録された各階層の検索領域の
特徴情報と前記画像取込手段で取り込まれた画像とを比
較して、該対象物の像域を抽出する対象領域抽出手段
と、 前記対象物の特徴情報を登録した対象識別辞書と、 この対象識別辞書に登録された特徴情報と、前記対象領
域抽出手段で抽出された前記対象物の像域とを比較して
前記対象物を識別する対象識別手段と、 前記対象領域抽出手段で抽出された前記対象物の像域お
よび前記対象識別手段での識別結果を表示する表示手段
と、 を具備したことを特徴とする撮像装置。
1. An image capturing means for capturing an image, comprising: a plurality of search areas which include an image area of the object for searching for an image area of the object in the image and have a hierarchical inclusion relationship. The target area extraction dictionary in which each feature information is registered is compared with the feature information of the search area of each layer registered in the target area extraction dictionary and the image captured by the image capturing means. Target area extracting means for extracting an image area of the target object; a target identification dictionary in which feature information of the target object is registered; feature information registered in the target identification dictionary; and the target object extracted by the target area extracting means. Object identification means for comparing the image area with the object to identify the object, display means for displaying the image area of the object extracted by the object area extraction means and the identification result in the object identification means, Imaging device characterized by comprising: Place.
【請求項2】 画像を取り込む画像取込手段と、 前記画像を取り込む際の環境条件に応じて、該画像中に
対象物の像域を検索するための該対象物の像域を包含し
て階層的な包含関係にある複数の検索領域のそれぞれの
特徴情報を登録した複数の対象領域抽出辞書と、 前記取込手段で取り込まれた画像に基づき前記複数の対
象領域抽出辞書のうちの1つを選択する選択手段と、 この選択手段で選択された対象領域抽出辞書に登録され
ている各階層の検索領域の特徴情報と前記画像取込手段
で取り込まれた画像とを比較して、前記対象物の像域を
抽出する対象領域抽出手段と、 前記対象物の特徴情報を登録した対象識別辞書と、 この対象識別辞書に登録された特徴情報と前記対象領域
抽出手段で抽出された前記対象物の像域とを比較して前
記対象物を識別する対象識別手段と、 前記対象領域抽出手段で抽出された前記対象物の像域お
よび前記対象識別手段での識別結果を表示する表示手段
と、 を具備したことを特徴とする撮像装置。
2. An image capturing means for capturing an image, and an image area of the object for searching for an image area of the object in the image according to an environmental condition at the time of capturing the image. A plurality of target area extraction dictionaries in which respective feature information of a plurality of search areas having a hierarchical inclusion relationship are registered; and one of the plurality of target area extraction dictionaries based on the image captured by the capturing means. And comparing the feature information of the search area of each hierarchy registered in the target area extraction dictionary selected by the selection means with the image captured by the image capturing means, and selecting the target Target area extracting means for extracting an image area of an object; a target identification dictionary in which feature information of the target is registered; feature information registered in the target identification dictionary; and the target extracted by the target area extracting means The image area of An image pickup apparatus comprising: a target identifying unit that identifies an object; and a display unit that displays an image area of the target extracted by the target region extracting unit and a result of identification performed by the target identifying unit. .
【請求項3】 画像を取り込む画像取込手段と、 前記画像を取り込む際の環境条件に応じて、該画像中に
対象物の像域を検索するための該対象物の像域を包含し
て階層的な包含関係にある複数の検索領域のそれぞれの
特徴情報を登録した複数の対象領域抽出辞書と、 前記環境条件に対応した前記画像の特徴情報と前記対象
領域抽出辞書の識別子を登録した環境条件辞書と、 この環境条件辞書に登録されている特徴情報と前記取込
手段で取り込まれた画像とを比較して前記複数の対象領
域抽出辞書のうちの1つを選択する選択手段と、 この選択手段で選択された対象領域抽出辞書に登録され
ている各階層の検索領域の特徴情報と前記画像取込手段
で取り込まれた画像とを比較して、前記対象物の像域を
抽出する対象領域抽出手段と、 前記対象物の特徴情報を登録した対象識別辞書と、 この対象識別辞書に登録された特徴情報と前記対象領域
抽出手段で抽出された前記対象物の像域とを比較して前
記対象物を識別する対象識別手段と、 前記対象領域抽出手段で抽出された前記対象物の像域お
よび前記対象識別手段での識別結果を表示する表示手段
と、 を具備したことを特徴とする撮像装置。
3. An image capturing means for capturing an image, and an image area of the object for retrieving an image area of the object in the image according to environmental conditions at the time of capturing the image. A plurality of target area extraction dictionaries in which respective feature information of a plurality of search areas having a hierarchical inclusion relationship are registered; and an environment in which feature information of the image corresponding to the environmental condition and an identifier of the target area extraction dictionary are registered. A condition dictionary, and selecting means for comparing characteristic information registered in the environmental condition dictionary with an image captured by the capturing means and selecting one of the plurality of target area extraction dictionaries; A target for extracting the image area of the target object by comparing the characteristic information of the search area of each hierarchy registered in the target area extraction dictionary selected by the selection means with the image captured by the image capturing means. Region extraction means, the object And a target identification dictionary for identifying the target by comparing the characteristic information registered in the target identification dictionary with the image area of the target extracted by the target region extracting means. Means for displaying an image area of the object extracted by the target area extracting means and a result of identification by the object identifying means.
【請求項4】 前記対象領域抽出手段は、上位階層から
下位階層へと前記検索領域を絞り込んで前記対象物の像
域を抽出することを特徴とする請求項1から3のいずれ
か1つに記載の撮像装置。
4. The apparatus according to claim 1, wherein the target area extracting unit extracts the image area of the target object by narrowing the search area from a higher hierarchy to a lower hierarchy. An imaging device according to any one of the preceding claims.
【請求項5】 前記画像取込手段で取り込まれた複数の
画像のうちの1つに指定された前記対象物の像域の外接
輪郭内部と前記複数の画像との間の画素毎の対応関係に
基づき、前記対象物の像域を包含して階層的な包含関係
にある複数の検索領域を求め、その複数の検索領域のそ
れぞれの特徴情報を前記階層的な包含関係に従って登録
して前記対象領域抽出辞書を作成する辞書作成手段を具
備したことを特徴とする請求項1記載の撮像装置。
5. A pixel-by-pixel correspondence between an inside of a circumscribed contour of an image area of the object designated as one of a plurality of images captured by the image capturing means and the plurality of images. A plurality of search areas in a hierarchical inclusion relationship including the image area of the target object, and registering the characteristic information of each of the plurality of search areas in accordance with the hierarchical inclusion relationship, 2. The imaging apparatus according to claim 1, further comprising a dictionary creating unit that creates an area extraction dictionary.
【請求項6】 前記画像取込手段で取り込まれた複数の
画像のうちの1つに指定された前記対象物の像域の外接
輪郭内部と前記複数の画像との間の画素毎の輝度に基づ
く対応関係に基づき、前記対象物の像域を包含して階層
的な包含関係にある複数の検索領域を求め、その複数の
検索領域のそれぞれの特徴情報を前記階層的な包含関係
に従って登録して前記対象領域抽出辞書を作成する辞書
作成手段を具備したことを特徴とする請求項1記載の撮
像装置。
6. The luminance of each pixel between an inside of a circumscribed contour of an image area of the object designated as one of a plurality of images captured by the image capturing means and the plurality of images. Based on the corresponding relationship, a plurality of search areas that include the image area of the object and have a hierarchical inclusion relationship are obtained, and the characteristic information of each of the plurality of search areas is registered according to the hierarchical inclusion relationship. 2. The imaging apparatus according to claim 1, further comprising a dictionary creating unit that creates the target area extraction dictionary.
【請求項7】 前記画像取込手段で画像を取り込む際の
環境条件を変えて、その各環境条件下で、該取り込まれ
た複数の画像のうちの1つに指定された前記対象物の像
域の外接輪郭内部と前記複数の画像との間の画素毎の対
応関係に基づき、前記対象物の像域を包含して階層的な
包含関係にある複数の検索領域を求め、その複数の検索
領域のそれぞれの特徴情報を前記階層的な包含関係に従
って登録して、前記環境条件に対応した対象領域抽出辞
書を作成する第1の辞書作成手段を具備したことを特徴
とする請求項2または3記載の撮像装置。
7. An image of the object designated as one of the plurality of captured images under each environmental condition by changing environmental conditions when the image is captured by the image capturing means. A plurality of search regions in a hierarchical inclusion relationship including the image region of the object are determined based on the pixel-by-pixel correspondence between the inside of the circumscribed contour of the region and the plurality of images. 4. The apparatus according to claim 2, further comprising: first dictionary creating means for registering feature information of each area according to the hierarchical inclusion relation and creating a target area extraction dictionary corresponding to the environmental condition. An imaging device according to any one of the preceding claims.
【請求項8】 前記画像取込手段で画像を取り込む際の
環境条件を変えて、その各環境条件下で、該取り込まれ
た複数の画像のうちの1つに指定された前記対象物の像
域の外接輪郭内部と前記複数の画像との間の画素毎の輝
度に基づく対応関係に基づき、前記対象物の像域を包含
して階層的な包含関係にある複数の検索領域を求め、そ
の複数の検索領域のそれぞれの特徴情報を前記階層的な
包含関係に従って登録して、前記環境条件に対応した対
象領域抽出辞書を作成する第1の辞書作成手段を具備し
たことを特徴とする請求項2または3記載の撮像装置。
8. An image of the object designated as one of the plurality of captured images under each environmental condition by changing an environmental condition when the image is captured by the image capturing means. Based on the correspondence based on the brightness of each pixel between the inside of the circumscribed contour of the area and the plurality of images, a plurality of search areas in a hierarchical inclusion relationship including the image area of the object are obtained, A first dictionary creating means for registering feature information of each of a plurality of search areas according to the hierarchical inclusion relation and creating a target area extraction dictionary corresponding to the environmental condition. 4. The imaging device according to 2 or 3.
【請求項9】 異なる環境条件の下で取り込まれた複数
の画像に基づき、各環境条件に対応した画像の特徴情報
を抽出し、この抽出された各環境条件に対応した画像の
特徴情報とそれに対応する前記対象領域抽出辞書の識別
子とを登録して前記環境条件辞書を作成する第2の辞書
作成手段を具備したことを特徴とする請求項3記載の撮
像装置。
9. Based on a plurality of images captured under different environmental conditions, feature information of an image corresponding to each environmental condition is extracted. 4. The imaging apparatus according to claim 3, further comprising a second dictionary creating unit that creates the environmental condition dictionary by registering a corresponding identifier of the target area extraction dictionary.
【請求項10】 前記画像取込手段で画像を取り込む際
の環境条件を変えて、その各環境条件下で、該取り込ま
れた複数の画像のうちの1つに指定された前記対象物の
像域の外接輪郭内部と前記複数の画像との間の画素毎の
対応関係に基づき、前記対象物の像域を包含して階層的
な包含関係にある複数の検索領域を求め、その複数の検
索領域のそれぞれの特徴情報を前記階層的な包含関係に
従って登録して、前記環境条件に対応した対象領域抽出
辞書を作成する第1の辞書作成手段と、 前記対象領域抽出辞書を作成する際に前記画像取込手段
で異なる環境条件の下で取り込まれた複数の画像から各
環境条件に対応した画像の特徴情報を抽出し、この抽出
された各環境条件に対応した画像の特徴情報とそれに対
応する前記対象領域抽出辞書の識別子とを登録して前記
環境条件辞書を作成する第2の辞書作成手段と、 を具備したことを特徴とする3記載の撮像装置。
10. An image of the object designated as one of the plurality of captured images under each environmental condition by changing an environmental condition when the image is captured by the image capturing means. A plurality of search regions in a hierarchical inclusion relationship including the image region of the object are determined based on the pixel-by-pixel correspondence between the inside of the circumscribed contour of the region and the plurality of images. First dictionary creating means for registering feature information of each area according to the hierarchical inclusion relationship and creating a target area extraction dictionary corresponding to the environmental condition; Image characteristic information of an image corresponding to each environmental condition is extracted from a plurality of images captured under different environmental conditions by image capturing means, and the extracted characteristic information of the image corresponding to each environmental condition and the corresponding characteristic information of the image are extracted. Knowledge of the target area extraction dictionary The imaging apparatus according 3, characterized by comprising a second dictionary creation means for creating said environmental condition dictionary and registers the child, the.
【請求項11】 前記表示手段に表示された画像に基づ
き指示された画像領域と前記画像取込手段の画像取込パ
ラメータの調整量とに基づき、前記画像取込手段の画像
取込パラメータを調整する調整手段を具備したことを特
徴とする請求項1〜3のいずれか1つに記載の撮像装
置。
11. An image capturing parameter of the image capturing unit is adjusted based on an image area specified based on an image displayed on the display unit and an adjustment amount of the image capturing parameter of the image capturing unit. The imaging device according to any one of claims 1 to 3, further comprising an adjustment unit configured to perform the adjustment.
【請求項12】 前記対象領域抽出手段は、前記画像取
込手段で取り込まれた画像を画素単位にランダムアクセ
スして前記検索領域の画像を取得することを特徴とする
請求項1〜3のいずれか1つに記載の撮像装置。
12. The image processing apparatus according to claim 1, wherein the target area extracting unit obtains an image of the search area by randomly accessing an image captured by the image capturing unit on a pixel-by-pixel basis. The imaging device according to any one of the above.
JP9275128A 1997-09-22 1997-09-22 Image pickup device Pending JPH1196373A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9275128A JPH1196373A (en) 1997-09-22 1997-09-22 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9275128A JPH1196373A (en) 1997-09-22 1997-09-22 Image pickup device

Publications (1)

Publication Number Publication Date
JPH1196373A true JPH1196373A (en) 1999-04-09

Family

ID=17551100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9275128A Pending JPH1196373A (en) 1997-09-22 1997-09-22 Image pickup device

Country Status (1)

Country Link
JP (1) JPH1196373A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036439A (en) * 2001-07-23 2003-02-07 Minolta Co Ltd Device, method and program for extracting image
JP2005215899A (en) * 2004-01-28 2005-08-11 Yamaha Motor Co Ltd Object detector and its method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036439A (en) * 2001-07-23 2003-02-07 Minolta Co Ltd Device, method and program for extracting image
JP4665355B2 (en) * 2001-07-23 2011-04-06 コニカミノルタホールディングス株式会社 Image extraction apparatus, image extraction method, and image extraction program
JP2005215899A (en) * 2004-01-28 2005-08-11 Yamaha Motor Co Ltd Object detector and its method

Similar Documents

Publication Publication Date Title
US9881231B2 (en) Using extracted image text
Chen et al. Automatic detection and recognition of signs from natural scenes
US8121348B2 (en) Object detection apparatus, method and program
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
JP4479478B2 (en) Pattern recognition method and apparatus
US20080166016A1 (en) Fast Method of Object Detection by Statistical Template Matching
US10721431B2 (en) Method for estimating a timestamp in a video stream and method of augmenting a video stream with information
JP2010507139A (en) Face-based image clustering
KR20100124738A (en) Automatic redeye detection
US10762372B2 (en) Image processing apparatus and control method therefor
JP4946878B2 (en) Image identification apparatus and program
Galiyawala et al. Person retrieval in surveillance video using height, color and gender
US6847379B2 (en) Display of static digital images
JP3814353B2 (en) Image segmentation method and image segmentation apparatus
JP3252941B2 (en) Image segmentation recognition device
JP3774495B2 (en) Image information extracting apparatus and method
JP2002133413A (en) Method and device for identifying three-dimensional object using image processing
JPH1196373A (en) Image pickup device
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
JP6855175B2 (en) Image processing equipment, image processing methods and programs
JP3544820B2 (en) Moving target detection device and detection method
JP2002117409A (en) Image processing method and device thereof
JP2000030033A (en) Person detecting method
Ye et al. Reading labels of cylinder objects for blind persons
JP6950376B2 (en) Image processing device, training image processing device, image identification device, training image processing method, image identification method, and program