JP2002183731A - 画像内の人間の目、顔及び他の対象物を検出する画像処理方法及びその装置 - Google Patents

画像内の人間の目、顔及び他の対象物を検出する画像処理方法及びその装置

Info

Publication number
JP2002183731A
JP2002183731A JP2001282283A JP2001282283A JP2002183731A JP 2002183731 A JP2002183731 A JP 2002183731A JP 2001282283 A JP2001282283 A JP 2001282283A JP 2001282283 A JP2001282283 A JP 2001282283A JP 2002183731 A JP2002183731 A JP 2002183731A
Authority
JP
Japan
Prior art keywords
region
image
gradation
gradient
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001282283A
Other languages
English (en)
Inventor
Xinwu Chen
シンウ・チェン
Xin Ji
シン・ジー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN 00127067 external-priority patent/CN1262969C/zh
Priority claimed from CNB01132807XA external-priority patent/CN1293759C/zh
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2002183731A publication Critical patent/JP2002183731A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 画像中の人間の顔を検出するための方法、装
置、及びシステムを開示する。 【解決手段】 本発明の方法は、前記画像中の画素のサ
ブセットについて、前記画像の前記階調分布から第1の
変数を導出するステップと、前記画素のサブセットにつ
いて、前記対象物の特性を示す事前設定された基準分布
から第2の変数を導出するステップと、画素のサブセッ
トにわたって、前記第1の変数と前記第2の変数との対
応を評価するステップと、評価ステップの結果に基づい
て、前記画像が前記対象物を含んでいるか否かを判定す
るステップとを含む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像中の人間の顔
を判定するための画像処理方法、装置、及びシステム、
ならびに記憶媒体に関する。
【0002】
【従来の技術】所与の画像の特徴領域を検出又は抽出す
るための画像処理方法は非常に有用である。例えば、こ
れは、所与の画像中の人間の顔(複数も可)を判定する
ために使用することができる。又、画像、特に複合背景
を有する画像中の人間の顔を判定するために非常に有用
である。このような方法は、通信会議、人間とマシンと
のインタフェース、セキュリティ検査、人間の顔を追跡
するためのモニタ・システム、画像圧縮などの多くの分
野で使用することができる。
【0003】人間(大人でも子供でも)が複合背景を有
する画像中の人間の顔を識別することは容易である。し
かし、自動的かつ迅速に画像中の人間の顔(複数も可)
を検出するための効率のよい方法はまったく見つかって
いない。
【0004】ある画像中の一領域又は副画像が人間の顔
を含んでいるか否かを判定することは、人間の顔の検出
において重要なステップである。現在のところ、人間の
顔を検出するための方法は多数存在する。例えば、いく
つかの顕著な特徴(2つの目、口、鼻など)とその顕著
な特徴間の固有の幾何学的位置関係とを利用するか、又
は人間の顔の対称的特徴、人間の顔の顔色の特徴、テン
プレート・マッチング、ニューラル・ネットワーク方法
などを利用することによって、人間の顔を検出すること
ができる。
【0005】例えば、1996年発行の5th IEE
E InternationalWorkshop o
n Robot and Human Communi
cationの341〜346ページに掲載されたHa
iyuan Wuの「Face Detection
and Rotations Estimation
using Color Information」に
は、1つの方法、すなわち人間の顔の特徴(2つの目と
口)とその特徴間の関係を使用して人間の顔を検出する
方法が示されている。この方法では、判定すべき画像領
域をまず検討して、必要な人間の顔の特徴を抽出できる
か否かを確かめる。YESである場合、抽出した人間の
顔の特徴と既知のものとの一致度で人間の顔のモデルを
調査する。ここで、人間の顔のモデルは人間の顔の特徴
間の幾何学的関係を記述するものである。一致度が高い
場合、その画像領域は人間の顔の画像であると想定され
る。そうではない場合、その画像領域は人間の顔を含ん
でいないと判定される。しかし、この方法は調査すべき
画像の品質をあてにしすぎているので、照明条件、画像
の背景の複雑さ、人種の違いによって非常に左右され
る。特に、画像品質が不良のときに人間の顔を正確に判
定することは非常に難しい。
【0006】人間の顔の検出に関する他の従来技術の開
示文献としては以下のものがある。
【0007】1.1997年発行のPattern R
ecognition、第30巻、第3号の403〜4
19ページに掲載されたJYH−YUAN DENG及
びPEIPEI LAIの「Region−Based
Template Deformation And
Masking For Eye−FeatureE
xtraction And Descriptio
n」 2.1997年発行のPattern Recogni
tion Letters 18の899〜912号に
掲載されたC.Kervrann、F.Davoin
e、P.Perez、R.Forchheimer、
C.Labitの「Generalized like
lihood ratio−based face d
etection and extraction o
f mouth features」 3.1999年6月発行のIEEE Transact
ions On Pattern Analysis
And Machine Intelligence、
第21巻、第6号に掲載されたHaiyuan Wu、
Qian Chen、Masahiko Yachid
aの「Face DetectionFrom Col
or Images Using a Fuzzy P
attern Matching Method」 4.1994年発行のPattern Recogni
tion、第27巻、第1号の53〜63ページに掲載
されたGuangzheng Yang及びThoma
s S.Huangの「Human Face Det
ectionIn a Complex Backgr
ound」 5.1998年発行のProceedings of
the 1998 IEEE Internation
al Symposium on Circuits
and System、すなわち、ISCAS ’9
8、第4巻の85〜88ページに掲載されたKin−M
an Lamの「A Fast Approach f
or Detecting Human faces
in aComplex Background」
【発明が解決しようとする課題】本発明の目的は、グレ
ーレベル(gray-level;以下階調)分布をもつ画像中の
対象物を検出するための改善された画像処理方法、装置
及び記憶媒体を提供することにある。
【0008】本発明の他の目的は、所与の画像中の対象
物を迅速かつ効果的に検出することができる改善された
画像処理方法、装置及び記憶媒体を提供することにあ
る。
【0009】
【課題を解決するための手段】本発明では、階調分布を
有する画像中の対象物を決定するための方法であって、
画像中の画素のサブセットについて、前記画像の階調分
布から第1の変数を導出するステップと、前記画素のサ
ブセットについて、前記対象物の特性を示す事前設定さ
れた基準分布から第2の変数を導出するステップと、前
記画素のサブセットにわたって、前記第1の変数と前記
第2の変数との対応を評価するステップと、前記評価ス
テップの結果に基づいて、前記画像が前記対象物を含ん
でいるか否かを判定するステップとを含むことを特徴と
する方法が提供される。
【0010】更に本発明では、階調分布を有する画像中
の対象物を決定するための方法であって、a)画像中の
副画像を決定するステップと、b)該副画像に基づい
て、画素のサブセットを選択するステップと、c)前記
画像の階調分布から第1の変数を導出するステップと、
d)前記画素のサブセットについて、前記対象物の特性
を示す事前設定された基準分布から第2の変数を導出す
るステップと、e)前記画素のサブセットにわたって、
前記第1の変数と前記第2の変数との対応を評価するス
テップと、f)前記評価ステップの結果に基づいて、前
記画像が前記対象物を含んでいるか否かを判定するステ
ップとを含む方法が提供される。
【0011】本発明では、不均一照明などの有害で不確
実な影響を除去するように2つのベクトル場を評価する
ことによって対象物検出が行われるので、画像の品質に
関する本発明の方法の要件は低減されるが、本発明の方
法によって処理できる画像の種類は増加する。しかも、
勾配計算は比較的単純であり、その結果、検出を実行す
るために必要な時間が削減される。
【0012】本発明の特定の一実施形態として、画像中
の1つ又は複数の特徴部位(人間の目であると予想され
る1対の暗領域など)を検出することによって、目標対
象物(人間の顔など)を検出すべき副画像を決定し、画
像中の所定の対象物(複数も可)を検出するための効果
的な方法を提供する。
【0013】本発明の特定の一実施形態として、本発明
の方法は、2つのベクトル場間の対応がより明白である
人間の顔の検出のための環状領域などの、検出すべき画
像の一部分内の領域に、2つのベクトル場間の対応の評
価を制限するので、その結果、検出を実行するために必
要な時間を短縮しながら、対応の評価をより効果的なも
のにすることができる。
【0014】他の実施形態として、本発明の方法は、評
価中に重みつき統計プロセスを実行し、勾配が大きい画
素(すなわち、より明白な特徴部位)の方が評価の結果
に対してより大きく寄与することができ、それにより、
検出がより効果的なものになる。
【0015】他の実施形態として、本発明の方法は、重
みつき統計プロセスと非重みつき統計プロセスとの両方
を使用し、両方のプロセスの結果に基づいて検出すべき
画像中に対象物が含まれるか否かを判定し、その結果、
検出の正確さが増す。
【0016】本発明の上記の目的は、又、画像中の対象
物を検出するための画像処理方法であって、画像中の矩
形領域を設定するステップと、該矩形領域を取り囲む環
状領域を設定するステップと、前記環状領域内の各画素
の階調の勾配を計算するステップと、前記環状領域内の
各画素の基準勾配を決定するステップと、前記環状領域
内の各画素の階調の勾配と各画素の基準勾配とに基づい
て、前記対象物が前記矩形内に含まれているか否かを判
定するステップとを有する画像処理方法を提供すること
によって達成される。
【0017】更に、本発明の上記の目的は、画像中の特
徴部分を決定するための画像処理装置であって、画像中
の検出すべき矩形領域を決定するための手段と、前記矩
形領域を取り囲む環状領域を設定するための手段と、前
記環状領域内の各画素の階調の勾配を計算するための手
段と、前記環状領域内の各画素の基準勾配を計算するた
めの手段と、前記環状領域内の各画素の階調の勾配と各
画素の基準勾配に基づいて、前記対象物が前記矩形領域
内に含まれているか否かを判定するための手段とを有す
る画像処理装置を提供することによって達成される。
【0018】更に、本発明は、階調分布をもつ画像中の
対象物を検出するためのプログラムコードが記憶されて
いる記憶媒体であって、前記プログラムコードが、前記
画像中の副画像を決定するためのコードと、前記副画像
中の画素のサブセットを選択するためのコードと、前記
画素のサブセットについて、前記画像の階調分布から第
1の変数を導出するためのコードと、前記画素のサブセ
ットについて、前記対象物の特性を示す事前設定された
基準分布から第2の変数を導出するためのコードと、前
記画素のサブセットにわたって、前記第1の変数と前記
第2の変数との対応を評価するためのコードと、前記評
価ステップの結果に基づいて、前記画像が前記対象物を
含んでいるか否かを判定するためのコードとを含むこと
を特徴とする記憶媒体を提供する。
【0019】更に、本発明は、画像中の人間の目を検出
するための人間の目の検出方法であって、画像中の各列
の各画素の階調を読み取る読取りステップと、各列を複
数の間隔にセグメント化し、各間隔に谷領域、中間領
域、又は山領域のラベルを付けるセグメント化ステップ
と、各列の谷領域とその隣接列の谷領域とをマージし、
目候補領域を生成するマージステップと、前記目候補領
域から人間の目を決定する決定ステップとを含む方法を
提供する。
【0020】本発明の他の目的及び特徴は、以下に示す
実施形態及び図面から明らかになるだろう。複数の図面
で同じ参照番号は、同じか又は同様の構成要素を示す。
【0021】添付図面は、本明細書に組み込まれ、本明
細書の一部を構成するが、本発明の実施形態を例示する
ものであり、その記述と相まって本発明を説明する働き
をする。
【0022】
【発明の実施の形態】次に、添付図面に関連して本発明
の好ましい実施形態について詳細に説明する。
【0023】図1は、本発明の画像処理装置を使用する
画像処理システムの構成を示すブロック図である。この
システムでは、インクジェット・プリンタなどのプリン
タ105と、モニタ106がホストコンピュータ100
に接続されている。
【0024】ホストコンピュータ100では、ワードプ
ロセッサ、スプレッドシート、インターネット・ブラウ
ザなどのアプリケーション・ソフトウェア・プログラム
101と、OS(オペレーティング・システム)102
と、プリントデータを生成するためにアプリケーション
・ソフトウェア・プログラム101によってOS102
に対して発行され、画像の出力を指示するための様々な
描画コマンド(画像描画コマンド、テキスト描画コマン
ド、グラフィック描画コマンド)を処理するためのプリ
ンタドライバ103と、アプリケーション・ソフトウェ
ア・プログラム101によって発行された様々な描画コ
マンドを処理し、モニタ106でデータを表示するため
のモニタドライバ104が動作している。
【0025】参照番号112は命令入力装置を示し、1
13はそのデバイスドライバを示している。例えば、O
S102に対して様々な命令を発行するためにユーザが
モニタ106上に表示された様々な種類の情報を指し示
し、クリックできるようにするマウスが接続されてい
る。ただし、マウスの代わりに、トラックボール、ペ
ン、タッチパネルなどの他のポインティング・デバイ
ス、又はキーボードを接続できることに留意されたい。
【0026】ホストコンピュータ100は、このような
ソフトウェア・プログラムを実行できる様々な種類のハ
ードウェアとして、中央演算処理装置(CPU)10
8、ハード・ディスク(HD)107、ランダム・アク
セス・メモリ(RAM)109、読取り専用メモリ(R
OM)110などを含む。
【0027】図1に示す顔の検出システムの一例は、I
BM社から入手可能なPC−AT互換パーソナル・コン
ピュータ内にOSとしてインストールされ、マイクロソ
フト社から入手可能なWindows 98と、印刷を
実施可能なインストール済みの所望のアプリケーション
・プログラム(複数も可)と、パーソナル・コンピュー
タに接続されたモニタ及びプリンタとを含むことができ
る。
【0028】ホストコンピュータ100では、各アプリ
ケーション・ソフトウェア・プログラム101が、テキ
ストデータ(文字など)、グラフィックデータ、画像デ
ータなどを使用して出力画像データを生成する。出力画
像データをプリントアウトする場合、アプリケーション
・ソフトウェア・プログラム101はOS102に対し
てプリントアウト要求を送出する。このとき、アプリケ
ーション・ソフトウェア・プログラム101は、グラフ
ィックデータに対応するグラフィック描画コマンドと、
画像データに対応する画像描画コマンドとを含む描画コ
マンド・グループをOS102に対して発行する。
【0029】アプリケーション・ソフトウェア・プログ
ラム101から出力要求を受け取ると、OS102は、
出力プリンタに対応するプリンタドライバ103に対し
て描画コマンド・グループを発行する。プリンタドライ
バ103は、OS102から入力されたプリント要求と
描画コマンドとを処理し、プリンタ105用のプリント
データを生成し、そのプリントデータをプリンタ105
に転送する。プリンタドライバ103は、OS102か
らの描画コマンドに関する画像修正プロセスを実行し、
次に、RGBの24ビット・ページメモリなどのメモリ
上で描画コマンドを順次ラスター化する。すべての描画
コマンドのラスター化が完了すると、プリンタドライバ
103は、メモリの内容を、プリンタ105が印刷を実
行できるデータフォーマット、例えば、CMYKデータ
に変換し、変換したデータをプリンタ105に転送す
る。
【0030】ただし、ホストコンピュータ100は、対
象物画像を感知し、RGB画像データを生成するデジタ
ルカメラ111に接続することができ、感知した画像デ
ータをHD107にロードし記憶できることに留意され
たい。又、デジタルカメラ111によって感知された画
像データは、例えばJPEGによってコード化されるこ
とに留意されたい。感知した画像データは、プリンタド
ライバ103によってデコードされた後、画像データと
してプリンタ105に転送することができる。
【0031】ホストコンピュータ100は、画像中の人
間の顔を決定するための顔検出装置114を更に含む。
HD107(又は他のメモリ)に記憶された画像データ
は、顔検出装置114によって読み取られ、処理され
る。まず、人間の顔の領域の可能な位置が決定されて読
み取られ、その領域が1つ又は複数の人間の顔を含んで
いるか否かが判定される。次に、OS102の制御下
で、画像中で決定された人間の顔(複数も可)を含む画
像の一部分(複数も可)をプリンタ105又はモニタ1
06に送ることができる。
【0032】[顔検出装置]図2は、本発明による顔検
出装置の配置を示すブロック図である。
【0033】本実施形態の顔検出装置114は、読取手
段210と、目領域検出装置218と、副画像決定装置
219と、環状領域設定手段211と、第1計算手段2
12と、第2計算手段213と、判定手段214とを含
む。この顔検出装置114では、読取手段210が画像
読取りプロセスを実行する。HD107又はRAM10
9などに記憶された画像の各画素の階調は読取手段21
0によって読み取られる。
【0034】[人間の顔の検出プロセス]図3は、検出
すべきオリジナル画像の一例の概略を示している。オリ
ジナル画像は人間の顔を含んでいる。オリジナル画像3
00は、デジタルカメラ、スキャナなどのデジタル装置
111によって人間の顔の検出システムに入力すること
ができ、オリジナル画像はHD107又はRAM109
などに記憶される。
【0035】図3を参照すると、オリジナル画像300
内の人間の顔の輪郭の形状は一般に楕円に近く、人種、
顔色、年齢、性別には何も関係がないと言うことができ
る。人間の顔の輪郭に沿って、外接矩形領域300Aを
描くことができる。
【0036】図4は、本発明の一実施形態による人間の
顔の検出プロセスを示すフローチャートである。
【0037】図4のフローチャートと図3を参照して、
オリジナル画像に関する人間の顔の検出プロセスの説明
をする。
【0038】<オリジナル画像の読取り及び検出すべき
副画像(矩形領域)の決定>図4を参照すると、人間の
顔の検出プロセスはステップS40から始まる。ステッ
プS41で、読取手段210は、検出すべきオリジナル
画像300を読み取り、オリジナル画像300の各画素
の階調を取得する。オリジナル画像300が例えばJP
EGによって符号化されている場合、読取手段210
は、その画像データを読み取る前にまず復号しなければ
ならない。ステップS41で、副画像決定装置219
は、人間の顔の検出のためにオリジナル画像300内の
1つ又は複数の副画像(又は領域)300Aを決定し、
オリジナル画像300内の副画像300Aの位置も決定
する。副画像300Aは、実質的に矩形にすることがで
き、人間の顔の画像の候補領域である。しかし、副画像
の形状は矩形に限定されず、他の適当な形状にすること
ができる。
【0039】検出のために画像中の副画像300A(複
数も可)を決定するための本発明による方法及び装置に
ついて、以下に説明する。しかし、副画像を決定するた
めの目領域の検出方法は後述する本発明の方法に限定さ
れないことに留意されたい。むしろ、当技術分野で既知
のものなど、他の方法又はプロセスあるいはその両方を
使用して、副画像を決定することができる。
【0040】(副画像300Aの決定) (目検出装置)図12は、本発明の一実施形態による目
検出装置の配置を示すブロック図である。
【0041】本実施形態の目検出装置218は、セグメ
ント手段1201と、マージ手段1202と、決定手段
1203とを含む。図14D及び図14Eを参照する
と、1つの画像の列C41内の各画素の階調に基づい
て、セグメント手段1201によってその画像の列C4
1を複数の間隔I1−1、I1−2、…、I1−9、I
1−10にセグメント化する。これらの間隔は、その画
素の平均階調に応じて、山領域、谷領域、中間領域の3
つのタイプに分類することができる。「山領域」「谷領
域」「中間領域」という用語については後で詳細に定義
する。次に、列C41の谷領域を入手することができ
る。同じようにして、セグメント手段1201は、その
画像の他の列も3つのタイプに分類し、その谷領域をそ
れぞれ入手する。1つの画像のすべての列に3つのタイ
プのマークを付け、その谷領域を入手した後、マージ手
段1202は、マージプロセスを実行し、隣接列内の谷
領域をマージする。マージした谷領域を人間の目の候補
として設定する。次に、決定手段1203によって人間
の目を決定することができる。
【0042】(目領域の検出)オリジナル画像に関する
人間の目の検出プロセスについて、図13Aのフローチ
ャートに関連して以下に説明する。図13Bは、検出す
べきオリジナル画像の一例である。オリジナル画像はH
D107又はRAM109などの所定の領域に記憶され
ているものと想定する。
【0043】図13Aを参照すると、ステップS132
では、セグメント手段1201によってオリジナル画像
の各列を多数の間隔にセグメント化する。図14Eにお
いては、各間隔I1−1、I1−2、…、I1−9、I
1−10の長さは可変である。例えば、間隔I1−1の
長さは間隔I1−2の長さと等しくない。複数の画素の
平均階調に基づいて、セグメント化した間隔の一部に谷
領域としてのマークを付ける。ステップS133では、
マージ手段1202によって隣接列内の谷領域をマージ
して、目候補領域を生成する。各列内の谷領域はそれぞ
れ異なる長さを有するので、目候補領域のサイズも互い
に異なるものになる。ステップS134では、決定手段
1203によって目候補領域内から人間の目領域を決定
する。その結果、画像中の人間の目に対応する領域を検
出することができる。
【0044】(画像の各列のセグメント化)図14A
は、ステップS132で1つの画像の各列をセグメント
化するためのプロセスを示すフローチャートである。
【0045】「谷領域」「山領域」「中間領域」という
用語は以下のように定義する。 図14Bは、画像の列
を示すための一例である。図14Bを参照すると、読取
手段200によってオリジナル画像の列C41を読み取
る。図14Cは、列C41の階調分布を示している。図
14Dは、複数の間隔にセグメント化された列の階調分
布である。図14Dでは、参照番号I1−5、I1−
6、I1−9はセグメント化した間隔をそれぞれ示し、
各セグメント又は間隔の階調は、図14Cに示す同じセ
グメント又は間隔の画素の階調の平均である。
【0046】図14Eは、図14Bの画像をセグメント
化した画像である。図14Eを参照すると、まず読取手
段1200によって画像の列C41の画像データが読み
取られる。図14Bの画像の場合、列C41を10個の
間隔I1−1、I1−2、…、I1−9、I1−10に
セグメント化する。1つの間隔のサイズはその間隔内の
画素の数である。例えば、間隔I1−2が12個の画素
を含む場合、その間隔I1−2のサイズは12になる。
【0047】図14D及び図14Eに関しては、1つの
間隔の階調がその両方の隣接間隔の階調より小さい場
合、その間隔を谷領域と呼ぶ。1つの間隔の(平均)階
調がその両方の隣接間隔の階調より大きい場合、その間
隔を山領域と呼ぶ。これに対して、1つの間隔の階調が
その隣接間隔の階調の間にある場合、このような間隔を
中間領域と呼ぶ。
【0048】本実施形態の列C41に関しては、I1−
1〜I1−10の間隔の階調はそれぞれ196、18
9、190、185、201、194、213、17
8、188、231である。間隔I1−6に関しては、
その階調は194になり、その隣接間隔I1−5及びI
1−7の階調はそれぞれ201、213である。間隔I
1−6の階調はその隣接間隔I1−5及びI1−7の階
調より小さいので、間隔I1−6を谷領域として決定す
る。同じようにして、間隔I1−2、I1−4、I1−
8も谷領域として決定する。間隔I1−5に関しては、
その階調は201であり、その隣接間隔の階調はそれぞ
れ185、194である。間隔I1−5の階調はその隣
接間隔I1−6及びI1−7の階調より大きいので、間
隔I1−5を山領域として決定する。同じようにして、
間隔I1−1、I1−3、I1−7、I1−10も山領
域として決定する。更に、間隔I1−9に関しては、そ
の階調は188であり、その隣接間隔I1−8及びI1
−10の階調はそれぞれ178、231である。間隔I
1−9の階調はその隣接間隔I1−8及びI1−10の
階調の間にあるので、間隔I1−9を中間領域として決
定する。
【0049】谷領域も1つの間隔なので、谷領域の階調
及びサイズを計算する方法は間隔の階調及びサイズを計
算する方法と同じである。これは、山領域又は中間領域
の階調及びサイズの計算にも当てはまることである。
【0050】ステップS132で1つの画像のすべての
列をセグメント化するプロセスについて、図14Aに関
連して以下に説明する。
【0051】図14Aを参照すると、ステップS141
では検出した画像の左から1番目の列の各画素の階調を
読み取る。その列を3つのタイプの間隔、すなわち、谷
領域、山領域、中間領域にセグメント化するために、セ
グメント点を決定しなければならない。
【0052】ステップS142では、その列の画素の階
調分布の一次及び二次導関数の値に応じて、その画素が
セグメント点であるか否かを判定する。図14Fは、1
つの画素が1つの列内のセグメント点であるか否かを判
定するための手順を示す図である。図14Fに関して
は、2つの隣接画素Pi1及びPi2が列内に示されて
いる。
【0053】次に、任意の離散導関数演算子を使用し
て、この2つの画素Pi1、Pi2における一次及び二
次導関数を計算する。画素Pi1及びPi2における一
次導関数の値がD1f及びD2fによってそれぞれ表さ
れ、画素Pi1及びPi2における二次導関数の値がD
1s及びD2sによってそれぞれ表されると想定する
と、 (D1s≧0)かつ(D2s<0) (D1s<0)かつ(D2s≧0)という2つの条件の
いずれかが真であり、D1f及びD2fの絶対値のいず
れかが所定の値より大きく、その所定の値が6〜15の
範囲内にあって、好ましくは8である場合、画素Pi1
をセグメント点として決定する。そうではない場合は、
画素Pi1をセグメント点として決定しない。
【0054】このようにして、セグメント点s11、s
12、…、s19が、ステップS142で取得すること
ができる。
【0055】1つの列内のセグメント点を決定した後、
ステップS143でその列を複数の間隔にセグメント化
することができる。次に、ステップS144で、間隔の
階調に応じてその間隔を谷領域、山領域、中間領域に分
類する。ステップS145で間隔の境界を調節する。ス
テップS145の詳細については、詳細なフローチャー
トを使用して後で説明する。ステップ146では、検出
した画像中のすべての列をセグメント化したか否かをチ
ェックする。セグメント化している列が検出した画像の
最後の列ではない場合、処理の流れはステップS147
に進む。ステップS147では、次の列の画素の階調を
読み取る。次に、処理の流れはステップS142に戻
り、ステップS142及び後続ステップのプロセスを繰
り返す。しかし、ステップS146でセグメント化して
いる列が検出した画像の最後の列である場合、すなわ
ち、すべての列をセグメント化した場合、処理の流れは
ステップS148で終了する。
【0056】別法として、前述のセグメント化プロセス
は、検出した画像の右から1番目の列から始めることも
できる。
【0057】(目候補領域を生成するための谷領域のマ
ージ)図15Aは、図13AのステップS133で複数
列の谷領域をマージするプロセスを示すためのフローチ
ャートである。図15Bは、1つの画像の複数列と、そ
の画像の各列の谷領域及びシード領域とを示す図であ
る。図15Bの画像はn個の列Col1、Col2、
…、Colnを有する。
【0058】図15A及び図15Bに関しては、検出し
た画像の第1の列Col1(左端)内のすべての谷領域
S1、S2、S3、S4をステップS151でシード領
域として設定する。シード領域は1つ又は複数の谷領域
の集合である。谷領域の階調は山領域又は中間領域の階
調より低いので、シード領域は通常、列内の暗領域にな
る。
【0059】図15AのステップS152では、次の列
Col2内の第1の谷領域V2−1を読み取る。次に、
処理の流れはステップS153に進む。ステップS15
3では、第1のシード領域S1を読み出す。ステップS
154では、列Col2の谷領域V2−1とシード領域
S1とに基づいて、その谷領域V2−1をシード領域S
1にマージできるか否かをチェックする。列Col2の
谷領域V2−1をシード領域S1にマージできる場合、
処理の流れはステップS156に移行し、谷領域V2−
1をシード領域にマージし、その谷領域がシード領域の
一部になる。しかし、ステップS154で谷領域V2−
1をシード領域S1にマージできないと確認した場合、
処理の流れはステップS155に進む。
【0060】この例では、列Col2の谷領域V2−1
をシード領域S1にマージすることができない。処理の
流れはステップS155に進む。ステップS155で
は、そのシード領域が最後のシード領域であるか否かを
チェックする。そのシード領域が最後のシード領域では
ない場合、ステップS157で次のシード領域を読み出
し、処理の流れはステップS154に戻り、ステップS
154及び後続ステップのプロセスを繰り返す。この例
では、シード領域S1は最後のシード領域ではないの
で、ステップS157で次のシード領域S2を読み出
し、ステップS154及びS155を繰り返す。
【0061】ステップS155でそのシード領域が最後
のシード領域であると確認した場合(例えば、図5Bに
示すシード領域S4)、処理の流れはステップS158
に進み、シード領域にマージできない谷領域を新しいシ
ード領域として設定する。図15Bを参照すると、列C
ol2の谷領域V2−1はシード領域S1、S2、S
3、S4にマージできず、すなわち、それは既存のどの
シード領域にもマージできない谷領域なので、ステップ
S158で列Col2の谷領域V2−1を新しいシード
領域として設定する。
【0062】ステップS159では、列Col2内のす
べての谷領域を処理したか否かをチェックする。列Co
l2内のすべての谷領域を処理した場合、処理の流れは
ステップS1511に進む。ステップS1511では、
すべての列を処理したか否かをチェックする。その列が
検出した画像の最後の列ではない場合、処理の流れはス
テップS152に戻り、ステップS154及び後続ステ
ップのプロセスを繰り返す。列Col2は検出した画像
の最後の列ではないので、処理の流れはステップS15
2に戻る。
【0063】すべての列を処理した場合、すなわち、そ
の列が最後の列Colnである場合、処理の流れはステ
ップS1520に進む。ステップS1520では、すべ
てのシード領域を目候補領域として設定する。次に、処
理の流れはステップS1521で終了する。図15C
は、ステップS133で検出した画像中の列で目候補領
域を生成するために谷領域をマージした場合の結果を示
す例である。
【0064】(目領域の決定)図16Aは、ステップS
134で目領域を決定するためのプロセスを示すフロー
チャートである。
【0065】図16Aに関しては、ステップS161で
第1の目候補領域を読み出す。次に、処理の流れはステ
ップS162に進む。ステップS162では、目候補領
域の階調を計算する。前述の通り、1つの目候補領域は
1つ又は複数の谷領域を含む。1つの目候補領域がn個
の谷領域、すなわち、谷領域1、谷領域2、…、谷領域
nからなる場合、ステップS162で計算する目候補領
域の階調は、以下のように示される。
【0066】 EyeGrayl=(Valley1Grayl×pixels1+Valley2Grayl×pixels2… +ValleynDrayl×pixelsn)/Total Pixels (1) 式中、EyeGraylは目候補領域の階調であり、Valley1Gr
aylは谷領域1の階調であり、pixels1は谷領域1内の
画素の数であり、Valley2Graylは谷領域2の階調であ
り、pixels2は谷領域2内の画素の数であり、ValleynD
raylは谷領域nの階調であり、pixelsnは谷領域n内
の画素の数であり、Total Pixelsは目候補領域内に含ま
れる画素の総数である。
【0067】したがって、1つの目候補領域が3つの谷
領域を含み、その階調がそれぞれ12、20、30であ
り、各谷領域が5つ、6つ、4つの画素をそれぞれ有す
る場合、目候補領域の階調は(12×5+20×6+3
0×4)/15=20になる。
【0068】図16AのステップS162を参照する
と、目候補領域の階調が計算される。目候補領域の階調
が第1しきい値(例えば、160)より小さくない場
合、処理の流れはステップS1610に進む。本実施形
態では、第1しきい値は100〜200の範囲内にあ
る。ステップS1610では、その目候補領域を偽の目
領域として決定し、排除する。次に、処理の流れはステ
ップS168に進む。ステップS168では、検出した
画像中のすべての目候補領域を処理したか否かをチェッ
クする。それが最後の目候補領域ではない場合、ステッ
プS169で次の目候補領域を読み出すことになり、処
理の流れはステップS162に戻り、ステップS162
及び後続ステップのプロセスを繰り返す。しかし、ステ
ップS168で目候補領域が最後の目候補領域であると
確認した場合、検出した画像中のすべての目候補領域は
決定済みであり、処理の流れはステップS1611で終
了する。
【0069】ステップS162で、目候補領域の階調が
第1しきい値より小さい場合、処理の流れはステップS
163に進む。
【0070】ステップS163では目候補領域の背景階
調を計算する。その目候補領域に含まれる複数の谷領域
の背景階調によって、1つの目候補領域の背景階調が決
まる。1つの谷領域の背景階調は隣接する間隔の階調の
平均階調である。ステップS163で計算する目候補領
域の背景階調は、以下のように示される。
【0071】 EyeBGrayl=(Valley1BGrayl+Valley2BGrayl…+ValleynBGrayl)/n (2) 式中、EyeBGraylは目候補領域の背景階調であり、Vall
ey1BGraylは谷領域1の背景階調であり、Valley1BGray
lは谷領域2の背景階調であり、Valley1BGraylは谷領
域nの背景階調であり、nは1つの目候補領域内に含ま
れる谷領域の数である。
【0072】ステップS163では、目候補領域の背景
階調を計算する。ステップS163で目候補領域の背景
階調が第2しきい値(例えば、30)より大きくない場
合、処理の流れはステップS1610に進む。本実施形
態の第2しきい値は20〜80の範囲内にある。この例
の場合、ステップS1610で目候補領域を偽の目領域
として決定し、排除する。次に、処理の流れはステップ
S168に進む。
【0073】ステップS163で目候補領域の背景階調
が第2しきい値より大きい場合、処理の流れはステップ
S164に進む。
【0074】ステップS164では、目候補領域の背景
階調と目候補領域の階調との差を計算する。この差が第
3しきい値(例えば、20)より大きくない場合、処理
の流れはステップS1610に進む。本実施形態の第3
しきい値は5〜120の範囲内にある。ステップS16
10では、この目候補領域を偽の目領域として決定し、
拒否する。次に、処理の流れはステップS168に進
む。
【0075】ステップS163で目候補領域の背景階調
と目候補領域の階調との差が第3しきい値より大きい場
合、処理の流れはステップS165に進む。
【0076】ステップS165では、目候補領域の高さ
に対する幅の比を計算する。
【0077】目候補領域の高さと幅については、以下の
定義を使用する。谷領域のサイズは、1つの谷領域内に
含まれる画素の数である。例えば、1つの谷領域が5つ
の画素を含む場合、その谷領域のサイズは5になる。目
候補領域のサイズは、その目候補領域内に含まれる全谷
領域のサイズの合計である。目候補領域の幅Wdはその
目候補領域内に含まれる谷領域の数である。目候補領域
の高さHdは以下のように示される。
【0078】Hd=Sd/Wd (3) 式中、Hdは目候補領域の高さであり、Sdは目候補領
域のサイズであり、Wdは目候補領域の幅である。
【0079】図16AのステップS165に関しては、
目候補領域の高さに対する幅の比を計算する。ステップ
S165で目候補領域の高さに対する幅の比が第4しき
い値(例えば、3.33)より大きくない場合、処理の
流れはステップS1610に進む。本実施形態の第4し
きい値は1〜5の範囲内にある。ステップS1610で
は、この目候補領域を偽の目領域として決定し、排除す
る。次に、処理の流れはステップS168に進む。
【0080】ステップS165で目候補領域の高さに対
する幅の比が第4しきい値より大きい場合、処理の流れ
はステップS166に進む。
【0081】ステップS166では、目候補領域の周矩
形(circum-rectangle)のサイズに対する目候補領域の
サイズの比を計算する。図16Bは、目候補領域とその
周矩形を示す図である。図16Bに関しては、目候補領
域D1とその周矩形DC1が示されている。図16Bか
ら分かるように、目候補領域の周矩形DC1は、目候補
領域D1を取り囲む最も小さい矩形である。目候補領域
の周矩形のサイズはその周矩形内に含まれている画素の
数である。目候補領域のサイズはその目候補領域内に含
まれる画素の数である。
【0082】ステップS166では、目候補領域の周矩
形のサイズに対する目候補領域のサイズの比を計算す
る。ステップS166でその比が第5しきい値(例え
ば、0.4)より大きくない場合、処理の流れはステッ
プS1610に進む。本実施形態の第5しきい値は0.
2〜1の範囲内にある。ステップS1610では、この
目候補領域を偽の目領域として決定し、排除する。次
に、処理の流れはステップS168に進む。
【0083】ステップS166で目候補領域の周矩形の
サイズに対する目候補領域のサイズの比が第5しきい値
より大きい場合、処理の流れはステップS167に進
み、そこでこの目候補領域を真の目領域として決定す
る。
【0084】ステップS167の後、処理の流れはステ
ップS168に進み、その目候補領域が最後の目候補領
域であるか否かを判定する。NOである場合、ステップ
S169で次の目候補領域を読み出し、処理の流れはス
テップS162に戻る。ステップS168でYESの場
合、すべての目領域が決定される。図16Cは、ステッ
プS133で画像中の目領域を検出した場合の結果を示
す例である。
【0085】(セグメントの境界の調節)図17Aは、
図14AのステップS145でセグメント境界を調節す
るプロセスを示すフローチャートである。
【0086】図17Aに関しては、ステップS171で
1つのセグメント点の階調をその2つの隣接する間隔の
階調と比較し、階調がそのセグメント点の階調に近い方
の間隔にそのセグメント点をマージする。例えば、図1
7Bを参照すると、セグメント点Sの階調は80であ
り、その隣接する間隔はIn1とIn2とである。間隔
In1とIn2の階調はそれぞれ70と100である。
間隔In1の階調の方が点Sの階調に近いので、Sは間
隔In1にマージされる。
【0087】更に、処理の流れはステップS172に進
む。ステップS172では、第1の中間領域を読み出
す。次に、ステップS173で中間領域とその隣接する
谷領域及び山領域の階調を計算する。それらの階調を計
算した後、処理の流れはステップS174に進む。
【0088】ステップS174では、比較を行って、G
RがGP×Th6+GV×(1−Th6)より小さいか否か
を判断する。ここで、GRは中間領域の階調を示し、G
Vは中間領域に隣接する谷領域の階調を示し、GPは中
間領域に隣接する山領域の階調を示す。又、Th6は第6
しきい値(例えば、0.2)である。本実施形態の第6
しきい値は0〜0.5の範囲内にある。ステップS17
4の判断がNOである場合、処理の流れはステップS1
76に進む。ステップS174の判断がYESである場
合、ステップS175でその中間領域を谷領域にマージ
する。
【0089】図17Cは、隣接する谷領域に中間領域を
マージする場合の例を示す図である。図17Cに示すX
軸は各列の位置を表し、図17Cに示すY軸は各領域の
階調を表している。
【0090】図17Cを参照すると、中間領域Re1の
階調は25であり、谷領域Va1の階調は20であり、
山領域Pe1の階調は70である。第6しきい値を0.
2として設定すると、以下のようになる。
【0091】 GP×Th6+GV×(1−Th6)=70×0.2+20×0.8 =30>GR(=25) したがって、ステップS174の判断はYESになり、
中間領域Re1を谷領域Va1にマージすることにな
る。更に、中間領域Re2の階調は40であり、山領域
Pe2の階調は60であり、以下のようになる。
【0092】 GP×Th6+GV×(1−Th6)=60×0.2+20×0.8 =28<GR(=40) したがって、ステップS174の判断はNOになり、中
間領域Re2を谷領域Va1にマージしない。
【0093】図17AのステップS176を参照する
と、検出した画像中のすべての中間領域を処理したか否
かをチェックする。その中間領域が最後の中間領域では
ない場合、ステップS177で次の中間領域を読み取る
ことになり、処理の流れはステップS173に戻り、ス
テップS173及び後続ステップのプロセスを繰り返
す。しかし、ステップS176でその中間領域が最後の
中間領域であり、すなわち、すべての中間領域の処理が
完了した場合、処理の流れはステップS178で終了す
る。したがって、検出した画像中のすべてのセグメント
境界は調節済みとなる。
【0094】(谷領域をシード領域にマージできるか否
かの判定)図18Aは、図15AのステップS154で
谷領域をシード領域にマージできるか否かを判定するた
めのプロセスを示すためのフローチャートである。
【0095】図18Bは、シード領域が予測する谷領域
を示す図である。このシード領域の予測谷領域は、検出
した画像の任意の列の実際に存在する谷領域ではない。
これは、シード領域の右にある最も隣接した谷領域を含
む列の次の列にあると想定される谷領域であり、その位
置はシード領域の右にある最も隣接した谷領域の位置と
同じである。図18Bに関しては、谷領域Va3はシー
ド領域Se1の右にある最も隣接した谷領域である。谷
領域Va3は列Col1にあり、列Col2は列Col
1の次の列である。その場合、谷領域Va1はシード領
域Se1の予測谷領域である。この予測谷領域は列Co
l2にあり、その位置は谷領域Va3の位置と同じであ
るが、異なる列にある。
【0096】図18Cは、2つの谷領域のオーバラップ
領域を示す図である。2つの谷領域のオーバラップ領域
は、画素がその2つの谷領域に属している領域である。
【0097】図18Cを参照すると、点Bから点Dまで
の間隔は谷領域Va1であり、点Aから点Cまでの間隔
は谷領域Va2であり、谷領域Va1はシード領域Se
1の予測谷領域であり、谷領域Va2は列Col2内の
実際の谷領域である。その場合、点Bから点Cまでの間
隔は、谷領域Va1と谷領域Va2とのオーバラップ領
域である。
【0098】谷領域をシード領域にマージできるか否か
を判断するための手順については、図18Aのフローチ
ャートに関して以下に説明する。
【0099】図18Aを参照すると、ステップS181
で谷領域とシード領域の予測谷領域とのオーバラップ領
域を計算する。オーバラップ領域を計算した後、処理の
流れはステップS182に進む。
【0100】ステップS182では、Osize/Max
(Vsize,SVsize)がTh7より大きいか否かを判断す
るための比較を行う。ここで、Osizeは谷領域とシード
領域の予測谷領域とのオーバラップのサイズであり、M
ax(Vsize,SVsize)は谷領域のサイズとシード領
域の予測谷領域のサイズの最大値であり、Th7は第7し
きい値(例えば、0.37)である。第7しきい値は
0.2〜0.75の範囲内にある。
【0101】ステップS182の判断がNOである場
合、処理の流れはステップS188に進み、その場合、
シード領域に谷領域をマージすることができず、処理の
流れはステップS189で終了する。あるいは、ステッ
プS182の判断がYESである場合、処理の流れはス
テップS183に進む。
【0102】ステップS183では、谷領域とシード領
域との階調を計算する。次に、処理の流れはステップS
184に進む。ステップS184では、|GValley−G
Seed|がTh8より小さいか否かを判定するが、その場
合、GValleyは谷領域の階調であり、GSeedはシード領
域の階調であり、Th8は第8しきい値(例えば、40)
である。第8しきい値は0〜60の範囲内にある。ステ
ップS184の判断がNOである場合、処理の流れはス
テップS188に移行し、その場合、シード領域に谷領
域をマージすることができず、処理の流れはステップS
189で終了する。あるいは、ステップS184の判断
がYESである場合、処理の流れはステップS185に
進む。
【0103】ステップS185では、谷領域の背景、シ
ード領域の背景、谷領域、及びシード領域の輝度値を計
算する。
【0104】画像中の1つの画素の輝度値については、
以下のように計算することができる。
【0105】 G=0.12219×L−0.0009063×L2+0.000036833526×L3 −0.0000001267023×L4+0.0000000001987583×L5 (4) 式中、Gは0〜255の範囲の画素の階調であり、Lは
画素の輝度レベルであり、同じく0〜255の範囲にあ
る。
【0106】したがって、画素の輝度値は画像中のその
階調から求めることができる。一方、画素の階調はその
輝度値から求めることができる。
【0107】この例の場合、図14Fの画素Pi1及び
Pi2はそれぞれ50及び150という階調を有する。
式(4)により、画素Pi1及びPi2の輝度値はそれ
ぞれ128及び206であると決定することができる。
【0108】図18Aを参照すると、ステップS185
の後、処理の流れはステップS186に進む。ステップ
S186では、Min((Lvb−Lv),(Lsb−L
s))/Max((Lvb−Lv),(Lsb−Ls))がTh
9より大きいか否かを判定するが、その場合、Lvは谷
領域の輝度値であり、Lsはシード領域の輝度値であ
り、Lvbは谷領域の背景の輝度値であり、Lsbはシード
領域の背景の輝度値である。Min((Lvb−Lv),
(Lsb−Ls))は(Lvb−Lv)と(Lsb−Ls)の最
小値であり、Max((Lvb−Lv),(Lsb−Ls))
は(Lvb−Lv)と(Lsb−Ls)の最大値であり、Th9
は第9しきい値(例えば、0.58)である。第9しき
い値は0.3〜1の範囲内にある。ステップS186の
判断がNOである場合、処理の流れはステップS188
に進み、その場合、シード領域に谷領域をマージするこ
とができず、処理の流れはステップS189で終了す
る。あるいは、ステップS186の判断がYESである
場合、処理の流れはステップS187に進む。
【0109】ステップS187では、谷領域をシード領
域にマージし、次に処理の流れはステップS189で終
了する。
【0110】上記から分かるように、本発明は、検出し
た画像が非常に高い品質を有する必要なしに、そのそれ
ぞれが複合背景を備えた画像中の人間の目に対応する領
域を迅速に検出するための方法及び装置を提供し、その
結果、画像中の人間の目を検出し損なう可能性が大幅に
低減される。本発明の方法は、異なるスケール、配向、
及び照明条件下における人間の目の精密検出を可能にす
る。したがって、本発明の方法及び装置により、画像中
の人間の目を迅速かつ効果的に検出することができる。
【0111】上記で説明した本発明の方法及び装置は、
画像中の人間の目の検出に関連して説明したが、本発明
の方法及び装置は人間の目の検出に限定されず、他の検
出方法、例えば、回路基板のきず部分を検出するための
方法に適用可能である。
【0112】更に、画像中の人間の目に対応する領域を
検出するための上記の方法及び装置は、画像中に含まれ
る人間の顔の検出に使用されるが、画像中の人間の顔を
検出するための本発明の方法及び装置は、検出が実行さ
れる画像中の人間の目を検出するための他の方法及び装
置も使用することができ、例えば、人間の顔の検出のた
めの本発明の方法及び装置では、1998年発行のPr
oceedingsof the 1998 IEEE
International Symposium
on Circuits and System、すな
わち、ISCAS ’98、第4巻の85〜88ページ
に掲載されたKin−Man Lamの「A Fast
Approach for Detecting H
uman faces in a Complex B
ackground」に開示された方法を使用すること
ができる。
【0113】少なくとも2つの目領域(又は暗領域)を
検出すると、任意の1対の目領域を1対の目の候補とし
て選択する。選択した目領域の各対ごとに、それらの中
心間の距離Lを決定する。次に、図11に示すように、
矩形副画像300Aを決定する。人間の顔の検出の場
合、図11に示す矩形副画像に加え、人間の顔の検出の
ために別の矩形副画像も決定するが、これはその1対の
目領域の中心を通る線に関して、図11の矩形副画像と
対称的なものである。
【0114】ただし、図11に示す値/比は必ずしも厳
密なものではなく、むしろ、人間の顔を検出するための
本発明の方法を実行するために、図11に示すものから
所与の範囲(±20程度など)内で変動する値/比も容
認できることに留意されたい。
【0115】3つ以上の目領域を検出した場合、それぞ
れの副画像を決定するために、可能な各対の目領域を選
択する。画像中の目領域の各対ごとに、上記のように2
つの矩形副画像を決定することができる。
【0116】次に、このように決定した各副画像ごと
に、以下に説明するように、その副画像が人間の顔の写
真に対応するか否かに関する検出を実行する。
【0117】尚、検出用の副画像300Aの形状は矩形
に限定されず、むしろ、任意の適当な形状、例えば、楕
円などにすることができる。
【0118】又、画像の人間の顔部分(副画像)の位置
は、画像中の目領域(暗領域)を検出することだけでな
く、口、鼻、眉など、画像中の人間の顔の他の特徴を検
出することによっても決定することができる。そのう
え、目、口、鼻、眉など、画像中の人間の顔の特徴を検
出することによって画像中の人間の顔の位置を決定する
場合、上記で開示した本発明の人間の目の検出方法に加
え、人間の顔の特徴(目、眉、鼻、口など)を決定する
ための適当な従来技術の方法を使用して、人間の顔の検
出用の副画像を突き止めることができ、このような方法
としては、本明細書の従来の技術の項で列挙した従来技
術の参考文献に開示されている方法を含む。
【0119】<環状領域の決定>次に、処理の流れはス
テップS42に進む。ステップS42では、環状領域決
定手段211によって副画像(矩形領域)300Aを取
り囲む環状領域300R(図5)を決定する。環状領域
300Rの生成については、図5に関連して詳述する。
【0120】図5は、図3の矩形領域300Aと、その
周りで決定された環状領域300Rとを示す図である。
図5に示すデカルト座標系では、オリジナル画像300
の左上隅を座標原点とし、X軸とY軸がそれぞれ水平方
向又は垂直方向に延びている。
【0121】図5を参照すると、図2に示す読取手段2
10を使用することにより、図3に示すような事前記憶
したオリジナル画像300を、HD107又はRAM1
09から読み出し、オリジナル画像300に対する矩形
領域300Aの位置も取得する。本実施形態では、矩形
領域300の4隅のそれぞれの座標は、所与のデカルト
座標系ではそれぞれ(230,212)、(370,2
12)、(230,387)、(370,387)にな
り、したがって、その幅及び長さはそれぞれ140及び
175になる。
【0122】矩形300Aから2つの矩形300A1及
び300A2を導出するが、矩形300A1は9/7と
いう係数を使用して矩形300Aに対して線形に拡大さ
れ、矩形300A2は5/7という係数を使用して矩形
300Aに対して縮小されている。2つの矩形領域30
0A1及び300A2が生成される。したがって、この
座標系で第1矩形領域300A1の4隅のそれぞれの座
標は、それぞれ(210,187)、(390,18
7)、(210,412)、(390,412)にな
り、この座標系で第2矩形領域300A2の4隅のそれ
ぞれの座標は、それぞれ(250,237)、(35
0,237)、(250,362)、(370,36
2)になる。第1矩形領域300A1と第2矩形領域3
00A2との間の領域は、上記の矩形領域300A用の
環状領域300Rを形成する。
【0123】図5に示す環状領域300Rは、まず9/
7という係数を使用して矩形領域300Aの幅と長さを
拡大し、次に5/7という係数を使用してそれを縮小す
ることによって生成されている。しかし、本発明はそれ
に限定されるわけではない。というのは、大きい方の矩
形領域の幅と長さは係数nにし、小さい方の矩形の幅と
長さは係数mにすることができ、その結果、大きい方の
矩形領域と小さい方の矩形領域300A2がそれぞれ生
成されるからであり、mは0〜1の範囲内にあり、nは
1〜2の範囲内である。
【0124】<環状領域内の各画素の階調の勾配とその
重みの計算>図4に戻ると、処理の流れはステップS4
2の後にステップS43に進む。ステップS43では、
第1計算手段212によって環状領域300R内の各画
素の階調の勾配を計算し、環状領域300Rの各画素の
階調の勾配の重みも決定する。
【0125】本発明による人間の顔の検出装置によっ
て、環状領域300R内の各画素の階調の勾配とそれに
対応する重みがどのように決定されるかについては、図
5及び図6に関連して説明する。
【0126】一般に、画像中の各画素は他の多くの画素
によって取り囲まれている。このため、1つの画素の階
調の勾配は、所与の画素の周りのk2個の画素の階調に
よって決定することができる。この場合、kは2〜15
の範囲の整数である。本実施形態のkは3であるものと
する。本発明では、ソーベル演算子(Sobel operator)
を使用して、オリジナル画像の環状領域300R内の各
画素の階調分布の勾配を計算する。
【0127】図6を参照して、環状領域300R内の各
画素の階調の勾配を決定する方法について説明するが、
この座標系で画素Pの座標は(380,250)にな
る。
【0128】図6を参照すると、画素Pの隣接画素、画
素P1、P2、P3、P4、P5、P6、P7、P8が
選択され、すなわち、画素Pの周囲の画素を使用する。
本実施形態では、画像中の各画素の階調は0〜255で
ある。この場合、画素Pの階調は122であり、画素P
1、P2、P3、P4、P5、P6、P7、P8の階調
はそれぞれ136、124、119、130、125、
132、124、120である。
【0129】ソーベル演算子によれば、隣接画素P1、
P2、…、P8などの階調により、画素Pの階調の勾配
は式(5)によって以下のように示される。
【0130】 DX1=(G3+2×G5+G8)−(G1+2×G4+G6) DY1=(G6+2×G7+G8)−(G1+2×G2+G3) (5) 式中、DX1は画素Pの階調分布の勾配のx成分であ
り、DY1はPの階調分布の勾配のy成分であり、G
1、G2、…、G8はそれぞれ画素P1、P2、…、P
8の階調である。したがって、式(5)に基づいて、画
素Pの階調の勾配を(−39,−3)と決定することが
できる。
【0131】同様に、環状領域300R内の他の画素の
階調の勾配を計算することができる。本実施形態では、
画素P1、P2、P3、P4、P5、P6、P7、P8
の勾配はそれぞれ(−30,−5)、(−36,−
4)、(−32,−1)、(−33,−6)、(−3
0,−4)、(−38,−8)、(−33,−3)、
(−31,2)として決定する。このようにして、環状
領域300R内の各画素の階調の勾配を同じように決定
することができる。
【0132】図4に戻ると、ステップS43で、第1計
算手段212が環状領域300R内の各画素の階調の勾
配の重みも決定する。例えば、1つの画素の階調の勾配
の重みは、式(6)によって以下のように示すことがで
きる。
【0133】 W1=(|DX1|+|DY1|)/255 (6) 式中、W1は画素の重みを示し、DX1はその画素の階
調の勾配のx成分であり、DY1がその画素の階調の勾
配のy成分である。
【0134】例えば、図6を参照すると、本実施形態の
画素Pの階調の勾配は(−39,−3)であると分かっ
ているので、画素Pの階調の勾配の重みは(|−39|
+|−3|)/255=0.165になる。
【0135】同様に、環状領域300R内の他の画素P
1、P2、P3、P4、P5、P6、P7、P8などの
階調の勾配の重みは、それぞれ、0.137、0.15
7、0.129、0.153、0.133、0.18
0、0.141、0.129などとして容易に決定する
ことができる。
【0136】<環状領域内の各画素の基準勾配の計算>
図4に戻ると、処理の流れはステップS43の後にステ
ップS44に進む。ステップS44では、第2計算手段
213が上記の環状領域300R内の各点の基準分布の
勾配を計算する。基準分布は、領域300A内の人間の
顔の理想的なモデルを表す。基準分布の勾配は、環状領
域300R内の画像の一部分が人間の顔の画像にどの程
度近いかを判定するために判定手段214が使用する。
【0137】人間の顔を検出するための本発明の方法及
び装置では、処理すべき画像の関連部分(環状領域30
0R)内の階調分布の勾配の方向と、基準分布から導出
した基準勾配の方向との差を評価することによって、人
間の顔の検出を実行する。
【0138】具体的には、決定された各副画像300A
ごとに、人間の顔の基準分布を決定するが、それは以下
のように表すことができる。
【0139】z(x,y)=−(x−xc2/a2
(y−yc2/b2+h 式中、hは定数であり、a/bは前記副画像の高さに対
する前記副画像の幅の比に等しく、(xc,yc)は副画
像の中心である。図10はこのような基準分布をもつ画
像を示し、図7はその基準分布の輪郭線(E11及びE
12)を示している。
【0140】その場合、基準分布の勾配は以下のように
表すことができる。
【0141】 ∇z=(∂z/∂x,∂z/∂y) =(−2(x−xc)/a2,−2(y−yc)/b2) (7) ここで関係があるのはベクトルの方向(∂z/∂x,∂
z/∂y)のみであり、逆方向(−∂z/∂x,−∂z
/∂y)は後続ステップで同じ方向として扱われること
になるので、∇zのx成分とy成分が比例変化しても評
価の結果は変わらないだろう。したがって、比a/bの
みが関連する。比a/bの典型的な値は4/5である。
【0142】したがって、ステップS44では、式
(7)を使用して勾配∇zを計算し、その勾配を基準勾
配と呼ぶ。
【0143】ステップS44の後、処理の流れはステッ
プS45に進む。ステップS45では、環状領域300
R内の各画素ごとに、勾配∇zと∇gとの間の角度を計
算するが、この場合、∇g=(DX1,DY1)は階調
分布の勾配である。当然のことながら、∇gは式(5)
を使用して計算した勾配に限定されず、離散勾配計算用
の他の演算子を使用して計算することもできる。
【0144】具体的には、点(x,y)における∇zと
∇gとの間の角度θは、以下の式を使用して計算するこ
とができる。
【0145】 cosθ=∇z・∇g/(|∇g|・|∇z|) θ=cos-1(|∇z・∇g|/(|∇g|・|∇z|)) (8) 式中、∇z・∇gはベクトル∇z及び∇gの内積を示
し、|∇g|及び|∇z|はそれぞれベクトル∇g及び
∇zの絶対値を示す。ただし、θは0≦θ≦π/2の範
囲内になることに留意されたい。
【0146】したがって、画素Pの2つの勾配間の角度
は0.46(ラジアン)と決定される。同様に、環状領
域300R内の他の画素P1、P2、P3、P4、P
5、P6、P7、P8などにおける2つの勾配間の角度
は、それぞれ、0.19、0.26、0.33、0.1
8、0.23、0.50、0.27、0.42(ラジア
ン)などと容易に決定することができる。
【0147】更に、ステップS45では、環状領域30
0R内のすべての画素に関する階調の勾配とそれに対応
する基準勾配との角度の平均が、式(9)によって以下
のように示される。
【0148】 A1=S1/C1 (9) 式中、A1は環状領域内のすべての画素に関する階調の
勾配とそれに対応する基準勾配との角度の平均を示し、
S1は環状領域内のすべての画素の2つの勾配間の角度
の合計を示し、C1は環状領域内の画素の総数を示す。
【0149】この例については、環状領域300R内の
すべての画素の階調の勾配とそれに対応する基準勾配と
の平均角度が0.59と決定される。
【0150】図3のステップS45に戻ると、勾配差の
前述の平均を決定した後、ステップS45で前記平均が
第11しきい値より小さいか否かを判定する。本発明で
は、第11しきい値は0.61など、0.01〜1.5
の範囲内である。計算した平均が第11しきい値より小
さいと判定した場合、処理の流れはステップS46に進
む。そうではない場合、処理の流れはステップS48に
進む。ステップS48では、矩形300Aが人間の顔の
画像を含まないと判定し、処理の流れはステップS49
で終了する。
【0151】この例では、環状領域300R内のすべて
の画素に関する階調の勾配とそれに対応する基準勾配と
の角度の平均が0.59になり、第11しきい値より小
さい。したがって、処理の流れはステップS46に進
む。
【0152】ステップS46では、式(10)で示すよ
うに、前述のように重みW1を使用して、環状領域30
0R内のすべての画素に関する階調の勾配と基準勾配と
の角度の重みつき平均を決定する。
【0153】 A2=S2/C2 (10) 式中、A2は環状領域内のすべての画素に関する2つの
勾配間の角度の重みつき平均を示し、C2は環状領域内
の画素の重みの合計を示し、S2は環状領域内の同じ画
素に関する角度と階調の勾配の重みとの積の合計を示
す。
【0154】この例では、環状領域内のすべての画素に
関する2つの勾配間の重みつき平均角度は0.66であ
る。
【0155】重みつき平均角度の決定後、ステップS4
6で前記重みつき平均角度が0.68など、第12しき
い値より小さいか否かを判定する。本発明の第12しき
い値は0.01〜1の範囲である。重みつき平均角度が
第12しきい値より小さいと判定した場合、処理の流れ
はステップS47に移行し、そこで矩形300Aが人間
の顔の画像を含むと判定し、処理の流れはステップS4
9で終了する。重みつき平均角度が第12しきい値より
小さくない場合、処理の流れはステップS48に進む。
ステップS48では、矩形300Aが人間の顔の画像を
含まないと判定し、処理の流れはステップS49で終了
する。
【0156】この例については、環状領域300R内の
すべての画素に関する重みつき平均角度は0.66であ
り、第12しきい値より小さく、処理の流れはステップ
S47に進む。ステップS47では、領域300Aは人
間の顔の画像を含むものと判定する。その後、処理の流
れはステップS49で終了する。
【0157】<第2の例>図8Aは、検出すべきオリジ
ナル画像の別の例を示す図である。図8Aのオリジナル
画像800はデジタルカメラによって生成される。当然
のことながら、これは、スキャナなどのデジタル装置1
11によって人間の顔の検出システムに入力することも
できる。オリジナル画像は、HD107又はRAM10
9などの所定の領域に記憶されていると想定する。
【0158】図8Bは、図8Aに示すオリジナル画像8
00内の矩形領域800Bと、デカルト座標系における
位置を示す図であり、X軸及びY軸はそれぞれ水平方向
及び垂直方向に延びている。
【0159】図8Bに示す矩形領域800Bについて
は、図4に示すのと同じフローチャートを採用して、矩
形領域800Bが人間の顔を含んでいるか否かを判定す
るプロセスを説明する。
【0160】図4を参照すると、目検出装置218はス
テップS41で画像中の目を決定し、読取手段210は
オリジナル画像800内の各画素の階調を読み取り、副
画像決定装置219はオリジナル画像800内の矩形領
域800Bなど、検出すべき矩形領域を決定する。図8
Aに示すように、デカルト座標系の原点は、オリジナル
画像800の左上隅になるように選択する。この場合、
図8Bに示す矩形領域800Bの4隅のそれぞれの座標
は、デカルト座標系でそれぞれ(203,219)、
(373,219)、(203,423)、(373,
423)である。すなわち、領域800Bの幅及び長さ
はそれぞれ170及び204になる。
【0161】次に、ステップS42では、図8Bの矩形
領域800Bの周りの環状領域800Cを環状領域決定
手段211によって決定する。図8Cを参照すると、矩
形領域800Bについては、9/7という係数と5/7
という係数をそれぞれ使用してその幅と長さをスケーリ
ングすることにより、2つの矩形領域800C1及び8
00C2を生成する。
【0162】図8Cは、矩形領域800Bについて決定
された環状領域800Cを示す図である。環状領域80
0Cは、第1矩形領域800C1と第2矩形領域800
C2によって形成される。この座標系における第1矩形
領域800C1の4隅のそれぞれの座標はそれぞれ(1
70,190)、(397,190)、(179,45
2)、(397,452)であり、この座標系における
第2矩形領域800C2の4隅のそれぞれの座標はそれ
ぞれ(227,248)、(349,248)、(22
7,394)、(349,394)である。
【0163】次に、ステップS43では、第1計算手段
212によって環状領域800C内の各画素の階調の勾
配を決定し、それぞれ(188,6)、(183,
8)、(186,10)、(180,6)、(180,
6)などになる。同様に、環状領域800C内の各画素
の階調の勾配の重みを同じように決定し、それぞれ0.
76、0.75、0.77、0.77、0.73などに
なる。
【0164】更に、ステップS44では、第2計算手段
213によって環状領域800C内の各画素の基準勾配
を決定し、それぞれ(−0.015,−0.012)、
(−0.015,−0.012)、(−0.015,−
0.012)、(−0.014,−0.012)などに
なる。次に、処理の流れはステップS45に進む。
【0165】ステップS45では、環状領域800C内
の各画素の2つの勾配間の角度を決定するが、前述のよ
うに環状領域800C内の画素に関する2つの勾配間の
平均角度を同じように決定することができ、それはこの
例では0.56になり、第11しきい値より小さい。次
に、処理の流れはステップS46に進む。
【0166】ステップS46では、環状領域800C内
の画素に関する2つの勾配間の重みつき平均角度を0.
64と決定するが、これは第12しきい値より小さく、
処理の流れはステップS47に移行し、そこで矩形領域
800Bが人間の顔の画像を含むと判定する。次に、処
理の流れはステップS49で終了する。
【0167】[他のの実施形態]本発明の他の実施形態
を以下に例示する。
【0168】図9は、本発明の他の実施形態による人間
の顔の決定プロセスを示す図である。図9では、図4と
同じ参照番号は同じプロセスを示す。
【0169】この場合も、図8Aのオリジナル画像80
0は、オリジナル画像800内の矩形領域800Bが人
間の顔の画像を含んでいるか否かの判定を例示するため
の一例とする。
【0170】まず、図4のように、プロセスの流れはス
テップS40から始まる。ステップS41では、読取手
段210がオリジナル画像800内の各画素の階調を読
み取り、目検出手段218が画像中の目領域を検出し、
副画像決定手段219が検出した目領域に基づいて、矩
形領域800Bなど、検出すべき副画像(複数も可)を
決定する。次に処理の流れはステップS42に進む。ス
テップS42では、図8Cに示すように、矩形領域80
0Bについて環状領域800Cを決定する。更に、処理
の流れはステップS43に進む。ステップS43では、
環状領域800C内の各画素における階調の勾配を決定
し、それぞれ(188,6)、(183,8)、(18
6,10)、(180,6)、(180,6)などであ
る。前の実施形態と同じように環状領域800C内の各
画素における階調の勾配の重みを決定し、それぞれ0.
76、0.75、0.77、0.77、0.73などで
ある。その後、処理の流れはステップS44に進む。ス
テップS44では、環状領域800C内の各画素の基準
勾配を決定し、それぞれ(−0.015,−0.01
2)、(−0.015,−0.012)、(−0.01
5,−0.012)、(−0.015,−0.01
2)、(−0.014,−0.012)などである。
【0171】次に、処理の流れはステップS95に進
む。ステップS95では、環状領域800C内の各画素
での階調の勾配とそれに対応する基準勾配との角度を、
例えば、前の実施形態と同じようにそれぞれ計算し、そ
れぞれ0.64、0.63、0.62、0.64、0.
64など(ラジアン単位)である。次に、環状領域80
0C内のすべての画素に関する2つの勾配間の重みつき
平均角度を計算する。ステップS95では、重みつき平
均が0.68など、第13しきい値より小さいか否かを
判定する。本発明の第13しきい値は0.01〜1の範
囲である。重みつき平均角度が第3しきい値より小さい
場合、処理の流れはステップS96に進む。ステップS
96では、その矩形領域が人間の顔の画像を含むものと
判定する。重みつき平均角度が第13しきい値より小さ
くない場合、処理の流れはステップS97に移行し、そ
こで領域800Dが人間の顔の画像を含まないと判定す
る。次に、処理の流れはステップS98で終了する。
【0172】この例の場合、環状領域内の各画素の勾配
差とそれに対応する勾配の重みとの積の平均は0.64
であり、第3しきい値より小さいので、処理の流れはス
テップS96に移行し、判定すべき矩形領域800Bが
人間の顔を含んでいると判定する。その後、処理の流れ
はステップS98で終了する。
【0173】当業者であれば分かるように、環状領域内
のすべての画素について階調分布と基準分布の勾配間の
角度を計算し評価する必要はなく、むしろ、環状領域内
の一部の画素のみについてその角度を計算し評価するこ
とにより、本発明により人間の顔(又は他の検出すべき
対象物)を検出するための方法を実行することができ
る。
【0174】そのうえ、上記の説明では、階調分布と基
準分布の勾配間の角度の平均と、その角度の重みつき平
均の両方を評価に使用する特定の実施形態と、その角度
の重みつき平均のみを評価に使用する別の特定の実施形
態について説明してきたが、その角度の非重みつき平均
のみを評価に使用する一実施形態も本発明の目的を実現
することができ、本発明の一実施形態として含まれる。
【0175】本発明は、複数の装置(例えば、ホストコ
ンピュータ、インタフェース装置、読取装置、プリンタ
など)によって構成されるシステム又は単一機器(例え
ば、コピー機、ファクシミリ装置など)からなる装置の
いずれにも適用可能であることに留意されたい。
【0176】本発明の目的は、記憶媒体を供給すること
によっても達成される。この記憶媒体は、本システム又
は装置のコンピュータ(あるいはCPU又はMPU)に
よって記憶媒体に記憶されたプログラムコードを読み出
して実行することにより、本システム又は装置に対して
上記の実施形態の諸機能を実施可能なソフトウェア・プ
ログラムのプログラムコードを記録する。この場合、記
憶媒体から読み出されるプログラムコード自体が前述の
実施形態の諸機能を実施し、そのプログラムコードを記
憶する記憶媒体は本発明を構成する。
【0177】プログラムコードを供給するための記憶媒
体として、例えば、フロッピー(登録商標)・ディス
ク、ハード・ディスク、光ディスク、光磁気ディスク、
CD−ROM、CD−R、磁気テープ、不揮発性メモリ
・カード、ROMなどを使用することができる。
【0178】前述の実施形態の諸機能は、読み出された
プログラムコードをコンピュータによって実行するだけ
でなく、プログラムコードの命令に基づいてコンピュー
タ上で動作するOS(オペレーティング・システム)に
よって実行される実際の処理動作の一部又は全部によっ
ても実施することができる。
【0179】上記から分かるように、本発明の方法は、
検出した写真が非常に高い品質を有する必要なしに、複
合背景を備えた写真内の人間の顔を決定するための高速
手法を提供し、それにより、写真内の人間の顔が飛ばさ
れる可能性が実質的に解消される。本発明の方法は、異
なるスケール、配向、及び照明条件下における人間の顔
の精密検出を可能にする。したがって、本発明による方
法、装置、又はシステムにより、写真内の人間の顔を迅
速かつ効果的に検出することができる。
【0180】本発明は、記憶媒体から読み取ったプログ
ラムコードをコンピュータに挿入された機能拡張カード
又はコンピュータに接続された機能拡張ユニット内に設
けられたメモリに書き込んだ後、機能拡張カード又はユ
ニットに含まれるCPUなどがプログラムコードの指示
に応じてプロセスの一部又は全体を実行し、上記の実施
形態の諸機能を実現する場合を含む。
【0181】本発明が上記の記憶媒体に適用される場
合、その記憶媒体は実施形態に記載されたフローチャー
ト(図4及び図9)に対応するプログラムコードを記憶
する。
【0182】上記で説明した実施形態は人間の顔を判定
するよう特化されているが、本発明は人間の顔を判定す
ることに限定されず、他の判定方法、例えば、回路基板
上のきず部分を検出するための方法にも適用可能であ
る。
【0183】本発明の精神及び範囲から逸脱せずに明ら
かに多種多様な本発明の実施形態が可能であるので、本
発明は、特許請求の範囲に定義したものを除き、その特
定の実施形態に限定されないことを理解されたい。
【図面の簡単な説明】
【図1】本発明の画像処理システムの一実施形態を示す
ブロック図である。
【図2】本発明による人間の顔の検出装置の配置の一実
施形態を示すブロック図である。
【図3】検出すべきオリジナル画像の概略を示す図であ
る。
【図4】本発明の第1の実施形態による人間の顔の検出
プロセスを示すフローチャートである。
【図5】図3の画像中で検出用に決定された副画像(矩
形領域)とその周りで決定された環状領域とを示す図で
ある。
【図6】画像中の複数画素を示す図である。
【図7】環状領域内の画素に関する基準分布の輪郭線を
示す図である。
【図8A】検出すべきオリジナル画像の別の例を示す図
である。
【図8B】図8Aのオリジナル画像中で決定された副画
像(矩形領域)を示す図である。
【図8C】図8Bの矩形領域について決定された環状領
域を示す図である。
【図9】本発明の他の実施形態の人間の顔の検出プロセ
スを示すフローチャートである。
【図10】画像中の人間の顔を検出する際に使用するた
めの基準分布を示し、その基準分布が図7に示すように
輪郭線を有することを示す図である。
【図11】1対の人間の目に対応すると予想される、検
出した1対の暗領域(目領域)から人間の顔の検出用に
副画像を生成するための方法を示す図である。
【図12】本発明の一実施形態による目検出装置の配置
を示すブロック図である。
【図13A】人間の目領域をサーチする手順を示すフロ
ーチャートである。
【図13B】検出すべきオリジナル画像の一例を示す図
である。
【図14A】画像中の各列をセグメント化するためのフ
ローチャートである。
【図14B】画像中の画素の列を示すための一例を示す
図である。
【図14C】列の階調分布を示すための一例を示す図で
ある。
【図14D】複数の間隔にセグメント化された列の階調
を示す図である。
【図14E】画像中のセグメント化した列を示すための
一例を示す図である。
【図14F】1つの列内のセグメント点の判定を示す図
である。
【図15A】複数列内の谷領域をマージするためのプロ
セスを示すフローチャートである。
【図15B】1つの画像の複数列と各列の谷領域及びシ
ード領域とを示す図である。
【図15C】検出した目候補領域を示す画像を示す図で
ある。
【図16A】本発明により目領域を決定するためのプロ
セスを示すフローチャートである。
【図16B】目候補領域とその周矩形を示す図である。
【図16C】検出した目領域を示す画像を示す図であ
る。
【図17A】セグメント境界を調節するためのプロセス
を示すフローチャートである。
【図17B】隣接する間隔へのセグメント点のマージを
示す図である。
【図17C】隣接する谷領域への中間領域のマージを示
す図である。
【図18A】谷領域をシード領域にマージできるか否か
を判断するためのプロセスを示すフローチャートであ
る。
【図18B】シード領域の予測谷領域を示す図である。
【図18C】2つの谷領域間のオーバラップを示す図で
ある。
フロントページの続き (72)発明者 シン・ジー 中華人民共和国 ベイジン 100080, ハ イディアン ディストリクト, サマー パレス ロード, ナンバー1, ベイジ ン リソース ホテル, ルーム 1307 ベイジン ピーカン システムズ インフ ォメーション コーポレイション リミテ ッド 内 Fターム(参考) 5B057 CA08 CA16 CB08 CB16 CB19 CH01 CH11 DA06 DB09 DC03 DC22 DC23 DC36 DC38 5L096 AA06 BA18 EA39 FA14 FA32 FA37 FA62 FA64 FA66 FA72 FA77 FA78 GA41 GA51 HA08 JA04 JA11 JA13 MA07

Claims (54)

    【特許請求の範囲】
  1. 【請求項1】 階調分布を有する画像中の対象物を検出
    する方法であって、 a)前記画像中の画素のサブセットについて、前記画像
    の階調分布から第1の変数を導出するステップと、 b)前記画素のサブセットについて、前記対象物の特性
    を示す事前設定された基準分布から第2の変数を導出す
    るステップと、 c)前記画素のサブセットにわたって、前記第1の変数
    と前記第2の変数との対応を評価するステップと、 d)前記評価ステップの結果に基づいて、前記画像が前
    記対象物を含んでいるか否かを判定するステップとを含
    むことを特徴とする方法。
  2. 【請求項2】 前記画像中の領域を選択するステップを
    更に含み、前記サブセットの画素が前記領域内にあり、 前記領域内の画素にわたって、検出すべき対象物に対応
    する階調分布から導出された第1の変数が、第2の変数
    との良好な対応を有することを特徴とする請求項1に記
    載の方法。
  3. 【請求項3】 前記画像中の副画像を決定するステップ
    と、 前記副画像の位置に基づいて前記領域を選択するステッ
    プとを更に含むことを特徴とする請求項2に記載の方
    法。
  4. 【請求項4】 前記第1の変数が、前記画像の階調分布
    の勾配の方向を表すことを特徴とする請求項1乃至3の
    いずれか1つに記載の方法。
  5. 【請求項5】 前記第2の変数が、前記基準分布の勾配
    の方向を表すことを特徴とする請求項1乃至4のいずれ
    か1つに記載の方法。
  6. 【請求項6】 前記勾配が離散勾配であることを特徴と
    する請求項5に記載の方法。
  7. 【請求項7】 前記評価ステップが前記画素のサブセッ
    トにおける統計プロセスを含むことを特徴とする請求項
    5に記載の方法。
  8. 【請求項8】 前記評価ステップが前記画素のサブセッ
    トにおける統計プロセスを含み、前記統計プロセスが重
    みづけプロセスを含み、前記サブセット内の各画素に対
    する重みがその画素での階調分布の勾配に基づいて決定
    され、一般に階調分布の勾配の絶対値が大きい画素の方
    がより大きい重みを有することを特徴とする請求項5に
    記載の方法。
  9. 【請求項9】 前記評価ステップが、重みづけプロセス
    を使用する統計プロセスと、重みづけプロセスを使用し
    ない別の統計プロセスとの両方を含み、両方の統計プロ
    セスの結果に応じて画像が対象物を含んでいるか否かを
    判定することを特徴とする請求項8に記載の方法。
  10. 【請求項10】 前記領域が環状領域であり、前記副画
    像の中心付近にセンタリングされていることを特徴とす
    る請求項3に記載の方法。
  11. 【請求項11】 前記画素のサブセットが、前記領域内
    のすべての画素を含むことを特徴とする請求項2に記載
    の方法。
  12. 【請求項12】 前記副画像が、前記画像中の所定の特
    徴を検出することによって決定されることを特徴とする
    請求項3に記載の方法。
  13. 【請求項13】 前記所定の特徴が1対の暗領域を含む
    ことを特徴とする請求項12に記載の画像。
  14. 【請求項14】 前記1対の暗領域の位置と前記1対の
    暗領域の中心間の間隔とに基づいて、前記副画像が決定
    されることを特徴とする請求項13に記載の方法。
  15. 【請求項15】 前記基準分布が、 z(x,y)=−(x2/a2+y2/b2)+h によって表され、 hは定数であり、a/bは前記副画像の高さに対する前
    記副画像の幅の比に等しく、原点は前記副画像の中心に
    位置することを特徴とする請求項13に記載の方法。
  16. 【請求項16】 前記評価ステップが、 前記サブセット内のすべての画素について、前記画像の
    階調分布の勾配と前記基準分布の勾配との角度の平均値
    とを計算するステップと、 前記平均値を所定の値と比較するステップと、 前記平均値が前記所定の値と等しいか又はそれより小さ
    い場合に、副画像が前記対象物を含んでいると判定する
    ステップとを含むことを特徴とする請求項5又は15に
    記載の方法。
  17. 【請求項17】 前記評価ステップが、 前記サブセット内のすべての画素について、前記画像の
    階調分布の勾配と前記基準分布の勾配との角度の重みつ
    き平均値とを計算するステップであって、一般に階調分
    布の勾配の絶対値が大きい画素の方がより大きい重みを
    有するステップと、 前記重みつき平均値を所定の値と比較するステップと、 前記重みつき平均値が前記所定の値と等しいか又はそれ
    より小さい場合に、副画像が前記対象物を含んでいると
    判定するステップとを含むことを特徴とする請求項5又
    は15に記載の方法。
  18. 【請求項18】 前記評価ステップが、 前記サブセット内のすべての画素について、前記画像の
    階調分布の勾配と前記基準分布の勾配との角度の平均値
    を計算するステップと、 前記サブセット内のすべての画素について、前記画像の
    階調分布の勾配と前記基準分布の勾配との角度の重みつ
    き平均値とを計算するステップであって、一般に階調分
    布の勾配の規模が大きい画素の方がより大きい重みを有
    するステップと、 前記平均値を第1の所定の値と比較するステップと、 前記重みつき平均値を第2の所定の値と比較するステッ
    プと、 前記平均値が前記第1の所定の値と等しいか又はそれよ
    り小さく、前記重みつき平均値が前記第2の所定の値と
    等しいか又はそれより小さい場合に、副画像が前記対象
    物を含んでいると判定するステップとを含むことを特徴
    とする請求項5又は15に記載の方法。
  19. 【請求項19】 階調分布を有する画像中の対象物を検
    出する方法であって、 a)前記画像中の副画像を決定するステップと、 b)前記副画像に基づいて、前記画像中の画素のサブセ
    ットを選択するステップと、 c)前記サブセットの画素について、前記画像の前記階
    調分布から第1の変数を導出するステップと、 d)前記画素のサブセットについて、前記対象物の特性
    を示す事前設定された基準分布から第2の変数を導出す
    るステップと、 e)前記画素のサブセットにわたって、前記第1の変数
    と前記第2の変数との対応を評価するステップと、 f)前記評価ステップの結果に基づいて、前記画像が前
    記対象物を含んでいるか否かを判定するステップとを含
    むことを特徴とする方法。
  20. 【請求項20】 階調分布をもつ画像中の対象物を検出
    するためのプログラムコードが記憶されている記憶媒体
    であって、 前記プログラムコードが、 前記画像中の副画像を決定するためのコードと、 画素のサブセットについて、前記画像の前記階調分布か
    ら第1の変数を導出するためのコードと、 前記画素のサブセットについて、前記対象物の特性を示
    す事前設定された基準分布から第2の変数を導出するた
    めのコードと、 前記画素のサブセットにわたって、前記第1の変数と前
    記第2の変数との対応を評価するためのコードと、 前記評価ステップの結果に基づいて、前記画像が前記対
    象物を含んでいるか否かを判定するためのコードとを含
    むことを特徴とする記憶媒体。
  21. 【請求項21】 画像中の特徴部分を決定するための画
    像処理方法であって、 画像と該画像中で決定すべき矩形領域とを読み取る読取
    ステップと、 前記矩形領域を取り囲む環状領域を設定する設定ステッ
    プと、 前記環状領域内の各画素の階調の勾配を計算するステッ
    プと、 前記環状領域用の基準分布を決定し、前記環状領域内の
    各画素の環状領域の基準勾配を決定するステップと、 前記環状領域内の各画素の階調の勾配と各画素の基準勾
    配とに基づいて、前記矩形領域内に含まれている特徴部
    分を決定する決定ステップとを含むことを特徴とする画
    像処理方法。
  22. 【請求項22】 決定すべき前記矩形領域を含んでいる
    画像が特徴部分であることを特徴とする請求項21に記
    載の画像処理方法。
  23. 【請求項23】 前記環状領域が、第1の矩形領域と第
    2の矩形領域によって形成されることを特徴とする請求
    項21に記載の画像処理方法。
  24. 【請求項24】 前記第1の矩形領域が、決定すべき前
    記矩形領域内部に位置することを特徴とする請求項23
    に記載の画像処理方法。
  25. 【請求項25】 前記第2の矩形領域が、決定すべき前
    記矩形領域外部に位置することを特徴とする請求項23
    に記載の画像処理方法。
  26. 【請求項26】 前記第1の矩形領域の中心が、決定す
    べき前記矩形領域の中心と実質的に同じ位置にあり、前
    記第1の矩形領域の幅と長さが、それぞれ決定すべき前
    記矩形領域の幅と長さのm倍に等しく、0<m<1であ
    ることを特徴とする請求項23に記載の画像処理方法。
  27. 【請求項27】 前記第2の矩形領域の中心が、決定す
    べき前記矩形領域の中心と同じ位置にあり、前記第2の
    矩形領域の幅と長さが、それぞれ決定すべき前記矩形領
    域の幅と長さのn倍に等しく、1<n<2であることを
    特徴とする請求項23に記載の画像処理方法。
  28. 【請求項28】 階調の勾配を計算する前記ステップ
    が、ある画素を取り囲む画素の階調に基づいて、該画素
    の階調の勾配を計算するステップを含むことを特徴とす
    る請求項21に記載の画像処理方法。
  29. 【請求項29】 前記画素を取り囲む画素の数がk2
    等しく、kが整数であり、2<k<15であることを特
    徴とする請求項28に記載の画像処理方法。
  30. 【請求項30】 基準分布が矩形領域に応じて決定され
    ることを特徴とする請求項21に記載の画像処理方法。
  31. 【請求項31】 前記環状領域内の各画素の階調の勾配
    と基準勾配との角度を決定するステップを更に含むこと
    を特徴とする請求項21又は30に記載の画像処理方
    法。
  32. 【請求項32】 前記環状領域内の各画素の階調の勾配
    と各画素の基準勾配との角度の平均を決定するステップ
    を更に含むことを特徴とする請求項21又は30に記載
    の画像処理方法。
  33. 【請求項33】 前記環状領域内の各画素の階調の勾配
    の重みを決定するステップを更に含むことを特徴とする
    請求項21又は32に記載の画像処理方法。
  34. 【請求項34】 前記環状領域内の各画素の階調の勾配
    と各画素の基準勾配との角度の平均が第1しきい値より
    小さいか否かを判定するステップを更に含み、第1しき
    い値が0.01〜1.5の範囲内であり、好ましくは
    0.61であることを特徴とする請求項32に記載の画
    像処理方法。
  35. 【請求項35】 前記環状領域内の各画素の階調の勾配
    と各画素の階調の勾配の重みが付いた基準勾配との角度
    の重みつき平均が第2しきい値より小さいか否かを判定
    するステップを更に含み、第2しきい値が0.01〜1
    の範囲内であり、好ましくは0.68であることを特徴
    とする請求項34に記載の画像処理方法。
  36. 【請求項36】 前記環状領域内の各画素の階調の勾配
    と各画素の階調の勾配の重みが付いた基準勾配との角度
    の重みつき平均が第3しきい値より小さいか否かを判定
    するステップを更に含み、第3しきい値が0.1〜1の
    範囲内であり、好ましくは0.68であることを特徴と
    する請求項33に記載の画像処理方法。
  37. 【請求項37】 画像中の人間の目を検出するための人
    間の目の検出方法であって、 画像中の各列の各画素の階調を読み取る読取ステップ
    と、 各列を複数の間隔にセグメント化し、各間隔に谷領域、
    中間領域、又は山領域のラベルを付けるセグメント化ス
    テップと、 各列の谷領域と隣接する列の谷領域とをマージし、目候
    補領域を生成するマージステップと、 目候補領域から人間の目を決定する決定ステップとを含
    むことを特徴とする方法。
  38. 【請求項38】 前記セグメント化ステップが、列内の
    各間隔の階調に基づいて、各間隔に谷領域、中間領域、
    山領域のうちの1つのラベルを付けるステップを含むこ
    とを特徴とする請求項37に記載の方法。
  39. 【請求項39】 前記セグメント化ステップが、列内の
    各間隔の輝度値に基づいて、各間隔に谷領域、中間領
    域、山領域のうちの1つのラベルを付けるステップを含
    むことを特徴とする請求項37に記載の方法。
  40. 【請求項40】 前記セグメント化ステップが、2つの
    隣接する間隔に対する列内の各間隔のそれぞれの階調比
    に基づいて、各間隔に谷領域、中間領域、山領域のうち
    の1つのラベルを付けるステップを含むことを特徴とす
    る請求項37に記載の方法。
  41. 【請求項41】 前記セグメント化ステップが、2つの
    隣接する間隔に対する列内の各間隔のそれぞれの輝度値
    比に基づいて、各間隔に谷領域、中間領域、山領域のう
    ちの1つのラベルを付けるステップを含むことを特徴と
    する請求項37に記載の方法。
  42. 【請求項42】 1つのセグメント点の階調と2つの隣
    接する間隔の階調とを比較し、セグメント点の階調に近
    い階調を有する隣接する間隔に該セグメント点を追加す
    るステップを更に含むことを特徴とする請求項37乃至
    41のいずれか1つに記載の方法。
  43. 【請求項43】 1つの中間領域の階調と、隣接する谷
    領域及び山領域との階調とを比較し、隣接する谷領域、
    山領域、中間領域の階調に基づいて谷領域に該中間領域
    を追加するステップを更に含むことを特徴とする請求項
    37乃至42のいずれか1つに記載の方法。
  44. 【請求項44】 前記マージステップが、 画像の第1の列内の各谷領域をシード領域としてそれぞ
    れ設定するステップと、 前記画像の次の列の谷領域をシード領域にマージできる
    か否かを判定するステップと、 シード領域にマージできる谷領域をマージするステップ
    と、 非マージの谷領域をシード領域として設定するステップ
    と、 更なるマージ谷領域を有しないシード領域を目候補領域
    と決定するステップとを含むことを特徴とする請求項3
    7に記載の方法。
  45. 【請求項45】 谷領域とシード領域の予測谷領域との
    オーバラップのサイズと、谷領域とシード領域の予測谷
    領域との大きい方のサイズとを比較するステップを更に
    含むことを特徴とする請求項44に記載の方法。
  46. 【請求項46】 谷領域の階調とシード領域の階調とを
    比較するステップを更に含むことを特徴とする請求項4
    4に記載の方法。
  47. 【請求項47】 谷領域の階調、シード領域の階調、谷
    領域の背景階調、及びシード領域の背景階調を比較する
    ステップを更に含むことを特徴とする請求項44に記載
    の方法。
  48. 【請求項48】 前記決定ステップは、目候補領域の階
    調が第1しきい値より小さいか否かを判定するステップ
    を含み、第1しきい値が100〜200の範囲内であ
    り、好ましくは160であることを特徴とする請求項3
    7に記載の方法。
  49. 【請求項49】 前記決定ステップは、目候補領域の背
    景階調が第2しきい値より大きいか否かを判定するステ
    ップを更に含み、第2しきい値が20〜80の範囲内で
    あり、好ましくは30であることを特徴とする請求項4
    8に記載の方法。
  50. 【請求項50】 前記決定ステップは、目候補領域の背
    景階調とその階調との差が第3しきい値より大きいか否
    かを判定するステップを更に含み、第3しきい値が5〜
    120の範囲内であり、好ましくは20であることを特
    徴とする請求項49に記載の方法。
  51. 【請求項51】 前記決定ステップは、目候補領域の高
    さに対する幅の比が第4しきい値より大きいか否かを判
    定するステップを更に含み、第4しきい値が1〜5の範
    囲内であり、好ましくは3.33であることを特徴とす
    る請求項50に記載の方法。
  52. 【請求項52】 前記決定ステップは、周矩形のサイズ
    に対する目候補領域のサイズの比が第5しきい値より大
    きいか否かを判定するステップを更に含み、第5しきい
    値が0.2〜1の範囲内であり、好ましくは0.4であ
    ることを特徴とする請求項51に記載の方法。
  53. 【請求項53】 前記画像中の副画像を決定するための
    ステップが、 前記画像の各列を複数の間隔にセグメント化するステッ
    プと、 各間隔に谷領域、中間領域、又は山領域のラベルを付け
    るステップと、 各列の谷領域と隣接する列の谷領域とをマージし、それ
    により候補暗領域を生成するステップと、 暗領域を決定するステップとを含むことを特徴とする請
    求項14に記載の方法。
  54. 【請求項54】 前記マージステップが、 画像の第1の列内の各谷領域をシード領域として設定す
    るステップと、 前記画像の次の列の谷領域をシード領域にマージできる
    か否かを判定するステップと、 シード領域にマージできる谷領域をマージするステップ
    と、 シード領域にマージできない谷領域をシード領域として
    設定するステップと、 更なるマージ谷領域を有しないシード領域を暗領域と決
    定するステップとを含むことを特徴とする請求項53に
    記載の方法。
JP2001282283A 2000-09-15 2001-09-17 画像内の人間の目、顔及び他の対象物を検出する画像処理方法及びその装置 Withdrawn JP2002183731A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN 00127067 CN1262969C (zh) 2000-09-15 2000-09-15 人眼检测方法和人眼检测设备
CN00127067.2 2001-09-06
CN01132807.X 2001-09-06
CNB01132807XA CN1293759C (zh) 2001-09-06 2001-09-06 图象处理方法和装置,图象处理系统以及存储介质

Publications (1)

Publication Number Publication Date
JP2002183731A true JP2002183731A (ja) 2002-06-28

Family

ID=25739579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001282283A Withdrawn JP2002183731A (ja) 2000-09-15 2001-09-17 画像内の人間の目、顔及び他の対象物を検出する画像処理方法及びその装置

Country Status (3)

Country Link
US (2) US6965684B2 (ja)
EP (1) EP1211640A3 (ja)
JP (1) JP2002183731A (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048169A (ja) * 2005-08-12 2007-02-22 Fujifilm Corp 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
EP2391115A2 (en) 2010-05-24 2011-11-30 Canon Kabushiki Kaisha Image processing apparatus, control method, and program
US8374439B2 (en) 2008-06-25 2013-02-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and computer-readable print medium
US8391595B2 (en) 2006-05-26 2013-03-05 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US8401295B2 (en) 2008-02-07 2013-03-19 Nec Corporation Pose estimation
US8442315B2 (en) 2010-07-16 2013-05-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US8457397B2 (en) 2010-07-16 2013-06-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US8532431B2 (en) 2007-05-08 2013-09-10 Canon Kabushiki Kaisha Image search apparatus, image search method, and storage medium for matching images with search conditions using image feature amounts
JP2014524631A (ja) * 2011-09-23 2014-09-22 アリババ・グループ・ホールディング・リミテッド 検索のための画像品質分析
US9002107B2 (en) 2010-07-16 2015-04-07 Canon Kabushiki Kaisha Color balance correction based on skin color and highlight color
US9189681B2 (en) 2012-07-09 2015-11-17 Canon Kabushiki Kaisha Image processing apparatus, method thereof, and computer-readable storage medium
US9208595B2 (en) 2012-07-09 2015-12-08 Canon Kabushiki Kaisha Apparatus, image processing method and storage medium storing program
US9214027B2 (en) 2012-07-09 2015-12-15 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable medium
US9275270B2 (en) 2012-07-09 2016-03-01 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
US9280720B2 (en) 2012-07-09 2016-03-08 Canon Kabushiki Kaisha Apparatus, method, and computer-readable storage medium
US9292760B2 (en) 2012-07-09 2016-03-22 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable medium
US9299177B2 (en) 2012-07-09 2016-03-29 Canon Kabushiki Kaisha Apparatus, method and non-transitory computer-readable medium using layout similarity
US9436706B2 (en) 2013-09-05 2016-09-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for laying out images
US9501688B2 (en) 2012-07-09 2016-11-22 Canon Kabushiki Kaisha Apparatus, processing method and storage medium storing program
US9509870B2 (en) 2013-09-05 2016-11-29 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium enabling layout varations
US9519842B2 (en) 2012-07-09 2016-12-13 Canon Kabushiki Kaisha Apparatus and method for managing an object extracted from image data
US9542594B2 (en) 2013-06-28 2017-01-10 Canon Kabushiki Kaisha Information processing apparatus, method for processing information, and program
US9558212B2 (en) 2012-07-09 2017-01-31 Canon Kabushiki Kaisha Apparatus, image processing method and computer-readable storage medium for object identification based on dictionary information
US9563823B2 (en) 2012-07-09 2017-02-07 Canon Kabushiki Kaisha Apparatus and method for managing an object extracted from image data
US9846681B2 (en) 2012-07-09 2017-12-19 Canon Kabushiki Kaisha Apparatus and method for outputting layout image
US9904879B2 (en) 2013-09-05 2018-02-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10013395B2 (en) 2012-07-09 2018-07-03 Canon Kabushiki Kaisha Apparatus, control method thereof, and storage medium that determine a layout image from a generated plurality of layout images by evaluating selected target images
JP7463903B2 (ja) 2020-08-13 2024-04-09 コニカミノルタ株式会社 画像検査装置、画像検査方法、および画像検査プログラム

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7197165B2 (en) 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US6925122B2 (en) * 2002-07-25 2005-08-02 National Research Council Method for video-based nose location tracking and hands-free computer input devices based thereon
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
JP2004206688A (ja) * 2002-12-12 2004-07-22 Fuji Photo Film Co Ltd 顔認識方法、顔切出方法、および撮像装置
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US7415137B2 (en) * 2002-12-13 2008-08-19 Canon Kabushiki Kaisha Image processing method, apparatus and storage medium
CN1282943C (zh) * 2002-12-30 2006-11-01 佳能株式会社 图像处理方法及装置
CN100465985C (zh) * 2002-12-31 2009-03-04 佳能株式会社 人眼探测方法及设备
JP2004236110A (ja) * 2003-01-31 2004-08-19 Canon Inc 画像処理装置、画像処理方法、記憶媒体及びプログラム
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8189927B2 (en) 2007-03-05 2012-05-29 DigitalOptics Corporation Europe Limited Face categorization and annotation of a mobile phone contact list
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7315630B2 (en) * 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7218774B2 (en) * 2003-08-08 2007-05-15 Microsoft Corp. System and method for modeling three dimensional objects from a single image
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
KR101094119B1 (ko) 2003-10-24 2011-12-15 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 양방향 비디오 디스플레이 시스템 운용 방법 및 시스템
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7362885B2 (en) * 2004-04-20 2008-04-22 Delphi Technologies, Inc. Object tracking and eye state identification method
JP4507679B2 (ja) * 2004-04-21 2010-07-21 富士ゼロックス株式会社 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
CN100377163C (zh) * 2004-08-09 2008-03-26 佳能株式会社 用于处理图像的方法和装置
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7620208B2 (en) * 2005-02-09 2009-11-17 Siemens Corporate Research, Inc. System and method for detecting features from images of vehicles
JP2006259924A (ja) * 2005-03-15 2006-09-28 Omron Corp 被写体認証装置、携帯電話、被写体認証ユニット、被写体認証方法、及び被写体認証プログラム
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US20070041613A1 (en) * 2005-05-11 2007-02-22 Luc Perron Database of target objects suitable for use in screening receptacles or people and method and apparatus for generating same
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
EP1886257A1 (en) * 2005-05-11 2008-02-13 Optosecurity Inc. Method and system for screening luggage items, cargo containers or persons
US8081822B1 (en) * 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US7903870B1 (en) * 2006-02-24 2011-03-08 Texas Instruments Incorporated Digital camera and method
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
US7899232B2 (en) * 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
JP4910507B2 (ja) * 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
US8494210B2 (en) * 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US7515740B2 (en) 2006-08-02 2009-04-07 Fotonation Vision Limited Face recognition with combined PCA-based datasets
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
KR100791387B1 (ko) * 2006-10-25 2008-01-07 삼성전자주식회사 영상 처리 방법 및 장치
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP5049356B2 (ja) 2007-02-28 2012-10-17 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド テクスチャ空間分解に基づく統計的顔モデリングにおける指向性照明変動性の分離
WO2008107002A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
WO2009035705A1 (en) 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US8089518B2 (en) * 2007-11-16 2012-01-03 Samsung Electronics Co., Ltd. System and method for automatic image capture in a handheld camera with a multiple-axis actuating mechanism
US8125512B2 (en) * 2007-11-16 2012-02-28 Samsung Electronics Co., Ltd. System and method for moving object selection in a handheld image capture device
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) * 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
CN106919911A (zh) 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
JP2010079569A (ja) * 2008-09-25 2010-04-08 Canon Inc 情報処理装置、その処理方法及びプログラム
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
CA3069211C (en) 2011-09-07 2022-06-21 Rapiscan Systems, Inc. X-ray inspection system that integrates manifest data with imaging/detection processing
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) * 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
KR102121532B1 (ko) * 2014-08-26 2020-06-10 삼성전자주식회사 프리뷰 영상 제공 방법 및 장치
TWI536279B (zh) * 2015-04-22 2016-06-01 緯創資通股份有限公司 人眼偵測方法及系統
KR102380862B1 (ko) * 2015-09-01 2022-03-31 삼성전자주식회사 영상 처리 방법 및 장치
CN105184823B (zh) * 2015-09-29 2018-03-09 南京理工大学 基于视觉感知的运动目标检测算法性能的评价方法
GB2564038B (en) 2016-02-22 2021-11-10 Rapiscan Systems Inc Systems and methods for detecting threats and contraband in cargo
US10535163B2 (en) * 2016-12-01 2020-01-14 Pinscreen, Inc. Avatar digitization from a single image for real-time rendering
WO2018102700A1 (en) * 2016-12-01 2018-06-07 Pinscreen, Inc. Photorealistic facial texture inference using deep neural networks
KR20200067465A (ko) 2018-12-04 2020-06-12 삼성전자주식회사 영상 처리 방법 및 장치
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01224881A (ja) * 1988-03-04 1989-09-07 Toshiba Mach Co Ltd パターン検査装置
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
DE4102895C1 (ja) * 1991-01-31 1992-01-30 Siemens Ag, 8000 Muenchen, De
EP1265190B1 (en) * 1993-12-10 2009-06-24 Ricoh Company, Ltd. Image recognition method for extracting/recognizing specific image from input image signal
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US6154566A (en) * 1996-05-15 2000-11-28 Omron Corporation Method and apparatus for determining image similarity and position
KR19990016896A (ko) * 1997-08-20 1999-03-15 전주범 얼굴영상에서 눈영역 검출방법
JP2000163594A (ja) * 1998-11-30 2000-06-16 Canon Inc 画像パタ―ン検出方法及び装置
JP3969894B2 (ja) * 1999-05-24 2007-09-05 三菱電機株式会社 顔画像処理装置
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
US6532301B1 (en) * 1999-06-18 2003-03-11 Microsoft Corporation Object recognition with occurrence histograms
US6539099B1 (en) * 1999-08-30 2003-03-25 Electric Planet System and method for visual chat
US6611622B1 (en) * 1999-11-23 2003-08-26 Microsoft Corporation Object recognition system and process for identifying people and objects in an image of a scene
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
US7840087B2 (en) 2003-07-31 2010-11-23 Canon Kabushiki Kaisha Image processing apparatus and method therefor
JP4580307B2 (ja) * 2005-08-12 2010-11-10 富士フイルム株式会社 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム
JP2007048169A (ja) * 2005-08-12 2007-02-22 Fujifilm Corp 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム
US8391595B2 (en) 2006-05-26 2013-03-05 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US8532431B2 (en) 2007-05-08 2013-09-10 Canon Kabushiki Kaisha Image search apparatus, image search method, and storage medium for matching images with search conditions using image feature amounts
US8401295B2 (en) 2008-02-07 2013-03-19 Nec Corporation Pose estimation
US8374439B2 (en) 2008-06-25 2013-02-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and computer-readable print medium
US8639030B2 (en) 2010-05-24 2014-01-28 Canon Kabushiki Kaisha Image processing using an adaptation rate
EP2391115A2 (en) 2010-05-24 2011-11-30 Canon Kabushiki Kaisha Image processing apparatus, control method, and program
US9398282B2 (en) 2010-05-24 2016-07-19 Canon Kabushiki Kaisha Image processing apparatus, control method, and computer-readable medium
US8442315B2 (en) 2010-07-16 2013-05-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US8842914B2 (en) 2010-07-16 2014-09-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US8934712B2 (en) 2010-07-16 2015-01-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US9002107B2 (en) 2010-07-16 2015-04-07 Canon Kabushiki Kaisha Color balance correction based on skin color and highlight color
US9406003B2 (en) 2010-07-16 2016-08-02 Canon Kabushiki Kaisha Image processing with color balance correction
US8457397B2 (en) 2010-07-16 2013-06-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
JP2014524631A (ja) * 2011-09-23 2014-09-22 アリババ・グループ・ホールディング・リミテッド 検索のための画像品質分析
US9214027B2 (en) 2012-07-09 2015-12-15 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable medium
US10127436B2 (en) 2012-07-09 2018-11-13 Canon Kabushiki Kaisha Apparatus, image processing method and storage medium storing program
US9280720B2 (en) 2012-07-09 2016-03-08 Canon Kabushiki Kaisha Apparatus, method, and computer-readable storage medium
US9292760B2 (en) 2012-07-09 2016-03-22 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable medium
US9299177B2 (en) 2012-07-09 2016-03-29 Canon Kabushiki Kaisha Apparatus, method and non-transitory computer-readable medium using layout similarity
US9208595B2 (en) 2012-07-09 2015-12-08 Canon Kabushiki Kaisha Apparatus, image processing method and storage medium storing program
US9189681B2 (en) 2012-07-09 2015-11-17 Canon Kabushiki Kaisha Image processing apparatus, method thereof, and computer-readable storage medium
US10013395B2 (en) 2012-07-09 2018-07-03 Canon Kabushiki Kaisha Apparatus, control method thereof, and storage medium that determine a layout image from a generated plurality of layout images by evaluating selected target images
US9501688B2 (en) 2012-07-09 2016-11-22 Canon Kabushiki Kaisha Apparatus, processing method and storage medium storing program
US10055640B2 (en) 2012-07-09 2018-08-21 Canon Kabushiki Kaisha Classification of feature information into groups based upon similarity, and apparatus, image processing method, and computer-readable storage medium thereof
US9519842B2 (en) 2012-07-09 2016-12-13 Canon Kabushiki Kaisha Apparatus and method for managing an object extracted from image data
US9275270B2 (en) 2012-07-09 2016-03-01 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
US9558212B2 (en) 2012-07-09 2017-01-31 Canon Kabushiki Kaisha Apparatus, image processing method and computer-readable storage medium for object identification based on dictionary information
US9563823B2 (en) 2012-07-09 2017-02-07 Canon Kabushiki Kaisha Apparatus and method for managing an object extracted from image data
US9846681B2 (en) 2012-07-09 2017-12-19 Canon Kabushiki Kaisha Apparatus and method for outputting layout image
US9852325B2 (en) 2012-07-09 2017-12-26 Canon Kabushiki Kaisha Apparatus, image processing method and storage medium storing program
US9542594B2 (en) 2013-06-28 2017-01-10 Canon Kabushiki Kaisha Information processing apparatus, method for processing information, and program
US9904879B2 (en) 2013-09-05 2018-02-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US9509870B2 (en) 2013-09-05 2016-11-29 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium enabling layout varations
US9436706B2 (en) 2013-09-05 2016-09-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for laying out images
JP7463903B2 (ja) 2020-08-13 2024-04-09 コニカミノルタ株式会社 画像検査装置、画像検査方法、および画像検査プログラム

Also Published As

Publication number Publication date
EP1211640A3 (en) 2003-10-15
US7103218B2 (en) 2006-09-05
EP1211640A2 (en) 2002-06-05
US6965684B2 (en) 2005-11-15
US20060018517A1 (en) 2006-01-26
US20020081032A1 (en) 2002-06-27

Similar Documents

Publication Publication Date Title
JP2002183731A (ja) 画像内の人間の目、顔及び他の対象物を検出する画像処理方法及びその装置
JP4845715B2 (ja) 画像処理方法、画像処理装置、プログラム、及び記憶媒体
JP4903854B2 (ja) デジタル画像におけるオブジェクト検出方法
US6816611B1 (en) Image processing method, facial region extraction method, and apparatus therefor
US7324693B2 (en) Method of human figure contour outlining in images
JP3833153B2 (ja) 画像処理方法及び装置
US8358838B2 (en) Red eye detecting apparatus, red eye detecting method and red eye detecting program stored on a computer readable medium
US20030174869A1 (en) Image processing apparatus, image processing method, program and recording medium
US20060153447A1 (en) Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program
US5892854A (en) Automatic image registration using binary moments
JP2007504719A (ja) 組み込みアプリケーションに適した、画像における赤目の検出と補正を行うシステム及び方法
JP2001109895A (ja) 複数のディジタル画像の処理方法
JP4535584B2 (ja) ディジタル画像処理方法
JP2002245048A (ja) 画像検索方法および画像検索装置
JP4772819B2 (ja) 画像検索装置および画像検索方法
JP2006129454A (ja) デジタル文書を変更する方法
US9131193B2 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP4867620B2 (ja) 画像処理装置及び画像処理プログラム
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2023082065A (ja) ユーザのバイオメトリック特性を有する画像中の物体を識別して、画像のうちバイオメトリック特性を含む部分を他の部分から分離することにより当該ユーザのidを検証するための方法
JP2007026308A (ja) 画像処理方法、画像処理装置
CN114494678A (zh) 文字识别方法和电子设备
CN112183253A (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
WO2023013546A1 (ja) コンピュータプログラム、生成装置、および、生成方法
JP2008102610A (ja) 画像処理装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081202