JP5018587B2 - オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体 - Google Patents

オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体 Download PDF

Info

Publication number
JP5018587B2
JP5018587B2 JP2008079355A JP2008079355A JP5018587B2 JP 5018587 B2 JP5018587 B2 JP 5018587B2 JP 2008079355 A JP2008079355 A JP 2008079355A JP 2008079355 A JP2008079355 A JP 2008079355A JP 5018587 B2 JP5018587 B2 JP 5018587B2
Authority
JP
Japan
Prior art keywords
image
detection
predetermined
image data
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008079355A
Other languages
English (en)
Other versions
JP2009237628A (ja
Inventor
翼 中塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008079355A priority Critical patent/JP5018587B2/ja
Priority to US12/409,064 priority patent/US20090245649A1/en
Publication of JP2009237628A publication Critical patent/JP2009237628A/ja
Application granted granted Critical
Publication of JP5018587B2 publication Critical patent/JP5018587B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Description

本発明は、オブジェクト検出方法、オブジェクト検出装置オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体に関し、特に、対象画像に含まれる所定オブジェクトを検出するオブジェクト検出方法、オブジェクト検出装置オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体に関する。
デジタルカメラの普及と家庭用プリンタの印刷品質向上に伴い、家庭でデジタル画像を印刷する機会が増えている。特に家庭で印刷されるデジタル画像は、デジタルカメラで撮影されたデジタル写真が多い。デジタル写真は光学的に取得されたデータであるため、そのまま印刷すると、実際に目で見た映像と違うと感じるユーザが多い。そこで、印刷前に写真データに画質調整を行い、ユーザの意図した印刷結果を得られるような画像データへの変換が行われている。無論、プリンタのみならず、デジタル画像を表示する機器としてのデジタルカメラやフォトビューワ等であっても、画像表示の際に画像データに対して画質調整を行い、表示結果がユーザにとって違和感の無い表示となるような画像データへの変換が行われることがある。
これら画像データの変換を適切に実行するためには、デジタル画像を解析し、デジタル画像の種類(人物写真、風景写真、ドキュメント等)判別を行ったり、デジタル画像に含まれるオブジェクト(人物の顔、山、海、建物、車両等)の位置や種類を特定したりする必要がある。特許文献1には、オブジェクトとして顔を検出する処理について記載されている。
特開2007−48108号公報
近年では、コンピュータを介さずに画像データをメモリカードやUSBメモリ13aなどから直接プリンタが取得し、取得した画像データの印刷を行うダイレクトプリンタが増えつつある。コンピュータ経由で画像入力されるプリンタであれば、コンピュータで画質調整済みの画像データを入力すればよいが、ダイレクトプリンタでは、自機内で前述の画像種類判別処理やオブジェクト位置特定処理を行って適切な画質調整を選択しなければならない。自機内でこれらの処理を行うためには、RAM等のワークエリアに画像データを展開する必要がある。しかしながら、家庭用プリンタでは、従来と同じ価格を維持することが市場から要求されており、コスト抑制のためにワークエリアサイズ増加が難しいという実状もある。
前述の実状があるにも関わらず、ワークエリアに読込まれるデータそのものは、デジタルカメラの撮像解像度向上や、パーソナルコンピュータの処理能力向上に伴うデジタルコンテンツの高解像度化、等に伴い増大する一方である。すなわち、ワークエリアサイズがシビアであるにもかかわらず、ワークエリアに読込まなければならない画像データ自体は増加している。このような実状は、デジタル写真を扱うデジタルカメラやフォトビューワでも同様である。
本発明は、前記課題に鑑みてなされたもので、デジタル画像データの展開に利用可能なワークエリアサイズが、デジタル画像データを展開するには不十分であっても、該デジタル画像データに対して適切な画質評価を実行可能なオブジェクト検出方法、オブジェクト検出装置オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体を提供する。
前記課題を解決するために、本発明のオブジェクト検出方法は、対象画像から所定オブジェクト画像を検出するオブジェクト検出方法であって、画像縮小工程と、画像分割工程と、検出工程とを備える構成としてある。
前記検出工程においては、画像と検出枠を利用して、該画像から所定オブジェクト画像を検出する。該画像とは、縮小画像もしくは分割画像の何れかであり、前記検出枠の大きさに応じて縮小画像と分割画像の何れを利用するかが決定される。前記検出枠が所定大きさ以上の場合は、前記検出工程において該検出枠と該縮小画像とを利用して前記所定オブジェクト画像を検出し、前記検出枠が所定大きさよりも小さい場合は、前記検出工程において該検出枠と該分割画像とを利用して前記所定オブジェクト画像を検出する。前記検出枠とは、前記対象画像の所定範囲を検出領域として設定するものである。前記縮小画像と前記分割画像は、本オブジェクト検出方法の検出対象となる対象画像に基づいて作成されるものであり、前記画像縮小工程と前記画像分割工程において作成される。
前記検出工程においては、設定された前記検出領域の範囲に含まれる前記画像から、前記所定オブジェクト画像の検出を試みる。すなわち、前記検出工程において縮小画像を利用する場合は、前記画像縮小工程で前記対象画像を縮小して縮小画像を作成し、前記検出工程において分割画像を利用する場合は、前記画像分割工程で前記対象画像を分割して分割画像を作成する。なお、前記検出枠を前記縮小画像に設定する場合は、前記検出枠を前記縮小画像の縮小率で縮小してから設定する。
前記所定オブジェクト画像とは、前記対象画像に含まれうる画像的特徴(顔、顔器官、マーキング等)である。前記検出枠は、1つの閉じた枠であってもよいし、複数の枠を所定の位置関係で配置したものであってもよい。前記所定大きさは、前記検出枠で指定される範囲の対象画像を前記画像縮小工程における縮小率で縮小した場合に、前記所定オブジェクト画像を検出するのに必要な細密度合を充足するか否かで決定される。細密度合とは、前記対象画像の細部がどの程度緻密に描かれているかを示す度合であり、例えば画像データであれば解像度に相当する。すなわち前記検出枠に含まれる画像の範囲が広く、前記画像が緻密に描かれていなくても所定オブジェクト画像の検出が可能な場合は、縮小画像を用いる。これに対し、前記検出枠に含まれる画像の範囲が狭く、前記検出領域の前記画像が細密に描かれていないと所定オブジェクト画像の検出が不可能な場合は、分割画像を用いるのである。
本発明の選択的な一側面として、前記画像分割工程において1つの対象画像から作成される分割画像の少なくとも1つは、前記対象画像の略中央の所定領域を含む構成としてもよい。
人が意図的に作成した画像においては、画像の略中央に主要なオブジェクトが配置される場合が多く、例えば人物の写真であれば人物の顔が略中央に配置されるように撮影されることが多い。従って、略中央の所定領域を分断しないように分割画像を作成して検出すべきオブジェクトの分断を防止し、オブジェクト検出漏れを防止する。
本発明の選択的な一側面として、前記画像分割工程において、1つの対象画像から作成された分割画像は、隣り合う部位から作成された分割画像に重複する部位を有する構成としてもよい。画像を分割すると、分割線上にオブジェクトが存在する場合があり、異なる分割画像に分断されたオブジェクトは検出できなくなる。そこで、隣接する部位から作成された分割画像に互いに重複する部位を持たせることにより、分割線上のオブジェクト検出漏れを防止する。
また、より確実に分割線上のオブジェクトを検出するための本発明の選択的な一側面として、前記重複する部位の幅は、前記検出枠の所定大きさに略一致する構成としてもよい。
該構成によれば、検出枠に収まる大きさのオブジェクトは、隣接する分割画像の一方で途切れても、隣接する分割画像の他方に必ず全体が含まれる。但し、前記重複する部位が大きい場合は対象画像と分割画像とで大きさがほとんど変わらないため、分割の利点が活用されない。しかしながら、本発明では、縮小画像と分割画像を併用しているため、分割画像に設定される検出枠は所定大きさよりも小さい。すなわち、画像の略全体を覆う検出枠を利用する場合には縮小画像データを利用して重複する部位の設定を不要とし、検出枠が小さくて重複する部位が少なくて済むようになると分割画像データを利用した検出に切換える。よって、重複部位を設定して確実なオブジェクト検出を可能にし、それでいて各分割画像が徒に大きくならないようにできる。
本発明の選択的な一側面として、前記検出工程において利用される画像は、所定量以下のデータを記憶可能な記憶媒体に記憶された画像データにて表現される画像であり、前記縮小画像の画像データと前記分割画像の画像データは、それぞれ前記所定量以下のデータとして作成されて前記記憶媒体に記憶される構成としてもよい。すなわち、粗い解析には縮小画像データを用いて処理を高速化し、細部の解析には分割画像データを用いて精度を確保するのである。よってワークエリアの少ない機器であっても容易に画像データの解析を実行できる。
前記記憶媒体とは、前記画像データの一時保存に利用可能な領域である。前記記憶媒体は容量の上限(所定量)が設定されており、前記縮小画像や前記分割画像の画像データは前記容量の上限を超えないデータ量に縮小もしくは分割される。分割画像のサイズは、該上限を超えない範囲であれば各分割画像のサイズが異なっても構わない。従って、前記上限を超えない範囲で分割数も適宜選択可能である。なお、前記記憶媒体は、オブジェクト検出を行うプログラム自体やプログラム実行時の各種変数を格納する記憶媒体と一体であってもよく、この場合は、前記画像データの一時保存に利用可能に確保されるワークエリアが前記記憶媒体に相当する。なお、実際に画像データから前記オブジェクトを検出する際は、画像データにおける変数(明度、彩度、色相等)の所定値、画像データにおける変数から算出された画像特徴量(コントラスト、勾配、標準偏差等)の所定値、変数や特徴量の所定の分布、等を画像的特徴として採用することになる。
本発明の選択的な一側面として、前記オブジェクト検出方法の各工程は、並列処理が可能なマルチコアプロセッサにて実行される処理であり、前記検出工程においては、前記マルチコアプロセッサを利用して、前記縮小画像データの解析処理と前記分割画像データの解析処理とを並列処理する構成としてもよい。
本発明においては、縮小画像データと分割画像データとを利用しているため、圧縮画像データと分割画像データを同時に前記記憶媒体に展開しても、メモリ使用量が少ない。従って、並列処理の実行が容易であり、スループットが向上する。なお、圧縮画像データと分割画像データを同時に前記記憶媒体に展開する場合は、圧縮画像データと分割画像データとを合わせたサイズが前記記憶媒体に記憶可能なデータ量となるように設定される。
前述したオブジェクト検出方法は、他の方法の一環として実施されたり各工程に対応する手段を備えたオブジェクト検出装置として実現されたりする等の各種の態様を含む。また、本発明は前記オブジェクト検出装置を備えるオブジェクト検出システム、前述した方法の構成に対応した機能をコンピュータに実現させるプログラム、該プログラムを記録したコンピュータ読み取り可能な記録媒体、等としても実現可能である。これらオブジェクト検出システム、オブジェクト検出装置、オブジェクト検出プログラム、該プログラムを記録した媒体、の発明も、前述した作用、効果を奏する。むろん、請求項2〜6に記載した構成も、前記システムや前記装置や前記プログラムや前記記録媒体に適用可能である。
以下、下記の順序に従って本発明の実施形態を説明する。
(1)画像処理装置の構成:
(2)画像処理の流れ:
(3)顔判定処理:
(4)変形例およびまとめ:
(1)画像処理装置の構成
図1は、本実施形態に係るオブジェクト検出装置を具体的に実現するプリンタの構成を示している。同図において、プリンタ100は、CPU10とRAM11とROM12と汎用インターフェイス(GIF)13とメモリカードインターフェース(MIF)14と印刷部15と操作パネル16と表示部17とバス18とから構成されている。バス18はプリンタ100を構成する各構成要素10〜17を相互通信可能に接続しており、図示しないチップセット等により通信が制御されている。ROM12には、ファームウェアを含む各種プログラムを実行するためのプログラムデータ12aが記憶されており、該プログラムデータ12aを適宜RAM11(所定量以下のデータを記憶可能な記憶媒体)に展開しつつCPU10がプログラムに従った演算を実行することにより、プリンタ100が制御される。
GIF13は、例えばUSB規格に準じたインターフェイスであり、外部のコンピュータと接続されたり、USBメモリ13a(半導体メモリ)が接続されたりする。MIF14はメモリカード14aを挿入可能なスロットに接続されており、MIFを介してCPU10がメモリカード14aにアクセスし、ファイルの読み出しと書き込みを実行可能である。操作パネル16は例えば複数のボタンとしてプリンタ100の筐体上に設けられており、CPU10は操作パネル16に対する入力操作を示す信号を取得する。表示部17は入力されたデータ基づいて各種の情報や画像等を表示可能であり、CPU10は表示部17に表示するべき内容を示すデータを表示部17に入力する。この結果、表示部17には、各種の情報や画像等が表示される。
印刷部15は、CMYK各色のインクが充填されたインクカートリッジ、該インクカートリッジのインクを記録媒体の記録面に向けて吐出する印刷ヘッド、該印刷ヘッドのインク吐出量をコントロールするASIC(Application Specific Integrated Circuits)、印刷ヘッドやインクカートリッジを搭載したキャリッジ機構の制御や記録媒体の送り速度の制御を行うコントロールIC、等を備えており、CPU10の制御に従って所定の画像データを記録媒体に印刷可能である。
図2は、プリンタ100において実行されるプログラムのソフトウェア構成を示している。同図において、プリンタ100ではファームウェアと画像処理モジュールMが実行されている。画像処理モジュールMは、画像縮小部M1と画像分割部M2と範囲設定部M3とオブジェクト検出部M4と画像補正部M5とを備えている。画像処理モジュールMは、ファームウェアを介してメモリカード14aやUSBメモリ13aから画像データを取得したり、画像データの印刷を印刷部15に指示したりする。なお、プリンタ100は、印刷機能以外にも、コピー機能やスキャナ機能など多種の機能を備えたいわゆる複合機であってもよい。以下、画像処理モジュールMを構成する各部M1〜M5が実行する処理の詳細について説明する。
(2)画像処理の流れ:
図3は本実施形態に係る画像処理の流れを示すフローチャート、図4は該画像処理における縮小画像解析処理の流れを示すフローチャート、である。図3の縮小画像解析処理と分割画像解析処理が本発明のオブジェクト検出処理に相当する。画像処理が開始されると、図4の縮小画像解析処理(ステップS100)が開始され、ステップS110(以下、「ステップ」の表記は省略。)において、画像縮小部M1が画像処理の対象となる画像(対象画像)の画像データD1(n×m画素)を取得し、該画像データD1を所定の縮小率(1/z(z>1))で縮小した縮小画像データD2((n/z)×(m/z)画素)を作成し、縮小画像データD2をRAM11のワークエリアに記憶する。
画像データD1は、メモリカード14aやUSBメモリ13a等、所定の記録メディアから取得される。むろん、プリンタ100がハードディスクドライブ(HDD)を有していれば、画像縮小部M1は、当該HDDに保存されている画像データD1を取得してもよいし、I/F部13を介してPCやサーバやDC等から画像データD1を取得してもよい。画像データD1は、表示部17に表示されたユーザインターフェース(UI)画面を参照してユーザが操作パネル16を操作することにより、対象画像として指定される。
画像データD1は、複数の画素からなるビットマップデータであり、それぞれの画素は、レッド(R),グリーン(G),ブルー(G)各チャンネルの階調(例えば、0〜255の256階調)の組合せで表現されている。画像データD1は、記録メディア等に記録されている段階ではJPEG等の所定の圧縮形式で圧縮されていてもよいし、他の色空間で各画素の色が表現されていてもよい。画像データD1がRGBビットマップデータでない場合は、画像縮小部M1は、画像データD1の展開や色空間の変換を実行してRGBビットマップデータとしての画像データD1を取得する。
縮小画像データD2は、取得した画像データD1から画素数を減らすなどして画像サイズを縮小したビットマップデータである。サイズ縮小は、画素数を間引いたり、所定数の画素から補間演算で新たな1画素を作成したりして行われる。縮小画像データD2は、RAM11のワークエリアに格納可能なサイズ以下に縮小されて、該ワークエリアに記憶される。ここで言うワークエリアとは、RAM12においてオブジェクト検出処理に係る画像データの一時保存に使用可能な記憶領域であり、プリンタ100の制御プログラムの実行に必要な記憶領域を除いた記憶領域である。なお、画像データD1がそのままのサイズでワークエリアに格納可能であれば、縮小画像データD2や後述の分割画像データD3の作成せずに、画像データD1を利用して後述のオブジェクト検出を行ってもよい。
また、後述のオブジェクト検出処理に必要な画像情報が輝度情報だけであれば、縮小画像データD2はグレースケールのビットマップデータで作成されてもよい。同じ画素数の縮小画像であっても、グレースケール画像の方がカラー画像よりもデータ量が少ないので、処理データが減少してオブジェクト検出処理の速度を向上させたり、縮小画像データの縮小率を抑制したりできる。なお、グレースケール化は、画像データD1の段階で行ってもよいし、縮小画像データD2に縮小してから行ってもよい。ただし、画像データD1の段階で予めグレースケール化しておくと縮小処理における演算量が低下する。
S115〜S165では、範囲設定部M3が各種サイズの検出窓W1(検出枠)を縮小画像内に設定して窓画像データWDを取得し、オブジェクト検出を行う。検出窓W1は縮小画像の一部を範囲指定する仮想的な枠であり、オブジェクト検出部M4が検出窓W1で指定された範囲の縮小画像のデータを窓画像データWDとして取得して解析し、後述のオブジェクト検出処理を行う。本実施形態においては、検出窓W1を正方形状の枠として説明を行うが、検出窓W1の形状には、円形,矩形,三角形等、任意の形状を採用可能であるし、さらには1つの閉じた範囲を指定するもののみならず、複数の閉じた範囲を組合せて指定するものであってもよい。
S115では、各カウンタn,nx1,ny1をリセットする。nはサイズカウンタであり、検出窓W1のサイズパラメータS1や後述の検出窓W0のサイズパラメータS0を順にシフトさせるための整数値である。nx1はx方向カウンタであり、検出窓W1の中心位置P1をx軸方向にシフトさせるための整数値である。ny1はy方向カウンタであり、検出窓W1の中心位置P1をy軸方向にシフトさせるための整数値である。これらのカウンタはリセットにより例えば1に初期化される。なお、本実施形態においては、縮小画像データD2の長手方向をx軸とし、短手方向をy軸とし、x軸とy軸の原点は作業画像データの左上端としてある。
図5は、カウンタnsと検出窓W1のサイズS1との関係、およびカウンタnと検出窓W0のサイズS0との関係を示している。同図に示すように、サイズカウンタnの増加とともに、検出窓W1のサイズS1(縦と横の長さ)が徐々に減少する。同様に、サイズカウンタnの増加とともに、検出窓W0のサイズS0(縦と横の長さ)が徐々に減少する。本実施例では、サイズカウンタnとサイズS1やサイズS0が線形的な関係を有し、カウンタnが1〜15の間で1増加する毎に、検出窓W1のサイズS1(縦および横の長さ)が12/z画素ずつ小さくなるようにし、検出窓W0のサイズS0(縦および横の長さ)が12画素ずつ小さくなるようにしている。また、カウンタnが1のときの最大のサイズS1が検出窓W1の短手の長さよりわずかに短い200/z画素となり、カウンタnが1のときの最大のサイズS0が検出窓W0の短手の長さよりわずかに短い200画素となる。また、カウンタnが15のときの最小の検出窓W1のサイズS1が20/z画素となり、カウンタnが15のときの最小の検出窓W0のサイズS0が20画素となる。なお、ここで示したカウンタnと検出窓W1のサイズS1の関係や、カウンタnと検出窓W0のサイズS0の関係は一例であり、これらが非線形の関係を有していたり、傾きや切片などを変更したりしてもよい。
図6は、対象画像を縮小画像から分割画像へと切換えるタイミングを説明する図である。窓画像データWDに含まれる画素数が、所定画素数(例えば4×4画素等)を下回るとオブジェクト検出処理において画像特徴量が抽出できなくなる。すなわち、窓画像データWDが所定画素数を下回ると対象画像に対するオブジェクト検出処理を終了する。縮小画像は分割画像よりも解像度が低いため、縮小画像から取得される窓画像データWDは分割画像のものよりも早くこの所定画素数に到達してしまう。そこで、検出窓W1で取得される窓画像データWDの画素数が所定数を下回ると、対象画像を分割画像に切換える。
図5に示すように、分割画像データD3に設定される検出窓W0のサイズS0と縮小画像データD1に設定される検出窓W1のサイズS1との間には、S1=S0/z、の関係が成り立っている。すなわち検出窓W1の最小サイズSminと、分割画像データD3に適用される検出窓W0の最大サイズS0maxとは、以下の関係を満たす。
0max≒Smin×z 且つ S0max>Smin×z
120では、範囲設定部M3が縮小画像に中心位置P1を中心としてサイズSの検出窓W1を設定する。
125では、オブジェクト検出部M4が、窓画像データWD(検出窓W1内の画像データ)を取得して解析し、該窓画像データWDの画像特徴量に基づいて顔画像(所定のオブジェクト)検出を行う。画像特徴量は、窓画像データWDに対して各種のフィルタを適用し、当該フィルタ内の輝度やエッジやコントラスト等の状態を示す特徴量(平均値、最大値、最小値、標準偏差等)を算出することにより得られる。なお、窓画像データWDは、検出窓W1のサイズによって大きさが異なるが、解析を行う際に予め一定の大きさに解像度変換される。
図7は、窓画像データWDから特徴量を算出する様子を示している。同図において、窓画像データWDに対して多数のフィルタFTが用意されており、各フィルタFTを順次窓画像データWDに適用し、各フィルタFT内の画像について例えば12個の特徴量CA1〜CA12を順次算出する。特徴量CA1〜CA12が算出できると、ステップS125において、オブジェクト検出部M4が特徴量CA1〜CA12を予め用意されたニューラルネットワークNNに入力し、その出力として顔画像等が存在する/しないの判定結果を算出する。判定の結果、画像特徴量に顔画像を検出すると、オブジェクト検出部M4は、顔画像の検出位置をRAM11に記憶する。
図8は、ニューラルネットワークNNを学習する様子を模式的に示している。ニューラルネットワークNNは、前段層のユニットUの値の線形結合によって後段層のユニットUの値が決定される基本構造を有している。さらに、入出力関係の非線形特性に対応するために、線形結合によって得られた値を、例えばハイパボリックタンジェント関数のような非線形関数によって変換することにより、次の層のユニットUの値を決定するのが望ましい。本実施形態では、誤差逆伝搬(error back propagation)法によって学習を行うことにより、各ユニットUの数や、各ユニットU間における線形結合の際の重みwの大きさやバイアスbの値が最適化される。誤差逆伝搬法による学習においては、まず各ユニットU間における線形結合の際の重みwの大きさやバイアスbの値を適当な値に初期設定する。
そして、顔画像が存在しているか否かが既知の学習用画像データについてステップS125と同様の手順で特徴量CA1〜CA12を算出し、当該特徴量CA1〜CA12を初期設定されたニューラルネットワークNNに入力し、その出力値Kを取得する。学習用画像データはできるだけ多く用意するべきであり、様々な状態の顔画像が検出できるように、種々の人種や性別や年齢等をカバーするように用意する必要がある。さらに、デジタルスチルカメラ等によって撮影された画像データに含まれる顔画像は種々の方向に向いている可能性がある。そのため、種々の方向に向いた顔画像を含む学習用画像データを用意する。また、上下に顔を向けるより左右に顔を向けて撮影される可能性が高いため、左右に顔を向けて撮影された学習用画像データの方が多数用意される。
本実施例のニューラルネットワークNNは、顔画像が存在している学習用画像データに対して出力値Kとして1を出力するのが望ましく、顔画像が存在していない学習用画像データに対して出力値Kとして0を出力するのが望ましい。しかしながら、各ユニットU間における線形結合の際の重みwの大きさやバイアスbの値を適当な値に初期設定したに過ぎないため、実際の出力値Kと理想的な値との間には誤差が生じる。このような誤差を極小化させる各ユニットUについての重みwやバイアスbを、勾配法等の数値最適化手法を用いて算出する。この誤差は、後段の層から前段の層に伝搬され、後段のユニットUについて重みwやバイアスbの順に最適化されていく。以上のように最適化されたニューラルネットワークNNを用いると、窓画像データWDに顔画像が存在している場合の特徴量CA1〜CA12に対して1に近い出力値Kを得ることができ、窓画像データWDに顔画像が存在していない場合の特徴量CA1〜CA12に対して0に近い出力値Kを得ることができる。従って、適当な閾値0.5によって閾値判定を行うことにより、窓画像データWDに顔画像が存在しているか否かを判定することができる。
オブジェクト検出処理において窓画像データWDについて顔画像が存在すると判定された場合、オブジェクト検出部M4は、窓画像データWDが得られた検出窓W1のサイズS1および位置P0および回転角TをRAM12に記憶させてリターンする。一方、オブジェクト検出処理において窓画像データWDについて顔画像が存在しないと判定された場合、そのままリターンする。
S130〜S165では、検出窓W1のサイズを変更しつつ、各サイズの検出窓W1を縮小画像内に隈無く設定する。検出窓W1は、例えば下記式(1)に基づいて設定位置が決定される。
Figure 0005018587

前記式(1)において、P1(x,y)は検出窓W1の中心位置、d x1,d y1は検出窓W1の中心位置P1の各方向への単位移動距離(画素数)を示す一定の移動間隔を表しており、移動間隔d x1,d y1と方向カウンタn x1,n y1をそれぞれ乗算することにより、検出窓W1の中心位置P1のx,y座標を算出する。前記式(1)にて算出される中心位置P1は、検出窓W1のサイズに応じて対象画像内に隈無く設定されるため、検出窓W1は対象画像に隈無く設定されることになる。なお、移動間隔d y1<1となる場合は、d y1=1とする。なお、x方向カウンタn x1が取り得る範囲は1〜[縮小画像データのx方向画素数]/d x1の整数値とし、y方向カウンタn y1は1〜[縮小画像データのy方向画素数]/d y1の整数値とする。すなわち、検出窓W1の単位移動距離は、検出窓W1が大きいほど長く、検出窓W1が小さいほど短くなる。
S130では、検出窓W1がx軸方向の右端まで到達したか否かを判断する。検出窓W1が右端に到達していない場合は、S135でx方向カウンタを1増加(インクリメント)して検出窓W1をx軸方向に単位移動距離dx1だけ移動させる。検出窓W1が右端に到達している場合は、S140でx方向カウンタnx1を1にして検出窓W1を左端に戻してS145に進む。
S145では、検出窓W1がy軸方向の下端まで到達したか否かを判断する。検出窓W1が下端に到達していない場合は、S150でy方向カウンタny1をインクリメントして検出窓W1をy軸方向に単位移動距離dy1だけ移動させる。検出窓W1が下端に到達している場合は、S155でy方向カウンタny1を1にして検出窓W1を上端に戻してS160に進む。
S160では、検出窓W1のサイズが所定サイズに到達しているが否かを判断する。検出窓W1が所定サイズ(図4ではn=9)に到達している場合は、縮小画像解析処理を終了してリターンする。検出窓W1が所定サイズに到達していない場合は、S165でサイズカウンタnをインクリメントして検出窓W1のサイズS1を単位量縮小し、S120からの処理を繰り返す。
図9は、図3におけるS200の分割画像解析処理のフローチャートである。
S210では、画像分割部M2が、画像データD1から対象画像を分割した一の分割画像についての分割画像データを作成する。本実施形態においては画像データD1を4分割するものとし、分割画像データD3〜D6のいずれか本処理において未作成のデータを作成する。分割画像データD3のサイズは、前記RAM11のワークエリアに格納可能なサイズ以下であり、作成された分割画像データD3は、ワークエリアに記憶される。縮小画像データD3は、前述の縮小画像データD2の場合と同様に、オブジェクト検出処理に必要な情報が輝度情報だけであれば、グレースケールのビットマップデータにしてもよい。なお、グレースケール化は、予め画像データD1の段階で行ってもよいし、分割画像データD3に分割してから行ってもよい。
図10、図11は分割画像について説明する図である。画像を分割すると、分割線上に顔等のオブジェクトが存在する場合があり、異なる分割画像データに分断されたオブジェクトは検出できなくなる。そこで、分割画像データに含まれる分割画像は、隣接する分割画像との間に重複する部位を有するように分割されている。図10では、画像データD1を4分割して分割画像データD31〜D34を作成している。分割画像データD31,D32では重複部P1が、分割画像データD31,D33では重複部P2が、分割画像データD33,D34では重複部P3が、分割画像データD32,D34では重複部P4が、それぞれ共有されている。
このように重複する部位を設けることにより、図11に示すように、分割画像D31において右端が途切れたオブジェクトO1は、分割画像D32に完全な形で含まれるし、分割画像D32において左端が途切れたオブジェクトO2は、分割画像D31に完全な形で含まれることになる。よって、分割画像を利用したオブジェクト検出において、元画像に存在するオブジェクトは、隣接する分割画像の一方で検出されなくても他方の分割画像において確実に検出されるため、検出漏れが発生しない。
また、より確実に分割線上のオブジェクトを検出しつつ、分割画像データのサイズを最小限にするためには、重複する部位の幅を検出枠W0の最大サイズに一致させるとよい。検出枠W0の最大サイズ以上の大きさのオブジェクトは、縮小画像データで検出されるから、それ以上の幅の重複部は不要だからである。重複する部位の幅を検出枠W0の最大サイズに一致させると、確実なオブジェクト検出を可能としつつ、オブジェクト検出の解析対象となる分割画像データの大きさが必要最小限になる。
S215〜S265では、範囲設定部M3が各種サイズの検出窓W0(検出枠)を分割画像内に設定する。検出窓W0は縮小画像の一部を範囲指定する仮想的な枠であり、オブジェクト検出部M4が検出窓W0で指定された範囲の縮小画像のデータを窓画像データWDとして取得し、後述のオブジェクト検出処理を行う。検出窓W0は、前述の検出窓W1と同様に様々な形状を採用可能である。以下、S215〜S265の処理において、縮小画像解析処理と共通する部分については説明を簡略する。
S215では、各カウンタnS,nx0,ny0,nリセットする。nx0はx方向カウンタであり、検出窓W0の中心位置P0をx軸方向にシフトさせるための整数値である。ny0はy方向カウンタであり、検出窓W0の中心位置P0をy軸方向にシフトさせるための整数値である。nは解析済みの分割画像データをカウントする整数値である。これらのカウンタはリセットにより例えば1に初期化される。サイズカウンタnSは、縮小画像データと共通のサイズカウンタnSを使用する。ただし、縮小画像解析処理の終了時の値を記憶しておき、S215のリセットにおいてはこの記憶された値にリセットされる。縮小画像データに設定された検出窓W1で検出済みのサイズのオブジェクトとの重複検出を防止するためである。なお、分割画像データにおいても、画像データD3〜D6の長手方向をx軸とし、短手方向をy軸とし、x軸とy軸の原点は作業画像データの左上端としてある。
S220では、範囲設定部M3が分割画像に中心位置P0を中心としてサイズS0の検出窓W0を設定する。
S225では、オブジェクト検出部M4が、窓画像データWD(検出窓W0内の画像データ)を取得して解析し、該窓画像データWDの画像特徴量に基づいて顔画像(所定のオブジェクト)検出を行う。なお、窓画像データWDは、検出窓W0のサイズによって大きさが異なるが、解析を行う際に予め一定の大きさに解像度変換される。画像特徴量の算出および解析は縮小画像データD2の場合と同様であるので説明を省略する。
S230〜S265は、検出窓W0のサイズを変更しつつ、各サイズの検出窓W0を分割画像内に隈無く設定する。検出窓W0は、例えば下記式(2)に基づいて設定位置が決定される。
Figure 0005018587

前記式(2)において、P0(x,y)は検出窓W0の中心位置、d x0,d y0は検出窓W0の中心位置P0の各方向への単位移動距離(画素数)を示す一定の移動間隔を表しており、移動間隔d x0,d y0と方向カウンタn x0,n y0をそれぞれ乗算することにより、検出窓W0の中心位置P0のx,y座標を算出する。前記式(2)にて算出される中心位置P0は、検出窓W0のサイズに応じて分割画像内に隈無く設定されるため、検出窓W0は分割画像に隈無く設定されることになる。なお、移動間隔d y0<1となる場合は、d y0=1とする。なお、x方向カウンタn x0が取り得る範囲は1〜[分割画像データのx方向画素数]/d x0の整数値とし、y方向カウンタn y0は1〜[分割画像データのy方向画素数]/d y0の整数値とする。すなわち、検出窓W0の単位移動距離は、検出窓W0が大きいほど長く、検出窓W0が小さいほど短くなる。
S230では、検出窓W0がx軸方向の右端まで到達したか否かを判断する。検出窓W0が右端に到達していない場合は、S235でx方向カウンタをインクリメントして検出窓W0をx軸方向に単位移動距離dx0だけ移動させる。検出窓W0が右端に到達している場合は、S240でx方向カウンタnx0を1にして検出窓W0を左端に戻してS245に進む。
S245では、検出窓W0がy軸方向の下端まで到達したか否かを判断する。検出窓W0が下端に到達していない場合は、S250でy方向カウンタny0をインクリメントして検出窓W0をy軸方向に単位移動距離dy0だけ移動させる。検出窓W0が下端に到達している場合は、S255でy方向カウンタny0を1にして検出窓W0を上端に戻してS260に進む。
S260では、検出窓W0のサイズが所定サイズに到達しているが否かを判断する。この所定サイズは前述の縮小画像データにおける所定サイズと同様の基準であり、窓画像データWDの画素数が、オブジェクト検出処理において解析可能な所定画素数を下回るサイズである。検出窓W0が所定サイズに到達している場合は、S270に進む。検出窓W0が所定サイズに到達していない場合は、S265でサイズカウンタnをインクリメントして検出窓W0のサイズS0を単位量縮小し、S220からの処理を繰り返す。
S270では、サイズカウンタnをリセットする。S270では、S215におけるリセットと同様に、縮小画像解析処理の終了時の値にリセットされる。
S275では、分割画像データD31〜D34の全てを解析終了したか否かを判断する。すなわち、分割画像データのカウンタnを設けておき、nが所定数に到達したか否かを判断する。本実施形態においては4分割しているので、nは1〜4の範囲の整数値であり、nが5に到達すると全ての分割画像データを解析終了したことを意味する。S275において、nが5であれば分割画像解析処理を終了してリターンし、nDが4以下であればS280に進んでnDをインクリメントし、S210に戻る。S210に戻ると、本分割画像解析処理において未解析の分割画像データを作成して作成保存し、S215以降の処理を行う。
(4)肌色調整および印刷処理
図12は、画質補正部M5が実行する肌色調整処理(画質調整処理)の流れを示している。上述した画質調整処理のS310においては、縮小画像解析処理と分割画像解析処理の終了を検出し、調整対象の画像データD1を取得する。ステップS320においては、顔画像が存在すると判定された検出窓W1,W0のサイズS1,S0および位置P1,P0をRAM12から読み出す。ステップS330においては、顔画像が存在すると判定された検出窓W1,W0に対応する領域を画像データD1において特定する。検出窓W1,W0のサイズS1,S0および位置P1,P0がRAM12から取得されているため、これを画像データD1の画像サイズに換算することにより、検出窓に対応する領域を特定することができる。
ステップS340においては、ステップS340にて特定した領域に含まれる肌色画素の色を調整する処理を実行する。ここでは、まずステップS340にて特定した領域に含まれる肌色画素を、各画素の色彩値(例えばRGB値やHSV値)に基づいて特定し、当該色彩値を肌色として好ましいものに補正する。具体的には、予め肌色として好ましい色彩値がHDD14に記憶されており、各肌色画素の色彩値が好ましい色彩値に近づくように補正を行う。検出窓W1,W0によって顔画像が存在する領域が予め特定されているため、顔画像の肌色画素についてのみ補正を行うことができる。なお、顔画像が存在すると判定された検出窓が複数検出された場合には、そのそれぞれについて肌色調整を実行する。以上のようにして、肌色調整が完了すると、ステップS350にて調整後の画像データD1を印刷部15に出力する。すると、印刷部15は、画像データD1に対して解像度変換処理と色変換処理とハーフトーン処理とラスタライズ処理を順次実行して画質調整後の画像データD1に対応する画像の印刷を実行する。
(4)まとめおよび変形例:
以上説明したように、本実施形態によれば、範囲設定部M3で対象画像に検出窓が設定され、検出窓内の対象画像をオブジェクト検出部M4で解析して所定オブジェクトを検出する。オブジェクト検出部M4において解析される画像データは、縮小画像データもしくは分割画像データであり、検出窓W0が所定サイズ以上の場合は縮小画像データを解析対象とし、検出窓W0が所定サイズよりも小さい場合は分割画像データを解析対象とする。解析対象が決定されると、画像縮小部M1で対象画像の画像データを縮小して縮小画像データを作成したり、画像分割部M2で前記対象画像の画像データを分割して分割画像データを作成したりする。よって、デジタル画像データの展開に利用可能なワークエリアサイズが、デジタル画像データを展開するには不十分であっても、該デジタル画像データに対して適切な画質評価を実行可能になる。
ところで、顔判定処理は、前述のニューラルネットワークで学習した結果を用いる以外に、例えば複数の判定器J,J…を複数段カスケード状に接続した判定手段を使用してもよい。図13は、顔判定処理の判定手法を示す模式図である。各判定器J,J…は、それぞれ異なる種類(例えばフィルタが異なる)の単数または複数の特徴量CA,CA,CA…をそれぞれ入力し、それぞれ正または否の判定を出力する。各判定器J,J…の判定アルゴリズムは、それぞれ特徴量CA,CA,CA…の大小比較や閾値判定等であり、各判定器で異なる判定アルゴリズムが採用されている。各判定器J,J…は、前の段の判定器J,J…の正の出力に接続されており、前の段の判定器J,J…の出力が正であった場合のみ次の段の判定器J,J…が判定を行う。いずれの段においても否の出力がなされると、顔画像が存在しない旨の判定を出力して顔判定処理を終了する。一方、各段の判定器J,J…がすべて正の出力をすると、顔画像が存在する旨の判定を出力して顔判定処理を終了する。
図14は、本変形例にかかる判定手法における判定特性を示している。同図においては、各判定器J,J…において使用される特徴量CA,CA,CA…の軸で定義される特徴量空間を示しており、最終的に顔画像が存在すると判定される窓画像データWDから得られる特徴量CA,CA,CA…の組合せで表される特徴量空間内の座標をプロットしている。顔画像が存在すると判定される窓画像データWDは一定の特徴を有しているため、特徴量空間における一定の領域に分布が見られると考えることができる。各判定器J,J…は、このような特徴量空間において境界平面を生成し、当該境界平面で区切られた空間のうち、前記分布が属する空間に判定対象の特徴量CA,CA,CA…の座標が存在している場合には、正を出力する。従って、各判定器J,J…をカスケード状に接続することにより、徐々に正と出力される空間を絞り込んでいくことができる。複数の境界平面によれば、複雑な形状の前記分布についても精度よく判定を行うことができる。
画像データでは略中央に重要なオブジェクトが配置されることが多く、例えば図15のように略中央に顔画像が配置されることが考えられる。そこで、分割画像データを作成するにあたり、図15の各分割例のように対象画像の略中央の所定領域が何れかの分割画像データに完全な形で含まれるようにするとよい。特に人物の写真は、人物の顔が略中央に配置されるように撮影されることが多い。従って、略中央の所定領域が分断されないように分割画像を作成すると、検出すべきオブジェクトが分断されにくく、オブジェクト検出が成功しやすくなる。なお、図15においては、左右方向および上下方向の双方において中央に顔画像を配置してあるが、略中央とは、左右方向と上下方向の一方で中央に位置するものであっても構わない。
プリンタ100に搭載されているCPUが、マルチコアプロセッサであれば、前述したオブジェクト検出処理において、縮小画像解析処理と分割画像解析処理を並列処理してもよい。本発明においては、縮小画像データと分割画像データとを利用しているため、圧縮画像データと分割画像データを同時に前記ワークエリアに展開しても、メモリ使用量が少ない。従って、並列処理の実行が容易であり、へ入れる処理を行うと処理が高速化する。なお、圧縮画像データと分割画像データを同時に前記記憶媒体に展開する場合は、圧縮画像データと分割画像データとを合わせたサイズが前記ワークエリアに記憶可能なデータ量となるように設定される。
なお、前述した実施形態においては、検出窓のサイズを徐々に小さくしていき、縮小画像解析処理を終了するか否かの判定において検出窓のサイズを判定する例について説明を行ったが、検出窓のサイズを徐々に小さくするのではなく、ランダムに変化させても構わない。ランダムに変化させる場合は、対象画像に対する検出窓の大きさを決定した後に、縮小画像解析処理を実行するか分割画像解析処理を実行すればよい。
なお、本発明は上述した実施形態や変形例に限られず、上述した実施形態および変形例の中で開示した各構成を相互に置換したり組合せを変更したりした構成、公知技術並びに上述した実施形態および変形例の中で開示した各構成を相互に置換したり組合せを変更したりした構成、等も含まれる。
プリンタのハードウェアブロック構成図である。 プリンタのソフトウェアブロック構成図である。 画像処理の流れを示すフローチャートである。 縮小画像解析処理の流れを示すフローチャートである。 サイズカウンタ検出窓のサイズの関係示す図である。 画像切換えタイミングを説明する図である。 窓画像データから特徴量を算出する様子を示している。 ニューラルネットワークNNを学習する様子を示す模式図である。 分割画像解析処理の流れを示すフローチャートである。 分割画像について説明する図である。 分割画像について説明する図である。 肌色調整処理の流れを示すフローチャートである。 顔判定処理の判定手法を示す模式図である。 変形例にかかる判定手法における判定特性を示す図である。 分割の仕方の変形例である。
符号の説明
10…CPU、11…RAM、12…ROM、13…USBI/F、14…カードデバイスI/F、15…印刷部、16…操作パネル、17…表示部、100…プリンタ、M1…画像縮小部、M2…画像分割部、M3…範囲設定部、M4…オブジェクト検出部、M5…画像補正部

Claims (10)

  1. 対象画像から所定オブジェクト画像を検出するオブジェクト検出方法であって、
    前記対象画像を縮小して縮小画像を作成する画像縮小工程と、
    前記対象画像を分割して分割画像を作成する画像分割工程と、
    前記縮小画像又は前記分割画像のいずれかの画像に対して前記オブジェクト画像を検出する範囲を指定する検出枠を利用して、前記検出枠を所定の縮小度合いで縮小させつつ前記いずれかの画像から所定オブジェクト画像を検出する検出工程と、
    を有し、
    前記検出工程では、前記検出枠が所定大きさ以上の場合は、所定の縮小度合いにより縮小される第一の検出枠と前記縮小画像とを利用し、前記検出枠が所定大きさよりも小さい場合は、前記第一の検出枠と比べて縮小度合いが異なる第二の検出枠と前記分割画像とを利用して前記所定オブジェクト画像を検出することを特徴とするオブジェクト検出方法。
  2. 前記画像分割工程において、1つの対象画像から作成される分割画像の少なくとも1つは、前記対象画像の略中央の所定領域を含む請求項1に記載のオブジェクト検出方法。
  3. 前記画像分割工程において、1つの対象画像から作成された分割画像は、隣り合う部位から作成された分割画像に重複する部位を有する請求項1又は請求項2に記載のオブジェクト検出方法。
  4. 前記重複する部位の幅は、前記検出枠の所定大きさに略一致する請求項3に記載のオブジェクト検出方法。
  5. 前記検出工程において利用される画像は、所定量以下のデータを記憶可能な記憶媒体に記憶された画像データにて表現される画像であり、
    前記縮小画像の画像データと前記分割画像の画像データは、それぞれ前記所定量以下のデータとして作成されて前記記憶媒体に記憶される請求項1〜請求項4の何れか1項に記載のオブジェクト検出方法。
  6. 前記オブジェクト検出方法の各工程は、並列処理が可能なマルチコアプロセッサにて実行される処理であり、
    前記検出工程においては、前記マルチコアプロセッサを利用して、前記縮小画像データの解析処理と前記分割画像データの解析処理とを並列処理する請求項5に記載のオブジェクト検出方法。
  7. 対象画像から所定オブジェクト画像を検出するオブジェクト検出装置であって、
    前記対象画像を縮小して縮小画像を作成する画像縮小手段と、
    前記対象画像を分割して分割画像を作成する画像分割手段と、
    前記縮小画像又は前記分割画像のいずれかの画像に対して前記オブジェクト画像を検出する範囲を指定する検出枠を利用して、前記検出枠を所定の縮小度合いで縮小させつつ前記いずれかの画像から所定オブジェクト画像を検出する検出手段と、
    前記検出手段は、前記検出枠が所定大きさ以上の場合は、所定の縮小度合いにより縮小される第一の検出枠と前記縮小画像とを利用し、前記検出枠が所定大きさよりも小さい場合は、前記第一の検出枠と比べて縮小度合いが異なる第二の検出枠と前記分割画像とを利用して前記所定オブジェクト画像を検出することを特徴とするオブジェクト検出装置。
  8. 入力された画像データの画像から前記所定オブジェクト画像を検出し、検出された所定オブジェクト画像に基づいて前記画像データに画質調整処理を行い、画質調整後の画像データの印刷を行う印刷装置である請求項7に記載のオブジェクト検出装置。
  9. 対象画像から所定オブジェクト画像を検出する機能をコンピュータに実現させるためのオブジェクト検出プログラムであって、
    前記対象画像を縮小して縮小画像を作成する画像縮小機能と、
    前記対象画像を分割して分割画像を作成する画像分割機能と、
    前記縮小画像又は前記分割画像のいずれかの画像に対して前記オブジェクト画像を検出する範囲を指定する検出枠を利用して、前記検出枠を所定の縮小度合いで縮小させつつ前記いずれかの画像から所定オブジェクト画像を検出する検出機能と、
    をコンピュータに実現させ、
    前記検出機能は、前記検出枠が所定大きさ以上の場合は、所定の縮小度合いにより縮小される第一の検出枠と前記縮小画像とを利用し、前記検出枠が所定大きさよりも小さい場合は、前記第一の検出枠と比べて縮小度合いが異なる第二の検出枠と前記分割画像とを利用して前記所定オブジェクト画像を検出するオブジェクト検出プログラム。
  10. 対象画像から所定オブジェクト画像を検出する機能をコンピュータに実現させるためのオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体であって、
    前記対象画像を縮小して縮小画像を作成する画像縮小機能と、
    前記対象画像を分割して分割画像を作成する画像分割機能と、
    前記縮小画像又は前記分割画像のいずれかの画像に対して前記オブジェクト画像を検出する範囲を指定する検出枠を利用して、前記検出枠を所定の縮小度合いで縮小させつつ前記いずれかの画像から所定オブジェクト画像を検出する検出機能と、
    をコンピュータに実現させ、
    前記検出機能は、前記検出枠が所定大きさ以上の場合は、所定の縮小度合いにより縮小される第一の検出枠と前記縮小画像とを利用し、前記検出枠が所定大きさよりも小さい場合は、前記第一の検出枠と比べて縮小度合いが異なる第二の検出枠と前記分割画像とを利用して前記所定オブジェクト画像を検出するオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体。
JP2008079355A 2008-03-25 2008-03-25 オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体 Expired - Fee Related JP5018587B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008079355A JP5018587B2 (ja) 2008-03-25 2008-03-25 オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体
US12/409,064 US20090245649A1 (en) 2008-03-25 2009-03-23 Method, Program and Apparatus for Detecting Object, Computer Readable Recording Medium Storing Object Detection Program, and Printing Apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008079355A JP5018587B2 (ja) 2008-03-25 2008-03-25 オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2009237628A JP2009237628A (ja) 2009-10-15
JP5018587B2 true JP5018587B2 (ja) 2012-09-05

Family

ID=41117315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008079355A Expired - Fee Related JP5018587B2 (ja) 2008-03-25 2008-03-25 オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体

Country Status (2)

Country Link
US (1) US20090245649A1 (ja)
JP (1) JP5018587B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5683367B2 (ja) * 2011-04-20 2015-03-11 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US10839266B2 (en) * 2018-03-30 2020-11-17 Intel Corporation Distributed object detection processing
US11616816B2 (en) * 2018-12-28 2023-03-28 Speedchain, Inc. Distributed ledger based document image extracting and processing within an enterprise system
US11587321B2 (en) 2020-04-13 2023-02-21 Plantronics, Inc. Enhanced person detection using face recognition and reinforced, segmented field inferencing

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352394B1 (en) * 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US6895112B2 (en) * 2001-02-13 2005-05-17 Microsoft Corporation Red-eye detection based on red region detection with eye confirmation
JP2002358523A (ja) * 2001-05-31 2002-12-13 Canon Inc パターン認識処理装置及びその方法、画像入力装置
US7120279B2 (en) * 2003-01-30 2006-10-10 Eastman Kodak Company Method for face orientation determination in digital color images
JP2005084980A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔画像付きカード用データ生成装置および方法並びにプログラム
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP2006287589A (ja) * 2005-03-31 2006-10-19 Canon Inc 画像処理方法、画像処理装置
US8103102B2 (en) * 2006-12-13 2012-01-24 Adobe Systems Incorporated Robust feature extraction for color and grayscale images

Also Published As

Publication number Publication date
JP2009237628A (ja) 2009-10-15
US20090245649A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP4605006B2 (ja) 印刷データ生成装置、印刷データ生成方法及びプログラム
US9241090B2 (en) Image processing device, image correcting method and program
US11233921B2 (en) Image processing apparatus that specifies edge pixel in target image using single-component image data
JP5018587B2 (ja) オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録したコンピュータ読取可能な記録媒体
US8249321B2 (en) Image processing apparatus and method for red eye detection
JP5842441B2 (ja) 画像処理装置およびプログラム
US20090285457A1 (en) Detection of Organ Area Corresponding to Facial Organ Image in Image
JP2010160640A (ja) 画像処理装置、プリンター、画像処理方法および画像処理プログラム
KR20180127913A (ko) 화상 처리 장치, 화상 처리 방법, 및 프로그램
US20110026818A1 (en) System and method for correction of backlit face images
US9338310B2 (en) Image processing apparatus and computer-readable medium for determining pixel value of a target area and converting the pixel value to a specified value of a target image data
JP4920814B2 (ja) 画像処理方法、装置および記録媒体
JP2009094625A (ja) 画像処理装置及び方法並びにプログラム
JP2010186268A (ja) 画像処理装置、プリンター、画像処理方法および画像処理プログラム
JP4983682B2 (ja) オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよび印刷装置
JP4165408B2 (ja) 画像形成装置及び画像形成プログラム
JP2009105541A (ja) 画像処理装置、方法、および、プログラム
JP2009230556A (ja) オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置
JP2000134468A (ja) 画像形成装置及び方法
JP2009237754A (ja) オブジェクト検出方法、オブジェクト検出装置、印刷装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録した記録媒体
JP2006048223A (ja) 画像処理装置及び画像処理方法及びコンピュータプログラム
JP2009230557A (ja) オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置
JP5609573B2 (ja) ドライバープログラム、および、印刷システム
JP4413162B2 (ja) 画像形成装置
US20200193113A1 (en) Image output device, image output method, and output image data production method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

R150 Certificate of patent or registration of utility model

Ref document number: 5018587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees