JP2004355084A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2004355084A
JP2004355084A JP2003148801A JP2003148801A JP2004355084A JP 2004355084 A JP2004355084 A JP 2004355084A JP 2003148801 A JP2003148801 A JP 2003148801A JP 2003148801 A JP2003148801 A JP 2003148801A JP 2004355084 A JP2004355084 A JP 2004355084A
Authority
JP
Japan
Prior art keywords
point
parameter
pixels
straight lines
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003148801A
Other languages
Japanese (ja)
Inventor
Shotaro Miwa
祥太郎 三輪
Kazuo Hajima
一夫 羽島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003148801A priority Critical patent/JP2004355084A/en
Publication of JP2004355084A publication Critical patent/JP2004355084A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To quickly extract a specific area from an input image. <P>SOLUTION: In image processing for extracting an area surrounded by a shape expressed with a mathematical formula described by a parameter from an image, an image is inputted, and one point in the input image is set as an initial point, and a plurality of straight lines passing the initial point are set. As for pixels on the plurality of straight lines, the boundary points of an area where pixels having specific characteristics are continuously present are detected based on pixel data, and a parameter describing the mathematical formula is calculated so that it can pass the boundary points, and a shape described by the parameter is outputted. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理、特に、画像からの領域抽出に関するものである。
【0002】
【従来の技術】
画像処理として、入力画像から特定の性質の領域を抽出することが行われている。たとえば、顔画像から人の顔(肌色)の領域を抽出するための種々の手法が提案されている。たとえば、特開平8−63597号公報に記載された顔抽出法では、カラー画像全体から肌色領域を抽出し、エッジ処理を行った後、エッジ情報を用いて、顔の様々な形状の複数のテンプレートとのパターンマッチングを行って、顔領域を抽出する。
【0003】
また、特開平8−122944号公報に記載された顔領域抽出法では、画像を2値化した後、領域分割を行い、領域の特徴量に基づいて特定の領域を選択し、選択した領域から、顔の輪郭を表わす形状パターンを抽出する。
【0004】
また、特開平11−18502号公報に記載された顔領域抽出装置では、矩形領域である画像全体から最大面積の肌色領域を抽出した後、領域全体を近似する種々の楕円パラメータを反復処理を繰り返すことにより求め、領域を近似する適当な楕円を求める。
【0005】
【特許文献1】
特開平8−63597号公報
【特許文献2】
特開平8−122955号公報
【特許文献3】
特開平11−18502号公報
【0006】
【発明が解決しようとする課題】
しかし、顔画像から人の顔(肌色)の領域を抽出するための従来の方法は、いずれも計算機負荷が高いという問題がある。たとえば、特開平8−63597号公報に記載された顔抽出法では、画像全体を処理するため計算量が多く、計算機負荷が高い。
【0007】
この発明の目的は、入力画像から特定の性質の領域を高速に抽出することである。
【0008】
【課題を解決するための手段】
本発明に係る画像処理では、画像を入力し、入力画像の中の1点を初期点として設定し、前記の初期点を通る複数の直線を設定する。次に、前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の境界点を検出し、前記の境界点を通るように前記の数式を記述するパラメータを算出し、前記のパラメータで記述される形状を出力する。これにより、パラメータで記述される数式で表現される形状で囲まれる領域を画像から抽出する。
【0009】
【発明の実施の形態】
以下、添付の図面を参照して本発明の実施の形態を説明する。なお、図面において、同じ参照記号は同一または同等のものを示す。
【0010】
実施形態1.
実施の形態1の画像処理装置では、カラー画像中から、ある特徴を有する領域(たとえば肌色領域)を、パラメータを含む数式で記述される曲線で表わされる領域として抽出する。ここで、抽出処理を簡単に行うため、画像中の任意の点(初期点)を通る複数(たとえば2本)の線を設定し、それらの直線にそって、肌色領域から非肌色領域ヘ変化する境界点と非肌色領域から肌色領域ヘ変化する境界点を求める。ここで、境界点を求めるとき、初期点を含む領域を抽出するという観点から、たとえば、初期点から四方に広がる方向に境界点を求めていくと効果的である。そして、得られた境界点を通るように、形状(たとえば楕円曲線)を記述するパラメータ(曲線パラメータともいう)の値を求める。得られたパラメータ値で記述される形状が、前記のある特徴を有する領域を近似する初期曲線である。このように、画像領域抽出において、矩形領域の全画素について計算するのではなく、初期点を含む2直線上の画素について計算することで、計算量が大きく低減される。
【0011】
図1と図2を用いて、この領域抽出処理を説明する。図1に示されるように、画像10の中に肌色領域12が含まれている。画像10の中の任意の点を初期点14として設定し、初期点14を通る2本の直線16を設定する。図1の例では、初期点14は画像の中心にある。これらの直線16上の各ピクセルについて肌色を示す特徴量を求め、それを基に、肌色領域と非肌色領域との境界点18を抽出する。(境界点は、抽出点18ともいう。)図1の例では4個の抽出点18が得られた。肌色領域の形状を近似する形状を楕円曲線とする。図2に示すように、これらの抽出点18を通る楕円曲線20を記述するパラメータ値を求めて、楕円曲線20で表わされる領域を抽出して、肌色領域12を近似する。
【0012】
上述の例では、初期点を通る線の数は2であったが、抽出直線の数は3以上であってもよい。たとえば、図3に示す例では、図1に示したような2本の抽出直線16の他に、追加の抽出直線16’が設定される。すなわち、抽出直線の数は3である。したがって、楕円曲線を記述するパラメータの値は6個の抽出点18、18’を基に決定される。抽出直線の数を増加して、楕円曲線のパラメータ評価を行うことにより、より精度の高いパラメータ計算が可能となる。なお、この例では、初期点14の位置は、画面10の中心からずれている。
【0013】
図4は、実施形態1の画像処理装置を示す。この画像処理装置の構成は、通常のコンピュータと同様である。画像処理装置は、全体を制御するCPU100を中心として構成される。CPU100は、バスを介して、プログラムなどを記憶するROM102と、データなどを記憶するRAM104に接続され、また、フレキシブルディスク(FD)106、ハードデイスク(HD)110、CD−ROM114をそれぞれ記録媒体とするフレキシブルディスク装置108、ハードデイスク装置112、CD−ROM装置116に接続される。さらに、CPU110は、各種画面などを表示するディスプレイ装置108、各種入力、指示操作などを行うための入力手段であるキーボード120とマウス122、及び、画像を読み取るスキャナ124に接続される。さらに、USBインタフェース126を介して、外部のデジタルカメラ128、ビデオカメラ(図示しない)などに接続可能である。ここで、ハードディスク110には、オペレーティングシステム・プログラムのほか、後で説明する画像処理プログラムなどのアプリケーションが記憶される。デジタル画像としてのカラー顔画像は、たとえば、スキャナ124、デジタルカメラ128などから入力される。また、通信装置130からネットワークを通して他のコンピュータなどから受け取ってもよい。また、この画像処理プログラムは、フレキシブルディスク106、CD−ROM114などの記録媒体に記憶できる。また、フレキシブルディスク106、CD−ROM114などの記録媒体に記録された画像処理プログラムが、この画像処理装置にダウンロードできる。この画像処理装置の構成は、以下に説明する他の実施の形態の画像処理装置でも同様であり、以下の実施の形態では説明を省略する。また、以下に説明する画像処理は、プリンタ、デジタルカメラなどにおける画像処理装置においても適用でき、また、携帯電話などにおける画像処理にも採用できる。これらでは、画像入力の形態は異なるが、入力画像についての処理は同様に行える。
【0014】
図5は、図4に示した画像処理装置において、領域抽出処理の機能ブロック図である。画像入力部200は、顔画像のデータを入力する。初期点設定部202において、操作者は、ディスプレイ装置108の画面に表示された顔画像10に対して顔画像内の任意の点を初期点14として設定する。ポートレートなどの場合、顔画像の中央に顔があるので、たとえば顔画像の中央近辺に初期点14を設定する(図1参照)。次に、抽出直線設定部204において、操作者は初期点14を通る複数の直線16を設定する。ピクセル特徴算出部206は、この直線上のピクセルの特徴量を算出する。ピクセルの特徴量は、ピクセル色の肌色らしさである。たとえば、特徴量は、ピクセルのR,G,B値が、肌色の定義領域内に存在するか否かを表わす値である。ピクセル選択部208では、ピクセル特徴算出部206により算出された特徴量を基に肌色の特徴を持つピクセルが選択され、それにより、非肌色から肌色への境界点18と肌色から非肌色への境界点18とを抽出する。例えば、肌色らしさの連続するピクセル数の閾値Nを決めておき、肌色らしさがN個以上続く点を、非肌色から肌色への境界点18として抽出し、肌色らしさが連続してN個未満になった点を、肌色から非肌色への境界点18として抽出する。また、各直線16上で肌色から非肌色へのエッジを検出して抽出点18としてもよい。
【0015】
次に、抽出パラメータ曲線設定部210は、ピクセル選択部208により得られた境界点18を基に、それらの境界点18を通る形状を記述する適当なパラメータ群の値を計算する。ここでは、式(1)
【数1】

Figure 2004355084
Figure 2004355084
で表される楕円曲線を抽出曲線として設定し、パラメータ算出部212が、ピクセル選択部206で求められた4個の境界点18のピクセルの座標値を用いて、それらの点18を通る楕円曲線の方程式を解き、式(1)のパラメータa, b, x0, y0の値を数値解析を用いて求める。こうして、画像中から式(1)の楕円曲線で記述できる領域を抽出する。適当なパラメータ群が求まった場合、パラメータ曲線出力部214は、そのパラメータ値で記述される楕円曲線20を出力する。
【0016】
抽出直線の数は、抽出直線設定部204においてあらかじめ設定しておく。たとえば、抽出直線の数を3と設定してあれば、抽出直線設定部204は3本の抽出直線を設定し、ピクセル特徴算出部206は、これらの3本の抽出直線について特徴量を算出し、ピクセル選択部208は、3本の抽出直線について肌色と非肌色との境界点18を求める。パラメータ算出部212は、その結果を基に楕円曲線を記述するパラメータ値を計算する。
【0017】
図6は、CPU100による領域抽出のフローチャートである。まず、顔画像を入力する(S100)。次に、入力された顔画像に対して、操作者により設定された初期点14を入力し(S102)、操作者により設定された初期点14を通る複数(たとえば2本)の直線16を入力する(S104)。次に、これらの直線上のピクセルの特徴量を算出し(S106)、算出した特徴量を基に肌色の特徴を持つピクセルを選択する。そして、直線16にそって非肌色と肌色との境界点18を求める(S108)。次に、境界点18を通る適当な形状(たとえば楕円曲線)を表わす数式(たとえば式(1))のパラメータ値を数値解析により計算する(S110)。こうして、画像中から式(1)の楕円曲線で記述できる領域を抽出する。そして、それらのパラメータ値で記述される楕円曲線20を出力する(S112)。
【0018】
実施形態2.
図7は、実施形態2の領域抽出処理を説明するための図である。ここでは、実施形態1の手法で求めた楕円曲線を記述するパラメータ群(第1曲線パラメータ群)の妥当性を評価する。このため、求まった曲線パラメータで記述される領域の内部において初期点14とは異なる第2点(評価点という)24を設定し、初期点14の場合と同様に、第2点24を通る2以上の直線26を設定して、適当な曲線記述パラメータ群(第2曲線パラメータ群)を算出する。そして、両者を比較して曲線パラメータ群の妥当性を評価する。1つの点(初期点14)からパラメータ値を求めるだけではなく、第2の点(評価点)24を用意して、初期点14を用いて求めたパラメータ値の評価を行うので、精度の高いパラメータ計算が可能となる。
【0019】
図8は、図1に示した画像処理装置における領域抽出処理の機能ブロック図である。画像中からあるパラメータ曲線で記述できる領域を抽出する際に、まず、実施形態1と同様に、画像中の任意の点(初期点14)を通る2本以上の線16を設定し、線上の画素(ピクセル)の特徴量を元に、肌色と非肌色の境界のピクセル(境界点18)を選択し、選択したピクセル群を基に適当な楕円パラメータを計算する。
【0020】
次に、評価点設定部216において、操作者は、パラメータ算出部212において求まった楕円曲線20の内部の、初期点14以外の1点を評価点24(図7参照)として設定し、抽出直線設定部204において、操作者は、評価点24を通る2本の直線26を設定する。以下、初期点14を通る直線の場合と同様に、ピクセル特徴算出部206とピクセル選択部208は、評価点を通る2直線の上の画素(ピクセル)の特徴量を元に、特定の特徴を持つピクセル(境界点28)を選択する。次に、パラメータ算出部212は、それらの4個の境界点28をとおる楕円曲線を記述するパラメータ群を求める。なお、評価点24を通る抽出曲線の数は、初期点を通る抽出直線の場合と同様に、3本以上に増やしてもよい。
【0021】
パラメータ評価部220は、初期点14を用いて求まったパラメータ群の値と評価点24を用いて求まったパラメータ群の値との最小自乗誤差を求め、パラメータ閾値設定部218において設定されているパラメータ閾値と比較する。パラメータ曲線出力部214は、最小自乗誤差がパラメータ閾値以下であると評価された場合に、初期点14を用いて求まったパラメータ群で記述される楕円曲線20を出力する。
【0022】
図9は、実施形態2における画像処理のフローチャートである。まず、顔画像を入力する(S100)。次に、入力された顔画像に対して、操作者により設定された初期点14を入力し(S102)、操作者により設定された初期点14を通る複数(たとえば2本)の直線16を入力する(S104)。次に、これらの直線上のピクセルの特徴量を算出し(S106)、算出した特徴量を基に肌色の特徴を持つピクセルを選択する。そして、非肌色と肌色との境界点18を求める(S108)。次に、境界点18を通る適当な形状(たとえば楕円曲線)を表わす数式(たとえば式(1))のパラメータ値を数値解析により計算する(S110)。こうして、画像中から式(1)の楕円曲線で記述できる領域を抽出する。以上の処理は、実施の形態1と同様である。
【0023】
次に、求まった楕円曲線20の内部の、操作者により設定された初期点14以外の1点を評価点24として入力し(S112)、操作者により設定された、評価点24を通る複数の直線26を設定する(S114)。以下、初期点14を通る直線の場合と同様に、これらの直線26上のピクセルの特徴量を算出し(S116)、算出した特徴量を基に肌色の特徴を持つピクセルを選択して、直線26にそって非肌色と肌色との境界点28を求める(S118)。次に、それらの4個の抽出点28を基に、曲線パラメータの値を求める(S120)。そして、曲線パラメータの評価のため、初期点14を用いて求めたパラメータ値と評価点24を用いて求めたパラメータ値との最小自乗誤差を求め、パラメータしきい値と比較する(S122)。最小自乗誤差がパラメータしきい値以下であると評価した場合に、初期点14において求めたパラメータ値で記述される楕円曲線を出力する(S124)。
【0024】
実施形態3.
画像には複数の人の顔が含まれていることがある。そのような場合、以下に説明するように、画像を複数の領域に分割して、それぞれ楕円領域を抽出する。これにより、2人の顔の検出を、少ない計算処理で高速に行う。
【0025】
図10は、1枚の顔画像40に2人の顔の肌色領域42、44が分離して存在する場合を示す。まず、実施の形態2の画像処理と同様に、操作者が、初期点46を設定し、初期点46を通る2本の抽出直線48を設定する。初期点44は、2つの肌色領域42,44の境界線の上に設定する。そして、これらの直線の上の画素(ピクセル)の特徴量を求め、特定の特徴を持つピクセル(袖出点50)を選択する。そして、袖出点50を基に、適当な楕円曲線を記述するパラメータを計算して、楕円曲線52を求める。
【0026】
次に、領域分割の評価のために、操作者は楕円曲線52内に、初期点46と異なる位置に評価点54を設定し、評価点54を通る2本の抽出直線56を設定する。次に、これらの直線の上の画素(ピクセル)の特徴量を元に、特定の特徴を持つピクセル(袖出点58)を選択する。そして、袖出点58から、楕円曲線を記述するパラメータ値を計算する。楕円曲線60は、こうして得られた楕円を示す。
【0027】
次に、初期点46を用いて求めたパラメータ値と評価点54を用いて求めたパラメータ値との最小自乗誤差を求め、領域分割しきい値と比較してパラメータ値の評価を行う。領域分割しきい値を越えた場合、図11に示すように、初期点46の左右に分割時初期点62を設定する。そして、各初期点62について、分割時初期点62を通る2本の直線64を設定し、初期点46の場合と同様に、図示しないが、直線にそって抽出点を求め、それらの抽出点を基に楕円領域を求める。
【0028】
また、図12は、1枚の顔画像70に2人の顔の肌色領域72、74が重なって存在する場合を示す。まず、実施の形態2の画像処理と同様に、操作者が、初期点76を設定し、初期点76を通る複数本の抽出直線78を設定する。初期点44は、2つの肌色領域72,74の境界線の上に設定する。そして、これらの直線78の上の画素(ピクセル)の特徴量を元に、特定の特徴を持つピクセル(袖出点80)を選択する。そして、袖出点80から、適当な楕円曲線を記述するパラメータ値を計算して、楕円曲線82を求める。
【0029】
次に、領域分割の評価のために、操作者は、楕円曲線82内に、初期点76と異なる位置に評価点84を設定し、評価点84を通る2本の抽出直線86を設定する。次に、これらの直線86の上の画素(ピクセル)の特徴量を元に、特定の特徴を持つピクセル(抽出点88)を選択する。そして、抽出点88から、適当な楕円曲線を記述するパラメータ値を計算する。楕円曲線90は、こうして得られた楕円を示す。
【0030】
次に、初期点76を用いて求めたパラメータと評価点84を用いて求めたパラメータとの最小自乗誤差を求め、領域分割しきい値と比較して楕円パラメータの評価を行う。領域分割しきい値を越えた場合、図13に示すように、初期点76の左右に分割時初期点92を設定する。分割時初期点の位置は肌色領域72の左側と肌色領域74の右側とし、直線94は、2つの肌色領域にわたらないように設定する。そして、各分割時初期点92について、分割時初期点92を通る2本の直線94を設定し、初期点76と同様に、図示しないが、直線に沿って抽出点を求め、それらの抽出点を基に楕円領域を求める。
【0031】
図14は、図1に示した画像処理装置における画像処理の機能ブロック図である。画像中からあるパラメータ曲線で記述できる領域を抽出する際に、まず、実施形態1と同様に、ブロック200〜212において、画像中の任意の点(初期点)を通る2以上の線の上の画素(ピクセル)の特徴量を元に、特定の特徴を持つピクセルを選択し、肌色と非肌色との境界を求め、選択したピクセル群から適当なパラメータ値を計算する。
【0032】
パラメータ評価部220が、領域分割しきい値設定部222により設定された領域分割しきい値を超えたと評価する場合(たとえば図10や図11の場合)、分割時初期点設定部224は、図12と図13の例に示すように、分割時初期点62,92を初期点40,70の左右にそれぞれ設定し、分割時初期点62,92ごとに、実施形態1と同様な計算を行って、楕円領域を抽出する。
【0033】
図15は、実施の形態3における画像処理のフローチャートである。まず、顔画像を入力する(S100)。次に、入力された顔画像に対して、操作者により設定された初期点46,76を入力し(S102)、操作者により設定された初期点46,76を通る複数(たとえば2本)の直線48,78を入力する(S104)。次に、これらの直線上のピクセルの特徴量を算出し(S106)、算出した特徴量を基に肌色の特徴を持つピクセルを選択する。そして、非肌色と肌色との境界点50、80を求める(S108)。次に、境界点50、80を通る適当な曲線(楕円)を表わす数式(たとえば式(1))のパラメータ値を数値解析により計算する(S110)。こうして、画像中から式(1)の楕円曲線で記述できる領域を抽出する。
【0034】
次に、求まった楕円曲線の内部の、操作者により設定された初期点46,76以外の1点を評価点54,84として入力し(S112)、操作者により設定された、評価点54,84を通る複数の直線56,86を設定する(S114)。以下、初期点46,76を通る直線48,78の場合と同様に、これらの直線上のピクセルの特徴量を算出し(S116)、算出した特徴量を基に肌色の特徴を持つピクセルを選択する。そして、非肌色と肌色との境界点50,80を求める(S118)。次に、それらの4個の境界点50,80を基に、パラメータ値を求める(S120)。そして、パラメータ値の評価のため、初期点46,76を用いて求めたパラメータ値と評価点54,84を用いて求めたパラメータ値との最小自乗誤差を求め、領域分割用しきい値と比較する(S126)。
【0035】
最小自乗誤差が領域分割用閾値を越えると評価された場合、初期点46,76の左右に分割時初期点62,92を設定し(S128)、各分割時初期点62,92を通る複数の直線64,94を設定する(S130)。次に、これらの直線64,94上のピクセルの特徴量を算出し(S132)、算出した特徴量を基に肌色の特徴を持つピクセルを選択する。そして、直線64,94にそって非肌色と肌色との境界点を求める(S134)。次に、境界点を通る適当な曲線(楕円)を表わす数式(たとえば式(1))のパラメータ値を数値解析により計算する(S136)。こうして、画像中から式(1)の楕円曲線で記述できる複数の領域を抽出する。
【0036】
なお、以上の実施形態では、初期点、評価点、分割時初期点を同じ一枚の画像から選択しているが、例えば、入力画像が動画像の場合は、異なるフレームから選ぶことも可能である。
【0037】
【発明の効果】
画像からの領域の抽出および領域の形状を記述する数式のパラメータ値の抽出が、少ない計算処理で可能である。
画像の中の、重なった複数の領域の個別抽出および個別パラメータ値抽出が、少ない計算処理で可能である。
【図面の簡単な説明】
【図1】実施の形態1における画像処理を説明する図
【図2】図1により説明した画像処理により得られた楕円領域を示す図
【図3】実施の形態1における画像処理の変形例を説明する図
【図4】画像処理装置のブロック図
【図5】実施の形態1の情報処理の機能ブロック図
【図6】実施の形態1の情報処理のフローチャート
【図7】実施の形態2における画像処理を説明する図
【図8】実施の形態2の情報処理の機能ブロック図
【図9】実施の形態2の情報処理のフローチャート
【図10】実施の形態3における第1例の画像処理を説明する図
【図11】実施の形態3における第1例の画像処理を説明する別の図
【図12】実施の形態3における第2例の領域分割処理を説明する図
【図13】実施の形態3における第2例の領域分割処理を説明する別の図
【図14】実施の形態3の情報処理の機能ブロック図
【図15】実施の形態3の情報処理のフローチャート
【符号の説明】
10 画像、 12 肌色領域、 14 初期点、 16 直線、 18 境界点、 20 楕円曲線、 24 評価点、 26 直線、 46 初期点、 48 直線、 50 境界点、 54 評価点、 56 直線、 58 境界点、 62 分割時初期点、 64 直線、 76 初期点、 78 直線、 80 境界点、 84 評価点、 86 直線、 88 境界点、 92 分割時初期点、 94 直線、 100 CPU、 102 ROM、 106 フレキシブルディスク、 108 ディスプレイ装置、 110 ハードデイスク、 114 CD−ROM、 120 キーボード、 122 マウス。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to image processing, and more particularly, to region extraction from an image.
[0002]
[Prior art]
As an image processing, a region having a specific property is extracted from an input image. For example, various techniques have been proposed for extracting a human face (skin color) region from a face image. For example, in the face extraction method described in Japanese Patent Application Laid-Open No. 8-63597, a skin color region is extracted from the entire color image, edge processing is performed, and a plurality of templates of various shapes of the face are used using the edge information. Is performed to extract a face area.
[0003]
In the face area extraction method described in JP-A-8-122944, after binarizing an image, area division is performed, a specific area is selected based on the feature amount of the area, and a specific area is selected from the selected area. Then, a shape pattern representing the contour of the face is extracted.
[0004]
Further, in the face region extraction device described in Japanese Patent Application Laid-Open No. H11-18502, after extracting a skin color region having a maximum area from the entire image which is a rectangular region, iterative processing of various elliptic parameters approximating the entire region is repeated. Then, an appropriate ellipse that approximates the region is obtained.
[0005]
[Patent Document 1]
JP-A-8-63597 [Patent Document 2]
Japanese Patent Application Laid-Open No. 8-122555 [Patent Document 3]
JP-A-11-18502
[Problems to be solved by the invention]
However, the conventional methods for extracting a human face (skin color) region from a face image have a problem that a computer load is high. For example, in the face extraction method described in Japanese Patent Application Laid-Open No. 8-63597, the amount of calculation is large because the entire image is processed, and the computer load is high.
[0007]
An object of the present invention is to rapidly extract a region having a specific property from an input image.
[0008]
[Means for Solving the Problems]
In the image processing according to the present invention, an image is input, one point in the input image is set as an initial point, and a plurality of straight lines passing through the initial point are set. Next, for the pixels on the plurality of straight lines, based on the pixel data, a boundary point of a region where pixels having specific characteristics are continuously present is detected, and the pixel passes through the boundary point. A parameter describing the above mathematical formula is calculated, and a shape described by the parameter is output. As a result, an area surrounded by the shape represented by the mathematical expression described by the parameter is extracted from the image.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, the same reference symbols indicate the same or equivalent ones.
[0010]
Embodiment 1 FIG.
In the image processing apparatus according to the first embodiment, a region having a certain characteristic (for example, a skin color region) is extracted from a color image as a region represented by a curve described by a mathematical expression including a parameter. Here, in order to easily perform the extraction process, a plurality of (for example, two) lines passing through an arbitrary point (initial point) in the image are set, and the line is changed from the flesh color region to the non-skin color region along these straight lines. And a boundary point that changes from the non-skin color region to the skin color region. Here, from the viewpoint of extracting a region including the initial point when obtaining the boundary point, for example, it is effective to obtain the boundary point in a direction spreading in four directions from the initial point. Then, values of parameters (also referred to as curve parameters) describing a shape (for example, an elliptic curve) are obtained so as to pass through the obtained boundary points. The shape described by the obtained parameter values is an initial curve approximating the region having the above-mentioned certain characteristic. As described above, in the image area extraction, the calculation amount is largely reduced by calculating not on all pixels of the rectangular area but on pixels on two straight lines including the initial point.
[0011]
This region extraction processing will be described with reference to FIGS. As shown in FIG. 1, the image 10 includes a skin color area 12. An arbitrary point in the image 10 is set as an initial point 14, and two straight lines 16 passing through the initial point 14 are set. In the example of FIG. 1, the initial point 14 is at the center of the image. For each pixel on the straight line 16, a characteristic amount indicating a flesh color is obtained, and a boundary point 18 between the flesh color region and the non-skin color region is extracted based on the feature amount. (The boundary points are also referred to as extraction points 18.) In the example of FIG. 1, four extraction points 18 were obtained. A shape approximating the shape of the skin color region is defined as an elliptic curve. As shown in FIG. 2, a parameter value describing an elliptic curve 20 passing through these extraction points 18 is obtained, and a region represented by the elliptic curve 20 is extracted to approximate the skin color region 12.
[0012]
In the above example, the number of lines passing through the initial point is two, but the number of extracted straight lines may be three or more. For example, in the example shown in FIG. 3, an additional extraction line 16 'is set in addition to the two extraction lines 16 as shown in FIG. That is, the number of extracted straight lines is three. Therefore, the values of the parameters describing the elliptic curve are determined based on the six extraction points 18, 18 '. By performing parameter evaluation of the elliptic curve by increasing the number of extracted straight lines, more accurate parameter calculation can be performed. In this example, the position of the initial point 14 is shifted from the center of the screen 10.
[0013]
FIG. 4 illustrates an image processing apparatus according to the first embodiment. The configuration of this image processing apparatus is the same as that of a normal computer. The image processing apparatus is mainly configured by a CPU 100 that controls the whole. The CPU 100 is connected via a bus to a ROM 102 for storing programs and the like and a RAM 104 for storing data and the like, and uses a flexible disk (FD) 106, a hard disk (HD) 110 and a CD-ROM 114 as recording media. It is connected to the flexible disk device 108, the hard disk device 112, and the CD-ROM device 116. Further, the CPU 110 is connected to a display device 108 for displaying various screens and the like, a keyboard 120 and a mouse 122 as input means for performing various inputs and instruction operations, and a scanner 124 for reading images. Further, it can be connected to an external digital camera 128, a video camera (not shown), or the like via a USB interface 126. Here, in addition to the operating system program, applications such as an image processing program described later are stored in the hard disk 110. A color face image as a digital image is input from, for example, a scanner 124, a digital camera 128, or the like. Also, the information may be received from another computer or the like from the communication device 130 through a network. The image processing program can be stored in a recording medium such as the flexible disk 106 and the CD-ROM 114. Further, an image processing program recorded on a recording medium such as the flexible disk 106 and the CD-ROM 114 can be downloaded to the image processing apparatus. The configuration of this image processing apparatus is the same in the image processing apparatuses of other embodiments described below, and a description thereof will be omitted in the following embodiments. Further, the image processing described below can be applied to an image processing apparatus in a printer, a digital camera, or the like, and can also be applied to image processing in a mobile phone or the like. In these, the form of the image input is different, but the processing on the input image can be performed similarly.
[0014]
FIG. 5 is a functional block diagram of an area extraction process in the image processing apparatus shown in FIG. The image input unit 200 inputs face image data. In the initial point setting unit 202, the operator sets an arbitrary point in the face image 10 as the initial point 14 for the face image 10 displayed on the screen of the display device 108. In the case of a portrait or the like, since the face is at the center of the face image, the initial point 14 is set, for example, near the center of the face image (see FIG. 1). Next, in the extraction straight line setting unit 204, the operator sets a plurality of straight lines 16 passing through the initial point 14. The pixel feature calculation unit 206 calculates the feature amount of the pixel on this straight line. The feature amount of a pixel is a skin color likeness of a pixel color. For example, the feature value is a value indicating whether or not the R, G, B values of the pixel exist in the skin color definition area. In the pixel selection unit 208, pixels having skin color characteristics are selected based on the feature amounts calculated by the pixel characteristic calculation unit 206, whereby the boundary points 18 between non-skin colors and skin colors and the boundaries between skin colors and non-skin colors are selected. Point 18 is extracted. For example, a threshold value N of the number of consecutive pixels of skin color likeness is determined, and points where the skin color likeness continues N or more are extracted as boundary points 18 from non-skin color to skin color, and the skin color likeness is continuously reduced to less than N. The resulting point is extracted as a boundary point 18 from the skin color to the non-skin color. Further, an edge from skin color to non-skin color may be detected as an extraction point 18 on each straight line 16.
[0015]
Next, based on the boundary points 18 obtained by the pixel selection unit 208, the extraction parameter curve setting unit 210 calculates appropriate parameter group values that describe the shape passing through those boundary points 18. Here, equation (1)
(Equation 1)
Figure 2004355084
Figure 2004355084
Is set as an extraction curve, and the parameter calculation unit 212 uses the coordinate values of the pixels of the four boundary points 18 determined by the pixel selection unit 206 to pass through those points 18. Is solved, and the values of the parameters a, b, x0, and y0 in the equation (1) are obtained by numerical analysis. In this way, an area that can be described by the elliptic curve of the equation (1) is extracted from the image. When an appropriate parameter group is obtained, the parameter curve output unit 214 outputs the elliptic curve 20 described by the parameter value.
[0016]
The number of extracted straight lines is set in the extracted straight line setting unit 204 in advance. For example, if the number of extracted straight lines is set to 3, the extracted straight line setting unit 204 sets three extracted straight lines, and the pixel feature calculating unit 206 calculates a feature amount for these three extracted straight lines. The pixel selection unit 208 obtains the boundary point 18 between the skin color and the non-skin color for the three extracted straight lines. The parameter calculator 212 calculates a parameter value describing the elliptic curve based on the result.
[0017]
FIG. 6 is a flowchart of the area extraction by the CPU 100. First, a face image is input (S100). Next, an initial point 14 set by the operator is input to the input face image (S102), and a plurality of (for example, two) straight lines 16 passing through the initial point 14 set by the operator are input. (S104). Next, the feature amounts of the pixels on these straight lines are calculated (S106), and the pixels having the flesh color feature are selected based on the calculated feature amounts. Then, a boundary point 18 between the non-skin color and the flesh color is obtained along the straight line 16 (S108). Next, parameter values of a mathematical expression (for example, Expression (1)) representing an appropriate shape (for example, an elliptic curve) passing through the boundary point 18 are calculated by numerical analysis (S110). In this way, an area that can be described by the elliptic curve of the equation (1) is extracted from the image. Then, the elliptic curve 20 described by those parameter values is output (S112).
[0018]
Embodiment 2. FIG.
FIG. 7 is a diagram for explaining an area extraction process according to the second embodiment. Here, the validity of a parameter group (first curve parameter group) describing the elliptic curve obtained by the method of the first embodiment is evaluated. For this reason, a second point (referred to as an evaluation point) 24 different from the initial point 14 is set inside the area described by the obtained curve parameters, and the second point 24 passing through the second point 24 is set as in the case of the initial point 14. The straight line 26 is set, and an appropriate curve description parameter group (second curve parameter group) is calculated. Then, the two are compared to evaluate the validity of the curve parameter group. Since a parameter value is obtained not only from one point (initial point 14) but also a second point (evaluation point) 24 is prepared and the parameter value obtained using the initial point 14 is evaluated, high accuracy is obtained. Parameter calculation becomes possible.
[0019]
FIG. 8 is a functional block diagram of an area extraction process in the image processing apparatus shown in FIG. When extracting a region that can be described by a certain parameter curve from an image, first, as in the first embodiment, two or more lines 16 passing through an arbitrary point (initial point 14) in the image are set, and A pixel (boundary point 18) at the boundary between the skin color and the non-skin color is selected based on the feature amount of the pixel (pixel), and an appropriate ellipse parameter is calculated based on the selected pixel group.
[0020]
Next, in the evaluation point setting unit 216, the operator sets one point other than the initial point 14 inside the elliptic curve 20 obtained by the parameter calculation unit 212 as the evaluation point 24 (see FIG. 7), and In the setting unit 204, the operator sets two straight lines 26 passing through the evaluation points 24. Hereinafter, as in the case of the straight line passing through the initial point 14, the pixel feature calculating unit 206 and the pixel selecting unit 208 determine a specific feature based on the feature amount of a pixel (pixel) on two straight lines passing through the evaluation point. A pixel (boundary point 28) having the selected pixel is selected. Next, the parameter calculation unit 212 obtains a parameter group describing an elliptic curve passing through the four boundary points 28. Note that the number of extraction curves passing through the evaluation points 24 may be increased to three or more as in the case of the extraction straight line passing through the initial point.
[0021]
The parameter evaluation unit 220 calculates a least square error between the value of the parameter group obtained using the initial point 14 and the value of the parameter group obtained using the evaluation point 24, and sets the parameter set in the parameter threshold setting unit 218. Compare with threshold. The parameter curve output unit 214 outputs the elliptic curve 20 described by the parameter group obtained by using the initial point 14 when the least square error is evaluated to be equal to or less than the parameter threshold.
[0022]
FIG. 9 is a flowchart of image processing according to the second embodiment. First, a face image is input (S100). Next, an initial point 14 set by the operator is input to the input face image (S102), and a plurality of (for example, two) straight lines 16 passing through the initial point 14 set by the operator are input. (S104). Next, the feature amounts of the pixels on these straight lines are calculated (S106), and the pixels having the flesh color feature are selected based on the calculated feature amounts. Then, a boundary point 18 between the non-skin color and the skin color is obtained (S108). Next, parameter values of a mathematical expression (for example, Expression (1)) representing an appropriate shape (for example, an elliptic curve) passing through the boundary point 18 are calculated by numerical analysis (S110). In this way, an area that can be described by the elliptic curve of the equation (1) is extracted from the image. The above processing is the same as in the first embodiment.
[0023]
Next, one point other than the initial point 14 set by the operator within the obtained elliptic curve 20 is input as the evaluation point 24 (S112), and a plurality of points passing through the evaluation point 24 set by the operator are input. A straight line 26 is set (S114). Hereinafter, similarly to the case of the straight line passing through the initial point 14, the feature amounts of the pixels on these straight lines 26 are calculated (S116), and the pixels having the skin color features are selected based on the calculated feature amounts, and the straight line is selected. A boundary point 28 between the non-skin color and the flesh color is determined along the line 26 (S118). Next, the values of the curve parameters are determined based on the four extracted points 28 (S120). Then, for the evaluation of the curve parameters, the least square error between the parameter value obtained by using the initial point 14 and the parameter value obtained by using the evaluation point 24 is obtained and compared with the parameter threshold (S122). If the least square error is evaluated to be equal to or less than the parameter threshold, an elliptic curve described by the parameter value obtained at the initial point 14 is output (S124).
[0024]
Embodiment 3 FIG.
An image may include multiple human faces. In such a case, as described below, the image is divided into a plurality of regions, and elliptic regions are respectively extracted. Thus, the detection of the faces of the two persons is performed at high speed with a small amount of calculation processing.
[0025]
FIG. 10 shows a case where the skin color regions 42 and 44 of two faces are present separately in one face image 40. First, similarly to the image processing of the second embodiment, the operator sets an initial point 46 and sets two extraction straight lines 48 passing through the initial point 46. The initial point 44 is set on the boundary between the two skin color regions 42 and 44. Then, the characteristic amounts of the pixels (pixels) on these straight lines are obtained, and the pixels having the specific characteristics (sleeve point 50) are selected. Then, a parameter describing an appropriate elliptic curve is calculated based on the sleeve protruding point 50, and an elliptic curve 52 is obtained.
[0026]
Next, for evaluation of region division, the operator sets an evaluation point 54 at a position different from the initial point 46 in the elliptic curve 52, and sets two extraction straight lines 56 passing through the evaluation point 54. Next, based on the feature amounts of the pixels (pixels) on these straight lines, a pixel (sleeve point 58) having a specific feature is selected. Then, a parameter value describing the elliptic curve is calculated from the sleeve appearance point 58. The elliptic curve 60 indicates the ellipse thus obtained.
[0027]
Next, a least square error between the parameter value obtained by using the initial point 46 and the parameter value obtained by using the evaluation point 54 is obtained, and the parameter value is evaluated by comparing with a region division threshold value. When the area division threshold value is exceeded, as shown in FIG. Then, for each initial point 62, two straight lines 64 passing through the initial point 62 at the time of division are set. Similarly to the case of the initial point 46, although not shown, extraction points are obtained along the straight line, and these extraction points are obtained. The elliptical area is obtained based on
[0028]
FIG. 12 shows a case where the skin color regions 72 and 74 of two faces overlap with one face image 70. First, similarly to the image processing of the second embodiment, the operator sets an initial point 76 and sets a plurality of extraction straight lines 78 passing through the initial point 76. The initial point 44 is set on the boundary between the two skin color regions 72 and 74. Then, based on the feature amount of the pixel (pixel) on the straight line 78, a pixel (sleeve point 80) having a specific feature is selected. Then, a parameter value describing an appropriate elliptic curve is calculated from the sleeve appearance point 80, and an elliptic curve 82 is obtained.
[0029]
Next, in order to evaluate the area division, the operator sets an evaluation point 84 in the elliptic curve 82 at a position different from the initial point 76, and sets two extraction straight lines 86 passing through the evaluation point 84. Next, a pixel (extraction point 88) having a specific feature is selected based on the feature amount of the pixel on the straight line 86. Then, from the extraction points 88, a parameter value describing an appropriate elliptic curve is calculated. The elliptic curve 90 shows the ellipse thus obtained.
[0030]
Next, the least square error between the parameter obtained by using the initial point 76 and the parameter obtained by using the evaluation point 84 is obtained, and the elliptic parameter is evaluated by comparing with the area division threshold. When the threshold value exceeds the region division threshold, division initial points 92 are set on the left and right of the initial point 76 as shown in FIG. The position of the initial point at the time of division is set to the left side of the skin color area 72 and the right side of the skin color area 74, and the straight line 94 is set so as not to extend over the two skin color areas. Then, two straight lines 94 passing through the initial point 92 at the time of division are set for each initial point 92 at the time of division, and, similarly to the initial point 76, extraction points are obtained along a straight line (not shown), The elliptical area is obtained based on
[0031]
FIG. 14 is a functional block diagram of image processing in the image processing apparatus shown in FIG. When extracting a region that can be described by a certain parameter curve from an image, first, similarly to the first embodiment, in blocks 200 to 212, two or more lines passing through arbitrary points (initial points) in the image A pixel having a specific feature is selected based on the feature amount of the pixel (pixel), a boundary between the skin color and the non-skin color is obtained, and an appropriate parameter value is calculated from the selected pixel group.
[0032]
When the parameter evaluation unit 220 evaluates that the value exceeds the region division threshold set by the region division threshold setting unit 222 (for example, in the case of FIGS. 10 and 11), the division initial point setting unit 224 As shown in the example of FIG. 12 and FIG. 13, the initial points 62 and 92 at the time of division are set to the left and right of the initial points 40 and 70, and the same calculation as that of the first embodiment is performed for each of the initial points 62 and 92 at the time of division. To extract an elliptical area.
[0033]
FIG. 15 is a flowchart of image processing according to the third embodiment. First, a face image is input (S100). Next, initial points 46 and 76 set by the operator are input to the input face image (S102), and a plurality of (for example, two) passing through the initial points 46 and 76 set by the operator. The straight lines 48 and 78 are input (S104). Next, the feature amounts of the pixels on these straight lines are calculated (S106), and the pixels having the flesh color feature are selected based on the calculated feature amounts. Then, the boundary points 50 and 80 between the non-skin color and the skin color are obtained (S108). Next, parameter values of a mathematical expression (for example, Expression (1)) representing an appropriate curve (ellipse) passing through the boundary points 50 and 80 are calculated by numerical analysis (S110). In this way, an area that can be described by the elliptic curve of the equation (1) is extracted from the image.
[0034]
Next, one point other than the initial points 46 and 76 set by the operator in the obtained elliptic curve is input as evaluation points 54 and 84 (S112), and the evaluation points 54 and 84 set by the operator are input. A plurality of straight lines 56 and 86 passing through 84 are set (S114). Hereinafter, similarly to the case of the straight lines 48 and 78 passing through the initial points 46 and 76, the feature amounts of the pixels on these straight lines are calculated (S116), and the pixels having the skin color features are selected based on the calculated feature amounts. I do. Then, the boundary points 50 and 80 between the non-skin color and the skin color are obtained (S118). Next, a parameter value is determined based on the four boundary points 50 and 80 (S120). Then, for parameter value evaluation, the least square error between the parameter value obtained using the initial points 46 and 76 and the parameter value obtained using the evaluation points 54 and 84 is obtained and compared with the region division threshold value. (S126).
[0035]
If it is evaluated that the least square error exceeds the region division threshold value, division initial points 62 and 92 are set to the left and right of the initial points 46 and 76 (S128), and a plurality of initial points 62 and 92 passing through the division initial points 62 and 92 are set. The straight lines 64 and 94 are set (S130). Next, the feature amounts of the pixels on these straight lines 64 and 94 are calculated (S132), and a pixel having a flesh color feature is selected based on the calculated feature amounts. Then, a boundary point between the non-skin color and the flesh color is obtained along the straight lines 64 and 94 (S134). Next, a parameter value of a mathematical expression (for example, Expression (1)) representing an appropriate curve (ellipse) passing through the boundary point is calculated by numerical analysis (S136). In this way, a plurality of regions that can be described by the elliptic curve of Expression (1) are extracted from the image.
[0036]
In the above embodiment, the initial point, the evaluation point, and the initial point at the time of division are selected from the same single image. For example, when the input image is a moving image, it is possible to select from different frames. is there.
[0037]
【The invention's effect】
Extraction of a region from an image and extraction of parameter values of a mathematical expression describing the shape of the region can be performed with a small amount of calculation processing.
Individual extraction and individual parameter value extraction of a plurality of overlapping regions in an image can be performed with a small amount of calculation processing.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating image processing according to the first embodiment; FIG. 2 is a diagram illustrating an elliptical region obtained by the image processing described with reference to FIG. 1; FIG. 3 is a diagram illustrating a modification of the image processing according to the first embodiment; FIG. 4 is a block diagram of an image processing apparatus. FIG. 5 is a functional block diagram of information processing according to the first embodiment. FIG. 6 is a flowchart of information processing according to the first embodiment. FIG. 8 is a functional block diagram of information processing according to the second embodiment. FIG. 9 is a flowchart of information processing according to the second embodiment. FIG. 10 is a diagram illustrating a first example of image processing according to the third embodiment. FIG. 11 is a diagram illustrating another example of image processing according to the third embodiment. FIG. 12 is a diagram illustrating a second example of area division processing according to the third embodiment. The area division processing of the second example in mode 3 Functional block diagram of an information processing of another Figure 14] Embodiment 3 of the bright FIG. 15 is a flowchart of processing according to the third embodiment EXPLANATION OF REFERENCE NUMERALS
10 images, 12 skin color areas, 14 initial points, 16 straight lines, 18 boundary points, 20 elliptic curves, 24 evaluation points, 26 straight lines, 46 initial points, 48 straight lines, 50 boundary points, 54 evaluation points, 56 straight lines, 58 boundary points , 62 initial points at the time of division, 64 straight lines, 76 initial points, 78 straight lines, 80 boundary points, 84 evaluation points, 86 straight lines, 88 boundary points, 92 initial points at the time of division, 94 straight lines, 100 CPU, 102 ROM, 106 flexible disk , 108 display device, 110 hard disk, 114 CD-ROM, 120 keyboard, 122 mouse.

Claims (9)

パラメータを含む数式で表現される形状で囲まれる領域を画像から抽出する画像処理装置であって、
画像を入力する画像入力手段と、
入力画像の中の1点を初期点として設定する初期点設定手段と、
前記の初期点を通る複数の直線を設定する直線設定手段と、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の境界点を検出する境界検出手段と、
前記の境界点を通るように前記の数式のパラメータの値を算出するパラメータ算出手段と、
前記のパラメータ値で記述される形状を出力する出力手段と
からなる画像処理装置。
An image processing apparatus for extracting an area surrounded by a shape represented by a mathematical expression including a parameter from an image,
Image input means for inputting an image,
Initial point setting means for setting one point in the input image as an initial point;
Straight line setting means for setting a plurality of straight lines passing through the initial point,
For pixels on the plurality of straight lines, based on pixel data, a boundary detecting means for detecting a boundary point of an area where pixels having specific characteristics are continuously present,
Parameter calculation means for calculating the value of the parameter of the formula so as to pass through the boundary point,
An output unit for outputting a shape described by the parameter value.
さらに、
前記のパラメータ値で記述される形状の内部の、前記の初期点とは異なる第2の点を評価点として設定する評価点設定手段と、
前記の評価点を通る第2の複数の直線を設定する第2直線設定手段と、
前記の第2の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第2境界点を検出する第2境界検出手段と、
前記の第2境界点を通るように前記の数式のパラメータの第2の値を算出する第2パラメータ算出手段と
前記のパラメータ算出手段と前記の第2パラメータ算出手段によりそれぞれ求められたパラメータ値との差が所定範囲内であるか否かを評価する評価手段とを備え、
前記の出力手段は、前記の差が所定範囲内である場合に、前記のパラメータ値で記述される形状を出力することを特徴とする請求項1に記載された画像処理装置。
further,
Evaluation point setting means for setting a second point different from the initial point inside the shape described by the parameter value as an evaluation point;
Second straight line setting means for setting a second plurality of straight lines passing through the evaluation point;
A second boundary detection unit that detects, based on the pixel data, a second boundary point of an area where pixels having specific characteristics are continuously present, for pixels on the second plurality of straight lines;
A second parameter calculating means for calculating a second value of the parameter of the mathematical expression so as to pass through the second boundary point, a parameter value obtained by the parameter calculating means, and a parameter value obtained by the second parameter calculating means. Evaluation means for evaluating whether or not the difference is within a predetermined range,
2. The image processing apparatus according to claim 1, wherein the output unit outputs a shape described by the parameter value when the difference is within a predetermined range.
パラメータを含む数式で表現される形状で囲まれる領域を画像から抽出する画像処理装置であって、
画像を入力する画像入力手段と、
入力画像の中の1点を初期点として設定する初期点設定手段と、
前記の初期点を通る第1の複数の直線を設定する第1直線設定手段と、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第1の境界点を検出する第1境界検出手段と、
前記の境界点を通るように前記の数式のパラメータの値を算出する第1パラメータ算出手段と、
前記のパラメータ値で記述される形状の内部の前記の初期点とは異なる第2の点を評価点として設定する評価点設定手段と、
前記の評価点を通る第2の複数の直線を設定する第2直線設定手段と、
前記の第2の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第2の境界点を検出する第2境界検出手段と、
前記の第2境界点を通るように前記の数式のパラメータの第2の値を算出する第2パラメータ算出手段と
前記の第1パラメータ算出手段と前記の第2パラメータ算出手段によりそれぞれ求められたパラメータ値の差が所定範囲内であるか否かを評価する評価手段と、
前記の差が所定範囲を越える場合に、前記の初期点に関して異なる側に2つの第2初期点を設定し、
前記の各々の第2初期点を通る複数の直線を設定する第3直線設定手段と、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第3境界点を検出する第3境界検出手段と、
前記の第3境界点を通るように前記の数式を記述するパラメータの第3の値を算出する第3パラメータ算出手段と、
前記の第3パラメータ値で記述される各形状を出力する出力手段と
からなる画像処理装置。
An image processing apparatus for extracting an area surrounded by a shape represented by a mathematical expression including a parameter from an image,
Image input means for inputting an image,
Initial point setting means for setting one point in the input image as an initial point;
First straight line setting means for setting a first plurality of straight lines passing through the initial point;
First boundary detection means for detecting, based on pixel data, a first boundary point of a region where pixels having specific characteristics are continuously present, for pixels on the plurality of straight lines;
First parameter calculating means for calculating the value of the parameter of the mathematical formula so as to pass through the boundary point;
Evaluation point setting means for setting a second point different from the initial point inside the shape described by the parameter value as an evaluation point;
Second straight line setting means for setting a second plurality of straight lines passing through the evaluation point;
A second boundary detecting means for detecting, based on the pixel data, a second boundary point of a region where pixels having specific characteristics are continuously present, for pixels on the second plurality of straight lines; ,
A second parameter calculating means for calculating a second value of the parameter of the mathematical expression so as to pass through the second boundary point; a parameter obtained by the first parameter calculating means; and a parameter obtained by the second parameter calculating means. Evaluation means for evaluating whether the value difference is within a predetermined range,
If the difference exceeds a predetermined range, two second initial points are set on different sides with respect to the initial point;
Third straight line setting means for setting a plurality of straight lines passing through each of the second initial points;
A third boundary detection unit that detects, based on the pixel data, a third boundary point of a region where pixels having specific characteristics are continuously present, for pixels on the plurality of straight lines;
Third parameter calculating means for calculating a third value of a parameter describing the mathematical expression so as to pass through the third boundary point;
An output unit that outputs each shape described by the third parameter value.
パラメータを含む数式で表現される形状で囲まれる領域を画像から抽出する画像処理方法であって、
画像を入力し、
入力画像の中の1点を初期点として設定し、
前記の初期点を通る複数の直線を設定し、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の境界点を検出し、
前記の境界点を通るように前記の数式のパラメータの値を算出し、
前記のパラメータ値で記述される形状を出力する
画像処理方法。
An image processing method for extracting an area surrounded by a shape represented by a mathematical expression including a parameter from an image,
Enter the image,
Set one point in the input image as the initial point,
Set a plurality of straight lines passing through the initial point,
For the pixels on the plurality of straight lines, based on the pixel data, to detect a boundary point of an area where pixels having specific characteristics are continuously present,
Calculating the values of the parameters of the formula so as to pass through the boundary point,
An image processing method for outputting a shape described by the parameter value.
さらに、
前記のパラメータ値で記述される形状の内部の、前記の初期点とは異なる第2の点を評価点として設定し、
前記の評価点を通る第2の複数の直線を設定し、
前記の第2の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第2境界点を検出し、
前記の第2境界点を通るように前記の数式のパラメータの第2の値を算出し
前記の境界点及び前記の第2境界点を基にそれぞれ求められたパラメータ値の差が所定範囲内であるか否かを評価し、
前記の差が所定範囲内である場合に、前記のパラメータ値で記述される形状を出力することを特徴とする請求項4に記載された画像処理方法。
further,
A second point different from the initial point inside the shape described by the parameter value is set as an evaluation point,
Setting a second plurality of straight lines passing through the evaluation points;
For pixels on the second plurality of straight lines, based on the pixel data, a second boundary point of a region where pixels having specific characteristics are continuously present is detected,
A second value of the parameter of the mathematical expression is calculated so as to pass through the second boundary point, and a difference between the parameter value obtained based on the boundary point and the parameter value obtained based on the second boundary point is within a predetermined range. Evaluate whether there is
5. The image processing method according to claim 4, wherein when the difference is within a predetermined range, a shape described by the parameter value is output.
パラメータを含む数式で表現される形状で囲まれる領域を画像から抽出する画像処理方法であって、
画像を入力し、
入力画像の中の1点を初期点として設定し、
前記の初期点を通る第1の複数の直線を設定し、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第1境界点を検出し、
前記の境界点を通るように前記の数式を記述するパラメータの第1の値を算出し、
前記のパラメータ値で記述される形状の内部の、前記の初期点とは異なる第2の点を評価点として設定し、
前記の評価点を通る第2の複数の直線を設定し、
前記の第2の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第2境界点を検出し、
前記の第2境界点を通るように前記のパラメータの第2の値を算出し、
前記の境界点及び前記の第2境界点を基にそれぞれ求められたパラメータ値の差が所定範囲内であるか否かを評価し、
前記の差が所定範囲を越える場合に、前記の初期点に関して異なる側に2つの第2初期点を設定し、
前記の各々の第2初期点を通る複数の直線を設定し、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第3境界点を検出し、
前記の第3境界点を通るように前記のパラメータの第3の値を算出し、
前記のパラメータの第3値で記述される各形状を出力する
画像処理方法。
An image processing method for extracting an area surrounded by a shape represented by a mathematical expression including a parameter from an image,
Enter the image,
Set one point in the input image as the initial point,
Setting a first plurality of straight lines passing through the initial point;
For pixels on the plurality of straight lines, based on the pixel data, detect a first boundary point of a region where pixels having specific characteristics are continuously present,
Calculating a first value of a parameter describing the mathematical expression so as to pass through the boundary point;
A second point different from the initial point inside the shape described by the parameter value is set as an evaluation point,
Setting a second plurality of straight lines passing through the evaluation points;
For pixels on the second plurality of straight lines, based on the pixel data, a second boundary point of a region where pixels having specific characteristics are continuously present is detected,
Calculating a second value of the parameter to pass through the second boundary point;
Evaluate whether or not the difference between the parameter values determined based on the boundary point and the second boundary point is within a predetermined range,
If the difference exceeds a predetermined range, two second initial points are set on different sides with respect to the initial point;
Setting a plurality of straight lines passing through each of the second initial points;
For pixels on the plurality of straight lines, a third boundary point of an area where pixels having specific characteristics are continuously present is detected based on the pixel data,
Calculating a third value of the parameter to pass through the third boundary point;
An image processing method for outputting each shape described by a third value of the parameter.
パラメータを含む数式で表現される形状で囲まれる領域を画像から抽出する画像処理プログラムであって、
画像を入力するステップと、
入力画像の中の1点を初期点として設定するステップと、
前記の初期点を通る複数の直線を設定るステップと、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の境界点を検出るステップと、
前記の境界点を通るように前記の数式を記述するパラメータの値を算出するステップと、
前記のパラメータで記述される形状を出力するステップと
からなり、コンピュータにより実行される画像処理プログラム。
An image processing program for extracting an area surrounded by a shape represented by a mathematical expression including a parameter from an image,
Inputting an image;
Setting one point in the input image as an initial point;
Setting a plurality of straight lines passing through the initial point,
For pixels on the plurality of straight lines, based on the pixel data, a step of detecting a boundary point of an area where pixels having specific characteristics are continuously present,
Calculating a value of a parameter describing the mathematical formula so as to pass through the boundary point;
An image processing program executed by a computer, comprising a step of outputting a shape described by the parameters.
さらに、
前記のパラメータ値で記述される形状の内部の、前記の初期点とは異なる第2の点を評価点として設定するステップと、
前記の評価点を通る第2の複数の直線を設定するステップと、
前記の第2の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第2境界点を検出するステップと、
前記の第2境界点を通るように前記の数式を記述するパラメータの第2の値を算出するステップと、
前記の境界点及び前記の第2境界点を基にそれぞれ求められたパラメータ値の差が所定範囲内であるか否かを評価するステップとを含み、
前記のパラメータ値で記述される形状を出力する前記のステップにおいて前記の差が所定範囲内である場合に、前記のパラメータ値で記述される形状を出力することを特徴とする請求項7に記載された画像処理プログラム。
further,
Setting a second point different from the initial point as an evaluation point inside the shape described by the parameter value;
Setting a second plurality of straight lines passing through the evaluation points;
Detecting, for pixels on the second plurality of straight lines, a second boundary point of a region where pixels having specific characteristics are continuously present, based on the pixel data;
Calculating a second value of a parameter describing the mathematical expression so as to pass through the second boundary point;
Evaluating whether the difference between the parameter values obtained based on the boundary point and the second boundary point is within a predetermined range,
8. The method according to claim 7, wherein in the step of outputting the shape described by the parameter value, when the difference is within a predetermined range, the shape described by the parameter value is output. Image processing program.
パラメータを含む数式で表現される形状で囲まれる領域を画像から抽出する画像処理プログラムであって、
画像を入力するステップと、
入力画像の中の1点を初期点として設定するステップと、
前記の初期点を通る第1の複数の直線を設定するステップと、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第1境界点を検出するステップと、
前記の境界点を通るように前記の数式を記述するパラメータの第1の値を算出し、
前記のパラメータ値で記述される形状の内部の前記の初期点とは異なる第2の点を評価点として設定するステップと、
前記の評価点を通る第2の複数の直線を設定するステップと、
前記の第2の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第2境界点を検出するステップと、
前記の第2境界点を通るように前記のパラメータの第2の値を算出するステップと、
前記の境界点及び前記の第2境界点を基にそれぞれ求められたパラメータ値の差が所定範囲内であるか否かを評価するステップと、
前記の差が所定範囲を越える場合に、前記の初期点に関して異なる側に2つの第2初期点を設定するステップと、
前記の各々の第2初期点を通る複数の直線を設定するステップと、
前記の複数の直線の上のピクセルについて、画素データを基に、特定の特徴を持つピクセルが連続して存在している領域の第3境界点を検出するステップと、
前記の第3境界点を通るように前記のパラメータの第3の値を算出するステップと、
前記のパラメータの第3値で記述される各形状を出力するステップと
からなり、コンピュータにより実行される画像処理プログラム。
An image processing program for extracting an area surrounded by a shape represented by a mathematical expression including a parameter from an image,
Inputting an image;
Setting one point in the input image as an initial point;
Setting a first plurality of straight lines passing through the initial point;
Detecting, for pixels on the plurality of straight lines, a first boundary point of a region where pixels having specific characteristics are continuously present, based on the pixel data;
Calculating a first value of a parameter describing the mathematical expression so as to pass through the boundary point;
Setting a second point different from the initial point inside the shape described by the parameter value as an evaluation point;
Setting a second plurality of straight lines passing through the evaluation points;
Detecting, for pixels on the second plurality of straight lines, a second boundary point of a region where pixels having specific characteristics are continuously present, based on the pixel data;
Calculating a second value of the parameter to pass through the second boundary point;
Evaluating whether or not the difference between the parameter values determined based on the boundary point and the second boundary point is within a predetermined range,
Setting two second initial points on different sides with respect to the initial point if the difference exceeds a predetermined range;
Setting a plurality of straight lines passing through each of the second initial points;
Detecting, for pixels on the plurality of straight lines, a third boundary point of an area where pixels having specific characteristics are continuously present, based on the pixel data;
Calculating a third value of the parameter to pass through the third boundary point;
Outputting each shape described by the third value of the parameter, and an image processing program executed by a computer.
JP2003148801A 2003-05-27 2003-05-27 Image processor and image processing method Pending JP2004355084A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003148801A JP2004355084A (en) 2003-05-27 2003-05-27 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003148801A JP2004355084A (en) 2003-05-27 2003-05-27 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2004355084A true JP2004355084A (en) 2004-12-16

Family

ID=34045080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003148801A Pending JP2004355084A (en) 2003-05-27 2003-05-27 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2004355084A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100419784C (en) * 2006-05-16 2008-09-17 清华大学深圳研究生院 Central projection based image form characteristic line extracting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100419784C (en) * 2006-05-16 2008-09-17 清华大学深圳研究生院 Central projection based image form characteristic line extracting method

Similar Documents

Publication Publication Date Title
CN110660066B (en) Training method of network, image processing method, network, terminal equipment and medium
US7324701B2 (en) Image noise reduction
US7756302B2 (en) Method and apparatus for detecting face orientation, and recording medium having recorded program for executing the method
US8040389B2 (en) Image processing method, image processing program and image processing apparatus for detecting object of an image
EP3142045B1 (en) Predicting accuracy of object recognition in a stitched image
US9153013B2 (en) Image processing apparatus, image processing method and computer readable medium
JP2011008704A (en) Image processing apparatus, image processing method and program
JP6198486B2 (en) Image processing apparatus and method
JP5653104B2 (en) Image processing apparatus, image processing method, and program
CN108960012B (en) Feature point detection method and device and electronic equipment
JP6819445B2 (en) Information processing equipment, control methods, and programs
JPWO2017061106A1 (en) Information processing apparatus, image processing system, image processing method, and program
JP7114431B2 (en) Image processing method, image processing device and program
US7602943B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010074342A (en) Image processing apparatus, image forming apparatus, and program
JP2000339471A (en) Method and device for extracting picture
CN116309488A (en) Image definition detection method, device, electronic equipment and readable storage medium
US8849066B2 (en) Image processing apparatus, image processing method, and storage medium
JP2004355084A (en) Image processor and image processing method
EP2541469A2 (en) Image recognition device, image recognition method and image recognition program
JP5786838B2 (en) Image region dividing apparatus, method, and program
JP6613625B2 (en) Image processing program, image processing apparatus, and image processing method
JP2006155595A (en) System and device for image processing
JP2005044033A (en) Image detection method and image detection program
JP2005309870A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051025

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080916

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090203