JPH08138024A - Picture direction discriminating method - Google Patents
Picture direction discriminating methodInfo
- Publication number
- JPH08138024A JPH08138024A JP6270859A JP27085994A JPH08138024A JP H08138024 A JPH08138024 A JP H08138024A JP 6270859 A JP6270859 A JP 6270859A JP 27085994 A JP27085994 A JP 27085994A JP H08138024 A JPH08138024 A JP H08138024A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- orientation
- candidate area
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、カメラなどで人物を撮
影したネガフィルムやポジフィルムなどの画像の向きの
判定方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining the orientation of an image of a negative film, a positive film or the like in which a person is photographed by a camera.
【0002】[0002]
【従来の技術】カメラなどで撮影した画像を取り扱う
際、画像の向きすなわち上下、左右を判定する必要のあ
るときがある。たとえば、画像をディスプレイに表示す
る場合では画像を読み取らせたときの方向によらず画像
の上部がディスプレイの上部に表示されることが望まし
い。また、画像の一部分の明度を変化させるような画像
処理を加える場合にも画像の上下、左右がわかった方が
処理しやすくなる。2. Description of the Related Art When handling an image taken by a camera or the like, it is sometimes necessary to determine the direction of the image, that is, whether the image is vertical or horizontal. For example, when displaying an image on the display, it is desirable that the upper part of the image is displayed on the upper part of the display regardless of the direction in which the image is read. Further, even when the image processing for changing the brightness of a part of the image is applied, it becomes easier to perform the processing if the upper and lower sides and the right and left sides of the image are known.
【0003】従来、画像の向きを自動的に判定すること
は困難であり、人が判断していた。たとえば、画像をデ
ィスプレイに表示する場合には、読み取った画像を一旦
表示させ、ユーザがその表示画像を見た上で、ディスプ
レイ上で画像を回転させて正しい向きで画像を表示させ
るようにしていた。Conventionally, it has been difficult to automatically determine the orientation of an image, and a person has made the determination. For example, when displaying an image on a display, the read image is once displayed, and the user views the displayed image and then rotates the image on the display to display the image in the correct direction. .
【0004】また、特開昭53−78874号公報には
画像の向きを自動的に判定する方法が開示されている。
この方法は、画像の上下、左右のコントラスト差に基づ
いて画像の向きを判定する方法であり、たとえば風景を
撮影した写真では画像の上部には空があり、下部には大
地があるので画像の上部と下部とではコントラスト差が
大きくなり、左部と右部とではコントラスト差が小さく
なるということを利用する方法である。Further, Japanese Patent Laid-Open No. 53-78874 discloses a method for automatically determining the orientation of an image.
This method is a method of determining the orientation of an image based on the contrast difference between the top, bottom, left and right of the image. For example, in a photograph of a landscape, the sky is at the top of the image and the ground is at the bottom, so the image This method utilizes the fact that the contrast difference between the upper part and the lower part becomes large, and the contrast difference between the left part and the right part becomes small.
【0005】[0005]
【発明が解決しようとする課題】上述したように、従来
では画像の向きの判定は人が行わなければならないとい
う問題があった。As described above, conventionally, there has been a problem that a person must determine the orientation of an image.
【0006】また、特開昭53−78874号公報に開
示された画像の向きを自動的に判定する方法では正確度
が低いという問題があった。これは、一般の画像には左
右の方が上下よりもコントラスト差が大きい画像が多数
存在するため、このような画像の場合には、画像の上
下、左右の判定を誤ってしまうからである。Further, the method for automatically determining the orientation of an image disclosed in Japanese Patent Laid-Open No. 53-78874 has a problem of low accuracy. This is because, in a general image, there are many images in which the left and right have a greater contrast difference than the upper and lower, and in the case of such an image, the up / down and left / right determination of the image is erroneous.
【0007】本発明は上記の点にかんがみてなされたも
ので、人物の顔が写っている画像の向きを人の判断によ
らずに自動的に判定し、画像を出力するときには正像に
なるように画像を回転させて出力させることができるよ
うにすることを目的とする。The present invention has been made in consideration of the above points. The orientation of an image showing a person's face is automatically determined without depending on the person's determination, and a normal image is formed when the image is output. The object is to enable the image to be rotated and output.
【0008】[0008]
【課題を解決するための手段】本発明は上記の目的を達
成するために、人物の顔が写っている画像の向き判定方
法において、顔と手、足の位置関係から画像の向きを判
定するようにした。In order to achieve the above object, the present invention determines a direction of an image from a positional relationship between a face, a hand, and a foot in a method of determining the direction of an image showing a human face. I did it.
【0009】また、顔の構成部分の位置関係から画像の
向きを判定するようにした。Also, the orientation of the image is determined from the positional relationship of the face constituent parts.
【0010】また、人物の顔が少なくとも2つ以上写っ
ている画像の向きの判定方法においては、複数の人物の
顔の位置関係に基づき画像の向きを判定するようにし
た。Further, in the method of determining the orientation of an image in which at least two human faces are shown, the orientation of the image is determined based on the positional relationship between the faces of a plurality of persons.
【0011】[0011]
【作用】本発明は以上のように、画像に写っている人物
の顔を抽出し、また、手足や顔の構成部分を抽出し、こ
れらの位置関係に基づいて画像の向きを判定する。As described above, according to the present invention, the face of a person shown in the image is extracted, the limbs and the constituent parts of the face are extracted, and the orientation of the image is determined based on the positional relationship between them.
【0012】[0012]
【実施例】以下本発明を図面に基づいて説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings.
【0013】図1は、本発明による画像の向き判定方法
を用いた画像処理装置のブロック図である。FIG. 1 is a block diagram of an image processing apparatus using the image orientation determining method according to the present invention.
【0014】フィルム1はカラー原画像が記録されたフ
ィルムであり、ネガフィルムであってもポジフィルムで
あってもかまわない。スキャナ2はフィルム1のカラー
原画像を光学的に読取り、色分解して各画素のB
(青)、G(緑)、R(赤)値を得ることができる。こ
のBGR値は、増幅器3で増幅された後にA/D変換器
4でデジタルデータに変換されてCPU5に入力され
る。CPU5では、後述する画像の向きの判定のための
各処理を実行する。The film 1 is a film on which a color original image is recorded and may be a negative film or a positive film. The scanner 2 optically reads the original color image on the film 1, color-separates it, and outputs B for each pixel.
(Blue), G (green), R (red) values can be obtained. The BGR value is amplified by the amplifier 3, converted into digital data by the A / D converter 4, and input to the CPU 5. The CPU 5 executes each processing for determining the orientation of the image, which will be described later.
【0015】図2は、本発明による画像の向き判定方法
の第1の実施例のフローチャートである。FIG. 2 is a flowchart of the first embodiment of the image orientation determining method according to the present invention.
【0016】まず画像から人物の顔が撮影されている部
分である顔候補領域を抽出し(A−1)、次に人物の手
足が撮影されている部分である手・足候補領域を抽出す
る(A−2)。First, a face candidate area in which a person's face is photographed is extracted from an image (A-1), and then a hand / foot candidate area in which a person's limbs are photographed is extracted. (A-2).
【0017】そして、顔候補領域と手・足候補領域との
位置関係から画像の向きを判定する(A−3)。たとえ
ば、図3に示すように、顔候補領域の下側に手・足候補
領域があれば、画像は正しい向きであると判定する。Then, the orientation of the image is determined from the positional relationship between the face candidate area and the hand / foot candidate area (A-3). For example, as shown in FIG. 3, if the hand / foot candidate area is below the face candidate area, the image is determined to be in the correct orientation.
【0018】顔候補領域を抽出する方法は本願出願人が
特願平6−196735号として先に出願した顔抽出方
法によればよい。ここでは、その一例について説明す
る。The face candidate area may be extracted by the face extraction method previously filed by the applicant of the present application as Japanese Patent Application No. 6-196735. Here, an example thereof will be described.
【0019】図4は、図2のステップ(A−1)におけ
る顔候補領域を抽出する処理の第1の実施例のフローチ
ャートである。FIG. 4 is a flow chart of a first embodiment of the processing for extracting the face candidate area in step (A-1) of FIG.
【0020】まず、スキャナ2によって得られた各画素
のBGR値から、明度、色相、彩度、色度、(B−
R)、(G−R)といった色の特徴量を求め(B−
1)、これらの色の特徴量が予め定めた範囲内に入って
いれば、対象画素が肌色であると判定する(B−2)。
もちろん、ネガ画像のBGR値から肌色を抽出する場合
と、ポジ画像のBGR値から肌色を抽出する場合とで
は、特徴量について予め定める範囲が異なる。また、求
めた色の特徴量をニューラルネットワークの入力値とし
て、肌色か否かを判定してもかまわない。ポジ画像から
肌色を抽出するときはポジの測光値から直接肌色を抽出
すればよく、ネガ画像から肌色を抽出するときはネガの
測光値をポジに変換して肌色を抽出してもよいし、ネガ
の測光値から直接肌色を抽出してもよい。First, from the BGR value of each pixel obtained by the scanner 2, the brightness, hue, saturation, chromaticity, (B-
R), (GR), and color feature quantities (B-
1) If the feature amounts of these colors are within a predetermined range, it is determined that the target pixel is a skin color (B-2).
Of course, the predetermined range of the feature amount differs between the case of extracting the skin color from the BGR value of the negative image and the case of extracting the skin color from the BGR value of the positive image. Further, it may be possible to determine whether the color is a skin color by using the obtained color feature amount as an input value of the neural network. When extracting the skin color from the positive image, it is sufficient to extract the skin color directly from the positive photometric value, and when extracting the skin color from the negative image, the negative photometric value may be converted to positive to extract the skin color, The skin color may be directly extracted from the negative photometric value.
【0021】次に、肌色と判定された画素から成る画像
に対してエッジ抽出を行なう(B−3)。エッジ抽出方
法としては、たとえば、対象画素を中心として、周囲8
画素の明度平均を取り、その平均値と対象画素の明度と
の差が所定値よりも大きければ、対象画素をエッジ画素
とし、エッジ画素であるか否かで2値化する。ここで
は、このようにして得た画像をエッジ画像という。Next, edge extraction is performed on the image composed of pixels determined to be flesh color (B-3). As an edge extraction method, for example, with the target pixel as the center,
The brightness average of the pixels is calculated, and if the difference between the average value and the brightness of the target pixel is larger than a predetermined value, the target pixel is set as an edge pixel, and binarization is performed depending on whether the pixel is an edge pixel. Here, the image thus obtained is referred to as an edge image.
【0022】ステップ(B−4)では、まず、サイズ、
長軸/短軸の比率の異なる複数の楕円あるいは円形の顔
テンプレートを作成する。これらの顔テンプレートは予
め作成しておき記憶装置6に記憶させておいてもよい。
顔テンプレートは、楕円ないしは円の輪郭か否かで2値
化されている。実際の顔の輪郭は、正確な楕円ないしは
円ではないために、顔テンプレートの輪郭は、数画素、
好ましくは2〜3画素の幅をもたせて、実際の顔の輪郭
とのマッチング度を上げてもよい。In step (B-4), first, the size,
Create multiple elliptical or circular face templates with different major / minor axis ratios. These face templates may be created in advance and stored in the storage device 6.
The face template is binarized depending on whether it is the outline of an ellipse or a circle. Since the actual contour of the face is not an exact ellipse or circle, the contour of the face template is a few pixels,
Preferably, the width of 2 to 3 pixels may be provided to increase the degree of matching with the actual contour of the face.
【0023】ステップ(B−4)では、続いて、エッジ
画像と顔テンプレートのマッチング度を求める。マッチ
ング度の求め方は、既存の手法を用いる。たとえば、数
1で表されるような手法でマッチング度m(u,v)を
求める。In step (B-4), subsequently, the degree of matching between the edge image and the face template is obtained. An existing method is used to obtain the matching degree. For example, the matching degree m (u, v) is obtained by the method represented by the equation 1.
【0024】[0024]
【数1】 数1において、fは対象画像を表し、tは顔テンプレー
トを表し、Sはt(x,y)の値域を表す。f’、t’
はそれぞれf(x+u,y+v)、t(x,y)のS内
での平均を表す。[Equation 1] In Expression 1, f represents a target image, t represents a face template, and S represents a range of t (x, y). f ', t'
Represents the average of f (x + u, y + v) and t (x, y) in S, respectively.
【0025】このような手法で、数種類の顔テンプレー
トを用いてマッチングを行ない、最もよく一致するテン
プレートを対象画素に対して求め(B−4)、マッチン
グ度が予め定めたしきい値以上であれば(B−5)、対
象画素を中心として、最もよく一致する顔テンプレート
で囲まれる領域を顔候補領域であると判定する(B−
6)。With such a method, matching is performed using several types of face templates, the best matching template is found for the target pixel (B-4), and the matching degree is equal to or more than a predetermined threshold value. In this case (B-5), the area surrounded by the best matching face template centering on the target pixel is determined to be the face candidate area (B-
6).
【0026】また、演算回数を減らすために、最初に大
まかな走査として、一定の大きさの顔テンプレートを1
画素ずつ、あるいは、何画素かおきにずらしていって、
マッチング度を求め、マッチング度が所定値以上の対象
画素に対してのみ、大きさの違うテンプレートをあては
めて、最適な顔候補領域を決定してもよい。Further, in order to reduce the number of calculations, a rough scan is first performed and a face template of a certain size is set to 1
You can shift pixels pixel by pixel or every other pixel,
The optimum face candidate area may be determined by obtaining the matching degree and applying templates of different sizes only to the target pixel having the matching degree of a predetermined value or more.
【0027】図5は、図2のステップ(A−2)におけ
る手・足候補領域を抽出する処理のフローチャートであ
る。FIG. 5 is a flowchart of the processing for extracting the hand / foot candidate area in step (A-2) of FIG.
【0028】ステップ(C−1)では、手・足テンプレ
ートを作成し、図4のステップ(B−4)における処理
と同様に図4のステップ(B−3)で求めたエッジ画像
に対して手・足テンプレートとのマッチングを行い、マ
ッチング度の最も高い手・足テンプレートを求める。In step (C-1), a hand / foot template is created, and the edge image obtained in step (B-3) in FIG. 4 is processed in the same manner as in the process in step (B-4) in FIG. Match the hand / foot template and find the hand / foot template with the highest degree of matching.
【0029】そして、マッチング度が予め定めたしきい
値以上であれば(C−2)、対象画素を中心として、最
もよく一致する手・足テンプレートで囲まれる領域を手
・足候補領域であると判定する(C−3)。If the matching degree is equal to or higher than a predetermined threshold value (C-2), the area surrounded by the best matching hand / foot template with the target pixel as the center is the hand / foot candidate area. (C-3).
【0030】なお、本実施例では手・足テンプレートと
のマッチング度により手・足の抽出を行ったが、本発明
はこれに限らず、手や足が細長いことを利用して候補領
域に外接する四角形の長辺/短辺の値により抽出しても
かまわない。In this embodiment, the hand / foot is extracted based on the degree of matching with the hand / foot template. However, the present invention is not limited to this, and circumscribes the candidate area by utilizing the fact that the hand or foot is elongated. You may extract by the value of the long side / short side of the rectangle.
【0031】ところで、図4に示した顔候補領域を抽出
する処理の第1の実施例によって顔候補領域と判定され
た部分を顔とみなしても十分であるが、画像によっては
顔ではない部分を顔候補領域と判定してしまう場合があ
る。そこで、以下では第1の実施例で顔候補領域と判定
された複数の部分をさらに絞り込み、実際に顔である部
分を確実に抽出する方法について説明する。By the way, it is sufficient to regard a portion determined to be a face candidate area by the first embodiment of the process for extracting a face candidate area shown in FIG. 4 as a face, but a portion which is not a face in some images. May be determined to be a face candidate area. Therefore, hereinafter, a method of further narrowing down a plurality of portions determined as face candidate areas in the first embodiment and surely extracting a portion that is actually a face will be described.
【0032】図6は、図2のステップ(A−1)におけ
る顔候補領域を抽出する処理の第2の実施例のフローチ
ャートである。FIG. 6 is a flow chart of a second embodiment of the processing for extracting the face candidate area in step (A-1) of FIG.
【0033】まず、図4に示した顔候補領域を抽出する
処理の第1の実施例によって判定された顔候補領域内で
目のある領域(目候補領域)を推定し設定する(D−
1)。この推定方法としては、たとえば、画像の向きが
縦の場合に備えて、顔候補領域の上半分と下半分を目候
補領域に設定し、一方、画像の向きが横の場合に備え
て、顔候補領域の右半分と左半分を目候補領域に設定す
る。すなわち、顔候補領域に対して、上半分、下半分、
右半分、左半分を目候補領域と設定する。First, an area with eyes (eye candidate area) is estimated and set in the face candidate area determined by the first embodiment of the processing for extracting the face candidate area shown in FIG. 4 (D-
1). As an example of this estimation method, the upper half and the lower half of the face candidate area are set as eye candidate areas in case the image orientation is vertical, while the face candidate area is set to face orientation in case the image orientation is horizontal. The right and left halves of the candidate area are set as eye candidate areas. That is, for the face candidate area, the upper half, the lower half,
The right half and the left half are set as eye candidate areas.
【0034】次に、それぞれの目候補領域内で、明度に
関するヒストグラムを作成する(D−2)。ここでは、
明度を8ビットで表した場合について説明する(明度
0:0、明度100:255)。まず明度領域(0〜2
55)を均等に8分割して、それぞれの明度領域内での
出現頻度を求める。黒目の部分は明度が低いので、ヒス
トグラムは少なくとも黒目の明度の部分と肌色の明度の
部分にピークを有する。ここでは明度のヒストグラムを
作成したが、本発明はこれに限らず、明度の代わりに彩
度、色相、色度を用いてもかまわない。Next, a histogram regarding lightness is created in each eye candidate area (D-2). here,
A case where the lightness is represented by 8 bits will be described (lightness 0: 0, lightness 100: 255). First, the brightness range (0-2
55) is equally divided into eight, and the appearance frequency in each lightness region is obtained. Since the brightness of the black eye is low, the histogram has peaks in at least the brightness of the black eye and the brightness of the skin color. Although a histogram of brightness is created here, the present invention is not limited to this, and saturation, hue, and chromaticity may be used instead of brightness.
【0035】さて、こうして作成したヒストグラムの形
状認識手法の1つとして、以下のような手法がある。ま
ず、肌色の領域と思われる明度範囲(たとえば8ビット
で96以上)で最大のピーク(第1のピーク)を探す。
次に所定値よりも低い明度範囲で最大のピーク(第2の
ピーク)を探す。この所定値は、測定機器を用いていく
つかの目のサンプルを測光し経験的に求める。(第2の
ピークの頻度)/(第1のピークの頻度)の値を計算
し、この値を特徴量とする(D−3)。As one of the histogram shape recognition methods thus created, there is the following method. First, the maximum peak (first peak) is searched for in the lightness range (for example, 8 bits or more 96 or more) considered to be a skin color region.
Next, the maximum peak (second peak) is searched in the lightness range lower than the predetermined value. This predetermined value is determined empirically by photometrically measuring several eye samples using a measuring instrument. The value of (frequency of second peak) / (frequency of first peak) is calculated, and this value is set as a feature amount (D-3).
【0036】この特徴量が所定範囲内であれば(D−
4)、目が存在すると判定し、このヒストグラムの形状
は顔を表していると判断する。ステップ(D−4)にお
ける所定範囲は、目候補領域の大きさによって異なるた
め、それぞれのケースごとに最適範囲を求めておかなけ
ればならない。If this feature amount is within the predetermined range (D-
4) It is determined that eyes are present, and it is determined that the shape of this histogram represents a face. The predetermined range in step (D-4) differs depending on the size of the eye candidate area, so the optimum range must be obtained for each case.
【0037】このようにして、それぞれの目候補領域ご
とに判断を行ない、目と判断される領域があれば、その
顔候補領域は顔であると判定し(D−5)、目と判断さ
れる領域がなければ、顔でないと判定される。In this way, the judgment is made for each eye candidate area, and if there is an area judged as an eye, it is judged that the face candidate area is a face (D-5), and it is judged as an eye. If there is no region to be identified, it is determined that it is not a face.
【0038】なお、図6に示した第2の実施例では明度
の1次元のヒストグラムを作成したが、本発明はこれに
限らず、たとえば、明度と色相とを軸にした2次元ヒス
トグラムを作成し、肌色を表す領域のピークを第1ピー
ク、目の黒を表す領域のピークを第2ピークとして第2
の実施例と同じ手法で判定するようにしてもよいし、明
度と彩度の2次元ヒストグラムや、色相と彩度の2次元
ヒストグラムを用いてもよい。In the second embodiment shown in FIG. 6, a one-dimensional histogram of lightness is created, but the present invention is not limited to this, and for example, a two-dimensional histogram centered on lightness and hue is created. Then, the peak in the area representing the skin color is the first peak, and the peak in the area representing the black eye is the second peak.
The determination may be performed by the same method as that of the embodiment, or a two-dimensional histogram of lightness and saturation or a two-dimensional histogram of hue and saturation may be used.
【0039】図7は、本発明による画像の向き判定方法
の第2の実施例のフローチャートである。FIG. 7 is a flowchart of the second embodiment of the image orientation determining method according to the present invention.
【0040】まず、図4に示した顔候補領域を抽出する
処理の第1の実施例によって判定された顔候補領域のサ
イズに基づいて目の大きさを推定し、目テンプレートを
作成する(E−1)。この目テンプレートとしては、眼
鏡をかけたものとかけていないものの両方を用意すると
より好ましい。First, the eye size is estimated based on the size of the face candidate area determined by the first embodiment of the process for extracting the face candidate area shown in FIG. 4, and an eye template is created (E -1). It is more preferable to prepare both eyeglasses and eyeglasses as eye templates.
【0041】そして、顔候補領域内の対象画像を目を表
す画像であるか否かで2値化する(E−2)。この方法
としては、明度、彩度、色相等の色情報で目を表す黒画
素を検出してもかまわないが、次に示す手法の方が好ま
しい。 (1)まず、顔候補領域内で肌色画素の明度の平均を求
める。 (2)この平均値との差(もちろん、目を表す画素の方
が小さくなる)がしきい値以上である場合に目を表す黒
画素であると判定する。Then, the target image in the face candidate area is binarized depending on whether it is an image showing eyes (E-2). As this method, a black pixel representing an eye may be detected by color information such as lightness, saturation, and hue, but the following method is preferable. (1) First, the average of the luminosity of the flesh color pixels in the face candidate area is calculated. (2) If the difference from this average value (of course, the pixel representing the eye is smaller) is greater than or equal to the threshold value, it is determined to be a black pixel representing the eye.
【0042】こうすることで、顔の明るさの違いによる
目の黒画素の明るさの違いをカバーすることができる。By doing so, it is possible to cover the difference in the brightness of the black pixels of the eyes due to the difference in the brightness of the face.
【0043】ステップ(E−2)で2値化された顔候補
領域に対して、垂直方向、水平方向にそれぞれの目テン
プレートを走査させ、最も高いマッチング度を求め、こ
れを特徴量とする(E−3)。With respect to the face candidate area binarized in step (E-2), each eye template is scanned in the vertical direction and the horizontal direction to obtain the highest matching degree, which is used as the feature amount ( E-3).
【0044】そして、この特徴量がしきい値以上であれ
ば(E−4)、その顔候補領域は顔であると判定し(E
−5)、目テンプレートがマッチした部分の顔候補領域
内での位置から画像の向きを判定する(E−6)。たと
えば、目の位置が顔候補領域内の下部にあれば、画像の
向きは上下が逆であると判定する。If this feature amount is equal to or larger than the threshold value (E-4), it is determined that the face candidate area is a face (E
-5), The orientation of the image is determined from the position of the portion matched with the eye template in the face candidate area (E-6). For example, if the position of the eyes is at the bottom of the face candidate area, it is determined that the orientation of the image is upside down.
【0045】図7に示した第2の実施例によれば、対象
者が眼鏡をかけている場合であっても画像の向きの判定
が可能であるし、正確度の高い判定が可能である。According to the second embodiment shown in FIG. 7, the orientation of the image can be determined even when the subject wears glasses, and highly accurate determination can be performed. .
【0046】また、画像に手や足が写っていないもので
も画像の向きを判定することができる。Further, the orientation of the image can be determined even if the hand or foot is not shown in the image.
【0047】なお、図7に示した第2の実施例では目を
検出することにより、画像の向きを判定したが、本発明
はこれに限らず、たとえば、目のほかに髪を検出し画像
の向きを判定してもよい。以下に、具体的に説明する。Although the image orientation is determined by detecting the eyes in the second embodiment shown in FIG. 7, the present invention is not limited to this. For example, hair is detected in addition to the eyes and the image is detected. May be determined. The details will be described below.
【0048】目の位置が決定したら、その目の位置情報
から髪の位置を推定する。具体的には、図8のように、
たとえば両目が顔候補領域の上半分にある場合、両目を
結ぶ線より上の境界領域を髪候補領域と推定し、この領
域内で髪を示す黒画素をカウントする。また、両目が顔
候補領域の右半分にある場合、両目を結ぶ線より右の境
界領域を髪候補領域と推定する。When the eye position is determined, the hair position is estimated from the eye position information. Specifically, as shown in FIG.
For example, when both eyes are in the upper half of the face candidate area, the boundary area above the line connecting both eyes is estimated as the hair candidate area, and the black pixels indicating the hair are counted in this area. If both eyes are in the right half of the face candidate area, the boundary area to the right of the line connecting both eyes is estimated to be the hair candidate area.
【0049】そして、髪画素の割合(黒画素数/髪候補
領域の面積)がしきい値以上であれば髪があると判定
し、この顔候補領域は顔であると判定するとともに画像
の向きを判定する。ここで、顔候補領域のサイズを数画
素拡張してから髪を検出すると、より検出精度が上が
る。If the ratio of hair pixels (the number of black pixels / area of hair candidate area) is greater than or equal to the threshold value, it is determined that there is hair, and this face candidate area is determined to be a face, and the orientation of the image is determined. To judge. Here, if hair is detected after the size of the face candidate area is expanded by several pixels, the detection accuracy is further improved.
【0050】この場合には、髪の領域が顔の上半分にあ
るか、下半分にあるか、左半分にあるか、あるいは右半
分にあるかで、画像の向きを判定することができるとい
う効果がある。すなわち、図8に示すように、顔候補領
域の幅をw、高さをhとし、髪を表す画素の位置を
(x,y)としたとき、数2のように画像の向きを判定
する。In this case, the orientation of the image can be determined depending on whether the hair region is in the upper half, the lower half, the left half, or the right half of the face. effective. That is, as shown in FIG. 8, when the width of the face candidate area is w, the height is h, and the position of the pixel representing the hair is (x, y), the orientation of the image is determined as in Expression 2. .
【0051】[0051]
【数2】 y≧h/2 であれば、正しい向きである; h/2>y≧0 であれば、上下が逆である; x≦w/2 であれば、上になるべき部分が左にな
っている; w/2<x≦w であれば、上になるべき部分が右にな
っている。## EQU00002 ## If y.gtoreq.h / 2, the correct orientation; if h / 2> y.gtoreq.0, upside down; if x.ltoreq.w / 2, the part that should be on top is It is on the left; if w / 2 <x ≦ w, the part that should be on the top is on the right.
【0052】さらに、本発明は、目のほかに首を検出し
て画像の向きを判定してもよい。以下に、具体的に説明
する。Furthermore, the present invention may detect the orientation of the image by detecting the neck in addition to the eyes. The details will be described below.
【0053】目の位置が決定したら、その目の位置情報
から首の位置を推定する。図8のように、たとえば両目
が顔候補領域の上半分にある場合、下1/3を首候補領
域とする。下半分というように更に広い領域に限定して
もかまわない。When the eye position is determined, the neck position is estimated from the eye position information. As shown in FIG. 8, for example, when both eyes are in the upper half of the face candidate area, the lower 1/3 is set as the neck candidate area. It may be limited to a wider area such as the lower half.
【0054】次に、顔候補領域のサイズを3〜4画素拡
張し、首候補領域と接触する領域で、首を表す肌色の画
素をカウントする。首画素の割合(カウント数/顔の候
補領域の面積)がしきい値以上であれば首であると判定
し、この顔候補領域は顔であると判定するとともに画像
の向きを判定する。Next, the size of the face candidate area is expanded by 3 to 4 pixels, and the skin-colored pixels representing the neck are counted in the area in contact with the neck candidate area. If the ratio of the number of neck pixels (count number / area of face candidate area) is greater than or equal to a threshold value, it is determined to be a neck, and this face candidate area is determined to be a face and the orientation of the image is determined.
【0055】さらに、本発明は、目のほかに口を検出し
て画像の向きを判定してもよい。以下に、具体的に説明
する。Furthermore, the present invention may detect the mouth in addition to the eyes to determine the orientation of the image. The details will be described below.
【0056】まず、目の位置情報から口の位置を推定す
る。たとえば、両目の位置がともに顔の上半分にあった
場合、口の位置は、顔の下半分にあると推定する。ま
た、両目の位置が共に顔の右半分にあった場合、口の位
置は、顔の左半分にあると推定する。また、通常行なわ
れているように、両目を結ぶ線分の中点からの距離で口
の位置を推定すればより高い検出精度が得られる。First, the mouth position is estimated from the eye position information. For example, when the positions of both eyes are both in the upper half of the face, it is estimated that the position of the mouth is in the lower half of the face. If both eyes are in the right half of the face, it is estimated that the mouth is in the left half of the face. Further, if the position of the mouth is estimated by the distance from the midpoint of the line segment connecting both eyes, as is usually done, higher detection accuracy can be obtained.
【0057】次に、口の候補領域に対して、色情報から
口が存在するかどうかを判定する。具体的には、たとえ
ば、BGR信号を8ビット(0〜255)で表し、顔候
補領域全体でG−Rを計算し、その平均値を求める。次
に、口の候補領域に対して同様にG−Rを計算し、この
計算した値と先に求めた平均値との差を求め、この差が
しきい値以上であれば口画素としてカウントする。Next, with respect to the mouth candidate area, it is determined from the color information whether or not a mouth is present. Specifically, for example, the BGR signal is represented by 8 bits (0 to 255), GR is calculated for the entire face candidate area, and the average value thereof is obtained. Next, GR is similarly calculated for the mouth candidate area, the difference between the calculated value and the previously calculated average value is calculated, and if this difference is equal to or greater than the threshold value, it is counted as a mouth pixel. To do.
【0058】そして、口画素の割合(口の画素とカウン
トされた画素数/顔候補領域内の全画素数)を求め、こ
れを第2の特徴量とする。Then, the ratio of the mouth pixels (the number of pixels counted as the mouth pixels / the total number of pixels in the face candidate area) is obtained, and this is set as the second feature amount.
【0059】この第2の特徴量が所定範囲内であれば、
口であると判定し、この顔候補領域は顔であると判定す
るとともに画像の向きを判定する。各しきい値はそれぞ
れ測定機器を用いて経験的に求めればよい。また、G−
Rの代わりに他の色情報、たとえば明度、色相、彩度、
色度を用いてもかまわない。If the second feature amount is within the predetermined range,
The face candidate area is determined to be a mouth, and the face orientation is determined as well as the face. Each threshold may be empirically obtained using a measuring device. Also, G-
Instead of R, other color information such as lightness, hue, saturation,
Chromaticity may be used.
【0060】この実施例によれば、口の位置が顔の領域
のどの部分にあるかがわかり、画像の向きを判定するこ
とができる。また、より正確度の高い画像の向きの判定
ができるという効果もある。According to this embodiment, it is possible to know which part of the face area the mouth is located in and to determine the orientation of the image. There is also an effect that the orientation of the image can be determined with higher accuracy.
【0061】図9は、本発明による画像の向き判定方法
の第3の実施例のフローチャートである。FIG. 9 is a flow chart of the third embodiment of the image orientation determining method according to the present invention.
【0062】本実施例は複数の顔が写っている画像に対
して適用できる画像の向き判定方法であり、人間が複数
写っている画像においては、通常、顔は横方向に並ぶこ
とを利用したものである。The present embodiment is an image orientation determination method that can be applied to an image in which a plurality of faces are shown. In an image in which a plurality of humans are shown, faces are normally arranged in the lateral direction. It is a thing.
【0063】まず、上述した各種の顔候補領域の抽出処
理によって判定された複数の顔候補領域のそれぞれにつ
いて代表点を求める(F−1)。この代表点としては、
たとえば、図10に示すように顔候補領域の中心点を用
いればよい。First, a representative point is obtained for each of a plurality of face candidate areas determined by the above-described various face candidate area extraction processing (F-1). As a representative point,
For example, the center point of the face candidate area may be used as shown in FIG.
【0064】次に、この複数の代表点が横方向に広く散
らばっているか、縦方向に広く散らばっているかを求め
るために、代表点の横の分布範囲および縦の分布範囲を
求める(F−2)。Next, in order to determine whether the plurality of representative points are widely scattered in the horizontal direction or widely in the vertical direction, the horizontal distribution range and the vertical distribution range of the representative points are calculated (F-2). ).
【0065】そして、横の分布範囲の方が縦の分布範囲
よりも大きいときには画像の向きが正しい向きであると
判定し(F−4)、そうでなければ、90度または27
0度回転した向きであると判定する(F−4)。Then, when the horizontal distribution range is larger than the vertical distribution range, it is determined that the orientation of the image is the correct orientation (F-4), and otherwise 90 degrees or 27 degrees.
It is determined that the direction has been rotated by 0 degrees (F-4).
【0066】なお、図11(b)に示すように多くの人
物が写っている画像の場合には、横の分布範囲と縦の分
布範囲との差が大きいので画像の向きの判定がうまくで
きるが、図11(a)に示すように少ない人物しか写っ
ていない画像の場合には、横の分布範囲と縦の分布範囲
との差が小さく画像の向きの判定を間違ってしまう場合
がある。そこで、横の分布範囲と縦の分布範囲との差が
小さく、所定値以下である場合には、いずれかの顔候補
領域について、内部の目や口や、髪や首等の位置に基づ
いて画像の向きを判定したり、顔候補領域と手・足候補
領域との位置関係に基づいて画像の向きを判定すれば、
より正確度を上げることができる。Incidentally, in the case of an image in which many persons are shown as shown in FIG. 11B, the difference between the horizontal distribution range and the vertical distribution range is large, so that the orientation of the image can be judged well. However, as shown in FIG. 11A, in the case of an image containing only a small number of people, the difference between the horizontal distribution range and the vertical distribution range is small, and the orientation of the image may be erroneously determined. Therefore, when the difference between the horizontal distribution range and the vertical distribution range is small and is less than or equal to a predetermined value, based on the position of the internal eyes or mouth, or hair or neck, for any face candidate area. If the orientation of the image is determined or the orientation of the image is determined based on the positional relationship between the face candidate area and the hand / foot candidate area,
The accuracy can be increased.
【0067】また、図9に示した第3の実施例では顔候
補領域の中心点を代表点としたが、目、口等の顔内部の
部位を表す画素を代表点としてもよい。Further, in the third embodiment shown in FIG. 9, the central point of the face candidate area is used as the representative point, but pixels representing internal parts of the face such as eyes and mouth may be used as the representative point.
【0068】また、図9に示した第3の実施例では代表
点の横の分布範囲と縦の分布範囲との関係に基づいて画
像の向きを判定したが、本発明はこれに限らず、複数の
代表点の横方向および縦方向における標準偏差を求め、
それらの大小比較によって画像の向きを判定することも
可能である。さらに、標準偏差の代わりに、他の統計
量、たとえば分散等を用いてもかまわない。In the third embodiment shown in FIG. 9, the orientation of the image is judged based on the relationship between the horizontal distribution range and the vertical distribution range of the representative points, but the present invention is not limited to this. Obtain standard deviations of multiple representative points in the horizontal and vertical directions,
It is also possible to determine the orientation of the image by comparing their sizes. Further, instead of the standard deviation, another statistic such as variance may be used.
【0069】また、代表点の代わりに、顔候補領域内の
複数画素を用いて、顔候補領域の画素の分布から、縦横
方向の分布を求め画像の向きを判定するようにしてもよ
い。この場合にも、標準偏差を用いたり、標準偏差の代
わりに、他の統計量、たとえば分散等を用いてもかまわ
ない。Further, instead of the representative point, a plurality of pixels in the face candidate area may be used to obtain the distribution in the vertical and horizontal directions from the distribution of pixels in the face candidate area to determine the orientation of the image. Also in this case, the standard deviation may be used, or another statistical amount such as variance may be used instead of the standard deviation.
【0070】また、図9に示した第3の実施例は、図2
に示した第1の実施例や、図7に示した第2の実施例と
組み合わせることによって、さらに正確度を上げること
ができる。The third embodiment shown in FIG. 9 is similar to that shown in FIG.
The accuracy can be further increased by combining the first embodiment shown in FIG. 9 and the second embodiment shown in FIG.
【0071】ここでは、図7に示した第2の実施例と組
み合わせた例について説明する。Here, an example combined with the second embodiment shown in FIG. 7 will be described.
【0072】たとえば、複数の人物が写っている場合に
は、図7に示した第2の実施例によって顔候補領域内の
目の位置に基づき画像の向きを判定すると、どの人物の
顔候補領域によって判定したかによって判定された画像
の向きが異なってしまうことが考えられる。このような
場合、図9に示した第3の実施例をさらに行うとより正
確度の高い判定ができる。具体的には、以下のような手
順で判定することができる。 (1)図7に示した第2の実施例によって顔候補領域内
の目の位置に基づき画像の向きを判定する。このとき、
n人の人間が写っていた場合、(画像の向きが正しい向
きである割合=画像の向きが正しいと判定された人物の
数/n人)とし、画像の向きがその他の方向の割合も同
様にして定義する。 (2)図9に示した第3の実施例によって画像の向きを
判定する。 (3)図9に示した第3の実施例によって画像の向きが
正しい向きであると判定され、且つ(1)で求めた画像
の向きが正しい向きである割合が所定値以上である場合
に、画像の向きが正しい向きであると判定する。For example, in the case where a plurality of persons are photographed, when the orientation of the image is determined based on the eye position in the face candidate area according to the second embodiment shown in FIG. It is conceivable that the orientation of the determined image may differ depending on whether or not the determination has been made. In such a case, more accurate determination can be performed by further performing the third embodiment shown in FIG. Specifically, it can be determined by the following procedure. (1) The orientation of the image is determined based on the position of the eyes in the face candidate area according to the second embodiment shown in FIG. At this time,
If n humans are shown, the ratio is (the ratio of the image orientation is correct = the number of people determined to have the correct image orientation / n), and the ratio of the image orientations in other directions is the same. And define it. (2) The orientation of the image is determined by the third embodiment shown in FIG. (3) In the case where the orientation of the image is determined to be the correct orientation by the third embodiment shown in FIG. 9 and the ratio of the orientation of the image obtained in (1) is the correct orientation is equal to or greater than a predetermined value. , It is determined that the orientation of the image is correct.
【0073】[0073]
【発明の効果】以上説明したように、本発明によれば、
人物の顔が写っている画像の向きを人の判断によらずに
自動的に判定することができる。従って、画像を出力す
るときには正像になるように画像を回転させて出力させ
ることができる。As described above, according to the present invention,
It is possible to automatically determine the orientation of an image showing a person's face without depending on the person's determination. Therefore, when outputting an image, the image can be rotated and output so as to be a normal image.
【0074】また、図7に示した第2の実施例によれ
ば、人物の手足が写っていない画像であっても画像の向
きを判定することができる。Further, according to the second embodiment shown in FIG. 7, it is possible to determine the orientation of an image even if it does not show the limbs of a person.
【0075】また、図9に示した第3の実施例によれ
ば、複数の人物が写っている画像に対して画像の向きを
判定することができる。Further, according to the third embodiment shown in FIG. 9, it is possible to determine the orientation of an image in which a plurality of persons are shown.
【図1】本発明による画像の向き判定方法を用いた画像
処理装置のブロック線図である。FIG. 1 is a block diagram of an image processing apparatus using an image orientation determination method according to the present invention.
【図2】本発明による画像の向き判定方法の第1の実施
例のフローチャートである。FIG. 2 is a flowchart of a first embodiment of an image orientation determination method according to the present invention.
【図3】顔候補領域と手・足候補領域との位置関係を説
明する図である。FIG. 3 is a diagram illustrating a positional relationship between a face candidate area and a hand / foot candidate area.
【図4】図2のステップ(A−1)における顔候補領域
を抽出する処理の第1の実施例のフローチャートであ
る。FIG. 4 is a flowchart of a first embodiment of a process of extracting a face candidate area in step (A-1) of FIG.
【図5】図2のステップ(A−2)における手・足候補
領域を抽出する処理のフローチャートである。5 is a flowchart of a process of extracting a hand / foot candidate region in step (A-2) of FIG.
【図6】図2のステップ(A−1)における顔候補領域
を抽出する処理の第2の実施例のフローチャートであ
る。FIG. 6 is a flowchart of a second embodiment of a process of extracting a face candidate area in step (A-1) of FIG.
【図7】本発明による画像の向き判定方法の第2の実施
例のフローチャートである。FIG. 7 is a flowchart of a second embodiment of the image orientation determination method according to the present invention.
【図8】髪黄埔領域の推定方法について説明する図であ
る。FIG. 8 is a diagram illustrating a method for estimating a hair yellow pond region.
【図9】本発明による画像の向き判定方法の第3の実施
例のフローチャートである。FIG. 9 is a flowchart of a third embodiment of the image orientation determination method according to the present invention.
【図10】顔候補領域の代表点について説明する図であ
る。FIG. 10 is a diagram illustrating representative points of a face candidate area.
【図11】顔候補領域の代表点について、横の分布範囲
と縦の分布範囲との関係を説明する図であり、(a)は
少ない人物しか写っていない画像で横の分布範囲と縦の
分布範囲との差が小さい画像の例であり、(b)は多く
の人物が写っている画像で横の分布範囲と縦の分布範囲
との差が大きい画像の例である。FIG. 11 is a diagram illustrating a relationship between a horizontal distribution range and a vertical distribution range with respect to a representative point of a face candidate area. FIG. 11A is an image in which only a small number of people are shown in the horizontal distribution range and the vertical distribution range. This is an example of an image with a small difference from the distribution range, and (b) is an example of an image in which many people are shown and in which the difference between the horizontal distribution range and the vertical distribution range is large.
1 フィルム 2 スキャナ 3 増幅器 4 A/D変換機 5 CPU 6 記憶装置 1 Film 2 Scanner 3 Amplifier 4 A / D Converter 5 CPU 6 Storage Device
Claims (12)
法において、身体の構成部分の位置関係に基づいて画像
の向きを判定することを特徴とする画像の向き判定方
法。1. A method for determining an orientation of an image showing a face of a person, wherein the orientation of the image is determined based on a positional relationship between constituent parts of the body.
顔と手、足の位置関係を用いることを特徴とする請求項
1に記載の画像の向き判定方法。2. As a positional relationship of the constituent parts of the body,
The image orientation determination method according to claim 1, wherein the positional relationship between the face, the hand, and the foot is used.
顔の構成部分の位置関係を用いることを特徴とする請求
項1に記載の画像の向き判定方法。3. As a positional relationship of the constituent parts of the body,
The image orientation determination method according to claim 1, wherein the positional relationship between the face constituent portions is used.
目の位置関係を用いることを特徴とする請求項3に記載
の画像の向き判定方法。4. The image orientation determination method according to claim 3, wherein a positional relationship between both eyes is used as a positional relationship between the face constituent parts.
と髪の位置関係を用いることを特徴とする請求項3に記
載の画像の向き判定方法。5. The image orientation determination method according to claim 3, wherein the positional relationship between the face and hair is used as the positional relationship between the constituent parts of the face.
と首の位置関係を用いることを特徴とする請求項3に記
載の画像の向き判定方法。6. The image orientation determining method according to claim 3, wherein the positional relationship between the face and the neck is used as the positional relationship between the constituent parts of the face.
と口の位置関係を用いることを特徴とする請求項3に記
載の画像の向き判定方法。7. The image orientation determination method according to claim 3, wherein the positional relationship between the face and the mouth is used as the positional relationship between the constituent parts of the face.
画像の向き判定方法のうち少なくとも2つ以上を組み合
わせたことを特徴とする画像の向き判定方法。8. An image orientation determination method, characterized in that at least two or more of the image orientation determination methods according to claims 2, 4, 5, 6 and 7 are combined.
る画像の向きの判定方法において、複数の人物の顔の位
置関係に基づいて画像の向きを判定することを特徴とす
る画像の向き判定方法。9. A method for determining the orientation of an image in which at least two human faces are shown, wherein the orientation of the image is determined based on the positional relationship between the faces of the plurality of persons. Method.
れの代表点が分布している形状から画像の向きを判定す
ることを特徴とする請求項9に記載の画像の向き判定方
法。10. The image orientation determining method according to claim 9, wherein the representative points of the respective faces are obtained, and the orientation of the image is determined from the shape in which the respective representative points are distributed.
に記載の画像の向き判定方法のうちの少なくとも1つ以
上を組み合わせたことを特徴とする請求項9に記載の画
像の向き判定方法。11. Claims 2, 4, 5, 6, 7 and 10.
10. The image orientation determination method according to claim 9, wherein at least one of the image orientation determination methods according to claim 9 is combined.
1項に記載の画像の向き判定方法で画像の向きを判定し
た後、画像の向きが正像になるように画像を回転させる
ことを特徴とする画像処理装置。12. An image orientation determining method according to claim 1, wherein the orientation of the image is determined, and then the image is rotated so that the orientation of the image becomes a normal image. A characteristic image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6270859A JPH08138024A (en) | 1994-11-04 | 1994-11-04 | Picture direction discriminating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6270859A JPH08138024A (en) | 1994-11-04 | 1994-11-04 | Picture direction discriminating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08138024A true JPH08138024A (en) | 1996-05-31 |
Family
ID=17491973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6270859A Pending JPH08138024A (en) | 1994-11-04 | 1994-11-04 | Picture direction discriminating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08138024A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11136498A (en) * | 1997-08-29 | 1999-05-21 | Eastman Kodak Co | Computer program matter for red eye detection |
JP2005202562A (en) * | 2004-01-14 | 2005-07-28 | Konica Minolta Photo Imaging Inc | Image processing method, image processor and image processing program |
WO2005071611A1 (en) * | 2004-01-27 | 2005-08-04 | Seiko Epson Corporation | Method for extracting person candidate area in image, person candidate area extraction system, person candidate area extraction program, method for judging top and bottom of person image, system for judging top and bottom, and program for judging top and bottom |
JP2005269891A (en) * | 2004-03-15 | 2005-09-29 | Agilent Technol Inc | Control and management of electric power of electronic equipment utilizing detection of eye |
WO2007142227A1 (en) * | 2006-06-07 | 2007-12-13 | Nec Corporation | Image direction judging device, image direction judging method and image direction judging program |
CN100365657C (en) * | 2004-03-31 | 2008-01-30 | 富士胶片株式会社 | Image display control apparatus and method, and program for controlling image display control apparatus |
JP2008027355A (en) * | 2006-07-25 | 2008-02-07 | Fujifilm Corp | Image display device, photographing equipment, image display method, and program |
US7349558B2 (en) | 2003-02-19 | 2008-03-25 | Konica Minolta Holdings, Inc. | Image processing method, image processing apparatus, storage medium and program |
JP2008084047A (en) * | 2006-09-28 | 2008-04-10 | Fujifilm Corp | Image evaluation device and method, and program |
US8290276B2 (en) | 2007-09-27 | 2012-10-16 | Fujifilm Corporation | Image display device, image display method and storage medium storing image display program |
JP2015513711A (en) * | 2012-01-10 | 2015-05-14 | サムスン エレクトロニクス カンパニー リミテッド | Apparatus and method for controlling rotation of display image |
-
1994
- 1994-11-04 JP JP6270859A patent/JPH08138024A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11136498A (en) * | 1997-08-29 | 1999-05-21 | Eastman Kodak Co | Computer program matter for red eye detection |
US7349558B2 (en) | 2003-02-19 | 2008-03-25 | Konica Minolta Holdings, Inc. | Image processing method, image processing apparatus, storage medium and program |
JP2005202562A (en) * | 2004-01-14 | 2005-07-28 | Konica Minolta Photo Imaging Inc | Image processing method, image processor and image processing program |
WO2005071611A1 (en) * | 2004-01-27 | 2005-08-04 | Seiko Epson Corporation | Method for extracting person candidate area in image, person candidate area extraction system, person candidate area extraction program, method for judging top and bottom of person image, system for judging top and bottom, and program for judging top and bottom |
JP2005269891A (en) * | 2004-03-15 | 2005-09-29 | Agilent Technol Inc | Control and management of electric power of electronic equipment utilizing detection of eye |
CN100365657C (en) * | 2004-03-31 | 2008-01-30 | 富士胶片株式会社 | Image display control apparatus and method, and program for controlling image display control apparatus |
US9230184B2 (en) | 2004-03-31 | 2016-01-05 | Fujifilm Corporation | Image display control apparatus and method, and program for controlling image display control apparatus |
US8548254B2 (en) | 2006-06-07 | 2013-10-01 | Nec Corporation | Image direction judging device, image direction judging method and image direction judging program |
WO2007142227A1 (en) * | 2006-06-07 | 2007-12-13 | Nec Corporation | Image direction judging device, image direction judging method and image direction judging program |
JP4957922B2 (en) * | 2006-06-07 | 2012-06-20 | 日本電気株式会社 | Image direction determination apparatus, image direction determination method, and image direction determination program |
JP2008027355A (en) * | 2006-07-25 | 2008-02-07 | Fujifilm Corp | Image display device, photographing equipment, image display method, and program |
JP4683228B2 (en) * | 2006-07-25 | 2011-05-18 | 富士フイルム株式会社 | Image display device, photographing device, image display method and program |
JP2008084047A (en) * | 2006-09-28 | 2008-04-10 | Fujifilm Corp | Image evaluation device and method, and program |
US8090158B2 (en) | 2006-09-28 | 2012-01-03 | Fujifilm Corporation | Image evaluation apparatus, method, and program |
US8290276B2 (en) | 2007-09-27 | 2012-10-16 | Fujifilm Corporation | Image display device, image display method and storage medium storing image display program |
JP2015513711A (en) * | 2012-01-10 | 2015-05-14 | サムスン エレクトロニクス カンパニー リミテッド | Apparatus and method for controlling rotation of display image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3557659B2 (en) | Face extraction method | |
US8385638B2 (en) | Detecting skin tone in images | |
US7035461B2 (en) | Method for detecting objects in digital images | |
US7444017B2 (en) | Detecting irises and pupils in images of humans | |
US7415165B2 (en) | Red-eye detection device, red-eye detection method, and red-eye detection program | |
US6292574B1 (en) | Computer program product for redeye detection | |
KR100480781B1 (en) | Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image | |
KR100617390B1 (en) | Face identification apparatus, face identification method, and medium for recording face identification program | |
US20050129331A1 (en) | Pupil color estimating device | |
KR20060129332A (en) | Method for extracting person candidate area in image, person candidate area extraction system, person candidate area extraction program, method for judging top and bottom of person image, system for judging top and bottom, and program for judging top and bottom | |
CN105139404A (en) | Identification camera capable of detecting photographing quality and photographing quality detecting method | |
JP2000137788A (en) | Image processing method, image processor, and record medium | |
JP2007272435A (en) | Face feature extraction device and face feature extraction method | |
JP4915737B2 (en) | Image analysis system and image analysis program | |
JPH08138024A (en) | Picture direction discriminating method | |
JP2000105819A (en) | Face image area detecting device | |
US8213720B2 (en) | System and method for determining chin position in a digital image | |
CN110648336B (en) | Method and device for dividing tongue texture and tongue coating | |
JP3576654B2 (en) | Exposure determination method, figure extraction method, and face area determination method | |
JP2009038737A (en) | Image processing apparatus | |
JP2004265431A (en) | Face extraction method | |
RU2329535C2 (en) | Method of automatic photograph framing | |
JP2006074498A (en) | Image processor and imaging apparatus | |
JP4158153B2 (en) | Face image detection method | |
JP2004234689A (en) | Face extracting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040203 |