JP2009239347A - Image processor and image processing program - Google Patents
Image processor and image processing program Download PDFInfo
- Publication number
- JP2009239347A JP2009239347A JP2008079122A JP2008079122A JP2009239347A JP 2009239347 A JP2009239347 A JP 2009239347A JP 2008079122 A JP2008079122 A JP 2008079122A JP 2008079122 A JP2008079122 A JP 2008079122A JP 2009239347 A JP2009239347 A JP 2009239347A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- face
- image
- image processing
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像信号に対して所定の処理を行う画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for performing predetermined processing on an image signal.
従来より、撮像機能を備えたデジタルカメラ等の画像処理装置においては、被写体が人間である場合にその人間の顔を検出し、この検出した顔の位置にピントを合わせる技術が知られている。また、近年では、被写体である人間が笑顔等の撮影に好適な表情を見せているタイミングを自動的に認識することによって撮影を行う技術も知られている。 2. Description of the Related Art Conventionally, in an image processing apparatus such as a digital camera having an imaging function, when a subject is a human, a technique for detecting the human face and focusing on the detected face position is known. In recent years, there is also known a technique for taking a picture by automatically recognizing the timing at which a human subject is showing an expression suitable for photographing such as a smile.
このような状況の下、複数の人物を対象とした撮影を行う際、個々の人物の顔の向きや黒目の位置を判定することによってカメラ目線の画像を抽出する技術が開示されている(例えば、特許文献1を参照)。また、映像から検出した人物の目線方向を推定し、この目線方向の特徴を抽出することによってその人物の行動意図を判定する技術も開示されている(例えば、特許文献2を参照)。 Under such circumstances, a technique for extracting an image of a camera line of sight by determining the face direction and the position of the black eye of each person when photographing a plurality of persons is disclosed (for example, , See Patent Document 1). In addition, a technique is also disclosed in which a person's intention of action is determined by estimating a person's line-of-sight direction detected from a video and extracting the characteristic of the line-of-sight direction (see, for example, Patent Document 2).
複数の人物を被写体とする撮影を行う場合には、全員がカメラ目線となっている状態を撮影するのが一般的であるが、これ以外にも撮影に適した場面は存在する。例えば、複数の人物の目線が画像処理装置以外の同じ対象物を注視している場面などは、画像に統一感が生まれることに加え、同じ対象物を注視するという行為を介して垣間見ることができる人物同士の交流の瞬間を捉えることができるため、撮影の対象とするのにふさわしい。 When shooting with a plurality of persons as subjects, it is common to shoot in a state where all of them are looking at the camera, but there are other scenes suitable for shooting. For example, a scene in which the eyes of a plurality of people are gazing at the same object other than the image processing device can give a glimpse through the act of gazing at the same object in addition to creating a sense of unity in the image Because it can capture the moment of interaction between people, it is suitable for shooting.
しかしながら、上述した従来技術では、複数の人物が一斉に画像処理装置以外の対象物を注視しているような場面を抽出することができなかった。具体的には、上記特許文献1に記載の技術では、複数の人物のカメラ目線を判定するだけであり、複数の人物の目線がカメラ以外の対象物に集中しているか否かを判定することはできなかった。また、上記特許文献2に記載の技術では、個々の人物の顔の向きや目線の向きを推定するだけであり、映像中の複数の人物同士の目線の関係を考慮した処理を行うことはできなかった。
However, in the above-described prior art, it is not possible to extract a scene in which a plurality of persons are gazing at an object other than the image processing apparatus all at once. Specifically, in the technique described in
このため、従来の画像処理装置において被写体である複数の人物が一斉に画像処理装置以外の対象物を注視している場面を抽出するには、撮影者自身が目視によって判定を行わざるを得ず、被写体の人数が多かったり被写体が遠くにいたりする場合にはそのような場面を抽出することが困難であった。 For this reason, in order to extract a scene in which a plurality of persons who are subjects in the conventional image processing apparatus are gazing at an object other than the image processing apparatus all at once, the photographer himself has to make a determination by visual observation. It is difficult to extract such scenes when there are many subjects or when the subjects are far away.
本発明は、上記に鑑みてなされたものであって、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することができる画像処理装置および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and can accurately extract a scene in which a large number of persons are gazing at the same object in an image including a plurality of persons as subjects. An object of the present invention is to provide an image processing program.
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出部と、前記顔検出部が顔を検出した前記複数の人物の目線を推定する目線推定部と、前記目線推定部が目線を推定した前記複数の人物までの距離をそれぞれ算出する距離算出部と、前記目線推定部の推定結果および前記距離算出部の算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定部と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention detects a plurality of human faces included in an image signal based on an image pattern in the image signal. A line of sight estimation unit that estimates the line of sight of the plurality of persons whose faces have been detected by the face detection unit, and a distance calculation unit that calculates distances to the plurality of persons from which the line of sight estimation unit has estimated the line of sight. And a cross determination unit that determines whether or not the eyes of the plurality of persons intersect by using the estimation result of the eye estimation unit and the calculation result of the distance calculation unit.
また、本発明に係る画像処理装置は、上記発明において、前記画像信号に対応する画像データを表示する表示部を備え、前記表示部は、前記クロス判定部が判定した結果を前記画像データに重畳して表示することを特徴とする。 The image processing apparatus according to the present invention further includes a display unit that displays image data corresponding to the image signal, and the display unit superimposes a result determined by the cross determination unit on the image data. It is characterized by displaying.
また、本発明に係る画像処理装置は、上記発明において、前記表示部は、前記複数の人物の中で互いの目線が交差している人物を特定する情報を前記画像データに重畳して表示することを特徴とする。 In the image processing apparatus according to the present invention as set forth in the invention described above, the display unit superimposes and displays, on the image data, information that identifies a person whose eyes cross each other among the plurality of persons. It is characterized by that.
また、本発明に係る画像処理装置は、上記発明において、前記クロス判定部の判定結果に応じて前記画像データのトリミングを行うトリミング部を備えたことを特徴とする。 In the image processing apparatus according to the present invention, the image processing apparatus further includes a trimming unit that trims the image data according to a determination result of the cross determination unit.
また、本発明に係る画像処理装置は、上記発明において、前記目線推定部は、前記顔検出部が検出した顔の向いている方向を算出する顔方向算出部と、前記顔方向算出部が算出した前記顔の向いている方向を用いて当該顔に含まれる瞳が向いている方向を算出する目線方向算出部と、を有することを特徴とする。 In the image processing apparatus according to the present invention as set forth in the invention described above, the eye estimation unit is calculated by the face direction calculation unit that calculates the direction of the face detected by the face detection unit and the face direction calculation unit. And a line-of-sight direction calculation unit that calculates a direction in which a pupil included in the face is facing using the direction in which the face is facing.
また、本発明に係る画像処理装置は、上記発明において、前記クロス判定部は、前記距離算出部で算出した距離が最も大きい人物を基準として、この基準人物の目線と他の人物の目線とが交差しているか否かを判定することを特徴とする。 Further, in the image processing apparatus according to the present invention, in the above invention, the cross determination unit uses the person with the longest distance calculated by the distance calculation unit as a reference, and the line of sight of the reference person and the line of sight of another person. It is characterized by determining whether or not they intersect.
また、本発明に係る画像処理装置は、上記発明において、前記クロス判定部は、前記基準人物の目線と前記他の人物の目線とが当該画像処理装置に対して前記基準人物よりも遠くの位置で交差している場合を判定の対象から除外することを特徴とする。 The image processing apparatus according to the present invention is the image processing apparatus according to the above invention, wherein the cross determination unit is configured such that the line of sight of the reference person and the line of sight of the other person are far from the reference person with respect to the image processing apparatus. The case of crossing at is excluded from the object of determination.
また、本発明に係る画像処理装置は、上記発明において、所定の視野領域内の被写体を撮像して画像信号を生成する撮像部と、前記撮像部が撮像している被写体の撮影を指示する撮影指示信号が入力される入力部と、前記入力部から入力された前記撮影指示信号に応じて前記撮像部が撮像している被写体を撮影する制御を行う制御部と、を備えたことを特徴とする。 In the image processing apparatus according to the present invention, in the above invention, an imaging unit that captures an image of a subject within a predetermined visual field and generates an image signal, and imaging that instructs the imaging of the subject imaged by the imaging unit. An input unit to which an instruction signal is input, and a control unit that performs control for capturing an image of the subject being imaged by the imaging unit in accordance with the imaging instruction signal input from the input unit. To do.
また、本発明に係る画像処理装置は、上記発明において、前記制御部は、前記顔検出部が検出した顔に露出および/またはピントを合わせる制御を行うことを特徴とする。 In the image processing apparatus according to the present invention as set forth in the invention described above, the control unit performs control to adjust exposure and / or focus to the face detected by the face detection unit.
また、本発明に係る画像処理装置は、上記発明において、前記制御部は、前記クロス判定部が判定した結果に応じて前記撮像部が撮像している被写体を自動的に撮影する制御を行うことを特徴とする。 Further, in the image processing apparatus according to the present invention, in the above invention, the control unit performs control to automatically shoot a subject imaged by the imaging unit according to a result determined by the cross determination unit. It is characterized by.
本発明に係る画像処理プログラムは、画像信号に対して所定の処理を行う画像処理装置に、前記画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出ステップ、前記顔検出ステップで顔を検出した前記複数の人物の目線を推定して顔情報を記憶する顔情報記憶部へ格納する目線推定ステップ、前記目線推定ステップで目線を推定した前記複数の人物までの距離をそれぞれ算出して前記顔情報記憶部へ格納する距離算出ステップ、前記目線推定ステップの推定結果および前記距離算出ステップの算出結果を前記顔情報記憶部から読み出し、この読み出した推定結果および算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定ステップ、を実行させることを特徴とする。 An image processing program according to the present invention provides a face for detecting a plurality of human faces included in an image signal based on an image pattern in the image signal in an image processing apparatus that performs predetermined processing on the image signal. Detecting step, estimating the eyes of the plurality of persons whose faces are detected in the face detecting step, storing the face information in a face information storage unit storing the face information, and determining the eyes in the eye estimation step The distance calculation step of calculating the distance to the person and storing it in the face information storage unit, the estimation result of the eye estimation step and the calculation result of the distance calculation step are read from the face information storage unit, and the read estimation result And a cross determination step of determining whether or not the eyes of the plurality of persons intersect by using the calculation result. And butterflies.
本発明によれば、画像信号中の複数の人物の目線を推定し、目線を推定した複数の人物までの距離をそれぞれ算出し、これらの目線推定結果および距離算出結果を用いることによって複数の人物の目線が交差しているか否かを判定するため、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することが可能となる。 According to the present invention, the eyes of a plurality of persons in an image signal are estimated, the distances to the persons who estimated the lines of sight are calculated, and the plurality of persons are calculated by using these eye line estimation results and distance calculation results. Therefore, it is possible to accurately extract a scene in which a large number of persons are gazing at the same object in an image including a plurality of persons as subjects.
以下、添付図面を参照して本発明を実施するための最良の形態(以後、「実施の形態」と称する)を説明する。 The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below with reference to the accompanying drawings.
図1は、本発明の一実施の形態に係る画像処理装置である撮像装置1の構成を模式的に示す図である。撮像装置1は、所定の視野領域内の被写体を撮像して画像信号を生成する撮像部2、撮像部2の視野領域の状態を検出するセンサ部3、撮像部2が出力した画像信号に対して画像処理を施す画像処理部4、画像処理部4が出力する画像データを含む情報を表示する表示部5、表示部5の表示を制御する表示制御部6、画像データの圧縮および伸張を行う圧縮伸張部7、撮像装置1に外部から装着されるメモリカード等の記録媒体100に対して画像データ等の情報を記録する一方、記録媒体100が記録する情報を読み出す記録媒体インターフェース8、撮像装置1の操作指示信号が入力される入力部9、警告を含む各種情報の音声出力を行う音声出力部10、撮像領域へ向けて補助光を投射する補助光投射部11、撮像装置1の動作を制御する制御部12、撮像装置1の動作に関する各種情報を記憶する記憶部13を備える。
FIG. 1 is a diagram schematically illustrating a configuration of an
撮像部2は、所定の視野領域にある被写体からの光を集光する撮影レンズ21、撮影レンズ21が集光した光の入射量を調整する絞り22、絞り22を通過した入射光を受光して電気信号に変換するCCD等の撮像素子23、撮像素子23から出力されるアナログ信号に対して感度補正やホワイトバランスを含む各種処理を施すアナログ信号処理部24、アナログ信号処理部24が出力した信号からデジタルの画像データを生成するA/D変換部25を有する。このうち、撮影レンズ21は、一または複数のレンズによって構成される光学系であり、レンズ駆動部14によって駆動される。また、絞り22は絞り駆動部15によって駆動される。
The
画像処理部4は、画像信号の画像パターンに基づいて画像信号中に含まれる人物の顔を検出する顔検出部41、顔検出部41が複数の人物の顔を検出した場合に各人物の目線を推定する目線推定部42、目線推定部42が目線を推定した複数の人物までの距離の算出をそれぞれ行う距離算出部43、目線推定部42の推定結果および距離算出部43の算出結果を用いることによって複数の人物の目線のうち少なくとも一部の目線が交差しているか否かを判定するクロス判定部44、クロス判定部44が判定した結果に基づいて画像データのトリミングを行うトリミング部45を有する。このうち目線推定部42は、顔検出部41が検出した顔の向いている方向(顔方向)を算出する顔方向算出部421と、顔方向算出部421が算出した顔の向いている方向を用いて当該顔に含まれる瞳が向いている方向を算出する目線方向算出部422とを有する。
The image processing unit 4 detects a person's face included in the image signal based on the image pattern of the image signal. When the
入力部9は、撮像装置1の電源ボタン、撮像指示を与えるシャッターボタン、撮像装置1が有する各種動作モータの切替を行うモード切替ボタン、画像データの再生や編集の指示を含む制御ボタンなどを有する。
The
制御部12は、撮影日時の判定等を行う時計121を有しており、センサ部3の検知結果や入力部9で入力された操作指示信号に応じて撮像装置1の動作を制御する。制御部12は、MPUを用いて実現され、制御対象の各構成要素とバスラインを介して接続されている。
The
記憶部13は、撮像装置1の内部に固定的に設けられるフラッシュメモリやRAM等の半導体メモリを有しており、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部131と、画像処理部4で得られる被写体の顔方向や目線方向などの顔情報を記憶する顔情報記憶部132とを有する。
The
図2は、撮像装置1で設定可能な動作モードの一部を示す図である。図2では、撮像装置1に特有の動作モードを中心に記載し、従来の撮像装置で設定可能な動作モードと同じ動作モードについては記載を省略している。撮像装置1が撮影モードに設定されている場合、画像中に含まれる複数の人間の目線の交差状況を判定する目線判定を行ってから撮影を行う目線判定撮影モードや、通常撮影を行ってから目線判定と目線判定結果に基づく画像のトリミングを行う撮影用目線判定トリミングモードをさらに設定することができる。このうち、撮像装置1が目線判定撮影モードに設定されている場合、トリミングモード、連写モードおよび自動撮影モードのうち一または複数のモードをさらに設定することができる。一方、撮像装置1が再生モードに設定されている場合、記録媒体100が記録する画像データを再生する際に目線判定を行った後、この判定結果に基づいて画像のトリミングを行う再生用目線判定トリミングモードをさらに設定することができる。
FIG. 2 is a diagram illustrating a part of operation modes that can be set in the
図3は、以上の構成を有する撮像装置1が目線判定処理を含む動作を行う場合の処理の流れを示すフローチャートである。
FIG. 3 is a flowchart showing the flow of processing when the
まず、撮像装置1が撮影モードに設定されている場合(ステップS1,撮影モード)を説明する。撮像装置1が撮影モードに設定されている場合、表示部5は撮像部2から出力された画像信号に対応する画像データを表示制御部6の制御のもとでリアルタイムに表示する。以下、表示部5でリアルタイムに表示される画像データのことを「スルー画像」という。撮像装置1が目線判定撮影モードに設定されていれば(ステップS2,Yes)、撮像装置1はスルー画像に対して目線判定処理を行う(ステップS3)。
First, the case where the
図4は、撮像装置1が行う目線判定処理の概要を示すフローチャートである。まず、顔検出部41が、表示部5で表示しているスルー画像中に存在する人物の顔を検出する(ステップS31)。この顔検出を行う際には、既存の手法を適用することができる(例えば、P. Viola and M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features," Proc. of CVPR (2001).を参照)。制御部12は、顔検出部41が検出した顔の位置にピントを合わせる制御を行う。
FIG. 4 is a flowchart illustrating an overview of eye-gaze determination processing performed by the
顔検出部41がスルー画像中で複数の顔を検出した場合(ステップS32,Yes)、撮像装置1はステップS33に進む。一方、顔検出部41がスルー画像中で複数の顔を検出しなかった場合(ステップS32,No)、撮像装置1はステップS4に進む。
When the
ステップS33において、目線推定部42は、顔検出部41が検出した複数の顔の目線方向を顔ごとに推定する目線推定ループ処理を行う(ステップS33)。このループ処理では、まず顔方向算出部421が顔の向いている方向(顔方向)を算出する(ステップS331)。顔方向算出部421は、顔検出部41が検出した顔部分の画像(顔画像)を取得し、この取得した顔画像に対して差分背景や肌色領域抽出等の処理を施すことによって顔領域を抽出した後、この抽出した顔領域を用いて顔方向を算出する。図5は、顔方向算出部421が抽出する顔領域の例を示す図である。同図に示す顔領域31は、人間の頭部に外接する矩形領域である。顔領域31を抽出した顔方向算出部421は、顔領域31の中心位置(顔領域中心位置32)を算出するとともに、眉、目じり、鼻などの顔器官の位置を検出することによって顔器官中心位置33を算出する。この後、顔方向算出部421は、顔領域中心位置32および顔器官中心位置33を用いることにより、水平面上における顔方向と垂直面上における顔方向をそれぞれ算出する。
In step S33, the eye line estimation unit 42 performs a line eye estimation loop process for estimating the eye line directions of the plurality of faces detected by the
図6は、水平面上における顔方向を算出する際に用いる顔楕円モデルの概要を示す図である。同図に示す顔200は楕円体であり、図6では楕円体の中心を通過する水平断面を示している。顔200は、撮影レンズ21の光軸方向(図6の上下方向)に対して角度φfaceだけ水平右向きを向いている。投影面300は顔領域31に対応している。また、点O'faceは図6の水平面上における顔領域中心位置32に対応し、点C'faceは図6の水平面上における顔器官中心位置33に対応している。
FIG. 6 is a diagram showing an outline of the face ellipse model used when calculating the face direction on the horizontal plane. The
図6において、顔200の水平面上の顔方向を示す顔角度φfaceは、投影面における顔領域31の水平方向の幅wface、投影面300における顔領域中心位置32(点Oface)と顔器官中心位置33(点C)との距離cface、および顔の幅(=2a)と顔の奥行き方向の長さ(=2b)の比k(顔楕円比)を用いることによって次式(1)で与えられる。
図7は、垂直面上における顔方向を算出する際に用いる顔楕円モデルの概要を示す図である。図7では、楕円体である顔200の中心を通過する垂直断面を示している。顔200は、撮影レンズ21の光軸方向(図7の左右方向)に対して角度ψfaceだけ上方を向いている。図7において、顔200の垂直面上の顔方向を示す顔角度ψfaceは、投影面300における顔領域31の垂直方向の高さhface、投影面300における顔領域中心位置32(点Oface)と顔器官中心位置33(点C)との距離c'face、および顔の高さ(=2d)と顔の奥行き方向の長さ(=2e)の比k'を用いることによって次式(2)で与えられる。
この後、目線方向算出部422は、ステップS331で算出した水平面上での顔角度φfaceおよび垂直面上での顔角度ψfaceを用いて目線方向を算出する(ステップS332)。目線方向算出部422は、パターンマッチング等の既知の手法によって顔領域31から瞳を検出し、この検出した瞳から目の領域を検出する。
Thereafter, the line-of-sight direction calculation unit 422 calculates the line-of-sight direction using the face angle φ face on the horizontal plane and the face angle ψ face on the vertical plane calculated in step S331 (step S332). The eye direction calculation unit 422 detects a pupil from the
図8は、目線方向算出部422が水平面上での目線方向を算出する際に適用する眼球モデルの概要を示す図である。同図に示す球状の眼球400は大部分が皮膚で覆われており、顔画像中に実際に表れる領域は点E1'から瞳401を通過して点E2'に達する円弧である。点O'eyeは眼球400の中心であり、点Oeyeは点O'eyeを投影面500に投影した点である。また、点Iは瞳401の中心I'を投影面500に投影した点である。図8において、投影面500における眼球中心位置Oeyeと瞳中心位置Iとの距離をceyeとし、眼球400の水平方向の隠れ部分の角度をαとすると、撮影レンズ21の光軸方向(図8の上下方向)に対する瞳401の中心I'の方向すなわち水平面上における目線方向φeyeは次式(3)で与えられる。
目線方向算出部422は、垂直面上における目線方向を算出する際にも、水平面上の目線方向の算出に適用したのと同様の眼球モデルを適用する。したがって、撮影レンズ21の光軸方向に対する垂直方向の目線方向ψeyeは、次式(4)で与えられる。
目線方向算出部422は、両目の目線方向を算出することができた場合、算出した両目の目線方向を重み付けして和をとることによって目線方向を決定する。ここで和をとる際の重みは顔方向に応じて決定される。例えば、顔が右方(撮像装置1から見て左方)を向いている場合、右目は画像中にほとんど入らないため、左目の重みを右目の重みよりも十分大きくする。また、顔が正面付近を向いている時は、両目の目線方向の平均をとる。このようにして目線方向算出部422が算出した目線方向は、目線推定結果として記憶部13の顔情報記憶部132に格納される。
When the line-of-sight direction calculation unit 422 can calculate the line-of-sight direction of both eyes, the line-of-sight direction is determined by weighting and summing the calculated line-of-sight directions of both eyes. Here, the weight for calculating the sum is determined according to the face direction. For example, when the face is directed to the right (left side as viewed from the image pickup apparatus 1), the right eye hardly enters the image, so the weight of the left eye is sufficiently larger than the weight of the right eye. When the face is facing the front, the average of the eye direction of both eyes is taken. The eye direction calculated by the eye direction calculation unit 422 in this way is stored in the face
なお、目線方向算出処理を行う際のパラメータは上述したものに限られるわけではなく、例えば眼球の隠れ部分の角度を顔の中心側と外側で異なる値としてもよい。この点を含む顔方向算出処理と目線方向算出処理の詳細な内容は、例えば上記特許文献2に開示されている。
Note that the parameters for performing the eye direction calculation processing are not limited to those described above, and for example, the angle of the hidden part of the eyeball may be different between the center side and the outside of the face. The detailed contents of the face direction calculation process and the eye direction calculation process including this point are disclosed in, for example,
目線推定部42がステップS33の目線推定ループ処理を全ての顔に対して行った結果、複数の目線方向を算出した場合(ステップS34,Yes)、撮像装置1はステップS35へ進む。これに対して、目線推定部42がステップS33の目線推定ループ処理を全ての顔に対して行った結果、複数の目線方向を算出しなかった場合(ステップS34,No)、撮像装置1は目線判定処理を終了して後述するステップS4へ進む。
When the line-of-sight estimation unit 42 calculates a plurality of line-of-sight directions as a result of performing the line-of-sight estimation loop processing in step S33 on all faces (step S34, Yes), the
図9は、ステップS35以降の目線判定処理を説明する際に参照する撮像装置1付近の状況を模式的に示す図である。具体的には、図9は、撮像装置1の撮像領域(水平方向の画角θX)内に存在する二人の人物A1、A2が同じターゲットTを注目している状況を撮像装置1の上方から見た模式図である。図9では、撮像装置1の撮影レンズ21からの距離が遠い方の人物A1の位置を座標原点Oとして撮影レンズ21の光軸Pと平行な軸をL軸とする一方、撮影レンズ21の光軸Pと直交する軸をX軸としている。また、図9では、人物A1、A2の水平方向の目線方向の角度(式(3)のφeyeに相当)をそれぞれφ1、φ2としている。この意味で、角度φ1、φ2は、上記ステップS332ですでに算出されており、顔情報記憶部132に格納されたものである。
FIG. 9 is a diagram schematically illustrating a situation in the vicinity of the
ステップS35において、距離算出部43は、撮影レンズ21を起点として、目線方向を算出した複数の人物までの距離をそれぞれ算出する(ステップS35)。図10は、距離L1、L2の算出を概念的に示す図である。距離算出部43は、例えば人物A1にピントを合わせることによって人物A1までの距離L1を算出した後、この距離L1に基づいて人物A2までの距離L2を算出する。なお、図10では、撮影レンズ21の焦点距離をF、顔画像における人物A1の顔201の高さおよび人物A2の顔202の高さをそれぞれH1およびH2とし、顔201、202の大きさをともにDと近似している。これらの定義を用いると、撮影レンズ21から人物A1、A2までの距離L1、L2は、それぞれL1=DF/H1,L2=DF/H2と表される。したがって、距離算出部43は、距離L1を用いることによって距離L2=(H2/H1)L1を算出することができる。距離算出部43が算出した距離L1、L2は、記憶部13の顔情報記憶部132に格納される。
In step S <b> 35, the
この後、クロス判定部44は、複数の人物の目線が交差しているか否かを判定する(ステップS36)。まず、クロス判定部44は、ステップS35で距離算出部43が算出した距離L1、L2を顔情報記憶部132から読み出し、人物A1と人物A2のL座標の差分ΔLおよびX座標の差分ΔXを、次式(5)および(6)にしたがってそれぞれ算出する。
ΔL=L1−L2 …(5)
ΔX=L1tan(ρ1)+L2tan(ρ2) …(6)
ここで、式(6)のρ1(<θX)は、撮影レンズ21から見た人物A1の方向と撮影レンズ21の光軸Pとのなす角度である。また、式(6)のρ2(<θX)は、撮影レンズ21から見た人物A2の方向と撮影レンズ21の光軸Pとのなす角度である。
Thereafter, the cross determination unit 44 determines whether or not the eyes of a plurality of people intersect (step S36). First, the cross determination unit 44 reads the distances L1 and L2 calculated by the
ΔL = L1-L2 (5)
ΔX = L1 tan (ρ1) + L2 tan (ρ2) (6)
Here, ρ1 (<θ X ) in Expression (6) is an angle formed by the direction of the person A1 viewed from the photographing
図11は、図9と同じ状況を撮像装置1の側方から見た模式図である。図11では、図9と同様に撮像装置1からの距離が大きい方の人物A1の位置を座標原点Oとして撮影レンズ21の光軸Pと直交する軸をY軸としている。また、図11では、撮像装置1のY軸方向の画角をθYとしている。さらに、図11では、人物A1、A2の水平方向の目線方向の角度(式(4)のψeyeに相当)をそれぞれψ1、ψ2としている。この意味で、角度ψ1、ψ2はφ1等と同様に上記ステップS332ですでに算出されており、顔情報記憶部132に格納されている。クロス判定部44は、人物A1、A2のY座標の差分ΔYを次式(7)にしたがって算出する。
ΔY=L1tan(η1)+L2tan(η2) …(7)
ここで、式(7)のη1(<θY)は、撮影レンズ21から見た人物A1の方向と撮影レンズ21の光軸Pとのなす角度である。また、式(7)のη2(<θY)は、撮影レンズ21から見た人物A2の方向と撮影レンズ21の光軸Pとのなす角度である。
FIG. 11 is a schematic view of the same situation as FIG. 9 as viewed from the side of the
ΔY = L1 tan (η1) + L2 tan (η2) (7)
Here, η1 (<θ Y ) in Expression (7) is an angle formed by the direction of the person A1 viewed from the photographing
続いて、クロス判定部44は、式(5)、(6)の算出結果に加えて顔情報記憶部132から読み出した人物A1,A2の水平方向の目線方向の角度φ1、φ2を用いることにより、水平方向における人物A1、A2の目線の交点座標(Ls,Xs)を次式(8)、(9)にしたがってそれぞれ算出する。
また、クロス判定部44は、式(5)、(7)の算出結果に加えて顔情報記憶部132から読み出した人物A1、A2の垂直方向の目線方向の角度ψ1、ψ2を用いることにより、垂直方向における人物A1,A2の目線の交点座標(Ls,Ys)を次式(10)、(11)にしたがってそれぞれ算出する。
次に、クロス判定部44は、式(8)のLsと式(10)のLsが一致するか否かを判定する。ここでいう「一致」とは、二つのLsが推定値であることに鑑み、二つのLsの差が所定の範囲内の値であることを意味する。式(8)のLsと式(10)のLsが一致した場合、クロス判定部44は人物A1の目線と人物A2の目線が集中した状態にあると判定する。 Next, the cross determination unit 44 determines whether Ls in Expression (8) matches Ls in Expression (10). Here, “match” means that the difference between the two Ls is a value within a predetermined range in view of the fact that the two Ls are estimated values. When Ls in Expression (8) matches Ls in Expression (10), the cross determination unit 44 determines that the line of sight of the person A1 and the line of sight of the person A2 are concentrated.
なお、式(8)、(10)でLsが∞になった場合、クロス判定部44は目線方向が平行であって無限遠で交わっていると判定する。また、式(8)、(10)でLs<0の場合には、顔の後ろ側で二人の目線が交差しているため、クロス判定部44はこの場合を判定の対象から除外する。 In addition, when Ls becomes ∞ in Expressions (8) and (10), the cross determination unit 44 determines that the eye direction is parallel and intersects at infinity. In addition, when Ls <0 in Expressions (8) and (10), the eyes of the two people intersect on the back side of the face, so the cross determination unit 44 excludes this case from the determination target.
ここで、画像データに3人以上の人物が含まれている場合を説明する。この場合、クロス判定部44は、撮影レンズ21から一番遠くに位置している人物を基準人物とし、この基準人物と他の人物との座標値の差分を用いてクロス判定を行う。例えばn人(nは3以上の自然数)の人物がスルー画像中に含まれている場合、クロス判定部44は基準人物の目線方向と他の人物の目線方向との交点座標を最大(n−1)通り算出する。続いて、クロス判定部44は、算出した複数の交点座標の各々に対して、水平方向のLs(式(8))と垂直方向のLs(式(10))が一致するか否かを判定する。この判定の結果、水平方向のLsと垂直方向のLsが一致する交点座標(以下、「正規交点座標」という)が複数ある場合、クロス判定部44は、複数の正規交点座標同士が一致するか否かを判定する。この判定を行う際、クロス判定部44は所定の規則にしたがって基準とすべき正規交点座標(基準交点座標)を一つ抽出し、この基準交点座標とそれ以外の正規交点座標との差分を成分ごとにそれぞれ算出する。クロス判定部44は、成分ごとの差分が各々所定の範囲内の値にある基準交点座標と正規交点座標を一致していると判定する。基準交点座標と一致する正規交点座標が所定の割合以上存在する場合、クロス判定部44は、スルー画像中の人物の目線が集中した状態にあると判定する。
Here, a case where three or more persons are included in the image data will be described. In this case, the cross determination unit 44 uses the person located farthest from the photographing
以上説明したステップS3の目線判定処理に続く処理は、撮像装置1が自動撮影モードに設定されているか否かによって異なる。まず、撮像装置1が自動撮影モードに設定されていない場合(ステップS4,No)を説明する。この場合、ステップS3でスルー画像中の複数の人物の目線が集中していると判定されたとき(ステップS5,Yes)、表示部5は、クロス判定部44の判定結果として、目線が集中しており撮影に好適なタイミングであることを報知するOK表示を表示する(ステップS6)。一方、スルー画像中の複数の人物の目線が集中していると判定されなかった場合(ステップS5,No)、撮像装置1は表示部5でOK表示を出力することなく、後述するステップS7へ直接進む。
The process following the eye line determination process in step S3 described above differs depending on whether or not the
図12は、表示部5におけるOK表示の表示出力例を模式的に示す図である。同図に示す表示画像51は、図9および図11に示す状況下での表示例を示している。表示画像51では、「タイミングOK」という文字列がスルー画像の左上部に重畳して表示されている。撮影者は、表示部5にOK表示が表示出力された場合、人物A1、A2の目線が集中しており、撮影に好適なタイミングであることを認識することができる。なお、図12において、人物A1、A2の目線(破線で表示)および二つの目線の交点CPは補助的に記載したものに過ぎない。 FIG. 12 is a diagram schematically illustrating an example of display output of OK display on the display unit 5. A display image 51 shown in the figure shows a display example under the situation shown in FIGS. In the display image 51, the character string “timing OK” is displayed superimposed on the upper left portion of the through image. When the OK display is displayed and output on the display unit 5, the photographer can recognize that the eyes of the persons A1 and A2 are concentrated and that the timing is suitable for shooting. In FIG. 12, the eyes (indicated by broken lines) of the persons A1 and A2 and the intersection CP of the two eyes are merely auxiliary.
図13は、OK表示の別な表示出力例(第2例)を示す図である。同図に示す表示画像52では、目線が集中している人物を示す正方形状の目線集中人物特定シンボル52aがスルー画像中の人物A11、A12の顔領域に重畳して表示されるとともに、目線が他の人物と異なる方向を向いている三角形状の目線非集中人物特定シンボル52bがスルー画像中の人物A13の顔領域に重畳して表示されている。目線集中人物特定シンボル52aおよび目線非集中人物特定シンボル52bは、スルー画像中で目線が集中している人物が所定の割合以上存在している場合に表示される。なお、表示部5では、目線集中人物特定シンボル52aと目線非集中人物特定シンボル52bを互いに異なる色で表示してもよい。また、目線集中人物特定シンボル52aおよび目線非集中人物特定シンボル52bがスルー画像に重畳して表示されるための条件(目線が集中している人物の被写体全体に対する割合)は、利用者が入力部9を介して任意に設定入力をすることができるようにしてもよい。
FIG. 13 is a diagram illustrating another display output example (second example) of OK display. In the
図14は、OK表示のさらに別な表示出力例(第3例)を示す図である。同図に示す表示画像53は、5人の人物A21〜A25の目線判定を行った結果を表示している。表示画像53では、目線が集中している人物が5人中4人いることを示すメッセージがスルー画像に対して重畳して表示されるとともに、目線が他の4人と異なっている人物A25の顔領域に目線非集中人物特定シンボル53aがスルー画像に対して重畳して表示されている。このようなメッセージおよびシンボルが表示されるのは、スルー画像中で目線が集中している人物が所定の割合以上存在している場合である。
FIG. 14 is a diagram showing still another display output example (third example) of OK display. A display image 53 shown in the figure displays the results of eye line determination of five persons A21 to A25. In the display image 53, a message indicating that there are four of five persons whose eyes are concentrated is superimposed on the through image, and the person A25 whose eyes are different from the other four is displayed. A non-concentrated
この後、撮影者によって入力部9から撮影指示信号が入力された場合(ステップS7,Yes)、撮像装置1は制御部12の制御のもとで画像の撮影を行い(ステップS8)、撮影した画像データを圧縮伸張部7で所定のサイズに圧縮し、この圧縮した画像データを記録媒体インターフェース8によって記録媒体100へ記録する(ステップS9)。ここで、撮像装置1は、撮影した画像データを記憶部13へ書き込んで記録することもできる。なお、ステップS7で所定時間経過しても撮影指示信号が入力されない場合(ステップS7,No)、撮像装置1はステップS3に戻る。
Thereafter, when a shooting instruction signal is input from the
次に、撮像装置1が自動撮影モードに設定されている場合を説明する(ステップS4,Yes)。この場合、画像処理部4による目線判定処理(ステップS3)の結果、スルー画像中の複数の人物の目線が集中していると判定されたとき(ステップS10,Yes)、撮像装置1は自動的に撮影処理(ステップS8)を行い、撮影した画像データを圧縮伸張部7で所定のサイズに圧縮し、この圧縮した画像データを記録媒体インターフェース8によって記録媒体100へ記録する(ステップS9)。一方、画像処理部4による目線判定処理の結果、スルー画像中の複数の人物の目線が集中していると判定されなかったとき(ステップS10,No),撮像装置1はステップS3に戻る。
Next, the case where the
ステップS9に続く処理は、撮像装置1で連写モードが設定されているか否かによって異なる。撮像装置1が連写モードに設定されていない場合(ステップS11,No)、画像処理部4は、記録媒体インターフェース8から画像データを読み出して上述したステップS3と同じ目線判定処理(ステップS12)を行う。ここで目線判定処理を再び行うのは、ステップS3における目線判定処理の後、実際に撮影を行うまでのタイムラグがあり、ステップS3の判定結果と異なる判定結果が生じる可能性があるからである。
The processing following step S9 differs depending on whether or not the continuous shooting mode is set in the
一方、撮像装置1が連写モードに設定されている場合(ステップS11,Yes)、所定の撮影枚数分の撮影が終了していなければ(ステップS13,No)、ステップS8に戻って撮影を繰り返し行う。撮像装置1が連写モードに設定されており(ステップS11,Yes)、かつ所定の撮影枚数分の撮影が終了していれば(ステップS13,Yes)、画像処理部4は記録媒体インターフェース8から画像データを読み出し、上記ステップS3と同様の目線判定処理を行う(ステップS12)。
On the other hand, when the
画像処理部4が目線判定処理(ステップS12)を行った結果、撮影した画像データ中に含まれる人物の目線が集中していると判定した場合(ステップS14,Yes)、撮像装置1はその画像データを目線集中画像として記録媒体インターフェース8を介して記録媒体100へ記録する(ステップS15)。ここでいう「目線集中画像」とは、目線が集中していることを示す情報が付与された画像データのことであり、例えばもとの画像データに対して目線集中画像であることを示すフラグを立てたものである。なお、画像処理部4が目線判定処理を行った結果、撮影した画像データ中の人物の目線が集中していると判定しなかった場合(ステップS14,No)、撮像装置1はステップS3に戻る。
If the image processing unit 4 determines that the eyes of the person included in the captured image data are concentrated as a result of performing the line-of-sight determination process (step S12) (step S14, Yes), the
この後、撮像装置1がトリミングモードに設定されている場合(ステップS16,Yes)、トリミング部45は目線集中画像のトリミングを行う(ステップS17)。続いて、表示部5は、トリミング部45によってトリミングされた結果を表示する(ステップS18)。図15は、表示部5におけるトリミング結果の表示例を示す図である。同図に示すトリミング結果表示画像54は、目線が集中している人物A11、A12のみを抽出した領域をトリミング領域54aとして破線を用いて表示している。なお、ステップS18において表示部5がトリミング結果表示画像54を表示する代わりに、トリミング領域54aのみを表示するようにしてもよい。また、トリミング結果表示画像54の適当な位置に、トリミング画像を記録するか否かを問合わせるメッセージを出力し、撮影者に入力部9からの選択入力を促すようにしてもよい。
Thereafter, when the
入力部9からトリミング画像を記録する操作指示信号が入力された場合(ステップS19,Yes)、撮像装置1ではトリミング後の画像データを圧縮伸張部7で所定のサイズに圧縮し、この圧縮したトリミング画像データを記録媒体インターフェース8によって記録媒体100へ記録する(ステップS20)。一方、トリミング画像を記録する操作指示信号が入力されなかった場合(ステップS19,No)、撮像装置1は一連の処理を終了する。
When an operation instruction signal for recording a trimmed image is input from the input unit 9 (step S19, Yes), the
撮像装置1がトリミングモードに設定されていない場合(ステップS16,No)、撮像装置1は一連の処理を終了する。
When the
次に、撮像装置1が撮影モードに設定されており(ステップS1,撮影モード)、かつ目線判定撮影モードに設定されていない場合(ステップS2,No)を説明する。この場合、撮像装置1は通常撮影処理を行う(ステップS21)。
Next, the case where the
通常撮影処理に続く処理は、撮像装置1が撮影用目線判定トリミングモードに設定されているか否かによって異なる。撮像装置1が撮影用目線判定トリミングモードに設定されている場合(ステップS22,Yes)、画像処理部4は撮影した画像データに対してステップS12と同じ目線判定処理を行う(ステップS23)。これに対して、撮像装置1が撮影用目線判定トリミングモードに設定されていない場合(ステップS22,No)、撮像装置1は通常撮影処理のみを行う。
The processing following the normal shooting processing differs depending on whether or not the
以下、撮像装置1が撮影用目線判定トリミングモードに設定されている場合を説明する。この場合、画像処理部4が目線判定処理(ステップS23)を行った結果、画像データ中に含まれる人物の目線が集中していると判定したとき(ステップS24,Yes)、撮像装置1はその画像データを目線集中画像として記録媒体インターフェース8を介して記録媒体100へ記録する(ステップS25)。続いて、トリミング部45が目線集中画像のトリミングを行う(ステップS17)。このステップS17に続くステップS18〜S20の処理は、上述した通りである。
Hereinafter, a case where the
一方、画像処理部4が目線判定処理を行った結果、画像データ中に含まれる人物の目線が集中していると判定しなかったとき(ステップS24,No)、撮像装置1は一連の処理を終了する。
On the other hand, when the image processing unit 4 does not determine that the human eyes included in the image data are concentrated as a result of performing the line-of-sight determination process (step S24, No), the
次に、撮像装置1で再生モードが設定されている場合(ステップS1,再生モード)を説明する。まず、表示部5は、記録媒体100が記憶する画像データから撮影者によって選択された画像データを再生表示する(ステップS26)。 Next, the case where the reproduction mode is set in the imaging device 1 (step S1, reproduction mode) will be described. First, the display unit 5 reproduces and displays the image data selected by the photographer from the image data stored in the recording medium 100 (step S26).
撮像装置1が再生用目線判定トリミングモードに設定されている場合(ステップS27,Yes)、画像処理部4は再生表示している画像データに対して目線判定処理を行う(ステップS23)。このステップS23に続くステップS24以降の処理は、撮像装置1で撮影モードおよび撮影用目線判定トリミングモードが設定されている場合と同じである。
When the
一方、撮像装置1で再生用目線判定トリミングモードが設定されていない場合(ステップS27,No)、撮像装置1は処理を終了する。
On the other hand, when the reproduction eye determination trimming mode is not set in the imaging device 1 (step S27, No), the
以上説明した本発明の一実施の形態によれば、画像信号中の複数の人物の目線を推定し、目線を推定した複数の人物までの距離をそれぞれ算出し、これらの目線推定結果および距離算出結果を用いることによって複数の人物の目線が交差しているか否かを判定するため、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することが可能となる。 According to the embodiment of the present invention described above, the lines of sight of a plurality of persons in an image signal are estimated, the distances to the persons who estimated the lines of sight are calculated, and the line of sight estimation results and distance calculation are calculated. In order to determine whether or not the eyes of multiple persons intersect by using the results, it is possible to accurately extract the scene where the majority of people are gazing at the same object in an image that includes multiple persons as subjects. It becomes possible to do.
ここまで、本発明を実施するための最良の形態を説明してきたが、本発明は上述した一実施の形態によってのみ限定されるべきものではない。例えば、撮影者が撮像装置1を移動させることによって複数の人物の目線の交点が表示部5で表示するスルー画像中に入ってきた場合には、その交点を表示部5で表示するようにしてもよい。図16は、撮影者が図9に示す状態(図12の表示画像51を参照)から撮像装置1をL軸正の方向へ移動した結果、ターゲットTが撮像装置1の視野領域に入ってきた場合の表示部5における表示例を示す図である。図16に示す表示画像55は、人物A1の目線と人物A2の目線の交点CPが星印によって表示されている。このため、撮影者は複数の人物の目線が交差している位置とその交差位置に存在している対象物を容易に認識することができる。
The best mode for carrying out the present invention has been described so far, but the present invention should not be limited only by the above-described embodiment. For example, when the photographer moves the
このように、本発明は、ここでは記載していない様々な実施の形態等を含みうるものであり、特許請求の範囲により特定される技術的思想を逸脱しない範囲内において種々の設計変更等を施すことが可能である。 Thus, the present invention can include various embodiments and the like not described herein, and various design changes and the like can be made without departing from the technical idea specified by the claims. It is possible to apply.
1 撮像装置
2 撮像部
3 センサ部
4 画像処理部
5 表示部
6 表示制御部
7 圧縮伸張部
8 記録媒体インターフェース
9 入力部
10 音声出力部
11 補助光投射部
12 制御部
13 記憶部
14 レンズ駆動部
15 絞り駆動部
21 撮影レンズ
22 絞り
23 撮像素子
24 アナログ信号処理部
25 A/D変換部
31 顔領域
32 顔領域中心位置
33 顔器官中心位置
41 顔検出部
42 目線推定部
43 距離算出部
44 クロス判定部
45 トリミング部
51、52、53、55 表示画像
52a 目線集中人物特定シンボル
52b、53a 目線非集中人物特定シンボル
54 トリミング結果表示画像
54a トリミング領域
100 記録媒体
121 時計
131 プログラム記憶部
132 顔情報記憶部
200、201、202 顔
300、500 投影面
400 眼球
401 瞳
421 顔方向算出部
422 目線方向算出部
A1、A2、A11〜A13、A21〜A25 人物
CP 交点
T ターゲット
DESCRIPTION OF
Claims (11)
前記顔検出部が顔を検出した前記複数の人物の目線を推定する目線推定部と、
前記目線推定部が目線を推定した前記複数の人物までの距離をそれぞれ算出する距離算出部と、
前記目線推定部の推定結果および前記距離算出部の算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定部と、
を備えたことを特徴とする画像処理装置。 A face detection unit for detecting faces of a plurality of persons included in the image signal based on an image pattern in the image signal;
A line of sight estimation unit for estimating the lines of sight of the plurality of persons whose faces have been detected by the face detection unit;
A distance calculator that calculates distances to the plurality of persons whose eyes are estimated by the eyes estimator;
A cross determination unit that determines whether or not the eyes of the plurality of persons intersect by using the estimation result of the eye estimation unit and the calculation result of the distance calculation unit;
An image processing apparatus comprising:
前記表示部は、
前記クロス判定部が判定した結果を前記画像データに重畳して表示することを特徴とする請求項1記載の画像処理装置。 A display unit for displaying image data corresponding to the image signal;
The display unit
The image processing apparatus according to claim 1, wherein a result determined by the cross determination unit is displayed superimposed on the image data.
前記複数の人物の中で互いの目線が交差している人物を特定する情報を前記画像データに重畳して表示することを特徴とする請求項2記載の画像処理装置。 The display unit
The image processing apparatus according to claim 2, wherein information for identifying a person whose eyes cross each other among the plurality of persons is displayed superimposed on the image data.
前記顔検出部が検出した顔の向いている方向を算出する顔方向算出部と、
前記顔方向算出部が算出した前記顔の向いている方向を用いて当該顔に含まれる瞳が向いている方向を算出する目線方向算出部と、
を有することを特徴とする請求項1〜4のいずれか一項記載の画像処理装置。 The eye estimation unit
A face direction calculation unit that calculates a direction of the face detected by the face detection unit;
A line-of-sight direction calculation unit that calculates a direction in which a pupil included in the face is facing using the direction in which the face is calculated, which is calculated by the face direction calculation unit;
The image processing apparatus according to claim 1, further comprising:
前記距離算出部で算出した距離が最も大きい人物を基準として、この基準人物の目線と他の人物の目線とが交差しているか否かを判定することを特徴とする請求項1〜5のいずれか一項記載の画像処理装置。 The cross determination unit
6. The method according to claim 1, further comprising: determining whether or not the line of sight of the reference person and the line of sight of another person intersect based on the person having the longest distance calculated by the distance calculation unit. An image processing apparatus according to claim 1.
前記基準人物の目線と前記他の人物の目線とが当該画像処理装置に対して前記基準人物よりも遠くの位置で交差している場合を判定の対象から除外することを特徴とする請求項6記載の画像処理装置。 The cross determination unit
The case where the line of sight of the reference person and the line of sight of the other person intersect with the image processing apparatus at a position farther than the reference person is excluded from determination targets. The image processing apparatus described.
前記撮像部が撮像している被写体の撮影を指示する撮影指示信号が入力される入力部と、
前記入力部から入力された前記撮影指示信号に応じて前記撮像部が撮像している被写体を撮影する制御を行う制御部と、
を備えたことを特徴とする請求項1〜7のいずれか一項記載の画像処理装置。 An imaging unit that captures an image of a subject within a predetermined visual field and generates an image signal;
An input unit to which a shooting instruction signal for instructing shooting of a subject imaged by the imaging unit is input;
A control unit that performs control to capture a subject imaged by the imaging unit in response to the imaging instruction signal input from the input unit;
The image processing apparatus according to claim 1, further comprising:
前記顔検出部が検出した顔に露出および/またはピントを合わせる制御を行うことを特徴とする請求項8記載の画像処理装置。 The controller is
The image processing apparatus according to claim 8, wherein control is performed to adjust exposure and / or focus to the face detected by the face detection unit.
前記クロス判定部が判定した結果に応じて前記撮像部が撮像している被写体を自動的に撮影する制御を行うことを特徴とする請求項8または9記載の画像処理装置。 The controller is
10. The image processing apparatus according to claim 8, wherein control is performed to automatically photograph the subject being imaged by the imaging unit according to a result determined by the cross determination unit.
前記画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出ステップ、
前記顔検出ステップで顔を検出した前記複数の人物の目線を推定して顔情報を記憶する顔情報記憶部へ格納する目線推定ステップ、
前記目線推定ステップで目線を推定した前記複数の人物までの距離をそれぞれ算出して前記顔情報記憶部へ格納する距離算出ステップ、
前記目線推定ステップの推定結果および前記距離算出ステップの算出結果を前記顔情報記憶部から読み出し、この読み出した推定結果および算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定ステップ、
を実行させることを特徴とする画像処理プログラム。 In an image processing apparatus that performs predetermined processing on an image signal,
A face detection step of detecting faces of a plurality of persons included in the image signal based on an image pattern in the image signal;
Eye estimation step for estimating the eyes of the plurality of persons whose faces have been detected in the face detection step and storing them in a face information storage unit for storing face information;
A distance calculating step of calculating distances to the plurality of persons whose eyes are estimated in the eyes estimating step and storing them in the face information storage unit,
The estimation result of the eye estimation step and the calculation result of the distance calculation step are read from the face information storage unit, and by using the read estimation result and the calculation result, it is determined whether or not the eyes of the plurality of persons intersect. A cross determination step for determining,
An image processing program for executing
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008079122A JP5042896B2 (en) | 2008-03-25 | 2008-03-25 | Image processing apparatus and image processing program |
CN2009101268897A CN101547307B (en) | 2008-03-25 | 2009-03-24 | Image processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008079122A JP5042896B2 (en) | 2008-03-25 | 2008-03-25 | Image processing apparatus and image processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009239347A true JP2009239347A (en) | 2009-10-15 |
JP2009239347A5 JP2009239347A5 (en) | 2011-05-06 |
JP5042896B2 JP5042896B2 (en) | 2012-10-03 |
Family
ID=41194152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008079122A Expired - Fee Related JP5042896B2 (en) | 2008-03-25 | 2008-03-25 | Image processing apparatus and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5042896B2 (en) |
CN (1) | CN101547307B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012199665A (en) * | 2011-03-18 | 2012-10-18 | Olympus Imaging Corp | Image display apparatus and imaging apparatus |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5719223B2 (en) * | 2011-04-25 | 2015-05-13 | オリンパスイメージング株式会社 | Image recording apparatus, recording method, and program |
CN105005777B (en) * | 2015-07-30 | 2021-02-02 | 科大讯飞股份有限公司 | Audio and video recommendation method and system based on human face |
CN105894031A (en) * | 2016-03-31 | 2016-08-24 | 青岛海信移动通信技术股份有限公司 | Photo selection method and photo selection device |
JP6631607B2 (en) * | 2017-09-20 | 2020-01-15 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP6787299B2 (en) * | 2017-11-15 | 2020-11-18 | オムロン株式会社 | Alarm control device, alarm control method, and program for alarm control |
CN110045834A (en) * | 2019-05-21 | 2019-07-23 | 广东工业大学 | Detection method, device, system, equipment and storage medium for sight locking |
CN112989865B (en) * | 2019-12-02 | 2023-05-30 | 山东浪潮科学研究院有限公司 | Crowd attention focus judging method based on head gesture judgment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201531A (en) * | 2005-01-21 | 2006-08-03 | Konica Minolta Holdings Inc | Imaging device |
JP2006319610A (en) * | 2005-05-12 | 2006-11-24 | Matsushita Electric Ind Co Ltd | Camera |
JP2007306463A (en) * | 2006-05-15 | 2007-11-22 | Fujifilm Corp | Trimming supporting method, apparatus, and program |
JP2008040758A (en) * | 2006-08-04 | 2008-02-21 | Sogo Keibi Hosho Co Ltd | Guard device, monitoring system, abnormality determination method, and abnormality determination program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4227257B2 (en) * | 1999-08-12 | 2009-02-18 | キヤノン株式会社 | camera |
JP4218348B2 (en) * | 2003-01-17 | 2009-02-04 | オムロン株式会社 | Imaging device |
JP4622702B2 (en) * | 2005-05-27 | 2011-02-02 | 株式会社日立製作所 | Video surveillance device |
JP2007096440A (en) * | 2005-09-27 | 2007-04-12 | Casio Comput Co Ltd | Imaging apparatus |
US8406479B2 (en) * | 2006-07-14 | 2013-03-26 | Panasonic Corporation | Visual axis direction detection device and visual line direction detection method |
-
2008
- 2008-03-25 JP JP2008079122A patent/JP5042896B2/en not_active Expired - Fee Related
-
2009
- 2009-03-24 CN CN2009101268897A patent/CN101547307B/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201531A (en) * | 2005-01-21 | 2006-08-03 | Konica Minolta Holdings Inc | Imaging device |
JP2006319610A (en) * | 2005-05-12 | 2006-11-24 | Matsushita Electric Ind Co Ltd | Camera |
JP2007306463A (en) * | 2006-05-15 | 2007-11-22 | Fujifilm Corp | Trimming supporting method, apparatus, and program |
JP2008040758A (en) * | 2006-08-04 | 2008-02-21 | Sogo Keibi Hosho Co Ltd | Guard device, monitoring system, abnormality determination method, and abnormality determination program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012199665A (en) * | 2011-03-18 | 2012-10-18 | Olympus Imaging Corp | Image display apparatus and imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5042896B2 (en) | 2012-10-03 |
CN101547307B (en) | 2011-07-06 |
CN101547307A (en) | 2009-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5042896B2 (en) | Image processing apparatus and image processing program | |
KR101539043B1 (en) | Image photography apparatus and method for proposing composition based person | |
KR100924685B1 (en) | Imaging apparatus and control method thereof | |
JP4315148B2 (en) | Electronic camera | |
US8538252B2 (en) | Camera | |
US8009976B2 (en) | Camera having face detection and with automatic focus control using a defocus amount | |
JP4970716B2 (en) | Electronic camera | |
JP5171468B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
KR20100055946A (en) | Method and apparatus for generating thumbnail of moving picture | |
JP5477777B2 (en) | Image acquisition device | |
JP2008219449A (en) | Imaging device and control method thereof | |
US20130266222A1 (en) | Image synthesis apparatus, image synthesis method and image synthesis program | |
JP4891674B2 (en) | camera | |
JP2009224913A (en) | Image device and its control method | |
JP2009210992A (en) | Photographing device | |
JP2009260630A (en) | Image processor and image processing program | |
JP2016012846A (en) | Imaging apparatus, and control method and control program of the same | |
JP2011135527A (en) | Digital camera | |
JP2007049631A (en) | Imaging apparatus | |
JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2008219450A (en) | Imaging device and control method thereof | |
JP2008219451A (en) | Imaging device and control method thereof | |
JP2009302910A (en) | Imaging device and image reproducer | |
JP2015080167A (en) | Imaging device, control method thereof, and control program | |
JP5423851B2 (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110318 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120626 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5042896 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150720 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |