JP2009239347A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2009239347A
JP2009239347A JP2008079122A JP2008079122A JP2009239347A JP 2009239347 A JP2009239347 A JP 2009239347A JP 2008079122 A JP2008079122 A JP 2008079122A JP 2008079122 A JP2008079122 A JP 2008079122A JP 2009239347 A JP2009239347 A JP 2009239347A
Authority
JP
Japan
Prior art keywords
unit
face
image
image processing
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008079122A
Other languages
Japanese (ja)
Other versions
JP2009239347A5 (en
JP5042896B2 (en
Inventor
Shinichi Fukue
信一 福榮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2008079122A priority Critical patent/JP5042896B2/en
Priority to CN2009101268897A priority patent/CN101547307B/en
Publication of JP2009239347A publication Critical patent/JP2009239347A/en
Publication of JP2009239347A5 publication Critical patent/JP2009239347A5/ja
Application granted granted Critical
Publication of JP5042896B2 publication Critical patent/JP5042896B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of exactly extracting a scene where a large majority of figures gaze at the same object of interest, among images including a plurality of figures as an object; and to provide an image processing program. <P>SOLUTION: The image processor comprises a face detection portion, an eye watching direction estimation portion, a distance calculation portion, and a cross determination portion. The face detection portion detects faces of the plurality of figures contained in an image signal based on image patterns in the image signal. The eye watching direction estimation portion estimates eye watching directions of the plurality of figures whose faces are detected by the face detection portion. The distance calculation portion calculates respective distances to the plurality of figures whose eye watching directions are estimated by the eye watching direction estimation portion. The cross determination portion determines whether the eye watching directions cross each other for the plurality of figures, using: the estimated result by the eye watching direction estimation portion; and the calculated result by the distance calculation portion. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像信号に対して所定の処理を行う画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program for performing predetermined processing on an image signal.

従来より、撮像機能を備えたデジタルカメラ等の画像処理装置においては、被写体が人間である場合にその人間の顔を検出し、この検出した顔の位置にピントを合わせる技術が知られている。また、近年では、被写体である人間が笑顔等の撮影に好適な表情を見せているタイミングを自動的に認識することによって撮影を行う技術も知られている。   2. Description of the Related Art Conventionally, in an image processing apparatus such as a digital camera having an imaging function, when a subject is a human, a technique for detecting the human face and focusing on the detected face position is known. In recent years, there is also known a technique for taking a picture by automatically recognizing the timing at which a human subject is showing an expression suitable for photographing such as a smile.

このような状況の下、複数の人物を対象とした撮影を行う際、個々の人物の顔の向きや黒目の位置を判定することによってカメラ目線の画像を抽出する技術が開示されている(例えば、特許文献1を参照)。また、映像から検出した人物の目線方向を推定し、この目線方向の特徴を抽出することによってその人物の行動意図を判定する技術も開示されている(例えば、特許文献2を参照)。   Under such circumstances, a technique for extracting an image of a camera line of sight by determining the face direction and the position of the black eye of each person when photographing a plurality of persons is disclosed (for example, , See Patent Document 1). In addition, a technique is also disclosed in which a person's intention of action is determined by estimating a person's line-of-sight direction detected from a video and extracting the characteristic of the line-of-sight direction (see, for example, Patent Document 2).

特開2007−96440号公報JP 2007-96440 A 特開2007−6427号公報JP 2007-6427 A

複数の人物を被写体とする撮影を行う場合には、全員がカメラ目線となっている状態を撮影するのが一般的であるが、これ以外にも撮影に適した場面は存在する。例えば、複数の人物の目線が画像処理装置以外の同じ対象物を注視している場面などは、画像に統一感が生まれることに加え、同じ対象物を注視するという行為を介して垣間見ることができる人物同士の交流の瞬間を捉えることができるため、撮影の対象とするのにふさわしい。   When shooting with a plurality of persons as subjects, it is common to shoot in a state where all of them are looking at the camera, but there are other scenes suitable for shooting. For example, a scene in which the eyes of a plurality of people are gazing at the same object other than the image processing device can give a glimpse through the act of gazing at the same object in addition to creating a sense of unity in the image Because it can capture the moment of interaction between people, it is suitable for shooting.

しかしながら、上述した従来技術では、複数の人物が一斉に画像処理装置以外の対象物を注視しているような場面を抽出することができなかった。具体的には、上記特許文献1に記載の技術では、複数の人物のカメラ目線を判定するだけであり、複数の人物の目線がカメラ以外の対象物に集中しているか否かを判定することはできなかった。また、上記特許文献2に記載の技術では、個々の人物の顔の向きや目線の向きを推定するだけであり、映像中の複数の人物同士の目線の関係を考慮した処理を行うことはできなかった。   However, in the above-described prior art, it is not possible to extract a scene in which a plurality of persons are gazing at an object other than the image processing apparatus all at once. Specifically, in the technique described in Patent Document 1, only the camera line of sight of a plurality of persons is determined, and it is determined whether the lines of sight of the plurality of persons are concentrated on an object other than the camera. I couldn't. In addition, the technique described in Patent Document 2 merely estimates the face direction and line-of-sight direction of an individual person, and processing that considers the line-of-sight relationship among a plurality of persons in a video can be performed. There wasn't.

このため、従来の画像処理装置において被写体である複数の人物が一斉に画像処理装置以外の対象物を注視している場面を抽出するには、撮影者自身が目視によって判定を行わざるを得ず、被写体の人数が多かったり被写体が遠くにいたりする場合にはそのような場面を抽出することが困難であった。   For this reason, in order to extract a scene in which a plurality of persons who are subjects in the conventional image processing apparatus are gazing at an object other than the image processing apparatus all at once, the photographer himself has to make a determination by visual observation. It is difficult to extract such scenes when there are many subjects or when the subjects are far away.

本発明は、上記に鑑みてなされたものであって、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することができる画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and can accurately extract a scene in which a large number of persons are gazing at the same object in an image including a plurality of persons as subjects. An object of the present invention is to provide an image processing program.

上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出部と、前記顔検出部が顔を検出した前記複数の人物の目線を推定する目線推定部と、前記目線推定部が目線を推定した前記複数の人物までの距離をそれぞれ算出する距離算出部と、前記目線推定部の推定結果および前記距離算出部の算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention detects a plurality of human faces included in an image signal based on an image pattern in the image signal. A line of sight estimation unit that estimates the line of sight of the plurality of persons whose faces have been detected by the face detection unit, and a distance calculation unit that calculates distances to the plurality of persons from which the line of sight estimation unit has estimated the line of sight. And a cross determination unit that determines whether or not the eyes of the plurality of persons intersect by using the estimation result of the eye estimation unit and the calculation result of the distance calculation unit.

また、本発明に係る画像処理装置は、上記発明において、前記画像信号に対応する画像データを表示する表示部を備え、前記表示部は、前記クロス判定部が判定した結果を前記画像データに重畳して表示することを特徴とする。   The image processing apparatus according to the present invention further includes a display unit that displays image data corresponding to the image signal, and the display unit superimposes a result determined by the cross determination unit on the image data. It is characterized by displaying.

また、本発明に係る画像処理装置は、上記発明において、前記表示部は、前記複数の人物の中で互いの目線が交差している人物を特定する情報を前記画像データに重畳して表示することを特徴とする。   In the image processing apparatus according to the present invention as set forth in the invention described above, the display unit superimposes and displays, on the image data, information that identifies a person whose eyes cross each other among the plurality of persons. It is characterized by that.

また、本発明に係る画像処理装置は、上記発明において、前記クロス判定部の判定結果に応じて前記画像データのトリミングを行うトリミング部を備えたことを特徴とする。   In the image processing apparatus according to the present invention, the image processing apparatus further includes a trimming unit that trims the image data according to a determination result of the cross determination unit.

また、本発明に係る画像処理装置は、上記発明において、前記目線推定部は、前記顔検出部が検出した顔の向いている方向を算出する顔方向算出部と、前記顔方向算出部が算出した前記顔の向いている方向を用いて当該顔に含まれる瞳が向いている方向を算出する目線方向算出部と、を有することを特徴とする。   In the image processing apparatus according to the present invention as set forth in the invention described above, the eye estimation unit is calculated by the face direction calculation unit that calculates the direction of the face detected by the face detection unit and the face direction calculation unit. And a line-of-sight direction calculation unit that calculates a direction in which a pupil included in the face is facing using the direction in which the face is facing.

また、本発明に係る画像処理装置は、上記発明において、前記クロス判定部は、前記距離算出部で算出した距離が最も大きい人物を基準として、この基準人物の目線と他の人物の目線とが交差しているか否かを判定することを特徴とする。   Further, in the image processing apparatus according to the present invention, in the above invention, the cross determination unit uses the person with the longest distance calculated by the distance calculation unit as a reference, and the line of sight of the reference person and the line of sight of another person. It is characterized by determining whether or not they intersect.

また、本発明に係る画像処理装置は、上記発明において、前記クロス判定部は、前記基準人物の目線と前記他の人物の目線とが当該画像処理装置に対して前記基準人物よりも遠くの位置で交差している場合を判定の対象から除外することを特徴とする。   The image processing apparatus according to the present invention is the image processing apparatus according to the above invention, wherein the cross determination unit is configured such that the line of sight of the reference person and the line of sight of the other person are far from the reference person with respect to the image processing apparatus. The case of crossing at is excluded from the object of determination.

また、本発明に係る画像処理装置は、上記発明において、所定の視野領域内の被写体を撮像して画像信号を生成する撮像部と、前記撮像部が撮像している被写体の撮影を指示する撮影指示信号が入力される入力部と、前記入力部から入力された前記撮影指示信号に応じて前記撮像部が撮像している被写体を撮影する制御を行う制御部と、を備えたことを特徴とする。   In the image processing apparatus according to the present invention, in the above invention, an imaging unit that captures an image of a subject within a predetermined visual field and generates an image signal, and imaging that instructs the imaging of the subject imaged by the imaging unit. An input unit to which an instruction signal is input, and a control unit that performs control for capturing an image of the subject being imaged by the imaging unit in accordance with the imaging instruction signal input from the input unit. To do.

また、本発明に係る画像処理装置は、上記発明において、前記制御部は、前記顔検出部が検出した顔に露出および/またはピントを合わせる制御を行うことを特徴とする。   In the image processing apparatus according to the present invention as set forth in the invention described above, the control unit performs control to adjust exposure and / or focus to the face detected by the face detection unit.

また、本発明に係る画像処理装置は、上記発明において、前記制御部は、前記クロス判定部が判定した結果に応じて前記撮像部が撮像している被写体を自動的に撮影する制御を行うことを特徴とする。   Further, in the image processing apparatus according to the present invention, in the above invention, the control unit performs control to automatically shoot a subject imaged by the imaging unit according to a result determined by the cross determination unit. It is characterized by.

本発明に係る画像処理プログラムは、画像信号に対して所定の処理を行う画像処理装置に、前記画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出ステップ、前記顔検出ステップで顔を検出した前記複数の人物の目線を推定して顔情報を記憶する顔情報記憶部へ格納する目線推定ステップ、前記目線推定ステップで目線を推定した前記複数の人物までの距離をそれぞれ算出して前記顔情報記憶部へ格納する距離算出ステップ、前記目線推定ステップの推定結果および前記距離算出ステップの算出結果を前記顔情報記憶部から読み出し、この読み出した推定結果および算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定ステップ、を実行させることを特徴とする。   An image processing program according to the present invention provides a face for detecting a plurality of human faces included in an image signal based on an image pattern in the image signal in an image processing apparatus that performs predetermined processing on the image signal. Detecting step, estimating the eyes of the plurality of persons whose faces are detected in the face detecting step, storing the face information in a face information storage unit storing the face information, and determining the eyes in the eye estimation step The distance calculation step of calculating the distance to the person and storing it in the face information storage unit, the estimation result of the eye estimation step and the calculation result of the distance calculation step are read from the face information storage unit, and the read estimation result And a cross determination step of determining whether or not the eyes of the plurality of persons intersect by using the calculation result. And butterflies.

本発明によれば、画像信号中の複数の人物の目線を推定し、目線を推定した複数の人物までの距離をそれぞれ算出し、これらの目線推定結果および距離算出結果を用いることによって複数の人物の目線が交差しているか否かを判定するため、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することが可能となる。   According to the present invention, the eyes of a plurality of persons in an image signal are estimated, the distances to the persons who estimated the lines of sight are calculated, and the plurality of persons are calculated by using these eye line estimation results and distance calculation results. Therefore, it is possible to accurately extract a scene in which a large number of persons are gazing at the same object in an image including a plurality of persons as subjects.

以下、添付図面を参照して本発明を実施するための最良の形態(以後、「実施の形態」と称する)を説明する。   The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below with reference to the accompanying drawings.

図1は、本発明の一実施の形態に係る画像処理装置である撮像装置1の構成を模式的に示す図である。撮像装置1は、所定の視野領域内の被写体を撮像して画像信号を生成する撮像部2、撮像部2の視野領域の状態を検出するセンサ部3、撮像部2が出力した画像信号に対して画像処理を施す画像処理部4、画像処理部4が出力する画像データを含む情報を表示する表示部5、表示部5の表示を制御する表示制御部6、画像データの圧縮および伸張を行う圧縮伸張部7、撮像装置1に外部から装着されるメモリカード等の記録媒体100に対して画像データ等の情報を記録する一方、記録媒体100が記録する情報を読み出す記録媒体インターフェース8、撮像装置1の操作指示信号が入力される入力部9、警告を含む各種情報の音声出力を行う音声出力部10、撮像領域へ向けて補助光を投射する補助光投射部11、撮像装置1の動作を制御する制御部12、撮像装置1の動作に関する各種情報を記憶する記憶部13を備える。   FIG. 1 is a diagram schematically illustrating a configuration of an imaging apparatus 1 that is an image processing apparatus according to an embodiment of the present invention. The imaging device 1 captures an image of a subject within a predetermined visual field area and generates an image signal, a sensor unit 3 that detects the state of the visual field area of the imaging unit 2, and an image signal output by the imaging unit 2 An image processing unit 4 that performs image processing, a display unit 5 that displays information including image data output from the image processing unit 4, a display control unit 6 that controls display of the display unit 5, and compression and expansion of image data A compression / expansion unit 7, a recording medium interface 8 that reads information recorded on the recording medium 100 while recording information such as image data on a recording medium 100 such as a memory card that is externally attached to the imaging apparatus 1, and an imaging apparatus The operation of the input unit 9 to which one operation instruction signal is input, the audio output unit 10 that outputs audio of various types of information including warnings, the auxiliary light projection unit 11 that projects auxiliary light toward the imaging region, and the operation of the imaging device 1 control That the control unit 12, a storage unit 13 that stores various information about the operation of the imaging apparatus 1.

撮像部2は、所定の視野領域にある被写体からの光を集光する撮影レンズ21、撮影レンズ21が集光した光の入射量を調整する絞り22、絞り22を通過した入射光を受光して電気信号に変換するCCD等の撮像素子23、撮像素子23から出力されるアナログ信号に対して感度補正やホワイトバランスを含む各種処理を施すアナログ信号処理部24、アナログ信号処理部24が出力した信号からデジタルの画像データを生成するA/D変換部25を有する。このうち、撮影レンズ21は、一または複数のレンズによって構成される光学系であり、レンズ駆動部14によって駆動される。また、絞り22は絞り駆動部15によって駆動される。   The imaging unit 2 receives a photographing lens 21 that collects light from a subject in a predetermined field of view, a diaphragm 22 that adjusts an incident amount of light collected by the photographing lens 21, and incident light that has passed through the diaphragm 22. The image sensor 23 such as a CCD that converts the signal into an electrical signal, the analog signal processor 24 that performs various processes including sensitivity correction and white balance on the analog signal output from the image sensor 23, and the analog signal processor 24 output the signal. An A / D conversion unit 25 that generates digital image data from the signal is included. Among these, the photographing lens 21 is an optical system including one or a plurality of lenses, and is driven by the lens driving unit 14. The diaphragm 22 is driven by the diaphragm driving unit 15.

画像処理部4は、画像信号の画像パターンに基づいて画像信号中に含まれる人物の顔を検出する顔検出部41、顔検出部41が複数の人物の顔を検出した場合に各人物の目線を推定する目線推定部42、目線推定部42が目線を推定した複数の人物までの距離の算出をそれぞれ行う距離算出部43、目線推定部42の推定結果および距離算出部43の算出結果を用いることによって複数の人物の目線のうち少なくとも一部の目線が交差しているか否かを判定するクロス判定部44、クロス判定部44が判定した結果に基づいて画像データのトリミングを行うトリミング部45を有する。このうち目線推定部42は、顔検出部41が検出した顔の向いている方向(顔方向)を算出する顔方向算出部421と、顔方向算出部421が算出した顔の向いている方向を用いて当該顔に含まれる瞳が向いている方向を算出する目線方向算出部422とを有する。   The image processing unit 4 detects a person's face included in the image signal based on the image pattern of the image signal. When the face detection unit 41 detects a plurality of person's faces, The eye estimation unit 42 for estimating the distance, the distance calculation unit 43 for calculating the distance to the plurality of persons whose eye estimation has been performed by the eye estimation unit 42, the estimation result of the eye estimation unit 42, and the calculation result of the distance calculation unit 43 are used. Accordingly, a cross determination unit 44 that determines whether or not at least some of the eyes of a plurality of people intersect, and a trimming unit 45 that performs trimming of image data based on the determination result of the cross determination unit 44 Have. Of these, the eye line estimation unit 42 calculates the face direction calculation unit 421 that calculates the face direction (face direction) detected by the face detection unit 41 and the face direction calculated by the face direction calculation unit 421. And a gaze direction calculation unit 422 that calculates a direction in which the pupil included in the face is facing.

入力部9は、撮像装置1の電源ボタン、撮像指示を与えるシャッターボタン、撮像装置1が有する各種動作モータの切替を行うモード切替ボタン、画像データの再生や編集の指示を含む制御ボタンなどを有する。   The input unit 9 includes a power button of the imaging apparatus 1, a shutter button that gives an imaging instruction, a mode switching button that switches various operation motors included in the imaging apparatus 1, a control button that includes instructions for reproducing and editing image data, and the like. .

制御部12は、撮影日時の判定等を行う時計121を有しており、センサ部3の検知結果や入力部9で入力された操作指示信号に応じて撮像装置1の動作を制御する。制御部12は、MPUを用いて実現され、制御対象の各構成要素とバスラインを介して接続されている。   The control unit 12 includes a clock 121 that determines the shooting date and time, and controls the operation of the imaging apparatus 1 according to the detection result of the sensor unit 3 and the operation instruction signal input from the input unit 9. The control unit 12 is realized using an MPU and is connected to each component to be controlled via a bus line.

記憶部13は、撮像装置1の内部に固定的に設けられるフラッシュメモリやRAM等の半導体メモリを有しており、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部131と、画像処理部4で得られる被写体の顔方向や目線方向などの顔情報を記憶する顔情報記憶部132とを有する。   The storage unit 13 includes a semiconductor memory such as a flash memory or a RAM that is fixedly provided inside the imaging device 1, and includes a program storage unit 131 that stores various programs executed by the imaging device 1, and an image processing unit. And a face information storage unit 132 that stores face information such as the face direction and eye direction of the subject obtained in step 4.

図2は、撮像装置1で設定可能な動作モードの一部を示す図である。図2では、撮像装置1に特有の動作モードを中心に記載し、従来の撮像装置で設定可能な動作モードと同じ動作モードについては記載を省略している。撮像装置1が撮影モードに設定されている場合、画像中に含まれる複数の人間の目線の交差状況を判定する目線判定を行ってから撮影を行う目線判定撮影モードや、通常撮影を行ってから目線判定と目線判定結果に基づく画像のトリミングを行う撮影用目線判定トリミングモードをさらに設定することができる。このうち、撮像装置1が目線判定撮影モードに設定されている場合、トリミングモード、連写モードおよび自動撮影モードのうち一または複数のモードをさらに設定することができる。一方、撮像装置1が再生モードに設定されている場合、記録媒体100が記録する画像データを再生する際に目線判定を行った後、この判定結果に基づいて画像のトリミングを行う再生用目線判定トリミングモードをさらに設定することができる。   FIG. 2 is a diagram illustrating a part of operation modes that can be set in the imaging apparatus 1. In FIG. 2, the operation modes unique to the imaging device 1 are mainly described, and the description of the same operation mode that can be set by the conventional imaging device is omitted. When the imaging apparatus 1 is set to the shooting mode, a line-of-sight determination shooting mode in which shooting is performed after performing line-of-sight determination for determining a crossing state of a plurality of human eyes included in the image, or after normal shooting is performed. It is possible to further set an eye-gaze determination trimming mode for photographing that performs image trimming based on the eye-gaze determination and the eye-line determination result. Among these, when the imaging device 1 is set to the eye-gaze determination shooting mode, one or a plurality of modes among the trimming mode, the continuous shooting mode, and the automatic shooting mode can be further set. On the other hand, when the image pickup apparatus 1 is set to the reproduction mode, after performing eye-gaze determination when reproducing the image data recorded by the recording medium 100, reproduction eye-gaze determination for performing image trimming based on the determination result A trimming mode can be further set.

図3は、以上の構成を有する撮像装置1が目線判定処理を含む動作を行う場合の処理の流れを示すフローチャートである。   FIG. 3 is a flowchart showing the flow of processing when the imaging apparatus 1 having the above configuration performs an operation including eye gaze determination processing.

まず、撮像装置1が撮影モードに設定されている場合(ステップS1,撮影モード)を説明する。撮像装置1が撮影モードに設定されている場合、表示部5は撮像部2から出力された画像信号に対応する画像データを表示制御部6の制御のもとでリアルタイムに表示する。以下、表示部5でリアルタイムに表示される画像データのことを「スルー画像」という。撮像装置1が目線判定撮影モードに設定されていれば(ステップS2,Yes)、撮像装置1はスルー画像に対して目線判定処理を行う(ステップS3)。   First, the case where the imaging device 1 is set to the shooting mode (step S1, shooting mode) will be described. When the imaging device 1 is set to the shooting mode, the display unit 5 displays the image data corresponding to the image signal output from the imaging unit 2 in real time under the control of the display control unit 6. Hereinafter, the image data displayed in real time on the display unit 5 is referred to as a “through image”. If the imaging device 1 is set to the eye-gaze determination shooting mode (step S2, Yes), the imaging device 1 performs eye-gaze determination processing on the through image (step S3).

図4は、撮像装置1が行う目線判定処理の概要を示すフローチャートである。まず、顔検出部41が、表示部5で表示しているスルー画像中に存在する人物の顔を検出する(ステップS31)。この顔検出を行う際には、既存の手法を適用することができる(例えば、P. Viola and M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features," Proc. of CVPR (2001).を参照)。制御部12は、顔検出部41が検出した顔の位置にピントを合わせる制御を行う。   FIG. 4 is a flowchart illustrating an overview of eye-gaze determination processing performed by the imaging apparatus 1. First, the face detection unit 41 detects the face of a person present in the through image displayed on the display unit 5 (step S31). In performing this face detection, an existing method can be applied (for example, P. Viola and M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features,” Proc. Of CVPR (2001). See). The control unit 12 performs control to focus on the position of the face detected by the face detection unit 41.

顔検出部41がスルー画像中で複数の顔を検出した場合(ステップS32,Yes)、撮像装置1はステップS33に進む。一方、顔検出部41がスルー画像中で複数の顔を検出しなかった場合(ステップS32,No)、撮像装置1はステップS4に進む。   When the face detection unit 41 detects a plurality of faces in the through image (step S32, Yes), the imaging device 1 proceeds to step S33. On the other hand, when the face detection unit 41 does not detect a plurality of faces in the through image (No at Step S32), the imaging device 1 proceeds to Step S4.

ステップS33において、目線推定部42は、顔検出部41が検出した複数の顔の目線方向を顔ごとに推定する目線推定ループ処理を行う(ステップS33)。このループ処理では、まず顔方向算出部421が顔の向いている方向(顔方向)を算出する(ステップS331)。顔方向算出部421は、顔検出部41が検出した顔部分の画像(顔画像)を取得し、この取得した顔画像に対して差分背景や肌色領域抽出等の処理を施すことによって顔領域を抽出した後、この抽出した顔領域を用いて顔方向を算出する。図5は、顔方向算出部421が抽出する顔領域の例を示す図である。同図に示す顔領域31は、人間の頭部に外接する矩形領域である。顔領域31を抽出した顔方向算出部421は、顔領域31の中心位置(顔領域中心位置32)を算出するとともに、眉、目じり、鼻などの顔器官の位置を検出することによって顔器官中心位置33を算出する。この後、顔方向算出部421は、顔領域中心位置32および顔器官中心位置33を用いることにより、水平面上における顔方向と垂直面上における顔方向をそれぞれ算出する。   In step S33, the eye line estimation unit 42 performs a line eye estimation loop process for estimating the eye line directions of the plurality of faces detected by the face detection unit 41 for each face (step S33). In this loop process, first, the face direction calculation unit 421 calculates the direction in which the face is facing (face direction) (step S331). The face direction calculation unit 421 obtains an image (face image) of the face portion detected by the face detection unit 41, and performs processing such as differential background and skin color region extraction on the obtained face image to determine the face region. After the extraction, the face direction is calculated using the extracted face area. FIG. 5 is a diagram illustrating an example of a face area extracted by the face direction calculation unit 421. The face area 31 shown in the figure is a rectangular area circumscribing the human head. The face direction calculation unit 421 that has extracted the face area 31 calculates the center position of the face area 31 (face area center position 32), and detects the position of the face organ such as the eyebrows, eyes, and nose, thereby detecting the face organ center. The position 33 is calculated. Thereafter, the face direction calculation unit 421 calculates the face direction on the horizontal plane and the face direction on the vertical plane by using the face region center position 32 and the face organ center position 33, respectively.

図6は、水平面上における顔方向を算出する際に用いる顔楕円モデルの概要を示す図である。同図に示す顔200は楕円体であり、図6では楕円体の中心を通過する水平断面を示している。顔200は、撮影レンズ21の光軸方向(図6の上下方向)に対して角度φfaceだけ水平右向きを向いている。投影面300は顔領域31に対応している。また、点O'faceは図6の水平面上における顔領域中心位置32に対応し、点C'faceは図6の水平面上における顔器官中心位置33に対応している。 FIG. 6 is a diagram showing an outline of the face ellipse model used when calculating the face direction on the horizontal plane. The face 200 shown in the figure is an ellipsoid, and FIG. 6 shows a horizontal section passing through the center of the ellipsoid. The face 200 is directed horizontally right by an angle φ face with respect to the optical axis direction (vertical direction in FIG. 6) of the photographing lens 21. The projection plane 300 corresponds to the face area 31. Further, the point O ′ face corresponds to the face region center position 32 on the horizontal plane in FIG. 6, and the point C ′ face corresponds to the face organ center position 33 on the horizontal plane in FIG. 6.

図6において、顔200の水平面上の顔方向を示す顔角度φfaceは、投影面における顔領域31の水平方向の幅wface、投影面300における顔領域中心位置32(点Oface)と顔器官中心位置33(点C)との距離cface、および顔の幅(=2a)と顔の奥行き方向の長さ(=2b)の比k(顔楕円比)を用いることによって次式(1)で与えられる。

Figure 2009239347
In FIG. 6, the face angle φ face indicating the face direction on the horizontal plane of the face 200 is the horizontal width w face of the face area 31 on the projection plane, the face area center position 32 (point O face ) on the projection plane 300 and the face. By using the distance c face to the organ center position 33 (point C) and the ratio k (face ellipse ratio) between the face width (= 2a) and the length in the depth direction of the face (= 2b) (1) ).
Figure 2009239347

図7は、垂直面上における顔方向を算出する際に用いる顔楕円モデルの概要を示す図である。図7では、楕円体である顔200の中心を通過する垂直断面を示している。顔200は、撮影レンズ21の光軸方向(図7の左右方向)に対して角度ψfaceだけ上方を向いている。図7において、顔200の垂直面上の顔方向を示す顔角度ψfaceは、投影面300における顔領域31の垂直方向の高さhface、投影面300における顔領域中心位置32(点Oface)と顔器官中心位置33(点C)との距離c'face、および顔の高さ(=2d)と顔の奥行き方向の長さ(=2e)の比k'を用いることによって次式(2)で与えられる。

Figure 2009239347
FIG. 7 is a diagram showing an outline of the face ellipse model used when calculating the face direction on the vertical plane. In FIG. 7, the vertical cross section which passes the center of the face 200 which is an ellipsoid is shown. The face 200 faces upward by an angle ψ face with respect to the optical axis direction (left and right direction in FIG. 7) of the photographing lens 21. In FIG. 7, the face angle ψ face indicating the face direction on the vertical plane of the face 200 is the vertical height h face of the face area 31 on the projection plane 300 and the face area center position 32 (point O face on the projection plane 300). ) and the distance c between the face organ center position 33 (point C) 'face, and the height of the face (= 2d) and the depth direction of the length of the face (= 2e) ratio k' of the following equation by using ( 2).
Figure 2009239347

この後、目線方向算出部422は、ステップS331で算出した水平面上での顔角度φfaceおよび垂直面上での顔角度ψfaceを用いて目線方向を算出する(ステップS332)。目線方向算出部422は、パターンマッチング等の既知の手法によって顔領域31から瞳を検出し、この検出した瞳から目の領域を検出する。 Thereafter, the line-of-sight direction calculation unit 422 calculates the line-of-sight direction using the face angle φ face on the horizontal plane and the face angle ψ face on the vertical plane calculated in step S331 (step S332). The eye direction calculation unit 422 detects a pupil from the face region 31 by a known method such as pattern matching, and detects an eye region from the detected pupil.

図8は、目線方向算出部422が水平面上での目線方向を算出する際に適用する眼球モデルの概要を示す図である。同図に示す球状の眼球400は大部分が皮膚で覆われており、顔画像中に実際に表れる領域は点E1'から瞳401を通過して点E2'に達する円弧である。点O'eyeは眼球400の中心であり、点Oeyeは点O'eyeを投影面500に投影した点である。また、点Iは瞳401の中心I'を投影面500に投影した点である。図8において、投影面500における眼球中心位置Oeyeと瞳中心位置Iとの距離をceyeとし、眼球400の水平方向の隠れ部分の角度をαとすると、撮影レンズ21の光軸方向(図8の上下方向)に対する瞳401の中心I'の方向すなわち水平面上における目線方向φeyeは次式(3)で与えられる。

Figure 2009239347
FIG. 8 is a diagram illustrating an outline of an eyeball model applied when the eye direction calculation unit 422 calculates the eye direction on a horizontal plane. Most of the spherical eyeball 400 shown in the figure is covered with skin, and the region actually appearing in the face image is an arc that reaches the point E 2 ′ from the point E 1 ′ through the pupil 401. The point O ′ eye is the center of the eyeball 400, and the point O eye is a point obtained by projecting the point O ′ eye on the projection plane 500. Point I is a point obtained by projecting the center I ′ of the pupil 401 onto the projection plane 500. In FIG. 8, when the distance between the eyeball center position O eye and the pupil center position I on the projection plane 500 is c eye and the angle of the hidden portion of the eyeball 400 in the horizontal direction is α, the optical axis direction of the photographing lens 21 (FIG. The direction of the center I ′ of the pupil 401 (the vertical direction of 8), that is, the eye line direction φ eye on the horizontal plane is given by the following equation (3).
Figure 2009239347

目線方向算出部422は、垂直面上における目線方向を算出する際にも、水平面上の目線方向の算出に適用したのと同様の眼球モデルを適用する。したがって、撮影レンズ21の光軸方向に対する垂直方向の目線方向ψeyeは、次式(4)で与えられる。

Figure 2009239347
ここで、c'eyeは投影面500における眼球中心位置Oeyeと瞳中心位置Iとの垂直方向の距離であり、角度α'は眼球400の垂直方向の隠れ部分の角度である。 The eye direction calculation unit 422 applies the same eyeball model as that applied to the calculation of the eye direction on the horizontal plane when calculating the eye direction on the vertical plane. Therefore, the line-of-sight direction ψ eye in the direction perpendicular to the optical axis direction of the photographing lens 21 is given by the following equation (4).
Figure 2009239347
Here, c ′ eye is the vertical distance between the eyeball center position O eye and the pupil center position I on the projection plane 500, and the angle α ′ is the angle of the hidden part of the eyeball 400 in the vertical direction.

目線方向算出部422は、両目の目線方向を算出することができた場合、算出した両目の目線方向を重み付けして和をとることによって目線方向を決定する。ここで和をとる際の重みは顔方向に応じて決定される。例えば、顔が右方(撮像装置1から見て左方)を向いている場合、右目は画像中にほとんど入らないため、左目の重みを右目の重みよりも十分大きくする。また、顔が正面付近を向いている時は、両目の目線方向の平均をとる。このようにして目線方向算出部422が算出した目線方向は、目線推定結果として記憶部13の顔情報記憶部132に格納される。   When the line-of-sight direction calculation unit 422 can calculate the line-of-sight direction of both eyes, the line-of-sight direction is determined by weighting and summing the calculated line-of-sight directions of both eyes. Here, the weight for calculating the sum is determined according to the face direction. For example, when the face is directed to the right (left side as viewed from the image pickup apparatus 1), the right eye hardly enters the image, so the weight of the left eye is sufficiently larger than the weight of the right eye. When the face is facing the front, the average of the eye direction of both eyes is taken. The eye direction calculated by the eye direction calculation unit 422 in this way is stored in the face information storage unit 132 of the storage unit 13 as the eye estimation result.

なお、目線方向算出処理を行う際のパラメータは上述したものに限られるわけではなく、例えば眼球の隠れ部分の角度を顔の中心側と外側で異なる値としてもよい。この点を含む顔方向算出処理と目線方向算出処理の詳細な内容は、例えば上記特許文献2に開示されている。   Note that the parameters for performing the eye direction calculation processing are not limited to those described above, and for example, the angle of the hidden part of the eyeball may be different between the center side and the outside of the face. The detailed contents of the face direction calculation process and the eye direction calculation process including this point are disclosed in, for example, Patent Document 2 described above.

目線推定部42がステップS33の目線推定ループ処理を全ての顔に対して行った結果、複数の目線方向を算出した場合(ステップS34,Yes)、撮像装置1はステップS35へ進む。これに対して、目線推定部42がステップS33の目線推定ループ処理を全ての顔に対して行った結果、複数の目線方向を算出しなかった場合(ステップS34,No)、撮像装置1は目線判定処理を終了して後述するステップS4へ進む。   When the line-of-sight estimation unit 42 calculates a plurality of line-of-sight directions as a result of performing the line-of-sight estimation loop processing in step S33 on all faces (step S34, Yes), the imaging device 1 proceeds to step S35. On the other hand, when the line-of-sight estimation unit 42 does not calculate a plurality of line-of-sight directions as a result of performing the line-of-sight estimation loop processing in step S33 on all faces (step S34, No), the imaging device 1 The determination process ends and the process proceeds to step S4 described later.

図9は、ステップS35以降の目線判定処理を説明する際に参照する撮像装置1付近の状況を模式的に示す図である。具体的には、図9は、撮像装置1の撮像領域(水平方向の画角θX)内に存在する二人の人物A1、A2が同じターゲットTを注目している状況を撮像装置1の上方から見た模式図である。図9では、撮像装置1の撮影レンズ21からの距離が遠い方の人物A1の位置を座標原点Oとして撮影レンズ21の光軸Pと平行な軸をL軸とする一方、撮影レンズ21の光軸Pと直交する軸をX軸としている。また、図9では、人物A1、A2の水平方向の目線方向の角度(式(3)のφeyeに相当)をそれぞれφ1、φ2としている。この意味で、角度φ1、φ2は、上記ステップS332ですでに算出されており、顔情報記憶部132に格納されたものである。 FIG. 9 is a diagram schematically illustrating a situation in the vicinity of the imaging apparatus 1 that is referred to when explaining the eye-gaze determination process after step S35. Specifically, FIG. 9 shows a situation in which two persons A1 and A2 existing in the imaging region (horizontal angle of view θ X ) of the imaging device 1 are paying attention to the same target T. It is the schematic diagram seen from the top. In FIG. 9, the position of the person A1 farther from the photographic lens 21 of the imaging device 1 is the coordinate origin O, and the axis parallel to the optical axis P of the photographic lens 21 is the L axis, while the light of the photographic lens 21 is The axis orthogonal to the axis P is taken as the X axis. In FIG. 9, the horizontal line-of-sight angles of the persons A1 and A2 (corresponding to φeye in Expression (3)) are φ1 and φ2, respectively. In this sense, the angles φ1 and φ2 have been calculated in step S332 and stored in the face information storage unit 132.

ステップS35において、距離算出部43は、撮影レンズ21を起点として、目線方向を算出した複数の人物までの距離をそれぞれ算出する(ステップS35)。図10は、距離L1、L2の算出を概念的に示す図である。距離算出部43は、例えば人物A1にピントを合わせることによって人物A1までの距離L1を算出した後、この距離L1に基づいて人物A2までの距離L2を算出する。なお、図10では、撮影レンズ21の焦点距離をF、顔画像における人物A1の顔201の高さおよび人物A2の顔202の高さをそれぞれH1およびH2とし、顔201、202の大きさをともにDと近似している。これらの定義を用いると、撮影レンズ21から人物A1、A2までの距離L1、L2は、それぞれL1=DF/H1,L2=DF/H2と表される。したがって、距離算出部43は、距離L1を用いることによって距離L2=(H2/H1)L1を算出することができる。距離算出部43が算出した距離L1、L2は、記憶部13の顔情報記憶部132に格納される。   In step S <b> 35, the distance calculation unit 43 calculates the distances to the plurality of persons whose eye line directions are calculated starting from the photographing lens 21 (step S <b> 35). FIG. 10 is a diagram conceptually illustrating the calculation of the distances L1 and L2. For example, the distance calculation unit 43 calculates the distance L1 to the person A1 by focusing on the person A1, and then calculates the distance L2 to the person A2 based on the distance L1. In FIG. 10, the focal length of the taking lens 21 is F, the height of the face 201 of the person A1 and the height of the face 202 of the person A2 in the face image are H1 and H2, respectively. Both are close to D. Using these definitions, the distances L1 and L2 from the taking lens 21 to the persons A1 and A2 are expressed as L1 = DF / H1 and L2 = DF / H2, respectively. Therefore, the distance calculation unit 43 can calculate the distance L2 = (H2 / H1) L1 by using the distance L1. The distances L1 and L2 calculated by the distance calculation unit 43 are stored in the face information storage unit 132 of the storage unit 13.

この後、クロス判定部44は、複数の人物の目線が交差しているか否かを判定する(ステップS36)。まず、クロス判定部44は、ステップS35で距離算出部43が算出した距離L1、L2を顔情報記憶部132から読み出し、人物A1と人物A2のL座標の差分ΔLおよびX座標の差分ΔXを、次式(5)および(6)にしたがってそれぞれ算出する。
ΔL=L1−L2 …(5)
ΔX=L1tan(ρ1)+L2tan(ρ2) …(6)
ここで、式(6)のρ1(<θX)は、撮影レンズ21から見た人物A1の方向と撮影レンズ21の光軸Pとのなす角度である。また、式(6)のρ2(<θX)は、撮影レンズ21から見た人物A2の方向と撮影レンズ21の光軸Pとのなす角度である。
Thereafter, the cross determination unit 44 determines whether or not the eyes of a plurality of people intersect (step S36). First, the cross determination unit 44 reads the distances L1 and L2 calculated by the distance calculation unit 43 in step S35 from the face information storage unit 132, and calculates the L coordinate difference ΔL and the X coordinate difference ΔX between the person A1 and the person A2. It calculates according to following Formula (5) and (6), respectively.
ΔL = L1-L2 (5)
ΔX = L1 tan (ρ1) + L2 tan (ρ2) (6)
Here, ρ1 (<θ X ) in Expression (6) is an angle formed by the direction of the person A1 viewed from the photographing lens 21 and the optical axis P of the photographing lens 21. Further, ρ2 (<θ X ) in Expression (6) is an angle formed by the direction of the person A2 viewed from the photographing lens 21 and the optical axis P of the photographing lens 21.

図11は、図9と同じ状況を撮像装置1の側方から見た模式図である。図11では、図9と同様に撮像装置1からの距離が大きい方の人物A1の位置を座標原点Oとして撮影レンズ21の光軸Pと直交する軸をY軸としている。また、図11では、撮像装置1のY軸方向の画角をθYとしている。さらに、図11では、人物A1、A2の水平方向の目線方向の角度(式(4)のψeyeに相当)をそれぞれψ1、ψ2としている。この意味で、角度ψ1、ψ2はφ1等と同様に上記ステップS332ですでに算出されており、顔情報記憶部132に格納されている。クロス判定部44は、人物A1、A2のY座標の差分ΔYを次式(7)にしたがって算出する。
ΔY=L1tan(η1)+L2tan(η2) …(7)
ここで、式(7)のη1(<θY)は、撮影レンズ21から見た人物A1の方向と撮影レンズ21の光軸Pとのなす角度である。また、式(7)のη2(<θY)は、撮影レンズ21から見た人物A2の方向と撮影レンズ21の光軸Pとのなす角度である。
FIG. 11 is a schematic view of the same situation as FIG. 9 as viewed from the side of the imaging apparatus 1. In FIG. 11, as in FIG. 9, the position of the person A1 with the larger distance from the imaging device 1 is the coordinate origin O, and the axis orthogonal to the optical axis P of the photographic lens 21 is the Y axis. In FIG. 11, the angle of view of the imaging apparatus 1 in the Y-axis direction is θ Y. Further, in FIG. 11, (corresponding to [psi eye of formula (4)) horizontal eye direction angles of the person A1, A2 respectively .psi.1, have a .psi.2. In this sense, the angles ψ 1 and ψ 2 have already been calculated in step S 332 in the same manner as φ 1 and stored in the face information storage unit 132. The cross determination unit 44 calculates the difference ΔY between the Y coordinates of the persons A1 and A2 according to the following equation (7).
ΔY = L1 tan (η1) + L2 tan (η2) (7)
Here, η1 (<θ Y ) in Expression (7) is an angle formed by the direction of the person A1 viewed from the photographing lens 21 and the optical axis P of the photographing lens 21. In addition, η2 (<θ Y ) in Expression (7) is an angle formed by the direction of the person A2 viewed from the photographing lens 21 and the optical axis P of the photographing lens 21.

続いて、クロス判定部44は、式(5)、(6)の算出結果に加えて顔情報記憶部132から読み出した人物A1,A2の水平方向の目線方向の角度φ1、φ2を用いることにより、水平方向における人物A1、A2の目線の交点座標(Ls,Xs)を次式(8)、(9)にしたがってそれぞれ算出する。

Figure 2009239347
Subsequently, the cross determination unit 44 uses the horizontal line-of-sight angles φ1 and φ2 of the persons A1 and A2 read from the face information storage unit 132 in addition to the calculation results of the expressions (5) and (6). The intersection coordinates (Ls, Xs) of the eyes of the persons A1 and A2 in the horizontal direction are calculated according to the following equations (8) and (9), respectively.
Figure 2009239347

また、クロス判定部44は、式(5)、(7)の算出結果に加えて顔情報記憶部132から読み出した人物A1、A2の垂直方向の目線方向の角度ψ1、ψ2を用いることにより、垂直方向における人物A1,A2の目線の交点座標(Ls,Ys)を次式(10)、(11)にしたがってそれぞれ算出する。

Figure 2009239347
Further, the cross determination unit 44 uses, in addition to the calculation results of the expressions (5) and (7), the angles ψ1 and ψ2 in the vertical line-of-sight direction of the persons A1 and A2 read from the face information storage unit 132, The intersection coordinates (Ls, Ys) of the eyes of the persons A1 and A2 in the vertical direction are calculated according to the following equations (10) and (11).
Figure 2009239347

次に、クロス判定部44は、式(8)のLsと式(10)のLsが一致するか否かを判定する。ここでいう「一致」とは、二つのLsが推定値であることに鑑み、二つのLsの差が所定の範囲内の値であることを意味する。式(8)のLsと式(10)のLsが一致した場合、クロス判定部44は人物A1の目線と人物A2の目線が集中した状態にあると判定する。   Next, the cross determination unit 44 determines whether Ls in Expression (8) matches Ls in Expression (10). Here, “match” means that the difference between the two Ls is a value within a predetermined range in view of the fact that the two Ls are estimated values. When Ls in Expression (8) matches Ls in Expression (10), the cross determination unit 44 determines that the line of sight of the person A1 and the line of sight of the person A2 are concentrated.

なお、式(8)、(10)でLsが∞になった場合、クロス判定部44は目線方向が平行であって無限遠で交わっていると判定する。また、式(8)、(10)でLs<0の場合には、顔の後ろ側で二人の目線が交差しているため、クロス判定部44はこの場合を判定の対象から除外する。   In addition, when Ls becomes ∞ in Expressions (8) and (10), the cross determination unit 44 determines that the eye direction is parallel and intersects at infinity. In addition, when Ls <0 in Expressions (8) and (10), the eyes of the two people intersect on the back side of the face, so the cross determination unit 44 excludes this case from the determination target.

ここで、画像データに3人以上の人物が含まれている場合を説明する。この場合、クロス判定部44は、撮影レンズ21から一番遠くに位置している人物を基準人物とし、この基準人物と他の人物との座標値の差分を用いてクロス判定を行う。例えばn人(nは3以上の自然数)の人物がスルー画像中に含まれている場合、クロス判定部44は基準人物の目線方向と他の人物の目線方向との交点座標を最大(n−1)通り算出する。続いて、クロス判定部44は、算出した複数の交点座標の各々に対して、水平方向のLs(式(8))と垂直方向のLs(式(10))が一致するか否かを判定する。この判定の結果、水平方向のLsと垂直方向のLsが一致する交点座標(以下、「正規交点座標」という)が複数ある場合、クロス判定部44は、複数の正規交点座標同士が一致するか否かを判定する。この判定を行う際、クロス判定部44は所定の規則にしたがって基準とすべき正規交点座標(基準交点座標)を一つ抽出し、この基準交点座標とそれ以外の正規交点座標との差分を成分ごとにそれぞれ算出する。クロス判定部44は、成分ごとの差分が各々所定の範囲内の値にある基準交点座標と正規交点座標を一致していると判定する。基準交点座標と一致する正規交点座標が所定の割合以上存在する場合、クロス判定部44は、スルー画像中の人物の目線が集中した状態にあると判定する。   Here, a case where three or more persons are included in the image data will be described. In this case, the cross determination unit 44 uses the person located farthest from the photographing lens 21 as a reference person, and performs cross determination using a difference in coordinate values between the reference person and another person. For example, when n (n is a natural number of 3 or more) persons are included in the through image, the cross determination unit 44 sets the intersection coordinates between the line-of-sight direction of the reference person and the line-of-sight direction of another person to the maximum (n− 1) Calculate as follows. Subsequently, the cross determination unit 44 determines whether or not the horizontal direction Ls (Equation (8)) and the vertical direction Ls (Equation (10)) match each of the calculated plurality of intersection coordinates. To do. As a result of this determination, if there are a plurality of intersection coordinates (hereinafter referred to as “normal intersection coordinates”) in which the horizontal direction Ls and the vertical direction Ls match, the cross determination unit 44 determines whether the plurality of normal intersection coordinates match. Determine whether or not. When performing this determination, the cross determination unit 44 extracts one normal intersection coordinate (reference intersection coordinate) to be used as a reference according to a predetermined rule, and calculates the difference between this reference intersection coordinate and the other normal intersection coordinates as components. Each is calculated. The cross determination unit 44 determines that the reference intersection coordinates and the normal intersection coordinates in which the difference for each component is within a predetermined range are the same. When the normal intersection coordinates that coincide with the reference intersection coordinates exist at a predetermined ratio or more, the cross determination unit 44 determines that the eyes of the person in the through image are concentrated.

以上説明したステップS3の目線判定処理に続く処理は、撮像装置1が自動撮影モードに設定されているか否かによって異なる。まず、撮像装置1が自動撮影モードに設定されていない場合(ステップS4,No)を説明する。この場合、ステップS3でスルー画像中の複数の人物の目線が集中していると判定されたとき(ステップS5,Yes)、表示部5は、クロス判定部44の判定結果として、目線が集中しており撮影に好適なタイミングであることを報知するOK表示を表示する(ステップS6)。一方、スルー画像中の複数の人物の目線が集中していると判定されなかった場合(ステップS5,No)、撮像装置1は表示部5でOK表示を出力することなく、後述するステップS7へ直接進む。   The process following the eye line determination process in step S3 described above differs depending on whether or not the imaging apparatus 1 is set to the automatic shooting mode. First, the case where the imaging device 1 is not set to the automatic shooting mode (step S4, No) will be described. In this case, when it is determined in step S3 that the eyes of a plurality of persons in the through image are concentrated (step S5, Yes), the display unit 5 determines that the eyes are concentrated as a determination result of the cross determination unit 44. Then, an OK display for notifying that the timing is suitable for shooting is displayed (step S6). On the other hand, if it is not determined that the eyes of a plurality of persons in the through image are concentrated (No in step S5), the imaging apparatus 1 does not output an OK display on the display unit 5 and proceeds to step S7 described later. Proceed directly.

図12は、表示部5におけるOK表示の表示出力例を模式的に示す図である。同図に示す表示画像51は、図9および図11に示す状況下での表示例を示している。表示画像51では、「タイミングOK」という文字列がスルー画像の左上部に重畳して表示されている。撮影者は、表示部5にOK表示が表示出力された場合、人物A1、A2の目線が集中しており、撮影に好適なタイミングであることを認識することができる。なお、図12において、人物A1、A2の目線(破線で表示)および二つの目線の交点CPは補助的に記載したものに過ぎない。   FIG. 12 is a diagram schematically illustrating an example of display output of OK display on the display unit 5. A display image 51 shown in the figure shows a display example under the situation shown in FIGS. In the display image 51, the character string “timing OK” is displayed superimposed on the upper left portion of the through image. When the OK display is displayed and output on the display unit 5, the photographer can recognize that the eyes of the persons A1 and A2 are concentrated and that the timing is suitable for shooting. In FIG. 12, the eyes (indicated by broken lines) of the persons A1 and A2 and the intersection CP of the two eyes are merely auxiliary.

図13は、OK表示の別な表示出力例(第2例)を示す図である。同図に示す表示画像52では、目線が集中している人物を示す正方形状の目線集中人物特定シンボル52aがスルー画像中の人物A11、A12の顔領域に重畳して表示されるとともに、目線が他の人物と異なる方向を向いている三角形状の目線非集中人物特定シンボル52bがスルー画像中の人物A13の顔領域に重畳して表示されている。目線集中人物特定シンボル52aおよび目線非集中人物特定シンボル52bは、スルー画像中で目線が集中している人物が所定の割合以上存在している場合に表示される。なお、表示部5では、目線集中人物特定シンボル52aと目線非集中人物特定シンボル52bを互いに異なる色で表示してもよい。また、目線集中人物特定シンボル52aおよび目線非集中人物特定シンボル52bがスルー画像に重畳して表示されるための条件(目線が集中している人物の被写体全体に対する割合)は、利用者が入力部9を介して任意に設定入力をすることができるようにしてもよい。   FIG. 13 is a diagram illustrating another display output example (second example) of OK display. In the display image 52 shown in the figure, a square-shaped eye-focused person identification symbol 52a indicating a person whose eyes are concentrated is displayed superimposed on the face areas of the persons A11 and A12 in the through image, and the eyes are displayed. A triangular eye-unconcentrated person identification symbol 52b facing in a different direction from other persons is displayed superimposed on the face area of the person A13 in the through image. The gaze-concentrated person identification symbol 52a and the gaze-unconcentrated person identification symbol 52b are displayed when there are more than a predetermined percentage of persons with concentrated eyes in the through image. Note that the display unit 5 may display the gaze-concentrated person identification symbol 52a and the gaze-unconcentrated person identification symbol 52b in different colors. In addition, the condition (ratio of the person who is focused on the whole subject) for the eyes-focused person specifying symbol 52a and the eyes non-focused person specifying symbol 52b to be displayed superimposed on the through image is as follows. 9 may be used to arbitrarily input settings.

図14は、OK表示のさらに別な表示出力例(第3例)を示す図である。同図に示す表示画像53は、5人の人物A21〜A25の目線判定を行った結果を表示している。表示画像53では、目線が集中している人物が5人中4人いることを示すメッセージがスルー画像に対して重畳して表示されるとともに、目線が他の4人と異なっている人物A25の顔領域に目線非集中人物特定シンボル53aがスルー画像に対して重畳して表示されている。このようなメッセージおよびシンボルが表示されるのは、スルー画像中で目線が集中している人物が所定の割合以上存在している場合である。   FIG. 14 is a diagram showing still another display output example (third example) of OK display. A display image 53 shown in the figure displays the results of eye line determination of five persons A21 to A25. In the display image 53, a message indicating that there are four of five persons whose eyes are concentrated is superimposed on the through image, and the person A25 whose eyes are different from the other four is displayed. A non-concentrated person identification symbol 53a is displayed superimposed on the through image in the face area. Such messages and symbols are displayed when there are more than a predetermined percentage of people whose eyes are concentrated in the through image.

この後、撮影者によって入力部9から撮影指示信号が入力された場合(ステップS7,Yes)、撮像装置1は制御部12の制御のもとで画像の撮影を行い(ステップS8)、撮影した画像データを圧縮伸張部7で所定のサイズに圧縮し、この圧縮した画像データを記録媒体インターフェース8によって記録媒体100へ記録する(ステップS9)。ここで、撮像装置1は、撮影した画像データを記憶部13へ書き込んで記録することもできる。なお、ステップS7で所定時間経過しても撮影指示信号が入力されない場合(ステップS7,No)、撮像装置1はステップS3に戻る。   Thereafter, when a shooting instruction signal is input from the input unit 9 by the photographer (step S7, Yes), the imaging apparatus 1 captures an image under the control of the control unit 12 (step S8) and takes the image. The image data is compressed to a predetermined size by the compression / decompression unit 7, and the compressed image data is recorded on the recording medium 100 by the recording medium interface 8 (step S9). Here, the imaging apparatus 1 can also write and record the captured image data in the storage unit 13. Note that if the shooting instruction signal is not input even after a predetermined time has elapsed in step S7 (step S7, No), the imaging apparatus 1 returns to step S3.

次に、撮像装置1が自動撮影モードに設定されている場合を説明する(ステップS4,Yes)。この場合、画像処理部4による目線判定処理(ステップS3)の結果、スルー画像中の複数の人物の目線が集中していると判定されたとき(ステップS10,Yes)、撮像装置1は自動的に撮影処理(ステップS8)を行い、撮影した画像データを圧縮伸張部7で所定のサイズに圧縮し、この圧縮した画像データを記録媒体インターフェース8によって記録媒体100へ記録する(ステップS9)。一方、画像処理部4による目線判定処理の結果、スルー画像中の複数の人物の目線が集中していると判定されなかったとき(ステップS10,No),撮像装置1はステップS3に戻る。   Next, the case where the imaging device 1 is set to the automatic shooting mode will be described (step S4, Yes). In this case, when it is determined that the lines of sight of a plurality of persons in the through image are concentrated as a result of the line-of-sight determination process (step S3) by the image processing unit 4 (step S10, Yes), the imaging apparatus 1 automatically Then, the photographing process is performed (step S8), the photographed image data is compressed to a predetermined size by the compression / decompression unit 7, and the compressed image data is recorded on the recording medium 100 by the recording medium interface 8 (step S9). On the other hand, when it is determined that the eyes of a plurality of persons in the through image are not concentrated as a result of the eye line determination process by the image processing unit 4 (No in step S10), the imaging device 1 returns to step S3.

ステップS9に続く処理は、撮像装置1で連写モードが設定されているか否かによって異なる。撮像装置1が連写モードに設定されていない場合(ステップS11,No)、画像処理部4は、記録媒体インターフェース8から画像データを読み出して上述したステップS3と同じ目線判定処理(ステップS12)を行う。ここで目線判定処理を再び行うのは、ステップS3における目線判定処理の後、実際に撮影を行うまでのタイムラグがあり、ステップS3の判定結果と異なる判定結果が生じる可能性があるからである。   The processing following step S9 differs depending on whether or not the continuous shooting mode is set in the imaging apparatus 1. When the imaging device 1 is not set to the continuous shooting mode (No at Step S11), the image processing unit 4 reads out the image data from the recording medium interface 8 and performs the same eye line determination processing (Step S12) as Step S3 described above. Do. The reason why the line of sight determination process is performed again is that there is a time lag until the actual shooting is performed after the line of sight determination process in step S3, and a determination result different from the determination result in step S3 may occur.

一方、撮像装置1が連写モードに設定されている場合(ステップS11,Yes)、所定の撮影枚数分の撮影が終了していなければ(ステップS13,No)、ステップS8に戻って撮影を繰り返し行う。撮像装置1が連写モードに設定されており(ステップS11,Yes)、かつ所定の撮影枚数分の撮影が終了していれば(ステップS13,Yes)、画像処理部4は記録媒体インターフェース8から画像データを読み出し、上記ステップS3と同様の目線判定処理を行う(ステップS12)。   On the other hand, when the imaging device 1 is set to the continuous shooting mode (step S11, Yes), if shooting for the predetermined number of shots has not been completed (step S13, No), the process returns to step S8 and the shooting is repeated. Do. If the imaging device 1 is set to the continuous shooting mode (step S11, Yes) and shooting for a predetermined number of shots has been completed (step S13, Yes), the image processing unit 4 starts from the recording medium interface 8. The image data is read out, and the eye line determination process similar to that in step S3 is performed (step S12).

画像処理部4が目線判定処理(ステップS12)を行った結果、撮影した画像データ中に含まれる人物の目線が集中していると判定した場合(ステップS14,Yes)、撮像装置1はその画像データを目線集中画像として記録媒体インターフェース8を介して記録媒体100へ記録する(ステップS15)。ここでいう「目線集中画像」とは、目線が集中していることを示す情報が付与された画像データのことであり、例えばもとの画像データに対して目線集中画像であることを示すフラグを立てたものである。なお、画像処理部4が目線判定処理を行った結果、撮影した画像データ中の人物の目線が集中していると判定しなかった場合(ステップS14,No)、撮像装置1はステップS3に戻る。   If the image processing unit 4 determines that the eyes of the person included in the captured image data are concentrated as a result of performing the line-of-sight determination process (step S12) (step S14, Yes), the imaging device 1 displays the image. Data is recorded on the recording medium 100 through the recording medium interface 8 as a focused eye image (step S15). The “line of sight image” here is image data to which information indicating that the line of sight is concentrated is given. For example, a flag indicating that the image is a line of sight image with respect to the original image data. It is a thing that stands. Note that when the image processing unit 4 does not determine that the human eyes in the captured image data are concentrated as a result of the eye determination processing (No in step S14), the imaging device 1 returns to step S3. .

この後、撮像装置1がトリミングモードに設定されている場合(ステップS16,Yes)、トリミング部45は目線集中画像のトリミングを行う(ステップS17)。続いて、表示部5は、トリミング部45によってトリミングされた結果を表示する(ステップS18)。図15は、表示部5におけるトリミング結果の表示例を示す図である。同図に示すトリミング結果表示画像54は、目線が集中している人物A11、A12のみを抽出した領域をトリミング領域54aとして破線を用いて表示している。なお、ステップS18において表示部5がトリミング結果表示画像54を表示する代わりに、トリミング領域54aのみを表示するようにしてもよい。また、トリミング結果表示画像54の適当な位置に、トリミング画像を記録するか否かを問合わせるメッセージを出力し、撮影者に入力部9からの選択入力を促すようにしてもよい。   Thereafter, when the imaging apparatus 1 is set to the trimming mode (step S16, Yes), the trimming unit 45 performs trimming of the eye-gaze concentrated image (step S17). Subsequently, the display unit 5 displays the result trimmed by the trimming unit 45 (step S18). FIG. 15 is a diagram illustrating a display example of the trimming result on the display unit 5. In the trimming result display image 54 shown in the figure, an area where only the persons A11 and A12 whose eyes are concentrated is extracted is displayed as a trimming area 54a using a broken line. Note that instead of the display unit 5 displaying the trimming result display image 54 in step S18, only the trimming region 54a may be displayed. Further, a message asking whether or not to record the trimmed image may be output at an appropriate position of the trimming result display image 54 to prompt the photographer to make a selection input from the input unit 9.

入力部9からトリミング画像を記録する操作指示信号が入力された場合(ステップS19,Yes)、撮像装置1ではトリミング後の画像データを圧縮伸張部7で所定のサイズに圧縮し、この圧縮したトリミング画像データを記録媒体インターフェース8によって記録媒体100へ記録する(ステップS20)。一方、トリミング画像を記録する操作指示信号が入力されなかった場合(ステップS19,No)、撮像装置1は一連の処理を終了する。   When an operation instruction signal for recording a trimmed image is input from the input unit 9 (step S19, Yes), the image pickup apparatus 1 compresses the trimmed image data to a predetermined size by the compression / expansion unit 7, and the compressed trimming is performed. Image data is recorded on the recording medium 100 by the recording medium interface 8 (step S20). On the other hand, when the operation instruction signal for recording the trimmed image is not input (step S19, No), the imaging apparatus 1 ends the series of processes.

撮像装置1がトリミングモードに設定されていない場合(ステップS16,No)、撮像装置1は一連の処理を終了する。   When the imaging device 1 is not set to the trimming mode (No at Step S16), the imaging device 1 ends a series of processes.

次に、撮像装置1が撮影モードに設定されており(ステップS1,撮影モード)、かつ目線判定撮影モードに設定されていない場合(ステップS2,No)を説明する。この場合、撮像装置1は通常撮影処理を行う(ステップS21)。   Next, the case where the imaging apparatus 1 is set to the shooting mode (step S1, shooting mode) and is not set to the eye-gaze determination shooting mode (step S2, No) will be described. In this case, the imaging apparatus 1 performs a normal shooting process (step S21).

通常撮影処理に続く処理は、撮像装置1が撮影用目線判定トリミングモードに設定されているか否かによって異なる。撮像装置1が撮影用目線判定トリミングモードに設定されている場合(ステップS22,Yes)、画像処理部4は撮影した画像データに対してステップS12と同じ目線判定処理を行う(ステップS23)。これに対して、撮像装置1が撮影用目線判定トリミングモードに設定されていない場合(ステップS22,No)、撮像装置1は通常撮影処理のみを行う。   The processing following the normal shooting processing differs depending on whether or not the imaging apparatus 1 is set to the shooting eye determination trimming mode. When the imaging device 1 is set to the imaging eye-gaze determination trimming mode (step S22, Yes), the image processing unit 4 performs the same eye-line determination processing as that of step S12 on the captured image data (step S23). On the other hand, when the imaging apparatus 1 is not set to the imaging eye-gaze determination trimming mode (step S22, No), the imaging apparatus 1 performs only normal imaging processing.

以下、撮像装置1が撮影用目線判定トリミングモードに設定されている場合を説明する。この場合、画像処理部4が目線判定処理(ステップS23)を行った結果、画像データ中に含まれる人物の目線が集中していると判定したとき(ステップS24,Yes)、撮像装置1はその画像データを目線集中画像として記録媒体インターフェース8を介して記録媒体100へ記録する(ステップS25)。続いて、トリミング部45が目線集中画像のトリミングを行う(ステップS17)。このステップS17に続くステップS18〜S20の処理は、上述した通りである。   Hereinafter, a case where the imaging device 1 is set to the photographing eye-line determination trimming mode will be described. In this case, when the image processing unit 4 determines that the eyes of the person included in the image data are concentrated as a result of performing the line-of-sight determination process (step S23) (step S24, Yes), the imaging device 1 The image data is recorded on the recording medium 100 through the recording medium interface 8 as a focused eye image (step S25). Subsequently, the trimming unit 45 trims the eye-growth concentrated image (step S17). The processes in steps S18 to S20 subsequent to step S17 are as described above.

一方、画像処理部4が目線判定処理を行った結果、画像データ中に含まれる人物の目線が集中していると判定しなかったとき(ステップS24,No)、撮像装置1は一連の処理を終了する。   On the other hand, when the image processing unit 4 does not determine that the human eyes included in the image data are concentrated as a result of performing the line-of-sight determination process (step S24, No), the imaging device 1 performs a series of processes. finish.

次に、撮像装置1で再生モードが設定されている場合(ステップS1,再生モード)を説明する。まず、表示部5は、記録媒体100が記憶する画像データから撮影者によって選択された画像データを再生表示する(ステップS26)。   Next, the case where the reproduction mode is set in the imaging device 1 (step S1, reproduction mode) will be described. First, the display unit 5 reproduces and displays the image data selected by the photographer from the image data stored in the recording medium 100 (step S26).

撮像装置1が再生用目線判定トリミングモードに設定されている場合(ステップS27,Yes)、画像処理部4は再生表示している画像データに対して目線判定処理を行う(ステップS23)。このステップS23に続くステップS24以降の処理は、撮像装置1で撮影モードおよび撮影用目線判定トリミングモードが設定されている場合と同じである。   When the imaging apparatus 1 is set to the reproduction eye-gaze determination trimming mode (step S27, Yes), the image processing unit 4 performs eye-gaze determination processing on the image data being reproduced and displayed (step S23). The processing after step S24 following step S23 is the same as when the imaging mode and the eye-gaze determination trimming mode for imaging are set in the imaging apparatus 1.

一方、撮像装置1で再生用目線判定トリミングモードが設定されていない場合(ステップS27,No)、撮像装置1は処理を終了する。   On the other hand, when the reproduction eye determination trimming mode is not set in the imaging device 1 (step S27, No), the imaging device 1 ends the process.

以上説明した本発明の一実施の形態によれば、画像信号中の複数の人物の目線を推定し、目線を推定した複数の人物までの距離をそれぞれ算出し、これらの目線推定結果および距離算出結果を用いることによって複数の人物の目線が交差しているか否かを判定するため、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することが可能となる。   According to the embodiment of the present invention described above, the lines of sight of a plurality of persons in an image signal are estimated, the distances to the persons who estimated the lines of sight are calculated, and the line of sight estimation results and distance calculation are calculated. In order to determine whether or not the eyes of multiple persons intersect by using the results, it is possible to accurately extract the scene where the majority of people are gazing at the same object in an image that includes multiple persons as subjects. It becomes possible to do.

ここまで、本発明を実施するための最良の形態を説明してきたが、本発明は上述した一実施の形態によってのみ限定されるべきものではない。例えば、撮影者が撮像装置1を移動させることによって複数の人物の目線の交点が表示部5で表示するスルー画像中に入ってきた場合には、その交点を表示部5で表示するようにしてもよい。図16は、撮影者が図9に示す状態(図12の表示画像51を参照)から撮像装置1をL軸正の方向へ移動した結果、ターゲットTが撮像装置1の視野領域に入ってきた場合の表示部5における表示例を示す図である。図16に示す表示画像55は、人物A1の目線と人物A2の目線の交点CPが星印によって表示されている。このため、撮影者は複数の人物の目線が交差している位置とその交差位置に存在している対象物を容易に認識することができる。   The best mode for carrying out the present invention has been described so far, but the present invention should not be limited only by the above-described embodiment. For example, when the photographer moves the imaging apparatus 1 and an intersection of the eyes of a plurality of persons enters a through image displayed on the display unit 5, the intersection is displayed on the display unit 5. Also good. In FIG. 16, as a result of the photographer moving the imaging apparatus 1 in the positive direction of the L axis from the state shown in FIG. 9 (see the display image 51 in FIG. 12), the target T enters the visual field region of the imaging apparatus 1. It is a figure which shows the example of a display in the display part 5 in the case. In the display image 55 shown in FIG. 16, the intersection CP of the line of sight of the person A1 and the line of sight of the person A2 is displayed by an asterisk. For this reason, the photographer can easily recognize the position where the lines of sight of a plurality of persons intersect and the object existing at the intersection position.

このように、本発明は、ここでは記載していない様々な実施の形態等を含みうるものであり、特許請求の範囲により特定される技術的思想を逸脱しない範囲内において種々の設計変更等を施すことが可能である。   Thus, the present invention can include various embodiments and the like not described herein, and various design changes and the like can be made without departing from the technical idea specified by the claims. It is possible to apply.

本発明の一実施の形態に係る画像処理装置(撮像装置)の構成を示す図である。It is a figure which shows the structure of the image processing apparatus (imaging device) which concerns on one embodiment of this invention. 本発明の一実施の形態に係る画像処理装置(撮像装置)における処理モードの例を示す図である。It is a figure which shows the example of the processing mode in the image processing apparatus (imaging apparatus) which concerns on one embodiment of this invention. 本発明の一実施の形態に係る画像処理装置(撮像装置)の目線判定処理を含む処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process including the eyes | visual_axis determination process of the image processing apparatus (imaging device) which concerns on one embodiment of this invention. 目線判定処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of a gaze determination process. 顔領域の構成を示す図である。It is a figure which shows the structure of a face area | region. 顔楕円モデル(水平方向)の概要を示す図である。It is a figure which shows the outline | summary of a face ellipse model (horizontal direction). 顔楕円モデル(垂直方向)の概要を示す図である。It is a figure which shows the outline | summary of a face ellipse model (vertical direction). 眼球モデルの概要を示す図である。It is a figure which shows the outline | summary of an eyeball model. 被写体である複数の人物とこれら複数の人物が注目しているターゲットとの関係を画像処理装置の上方から見た模式図である。It is the schematic diagram which looked at the relationship between the several person who is a subject, and the target which these several persons are paying attention from the upper part of the image processing apparatus. 被写体までの距離算出の概要を示す図である。It is a figure which shows the outline | summary of the distance calculation to a to-be-photographed object. 被写体である複数の人物とこれら複数の人物が注目しているターゲットとの関係を画像処理装置の側方から見た模式図である。It is the schematic diagram which looked at the relationship between the several person who is a subject and the target which these several persons are paying attention from the side of the image processing apparatus. OK表示の表示例(第1例)を示す図である。It is a figure which shows the example of a display (1st example) of OK display. OK表示の表示例(第2例)を示す図である。It is a figure which shows the example of a display (2nd example) of OK display. OK表示の表示例(第3例)を示す図である。It is a figure which shows the example of a display of OK display (3rd example). トリミング結果の表示例を示す図である。It is a figure which shows the example of a display of a trimming result. 本発明の他の実施の形態に係る画像処理装置(撮像装置)の目線判定処理後の表示部における表示例を示す図である。It is a figure which shows the example of a display in the display part after the eyes | visual_axis determination process of the image processing apparatus (imaging apparatus) which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

1 撮像装置
2 撮像部
3 センサ部
4 画像処理部
5 表示部
6 表示制御部
7 圧縮伸張部
8 記録媒体インターフェース
9 入力部
10 音声出力部
11 補助光投射部
12 制御部
13 記憶部
14 レンズ駆動部
15 絞り駆動部
21 撮影レンズ
22 絞り
23 撮像素子
24 アナログ信号処理部
25 A/D変換部
31 顔領域
32 顔領域中心位置
33 顔器官中心位置
41 顔検出部
42 目線推定部
43 距離算出部
44 クロス判定部
45 トリミング部
51、52、53、55 表示画像
52a 目線集中人物特定シンボル
52b、53a 目線非集中人物特定シンボル
54 トリミング結果表示画像
54a トリミング領域
100 記録媒体
121 時計
131 プログラム記憶部
132 顔情報記憶部
200、201、202 顔
300、500 投影面
400 眼球
401 瞳
421 顔方向算出部
422 目線方向算出部
A1、A2、A11〜A13、A21〜A25 人物
CP 交点
T ターゲット
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 3 Sensor part 4 Image processing part 5 Display part 6 Display control part 7 Compression / decompression part 8 Recording medium interface 9 Input part 10 Audio | voice output part 11 Auxiliary light projection part 12 Control part 13 Storage part 14 Lens drive part DESCRIPTION OF SYMBOLS 15 Aperture drive part 21 Shooting lens 22 Aperture 23 Imaging element 24 Analog signal processing part 25 A / D conversion part 31 Face area 32 Face area center position 33 Face organ center position 41 Face detection part 42 Eye estimation part 43 Distance calculation part 44 Cross Determination unit 45 Trimming unit 51, 52, 53, 55 Display image 52a Eye-concentrated person specifying symbol 52b, 53a Eye-inconcentrated person specifying symbol 54 Trimming result display image 54a Trimming area 100 Recording medium 121 Clock 131 Program storage unit 132 Face information storage Part 200, 201, 202 Face 300 , 500 Projection plane 400 Eyeball 401 Pupil 421 Face direction calculation unit 422 Eye direction calculation unit A1, A2, A11 to A13, A21 to A25 Person CP Intersection T Target

Claims (11)

画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出部と、
前記顔検出部が顔を検出した前記複数の人物の目線を推定する目線推定部と、
前記目線推定部が目線を推定した前記複数の人物までの距離をそれぞれ算出する距離算出部と、
前記目線推定部の推定結果および前記距離算出部の算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定部と、
を備えたことを特徴とする画像処理装置。
A face detection unit for detecting faces of a plurality of persons included in the image signal based on an image pattern in the image signal;
A line of sight estimation unit for estimating the lines of sight of the plurality of persons whose faces have been detected by the face detection unit;
A distance calculator that calculates distances to the plurality of persons whose eyes are estimated by the eyes estimator;
A cross determination unit that determines whether or not the eyes of the plurality of persons intersect by using the estimation result of the eye estimation unit and the calculation result of the distance calculation unit;
An image processing apparatus comprising:
前記画像信号に対応する画像データを表示する表示部を備え、
前記表示部は、
前記クロス判定部が判定した結果を前記画像データに重畳して表示することを特徴とする請求項1記載の画像処理装置。
A display unit for displaying image data corresponding to the image signal;
The display unit
The image processing apparatus according to claim 1, wherein a result determined by the cross determination unit is displayed superimposed on the image data.
前記表示部は、
前記複数の人物の中で互いの目線が交差している人物を特定する情報を前記画像データに重畳して表示することを特徴とする請求項2記載の画像処理装置。
The display unit
The image processing apparatus according to claim 2, wherein information for identifying a person whose eyes cross each other among the plurality of persons is displayed superimposed on the image data.
前記クロス判定部の判定結果に応じて前記画像データのトリミングを行うトリミング部を備えたことを特徴とする請求項1〜3のいずれか一項記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a trimming unit that trims the image data according to a determination result of the cross determination unit. 前記目線推定部は、
前記顔検出部が検出した顔の向いている方向を算出する顔方向算出部と、
前記顔方向算出部が算出した前記顔の向いている方向を用いて当該顔に含まれる瞳が向いている方向を算出する目線方向算出部と、
を有することを特徴とする請求項1〜4のいずれか一項記載の画像処理装置。
The eye estimation unit
A face direction calculation unit that calculates a direction of the face detected by the face detection unit;
A line-of-sight direction calculation unit that calculates a direction in which a pupil included in the face is facing using the direction in which the face is calculated, which is calculated by the face direction calculation unit;
The image processing apparatus according to claim 1, further comprising:
前記クロス判定部は、
前記距離算出部で算出した距離が最も大きい人物を基準として、この基準人物の目線と他の人物の目線とが交差しているか否かを判定することを特徴とする請求項1〜5のいずれか一項記載の画像処理装置。
The cross determination unit
6. The method according to claim 1, further comprising: determining whether or not the line of sight of the reference person and the line of sight of another person intersect based on the person having the longest distance calculated by the distance calculation unit. An image processing apparatus according to claim 1.
前記クロス判定部は、
前記基準人物の目線と前記他の人物の目線とが当該画像処理装置に対して前記基準人物よりも遠くの位置で交差している場合を判定の対象から除外することを特徴とする請求項6記載の画像処理装置。
The cross determination unit
The case where the line of sight of the reference person and the line of sight of the other person intersect with the image processing apparatus at a position farther than the reference person is excluded from determination targets. The image processing apparatus described.
所定の視野領域内の被写体を撮像して画像信号を生成する撮像部と、
前記撮像部が撮像している被写体の撮影を指示する撮影指示信号が入力される入力部と、
前記入力部から入力された前記撮影指示信号に応じて前記撮像部が撮像している被写体を撮影する制御を行う制御部と、
を備えたことを特徴とする請求項1〜7のいずれか一項記載の画像処理装置。
An imaging unit that captures an image of a subject within a predetermined visual field and generates an image signal;
An input unit to which a shooting instruction signal for instructing shooting of a subject imaged by the imaging unit is input;
A control unit that performs control to capture a subject imaged by the imaging unit in response to the imaging instruction signal input from the input unit;
The image processing apparatus according to claim 1, further comprising:
前記制御部は、
前記顔検出部が検出した顔に露出および/またはピントを合わせる制御を行うことを特徴とする請求項8記載の画像処理装置。
The controller is
The image processing apparatus according to claim 8, wherein control is performed to adjust exposure and / or focus to the face detected by the face detection unit.
前記制御部は、
前記クロス判定部が判定した結果に応じて前記撮像部が撮像している被写体を自動的に撮影する制御を行うことを特徴とする請求項8または9記載の画像処理装置。
The controller is
10. The image processing apparatus according to claim 8, wherein control is performed to automatically photograph the subject being imaged by the imaging unit according to a result determined by the cross determination unit.
画像信号に対して所定の処理を行う画像処理装置に、
前記画像信号中の画像パターンに基づいて前記画像信号中に含まれる複数の人物の顔を検出する顔検出ステップ、
前記顔検出ステップで顔を検出した前記複数の人物の目線を推定して顔情報を記憶する顔情報記憶部へ格納する目線推定ステップ、
前記目線推定ステップで目線を推定した前記複数の人物までの距離をそれぞれ算出して前記顔情報記憶部へ格納する距離算出ステップ、
前記目線推定ステップの推定結果および前記距離算出ステップの算出結果を前記顔情報記憶部から読み出し、この読み出した推定結果および算出結果を用いることによって前記複数の人物の目線が交差しているか否かを判定するクロス判定ステップ、
を実行させることを特徴とする画像処理プログラム。
In an image processing apparatus that performs predetermined processing on an image signal,
A face detection step of detecting faces of a plurality of persons included in the image signal based on an image pattern in the image signal;
Eye estimation step for estimating the eyes of the plurality of persons whose faces have been detected in the face detection step and storing them in a face information storage unit for storing face information;
A distance calculating step of calculating distances to the plurality of persons whose eyes are estimated in the eyes estimating step and storing them in the face information storage unit,
The estimation result of the eye estimation step and the calculation result of the distance calculation step are read from the face information storage unit, and by using the read estimation result and the calculation result, it is determined whether or not the eyes of the plurality of persons intersect. A cross determination step for determining,
An image processing program for executing
JP2008079122A 2008-03-25 2008-03-25 Image processing apparatus and image processing program Expired - Fee Related JP5042896B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008079122A JP5042896B2 (en) 2008-03-25 2008-03-25 Image processing apparatus and image processing program
CN2009101268897A CN101547307B (en) 2008-03-25 2009-03-24 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008079122A JP5042896B2 (en) 2008-03-25 2008-03-25 Image processing apparatus and image processing program

Publications (3)

Publication Number Publication Date
JP2009239347A true JP2009239347A (en) 2009-10-15
JP2009239347A5 JP2009239347A5 (en) 2011-05-06
JP5042896B2 JP5042896B2 (en) 2012-10-03

Family

ID=41194152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008079122A Expired - Fee Related JP5042896B2 (en) 2008-03-25 2008-03-25 Image processing apparatus and image processing program

Country Status (2)

Country Link
JP (1) JP5042896B2 (en)
CN (1) CN101547307B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199665A (en) * 2011-03-18 2012-10-18 Olympus Imaging Corp Image display apparatus and imaging apparatus

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5719223B2 (en) * 2011-04-25 2015-05-13 オリンパスイメージング株式会社 Image recording apparatus, recording method, and program
CN105005777B (en) * 2015-07-30 2021-02-02 科大讯飞股份有限公司 Audio and video recommendation method and system based on human face
CN105894031A (en) * 2016-03-31 2016-08-24 青岛海信移动通信技术股份有限公司 Photo selection method and photo selection device
JP6631607B2 (en) * 2017-09-20 2020-01-15 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6787299B2 (en) * 2017-11-15 2020-11-18 オムロン株式会社 Alarm control device, alarm control method, and program for alarm control
CN110045834A (en) * 2019-05-21 2019-07-23 广东工业大学 Detection method, device, system, equipment and storage medium for sight locking
CN112989865B (en) * 2019-12-02 2023-05-30 山东浪潮科学研究院有限公司 Crowd attention focus judging method based on head gesture judgment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201531A (en) * 2005-01-21 2006-08-03 Konica Minolta Holdings Inc Imaging device
JP2006319610A (en) * 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd Camera
JP2007306463A (en) * 2006-05-15 2007-11-22 Fujifilm Corp Trimming supporting method, apparatus, and program
JP2008040758A (en) * 2006-08-04 2008-02-21 Sogo Keibi Hosho Co Ltd Guard device, monitoring system, abnormality determination method, and abnormality determination program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4227257B2 (en) * 1999-08-12 2009-02-18 キヤノン株式会社 camera
JP4218348B2 (en) * 2003-01-17 2009-02-04 オムロン株式会社 Imaging device
JP4622702B2 (en) * 2005-05-27 2011-02-02 株式会社日立製作所 Video surveillance device
JP2007096440A (en) * 2005-09-27 2007-04-12 Casio Comput Co Ltd Imaging apparatus
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201531A (en) * 2005-01-21 2006-08-03 Konica Minolta Holdings Inc Imaging device
JP2006319610A (en) * 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd Camera
JP2007306463A (en) * 2006-05-15 2007-11-22 Fujifilm Corp Trimming supporting method, apparatus, and program
JP2008040758A (en) * 2006-08-04 2008-02-21 Sogo Keibi Hosho Co Ltd Guard device, monitoring system, abnormality determination method, and abnormality determination program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199665A (en) * 2011-03-18 2012-10-18 Olympus Imaging Corp Image display apparatus and imaging apparatus

Also Published As

Publication number Publication date
JP5042896B2 (en) 2012-10-03
CN101547307B (en) 2011-07-06
CN101547307A (en) 2009-09-30

Similar Documents

Publication Publication Date Title
JP5042896B2 (en) Image processing apparatus and image processing program
KR101539043B1 (en) Image photography apparatus and method for proposing composition based person
KR100924685B1 (en) Imaging apparatus and control method thereof
JP4315148B2 (en) Electronic camera
US8538252B2 (en) Camera
US8009976B2 (en) Camera having face detection and with automatic focus control using a defocus amount
JP4970716B2 (en) Electronic camera
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR20100055946A (en) Method and apparatus for generating thumbnail of moving picture
JP5477777B2 (en) Image acquisition device
JP2008219449A (en) Imaging device and control method thereof
US20130266222A1 (en) Image synthesis apparatus, image synthesis method and image synthesis program
JP4891674B2 (en) camera
JP2009224913A (en) Image device and its control method
JP2009210992A (en) Photographing device
JP2009260630A (en) Image processor and image processing program
JP2016012846A (en) Imaging apparatus, and control method and control program of the same
JP2011135527A (en) Digital camera
JP2007049631A (en) Imaging apparatus
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2008219450A (en) Imaging device and control method thereof
JP2008219451A (en) Imaging device and control method thereof
JP2009302910A (en) Imaging device and image reproducer
JP2015080167A (en) Imaging device, control method thereof, and control program
JP5423851B2 (en) Electronic camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120711

R150 Certificate of patent or registration of utility model

Ref document number: 5042896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees