JP4315234B2 - Imaging apparatus and facial expression evaluation apparatus - Google Patents

Imaging apparatus and facial expression evaluation apparatus Download PDF

Info

Publication number
JP4315234B2
JP4315234B2 JP2008209119A JP2008209119A JP4315234B2 JP 4315234 B2 JP4315234 B2 JP 4315234B2 JP 2008209119 A JP2008209119 A JP 2008209119A JP 2008209119 A JP2008209119 A JP 2008209119A JP 4315234 B2 JP4315234 B2 JP 4315234B2
Authority
JP
Japan
Prior art keywords
facial expression
expression evaluation
image
evaluation value
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008209119A
Other languages
Japanese (ja)
Other versions
JP2008289189A (en
Inventor
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008209119A priority Critical patent/JP4315234B2/en
Publication of JP2008289189A publication Critical patent/JP2008289189A/en
Application granted granted Critical
Publication of JP4315234B2 publication Critical patent/JP4315234B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、固体撮像素子を用いて画像を撮像する撮像装置、および、撮像された顔の表情を評価する表情評価装置に関する。 The present invention relates to an imaging equipment for capturing an image using a solid-state image pickup element, and relates to the expression evaluation equipment for evaluating the expression of the captured face.

撮像装置において、シャッタボタンを押下する操作から一定時間経過後に自動的にシャッタを切る、いわゆるセルフタイマ機能は、銀塩カメラのみならず、デジタルスチルカメラにも一般的に搭載されている。しかし、このセルフタイマ機能によりシャッタが切られるタイミングは事前に決められたものとなるので、シャッタを切った時点で被撮影者が必ずしもよい表情となるという保証はなく、満足のいかない写真が撮像されることが少なくないという問題があった。   In an imaging apparatus, a so-called self-timer function that automatically releases a shutter after a predetermined time has elapsed since an operation of pressing a shutter button is generally mounted not only on a silver salt camera but also on a digital still camera. However, since the timing at which the shutter is released by this self-timer function is determined in advance, there is no guarantee that the subject will always have a good expression when the shutter is released, and an unsatisfactory photograph is taken. There was a problem that was often done.

一方、近年では、画像信号を基にデジタル演算処理する画像処理技術が急速に進んでおり、その例として、画像から人間の顔を検出する技術がある。例えば、顔画像中の2画素間の輝度差を特徴量として学習しておき、その特徴量に基づいて入力画像中の所定領域が顔であるか否かを示す推定値を算出し、その1以上の推定値から領域内の画像が顔であるか否かを最終的に判別するようにした顔検出技術があった(例えば、特許文献1参照)。   On the other hand, in recent years, an image processing technique for performing digital arithmetic processing based on an image signal is rapidly progressing, and as an example, there is a technique for detecting a human face from an image. For example, a luminance difference between two pixels in a face image is learned as a feature amount, and an estimated value indicating whether or not a predetermined region in the input image is a face is calculated based on the feature amount. There has been a face detection technique that finally determines whether or not an image in a region is a face from the above estimated values (see, for example, Patent Document 1).

このような顔検出技術は、デジタルスチルカメラなど、固体撮像素子で撮像を行うデジタル方式の撮像装置に搭載できるレベルまで開発が進んでおり、最近ではさらに、検出された顔の表情を判別する技術なども注目されている。例えば、連続して複数コマを撮像した画像信号から、被撮影者の顔の表情などを撮像画像ごとに評価し、それらの評価情報から好適な画像を選択できるようにすることが考えられている(例えば、特許文献2参照)。
特開2005−157679号公報(段落番号〔0040〕〜〔0052〕、図1) 特開2004−46591号公報(段落番号〔0063〕〜〔0071〕、図3)
Such face detection technology has been developed to a level that can be mounted on a digital imaging device that performs imaging with a solid-state imaging device such as a digital still camera, and more recently, a technology for discriminating detected facial expressions. Etc. are also attracting attention. For example, it is considered that a facial expression of a person to be photographed can be evaluated for each captured image from image signals obtained by continuously capturing a plurality of frames, and a suitable image can be selected from the evaluation information. (For example, refer to Patent Document 2).
Japanese Patent Laying-Open No. 2005-157679 (paragraph numbers [0040] to [0052], FIG. 1) JP 2004-46591 A (paragraph numbers [0063] to [0071], FIG. 3)

ところで、最近ではデジタル方式の撮像装置のメーカ間競争が激化していることから、このような撮像装置を高機能化して、その商品価値を高めることが強く求められている。また、上述したセルフタイマ機能の問題点のように、撮像した画像は撮影者や被撮影者にとって必ずしも満足のいくものとはならないことから、このような満足度を高めるべく撮像動作を補助する機能は、商品価値を高めるための非常に重要なものと言える。特に、発達の進んでいる画像処理技術を用いてこのような機能を実現することが望まれているが、撮像動作中にリアルタイムにその動作を補助するような機能は実現されていなかった。   Recently, competition between manufacturers of digital imaging devices has intensified, and there is a strong demand to increase the functionality of such imaging devices and increase their commercial value. In addition, as with the problem of the self-timer function described above, the captured image is not always satisfactory for the photographer and the person to be photographed. Therefore, a function for assisting the image capturing operation in order to increase such satisfaction. Can be said to be very important for increasing the product value. In particular, it is desired to realize such a function by using an image processing technique that has been developed, but a function that assists the operation in real time during an imaging operation has not been realized.

本発明はこのような課題に鑑みてなされたものであり、被撮影者あるいは撮影者にとってより満足度の高い画像を撮像することが可能な撮像装置を提供することを目的とする。
また、本発明の他の目的は、被撮影者あるいは撮影者にとってより満足度の高い画像を撮像することが可能な表情評価装置を提供することである。
The present invention has been made in view of such problems, and an object thereof is to provide an imaging equipment capable of capturing a higher satisfaction image for the photographer or the photographer.
Another object of the present invention is to provide a facial expression evaluation equipment capable of capturing a higher satisfaction image for the photographer or the photographer.

本発明では上記課題を解決するために、固体撮像素子を用いて画像を撮像する撮像装置において、撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出する顔検出部と、検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、前記特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、算出された前記表情評価値の大きさを視覚的に示す報知情報を報知する報知部と、前記表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録する画像記録制御部と、を有し、前記報知部は、前記表情評価値に応じて変化する前記報知情報と、前記しきい値の位置を前記報知情報の変化に対応させて示すしきい値情報とを、視覚的な情報として報知することを特徴とする撮像装置が提供される。 In the present invention, in order to solve the above-described problem, in an imaging apparatus that captures an image using a solid-state imaging device, the image signal is obtained from the image signal in a period until the image signal obtained by imaging is recorded on a recording medium. A face detection unit for detecting a face and the detected facial expression are evaluated, and a facial expression evaluation value indicating the degree of proximity between the specific facial expression and the specific facial expression is calculated. Obtained by imaging when the facial expression evaluation value exceeds a predetermined threshold value, an informing unit for informing the visual information indicating the magnitude of the calculated facial expression evaluation value, and the facial expression evaluation value An image recording control unit that automatically records the image signal on a recording medium, and the notification unit notifies the notification information that changes according to the facial expression evaluation value and the position of the threshold value. Show in response to changes in information And threshold information, the imaging device is provided, characterized in that the notification as a visual information.

このような撮像装置では、顔検出部が、撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出し、表情評価部が、顔検出部により検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する。画像記録制御部は、表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録する。報知部は、算出された表情評価値の大きさを視覚的に示す報知情報を報知するとともに、上記のしきい値の位置を報知情報の変化に対応させて示すしきい値情報も、視覚的な情報として報知するIn such an imaging apparatus, the face detection unit detects a human face from the image signal during a period until the image signal obtained by imaging is recorded on the recording medium, and the facial expression evaluation unit detects the face detection unit. The facial expression detected by the above is evaluated, and a facial expression evaluation value indicating the degree of closeness to the specific facial expression between the specific facial expression and the other facial expressions is calculated. The image recording control unit automatically records an image signal obtained by imaging on a recording medium when the facial expression evaluation value exceeds a predetermined threshold value. The notification unit notifies the notification information that visually indicates the magnitude of the calculated facial expression evaluation value, and the threshold information that indicates the position of the threshold corresponding to the change in the notification information is also visually Information is reported .

本発明の撮像装置によれば、撮像された画像信号を記録媒体に記録するまでの期間において、撮像された画像から人物の顔が検出され、その顔の表情が評価されて、その表情が、特定の表情とそれ以外の表情との間において、特定の表情にどれだけ近いかの度合いを示す表情評価値が算出され、表情評価値が所定のしきい値を超えると画像信号が自動的に記録される。そして、その表情評価値の大きさを視覚的に示す報知情報が、しきい値情報とともに報知される。従って、被撮影者の表情が撮像に適しているかを例えば被撮影者あるいは撮影者などに認識させることができるので、被撮影者や撮影者にとって満足度の高い画像を確実に記録媒体に記録できるようになる。
According to the imaging apparatus of the present invention, in the period until the captured image signal is recorded on the recording medium, a human face is detected from the captured image, the facial expression is evaluated, and the facial expression is A facial expression evaluation value indicating how close to a specific facial expression is calculated between a specific facial expression and other facial expressions. When the facial expression evaluation value exceeds a predetermined threshold value, the image signal is automatically Ru is recorded. And the alerting | reporting information which shows the magnitude | size of the facial expression evaluation value is alert | reported with threshold value information . Accordingly, since the photographer or the photographer can recognize whether the facial expression of the photographed person is suitable for imaging, for example, an image that is highly satisfactory for the photographed person or the photographer can be reliably recorded on the recording medium. It becomes like this.

以下、本発明の実施の形態を図面を参照して詳細に説明する。
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る撮像装置の要部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a main configuration of the imaging apparatus according to the first embodiment of the present invention.

図1に示す撮像装置は、デジタルスチルカメラあるいはデジタルビデオカメラなどとして実現されるものである。この撮像装置は、光学ブロック11、ドライバ11a、撮像素子12、タイミングジェネレータ(TG)12a、アナログフロントエンド(AFE)回路13、カメラ信号処理回路14、グラフィック処理回路15、ディスプレイ16、画像エンコーダ17、記録装置18、マイクロコンピュータ19、入力部20、LED(Light Emitting Diode)発光部21、および音声出力部22を具備する。   The imaging apparatus shown in FIG. 1 is realized as a digital still camera or a digital video camera. The imaging apparatus includes an optical block 11, a driver 11a, an imaging device 12, a timing generator (TG) 12a, an analog front end (AFE) circuit 13, a camera signal processing circuit 14, a graphic processing circuit 15, a display 16, an image encoder 17, A recording device 18, a microcomputer 19, an input unit 20, an LED (Light Emitting Diode) light emitting unit 21, and an audio output unit 22 are provided.

光学ブロック11は、被写体からの光を撮像素子12に集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構などを具備している。ドライバ11aは、マイクロコンピュータ19からの制御信号に基づいて、光学ブロック11内の各機構の駆動を制御する。   The optical block 11 includes a lens for condensing light from the subject on the image sensor 12, a drive mechanism for moving the lens to perform focusing and zooming, a shutter mechanism, an iris mechanism, and the like. The driver 11 a controls driving of each mechanism in the optical block 11 based on a control signal from the microcomputer 19.

撮像素子12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal Oxide Semiconductor)型などの固体撮像素子であり、TG12aから出力されるタイミング信号に基づいて駆動され、被写体からの入射光を電気信号に変換する。TG12aは、マイクロコンピュータ19の制御の下でタイミング信号を出力する。   The image pickup device 12 is a solid-state image pickup device such as a CCD (Charge Coupled Device) type or a CMOS (Complementary Metal Oxide Semiconductor) type, and is driven based on a timing signal output from the TG 12a to receive incident light from a subject. Convert to electrical signal. The TG 12 a outputs a timing signal under the control of the microcomputer 19.

AFE回路13は、撮像素子12から出力された画像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドを行い、さらにAGC(Auto Gain Control)処理により利得を制御し、A/D変換を行ってデジタル画像データを出力する。   The AFE circuit 13 performs sample hold on the image signal output from the image sensor 12 so as to maintain a good S / N (Signal / Noise) ratio by CDS (Correlated Double Sampling) processing, and further performs AGC (Auto The gain is controlled by gain control), A / D conversion is performed, and digital image data is output.

カメラ信号処理回路14は、AFE回路13からの画像データに対して、AF(Auto Focus)、AE(Auto Exposure)、各種画質補正処理のための検波処理や、検波情報を基にマイクロコンピュータ19から出力される信号に応じた画質補正処理を施す。なお、後述するように、本実施の形態では、このカメラ信号処理回路14は、顔検出機能およびその顔領域のデータを切り出す機能を備えている。   The camera signal processing circuit 14 performs detection processing for AF (Auto Focus), AE (Auto Exposure), various image quality correction processing on the image data from the AFE circuit 13, and from the microcomputer 19 based on detection information. Image quality correction processing is performed according to the output signal. As will be described later, in this embodiment, the camera signal processing circuit 14 has a face detection function and a function of extracting data of the face area.

グラフィック処理回路15は、カメラ信号処理回路14から出力された画像データを、ディスプレイ16に表示するための信号に変換し、ディスプレイ16に供給する。また、マイクロコンピュータ19からの要求に応じて、後述する表情スコアなどの情報を画像上に合成する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)などからなり、グラフィック処理回路15からの画像信号を基に画像を表示する。   The graphic processing circuit 15 converts the image data output from the camera signal processing circuit 14 into a signal for display on the display 16 and supplies the signal to the display 16. Further, in response to a request from the microcomputer 19, information such as a facial expression score, which will be described later, is synthesized on the image. The display 16 is composed of an LCD (Liquid Crystal Display), for example, and displays an image based on an image signal from the graphic processing circuit 15.

画像エンコーダ17は、カメラ信号処理回路14から出力された画像データを圧縮符号化し、符号化データを記録装置18に出力する。具体的には、カメラ信号処理回路14で処理された1フレーム分の画像データを、JPEG(Joint Photographic Experts Group)などの符号化方式に従って圧縮符号化し、静止画像の符号化データを出力する。なお、静止画像だけでなく、動画像のデータを圧縮符号化できるようにしてもよい。   The image encoder 17 compresses and encodes the image data output from the camera signal processing circuit 14 and outputs the encoded data to the recording device 18. Specifically, the image data for one frame processed by the camera signal processing circuit 14 is compression-encoded according to an encoding method such as JPEG (Joint Photographic Experts Group), and encoded data of a still image is output. Note that not only still images but also moving image data may be compressed and encoded.

記録装置18は、画像エンコーダ17からの符号化データを画像ファイルとして記録する装置であり、例えば、磁気テープ、光ディスクなどの可搬型記録媒体のドライブ装置、あるいはHDD(Hard Disk Drive)などとして実現される。   The recording device 18 is a device that records the encoded data from the image encoder 17 as an image file. For example, the recording device 18 is realized as a drive device of a portable recording medium such as a magnetic tape or an optical disk, or an HDD (Hard Disk Drive). The

マイクロコンピュータ19は、CPU(Central Processing Unit)や、ROM(Read Only Memory)、RAM(Random Access Memory)などのメモリを備え、メモリに格納されたプログラムを実行することで、この撮像装置を統括的に制御する。   The microcomputer 19 includes a memory such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The microcomputer 19 executes the program stored in the memory so that the imaging apparatus is integrated. To control.

入力部20は、各種の入力スイッチに対するユーザによる操作入力に応じた制御信号を、マイクロコンピュータ19に出力する。この入力スイッチとしては、例えば、シャッタレリーズボタン、各種メニュー選択や動作モードの設定などを行うための十字キーなどが設けられる。   The input unit 20 outputs a control signal corresponding to an operation input by the user to various input switches to the microcomputer 19. As this input switch, for example, a shutter release button, a cross key for selecting various menus, setting an operation mode, and the like are provided.

LED発光部21は、マイクロコンピュータ19からの制御信号に基づき、撮像装置の外装面に設けられたLEDを点灯させる。このLEDとしては、例えば、セルフタイマ機能の動作中であることを示すものなどが考えられる。   The LED light emitting unit 21 lights an LED provided on the exterior surface of the imaging device based on a control signal from the microcomputer 19. As this LED, for example, an LED indicating that the self-timer function is in operation can be considered.

音声出力部22は、マイクロコンピュータ19からの制御信号に基づき、例えば動作確認音などの音声を出力する。なお、音声データのエンコーダ/デコーダを備える場合には、この音声データを再生したときの再生音声を出力してもよい。   The sound output unit 22 outputs sound such as an operation confirmation sound based on a control signal from the microcomputer 19. In the case where an encoder / decoder for audio data is provided, the reproduced audio when the audio data is reproduced may be output.

この撮像装置では、撮像素子12によって受光されて光電変換された信号が、順次AFE回路13に供給され、CDS処理やAGC処理が施された後、デジタル画像データに変換される。カメラ信号処理回路14は、AFE回路13から供給された画像データを画質補正処理し、処理後の画像データはグラフィック処理回路15に供給されて表示用の画像信号に変換される。これによりディスプレイ16には、現在撮像中の画像(カメラスルー画像)がディスプレイ16に表示され、撮影者はこの画像を視認して画角を確認できるようになる。   In this image pickup apparatus, signals received and photoelectrically converted by the image pickup device 12 are sequentially supplied to the AFE circuit 13, subjected to CDS processing and AGC processing, and then converted into digital image data. The camera signal processing circuit 14 performs image quality correction processing on the image data supplied from the AFE circuit 13, and the processed image data is supplied to the graphic processing circuit 15 and converted into an image signal for display. As a result, the currently captured image (camera through image) is displayed on the display 16, and the photographer can view the image and check the angle of view.

また、この状態から、入力部20のシャッタレリーズボタンが押下されることなどにより、マイクロコンピュータ19に対して画像の記録が指示されると、カメラ信号処理回路14からの画像データは画像エンコーダ17に供給され、圧縮符号化処理が施されて、記録装置18に記録される。静止画像の記録の際には、カメラ信号処理回路14からは1フレーム分の画像データが画像エンコーダ17に供給され、動画像の記録の際には、処理された画像データが画像エンコーダ17に連続的に供給される。   In this state, when the microcomputer 19 is instructed to record an image by pressing the shutter release button of the input unit 20, the image data from the camera signal processing circuit 14 is sent to the image encoder 17. Supplied, subjected to compression encoding processing, and recorded in the recording device 18. When recording a still image, image data for one frame is supplied from the camera signal processing circuit 14 to the image encoder 17, and when recording a moving image, the processed image data is continuously transmitted to the image encoder 17. Supplied.

次に、この撮像装置が備える撮像動作モードについて説明する。この撮像装置は、静止画像を撮像する際に、撮像画像から被撮影者の顔を検出して、その表情を評価し、評価の度合いを示す情報を被撮影者に報知するモードと、その評価の度合いに応じて自動的にシャッタを切り、静止画像データを記録装置18に記録するモードとを備えている。以下、前者モードを「表情評価モード」、後者を「表情応答記録モード」と呼ぶことにする。   Next, an imaging operation mode provided in the imaging apparatus will be described. This imaging device detects a subject's face from the captured image when taking a still image, evaluates the facial expression, and informs the subject of information indicating the degree of evaluation, and its evaluation. A mode in which the shutter is automatically released in accordance with the degree of recording and still image data is recorded in the recording device 18. Hereinafter, the former mode is referred to as “expression evaluation mode” and the latter is referred to as “expression response recording mode”.

表情評価モードでは、撮像画像から顔を検出した場合に、その顔の表情を評価し、評価に応じた情報を被撮影者に報知して、被撮影者がより撮像に適した表情になるように促す役割を果たす。例えば、表情として笑顔であるか否かの度合いを評価する。また、表情応答記録モードでは、その評価値が所定の値を超えたときに、被撮影者の顔が撮像に適した表情になったと判断して、自動的に静止画像データを記録する。これにより、被撮影者にとってより満足度の高い画像を記録できるように補助する。なお、ここでは表情評価モードと表情応答記録モードの2つのモードを備えるものとしているが、表情応答記録モードのみを備えていてもよい。   In the facial expression evaluation mode, when a face is detected from a captured image, the facial expression is evaluated, and information corresponding to the evaluation is notified to the photographed person so that the photographed person has a more suitable expression for imaging. Play a role in encouraging. For example, the degree of whether or not the face is a smile is evaluated. Further, in the facial expression response recording mode, when the evaluation value exceeds a predetermined value, it is determined that the face of the subject has become a facial expression suitable for imaging, and still image data is automatically recorded. This helps to record an image that is more satisfactory for the subject. Here, two modes, the facial expression evaluation mode and the facial expression response recording mode, are provided, but only the facial expression response recording mode may be provided.

図2は、表情評価モードおよび表情応答記録モードを実現するために撮像装置が備える機能を示すブロック図である。
図2に示すように、この撮像装置は、上記各撮像動作モードを実現するための機能として、顔検出部31、顔画像生成部32、表情評価部41、報知制御部42、および記録動作制御部43を備えている。本実施の形態では、顔検出部31および顔画像生成部32は、カメラ信号処理回路14内のハードウェアによって実現され、表情評価部41、報知制御部42および記録動作制御部43は、マイクロコンピュータ19によって実行されるソフトウェアの機能として実現される。ただし、これらの機能のそれぞれは、ハードウェアあるいはソフトウェアのいずれによって実現されてもよい。また、マイクロコンピュータ19は、表情評価部41による表情評価演算に用いるための判別軸情報44を、その内部のROMなどのメモリにあらかじめ保持している。後述するように、判別軸情報44は、2つの表情についての多数の顔のサンプルデータから主成分分析によって得た信号成分を基に、線形判別分析を行って得た表情の判別軸を示すベクトルの係数情報などを含む。
FIG. 2 is a block diagram illustrating functions of the imaging apparatus for realizing the facial expression evaluation mode and the facial expression response recording mode.
As shown in FIG. 2, the imaging apparatus has a face detection unit 31, a face image generation unit 32, a facial expression evaluation unit 41, a notification control unit 42, and a recording operation control as functions for realizing each imaging operation mode. A portion 43 is provided. In the present embodiment, the face detection unit 31 and the face image generation unit 32 are realized by hardware in the camera signal processing circuit 14, and the facial expression evaluation unit 41, the notification control unit 42, and the recording operation control unit 43 include a microcomputer. 19 is realized as a function of software executed by the computer 19. However, each of these functions may be realized by either hardware or software. Further, the microcomputer 19 holds in advance a discriminant axis information 44 for use in facial expression evaluation calculation by the facial expression evaluation unit 41 in a memory such as a ROM therein. As will be described later, the discriminant axis information 44 is a vector indicating the discriminant axis of facial expressions obtained by performing linear discriminant analysis based on signal components obtained by principal component analysis from sample data of a large number of faces for two facial expressions. Including coefficient information.

ここで、以下の図3および図4を用いて、図2に示した各機能の動作を説明する。まず、図3は、表情評価モードにおける動作の概要を示す図である。
表情評価モードでは、まず、顔検出部31が、撮像素子12による撮像により得られ、カメラ信号処理回路14内を伝達される画像データを基に、その画像から被撮影者の顔を検出する(ステップS1)。そして、検出した顔の領域を示す検出情報を顔画像生成部32に出力する。なお、本実施の形態のように、表情評価値に応じた情報をディスプレイ16に表示することで報知する場合、顔検出部31からの顔の検出情報は、マイクロコンピュータ19の報知制御部42にも供給される。
Here, the operation of each function shown in FIG. 2 will be described with reference to FIGS. 3 and 4 below. First, FIG. 3 is a diagram showing an outline of the operation in the facial expression evaluation mode.
In the facial expression evaluation mode, first, the face detector 31 detects the face of the subject from the image based on the image data obtained by imaging by the image sensor 12 and transmitted through the camera signal processing circuit 14 ( Step S1). Then, detection information indicating the detected face area is output to the face image generation unit 32. Note that, when notifying by displaying information corresponding to the facial expression evaluation value on the display 16 as in the present embodiment, the face detection information from the face detection unit 31 is sent to the notification control unit 42 of the microcomputer 19. Is also supplied.

顔の検出手法としては周知の手法を適用することが可能であるが、例えば、特許文献1に記載された手法を用いることができる。この手法では、まず、顔画像中の2画素間の輝度差を学習し、特徴量としてあらかじめ保持しておく。そして、図3のステップS1の欄に示すように、入力画像に対して一定の大きさのウィンドウW1を順次当てはめていき、ウィンドウW1の中の画像に顔が含まれるか否かを特徴量を基に推定して、推定値を出力する。このとき、入力画像を順次縮小して同じ処理を行うことで、一定の大きさのウィンドウW1を用いて推定を行うことができる。そして、それらの動作により得られた推定値から、顔が存在する領域を最終的に判別する。   As a face detection method, a known method can be applied. For example, the method described in Patent Document 1 can be used. In this method, first, a luminance difference between two pixels in a face image is learned and stored in advance as a feature amount. Then, as shown in the column of step S1 in FIG. 3, a window W1 having a certain size is sequentially applied to the input image, and a feature amount is determined as to whether or not a face is included in the image in the window W1. Based on the estimation, the estimated value is output. At this time, it is possible to perform estimation using a window W1 having a certain size by sequentially reducing the input image and performing the same processing. Then, the region where the face exists is finally determined from the estimated values obtained by these operations.

次に、顔画像生成部32は、入力画像から、検出された顔の領域Afのデータを切り出す(ステップS2)。そして、切り出した画像データを一定サイズの画像データに変換して正規化し、表情評価部41に供給する(ステップS3)。   Next, the face image generation unit 32 cuts out data of the detected face area Af from the input image (step S2). Then, the cut-out image data is converted into image data of a certain size, normalized, and supplied to the facial expression evaluation unit 41 (step S3).

ここで、本実施の形態では、顔検出部31から出力される顔の検出情報の例として、顔の周囲を囲む長方形の検出枠の位置(例えば左端の座標。以下、顔の位置情報と呼ぶ。)と、その検出枠のサイズ(例えば水平・垂直方向の各画素数。以下、顔のサイズ情報と呼ぶ。)が出力されるものとする。この場合、顔画像生成部32は、顔の検出対象とされた画像データが一時的に記憶されたメモリ(RAM)にアクセスし、顔検出部31からの顔の位置情報およびサイズ情報に対応する領域のデータのみを読み込む。   Here, in this embodiment, as an example of face detection information output from the face detection unit 31, the position of a rectangular detection frame surrounding the face (for example, the coordinates of the left end; hereinafter referred to as face position information). )) And the size of the detection frame (for example, the number of pixels in the horizontal and vertical directions, hereinafter referred to as face size information). In this case, the face image generation unit 32 accesses a memory (RAM) in which image data to be detected as a face is temporarily stored, and corresponds to the face position information and size information from the face detection unit 31. Read only area data.

また、切り出された画像データは、一定サイズ(解像度)の画像データとして解像度変換されることで正規化される。この正規化後の画像サイズは、表情評価部41において顔の表情を評価する際の処理単位となるサイズとなる。本実施の形態では、例として48画素×48画素のサイズとする。   Further, the cut out image data is normalized by converting the resolution as image data of a certain size (resolution). The normalized image size is a size that becomes a processing unit when the facial expression evaluation unit 41 evaluates facial expressions. In this embodiment, the size is 48 pixels × 48 pixels as an example.

なお、顔画像生成部32が備える上記のような画像切り出し機能および解像度変換機能としては、従来のカメラ信号処理回路14が検波や出力画像の生成などのために一般的に備えている同様の機能を流用することが可能である。   Note that the image clipping function and resolution conversion function as described above provided in the face image generation unit 32 are the same functions that the conventional camera signal processing circuit 14 generally includes for detection and generation of an output image. Can be diverted.

次に、表情評価部41は、顔画像生成部32からの顔の正規化画像データと、あらかじめ記憶されている判別軸情報44とを基に、その顔の表情の度合いを評価する演算を行って、表情評価値を出力する(ステップS4)。この表情評価値は、2つの表情のうちどちらの表情に近いかの度合いを示すものである。例えば、2つの表情として「笑顔」と「通常時の表情」を適用し、表情評価値が高いほど「通常時の表情」でなく「笑顔」である度合いが強いと評価する。なお、この表情評価値の算出手法については後述する。   Next, the expression evaluation unit 41 performs an operation for evaluating the degree of expression of the face based on the normalized image data of the face from the face image generation unit 32 and the discrimination axis information 44 stored in advance. The facial expression evaluation value is output (step S4). This facial expression evaluation value indicates the degree to which of the two facial expressions is closer. For example, “smile” and “normal facial expression” are applied as two facial expressions, and it is evaluated that the higher the facial expression evaluation value, the stronger the degree of “smiling” than “normal facial expression”. A method for calculating the facial expression evaluation value will be described later.

次に、報知制御部42は、表情評価部41から出力された表情評価値に応じた情報を、被撮影者に対して報知する(ステップS5)。例えば、表情評価値に応じた情報は、グラフィック処理回路15を通じて、被撮影者側に向けられたディスプレイ16に表示される。この場合、顔検出部31から供給された顔の位置およびサイズ情報を基に、評価対象の顔をディスプレイ16の中で特定するような表示が行われてもよい。また、LED発光部21を利用して、例えばその輝度の変化や点滅速度の変化、色の変化などにより表情評価値に違いが報知されてもよい。あるいは、音声出力部22を通じて、表情評価値に応じた異なる音声が出力されることで報知されてもよい。   Next, the notification control unit 42 notifies the subject of information according to the facial expression evaluation value output from the facial expression evaluation unit 41 (step S5). For example, information corresponding to the facial expression evaluation value is displayed on the display 16 directed toward the subject through the graphic processing circuit 15. In this case, based on the face position and size information supplied from the face detection unit 31, display may be performed in which the face to be evaluated is specified in the display 16. Further, the LED light emitting unit 21 may be used to notify the difference in the facial expression evaluation value due to, for example, a change in luminance, a change in blinking speed, a change in color, or the like. Or you may alert | report by outputting the different audio | voice according to a facial expression evaluation value through the audio | voice output part 22. FIG.

以下の説明では、表情評価部41は、例として顔の表情が笑顔であるか無表情であるかの度合いを評価するものとする。また、本実施の形態では、特に、その表情評価値に応じた情報を、被撮影者側に表示面を向けたディスプレイ16に表示することで、被撮影者に報知する。図3では、表情評価値に応じた値である「笑顔スコア」を示すバーグラフをディスプレイ16に表示した例を示している。   In the following description, it is assumed that the facial expression evaluation unit 41 evaluates, for example, the degree of whether the facial expression is a smile or no expression. In the present embodiment, in particular, information corresponding to the facial expression evaluation value is displayed on the display 16 with the display surface facing the subject to be notified to the subject. FIG. 3 shows an example in which a bar graph indicating “smile score” which is a value corresponding to the facial expression evaluation value is displayed on the display 16.

図4は、笑顔スコアを示すバーグラフの動きを説明するための図である。
この図4に示すように、表情評価値は、顔の表情が笑顔である度合いが強いほど高くなり、通常時の表情である度合いが高いほど低くなる。また、バーグラフに示される笑顔スコアは、表情評価値に比例して連続的あるいは段階的に変動する。このバーグラフは、被撮影者側に向けられたディスプレイ16に表示され、被撮影者は撮像時にこのバーグラフをリアルタイムで視認することで、自分の表情が撮像に適した笑顔になっているか否かを認識できる。その結果、バーグラフは、被撮影者に対して撮像に適した表情になるように促し、より良好な画像を撮像できるように撮像動作を補助する機能を果たす。なお、後述するように、表情評価値の低い被撮影者に対して、笑顔を促すような具体的な文字情報などを表示してもよい。
FIG. 4 is a diagram for explaining the movement of the bar graph indicating the smile score.
As shown in FIG. 4, the facial expression evaluation value increases as the degree of facial expression is a smile, and decreases as the degree of facial expression is high. In addition, the smile score shown in the bar graph varies continuously or stepwise in proportion to the facial expression evaluation value. This bar graph is displayed on the display 16 directed toward the subject, and the subject sees the bar graph in real time during imaging, so that his / her facial expression is a smile suitable for imaging. Can be recognized. As a result, the bar graph functions to assist the imaging operation so as to prompt the subject to have a facial expression suitable for imaging and to capture a better image. Note that, as will be described later, specific character information or the like that encourages a smile to a subject who has a low facial expression evaluation value may be displayed.

ここで、「表情応答記録モード」に設定されていた場合、表情評価部41は、表情評価値が所定のしきい値を超えた場合に、自動的にシャッタを切る、すなわち撮像画像を記録するように制御する。図2において、記録動作制御部43は、撮像画像データの記録動作を制御するブロックであり、通常の撮像動作では、入力部20のシャッタレリーズボタンが押下されたことを検知したときに、撮像装置内の各部を記録時に適した撮像動作(例えば露光動作や信号処理動作)を行うように制御し、それによって撮像画像データを、画像エンコーダ17にエンコードさせ、符号化データを記録装置18に記録させる。そして、表情評価部41は、表情評価値が所定のしきい値を超えたとき、この記録動作制御部43に対して画像データの記録動作を実行するように要求する。   Here, when the “expression response recording mode” is set, the expression evaluation unit 41 automatically releases the shutter, that is, records a captured image when the expression evaluation value exceeds a predetermined threshold value. To control. In FIG. 2, the recording operation control unit 43 is a block that controls the recording operation of the captured image data. In a normal imaging operation, the imaging operation device 43 detects when the shutter release button of the input unit 20 is pressed. Are controlled so as to perform an imaging operation (for example, an exposure operation and a signal processing operation) suitable for recording, thereby causing the image encoder 17 to encode the captured image data and causing the recording device 18 to record the encoded data. . Then, the facial expression evaluation unit 41 requests the recording operation control unit 43 to execute an image data recording operation when the facial expression evaluation value exceeds a predetermined threshold value.

これにより、撮像画像から顔が検出され、その顔の表情が撮像に適した状態になったとき(ここでは笑顔の度合いが強くなったとき)に、そのときの撮像画像が自動的に記録されるようになる。従って、従来のセルフタイマ機能(すなわち、シャッタレリーズボタンを押下して一定時間後に撮像画像を記録する機能)と比較して、被撮影者が良好な表情で映った画像を確実に撮像できるようになり、被撮影者や撮影者の満足度を高めることができる。   As a result, when a face is detected from the captured image and the facial expression is suitable for imaging (in this case, when the degree of smile increases), the captured image at that time is automatically recorded. Become so. Therefore, as compared with the conventional self-timer function (that is, a function of recording a captured image after a certain period of time by pressing the shutter release button), the photographed person can surely capture an image with a good expression. Thus, the satisfaction level of the subject and the photographer can be increased.

次に、ディスプレイ16における笑顔スコアの具体的な表示画面の例について説明する。
図5は、バーグラフを用いた笑顔スコアの画面表示例を示す図である。
Next, a specific example of a smile score display screen on the display 16 will be described.
FIG. 5 is a diagram illustrating a screen display example of a smile score using a bar graph.

この図5では、撮像装置としてデジタルビデオカメラ100を想定している。デジタルビデオカメラ100では、カメラ本体部101の側面に、画角確認用のディスプレイ16が設けられている。このような構成のデジタルビデオカメラ100では、一般的にディスプレイ16の表示面の角度や方向が可変になっており、図5のように表示面を撮像レンズ102が設けられた方向、すなわち被撮影者の方向に向けることも可能になっている。表情評価モードおよび表情応答記録モードでは、このようにディスプレイ16の表示面を撮影者側に向けた状態で使用され、撮像されている被写体の画像とともに、表情評価値に応じた情報が表示される。   In FIG. 5, a digital video camera 100 is assumed as the imaging apparatus. In the digital video camera 100, a display 16 for checking the angle of view is provided on the side surface of the camera body 101. In the digital video camera 100 having such a configuration, the angle and direction of the display surface of the display 16 are generally variable, and the display surface is in the direction in which the imaging lens 102 is provided as shown in FIG. It is also possible to point in the direction of the person. In the facial expression evaluation mode and the facial expression response recording mode, the display 16 is used with the display surface facing the photographer as described above, and information corresponding to the facial expression evaluation value is displayed together with the image of the imaged subject. .

図5の画面表示例では、顔201を含む撮像画像の上に笑顔スコア表示部202が合成されて表示されている。笑顔スコア表示部202には、表情評価値に応じた笑顔スコアがバーグラフ203として表示されているとともに、数値表示部204にその笑顔スコアが数値として表示されている。また、表情応答記録モードでは、自動的に撮像画像が記録されるときの笑顔スコアの境界を示す境界表示アイコン205が表示される。この例ではさらに、境界表示アイコン205の上に、しきい値が数値によって表示されている。   In the screen display example of FIG. 5, the smile score display unit 202 is synthesized and displayed on the captured image including the face 201. The smile score display unit 202 displays a smile score corresponding to the facial expression evaluation value as a bar graph 203, and the numerical value display unit 204 displays the smile score as a numerical value. In the facial expression response recording mode, a boundary display icon 205 indicating the boundary of the smile score when the captured image is automatically recorded is displayed. In this example, the threshold value is further displayed numerically on the boundary display icon 205.

また、図5の例では、笑顔スコア表示部202とともに、その笑顔スコアに対応する顔201の周囲に顔表示枠206を表示して、笑顔の評価対象の顔201をわかりやすく表示している。さらに、その顔表示枠206の近傍に、表情評価値に応じて異なる文字を表示する文字表示部207を設け、笑顔である度数が低いほどより強い笑顔にするように、被撮影者に対して文字によって促すようにしている。   In the example of FIG. 5, together with the smile score display unit 202, a face display frame 206 is displayed around the face 201 corresponding to the smile score, and the smile evaluation target face 201 is displayed in an easy-to-understand manner. Further, in the vicinity of the face display frame 206, a character display unit 207 that displays different characters according to the facial expression evaluation value is provided, and the smile is more intense as the frequency of smiles is reduced. Prompt by letters.

また、表情応答記録モードでは、撮像画像が記録される際の表情評価値のしきい値をユーザが任意に設定できるようにして、被撮影者がどの程度の笑顔となったときの画像を得たいかを自由に決められるようにしてもよい。図5の例では、例えば入力部20に設けられた左右方向の方向キー(図示せず)をユーザが押下することで、表情評価値のしきい値が変化するとともに、境界表示アイコン205が左右に移動して、表情評価値のしきい値に対応する笑顔スコアをユーザが視認できるようになっている。この場合、表情応答記録モードに設定されたときに、左右方向の方向キーを表情評価値のしきい値を設定するためのキーとして自動的に対応付けるようにしてもよく、これによりユーザの操作性を向上させることができる。   Also, in the facial expression response recording mode, the user can arbitrarily set a threshold value for facial expression evaluation values when a captured image is recorded, and an image when the subject is smiling is obtained. You may be free to decide what you want. In the example of FIG. 5, for example, when the user presses a left / right direction key (not shown) provided in the input unit 20, the threshold value of the facial expression evaluation value is changed, and the boundary display icon 205 is The smile score corresponding to the threshold value of the facial expression evaluation value can be visually recognized by the user. In this case, when the facial expression response recording mode is set, the left and right direction keys may be automatically associated as keys for setting the facial expression evaluation value threshold value. Can be improved.

なお、表情評価値のしきい値の変更は上記の手法に限らず、例えば、メニュー画面から選択される専用の設定画面から行うようにしてもよい。また、専用の操作キーを設けて行うようにしてもよい。また、ディスプレイ16がタッチパネル方式の場合は、例えばディスプレイ16上に表示させたキー画像に指を接触させることで、しきい値を変更してもよい。また、図5の境界表示アイコン205に指を接触させたまま左右に動かすことで、しきい値を変更できるようにしてもよい。   Note that the change in the threshold value of the facial expression evaluation value is not limited to the above method, and may be performed, for example, from a dedicated setting screen selected from the menu screen. Alternatively, a dedicated operation key may be provided. When the display 16 is a touch panel system, the threshold value may be changed by bringing a finger into contact with a key image displayed on the display 16, for example. Further, the threshold value may be changed by moving the finger in contact with the boundary display icon 205 in FIG.

また、撮像画面内から複数の顔が検出された場合には、それらの顔ごとに表情評価値を算出し、それらの値に応じた情報をディスプレイ16に表示してもよい。図6は、複数の顔が検出された場合における表情評価値に応じた情報の第1の画面表示例を示す図である。   When a plurality of faces are detected from the imaging screen, facial expression evaluation values may be calculated for each of the faces, and information corresponding to those values may be displayed on the display 16. FIG. 6 is a diagram illustrating a first screen display example of information according to facial expression evaluation values when a plurality of faces are detected.

図6では例として、2つの顔211および212が検出された例を示している。顔211および212のそれぞれには、顔領域の周囲に顔表示枠213および214が表示されているとともに、その近傍に文字表示部215および216が設けられている。顔表示枠213および214は、それぞれの顔211および212に対する表情評価値に応じてその線種が変化するようにされ、文字表示部215および216には、表情評価値に応じた異なる文字が表示される。   FIG. 6 shows an example in which two faces 211 and 212 are detected as an example. In each of the faces 211 and 212, face display frames 213 and 214 are displayed around the face area, and character display portions 215 and 216 are provided in the vicinity thereof. The face display frames 213 and 214 are configured such that their line types change according to the expression evaluation values for the faces 211 and 212, and the character display units 215 and 216 display different characters according to the expression evaluation values. Is done.

図6の例では、顔211については十分に強い笑顔であると評価されているが、顔212については笑顔の度合いが足りないと評価されている。例えば、顔211については表情評価値が自動記録のしきい値に達しているが、顔212については表情評価値がそのしきい値より少し低い状態を示している。このとき、顔211についての顔表示枠213を実線、顔212についての顔表示枠214を破線としてこのような評価状態の違いを対応する被撮影者に報知するとともに、文字表示部216にはさらに笑顔を強めることを促す文字情報を表示している。なお、この例では顔表示枠213および214の線種により表情評価値の違いを表しているが、その他に例えば、顔表示枠の輝度の違いや色の違い、太さの違いなどにより、表情評価値の違いを報知してもよい。   In the example of FIG. 6, the face 211 is evaluated to have a sufficiently strong smile, but the face 212 is evaluated to have an insufficient smile level. For example, the facial expression evaluation value for the face 211 has reached the automatic recording threshold, but the facial expression evaluation value for the face 212 is slightly lower than the threshold. At this time, the face display frame 213 for the face 211 is indicated by a solid line, the face display frame 214 for the face 212 is indicated by a broken line, and the corresponding subject is notified of the difference in the evaluation state. Character information that encourages smiling is displayed. In this example, the difference in facial expression evaluation value is represented by the line type of the face display frames 213 and 214, but other expressions such as differences in brightness, color, thickness, etc. of the face display frames are also possible. You may alert | report the difference in an evaluation value.

図7は、複数の顔が検出された場合における表情評価値に応じた情報の第2の画面表示例を示す図である。
図7の例でも、図6と同様に2つの顔211および212が検出され、顔211については十分に強い笑顔であると評価され、顔212については笑顔の度合いが足りないと評価されている。また、図7の例では、顔211および212の各領域の近傍に、表情評価値に応じた記号217および218を示すことで、表情評価値の違いを被撮影者に報知している。
FIG. 7 is a diagram illustrating a second screen display example of information corresponding to facial expression evaluation values when a plurality of faces are detected.
In the example of FIG. 7 as well, two faces 211 and 212 are detected as in FIG. 6, the face 211 is evaluated as having a sufficiently strong smile, and the face 212 is evaluated as having insufficient smile. . In the example of FIG. 7, the difference between the facial expression evaluation values is notified to the subject by indicating symbols 217 and 218 corresponding to the facial expression evaluation values in the vicinity of each area of the faces 211 and 212.

以上のように、表情評価値に応じた情報をディスプレイを用いて報知することで、表情評価値に応じた笑顔スコアをバーグラフや数値で示す、あるいは、表情評価値に応じて顔表示枠の線種や色、明るさなどを変える、顔の近傍に表情評価値に応じて笑顔を促すような文字を表示するなど、様々な方法で表情評価値に応じた情報を被撮影者にわかりやすく報知することができる。特に、デジタルビデオカメラの場合、従来から設けられていた表示面方向可変のディスプレイを用いて報知できるので、カメラの基本的な構成を変えることによる大幅な開発・製造コストの上昇を招くことなく、ユーザにとって満足度の高い画像を確実に記録することができるようになる。   As described above, by displaying information according to the facial expression evaluation value using the display, the smile score according to the facial expression evaluation value is indicated by a bar graph or a numerical value, or the face display frame is displayed according to the facial expression evaluation value. Various information can be used to make the subject's facial expression evaluation value easy to understand, such as changing the line type, color, brightness, etc. Can be notified. In particular, in the case of a digital video camera, since it can be notified using a display surface direction variable display that has been provided conventionally, without significantly increasing the development and manufacturing costs by changing the basic configuration of the camera, An image having a high degree of satisfaction for the user can be reliably recorded.

なお、以上では表示面方向可変のディスプレイが搭載されたデジタルビデオカメラを例に挙げたが、撮像レンズとは反対の面に画角確認用のディスプレイが設けられるデジタルスチルカメラなどにも、そのディスプレイの表示面方向が可変のものがあり、その表示面を被撮影者側に向けることができれば、上記のような表示画像を表示させて表情評価値に応じた情報を被撮影者に報知することが可能である。   In the above, a digital video camera equipped with a display with a variable display screen direction is taken as an example, but the display is also applied to a digital still camera or the like provided with a display for checking the angle of view on the surface opposite to the imaging lens. If the display surface direction is variable and the display surface can be directed to the subject, the display image as described above is displayed to inform the subject of information according to the facial expression evaluation value. Is possible.

次に、この撮像装置で用いる表情評価の手法について説明する。
図8は、表情評価のために事前に生成すべき情報と、その情報生成の流れについて概念的に示す図である。
Next, a facial expression evaluation method used in this imaging apparatus will be described.
FIG. 8 is a diagram conceptually showing information to be generated in advance for facial expression evaluation and the flow of information generation.

本実施の形態では、表情の評価手法として、いわゆる「フィッシャー(Fisher)の線形判別分析」の手法を用いる。この手法では、まず、2つの表情をそれぞれ持つ顔のサンプル画像を事前に多数用意しておき、これらのサンプル画像のデータを基に、2つの表情間の2クラス問題と考えて、線形判別分析(LDA:Linear Discriminant Analysis)によりこれらの2つの表情をよく判別する判別軸Adを事前に形成しておく。そして、表情評価の際には、入力された顔画像のデータと判別軸Adとの内積を求めることで、表情評価値を算出する。 In this embodiment, a so-called “Fisher linear discriminant analysis” technique is used as an expression evaluation technique. In this method, first, a large number of face sample images each having two facial expressions are prepared in advance. Based on the data of these sample images, a two-class problem between the two facial expressions is considered, and linear discriminant analysis is performed. (LDA: Linear discriminant Analysis) are formed in advance discriminant axis a d to determine well these two expressions by. Then, at the time of facial expression evaluation, by obtaining the inner product of the data in the input face image and the discriminant axis A d, and calculates a facial expression evaluation value.

図8に示すように、本実施の形態では、笑顔のサンプル画像Psと通常の表情のサンプル画像Pnを用いる。これらのサンプル画像PsおよびPnは、例えば48画素×48画素の一定サイズに正規化した画像として用意しておく。そして、これらのサンプル画像のデータを(48×48)次元のベクトルデータとして取り扱い、LDA処理を行う。ただし、このベクトル空間は(48×48)本の座標軸を持つ非常に次元の大きい空間となる。そこで、LDA処理に先立って、それらのベクトルデータに対して主成分分析(PCA:Principal Component Analysis)を行い、顔の特徴だけを効率よく表すような次元の低い空間のデータに変換(次元圧縮)する。   As shown in FIG. 8, in this embodiment, a smiling sample image Ps and a normal facial expression sample image Pn are used. These sample images Ps and Pn are prepared as images normalized to a constant size of 48 pixels × 48 pixels, for example. Then, the data of these sample images is handled as (48 × 48) -dimensional vector data, and LDA processing is performed. However, this vector space is a very large space having (48 × 48) coordinate axes. Therefore, prior to LDA processing, principal component analysis (PCA) is performed on these vector data to convert them into low-dimensional space data that efficiently represents only facial features (dimensional compression). To do.

このPCA処理では、まず、入力されたM個(例えばM=300)のN次元(N=48×48)のサンプル画像群間のバラツキ(分散)が最大になるように、M本の軸を得ることを考える。このような軸は、画像群の共分散行列の固有値問題の解(固有ベクトル)として求められ、係数の比較的大きいベクトル成分のみを主成分として取り出すことで、顔の特徴を表すのに適したベクトル成分のみのN’次元(N>>N’)のデータに圧縮することができる。例えばN’=40程度とすることで、顔の表情判別について十分な精度を維持できることがわかっている。なお、PCA処理で得られた主成分のうち、係数の大きいものから順に数個程度除外することで、表情判別精度を保ちつつ、次元数をさらに減らして次のPCA処理の負荷を軽減できる。   In this PCA process, first, M axes are set so that the variation (variance) between input M (for example, M = 300) N-dimensional (N = 48 × 48) sample image groups is maximized. Think about getting. Such an axis is obtained as a solution (eigenvector) of the eigenvalue problem of the covariance matrix of the image group, and a vector suitable for representing facial features by extracting only vector components having relatively large coefficients as principal components. The data can be compressed into N′-dimensional (N >> N ′) data of only components. For example, it has been found that by setting N ′ = 40 or so, sufficient accuracy can be maintained for facial expression discrimination. It should be noted that, by removing about several main components obtained from the PCA processing in descending order of the coefficient, the number of dimensions can be further reduced and the load of the next PCA processing can be reduced while maintaining facial expression discrimination accuracy.

ここで、図9は、PCA処理時に入力するサンプル画像のマスキング処理について説明するための図である。
図9(A)のように、顔221が所定サイズの矩形領域に撮像されたサンプル画像Pをそのまま用いてPCA処理を行った場合、顔221の背景や髪などの影響により、適切な主成分を必ずしも選択できない場合があり得る。このため、図9(B)のように、顔221以外の領域にマスク222をかけて、できるだけ顔領域のみが残されたサンプル画像P1に変換し、顔の情報濃度を上げた状態でPCA処理することで、より高精度な次元圧縮を行うことができる。さらに、顔領域の中でも口は表情によって大きく変化し、擾乱要素となることが多いので、図9(C)のように口の領域までもマスク223をかけたサンプル画像P2を用いてPCA処理することで、さらに次元圧縮の精度を高めることができる。
Here, FIG. 9 is a diagram for explaining the masking process of the sample image input during the PCA process.
As shown in FIG. 9A, when the PCA process is performed using the sample image P in which the face 221 is captured in a rectangular area of a predetermined size as it is, an appropriate main component is affected by the influence of the background of the face 221 and the hair. May not necessarily be selected. For this reason, as shown in FIG. 9B, a mask 222 is applied to an area other than the face 221 to convert it into a sample image P1 in which only the face area remains as much as possible, and the PCA process is performed with the face information density increased. By doing so, more accurate dimensional compression can be performed. Furthermore, since the mouth greatly changes depending on the facial expression in the face area and often becomes a disturbance factor, the mouth area is also subjected to PCA processing using the sample image P2 with the mask 223 as shown in FIG. 9C. Thus, the accuracy of dimensional compression can be further increased.

以下、図8に戻って説明すると、PCA処理によって次元圧縮された笑顔、通常の表情の各サンプル画像は、顔の特徴を効率よく表すような座標軸のみを持つ部分空間(PCA空間Spca)上のベクトルデータに変換される。図8では、このPCA空間Spcaに、笑顔、通常の表情の各サンプル画像PsおよびPnが射影された様子を模式的に表している。この図のように、PCA空間Spcaの上では、表情が同じサンプル画像は比較的近くに存在すると言える。そこで、これらの各表情のサンプル画像群を2つのクラスタCLsおよびCLnと捉え、これらのクラスタ同士を最もよく分離する射影軸(判別軸Ad)をLDA処理により形成する。このような判別軸Adは“フィッシャーの射影軸”と呼ばれる。 In the following, referring back to FIG. 8, each sample image of a smile and a normal expression that has been dimensionally compressed by the PCA process is on a partial space (PCA space Spca ) having only coordinate axes that efficiently represent facial features. To vector data. FIG. 8 schematically shows how the sample images Ps and Pn of smiles and normal expressions are projected onto the PCA space Spca . As shown in this figure, on the PCA space Spca , it can be said that sample images having the same expression exist relatively close to each other. Therefore, the sample image group of each expression is regarded as two clusters CL s and CL n, and a projection axis (discriminant axis A d ) that best separates these clusters is formed by LDA processing. Such a discriminant axis Ad is called a “Fischer projection axis”.

LDA処理では、一般的に、N’次元の固有ベクトル上に射影されたクラス内およびクラス間の分散が最大になるような判別軸が求められる。すなわち、クラス内、クラス間の各共分散行列の最大固有値に対応する固有ベクトルを求め、これを判別軸Ad上のベクトル(フィッシャー・ベクトル)とする。各共分散行列と固有値、固有ベクトルとの関係を、式(1)および(2)に示す。 In the LDA process, generally, a discriminant axis that maximizes the variance within a class and between classes projected onto an N′-dimensional eigenvector is obtained. That is, in a class, determine the eigenvector corresponding to the largest eigenvalue of the covariance matrix between classes, to do this the vector on the discriminant axis A d (Fisher vector). Expressions (1) and (2) show the relationship between each covariance matrix, eigenvalue, and eigenvector.

Figure 0004315234
Figure 0004315234

ここで、式(2)の左辺の逆行列、固有値、固有ベクトルの演算には、それぞれLU(Lower-Upper)分解法、QR分解法(Q:直交行列,R:上三角行列)、ガウスの消去法を用いることができる。表情評価部41は、以上のように得られた判別軸Adの情報(判別軸情報44)として、フィッシャー・ベクトルの各成分の係数などの情報を、ROMなどにあらかじめ保持しておく。 Here, the inverse matrix, eigenvalue, and eigenvector of the left side of Equation (2) are used for LU (Lower-Upper) decomposition method, QR decomposition method (Q: orthogonal matrix, R: upper triangular matrix), Gaussian elimination, respectively. Can be used. Expression evaluation unit 41 as information of the discriminant axis A d obtained as above (discriminant axis information 44), information such as coefficients of each component of Fisher vector, previously held like ROM.

図10は、ピクセル空間およびPCA空間における判別軸および顔の入力画像の関係を概念的に示す図である。
上記の判別軸Adを用いた表情判別の基本的な手順は、まず、撮像画像から検出された顔の画像データをPCA処理し、主成分を抽出する。そして、この顔画像の表情は、図10のPCA空間Spcaに示すように、PCA処理された顔画像ベクトル(入力顔画像ベクトル)の判別軸Adに対する射影成分として評価される。すなわち、表情評価値Eexpの演算は、入力顔画像ベクトルとフィッシャー・ベクトルとの内積により算出できる(式(5−1)参照)。
FIG. 10 is a diagram conceptually showing the relationship between the discrimination axis and the face input image in the pixel space and PCA space.
The basic procedure for expression determination using the above-described discriminant axis A d, first, the image data of the detected face from the captured image to the PCA process to extract a principal component. Then, the facial expression of the face image, as shown in the PCA space S pca in FIG 10, is evaluated as the projection component to the discriminant axis A d of PCA processed face image vector (input face image vector). That is, the calculation of the facial expression evaluation value E exp can be calculated by the inner product of the input face image vector and the Fisher vector (see Expression (5-1)).

Figure 0004315234
Figure 0004315234

ただし、フィッシャー・ベクトルの情報は、ピクセル空間Spxl(PCA処理前の元の画像データが持つ次元の空間)での情報に換算しておくこともできる。式(3)および(4)はそれぞれ、入力顔画像ベクトルおよびフィッシャー・ベクトルをピクセル空間Spxlでのベクトルとして表しており、これらの関係を概念的に表したものが図10である。式(3)、式(4)および図10に示すように、PCA処理により得られる主成分μ1〜μN'以外のベクトル成分は、すべての入力画像の平均値として定数Cで近似できる。従って、式(5−1)に示すような内積演算は、式(5−2)のようにピクセル空間Spxlの上でのベクトルの内積演算として等価的に表すことができる。 However, the Fisher vector information can also be converted into information in the pixel space Spxl (the dimension space of the original image data before PCA processing). Expressions (3) and (4) represent the input face image vector and the Fisher vector as vectors in the pixel space S pxl , respectively, and FIG. 10 conceptually represents these relationships. As shown in Expression (3), Expression (4), and FIG. 10, vector components other than the main components μ 1 to μ N ′ obtained by PCA processing can be approximated by a constant C as an average value of all input images. Therefore, the inner product operation as shown in Expression (5-1) can be equivalently expressed as an inner product operation of a vector on the pixel space S pxl as shown in Expression (5-2).

式(5−2)において、ピクセル空間Spxlでのフィッシャー・ベクトル成分と定数Cとの減算結果は事前に算出できるので、表情評価部41は、この減算結果と定数Cとを判別軸情報44としてあらかじめ保持しておく。そして、撮像画像から検出された顔画像のベクトルが与えられると、そのベクトルをPCA処理することなく、式(5−2)の内積演算を実行する。式(5−2)による1つの顔に対する評価値演算では、それぞれ最大で(48×48)回の減算、乗算および加算が実行されるのみであり、しかも実際には、40個程度の主成分μ1〜μN'に対応する係数の演算のみが実行されることになる。従って、PCA空間Spcaでのベクトルの内積演算を行う場合と比較して、表情評価の精度を落とすことなく演算量を大幅に削減することができ、撮像画像記録前の画角合わせの状態で表情評価値Eexpをリアルタイムで容易に算出できる。 In Expression (5-2), since the subtraction result between the Fisher vector component and the constant C in the pixel space Spxl can be calculated in advance, the facial expression evaluation unit 41 uses the subtraction result and the constant C to determine the discriminant axis information 44. Hold in advance. Then, when a face image vector detected from the captured image is given, the inner product operation of Expression (5-2) is executed without performing PCA processing on the vector. In the evaluation value calculation for one face according to Expression (5-2), only a maximum of (48 × 48) subtractions, multiplications, and additions are performed, and in practice, about 40 principal components. Only the calculation of the coefficients corresponding to μ 1 to μ N ′ is executed. Therefore, compared with the case where the inner product calculation of the vector in the PCA space S pca is performed, the calculation amount can be greatly reduced without reducing the accuracy of the facial expression evaluation, and the angle of view before recording the captured image can be reduced. The facial expression evaluation value E exp can be easily calculated in real time.

このような演算手法では、例えば、多数の顔画像のテンプレートと検出された顔画像とのマッチングにより表情を評価する手法と比較しても、はるかに低処理負荷かつ高精度の表情評価を行うことが可能である。テンプレートを用いたマッチングを行う場合、通常は、検出された顔画像からさらに目や口などのパーツを抽出し、パーツごとにマッチング処理を行う必要がある。これに対して、本実施の形態の手法では、検出した顔画像のデータを一定サイズに正規化した後、その顔画像をベクトル情報に置き換えてそのまま(あるいは部分的にマスクするだけで)内積演算に適用でき、その内積演算も上述の通り40次元程度の減算、乗算および加算からなる単純なものとなる。   In such a calculation method, for example, a facial expression evaluation with far lower processing load and high accuracy can be performed compared to a method for evaluating facial expressions by matching a large number of facial image templates with detected facial images. Is possible. When performing matching using a template, it is usually necessary to further extract parts such as eyes and mouth from the detected face image and perform matching processing for each part. On the other hand, in the method of the present embodiment, after normalizing the detected face image data to a certain size, the face image is replaced with vector information and is directly (or only partially masked). As described above, the inner product operation is also a simple one consisting of subtraction, multiplication and addition of about 40 dimensions.

図11は、表情評価値を数値として出力する場合の算出例を示す図である。
本実施の形態では、例として、サンプル画像のPCA処理結果に基づき、PCA空間における笑顔の顔画像および通常の表情の顔画像のそれぞれの分布の平均を求め、これらの平均の判別軸Adに対する射影点を決めておく。そして、各平均の射影点の中点を基準として表情評価値Eexpを数値に換算する。すなわち、図11のように、入力顔画像の判別軸に対する射影点と平均の射影点の中点との距離を表情評価値Eexpとし、笑顔のサンプル画像の分布している側を正の数値とする。これにより、検出された顔の画像が笑顔と通常の表情のどちらに近いかを連続的な数値として出力できるようになり、表情評価値Eexpが高いほど強い笑顔であると評価される。
FIG. 11 is a diagram illustrating a calculation example when the facial expression evaluation value is output as a numerical value.
In the present embodiment, as an example, based on the PCA processing result of the sample image, the average of the distribution of the smile face image and the normal expression face image in the PCA space is obtained, and the average of these average discriminant axes Ad Determine the projection point. Then, the facial expression evaluation value E exp is converted into a numerical value with the midpoint of each average projection point as a reference. That is, as shown in FIG. 11, the distance between the projection point with respect to the discrimination axis of the input face image and the midpoint of the average projection point is the facial expression evaluation value E exp, and the side where the smiling sample image is distributed is a positive numerical value. And As a result, it is possible to output whether the detected face image is close to a smile or a normal expression as a continuous numerical value, and a higher expression evaluation value E exp is evaluated as a stronger smile.

次に、表情応答記録モードにおける撮像装置の処理手順について、フローチャートにまとめて説明する。図12は、表情応答記録モードにおける撮像装置の処理の流れを示すフローチャートである。   Next, a processing procedure of the imaging apparatus in the facial expression response recording mode will be described together with a flowchart. FIG. 12 is a flowchart illustrating a process flow of the imaging apparatus in the facial expression response recording mode.

〔ステップS11〕顔検出部31は、撮像画像のデータから顔を検出し、検出されたすべての顔の位置情報およびサイズ情報を、顔画像生成部32および報知制御部42に対して出力する。   [Step S11] The face detection unit 31 detects a face from the captured image data, and outputs position information and size information of all detected faces to the face image generation unit 32 and the notification control unit 42.

〔ステップS12〕顔画像生成部32は、顔検出部31からの顔の位置情報およびサイズ情報に基づき、撮像画像のデータから検出されたそれぞれの顔の領域のデータを切り出す。   [Step S12] The face image generation unit 32 cuts out data of each face area detected from the captured image data based on the position information and size information of the face from the face detection unit 31.

〔ステップS13〕顔画像生成部32は、切り出したそれぞれの顔領域のデータを、所定画素数(ここでは48画素×48画素)のデータに正規化し、さらに、表情検出に必要のない領域をマスキングして、処理後の画像データを表情評価部41に出力する。   [Step S13] The face image generation unit 32 normalizes the data of each extracted face area to data of a predetermined number of pixels (here, 48 pixels × 48 pixels), and further masks areas that are not necessary for facial expression detection. Then, the processed image data is output to the facial expression evaluation unit 41.

〔ステップS14〕表情評価部41は、判別軸情報44を読み込み、顔画像生成部32から供給されたもののうち1つの顔画像から得たベクトル成分と、判別軸のベクトル成分との内積演算を行って、表情評価値を算出する。算出した表情評価値は、例えばRAMなどに一時的に記憶される。   [Step S14] The facial expression evaluation unit 41 reads the discriminant axis information 44, and performs an inner product operation of a vector component obtained from one face image among those supplied from the face image generation unit 32 and a vector component of the discriminant axis. Then, the facial expression evaluation value is calculated. The calculated facial expression evaluation value is temporarily stored in, for example, a RAM.

〔ステップS15〕表情評価部41は、検出されたすべての顔について表情評価処理が済んだか否かを判断する。処理済みでない場合は、他の顔についてステップS14を再び実行し、処理済みの場合にはステップS16を実行する。   [Step S15] The facial expression evaluation unit 41 determines whether facial expression evaluation processing has been completed for all detected faces. If not processed, step S14 is executed again for the other face, and if processed, step S16 is executed.

〔ステップS16〕報知制御部42は、ステップS15で算出された表情評価値と、それに対応する顔の位置情報およびサイズ情報とを基に、笑顔スコアや表示枠などの表情情報をグラフィック処理回路15に出力し、ディスプレイ16に合成して表示させる。   [Step S16] Based on the facial expression evaluation value calculated in Step S15 and the face position information and size information corresponding to the facial expression evaluation value, the notification control unit 42 displays facial expression information such as a smile score and a display frame. And is synthesized and displayed on the display 16.

〔ステップS17〕表情評価部41は、ステップS14で算出した、すべての顔についての表情評価値が、しきい値を超えているか否かを判定する。しきい値を超えていない表情評価値がある場合には、ステップS11に戻って顔検出を実行するようにカメラ信号処理回路14に対して指示し、これにより次の顔画像の検出および表情評価処理が開始される。また、すべての表情評価値がしきい値を超えている場合には、ステップS18を実行する。   [Step S17] The facial expression evaluation unit 41 determines whether the facial expression evaluation values for all the faces calculated in step S14 exceed a threshold value. If there is an expression evaluation value that does not exceed the threshold value, the process returns to step S11 to instruct the camera signal processing circuit 14 to execute face detection, thereby detecting the next face image and evaluating the expression. Processing begins. If all the facial expression evaluation values exceed the threshold value, step S18 is executed.

〔ステップS18〕表情評価部41は、記録動作制御部43に対して、撮像画像のデータを記録装置18に記録するように要求する。これにより、撮像画像に対して記録用の信号処理が施され、処理後の符号化画像データが記録装置18に記録される。   [Step S18] The facial expression evaluation unit 41 requests the recording operation control unit 43 to record captured image data in the recording device 18. As a result, recording signal processing is performed on the captured image, and the encoded image data after processing is recorded in the recording device 18.

以上の処理により、検出されたすべての顔について表情評価値が算出され、その表情評価値に応じた情報が表示情報として被撮影者に通知されるので、被撮影者に対して撮像に適した表情になるように促すことができる。そして、すべての被撮影者が撮像に適した表情になったときに、撮像画像のデータが自動的に記録されるので、被撮影者や撮影者にとって満足度の高い画像を確実に記録できる。   With the above processing, facial expression evaluation values are calculated for all detected faces, and information corresponding to the facial expression evaluation values is notified to the photographed person as display information. You can encourage them to become facial expressions. When all photographed subjects have expressions suitable for imaging, the captured image data is automatically recorded, so that an image that is highly satisfactory for the photographed subject and the photographer can be recorded reliably.

なお、ステップS17での判定基準はあくまで例であり、必ずしもすべての表情評価値がしきい値を超えたときに画像データを記録するように制御する必要はない。例えば、検出された顔のうち、一定の割合の顔の表情評価値がしきい値を超えたときに画像データを記録してもよい。あるいは、一定の数の顔の表情評価値がしきい値を超えたときに画像データを記録するようにして、偶然撮像された必要のない顔に対しても表情評価が実行されることを防止してもよい。   Note that the determination criterion in step S17 is merely an example, and it is not always necessary to perform control so that image data is recorded when all facial expression evaluation values exceed the threshold value. For example, image data may be recorded when facial expression evaluation values of a certain percentage of detected faces exceed a threshold value. Alternatively, image data is recorded when a certain number of facial expression evaluation values exceed a threshold value, thereby preventing facial expression evaluation from being performed on faces that do not need to be captured accidentally. May be.

また、上記の表情応答記録モードでは、単に表情評価値が所定のしきい値を超えたときに自動的に撮像画像を記録しているが、この他に例えば、撮影者によりシャッタレリーズボタンが押下されると、その一定時間後から被撮影者の表情を評価し、撮像に適する表情となったときに自動的に撮像画像を記録するようにしてもよい。この場合例えば、マイクロコンピュータ19は、シャッタレリーズボタンの押下を検出すると時間のカウントを開始し、一定時間が経過したときに図12の処理を開始させればよい。このような処理により、シャッタレリーズボタンを押下した撮影者も確実に撮像範囲に移動することができ、操作性が向上される。   In the facial expression response recording mode described above, a captured image is automatically recorded when the facial expression evaluation value exceeds a predetermined threshold value. In addition to this, for example, the shutter release button is pressed by the photographer. Then, the subject's facial expression may be evaluated after a certain time, and the captured image may be automatically recorded when the facial expression is suitable for imaging. In this case, for example, the microcomputer 19 may start counting the time when detecting the pressing of the shutter release button, and start the processing of FIG. 12 when a certain time has elapsed. By such processing, the photographer who has pressed the shutter release button can move to the imaging range with certainty, and the operability is improved.

また、上記の説明では、「笑顔」と「通常時の表情」という2つの表情を定義し、笑顔にどれだけ近いかを判別していたが、「笑顔」とそれ以外の表情(非笑顔と呼ぶ)との間で判別を行うようにしてもよい。この「非笑顔」の表情は、真顔、泣き顔、怒り顔などの笑顔でない複数の表情を含んでもよい。この場合、これらの複数の表情に対応する顔のサンプル画像の平均から「非笑顔」の集合を求め、この集合と「笑顔」の集合とを基にLDA処理のための判別軸を算出する。   In the above explanation, two facial expressions, “smile” and “normal facial expression”, are defined to determine how close they are to smiles. “Smile” and other facial expressions (non-smile and non-smile) It is also possible to make a determination between This “non-smile” facial expression may include a plurality of facial expressions that are not smiling, such as a straight face, a crying face, and an angry face. In this case, a set of “non-smiles” is obtained from the average of the face sample images corresponding to the plurality of facial expressions, and a discrimination axis for LDA processing is calculated based on this set and the set of “smiles”.

さらに、表情評価値は、必ずしも「笑顔」のような1つの表情に対する近さを示すものでなくてもよく、例えば「笑顔」「真顔」などの特定の複数の表情を撮像に適する表情と考えて、これらの複数の表情の側にどれだけ近いかを示すようにしてもよい。この場合にも、これらの複数の表情に対応する顔のサンプル画像の平均から「撮像に適する表情」の集合を求め、この集合と「撮像に適さない表情」の集合とを基にLDA処理のための判別軸を算出すればよい。   Furthermore, the facial expression evaluation value does not necessarily indicate the closeness to one facial expression such as “smile”, and for example, a plurality of specific facial expressions such as “smile” and “true face” are considered to be suitable for imaging. It is also possible to show how close to these multiple facial expressions. Also in this case, a set of “facial expressions suitable for imaging” is obtained from the average of the sample face images corresponding to the plurality of facial expressions, and the LDA processing is performed based on this set and a set of “facial expressions unsuitable for imaging”. What is necessary is just to calculate the discriminant axis for this.

[第2の実施の形態]
図13は、本発明の第2の実施の形態に係る撮像装置の外観を示す図である。
本実施の形態では、表情評価値に応じた情報を、図1の構成の中のLED発光部21の一部を用いて被撮影者に報知する。図13に示した撮像装置110は、撮像レンズ111やフラッシュ発光部112などが搭載された面に、表情評価値に応じた情報を報知するための専用のLED発光部21aが設けられている。LED発光部21aには複数のLED21b〜21fが1つの線上に設けられており、それらの一方からのLEDの点灯数により、表情評価値に応じた情報(ここでは笑顔スコア)が被撮影者に通知される。このような構成により、表示面方向可変のディスプレイを持たないデジタルスチルカメラなどの撮像装置においても、表情評価値に応じた情報を被撮影者に報知して、適切な画像が記録されるように撮像動作を補助することができる。また、LEDなどの小型の発光デバイスを用いることで、撮像装置本体の大型化を最小限に留めることができる。
[Second Embodiment]
FIG. 13 is a diagram illustrating an appearance of an imaging apparatus according to the second embodiment of the present invention.
In the present embodiment, information corresponding to the facial expression evaluation value is notified to the subject using a part of the LED light emitting unit 21 in the configuration of FIG. The imaging device 110 shown in FIG. 13 is provided with a dedicated LED light emitting unit 21a for notifying information corresponding to the facial expression evaluation value on the surface on which the imaging lens 111, the flash light emitting unit 112, and the like are mounted. The LED light emitting unit 21a is provided with a plurality of LEDs 21b to 21f on one line, and information corresponding to the facial expression evaluation value (here, smile score) is given to the subject by the number of LEDs lit from one of them. Be notified. With such a configuration, even in an imaging apparatus such as a digital still camera that does not have a display screen direction variable display, information corresponding to the facial expression evaluation value is notified to the subject so that an appropriate image is recorded. The imaging operation can be assisted. In addition, by using a small light emitting device such as an LED, it is possible to minimize the increase in size of the imaging apparatus main body.

さらに、LED発光部21aにおいては、最も他方の側のLED(図ではLED21f)が、撮像画像が自動的に記録される際の笑顔スコアを示すものとし、このLEDを他とは別の色や輝度などで発光させてもよい。これにより、自動記録が行われる際の笑顔スコアを被撮影者に明確に報知でき、また自動記録が行われたことを被撮影者が認識できるようにもなる。   Further, in the LED light emitting unit 21a, the LED on the other side (LED 21f in the figure) indicates a smile score when the captured image is automatically recorded. You may make it light-emit by brightness | luminance etc. As a result, the smile score when the automatic recording is performed can be clearly notified to the photographed person, and the photographed person can recognize that the automatic recording has been performed.

[第3の実施の形態]
図14は、本発明の第3の実施の形態に係る撮像装置の外観を示す図である。
図14に示す撮像装置120では、撮像レンズ121やフラッシュ発光部122などが搭載された面に、1つのLEDのみを持つLED発光部21gが設けられている。このようなLED発光部21gにおいては、表情評価値に応じて、例えば、LEDの点滅速度を変える、LEDの輝度や色を変えることなどによって、笑顔スコアを被撮影者に報知することが可能である。例えば、表情評価値が大きくなるに連れて、LEDの色を赤、緑、青に徐々に変化させる、あるいは、LEDを徐々に明るくするなどの制御が可能である。このように、1つのLEDのみ用いることで、撮像装置本体の大型化をさらに顕著に阻止できる。
[Third Embodiment]
FIG. 14 is a diagram illustrating an appearance of an imaging apparatus according to the third embodiment of the present invention.
In the imaging device 120 shown in FIG. 14, an LED light emitting unit 21g having only one LED is provided on a surface on which the imaging lens 121, the flash light emitting unit 122, and the like are mounted. In such an LED light emitting unit 21g, it is possible to notify the photographer of the smile score by changing the blinking speed of the LED, changing the brightness or color of the LED, or the like according to the facial expression evaluation value. is there. For example, as the facial expression evaluation value increases, it is possible to perform control such as gradually changing the LED color to red, green, and blue, or gradually increasing the LED brightness. In this way, by using only one LED, the enlargement of the imaging device main body can be more significantly prevented.

また、この撮像装置120が従来のセルフタイマ機能を備えている場合には、そのセルフタイマ作動時に用いられるLEDを表情評価用に兼用することもできる。例えば、セルフタイマの作動時には、シャッタレリーズボタンが押下された後、記録までの間に時間の経過に従って徐々にLEDの点滅速度を高くする。そして、表情評価モードや表情応答記録モードでは、表情評価値が高いほどLEDの点滅速度を高くする。このような構成により、従来の撮像装置の基本構成や外観を変えることなく、表情評価値に応じた情報を被撮影者に報知できる。また、兼用可能な発光部はセルフタイマ用に限らず、例えば、露光制御時の測光用発光部を兼用することもできる。ただし、この場合には、少なくとも表情評価時には可視光を発光できる必要がある。   Further, when the imaging apparatus 120 has a conventional self-timer function, the LED used when the self-timer is activated can also be used for facial expression evaluation. For example, when the self-timer is activated, the LED blinking speed is gradually increased as time elapses after the shutter release button is pressed and before recording. In the facial expression evaluation mode and the facial expression response recording mode, the higher the facial expression evaluation value, the higher the blinking speed of the LED. With such a configuration, information corresponding to the facial expression evaluation value can be notified to the subject without changing the basic configuration and appearance of the conventional imaging device. Further, the light emitting unit that can be used in combination is not limited to the self-timer, and for example, the light emitting unit for photometry during exposure control can also be used. However, in this case, it is necessary to emit visible light at least during facial expression evaluation.

[第4の実施の形態]
図15は、本発明の第4の実施の形態に係る撮像装置の外観を示す図である。
上記の各実施の形態では、表情評価値に応じた情報を視覚的に報知していた。これに対して、本実施の形態では、図2に示した音声出力部22を用いて、表情評価値に応じた情報を音声により報知する。図15に示した撮像装置130では、撮像レンズ131が搭載された側にスピーカ22aを設け、表情評価値に応じて異なる音声を再生出力させる。出力する音声としては、例えば、図5や図6に示した文字情報と同様、笑顔である度数が低いほどより強い笑顔にするように、被撮影者に対して促すような音声とする。この場合、撮像装置130は、再生すべき音声のデータを、表情評価値に対して段階的に対応付けてあらかじめ保持しておけばよい。また、表情評価値に応じて音の高さや出力間隔を変える手法や、表情評価値に応じて異なるメロディの音声を出力する手法などを採ってもよい。なお、音声による報知と、視覚的な情報による報知とが併用されてもよい。
[Fourth Embodiment]
FIG. 15 is a diagram illustrating an appearance of an imaging apparatus according to the fourth embodiment of the present invention.
In each of the above embodiments, information according to the facial expression evaluation value is visually notified. On the other hand, in this embodiment, information corresponding to the facial expression evaluation value is notified by voice using the voice output unit 22 shown in FIG. In the imaging device 130 shown in FIG. 15, a speaker 22a is provided on the side where the imaging lens 131 is mounted, and different sounds are reproduced and output according to the facial expression evaluation value. As the voice to be output, for example, like the character information shown in FIG. 5 and FIG. 6, the voice that prompts the photographed person to make the smile stronger as the frequency of smile is lower. In this case, the imaging apparatus 130 may hold the audio data to be reproduced in advance in association with the facial expression evaluation value step by step. Further, a method of changing the pitch or output interval according to the facial expression evaluation value, a method of outputting different melody voices according to the facial expression evaluation value, or the like may be employed. Note that voice notification and visual information notification may be used in combination.

[第5の実施の形態]
図16は、本発明の第5の実施の形態に係るPC(パーソナルコンピュータ)の外観を示す図である。
[Fifth Embodiment]
FIG. 16 is a diagram showing the appearance of a PC (personal computer) according to the fifth embodiment of the present invention.

上記の各実施の形態における表情評価機能、表情評価値に応じた情報の報知機能、および表情評価値に応じた画像の自動記録機能は、図16に示すPC140のように各種のコンピュータにおいても実現することができる。図16では例として、LCDからなるディスプレイ141とキーボード142や本体部が一体に構成されたノート型のPC140を示している。そして、このPC140には、例えばディスプレイ141の上端部に撮像部143が一体に設けられており、PC140を操作しているユーザの側を撮像できるようになっている。なお、撮像部143は、例えばUSB(Universal Serial Bus)などの通信インタフェースを介して外部に接続されるものでもよい。   The facial expression evaluation function, the information notification function according to the facial expression evaluation value, and the automatic image recording function according to the facial expression evaluation value in each of the above embodiments are also realized in various computers such as the PC 140 shown in FIG. can do. In FIG. 16, as an example, a display 141 composed of an LCD, a keyboard 142, and a notebook PC 140 in which a main body is integrally formed are illustrated. The PC 140 is provided with an image capturing unit 143 integrally at the upper end of the display 141, for example, so that the user operating the PC 140 can be imaged. The imaging unit 143 may be connected to the outside via a communication interface such as a USB (Universal Serial Bus).

このようなコンピュータにおいては、上記各機能の処理内容を記述したプログラムをコンピュータで実行することにより、それらの機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。   In such a computer, these functions are realized on the computer by executing the program describing the processing contents of the above functions on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory.

このプログラムを流通させる場合には、例えば、プログラムが記録された光ディスクなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When this program is distributed, for example, a portable recording medium such as an optical disk on which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

本発明の第1の実施の形態に係る撮像装置の要部構成を示すブロック図である。1 is a block diagram illustrating a main configuration of an imaging apparatus according to a first embodiment of the present invention. 表情評価モードおよび表情応答記録モードを実現するために撮像装置が備える機能を示すブロック図である。It is a block diagram which shows the function with which an imaging device is provided in order to implement | achieve facial expression evaluation mode and facial expression response recording mode. 表情評価モードにおける動作の概要を示す図である。It is a figure which shows the outline | summary of the operation | movement in facial expression evaluation mode. 笑顔スコアを示すバーグラフの動きを説明するための図である。It is a figure for demonstrating the motion of the bar graph which shows a smile score. バーグラフを用いた笑顔スコアの画面表示例を示す図である。It is a figure which shows the example of a screen display of the smile score using a bar graph. 複数の顔が検出された場合における表情評価値に応じた情報の第1の画面表示例を示す図である。It is a figure which shows the 1st screen display example of the information according to the facial expression evaluation value in case a some face is detected. 複数の顔が検出された場合における表情評価値に応じた情報の第2の画面表示例を示す図である。It is a figure which shows the 2nd example of a screen display of the information according to the facial expression evaluation value in case a some face is detected. 表情評価のために事前に生成すべき情報と、その情報生成の流れについて概念的に示す図である。It is a figure which shows notionally the information which should be produced | generated in advance for facial expression evaluation, and the flow of the information production | generation. PCA処理時に入力するサンプル画像のマスキング処理について説明するための図である。It is a figure for demonstrating the masking process of the sample image input at the time of PCA process. ピクセル空間およびPCA空間における判別軸および顔の入力画像の関係を概念的に示す図である。It is a figure which shows notionally the relationship between the discrimination | determination axis | shaft in a pixel space and PCA space, and the input image of a face. 表情評価値を数値として出力する場合の算出例を示す図である。It is a figure which shows the example of calculation in the case of outputting a facial expression evaluation value as a numerical value. 表情応答記録モードにおける撮像装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging device in facial expression response recording mode. 本発明の第2の実施の形態に係る撮像装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る撮像装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る撮像装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係るPCの外観を示す図である。It is a figure which shows the external appearance of PC concerning the 5th Embodiment of this invention.

符号の説明Explanation of symbols

11……光学ブロック、11a……ドライバ、12……撮像素子、12a……タイミングジェネレータ(TG)、13……アナログフロントエンド(AFE)回路、14……カメラ信号処理回路、15……グラフィック処理回路、16……ディスプレイ、17……画像エンコーダ、18……記録装置、19……マイクロコンピュータ、20……入力部、21……LED発光部、22……音声出力部、31……顔検出部、32……顔画像生成部、41……表情評価部、42……報知制御部、43……記録動作制御部、44……判別軸情報   DESCRIPTION OF SYMBOLS 11 ... Optical block, 11a ... Driver, 12 ... Image sensor, 12a ... Timing generator (TG), 13 ... Analog front end (AFE) circuit, 14 ... Camera signal processing circuit, 15 ... Graphic processing Circuit: 16: Display, 17: Image encoder, 18: Recording device, 19: Microcomputer, 20: Input unit, 21: LED light emitting unit, 22: Audio output unit, 31: Face detection Part 32... Face image generation part 41. Expression expression evaluation part 42 .. notification control part 43 .. recording operation control part 44 .. discrimination axis information

Claims (13)

固体撮像素子を用いて画像を撮像する撮像装置において、
撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出する顔検出部と、
検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、前記特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、
算出された前記表情評価値の大きさを視覚的に示す報知情報を報知する報知部と、
前記表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録する画像記録制御部と、
を有し、
前記報知部は、前記表情評価値に応じて変化する前記報知情報と、前記しきい値の位置を前記報知情報の変化に対応させて示すしきい値情報とを、視覚的な情報として報知することを特徴とする撮像装置。
In an imaging device that captures an image using a solid-state imaging device,
A face detection unit for detecting a person's face from the image signal in a period until the image signal obtained by imaging is recorded on the recording medium;
A facial expression evaluation unit that evaluates the facial expression detected and calculates a facial expression evaluation value that indicates how close the specific facial expression is between the specific facial expression and other facial expressions;
An informing unit for informing information that visually indicates the size of the calculated facial expression evaluation value;
An image recording control unit that automatically records an image signal obtained by imaging on a recording medium when the facial expression evaluation value exceeds a predetermined threshold;
I have a,
The notification unit notifies, as visual information, the notification information that changes according to the facial expression evaluation value, and threshold information that indicates the position of the threshold corresponding to the change of the notification information. An imaging apparatus characterized by that.
前記表情評価部は、前記特定の表情に含まれると判断される複数の顔データに基づく第1の顔集合と、前記特定の表情以外の表情に含まれると判断される複数の顔データに基づく第2の顔集合との間において、前記第1の顔集合にどれだけ近いかの度合いを示す前記表情評価値を算出することを特徴とする請求項1記載の撮像装置。   The expression evaluation unit is based on a first face set based on a plurality of face data determined to be included in the specific expression and a plurality of face data determined to be included in an expression other than the specific expression The imaging apparatus according to claim 1, wherein the expression evaluation value indicating a degree of how close to the first face set is calculated with respect to the second face set. 前記表情評価部は、前記特定の表情として笑顔を適用し、検出された顔が笑顔にどれだけ近いかの度合いを前記表情評価値として算出することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the facial expression evaluation unit applies a smile as the specific facial expression, and calculates a degree of how close the detected face is to the smile as the facial expression evaluation value. 前記表情評価部は、前記特定の表情以外の表情として、通常の表情を適用することを特徴とする請求項3記載の撮像装置。   The imaging apparatus according to claim 3, wherein the facial expression evaluation unit applies a normal facial expression as a facial expression other than the specific facial expression. 前記表情評価部は、前記特定の表情以外の表情として、笑顔以外の表情を適用することを特徴とする請求項3記載の撮像装置。   The imaging apparatus according to claim 3, wherein the facial expression evaluation unit applies facial expressions other than a smile as facial expressions other than the specific facial expression. 前記しきい値をユーザの入力操作に応じて変更可能であることを特徴とする請求項1記載の撮像装置。The imaging apparatus according to claim 1, wherein the threshold value can be changed according to a user input operation. 前記報知部は、前記表情評価値の大きさをバーの長さで示すバー表示画像を表示装置に表示するとともに、前記しきい値の位置を示す位置表示画像を前記バー表示画像上に表示し、The notification unit displays on the display device a bar display image indicating the size of the facial expression evaluation value by the length of the bar, and displays a position display image indicating the position of the threshold on the bar display image. ,
ユーザによる入力操作に応じて前記しきい値が変更されるとともに、前記しきい値の変更に応じて前記バー表示画像上での前記位置表示画像の位置も変化することを特徴とする請求項1記載の撮像装置。  The threshold value is changed according to an input operation by a user, and the position of the position display image on the bar display image is changed according to the change of the threshold value. The imaging device described.
前記画像記録制御部は、ユーザによる画像記録操作を検出すると、一定時間後に前記表情評価部から前記表情評価値を取得し、当該表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録することを特徴とする請求項1記載の撮像装置。When the image recording control unit detects an image recording operation by a user, the facial expression evaluation value is acquired from the facial expression evaluation unit after a predetermined time, and when the facial expression evaluation value exceeds a predetermined threshold, imaging is performed. The imaging apparatus according to claim 1, wherein the obtained image signal is automatically recorded on a recording medium. 前記報知部は、前記報知情報を被撮影者側に向けて報知することを特徴とする請求項1記載の撮像装置。The imaging apparatus according to claim 1, wherein the notification unit notifies the notification information toward a subject person. 前記報知部は、前記表情評価値に応じた前記報知情報を撮像中の画像とともに表示装置に表示することを特徴とする請求項9記載の撮像装置。The imaging device according to claim 9, wherein the notification unit displays the notification information according to the facial expression evaluation value together with an image being captured on a display device. 前記報知部は、前記報知情報として、前記表情評価値の大きさをバーの長さで示すバー表示画像を前記表示装置に表示することを特徴とする請求項10記載の撮像装置。The imaging device according to claim 10, wherein the notification unit displays, as the notification information, a bar display image indicating a size of the facial expression evaluation value by a length of a bar on the display device. 前記報知部は、前記報知情報として、前記表情評価値の大きさに応じた異なる報知音声をさらに出力することを特徴とする請求項1記載の撮像装置。The imaging device according to claim 1, wherein the notification unit further outputs a different notification sound corresponding to a size of the facial expression evaluation value as the notification information. 固体撮像素子を用いて撮像された顔の表情を評価する表情評価装置において、In a facial expression evaluation apparatus that evaluates facial expressions imaged using a solid-state imaging device,
撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出する顔検出部と、  A face detection unit for detecting a person's face from the image signal in a period until the image signal obtained by imaging is recorded on the recording medium;
検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、前記特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、  A facial expression evaluation unit that evaluates the facial expression detected and calculates a facial expression evaluation value that indicates how close the specific facial expression is between the specific facial expression and other facial expressions;
前記表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録させる画像記録制御部と、  An image recording control unit that automatically records an image signal obtained by imaging when the facial expression evaluation value exceeds a predetermined threshold;
算出された前記表情評価値の大きさに応じて変化する報知情報と、前記しきい値の位置を前記報知情報の変化に対応させて示すしきい値情報とを、視覚的な情報として報知するための表示情報を生成する表示情報生成部と、  Notification information that changes in accordance with the calculated expression evaluation value and threshold information that indicates the position of the threshold corresponding to the change in the notification information are notified as visual information. A display information generation unit for generating display information for
を有することを特徴とする表情評価装置。  A facial expression evaluation apparatus characterized by comprising:
JP2008209119A 2008-08-15 2008-08-15 Imaging apparatus and facial expression evaluation apparatus Expired - Fee Related JP4315234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008209119A JP4315234B2 (en) 2008-08-15 2008-08-15 Imaging apparatus and facial expression evaluation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008209119A JP4315234B2 (en) 2008-08-15 2008-08-15 Imaging apparatus and facial expression evaluation apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006211000A Division JP4197019B2 (en) 2006-08-02 2006-08-02 Imaging apparatus and facial expression evaluation apparatus

Publications (2)

Publication Number Publication Date
JP2008289189A JP2008289189A (en) 2008-11-27
JP4315234B2 true JP4315234B2 (en) 2009-08-19

Family

ID=40148407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008209119A Expired - Fee Related JP4315234B2 (en) 2008-08-15 2008-08-15 Imaging apparatus and facial expression evaluation apparatus

Country Status (1)

Country Link
JP (1) JP4315234B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147808A (en) * 2008-12-18 2010-07-01 Olympus Imaging Corp Imaging apparatus and image processing method in same
JP5488961B2 (en) * 2009-07-27 2014-05-14 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5431083B2 (en) * 2009-09-16 2014-03-05 オリンパスイメージング株式会社 Image capturing apparatus and method for controlling image capturing apparatus
JP5381798B2 (en) * 2010-02-23 2014-01-08 株式会社デンソー Vehicle display device
KR101661657B1 (en) * 2010-05-14 2016-10-04 엘지이노텍 주식회사 Apparatus and method for taking a photograph of face
KR101659565B1 (en) * 2010-06-30 2016-09-23 엘지이노텍 주식회사 Apparatus and method for taking a photograph of face
JP2012053663A (en) * 2010-09-01 2012-03-15 Honda Motor Co Ltd Object kind determination device
JP2012216951A (en) * 2011-03-31 2012-11-08 Toshiba Corp Electronic apparatus and control method for indicator
JP6729572B2 (en) * 2015-06-08 2020-07-22 ソニー株式会社 Image processing device, image processing method, and program
JP7225749B2 (en) * 2018-01-11 2023-02-21 カシオ計算機株式会社 Notification device, notification method and program
US11191341B2 (en) 2018-01-11 2021-12-07 Casio Computer Co., Ltd. Notification device, notification method, and storage medium having program stored therein
CN114173061B (en) * 2021-12-13 2023-09-29 深圳万兴软件有限公司 Multi-mode camera shooting control method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP2008289189A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
JP4197019B2 (en) Imaging apparatus and facial expression evaluation apparatus
JP4315234B2 (en) Imaging apparatus and facial expression evaluation apparatus
JP4973098B2 (en) Image processing apparatus, image processing method, and program
JP5251547B2 (en) Image photographing apparatus, image photographing method, and computer program
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
US8350918B2 (en) Image capturing apparatus and control method therefor
KR101537948B1 (en) Photographing method and apparatus using pose estimation of face
JP2007304280A (en) Imaging apparatus, its control method, program and storage medium
JP2008205650A (en) Image processor, image processing method, imaging apparatus, and computer program
JP5106355B2 (en) Facial expression determination device, control method thereof, imaging device, and program
US20130235228A1 (en) Image processing apparatus and method, and program
JP4891674B2 (en) camera
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2008167028A (en) Imaging apparatus
JP2006340281A (en) Image pickup apparatus
KR101474304B1 (en) Method for controlling the digital image processing apparatus and the digital image processing apparatus of operating by the method
JP2009302835A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090511

R151 Written notification of patent or utility model registration

Ref document number: 4315234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees