JP4315234B2 - Imaging apparatus and facial expression evaluation apparatus - Google Patents
Imaging apparatus and facial expression evaluation apparatus Download PDFInfo
- Publication number
- JP4315234B2 JP4315234B2 JP2008209119A JP2008209119A JP4315234B2 JP 4315234 B2 JP4315234 B2 JP 4315234B2 JP 2008209119 A JP2008209119 A JP 2008209119A JP 2008209119 A JP2008209119 A JP 2008209119A JP 4315234 B2 JP4315234 B2 JP 4315234B2
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- expression evaluation
- image
- evaluation value
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000008921 facial expression Effects 0.000 title claims description 231
- 238000011156 evaluation Methods 0.000 title claims description 168
- 238000003384 imaging method Methods 0.000 title claims description 99
- 230000014509 gene expression Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 62
- 238000000034 method Methods 0.000 description 32
- 230000000875 corresponding effect Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 27
- 239000013598 vector Substances 0.000 description 27
- 238000000513 principal component analysis Methods 0.000 description 26
- 230000004044 response Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000004397 blinking Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、固体撮像素子を用いて画像を撮像する撮像装置、および、撮像された顔の表情を評価する表情評価装置に関する。 The present invention relates to an imaging equipment for capturing an image using a solid-state image pickup element, and relates to the expression evaluation equipment for evaluating the expression of the captured face.
撮像装置において、シャッタボタンを押下する操作から一定時間経過後に自動的にシャッタを切る、いわゆるセルフタイマ機能は、銀塩カメラのみならず、デジタルスチルカメラにも一般的に搭載されている。しかし、このセルフタイマ機能によりシャッタが切られるタイミングは事前に決められたものとなるので、シャッタを切った時点で被撮影者が必ずしもよい表情となるという保証はなく、満足のいかない写真が撮像されることが少なくないという問題があった。 In an imaging apparatus, a so-called self-timer function that automatically releases a shutter after a predetermined time has elapsed since an operation of pressing a shutter button is generally mounted not only on a silver salt camera but also on a digital still camera. However, since the timing at which the shutter is released by this self-timer function is determined in advance, there is no guarantee that the subject will always have a good expression when the shutter is released, and an unsatisfactory photograph is taken. There was a problem that was often done.
一方、近年では、画像信号を基にデジタル演算処理する画像処理技術が急速に進んでおり、その例として、画像から人間の顔を検出する技術がある。例えば、顔画像中の2画素間の輝度差を特徴量として学習しておき、その特徴量に基づいて入力画像中の所定領域が顔であるか否かを示す推定値を算出し、その1以上の推定値から領域内の画像が顔であるか否かを最終的に判別するようにした顔検出技術があった(例えば、特許文献1参照)。 On the other hand, in recent years, an image processing technique for performing digital arithmetic processing based on an image signal is rapidly progressing, and as an example, there is a technique for detecting a human face from an image. For example, a luminance difference between two pixels in a face image is learned as a feature amount, and an estimated value indicating whether or not a predetermined region in the input image is a face is calculated based on the feature amount. There has been a face detection technique that finally determines whether or not an image in a region is a face from the above estimated values (see, for example, Patent Document 1).
このような顔検出技術は、デジタルスチルカメラなど、固体撮像素子で撮像を行うデジタル方式の撮像装置に搭載できるレベルまで開発が進んでおり、最近ではさらに、検出された顔の表情を判別する技術なども注目されている。例えば、連続して複数コマを撮像した画像信号から、被撮影者の顔の表情などを撮像画像ごとに評価し、それらの評価情報から好適な画像を選択できるようにすることが考えられている(例えば、特許文献2参照)。
ところで、最近ではデジタル方式の撮像装置のメーカ間競争が激化していることから、このような撮像装置を高機能化して、その商品価値を高めることが強く求められている。また、上述したセルフタイマ機能の問題点のように、撮像した画像は撮影者や被撮影者にとって必ずしも満足のいくものとはならないことから、このような満足度を高めるべく撮像動作を補助する機能は、商品価値を高めるための非常に重要なものと言える。特に、発達の進んでいる画像処理技術を用いてこのような機能を実現することが望まれているが、撮像動作中にリアルタイムにその動作を補助するような機能は実現されていなかった。 Recently, competition between manufacturers of digital imaging devices has intensified, and there is a strong demand to increase the functionality of such imaging devices and increase their commercial value. In addition, as with the problem of the self-timer function described above, the captured image is not always satisfactory for the photographer and the person to be photographed. Therefore, a function for assisting the image capturing operation in order to increase such satisfaction. Can be said to be very important for increasing the product value. In particular, it is desired to realize such a function by using an image processing technique that has been developed, but a function that assists the operation in real time during an imaging operation has not been realized.
本発明はこのような課題に鑑みてなされたものであり、被撮影者あるいは撮影者にとってより満足度の高い画像を撮像することが可能な撮像装置を提供することを目的とする。
また、本発明の他の目的は、被撮影者あるいは撮影者にとってより満足度の高い画像を撮像することが可能な表情評価装置を提供することである。
The present invention has been made in view of such problems, and an object thereof is to provide an imaging equipment capable of capturing a higher satisfaction image for the photographer or the photographer.
Another object of the present invention is to provide a facial expression evaluation equipment capable of capturing a higher satisfaction image for the photographer or the photographer.
本発明では上記課題を解決するために、固体撮像素子を用いて画像を撮像する撮像装置において、撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出する顔検出部と、検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、前記特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、算出された前記表情評価値の大きさを視覚的に示す報知情報を報知する報知部と、前記表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録する画像記録制御部と、を有し、前記報知部は、前記表情評価値に応じて変化する前記報知情報と、前記しきい値の位置を前記報知情報の変化に対応させて示すしきい値情報とを、視覚的な情報として報知することを特徴とする撮像装置が提供される。 In the present invention, in order to solve the above-described problem, in an imaging apparatus that captures an image using a solid-state imaging device, the image signal is obtained from the image signal in a period until the image signal obtained by imaging is recorded on a recording medium. A face detection unit for detecting a face and the detected facial expression are evaluated, and a facial expression evaluation value indicating the degree of proximity between the specific facial expression and the specific facial expression is calculated. Obtained by imaging when the facial expression evaluation value exceeds a predetermined threshold value, an informing unit for informing the visual information indicating the magnitude of the calculated facial expression evaluation value, and the facial expression evaluation value An image recording control unit that automatically records the image signal on a recording medium, and the notification unit notifies the notification information that changes according to the facial expression evaluation value and the position of the threshold value. Show in response to changes in information And threshold information, the imaging device is provided, characterized in that the notification as a visual information.
このような撮像装置では、顔検出部が、撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出し、表情評価部が、顔検出部により検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する。画像記録制御部は、表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録する。報知部は、算出された表情評価値の大きさを視覚的に示す報知情報を報知するとともに、上記のしきい値の位置を報知情報の変化に対応させて示すしきい値情報も、視覚的な情報として報知する。 In such an imaging apparatus, the face detection unit detects a human face from the image signal during a period until the image signal obtained by imaging is recorded on the recording medium, and the facial expression evaluation unit detects the face detection unit. The facial expression detected by the above is evaluated, and a facial expression evaluation value indicating the degree of closeness to the specific facial expression between the specific facial expression and the other facial expressions is calculated. The image recording control unit automatically records an image signal obtained by imaging on a recording medium when the facial expression evaluation value exceeds a predetermined threshold value. The notification unit notifies the notification information that visually indicates the magnitude of the calculated facial expression evaluation value, and the threshold information that indicates the position of the threshold corresponding to the change in the notification information is also visually Information is reported .
本発明の撮像装置によれば、撮像された画像信号を記録媒体に記録するまでの期間において、撮像された画像から人物の顔が検出され、その顔の表情が評価されて、その表情が、特定の表情とそれ以外の表情との間において、特定の表情にどれだけ近いかの度合いを示す表情評価値が算出され、表情評価値が所定のしきい値を超えると画像信号が自動的に記録される。そして、その表情評価値の大きさを視覚的に示す報知情報が、しきい値情報とともに報知される。従って、被撮影者の表情が撮像に適しているかを例えば被撮影者あるいは撮影者などに認識させることができるので、被撮影者や撮影者にとって満足度の高い画像を確実に記録媒体に記録できるようになる。
According to the imaging apparatus of the present invention, in the period until the captured image signal is recorded on the recording medium, a human face is detected from the captured image, the facial expression is evaluated, and the facial expression is A facial expression evaluation value indicating how close to a specific facial expression is calculated between a specific facial expression and other facial expressions. When the facial expression evaluation value exceeds a predetermined threshold value, the image signal is automatically Ru is recorded. And the alerting | reporting information which shows the magnitude | size of the facial expression evaluation value is alert | reported with threshold value information . Accordingly, since the photographer or the photographer can recognize whether the facial expression of the photographed person is suitable for imaging, for example, an image that is highly satisfactory for the photographed person or the photographer can be reliably recorded on the recording medium. It becomes like this.
以下、本発明の実施の形態を図面を参照して詳細に説明する。
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る撮像装置の要部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a main configuration of the imaging apparatus according to the first embodiment of the present invention.
図1に示す撮像装置は、デジタルスチルカメラあるいはデジタルビデオカメラなどとして実現されるものである。この撮像装置は、光学ブロック11、ドライバ11a、撮像素子12、タイミングジェネレータ(TG)12a、アナログフロントエンド(AFE)回路13、カメラ信号処理回路14、グラフィック処理回路15、ディスプレイ16、画像エンコーダ17、記録装置18、マイクロコンピュータ19、入力部20、LED(Light Emitting Diode)発光部21、および音声出力部22を具備する。
The imaging apparatus shown in FIG. 1 is realized as a digital still camera or a digital video camera. The imaging apparatus includes an
光学ブロック11は、被写体からの光を撮像素子12に集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構などを具備している。ドライバ11aは、マイクロコンピュータ19からの制御信号に基づいて、光学ブロック11内の各機構の駆動を制御する。
The
撮像素子12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal Oxide Semiconductor)型などの固体撮像素子であり、TG12aから出力されるタイミング信号に基づいて駆動され、被写体からの入射光を電気信号に変換する。TG12aは、マイクロコンピュータ19の制御の下でタイミング信号を出力する。
The
AFE回路13は、撮像素子12から出力された画像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドを行い、さらにAGC(Auto Gain Control)処理により利得を制御し、A/D変換を行ってデジタル画像データを出力する。
The
カメラ信号処理回路14は、AFE回路13からの画像データに対して、AF(Auto Focus)、AE(Auto Exposure)、各種画質補正処理のための検波処理や、検波情報を基にマイクロコンピュータ19から出力される信号に応じた画質補正処理を施す。なお、後述するように、本実施の形態では、このカメラ信号処理回路14は、顔検出機能およびその顔領域のデータを切り出す機能を備えている。
The camera
グラフィック処理回路15は、カメラ信号処理回路14から出力された画像データを、ディスプレイ16に表示するための信号に変換し、ディスプレイ16に供給する。また、マイクロコンピュータ19からの要求に応じて、後述する表情スコアなどの情報を画像上に合成する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)などからなり、グラフィック処理回路15からの画像信号を基に画像を表示する。
The
画像エンコーダ17は、カメラ信号処理回路14から出力された画像データを圧縮符号化し、符号化データを記録装置18に出力する。具体的には、カメラ信号処理回路14で処理された1フレーム分の画像データを、JPEG(Joint Photographic Experts Group)などの符号化方式に従って圧縮符号化し、静止画像の符号化データを出力する。なお、静止画像だけでなく、動画像のデータを圧縮符号化できるようにしてもよい。
The
記録装置18は、画像エンコーダ17からの符号化データを画像ファイルとして記録する装置であり、例えば、磁気テープ、光ディスクなどの可搬型記録媒体のドライブ装置、あるいはHDD(Hard Disk Drive)などとして実現される。
The
マイクロコンピュータ19は、CPU(Central Processing Unit)や、ROM(Read Only Memory)、RAM(Random Access Memory)などのメモリを備え、メモリに格納されたプログラムを実行することで、この撮像装置を統括的に制御する。
The
入力部20は、各種の入力スイッチに対するユーザによる操作入力に応じた制御信号を、マイクロコンピュータ19に出力する。この入力スイッチとしては、例えば、シャッタレリーズボタン、各種メニュー選択や動作モードの設定などを行うための十字キーなどが設けられる。
The
LED発光部21は、マイクロコンピュータ19からの制御信号に基づき、撮像装置の外装面に設けられたLEDを点灯させる。このLEDとしては、例えば、セルフタイマ機能の動作中であることを示すものなどが考えられる。
The LED
音声出力部22は、マイクロコンピュータ19からの制御信号に基づき、例えば動作確認音などの音声を出力する。なお、音声データのエンコーダ/デコーダを備える場合には、この音声データを再生したときの再生音声を出力してもよい。
The
この撮像装置では、撮像素子12によって受光されて光電変換された信号が、順次AFE回路13に供給され、CDS処理やAGC処理が施された後、デジタル画像データに変換される。カメラ信号処理回路14は、AFE回路13から供給された画像データを画質補正処理し、処理後の画像データはグラフィック処理回路15に供給されて表示用の画像信号に変換される。これによりディスプレイ16には、現在撮像中の画像(カメラスルー画像)がディスプレイ16に表示され、撮影者はこの画像を視認して画角を確認できるようになる。
In this image pickup apparatus, signals received and photoelectrically converted by the
また、この状態から、入力部20のシャッタレリーズボタンが押下されることなどにより、マイクロコンピュータ19に対して画像の記録が指示されると、カメラ信号処理回路14からの画像データは画像エンコーダ17に供給され、圧縮符号化処理が施されて、記録装置18に記録される。静止画像の記録の際には、カメラ信号処理回路14からは1フレーム分の画像データが画像エンコーダ17に供給され、動画像の記録の際には、処理された画像データが画像エンコーダ17に連続的に供給される。
In this state, when the
次に、この撮像装置が備える撮像動作モードについて説明する。この撮像装置は、静止画像を撮像する際に、撮像画像から被撮影者の顔を検出して、その表情を評価し、評価の度合いを示す情報を被撮影者に報知するモードと、その評価の度合いに応じて自動的にシャッタを切り、静止画像データを記録装置18に記録するモードとを備えている。以下、前者モードを「表情評価モード」、後者を「表情応答記録モード」と呼ぶことにする。
Next, an imaging operation mode provided in the imaging apparatus will be described. This imaging device detects a subject's face from the captured image when taking a still image, evaluates the facial expression, and informs the subject of information indicating the degree of evaluation, and its evaluation. A mode in which the shutter is automatically released in accordance with the degree of recording and still image data is recorded in the
表情評価モードでは、撮像画像から顔を検出した場合に、その顔の表情を評価し、評価に応じた情報を被撮影者に報知して、被撮影者がより撮像に適した表情になるように促す役割を果たす。例えば、表情として笑顔であるか否かの度合いを評価する。また、表情応答記録モードでは、その評価値が所定の値を超えたときに、被撮影者の顔が撮像に適した表情になったと判断して、自動的に静止画像データを記録する。これにより、被撮影者にとってより満足度の高い画像を記録できるように補助する。なお、ここでは表情評価モードと表情応答記録モードの2つのモードを備えるものとしているが、表情応答記録モードのみを備えていてもよい。 In the facial expression evaluation mode, when a face is detected from a captured image, the facial expression is evaluated, and information corresponding to the evaluation is notified to the photographed person so that the photographed person has a more suitable expression for imaging. Play a role in encouraging. For example, the degree of whether or not the face is a smile is evaluated. Further, in the facial expression response recording mode, when the evaluation value exceeds a predetermined value, it is determined that the face of the subject has become a facial expression suitable for imaging, and still image data is automatically recorded. This helps to record an image that is more satisfactory for the subject. Here, two modes, the facial expression evaluation mode and the facial expression response recording mode, are provided, but only the facial expression response recording mode may be provided.
図2は、表情評価モードおよび表情応答記録モードを実現するために撮像装置が備える機能を示すブロック図である。
図2に示すように、この撮像装置は、上記各撮像動作モードを実現するための機能として、顔検出部31、顔画像生成部32、表情評価部41、報知制御部42、および記録動作制御部43を備えている。本実施の形態では、顔検出部31および顔画像生成部32は、カメラ信号処理回路14内のハードウェアによって実現され、表情評価部41、報知制御部42および記録動作制御部43は、マイクロコンピュータ19によって実行されるソフトウェアの機能として実現される。ただし、これらの機能のそれぞれは、ハードウェアあるいはソフトウェアのいずれによって実現されてもよい。また、マイクロコンピュータ19は、表情評価部41による表情評価演算に用いるための判別軸情報44を、その内部のROMなどのメモリにあらかじめ保持している。後述するように、判別軸情報44は、2つの表情についての多数の顔のサンプルデータから主成分分析によって得た信号成分を基に、線形判別分析を行って得た表情の判別軸を示すベクトルの係数情報などを含む。
FIG. 2 is a block diagram illustrating functions of the imaging apparatus for realizing the facial expression evaluation mode and the facial expression response recording mode.
As shown in FIG. 2, the imaging apparatus has a
ここで、以下の図3および図4を用いて、図2に示した各機能の動作を説明する。まず、図3は、表情評価モードにおける動作の概要を示す図である。
表情評価モードでは、まず、顔検出部31が、撮像素子12による撮像により得られ、カメラ信号処理回路14内を伝達される画像データを基に、その画像から被撮影者の顔を検出する(ステップS1)。そして、検出した顔の領域を示す検出情報を顔画像生成部32に出力する。なお、本実施の形態のように、表情評価値に応じた情報をディスプレイ16に表示することで報知する場合、顔検出部31からの顔の検出情報は、マイクロコンピュータ19の報知制御部42にも供給される。
Here, the operation of each function shown in FIG. 2 will be described with reference to FIGS. 3 and 4 below. First, FIG. 3 is a diagram showing an outline of the operation in the facial expression evaluation mode.
In the facial expression evaluation mode, first, the
顔の検出手法としては周知の手法を適用することが可能であるが、例えば、特許文献1に記載された手法を用いることができる。この手法では、まず、顔画像中の2画素間の輝度差を学習し、特徴量としてあらかじめ保持しておく。そして、図3のステップS1の欄に示すように、入力画像に対して一定の大きさのウィンドウW1を順次当てはめていき、ウィンドウW1の中の画像に顔が含まれるか否かを特徴量を基に推定して、推定値を出力する。このとき、入力画像を順次縮小して同じ処理を行うことで、一定の大きさのウィンドウW1を用いて推定を行うことができる。そして、それらの動作により得られた推定値から、顔が存在する領域を最終的に判別する。
As a face detection method, a known method can be applied. For example, the method described in
次に、顔画像生成部32は、入力画像から、検出された顔の領域Afのデータを切り出す(ステップS2)。そして、切り出した画像データを一定サイズの画像データに変換して正規化し、表情評価部41に供給する(ステップS3)。
Next, the face
ここで、本実施の形態では、顔検出部31から出力される顔の検出情報の例として、顔の周囲を囲む長方形の検出枠の位置(例えば左端の座標。以下、顔の位置情報と呼ぶ。)と、その検出枠のサイズ(例えば水平・垂直方向の各画素数。以下、顔のサイズ情報と呼ぶ。)が出力されるものとする。この場合、顔画像生成部32は、顔の検出対象とされた画像データが一時的に記憶されたメモリ(RAM)にアクセスし、顔検出部31からの顔の位置情報およびサイズ情報に対応する領域のデータのみを読み込む。
Here, in this embodiment, as an example of face detection information output from the
また、切り出された画像データは、一定サイズ(解像度)の画像データとして解像度変換されることで正規化される。この正規化後の画像サイズは、表情評価部41において顔の表情を評価する際の処理単位となるサイズとなる。本実施の形態では、例として48画素×48画素のサイズとする。
Further, the cut out image data is normalized by converting the resolution as image data of a certain size (resolution). The normalized image size is a size that becomes a processing unit when the facial
なお、顔画像生成部32が備える上記のような画像切り出し機能および解像度変換機能としては、従来のカメラ信号処理回路14が検波や出力画像の生成などのために一般的に備えている同様の機能を流用することが可能である。
Note that the image clipping function and resolution conversion function as described above provided in the face
次に、表情評価部41は、顔画像生成部32からの顔の正規化画像データと、あらかじめ記憶されている判別軸情報44とを基に、その顔の表情の度合いを評価する演算を行って、表情評価値を出力する(ステップS4)。この表情評価値は、2つの表情のうちどちらの表情に近いかの度合いを示すものである。例えば、2つの表情として「笑顔」と「通常時の表情」を適用し、表情評価値が高いほど「通常時の表情」でなく「笑顔」である度合いが強いと評価する。なお、この表情評価値の算出手法については後述する。
Next, the
次に、報知制御部42は、表情評価部41から出力された表情評価値に応じた情報を、被撮影者に対して報知する(ステップS5)。例えば、表情評価値に応じた情報は、グラフィック処理回路15を通じて、被撮影者側に向けられたディスプレイ16に表示される。この場合、顔検出部31から供給された顔の位置およびサイズ情報を基に、評価対象の顔をディスプレイ16の中で特定するような表示が行われてもよい。また、LED発光部21を利用して、例えばその輝度の変化や点滅速度の変化、色の変化などにより表情評価値に違いが報知されてもよい。あるいは、音声出力部22を通じて、表情評価値に応じた異なる音声が出力されることで報知されてもよい。
Next, the
以下の説明では、表情評価部41は、例として顔の表情が笑顔であるか無表情であるかの度合いを評価するものとする。また、本実施の形態では、特に、その表情評価値に応じた情報を、被撮影者側に表示面を向けたディスプレイ16に表示することで、被撮影者に報知する。図3では、表情評価値に応じた値である「笑顔スコア」を示すバーグラフをディスプレイ16に表示した例を示している。
In the following description, it is assumed that the facial
図4は、笑顔スコアを示すバーグラフの動きを説明するための図である。
この図4に示すように、表情評価値は、顔の表情が笑顔である度合いが強いほど高くなり、通常時の表情である度合いが高いほど低くなる。また、バーグラフに示される笑顔スコアは、表情評価値に比例して連続的あるいは段階的に変動する。このバーグラフは、被撮影者側に向けられたディスプレイ16に表示され、被撮影者は撮像時にこのバーグラフをリアルタイムで視認することで、自分の表情が撮像に適した笑顔になっているか否かを認識できる。その結果、バーグラフは、被撮影者に対して撮像に適した表情になるように促し、より良好な画像を撮像できるように撮像動作を補助する機能を果たす。なお、後述するように、表情評価値の低い被撮影者に対して、笑顔を促すような具体的な文字情報などを表示してもよい。
FIG. 4 is a diagram for explaining the movement of the bar graph indicating the smile score.
As shown in FIG. 4, the facial expression evaluation value increases as the degree of facial expression is a smile, and decreases as the degree of facial expression is high. In addition, the smile score shown in the bar graph varies continuously or stepwise in proportion to the facial expression evaluation value. This bar graph is displayed on the
ここで、「表情応答記録モード」に設定されていた場合、表情評価部41は、表情評価値が所定のしきい値を超えた場合に、自動的にシャッタを切る、すなわち撮像画像を記録するように制御する。図2において、記録動作制御部43は、撮像画像データの記録動作を制御するブロックであり、通常の撮像動作では、入力部20のシャッタレリーズボタンが押下されたことを検知したときに、撮像装置内の各部を記録時に適した撮像動作(例えば露光動作や信号処理動作)を行うように制御し、それによって撮像画像データを、画像エンコーダ17にエンコードさせ、符号化データを記録装置18に記録させる。そして、表情評価部41は、表情評価値が所定のしきい値を超えたとき、この記録動作制御部43に対して画像データの記録動作を実行するように要求する。
Here, when the “expression response recording mode” is set, the
これにより、撮像画像から顔が検出され、その顔の表情が撮像に適した状態になったとき(ここでは笑顔の度合いが強くなったとき)に、そのときの撮像画像が自動的に記録されるようになる。従って、従来のセルフタイマ機能(すなわち、シャッタレリーズボタンを押下して一定時間後に撮像画像を記録する機能)と比較して、被撮影者が良好な表情で映った画像を確実に撮像できるようになり、被撮影者や撮影者の満足度を高めることができる。 As a result, when a face is detected from the captured image and the facial expression is suitable for imaging (in this case, when the degree of smile increases), the captured image at that time is automatically recorded. Become so. Therefore, as compared with the conventional self-timer function (that is, a function of recording a captured image after a certain period of time by pressing the shutter release button), the photographed person can surely capture an image with a good expression. Thus, the satisfaction level of the subject and the photographer can be increased.
次に、ディスプレイ16における笑顔スコアの具体的な表示画面の例について説明する。
図5は、バーグラフを用いた笑顔スコアの画面表示例を示す図である。
Next, a specific example of a smile score display screen on the
FIG. 5 is a diagram illustrating a screen display example of a smile score using a bar graph.
この図5では、撮像装置としてデジタルビデオカメラ100を想定している。デジタルビデオカメラ100では、カメラ本体部101の側面に、画角確認用のディスプレイ16が設けられている。このような構成のデジタルビデオカメラ100では、一般的にディスプレイ16の表示面の角度や方向が可変になっており、図5のように表示面を撮像レンズ102が設けられた方向、すなわち被撮影者の方向に向けることも可能になっている。表情評価モードおよび表情応答記録モードでは、このようにディスプレイ16の表示面を撮影者側に向けた状態で使用され、撮像されている被写体の画像とともに、表情評価値に応じた情報が表示される。
In FIG. 5, a
図5の画面表示例では、顔201を含む撮像画像の上に笑顔スコア表示部202が合成されて表示されている。笑顔スコア表示部202には、表情評価値に応じた笑顔スコアがバーグラフ203として表示されているとともに、数値表示部204にその笑顔スコアが数値として表示されている。また、表情応答記録モードでは、自動的に撮像画像が記録されるときの笑顔スコアの境界を示す境界表示アイコン205が表示される。この例ではさらに、境界表示アイコン205の上に、しきい値が数値によって表示されている。
In the screen display example of FIG. 5, the smile
また、図5の例では、笑顔スコア表示部202とともに、その笑顔スコアに対応する顔201の周囲に顔表示枠206を表示して、笑顔の評価対象の顔201をわかりやすく表示している。さらに、その顔表示枠206の近傍に、表情評価値に応じて異なる文字を表示する文字表示部207を設け、笑顔である度数が低いほどより強い笑顔にするように、被撮影者に対して文字によって促すようにしている。
In the example of FIG. 5, together with the smile
また、表情応答記録モードでは、撮像画像が記録される際の表情評価値のしきい値をユーザが任意に設定できるようにして、被撮影者がどの程度の笑顔となったときの画像を得たいかを自由に決められるようにしてもよい。図5の例では、例えば入力部20に設けられた左右方向の方向キー(図示せず)をユーザが押下することで、表情評価値のしきい値が変化するとともに、境界表示アイコン205が左右に移動して、表情評価値のしきい値に対応する笑顔スコアをユーザが視認できるようになっている。この場合、表情応答記録モードに設定されたときに、左右方向の方向キーを表情評価値のしきい値を設定するためのキーとして自動的に対応付けるようにしてもよく、これによりユーザの操作性を向上させることができる。
Also, in the facial expression response recording mode, the user can arbitrarily set a threshold value for facial expression evaluation values when a captured image is recorded, and an image when the subject is smiling is obtained. You may be free to decide what you want. In the example of FIG. 5, for example, when the user presses a left / right direction key (not shown) provided in the
なお、表情評価値のしきい値の変更は上記の手法に限らず、例えば、メニュー画面から選択される専用の設定画面から行うようにしてもよい。また、専用の操作キーを設けて行うようにしてもよい。また、ディスプレイ16がタッチパネル方式の場合は、例えばディスプレイ16上に表示させたキー画像に指を接触させることで、しきい値を変更してもよい。また、図5の境界表示アイコン205に指を接触させたまま左右に動かすことで、しきい値を変更できるようにしてもよい。
Note that the change in the threshold value of the facial expression evaluation value is not limited to the above method, and may be performed, for example, from a dedicated setting screen selected from the menu screen. Alternatively, a dedicated operation key may be provided. When the
また、撮像画面内から複数の顔が検出された場合には、それらの顔ごとに表情評価値を算出し、それらの値に応じた情報をディスプレイ16に表示してもよい。図6は、複数の顔が検出された場合における表情評価値に応じた情報の第1の画面表示例を示す図である。
When a plurality of faces are detected from the imaging screen, facial expression evaluation values may be calculated for each of the faces, and information corresponding to those values may be displayed on the
図6では例として、2つの顔211および212が検出された例を示している。顔211および212のそれぞれには、顔領域の周囲に顔表示枠213および214が表示されているとともに、その近傍に文字表示部215および216が設けられている。顔表示枠213および214は、それぞれの顔211および212に対する表情評価値に応じてその線種が変化するようにされ、文字表示部215および216には、表情評価値に応じた異なる文字が表示される。
FIG. 6 shows an example in which two faces 211 and 212 are detected as an example. In each of the
図6の例では、顔211については十分に強い笑顔であると評価されているが、顔212については笑顔の度合いが足りないと評価されている。例えば、顔211については表情評価値が自動記録のしきい値に達しているが、顔212については表情評価値がそのしきい値より少し低い状態を示している。このとき、顔211についての顔表示枠213を実線、顔212についての顔表示枠214を破線としてこのような評価状態の違いを対応する被撮影者に報知するとともに、文字表示部216にはさらに笑顔を強めることを促す文字情報を表示している。なお、この例では顔表示枠213および214の線種により表情評価値の違いを表しているが、その他に例えば、顔表示枠の輝度の違いや色の違い、太さの違いなどにより、表情評価値の違いを報知してもよい。
In the example of FIG. 6, the
図7は、複数の顔が検出された場合における表情評価値に応じた情報の第2の画面表示例を示す図である。
図7の例でも、図6と同様に2つの顔211および212が検出され、顔211については十分に強い笑顔であると評価され、顔212については笑顔の度合いが足りないと評価されている。また、図7の例では、顔211および212の各領域の近傍に、表情評価値に応じた記号217および218を示すことで、表情評価値の違いを被撮影者に報知している。
FIG. 7 is a diagram illustrating a second screen display example of information corresponding to facial expression evaluation values when a plurality of faces are detected.
In the example of FIG. 7 as well, two
以上のように、表情評価値に応じた情報をディスプレイを用いて報知することで、表情評価値に応じた笑顔スコアをバーグラフや数値で示す、あるいは、表情評価値に応じて顔表示枠の線種や色、明るさなどを変える、顔の近傍に表情評価値に応じて笑顔を促すような文字を表示するなど、様々な方法で表情評価値に応じた情報を被撮影者にわかりやすく報知することができる。特に、デジタルビデオカメラの場合、従来から設けられていた表示面方向可変のディスプレイを用いて報知できるので、カメラの基本的な構成を変えることによる大幅な開発・製造コストの上昇を招くことなく、ユーザにとって満足度の高い画像を確実に記録することができるようになる。 As described above, by displaying information according to the facial expression evaluation value using the display, the smile score according to the facial expression evaluation value is indicated by a bar graph or a numerical value, or the face display frame is displayed according to the facial expression evaluation value. Various information can be used to make the subject's facial expression evaluation value easy to understand, such as changing the line type, color, brightness, etc. Can be notified. In particular, in the case of a digital video camera, since it can be notified using a display surface direction variable display that has been provided conventionally, without significantly increasing the development and manufacturing costs by changing the basic configuration of the camera, An image having a high degree of satisfaction for the user can be reliably recorded.
なお、以上では表示面方向可変のディスプレイが搭載されたデジタルビデオカメラを例に挙げたが、撮像レンズとは反対の面に画角確認用のディスプレイが設けられるデジタルスチルカメラなどにも、そのディスプレイの表示面方向が可変のものがあり、その表示面を被撮影者側に向けることができれば、上記のような表示画像を表示させて表情評価値に応じた情報を被撮影者に報知することが可能である。 In the above, a digital video camera equipped with a display with a variable display screen direction is taken as an example, but the display is also applied to a digital still camera or the like provided with a display for checking the angle of view on the surface opposite to the imaging lens. If the display surface direction is variable and the display surface can be directed to the subject, the display image as described above is displayed to inform the subject of information according to the facial expression evaluation value. Is possible.
次に、この撮像装置で用いる表情評価の手法について説明する。
図8は、表情評価のために事前に生成すべき情報と、その情報生成の流れについて概念的に示す図である。
Next, a facial expression evaluation method used in this imaging apparatus will be described.
FIG. 8 is a diagram conceptually showing information to be generated in advance for facial expression evaluation and the flow of information generation.
本実施の形態では、表情の評価手法として、いわゆる「フィッシャー(Fisher)の線形判別分析」の手法を用いる。この手法では、まず、2つの表情をそれぞれ持つ顔のサンプル画像を事前に多数用意しておき、これらのサンプル画像のデータを基に、2つの表情間の2クラス問題と考えて、線形判別分析(LDA:Linear Discriminant Analysis)によりこれらの2つの表情をよく判別する判別軸Adを事前に形成しておく。そして、表情評価の際には、入力された顔画像のデータと判別軸Adとの内積を求めることで、表情評価値を算出する。 In this embodiment, a so-called “Fisher linear discriminant analysis” technique is used as an expression evaluation technique. In this method, first, a large number of face sample images each having two facial expressions are prepared in advance. Based on the data of these sample images, a two-class problem between the two facial expressions is considered, and linear discriminant analysis is performed. (LDA: Linear discriminant Analysis) are formed in advance discriminant axis a d to determine well these two expressions by. Then, at the time of facial expression evaluation, by obtaining the inner product of the data in the input face image and the discriminant axis A d, and calculates a facial expression evaluation value.
図8に示すように、本実施の形態では、笑顔のサンプル画像Psと通常の表情のサンプル画像Pnを用いる。これらのサンプル画像PsおよびPnは、例えば48画素×48画素の一定サイズに正規化した画像として用意しておく。そして、これらのサンプル画像のデータを(48×48)次元のベクトルデータとして取り扱い、LDA処理を行う。ただし、このベクトル空間は(48×48)本の座標軸を持つ非常に次元の大きい空間となる。そこで、LDA処理に先立って、それらのベクトルデータに対して主成分分析(PCA:Principal Component Analysis)を行い、顔の特徴だけを効率よく表すような次元の低い空間のデータに変換(次元圧縮)する。 As shown in FIG. 8, in this embodiment, a smiling sample image Ps and a normal facial expression sample image Pn are used. These sample images Ps and Pn are prepared as images normalized to a constant size of 48 pixels × 48 pixels, for example. Then, the data of these sample images is handled as (48 × 48) -dimensional vector data, and LDA processing is performed. However, this vector space is a very large space having (48 × 48) coordinate axes. Therefore, prior to LDA processing, principal component analysis (PCA) is performed on these vector data to convert them into low-dimensional space data that efficiently represents only facial features (dimensional compression). To do.
このPCA処理では、まず、入力されたM個(例えばM=300)のN次元(N=48×48)のサンプル画像群間のバラツキ(分散)が最大になるように、M本の軸を得ることを考える。このような軸は、画像群の共分散行列の固有値問題の解(固有ベクトル)として求められ、係数の比較的大きいベクトル成分のみを主成分として取り出すことで、顔の特徴を表すのに適したベクトル成分のみのN’次元(N>>N’)のデータに圧縮することができる。例えばN’=40程度とすることで、顔の表情判別について十分な精度を維持できることがわかっている。なお、PCA処理で得られた主成分のうち、係数の大きいものから順に数個程度除外することで、表情判別精度を保ちつつ、次元数をさらに減らして次のPCA処理の負荷を軽減できる。 In this PCA process, first, M axes are set so that the variation (variance) between input M (for example, M = 300) N-dimensional (N = 48 × 48) sample image groups is maximized. Think about getting. Such an axis is obtained as a solution (eigenvector) of the eigenvalue problem of the covariance matrix of the image group, and a vector suitable for representing facial features by extracting only vector components having relatively large coefficients as principal components. The data can be compressed into N′-dimensional (N >> N ′) data of only components. For example, it has been found that by setting N ′ = 40 or so, sufficient accuracy can be maintained for facial expression discrimination. It should be noted that, by removing about several main components obtained from the PCA processing in descending order of the coefficient, the number of dimensions can be further reduced and the load of the next PCA processing can be reduced while maintaining facial expression discrimination accuracy.
ここで、図9は、PCA処理時に入力するサンプル画像のマスキング処理について説明するための図である。
図9(A)のように、顔221が所定サイズの矩形領域に撮像されたサンプル画像Pをそのまま用いてPCA処理を行った場合、顔221の背景や髪などの影響により、適切な主成分を必ずしも選択できない場合があり得る。このため、図9(B)のように、顔221以外の領域にマスク222をかけて、できるだけ顔領域のみが残されたサンプル画像P1に変換し、顔の情報濃度を上げた状態でPCA処理することで、より高精度な次元圧縮を行うことができる。さらに、顔領域の中でも口は表情によって大きく変化し、擾乱要素となることが多いので、図9(C)のように口の領域までもマスク223をかけたサンプル画像P2を用いてPCA処理することで、さらに次元圧縮の精度を高めることができる。
Here, FIG. 9 is a diagram for explaining the masking process of the sample image input during the PCA process.
As shown in FIG. 9A, when the PCA process is performed using the sample image P in which the
以下、図8に戻って説明すると、PCA処理によって次元圧縮された笑顔、通常の表情の各サンプル画像は、顔の特徴を効率よく表すような座標軸のみを持つ部分空間(PCA空間Spca)上のベクトルデータに変換される。図8では、このPCA空間Spcaに、笑顔、通常の表情の各サンプル画像PsおよびPnが射影された様子を模式的に表している。この図のように、PCA空間Spcaの上では、表情が同じサンプル画像は比較的近くに存在すると言える。そこで、これらの各表情のサンプル画像群を2つのクラスタCLsおよびCLnと捉え、これらのクラスタ同士を最もよく分離する射影軸(判別軸Ad)をLDA処理により形成する。このような判別軸Adは“フィッシャーの射影軸”と呼ばれる。 In the following, referring back to FIG. 8, each sample image of a smile and a normal expression that has been dimensionally compressed by the PCA process is on a partial space (PCA space Spca ) having only coordinate axes that efficiently represent facial features. To vector data. FIG. 8 schematically shows how the sample images Ps and Pn of smiles and normal expressions are projected onto the PCA space Spca . As shown in this figure, on the PCA space Spca , it can be said that sample images having the same expression exist relatively close to each other. Therefore, the sample image group of each expression is regarded as two clusters CL s and CL n, and a projection axis (discriminant axis A d ) that best separates these clusters is formed by LDA processing. Such a discriminant axis Ad is called a “Fischer projection axis”.
LDA処理では、一般的に、N’次元の固有ベクトル上に射影されたクラス内およびクラス間の分散が最大になるような判別軸が求められる。すなわち、クラス内、クラス間の各共分散行列の最大固有値に対応する固有ベクトルを求め、これを判別軸Ad上のベクトル(フィッシャー・ベクトル)とする。各共分散行列と固有値、固有ベクトルとの関係を、式(1)および(2)に示す。 In the LDA process, generally, a discriminant axis that maximizes the variance within a class and between classes projected onto an N′-dimensional eigenvector is obtained. That is, in a class, determine the eigenvector corresponding to the largest eigenvalue of the covariance matrix between classes, to do this the vector on the discriminant axis A d (Fisher vector). Expressions (1) and (2) show the relationship between each covariance matrix, eigenvalue, and eigenvector.
ここで、式(2)の左辺の逆行列、固有値、固有ベクトルの演算には、それぞれLU(Lower-Upper)分解法、QR分解法(Q:直交行列,R:上三角行列)、ガウスの消去法を用いることができる。表情評価部41は、以上のように得られた判別軸Adの情報(判別軸情報44)として、フィッシャー・ベクトルの各成分の係数などの情報を、ROMなどにあらかじめ保持しておく。
Here, the inverse matrix, eigenvalue, and eigenvector of the left side of Equation (2) are used for LU (Lower-Upper) decomposition method, QR decomposition method (Q: orthogonal matrix, R: upper triangular matrix), Gaussian elimination, respectively. Can be used.
図10は、ピクセル空間およびPCA空間における判別軸および顔の入力画像の関係を概念的に示す図である。
上記の判別軸Adを用いた表情判別の基本的な手順は、まず、撮像画像から検出された顔の画像データをPCA処理し、主成分を抽出する。そして、この顔画像の表情は、図10のPCA空間Spcaに示すように、PCA処理された顔画像ベクトル(入力顔画像ベクトル)の判別軸Adに対する射影成分として評価される。すなわち、表情評価値Eexpの演算は、入力顔画像ベクトルとフィッシャー・ベクトルとの内積により算出できる(式(5−1)参照)。
FIG. 10 is a diagram conceptually showing the relationship between the discrimination axis and the face input image in the pixel space and PCA space.
The basic procedure for expression determination using the above-described discriminant axis A d, first, the image data of the detected face from the captured image to the PCA process to extract a principal component. Then, the facial expression of the face image, as shown in the PCA space S pca in FIG 10, is evaluated as the projection component to the discriminant axis A d of PCA processed face image vector (input face image vector). That is, the calculation of the facial expression evaluation value E exp can be calculated by the inner product of the input face image vector and the Fisher vector (see Expression (5-1)).
ただし、フィッシャー・ベクトルの情報は、ピクセル空間Spxl(PCA処理前の元の画像データが持つ次元の空間)での情報に換算しておくこともできる。式(3)および(4)はそれぞれ、入力顔画像ベクトルおよびフィッシャー・ベクトルをピクセル空間Spxlでのベクトルとして表しており、これらの関係を概念的に表したものが図10である。式(3)、式(4)および図10に示すように、PCA処理により得られる主成分μ1〜μN'以外のベクトル成分は、すべての入力画像の平均値として定数Cで近似できる。従って、式(5−1)に示すような内積演算は、式(5−2)のようにピクセル空間Spxlの上でのベクトルの内積演算として等価的に表すことができる。 However, the Fisher vector information can also be converted into information in the pixel space Spxl (the dimension space of the original image data before PCA processing). Expressions (3) and (4) represent the input face image vector and the Fisher vector as vectors in the pixel space S pxl , respectively, and FIG. 10 conceptually represents these relationships. As shown in Expression (3), Expression (4), and FIG. 10, vector components other than the main components μ 1 to μ N ′ obtained by PCA processing can be approximated by a constant C as an average value of all input images. Therefore, the inner product operation as shown in Expression (5-1) can be equivalently expressed as an inner product operation of a vector on the pixel space S pxl as shown in Expression (5-2).
式(5−2)において、ピクセル空間Spxlでのフィッシャー・ベクトル成分と定数Cとの減算結果は事前に算出できるので、表情評価部41は、この減算結果と定数Cとを判別軸情報44としてあらかじめ保持しておく。そして、撮像画像から検出された顔画像のベクトルが与えられると、そのベクトルをPCA処理することなく、式(5−2)の内積演算を実行する。式(5−2)による1つの顔に対する評価値演算では、それぞれ最大で(48×48)回の減算、乗算および加算が実行されるのみであり、しかも実際には、40個程度の主成分μ1〜μN'に対応する係数の演算のみが実行されることになる。従って、PCA空間Spcaでのベクトルの内積演算を行う場合と比較して、表情評価の精度を落とすことなく演算量を大幅に削減することができ、撮像画像記録前の画角合わせの状態で表情評価値Eexpをリアルタイムで容易に算出できる。
In Expression (5-2), since the subtraction result between the Fisher vector component and the constant C in the pixel space Spxl can be calculated in advance, the facial
このような演算手法では、例えば、多数の顔画像のテンプレートと検出された顔画像とのマッチングにより表情を評価する手法と比較しても、はるかに低処理負荷かつ高精度の表情評価を行うことが可能である。テンプレートを用いたマッチングを行う場合、通常は、検出された顔画像からさらに目や口などのパーツを抽出し、パーツごとにマッチング処理を行う必要がある。これに対して、本実施の形態の手法では、検出した顔画像のデータを一定サイズに正規化した後、その顔画像をベクトル情報に置き換えてそのまま(あるいは部分的にマスクするだけで)内積演算に適用でき、その内積演算も上述の通り40次元程度の減算、乗算および加算からなる単純なものとなる。 In such a calculation method, for example, a facial expression evaluation with far lower processing load and high accuracy can be performed compared to a method for evaluating facial expressions by matching a large number of facial image templates with detected facial images. Is possible. When performing matching using a template, it is usually necessary to further extract parts such as eyes and mouth from the detected face image and perform matching processing for each part. On the other hand, in the method of the present embodiment, after normalizing the detected face image data to a certain size, the face image is replaced with vector information and is directly (or only partially masked). As described above, the inner product operation is also a simple one consisting of subtraction, multiplication and addition of about 40 dimensions.
図11は、表情評価値を数値として出力する場合の算出例を示す図である。
本実施の形態では、例として、サンプル画像のPCA処理結果に基づき、PCA空間における笑顔の顔画像および通常の表情の顔画像のそれぞれの分布の平均を求め、これらの平均の判別軸Adに対する射影点を決めておく。そして、各平均の射影点の中点を基準として表情評価値Eexpを数値に換算する。すなわち、図11のように、入力顔画像の判別軸に対する射影点と平均の射影点の中点との距離を表情評価値Eexpとし、笑顔のサンプル画像の分布している側を正の数値とする。これにより、検出された顔の画像が笑顔と通常の表情のどちらに近いかを連続的な数値として出力できるようになり、表情評価値Eexpが高いほど強い笑顔であると評価される。
FIG. 11 is a diagram illustrating a calculation example when the facial expression evaluation value is output as a numerical value.
In the present embodiment, as an example, based on the PCA processing result of the sample image, the average of the distribution of the smile face image and the normal expression face image in the PCA space is obtained, and the average of these average discriminant axes Ad Determine the projection point. Then, the facial expression evaluation value E exp is converted into a numerical value with the midpoint of each average projection point as a reference. That is, as shown in FIG. 11, the distance between the projection point with respect to the discrimination axis of the input face image and the midpoint of the average projection point is the facial expression evaluation value E exp, and the side where the smiling sample image is distributed is a positive numerical value. And As a result, it is possible to output whether the detected face image is close to a smile or a normal expression as a continuous numerical value, and a higher expression evaluation value E exp is evaluated as a stronger smile.
次に、表情応答記録モードにおける撮像装置の処理手順について、フローチャートにまとめて説明する。図12は、表情応答記録モードにおける撮像装置の処理の流れを示すフローチャートである。 Next, a processing procedure of the imaging apparatus in the facial expression response recording mode will be described together with a flowchart. FIG. 12 is a flowchart illustrating a process flow of the imaging apparatus in the facial expression response recording mode.
〔ステップS11〕顔検出部31は、撮像画像のデータから顔を検出し、検出されたすべての顔の位置情報およびサイズ情報を、顔画像生成部32および報知制御部42に対して出力する。
[Step S11] The
〔ステップS12〕顔画像生成部32は、顔検出部31からの顔の位置情報およびサイズ情報に基づき、撮像画像のデータから検出されたそれぞれの顔の領域のデータを切り出す。
[Step S12] The face
〔ステップS13〕顔画像生成部32は、切り出したそれぞれの顔領域のデータを、所定画素数(ここでは48画素×48画素)のデータに正規化し、さらに、表情検出に必要のない領域をマスキングして、処理後の画像データを表情評価部41に出力する。
[Step S13] The face
〔ステップS14〕表情評価部41は、判別軸情報44を読み込み、顔画像生成部32から供給されたもののうち1つの顔画像から得たベクトル成分と、判別軸のベクトル成分との内積演算を行って、表情評価値を算出する。算出した表情評価値は、例えばRAMなどに一時的に記憶される。
[Step S14] The facial
〔ステップS15〕表情評価部41は、検出されたすべての顔について表情評価処理が済んだか否かを判断する。処理済みでない場合は、他の顔についてステップS14を再び実行し、処理済みの場合にはステップS16を実行する。
[Step S15] The facial
〔ステップS16〕報知制御部42は、ステップS15で算出された表情評価値と、それに対応する顔の位置情報およびサイズ情報とを基に、笑顔スコアや表示枠などの表情情報をグラフィック処理回路15に出力し、ディスプレイ16に合成して表示させる。
[Step S16] Based on the facial expression evaluation value calculated in Step S15 and the face position information and size information corresponding to the facial expression evaluation value, the
〔ステップS17〕表情評価部41は、ステップS14で算出した、すべての顔についての表情評価値が、しきい値を超えているか否かを判定する。しきい値を超えていない表情評価値がある場合には、ステップS11に戻って顔検出を実行するようにカメラ信号処理回路14に対して指示し、これにより次の顔画像の検出および表情評価処理が開始される。また、すべての表情評価値がしきい値を超えている場合には、ステップS18を実行する。
[Step S17] The facial
〔ステップS18〕表情評価部41は、記録動作制御部43に対して、撮像画像のデータを記録装置18に記録するように要求する。これにより、撮像画像に対して記録用の信号処理が施され、処理後の符号化画像データが記録装置18に記録される。
[Step S18] The facial
以上の処理により、検出されたすべての顔について表情評価値が算出され、その表情評価値に応じた情報が表示情報として被撮影者に通知されるので、被撮影者に対して撮像に適した表情になるように促すことができる。そして、すべての被撮影者が撮像に適した表情になったときに、撮像画像のデータが自動的に記録されるので、被撮影者や撮影者にとって満足度の高い画像を確実に記録できる。 With the above processing, facial expression evaluation values are calculated for all detected faces, and information corresponding to the facial expression evaluation values is notified to the photographed person as display information. You can encourage them to become facial expressions. When all photographed subjects have expressions suitable for imaging, the captured image data is automatically recorded, so that an image that is highly satisfactory for the photographed subject and the photographer can be recorded reliably.
なお、ステップS17での判定基準はあくまで例であり、必ずしもすべての表情評価値がしきい値を超えたときに画像データを記録するように制御する必要はない。例えば、検出された顔のうち、一定の割合の顔の表情評価値がしきい値を超えたときに画像データを記録してもよい。あるいは、一定の数の顔の表情評価値がしきい値を超えたときに画像データを記録するようにして、偶然撮像された必要のない顔に対しても表情評価が実行されることを防止してもよい。 Note that the determination criterion in step S17 is merely an example, and it is not always necessary to perform control so that image data is recorded when all facial expression evaluation values exceed the threshold value. For example, image data may be recorded when facial expression evaluation values of a certain percentage of detected faces exceed a threshold value. Alternatively, image data is recorded when a certain number of facial expression evaluation values exceed a threshold value, thereby preventing facial expression evaluation from being performed on faces that do not need to be captured accidentally. May be.
また、上記の表情応答記録モードでは、単に表情評価値が所定のしきい値を超えたときに自動的に撮像画像を記録しているが、この他に例えば、撮影者によりシャッタレリーズボタンが押下されると、その一定時間後から被撮影者の表情を評価し、撮像に適する表情となったときに自動的に撮像画像を記録するようにしてもよい。この場合例えば、マイクロコンピュータ19は、シャッタレリーズボタンの押下を検出すると時間のカウントを開始し、一定時間が経過したときに図12の処理を開始させればよい。このような処理により、シャッタレリーズボタンを押下した撮影者も確実に撮像範囲に移動することができ、操作性が向上される。
In the facial expression response recording mode described above, a captured image is automatically recorded when the facial expression evaluation value exceeds a predetermined threshold value. In addition to this, for example, the shutter release button is pressed by the photographer. Then, the subject's facial expression may be evaluated after a certain time, and the captured image may be automatically recorded when the facial expression is suitable for imaging. In this case, for example, the
また、上記の説明では、「笑顔」と「通常時の表情」という2つの表情を定義し、笑顔にどれだけ近いかを判別していたが、「笑顔」とそれ以外の表情(非笑顔と呼ぶ)との間で判別を行うようにしてもよい。この「非笑顔」の表情は、真顔、泣き顔、怒り顔などの笑顔でない複数の表情を含んでもよい。この場合、これらの複数の表情に対応する顔のサンプル画像の平均から「非笑顔」の集合を求め、この集合と「笑顔」の集合とを基にLDA処理のための判別軸を算出する。 In the above explanation, two facial expressions, “smile” and “normal facial expression”, are defined to determine how close they are to smiles. “Smile” and other facial expressions (non-smile and non-smile) It is also possible to make a determination between This “non-smile” facial expression may include a plurality of facial expressions that are not smiling, such as a straight face, a crying face, and an angry face. In this case, a set of “non-smiles” is obtained from the average of the face sample images corresponding to the plurality of facial expressions, and a discrimination axis for LDA processing is calculated based on this set and the set of “smiles”.
さらに、表情評価値は、必ずしも「笑顔」のような1つの表情に対する近さを示すものでなくてもよく、例えば「笑顔」「真顔」などの特定の複数の表情を撮像に適する表情と考えて、これらの複数の表情の側にどれだけ近いかを示すようにしてもよい。この場合にも、これらの複数の表情に対応する顔のサンプル画像の平均から「撮像に適する表情」の集合を求め、この集合と「撮像に適さない表情」の集合とを基にLDA処理のための判別軸を算出すればよい。 Furthermore, the facial expression evaluation value does not necessarily indicate the closeness to one facial expression such as “smile”, and for example, a plurality of specific facial expressions such as “smile” and “true face” are considered to be suitable for imaging. It is also possible to show how close to these multiple facial expressions. Also in this case, a set of “facial expressions suitable for imaging” is obtained from the average of the sample face images corresponding to the plurality of facial expressions, and the LDA processing is performed based on this set and a set of “facial expressions unsuitable for imaging”. What is necessary is just to calculate the discriminant axis for this.
[第2の実施の形態]
図13は、本発明の第2の実施の形態に係る撮像装置の外観を示す図である。
本実施の形態では、表情評価値に応じた情報を、図1の構成の中のLED発光部21の一部を用いて被撮影者に報知する。図13に示した撮像装置110は、撮像レンズ111やフラッシュ発光部112などが搭載された面に、表情評価値に応じた情報を報知するための専用のLED発光部21aが設けられている。LED発光部21aには複数のLED21b〜21fが1つの線上に設けられており、それらの一方からのLEDの点灯数により、表情評価値に応じた情報(ここでは笑顔スコア)が被撮影者に通知される。このような構成により、表示面方向可変のディスプレイを持たないデジタルスチルカメラなどの撮像装置においても、表情評価値に応じた情報を被撮影者に報知して、適切な画像が記録されるように撮像動作を補助することができる。また、LEDなどの小型の発光デバイスを用いることで、撮像装置本体の大型化を最小限に留めることができる。
[Second Embodiment]
FIG. 13 is a diagram illustrating an appearance of an imaging apparatus according to the second embodiment of the present invention.
In the present embodiment, information corresponding to the facial expression evaluation value is notified to the subject using a part of the LED
さらに、LED発光部21aにおいては、最も他方の側のLED(図ではLED21f)が、撮像画像が自動的に記録される際の笑顔スコアを示すものとし、このLEDを他とは別の色や輝度などで発光させてもよい。これにより、自動記録が行われる際の笑顔スコアを被撮影者に明確に報知でき、また自動記録が行われたことを被撮影者が認識できるようにもなる。
Further, in the LED
[第3の実施の形態]
図14は、本発明の第3の実施の形態に係る撮像装置の外観を示す図である。
図14に示す撮像装置120では、撮像レンズ121やフラッシュ発光部122などが搭載された面に、1つのLEDのみを持つLED発光部21gが設けられている。このようなLED発光部21gにおいては、表情評価値に応じて、例えば、LEDの点滅速度を変える、LEDの輝度や色を変えることなどによって、笑顔スコアを被撮影者に報知することが可能である。例えば、表情評価値が大きくなるに連れて、LEDの色を赤、緑、青に徐々に変化させる、あるいは、LEDを徐々に明るくするなどの制御が可能である。このように、1つのLEDのみ用いることで、撮像装置本体の大型化をさらに顕著に阻止できる。
[Third Embodiment]
FIG. 14 is a diagram illustrating an appearance of an imaging apparatus according to the third embodiment of the present invention.
In the
また、この撮像装置120が従来のセルフタイマ機能を備えている場合には、そのセルフタイマ作動時に用いられるLEDを表情評価用に兼用することもできる。例えば、セルフタイマの作動時には、シャッタレリーズボタンが押下された後、記録までの間に時間の経過に従って徐々にLEDの点滅速度を高くする。そして、表情評価モードや表情応答記録モードでは、表情評価値が高いほどLEDの点滅速度を高くする。このような構成により、従来の撮像装置の基本構成や外観を変えることなく、表情評価値に応じた情報を被撮影者に報知できる。また、兼用可能な発光部はセルフタイマ用に限らず、例えば、露光制御時の測光用発光部を兼用することもできる。ただし、この場合には、少なくとも表情評価時には可視光を発光できる必要がある。
Further, when the
[第4の実施の形態]
図15は、本発明の第4の実施の形態に係る撮像装置の外観を示す図である。
上記の各実施の形態では、表情評価値に応じた情報を視覚的に報知していた。これに対して、本実施の形態では、図2に示した音声出力部22を用いて、表情評価値に応じた情報を音声により報知する。図15に示した撮像装置130では、撮像レンズ131が搭載された側にスピーカ22aを設け、表情評価値に応じて異なる音声を再生出力させる。出力する音声としては、例えば、図5や図6に示した文字情報と同様、笑顔である度数が低いほどより強い笑顔にするように、被撮影者に対して促すような音声とする。この場合、撮像装置130は、再生すべき音声のデータを、表情評価値に対して段階的に対応付けてあらかじめ保持しておけばよい。また、表情評価値に応じて音の高さや出力間隔を変える手法や、表情評価値に応じて異なるメロディの音声を出力する手法などを採ってもよい。なお、音声による報知と、視覚的な情報による報知とが併用されてもよい。
[Fourth Embodiment]
FIG. 15 is a diagram illustrating an appearance of an imaging apparatus according to the fourth embodiment of the present invention.
In each of the above embodiments, information according to the facial expression evaluation value is visually notified. On the other hand, in this embodiment, information corresponding to the facial expression evaluation value is notified by voice using the
[第5の実施の形態]
図16は、本発明の第5の実施の形態に係るPC(パーソナルコンピュータ)の外観を示す図である。
[Fifth Embodiment]
FIG. 16 is a diagram showing the appearance of a PC (personal computer) according to the fifth embodiment of the present invention.
上記の各実施の形態における表情評価機能、表情評価値に応じた情報の報知機能、および表情評価値に応じた画像の自動記録機能は、図16に示すPC140のように各種のコンピュータにおいても実現することができる。図16では例として、LCDからなるディスプレイ141とキーボード142や本体部が一体に構成されたノート型のPC140を示している。そして、このPC140には、例えばディスプレイ141の上端部に撮像部143が一体に設けられており、PC140を操作しているユーザの側を撮像できるようになっている。なお、撮像部143は、例えばUSB(Universal Serial Bus)などの通信インタフェースを介して外部に接続されるものでもよい。
The facial expression evaluation function, the information notification function according to the facial expression evaluation value, and the automatic image recording function according to the facial expression evaluation value in each of the above embodiments are also realized in various computers such as the
このようなコンピュータにおいては、上記各機能の処理内容を記述したプログラムをコンピュータで実行することにより、それらの機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。 In such a computer, these functions are realized on the computer by executing the program describing the processing contents of the above functions on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory.
このプログラムを流通させる場合には、例えば、プログラムが記録された光ディスクなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When this program is distributed, for example, a portable recording medium such as an optical disk on which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
11……光学ブロック、11a……ドライバ、12……撮像素子、12a……タイミングジェネレータ(TG)、13……アナログフロントエンド(AFE)回路、14……カメラ信号処理回路、15……グラフィック処理回路、16……ディスプレイ、17……画像エンコーダ、18……記録装置、19……マイクロコンピュータ、20……入力部、21……LED発光部、22……音声出力部、31……顔検出部、32……顔画像生成部、41……表情評価部、42……報知制御部、43……記録動作制御部、44……判別軸情報
DESCRIPTION OF
Claims (13)
撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出する顔検出部と、
検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、前記特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、
算出された前記表情評価値の大きさを視覚的に示す報知情報を報知する報知部と、
前記表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録する画像記録制御部と、
を有し、
前記報知部は、前記表情評価値に応じて変化する前記報知情報と、前記しきい値の位置を前記報知情報の変化に対応させて示すしきい値情報とを、視覚的な情報として報知することを特徴とする撮像装置。 In an imaging device that captures an image using a solid-state imaging device,
A face detection unit for detecting a person's face from the image signal in a period until the image signal obtained by imaging is recorded on the recording medium;
A facial expression evaluation unit that evaluates the facial expression detected and calculates a facial expression evaluation value that indicates how close the specific facial expression is between the specific facial expression and other facial expressions;
An informing unit for informing information that visually indicates the size of the calculated facial expression evaluation value;
An image recording control unit that automatically records an image signal obtained by imaging on a recording medium when the facial expression evaluation value exceeds a predetermined threshold;
I have a,
The notification unit notifies, as visual information, the notification information that changes according to the facial expression evaluation value, and threshold information that indicates the position of the threshold corresponding to the change of the notification information. An imaging apparatus characterized by that.
ユーザによる入力操作に応じて前記しきい値が変更されるとともに、前記しきい値の変更に応じて前記バー表示画像上での前記位置表示画像の位置も変化することを特徴とする請求項1記載の撮像装置。 The threshold value is changed according to an input operation by a user, and the position of the position display image on the bar display image is changed according to the change of the threshold value. The imaging device described.
撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、その画像信号から人物の顔を検出する顔検出部と、 A face detection unit for detecting a person's face from the image signal in a period until the image signal obtained by imaging is recorded on the recording medium;
検出された顔の表情を評価し、特定の表情とそれ以外の表情との間において、前記特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、 A facial expression evaluation unit that evaluates the facial expression detected and calculates a facial expression evaluation value that indicates how close the specific facial expression is between the specific facial expression and other facial expressions;
前記表情評価値が所定のしきい値を超えた場合に、撮像によって得られた画像信号を記録媒体に自動的に記録させる画像記録制御部と、 An image recording control unit that automatically records an image signal obtained by imaging when the facial expression evaluation value exceeds a predetermined threshold;
算出された前記表情評価値の大きさに応じて変化する報知情報と、前記しきい値の位置を前記報知情報の変化に対応させて示すしきい値情報とを、視覚的な情報として報知するための表示情報を生成する表示情報生成部と、 Notification information that changes in accordance with the calculated expression evaluation value and threshold information that indicates the position of the threshold corresponding to the change in the notification information are notified as visual information. A display information generation unit for generating display information for
を有することを特徴とする表情評価装置。 A facial expression evaluation apparatus characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008209119A JP4315234B2 (en) | 2008-08-15 | 2008-08-15 | Imaging apparatus and facial expression evaluation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008209119A JP4315234B2 (en) | 2008-08-15 | 2008-08-15 | Imaging apparatus and facial expression evaluation apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006211000A Division JP4197019B2 (en) | 2006-08-02 | 2006-08-02 | Imaging apparatus and facial expression evaluation apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008289189A JP2008289189A (en) | 2008-11-27 |
JP4315234B2 true JP4315234B2 (en) | 2009-08-19 |
Family
ID=40148407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008209119A Expired - Fee Related JP4315234B2 (en) | 2008-08-15 | 2008-08-15 | Imaging apparatus and facial expression evaluation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4315234B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010147808A (en) * | 2008-12-18 | 2010-07-01 | Olympus Imaging Corp | Imaging apparatus and image processing method in same |
JP5488961B2 (en) * | 2009-07-27 | 2014-05-14 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP5431083B2 (en) * | 2009-09-16 | 2014-03-05 | オリンパスイメージング株式会社 | Image capturing apparatus and method for controlling image capturing apparatus |
JP5381798B2 (en) * | 2010-02-23 | 2014-01-08 | 株式会社デンソー | Vehicle display device |
KR101661657B1 (en) * | 2010-05-14 | 2016-10-04 | 엘지이노텍 주식회사 | Apparatus and method for taking a photograph of face |
KR101659565B1 (en) * | 2010-06-30 | 2016-09-23 | 엘지이노텍 주식회사 | Apparatus and method for taking a photograph of face |
JP2012053663A (en) * | 2010-09-01 | 2012-03-15 | Honda Motor Co Ltd | Object kind determination device |
JP2012216951A (en) * | 2011-03-31 | 2012-11-08 | Toshiba Corp | Electronic apparatus and control method for indicator |
JP6729572B2 (en) * | 2015-06-08 | 2020-07-22 | ソニー株式会社 | Image processing device, image processing method, and program |
JP7225749B2 (en) * | 2018-01-11 | 2023-02-21 | カシオ計算機株式会社 | Notification device, notification method and program |
US11191341B2 (en) | 2018-01-11 | 2021-12-07 | Casio Computer Co., Ltd. | Notification device, notification method, and storage medium having program stored therein |
CN114173061B (en) * | 2021-12-13 | 2023-09-29 | 深圳万兴软件有限公司 | Multi-mode camera shooting control method and device, computer equipment and storage medium |
-
2008
- 2008-08-15 JP JP2008209119A patent/JP4315234B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008289189A (en) | 2008-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4197019B2 (en) | Imaging apparatus and facial expression evaluation apparatus | |
JP4315234B2 (en) | Imaging apparatus and facial expression evaluation apparatus | |
JP4973098B2 (en) | Image processing apparatus, image processing method, and program | |
JP5251547B2 (en) | Image photographing apparatus, image photographing method, and computer program | |
KR101795601B1 (en) | Apparatus and method for processing image, and computer-readable storage medium | |
JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
US8350918B2 (en) | Image capturing apparatus and control method therefor | |
KR101537948B1 (en) | Photographing method and apparatus using pose estimation of face | |
JP2007304280A (en) | Imaging apparatus, its control method, program and storage medium | |
JP2008205650A (en) | Image processor, image processing method, imaging apparatus, and computer program | |
JP5106355B2 (en) | Facial expression determination device, control method thereof, imaging device, and program | |
US20130235228A1 (en) | Image processing apparatus and method, and program | |
JP4891674B2 (en) | camera | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2008167028A (en) | Imaging apparatus | |
JP2006340281A (en) | Image pickup apparatus | |
KR101474304B1 (en) | Method for controlling the digital image processing apparatus and the digital image processing apparatus of operating by the method | |
JP2009302835A (en) | Image processor and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090511 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4315234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130529 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |