JP6670496B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6670496B2
JP6670496B2 JP2015228824A JP2015228824A JP6670496B2 JP 6670496 B2 JP6670496 B2 JP 6670496B2 JP 2015228824 A JP2015228824 A JP 2015228824A JP 2015228824 A JP2015228824 A JP 2015228824A JP 6670496 B2 JP6670496 B2 JP 6670496B2
Authority
JP
Japan
Prior art keywords
imaging
face
information
person
setting information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015228824A
Other languages
Japanese (ja)
Other versions
JP2017098746A (en
Inventor
井出 賢一
賢一 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
V Sync Co Ltd
Original Assignee
V Sync Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by V Sync Co Ltd filed Critical V Sync Co Ltd
Priority to JP2015228824A priority Critical patent/JP6670496B2/en
Publication of JP2017098746A publication Critical patent/JP2017098746A/en
Application granted granted Critical
Publication of JP6670496B2 publication Critical patent/JP6670496B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing device.

一般的に、カメラ等の撮像機器を用いて対象物を撮像したとき、カメラの向きや対象物との関係によっては、撮像した撮像画像(以下、単に「画像」、「写真」と称する)の精度が低下することとなる場合がある。例えば、ピントが合っていないことによるピンボケ、レンズに取り込む光の量が多すぎる露光オーバー、レンズに取り込む光の量が多すぎる露光アンダー等がある。   In general, when an object is imaged using an imaging device such as a camera, depending on the orientation of the camera and the relationship with the object, the captured image (hereinafter, simply referred to as “image” or “photograph”) may be generated. Accuracy may be reduced. For example, there are out-of-focus due to out of focus, overexposure where the amount of light taken into the lens is too large, and underexposure where the amount of light taken into the lens is too large.

また、撮像した画像を元に、その画像に含まれる人物をもとに顔を認識する技術がある。顔の認識を行うためには撮像した画像に対して一定の精度が求められる。   There is also a technique for recognizing a face based on a captured image and a person included in the image. In order to perform face recognition, certain accuracy is required for a captured image.

これは、人間の顔が多様性に富んでおり、顔認識にはさまざまな情報を必要とされているためである。例えば、人種、年齢、性別などの個人ごとに異なる情報や、撮像した人物の向き、傾き等の撮像情報などの情報を用いて総合的に判断する必要がある。   This is because human faces are rich in variety and various kinds of information are required for face recognition. For example, it is necessary to make a comprehensive judgment using information that differs for each individual such as race, age, and gender, and information such as imaging information such as the direction and inclination of the person who has taken the image.

このため、撮像した画像の露光量が適切でない場合や感度が低いような場合に顔認識が困難となってしまうことがある。   For this reason, face recognition may become difficult when the exposure amount of the captured image is not appropriate or when the sensitivity is low.

特許文献1では、露光量等を調整することによって画像を補正することが記載されている。   Patent Literature 1 describes correcting an image by adjusting an exposure amount and the like.

特願2014−239396号Japanese Patent Application No. 2014-239396

しかしながら、このような特許文献1に示されるような技術では画像全体としてみた場合にはその補正によって適切な画像となっている反面、その一部においては必ずしも適切な画像となっているとは言えない場合がある。   However, in the technique disclosed in Patent Literature 1, when an entire image is viewed, an appropriate image is obtained by the correction, but a part of the image is not necessarily an appropriate image. May not be.

例えば、背景とともに人物が撮像された画像から人物の顔認識を行うような場合、全体として適切な画像になっているものの、その一部である顔部分の画像では顔認識が困難である場合がある。   For example, in the case of performing face recognition of a person from an image in which a person is captured together with a background, an appropriate image is generally obtained, but face recognition is difficult in an image of a part of the face. is there.

そこで、本発明は、顔認識を適切に行うことができるような画像処理を行う画像処理装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus that performs image processing that can appropriately perform face recognition.

上記目的を達成するため、請求項1に係る本発明は、認識対象となる顔を含む人物を撮像対象として、撮像設定情報をもとに撮像する撮像手段と、前記撮像手段で撮像した人物の顔認識を行う顔認識手段と、前記顔認識手段によって認識した顔に関する顔情報を取得する情報取得手段と、前記情報取得手段によって取得した顔情報をもとに人物の属性情報の推定が可能であるか否かを判断する可否判断手段と、記撮像対象の撮像に用いられる撮像設定情報を調整する調整手段とを具備し、前記可否判断手段は、前記顔認識手段によって認識した顔の色調データが、人物の属性情報の推定が可能であると指定されている有効範囲内にあるか否かを判断し、前記調整手段は、前記顔認識手段によって前記人物の顔が認識でき、前記可否判断手段によって前記色調データが有効範囲内にない場合、前記認識した顔の色調データに基づいて前記撮像設定情報を調整し、前記顔認識手段によって前記人物の顔が認識できない場合、前記撮像対象の全体の色調データに基づいて前記撮像設定情報を調整する。 In order to achieve the above object, the present invention according to claim 1 is an imaging unit that captures a person including a face to be recognized as an imaging target based on imaging setting information , A face recognition unit that performs face recognition; an information acquisition unit that acquires face information related to the face recognized by the face recognition unit; and attribute information of a person can be estimated based on the face information acquired by the information acquisition unit. and propriety judging means for judging whether or not the previous SL comprises an adjustment means for adjusting the imaging setting information used for imaging the imaging object, the permission determination means, the color tone of the face recognized by the face recognition unit It is determined whether or not the data is within an effective range designated as capable of estimating the attribute information of the person. The adjusting means can recognize the face of the person by the face recognizing means. Judgment means Therefore, when the color tone data is not within the effective range, the imaging setting information is adjusted based on the color tone data of the recognized face, and when the face of the person cannot be recognized by the face recognition means, The imaging setting information is adjusted based on the color tone data.

本発明の実施の形態における画像処理装置を有する自動販売機を示す図。FIG. 1 is a diagram showing a vending machine having an image processing device according to an embodiment of the present invention. 本発明の実施の形態における画像処理装置を適用して構成したブロック図。FIG. 1 is a block diagram configured by applying an image processing apparatus according to an embodiment of the present invention. 本発明の実施の形態における画像処理装置において画像処理の状態を表す図。FIG. 3 is a diagram illustrating a state of image processing in the image processing apparatus according to the embodiment of the present invention. 本発明の実施の形態における画像処理装置において行われる画像処理の流れを示すフローチャート。5 is a flowchart illustrating a flow of image processing performed in the image processing device according to the embodiment of the present invention. 図4において示す「調整確認処理1」の詳細な流れを示すフローチャート。5 is a flowchart showing a detailed flow of “adjustment confirmation processing 1” shown in FIG. 図4において示す「調整確認処理2」の詳細な流れを示すフローチャート。5 is a flowchart showing a detailed flow of “adjustment confirmation processing 2” shown in FIG. 4. 本発明の実施の形態における画像処理装置において用いられる撮像設定情報変更テーブルを示す図。FIG. 4 is a diagram illustrating an imaging setting information change table used in the image processing apparatus according to the embodiment of the present invention.

以下、本発明に係わる画像処理装置の一実施例を添付図面を参照して詳細に説明する。   Hereinafter, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施の形態における画像処理装置を有する自動販売機を示す図であって、図2は、本発明の実施の形態における画像処理装置を適用して構成したブロック図である。なお、この画像処理装置は、防犯用に設けられた撮像装置で撮像した画像に対して画像処理を行うほか、所定の画像に対しても行うことが可能である。   FIG. 1 is a diagram illustrating a vending machine having an image processing device according to an embodiment of the present invention, and FIG. 2 is a block diagram configured by applying the image processing device according to the embodiment of the present invention. . Note that this image processing device can perform image processing on an image captured by an imaging device provided for crime prevention, and can also perform a predetermined image.

図1において、自動販売機は、対価の支払いにより容器に内包された飲料(缶飲料、ペットボトル飲料等)の払い出しや所定のサービスの提供を行うことが可能である。例えば、硬貨や紙幣のほか電子マネーなどの通貨により支払いが行われると、選択された種類の飲料を下部に設けられた排出口より排出されるほか、ディスプレイ等の表示部110に所定の情報(地図情報、飲食店情報、イベント情報等)を表示させて情報提供を行う。   In FIG. 1, a vending machine can pay out a beverage (a canned beverage, a PET bottled beverage, and the like) contained in a container and provide a predetermined service by paying a price. For example, when payment is made by a currency such as coins or bills or electronic money, the selected kind of beverage is discharged from a discharge port provided at a lower portion, and predetermined information ( Information is provided by displaying map information, restaurant information, event information, etc.).

この自動販売機には、CCDカメラやCMOSセンサー等の撮像装置(撮像機、撮影機)(以下、「撮像部101」と称する)が搭載されており、所定の撮像条件(撮像開始条件)の成立によって撮像設定情報に基づいて撮像部101が自動販売機でサービスの提供を受ける人物を含む撮像対象(撮像物)の撮像を行う。撮像対象は、人物のみであっても良いが、この人物のほか背景を含む。   This vending machine is equipped with an image pickup device (image pickup device, photographing device) such as a CCD camera or a CMOS sensor (hereinafter, referred to as an “image pickup unit 101”), and has a predetermined image pickup condition (image pickup start condition). Upon establishment, the imaging unit 101 images an imaging target (imaged object) including a person who is provided with a service at the vending machine based on the imaging setting information. The imaging target may be a person alone, but includes the background in addition to the person.

また、所定の撮像条件は、人物がサービスの享受を指示したことのほか、任意の人物が撮像可能な撮像範囲に一定時間継続して位置したこととすることも可能である。   Further, the predetermined imaging condition may be that a person has instructed to enjoy the service, or that the person has been continuously located in an imaging range in which an arbitrary person can capture an image for a certain period of time.

さらに、撮像設定情報は、撮像部101が撮像対象を撮像する際に用いられる設定情報であって、CCDカメラやCMOSセンサー等の感度(ゲイン)やCCDカメラやCMOSセンサー等に入射される光量を調整する露光時間など等によって構成される。   Further, the imaging setting information is setting information used when the imaging unit 101 captures an image of an imaging target, and includes sensitivity (gain) of a CCD camera or a CMOS sensor or the amount of light incident on the CCD camera or the CMOS sensor. It is configured by the exposure time to be adjusted and the like.

上記の撮像条件が成立して予め指定された撮像設定情報(初期撮像設定情報)に基づき撮像部101が撮像対象を撮像すると、表示部110にその撮像対象に対する撮像画像を表示することが可能である。なお、撮像した画像を必ずしも表示部110に表示する必要はない。   When the imaging conditions are satisfied and the imaging unit 101 images an imaging target based on imaging setting information (initial imaging setting information) specified in advance, an imaging image of the imaging target can be displayed on the display unit 110. is there. Note that the captured image does not necessarily need to be displayed on the display unit 110.

図2では、撮像ユニット100、表示部110が示されている。この撮像ユニット100は、撮像対象を撮像することによってその撮像対象の撮像情報(後述する「色調データ」が該当)を取得して、その撮像情報に基づく最適な撮像設定情報を用いて撮像対象を撮像するユニットである。なお、この撮像対象に人物が含まれている場合、その人物の顔部分(以下、単に「顔」と称する)の撮像情報を含む顔情報を取得し、人物の顔の認識精度を高めるために顔情報を元に新たに設定した撮像設定情報を用いて撮像対象を撮像する。このときの顔は、人物より認識する認識対象であるほか、どのような属性情報を有する人物であるかを推定(特定)する属性推定対象(属性特定対象)でもある。このときの属性情報(単に、「属性」とも称する)とは、人物に関する情報であって、人種、年齢、性別等によって表される。   FIG. 2 shows the imaging unit 100 and the display unit 110. The imaging unit 100 obtains imaging information (corresponding to “color tone data” described later) of the imaging target by imaging the imaging target, and identifies the imaging target using optimal imaging setting information based on the imaging information. This is a unit for imaging. When a person is included in the imaging target, face information including imaging information of a face portion of the person (hereinafter, simply referred to as a “face”) is acquired, and in order to improve recognition accuracy of the face of the person. The imaging target is imaged using the imaging setting information newly set based on the face information. The face at this time is not only a recognition target recognized by the person, but also an attribute estimation target (attribute identification target) for estimating (specifying) what kind of attribute information the person has. At this time, the attribute information (also simply referred to as “attribute”) is information on a person, and is represented by race, age, gender, and the like.

この撮像ユニット100は、人物等を含む撮像対象を撮像するレンズや撮像素子等からなる撮像部101(上記の「撮像装置」が該当)、撮像部101で撮像対象を撮像した撮像画像を所定のタイミングでサンプリングした画像信号に対して所定の信号処理を行う信号処理部102、画像信号に対して画像処理を行う画像処理部103を具備して構成されている。   The imaging unit 100 includes an imaging unit 101 (corresponding to the above “imaging device”) including a lens and an imaging element for imaging an imaging target including a person or the like, and a predetermined image captured by the imaging unit 101. The image processing apparatus includes a signal processing unit 102 that performs predetermined signal processing on an image signal sampled at a timing, and an image processing unit 103 that performs image processing on an image signal.

撮像部101では、各種フィルタを介してアレイ配列された撮像素子それぞれで撮像対象の入力信号を読み出し、読み出した入力信号を信号処理部102へと送出する。   In the imaging unit 101, input signals to be imaged are read by each of the imaging elements arranged in an array via various filters, and the read input signals are transmitted to the signal processing unit 102.

信号処理部102は、サンプリング処理部102a、ジェネレータ102b、レジスタ102c、調整部102dを具備して構成される。   The signal processing unit 102 includes a sampling processing unit 102a, a generator 102b, a register 102c, and an adjustment unit 102d.

撮像部101によって読み出した信号はサンプリング処理部102aに入力され、このサンプリング処理部102aは、撮像部101から信号が入力された状態と入力されていない状態とから、入力された信号の内容(撮像画像)を明確にするサンプリング処理を行って調整部102dへと信号を送信する。このサンプリング処理部102aは、信号レベルの低い入力信号によるノイズを最大限除去することが可能である。このサンプリング処理部102aは、ジェネレータ102bからのクロック信号(パルス)を受け付けることでそのクロック信号に基づく処理タイミングにサンプリング処理を行う。   The signal read by the imaging unit 101 is input to the sampling processing unit 102a. The sampling processing unit 102a changes the content of the input signal (the state of the input signal from the state where the signal is input from the imaging unit 101 and the state where the signal is not input). A signal is transmitted to the adjustment unit 102d after performing a sampling process for clarifying the image. The sampling processing unit 102a can remove noise due to an input signal having a low signal level to the maximum. The sampling processing unit 102a receives a clock signal (pulse) from the generator 102b and performs a sampling process at a processing timing based on the clock signal.

ジェネレータ102bは、所定の信号処理用のクロック信号を生成することが可能であって、このクロック信号をサンプリング処理部102aに送信するほか、撮像部101に送信することとしてもよい。この場合、サンプリング処理部102aにおいて行われるサンプリング処理および撮像部101において行われる撮像処理が、このクロック信号に基づくタイミングで処理されることとなる。このときのクロック信号を「33ms(ミリ秒)」とすると、「1秒間(1000ms)」当たり「30フレーム」の画像が撮像部101によって撮像されることとなる。   The generator 102b can generate a clock signal for predetermined signal processing, and may transmit the clock signal to the imaging unit 101 in addition to transmitting the clock signal to the sampling processing unit 102a. In this case, the sampling process performed by the sampling processing unit 102a and the imaging process performed by the imaging unit 101 are processed at a timing based on the clock signal. Assuming that the clock signal at this time is “33 ms (millisecond)”, an image of “30 frames” per “one second (1000 ms)” is captured by the imaging unit 101.

サンプリング処理部102aにおいてサンプリング処理が行われた信号(各フレーム単位の信号)は調整部102dに入力され、この調整部102dは、サンプリング処理部102aから信号を受け付けることによって、その信号をもとに撮像設定情報が不適切であることで撮像画像が適切でないと判断する場合にその撮像設定情報の少なくとも一部を調整する処理を行うことで信号レベルを一定のレベルに保つ処理を行う。この調整部102dでは、調整処理が行われると、調整された調整後の撮像設定情報をレジスタ102cへと記憶する。なお、撮像画像が適切でないと判断しない場合(撮像画像が適切である場合)には撮像設定情報の少なくとも一部を調整する処理を行わないこととしてもよい。   The signal (signal for each frame) that has been subjected to the sampling processing in the sampling processing unit 102a is input to the adjustment unit 102d, and the adjustment unit 102d receives the signal from the sampling processing unit 102a, and based on the signal, When it is determined that the captured image is not appropriate because the imaging setting information is inappropriate, a process of adjusting at least a part of the imaging setting information is performed to maintain a signal level at a constant level. When the adjustment processing is performed, the adjustment unit 102d stores the adjusted imaging setting information in the register 102c. When it is not determined that the captured image is not appropriate (when the captured image is appropriate), the process of adjusting at least a part of the imaging setting information may not be performed.

このほか、調整部102dでは、以下に示すような画像処理部103において行われる画像処理によってレジスタ102cで記憶する顔情報(認識できた顔の位置座標、顔位置座標の明るさ情報)を元に撮像設定情報の調整確認処理を行うことも可能である。すなわち、撮像設定情報は、認識した顔から人物の属性情報推定する際に撮像部101が用いる情報である。また、レジスタ102cに各種情報を記憶していない場合、撮像設定情報の調整確認処理を行わない。 In addition, the adjusting unit 102d uses the face information (recognized face position coordinates, face position coordinate brightness information) stored in the register 102c by image processing performed in the image processing unit 103 as described below. It is also possible to perform adjustment confirmation processing of imaging setting information. That is, the imaging setting information is information used by the imaging unit 101 when estimating attribute information of a person from a recognized face. If various information is not stored in the register 102c, the adjustment confirmation processing of the imaging setting information is not performed.

撮像部101は、このレジスタ102cにおいて記憶している撮像設定情報に基づいて撮像対象の撮像を行うものである。   The imaging unit 101 performs imaging of an imaging target based on the imaging setting information stored in the register 102c.

このような信号処理を行うと、信号処理部102は、撮像画像を画像処理部103へと送信する。   When such signal processing is performed, the signal processing unit 102 transmits the captured image to the image processing unit 103.

画像処理部103では、受信した撮像画像を元にその撮像画像から撮像対象に人物の顔が含まれているかの「顔認識処理」を行う。顔認識処理は、顔を認識する処理であって、撮像対象に人物(認識した顔を有する人物)が含まれていることを識別する処理である。あくまでも顔認識処理は、人物が撮像画像に含まれていることを認識する処理である。この顔認識処理は、例えば、撮像画像を複数の矩形領域に分けて矩形領域間の明度差を元に顔の特徴を把握することが可能であるほか、3次元モデルを形成することで顔の器官(目、鼻、口等)を検出して顔を認識する方法がある。   The image processing unit 103 performs a “face recognition process” on the basis of the received captured image to determine whether a person's face is included in the imaging target from the captured image. The face recognition process is a process of recognizing a face, and is a process of identifying that an imaging target includes a person (a person having a recognized face). The face recognition processing is processing for recognizing that a person is included in the captured image. In the face recognition process, for example, it is possible to divide a captured image into a plurality of rectangular areas and to grasp the features of the face based on the brightness difference between the rectangular areas. In addition, the face recognition processing is performed by forming a three-dimensional model. There is a method of recognizing a face by detecting an organ (eye, nose, mouth, etc.).

このように顔認識処理が行われて顔認識すると、画像処理部103は、認識した顔の位置座標を特定する処理を行う。このとき複数の顔が認識できた場合にはそれぞれの顔の位置座標を特定する。また、顔認識が行われて顔の位置座標が特定されると、画像処理部103では、その顔の位置座標に該当する画素(ピクセル)の色調データを取得する。この色調データは、撮像設定情報を決定するために用いられる撮像情報であって、例えば、明度(明るさ情報)や彩度によって表される。以下では、「明るさ情報」をもとに説明する。   When the face recognition process is performed and the face is recognized, the image processing unit 103 performs a process of specifying the position coordinates of the recognized face. At this time, if a plurality of faces can be recognized, the position coordinates of each face are specified. When face position coordinates are specified by performing face recognition, the image processing unit 103 acquires color tone data of a pixel corresponding to the position coordinates of the face. The color tone data is imaging information used to determine imaging setting information, and is represented by, for example, lightness (brightness information) or saturation. Hereinafter, description will be made based on “brightness information”.

この明るさ情報(色調データの一例、以下同様。)は、撮像画像をグレースケール画像としたときに1画素当たり1バイト(8ビット)で表され、画像の濃淡を256階調で表したものである。このとき、最も濃い状態を「0階調」とし、最も薄い状態を「255階調」としている。   This brightness information (an example of color tone data, the same applies hereinafter) is represented by 1 byte (8 bits) per pixel when the captured image is a grayscale image, and the gradation of the image is represented by 256 gradations. It is. At this time, the darkest state is “0 gradation”, and the lightest state is “255 gradation”.

続いて、画像処理部103では、各画素の濃淡を算出し、算出した各画素の濃淡から画像全体の平均値を計算する。この平均値を撮像画像の明るさ情報とする。すなわち、画像処理部103において顔認識が行われて顔位置座標が特定されている場合には、この顔位置座標の明るさ情報を算出することとなるのに対して、画像処理部103において顔認識ができない場合には、この撮像画像全体の明るさ情報を算出する。   Subsequently, the image processing unit 103 calculates the shading of each pixel, and calculates the average value of the entire image from the calculated shading of each pixel. This average value is used as the brightness information of the captured image. That is, when face recognition is performed by the image processing unit 103 and face position coordinates are specified, brightness information of the face position coordinates is calculated. If the recognition is not possible, the brightness information of the entire captured image is calculated.

このように、明るさ情報が算出されると、画像処理部103は、この明るさ情報をレジスタ102cへと記憶するほか、顔認識処理によって顔が認識できた場合には認識した顔がある顔位置座標(顔位置情報)をレジスタ102cへと記憶する。すなわち、画像処理部10における顔認識処理において顔が認識できた場合、レジスタ102cには、顔認識ができたこと、認識できた顔の位置座標、顔位置座標の明るさ情報を顔情報として記憶した状態となる。それに対して、顔が認識できない場合には顔が認識できないこと、撮像画像全体の明るさ情報を記憶した状態となる。なお、レジスタ102cには初期値として「顔が認識できないこと(顔認識フラグ=OFF)」を記憶している。このときの顔位置情報とは、顔全体の位置情報や顔を構成する器官(目、鼻、口等)ごとの位置情報および形状情報のほか、各器官間の位置関係に関する情報をも含むこととしてもよい。 As described above, when the brightness information is calculated, the image processing unit 103 stores the brightness information in the register 102c. The position coordinates (face position information) are stored in the register 102c. That is, when the face in the face recognition processing in the image processing unit 103 can be recognized, the register 102c, it could face recognition, the position coordinates of the recognized face, the brightness information of the face position coordinates as face information The state is stored. On the other hand, if the face cannot be recognized, the face cannot be recognized, and the brightness information of the entire captured image is stored. Note that the register 102c stores, as an initial value, “a face cannot be recognized (face recognition flag = OFF)”. The face position information at this time includes not only the position information of the entire face, the position information and shape information of each of the organs (eyes, nose, mouth, etc.) constituting the face, but also information on the positional relationship between the organs. It may be.

このようにレジスタ102cにおいて所定のフレーム数分の明るさ情報が記憶されると、調整部102dは、これらの明るさ情報をもとに(広い概念では顔情報をもとに)撮像設定情報の調整確認処理を行う。   When the brightness information for a predetermined number of frames is stored in the register 102c in this way, the adjustment unit 102d uses the brightness information (in a broad concept, based on the face information) to store the imaging setting information. Perform adjustment confirmation processing.

この調整確認処理は、色調データである明るさ情報が、認識した顔から人物の属性情報の推定することが可能であると指定されている有効範囲内となるように撮像装置が用いる撮像設定情報を変更する処理である。より具体的には、調整確認処理は、図7に示すような撮像設定情報変更テーブルを用いゲイン、露光時間等の撮像設定情報を、所定の変更幅で変更する処理である。 This adjustment confirmation processing is performed by the imaging setting information used by the imaging apparatus so that the brightness information, which is the color tone data, is within the effective range specified to be able to estimate the attribute information of the person from the recognized face. Is the process of changing More specifically, the adjustment confirmation process is a process of changing imaging setting information such as a gain and an exposure time with a predetermined change width using an imaging setting information change table as shown in FIG.

このことから、所定の変更幅ゲイン、露光時間等の撮像設定情報を変更していき、明るさ情報が、指定されている有効範囲内となったときに、認識した顔の顔情報をもとに人物の属性情報を推定することが可能となったことで撮像処理を終了する撮像終了条件が成立したと判断する。調整確認処理の詳細については図5および図6に示し、後述する。 Therefore, the imaging setting information such as the gain and the exposure time is changed in a predetermined change width , and when the brightness information is within the specified effective range, the face information of the recognized face is also changed. Then, it is determined that the imaging end condition for ending the imaging process has been satisfied because the attribute information of the person can be estimated. Details of the adjustment confirmation processing are shown in FIGS. 5 and 6 and will be described later.

また、所定のフレーム数とは、例えば、任意の複数のフレーム数とすることができるほか、クロック信号に基づく時間に撮像した複数のフレーム数とすることができる。なお、複数のフレーム数分の明るさ情報がレジスタ102cに記憶されたことによって調整部102dが調整確認処理を行うこととしているが、これに限定されることなく、単一のフレームの明るさ情報が記憶されたときに調整部102dが調整確認処理を行うこととしてもよい。つまり、撮像した単一のフレーム毎に調整確認処理を行うこととなる。   Further, the predetermined number of frames may be, for example, an arbitrary number of frames or a plurality of frames captured at a time based on a clock signal. The adjustment unit 102d performs the adjustment confirmation process based on the brightness information for a plurality of frames stored in the register 102c. However, the present invention is not limited to this. The adjustment unit 102d may perform the adjustment confirmation process when is stored. That is, the adjustment confirmation process is performed for each single frame that has been imaged.

図3は、本発明の実施の形態における画像処理装置において画像処理の状態を表す図である。   FIG. 3 is a diagram illustrating a state of image processing in the image processing apparatus according to the embodiment of the present invention.

図3において、図3(a)は、所定のフレーム数分の撮像画像のうち1フレーム分を示した撮像画像を示す図であって、この撮像画像においては顔認識処理によって適切に顔を認識することができない撮像画像を示している。図3(b)は、図3(a)に示す撮像画像を用いて顔認識処理を行って、顔位置座標を抽出した状態を示す図である。   In FIG. 3, FIG. 3A is a diagram showing a captured image showing one frame among the captured images of a predetermined number of frames. In this captured image, a face is appropriately recognized by face recognition processing. 3 shows a captured image that cannot be obtained. FIG. 3B is a diagram illustrating a state in which face recognition processing is performed using the captured image illustrated in FIG. 3A and face position coordinates are extracted.

図3(c)は、図3(b)に示すような顔の色調データ(明るさ情報)を算出してその算出した色調データを用いて撮像設定情報(ゲイン、露光時間)を設定後、その撮像設定情報を用いて撮像部が撮像対象を撮像した撮像画像を示す図である。図3(c)に示す撮像画像は、図3(a)に示す撮像画像と比べて撮像画像全体が、顔部分の色調データを用いて設定された撮像設定情報によって顔認識の可能性を高めた状態を示している。   FIG. 3C shows the calculation of face setting data (gain, exposure time) after calculating the face tone data (brightness information) as shown in FIG. 3B and using the calculated tone data. FIG. 4 is a diagram illustrating a captured image of an imaging target captured by an imaging unit using the imaging setting information. In the captured image illustrated in FIG. 3C, the entire captured image increases the possibility of face recognition by the imaging setting information set using the color tone data of the face portion, compared to the captured image illustrated in FIG. 3A. It shows the state where it was turned on.

図4は、本発明の実施の形態における画像処理装置において行われる画像処理の流れを示すフローチャートである。   FIG. 4 is a flowchart illustrating a flow of image processing performed in the image processing apparatus according to the embodiment of the present invention.

図4において、画像処理装置の一例である画像処理部は、撮像開始条件が成立すること等によって処理が開始されると、まず、初期化処理を行う(S401)。この初期化処理は、レジスタに記憶している情報を初期状態とする処理である。   In FIG. 4, when the image processing unit, which is an example of the image processing apparatus, starts processing when, for example, the imaging start condition is satisfied, it performs initialization processing (S401). This initialization process is a process of setting information stored in a register to an initial state.

初期化処理(S401)が行われると、続いて、画像処理部は、撮像装置を用いて人物を含む撮像対象を撮像する処理を行う(S402)。撮像対象が撮像されると、画像処理部は、その撮像した撮像画像に含まれる人物から顔部分を認識する処理を行う(S403)。   After the initialization process (S401), the image processing unit performs a process of imaging an imaging target including a person using the imaging device (S402). When the imaging target is imaged, the image processing unit performs a process of recognizing a face portion from a person included in the captured image (S403).

続いて、画像処理部は、この顔認識処理において顔認識できたか否かを判断する(S404)。顔認識処理において顔認識ができたと判断する場合(S404でYES)、画像処理部は、認識した顔に関する情報(顔情報)を取得する処理を行う(S405)。このときの顔情報は、認識した顔から人物の属性情報を推定するために必要な情報であって、顔部分の色調データや顔の位置座標等が該当する。   Next, the image processing unit determines whether or not the face has been recognized in the face recognition processing (S404). When it is determined in the face recognition process that the face recognition has been performed (YES in S404), the image processing unit performs a process of acquiring information (face information) on the recognized face (S405). The face information at this time is information necessary for estimating attribute information of a person from the recognized face, and corresponds to color tone data of a face portion, position coordinates of the face, and the like.

このようにして顔情報を取得すると、画像処理部は、顔情報を保存する処理を行う(S406)。これによって、撮像した撮像画像に対する顔情報が保存された状態となる。フレーム単位で撮像対象を撮像する場合にはフレーム単位で顔情報が保存された状態となる。   When the face information is obtained in this way, the image processing unit performs a process of storing the face information (S406). As a result, the face information for the captured image is stored. When the imaging target is imaged in frame units, face information is stored in frame units.

続いて、所定フレーム数分の顔情報を保存しているか否かを判断し(S407)、所定フレーム数分の顔情報を保存していると判断しない場合(S407でNO)、画像処理部は、続いて、人物の属性情報の推定の終了に伴う撮像終了条件が成立したか否かを判断する(S411)。これに対して、所定フレーム数分の顔情報を保存していると判断する場合(S407でYES)、画像処理部は、「調整確認処理1」を行う(S408)。所定フレーム数が単一のフレームである場合にはフレームごとにこれらの処理を行う。 Subsequently, it is determined whether or not to save the face information of the predetermined number of frames (S407), if it is not determined that the stored face information corresponding to a predetermined number frames (NO in S407), the image processing unit Subsequently, it is determined whether or not the imaging end condition associated with the end of the estimation of the attribute information of the person is satisfied (S411). In contrast, if it is determined that the stored face information corresponding to a predetermined number frames (YES in S407), the image processing unit performs the "adjustment confirmation process 1" (S408). If the predetermined number of frames is a single frame, these processes are performed for each frame.

この「調整確認処理1」は、図5に示すような処理であって、顔情報に含まれる色調データに基づいて新たな撮像設定情報を算出する処理である。   The "adjustment confirmation process 1" is a process as shown in FIG. 5, in which new imaging setting information is calculated based on color tone data included in face information.

次に、顔認識処理において顔認識できたか否かを判断する処理(S404)において、顔認識処理において顔認識ができたと判断しない場合(S404でNO)、画像処理部は、撮像画像の撮像対象全体から色調データを取得する処理を行い(S409)、「調整確認処理2」を行う(S411)。   Next, in the process of determining whether or not the face has been recognized in the face recognition process (S404), if it is not determined that the face has been recognized in the face recognition process (NO in S404), the image processing unit determines whether or not the captured image has been captured. A process for acquiring color tone data from the whole is performed (S409), and an "adjustment confirmation process 2" is performed (S411).

この「調整確認処理2」は、図6に示すような処理であって、撮像画像全体の色調データに基づいて新たな撮像設定情報を算出する処理である。   The “adjustment confirmation process 2” is a process as shown in FIG. 6, and is a process of calculating new imaging setting information based on color tone data of the entire captured image.

このようにして、調整確認処理1が行われた場合、調整確認処理2が行われた場合、所定フレーム数分の顔画像を保存している場合、これらいずれの場合において画像処理部は、人物の属性情報の推定の終了に伴う撮像終了条件が成立したか否かを判断する(S411)。この撮像終了条件は、人物の属性情報の推定に必要な処理が完了したこと等である。すなわち、人物の属性情報の推定を行うための適切な撮像設定情報が設定されたことを示す。 In this way, when the adjustment confirmation process 1 is performed, if the adjustment confirmation process 2 was performed, if you store the number of face images predetermined frame, the image processing unit in either of these cases, the person It is determined whether or not the imaging end condition accompanying the end of the estimation of the attribute information is satisfied (S411). The imaging end condition is that processing necessary for estimating the attribute information of the person has been completed. That is, it indicates that appropriate imaging setting information for estimating the attribute information of the person has been set.

図5は、図4において示す「調整確認処理1」の詳細な流れを示すフローチャートである。この「調整確認処理1」では、顔情報の一部である色調データから撮像画像全体を撮像する撮像設定情報を算出する処理である。   FIG. 5 is a flowchart showing a detailed flow of the “adjustment confirmation process 1” shown in FIG. This “adjustment confirmation processing 1” is processing for calculating imaging setting information for imaging the entire captured image from color tone data that is a part of face information.

図5において、画像処理部は、顔認識処理によって認識した顔部分の各ピクセルからそれぞれ顔情報の一部である色調データを取得する(S501)。この色調データは、上記に示すように階調値によって指定される。   In FIG. 5, the image processing unit acquires color tone data, which is a part of face information, from each pixel of the face part recognized by the face recognition processing (S501). This color tone data is specified by the gradation value as described above.

色調データを取得すると、画像処理部は、各ピクセルの色調データから撮像画像全体の「平均色調データ」を算出する(S502)。この「平均色調データ」が顔部分の明るさ情報として示されることとなる。   Upon acquiring the color tone data, the image processing unit calculates “average color tone data” of the entire captured image from the color tone data of each pixel (S502). This “average tone data” is indicated as brightness information of the face portion.

続いて、画像処理部は、この「平均色調データ」、すなわち、顔部分の明るさ情報が、所定の有効範囲内にあって人物の属性情報の推定に必要な有効範囲内にあるか否かを判断する(S503)。「平均色調データ」が所定の範囲内にあると判断する場合(S503でYES)、画像処理部は、処理を終了する。これに対して、所定の範囲内に「平均色調データ」があると判断しない場合(S503でNO)、画像処理部は、続いて、撮像設定情報(ゲイン、露光時間)を所定の変更幅だけ変更して新たな撮像設定情報を算出する(S504)。そして、画像処理部は、この撮像設定情報をレジスタに保存(登録)する(S505)。   Subsequently, the image processing unit determines whether or not the "average tone data", that is, the brightness information of the face portion is within a predetermined effective range and within an effective range necessary for estimating attribute information of a person. Is determined (S503). When determining that the “average tone data” is within the predetermined range (YES in S503), the image processing unit ends the processing. On the other hand, when it is not determined that the “average tone data” is within the predetermined range (NO in S503), the image processing unit subsequently changes the imaging setting information (gain, exposure time) by a predetermined change width. The changed imaging setting information is calculated (S504). Then, the image processing unit stores (registers) the imaging setting information in the register (S505).

図6は、図4において示す「調整確認処理2」の詳細な流れを示すフローチャートである。この「調整確認処理2」では、撮像画像全体の色調データから撮像画像全体を撮像する撮像設定情報を算出する処理である。   FIG. 6 is a flowchart showing a detailed flow of the “adjustment confirmation process 2” shown in FIG. In the “adjustment confirmation processing 2”, imaging setting information for imaging the entire captured image is calculated from the color tone data of the entire captured image.

図6において、画像処理部は、撮像画像全体の各ピクセルからそれぞれ色調データを取得する(S601)。   In FIG. 6, the image processing unit acquires color tone data from each pixel of the entire captured image (S601).

色調データを取得すると、画像処理部は、各ピクセルの色調データから撮像画像全体の「平均色調データ」を算出する(S602)。この「平均色調データ」が顔部分の明るさ情報として示されることとなる。   Upon acquiring the color tone data, the image processing unit calculates “average color tone data” of the entire captured image from the color tone data of each pixel (S602). This “average tone data” is indicated as brightness information of the face portion.

続いて、画像処理部は、この「平均色調データ」、すなわち、顔部分の明るさ情報が、所定の有効範囲内にあって人物の属性情報の推定に必要な有効範囲内にあるか否かを判断する(S603)。この「平均色調データ」が所定の範囲内にあると判断する場合(S603でYES)、画像処理部は、処理を終了する。これに対して、所定の範囲内に「平均色調データ」があると判断しない場合(S603でNO)、画像処理部は、続いて、撮像設定情報(ゲイン、露光時間)を所定の変更幅だけ変更して新たな撮像設定情報を算出する(S604)。そして、画像処理部は、この撮像設定情報をレジスタに保存(登録)する(S605)。   Subsequently, the image processing unit determines whether or not the "average tone data", that is, the brightness information of the face portion is within a predetermined effective range and within an effective range necessary for estimating attribute information of a person. Is determined (S603). When determining that the “average tone data” is within the predetermined range (YES in S603), the image processing unit ends the process. On the other hand, when it is not determined that the “average tone data” is within the predetermined range (NO in S603), the image processing unit subsequently changes the imaging setting information (gain, exposure time) by a predetermined change width. The changed imaging setting information is calculated (S604). Then, the image processing unit stores (registers) the imaging setting information in the register (S605).

このように、図5および図6に示すような各調整確認処理によって最適な撮像設定情報がレジスタに保存された状態となり、この撮像設定情報を用いて人物の属性情報を推定することが可能となる。   As described above, the optimum imaging setting information is stored in the register by the respective adjustment confirmation processes as shown in FIGS. 5 and 6, and it is possible to estimate the attribute information of the person using the imaging setting information. Become.

図7は、本発明の実施の形態における画像処理装置において用いられる撮像設定情報変更テーブルを示す図である。   FIG. 7 is a diagram illustrating an imaging setting information change table used in the image processing apparatus according to the embodiment of the present invention.

図7において、撮像設定情報変更テーブルは、撮像設定情報項目名称70、優先度71、設定範囲72、変更幅73によって構成されている。   7, the imaging setting information change table includes an imaging setting information item name 70, a priority 71, a setting range 72, and a change width 73.

撮像設定情報項目名称70は、撮像設定情報を構成する項目である。また、優先度71は、撮像設定情報項目名称70のいずれかを変更する場合に優先する項目を指定する情報であって、設定範囲72は、撮像設定情報を構成する各項目が取り得る範囲の値を示し、変更幅73は、撮像設定情報を構成する各項目を変更していく変更幅である。   The imaging setting information item name 70 is an item constituting imaging setting information. The priority 71 is information for designating an item to be prioritized when any one of the imaging setting information item names 70 is changed, and the setting range 72 is a range that can be taken by each item constituting the imaging setting information. The change width 73 is a change width for changing each item constituting the imaging setting information.

図7では、撮像設定情報項目名称70として、「ゲイン(感度)」、「露光時間(シャッタースピード)」が示されており、優先度71として、「ゲイン(感度)」に対して「高(1)」、「露光時間(シャッタースピード)」に対して「低(0)」が示されている。このことから、「ゲイン(感度)」が「露光時間(シャッタースピード)」よりも優先して変更されていくことを示している。   In FIG. 7, “gain (sensitivity)” and “exposure time (shutter speed)” are shown as the imaging setting information item name 70, and “high (high)” “1)” and “exposure time (shutter speed)” indicate “low (0)”. This indicates that “gain (sensitivity)” is changed prior to “exposure time (shutter speed)”.

このときの変更幅が変更幅73において示されるように、「ゲイン(感度)」が「5」の変更幅で変更されていき、「露光時間(シャッタースピード)」が「500」の変更幅で変更されていくことを示している。そして、設定範囲72には、「ゲイン(感度)」、「露光時間(シャッタースピード)」の取り得る設定範囲が示されており、「ゲイン(感度)」は「0−255」の範囲であって、「露光時間(シャッタースピード)」は「0−65535」の範囲である。   As shown in the change width 73 at this time, the “gain (sensitivity)” is changed at a change width of “5”, and the “exposure time (shutter speed)” is changed at a change width of “500”. Indicates that it is being changed. In the setting range 72, setting ranges in which “gain (sensitivity)” and “exposure time (shutter speed)” can be taken are shown, and “gain (sensitivity)” is a range of “0 to 255”. The "exposure time (shutter speed)" is in the range of "0-65535".

以上のことから、撮像対象を撮像した撮像画像において、顔認識したとき、認識した顔の顔情報(色調データ(特に、明るさ情報))が所定の範囲内にない場合、「ゲイン(感度)」を優先して「5」の変更幅で変更し、その後、「露光時間(シャッタースピード)」を「500」の変更幅で変更していく。この「ゲイン(感度)」と「露光時間(シャッタースピード)」とを交互に変更していくようにしてもよいし、一方のみを変更していくことで、顔の顔情報(色調データ(特に、明るさ情報))を所定の範囲内となるようにしてもよい。   From the above, when face information (color tone data (particularly, brightness information)) of a recognized face is not within a predetermined range when face recognition is performed in a captured image obtained by capturing an imaging target, “gain (sensitivity)” Is changed with a change width of “5” in priority, and then “exposure time (shutter speed)” is changed with a change width of “500”. The “gain (sensitivity)” and the “exposure time (shutter speed)” may be changed alternately, or by changing only one of them, the face information of the face (color tone data (particularly, , Brightness information)) may be within a predetermined range.

このように、撮像設定情報である「ゲイン(感度)」、「露光時間(シャッタースピード)」を変更することで人物の属性情報を推定するための適切な明るさ情報を得ることが可能となる。   As described above, by changing the “gain (sensitivity)” and the “exposure time (shutter speed)” that are the imaging setting information, it is possible to obtain appropriate brightness information for estimating attribute information of a person. .

以上に示す実施の形態は、本発明の実施の一形態であって、これらの実施例に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。   The embodiment described above is an embodiment of the present invention, and the present invention is not limited to the embodiment, and can be appropriately modified and implemented without changing the gist thereof.

10 自動販売機
100 撮像ユニット
101 撮像部
102 信号処理部
103 画像処理部
110 表示部
Reference Signs List 10 vending machine 100 imaging unit 101 imaging unit 102 signal processing unit 103 image processing unit 110 display unit

Claims (3)

認識対象となる顔を含む人物を撮像対象として、撮像設定情報をもとに撮像する撮像手段と、
前記撮像手段で撮像した人物の顔認識を行う顔認識手段と、
前記顔認識手段によって認識した顔に関する顔情報を取得する情報取得手段と、
前記情報取得手段によって取得した顔情報をもとに人物の属性情報の推定が可能であるか否かを判断する可否判断手段と、
記撮像対象の撮像に用いられる撮像設定情報を調整する調整手段と
を具備し、
前記可否判断手段は、
前記顔認識手段によって認識した顔の色調データが、人物の属性情報の推定が可能であると指定されている有効範囲内にあるか否かを判断し、
前記調整手段は、
前記顔認識手段によって前記人物の顔が認識でき、前記可否判断手段によって前記色調データが有効範囲内にない場合、前記認識した顔の色調データに基づいて前記撮像設定情報を調整し、
前記顔認識手段によって前記人物の顔が認識できない場合、前記撮像対象の全体の色調データに基づいて前記撮像設定情報を調整する、
画像処理装置。
Imaging means for imaging a person including a face to be recognized as an imaging target based on imaging setting information ,
Face recognition means for performing face recognition of a person imaged by the imaging means,
Information acquisition means for acquiring face information about the face recognized by the face recognition means,
Availability determination means for determining whether or not estimation of attribute information of a person is possible based on the face information acquired by the information acquisition means,
Comprising an adjustment means for adjusting the imaging setting information used for imaging of the prior SL imaging target,
The availability determination means,
Determine whether the color data of the face recognized by the face recognition means is within an effective range designated as capable of estimating attribute information of a person,
The adjusting means,
When the face of the person can be recognized by the face recognition unit, and the color tone data is not within the effective range by the availability determination unit, the imaging setting information is adjusted based on the recognized color tone data of the face,
When the face of the person cannot be recognized by the face recognition unit, the imaging setting information is adjusted based on color tone data of the entire imaging target.
Image processing device.
前記撮像設定情報は、
前記撮像手段の感度、露光時間を含み、
前記調整手段は、
前記情報取得手段で取得した前記顔に対する前記感度、前記露光時間の少なくとも一方を調整する請求項1記載の画像処理装置。
The imaging setting information includes:
Including the sensitivity of the imaging means, exposure time,
The adjusting means,
The image processing apparatus according to claim 1, wherein at least one of the sensitivity and the exposure time for the face acquired by the information acquisition unit is adjusted.
前記撮像設定情報に基づいて前記撮像対象を表示する表示手段と
をさらに具備する請求項1または2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2 further comprising a display means for displaying the imaging target based on the image pickup setting information.
JP2015228824A 2015-11-24 2015-11-24 Image processing device Active JP6670496B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015228824A JP6670496B2 (en) 2015-11-24 2015-11-24 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015228824A JP6670496B2 (en) 2015-11-24 2015-11-24 Image processing device

Publications (2)

Publication Number Publication Date
JP2017098746A JP2017098746A (en) 2017-06-01
JP6670496B2 true JP6670496B2 (en) 2020-03-25

Family

ID=58803887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015228824A Active JP6670496B2 (en) 2015-11-24 2015-11-24 Image processing device

Country Status (1)

Country Link
JP (1) JP6670496B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7182893B2 (en) * 2018-03-30 2022-12-05 キヤノン株式会社 Image processing device, imaging device, image processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4572583B2 (en) * 2004-05-31 2010-11-04 パナソニック電工株式会社 Imaging device
JP2008139973A (en) * 2006-11-30 2008-06-19 Funai Electric Co Ltd Face image authentication system and imaging device
JP2009157242A (en) * 2007-12-27 2009-07-16 Fujifilm Corp Imaging apparatus
JP5971712B2 (en) * 2012-09-20 2016-08-17 株式会社東芝 Monitoring device and method

Also Published As

Publication number Publication date
JP2017098746A (en) 2017-06-01

Similar Documents

Publication Publication Date Title
EP3499863B1 (en) Method and device for image processing
JP4196714B2 (en) Digital camera
CN108537155B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP4338560B2 (en) Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus
CN108024058B (en) Image blurs processing method, device, mobile terminal and storage medium
JP2008219874A (en) Imaging device, image processing device, control method, and program
EP2146306A2 (en) Image processing apparatus and image processing method
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
JP4739870B2 (en) Sunglasses detection device and face center position detection device
US8009204B2 (en) Image capturing apparatus, image capturing method, image processing apparatus, image processing method and computer-readable medium
JP2004320286A (en) Digital camera
CN103379279B (en) Subject area detection apparatus and method therefor, as well as image pickup apparatus and display apparatus
CN108337450B (en) Image processing apparatus, image processing method, and recording medium
CN108111768B (en) Method and device for controlling focusing, electronic equipment and computer readable storage medium
JP2011160413A (en) Imaging device
CN107295252B (en) Focusing area display method and device and terminal equipment
JP5604285B2 (en) Imaging device
JP7039183B2 (en) Image processing equipment, image processing methods, and programs
CN110826374A (en) Method and device for monitoring human eye fixation time, storage medium and electronic equipment
JP2004320285A (en) Digital camera
JP6670496B2 (en) Image processing device
WO2016194646A1 (en) Imaging auxiliary device, and imaging device
JP2013005002A (en) Imaging apparatus
CN110519513B (en) Anti-shake method and apparatus, electronic device, computer-readable storage medium
JP2013218393A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200221

R150 Certificate of patent or registration of utility model

Ref document number: 6670496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250