JP2009297233A - Pulse wave detector, pulse wave detection program and pulse wave detection method - Google Patents

Pulse wave detector, pulse wave detection program and pulse wave detection method Download PDF

Info

Publication number
JP2009297233A
JP2009297233A JP2008154452A JP2008154452A JP2009297233A JP 2009297233 A JP2009297233 A JP 2009297233A JP 2008154452 A JP2008154452 A JP 2008154452A JP 2008154452 A JP2008154452 A JP 2008154452A JP 2009297233 A JP2009297233 A JP 2009297233A
Authority
JP
Japan
Prior art keywords
pulse wave
image
luminance
wave detection
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008154452A
Other languages
Japanese (ja)
Other versions
JP5266895B2 (en
Inventor
Ayu Miyagawa
あゆ 宮川
Yasuhiko Nakano
泰彦 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008154452A priority Critical patent/JP5266895B2/en
Publication of JP2009297233A publication Critical patent/JP2009297233A/en
Application granted granted Critical
Publication of JP5266895B2 publication Critical patent/JP5266895B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pulse wave detector highly accurately measuring pulse waves, a pulse wave detection program and a pulse wave detection method. <P>SOLUTION: The pulse wave detector calculates a luminance average, an edge amount in a horizontal direction or a vertical direction, the evaluation value of a luminance distribution, and the evaluation value of the centroid of an input image on the basis of the input image captured by placing a finger on a lens of a camera, calculates evaluation points by comparing each of respective calculated characteristics with a prescribed threshold, determines whether or not the way of placing a finger is correct on the basis of the respective calculated evaluation points, outputs an error when it is determined that the way of placing the finger is not correct, and calculates and outputs a pulse on the basis of signals obtained from the input image when it is determined that the way of placing the finger is good. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、脈波検出装置、脈波検出プログラムおよび脈波検出方法に関する。   The present invention relates to a pulse wave detection device, a pulse wave detection program, and a pulse wave detection method.

近年、健康管理のための器具に興味を持つ人が増えており、体脂肪計や脈波計だけでなく、簡易に心電を計測できる心電計測器など、個人で所有できる様々な健康管理器具が増えている。例えば、脈波計としては、指や耳たぶなどに挟んで計測するクリップ式のセンサなどがある。   In recent years, an increasing number of people are interested in equipment for health care, and not only body fat meters and pulse wave meters, but also various health care that can be owned by individuals such as electrocardiographs that can easily measure electrocardiograms. The equipment is increasing. For example, as a pulse wave meter, there is a clip-type sensor that is sandwiched between a finger or an earlobe.

上述した脈波計については、当該脈波計そのもの、脈波センサが付属されたエアロバイク、万歩計(登録商標)などのいずれかの健康管理器具を購入する必要がある。よって、最近では、携帯電話機やPDA(Personal Digital Assistants)などの携帯端末に装備されたカメラによって脈波を計測する技術が望まれている。   Regarding the above-described pulse wave meter, it is necessary to purchase one of the health management devices such as the pulse wave meter itself, an exercise bike with a pulse wave sensor, and a pedometer (registered trademark). Therefore, recently, a technique for measuring a pulse wave with a camera mounted on a mobile terminal such as a mobile phone or a PDA (Personal Digital Assistants) is desired.

一般的な脈波センサは、発光素子や受光素子などを組み合わせたアクティブセンサであり、かつ、指にベルトを巻いたり指や耳をクリップで挟んだりして、外光を遮る機構があるので外光の影響を受けにくい。同様に、上記携帯端末に装備されたカメラによって脈波を計測する場合においても、外光の影響を受けにくくするために、指を適切な位置に置く必要がある。   A typical pulse wave sensor is an active sensor that combines a light-emitting element and a light-receiving element, and has a mechanism that blocks external light by wrapping a belt around a finger or pinching a finger or ear with a clip. Less susceptible to light. Similarly, when measuring a pulse wave with a camera mounted on the portable terminal, it is necessary to place a finger at an appropriate position in order to reduce the influence of external light.

ユーザの指をカメラの適切な位置に置かせるための技術としては、CCD(Charge Coupled Devices)カメラのカバーに指を接触させ、押圧面を可動にして押し込んだ状態(押圧がかかった状態)で指紋を採取する技術が開示されている(特許文献1参照)。つまり、開示の技術は、押圧面を可動にした構造を利用することにより、ユーザの指が置かれる位置を適切に導いている。   As a technique for placing the user's finger at the appropriate position of the camera, the finger is brought into contact with the cover of the CCD (Charge Coupled Devices) camera, and the pressing surface is moved and pressed (the pressed state). A technique for collecting a fingerprint is disclosed (see Patent Document 1). That is, the disclosed technology appropriately guides the position where the user's finger is placed by using a structure in which the pressing surface is movable.

特開平11−225998号公報JP-A-11-225998

しかしながら、上記従来技術では、高精度に脈波を計測することができないという課題があった。具体的には、上記従来技術は、指紋採取を目的とし、採取するための時間が一瞬であるために、複数のサイクルが必要となる脈波の計測に利用する場合に、高精度に脈波を計測することができない。   However, the above-described prior art has a problem in that pulse waves cannot be measured with high accuracy. Specifically, the above-described prior art is intended for fingerprint collection, and since the time for collection is instantaneous, it is highly accurate when used for pulse wave measurement that requires multiple cycles. Cannot be measured.

そこで、本発明は、上述した従来技術の課題を解決するためになされたものであり、高精度に脈波を計測することが可能である脈波検出装置、脈波検出プログラムおよび脈波検出方法を提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and a pulse wave detection device, a pulse wave detection program, and a pulse wave detection method capable of measuring a pulse wave with high accuracy. The purpose is to provide.

上述した課題を解決し、目的を達成するため、本願の開示する脈波検出装置は、撮像手段によって撮像された画像に基づいて脈波を計測する脈波検出装置であって、前記画像を脈拍取得に用いるモードである場合に、前記画像の状態を輝度、エッジ量および画像フレームの縦方向と横方向との輝度値総和の重心のいずれか、または、複数が所定の状態であるかを判定する判定部と、前記判定部の判定結果が、所定の状態でない場合にエラーの旨を出力し、所定の状態である場合に前記画像から得られる信号に基づいて脈拍を算出し、算出結果を出力する出力部と、を有することを要件とする。   In order to solve the above-described problems and achieve the object, a pulse wave detection device disclosed in the present application is a pulse wave detection device that measures a pulse wave based on an image captured by an imaging unit, When it is a mode used for acquisition, it is determined whether the state of the image is one of luminance, an edge amount, a center of gravity of the sum of luminance values in the vertical direction and the horizontal direction of the image frame, or a plurality of the predetermined states. When the determination result of the determination unit and the determination unit are not in a predetermined state, an error is output, and when it is in the predetermined state, the pulse is calculated based on the signal obtained from the image, and the calculation result is And an output unit for outputting.

本願の開示する脈波検出装置、脈波検出プログラムおよび脈波検出方法によれば、高精度に脈波を計測することが可能であるという効果を奏する。   According to the pulse wave detection device, the pulse wave detection program, and the pulse wave detection method disclosed in the present application, it is possible to measure the pulse wave with high accuracy.

以下に添付図面を参照して、本発明に係る脈波検出装置の実施例を詳細に説明する。   Exemplary embodiments of a pulse wave detection device according to the present invention will be described below in detail with reference to the accompanying drawings.

[脈波検出装置の概要]
最初に、実施例1に係る脈波検出装置の概要を説明する。本願の開示する脈波検出装置は、例えば、カメラ付きの携帯電話機やPDAなどの携帯端末に配設される。通常は、このような携帯端末に配設されたカメラは、例えば、一般的なカメラの用途であって風景などを撮影する通常撮影モードと、本実施例で開示するように、脈波取得の用途でカメラを用いる脈波取得モードとの少なくとも二種類のモードを有する。もちろん、脈拍取得の用途専用にカメラを用いる場合には、脈波取得モードの1種類のモードのみを有しても構わない。
[Overview of pulse wave detector]
Initially, the outline | summary of the pulse-wave detection apparatus concerning Example 1 is demonstrated. The pulse wave detection device disclosed in the present application is disposed in a mobile terminal such as a mobile phone with a camera or a PDA, for example. Normally, a camera disposed in such a portable terminal is, for example, a general camera mode for capturing a landscape or the like, and a pulse wave acquisition as disclosed in the present embodiment. It has at least two types of modes, a pulse wave acquisition mode using a camera in the application. Of course, when a camera is used exclusively for pulse acquisition, it may have only one type of pulse wave acquisition mode.

また、脈波取得モードについては、カメラに予め設定されていなくてもよく、例えば、脈波検出プログラムからカメラの設定(露光時間やフレームレートなど)を変更することにより、脈波取得用に適した設定にした状態を脈波取得モードとみなしても構わない。また、例えば、フレームレートが固定されていても、通常撮影用途にも脈波取得用途にも利用できる場合には、明に通常撮影モードと脈波取得モードとを区別しなくても良い。   The pulse wave acquisition mode may not be preset in the camera. For example, it is suitable for pulse wave acquisition by changing camera settings (exposure time, frame rate, etc.) from the pulse wave detection program. The set state may be regarded as the pulse wave acquisition mode. For example, even if the frame rate is fixed, it is not necessary to clearly distinguish between the normal imaging mode and the pulse wave acquisition mode when the frame rate can be used for both the normal imaging application and the pulse wave acquisition application.

そして、脈波検出装置は、カメラのレンズにユーザの指が置かれて撮影された画像に基づいて脈波を計測するものであり、特に、カメラのレンズに置かれるユーザの指の位置を適切に指示することにより高精度に脈波を計測することができる。   The pulse wave detection device measures a pulse wave based on an image photographed by placing the user's finger on the camera lens, and in particular, appropriately positions the user's finger placed on the camera lens. It is possible to measure the pulse wave with high accuracy by instructing to.

上述した構成において、脈波検出装置は、カメラのレンズに指を置いて撮影された画像を脈拍取得に用いるモードである場合に、当該画像の状態を輝度、エッジ量および画像フレームの縦方向と横方向との輝度値総和の重心のいずれか、または、複数が所定の状態であるかを判定する。そして、脈波検出装置は、判定結果が、所定の状態でない場合にエラーの旨を出力し、所定の状態である場合に前記画像から得られる信号に基づいて脈拍を算出し、算出結果を出力する。   In the configuration described above, when the pulse wave detection device is in a mode in which an image captured with a finger placed on the lens of the camera is used for pulse acquisition, the state of the image is represented by luminance, edge amount, and vertical direction of the image frame. It is determined whether one or more of the centroids of the luminance value sum in the horizontal direction are in a predetermined state. The pulse wave detection device outputs an error message when the determination result is not in a predetermined state, calculates the pulse based on the signal obtained from the image when the determination result is in the predetermined state, and outputs the calculation result To do.

具体的には、脈波検出装置は、カメラのレンズにユーザの指が置かれて撮影された入力画像を受け付ける。そして、脈波検出装置は、入力画像の輝度総和から輝度平均を算出する。続いて、脈波検出装置は、カメラのフリッカの方向が縦の場合に横方向、フリッカが横の場合に縦方向のエッジ量を算出する。   Specifically, the pulse wave detection device accepts an input image that is captured with the user's finger placed on the lens of the camera. Then, the pulse wave detection device calculates a luminance average from the luminance sum total of the input image. Subsequently, the pulse wave detection device calculates an edge amount in the horizontal direction when the flicker direction of the camera is vertical, and in the vertical direction when the flicker is horizontal.

また、脈波検出装置は、入力画像の輝度平均から輝度分布の評価値を算出する。また、脈波検出装置は、入力画像の縦方向の輝度値総和と横方向の輝度値総和とから、縦方向および横方向それぞれの重心位置を算出して、算出された重心に基づいて評価値を算出する。なお、上記各特性(輝度平均、エッジ量、輝度分布および重心)の算出は、入力画像それぞれ(1フレームごと)に対して実施される。   Further, the pulse wave detection device calculates the evaluation value of the luminance distribution from the average luminance of the input image. Further, the pulse wave detection device calculates the center of gravity position in the vertical direction and the horizontal direction from the total luminance value in the vertical direction and the total luminance value in the horizontal direction of the input image, and evaluates based on the calculated center of gravity. Is calculated. Note that the above-described characteristics (luminance average, edge amount, luminance distribution, and center of gravity) are calculated for each input image (for each frame).

その後、脈波検出装置は、算出された輝度平均、エッジ量、輝度分布および重心について、それぞれを所定の閾値と比較して評価点を算出する。そして、脈波検出装置は、算出されたそれぞれの評価点に基づいて、ユーザの指の置き方が良い状態であるか、さらに輝度平均に基づいて、周辺光が適切な状態であるかを判定する。   Thereafter, the pulse wave detection device calculates an evaluation score by comparing each of the calculated luminance average, edge amount, luminance distribution, and center of gravity with a predetermined threshold value. Then, the pulse wave detection device determines whether the user's finger is placed in a good state based on the calculated evaluation points, and further determines whether the ambient light is in an appropriate state based on the luminance average To do.

続いて、脈波検出装置は、ユーザの指の置き方が悪い状態、若しくは、外光が適切でない状態である場合にエラーの旨を出力し、ユーザの指の置き方が良い状態である場合に入力画像から得られる信号に基づいて脈拍を算出して出力する。なお、ユーザの指の置き方の状態の判定は、入力画像1フレームごとに算出された各特性の累積、つまり、複数フレーム分の各特性が利用される。   Subsequently, the pulse wave detection device outputs an error message when the user's finger placement is poor, or when the external light is not appropriate, and the user finger placement is good. The pulse is calculated and output based on the signal obtained from the input image. The determination of the user's finger placement state uses the accumulation of each characteristic calculated for each frame of the input image, that is, each characteristic for a plurality of frames.

また、取得する画像のフレームレートが十分に高い場合には、各特性を1フレームごとに算出せずに、1フレームおきにするなど、処理対象とするフレームを間引いても良い。また、各特性の累積は、計測開始からの累積でも良いし、累積を計算するタイミングから規定時間前までの特性でも良い。   Further, when the frame rate of the acquired image is sufficiently high, the frames to be processed may be thinned out, for example, every other frame without calculating each characteristic for each frame. Further, the accumulation of each characteristic may be the accumulation from the start of measurement, or the characteristic from the timing of calculating the accumulation to the specified time.

上述したように、脈波検出装置は、カメラによって撮影された画像に基づいて脈波を計測する場合に、入力される画像の特性に基づいてカメラのレンズに対するユーザの指の置き方が良いか否かを判定し、ユーザの指の置き方が悪い場合にエラーを出力することができる結果、高精度に脈波を計測することが可能である。   As described above, when the pulse wave detection device measures a pulse wave based on an image photographed by the camera, is the user's finger placed on the camera lens based on the characteristics of the input image? It is possible to measure the pulse wave with high accuracy as a result of determining whether or not and outputting an error when the user's finger placement is poor.

また、携帯端末などに配設される脈波検出装置は、ユーザの指を透過する外光をカメラで受光するパッシブセンサであり、指の軽微な動きなどにより指の位置が悪いと外界が映り込み、光の透過量が大きく変動して脈波情報がノイズに埋もれてしまう。つまり、脈波を正確に計測するためには、指が置かれる位置が重要となる。言い換えると、脈波検出装置は、指が置かれた際に撮影された画像の各特性を評価することにより、指の置き方が良いか否かを判定し、指の置き方が悪い場合にエラーを出力することができる結果、高精度に脈波を計測することが可能である。   A pulse wave detection device disposed in a mobile terminal or the like is a passive sensor that receives external light transmitted through a user's finger with a camera. If the finger position is poor due to slight movement of the finger, the external environment is reflected. In other words, the light transmission amount fluctuates greatly, and the pulse wave information is buried in noise. That is, in order to accurately measure the pulse wave, the position where the finger is placed is important. In other words, the pulse wave detection device determines whether or not the finger is placed properly by evaluating each characteristic of the image taken when the finger is placed. As a result of outputting an error, it is possible to measure a pulse wave with high accuracy.

[脈波検出装置の構成]
次に、図1を用いて、実施例1に係る脈波検出装置の構成を説明する。図1は、実施例1に係る脈波検出装置の構成例を示す図である。
[Configuration of pulse wave detector]
Next, the configuration of the pulse wave detection device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a pulse wave detection device according to the first embodiment.

図1に示すように、脈波検出装置10は、出力部20と、記憶部30と、制御部40とを有し、例えば、カメラ付きの携帯電話機やPDAなどの携帯端末に配設され、当該カメラのレンズにユーザの指が置かれることにより撮影された画像に基づいて脈波を計測する。   As shown in FIG. 1, the pulse wave detection device 10 includes an output unit 20, a storage unit 30, and a control unit 40. For example, the pulse wave detection device 10 is disposed in a mobile terminal such as a mobile phone with a camera or a PDA, A pulse wave is measured based on an image taken by placing a user's finger on the lens of the camera.

出力部20は、モニタ(若しくはディスプレイ、タッチパネルなど)やスピーカを有し、各種の情報を出力するとともに、特に、エラー表示部21と、脈拍数表示部22と、ファイル23と、脈動表示部24とを有する。例えば、出力部20は、制御部40による各種処理結果をユーザに表示・通知したり、制御部40による各種処理から得られるデータをファイルとして出力したりする。   The output unit 20 includes a monitor (or a display, a touch panel, etc.) and a speaker, and outputs various types of information. In particular, the error display unit 21, the pulse rate display unit 22, the file 23, and the pulsation display unit 24 are output. And have. For example, the output unit 20 displays and notifies various processing results by the control unit 40 to the user, and outputs data obtained from the various processings by the control unit 40 as a file.

エラー表示部21は、制御部40による各種処理の結果、エラーが発生した場合に、当該エラー内容を表示する。例えば、エラー表示部21は、後述するエラー判定部42aによって携帯端末のカメラに置かれるユーザの指の位置が悪いと判定された場合に、「指が置かれていない」、「指の置き方が悪い」などのエラー内容を表示する。   When an error occurs as a result of various processes by the control unit 40, the error display unit 21 displays the error content. For example, if the error display unit 21 determines that the position of the user's finger placed on the camera of the mobile terminal is bad by an error determination unit 42a described later, “the finger is not placed”, “how to place the finger” "Error is bad" is displayed.

脈拍数表示部22は、後述する脈拍数計算部42cによって算出された脈拍数を表示する。また、ファイル23は、後述する脈拍数計算部42cによって算出された脈拍数のデータをファイルとして出力する。また、脈動表示部24は、後述するピーク検出部42bによって検出された脈動を表示する。   The pulse rate display unit 22 displays the pulse rate calculated by the pulse rate calculation unit 42c described later. The file 23 outputs the pulse rate data calculated by the pulse rate calculation unit 42c described later as a file. The pulsation display unit 24 displays pulsations detected by a peak detection unit 42b described later.

記憶部30は、制御部40による各種処理に必要なデータや、制御部40による各種処理結果を記憶するとともに、特に、輝度情報記憶部31と、エラー情報記憶部32と、ピーク情報記憶部33とを有する。例えば、記憶部30は、後述する画像処理部41によって処理された画像一枚ごとの画像処理結果を記憶したり、後述する波形処理部42によって処理された波形データやエラー情報などを記憶したりする。   The storage unit 30 stores data necessary for various types of processing by the control unit 40 and various types of processing results by the control unit 40, and in particular, a luminance information storage unit 31, an error information storage unit 32, and a peak information storage unit 33. And have. For example, the storage unit 30 stores an image processing result for each image processed by the image processing unit 41 described later, and stores waveform data, error information, and the like processed by a waveform processing unit 42 described later. To do.

輝度情報記憶部31は、後述する輝度平均計算部41bによって算出された入力画像の輝度平均を記憶する。また、エラー情報記憶部32は、後述する評価点計算部41fによって算出された入力画像ごとの評価点を記憶する。また、ピーク情報記憶部33は、後述するピーク検出部42bによって検出された入力画像に基づいた脈波情報を記憶する。   The luminance information storage unit 31 stores the luminance average of the input image calculated by the luminance average calculation unit 41b described later. Further, the error information storage unit 32 stores an evaluation score for each input image calculated by an evaluation score calculation unit 41f described later. The peak information storage unit 33 stores pulse wave information based on an input image detected by a peak detection unit 42b described later.

制御部40は、制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有するとともに、特に、画像処理部41と、波形処理部42とを有し、これらによって種々の処理を実行する。   The control unit 40 has an internal memory for storing a control program, a program that defines various processing procedures, and necessary data, and in particular, an image processing unit 41 and a waveform processing unit 42, thereby Various processes are executed.

画像処理部41は、入力される画像一枚ごとに画像処理を実施し、特に、前処理部41aと、輝度平均計算部41bと、エッジ量計算部41cと、輝度分布計算部41dと、重心計算部41eと、評価点計算部41fとを有する。   The image processing unit 41 performs image processing for each input image, and in particular, a preprocessing unit 41a, a luminance average calculation unit 41b, an edge amount calculation unit 41c, a luminance distribution calculation unit 41d, and a centroid It has the calculation part 41e and the evaluation score calculation part 41f.

前処理部41aは、携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像を受け付けて、受け付けた画像から輝度成分を抽出したり、受け付けた画像を縮小したりする。   The pre-processing unit 41a receives an image captured by placing a user's finger on the camera lens of the mobile terminal, extracts a luminance component from the received image, or reduces the received image.

具体的に説明すると、前処理部41aは、携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像データ「G0」を受け付けて、受け付けた画像データ「G0」から輝度成分を抽出する。また、前処理部41aは、受け付けた画像データ「G0」を縮小して画像データ「G1」を生成する。なお、利用されるデータは、脈波を捉えられるものであれば、輝度成分に限られるものではなく、例えば、RGB(Red‐Green‐Blue)のR成分やYUV(輝度信号:Y、輝度信号と青色成分との差:U、輝度信号と赤色成分との差:V)のV成分などでもよい。   More specifically, the pre-processing unit 41a receives image data “G0” captured by placing a user's finger on the lens of the camera of the mobile terminal, and extracts a luminance component from the received image data “G0”. Extract. Further, the preprocessing unit 41a reduces the received image data “G0” to generate image data “G1”. The data to be used is not limited to the luminance component as long as the pulse wave can be captured. For example, the R component of RGB (Red-Green-Blue) or YUV (luminance signal: Y, luminance signal) And the blue component: U, and the difference between the luminance signal and the red component: V) may be the V component.

ここで、携帯端末のカメラのレンズに指を置く置き方に対応する画像の特徴を、図2を用いて説明する。図2は、指の置き方と画像の特徴とを説明するための図である。なお、図2では、(1)暗め、(2)普通、(3)明るい、(4)指の置き方が悪い、(5)指の置き方が非常に悪い、(6)指を置いていない、場合の画像それぞれについての(a)元画像、(b)輝度情報、(c)縦エッジ、(d)横エッジ、(e)8×8領域平均(画像を8×8画素のブロック単位に分割し、分割後の各領域の平均)、を例示している。   Here, the feature of the image corresponding to how to place a finger on the lens of the camera of the mobile terminal will be described with reference to FIG. FIG. 2 is a diagram for explaining how to place a finger and image characteristics. In FIG. 2, (1) dark, (2) normal, (3) bright, (4) poor finger placement, (5) very poor finger placement, (6) finger placement. (A) Original image, (b) Luminance information, (c) Vertical edge, (d) Horizontal edge, (e) 8 × 8 area average (the image is a block unit of 8 × 8 pixels) And an average of each area after the division).

(1)暗め
携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像(元画像)が、図2の(1)の(a)に示すような輝度が暗めの画像である場合には、(b)〜(e)においても全体的に暗くなり、また、輝度成分は一様で、エッジが殆どないといった特性が見られる。なお、画像が暗めである場合は、携帯端末のカメラのレンズに指を置く位置は適切であるが、照明が暗いなど周辺光が弱いということになる。
(1) Darkening An image (original image) captured by placing a user's finger on the lens of the camera of the mobile terminal is a dark image as shown in (a) of (1) of FIG. In this case, the characteristics of (b) to (e) are generally dark, the luminance component is uniform, and there are almost no edges. If the image is dark, the position where the finger is placed on the lens of the camera of the mobile terminal is appropriate, but the ambient light is weak, such as when the illumination is dark.

(2)普通
携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像が、図2の(2)の(a)に示すような輝度が普通の(適切な)画像である場合には、(b)〜(e)において、特に、全体的に暗めになり、また、輝度成分はほぼ一様で、エッジが殆どないといった特性が見られる。なお、画像が普通である場合は、携帯端末のカメラのレンズに指が置かれる位置と周辺光とが適切であるということになる。
(2) Ordinary An image taken by placing the user's finger on the camera lens of the mobile terminal is an image having a normal (appropriate) brightness as shown in (a) of (2) of FIG. In this case, in (b) to (e), in particular, it is dark as a whole, the luminance component is almost uniform, and there are almost no edges. When the image is normal, the position where the finger is placed on the lens of the camera of the mobile terminal and the ambient light are appropriate.

(3)明るい
携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像が、図2の(3)の(a)に示すような明るい画像である場合には、(b)〜(e)において、特に、横方向のエッジでフリッカ(画像における「ちらつき」)の影響が目立つ場合がある。なお、画像が明るい場合は、携帯端末のカメラのレンズに指が置かれる位置は適切であるが、照明の直下や炎天下など周辺光が強いということになる。
(3) Bright When the image taken by placing the user's finger on the lens of the camera of the mobile terminal is a bright image as shown in (a) of (3) of FIG. In (e), the influence of flicker (“flicker” in the image) may be particularly noticeable at the edges in the horizontal direction. When the image is bright, the position where the finger is placed on the lens of the camera of the mobile terminal is appropriate, but the ambient light is strong, such as directly under illumination or under hot weather.

(4)指の置き方が悪い
携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像が、図2の(4)の(a)に示すような画像である場合には、(b)〜(e)において、特に、8×8領域の一部が明るくなる。なお、画像が図2の(4)である場合は、携帯端末のカメラのレンズに指が置かれる位置が適切ではないために、外光(外界の光)が映りこむために、上述したように一部分が明るくなる。
(4) Poor finger placement When the image taken by placing the user's finger on the camera lens of the mobile terminal is an image as shown in (a) of (4) of FIG. In (b) to (e), a part of the 8 × 8 region is particularly brightened. Note that when the image is (4) in FIG. 2, the position where the finger is placed on the lens of the camera of the mobile terminal is not appropriate, and external light (external light) is reflected. A part becomes bright.

(5)指の置き方が非常に悪い
携帯端末のカメラのレンズにユーザの指が置かれることにより撮影された画像が、図2の(5)の(a)に示すような画像である場合には、(b)〜(e)において、特に、8×8領域の一部が明るくなるとともにエッジも多くなる。なお、画像が図2の(5)である場合は、携帯端末のカメラのレンズに指が置かれる位置が適切ではないために、外光が映りこむ(図2の(4)と比較してさらに外光が映りこむ)ために、上述したように一部分が明るくなるとともにエッジも多くなる。
(5) When the finger is placed very badly When the image taken by placing the user's finger on the lens of the camera of the mobile terminal is an image as shown in (a) of (5) of FIG. In (b) to (e), in particular, a part of the 8 × 8 region becomes brighter and the edges increase. When the image is (5) in FIG. 2, the position where the finger is placed on the lens of the camera of the mobile terminal is not appropriate, so external light is reflected (compared to (4) in FIG. 2). In addition, since external light is reflected), as described above, a part becomes brighter and edges also increase.

(6)指を置いていない
撮影された画像が、図2の(6)の(a)に示すような画像である場合には、(b)〜(e)において、特に、全体的に明るく、エッジが非常に多くなる。なお、画像が図2の(6)である場合は、カメラのレンズに指を置いていないために、全領域において外光が映りこむために、上述したように全体的に明るい画像となるとともにエッジも非常に多くなる。
(6) When a finger is not placed When the photographed image is an image as shown in (a) of (6) of FIG. 2, in (b) to (e), the entire image is particularly bright. , The edge will be very much. When the image is (6) in FIG. 2, since no finger is placed on the lens of the camera, external light is reflected in the entire area, so that the image is bright as a whole as described above and the edge Also very much.

そして、図2に示した様々な状況での画像パターンから、図3に示すような指の置き方の状態を判定するポイントを導くことができる。図3は、指の置き方の状態を判定するポイントを説明するための図である。   And the point which determines the state of how to put a finger as shown in FIG. 3 can be derived | led-out from the image pattern in the various situations shown in FIG. FIG. 3 is a diagram for explaining points for determining a state of placing a finger.

例えば、カメラのレンズに置かれる指の位置が正常(適切)である場合には、図3に示すように、明るさ「暗め」、分布(輝度分布)「一様」、エッジ「フリッカ以外では殆どない」、重心「中心(にある)」という傾向になる。   For example, when the position of the finger placed on the lens of the camera is normal (appropriate), as shown in FIG. 3, the brightness “dark”, the distribution (luminance distribution) “uniform”, and the edge “flicker” There is a tendency to “nearly” and “center of gravity”.

また、例えば、カメラのレンズに置かれる指の位置が悪い場合には、図3に示すように、明るさ「明るめ」、分布「一部分が明るい」、エッジ「少ない」、重心「偏る」という傾向になる。   Also, for example, when the position of the finger placed on the lens of the camera is bad, as shown in FIG. become.

また、例えば、カメラのレンズに指が置かれていない場合(外界が撮影される場合)には、図3に示すように、明るさ「明るい」、分布「全体が明るい」、エッジ「多い」、重心「傾向なし」という傾向になる。   Further, for example, when no finger is placed on the lens of the camera (when the outside world is photographed), as shown in FIG. 3, the brightness is “bright”, the distribution is “entirely bright”, and the edge is “many”. The center of gravity tends to be “no trend”.

また、指の置き方が悪い場合(図2または図3参照)の波形は、図4に示すように、画像の左側の指が置かれていない領域のように外光が映りこむために明るくなる部分と、指が置かれているために暗めになる部分とが存在するので、時間ごとの輝度平均に差が出る波形になる。なお、図4は、カメラのレンズに置く指の置き方が悪い場合の画像と波形との例を示す図である。   In addition, when the finger is placed in a bad manner (see FIG. 2 or FIG. 3), the waveform becomes bright because external light is reflected as in the region where the finger on the left side of the image is not placed as shown in FIG. Since there are a portion and a portion that becomes dark because the finger is placed, the waveform has a difference in luminance average over time. FIG. 4 is a diagram illustrating an example of an image and a waveform when a finger placed on the lens of the camera is poorly placed.

さらに、外光の強さと画像における傾向とを図5−1〜図5−5を用いて詳細に説明する。これらの図においては、縦軸は輝度値を、横軸は時間を表している。まず、カメラ周辺の照度と輝度平均とについて、図5−1および図5−2を用いて説明する。なお、図5−1は、カメラ周辺の照度例を示す図であり、図5−2は、カメラ周辺の照度に対応する画像の輝度平均例を示す図である。   Furthermore, the intensity of external light and the tendency in the image will be described in detail with reference to FIGS. In these figures, the vertical axis represents the luminance value and the horizontal axis represents time. First, the illuminance and luminance average around the camera will be described with reference to FIGS. 5A is a diagram illustrating an example of illuminance around the camera, and FIG. 5B is a diagram illustrating an average luminance example of an image corresponding to the illuminance around the camera.

例えば、図5−2の(A)に示した輝度平均が高い(明るい)部分の波形は、図5−3に示すように、綺麗な波形になる。また、例えば、図5−2の(B)に示した輝度平均が非常に低い(暗い)部分と、図5−2の(C)に示した輝度平均が低い(暗めの)部分との波形は、それぞれ図5−4と図5−5とに示すように、図5−3と比較して汚い波形になる。なお、図5−3は、画像が明るい場合の波形例を示す図であり、図5−4は、画像が暗い場合の波形例を示す図であり、図5−5は、画像が暗めである場合の波形例を示す図である。   For example, the waveform of the portion with a high average brightness (bright) shown in FIG. 5A is a beautiful waveform as shown in FIG. Further, for example, a waveform of a portion where the luminance average shown in FIG. 5-2 (B) is very low (dark) and a portion where the luminance average shown in FIG. 5-2 (C) is low (dark). As shown in FIGS. 5-4 and 5-5, respectively, the waveform becomes dirty compared to FIG. 5-3. 5-3 is a diagram illustrating an example of a waveform when the image is bright, FIG. 5-4 is a diagram illustrating an example of a waveform when the image is dark, and FIG. 5-5 is a diagram where the image is dark. It is a figure which shows the example of a waveform in a case.

要するに、携帯端末などに配設される脈波検出装置10は、指を透過する外光をカメラで受光するパッシブセンサであり、光の透過量が少ない場合には、ノイズが多くなるので、脈拍数の計算が困難になる。   In short, the pulse wave detection device 10 disposed in a portable terminal or the like is a passive sensor that receives external light transmitted through a finger with a camera, and noise increases when the amount of light transmission is small. Number calculation becomes difficult.

図1に戻り、輝度平均計算部41bは、前処理部41aによって生成された画像データの輝度平均を算出する。上述した例で具体的に説明すると、輝度平均計算部41bは、前処理部41aによって生成された画像データ「G1」の輝度総和「ttlY」を算出する。そして、輝度平均計算部41bは、算出された画像データ「G1」の輝度総和「ttlY」から、当該画像データ「G1」の輝度平均「YMean」を算出し、輝度情報記憶部31に格納する。   Returning to FIG. 1, the luminance average calculation unit 41b calculates the luminance average of the image data generated by the preprocessing unit 41a. Specifically, the luminance average calculation unit 41b calculates the luminance sum “ttlY” of the image data “G1” generated by the preprocessing unit 41a. Then, the luminance average calculation unit 41 b calculates the luminance average “YMean” of the image data “G1” from the calculated luminance sum “ttlY” of the image data “G1”, and stores it in the luminance information storage unit 31.

なお、輝度平均計算部41bによって算出される輝度平均「YMean」は、輝度総和「ttlY」や当該輝度総和「ttlY」の定数倍であってもよく、輝度総和「ttlY」を利用した場合には、処理負荷を軽減することができる。   Note that the luminance average “YMean” calculated by the luminance average calculation unit 41b may be a luminance sum “ttlY” or a constant multiple of the luminance sum “ttlY”. When the luminance sum “ttlY” is used, , The processing load can be reduced.

エッジ量計算部41cは、前処理部41aによって生成された画像データの縦方向または横方向のエッジ量の総和を算出する。上述した例で具体的に説明すると、エッジ量計算部41cは、前処理部41aによって生成された画像データ「G1」において、フリッカが縦に出る場合に横エッジ「Edge_X」、フリッカが横に出る場合に縦エッジ「Edge_Y」を算出する。そして、エッジ量計算部41cは、算出された横エッジ「Edge_X」または縦エッジ「Edge_Y」のエッジ量の総和「SEdge」を算出する。   The edge amount calculation unit 41c calculates the sum of the edge amounts in the vertical direction or the horizontal direction of the image data generated by the preprocessing unit 41a. Specifically, the edge amount calculation unit 41c in the image data “G1” generated by the preprocessing unit 41a has a horizontal edge “Edge_X” and flickers appear horizontally when flicker appears vertically. In this case, the vertical edge “Edge_Y” is calculated. Then, the edge amount calculation unit 41c calculates the total edge amount “SEEdge” of the calculated horizontal edge “Edge_X” or vertical edge “Edge_Y”.

上記フリッカは、カメラのモジュールによって予め決まっているため、エッジ量計算部41cは、フリッカに基づいて、横エッジ「Edge_X」または縦エッジ「Edge_Y」のうち、必要となるどちらか一方のエッジ量の総和「SEdge」を算出する。なお、フリッカは、蛍光灯などの真下で撮影された場合に現れることがある(例えば、図2(3)参照)。   Since the flicker is determined in advance by the camera module, the edge amount calculation unit 41c determines which one of the required edge amounts of the horizontal edge “Edge_X” or the vertical edge “Edge_Y” based on the flicker. The sum “SEdge” is calculated. Note that flicker may appear when taken directly under a fluorescent lamp or the like (for example, see FIG. 2 (3)).

輝度分布計算部41dは、前処理部41aによって生成された画像データを所定領域に分割して、各領域の輝度平均を算出するとともに、輝度分布の評価値を算出する。上述した例で具体的に説明すると、輝度分布計算部41dは、前処理部41aによって生成された画像データ「G1」をM×N領域に分割して、各領域の輝度平均Y(m,n)を算出する。   The luminance distribution calculation unit 41d divides the image data generated by the preprocessing unit 41a into predetermined regions, calculates an average luminance of each region, and calculates an evaluation value of the luminance distribution. More specifically, the luminance distribution calculation unit 41d divides the image data “G1” generated by the preprocessing unit 41a into M × N regions, and calculates the luminance average Y (m, n) of each region. ) Is calculated.

そして、輝度分布計算部41dは、算出された輝度平均Y(m,n)全てから最大値「YMax」と、最小値「YMin」と、Y(m,n)全ての平均である輝度平均「YMean」とを算出し、輝度分布の評価値「Dst=(YMax−YMin)×M×N÷YMean」を算出する。なお、輝度分布計算部41dにおいて利用される輝度平均YMeanは、輝度平均計算部41bによって算出された輝度平均の算出結果を利用してもよい。   Then, the luminance distribution calculation unit 41d calculates the luminance average “, which is an average of all the calculated luminance averages Y (m, n), the maximum value“ YMax ”, the minimum value“ YMin ”, and all Y (m, n). YMean ”is calculated, and the evaluation value“ Dst = (YMax−YMin) × M × N ÷ YMean ”of the luminance distribution is calculated. The luminance average YMean used in the luminance distribution calculation unit 41d may use the luminance average calculation result calculated by the luminance average calculation unit 41b.

また、評価値「Dst」は、適当な定数「K」を利用して、
Dst=(YMax−YMin)×K
Dst=(YMax−YMin)×K÷YMean
Dst=YMax×K
Dst=YMax×K÷YMean
などのように算出することとしてもよい。
Also, the evaluation value “Dst” is calculated using an appropriate constant “K”.
Dst = (YMax−YMin) × K
Dst = (YMax−YMin) × K ÷ YMean
Dst = YMax × K
Dst = YMax × K ÷ YMean
It may be calculated as follows.

重心計算部41eは、前処理部41aによって生成された画像データの横方向と縦方向とのそれぞれについて重心位置を算出する。そして、重心計算部41eは、算出された横方向と縦方向とのそれぞれの重心位置から評価値を算出する。   The centroid calculation unit 41e calculates the centroid position for each of the horizontal direction and the vertical direction of the image data generated by the preprocessing unit 41a. Then, the centroid calculating unit 41e calculates an evaluation value from the calculated centroid positions in the horizontal direction and the vertical direction.

上述した例で具体的に説明すると、重心計算部41eは、図6に示すように、前処理部41aによって生成された画像データ「G1」の横方向と縦方向とのそれぞれについて(式1)および(式2)から重心位置「Cx」(横方向)、「Cy」(縦方向)を算出する。また、(式1)および(式2)において、「G」は、「画素数=(W1+W2+1)×(H1+H2+1)」、「G(i,j)」は、輝度(0〜1)である。なお、図6は、画像の重心の求め方を説明するための図である。 Specifically, in the above-described example, the center-of-gravity calculation unit 41e performs the horizontal direction and the vertical direction of the image data “G1” generated by the preprocessing unit 41a as shown in FIG. And the center-of-gravity positions “Cx” (horizontal direction) and “Cy” (vertical direction) are calculated from (Expression 2). In (Expression 1) and (Expression 2), “G N ” is “number of pixels = (W1 + W2 + 1) × (H1 + H2 + 1)”, and “G (i, j)” is luminance (0 to 1). . FIG. 6 is a diagram for explaining how to obtain the center of gravity of an image.

Figure 2009297233
Figure 2009297233

Figure 2009297233
Figure 2009297233

続いて、重心計算部41eは、算出された横方向の重心位置「Cx」と、縦方向の重心位置「Cy」とから、(式3)を用いて画像データ「G1」の重心の評価値「cPos」を算出する。なお、横方向の重心位置「Cx」と縦方向の重心位置「Cy」との原点は、図6に示した画像の中心(0,0)である。   Subsequently, the center-of-gravity calculation unit 41e calculates the evaluation value of the center of gravity of the image data “G1” using (Expression 3) from the calculated horizontal center-of-gravity position “Cx” and vertical center-of-gravity position “Cy”. Calculate “cPos”. Note that the origin of the horizontal gravity center position “Cx” and the vertical gravity center position “Cy” is the center (0, 0) of the image shown in FIG.

Figure 2009297233
Figure 2009297233

なお、画像データ「G1」の横方向の重心位置「Cx」と、縦方向の重心位置「Cy」とは、横方向の輝度の和「Sx(i)」(式4)と縦方向の輝度の和「Sy(i)」(式5)とから算出するようにしてもよい((式6)および(式7))。   Note that the horizontal center of gravity position “Cx” and the vertical center of gravity position “Cy” of the image data “G1” are the sum of the horizontal brightness “Sx (i)” (Formula 4) and the vertical brightness. May be calculated from the sum “Sy (i)” (Equation 5) (Equation 6) and (Equation 7).

Figure 2009297233
Figure 2009297233

Figure 2009297233
Figure 2009297233

Figure 2009297233
Figure 2009297233

Figure 2009297233
Figure 2009297233

評価点計算部41fは、輝度平均計算部41b、エッジ量計算部41c、輝度分布計算部41dおよび重心計算部41eそれぞれによって算出された値と、別途定められた閾値とを比較して評価点を算出してエラー情報記憶部32に格納する。   The evaluation point calculation unit 41f compares the values calculated by the luminance average calculation unit 41b, the edge amount calculation unit 41c, the luminance distribution calculation unit 41d, and the centroid calculation unit 41e with a separately determined threshold value to obtain an evaluation score. Calculate and store in the error information storage unit 32.

上述した例で具体的に説明すると、評価点計算部41fは、エッジ量計算部41cによって算出されたエッジ量の総和「SEdge」と、閾値「Th_Edge1」(エッジ量の閾値)とを比較して、エッジ量の総和が閾値よりも大きい場合に評価点「P1_1」とする。   More specifically, the evaluation point calculation unit 41f compares the total edge amount “SEEdge” calculated by the edge amount calculation unit 41c with the threshold “Th_Edge1” (edge amount threshold). When the sum of the edge amounts is larger than the threshold value, the evaluation score is “P1_1”.

そして、評価点計算部41fは、エッジ量の総和「SEdge」が閾値「Th_Edge1」よりも小さい場合に、輝度平均計算部41dによって算出された輝度平均「YMean」と、閾値「Th_yD1」(暗いかどうかの閾値)とを比較する。続いて、評価点計算部41fは、輝度平均が閾値よりも小さい場合に評価点「P1_2」とする。   Then, the evaluation point calculation unit 41f, when the total edge amount “SEEdge” is smaller than the threshold “Th_Edge1”, the luminance average “YMean” calculated by the luminance average calculation unit 41d and the threshold “Th_yD1” (is dark (Threshold threshold). Subsequently, the evaluation score calculation unit 41f sets the evaluation score “P1_2” when the average brightness is smaller than the threshold value.

その後、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yD1」よりも大きい場合に、輝度平均計算部41bによって算出された輝度平均「YMean」と、閾値「Th_yB1」(明るいかどうかの閾値)とを比較する。そして、評価点計算部41fは、輝度平均が閾値よりも小さい場合に評価点「P1_3」とする。   Thereafter, when the luminance average “YMean” is larger than the threshold value “Th_yD1”, the evaluation score calculation unit 41f and the luminance average “YMean” calculated by the luminance average calculation unit 41b and the threshold value “Th_yB1” (whether the luminance is bright) (Threshold). Then, the evaluation score calculation unit 41f sets the evaluation score “P1_3” when the luminance average is smaller than the threshold value.

続いて、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yB1」よりも大きい場合に、輝度分布計算部41dによって算出された輝度分布の評価値「Dst」と、閾値「Th_Dst1」(輝度分布の閾値)とを比較する。その後、評価点計算部41fは、輝度分布の評価値が閾値よりも大きい場合に評価点「P1_4」とする。   Subsequently, when the average luminance “YMean” is larger than the threshold value “Th_yB1”, the evaluation point calculation unit 41f calculates the luminance distribution evaluation value “Dst” calculated by the luminance distribution calculation unit 41d and the threshold value “Th_Dst1” ( (Luminance distribution threshold). Thereafter, the evaluation score calculation unit 41f sets the evaluation score “P1_4” when the evaluation value of the luminance distribution is larger than the threshold value.

そして、評価点計算部41fは、輝度分布の評価値「Dst」が閾値「Th_Dst1」よりも小さい場合に、重心計算部41eによって算出された重心の評価値「cPos」と、閾値「Th_cPos1」(重心の閾値)とを比較する。続いて、評価点計算部41fは、重心の評価値が閾値よりも大きい場合に評価点「P1_5」とする。また、評価点計算部41fは、重心の評価値「cPos」が閾値「Th_cPos1」よりも小さい場合に評価点「P_OK」とする。   Then, when the evaluation value “Dst” of the luminance distribution is smaller than the threshold value “Th_Dst1”, the evaluation point calculation unit 41f and the evaluation value “cPos” of the centroid calculated by the centroid calculation unit 41e and the threshold value “Th_cPos1” ( The threshold of the center of gravity). Subsequently, the evaluation score calculation unit 41f sets the evaluation score “P1_5” when the evaluation value of the center of gravity is larger than the threshold value. The evaluation score calculation unit 41f sets the evaluation score “P_OK” when the evaluation value “cPos” of the center of gravity is smaller than the threshold “Th_cPos1”.

なお、評価点計算部41fによる評価点は、上述のような一段階での決定ではなく、数段階に分割してさらに評価点を決定することも可能であり、その場合には、より精度良く評価点を決定できる。   Note that the evaluation score by the evaluation score calculation unit 41f is not determined in one stage as described above, but can be further divided into several stages to determine the evaluation score. Evaluation points can be determined.

また、評価点計算部41fで利用される各閾値は、脈波取得に利用されるカメラの特性に合わせて求めることが望ましい。各閾値の設定方法としては、脈波取得に利用されるカメラ(と同じ特性を持つカメラ)に指を図2の(1)〜(3)のような状態になるように置き、脈波が採りにくくなる明るさを求める。そして、図2の(1)〜(3)のように指が適切に置かれた場合の画像群(画像群「A」とする)と、図2の(4)〜(6)のように指が適切に置かれていない場合の画像群(画像群「B」とする)とに分けて、データを複数取得する。   Further, each threshold value used in the evaluation point calculation unit 41f is preferably obtained in accordance with the characteristics of the camera used for pulse wave acquisition. As a method for setting each threshold, a finger is placed on a camera used for pulse wave acquisition (a camera having the same characteristics) as in (1) to (3) in FIG. Find the brightness that makes it difficult to pick. Then, an image group (referred to as an image group “A”) when a finger is appropriately placed as in (1) to (3) in FIG. 2 and (4) to (6) in FIG. A plurality of data is acquired by dividing into an image group (referred to as an image group “B”) when the finger is not properly placed.

続いて、エッジ量、輝度分布、重心のデータを画像群「A」と画像群「B」とで比較し、その中間に閾値を設定して分離性の良いものほどポイント(評価点)を高くする。なお、複数の画像評価の組み合わせで指の置き方が適切か否かを判定する場合には、指が置かれているにも関わらず、「指が置かれていない」と判定されないように、それぞれの閾値を画像群「B」寄りにすることが望ましい。   Subsequently, the edge amount, the luminance distribution, and the data of the center of gravity are compared between the image group “A” and the image group “B”, and a threshold value is set in the middle so that the point (evaluation point) becomes higher as the separability increases. To do. In addition, when determining whether or not the finger placement is appropriate by combining a plurality of image evaluations, it is not determined that “the finger is not placed” even though the finger is placed. It is desirable to set each threshold value closer to the image group “B”.

波形処理部42は、エラー情報や波形データなどを処理し、特に、エラー判定部42aと、ピーク検出部42bと、脈拍数計算部42cとを有する。   The waveform processing unit 42 processes error information, waveform data, and the like, and particularly includes an error determination unit 42a, a peak detection unit 42b, and a pulse rate calculation unit 42c.

エラー判定部42aは、エラー情報記憶部32に記憶された輝度、エッジ量および重心のいずれか、または、複数が所定の状態であるかを判定する。また、以下のエラー判定部42aで利用される各閾値は、例えば、「Th_e1」(指を置いていない)、「Th_e2」(指の置き方が悪い)、「Th_yB2」(明るすぎる)、「Th_yD2」(暗すぎる)、「Th_yB3」(明るい)、「Th_yD3」(暗い)との判定基準である。   The error determination unit 42a determines whether one or more of the luminance, edge amount, and center of gravity stored in the error information storage unit 32 are in a predetermined state. Further, threshold values used in the error determination unit 42a below are, for example, “Th_e1” (no finger is placed), “Th_e2” (poor finger placement is bad), “Th_yB2” (too bright), “ The determination criteria are “Th_yD2” (too dark), “Th_yB3” (bright), and “Th_yD3” (dark).

上述した例で具体的に説明すると、エラー判定部42aは、画像処理部41によって所定(複数)「N1」フレーム以上画像処理された場合に、過去「N2」フレーム分の評価点の累積値「SErrP」を算出する。   Specifically, in the above-described example, when the image processing unit 41 performs image processing for a predetermined (plurality) “N1” frames or more, the error determination unit 42a has a cumulative evaluation score “ SErrP "is calculated.

なお、エラー判定部42aは、画像処理部41によって画像処理されたフレーム数が所定「N1」フレーム未満である場合に、「YMean」と所定値「Th_yD2」とを比較する。そして、エラー判定部42aは、「YMean」が所定値「Th_yD2」よりも小さい場合に暗すぎると判定してエラー表示部21に異常を通知する。また、エラー判定部42aは、「YMean」が所定値「Th_yD2」よりも大きい場合に正常終了する。   The error determination unit 42a compares “YMean” with a predetermined value “Th_yD2” when the number of frames subjected to image processing by the image processing unit 41 is less than a predetermined “N1” frame. Then, the error determination unit 42a determines that it is too dark when “YMean” is smaller than the predetermined value “Th_yD2”, and notifies the error display unit 21 of the abnormality. The error determination unit 42a ends normally when “YMean” is larger than the predetermined value “Th_yD2”.

そして、エラー判定部42aは、算出された「SErrP」が規定値「Th_e1」よりも小さい場合に、指が置かれていないと判定してエラー表示部21に異常を通知する。続いて、「SErrP」が規定値「Th_e1」よりも大きい場合に、当該「SErrP」と規定値「Th_e2」とを比較する。その後、エラー判定部42aは、「SErrP」が規定値「Th_e2」よりも小さい場合に、指の置き方が悪いと判定してエラー表示部21に異常を通知する。   Then, when the calculated “SErrP” is smaller than the specified value “Th_e1”, the error determination unit 42 a determines that the finger is not placed and notifies the error display unit 21 of the abnormality. Subsequently, when “SErrP” is larger than the specified value “Th_e1”, the “SErrP” is compared with the specified value “Th_e2”. Thereafter, when “SErrP” is smaller than the prescribed value “Th_e2”, the error determination unit 42a determines that the finger is not placed and notifies the error display unit 21 of the abnormality.

そして、エラー判定部42aは、「SErrP」が規定値「Th_e2」よりも大きい場合に、「YMean」と規定値「Th_yB2」とを比較する。続いて、エラー判定部42aは、「YMean」が規定値「Th_yB2」よりも大きい場合に明るすぎると判定してエラー表示部21に異常を通知する。   Then, the error determination unit 42a compares “YMean” with the specified value “Th_yB2” when “SErrP” is larger than the specified value “Th_e2”. Subsequently, the error determination unit 42 a determines that the brightness is too bright when “YMean” is larger than the specified value “Th_yB2”, and notifies the error display unit 21 of the abnormality.

その後、エラー判定部42aは、「YMean」が規定値「Th_yB2」よりも小さい場合に、「YMean」と規定値「Th_yD2」とを比較する。そして、エラー判定部42aは、「YMean」が規定値「Th_yD2」よりも小さい場合に暗すぎると判定してエラー表示部21に異常を通知する。   Thereafter, the error determination unit 42a compares “YMean” with the specified value “Th_yD2” when “YMean” is smaller than the specified value “Th_yB2”. Then, the error determination unit 42a determines that it is too dark when “YMean” is smaller than the specified value “Th_yD2”, and notifies the error display unit 21 of the abnormality.

続いて、エラー判定部42aは、「YMean」が規定値「Th_yD2」よりも大きい場合に、「YMean」と規定値「Th_yB3」とを比較する。その後、エラー判定部42aは、「YMean」が規定値「Th_yB3」よりも大きい場合に明るいと判定してエラー表示部21に警告を通知する。   Subsequently, the error determination unit 42a compares “YMean” with the specified value “Th_yB3” when “YMean” is larger than the specified value “Th_yD2”. After that, the error determination unit 42a determines that it is bright when “YMean” is larger than the specified value “Th_yB3”, and notifies the error display unit 21 of a warning.

そして、エラー判定部42aは、「YMean」が規定値「Th_yB3」よりも小さい場合に、「YMean」と規定値「Th_yD3」とを比較する。続いて、エラー判定部42aは、「YMean」が規定値「Th_yD3」よりも小さい場合に暗いと判定してエラー表示部21に警告を通知する。なお、エラー判定部42aは、「YMean」が規定値「Th_yD3」よりも大きい場合に正常に処理を終了する。   Then, the error determining unit 42a compares “YMean” with the specified value “Th_yD3” when “YMean” is smaller than the specified value “Th_yB3”. Subsequently, when “YMean” is smaller than the specified value “Th_yD3”, the error determination unit 42a determines that the image is dark and notifies the error display unit 21 of a warning. The error determination unit 42a normally ends the process when “YMean” is larger than the specified value “Th_yD3”.

上記エラー判定部42aによる処理については、指の置き方が適切でなく、異常を通知する場合に、脈波を検出しても精度が悪いため処理を中断し、指の置き方が適切ではないが、警告を通知する程度の場合に、処理を中断することなく脈波を検出することとなる。   Regarding the processing by the error determination unit 42a, the finger placement is not appropriate, and when an abnormality is notified, the processing is interrupted because the accuracy is poor even if a pulse wave is detected, and the finger placement is not appropriate. However, when the warning is notified, the pulse wave is detected without interrupting the processing.

また、上記エラー判定部42aによる処理順序については、「明るすぎる」と「暗すぎる」との判定、「明るい」と「暗い」との判定を逆順序にしても良いし、「暗すぎる」のかどうかの判定を指の置き方の判定の前に実施しても良い。なお、指の置き方が悪くて明るいのか、外光が強いために画像が明るいのかの区別が不要である場合には、明るすぎるかどうかの判定を指の置き方の判定の前に実施することとしても良い。   As for the processing order by the error determination unit 42a, the determination of “too bright” and “too dark”, the determination of “bright” and “dark” may be reversed, or is “too dark”? The determination of whether or not may be performed before the determination of how to place the finger. When it is not necessary to distinguish whether the image is bright because the way the finger is placed is bad or bright, or because the outside light is strong, whether the finger is too bright is determined before determining how to place the finger. It's also good.

そして、エラー判定部42aによって異常が検出された場合には、ユーザに指の置き直しや明るい場所若しくは暗い場所への移動を促す。また、エラー判定部42aによって警告が発せられた場合には、ユーザへの警告を発する。また、エラー判定部42aによって異常が検出されなかった場合には、記憶部30に蓄えられた輝度情報を解析して出力部20に脈拍数を通知する(脈拍数計算部42cなどの処理参照)。   If an error is detected by the error determination unit 42a, the user is prompted to reposition the finger or move to a bright or dark place. Further, when a warning is issued by the error determination unit 42a, a warning to the user is issued. When no error is detected by the error determination unit 42a, the luminance information stored in the storage unit 30 is analyzed and the pulse rate is notified to the output unit 20 (see the processing of the pulse rate calculation unit 42c and the like). .

また、エラー判定部42aで利用される各閾値の設定方法としては、例えば、「Th_yD1」よりも暗い状態から「Th_yB1」を超える状態まで、指を置いた場合、指の置き方が悪い場合、および、指を置いていない場合それぞれの評価点累積データを複数取得する。   In addition, as a setting method of each threshold value used in the error determination unit 42a, for example, when a finger is placed from a state darker than “Th_yD1” to a state exceeding “Th_yB1”, when the finger is placed in a bad way, And when a finger is not placed, a plurality of evaluation point accumulated data is obtained.

そして、指を置いた場合、指の置き方が悪い場合、および、指を置いていない場合それぞれを比較し、それぞれの間に閾値「Th_e2」と「Th_e1」とを設定する。また、指を置いているデータのうち、脈波が採れなくなる明るさを「Th_yB2」と「Th_yD2」とに設定する。さらに、指を置いているデータのうち、脈波が採りにくくなる明るさを「Th_yB3」と「Th_yD3」とに設定する。なお、閾値「Th_yB3」と「Th_yD3」とは、閾値「Th_yD1」と「Th_yB1」と同じものでもよい。   Then, when the finger is placed, when the finger is placed in a bad way, and when the finger is not placed, the threshold values “Th_e2” and “Th_e1” are set. Also, the brightness at which the pulse wave cannot be taken is set to “Th_yB2” and “Th_yD2” in the data on which the finger is placed. Furthermore, among the data on which the finger is placed, the brightness at which the pulse wave is difficult to be taken is set to “Th_yB3” and “Th_yD3”. The threshold values “Th_yB3” and “Th_yD3” may be the same as the threshold values “Th_yD1” and “Th_yB1”.

ピーク検出部42bは、輝度情報記憶部31に記憶された画像データの輝度情報から、当該画像データの波形におけるピークを検出する。上述した例で具体的に説明すると、ピーク検出部42bは、輝度情報記憶部31に記憶された画像データ「G1」の時系列の輝度情報から、極大値と極小値とを算出して、当該画像データ「G1」の波形におけるピーク(ピーク間隔)を検出してピーク情報記憶部33に格納する。   The peak detection unit 42 b detects a peak in the waveform of the image data from the luminance information of the image data stored in the luminance information storage unit 31. Specifically, in the example described above, the peak detection unit 42b calculates the local maximum value and the local minimum value from the time-series luminance information of the image data “G1” stored in the luminance information storage unit 31. Peaks (peak intervals) in the waveform of the image data “G1” are detected and stored in the peak information storage unit 33.

脈拍数計算部42cは、ピーク情報記憶部33に記憶されたピーク間隔に基づいて、脈拍数を算出する。上述した例で具体的に説明すると、脈拍数計算部42cは、ピーク情報記憶部33に記憶されたピーク間隔から脈拍数を計算して、脈拍数表示部22やファイル23などに出力する。   The pulse rate calculation unit 42 c calculates the pulse rate based on the peak interval stored in the peak information storage unit 33. Specifically, the pulse rate calculation unit 42c calculates the pulse rate from the peak interval stored in the peak information storage unit 33, and outputs it to the pulse rate display unit 22, the file 23, and the like.

脈拍数を計算する簡単な例としては、フレームレート15FPS(Frame Per Second)、ピーク情報記憶部33に記憶されたピーク間隔の平均値が18である場合に、「18÷15×60=72拍/分」となる。なお、ピーク情報記憶部33に記憶されたピーク間隔からノイズを除外する処理などを行った後に、脈拍数を算出することとしても良い。   As a simple example of calculating the pulse rate, when the frame rate is 15 FPS (Frame Per Second) and the average value of the peak intervals stored in the peak information storage unit 33 is 18, “18 ÷ 15 × 60 = 72 beats”. / Min ". In addition, it is good also as calculating a pulse rate after performing the process etc. which exclude a noise from the peak space | interval memorize | stored in the peak information storage part 33. FIG.

[輝度平均算出処理]
次に、図7を用いて、実施例1に係る輝度平均算出処理を説明する。図7は、実施例1に係る輝度平均算出処理を説明するためのフローチャートである。
[Brightness average calculation processing]
Next, the average brightness calculation process according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart for explaining luminance average calculation processing according to the first embodiment.

図7に示すように、脈波検出装置10は、画像データ「G1」の輝度総和「ttlY」を算出する(ステップS101)。そして、脈波検出装置10は、算出された画像データ「G1」の輝度総和「ttlY」から、当該画像データ「G1」の輝度平均「YMean」を算出して、輝度情報記憶部31に格納する(ステップS102)。   As illustrated in FIG. 7, the pulse wave detection device 10 calculates the luminance sum “ttlY” of the image data “G1” (step S101). Then, the pulse wave detection device 10 calculates the luminance average “YMean” of the image data “G1” from the calculated luminance sum “ttlY” of the image data “G1” and stores it in the luminance information storage unit 31. (Step S102).

[エッジ量算出処理]
次に、図8を用いて、実施例1に係るエッジ量算出処理を説明する。図8は、実施例1に係るエッジ量算出処理を説明するためのフローチャートである。
[Edge amount calculation processing]
Next, the edge amount calculation processing according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart for explaining edge amount calculation processing according to the first embodiment.

図8に示すように、脈波検出装置10は、画像データ「G1」において、フリッカが縦に出る場合に(ステップS201縦方向)、横エッジ「Edge_X」を算出する(ステップS202)。そして、脈波検出装置10は、算出された横エッジ「Edge_X」について閾値以下を「0」とみなして(ステップS203)、当該横エッジ「Edge_X」のエッジ量の総和「SEdge」を算出する(ステップS204)。   As shown in FIG. 8, the pulse wave detection device 10 calculates the horizontal edge “Edge_X” when flicker appears vertically in the image data “G1” (step S201 vertical direction) (step S202). Then, the pulse wave detection device 10 regards the calculated horizontal edge “Edge_X” as “0” that is equal to or less than the threshold (step S203), and calculates the total “SEEdge” of the edge amounts of the horizontal edge “Edge_X” (step S203). Step S204).

また、脈波検出装置10は、画像データ「G1」において、フリッカが横方向に出る場合に(ステップS201横方向)、縦エッジ「Edge_Y」を算出する(ステップS205)。そして、脈波検出装置10は、算出された縦エッジ「Edge_Y」について閾値以下を「0」とみなして(ステップS206)、当該縦エッジ「Edge_Y」のエッジ量の総和「SEdge」を算出する(ステップS207)。   Further, when the flicker appears in the horizontal direction in the image data “G1” (step S201 horizontal direction), the pulse wave detection device 10 calculates the vertical edge “Edge_Y” (step S205). Then, the pulse wave detection device 10 regards the calculated vertical edge “Edge_Y” as “0” that is equal to or lower than the threshold (step S206), and calculates the total edge amount “SEEdge” of the vertical edge “Edge_Y” (step S206). Step S207).

上記ステップS203やステップS206などの処理については、ノイズを拾わないようにするための処理であるので、ノイズが十分に抑えられるカメラである場合には、当該処理を必須とする必要はない。また、フリッカを十分に抑えられる場合には、縦横両方のエッジを利用し、評価点計算部41fにおいて個別に評価することとしてもよいし、横エッジ「Edge_X」と縦エッジ「Edge_Y」との和や二乗和を評価することとしてもよい。   The processes in step S203 and step S206 are processes for preventing noise from being picked up. Therefore, when the camera can sufficiently suppress noise, it is not necessary to make the process essential. Further, when flicker can be sufficiently suppressed, both the vertical and horizontal edges may be used and individually evaluated by the evaluation point calculation unit 41f, or the sum of the horizontal edge “Edge_X” and the vertical edge “Edge_Y”. Or the sum of squares may be evaluated.

[輝度分布算出処理]
次に、図9を用いて、実施例1に係る輝度分布算出処理を説明する。図9は、実施例1に係る輝度分布算出処理を説明するためのフローチャートである。
[Luminance distribution calculation processing]
Next, the luminance distribution calculation process according to the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart for explaining the luminance distribution calculation processing according to the first embodiment.

図9に示すように、脈波検出装置10は、画像データ「G1」をM×N領域に分割する(ステップS301)。そして、脈波検出装置10は、分割されたM×N領域それぞれの輝度平均Y(m,n)を算出する(ステップS302)。   As shown in FIG. 9, the pulse wave detection device 10 divides the image data “G1” into M × N regions (step S301). Then, the pulse wave detection device 10 calculates the luminance average Y (m, n) for each of the divided M × N regions (step S302).

続いて、脈波検出装置10は、算出された輝度平均Y(m,n)全てから最大値「YMax」と、最小値「YMin」と、Y(m,n)全ての平均である輝度平均「YMean」とを算出する(ステップS303、ステップS304)。その後、脈波検出装置10は、算出された最大値「YMax」と「YMin」と「YMean」とから、輝度分布の評価値となる「Dst」を算出する(ステップS305)。   Subsequently, the pulse wave detection device 10 calculates the luminance average that is the average of all of the calculated luminance average Y (m, n), the maximum value “YMax”, the minimum value “YMin”, and Y (m, n). “YMean” is calculated (steps S303 and S304). Thereafter, the pulse wave detection device 10 calculates “Dst”, which is an evaluation value of the luminance distribution, from the calculated maximum values “YMax”, “YMin”, and “YMean” (step S305).

[重心評価値算出処理]
次に、図10を用いて、実施例1に係る重心評価値算出処理を説明する。図10は、実施例1に係る重心評価値算出処理を説明するためのフローチャートである。
[Center of gravity evaluation value calculation processing]
Next, the center-of-gravity evaluation value calculation process according to the first embodiment will be described with reference to FIG. FIG. 10 is a flowchart for explaining the center-of-gravity evaluation value calculation processing according to the first embodiment.

図10に示すように、脈波検出装置10は、画像データ「G1」の横方向の輝度の和を算出して(ステップS401)、当該横方向の重心位置「Cx」を算出する(ステップS402)。そして、脈波検出装置10は、画像データ「G1」の縦方向の輝度の和を算出して(ステップS403)、当該縦方向の重心位置「Cy」を算出する(ステップS404)。   As shown in FIG. 10, the pulse wave detection device 10 calculates the sum of the horizontal luminances of the image data “G1” (step S401), and calculates the horizontal center of gravity position “Cx” (step S402). ). Then, the pulse wave detection device 10 calculates the sum of the vertical luminances of the image data “G1” (step S403), and calculates the vertical center of gravity position “Cy” (step S404).

続いて、脈波検出装置10は、算出された横方向と縦方向との重心位置「Cx」と「Cy」とから、画像データ「G1」の重心の評価値「cPos」を算出する(ステップS405)。なお、横方向と縦方向との重心位置の算出の順序については、どちらを先に算出してもよい。さらに、横方向と縦方向とのそれぞれの輝度の和について、最大値と最小値との差が所定閾値を下回る場合には、「Cx」若しくは「Cy」を「0」とみなして処理を行うこととしてもよい。   Subsequently, the pulse wave detection device 10 calculates the evaluation value “cPos” of the centroid of the image data “G1” from the calculated centroid positions “Cx” and “Cy” in the horizontal direction and the vertical direction (step) S405). In addition, as for the calculation order of the gravity center position in the horizontal direction and the vertical direction, either may be calculated first. Further, regarding the sum of the luminances in the horizontal direction and the vertical direction, when the difference between the maximum value and the minimum value is below a predetermined threshold value, the processing is performed by regarding “Cx” or “Cy” as “0”. It is good as well.

また、図2の(2)の(a)は、ほぼ一様な画像であるように見えるが、実際には、図11に示す強度分布を強調した画像(図11の右図)のように、周辺光の条件や指の置き方が適切である場合に、中心部分が明るくなり、周囲が暗くなるため、重心計算部41eにおいて画像データ「G1」の重心についての評価値を算出している。なお、図11は、輝度分布を持った画像の例を示す図である。   Further, (a) in (2) of FIG. 2 seems to be a substantially uniform image, but actually, as shown in the image in which the intensity distribution shown in FIG. 11 is emphasized (the right diagram in FIG. 11). When the ambient light conditions and finger placement are appropriate, the center portion becomes bright and the surrounding becomes dark, so the centroid calculation unit 41e calculates an evaluation value for the centroid of the image data “G1”. . FIG. 11 is a diagram illustrating an example of an image having a luminance distribution.

[評価点算出処理]
次に、図12を用いて、実施例1に係る評価点算出処理を説明する。図12は、実施例1に係る評価点算出処理を説明するためのフローチャートである。
[Evaluation score calculation process]
Next, the evaluation point calculation process according to the first embodiment will be described with reference to FIG. FIG. 12 is a flowchart for explaining an evaluation score calculation process according to the first embodiment.

図12に示すように、脈波検出装置10は、エッジ量の総和「SEdge」と、閾値「Th_Edge1」とを比較して(ステップS501)、エッジ量の総和が閾値よりも大きい場合に(ステップS501肯定)、評価点「P1_1」とする(ステップS502)。   As illustrated in FIG. 12, the pulse wave detection device 10 compares the total edge amount “SEEdge” with the threshold value “Th_Edge1” (step S501), and when the total edge amount is larger than the threshold value (step S501). (Yes in S501), the evaluation score is “P1_1” (step S502).

そして、脈波検出装置10は、エッジ量の総和「SEdge」が閾値「Th_Edge1」よりも小さい場合に(ステップS501否定)、輝度平均「YMean」と、閾値「Th_yD1」とを比較する(ステップS503)。続いて、脈波検出装置10は、輝度平均が閾値よりも小さい場合に(ステップS503肯定)、評価点「P1_2」とする(ステップS504)。   Then, when the total edge amount “SEdge” is smaller than the threshold “Th_Edge1” (No at Step S501), the pulse wave detection device 10 compares the luminance average “YMean” with the threshold “Th_yD1” (Step S503). ). Subsequently, when the average luminance is smaller than the threshold value (Yes at Step S503), the pulse wave detection device 10 sets the evaluation score “P1_2” (Step S504).

その後、脈波検出装置10は、輝度平均「YMean」が閾値「Th_yD1」よりも大きい場合に(ステップS503否定)、輝度平均「YMean」と、閾値「Th_yB1」とを比較する(ステップS505)。そして、脈波検出装置10は、輝度平均が閾値よりも小さい場合に(ステップS505肯定)、評価点「P1_3」とする(ステップS506)。   Thereafter, when the luminance average “YMean” is larger than the threshold “Th_yD1” (No at Step S503), the pulse wave detection device 10 compares the luminance average “YMean” with the threshold “Th_yB1” (Step S505). Then, when the average luminance is smaller than the threshold (Yes at Step S505), the pulse wave detection device 10 sets the evaluation score “P1_3” (Step S506).

続いて、脈波検出装置10は、輝度平均「YMean」が閾値「Th_yB1」よりも大きい場合に(ステップS505否定)、輝度分布の評価値「Dst」と、閾値「Th_Dst1」とを比較する(ステップS507)。その後、脈波検出装置10は、輝度分布の評価値が閾値よりも大きい場合に(ステップS507肯定)、評価点「P1_4」とする(ステップS508)。   Subsequently, when the luminance average “YMean” is larger than the threshold “Th_yB1” (No at Step S505), the pulse wave detection device 10 compares the evaluation value “Dst” of the luminance distribution with the threshold “Th_Dst1” ( Step S507). Thereafter, when the evaluation value of the luminance distribution is larger than the threshold value (Yes at Step S507), the pulse wave detection device 10 sets the evaluation point “P1_4” (Step S508).

そして、脈波検出装置10は、輝度分布の評価値「Dst」が閾値「Th_Dst1」よりも小さい場合に(ステップS507否定)、重心の評価値「cPos」と、閾値「Th_cPos1」とを比較する(ステップS509)。続いて、脈波検出装置10は、重心の評価値が閾値よりも大きい場合に(ステップS509肯定)、評価点「P1_5」とする(ステップS510)。   Then, when the evaluation value “Dst” of the luminance distribution is smaller than the threshold “Th_Dst1” (No at Step S507), the pulse wave detection device 10 compares the evaluation value “cPos” of the center of gravity with the threshold “Th_cPos1”. (Step S509). Subsequently, when the evaluation value of the center of gravity is larger than the threshold value (Yes at Step S509), the pulse wave detection device 10 sets the evaluation point “P1_5” (Step S510).

その後、脈波検出装置10は、重心の評価値「cPos」が閾値「Th_cPos1」よりも小さい場合に(ステップS509否定)、エッジ量の総和「SEdge」と、閾値「Th_Edge2」とを比較する(ステップS511)。そして、脈波検出装置10は、エッジ量の総和が閾値よりも大きい場合に(ステップS511肯定)、評価点「P2_1」とする(ステップS512)。   After that, when the evaluation value “cPos” of the center of gravity is smaller than the threshold value “Th_cPos1” (No at Step S509), the pulse wave detection device 10 compares the total edge amount “SEEdge” with the threshold value “Th_Edge2” ( Step S511). Then, when the sum of the edge amounts is larger than the threshold value (Yes at Step S511), the pulse wave detection device 10 sets the evaluation score “P2_1” (Step S512).

続いて、脈波検出装置10は、エッジ量の総和「SEdge」が閾値「Th_Edge2」よりも小さい場合に(ステップS511否定)、輝度平均「YMean」と、閾値「Th_yD2」とを比較する(ステップS513)。その後、脈波検出装置10は、輝度平均が閾値よりも小さい場合に(ステップS513肯定)、評価点「P2_2」とする(ステップS514)。   Subsequently, when the total edge amount “SEdge” is smaller than the threshold value “Th_Edge2” (No at Step S511), the pulse wave detection device 10 compares the luminance average “YMean” with the threshold value “Th_yD2” (Step S511). S513). Thereafter, when the average luminance is smaller than the threshold value (Yes at Step S513), the pulse wave detection device 10 sets the evaluation score “P2_2” (Step S514).

そして、脈波検出装置10は、輝度平均「YMean」が閾値「Th_yD2」よりも大きい場合に(ステップS513否定)、輝度平均「YMean」と、閾値「Th_yB2」とを比較する(ステップS515)。続いて、脈波検出装置10は、輝度平均が閾値よりも小さい場合に(ステップS515肯定)、評価点「P2_3」とする(ステップS516)。   Then, when the luminance average “YMean” is larger than the threshold “Th_yD2” (No at Step S513), the pulse wave detection device 10 compares the luminance average “YMean” with the threshold “Th_yB2” (Step S515). Subsequently, when the average luminance is smaller than the threshold (Yes at Step S515), the pulse wave detection device 10 sets the evaluation score “P2_3” (Step S516).

その後、脈波検出装置10は、輝度平均「YMean」が閾値「Th_yB2」よりも大きい場合に(ステップS515否定)、輝度分布の評価値「Dst」と、閾値「Th_Dst2」とを比較する(ステップS517)。そして、脈波検出装置10は、輝度分布の評価値が閾値よりも大きい場合に(ステップS517肯定)、評価点「P2_4」とする(ステップS518)。   Thereafter, when the luminance average “YMean” is larger than the threshold “Th_yB2” (No at Step S515), the pulse wave detection device 10 compares the evaluation value “Dst” of the luminance distribution with the threshold “Th_Dst2” (Step S515). S517). Then, when the evaluation value of the luminance distribution is larger than the threshold value (Yes at Step S517), the pulse wave detection device 10 sets the evaluation score “P2_4” (Step S518).

続いて、脈波検出装置10は、輝度分布の評価値「Dst」が閾値「Th_Dst2」よりも小さい場合に(ステップS517否定)、重心の評価値「cPos」と、閾値「Th_cPos2」とを比較する(ステップS519)。その後、脈波検出装置10は、重心の評価値が閾値よりも大きい場合に(ステップS519肯定)、評価点「P2_5」とする(ステップS520)。   Subsequently, when the evaluation value “Dst” of the luminance distribution is smaller than the threshold value “Th_Dst2” (No at Step S517), the pulse wave detection device 10 compares the evaluation value “cPos” of the center of gravity with the threshold value “Th_cPos2”. (Step S519). Thereafter, when the evaluation value of the center of gravity is larger than the threshold value (Yes at Step S519), the pulse wave detection device 10 sets the evaluation score “P2_5” (Step S520).

そして、脈波検出装置10は、重心の評価値「cPos」が閾値「Th_cPos2」よりも小さい場合に(ステップS519否定)、評価点「P_OK」とする(ステップS521)。   Then, when the evaluation value “cPos” of the center of gravity is smaller than the threshold “Th_cPos2” (No at Step S519), the pulse wave detection device 10 sets the evaluation point “P_OK” (Step S521).

なお、上記評価点の決定については、評価点「P1」から悪い順に決定し、処理負荷削減のために、一つの評価項目ポイントを決定すると、その時点で処理を終了したが、全ての評価項目について評価し、合計ポイントを算出することとしてもよい。但し、一つの評価項目においてマイナス点がある場合には、他の評価項目についても影響してマイナス点が決定される場合が多い。   In addition, about the determination of the said evaluation score, it determines in order of badness from evaluation score "P1", and when one evaluation item point was determined for processing load reduction, the process was complete | finished at that time, but all evaluation items It is good also as evaluating about and calculating a total point. However, if there is a negative point in one evaluation item, the negative point is often determined by affecting other evaluation items.

また、評価項目の順序は、どの順序で評価しても良く、評価項目の数も上記実施例に限られるものではない。そこで、以下では、上述した実施例以外の評価点の決定例を図13〜図16を用いて説明する。   Moreover, the order of evaluation items may be evaluated in any order, and the number of evaluation items is not limited to the above embodiment. Therefore, hereinafter, an example of determining evaluation points other than the above-described embodiment will be described with reference to FIGS.

(指の置き方の評価点1)
まず、図13と図14とを用いて、指の置き方による評価点の決定例を説明する。図13は、指の置き方による評価点決定の例を示す図であり、図14は、評価点計算部41fにおける処理を説明するためのフローチャートである。
(Evaluation of finger placement 1)
First, an example of determining an evaluation score based on how to place a finger will be described with reference to FIGS. 13 and 14. FIG. 13 is a diagram illustrating an example of evaluation point determination based on how to place a finger, and FIG. 14 is a flowchart for explaining processing in the evaluation point calculation unit 41f.

例えば、図13に示すように、明るさとエッジ量との組み合わせのみを用いる場合には、適正な明るさとエッジ量とである時に「0点」、暗いまたは明るい、および、エッジ量が多い時に「−1点」、暗すぎるまたは明るすぎる、および、エッジ量が多すぎる時に「−2点」として評価点が決定される。   For example, as shown in FIG. 13, when only a combination of brightness and edge amount is used, “0 point” is obtained when the brightness and edge amount are appropriate, “0” when dark or bright and the edge amount is large. The evaluation score is determined as “−2 points” when “−1 point”, too dark or too bright, and when the edge amount is too large.

次に、上記図13のような評価点を決定する場合の処理の流れを説明する。図14に示すように、評価点計算部41fは、輝度平均「YMean」と、閾値「Th_yD1」とを比較して(ステップS601)、輝度平均が閾値よりも小さい場合に(ステップS601肯定)、評価点「−2」とする(ステップS602)。   Next, the flow of processing when determining the evaluation points as shown in FIG. 13 will be described. As illustrated in FIG. 14, the evaluation score calculation unit 41f compares the luminance average “YMean” with the threshold “Th_yD1” (step S601), and when the luminance average is smaller than the threshold (Yes in step S601). The evaluation score is “−2” (step S602).

そして、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yD1」よりも大きい場合に(ステップS601否定)、輝度平均「YMean」と、閾値「Th_yB1」とを比較する(ステップS603)。続いて、評価点計算部41fは、輝度平均が閾値よりも大きい場合に(ステップS603肯定)、評価点「−2」とする(ステップS604)。   Then, when the luminance average “YMean” is larger than the threshold value “Th_yD1” (No at Step S601), the evaluation score calculation unit 41f compares the luminance average “YMean” with the threshold value “Th_yB1” (Step S603). Subsequently, when the average luminance is larger than the threshold (Yes at Step S603), the evaluation score calculation unit 41f sets the evaluation score “−2” (Step S604).

その後、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yB1」よりも小さい場合に(ステップS603否定)、エッジ量の総和「SEdge」と、輝度平均「YMean」に基づいて決定される閾値「Th_Edge1(YMean)」とを比較する(ステップS605)。そして、評価点計算部41fは、エッジ量の総和が閾値よりも大きい場合に(ステップS605肯定)、評価点「−2」とする(ステップS606)。   After that, the evaluation score calculation unit 41f is determined based on the sum of edge amounts “SEdge” and the luminance average “YMean” when the luminance average “YMean” is smaller than the threshold “Th_yB1” (No in Step S603). The threshold value “Th_Edge1 (YMean)” is compared (step S605). Then, the evaluation score calculation unit 41f sets the evaluation score “−2” (step S606) when the sum of the edge amounts is larger than the threshold value (Yes in step S605).

続いて、評価点計算部41fは、エッジ量の総和「SEdge」が輝度平均「YMean」に基づいて決定される閾値「Th_Edge1(YMean)」よりも小さい場合に(ステップS605否定)、輝度平均「YMean」と、閾値「Th_yD2」とを比較する(ステップS607)。その後、評価点計算部41fは、輝度平均が閾値よりも小さい場合に(ステップS607肯定)、評価点「−1」とする(ステップS608)。   Subsequently, the evaluation point calculation unit 41f determines that the brightness average “SEEdge” is smaller than the threshold “Th_Edge1 (YMean)” determined based on the brightness average “YMean” (No in step S605). “YMean” is compared with a threshold “Th_yD2” (step S607). Thereafter, when the average luminance is smaller than the threshold value (Yes at Step S607), the evaluation score calculation unit 41f sets the evaluation score “−1” (Step S608).

そして、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yD2」よりも大きい場合に(ステップS607否定)、輝度平均「YMean」と、閾値「Th_yB2」とを比較する(ステップS609)。続いて、評価点計算部41fは、輝度平均が閾値よりも大きい場合に(ステップS609肯定)、評価点「−1」とする(ステップS610)。   Then, when the luminance average “YMean” is larger than the threshold value “Th_yD2” (No at Step S607), the evaluation score calculation unit 41f compares the luminance average “YMean” with the threshold value “Th_yB2” (Step S609). Subsequently, when the average luminance is larger than the threshold value (Yes at Step S609), the evaluation score calculation unit 41f sets the evaluation score “−1” (Step S610).

その後、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yB2」よりも小さい場合に(ステップS609否定)、エッジ量の総和「SEdge」と、輝度平均「YMean」に基づいて決定される閾値「Th_Edge2(YMean)」とを比較する(ステップS611)。そして、評価点計算部41fは、エッジ量の総和が閾値よりも大きい場合に(ステップS611肯定)、評価点「−1」とする(ステップS612)。なお、評価点計算部41fは、エッジ量の総和が閾値よりも小さい場合に(ステップS611否定)、評価点「0」として処理を終了する(ステップS613)。   Thereafter, when the luminance average “YMean” is smaller than the threshold value “Th_yB2” (No at Step S609), the evaluation score calculation unit 41f is determined based on the sum “SEdge” of the edge amounts and the luminance average “YMean”. The threshold value “Th_Edge2 (YMean)” is compared (step S611). Then, the evaluation score calculation unit 41f sets the evaluation score “−1” (step S612) when the sum of the edge amounts is larger than the threshold value (Yes in step S611). Note that the evaluation score calculation unit 41f ends the process with an evaluation score of “0” when the sum of the edge amounts is smaller than the threshold (No at Step S611) (Step S613).

なお、本実施例は、上記説明に限られるものではなく、例えば、図14のステップS605の閾値「Th_Edge1(YMean)」を、輝度総和「ttlY」に基づいて決定される閾値「Th_Edge1(ttlY)」に置き換えて判定を行なうこととしても良い。また、例えば、図14のステップS611の閾値「Th_Edge2(YMean)」を、輝度総和「ttlY」に基づいて決定される閾値「Th_Edge2(ttlY)」に置き換えて判定を行なうこととしても良い。また、例えば、ステップS601、ステップS603、ステップS607、ステップS609の左辺の輝度平均「YMean」を、輝度総和「ttlY」に置き換えて判定を行なうこととしても良い。   The present embodiment is not limited to the above description. For example, the threshold “Th_Edge1 (YMean)” in step S605 of FIG. 14 is set to the threshold “Th_Edge1 (ttlY) determined based on the total luminance“ ttlY ”. It is also possible to make a determination by replacing it with "." Further, for example, the threshold value “Th_Edge2 (YMean)” in step S611 in FIG. 14 may be replaced with a threshold value “Th_Edge2 (ttlY)” determined based on the total luminance “ttlY”. Further, for example, the luminance average “YMean” on the left side of Step S601, Step S603, Step S607, and Step S609 may be replaced with the luminance sum “ttlY” for determination.

(指の置き方の評価点2)
次に、図15と図16とを用いて、指の置き方による評価点の決定例を説明する。図15は、指の置き方による評価点の例を示す図であり、図16は、評価点計算部41fにおける処理を説明するためのフローチャートである。
(Evaluation point 2 for finger placement)
Next, with reference to FIG. 15 and FIG. 16, an example of evaluation point determination based on how to place a finger will be described. FIG. 15 is a diagram illustrating an example of evaluation points depending on how the finger is placed, and FIG. 16 is a flowchart for explaining processing in the evaluation point calculation unit 41f.

例えば、図15に示すように、明るさを評価点の決定に用いる場合には、明るさによって指の置き方が正常である時に「+1点」、指の置き方が悪い時に「−1点」、指を置いていない時に「−2点」として評価点が決定される。また、重心を評価点の決定に用いる場合には、重心によって指の置き方が正常である時に「+1点」、指の置き方が悪い時に「0点」、指を置いていない時に「−1点」として評価点が決定される。また、エッジ量を評価点の決定に用いる場合には、エッジ量によって指の置き方が正常である時に「+1点」、指の置き方が悪い時に「−1点」、指を置いていない時に「−2点」として評価点が決定される。   For example, as shown in FIG. 15, when brightness is used to determine an evaluation point, “+1 point” is set when the finger placement is normal depending on the brightness, and “−1 point” is set when the finger placement is poor. The evaluation score is determined as “−2 points” when no finger is placed. When the center of gravity is used for determining the evaluation point, “+1 point” is set when the finger is placed normally according to the center of gravity, “0 point” is set when the finger is put in a bad way, and “−” is set when the finger is not put. An evaluation score is determined as “1 point”. When the edge amount is used to determine the evaluation point, “+1 point” when the finger placement is normal depending on the edge amount, “−1 point” when the finger placement is bad, and no finger is placed. Sometimes an evaluation score is determined as "-2 points".

次に、上記図15のような評価点を決定する場合の処理の流れを説明する。図16に示すように、評価点計算部41fは、輝度平均「YMean」と、閾値「Th_yB1」とを比較して(ステップS701)、輝度平均が閾値よりも小さい場合に(ステップS701肯定)、評価点「−2」とする(ステップS702)。   Next, the flow of processing when determining the evaluation points as shown in FIG. 15 will be described. As illustrated in FIG. 16, the evaluation score calculation unit 41f compares the luminance average “YMean” with the threshold “Th_yB1” (step S701), and when the luminance average is smaller than the threshold (Yes in step S701). The evaluation score is “−2” (step S702).

そして、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yB1」よりも大きい場合に(ステップS701否定)、エッジ量の総和「SEdge」と、閾値「Th_Edge1」とを比較する(ステップS703)。続いて、評価点計算部41fは、エッジ量の総和が閾値よりも大きい場合に(ステップS703肯定)、評価点「−2」とする(ステップS704)。   Then, when the luminance average “YMean” is larger than the threshold value “Th_yB1” (No at Step S701), the evaluation score calculating unit 41f compares the total amount “SEEdge” of the edge amount with the threshold value “Th_Edge1” (Step S703). ). Subsequently, the evaluation score calculation unit 41f sets the evaluation score “−2” (step S704) when the sum of the edge amounts is larger than the threshold value (Yes in step S703).

その後、評価点計算部41fは、エッジ量の総和「SEdge」が閾値「Th_Edge1」よりも小さい場合に(ステップS703否定)、重心の評価値「cPos」と、閾値「Th_cPos1」とを比較する(ステップS705)。そして、評価点計算部41fは、重心の評価値が閾値よりも大きい場合に(ステップS705肯定)、評価点「−1」とする(ステップS706)。   Thereafter, the evaluation point calculation unit 41f compares the evaluation value “cPos” of the center of gravity with the threshold value “Th_cPos1” when the sum “SEdge” of the edge amounts is smaller than the threshold value “Th_Edge1” (No in Step S703). Step S705). When the evaluation value of the center of gravity is larger than the threshold value (Yes at Step S705), the evaluation score calculation unit 41f sets the evaluation score “−1” (Step S706).

続いて、評価点計算部41fは、重心の評価値「cPos」が閾値「Th_cPos1」よりも小さい場合に(ステップS705否定)、輝度平均「YMean」と、閾値「Th_yB2」とを比較する(ステップS707)。その後、評価点計算部41fは、輝度平均が閾値よりも小さい場合に(ステップS707肯定)、評価点「−1」とする(ステップS708)。   Subsequently, when the evaluation value “cPos” of the center of gravity is smaller than the threshold value “Th_cPos1” (No at Step S705), the evaluation point calculation unit 41f compares the luminance average “YMean” with the threshold value “Th_yB2” (Step S705). S707). Thereafter, when the average luminance is smaller than the threshold value (Yes at Step S707), the evaluation score calculation unit 41f sets the evaluation score “−1” (Step S708).

そして、評価点計算部41fは、輝度平均「YMean」が閾値「Th_yB2」よりも大きい場合に(ステップS707否定)、エッジ量の総和「SEdge」と、閾値「Th_Edge2」とを比較する(ステップS709)。続いて、評価点計算部41fは、エッジ量の総和が閾値よりも大きい場合に(ステップS709肯定)、評価点「−1」とする(ステップS710)。   Then, when the luminance average “YMean” is larger than the threshold value “Th_yB2” (No at Step S707), the evaluation point calculation unit 41f compares the total amount “SEEdge” of the edge amount with the threshold value “Th_Edge2” (Step S709). ). Subsequently, when the sum of the edge amounts is larger than the threshold value (Yes at Step S709), the evaluation score calculation unit 41f sets the evaluation score “−1” (Step S710).

その後、評価点計算部41fは、エッジ量の総和「SEdge」が閾値「Th_Edge2」よりも小さい場合に(ステップS709否定)、重心の評価値「cPos」と、閾値「Th_cPos2」とを比較する(ステップS711)。そして、評価点計算部41fは、重心の評価値が閾値よりも大きい場合に(ステップS711肯定)、評価点「0」とする(ステップS712)。なお、評価点計算部41fは、重心の評価値が閾値よりも小さい場合に(ステップS711否定)、評価点「+1」として処理を終了する(ステップS713)。   After that, the evaluation point calculation unit 41f compares the evaluation value “cPos” of the center of gravity with the threshold value “Th_cPos2” when the total “SEEdge” of the edge amounts is smaller than the threshold value “Th_Edge2” (No at Step S709) ( Step S711). When the evaluation value of the center of gravity is larger than the threshold value (Yes at Step S711), the evaluation score calculation unit 41f sets the evaluation score “0” (Step S712). If the evaluation value of the center of gravity is smaller than the threshold value (No at Step S711), the evaluation score calculation unit 41f ends the process as an evaluation score “+1” (Step S713).

[エラー判定処理]
次に、図17を用いて、実施例1に係るエラー判定処理を説明する。図17は、実施例1に係るエラー判定処理を説明するためのフローチャートである。
[Error judgment processing]
Next, an error determination process according to the first embodiment will be described with reference to FIG. FIG. 17 is a flowchart for explaining error determination processing according to the first embodiment.

図17に示すように、脈波検出装置10は、所定「N1」フレーム以上画像処理された場合に(ステップS801肯定)、過去「N2」フレーム分の評価点の累積値「SErrP」を算出する(ステップS802)。   As shown in FIG. 17, the pulse wave detection device 10 calculates an accumulated value “SErrP” of evaluation points for the past “N2” frames when image processing is performed for a predetermined “N1” frame or more (Yes in step S801). (Step S802).

なお、脈波検出装置10は、画像処理されたフレーム数が所定「N1」フレーム未満である場合に(ステップS801否定)、「YMean」と所定値「Th_yD2」とを比較する(ステップS809)。そして、脈波検出装置10は、「YMean」が所定値「Th_yD2」よりも小さい場合に(ステップS809肯定)、暗すぎると判定して異常を通知する。また、脈波検出装置10は、「YMean」が所定値「Th_yD2」よりも大きい場合に(ステップS809否定)、正常終了する。   The pulse wave detection device 10 compares “YMean” with a predetermined value “Th_yD2” when the number of frames subjected to image processing is less than the predetermined “N1” frame (No at Step S801) (Step S809). Then, when “YMean” is smaller than the predetermined value “Th_yD2” (Yes at Step S809), the pulse wave detection device 10 determines that the image is too dark and notifies the abnormality. The pulse wave detection device 10 ends normally when “YMean” is larger than the predetermined value “Th_yD2” (No at Step S809).

そして、脈波検出装置10は、算出された「SErrP」が規定値「Th_e1」よりも小さい場合に(ステップS803肯定)、指が置かれていないと判定して異常を通知する。続いて、「SErrP」が規定値「Th_e1」よりも大きい場合に(ステップS803否定)、当該「SErrP」と規定値「Th_e2」とを比較する(ステップS804)。その後、脈波検出装置10は、「SErrP」が規定値「Th_e2」よりも小さい場合に(ステップS804肯定)、指の置き方が悪いと判定して異常を通知する。   When the calculated “SErrP” is smaller than the specified value “Th_e1” (Yes in step S803), the pulse wave detection device 10 determines that the finger is not placed and notifies the abnormality. Subsequently, when “SErrP” is larger than the prescribed value “Th_e1” (No at Step S803), the “SErrP” is compared with the prescribed value “Th_e2” (Step S804). After that, when “SErrP” is smaller than the prescribed value “Th_e2” (Yes in step S804), the pulse wave detection device 10 determines that the finger is not placed and notifies the abnormality.

そして、脈波検出装置10は、「SErrP」が規定値「Th_e2」よりも大きい場合に(ステップS804否定)、「YMean」と規定値「Th_yB2」とを比較する(ステップS805)。続いて、脈波検出装置10は、「YMean」が規定値「Th_yB2」よりも大きい場合に(ステップS805肯定)、明るすぎると判定して異常を通知する。   Then, when “SErrP” is larger than the specified value “Th_e2” (No at Step S804), the pulse wave detection device 10 compares “YMean” with the specified value “Th_yB2” (Step S805). Subsequently, when “YMean” is larger than the specified value “Th_yB2” (Yes at Step S805), the pulse wave detection device 10 determines that the brightness is too bright and notifies the abnormality.

その後、脈波検出装置10は、「YMean」が規定値「Th_yB2」よりも小さい場合に(ステップS805否定)、「YMean」と規定値「Th_yD2」とを比較する(ステップS806)。そして、脈波検出装置10は、「YMean」が規定値「Th_yD2」よりも小さい場合に(ステップS806肯定)、暗すぎると判定して異常を通知する。   Thereafter, when “YMean” is smaller than the specified value “Th_yB2” (No at Step S805), the pulse wave detection device 10 compares “YMean” with the specified value “Th_yD2” (Step S806). Then, when “YMean” is smaller than the specified value “Th_yD2” (Yes at Step S806), the pulse wave detection device 10 determines that the image is too dark and notifies the abnormality.

続いて、脈波検出装置10は、「YMean」が規定値「Th_yD2」よりも大きい場合に(ステップS806否定)、「YMean」と規定値「Th_yB3」とを比較する(ステップS807)。その後、脈波検出装置10は、「YMean」が規定値「Th_yB3」よりも大きい場合に(ステップS807肯定)、明るいと判定して警告を通知する。   Subsequently, when “YMean” is larger than the specified value “Th_yD2” (No at Step S806), the pulse wave detection device 10 compares “YMean” with the specified value “Th_yB3” (Step S807). Thereafter, when “YMean” is larger than the specified value “Th_yB3” (Yes at Step S807), the pulse wave detection device 10 determines that the light is bright and notifies a warning.

そして、脈波検出装置10は、「YMean」が規定値「Th_yB3」よりも小さい場合に(ステップS807否定)、「YMean」と規定値「Th_yD3」とを比較する(ステップS808)。続いて、脈波検出装置10は、「YMean」が規定値「Th_yD3」よりも小さい場合に(ステップS808肯定)、暗いと判定して警告を通知する。なお、脈波検出装置10は、「YMean」が規定値「Th_yD3」よりも大きい場合に(ステップS808否定)、正常に処理を終了する。   Then, when “YMean” is smaller than the specified value “Th_yB3” (No at Step S807), the pulse wave detection device 10 compares “YMean” with the specified value “Th_yD3” (Step S808). Subsequently, when “YMean” is smaller than the specified value “Th_yD3” (Yes at Step S808), the pulse wave detection device 10 determines that the pulse is dark and notifies a warning. The pulse wave detection device 10 normally ends the process when “YMean” is larger than the specified value “Th_yD3” (No at Step S808).

[実施例1による効果]
上述したように、実施例1に係る脈波検出装置10は、カメラが搭載された携帯端末などによって撮影された画像の各特性に基づいて、当該カメラで撮影する指の置き方を適切に判定するので、高精度に脈波を計測することが可能である。
[Effects of Example 1]
As described above, the pulse wave detection device 10 according to the first embodiment appropriately determines how to place a finger photographed by the camera based on each characteristic of an image photographed by a portable terminal equipped with the camera. Therefore, it is possible to measure the pulse wave with high accuracy.

例えば、脈波検出装置10は、カメラのレンズに指を置いて撮影された入力画像を受け付ける。そして、脈波検出装置10は、入力画像の輝度総和から輝度平均を算出し、当該入力画像の横方向または縦方向のエッジ量を算出する。続いて、脈波検出装置10は、入力画像の輝度平均から輝度分布の評価値を算出する。その後、脈波検出装置10は、入力画像の縦方向の輝度値総和と横方向の輝度値総和とから、横方向および縦方向それぞれの重心位置を算出し、算出された重心に基づいて重心の評価値を算出する。そして、脈波検出装置10は、算出された輝度平均、エッジ量、輝度分布および重心について、それぞれを所定の閾値と比較して評価点を算出する。続いて、脈波検出装置10は、算出されたそれぞれの評価点に基づいて、指の置き方が良い状態であるか否か、さらに、輝度平均に基づいて、周辺光が適切な状態であるかを判定する。その後、脈波検出装置10は、指の置き方が悪い状態、若しくは、周辺光が適切でない状態である場合にはエラーの旨を出力し、指の置き方が良い状態である場合には入力画像から得られる信号に基づいて脈拍を算出して出力する。この結果、脈波検出装置10は、高精度に脈波を計測することが可能である。   For example, the pulse wave detection device 10 accepts an input image shot with a finger placed on the camera lens. Then, the pulse wave detection device 10 calculates a luminance average from the luminance sum of the input image, and calculates an edge amount in the horizontal direction or the vertical direction of the input image. Subsequently, the pulse wave detection device 10 calculates an evaluation value of the luminance distribution from the average luminance of the input image. Thereafter, the pulse wave detection device 10 calculates the position of the center of gravity in the horizontal direction and the vertical direction from the total luminance value in the vertical direction and the total luminance value in the horizontal direction of the input image, and based on the calculated center of gravity, An evaluation value is calculated. Then, the pulse wave detection device 10 calculates an evaluation score by comparing each of the calculated luminance average, edge amount, luminance distribution, and center of gravity with a predetermined threshold value. Subsequently, the pulse wave detection device 10 determines whether or not the finger is placed in a good state based on the calculated evaluation points, and the ambient light is in an appropriate state based on the luminance average. Determine whether. After that, the pulse wave detection device 10 outputs an error message when the finger is placed in a bad state or when the ambient light is not appropriate, and input when the finger is placed in a good state. Based on the signal obtained from the image, the pulse is calculated and output. As a result, the pulse wave detection device 10 can measure the pulse wave with high accuracy.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも
種々の異なる形態にて実施されてよいものである。そこで、(1)脈波検出装置の構成、(2)評価点算出処理の順序、(3)エラー判定に利用する値、(4)プログラム、において異なる実施例を説明する。
Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Accordingly, different embodiments will be described in (1) the configuration of the pulse wave detection device, (2) the order of evaluation score calculation processing, (3) values used for error determination, and (4) programs.

(1)脈波検出装置の構成
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメタを含む情報(例えば、図1に示した「エラー情報記憶部32」などに記憶される情報)については、特記する場合を除いて任意に変更することができる。
(1) Configuration of Pulse Wave Detection Device Information including the processing procedure, control procedure, specific name, various data and parameters shown in the above document and drawings (for example, the “error information storage unit 32 shown in FIG. 1) The information stored in “, etc.” can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、例えば、エラー判定部42aを有する波形処理部42として記載したが、当該エラー判定部42aを画像処理部41に組み込んだり、当該エラー判定部42aを「エラー処理部」として独立させたりするなど、その全部または一部を、各種の負担や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to the illustrated one. For example, the waveform processing unit 42 having the error determination unit 42a is described, but the error determination unit 42a may be incorporated in the image processing unit 41. In addition, the error determination unit 42a is made independent as an “error processing unit”, and all or a part thereof is functionally or physically distributed / integrated in arbitrary units according to various burdens or usage conditions. can do. Furthermore, all or a part of each processing function performed in each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.

(2)評価点算出処理の順序
また、上記実施例1では、エッジ量、輝度平均(暗い)、輝度平均(明るい)、輝度分布、重心の評価値の順序で評価点を決定することとして説明したが、本発明はこれに限定されるものではなく、決定される評価点の点数(ポイント)が同様であれば順序を変更することもできる。例えば、脈波検出装置10は、輝度平均(明るい)、エッジ量、輝度平均(暗い)、重心の評価値、輝度分布の順序で評価点を決定する。
(2) Order of Evaluation Point Calculation Processing In the first embodiment, the evaluation points are determined in the order of edge value, luminance average (dark), luminance average (bright), luminance distribution, and centroid evaluation value. However, the present invention is not limited to this, and the order can be changed as long as the score of the evaluation points to be determined is the same. For example, the pulse wave detection device 10 determines evaluation points in the order of luminance average (bright), edge amount, luminance average (dark), evaluation value of the center of gravity, and luminance distribution.

(3)エラー判定に利用する値
また、上記実施例1では、エッジ量、輝度平均、輝度分布、重心の評価値から決定された評価点を利用して、エラー判定処理を実施することとして説明したが、本発明はこれに限定されるものではなく、上記各特性のうち少なくとも一つ(または複数)を利用してエラー判定処理を実施することもできる。例えば、脈波検出装置10は、エッジ量と重心の評価値の組み合わせや輝度分布とエッジ量との組み合わせを利用してエラー判定処理を実施する。
(3) Values used for error determination In the first embodiment, the error determination processing is described as being performed using evaluation points determined from the evaluation values of edge amount, luminance average, luminance distribution, and centroid. However, the present invention is not limited to this, and the error determination process can be performed using at least one (or a plurality) of the above characteristics. For example, the pulse wave detection device 10 performs the error determination process using a combination of the edge amount and the evaluation value of the center of gravity or a combination of the luminance distribution and the edge amount.

(4)プログラム
ところで、上記の実施例では、ハードウェアロジックによって各種の処理を実現する場合を説明したが、本発明はこれに限定されるものではなく、あらかじめ用意されたプログラムをコンピュータで実行することによって実現するようにしてもよい。そこで、以下では、図18を用いて、上記実施例に示した脈波検出装置10と同様の機能を有する脈波検出プログラムを実行するコンピュータの一例を説明する。図18は、脈波検出プログラムを実行するコンピュータを示す図である。
(4) Program In the above embodiment, the case where various processes are realized by hardware logic has been described. However, the present invention is not limited to this, and a program prepared in advance is executed by a computer. It may be realized by this. Therefore, in the following, an example of a computer that executes a pulse wave detection program having the same function as the pulse wave detection device 10 shown in the above embodiment will be described with reference to FIG. FIG. 18 is a diagram illustrating a computer that executes a pulse wave detection program.

図18に示すように、脈波検出装置としてのコンピュータ110は、HDD130、CPU140、ROM150およびRAM160をバス180などで接続される。   As shown in FIG. 18, a computer 110 serving as a pulse wave detection device is connected to an HDD 130, a CPU 140, a ROM 150, and a RAM 160 through a bus 180 or the like.

ROM150には、上記実施例1に示した脈波検出装置10と同様の機能を発揮する脈波検出プログラム、つまり、図18に示すように判定プログラム150aと、出力プログラム150bとが、あらかじめ記憶されている。なお、これらのプログラム150a〜プログラム150bについては、図1に示した脈波検出装置10の各構成要素と同様、適宜統合または、分散してもよい。   The ROM 150 stores in advance a pulse wave detection program that exhibits the same function as the pulse wave detection device 10 described in the first embodiment, that is, a determination program 150a and an output program 150b as shown in FIG. ing. Note that these programs 150a to 150b may be appropriately integrated or distributed in the same manner as each component of the pulse wave detection device 10 shown in FIG.

そして、CPU140がこれらのプログラム150a〜プログラム150bをROM150から読み出して実行することで、図18に示すように、プログラム150a〜プログラム150bは、判定プロセス140aと、出力プロセス140bとして機能するようになる。なお、プロセス140a〜プロセス140bは、図1に示した、エラー判定部42aと、エラー表示部21とに対応する。   Then, the CPU 140 reads these programs 150a to 150b from the ROM 150 and executes them, so that the programs 150a to 150b function as a determination process 140a and an output process 140b as shown in FIG. The processes 140a to 140b correspond to the error determination unit 42a and the error display unit 21 shown in FIG.

そして、CPU140はRAM160に記録されたデータに基づいて脈波検出プログラムを実行する。   Then, CPU 140 executes a pulse wave detection program based on the data recorded in RAM 160.

なお、上記各プログラム150a〜プログラム150bについては、必ずしも最初からROM150に記憶させておく必要はなく、例えば、コンピュータ110に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、またはコンピュータ110の内外に備えられるHDDなどの「固定用の物理媒体」、さらには公衆回線、インターネット、LAN、WANなどを介してコンピュータ110に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ110がこれから各プログラムを読み出して実行するようにしてもよい。   Note that the programs 150a to 150b are not necessarily stored in the ROM 150 from the beginning. For example, a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk inserted into the computer 110, It is connected to the computer 110 via a “portable physical medium” such as an IC card, or a “fixed physical medium” such as an HDD provided inside or outside the computer 110, and further via a public line, the Internet, a LAN, a WAN, etc. Each program may be stored in “another computer (or server)” or the like, and the computer 110 may read and execute each program from now on.

実施例1に係る脈波検出装置の構成例を示す図である。1 is a diagram illustrating a configuration example of a pulse wave detection device according to Embodiment 1. FIG. 指の置き方と画像の特徴とを説明するための図である。It is a figure for demonstrating how to put a finger | toe and the characteristic of an image. 指の置き方の状態を判定するポイントを説明するための図である。It is a figure for demonstrating the point which determines the state of how to put a finger. カメラのレンズに置く指の置き方が悪い場合の画像と波形との例を示す図である。It is a figure which shows the example of the image and waveform when how to put the finger put on the lens of a camera is bad. カメラ周辺の照度例を示す図である。It is a figure which shows the example of illumination intensity around a camera. カメラ周辺の照度に対応する画像の輝度平均例を示す図である。It is a figure which shows the brightness | luminance average example of the image corresponding to the illumination intensity around a camera. 画像が明るい場合の波形例を示す図である。It is a figure which shows the example of a waveform when an image is bright. 画像が暗い場合の波形例を示す図である。It is a figure which shows the example of a waveform when an image is dark. 画像が暗めである場合の波形例を示す図である。It is a figure which shows the example of a waveform in case an image is dark. 画像の重心の求め方を説明するための図である。It is a figure for demonstrating how to obtain | require the gravity center of an image. 実施例1に係る輝度平均算出処理を説明するためのフローチャートである。7 is a flowchart for explaining a luminance average calculation process according to the first embodiment. 実施例1に係るエッジ量算出処理を説明するためのフローチャートである。6 is a flowchart for explaining edge amount calculation processing according to the first embodiment; 実施例1に係る輝度分布算出処理を説明するためのフローチャートである。6 is a flowchart for explaining luminance distribution calculation processing according to the first embodiment. 実施例1に係る重心評価値算出処理を説明するためのフローチャートである。6 is a flowchart for explaining a center-of-gravity evaluation value calculation process according to the first embodiment. 輝度分布を持った画像の例を示す図である。It is a figure which shows the example of the image with luminance distribution. 実施例1に係る評価点算出処理を説明するためのフローチャートである。6 is a flowchart for explaining an evaluation score calculation process according to the first embodiment. 指の置き方による評価点決定の例を示す図である。It is a figure which shows the example of the evaluation point determination by how to put a finger. 評価点計算部における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in an evaluation score calculation part. 指の置き方による評価点の例を示す図である。It is a figure which shows the example of the evaluation score by how to put a finger. 評価点計算部における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in an evaluation score calculation part. 実施例1に係るエラー判定処理を説明するためのフローチャートである。6 is a flowchart for explaining error determination processing according to the first embodiment; 脈波検出プログラムを実行するコンピュータを示す図である。It is a figure which shows the computer which executes a pulse wave detection program.

符号の説明Explanation of symbols

10 脈波検出装置
20 出力部
21 エラー表示部
22 脈拍数表示部
23 ファイル
24 脈動表示部
30 記憶部
31 輝度情報記憶部
32 エラー情報記憶部
33 ピーク情報記憶部
40 制御部
41 画像処理部
41a 前処理部
41b 輝度平均計算部
41c エッジ量計算部
41d 輝度分布計算部
41e 重心計算部
41f 評価点計算部
42 波形処理部
42a エラー判定部
42b ピーク検出部
42c 脈拍数計算部
DESCRIPTION OF SYMBOLS 10 Pulse wave detection apparatus 20 Output part 21 Error display part 22 Pulse rate display part 23 File 24 Pulsation display part 30 Storage part 31 Luminance information storage part 32 Error information storage part 33 Peak information storage part 40 Control part 41 Image processing part 41a Previous Processing unit 41b Luminance average calculation unit 41c Edge amount calculation unit 41d Luminance distribution calculation unit 41e Center of gravity calculation unit 41f Evaluation point calculation unit 42 Waveform processing unit 42a Error determination unit 42b Peak detection unit 42c Pulse rate calculation unit

Claims (3)

撮像手段によって撮像された画像に基づいて脈波を計測する脈波検出装置であって、
前記画像を脈拍取得に用いるモードである場合に、前記画像の状態を輝度、エッジ量および画像フレームの縦方向と横方向との輝度値総和の重心のいずれか、または、複数が所定の状態であるかを判定する判定部と、
前記判定部の判定結果が、所定の状態でない場合にエラーの旨を出力し、所定の状態である場合に前記画像から得られる信号に基づいて脈拍を算出し、算出結果を出力する出力部と、
を有することを特徴とする脈波検出装置。
A pulse wave detection device that measures a pulse wave based on an image captured by an imaging means,
When the image is in a mode used for pulse acquisition, the state of the image is any one of luminance, an edge amount, and the center of gravity of the sum of luminance values in the vertical direction and horizontal direction of the image frame, or a plurality of them in a predetermined state. A determination unit for determining whether there is,
An output unit that outputs an error message when the determination result of the determination unit is not in a predetermined state, calculates a pulse based on a signal obtained from the image when the determination result is in a predetermined state, and outputs the calculation result; ,
A pulse wave detection device comprising:
撮像手段によって撮像された画像に基づいて脈波を計測することをコンピュータに実行させる脈波検出プログラムであって、
前記画像を脈拍取得に用いるモードである場合に、前記画像の状態を輝度、エッジ量および画像フレームの縦方向と横方向との輝度値総和の重心のいずれか、または、複数が所定の状態であるかを判定する判定手順と、
前記判定手順の判定結果が、所定の状態でない場合にエラーの旨を出力し、所定の状態である場合に前記画像から得られる信号に基づいて脈拍を算出し、算出結果を出力する出力手順と、
をコンピュータに実行させることを特徴とする脈波検出プログラム。
A pulse wave detection program for causing a computer to measure a pulse wave based on an image captured by an imaging means,
When the image is in a mode used for pulse acquisition, the state of the image is any one of luminance, an edge amount, and the center of gravity of the sum of luminance values in the vertical direction and horizontal direction of the image frame, or a plurality of them in a predetermined state. A determination procedure for determining whether there is,
An output procedure for outputting an error message when the determination result of the determination procedure is not in a predetermined state, calculating a pulse based on a signal obtained from the image when the determination result is in a predetermined state, and outputting the calculation result; ,
A pulse wave detection program for causing a computer to execute the above.
撮像手段によって撮像された画像に基づいて脈波を計測する脈波検出装置に適した脈波検出方法であって、
前記画像を脈拍取得に用いるモードである場合に、前記画像の状態を輝度、エッジ量および画像フレームの縦方向と横方向との輝度値総和の重心のいずれか、または、複数が所定の状態であるかを判定する判定工程と、
前記判定工程の判定結果が、所定の状態でない場合にエラーの旨を出力し、所定の状態である場合に前記画像から得られる信号に基づいて脈拍を算出し、算出結果を出力する出力工程と、
を含んだことを特徴とする脈波検出方法。
A pulse wave detection method suitable for a pulse wave detection device that measures a pulse wave based on an image captured by an imaging means,
When the image is in a mode used for pulse acquisition, the state of the image is any one of luminance, an edge amount, and the center of gravity of the sum of luminance values in the vertical direction and horizontal direction of the image frame, or a plurality of them in a predetermined state. A determination step of determining whether there is,
An output step of outputting an error message when the determination result of the determination step is not in a predetermined state, calculating a pulse based on a signal obtained from the image when in a predetermined state, and outputting the calculation result; ,
A method for detecting a pulse wave, comprising:
JP2008154452A 2008-06-12 2008-06-12 Pulse wave detection device, pulse wave detection program, and pulse wave detection method Active JP5266895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008154452A JP5266895B2 (en) 2008-06-12 2008-06-12 Pulse wave detection device, pulse wave detection program, and pulse wave detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008154452A JP5266895B2 (en) 2008-06-12 2008-06-12 Pulse wave detection device, pulse wave detection program, and pulse wave detection method

Publications (2)

Publication Number Publication Date
JP2009297233A true JP2009297233A (en) 2009-12-24
JP5266895B2 JP5266895B2 (en) 2013-08-21

Family

ID=41544763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154452A Active JP5266895B2 (en) 2008-06-12 2008-06-12 Pulse wave detection device, pulse wave detection program, and pulse wave detection method

Country Status (1)

Country Link
JP (1) JP5266895B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014115652A1 (en) 2013-01-23 2014-07-31 京セラ株式会社 Portable electronic device, diagnosis method, and diagnosis program
WO2017072998A1 (en) * 2015-10-29 2017-05-04 パナソニックIpマネジメント株式会社 Image processing apparatus and pulse estimation system provided therewith, and image processing method
JP2020054014A (en) * 2015-10-29 2020-04-02 パナソニックIpマネジメント株式会社 Image processing device, pulse estimation system having the same, and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062826A (en) * 2002-07-31 2004-02-26 Fujitsu Ltd Processor with personal recognition function and operation equipment
JP2006051279A (en) * 2004-08-16 2006-02-23 Sony Corp Portable information terminal unit and information providing system
JP2007319246A (en) * 2006-05-30 2007-12-13 Sharp Corp Electronic appliance and pulse wave detection method using this electronic appliance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062826A (en) * 2002-07-31 2004-02-26 Fujitsu Ltd Processor with personal recognition function and operation equipment
JP2006051279A (en) * 2004-08-16 2006-02-23 Sony Corp Portable information terminal unit and information providing system
JP2007319246A (en) * 2006-05-30 2007-12-13 Sharp Corp Electronic appliance and pulse wave detection method using this electronic appliance

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014115652A1 (en) 2013-01-23 2014-07-31 京セラ株式会社 Portable electronic device, diagnosis method, and diagnosis program
US9913609B2 (en) 2013-01-23 2018-03-13 Kyocera Corporation Mobile electronic device, non-transitory storage medium storing diagnosis program, and diagnosis system
WO2017072998A1 (en) * 2015-10-29 2017-05-04 パナソニックIpマネジメント株式会社 Image processing apparatus and pulse estimation system provided therewith, and image processing method
JP2017085422A (en) * 2015-10-29 2017-05-18 パナソニックIpマネジメント株式会社 Image processing device, pulse estimation system having the same, and image processing method
JP2020054014A (en) * 2015-10-29 2020-04-02 パナソニックIpマネジメント株式会社 Image processing device, pulse estimation system having the same, and image processing method

Also Published As

Publication number Publication date
JP5266895B2 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
JP6125648B2 (en) Biological information acquisition apparatus and biological information acquisition method
EP3228238B1 (en) Information processing device, information processing method, and program
WO2016006027A1 (en) Pulse wave detection method, pulse wave detection program, and pulse wave detection device
JP2010051592A (en) Pulsimeter, pulse-measuring method and pulse-measuring program
US20160338603A1 (en) Signal processing device, signal processing method, and computer-readable recording medium
WO2014155750A1 (en) Blood flow index calculation method, blood flow index calculation program and blood flow index calculation device
CN103905727B (en) Object area tracking apparatus, control method, and program of the same
US20160089041A1 (en) Remote heart rate monitoring based on imaging for moving subjects
CN105188522A (en) Pulse wave velocity measurement method and system, and imaging device
KR20110093659A (en) Image recognition apparatus and method
KR101301821B1 (en) Apparatus and method for detecting complexion, apparatus and method for determinig health using complexion, apparatus and method for generating health sort function
JP6115263B2 (en) Pulse wave detection device, pulse wave detection method, and pulse wave detection program
CN105072975A (en) Image processing device, image processing method and image processing program
JP6927322B2 (en) Pulse wave detector, pulse wave detection method, and program
JP2019080811A (en) Biological information detector and biological information detection method
JP5266895B2 (en) Pulse wave detection device, pulse wave detection program, and pulse wave detection method
CN110457981B (en) Living body detection method and device and electronic device
CN105957020A (en) Image generator and image generation method
US11779260B2 (en) Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded
JP5320837B2 (en) Pulse measuring device, pulse measuring program, and pulse measuring method
KR102468648B1 (en) Method for calculating heart rate using rPPG signal of serial image and system thereof
EP2435953B1 (en) Method and device for detecting the open or closed state of an eye of a face
CN108764131A (en) It is a kind of based on video processing adaptive threshold multiple target fall down detection method
JP6351550B2 (en) Harness feeling evaluation apparatus, firmness evaluation method, and firmness evaluation program
JP6417697B2 (en) Information processing apparatus, pulse wave measurement program, and pulse wave measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5266895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150