JP2021096537A - Biological information acquisition device, terminal device, biological information acquisition method, biological information acquisition program, and computer readable recording medium - Google Patents

Biological information acquisition device, terminal device, biological information acquisition method, biological information acquisition program, and computer readable recording medium Download PDF

Info

Publication number
JP2021096537A
JP2021096537A JP2019225919A JP2019225919A JP2021096537A JP 2021096537 A JP2021096537 A JP 2021096537A JP 2019225919 A JP2019225919 A JP 2019225919A JP 2019225919 A JP2019225919 A JP 2019225919A JP 2021096537 A JP2021096537 A JP 2021096537A
Authority
JP
Japan
Prior art keywords
face
unit
image
information acquisition
biological information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019225919A
Other languages
Japanese (ja)
Other versions
JP7443044B2 (en
Inventor
亮太 富澤
Ryota Tomizawa
亮太 富澤
奥村 哲也
Tetsuya Okumura
哲也 奥村
足立 佳久
Yoshihisa Adachi
佳久 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019225919A priority Critical patent/JP7443044B2/en
Priority to CN202011455886.0A priority patent/CN112971712A/en
Publication of JP2021096537A publication Critical patent/JP2021096537A/en
Application granted granted Critical
Publication of JP7443044B2 publication Critical patent/JP7443044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Analysis (AREA)

Abstract

To provide a biological information acquisition device capable of acquiring biological information with high accuracy.SOLUTION: A biological information acquisition device (10) comprises a face detection unit (11) which detects a face of a first person, which is largest in a captured image, a face direction determination unit (12) which determines whether the face of the first person faces a first direction or not, and a pulse wave calculation unit (13) which calculates biological information on the first person when the face direction determination unit (12) determines that the face of the first person faces the first direction.SELECTED DRAWING: Figure 1

Description

本開示は、生体情報を取得することが可能な、生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体に関する。 The present disclosure relates to a biometric information acquisition device, a terminal device, a biometric information acquisition method, a biometric information acquisition program, and a computer-readable recording medium capable of acquiring biometric information.

端末装置が撮像した画像の中に複数の顔が検出された場合に、その複数の顔から1人を選択する技術が知られている。特許文献1は、複数の顔それぞれの画像の大きさを比較し、その大きさが最も大きい顔に基づいて被写体を決定する技術を開示する。特許文献2、3も、画像の中の複数の顔から1つの顔を選択する技術を開示する。 A technique is known in which when a plurality of faces are detected in an image captured by a terminal device, one person is selected from the plurality of faces. Patent Document 1 discloses a technique of comparing the sizes of images of a plurality of faces and determining a subject based on the face having the largest size. Patent Documents 2 and 3 also disclose a technique for selecting one face from a plurality of faces in an image.

特開平2005−049854号公報(2005年2月24日公開)Japanese Unexamined Patent Publication No. 2005-049854 (published on February 24, 2005) 特開平2007−6033号公報(2007年1月11日公開)Japanese Unexamined Patent Publication No. 2007-6033 (published on January 11, 2007) 特開平2009−77266号公報(2009年4月9日公開)Japanese Unexamined Patent Publication No. 2009-77266 (published on April 9, 2009)

しかしながら、上述のような従来技術は次のような課題を有する。 However, the above-mentioned prior art has the following problems.

近年、カメラで撮像した人物の顔の動画像を解析することでその人物の脈波を算出する技術が開発されている。そのような技術を利用したアプリケーションが、カメラ付き携帯端末(スマートフォンなど)において広く使われている。複数の人物の顔が動画像に写っている場合、原理的には、当該複数の人物の脈波を測定することは可能である。 In recent years, a technique for calculating a pulse wave of a person by analyzing a moving image of the face of the person captured by a camera has been developed. Applications using such technology are widely used in camera-equipped mobile terminals (smartphones, etc.). When the faces of a plurality of persons are shown in a moving image, in principle, it is possible to measure the pulse waves of the plurality of persons.

しかしながら、複数の人物の脈波を同時に算出しようとすると、携帯端末の画像処理能力(計算能力)に大きな負荷をかける。そこで、リアルタイムで精度よく脈波を取得するために、複数の人物のうち1人を選択して、その選択された1人の脈波を取得する方法が考えられる。特許文献1〜3は、画像中の複数の顔から1つの顔を選択する技術を開示する。一方で、特許文献1〜3は、画像中の顔から脈波を算出する技術を開示していない。 However, trying to calculate the pulse waves of a plurality of people at the same time puts a heavy load on the image processing ability (calculation ability) of the mobile terminal. Therefore, in order to acquire the pulse wave with high accuracy in real time, a method of selecting one of a plurality of persons and acquiring the pulse wave of the selected one person can be considered. Patent Documents 1 to 3 disclose a technique for selecting one face from a plurality of faces in an image. On the other hand, Patent Documents 1 to 3 do not disclose a technique for calculating a pulse wave from a face in an image.

さらに、一般には、人物の顔が大きく撮像されている場合には脈波の算出に使用できる画素の個数が増え、その結果、シグナルノイズ比の高い脈波を取得しやすくなる。 Further, in general, when the face of a person is photographed in a large size, the number of pixels that can be used for calculating the pulse wave increases, and as a result, it becomes easy to acquire a pulse wave having a high signal-to-noise ratio.

しかしながら、撮像された人物の顔が大きいからといって、必ずしも精度の高い脈波を取得できるわけではない。この点を課題として指摘する先行技術文献は見当たらない。 However, just because the captured person's face is large does not necessarily mean that a highly accurate pulse wave can be obtained. There is no prior art document that points out this point as an issue.

本開示の一態様は、測定対象の生体の像を含む画像から当該測定対象の生体情報を、従来よりも高い精度で取得することが可能な、生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体を実現することを目的とする。 One aspect of the present disclosure is a biological information acquisition device, a terminal device, and a biological information acquisition method capable of acquiring biological information of the measurement target from an image including an image of the biological body to be measured with higher accuracy than before. , A biometric information acquisition program, and a computer-readable recording medium.

上記の課題を解決するために、本開示の一態様に係る生体情報取得装置は、生体情報を取得する生体情報取得装置であって、撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、上記顔検出部により検出された上記第1の被写体の顔が上記生体情報を取得するのに適した方向である第1の方向を向いているかを判定する顔方向判定部と、上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備える。 In order to solve the above problems, the biometric information acquisition device according to one aspect of the present disclosure is a biometric information acquisition device that acquires biometric information, and is one or more included in the first image captured by the imaging unit. Of the faces of the subject, the face detection unit that detects the face of the first subject and the face of the first subject detected by the face detection unit obtain the biometric information. When the face direction determination unit determines whether the face is facing the first direction, which is a suitable direction, and the face direction determination unit determines that the face of the first subject is facing the first direction. A calculation unit that calculates biological information of the first subject from a second image different from the first image captured by the imaging unit is provided.

上記の課題を解決するために、本開示の一態様に係る端末装置は、生体情報を取得する端末装置であって、第1の画像及び第2の画像を撮像する撮像部と、上記第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、上記顔検出部により検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する顔方向判定部と、上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備える。 In order to solve the above problems, the terminal device according to one aspect of the present disclosure is a terminal device that acquires biometric information, and includes an imaging unit that captures a first image and a second image, and the first image. Of the faces of one or more subjects included in the image, the face detection unit that detects the face of the first subject and the face of the first subject detected by the face detection unit are the above. The face direction determination unit determines whether the face is facing the first direction suitable for acquiring biological information, and the face direction determination unit determines that the face of the first subject is facing the first direction. In this case, a calculation unit for calculating the biological information of the first subject from the second image is provided.

上記の課題を解決するために、本開示の一態様に係る生体情報取得方法は、生体情報を取得する生体情報取得方法であって、撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する検出ステップと、上記検出ステップにて検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する判定ステップと、上記第1の被写体の顔は上記第1の方向を向いていると上記判定ステップにて判定された場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出ステップと、を含む。 In order to solve the above problems, the biometric information acquisition method according to one aspect of the present disclosure is a biometric information acquisition method for acquiring biometric information, and is one or more included in the first image captured by the imaging unit. Of the faces of the subject, the detection step of detecting the face of the first subject, which is the largest image, and the face of the first subject detected in the detection step are suitable for acquiring the biological information. When it was determined in the determination step that the face of the first subject was oriented in the first direction and the determination step that the face of the first subject was oriented in the first direction, the image was taken by the imaging unit. The calculation step of calculating the biological information of the first subject from the second image different from the first image is included.

本開示の一態様によれば、測定対象の生体の像を含む画像から当該測定対象の生体情報を、従来よりも高い精度で算出することができる。 According to one aspect of the present disclosure, the biological information of the measurement target can be calculated with higher accuracy than before from the image including the image of the living body of the measurement target.

本開示に係る生体情報取得部を備えた端末装置の要部構成図である。It is a main part block diagram of the terminal apparatus provided with the biological information acquisition part which concerns on this disclosure. 脈波を取得される人が第2の方向を向いた場合に、その人物の脈波が取得され続ける様子を示す。It shows how a person who acquires a pulse wave continues to acquire the pulse wave when the person turns to the second direction. 脈波を取得される人が第2の方向を向いた場合に、その人物の脈波の取得が中断される様子を示す。It shows how the acquisition of the pulse wave of the person is interrupted when the person who acquires the pulse wave turns to the second direction. 撮像部が撮像した画像の一例を示す。An example of the image captured by the imaging unit is shown. 顔検出部が顔検出した画像の一例を示す。An example of the image detected by the face detection unit is shown. 顔検出部が出力した検出結果の一例を示す。An example of the detection result output by the face detection unit is shown. 顔検出部が顔検出した画像の一例を示す。An example of the image detected by the face detection unit is shown. 顔方向判定部による判定結果の一例を示す。An example of the judgment result by the face direction judgment unit is shown. 本開示に係る端末装置により脈波を取得するフローである。This is a flow of acquiring a pulse wave by the terminal device according to the present disclosure. 他の実施形態に係る端末装置により脈波を取得するフローである。This is a flow of acquiring a pulse wave by a terminal device according to another embodiment. 他の実施形態に係る、端末装置を備えた端末装置の要部構成図である。It is a main part block diagram of the terminal apparatus provided with the terminal apparatus which concerns on other embodiments. 他の実施形態に係る端末装置の外観図の一例である。This is an example of an external view of a terminal device according to another embodiment.

以下、本開示の実施形態を図面に基づいて説明する。以下に説明する実施形態は、本開示の実現手段としての一例であり、本開示が適用される装置の構成又は各種条件によって適宜修正又は変更されるべきものであり、本開示は以下の実施形態に限定されるものではない。また、以下に説明する図面において、同一または機能的に同様の構成要素については同一符号を付し、その繰り返しの説明は省略する。さらに、各図面は、以下の説明と併せて参照したときに分かりやすいように示したものであり、必ずしも一定の比率の縮尺で描かれていない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The embodiments described below are an example as means for realizing the present disclosure, and should be appropriately modified or changed depending on the configuration of the device to which the present disclosure is applied or various conditions, and the present disclosure is the following embodiments. It is not limited to. Further, in the drawings described below, the same or functionally similar components are designated by the same reference numerals, and the repeated description thereof will be omitted. Further, each drawing is shown for easy understanding when referred to together with the following description, and is not necessarily drawn at a certain ratio of scale.

〔生体情報取得装置10の動作(概要)〕
最初に、本開示に係る生体情報取得装置10の動作を図2、図3により説明する。生体情報取得装置10は、撮像した人物の画像から、その人物の生体情報を取得するための装置である。生体情報は、脈波、脈拍数、又は血圧等を含む。また、生体情報は、心拍間隔(RRI:RRInterval)、呼吸性洞性不整脈成分(RSA:Respiratory Sinus Arrhythmia)、呼吸数、血圧性変動(MWSA:Mayer Wave related Sinus Arrhythmia)等も含んでよい。以下の説明では、生体情報は脈波であるものとする。
[Operation of biological information acquisition device 10 (overview)]
First, the operation of the biological information acquisition device 10 according to the present disclosure will be described with reference to FIGS. 2 and 3. The biological information acquisition device 10 is a device for acquiring biological information of the person from the captured image of the person. Biological information includes pulse wave, pulse rate, blood pressure and the like. The biological information may also include a heart rate interval (RRI: RRInterval), a respiratory sinus arrhythmia component (RSA: Respiratory Sinus Arrhythmia), a respiratory rate, a blood pressure fluctuation (MWSA: Mayer Wave related Sinus Arrhythmia), and the like. In the following description, it is assumed that the biological information is a pulse wave.

図2、図3では、画面内に複数の人が検出された場合に、複数の顔それぞれの画像の大きさが比較され、最も大きい顔の人物の脈拍が取得されるものとする。 In FIGS. 2 and 3, when a plurality of people are detected on the screen, the sizes of the images of the plurality of faces are compared, and the pulse of the person with the largest face is acquired.

図2は、脈波を取得される人が第2の方向を向いた場合に、その人物の脈波が取得され続ける様子を示す。図2は、生体情報取得装置10が使用されない場合に対応する。 FIG. 2 shows how a person who acquires a pulse wave continues to acquire the pulse wave when the person turns to the second direction. FIG. 2 corresponds to the case where the biological information acquisition device 10 is not used.

図2の110では、画面内に2人の人が検出されている。手前の人(以下、「第1の人物」(第1の被写体)と称する。)の脈拍が取得される。第1の人物は第1の方向を向いている。第1の方向は、脈波取得に適した方向である。 In 110 of FIG. 2, two people are detected in the screen. The pulse of the person in the foreground (hereinafter, referred to as "first person" (first subject)) is acquired. The first person is facing the first direction. The first direction is a direction suitable for pulse wave acquisition.

図2の120では、第1の人物は第2の方向を向いている。第2の方向は、第1の方向とは異なる方向である。図2の120は、第1の人物が第2の方向を向いた場合においても、第1の人物の脈波が取得され続ける様子を示す。第1の人物が第2の方向を向いているため、取得される第1の人物の脈波は精度が低くなりうる。 In 120 of FIG. 2, the first person is facing the second direction. The second direction is different from the first direction. 120 in FIG. 2 shows how the pulse wave of the first person continues to be acquired even when the first person faces the second direction. Since the first person is facing the second direction, the acquired pulse wave of the first person can be less accurate.

図3は、脈波を取得される人が第2の方向を向いた場合に、その人物の脈波の取得が中断される様子を示す。図3は、生体情報取得装置10が使用される場合に対応する。図3の130は図2の110と同様の状況を示すため、ここでの説明は省略する。 FIG. 3 shows how the acquisition of the pulse wave of the person is interrupted when the person who acquires the pulse wave turns to the second direction. FIG. 3 corresponds to the case where the biological information acquisition device 10 is used. Since 130 in FIG. 3 shows the same situation as 110 in FIG. 2, the description here will be omitted.

図3の140では、第1の人物は第2の方向を向いている。第2の方向は、脈波取得に適した方向ではない。そのため、生体情報取得装置10は、第1の人物の脈拍の取得を中断する。これにより、生体情報取得装置10は、第1の人物の脈拍をより高い精度で取得することができる。 In 140 of FIG. 3, the first person is facing the second direction. The second direction is not suitable for pulse wave acquisition. Therefore, the biological information acquisition device 10 interrupts the acquisition of the pulse of the first person. As a result, the biological information acquisition device 10 can acquire the pulse of the first person with higher accuracy.

以下、生体情報取得装置10、及び生体情報取得装置10を備えた端末装置1の詳細を図1等により説明する。 Hereinafter, the details of the biological information acquisition device 10 and the terminal device 1 provided with the biological information acquisition device 10 will be described with reference to FIG. 1 and the like.

〔端末装置1および生体情報取得装置10の構成〕
図1は、本開示に係る生体情報取得装置10を備えた端末装置1の要部構成図である。端末装置1は、撮像した人物の顔の画像(動画像)からその人物の生体情報を取得(算出)することが可能な端末装置である。端末装置1は、スマートフォン、タブレット、ノートPC、又は脈波測定用専用端末等であってよい。生体情報は、脈波、脈拍数、又は血圧等を含む。以下の説明では、生体情報は脈波とする。
[Configuration of terminal device 1 and biological information acquisition device 10]
FIG. 1 is a configuration diagram of a main part of a terminal device 1 provided with the biological information acquisition device 10 according to the present disclosure. The terminal device 1 is a terminal device capable of acquiring (calculating) biological information of a person from an image (moving image) of the captured person's face. The terminal device 1 may be a smartphone, a tablet, a notebook PC, a dedicated terminal for pulse wave measurement, or the like. Biological information includes pulse wave, pulse rate, blood pressure and the like. In the following description, biological information is a pulse wave.

端末装置1は、撮像部2と生体情報取得装置10とを備える。 The terminal device 1 includes an imaging unit 2 and a biological information acquisition device 10.

撮像部2は、画像を撮像し、その画像に係る画像データを顔検出部11に出力する。撮像部2は、動画像を撮像し、その動画像に係る動画像データを、顔検出部11および脈波算出部13(算出部)に出力する。撮像部2は、画像データ及び/又は動画像データを、顔検出部11、顔方向判定部12、及び脈波算出部13に出力してもよい。撮像部2は、動画像の撮像に代えて、複数の画像を連続的に撮像してもよい。 The imaging unit 2 captures an image and outputs image data related to the image to the face detection unit 11. The imaging unit 2 captures a moving image and outputs the moving image data related to the moving image to the face detection unit 11 and the pulse wave calculation unit 13 (calculation unit). The imaging unit 2 may output image data and / or moving image data to the face detection unit 11, the face direction determination unit 12, and the pulse wave calculation unit 13. The imaging unit 2 may continuously capture a plurality of images instead of capturing a moving image.

撮像部2は、RGBカメラ又は赤外線カメラ等の撮像装置で構成される。撮像部2は、撮像部2が出力した動画像データに基づいて脈波を算出されることが可能な任意の撮像装置であってよい。 The image pickup unit 2 is composed of an image pickup device such as an RGB camera or an infrared camera. The imaging unit 2 may be any imaging device capable of calculating a pulse wave based on the moving image data output by the imaging unit 2.

生体情報取得装置10は、撮像された人物の動画像から、その人物の生体情報(脈波等)を取得するための装置である。生体情報取得装置10は、顔検出部11、顔方向判定部12、及び脈波算出部13(算出部)を備える。 The biological information acquisition device 10 is a device for acquiring biological information (pulse waves, etc.) of the person from the captured moving image of the person. The biological information acquisition device 10 includes a face detection unit 11, a face direction determination unit 12, and a pulse wave calculation unit 13 (calculation unit).

顔検出部11は、撮像部2が撮像した画像および動画像に写る最も大きい顔の人物を検出し、検出結果を顔方向判定部12及び脈波算出部13に出力する。検出結果は、例えば、(1)顔検出部11が検出した顔の領域の画像、(2)その領域の位置、(3)その領域の大きさ、などに関する情報を含む。撮像部2が撮像した画像および動画像に1人しか人物が写っていない場合、顔検出部11は、その1人の顔に関する検出結果を顔方向判定部12及び脈波算出部13に出力する。 The face detection unit 11 detects the person with the largest face in the image captured by the imaging unit 2 and the moving image, and outputs the detection result to the face direction determination unit 12 and the pulse wave calculation unit 13. The detection result includes, for example, information regarding (1) an image of a face region detected by the face detection unit 11, (2) the position of the region, (3) the size of the region, and the like. When only one person is shown in the image and the moving image captured by the imaging unit 2, the face detection unit 11 outputs the detection result regarding the face of the one person to the face direction determination unit 12 and the pulse wave calculation unit 13. ..

顔方向判定部12は、顔検出部11が出力した検出結果に基づいて、顔検出部11が検出した顔の向きを判定する。顔方向判定部12は、判定結果を脈波算出部13に出力する。判定結果は、(1)顔方向判定部12が判定した顔の向きが第1の方向(脈波取得に適した方向)であるか否か、及び/又は、(2)顔方向判定部12が判定した顔の向きの角度、などに関する情報を含む。 The face direction determination unit 12 determines the orientation of the face detected by the face detection unit 11 based on the detection result output by the face detection unit 11. The face direction determination unit 12 outputs the determination result to the pulse wave calculation unit 13. The determination result is (1) whether or not the direction of the face determined by the face direction determination unit 12 is the first direction (direction suitable for pulse wave acquisition), and / or (2) the face direction determination unit 12 Includes information about the angle of face orientation determined by.

脈波算出部13は、顔方向判定部12が出力した判定結果に基づき、撮像部2が取得した動画像データから顔検出部11が検出した顔の脈波を算出する。算出された脈波は、端末装置1に備えられたディスプレイなどで表示されてもよいし、メモリなどに保存されてもよい。 The pulse wave calculation unit 13 calculates the pulse wave of the face detected by the face detection unit 11 from the moving image data acquired by the imaging unit 2 based on the determination result output by the face direction determination unit 12. The calculated pulse wave may be displayed on a display provided in the terminal device 1 or the like, or may be stored in a memory or the like.

脈波算出部13は、算出された脈波に基づいて、他の生体情報(脈拍数、又は血圧など)を算出してもよい。脈波算出部13は、血管の変化に伴う動画像データの画素値の変化に基づいて、他の生体情報を算出してもよい。 The pulse wave calculation unit 13 may calculate other biological information (pulse rate, blood pressure, etc.) based on the calculated pulse wave. The pulse wave calculation unit 13 may calculate other biological information based on the change in the pixel value of the moving image data due to the change in the blood vessel.

顔検出部11、顔方向判定部12、及び脈波算出部13は、CPUなどの演算装置によって構成され、端末装置1の内部、又は、クラウドなどの外部に設けられてもよい。 The face detection unit 11, the face direction determination unit 12, and the pulse wave calculation unit 13 are configured by an arithmetic unit such as a CPU, and may be provided inside the terminal device 1 or outside such as a cloud.

〔顔検出部11の動作例〕
顔検出部11の動作例を図4〜図7により説明する。図4は、撮像部2が撮像した画像の一例を示す。画面内には2人の顔が写っている。撮像部2は、撮像した画像に係る画像データを顔検出部11に出力する。
[Operation example of face detection unit 11]
An operation example of the face detection unit 11 will be described with reference to FIGS. 4 to 7. FIG. 4 shows an example of an image captured by the imaging unit 2. Two faces are shown on the screen. The image capturing unit 2 outputs image data related to the captured image to the face detection unit 11.

図5は、顔検出部11が顔検出した画像の一例を示す。顔検出部11は、画像に写っている2人のうち、顔の大きい方の人(第1の人物)の顔を検出する。第1の人物の顔の領域に枠が描かれている画像が端末装置1のディスプレイに表示されてもよい。 FIG. 5 shows an example of an image in which the face detection unit 11 detects a face. The face detection unit 11 detects the face of the person with the larger face (first person) among the two people shown in the image. An image in which a frame is drawn in the area of the face of the first person may be displayed on the display of the terminal device 1.

図6は、顔検出部11が出力した検出結果の一例を示す。検出結果は、(1)顔検出部11が検出した顔の領域の画像、(2)その領域の位置(170、20)、(3)その領域の大きさ(100×100)に関する情報を含む。領域の位置は、顔の領域の画像の中心点などであってよい。以下、このような検出結果を得る方法の一例を示す。 FIG. 6 shows an example of the detection result output by the face detection unit 11. The detection result includes information on (1) an image of the face area detected by the face detection unit 11, (2) the position of the area (170, 20), and (3) the size of the area (100 × 100). .. The position of the region may be the center point of the image of the facial region or the like. Hereinafter, an example of a method for obtaining such a detection result will be shown.

図7は、顔検出部11が顔検出した画像の一例を示す。最初に、顔検出部11は、画像に写っている複数の顔をすべて検出し、それぞれの位置と大きさを検出する。次に、顔検出部11は、検出されたすべての顔の中から、最も大きい顔を選択する。そして、顔検出部11は、選択された顔の領域の画像、その領域の位置、及び、その領域の大きさを含む検出結果を顔方向判定部12に出力する。顔検出部11は、検出されたすべての顔の位置を取得しなくてもよい。顔検出部11は、最も大きい顔を選択した後に、選択された顔の大きさを取得してもよい。 FIG. 7 shows an example of an image in which the face detection unit 11 detects a face. First, the face detection unit 11 detects all the plurality of faces in the image and detects the position and size of each. Next, the face detection unit 11 selects the largest face from all the detected faces. Then, the face detection unit 11 outputs the detection result including the image of the selected face area, the position of the area, and the size of the area to the face direction determination unit 12. The face detection unit 11 does not have to acquire the positions of all the detected faces. The face detection unit 11 may acquire the size of the selected face after selecting the largest face.

以下、同様の検出結果を得るための他の例を示す。 Hereinafter, another example for obtaining the same detection result will be shown.

所定のテンプレートに一致する領域を探索することにより顔検出する、パターンマッチングに類似した方法がある。この方法を採用する場合、通常、探索に使用するテンプレートのサイズを複数使用して顔検出する。サイズの大きいテンプレートから順にテンプレートを使用する。これにより、最も大きい顔が最初に検出され、顔が一つでも検出された時点で顔検出を終了することができる。この方法によると、最も大きい顔のみが検出される。この方法は、複数の顔を検出する方法よりも、最も大きい顔を検出するのに要する時間を短縮できる。 There is a method similar to pattern matching in which face detection is performed by searching for an area that matches a predetermined template. When this method is adopted, face detection is usually performed using a plurality of template sizes used for search. Use templates in descending order of size. As a result, the largest face is detected first, and face detection can be terminated when even one face is detected. According to this method, only the largest face is detected. This method can reduce the time required to detect the largest face as compared with the method of detecting a plurality of faces.

以下、同様の結果を得るための他の例を示す。 Other examples for obtaining similar results are shown below.

最初に、一定のサイズを有するテンプレートを一つ準備する。次に、撮像部2が撮像した画像を拡大または縮小した複数の画像を準備する。その複数の画像のうち最も小さい画像から順に、テンプレートに一致する領域を探索する。この方法を用いることにより、顔検出部11は、一番大きい顔を最初に検出することできる。 First, prepare one template with a certain size. Next, a plurality of images obtained by enlarging or reducing the images captured by the imaging unit 2 are prepared. The area that matches the template is searched in order from the smallest image among the plurality of images. By using this method, the face detection unit 11 can detect the largest face first.

以上の様々な方法により、顔検出部11は、撮像部2が撮像した動画像に写る最も大きい顔を検出し、顔方向判定部12及び脈波算出部13に検出結果を出力することができる。 By the above various methods, the face detection unit 11 can detect the largest face captured in the moving image captured by the imaging unit 2 and output the detection result to the face direction determination unit 12 and the pulse wave calculation unit 13. ..

〔顔方向判定部12の動作例〕
顔方向判定部12の動作例を図8により説明する。図8は、顔方向判定部12による判定結果の一例を示す。顔方向判定部12は、顔検出部11が出力した検出結果に基づいて、顔検出部11が検出した顔の向きを判定する。判定結果は、(1)顔方向判定部12が判定した顔の向きが第1の方向(精度よく脈波を取得するのに適した方向)であるか否か、又は、(2)顔方向判定部12が判定した顔の向きの角度、などに関する情報を含む。
[Operation example of face direction determination unit 12]
An operation example of the face direction determination unit 12 will be described with reference to FIG. FIG. 8 shows an example of the determination result by the face direction determination unit 12. The face direction determination unit 12 determines the orientation of the face detected by the face detection unit 11 based on the detection result output by the face detection unit 11. The determination result is (1) whether or not the direction of the face determined by the face direction determination unit 12 is the first direction (direction suitable for accurately acquiring the pulse wave), or (2) the face direction. Includes information about the angle of the face orientation determined by the determination unit 12, and the like.

図8左図は、顔が撮像部2に正対する方向を向いている。この方向は、脈波取得に適した方向であり、第1の方向と称する。図8右図は、顔が撮像部2に正対しない方向を向いている。この方向は、脈波取得に適しない方向であり、第2の方向と称する。第1の方向は、顔方向判定部12により規定されてよい。以下、具体的に説明する。 In the left figure of FIG. 8, the face faces the image pickup unit 2. This direction is suitable for pulse wave acquisition and is referred to as a first direction. In the right figure of FIG. 8, the face is oriented so as not to face the imaging unit 2. This direction is not suitable for pulse wave acquisition and is referred to as a second direction. The first direction may be defined by the face direction determination unit 12. Hereinafter, a specific description will be given.

第1の方向は、幅を持った範囲を含んでよく、例えば、正対する方向から水平方向に±45度の範囲と規定されてよい。第1の方向は、顔の向きの角度を数字で表すことで規定されてよいし、例えば「正面」「ななめ」「横」のような言語によって規定されてもよい。 The first direction may include a range having a width, and may be defined as, for example, a range of ± 45 degrees in the horizontal direction from the facing direction. The first direction may be defined by expressing the angle of the face orientation numerically, or may be defined by a language such as "front", "licking", or "horizontal".

第1の方向は、顔を左右に動かす時の、画像の縦方向を軸とした水平方向の角度で規定されてよい。第1の方向は、顔を上下に動かす時の、画像の横方向を軸とした垂直方向の角度で規定されてよい。第1の方向は、首をかしげる時、あるいは、端末装置1を傾ける時の、画像面に垂直な方向に軸を持つ回転方向の角度で規定されてよい。第1の方向は、水平方向の角度、垂直方向の角度、及び/又は、回転方向の角度といった複数の角度を組み合わせて規定されてよい。 The first direction may be defined by a horizontal angle about the vertical direction of the image when the face is moved left and right. The first direction may be defined by a vertical angle about the horizontal direction of the image when the face is moved up and down. The first direction may be defined by the angle of the rotation direction having an axis in the direction perpendicular to the image plane when the neck is bent or the terminal device 1 is tilted. The first direction may be defined by combining a plurality of angles such as a horizontal angle, a vertical angle, and / or a rotation angle.

第1の方向は、取得したい脈波の種類、又は脈波を取得する位置などに基づいて規定されてよい。例えば、左右の両頬における脈波を取得する場合には、第1の方向は、顔が端末装置1に正対する向きであってよい。右頬の脈波を取得する場合には、第1の方向は、顔が端末装置1に正対する方向から水平方向に回転した、顔が画面の右側を向く方向であってよい。首筋の脈波を取得する場合には、第1の方向は、顔が端末装置1に正対する方向から垂直方向に回転した、顔が画面の上側を向く方向であってよい。顔に光が真上から当たっている環境において頬で脈波を取得する場合には、第1の方向は、顔がカメラに正対する方向から回転方向に回転した、首を傾げる、又は身体を傾ける方向であってよい。 The first direction may be defined based on the type of pulse wave to be acquired, the position where the pulse wave is acquired, or the like. For example, when acquiring pulse waves on both the left and right cheeks, the first direction may be the direction in which the face faces the terminal device 1. When acquiring the pulse wave of the right cheek, the first direction may be a direction in which the face is rotated horizontally from the direction facing the terminal device 1 and the face faces the right side of the screen. When acquiring the pulse wave of the nape of the neck, the first direction may be a direction in which the face is rotated in the vertical direction from the direction facing the terminal device 1 and the face faces the upper side of the screen. When acquiring a pulse wave on the cheek in an environment where the face is exposed to light from directly above, the first direction is that the face is rotated in the direction of rotation from the direction facing the camera, the neck is tilted, or the body is tilted. It may be tilted.

顔面の血管の分布には個人差があるため、精度よく脈波を取得できる顔の角度は人によって異なる。そのため、第1の方向は、個々人ごとに規定されてよい。その場合、顔検出部11の出力する検出結果に個人を識別する情報を含める。端末装置1は、複数の人物の顔を予めメモリに記録しておき、そのメモリの顔と顔検出した顔とを照合し、人物を特定することができる。顔方向判定部12は、その人物を識別する情報に基づいて第1の方向を規定する。すなわち、第1の方向は、第1の人物に対して予め対応付けられている。個人を識別する情報は、人物の名前、文字、記号、又は数字などで表される、個人を識別するコード等である。 Since the distribution of blood vessels on the face varies from person to person, the angle of the face that can accurately acquire pulse waves differs from person to person. Therefore, the first direction may be defined for each individual. In that case, the detection result output by the face detection unit 11 includes information for identifying an individual. The terminal device 1 can record the faces of a plurality of persons in a memory in advance, collate the faces in the memory with the faces detected, and identify the persons. The face direction determination unit 12 defines the first direction based on the information that identifies the person. That is, the first direction is associated with the first person in advance. The information that identifies an individual is a code that identifies the individual, which is represented by a person's name, characters, symbols, numbers, or the like.

顔方向判定部12は、上記の様々な第1の方向を公知の方法を用いて規定(判定)することができる。例えば、顔方向判定部12は、顔の器官(目、口など)の位置関係に基づいて顔の角度を推定(判定)してよい。また、顔方向判定部12は、顔の角度の様々なテンプレートを用い、それらテンプレートとのマッチング結果に応じて顔の方向(角度)を推定(判定)してもよい。 The face direction determination unit 12 can define (determine) the various first directions described above by using a known method. For example, the face direction determination unit 12 may estimate (determine) the angle of the face based on the positional relationship of the facial organs (eyes, mouth, etc.). Further, the face direction determination unit 12 may use various templates of face angles and estimate (determine) the direction (angle) of the face according to the matching result with those templates.

〔脈波算出方法〕
次に、端末装置1により脈波を取得する方法を図9により説明する。図9は、端末装置1により脈波を取得するフローである。
[Pulse wave calculation method]
Next, a method of acquiring a pulse wave by the terminal device 1 will be described with reference to FIG. FIG. 9 is a flow of acquiring a pulse wave by the terminal device 1.

まず、S10にて、撮像部2を起動する。 First, in S10, the imaging unit 2 is activated.

次に、S20にて、撮像部2が、画像を撮像し、動画像データを取得する。撮像部2は、顔検出部11に動画像データを出力する。 Next, in S20, the imaging unit 2 captures an image and acquires moving image data. The imaging unit 2 outputs moving image data to the face detection unit 11.

S30では、顔検出部11が、撮像部2により撮像された画像に写っている最も大きい顔を検出する。顔検出部11が最も大きい顔を検出した場合(S40にてYes)、S50に進む。顔検出部11は、顔方向判定部12及び脈波算出部13に検出結果を出力する。検出結果は、検出した顔の領域の、画像、位置、及び大きさを含む。顔検出部11が顔を1つも検出しなかった場合(S40にてNo)、S20に戻る。 In S30, the face detection unit 11 detects the largest face in the image captured by the image pickup unit 2. When the face detection unit 11 detects the largest face (Yes in S40), the process proceeds to S50. The face detection unit 11 outputs the detection result to the face direction determination unit 12 and the pulse wave calculation unit 13. The detection result includes the image, position, and size of the detected facial area. If the face detection unit 11 does not detect any face (No in S40), the process returns to S20.

S50では、顔方向判定部12が、検出結果に含まれる、最も大きい顔の画像の顔の向きが第1の方向であるか否かを判定する。S50にてYesの場合はS60に進む。S50にてNoの場合はS20に戻る。 In S50, the face direction determination unit 12 determines whether or not the face direction of the largest face image included in the detection result is the first direction. If Yes in S50, proceed to S60. If No in S50, the process returns to S20.

S60では、撮像部2が、動画像を撮像し、動画像データを取得する。撮像部2は、脈波算出部13に動画像データを出力する。 In S60, the imaging unit 2 captures a moving image and acquires moving image data. The imaging unit 2 outputs moving image data to the pulse wave calculation unit 13.

S70では、脈波算出部13が、動画像データに基づいて、顔検出部11により検出された顔の脈波を算出する。動画像中の顔の位置は、検出結果に含まれる顔の位置の情報に基づいて決定される。 In S70, the pulse wave calculation unit 13 calculates the pulse wave of the face detected by the face detection unit 11 based on the moving image data. The position of the face in the moving image is determined based on the information on the position of the face included in the detection result.

以上により、生体情報取得装置10は、撮像部2により撮像された画像(動画像)に写った人のうち、最も顔が大きく写った人物の脈波を、その人物が第1の方向を向いているときに取得することができる。 As described above, the biological information acquisition device 10 directs the pulse wave of the person whose face is the largest among the persons captured in the image (moving image) captured by the imaging unit 2 in the first direction. You can get it when you are.

一般に、人物の顔が大きく撮像されている場合には脈波の算出に使用できる画素の個数が増え、その結果、シグナルノイズ比の高い脈波を取得しやすくなる。端末装置1は、撮像部2に撮像された画像に含まれる1以上の人物のうち、最も顔の大きく写った人物の脈波を取得する。これにより、端末装置1は、精度の高い脈波を取得することができる。 Generally, when a person's face is photographed in a large size, the number of pixels that can be used for calculating the pulse wave increases, and as a result, it becomes easy to acquire a pulse wave having a high signal-to-noise ratio. The terminal device 1 acquires the pulse wave of the person with the largest face among one or more people included in the image captured by the image pickup unit 2. As a result, the terminal device 1 can acquire a highly accurate pulse wave.

端末装置1のユーザが自身の脈波を取得しようとする場合、そのユーザは撮像部2から最も近い位置にいる可能性が高い。つまり、端末装置1に近い人ほど、動画像内で大きく写りやすい。このため、端末装置1は、ユーザの脈波を取得しやすくする。 When a user of the terminal device 1 tries to acquire his / her own pulse wave, the user is likely to be closest to the image pickup unit 2. That is, the closer the person is to the terminal device 1, the larger the image is likely to appear in the moving image. Therefore, the terminal device 1 makes it easy to acquire the pulse wave of the user.

端末装置1は、動画像に最も大きく写った人が第1の方向を向いたときに、その人物の脈波を取得する。これにより、端末装置1は、より精度の高い脈波を取得することができる。 The terminal device 1 acquires the pulse wave of the person who appears in the moving image in the largest direction when the person faces the first direction. As a result, the terminal device 1 can acquire a pulse wave with higher accuracy.

端末装置1は以下の構成を備えてもよい。 The terminal device 1 may have the following configuration.

顔検出部11は、公知の技術を用いて顔検出することができる。公知の技術として、例えば、パターンマッチングなどの機械学習が挙げられる。 The face detection unit 11 can detect a face by using a known technique. Known techniques include, for example, machine learning such as pattern matching.

撮像部2が顔方向判定部12に画像データを出力する場合、顔検出部11は、顔検出部11が検出した顔の領域の画像を検出結果に含めなくてもよい。顔方向判定部12は、検出結果に含まれる顔の領域の位置に基づいて、最も大きい顔の領域の画像を取得することができる。 When the imaging unit 2 outputs the image data to the face direction determination unit 12, the face detection unit 11 does not have to include the image of the face region detected by the face detection unit 11 in the detection result. The face direction determination unit 12 can acquire an image of the largest face region based on the position of the face region included in the detection result.

顔方向判定部12は脈波算出部13に判定結果を出力する。その判定結果が、顔検出部11から顔方向判定部12に出力された検出結果に含まれていた顔の位置を示す情報を含んでもよい。この場合、顔検出部11は、脈波算出部13に検出結果を出力しなくてもよい。脈波算出部13は、撮像部2から出力された動画像データから検出結果に含まれる顔の画像を探すことによって、脈波を算出する顔の位置を決定することができる。 The face direction determination unit 12 outputs the determination result to the pulse wave calculation unit 13. The determination result may include information indicating the position of the face included in the detection result output from the face detection unit 11 to the face direction determination unit 12. In this case, the face detection unit 11 does not have to output the detection result to the pulse wave calculation unit 13. The pulse wave calculation unit 13 can determine the position of the face for which the pulse wave is calculated by searching for the face image included in the detection result from the moving image data output from the imaging unit 2.

S60は、事前に設定された所定の時間(例えば10秒間)にわたって行われてよい。顔検出部11は、撮像部2が動画像を撮像するのと同時に、動画像内の画像に写る顔を検出してもよい。顔検出部11は検出した顔を追跡してよい。撮像部2は、動画像内の画像に顔が写っている間は動画像の撮像を続け、顔検出部11が顔を検出しなくなったとき、あるいは、顔検出部11が顔を追跡できなくなったとき、動画像の撮像を終了してもよい。 S60 may be performed for a predetermined time (for example, 10 seconds) set in advance. The face detection unit 11 may detect the face appearing in the image in the moving image at the same time as the imaging unit 2 captures the moving image. The face detection unit 11 may track the detected face. The imaging unit 2 continues to capture the moving image while the face is shown in the image in the moving image, and when the face detecting unit 11 stops detecting the face, or the face detecting unit 11 cannot track the face. At that time, the imaging of the moving image may be finished.

脈波算出部13は、動画像データの画素値の時間変化に基づいて、公知の技術(独立成分分析または色素成分分離など)により脈波を算出してよい。脈波算出部13は、顔検出部11により検出された顔の、主に皮膚が写っている部位から脈波を取得する。脈波算出部13は、撮像部2による動画像の撮像が終了してから脈波を算出してよい。脈波算出部13は、動画像データの取得開始と同時に脈波を算出してよい。顔方向判定部12から脈波算出部13に出力される判定情報に顔の向きに関する情報が含まれている場合には、脈波算出部13は、顔の方向に応じて脈波を測定する身体の部位を変更してよい。 The pulse wave calculation unit 13 may calculate the pulse wave by a known technique (independent component analysis, dye component separation, etc.) based on the time change of the pixel value of the moving image data. The pulse wave calculation unit 13 acquires the pulse wave from the portion of the face detected by the face detection unit 11 where the skin is mainly reflected. The pulse wave calculation unit 13 may calculate the pulse wave after the imaging of the moving image by the imaging unit 2 is completed. The pulse wave calculation unit 13 may calculate the pulse wave at the same time as the acquisition of the moving image data is started. When the determination information output from the face direction determination unit 12 to the pulse wave calculation unit 13 includes information on the face orientation, the pulse wave calculation unit 13 measures the pulse wave according to the direction of the face. You may change parts of the body.

〔実施形態2〕
実施形態2について、以下に説明する。説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
The second embodiment will be described below. For convenience of explanation, the members having the same functions as the members described in the first embodiment are designated by the same reference numerals, and the description thereof will not be repeated.

本実施形態に係る、端末装置1により脈波を取得する他の方法を図10により説明する。図10は、実施形態2に係る端末装置1により脈波を取得するフローである。S110からS160は、図9のS10からS60と同一であるため、その説明は省略する。 Another method of acquiring a pulse wave by the terminal device 1 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flow of acquiring a pulse wave by the terminal device 1 according to the second embodiment. Since S110 to S160 are the same as S10 to S60 in FIG. 9, the description thereof will be omitted.

S170にて、撮像部2は、動画像データを取得しつつ、動画像に含まれる画像データを顔検出部11へ出力する。撮像部2は、動画像に含まれるすべての画像データを顔検出部11に出力してよい。撮像部2は、事前に設定した所定の間隔ごとに顔検出部11に画像データを出力してよい。所定の間隔は、時間(例えば1秒ごと)、又は、枚数(例えば30枚ごと)に基づくものであってよい。撮像部2は、顔検出部11に出力する画像データを取得するたびに、顔検出部11へ画像データを出力してもよい。撮像部2は、顔検出部11に出力する画像データが任意の枚数蓄積されるたびに、顔検出部11にそれらの画像データをまとめて出力してもよい。 In S170, the imaging unit 2 outputs the image data included in the moving image to the face detection unit 11 while acquiring the moving image data. The imaging unit 2 may output all the image data included in the moving image to the face detection unit 11. The image pickup unit 2 may output image data to the face detection unit 11 at predetermined intervals set in advance. The predetermined interval may be based on the time (for example, every 1 second) or the number of sheets (for example, every 30 sheets). The image pickup unit 2 may output the image data to the face detection unit 11 each time the image data to be output to the face detection unit 11 is acquired. The imaging unit 2 may collectively output the image data to the face detection unit 11 every time an arbitrary number of image data to be output to the face detection unit 11 is accumulated.

S180にて、顔検出部11は、撮像部2により撮像された画像に写っている最も大きい顔を検出する。顔検出部11が最も大きい顔を検出した場合(S190にてYes)、S200に進む。このとき、顔検出部11は、顔方向判定部12へ検出結果を出力する。顔検出部11が顔を1つも検出しなかった場合(S190にてNo)、S120に戻る。これにより、撮像部2は、動画像データの取得を停止(または中断)する。 In S180, the face detection unit 11 detects the largest face in the image captured by the image pickup unit 2. When the face detection unit 11 detects the largest face (Yes in S190), the process proceeds to S200. At this time, the face detection unit 11 outputs the detection result to the face direction determination unit 12. When the face detection unit 11 does not detect any face (No in S190), the process returns to S120. As a result, the imaging unit 2 stops (or interrupts) the acquisition of moving image data.

S200では、顔方向判定部12は、検出結果に基づいて、撮像部2が取得した動画像の中の画像に写っている最も大きい顔が第1の方向を向いているかを判定する。S200にてYesの場合はS210に進む。顔方向判定部12は、脈波算出部13に判定結果を出力する。S200にてNoの場合、S120に戻る。撮像部2は、動画像データの取得を中断する。以上の操作は、撮像部2が動画像データの取得を終了するまで続けられる(S210にてYes)。 In S200, the face direction determination unit 12 determines whether the largest face in the moving image acquired by the imaging unit 2 is facing the first direction based on the detection result. If Yes in S200, proceed to S210. The face direction determination unit 12 outputs the determination result to the pulse wave calculation unit 13. If No in S200, the process returns to S120. The imaging unit 2 interrupts the acquisition of moving image data. The above operation is continued until the imaging unit 2 finishes acquiring the moving image data (Yes in S210).

S220では、脈波算出部13が、撮像部2により撮像された動画像から、顔検出部11により検出された顔の脈波を算出する。 In S220, the pulse wave calculation unit 13 calculates the pulse wave of the face detected by the face detection unit 11 from the moving image captured by the image pickup unit 2.

撮像部2が動画像データの取得を中断した場合、その旨がユーザに知らされてもよい。撮像部2が動画像データの取得を中断した場合、撮像部2が画像データを再取得し、顔検出部11が最も大きい顔を検出し、顔方向判定部12が顔の向きを判定してよい。撮像部2が動画像データの取得を中断した場合、生体情報取得装置10は、脈波を取得するかどうかユーザに問いかけてもよい。撮像部2が動画像データの取得を中断した場合、脈波算出部13は、それまでに取得した動画像から脈波を算出してよい。 When the imaging unit 2 interrupts the acquisition of moving image data, the user may be notified to that effect. When the imaging unit 2 interrupts the acquisition of moving image data, the imaging unit 2 reacquires the image data, the face detection unit 11 detects the largest face, and the face direction determination unit 12 determines the direction of the face. Good. When the imaging unit 2 interrupts the acquisition of moving image data, the biological information acquisition device 10 may ask the user whether or not to acquire the pulse wave. When the imaging unit 2 interrupts the acquisition of the moving image data, the pulse wave calculation unit 13 may calculate the pulse wave from the moving images acquired so far.

以上の構成によると、撮像部2が動画像データを取得している間、脈波を取得される顔が最も大きく画像内に写っており、その顔が第1の方向を向いていることが保証される。そのため、撮像部2が動画像データを取得している間に第2の方向を人物の顔が向いた場合には、脈波算出部13は脈波を算出しない。これにより、生体情報取得装置10は、精度の高い脈波を取得することができる。 According to the above configuration, while the imaging unit 2 is acquiring the moving image data, the face for which the pulse wave is acquired is the largest in the image, and the face is facing the first direction. Guaranteed. Therefore, if the face of the person faces the second direction while the imaging unit 2 is acquiring the moving image data, the pulse wave calculation unit 13 does not calculate the pulse wave. As a result, the biological information acquisition device 10 can acquire a pulse wave with high accuracy.

また、脈波を取得したい人(第1の人物)とは異なる人(第2の人物(第2の被写体))が顔検出部11に検出されたことを受けて撮像部2が動画像データを取得開始した場合、撮像部2が動画像データを取得している間に顔検出部11が第1の人物を検出する。顔検出部11が第1の人物を検出したことを受けて、脈波算出部13が第1の人物の脈波を算出する。そのような構成も実現可能である。以下、その構成を説明する。 Further, in response to the fact that a person (second person (second subject)) different from the person who wants to acquire the pulse wave (first person) is detected by the face detection unit 11, the imaging unit 2 performs moving image data. When the acquisition is started, the face detection unit 11 detects the first person while the imaging unit 2 is acquiring the moving image data. In response to the fact that the face detection unit 11 has detected the first person, the pulse wave calculation unit 13 calculates the pulse wave of the first person. Such a configuration is also feasible. The configuration will be described below.

第1の人物がマスクまたはサングラスなどの遮蔽物を着用することで、顔検出部11が第1の人物の顔を検出できない場合がある。そのような場合であって、かつ、画像中に第2の人物が写っていた場合、顔検出部11は、第2の人物の顔を検出する。そして、顔方向判定部12が第2の人物は第1の方向を向いていると判定した場合、撮像部2が動画像データを取得開始し、脈波算出部13は第2の人物の脈波を算出する。 When the first person wears a shield such as a mask or sunglasses, the face detection unit 11 may not be able to detect the face of the first person. In such a case, and when the second person is shown in the image, the face detection unit 11 detects the face of the second person. Then, when the face direction determination unit 12 determines that the second person is facing the first direction, the imaging unit 2 starts acquiring moving image data, and the pulse wave calculation unit 13 determines the pulse of the second person. Calculate the wave.

実施形態1では、脈波算出部13は第2の人物の脈波を算出し続けうる。実施形態2では、第1の人物が遮蔽物を取り除き、顔の最も大きく写った人が第2の人物から第1の人物に切り替わった場合、顔検出部11は第1の人物を検出する。これにより、脈波算出部13は第1の人物の脈波を取得する。 In the first embodiment, the pulse wave calculation unit 13 can continue to calculate the pulse wave of the second person. In the second embodiment, when the first person removes the shield and the person with the largest face is switched from the second person to the first person, the face detection unit 11 detects the first person. As a result, the pulse wave calculation unit 13 acquires the pulse wave of the first person.

撮像部2が動画像データを取得している間に、顔検出部11および顔方向判定部12を動作させるかどうか予め設定できるようにしてよい。 It may be possible to set in advance whether or not to operate the face detection unit 11 and the face direction determination unit 12 while the imaging unit 2 is acquiring moving image data.

例えば、脈波算出部13が第1の人物の脈波を算出している間に撮像部2の近くに第2の人物が割り込む場合がある。このとき、顔の最も大きく写っている人が、第1の人物から第2の人物に切り替わる可能性がある。この場合、撮像部2は動画像データの取得を中断し、脈波算出部13は第1の人物の脈波の算出を停止する。このとき、動画像の中の画像に対して顔検出部11および顔方向判定部12の少なくとも何れか一方の動作を停止するように予め設定していた場合、撮像部2は動画像データを取得し続け、脈波算出部13は、第1の人物の脈波を算出することができる。 For example, a second person may interrupt near the imaging unit 2 while the pulse wave calculation unit 13 is calculating the pulse wave of the first person. At this time, the person with the largest face may switch from the first person to the second person. In this case, the imaging unit 2 interrupts the acquisition of moving image data, and the pulse wave calculation unit 13 stops the calculation of the pulse wave of the first person. At this time, if the operation of at least one of the face detection unit 11 and the face direction determination unit 12 is set in advance for the image in the moving image, the imaging unit 2 acquires the moving image data. The pulse wave calculation unit 13 can calculate the pulse wave of the first person.

このように、生体情報取得装置10は、様々な構成で実現することができる。 As described above, the biological information acquisition device 10 can be realized with various configurations.

〔実施形態3〕
実施形態3について、図11、図12を用いて以下に説明する。説明の便宜上、実施形態1、2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
The third embodiment will be described below with reference to FIGS. 11 and 12. For convenience of explanation, the members having the same functions as the members described in the first and second embodiments are designated by the same reference numerals, and the description thereof will not be repeated.

図11は、本実施形態に係る、生体情報取得装置10を備えた端末装置15の要部構成図である。端末装置15は、撮像部2、生体情報取得装置10、通知部5、及びメモリ6を備える。 FIG. 11 is a configuration diagram of a main part of the terminal device 15 provided with the biological information acquisition device 10 according to the present embodiment. The terminal device 15 includes an imaging unit 2, a biological information acquisition device 10, a notification unit 5, and a memory 6.

通知部5は、顔方向判定部12の判定結果に基づく通知を行う。通知部5は、例えば、(1)ディスプレイ(例えば、液晶画面または有機EL画面)、(2)音発生装置(例えば、スピーカ)、(3)光発生装置(例えば、LEDライト)、(4)振動発生装置(例えば、バイブレータ)である。通知部5は、上記(1)〜(4)の組み合わせにより構成されてもよい。 The notification unit 5 gives a notification based on the determination result of the face direction determination unit 12. The notification unit 5 includes, for example, (1) a display (for example, a liquid crystal screen or an organic EL screen), (2) a sound generator (for example, a speaker), (3) a light generator (for example, an LED light), and (4). A vibration generator (for example, a vibrator). The notification unit 5 may be configured by the combination of the above (1) to (4).

端末装置15のユーザが、第1の方向を把握できない場合が考えられる。そのような場合、通知部5は、上記(1)〜(4)の少なくとも一つを用いて、第1の方向をユーザに通知することができる。 It is conceivable that the user of the terminal device 15 cannot grasp the first direction. In such a case, the notification unit 5 can notify the user of the first direction by using at least one of the above (1) to (4).

また、ユーザは、第1の方向を向いたときに、端末装置15のディスプレイが見えない場合も考えられる。そのような場合、ユーザは、第1の方向を向いているのか、撮像部2が画像(動画像)の撮像をしているのか、ディスプレイを通して把握することができない。そのような場合、通知部5は、例えば上記(2)〜(4)の方法によってユーザの置かれている状況をユーザに通知することができる。 It is also possible that the user cannot see the display of the terminal device 15 when facing the first direction. In such a case, the user cannot grasp through the display whether the image is facing the first direction or whether the image capturing unit 2 is capturing an image (moving image). In such a case, the notification unit 5 can notify the user of the situation in which the user is placed, for example, by the methods (2) to (4) above.

例えば、ユーザが第2の方向を向いている場合、ユーザが無理にディスプレイを視ようとすると、脈波算出部13は、ユーザの脈波を正確に算出できない可能性がある。そこで、通知部5は、撮像部2が動画像の取得を完了したタイミングで、動画像の取得が完了したことを音により通知する。これにより、撮像部2が動画像を撮像している間、ユーザは第1の方向を向き続けることができる。 For example, when the user is facing the second direction, if the user forcibly looks at the display, the pulse wave calculation unit 13 may not be able to accurately calculate the user's pulse wave. Therefore, the notification unit 5 notifies by sound that the acquisition of the moving image is completed at the timing when the imaging unit 2 completes the acquisition of the moving image. As a result, the user can continue to face the first direction while the imaging unit 2 is capturing the moving image.

メモリ6は、撮像部2により撮像された画像(動画像)、またはユーザを識別するための情報などを記録する。メモリ6は、当然に、実施形態1、2に係る端末装置1に含まれてよい。メモリ6は、端末装置1の内部ではなく、端末装置1の外部に設けられてよい。 The memory 6 records an image (moving image) captured by the imaging unit 2, information for identifying a user, and the like. As a matter of course, the memory 6 may be included in the terminal device 1 according to the first and second embodiments. The memory 6 may be provided outside the terminal device 1 instead of inside the terminal device 1.

図12は、本開示に係る端末装置15の外観図の一例である。端末装置15は、正面カメラ部2a、音発生部5a、及びディスプレイ7を備える。 FIG. 12 is an example of an external view of the terminal device 15 according to the present disclosure. The terminal device 15 includes a front camera unit 2a, a sound generation unit 5a, and a display 7.

正面カメラ部2aは、撮像部2として使用され、被写体である人物の画像を取得する。 The front camera unit 2a is used as an imaging unit 2 to acquire an image of a person who is a subject.

ディスプレイ7は、撮像部2が撮像した画像(動画像)、又は脈波算出部13が算出した脈波などを表示する。 The display 7 displays an image (moving image) captured by the imaging unit 2, a pulse wave calculated by the pulse wave calculation unit 13, and the like.

音発生部5aは、通知部5として使用され、顔方向判定部12の判定結果に基づく通知を行う。音発生部5aは、顔方向判定部12の判定結果を音によってユーザに通知する。例えば、音発生部5aは、ユーザの顔が第1の方向を向いているとの顔方向判定部12による判定結果を受けて動画像の取得が開始したことを音で通知する。また、音発生部5aは、ユーザの顔が第1の方向を向いていないとの顔方向判定部12による判定結果を受けて音を鳴らし続ける。この場合、顔検出部11の検出結果に基づいて、音発生部5aは、ユーザの顔が検出されていないときにも音を鳴らし続けてもよい。 The sound generation unit 5a is used as the notification unit 5 and performs notification based on the determination result of the face direction determination unit 12. The sound generation unit 5a notifies the user of the determination result of the face direction determination unit 12 by sound. For example, the sound generation unit 5a notifies by sound that the acquisition of the moving image has started in response to the determination result by the face direction determination unit 12 that the user's face is facing the first direction. Further, the sound generation unit 5a continues to sound the sound in response to the determination result by the face direction determination unit 12 that the user's face is not facing the first direction. In this case, based on the detection result of the face detection unit 11, the sound generation unit 5a may continue to make a sound even when the user's face is not detected.

ディスプレイ7は、音発生部5aに代えて、あるいは、音発生部5aとともに上記通知を行ってよい。例えば、ディスプレイ7は、第1の方向を表示する。これにより、ユーザは、第1の方向を容易に把握することができる。 The display 7 may perform the above notification in place of the sound generating unit 5a or together with the sound generating unit 5a. For example, the display 7 displays the first direction. As a result, the user can easily grasp the first direction.

このように、通知部5は、様々な方法でユーザに各種通知をすることができる。通知部5は、撮像部2が動画像の取得を完了したタイミング、または、脈波算出部13が脈波の算出を終了したタイミングで、その旨をユーザに通知してよい。 In this way, the notification unit 5 can give various notifications to the user in various ways. The notification unit 5 may notify the user at the timing when the imaging unit 2 completes the acquisition of the moving image or when the pulse wave calculation unit 13 finishes the calculation of the pulse wave.

このように、通知部5は、撮像部2、顔検出部11、顔方向判定部12、及び脈波算出部13のうち少なくとも何れかの動作状態をユーザに通知することができる。 In this way, the notification unit 5 can notify the user of the operating state of at least one of the imaging unit 2, the face detection unit 11, the face direction determination unit 12, and the pulse wave calculation unit 13.

生体情報取得装置10は、人物の生体情報を取得するものとして説明した。しかしながら、生体情報取得装置10は、同様の方法で、人間以外の生体情報を取得してもよい。従って、「被写体」には人間以外の動物も含まれてよい。 The biometric information acquisition device 10 has been described as acquiring biometric information of a person. However, the biometric information acquisition device 10 may acquire biometric information other than humans by the same method. Therefore, the "subject" may include animals other than humans.

〔ソフトウェアによる実現例〕
生体情報取得装置10の制御ブロック(特に顔検出部11、顔方向判定部12、及び脈波算出部13)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block (particularly the face detection unit 11, the face direction determination unit 12, and the pulse wave calculation unit 13) of the biological information acquisition device 10 is realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software.

後者の場合、生体情報取得装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the biometric information acquisition device 10 includes a computer that executes instructions of a program that is software that realizes each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present disclosure. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium", for example, a ROM (Read Only Memory) or the like, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the above program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present disclosure is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present disclosure. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

1、15 端末装置
2 撮像部
2a 正面カメラ部
5 通知部
5a 音発生部
6 メモリ
7 ディスプレイ
10 生体情報取得装置
11 顔検出部
12 顔方向判定部
13 脈波算出部(算出部)
1, 15 Terminal device 2 Imaging unit 2a Front camera unit 5 Notification unit 5a Sound generation unit 6 Memory 7 Display 10 Biometric information acquisition device 11 Face detection unit 12 Face direction determination unit 13 Pulse wave calculation unit (calculation unit)

Claims (15)

生体情報を取得する生体情報取得装置であって、
撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、
上記顔検出部により検出された上記第1の被写体の顔が上記生体情報を取得するのに適した方向である第1の方向を向いているかを判定する顔方向判定部と、
上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備えた生体情報取得装置。
It is a biometric information acquisition device that acquires biometric information.
A face detection unit that detects the face of the first subject, which is the largest of the faces of one or more subjects included in the first image captured by the imaging unit, and a face detection unit.
A face direction determination unit for determining whether the face of the first subject detected by the face detection unit is facing the first direction, which is a direction suitable for acquiring the biological information, and a face direction determination unit.
From the second image different from the first image captured by the imaging unit when the face direction determination unit determines that the face of the first subject is facing the first direction. A biological information acquisition device including a calculation unit for calculating biological information of the first subject.
上記撮像部が上記第2の画像を連続的に撮像している間に上記第1の被写体の顔が上記第1の方向とは異なる第2の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部による上記第2の画像の撮像を停止させる、請求項1に記載の生体情報取得装置。 When the face of the first subject is facing a second direction different from the first direction while the imaging unit is continuously capturing the second image, the face direction determination unit determines. The biometric information acquisition device according to claim 1, which stops the imaging of the second image by the imaging unit when the determination is made. 上記第2の画像に含まれる、上記第1の被写体とは異なる第2の被写体の顔が最も大きい顔であることを上記顔検出部が検出した場合に、上記撮像部による上記第2の画像の連続的な撮像を停止させる、請求項1または2に記載の生体情報取得装置。 When the face detection unit detects that the face of the second subject different from the first subject included in the second image is the largest face, the second image by the imaging unit The biometric information acquisition device according to claim 1 or 2, which stops continuous imaging of the image. 上記算出部は、上記撮像部による上記第2の画像の撮像開始と同時、又は、上記撮像部による上記第2の画像の撮像終了後に上記生体情報を算出する、請求項1から3の何れか1項に記載の生体情報取得装置。 Any one of claims 1 to 3, wherein the calculation unit calculates the biological information at the same time as the start of imaging of the second image by the imaging unit or after the completion of imaging of the second image by the imaging unit. The biometric information acquisition device according to item 1. 上記顔検出部および上記顔方向判定部の少なくとも何れか一方は、上記撮像部が上記第2の画像を撮像している間に動作を停止する、請求項1から4の何れか1項に記載の生体情報取得装置。 The aspect according to any one of claims 1 to 4, wherein at least one of the face detection unit and the face direction determination unit stops operating while the image pickup unit is capturing the second image. Biometric information acquisition device. 上記算出部は、上記第1の被写体の顔の向きに応じて、上記生体情報を取得する上記第1の被写体の身体の部位を変更する、請求項1から5の何れか1項に記載の生体情報取得装置。 The calculation unit according to any one of claims 1 to 5, wherein the calculation unit changes the body part of the first subject to acquire the biological information according to the orientation of the face of the first subject. Biological information acquisition device. 上記第1の方向は、上記撮像部と正対する方向、上記画像の縦方向を軸とした水平方向の角度、及び、上記画像の横方向を軸とした垂直方向の角度のうちの何れか一つにより規定される、請求項1から6の何れか1項に記載の生体情報取得装置。 The first direction is any one of a direction facing the image pickup unit, a horizontal angle about the vertical direction of the image, and a vertical angle about the horizontal direction of the image. The biometric information acquisition device according to any one of claims 1 to 6, which is defined by the above. 上記第1の方向は、(1)上記生体情報の種類、(2)上記第1の被写体の、上記生体情報を取得する身体の部位、及び、(3)上記生体情報を取得する被写体、のうちの少なくとも何れか一つに応じて変更される、請求項1から7の何れか1項に記載の生体情報取得装置。 The first direction is (1) the type of the biological information, (2) the body part of the first subject from which the biological information is acquired, and (3) the subject from which the biological information is acquired. The biometric information acquisition device according to any one of claims 1 to 7, which is changed according to at least one of them. 上記第1の方向は、上記第1の被写体と予め対応付けられている、請求項1から8の何れか1項に記載の生体情報取得装置。 The biometric information acquisition device according to any one of claims 1 to 8, wherein the first direction is associated with the first subject in advance. 上記生体情報は、脈波、脈拍数、及び血圧のうちの少なくとも一つを含む、請求項1から9の何れか1項に記載の生体情報取得装置。 The biometric information acquisition device according to any one of claims 1 to 9, wherein the biometric information includes at least one of pulse wave, pulse rate, and blood pressure. 生体情報を取得する端末装置であって、
第1の画像及び第2の画像を撮像する撮像部と、
上記第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、
上記顔検出部により検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する顔方向判定部と、
上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備えた端末装置。
A terminal device that acquires biological information
An imaging unit that captures the first image and the second image,
A face detection unit that detects the face of the first subject, which is the largest of the faces of one or more subjects included in the first image, and
A face direction determination unit for determining whether the face of the first subject detected by the face detection unit is facing the first direction suitable for acquiring biometric information, and a face direction determination unit.
When the face direction determination unit determines that the face of the first subject is facing the first direction, a calculation unit that calculates biological information of the first subject from the second image, and a calculation unit. Terminal device equipped with.
上記撮像部、上記顔検出部、上記顔方向判定部、及び上記算出部のうち少なくとも何れかの動作状態をユーザに通知する通知部を備える、請求項11に記載の端末装置。 The terminal device according to claim 11, further comprising a notification unit that notifies the user of at least one of the imaging unit, the face detection unit, the face direction determination unit, and the calculation unit. 生体情報を取得する生体情報取得方法であって、
撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する検出ステップと、
上記検出ステップにて検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する判定ステップと、
上記第1の被写体の顔は上記第1の方向を向いていると上記判定ステップにて判定された場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出ステップと、を含む生体情報取得方法。
It is a biometric information acquisition method for acquiring biometric information.
A detection step for detecting the face of the first subject, which is the largest of the faces of one or more subjects included in the first image captured by the imaging unit, and
A determination step for determining whether the face of the first subject detected in the detection step is facing the first direction suitable for acquiring the biological information, and a determination step.
From the second image different from the first image captured by the imaging unit when it is determined in the determination step that the face of the first subject is facing the first direction. A method for acquiring biological information including the calculation step of calculating the biological information of the first subject.
請求項1から10の何れか1項に記載の生体情報取得装置としてコンピュータを機能させるための生体情報取得プログラムであって、上記顔検出部、上記顔方向判定部、および上記算出部としてコンピュータを機能させるための生体情報取得プログラム。 A biometric information acquisition program for operating a computer as the biometric information acquisition device according to any one of claims 1 to 10, wherein the computer is used as the face detection unit, the face direction determination unit, and the calculation unit. A biometric information acquisition program to make it work. 請求項14に記載の生体情報取得プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the biometric information acquisition program according to claim 14 is recorded.
JP2019225919A 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium Active JP7443044B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019225919A JP7443044B2 (en) 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium
CN202011455886.0A CN112971712A (en) 2019-12-13 2020-12-10 Biological information acquisition device, terminal device, acquisition method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225919A JP7443044B2 (en) 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2021096537A true JP2021096537A (en) 2021-06-24
JP7443044B2 JP7443044B2 (en) 2024-03-05

Family

ID=76344944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225919A Active JP7443044B2 (en) 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Country Status (2)

Country Link
JP (1) JP7443044B2 (en)
CN (1) CN112971712A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185967A1 (en) 2021-03-05 2022-09-09 凸版印刷株式会社 Distance image capturing device and distance image capturing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049854A (en) * 2003-07-15 2005-02-24 Omron Corp Object decision device and imaging device
JP2005218507A (en) * 2004-02-03 2005-08-18 Tama Tlo Kk Method and apparatus for measuring vital sign
JP2009044461A (en) * 2007-08-08 2009-02-26 Canon Inc Image processor, imaging apparatus and image processing method
JP2014198201A (en) * 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP2018008039A (en) * 2016-06-30 2018-01-18 パナソニックIpマネジメント株式会社 Biological information detection device
JP2018068720A (en) * 2016-10-31 2018-05-10 三星電子株式会社Samsung Electronics Co.,Ltd. Pulse detector and pulse detection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017085895A1 (en) * 2015-11-20 2017-05-26 富士通株式会社 Information processing device, information processing method, and information processing program
CN105989357A (en) * 2016-01-18 2016-10-05 合肥工业大学 Human face video processing-based heart rate detection method
CN106377241B (en) * 2016-08-30 2019-05-03 苏州涵轩信息科技有限公司 A kind of palmus detection system and the method for obtaining heartbeat change curve

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049854A (en) * 2003-07-15 2005-02-24 Omron Corp Object decision device and imaging device
JP2005218507A (en) * 2004-02-03 2005-08-18 Tama Tlo Kk Method and apparatus for measuring vital sign
JP2009044461A (en) * 2007-08-08 2009-02-26 Canon Inc Image processor, imaging apparatus and image processing method
JP2014198201A (en) * 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP2018008039A (en) * 2016-06-30 2018-01-18 パナソニックIpマネジメント株式会社 Biological information detection device
JP2018068720A (en) * 2016-10-31 2018-05-10 三星電子株式会社Samsung Electronics Co.,Ltd. Pulse detector and pulse detection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185967A1 (en) 2021-03-05 2022-09-09 凸版印刷株式会社 Distance image capturing device and distance image capturing method

Also Published As

Publication number Publication date
JP7443044B2 (en) 2024-03-05
CN112971712A (en) 2021-06-18

Similar Documents

Publication Publication Date Title
US9750420B1 (en) Facial feature selection for heart rate detection
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
WO2017082100A1 (en) Authentication device and authentication method employing biometric information
US9697415B2 (en) Recording medium, image processing method, and information terminal
US10617301B2 (en) Information processing device and information processing method
US20210319585A1 (en) Method and system for gaze estimation
EP2945372A1 (en) Electronic mirror device
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
JP2000163196A (en) Gesture recognizing device and instruction recognizing device having gesture recognizing function
US9836130B2 (en) Operation input device, operation input method, and program
EP4095744A1 (en) Automatic iris capturing method and apparatus, computer-readable storage medium, and computer device
US20180075295A1 (en) Detection apparatus, detection method, and computer program product
JP2014053693A (en) Information service system, electronic device, control method, and control program
JP2019145011A (en) Operation determination device and operation determination method
KR102526951B1 (en) Method and apparatus for measuring biometric information in electronic device
JP7443044B2 (en) Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium
CN114983338A (en) Skin detection method and electronic equipment
KR100686517B1 (en) Method For Modeling Pupil Shape
EP4300412A1 (en) Biometric authentication system, authentication terminal, and authentication method
Caya et al. Development of a wearable device for tracking eye movement using pupil lumination comparison algorithm
US20220240865A1 (en) Video based detection of pulse waveform
JP7314893B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL PROGRAM AND ELECTRONIC DEVICE CONTROL METHOD
JP2024024307A (en) Image processing device, image processing method, and program
CN115050062A (en) Identity recognition method, device, equipment and medium
JP2024016671A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150