JP7443044B2 - Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium - Google Patents

Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium Download PDF

Info

Publication number
JP7443044B2
JP7443044B2 JP2019225919A JP2019225919A JP7443044B2 JP 7443044 B2 JP7443044 B2 JP 7443044B2 JP 2019225919 A JP2019225919 A JP 2019225919A JP 2019225919 A JP2019225919 A JP 2019225919A JP 7443044 B2 JP7443044 B2 JP 7443044B2
Authority
JP
Japan
Prior art keywords
face
subject
image
biological information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019225919A
Other languages
Japanese (ja)
Other versions
JP2021096537A (en
Inventor
亮太 富澤
哲也 奥村
佳久 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019225919A priority Critical patent/JP7443044B2/en
Priority to CN202011455886.0A priority patent/CN112971712A/en
Publication of JP2021096537A publication Critical patent/JP2021096537A/en
Application granted granted Critical
Publication of JP7443044B2 publication Critical patent/JP7443044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)

Description

本開示は、生体情報を取得することが可能な、生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体に関する。 The present disclosure relates to a biological information acquisition device, a terminal device, a biological information acquisition method, a biological information acquisition program, and a computer-readable recording medium that can acquire biological information.

端末装置が撮像した画像の中に複数の顔が検出された場合に、その複数の顔から1人を選択する技術が知られている。特許文献1は、複数の顔それぞれの画像の大きさを比較し、その大きさが最も大きい顔に基づいて被写体を決定する技術を開示する。特許文献2、3も、画像の中の複数の顔から1つの顔を選択する技術を開示する。 2. Description of the Related Art A technique is known in which, when a plurality of faces are detected in an image captured by a terminal device, one person is selected from the plurality of faces. Patent Document 1 discloses a technique for comparing the sizes of images of a plurality of faces and determining a subject based on the face with the largest size. Patent Documents 2 and 3 also disclose techniques for selecting one face from a plurality of faces in an image.

特開平2005-049854号公報(2005年2月24日公開)Japanese Patent Application Publication No. 2005-049854 (published on February 24, 2005) 特開平2007-6033号公報(2007年1月11日公開)Japanese Patent Application Publication No. 2007-6033 (published on January 11, 2007) 特開平2009-77266号公報(2009年4月9日公開)Japanese Patent Application Publication No. 2009-77266 (published on April 9, 2009)

しかしながら、上述のような従来技術は次のような課題を有する。 However, the above-mentioned conventional technology has the following problems.

近年、カメラで撮像した人物の顔の動画像を解析することでその人物の脈波を算出する技術が開発されている。そのような技術を利用したアプリケーションが、カメラ付き携帯端末(スマートフォンなど)において広く使われている。複数の人物の顔が動画像に写っている場合、原理的には、当該複数の人物の脈波を測定することは可能である。 In recent years, technology has been developed to calculate a person's pulse wave by analyzing a moving image of the person's face captured by a camera. Applications using such technology are widely used in camera-equipped mobile terminals (smartphones, etc.). When the faces of multiple people are shown in a video image, it is theoretically possible to measure the pulse waves of the multiple people.

しかしながら、複数の人物の脈波を同時に算出しようとすると、携帯端末の画像処理能力(計算能力)に大きな負荷をかける。そこで、リアルタイムで精度よく脈波を取得するために、複数の人物のうち1人を選択して、その選択された1人の脈波を取得する方法が考えられる。特許文献1~3は、画像中の複数の顔から1つの顔を選択する技術を開示する。一方で、特許文献1~3は、画像中の顔から脈波を算出する技術を開示していない。 However, attempting to calculate the pulse waves of multiple people at the same time places a large burden on the image processing ability (calculation ability) of the mobile terminal. Therefore, in order to obtain a pulse wave accurately in real time, a method can be considered in which one person is selected from a plurality of people and the pulse wave of the selected person is obtained. Patent Documents 1 to 3 disclose techniques for selecting one face from a plurality of faces in an image. On the other hand, Patent Documents 1 to 3 do not disclose a technique for calculating a pulse wave from a face in an image.

さらに、一般には、人物の顔が大きく撮像されている場合には脈波の算出に使用できる画素の個数が増え、その結果、シグナルノイズ比の高い脈波を取得しやすくなる。 Furthermore, in general, when a person's face is imaged in a large size, the number of pixels that can be used to calculate a pulse wave increases, and as a result, it becomes easier to obtain a pulse wave with a high signal-to-noise ratio.

しかしながら、撮像された人物の顔が大きいからといって、必ずしも精度の高い脈波を取得できるわけではない。この点を課題として指摘する先行技術文献は見当たらない。 However, just because the face of the imaged person is large does not necessarily mean that a highly accurate pulse wave can be obtained. There are no prior art documents that point out this point as a problem.

本開示の一態様は、測定対象の生体の像を含む画像から当該測定対象の生体情報を、従来よりも高い精度で取得することが可能な、生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体を実現することを目的とする。 One aspect of the present disclosure provides a biological information acquisition device, a terminal device, and a biological information acquisition method that can acquire biological information of a measurement target from an image including an image of the measurement target with higher accuracy than conventional methods. , a biological information acquisition program, and a computer-readable recording medium.

上記の課題を解決するために、本開示の一態様に係る生体情報取得装置は、生体情報を取得する生体情報取得装置であって、撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、上記顔検出部により検出された上記第1の被写体の顔が上記生体情報を取得するのに適した方向である第1の方向を向いているかを判定する顔方向判定部と、上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備える。 In order to solve the above problems, a biological information acquisition device according to one aspect of the present disclosure is a biological information acquisition device that acquires biological information, and includes one or more biological information included in a first image captured by an imaging unit. a face detection unit that detects the face of the first subject that is the largest among the faces of the subjects; a face direction determination unit that determines whether the face of the first subject is facing in a first direction that is a suitable direction; and a face direction determination unit that determines that the face of the first subject is facing in the first direction; , a calculation unit that calculates biological information of the first subject from a second image different from the first image captured by the imaging unit.

上記の課題を解決するために、本開示の一態様に係る端末装置は、生体情報を取得する端末装置であって、第1の画像及び第2の画像を撮像する撮像部と、上記第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、上記顔検出部により検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する顔方向判定部と、上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備える。 In order to solve the above problems, a terminal device according to an aspect of the present disclosure is a terminal device that acquires biometric information, and includes an imaging unit that captures a first image and a second image, and a terminal device that captures a first image and a second image. a face detection unit that detects the face of the first subject that is the largest among the faces of one or more subjects included in the image; and a face of the first subject detected by the face detection unit is a face direction determination unit that determines whether the face of the first subject is facing in a first direction suitable for acquiring biometric information; and a face direction determination unit that determines that the face of the first subject is facing in the first direction. a calculation unit that calculates biometric information of the first subject from the second image.

上記の課題を解決するために、本開示の一態様に係る生体情報取得方法は、生体情報を取得する生体情報取得方法であって、撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する検出ステップと、上記検出ステップにて検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する判定ステップと、上記第1の被写体の顔は上記第1の方向を向いていると上記判定ステップにて判定された場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出ステップと、を含む。 In order to solve the above problems, a biological information acquisition method according to an aspect of the present disclosure is a biological information acquisition method for acquiring biological information, the biological information acquisition method comprising one or more biological information included in a first image captured by an imaging unit. A detection step of detecting the face of the first subject that is the largest among the faces of the subjects; a determination step of determining whether the face of the first subject is facing in the first direction; and when it is determined in the determination step that the face of the first subject is facing in the first direction, the face of the first subject is imaged by the imaging unit. , a calculation step of calculating biological information of the first subject from a second image different from the first image.

本開示の一態様によれば、測定対象の生体の像を含む画像から当該測定対象の生体情報を、従来よりも高い精度で算出することができる。 According to one aspect of the present disclosure, biological information of a measurement target can be calculated from an image including an image of the measurement target with higher accuracy than conventional methods.

本開示に係る生体情報取得部を備えた端末装置の要部構成図である。FIG. 2 is a configuration diagram of main parts of a terminal device including a biometric information acquisition unit according to the present disclosure. 脈波を取得される人が第2の方向を向いた場合に、その人物の脈波が取得され続ける様子を示す。This figure shows how the pulse wave of a person whose pulse wave is to be acquired continues to be acquired when the person faces the second direction. 脈波を取得される人が第2の方向を向いた場合に、その人物の脈波の取得が中断される様子を示す。It shows how acquisition of a pulse wave of a person is interrupted when the person whose pulse wave is to be acquired turns to the second direction. 撮像部が撮像した画像の一例を示す。An example of an image captured by the imaging unit is shown. 顔検出部が顔検出した画像の一例を示す。An example of an image in which a face has been detected by the face detection unit is shown. 顔検出部が出力した検出結果の一例を示す。An example of detection results output by the face detection unit is shown. 顔検出部が顔検出した画像の一例を示す。An example of an image in which a face has been detected by the face detection unit is shown. 顔方向判定部による判定結果の一例を示す。An example of the determination result by the face direction determination unit is shown. 本開示に係る端末装置により脈波を取得するフローである。It is a flow of acquiring a pulse wave by the terminal device according to the present disclosure. 他の実施形態に係る端末装置により脈波を取得するフローである。It is a flow of acquiring a pulse wave by the terminal device concerning other embodiments. 他の実施形態に係る、端末装置を備えた端末装置の要部構成図である。FIG. 7 is a configuration diagram of main parts of a terminal device including a terminal device according to another embodiment. 他の実施形態に係る端末装置の外観図の一例である。FIG. 7 is an example of an external view of a terminal device according to another embodiment.

以下、本開示の実施形態を図面に基づいて説明する。以下に説明する実施形態は、本開示の実現手段としての一例であり、本開示が適用される装置の構成又は各種条件によって適宜修正又は変更されるべきものであり、本開示は以下の実施形態に限定されるものではない。また、以下に説明する図面において、同一または機能的に同様の構成要素については同一符号を付し、その繰り返しの説明は省略する。さらに、各図面は、以下の説明と併せて参照したときに分かりやすいように示したものであり、必ずしも一定の比率の縮尺で描かれていない。 Embodiments of the present disclosure will be described below based on the drawings. The embodiments described below are examples of means for realizing the present disclosure, and should be modified or changed as appropriate depending on the configuration of the device or various conditions to which the present disclosure is applied. It is not limited to. Further, in the drawings described below, the same or functionally similar components are denoted by the same reference numerals, and repeated description thereof will be omitted. Furthermore, the drawings are provided for ease of understanding when viewed in conjunction with the following description and are not necessarily drawn to scale.

〔生体情報取得装置10の動作(概要)〕
最初に、本開示に係る生体情報取得装置10の動作を図2、図3により説明する。生体情報取得装置10は、撮像した人物の画像から、その人物の生体情報を取得するための装置である。生体情報は、脈波、脈拍数、又は血圧等を含む。また、生体情報は、心拍間隔(RRI:RRInterval)、呼吸性洞性不整脈成分(RSA:Respiratory Sinus Arrhythmia)、呼吸数、血圧性変動(MWSA:Mayer Wave related Sinus Arrhythmia)等も含んでよい。以下の説明では、生体情報は脈波であるものとする。
[Operation of biological information acquisition device 10 (overview)]
First, the operation of the biological information acquisition device 10 according to the present disclosure will be explained with reference to FIGS. 2 and 3. The biological information acquisition device 10 is a device for acquiring biological information of a person from a captured image of the person. The biological information includes pulse waves, pulse rate, blood pressure, and the like. The biological information may also include heartbeat interval (RRI), respiratory sinus arrhythmia component (RSA), respiratory rate, blood pressure fluctuation (MWSA), and the like. In the following explanation, it is assumed that the biological information is a pulse wave.

図2、図3では、画面内に複数の人が検出された場合に、複数の顔それぞれの画像の大きさが比較され、最も大きい顔の人物の脈拍が取得されるものとする。 In FIGS. 2 and 3, it is assumed that when a plurality of people are detected on the screen, the sizes of the images of the plurality of faces are compared, and the pulse rate of the person with the largest face is acquired.

図2は、脈波を取得される人が第2の方向を向いた場合に、その人物の脈波が取得され続ける様子を示す。図2は、生体情報取得装置10が使用されない場合に対応する。 FIG. 2 shows how a pulse wave of a person whose pulse wave is to be obtained continues to be obtained when the person faces the second direction. FIG. 2 corresponds to a case where the biological information acquisition device 10 is not used.

図2の110では、画面内に2人の人が検出されている。手前の人(以下、「第1の人物」(第1の被写体)と称する。)の脈拍が取得される。第1の人物は第1の方向を向いている。第1の方向は、脈波取得に適した方向である。 In 110 of FIG. 2, two people are detected within the screen. The pulse of the person in front (hereinafter referred to as the "first person" (first subject)) is acquired. The first person is facing a first direction. The first direction is a direction suitable for obtaining pulse waves.

図2の120では、第1の人物は第2の方向を向いている。第2の方向は、第1の方向とは異なる方向である。図2の120は、第1の人物が第2の方向を向いた場合においても、第1の人物の脈波が取得され続ける様子を示す。第1の人物が第2の方向を向いているため、取得される第1の人物の脈波は精度が低くなりうる。 At 120 in FIG. 2, the first person is facing in a second direction. The second direction is a different direction than the first direction. 120 in FIG. 2 shows how the pulse wave of the first person continues to be acquired even when the first person faces the second direction. Since the first person is facing the second direction, the accuracy of the acquired pulse wave of the first person may be low.

図3は、脈波を取得される人が第2の方向を向いた場合に、その人物の脈波の取得が中断される様子を示す。図3は、生体情報取得装置10が使用される場合に対応する。図3の130は図2の110と同様の状況を示すため、ここでの説明は省略する。 FIG. 3 shows how the acquisition of a pulse wave of a person is interrupted when the person whose pulse wave is to be acquired turns to the second direction. FIG. 3 corresponds to the case where the biological information acquisition device 10 is used. Since 130 in FIG. 3 shows the same situation as 110 in FIG. 2, the explanation here will be omitted.

図3の140では、第1の人物は第2の方向を向いている。第2の方向は、脈波取得に適した方向ではない。そのため、生体情報取得装置10は、第1の人物の脈拍の取得を中断する。これにより、生体情報取得装置10は、第1の人物の脈拍をより高い精度で取得することができる。 At 140 of FIG. 3, the first person is facing in a second direction. The second direction is not a direction suitable for acquiring pulse waves. Therefore, the biological information acquisition device 10 interrupts acquisition of the first person's pulse. Thereby, the biological information acquisition device 10 can acquire the first person's pulse with higher accuracy.

以下、生体情報取得装置10、及び生体情報取得装置10を備えた端末装置1の詳細を図1等により説明する。 Details of the biometric information acquisition device 10 and the terminal device 1 equipped with the biometric information acquisition device 10 will be described below with reference to FIG. 1 and the like.

〔端末装置1および生体情報取得装置10の構成〕
図1は、本開示に係る生体情報取得装置10を備えた端末装置1の要部構成図である。端末装置1は、撮像した人物の顔の画像(動画像)からその人物の生体情報を取得(算出)することが可能な端末装置である。端末装置1は、スマートフォン、タブレット、ノートPC、又は脈波測定用専用端末等であってよい。生体情報は、脈波、脈拍数、又は血圧等を含む。以下の説明では、生体情報は脈波とする。
[Configuration of terminal device 1 and biological information acquisition device 10]
FIG. 1 is a configuration diagram of main parts of a terminal device 1 including a biometric information acquisition device 10 according to the present disclosure. The terminal device 1 is a terminal device that is capable of acquiring (calculating) biometric information of a person from a captured image (moving image) of the person's face. The terminal device 1 may be a smartphone, a tablet, a notebook PC, a pulse wave measurement dedicated terminal, or the like. The biological information includes pulse waves, pulse rate, blood pressure, and the like. In the following explanation, the biological information is assumed to be a pulse wave.

端末装置1は、撮像部2と生体情報取得装置10とを備える。 The terminal device 1 includes an imaging section 2 and a biological information acquisition device 10.

撮像部2は、画像を撮像し、その画像に係る画像データを顔検出部11に出力する。撮像部2は、動画像を撮像し、その動画像に係る動画像データを、顔検出部11および脈波算出部13(算出部)に出力する。撮像部2は、画像データ及び/又は動画像データを、顔検出部11、顔方向判定部12、及び脈波算出部13に出力してもよい。撮像部2は、動画像の撮像に代えて、複数の画像を連続的に撮像してもよい。 The imaging unit 2 captures an image and outputs image data related to the image to the face detection unit 11. The imaging unit 2 captures a moving image and outputs moving image data related to the moving image to the face detection unit 11 and the pulse wave calculation unit 13 (calculation unit). The imaging section 2 may output image data and/or video data to the face detection section 11 , the face direction determination section 12 , and the pulse wave calculation section 13 . The imaging unit 2 may continuously capture a plurality of images instead of capturing a moving image.

撮像部2は、RGBカメラ又は赤外線カメラ等の撮像装置で構成される。撮像部2は、撮像部2が出力した動画像データに基づいて脈波を算出されることが可能な任意の撮像装置であってよい。 The imaging unit 2 is composed of an imaging device such as an RGB camera or an infrared camera. The imaging unit 2 may be any imaging device capable of calculating a pulse wave based on the moving image data output by the imaging unit 2.

生体情報取得装置10は、撮像された人物の動画像から、その人物の生体情報(脈波等)を取得するための装置である。生体情報取得装置10は、顔検出部11、顔方向判定部12、及び脈波算出部13(算出部)を備える。 The biological information acquisition device 10 is a device for acquiring biological information (pulse wave, etc.) of a person from a captured moving image of the person. The biological information acquisition device 10 includes a face detection section 11, a face direction determination section 12, and a pulse wave calculation section 13 (calculation section).

顔検出部11は、撮像部2が撮像した画像および動画像に写る最も大きい顔の人物を検出し、検出結果を顔方向判定部12及び脈波算出部13に出力する。検出結果は、例えば、(1)顔検出部11が検出した顔の領域の画像、(2)その領域の位置、(3)その領域の大きさ、などに関する情報を含む。撮像部2が撮像した画像および動画像に1人しか人物が写っていない場合、顔検出部11は、その1人の顔に関する検出結果を顔方向判定部12及び脈波算出部13に出力する。 The face detection section 11 detects the person with the largest face in the image and video captured by the imaging section 2, and outputs the detection results to the face direction determination section 12 and the pulse wave calculation section 13. The detection result includes, for example, information regarding (1) the image of the face area detected by the face detection unit 11, (2) the position of the area, (3) the size of the area, and the like. When only one person appears in the image and video captured by the imaging unit 2, the face detection unit 11 outputs the detection result regarding the face of that one person to the face direction determination unit 12 and the pulse wave calculation unit 13. .

顔方向判定部12は、顔検出部11が出力した検出結果に基づいて、顔検出部11が検出した顔の向きを判定する。顔方向判定部12は、判定結果を脈波算出部13に出力する。判定結果は、(1)顔方向判定部12が判定した顔の向きが第1の方向(脈波取得に適した方向)であるか否か、及び/又は、(2)顔方向判定部12が判定した顔の向きの角度、などに関する情報を含む。 The face direction determination unit 12 determines the orientation of the face detected by the face detection unit 11 based on the detection result output by the face detection unit 11. The face direction determining section 12 outputs the determination result to the pulse wave calculating section 13. The determination result is (1) whether or not the face direction determined by the face direction determination unit 12 is the first direction (direction suitable for pulse wave acquisition); and/or (2) face direction determination unit 12 Contains information such as the angle of the face determined by the

脈波算出部13は、顔方向判定部12が出力した判定結果に基づき、撮像部2が取得した動画像データから顔検出部11が検出した顔の脈波を算出する。算出された脈波は、端末装置1に備えられたディスプレイなどで表示されてもよいし、メモリなどに保存されてもよい。 The pulse wave calculation unit 13 calculates the pulse wave of the face detected by the face detection unit 11 from the moving image data acquired by the imaging unit 2 based on the determination result output by the face direction determination unit 12. The calculated pulse wave may be displayed on a display provided in the terminal device 1, or may be stored in a memory or the like.

脈波算出部13は、算出された脈波に基づいて、他の生体情報(脈拍数、又は血圧など)を算出してもよい。脈波算出部13は、血管の変化に伴う動画像データの画素値の変化に基づいて、他の生体情報を算出してもよい。 The pulse wave calculation unit 13 may calculate other biological information (pulse rate, blood pressure, etc.) based on the calculated pulse wave. The pulse wave calculation unit 13 may calculate other biological information based on changes in pixel values of the moving image data due to changes in blood vessels.

顔検出部11、顔方向判定部12、及び脈波算出部13は、CPUなどの演算装置によって構成され、端末装置1の内部、又は、クラウドなどの外部に設けられてもよい。 The face detection unit 11, the face direction determination unit 12, and the pulse wave calculation unit 13 are configured by a calculation device such as a CPU, and may be provided inside the terminal device 1 or outside the cloud.

〔顔検出部11の動作例〕
顔検出部11の動作例を図4~図7により説明する。図4は、撮像部2が撮像した画像の一例を示す。画面内には2人の顔が写っている。撮像部2は、撮像した画像に係る画像データを顔検出部11に出力する。
[Example of operation of face detection unit 11]
An example of the operation of the face detection section 11 will be explained with reference to FIGS. 4 to 7. FIG. 4 shows an example of an image captured by the imaging unit 2. There are two faces on the screen. The imaging unit 2 outputs image data related to the captured image to the face detection unit 11.

図5は、顔検出部11が顔検出した画像の一例を示す。顔検出部11は、画像に写っている2人のうち、顔の大きい方の人(第1の人物)の顔を検出する。第1の人物の顔の領域に枠が描かれている画像が端末装置1のディスプレイに表示されてもよい。 FIG. 5 shows an example of an image in which a face has been detected by the face detection unit 11. The face detection unit 11 detects the face of the person with the larger face (first person) among the two people in the image. An image in which a frame is drawn in the area of the first person's face may be displayed on the display of the terminal device 1.

図6は、顔検出部11が出力した検出結果の一例を示す。検出結果は、(1)顔検出部11が検出した顔の領域の画像、(2)その領域の位置(170、20)、(3)その領域の大きさ(100×100)に関する情報を含む。領域の位置は、顔の領域の画像の中心点などであってよい。以下、このような検出結果を得る方法の一例を示す。 FIG. 6 shows an example of the detection results output by the face detection unit 11. The detection result includes information regarding (1) the image of the face area detected by the face detection unit 11, (2) the position of the area (170, 20), and (3) the size of the area (100×100). . The position of the area may be the center point of the image of the face area, or the like. An example of a method for obtaining such detection results will be shown below.

図7は、顔検出部11が顔検出した画像の一例を示す。最初に、顔検出部11は、画像に写っている複数の顔をすべて検出し、それぞれの位置と大きさを検出する。次に、顔検出部11は、検出されたすべての顔の中から、最も大きい顔を選択する。そして、顔検出部11は、選択された顔の領域の画像、その領域の位置、及び、その領域の大きさを含む検出結果を顔方向判定部12に出力する。顔検出部11は、検出されたすべての顔の位置を取得しなくてもよい。顔検出部11は、最も大きい顔を選択した後に、選択された顔の大きさを取得してもよい。 FIG. 7 shows an example of an image in which a face has been detected by the face detection unit 11. First, the face detection unit 11 detects all the faces in the image, and detects the position and size of each face. Next, the face detection unit 11 selects the largest face from among all the detected faces. Then, the face detection unit 11 outputs the detection result including the image of the selected facial area, the position of the area, and the size of the area to the face direction determination unit 12. The face detection unit 11 does not need to acquire the positions of all detected faces. The face detection unit 11 may select the largest face and then obtain the size of the selected face.

以下、同様の検出結果を得るための他の例を示す。 Other examples for obtaining similar detection results will be shown below.

所定のテンプレートに一致する領域を探索することにより顔検出する、パターンマッチングに類似した方法がある。この方法を採用する場合、通常、探索に使用するテンプレートのサイズを複数使用して顔検出する。サイズの大きいテンプレートから順にテンプレートを使用する。これにより、最も大きい顔が最初に検出され、顔が一つでも検出された時点で顔検出を終了することができる。この方法によると、最も大きい顔のみが検出される。この方法は、複数の顔を検出する方法よりも、最も大きい顔を検出するのに要する時間を短縮できる。 There are methods similar to pattern matching that detect faces by searching for areas that match a predetermined template. When this method is adopted, faces are usually detected using multiple template sizes for search. Use templates in descending order of size. As a result, the largest face is detected first, and face detection can be ended when even one face is detected. According to this method, only the largest faces are detected. This method can reduce the time required to detect the largest face compared to a method that detects multiple faces.

以下、同様の結果を得るための他の例を示す。 Other examples for obtaining similar results will be shown below.

最初に、一定のサイズを有するテンプレートを一つ準備する。次に、撮像部2が撮像した画像を拡大または縮小した複数の画像を準備する。その複数の画像のうち最も小さい画像から順に、テンプレートに一致する領域を探索する。この方法を用いることにより、顔検出部11は、一番大きい顔を最初に検出することできる。 First, one template with a fixed size is prepared. Next, a plurality of images obtained by enlarging or reducing the image captured by the imaging unit 2 are prepared. An area matching the template is searched for in order from the smallest image among the plurality of images. By using this method, the face detection unit 11 can detect the largest face first.

以上の様々な方法により、顔検出部11は、撮像部2が撮像した動画像に写る最も大きい顔を検出し、顔方向判定部12及び脈波算出部13に検出結果を出力することができる。 By using the various methods described above, the face detection unit 11 can detect the largest face appearing in the moving image captured by the imaging unit 2 and output the detection results to the face direction determination unit 12 and the pulse wave calculation unit 13. .

〔顔方向判定部12の動作例〕
顔方向判定部12の動作例を図8により説明する。図8は、顔方向判定部12による判定結果の一例を示す。顔方向判定部12は、顔検出部11が出力した検出結果に基づいて、顔検出部11が検出した顔の向きを判定する。判定結果は、(1)顔方向判定部12が判定した顔の向きが第1の方向(精度よく脈波を取得するのに適した方向)であるか否か、又は、(2)顔方向判定部12が判定した顔の向きの角度、などに関する情報を含む。
[Example of operation of face direction determination unit 12]
An example of the operation of the face direction determining section 12 will be explained with reference to FIG. FIG. 8 shows an example of the determination result by the face direction determination unit 12. The face direction determination unit 12 determines the orientation of the face detected by the face detection unit 11 based on the detection result output by the face detection unit 11. The determination result is (1) whether or not the face direction determined by the face direction determination unit 12 is the first direction (direction suitable for obtaining a pulse wave with high accuracy), or (2) face direction. It includes information regarding the angle of the face direction determined by the determination unit 12, and the like.

図8左図は、顔が撮像部2に正対する方向を向いている。この方向は、脈波取得に適した方向であり、第1の方向と称する。図8右図は、顔が撮像部2に正対しない方向を向いている。この方向は、脈波取得に適しない方向であり、第2の方向と称する。第1の方向は、顔方向判定部12により規定されてよい。以下、具体的に説明する。 In the left diagram of FIG. 8, the face is facing directly toward the imaging unit 2. This direction is suitable for pulse wave acquisition and is referred to as the first direction. In the right figure of FIG. 8, the face is facing in a direction that does not directly face the imaging unit 2. This direction is not suitable for pulse wave acquisition and is referred to as a second direction. The first direction may be defined by the face direction determining section 12. This will be explained in detail below.

第1の方向は、幅を持った範囲を含んでよく、例えば、正対する方向から水平方向に±45度の範囲と規定されてよい。第1の方向は、顔の向きの角度を数字で表すことで規定されてよいし、例えば「正面」「ななめ」「横」のような言語によって規定されてもよい。 The first direction may include a wide range, and may be defined as a range of ±45 degrees in the horizontal direction from the directly facing direction, for example. The first direction may be defined by numerically representing the angle of the face direction, or may be defined by words such as "front", "diagonal", and "sideways".

第1の方向は、顔を左右に動かす時の、画像の縦方向を軸とした水平方向の角度で規定されてよい。第1の方向は、顔を上下に動かす時の、画像の横方向を軸とした垂直方向の角度で規定されてよい。第1の方向は、首をかしげる時、あるいは、端末装置1を傾ける時の、画像面に垂直な方向に軸を持つ回転方向の角度で規定されてよい。第1の方向は、水平方向の角度、垂直方向の角度、及び/又は、回転方向の角度といった複数の角度を組み合わせて規定されてよい。 The first direction may be defined by an angle in the horizontal direction with the vertical direction of the image as the axis when moving the face left and right. The first direction may be defined as a vertical angle with the horizontal direction of the image as an axis when moving the face up and down. The first direction may be defined by an angle in a rotation direction having an axis in a direction perpendicular to the image plane when tilting the head or tilting the terminal device 1. The first direction may be defined by combining a plurality of angles, such as a horizontal angle, a vertical angle, and/or a rotational angle.

第1の方向は、取得したい脈波の種類、又は脈波を取得する位置などに基づいて規定されてよい。例えば、左右の両頬における脈波を取得する場合には、第1の方向は、顔が端末装置1に正対する向きであってよい。右頬の脈波を取得する場合には、第1の方向は、顔が端末装置1に正対する方向から水平方向に回転した、顔が画面の右側を向く方向であってよい。首筋の脈波を取得する場合には、第1の方向は、顔が端末装置1に正対する方向から垂直方向に回転した、顔が画面の上側を向く方向であってよい。顔に光が真上から当たっている環境において頬で脈波を取得する場合には、第1の方向は、顔がカメラに正対する方向から回転方向に回転した、首を傾げる、又は身体を傾ける方向であってよい。 The first direction may be defined based on the type of pulse wave to be obtained, the position at which the pulse wave is to be obtained, or the like. For example, when acquiring pulse waves on both left and right cheeks, the first direction may be a direction in which the face faces the terminal device 1 . When acquiring the pulse wave of the right cheek, the first direction may be a direction in which the face is rotated horizontally from a direction in which the face directly faces the terminal device 1, and in which the face faces the right side of the screen. When acquiring the pulse wave of the neck, the first direction may be a direction in which the face is rotated vertically from a direction in which the face directly faces the terminal device 1, and in which the face faces the upper side of the screen. When acquiring a pulse wave on the cheek in an environment where the face is illuminated from directly above, the first direction is when the face rotates from the direction directly facing the camera, tilts the head, or turns the body. It may be in a tilted direction.

顔面の血管の分布には個人差があるため、精度よく脈波を取得できる顔の角度は人によって異なる。そのため、第1の方向は、個々人ごとに規定されてよい。その場合、顔検出部11の出力する検出結果に個人を識別する情報を含める。端末装置1は、複数の人物の顔を予めメモリに記録しておき、そのメモリの顔と顔検出した顔とを照合し、人物を特定することができる。顔方向判定部12は、その人物を識別する情報に基づいて第1の方向を規定する。すなわち、第1の方向は、第1の人物に対して予め対応付けられている。個人を識別する情報は、人物の名前、文字、記号、又は数字などで表される、個人を識別するコード等である。 Because the distribution of facial blood vessels varies from person to person, the angle of the face at which a pulse wave can be accurately obtained differs from person to person. Therefore, the first direction may be defined for each individual. In that case, the detection result output by the face detection unit 11 includes information for identifying the individual. The terminal device 1 can specify a person by storing the faces of a plurality of people in a memory in advance and comparing the faces stored in the memory with the detected faces. The face direction determination unit 12 defines a first direction based on information that identifies the person. That is, the first direction is associated with the first person in advance. The information that identifies an individual is a code that identifies an individual, such as a person's name, characters, symbols, or numbers.

顔方向判定部12は、上記の様々な第1の方向を公知の方法を用いて規定(判定)することができる。例えば、顔方向判定部12は、顔の器官(目、口など)の位置関係に基づいて顔の角度を推定(判定)してよい。また、顔方向判定部12は、顔の角度の様々なテンプレートを用い、それらテンプレートとのマッチング結果に応じて顔の方向(角度)を推定(判定)してもよい。 The face direction determination unit 12 can define (determine) the various first directions described above using a known method. For example, the face direction determination unit 12 may estimate (determine) the angle of the face based on the positional relationship of facial organs (eyes, mouth, etc.). Further, the face direction determination unit 12 may use templates of various face angles and estimate (determine) the face direction (angle) according to the matching results with these templates.

〔脈波算出方法〕
次に、端末装置1により脈波を取得する方法を図9により説明する。図9は、端末装置1により脈波を取得するフローである。
[Pulse wave calculation method]
Next, a method for acquiring a pulse wave using the terminal device 1 will be explained with reference to FIG. FIG. 9 is a flowchart for acquiring a pulse wave using the terminal device 1.

まず、S10にて、撮像部2を起動する。 First, in S10, the imaging section 2 is activated.

次に、S20にて、撮像部2が、画像を撮像し、動画像データを取得する。撮像部2は、顔検出部11に動画像データを出力する。 Next, in S20, the imaging unit 2 captures an image and obtains moving image data. The imaging unit 2 outputs moving image data to the face detection unit 11.

S30では、顔検出部11が、撮像部2により撮像された画像に写っている最も大きい顔を検出する。顔検出部11が最も大きい顔を検出した場合(S40にてYes)、S50に進む。顔検出部11は、顔方向判定部12及び脈波算出部13に検出結果を出力する。検出結果は、検出した顔の領域の、画像、位置、及び大きさを含む。顔検出部11が顔を1つも検出しなかった場合(S40にてNo)、S20に戻る。 In S30, the face detection unit 11 detects the largest face in the image captured by the imaging unit 2. If the face detection unit 11 detects the largest face (Yes in S40), the process advances to S50. The face detection section 11 outputs the detection result to the face direction determination section 12 and the pulse wave calculation section 13. The detection result includes the image, position, and size of the detected facial area. If the face detection unit 11 does not detect any face (No in S40), the process returns to S20.

S50では、顔方向判定部12が、検出結果に含まれる、最も大きい顔の画像の顔の向きが第1の方向であるか否かを判定する。S50にてYesの場合はS60に進む。S50にてNoの場合はS20に戻る。 In S50, the face direction determining unit 12 determines whether the face direction of the largest face image included in the detection result is the first direction. If Yes in S50, the process advances to S60. If No in S50, the process returns to S20.

S60では、撮像部2が、動画像を撮像し、動画像データを取得する。撮像部2は、脈波算出部13に動画像データを出力する。 In S60, the imaging unit 2 captures a moving image and obtains moving image data. The imaging unit 2 outputs moving image data to the pulse wave calculation unit 13.

S70では、脈波算出部13が、動画像データに基づいて、顔検出部11により検出された顔の脈波を算出する。動画像中の顔の位置は、検出結果に含まれる顔の位置の情報に基づいて決定される。 In S70, the pulse wave calculation unit 13 calculates the pulse wave of the face detected by the face detection unit 11 based on the moving image data. The position of the face in the moving image is determined based on the face position information included in the detection result.

以上により、生体情報取得装置10は、撮像部2により撮像された画像(動画像)に写った人のうち、最も顔が大きく写った人物の脈波を、その人物が第1の方向を向いているときに取得することができる。 As described above, the biological information acquisition device 10 detects the pulse wave of the person whose face is the largest among the people in the image (moving image) captured by the imaging unit 2, when the person is facing the first direction. You can get it when you want.

一般に、人物の顔が大きく撮像されている場合には脈波の算出に使用できる画素の個数が増え、その結果、シグナルノイズ比の高い脈波を取得しやすくなる。端末装置1は、撮像部2に撮像された画像に含まれる1以上の人物のうち、最も顔の大きく写った人物の脈波を取得する。これにより、端末装置1は、精度の高い脈波を取得することができる。 Generally, when a person's face is imaged in a large size, the number of pixels that can be used to calculate a pulse wave increases, and as a result, it becomes easier to obtain a pulse wave with a high signal-to-noise ratio. The terminal device 1 acquires the pulse wave of the person whose face is the largest among the one or more persons included in the image captured by the imaging unit 2 . Thereby, the terminal device 1 can acquire a highly accurate pulse wave.

端末装置1のユーザが自身の脈波を取得しようとする場合、そのユーザは撮像部2から最も近い位置にいる可能性が高い。つまり、端末装置1に近い人ほど、動画像内で大きく写りやすい。このため、端末装置1は、ユーザの脈波を取得しやすくする。 When a user of the terminal device 1 attempts to obtain his or her own pulse wave, there is a high possibility that the user is at a position closest to the imaging unit 2. In other words, the closer a person is to the terminal device 1, the larger the person is likely to appear in the video image. Therefore, the terminal device 1 makes it easier to acquire the user's pulse wave.

端末装置1は、動画像に最も大きく写った人が第1の方向を向いたときに、その人物の脈波を取得する。これにより、端末装置1は、より精度の高い脈波を取得することができる。 The terminal device 1 acquires the pulse wave of the person who appears largest in the video image when that person faces the first direction. Thereby, the terminal device 1 can acquire a more accurate pulse wave.

端末装置1は以下の構成を備えてもよい。 The terminal device 1 may have the following configuration.

顔検出部11は、公知の技術を用いて顔検出することができる。公知の技術として、例えば、パターンマッチングなどの機械学習が挙げられる。 The face detection unit 11 can detect a face using a known technique. Known techniques include, for example, machine learning such as pattern matching.

撮像部2が顔方向判定部12に画像データを出力する場合、顔検出部11は、顔検出部11が検出した顔の領域の画像を検出結果に含めなくてもよい。顔方向判定部12は、検出結果に含まれる顔の領域の位置に基づいて、最も大きい顔の領域の画像を取得することができる。 When the imaging unit 2 outputs image data to the face direction determination unit 12, the face detection unit 11 does not need to include the image of the face area detected by the face detection unit 11 in the detection result. The face direction determination unit 12 can acquire an image of the largest face area based on the position of the face area included in the detection result.

顔方向判定部12は脈波算出部13に判定結果を出力する。その判定結果が、顔検出部11から顔方向判定部12に出力された検出結果に含まれていた顔の位置を示す情報を含んでもよい。この場合、顔検出部11は、脈波算出部13に検出結果を出力しなくてもよい。脈波算出部13は、撮像部2から出力された動画像データから検出結果に含まれる顔の画像を探すことによって、脈波を算出する顔の位置を決定することができる。 The face direction determination section 12 outputs the determination result to the pulse wave calculation section 13. The determination result may include information indicating the position of the face included in the detection result output from the face detection section 11 to the face direction determination section 12. In this case, the face detection section 11 does not need to output the detection result to the pulse wave calculation section 13. The pulse wave calculation unit 13 can determine the position of the face for calculating the pulse wave by searching the video data output from the imaging unit 2 for a face image included in the detection result.

S60は、事前に設定された所定の時間(例えば10秒間)にわたって行われてよい。顔検出部11は、撮像部2が動画像を撮像するのと同時に、動画像内の画像に写る顔を検出してもよい。顔検出部11は検出した顔を追跡してよい。撮像部2は、動画像内の画像に顔が写っている間は動画像の撮像を続け、顔検出部11が顔を検出しなくなったとき、あるいは、顔検出部11が顔を追跡できなくなったとき、動画像の撮像を終了してもよい。 S60 may be performed for a predetermined period of time (for example, 10 seconds). The face detection unit 11 may detect a face appearing in an image within a moving image at the same time that the imaging unit 2 captures a moving image. The face detection unit 11 may track the detected face. The imaging unit 2 continues to capture moving images while a face is included in the image within the moving image, and when the face detection unit 11 no longer detects a face or when the face detection unit 11 is no longer able to track a face. When this happens, capturing the moving image may be terminated.

脈波算出部13は、動画像データの画素値の時間変化に基づいて、公知の技術(独立成分分析または色素成分分離など)により脈波を算出してよい。脈波算出部13は、顔検出部11により検出された顔の、主に皮膚が写っている部位から脈波を取得する。脈波算出部13は、撮像部2による動画像の撮像が終了してから脈波を算出してよい。脈波算出部13は、動画像データの取得開始と同時に脈波を算出してよい。顔方向判定部12から脈波算出部13に出力される判定情報に顔の向きに関する情報が含まれている場合には、脈波算出部13は、顔の方向に応じて脈波を測定する身体の部位を変更してよい。 The pulse wave calculation unit 13 may calculate the pulse wave using a known technique (independent component analysis, pigment component separation, etc.) based on the temporal change in pixel values of the moving image data. The pulse wave calculation unit 13 acquires a pulse wave from a part of the face detected by the face detection unit 11 that mainly shows the skin. The pulse wave calculation unit 13 may calculate the pulse wave after the imaging unit 2 finishes capturing the moving image. The pulse wave calculation unit 13 may calculate the pulse wave at the same time as the acquisition of moving image data starts. If the determination information output from the face direction determination unit 12 to the pulse wave calculation unit 13 includes information regarding the direction of the face, the pulse wave calculation unit 13 measures the pulse wave according to the direction of the face. You may change body parts.

〔実施形態2〕
実施形態2について、以下に説明する。説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Embodiment 2 will be described below. For convenience of explanation, members having the same functions as those described in Embodiment 1 are given the same reference numerals, and the description thereof will not be repeated.

本実施形態に係る、端末装置1により脈波を取得する他の方法を図10により説明する。図10は、実施形態2に係る端末装置1により脈波を取得するフローである。S110からS160は、図9のS10からS60と同一であるため、その説明は省略する。 Another method of acquiring a pulse wave using the terminal device 1 according to this embodiment will be described with reference to FIG. FIG. 10 is a flowchart for acquiring a pulse wave using the terminal device 1 according to the second embodiment. Since S110 to S160 are the same as S10 to S60 in FIG. 9, the explanation thereof will be omitted.

S170にて、撮像部2は、動画像データを取得しつつ、動画像に含まれる画像データを顔検出部11へ出力する。撮像部2は、動画像に含まれるすべての画像データを顔検出部11に出力してよい。撮像部2は、事前に設定した所定の間隔ごとに顔検出部11に画像データを出力してよい。所定の間隔は、時間(例えば1秒ごと)、又は、枚数(例えば30枚ごと)に基づくものであってよい。撮像部2は、顔検出部11に出力する画像データを取得するたびに、顔検出部11へ画像データを出力してもよい。撮像部2は、顔検出部11に出力する画像データが任意の枚数蓄積されるたびに、顔検出部11にそれらの画像データをまとめて出力してもよい。 In S170, the imaging unit 2 outputs image data included in the moving image to the face detection unit 11 while acquiring moving image data. The imaging unit 2 may output all image data included in the moving image to the face detection unit 11. The imaging unit 2 may output image data to the face detection unit 11 at predetermined intervals set in advance. The predetermined interval may be based on time (eg, every second) or number of images (eg, every 30 images). The imaging unit 2 may output image data to the face detection unit 11 every time it acquires image data to be output to the face detection unit 11. The imaging section 2 may output the image data to the face detection section 11 all at once, each time a given number of image data to be output to the face detection section 11 is accumulated.

S180にて、顔検出部11は、撮像部2により撮像された画像に写っている最も大きい顔を検出する。顔検出部11が最も大きい顔を検出した場合(S190にてYes)、S200に進む。このとき、顔検出部11は、顔方向判定部12へ検出結果を出力する。顔検出部11が顔を1つも検出しなかった場合(S190にてNo)、S120に戻る。これにより、撮像部2は、動画像データの取得を停止(または中断)する。 In S180, the face detection unit 11 detects the largest face in the image captured by the imaging unit 2. If the face detection unit 11 detects the largest face (Yes in S190), the process advances to S200. At this time, the face detection section 11 outputs the detection result to the face direction determination section 12. If the face detection unit 11 does not detect any face (No in S190), the process returns to S120. Thereby, the imaging unit 2 stops (or interrupts) the acquisition of moving image data.

S200では、顔方向判定部12は、検出結果に基づいて、撮像部2が取得した動画像の中の画像に写っている最も大きい顔が第1の方向を向いているかを判定する。S200にてYesの場合はS210に進む。顔方向判定部12は、脈波算出部13に判定結果を出力する。S200にてNoの場合、S120に戻る。撮像部2は、動画像データの取得を中断する。以上の操作は、撮像部2が動画像データの取得を終了するまで続けられる(S210にてYes)。 In S200, the face direction determining unit 12 determines whether the largest face in the moving images acquired by the imaging unit 2 is facing the first direction, based on the detection result. If Yes in S200, the process advances to S210. The face direction determination section 12 outputs the determination result to the pulse wave calculation section 13. If No in S200, the process returns to S120. The imaging unit 2 interrupts the acquisition of moving image data. The above operations are continued until the imaging unit 2 finishes acquiring the moving image data (Yes in S210).

S220では、脈波算出部13が、撮像部2により撮像された動画像から、顔検出部11により検出された顔の脈波を算出する。 In S220, the pulse wave calculation unit 13 calculates the pulse wave of the face detected by the face detection unit 11 from the moving image captured by the imaging unit 2.

撮像部2が動画像データの取得を中断した場合、その旨がユーザに知らされてもよい。撮像部2が動画像データの取得を中断した場合、撮像部2が画像データを再取得し、顔検出部11が最も大きい顔を検出し、顔方向判定部12が顔の向きを判定してよい。撮像部2が動画像データの取得を中断した場合、生体情報取得装置10は、脈波を取得するかどうかユーザに問いかけてもよい。撮像部2が動画像データの取得を中断した場合、脈波算出部13は、それまでに取得した動画像から脈波を算出してよい。 When the imaging unit 2 interrupts acquisition of moving image data, the user may be informed of this fact. When the imaging unit 2 interrupts the acquisition of moving image data, the imaging unit 2 reacquires the image data, the face detection unit 11 detects the largest face, and the face direction determination unit 12 determines the direction of the face. good. When the imaging unit 2 interrupts the acquisition of moving image data, the biological information acquisition device 10 may ask the user whether to acquire a pulse wave. When the imaging unit 2 interrupts the acquisition of moving image data, the pulse wave calculation unit 13 may calculate the pulse wave from the moving images acquired up to that point.

以上の構成によると、撮像部2が動画像データを取得している間、脈波を取得される顔が最も大きく画像内に写っており、その顔が第1の方向を向いていることが保証される。そのため、撮像部2が動画像データを取得している間に第2の方向を人物の顔が向いた場合には、脈波算出部13は脈波を算出しない。これにより、生体情報取得装置10は、精度の高い脈波を取得することができる。 According to the above configuration, while the imaging unit 2 is acquiring moving image data, the face whose pulse wave is acquired is the largest in the image, and the face is facing in the first direction. Guaranteed. Therefore, if the person's face faces in the second direction while the imaging unit 2 is acquiring moving image data, the pulse wave calculation unit 13 does not calculate the pulse wave. Thereby, the biological information acquisition device 10 can acquire a highly accurate pulse wave.

また、脈波を取得したい人(第1の人物)とは異なる人(第2の人物(第2の被写体))が顔検出部11に検出されたことを受けて撮像部2が動画像データを取得開始した場合、撮像部2が動画像データを取得している間に顔検出部11が第1の人物を検出する。顔検出部11が第1の人物を検出したことを受けて、脈波算出部13が第1の人物の脈波を算出する。そのような構成も実現可能である。以下、その構成を説明する。 In addition, in response to the face detection unit 11 detecting a person (second person (second subject)) different from the person whose pulse wave is desired (first person), the imaging unit 2 detects the moving image data. When the acquisition of the first person is started, the face detection unit 11 detects the first person while the imaging unit 2 is acquiring the moving image data. In response to the detection of the first person by the face detection unit 11, the pulse wave calculation unit 13 calculates the pulse wave of the first person. Such a configuration is also possible. The configuration will be explained below.

第1の人物がマスクまたはサングラスなどの遮蔽物を着用することで、顔検出部11が第1の人物の顔を検出できない場合がある。そのような場合であって、かつ、画像中に第2の人物が写っていた場合、顔検出部11は、第2の人物の顔を検出する。そして、顔方向判定部12が第2の人物は第1の方向を向いていると判定した場合、撮像部2が動画像データを取得開始し、脈波算出部13は第2の人物の脈波を算出する。 If the first person wears a shield such as a mask or sunglasses, the face detection unit 11 may not be able to detect the first person's face. In such a case, if the second person is included in the image, the face detection unit 11 detects the second person's face. If the face direction determination unit 12 determines that the second person is facing the first direction, the imaging unit 2 starts acquiring moving image data, and the pulse wave calculation unit 13 detects the second person's pulse. Calculate the waves.

実施形態1では、脈波算出部13は第2の人物の脈波を算出し続けうる。実施形態2では、第1の人物が遮蔽物を取り除き、顔の最も大きく写った人が第2の人物から第1の人物に切り替わった場合、顔検出部11は第1の人物を検出する。これにより、脈波算出部13は第1の人物の脈波を取得する。 In the first embodiment, the pulse wave calculation unit 13 can continue to calculate the pulse wave of the second person. In the second embodiment, when the first person removes the obstructing object and the person whose face is reflected the largest is switched from the second person to the first person, the face detection unit 11 detects the first person. Thereby, the pulse wave calculation unit 13 acquires the pulse wave of the first person.

撮像部2が動画像データを取得している間に、顔検出部11および顔方向判定部12を動作させるかどうか予め設定できるようにしてよい。 It may be possible to set in advance whether or not to operate the face detection section 11 and the face direction determination section 12 while the imaging section 2 is acquiring moving image data.

例えば、脈波算出部13が第1の人物の脈波を算出している間に撮像部2の近くに第2の人物が割り込む場合がある。このとき、顔の最も大きく写っている人が、第1の人物から第2の人物に切り替わる可能性がある。この場合、撮像部2は動画像データの取得を中断し、脈波算出部13は第1の人物の脈波の算出を停止する。このとき、動画像の中の画像に対して顔検出部11および顔方向判定部12の少なくとも何れか一方の動作を停止するように予め設定していた場合、撮像部2は動画像データを取得し続け、脈波算出部13は、第1の人物の脈波を算出することができる。 For example, while the pulse wave calculation unit 13 is calculating the pulse wave of the first person, a second person may come near the imaging unit 2. At this time, there is a possibility that the person with the largest face in the image will be switched from the first person to the second person. In this case, the imaging unit 2 interrupts the acquisition of moving image data, and the pulse wave calculation unit 13 stops calculating the pulse wave of the first person. At this time, if the operation of at least one of the face detection section 11 and the face direction determination section 12 has been set in advance to be stopped for an image in the moving image, the imaging section 2 acquires the moving image data. Then, the pulse wave calculation unit 13 can calculate the pulse wave of the first person.

このように、生体情報取得装置10は、様々な構成で実現することができる。 In this way, the biological information acquisition device 10 can be realized with various configurations.

〔実施形態3〕
実施形態3について、図11、図12を用いて以下に説明する。説明の便宜上、実施形態1、2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Embodiment 3 will be described below using FIGS. 11 and 12. For convenience of explanation, members having the same functions as those described in Embodiments 1 and 2 will be denoted by the same reference numerals, and the description thereof will not be repeated.

図11は、本実施形態に係る、生体情報取得装置10を備えた端末装置15の要部構成図である。端末装置15は、撮像部2、生体情報取得装置10、通知部5、及びメモリ6を備える。 FIG. 11 is a configuration diagram of main parts of a terminal device 15 including the biological information acquisition device 10 according to the present embodiment. The terminal device 15 includes an imaging section 2, a biological information acquisition device 10, a notification section 5, and a memory 6.

通知部5は、顔方向判定部12の判定結果に基づく通知を行う。通知部5は、例えば、(1)ディスプレイ(例えば、液晶画面または有機EL画面)、(2)音発生装置(例えば、スピーカ)、(3)光発生装置(例えば、LEDライト)、(4)振動発生装置(例えば、バイブレータ)である。通知部5は、上記(1)~(4)の組み合わせにより構成されてもよい。 The notification unit 5 provides notification based on the determination result of the face direction determination unit 12. The notification unit 5 includes, for example, (1) a display (e.g., a liquid crystal screen or an organic EL screen), (2) a sound generator (e.g., a speaker), (3) a light generator (e.g., an LED light), (4) A vibration generator (eg, a vibrator). The notification unit 5 may be configured by a combination of the above (1) to (4).

端末装置15のユーザが、第1の方向を把握できない場合が考えられる。そのような場合、通知部5は、上記(1)~(4)の少なくとも一つを用いて、第1の方向をユーザに通知することができる。 There may be a case where the user of the terminal device 15 cannot grasp the first direction. In such a case, the notification unit 5 can notify the user of the first direction using at least one of the above (1) to (4).

また、ユーザは、第1の方向を向いたときに、端末装置15のディスプレイが見えない場合も考えられる。そのような場合、ユーザは、第1の方向を向いているのか、撮像部2が画像(動画像)の撮像をしているのか、ディスプレイを通して把握することができない。そのような場合、通知部5は、例えば上記(2)~(4)の方法によってユーザの置かれている状況をユーザに通知することができる。 Furthermore, there may be a case where the user cannot see the display of the terminal device 15 when facing in the first direction. In such a case, the user cannot see through the display whether the user is facing the first direction or whether the imaging unit 2 is capturing an image (moving image). In such a case, the notification unit 5 can notify the user of the user's current situation, for example, by the methods (2) to (4) above.

例えば、ユーザが第2の方向を向いている場合、ユーザが無理にディスプレイを視ようとすると、脈波算出部13は、ユーザの脈波を正確に算出できない可能性がある。そこで、通知部5は、撮像部2が動画像の取得を完了したタイミングで、動画像の取得が完了したことを音により通知する。これにより、撮像部2が動画像を撮像している間、ユーザは第1の方向を向き続けることができる。 For example, if the user is facing in the second direction and the user tries to force himself to view the display, the pulse wave calculation unit 13 may not be able to accurately calculate the user's pulse wave. Therefore, the notification unit 5 notifies the user that the acquisition of the moving image has been completed at the timing when the imaging unit 2 has completed the acquisition of the moving image. This allows the user to continue facing the first direction while the imaging unit 2 is capturing a moving image.

メモリ6は、撮像部2により撮像された画像(動画像)、またはユーザを識別するための情報などを記録する。メモリ6は、当然に、実施形態1、2に係る端末装置1に含まれてよい。メモリ6は、端末装置1の内部ではなく、端末装置1の外部に設けられてよい。 The memory 6 records images (moving images) captured by the imaging unit 2, information for identifying users, and the like. The memory 6 may naturally be included in the terminal device 1 according to the first and second embodiments. The memory 6 may be provided outside the terminal device 1 instead of inside the terminal device 1 .

図12は、本開示に係る端末装置15の外観図の一例である。端末装置15は、正面カメラ部2a、音発生部5a、及びディスプレイ7を備える。 FIG. 12 is an example of an external view of the terminal device 15 according to the present disclosure. The terminal device 15 includes a front camera section 2a, a sound generating section 5a, and a display 7.

正面カメラ部2aは、撮像部2として使用され、被写体である人物の画像を取得する。 The front camera section 2a is used as an imaging section 2, and obtains an image of a person as a subject.

ディスプレイ7は、撮像部2が撮像した画像(動画像)、又は脈波算出部13が算出した脈波などを表示する。 The display 7 displays an image (moving image) captured by the imaging unit 2, a pulse wave calculated by the pulse wave calculation unit 13, or the like.

音発生部5aは、通知部5として使用され、顔方向判定部12の判定結果に基づく通知を行う。音発生部5aは、顔方向判定部12の判定結果を音によってユーザに通知する。例えば、音発生部5aは、ユーザの顔が第1の方向を向いているとの顔方向判定部12による判定結果を受けて動画像の取得が開始したことを音で通知する。また、音発生部5aは、ユーザの顔が第1の方向を向いていないとの顔方向判定部12による判定結果を受けて音を鳴らし続ける。この場合、顔検出部11の検出結果に基づいて、音発生部5aは、ユーザの顔が検出されていないときにも音を鳴らし続けてもよい。 The sound generating section 5a is used as the notification section 5 and provides notification based on the determination result of the face direction determining section 12. The sound generating section 5a notifies the user of the determination result of the face direction determining section 12 by sound. For example, the sound generation unit 5a notifies by sound that the acquisition of the moving image has started in response to the determination result by the face direction determination unit 12 that the user's face is facing the first direction. Further, the sound generating section 5a continues to emit the sound upon receiving the determination result by the face direction determining section 12 that the user's face is not facing the first direction. In this case, based on the detection result of the face detection section 11, the sound generation section 5a may continue to emit the sound even when the user's face is not detected.

ディスプレイ7は、音発生部5aに代えて、あるいは、音発生部5aとともに上記通知を行ってよい。例えば、ディスプレイ7は、第1の方向を表示する。これにより、ユーザは、第1の方向を容易に把握することができる。 The display 7 may perform the above notification in place of the sound generator 5a or together with the sound generator 5a. For example, the display 7 displays the first direction. This allows the user to easily understand the first direction.

このように、通知部5は、様々な方法でユーザに各種通知をすることができる。通知部5は、撮像部2が動画像の取得を完了したタイミング、または、脈波算出部13が脈波の算出を終了したタイミングで、その旨をユーザに通知してよい。 In this way, the notification unit 5 can provide various notifications to the user using various methods. The notification unit 5 may notify the user of this at the timing when the imaging unit 2 completes acquisition of the moving image or at the timing when the pulse wave calculation unit 13 finishes calculating the pulse wave.

このように、通知部5は、撮像部2、顔検出部11、顔方向判定部12、及び脈波算出部13のうち少なくとも何れかの動作状態をユーザに通知することができる。 In this way, the notification section 5 can notify the user of the operating state of at least one of the imaging section 2, the face detection section 11, the face direction determination section 12, and the pulse wave calculation section 13.

生体情報取得装置10は、人物の生体情報を取得するものとして説明した。しかしながら、生体情報取得装置10は、同様の方法で、人間以外の生体情報を取得してもよい。従って、「被写体」には人間以外の動物も含まれてよい。 The biometric information acquisition device 10 has been described as one that acquires biometric information of a person. However, the biometric information acquisition device 10 may also acquire biometric information about people other than humans using a similar method. Therefore, "subject" may include animals other than humans.

〔ソフトウェアによる実現例〕
生体情報取得装置10の制御ブロック(特に顔検出部11、顔方向判定部12、及び脈波算出部13)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of implementation using software]
The control blocks of the biological information acquisition device 10 (particularly the face detection section 11, face direction determination section 12, and pulse wave calculation section 13) are realized by a logic circuit (hardware) formed on an integrated circuit (IC chip) or the like. or may be realized by software.

後者の場合、生体情報取得装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the biological information acquisition device 10 includes a computer that executes instructions of a program that is software that implements each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium storing the above program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present disclosure. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, in addition to "non-temporary tangible media" such as ROM (Read Only Memory), tapes, disks, cards, semiconductor memories, programmable logic circuits, etc. can be used. Further, the computer may further include a RAM (Random Access Memory) for expanding the above program. Furthermore, the program may be supplied to the computer via any transmission medium (communication network, broadcast waves, etc.) that can transmit the program. Note that one aspect of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present disclosure is not limited to the embodiments described above, and various changes can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. are also included within the technical scope of the present disclosure. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

1、15 端末装置
2 撮像部
2a 正面カメラ部
5 通知部
5a 音発生部
6 メモリ
7 ディスプレイ
10 生体情報取得装置
11 顔検出部
12 顔方向判定部
13 脈波算出部(算出部)
1, 15 Terminal device 2 Imaging section 2a Front camera section 5 Notification section 5a Sound generation section 6 Memory 7 Display 10 Biological information acquisition device 11 Face detection section 12 Face direction determination section 13 Pulse wave calculation section (calculation section)

Claims (16)

生体情報を取得する生体情報取得装置であって、
撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、
上記顔検出部により検出された上記第1の被写体の顔が上記生体情報を取得するのに適した方向である第1の方向を向いているかを判定する顔方向判定部と、
上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備え、
上記第2の画像に含まれる、上記第1の被写体とは異なる第2の被写体の顔が最も大きい顔であることを上記顔検出部が検出した場合に、上記撮像部による上記第2の画像の連続的な撮像を停止させる、生体情報取得装置。
A biological information acquisition device that acquires biological information,
a face detection unit that detects the largest face of the first subject among the faces of the one or more subjects included in the first image captured by the imaging unit;
a face direction determination unit that determines whether the face of the first subject detected by the face detection unit is facing a first direction that is a direction suitable for acquiring the biometric information;
When the face direction determining unit determines that the face of the first subject is facing in the first direction, a second image different from the first image, which is captured by the imaging unit, is a calculation unit that calculates biometric information of the first subject,
When the face detection unit detects that the face of a second subject different from the first subject included in the second image is the largest face, the second image by the imaging unit A biological information acquisition device that stops continuous imaging.
生体情報を取得する生体情報取得装置であって、
撮像部に撮像された第1の画像に含まれる1以上の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、
上記顔検出部により検出された上記第1の被写体の顔が上記生体情報を取得するのに適した方向である第1の方向を向いているかを判定する顔方向判定部と、
上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備え、
上記第1の方向は、上記第1の被写体と予め対応付けられている、生体情報取得装置。
A biological information acquisition device that acquires biological information,
a face detection unit that detects the largest face of the first subject among the faces of the one or more subjects included in the first image captured by the imaging unit;
a face direction determination unit that determines whether the face of the first subject detected by the face detection unit is facing a first direction that is a direction suitable for acquiring the biometric information;
When the face direction determining unit determines that the face of the first subject is facing in the first direction, a second image different from the first image, which is captured by the imaging unit, is a calculation unit that calculates biometric information of the first subject;
The first direction is a biological information acquisition device that is previously associated with the first subject.
上記撮像部が上記第2の画像を連続的に撮像している間に上記第1の被写体の顔が上記第1の方向とは異なる第2の方向を向いていると上記顔方向判定部が判定した場合に、上記撮像部による上記第2の画像の撮像を停止させる、請求項1または2に記載の生体情報取得装置。 If the face of the first subject is facing in a second direction different from the first direction while the imaging unit is continuously capturing the second images, the face direction determination unit The biological information acquisition device according to claim 1 or 2 , wherein when the determination is made, the imaging of the second image by the imaging unit is stopped. 上記算出部は、上記撮像部による上記第2の画像の撮像開始と同時、又は、上記撮像部による上記第2の画像の撮像終了後に上記生体情報を算出する、請求項1からの何れか1項に記載の生体情報取得装置。 Any one of claims 1 to 3 , wherein the calculation unit calculates the biological information at the same time as the imaging unit starts capturing the second image, or after the imaging unit finishes capturing the second image. The biological information acquisition device according to item 1. 上記顔検出部および上記顔方向判定部の少なくとも何れか一方は、上記撮像部が上記第2の画像を撮像している間に動作を停止する、請求項1からの何れか1項に記載の生体情報取得装置。 5. At least one of the face detection section and the face direction determination section stops operating while the imaging section is capturing the second image. biological information acquisition device. 上記算出部は、上記第1の被写体の顔の向きに応じて、上記生体情報を取得する上記第1の被写体の身体の部位を変更する、請求項1からの何れか1項に記載の生体情報取得装置。 The calculation unit according to any one of claims 1 to 5 , wherein the calculation unit changes the body part of the first subject from which the biometric information is to be acquired, depending on the orientation of the first subject's face. Biological information acquisition device. 上記第1の方向は、上記撮像部と正対する方向、上記画像の縦方向を軸とした水平方向の角度、及び、上記画像の横方向を軸とした垂直方向の角度のうちの何れか一つにより規定される、請求項1からの何れか1項に記載の生体情報取得装置。 The first direction is any one of a direction facing the imaging unit, a horizontal angle with the vertical direction of the image as the axis, and a vertical angle with the horizontal direction of the image as the axis. The biological information acquisition device according to any one of claims 1 to 6 , defined by: 上記第1の方向は、(1)上記生体情報の種類、(2)上記第1の被写体の、上記生体情報を取得する身体の部位、及び、(3)上記生体情報を取得する被写体、のうちの少なくとも何れか一つに応じて変更される、請求項1からの何れか1項に記載の生体情報取得装置。 The first direction includes (1) the type of the biometric information, (2) the body part of the first subject from which the biometric information is to be obtained, and (3) the subject from which the biometric information is to be captured. The biological information acquisition device according to any one of claims 1 to 7 , wherein the biological information acquisition device is changed according to at least one of them. 上記生体情報は、脈波、脈拍数、及び血圧のうちの少なくとも一つを含む、請求項1からの何れか1項に記載の生体情報取得装置。 The biological information acquisition device according to any one of claims 1 to 8 , wherein the biological information includes at least one of a pulse wave, a pulse rate, and a blood pressure. 生体情報を取得する端末装置であって、
第1の画像及び第2の画像を撮像する撮像部と、
上記第1の画像に含まれる複数の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、
上記顔検出部により検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する顔方向判定部と、
上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備え
上記第2の画像に含まれる、上記第1の被写体とは異なる第2の被写体の顔が最も大きい顔であることを上記顔検出部が検出した場合に、上記撮像部による上記第2の画像の連続的な撮像を停止させる、端末装置。
A terminal device that acquires biometric information,
an imaging unit that captures a first image and a second image;
a face detection unit that detects the face of the first subject that is the largest among the faces of the plurality of subjects included in the first image;
a face direction determination unit that determines whether the face of the first subject detected by the face detection unit is facing a first direction suitable for acquiring the biological information;
a calculation unit that calculates biometric information of the first subject from the second image when the face direction determination unit determines that the face of the first subject is facing the first direction; Equipped with
When the face detection unit detects that the face of a second subject different from the first subject included in the second image is the largest face, the second image by the imaging unit A terminal device that stops continuous imaging .
生体情報を取得する端末装置であって、
第1の画像及び第2の画像を撮像する撮像部と、
上記第1の画像に含まれる複数の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する顔検出部と、
上記顔検出部により検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する顔方向判定部と、
上記第1の被写体の顔は上記第1の方向を向いていると上記顔方向判定部が判定した場合に、上記第2の画像から上記第1の被写体の生体情報を算出する算出部と、を備え
上記第1の方向は、上記第1の被写体と予め対応付けられている、端末装置。
A terminal device that acquires biometric information,
an imaging unit that captures a first image and a second image;
a face detection unit that detects the face of the first subject that is the largest among the faces of the plurality of subjects included in the first image;
a face direction determination unit that determines whether the face of the first subject detected by the face detection unit is facing a first direction suitable for acquiring the biological information;
a calculation unit that calculates biometric information of the first subject from the second image when the face direction determination unit determines that the face of the first subject is facing the first direction; Equipped with
A terminal device in which the first direction is associated with the first subject in advance .
上記撮像部、上記顔検出部、上記顔方向判定部、及び上記算出部のうち少なくとも何れかの動作状態をユーザに通知する通知部を備える、請求項10または11に記載の端末装置。 The terminal device according to claim 10 or 11 , further comprising a notification section that notifies a user of the operating state of at least one of the imaging section, the face detection section, the face direction determination section, and the calculation section. 生体情報を取得する生体情報取得方法であって、
撮像部に撮像された第1の画像に含まれる複数の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する検出ステップと、
上記検出ステップにて検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する判定ステップと、
上記第1の被写体の顔は上記第1の方向を向いていると上記判定ステップにて判定された場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出ステップと、を含み
上記第2の画像に含まれる、上記第1の被写体とは異なる第2の被写体の顔が最も大きい顔であることを上記検出ステップで検出した場合に、上記撮像部による上記第2の画像の連続的な撮像を停止させる、生体情報取得方法。
A biological information acquisition method for acquiring biological information, the method comprising:
a detection step of detecting the largest face of the first subject among the faces of the plurality of subjects included in the first image captured by the imaging unit;
a determining step of determining whether the face of the first subject detected in the detecting step is facing a first direction suitable for acquiring the biological information;
If it is determined in the determination step that the face of the first subject is facing the first direction, a second image different from the first image, which is captured by the imaging unit, is a calculation step of calculating biological information of the first subject ,
When it is detected in the detection step that the face of a second subject different from the first subject included in the second image is the largest face, the imaging unit detects that the face of the second subject is the largest face. A biological information acquisition method that stops continuous imaging .
生体情報を取得する生体情報取得方法であって、
撮像部に撮像された第1の画像に含まれる複数の被写体の顔のうち、最も大きく写った、第1の被写体の顔を検出する検出ステップと、
上記検出ステップにて検出された上記第1の被写体の顔が上記生体情報の取得に適した第1の方向を向いているかを判定する判定ステップと、
上記第1の被写体の顔は上記第1の方向を向いていると上記判定ステップにて判定された場合に、上記撮像部により撮像された、上記第1の画像とは異なる第2の画像から上記第1の被写体の生体情報を算出する算出ステップと、を含み
上記第1の方向は、上記第1の被写体と予め対応付けられている、生体情報取得方法。
A biological information acquisition method for acquiring biological information, the method comprising:
a detection step of detecting the largest face of the first subject among the faces of the plurality of subjects included in the first image captured by the imaging unit;
a determining step of determining whether the face of the first subject detected in the detecting step is facing a first direction suitable for acquiring the biological information;
If it is determined in the determination step that the face of the first subject is facing the first direction, a second image different from the first image, which is captured by the imaging unit, is a calculation step of calculating biological information of the first subject ,
In the biological information acquisition method , the first direction is associated with the first subject in advance .
請求項1からの何れか1項に記載の生体情報取得装置としてコンピュータを機能させるための生体情報取得プログラムであって、上記顔検出部、上記顔方向判定部、および上記算出部としてコンピュータを機能させるための生体情報取得プログラム。 A biological information acquisition program for causing a computer to function as the biological information acquisition device according to any one of claims 1 to 9 , wherein the computer functions as the face detection section, the face direction determination section, and the calculation section. Biometric information acquisition program for functioning. 請求項15に記載の生体情報取得プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the biological information acquisition program according to claim 15 is recorded.
JP2019225919A 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium Active JP7443044B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019225919A JP7443044B2 (en) 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium
CN202011455886.0A CN112971712A (en) 2019-12-13 2020-12-10 Biological information acquisition device, terminal device, acquisition method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225919A JP7443044B2 (en) 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2021096537A JP2021096537A (en) 2021-06-24
JP7443044B2 true JP7443044B2 (en) 2024-03-05

Family

ID=76344944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225919A Active JP7443044B2 (en) 2019-12-13 2019-12-13 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Country Status (2)

Country Link
JP (1) JP7443044B2 (en)
CN (1) CN112971712A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185967A1 (en) 2021-03-05 2022-09-09 凸版印刷株式会社 Distance image capturing device and distance image capturing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049854A (en) 2003-07-15 2005-02-24 Omron Corp Object decision device and imaging device
JP2005218507A (en) 2004-02-03 2005-08-18 Tama Tlo Kk Method and apparatus for measuring vital sign
JP2009044461A (en) 2007-08-08 2009-02-26 Canon Inc Image processor, imaging apparatus and image processing method
JP2014198201A (en) 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP2018008039A (en) 2016-06-30 2018-01-18 パナソニックIpマネジメント株式会社 Biological information detection device
JP2018068720A (en) 2016-10-31 2018-05-10 三星電子株式会社Samsung Electronics Co.,Ltd. Pulse detector and pulse detection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017085895A1 (en) * 2015-11-20 2017-05-26 富士通株式会社 Information processing device, information processing method, and information processing program
CN105989357A (en) * 2016-01-18 2016-10-05 合肥工业大学 Human face video processing-based heart rate detection method
CN106377241B (en) * 2016-08-30 2019-05-03 苏州涵轩信息科技有限公司 A kind of palmus detection system and the method for obtaining heartbeat change curve

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049854A (en) 2003-07-15 2005-02-24 Omron Corp Object decision device and imaging device
JP2005218507A (en) 2004-02-03 2005-08-18 Tama Tlo Kk Method and apparatus for measuring vital sign
JP2009044461A (en) 2007-08-08 2009-02-26 Canon Inc Image processor, imaging apparatus and image processing method
JP2014198201A (en) 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP2018008039A (en) 2016-06-30 2018-01-18 パナソニックIpマネジメント株式会社 Biological information detection device
JP2018068720A (en) 2016-10-31 2018-05-10 三星電子株式会社Samsung Electronics Co.,Ltd. Pulse detector and pulse detection method

Also Published As

Publication number Publication date
JP2021096537A (en) 2021-06-24
CN112971712A (en) 2021-06-18

Similar Documents

Publication Publication Date Title
US9750420B1 (en) Facial feature selection for heart rate detection
US9600993B2 (en) Method and system for behavior detection
US9697415B2 (en) Recording medium, image processing method, and information terminal
US20210319585A1 (en) Method and system for gaze estimation
JP2000163196A (en) Gesture recognizing device and instruction recognizing device having gesture recognizing function
JP2014039617A (en) Visual axis detection device and visual axis detection method
JPWO2014125831A1 (en) Electronic mirror device
JP2018196730A (en) Method and system for monitoring eye position
EP4095744A1 (en) Automatic iris capturing method and apparatus, computer-readable storage medium, and computer device
JP2006319610A (en) Camera
CN109478227A (en) Calculate the iris in equipment or the identification of other physical feelings
KR101851099B1 (en) Method and System for Preventing Software-based Forward Head Posture Using Image Processing and Machine Learning
JPWO2018078857A1 (en) Gaze estimation apparatus, gaze estimation method, and program recording medium
JP7443044B2 (en) Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium
JP2019145011A (en) Operation determination device and operation determination method
CN114983338A (en) Skin detection method and electronic equipment
RU2709185C1 (en) Image capturing
EP4300412A1 (en) Biometric authentication system, authentication terminal, and authentication method
KR100686517B1 (en) Method For Modeling Pupil Shape
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2006079533A (en) Information processor, information processing method, and computer program
US20220240865A1 (en) Video based detection of pulse waveform
WO2023112930A1 (en) Image processing device, terminal, and monitoring method
JP4687097B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP2024024307A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150