KR20210013793A - Deception detection method using biometric information - Google Patents

Deception detection method using biometric information Download PDF

Info

Publication number
KR20210013793A
KR20210013793A KR1020190091422A KR20190091422A KR20210013793A KR 20210013793 A KR20210013793 A KR 20210013793A KR 1020190091422 A KR1020190091422 A KR 1020190091422A KR 20190091422 A KR20190091422 A KR 20190091422A KR 20210013793 A KR20210013793 A KR 20210013793A
Authority
KR
South Korea
Prior art keywords
talker
statement
target
value
lie detection
Prior art date
Application number
KR1020190091422A
Other languages
Korean (ko)
Other versions
KR102350068B1 (en
Inventor
김인영
육순현
김주영
유승민
김영명
남보름
김지윤
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020190091422A priority Critical patent/KR102350068B1/en
Publication of KR20210013793A publication Critical patent/KR20210013793A/en
Application granted granted Critical
Publication of KR102350068B1 publication Critical patent/KR102350068B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/164Lie detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • G06K9/00268
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Dermatology (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)

Abstract

Disclosed is a method for detecting deception using biometric information such as a voice, face image, and thermal image. The method comprises the steps of: generating first training data including feature values extracted from voice data of a speaker, who is a target for deception detection; further learning an artificial neural network learned through second training using the first training data; and detecting whether a target voice is false by inputting a target feature value extracted from the target voice of the speaker into the artificial neural network.

Description

생체 정보를 이용하는 거짓말 탐지 방법{DECEPTION DETECTION METHOD USING BIOMETRIC INFORMATION}Lie detection method using biometric information {DECEPTION DETECTION METHOD USING BIOMETRIC INFORMATION}

본 발명은 생체 정보를 이용하는 거짓말 탐지 방법에 관한 것으로서, 더욱 상세하게는 음성, 얼굴 영상 및 열화상 영상을 이용하는 거짓말 탐지 방법에 관한 것이다.The present invention relates to a lie detection method using biometric information, and more particularly, to a lie detection method using voice, face image, and thermal image.

일반적인 거짓말 탐지 방법은, 센서를 피부에 부착하여 GSR(Galvanic Skin Response, 피부전기반사), ECG(electrocardiogram, 심전도), PPG(photoplethysmogram, 맥파)를 측정하여 거짓말을 탐지하는 방법이다. A common lie detection method is a method of detecting lies by attaching a sensor to the skin and measuring GSR (Galvanic Skin Response), ECG (electrocardiogram, electrocardiogram), and PPG (photoplethysmogram, pulse wave).

거짓말 탐지 대상의 답변은 “아니오”로 통일되며, 답변시 신호의 변화를 통하여 거짓말 여부가 판단된다.The answer of the subject of lie detection is unified as “no”, and when the answer is answered, whether or not a lie is determined through a change in signal.

센서를 피부에 부착하여 거짓말을 탐지하는 방법의 경우, 피부에 부착되는 각종 센서가 매우 민감하기 때문에, 거짓말 탐지 대상의 움직임 그리고 거짓말 탐지 장소에 제약이 있다. 따라서, 시간과 장소에 구애받지 않고 필요에 따라 거짓말 탐지를 수행하는데 어려움이 있다.In the case of a method of detecting a lie by attaching a sensor to the skin, since various sensors attached to the skin are very sensitive, there are restrictions on the movement of the lie detection target and the location of the lie detection. Therefore, it is difficult to perform lie detection as needed regardless of time and place.

이러한 제약을 극복하기 위해, 최근에는 영상이나 음성을 이용하여, 거짓말 탐지 대상에 대해 비접촉 방식으로 거짓말을 탐지할 수 있는 다양한 방법들이 개발되고 있다.In order to overcome this limitation, in recent years, various methods for detecting a lie in a non-contact manner for a lie detection target have been developed using video or audio.

관련 선행문헌으로 대한민국 공개특허 제2012-0066275호, 제2018-0112303호, 대한민국 등록특허 제10-1784058호가 있다.Related prior documents include Korean Patent Application Publication Nos. 2012-0066275, 2018-0112303, and Korean Patent Registration No. 10-1784058.

본 발명은 거짓말 탐지 대상과 접촉함이 없이, 거짓말을 탐지할 수 있는 방법을 제공하기 위한 것이다.The present invention is to provide a method capable of detecting a lie without contacting a lie detection object.

또한 본 발명은 거짓말을 할 경우 발생하는 인지부조화에 의한 음성의 변화, 표정 변화 및 혈류량의 변화를 이용하여 거짓말을 탐지할 수 있는 방법을 제공하기 위한 것이다.In addition, the present invention is to provide a method for detecting lies by using changes in voice, facial expression, and blood flow due to cognitive dissonance that occur when lying.

또한 본 발명은 인공 신경망을 이용하여 거짓말을 탐지할 수 있는 방법을 제공하기 위한 것이다.In addition, the present invention is to provide a method for detecting lies using an artificial neural network.

상기한 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 거짓말 탐지 대상인 발화자의 음성 데이터로부터 추출된 특징값을 포함하는 제1훈련 데이터를 생성하는 단계; 상기 제1훈련 데이터를 이용하여, 제2훈련 데이터를 통해 학습된 인공 신경망을 추가로 학습하는 단계; 및 상기 발화자의 타겟 음성으로부터 추출된 타겟 특징값을 상기 인공 신경망에 입력하여, 상기 타겟 음성에 대한 거짓 여부를 탐지하는 단계를 포함하는 음성을 이용하는 거짓말 탐지 방법이 제공된다.According to an embodiment of the present invention for achieving the above object, there is provided a method comprising: generating first training data including feature values extracted from voice data of a talker who is a lie detection target; Additionally learning an artificial neural network learned through second training data by using the first training data; And detecting whether the target voice is false by inputting a target feature value extracted from the target voice of the talker into the artificial neural network.

또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 랜드마크가 표시된 얼굴 영상을 포함하는 제1훈련 데이터를 이용하여, 제1인공 신경망을 학습하는 단계; 상기 제1인공 신경망을 이용하여, 거짓말 탐지 대상인 발화자의 타겟 얼굴 영상에서 랜드마크를 예측하는 단계; 및 미리 학습된 제2인공 신경망을 이용하여, 상기 예측된 랜드마크의 움직임에 따른 상기 발화자의 거짓 진술 여부를 판단하는 단계를 포함하는 얼굴 영상을 이용하는 거짓말 탐지 방법이 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, the step of learning a first artificial neural network by using first training data including a face image marked with a landmark; Predicting a landmark in a target face image of a talker who is a lie detection target using the first artificial neural network; And determining whether or not the talker has a false statement according to the predicted movement of the landmark by using a pre-learned second artificial neural network.

또한 상기한 목적을 달성하기 위한 본 발명의 또 다른 실시예에 따르면, 랜드마크가 표시된 열화상 얼굴 영상을 포함하는 제1훈련 데이터를 이용하여, 제1인공 신경망을 학습하는 단계; 상기 제1인공 신경망을 이용하여, 거짓말 탐지 대상인 발화자의 타겟 열화상 얼굴 영상에서 랜드마크를 예측하는 단계; 상기 예측된 랜드마크를 이용하여, 상기 타겟 열화상 얼굴 영상을 복수의 관심 영역으로 분할하는 단계; 및 상기 발화자에 대한 상기 관심 영역에서 추출된 타겟 특징값을 미리 학습된 제2인공 신경망에 입력하여, 상기 발화자의 진술에 대한 거짓 여부 또는 거짓 진술 의도를 탐지하는 단계를 포함하는 열화상 영상을 이용하는 거짓말 탐지 방법이 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, by using the first training data including a thermal image face image marked with a landmark, learning a first artificial neural network; Predicting a landmark in a target thermal image of a talker who is a lie detection target using the first artificial neural network; Dividing the target thermal image face image into a plurality of regions of interest by using the predicted landmark; And inputting a target feature value extracted from the region of interest for the talker into a pre-learned second artificial neural network to detect whether or not the talker's statement is false or intention to make a false statement. A lie detection method is provided.

본 발명에 따르면, 거짓말 탐지 대상에 대한 비접촉 방식으로, 거짓말을 탐지할 수 있다.According to the present invention, lies can be detected in a non-contact method with respect to a lie detection target.

또한 본 발명에 따르면, 학습용 발화자뿐만 아니라, 거짓말 탐지 대상인 발화자의 음성 데이터를 이용하여 인공 신경망을 추가로 학습하여, 거짓말 탐지 대상인 발화자의 개인 음성 특성을 인공 신경망에 반영함으로써, 거짓말 탐지 성능을 높일 수 있다. In addition, according to the present invention, an artificial neural network is additionally learned using voice data of not only the learner, but also the talker who is a lie detection target, and reflects the personal voice characteristics of the talker, which is a lie detection target, to the artificial neural network, thereby improving lie detection performance. have.

또한 본 발명에 따르면, 발화자의 표정 변화를 이용하여 발화자의 거짓말을 탐지할 수 있을 뿐만 아니라, 의도적으로 표정 변화를 숨기는 발화자의 미세 표정을 이용하여 발화자의 거짓말을 탐지할 수 있다.In addition, according to the present invention, not only can the talker's lies be detected using the talker's facial expression change, but also the talker's lies can be detected using the talker's fine expressions that intentionally hide the expression change.

또한 본 발명에 따르면, 발화자의 얼굴 혈류량 변화를 이용하여 발화자의 단답형 진술에 대한 거짓 여부를 탐지할 수 있을 뿐만 아니라, 거짓말을 탐지할 수 있을 뿐만 아니라, 발화자의 장문 진술에 대한 거짓 진술 의도를 탐지할 수 있다.In addition, according to the present invention, not only can detect whether or not the speaker's short-answer statement is false by using the change of the talker's facial blood flow, but also can detect the lie, and also detect the intention of false statement about the speaker's long statement. can do.

도 1은 본 발명의 일실시예에 따른 생체 정보를 이용하는 거짓말 탐지 장치를 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 음성을 이용하는 거짓말 탐지 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 제1훈련 데이터 생성 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른 얼굴 영상을 이용하는 거짓말 탐지 방법을 설명하기 위한 도면이다.
도 5는 랜드마크가 표시된 샘플 얼굴 영상을 도시하는 도면이다.
도 6은 본 발명의 일실시예에 따른 열화상 영상을 이용하는 거짓말 탐지 방법을 설명하기 위한 도면이다.
도 7은 예측된 랜드마크가 표시된 타겟 열화상 얼굴 영상을 도시하는 도면이다.
도 8은 관심 영역이 표시된 타겟 열화상 얼굴 영상을 도시하는 도면이다.
1 is a diagram illustrating a lie detection apparatus using biometric information according to an embodiment of the present invention.
2 is a view for explaining a lie detection method using voice according to an embodiment of the present invention.
3 is a diagram illustrating a method of generating first training data according to an embodiment of the present invention.
4 is a diagram illustrating a lie detection method using a face image according to an embodiment of the present invention.
5 is a diagram illustrating a sample face image in which a landmark is displayed.
6 is a view for explaining a lie detection method using a thermal image according to an embodiment of the present invention.
7 is a diagram illustrating a face image of a target thermal image on which a predicted landmark is displayed.
8 is a diagram illustrating a target thermal image face image in which an ROI is displayed.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 생체 정보를 이용하는 거짓말 탐지 장치를 설명하기 위한 도면이다.1 is a diagram illustrating a lie detection apparatus using biometric information according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시에에 따른 거짓말 탐지 장치는 생체 정보 생성부(110) 및 거짓말 판단부(120)를 포함한다.Referring to FIG. 1, a lie detection apparatus according to an embodiment of the present invention includes a biometric information generation unit 110 and a lie determination unit 120.

생체 정보 처리부(110)는 로 데이터(raw data) 형태의 생체 정보를 처리하여, 거짓말 탐지에 필요한 생체 정보를 추출한다. 로 데이터는 관리자의 질문에 대답하는 거짓말 탐지 대상에 대한 음성 데이터, 얼굴 영상을 포함할 수 있으며, 얼굴 영상은 RGB 영상 또는 열화상 영상일 수 있다. The biometric information processing unit 110 extracts biometric information necessary for lie detection by processing biometric information in the form of raw data. The raw data may include voice data and a face image of a lie detection target answering the administrator's question, and the face image may be an RGB image or a thermal image.

사람이 거짓말을 할 경우, 인지부조화에 의해 음성 변화, 표정 변화, 혈류량 변화가 발생하며, 본 발명의 일실시예는 이러한 음성 변화, 표정 변화 및 혈류량 변화를, 거짓말 탐지를 위한 생체 정보로 이용한다. 생체 정보 처리부(110)는 음성 데이터 및 얼굴 영상으로부터 이러한 생체 정보를 추출한다.When a person lies, a change in voice, a change in facial expression, and a change in blood flow occur due to cognitive dissonance, and an embodiment of the present invention uses the change in voice, facial expression, and blood flow as biometric information for lie detection. The biometric information processing unit 110 extracts such biometric information from voice data and face images.

일실시예에 따르면, 생체 정보 처리부(110)는 거짓말 탐지 대상인 발화자의 음성 데이터로부터, 음성 변화를 나타내는 특징값을 추출하며, 특징값은 피치값(pitch), 세기값(intensity), 지터값(zitter), 시머값(shimmer), MFCC(Mel-Frequency Cepstral Coefficient) 계수 중 적어도 하나를 포함할 수 있다. 이러한 특징값들은 음성 분석을 위해 자주 이용되는 특징값으로서, 생체 정보 처리부(110)는 공개된 다양한 알고리즘을 이용하여 이러한 특징값을 추출할 수 있다. According to an embodiment, the biometric information processing unit 110 extracts a feature value representing a voice change from voice data of a talker who is a lie detection target, and the feature values include a pitch value, an intensity value, and a jitter value ( zitter), a shimmer, and a Mel-Frequency Cepstral Coefficient (MFCC) coefficient. These feature values are feature values that are frequently used for speech analysis, and the biometric information processing unit 110 may extract these feature values using various published algorithms.

다른 실시예에 따르면, 생체 정보 처리부(110)는 거짓말 탐지 대상인 발화자의 얼굴 영상에서 표정 변화를 나타내는 랜드마크를 추출할 수 있으며, 랜드마크는 눈, 코, 입 등과 같은 얼굴의 특정 부위에 대한 좌표값일 수 있다. 생체 정보 처리부(110)는 미리 학습된 인공 신경망을 이용하여, 얼굴 영상에서 랜드마크를 예측할 수 있다.According to another embodiment, the biometric information processing unit 110 may extract a landmark representing an expression change from a face image of a talker who is a lie detection target, and the landmark is a coordinate for a specific part of the face such as eyes, nose, and mouth. Can be a value. The biometric information processing unit 110 may predict a landmark from a face image using a pre-learned artificial neural network.

또 다른 실시예에 따르면, 생체 정보 처리부(110)는 거짓말 탐지 대상인 발화자의 열화상 얼굴 영상에서 복수의 관심 영역(ROI)을 추적하고, 이러한 관심 영역에서 얼굴의 혈류량 변화를 나타내는 특징값을 추출할 수 있다. 관심 영역은 눈썹, 눈, 코, 입 등을 포함할 수 있으며, 특징값은 관심 영역에 포함된 화소값에 대한 평균값(mean), 최대값(max), 중앙값(median), 표준편차값(standard deviation), 첨도값(kurtosis), 왜도값(skewness) 중 적어도 하나를 포함할 수 있다. 생체 정보 처리부(110)는 미리 학습된 인공 신경망을 이용하여, 열화상 얼굴 영상에서 관심 영역을 예측할 수 있다.According to another embodiment, the biometric information processing unit 110 tracks a plurality of regions of interest (ROIs) from a thermal image of a talker who is a lie detection target, and extracts a feature value representing a change in blood flow of the face from the region of interest. I can. The region of interest may include eyebrows, eyes, nose, and mouth, and the feature values are the mean, maximum, median, and standard deviation values for the pixel values included in the region of interest. deviation), a kurtosis value, and a skewness value. The biometric information processing unit 110 may predict the region of interest in the thermal image of the face using a pre-learned artificial neural network.

거짓말 탐지부(120)는 미리 학습된 인공 신경망을 이용하여, 발화자의 거짓말을 탐지한다. 관리자의 질문에 대해 발화자가 진술을 할 경우, 이러한 진술에 대한 거짓말을 탐지한다. 발화자가 진술하는 동안에 획득된 로 데이터는 생체 정보 처리부(110)에서 처리되며, 처리된 생체 정보는, 인공 신경망으로 입력되고, 인공 신경망은 발화자의 진술을 참 또는 거짓으로 분류한 후, 분류 결과를 출력한다.The lie detection unit 120 detects a lie of a talker using an artificial neural network learned in advance. When the talker makes a statement about the manager's question, a lie about the statement is detected. Raw data obtained while the talker makes a statement is processed by the biometric information processing unit 110, and the processed biometric information is input to an artificial neural network, and the artificial neural network classifies the talker's statement as true or false, and then determines the classification result. Print.

생체 정보 처리부(110) 및 거짓말 탐지부(120)에서 이용되는 인공 신경망은, 일실시예로서 LSTM(Long Short Term Memory) 기반의 인공 신경망일 수 있으며, 실시예에 따라서 이용되는 기계 학습 알고리즘은 달라질 수 있다.The artificial neural network used in the biometric information processing unit 110 and the lie detection unit 120 may be an artificial neural network based on Long Short Term Memory (LSTM) as an embodiment, and the machine learning algorithm used according to the embodiment may vary. I can.

이와 같이, 본 발명의 일실시예는 다양한 센서를 발화자의 피부에 부착하지 않고, 비접촉 상태에서 획득할 수 있는 음성, 얼굴 영상, 열화상 영상을 이용함으로써, 시간과 장소에 구애됨이 없이 거짓말 탐지를 수행할 수 있다.As described above, an embodiment of the present invention uses voice, facial images, and thermal images that can be obtained in a non-contact state without attaching various sensors to the skin of the talker, thereby detecting lies without being restricted to time and place. You can do it.

이하, 음성, 얼굴 영상 및 열화상 영상을 이용하는 거짓말 탐지 방법에 대한 실시예를 보다 구체적으로 설명하기로 한다. 이러한 거짓말 탐지 방법은 프로세서를 포함하는 컴퓨팅 장치에서 수행될 수 있으며, 일예로서 전술된 거짓말 탐지 장치에서 수행될 수 있다.Hereinafter, an embodiment of a lie detection method using voice, face image, and thermal image will be described in more detail. This lie detection method may be performed in a computing device including a processor, and as an example, may be performed in the lie detection apparatus described above.

도 2는 본 발명의 일실시예에 따른 음성을 이용하는 거짓말 탐지 방법을 설명하기 위한 도면이며, 도 3은 본 발명의 일실시예에 따른 제1훈련 데이터 생성 방법을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining a lie detection method using voice according to an embodiment of the present invention, and FIG. 3 is a diagram for explaining a method for generating first training data according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시예에 따른 거짓말 탐지 장치는 거짓말 탐지 대상인 발화자의 음성 데이터로부터 추출된 특징값을 포함하는 제1훈련 데이터를 생성(S210)한다. 제1훈련 데이터에 포함되는 특징값은 피치값, 세기값, 지터값, 시머값, MFCC 중 적어도 하나를 포함하며, 미리 설정된 구간별로 샘플링된 특징값일 수 있다.Referring to FIG. 2, the lie detection apparatus according to an embodiment of the present invention generates first training data including feature values extracted from voice data of a talker who is a lie detection target (S210). The feature value included in the first training data includes at least one of a pitch value, an intensity value, a jitter value, a seamer value, and an MFCC, and may be a feature value sampled for each preset section.

그리고 거짓말 탐지 장치는, 제2훈련 데이터를 통해 학습된 인공 신경망을, 제1훈련 데이터를 이용하여, 추가로 학습(S220)한다. 즉, 인공 신경망은 제2훈련 데이터에 의해 학습된 상태이며, 거짓말 탐지 장치는 이러한 인공 신경망을 제1훈련 데이터를 이용하여, 추가로 학습한다.Then, the lie detection apparatus additionally learns (S220) the artificial neural network learned through the second training data, using the first training data. That is, the artificial neural network is in a state in which it is learned by the second training data, and the lie detection apparatus additionally learns the artificial neural network by using the first training data.

제2훈련 데이터는 제1훈련 데이터와 동일한 특징값을 포함하며, 인공신경망의 학습에 이용되는 학습용 발화자의 진술이 참인 경우와 거짓인 경우 각각에 대한 특징값을 포함한다. 학습용 발화자가 참을 진술할 경우의 음성 데이터로부터 얻어진 특징값이 인공 신경망으로 입력되어 학습이 이루어지며, 이 때 참이 인공신경망에 대한 레이블(label)로 주어진다. 그리고 학습용 발화자가 거짓을 진술할 경우의 음성 데이터로부터 얻어진 특징값이 인공 신경망으로 입력되어 학습이 이루어지며, 이 때 거짓이 인공 신경망에 대한 레이블로 주어진다. The second training data includes the same feature values as the first training data, and includes feature values for each of the case where the statement of the learning talker used for learning of the artificial neural network is true and false. Learning is performed by inputting the feature values obtained from the speech data when the learning talker asserts true to the artificial neural network, and at this time, the true is given as a label for the artificial neural network. In addition, the feature value obtained from the speech data in the case of the learning talker stating false is input to the artificial neural network to perform learning, and the false is given as a label for the artificial neural network.

제2훈련 데이터를 이용하는 학습 과정과 같이, 거짓말 탐지 장치는 제1훈련 데이터를 이용하여, 인공 신경망을 추가로 학습한다. 제1훈련 데이터는 거짓말 탐지 대상인 발화자가 참을 진술한 경우와 거짓을 진술한 각각의 경우에 대한 음성 데이터로부터 추출된 특징값을 포함한다. Like the learning process using the second training data, the lie detection apparatus additionally learns an artificial neural network using the first training data. The first training data includes feature values extracted from voice data for a case where the talker, which is a lie detection target, states true and each case that states false.

단계 S220에서, 거짓말 탐지 장치는 거짓말 탐지 성능을 보다 높이기 위해, 여러 특징값 중에서 학습 효율이 높은 특징값을 선택적으로 이용할 수 있다. 학습 효율이 높은 특징값을 선택하기 위해, 거짓말 탐지 장치는 단계 S220에서, 제1훈련 데이터에 포함되는 특징값의 조합을 이용하여, 인공 신공망을 복수회 학습하고, 복수회 학습된 각각의 결과를 이용하여, 특징값의 조합 중 하나를 선택할 수 있다.In step S220, the lie detection apparatus may selectively use a feature value having high learning efficiency among several feature values in order to further improve the lie detection performance. In order to select a feature value with high learning efficiency, the lie detection apparatus learns the artificial new network a plurality of times using a combination of feature values included in the first training data in step S220, and learns each result a plurality of times. One of the combinations of feature values can be selected by using.

예컨대, 거짓말 탐지 장치는, 5가지 특징값 중 하나가 제외된 4개의 특징값으로 이루어진 여러가지 특징값 조합을 이용하여 인공 신경망을 복수회 학습을 수행하고, 학습 결과 가장 탐지 성능이 우수한 특징값의 조합을 제1훈련 데이터로 이용할 수 있다.For example, the lie detection device learns an artificial neural network multiple times by using various feature value combinations consisting of four feature values excluding one of the five feature values, and a combination of feature values with the best detection performance as a result of learning. Can be used as the first training data.

그리고 거짓말 탐지 장치는 거짓말 탐지 대상인 발화자의 타겟 음성으로부터 추출된 타겟 특징값을 인공 신경망에 입력하여, 타겟 음성에 대한 거짓 여부를 탐지(S230)한다. 단계 S230에서 거짓말 탐지 장치는, 위와 같이 선택된 특징값의 조합에 대응되는 타겟 특징값을 이용하여, 타겟 음성에 대한 거짓 여부를 탐지할 수 있다.Then, the lie detection apparatus inputs a target feature value extracted from the target voice of the talker, which is a lie detection target, into the artificial neural network, and detects whether the target voice is false (S230). In step S230, the lie detection apparatus may detect whether the target voice is false using the target feature value corresponding to the combination of the feature values selected as described above.

인공 신경망은, 제1 및 제2훈련 데이터에서 발화자가 참을 진술한 경우의 특징값과 타겟 특징값이 유사하면 타겟 음성이 참이라고 분류할 수 있으며, 제1 및 제2훈련 데이터에서 발화자가 거짓을 진술한 경우의 특징값과 타겟 특징값이 유사하면, 타겟 음성이 거짓이라고 분류할 수 있다.The artificial neural network can classify the target voice as true if the feature value and the target feature value when the speaker states true in the first and second training data are similar, and the speaker is false in the first and second training data. If the feature value and the target feature value in the case of the statement are similar, the target voice can be classified as false.

본 발명의 일실시예에 따르면, 학습용 발화자뿐만 아니라, 거짓말 탐지 대상인 발화자의 음성 데이터를 이용하여 인공 신경망을 추가로 학습하여, 거짓말 탐지 대상인 발화자의 개인 음성 특성을 인공 신경망에 반영함으로써, 거짓말 탐지 성능을 높일 수 있다. According to an embodiment of the present invention, by additionally learning an artificial neural network using voice data of not only the learner but also the talker who is a lie detection target, and reflects the personal voice characteristics of the talker, which is a lie detection target, to the artificial neural network, lie detection performance Can increase.

한편, 전술된 바와 같이, 제1 및 제2훈련 데이터는 거짓말 탐지 대상인 발화자가 참을 진술한 경우와 거짓을 진술한 각각의 경우에 대한 음성 데이터로부터 추출된 특징값을 포함하는데, 본 발명의 일실시예는, 발화자가 참을 진술한 경우와 거짓을 진술한 경우를 분류하기 위해 피부전기반사값(GSR), 맥파값(PPG), 심전도값(ECG) 중 하나를 이용할 수 있다. On the other hand, as described above, the first and second training data include feature values extracted from voice data for the case where the talker, who is the target of lie detection, states true and each case that states false. For example, one of a precutaneous base dead value (GSR), a pulse wave value (PPG), and an electrocardiogram value (ECG) may be used to classify a case where the talker states true and if the speaker states false.

도 3을 참조하면, 거짓말 탐지 장치는 단계 S310에서, 진술중인 발화자의 피부에 부착된 전극을 통해 획득한 GSR값, PPG값 및 ECG 값중 하나를 수신(S310)하고, 발화자의 진술이 참인지 거짓인지 판단(S320)한다. 거짓말 탐지 장치는 거짓이라고 판단된 진술의 음성 데이터로부터 거짓에 대한 특징값을 생성(S330)하고, 참이라고 판단된 진술의 음성 데이터로부터 참에 대한 특징값을 생성(S340)한다.Referring to FIG. 3, in step S310, the lie detection apparatus receives one of a GSR value, a PPG value, and an ECG value acquired through an electrode attached to the skin of the talker in step S310, and whether the talker's statement is true or false. Whether it is determined (S320). The lie detection apparatus generates a feature value for false from voice data of the statement determined to be false (S330), and generates a feature value for true from voice data of the statement determined to be true (S340).

결국, 제1 및 제2훈련 데이터는 피부전기반사값, 맥파값, 심전도값 중 하나를 이용하여 거짓 또는 참으로 분류된, 거짓말 탐지 대상인 발화자의 음성 데이터의 특징값을 포함할 수 있다.As a result, the first and second training data may include a feature value of voice data of a talker who is a lie detection target, classified as false or true using one of a skin warfare base value, a pulse wave value, and an electrocardiogram value.

도 4는 본 발명의 일실시예에 따른 얼굴 영상을 이용하는 거짓말 탐지 방법을 설명하기 위한 도면이며, 도 5는 랜드마크가 표시된 샘플 얼굴 영상을 도시하는 도면이다.FIG. 4 is a diagram for explaining a lie detection method using a face image according to an embodiment of the present invention, and FIG. 5 is a diagram illustrating a sample face image in which a landmark is displayed.

도 4를 참조하면, 본 발명의 일실시예에 따른 거짓말 탐지 장치는 랜드마크가 표시된 얼굴 영상을 포함하는 제1훈련 데이터를 이용하여, 제1인공 신경망을 학습(S410)한다. 여기서, 얼굴 영상은 RGB 영상일 수 있으며, 실시예에 따라서, 2D 영상이거나, 3D 영상일 수 있다. 또한 음성이 함께 녹음된 영상일 수 있다.Referring to FIG. 4, the lie detection apparatus according to an embodiment of the present invention learns a first artificial neural network (S410) by using first training data including a face image on which a landmark is displayed. Here, the face image may be an RGB image, and may be a 2D image or a 3D image according to embodiments. Also, it may be a video recorded with audio.

도 5와 같이, 랜드마크가 표시된 샘플 얼굴 영상이 제1인공 신경망으로 입력되어 학습이 이루어질 수 있으며, 이후 예측 단계에서 제1인공 신경망은 제1훈련 데이터에 포함된 랜드마크의 위치와 유사한 위치를, 입력된 얼굴 영상에서의, 랜드마크로 예측할 수 있다. 도 5에서 초록색 점이 랜드마크를 나타낸다.As shown in FIG. 5, a sample face image on which a landmark is displayed may be input to the first artificial neural network to perform learning. In the subsequent prediction step, the first artificial neural network determines a position similar to the position of the landmark included in the first training data. , In the input face image, it can be predicted as a landmark. In FIG. 5, a green dot represents a landmark.

다시 도 4로 돌아가, 거짓말 탐지 장치는 제1인공 신경망을 이용하여, 거짓말 탐지 대상인 발화자의 타겟 얼굴 영상에서 랜드마크를 예측(S420)한다. 타겟 얼굴 영상이 제1인공 신경망으로 입력되며, 제1인공 신경망은 학습 결과에 기반하여, 타겟 얼굴 영상에서 랜드마크를 예측할 수 있다.Returning to FIG. 4 again, the lie detection apparatus predicts a landmark in the target face image of the talker, which is a lie detection target, using the first artificial neural network (S420). The target face image is input to the first artificial neural network, and the first artificial neural network may predict a landmark from the target face image based on the learning result.

이 때, 거짓말 탐지 장치는 미리 설정된 프레임 단위로 랜드마크를 예측할 수 있으며, 발화자의 진술 이전 구간, 진술 구간 및 진술 이후 구간의 타겟 얼굴 영상에서 랜드마크를 예측할 수 있다. 진술 이전 구간은 미리 설정된 시점부터, 관리자에 의해 현재 질문이 시작되기 전까지의 구간이며, 진술 구간은 현재 질문에 대한 답변을 발화자가 진술하는 구간에 대응된다. 그리고 진술 이후 구간은 현재 질문 이후 다음 질문이 시작되기 전까지의 구간에 대응된다.In this case, the lie detection apparatus may predict the landmark in units of a preset frame, and may predict the landmark from the target face image in the section before the talker's statement, the statement section, and the section after the statement. The pre-statement section is a section from a preset time point until the current question is started by the administrator, and the statement section corresponds to a section in which the speaker makes an answer to the current question. And the section after the statement corresponds to the section after the current question and before the next question starts.

거짓말 탐지 장치는 영상에 포함된 발화자의 음성을 이용하여, 타겟 얼굴 영상에서 발화자의 진술 구간을 검출할 수 있으며, 진술 구간을 기준으로, 타겟 얼굴 영상에서 진술 이전 구간 및 진술 이후 구간을 검출할 수 있다.The lie detection device can detect the talker's statement section in the target face image by using the talker's voice included in the image, and detect the section before and after the statement in the target face image based on the statement section. have.

랜드마크가 예측되면, 거짓말 탐지 장치는 미리 학습된 제2인공 신경망을 이용하여, 단계 S420에서 예측된 랜드마크의 움직임에 따른 발화자의 거짓 진술 여부를 판단(S430)한다. 랜드마크의 움직임은 발화자의 표정 변화에 대응되며, 결국, 거짓말 탐지 장치는 발화자의 표정 변화를 통해 발화자의 거짓 진술 여부를 판단할 수 있다.When the landmark is predicted, the lie detection apparatus determines whether or not the talker falsely states according to the movement of the landmark predicted in step S420 by using the pre-learned second artificial neural network (S430). The movement of the landmark corresponds to the change of the talker's facial expression, and eventually, the lie detection device may determine whether the talker has a false statement through the change of the talker's expression.

제2인공 신경망의 학습에 이용되는 제2훈련 데이터는, 학습용 발화자가 참을 진술하는 경우와 거짓을 진술하는 각각의 경우에 대한 학습용 발화자의 얼굴 영상의 랜드마크를 포함하며, 진술 이전 구간, 진술 구간 및 진술 이후 구간 별로, 미리 설정된 샘플링 주기에 따라 추출된 시계열적인 랜드마크 좌표값일 수 있다. 학습용 발화자가 참을 진술할 경우의 랜드마크가 제2인공 신경망으로 입력되어 학습이 이루어지며, 이 때, 참이 제2인공 신경망에 대한 레이블로 주어진다. 그리고 학습용 발화자가 거짓을 진술할 경우의 랜드마크가 제2인공 신경망으로 입력되어 학습이 이루어지며, 이 때 거짓이 제2인공 신경망에 대한 레이블로 주어진다. The second training data used for learning of the second artificial neural network includes landmarks of the face image of the learning talker for the case where the learning talker states true and each case where the learning talker states false, and the section before the statement and the statement section And a time series landmark coordinate value extracted according to a preset sampling period for each section after the statement. A landmark in the case of the learning talker stating true is input to the second artificial neural network to perform learning, and at this time, the true is given as a label for the second artificial neural network. In addition, the landmark is inputted to the second artificial neural network when the learning talker makes a false statement, and learning is performed. At this time, the false is given as a label for the second artificial neural network.

예측된 랜드마크는 단계 S430에서 제2인공 신경망으로 입력되며, 학습 과정에서 이용된 제2훈련 데이터에 대응될 수 있도록, 진술 이전 구간, 진술 구간 및 진술 이후 구간 별로 미리 설정된 샘플링 주기에 따라 추출된 시계열적인 랜드마크 좌표값일 수 있다. 거짓말 탐지 장치는 이러한 좌표값의 변화인, 랜드마크의 움직임을 이용하여 발화자의 거짓 진술 여부를 판단할 수 있다.The predicted landmark is input to the second artificial neural network in step S430, and is extracted according to a preset sampling period for each section before the statement, the section after the statement, and the section after the statement so that it can correspond to the second training data used in the learning process. It may be a time series landmark coordinate value. The lie detection apparatus may determine whether or not the talker makes a false statement by using the movement of the landmark, which is the change in coordinate values.

제2인공 신경망은, 학습용 발화자가 참을 진술한 경우의 랜드마크의 움직임 패턴과 예측된 랜드마크의 움직임 패턴이 유사하면, 발화자의 진술을 참인 진술로 분류하고, 학습용 발화자가 거짓을 진술한 경우의 랜드마크의 움직임 패턴과 예측된 랜드마크의 움직임 패턴이 유사하면 발화자의 진술을 거짓인 진술로 분류할 수 있다.The second artificial neural network classifies the speaker's statement as a true statement if the movement pattern of the landmark and the predicted movement pattern of the landmark are similar when the learning talker states that it is true, and when the learning talker makes a false statement. If the movement pattern of the landmark and the predicted movement pattern of the landmark are similar, the speaker's statement can be classified as a false statement.

또는 실시예에 따라서, 제2인공 신경망은, 학습용 발화자가 거짓을 진술한 경우에 대한 진술 이전 구간, 진술 구간 및 진술 이후 구간 별 움직임 패턴과 예측된 랜드마크의 진술 이전 구간, 진술 구간 및 진술 이후 구간 별 움직임 패턴이 유사하면, 발화자의 진술을 거짓으로 분류할 수 있다.Alternatively, according to the embodiment, the second artificial neural network is, in the case where the speaker for learning has made a false statement, the movement pattern of each section before the statement, the statement section, and after the statement, and the section before the statement of the predicted landmark, the statement section and after the statement If the motion patterns for each section are similar, the speaker's statement can be classified as false.

한편, 사람이 거짓말을 할 경우, 인지부조화에 따라 얼굴에는 매우 짧은 시간안에 발생하는 미세한 변화인 미세 표정(micro expression)이 발생할 수 있다. 일반적인 표정과 달리 미세 표정은, 사람이 인지하기 어려운 매우 짧은 시간 동안 발생하며, 무의식적으로 발생하므로, 일반 표정과 달리 사람이 미세 표정을 의도적으로 제어하기 쉽지않다.On the other hand, when a person lies, a micro expression, which is a minute change occurring within a very short time, may occur on the face due to cognitive dissonance. Unlike general facial expressions, fine facial expressions occur for a very short time, which is difficult for humans to recognize, and occur unconsciously, so it is difficult for a person to intentionally control fine facial expressions, unlike normal facial expressions.

본 발명의 다른 실시예에 따른 거짓말 탐지 장치는 단계 S420에서 예측된 랜드마크의 움직임 중에서, 미세 표정에 대응되는 움직임을 이용하여, 발화자의 거짓 진술 여부를 판단할 수 있다.The lie detection apparatus according to another embodiment of the present invention may determine whether the talker has falsely stated by using a movement corresponding to a fine facial expression among the movements of the landmarks predicted in step S420.

이를 위해, 거짓말 탐지 장치는 단계 S430에서, 랜드마크의 예측 결과를 이용하여, 시간 흐름에 따른, 예측된 랜드마크의 좌표값을 생성하고, 생성된 좌표값 중에서, 미세 표정이 발생하는 길이의 시간 구간에서 변화가 발생하는 좌표값을 추출한다. To this end, in step S430, the lie detection apparatus generates a coordinate value of the predicted landmark according to time, using the prediction result of the landmark, and, among the generated coordinate values, the length of time at which a fine expression occurs. The coordinate values where the change occurs in the section is extracted.

일예로서, 전술된 바와 같이, 미리 설정된 샘플링 주기에 따라 추출된 시계열적인 랜드마크 좌표값이 생성되면, 거짓말 탐지 장치는 4~25Hz 대역의 신호를 필터링하는 밴드 패스 필터를 이용하여, 미세 표정이 발생하는 길이의 시간 구간에서 변화가 발생하는 좌표값을 추출할 수 있다.As an example, as described above, when a time-series landmark coordinate value extracted according to a preset sampling period is generated, the lie detection device uses a band pass filter that filters a signal in a 4 to 25 Hz band, and a fine expression is generated. It is possible to extract a coordinate value in which a change occurs in a time interval of a length of time.

그리고 거짓말 탐지 장치는 추출된 좌표값을 제2인공 신경망에 입력하여, 발화자의 거짓 진술 여부를 판단할 수 있다. 물론, 이를 위해, 제2인공 신경망의 학습 과정에서, 미세 표정에 대응되는 랜드마크 좌표값이 이용될 수 있다.In addition, the lie detection apparatus may input the extracted coordinate values into the second artificial neural network to determine whether the talker has falsely stated. Of course, for this, in the learning process of the second artificial neural network, a landmark coordinate value corresponding to a fine expression may be used.

이와 같이, 본 발명의 일실시예에 따르면, 발화자의 표정 변화를 이용하여 발화자의 거짓말을 탐지할 수 있을 뿐만 아니라, 의도적으로 표정 변화를 숨기는 발화자의 미세 표정을 이용하여 발화자의 거짓말을 탐지할 수 있다.As described above, according to an embodiment of the present invention, not only can the talker's lies be detected by using the talker's facial expression change, but also the talker's lies can be detected using the talker's fine expression that intentionally hides the expression change. have.

도 6은 본 발명의 일실시예에 따른 열화상 영상을 이용하는 거짓말 탐지 방법을 설명하기 위한 도면이며, 도 7은 예측된 랜드마크가 표시된 타겟 열화상 얼굴 영상을 도시하는 도면이다. 도 8은 관심 영역이 표시된 타겟 열화상 얼굴 영상을 도시하는 도면이다.6 is a diagram illustrating a lie detection method using a thermal image according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating a target thermal image face image in which a predicted landmark is displayed. 8 is a diagram illustrating a target thermal image face image in which an ROI is displayed.

도 6을 참조하면, 본 발명의 일실시예에 따른 거짓말 탐지 장치는, 랜드마크가 표시된 열화상 얼굴 영상을 포함하는 제1훈련 데이터를 이용하여, 제1인공 신경망을 학습(S610)한다.Referring to FIG. 6, the lie detection apparatus according to an embodiment of the present invention learns a first artificial neural network (S610) by using first training data including a thermal image of a face on which a landmark is displayed.

도 4와 유사하게, 랜드마크가 표시된 샘플 열화상 얼굴 영상이 제1인공 신경망으로 입력되어 학습이 이루어질 수 있으며, 이후 예측 단계에서 제1인공 신경망은 제1훈련 데이터에 포함된 랜드마크의 위치와 유사한 위치를, 입력된 열화상 얼굴 영상에서의, 랜드마크로 예측할 수 있다.Similar to FIG. 4, a sample thermal image of a landmark marked face image may be input to the first artificial neural network to perform learning. In the subsequent prediction step, the first artificial neural network determines the position of the landmark included in the first training data. Similar positions can be predicted as landmarks in the input thermal face image.

거짓말 탐지 장치는 제1인공 신경망을 이용하여, 거짓말 탐지 대상인 발화자의 타겟 열화상 얼굴 영상에서 랜드마크를 예측(S620)한다. 도 7과 같이, 타겟 열화상 얼굴 영상에서 랜드마크가 예측될 수 있으며, 도 7에서 빨간색 점이 예측된 랜드마크를 나타낸다. 타겟 열화상 얼굴 영상이 제1인공 신경망으로 입력되며, 제1인공 신경망은 학습 결과에 기반하여, 타겟 열화상 얼굴 영상에서 랜드마크를 예측할 수 있다.The lie detection apparatus uses a first artificial neural network to predict a landmark in a target thermal image of a talker, which is a lie detection target (S620). As shown in FIG. 7, a landmark may be predicted in the target thermal image face image, and a red dot in FIG. 7 represents the predicted landmark. The target thermal image face image is input to the first artificial neural network, and the first artificial neural network may predict a landmark from the target thermal image face image based on the learning result.

그리고 거짓말 탐지 장치는 단계 S620에서 예측된 랜드마크를 이용하여, 타겟 열화상 얼굴 영상을 복수의 관심 영역으로 분할(S630)한다. 일실시예로서, 거짓말 탐지 장치는 예측된 랜드마크들을 얼굴의 특정 부위 별로 위치한 랜드마크로 분류하고, 분류된 랜드마크를 실선으로 연결하여, 관심 영역을 생성할 수 있다. 따라서, 이러한 관심 영역은 얼굴의 특정 부위에 대응된다. 도 8에 도시된 바와 같이, 관심 영역은 눈썹, 미간, 코, 인중, 턱, 볼 부위에 대응될 수 있다.Then, the lie detection apparatus divides the target thermal image face image into a plurality of regions of interest by using the landmark predicted in step S620 (S630). As an embodiment, the lie detection apparatus may classify the predicted landmarks into landmarks located for each specific part of a face, and generate an ROI by connecting the classified landmarks with a solid line. Thus, this region of interest corresponds to a specific part of the face. As shown in FIG. 8, the region of interest may correspond to the eyebrows, brows, nose, throat, chin, and cheeks.

거짓말 탐지 장치는 단계 S630에서 분할된 관심 영역에서 추출된 타겟 특징값을 미리 학습된 제2인공 신경망에 입력하여, 발화자의 진술에 대한 거짓 여부 또는 거짓 진술 의도를 탐지(S640)한다. 거짓말 탐지 장치는 관심 영역에 포함된 화소값에 대한 평균값, 최대값, 중앙값, 표준편차값, 첨도값, 왜도값 중 적어도 하나를 타겟 특징값으로 추출할 수 있다.The lie detection apparatus inputs the target feature value extracted from the region of interest divided in step S630 into a pre-learned second artificial neural network, and detects whether the talker's statement is false or the intention of false statement (S640). The lie detection apparatus may extract at least one of an average value, a maximum value, a median value, a standard deviation value, a kurtosis value, and a skewness value for a pixel value included in the ROI as a target feature value.

제2인공 신경망의 학습에 이용되는 제2훈련 데이터는, 학습용 발화자가 참을 진술하는 경우와 거짓을 진술하는 각각의 경우에 대한 특징값을 포함하며, 미리 설정된 관심 영역에 대한 특징값을 포함한다. 학습용 발화자가 참을 진술할 경우의 특징값이 제2인공 신경망으로 입력되어 학습이 이루어지며, 이 때 참이 제2인공신경망에 대한 레이블로 주어진다. 그리고 학습용 발화자가 거짓을 진술할 경우의 특징값이 제2인공 신경망으로 입력되어 학습이 이루어지며, 이 때 거짓이 인공 신경망에 대한 레이블로 주어진다. The second training data used for learning of the second artificial neural network includes feature values for a case where the learning talker states true and each case that states false, and includes a preset feature value for a region of interest. When the learning talker states true, the feature value is inputted to the second artificial neural network to perform learning, and at this time, the true is given as a label for the second artificial neural network. In addition, when the learning talker states false, the feature value is inputted to the second artificial neural network to perform learning, and in this case, false is given as a label for the artificial neural network.

이 때, 학습용 발화자의 진술은 단답형 진술이다. 즉, 관리자의 질문에 대해 "아니오"라고 답변하는 진술이며, 이와 같은 단답형 진술을 수행하는 학습용 발화자에 대한 특징값이 제2훈련 데이터로 이용된다.At this time, the statement of the speaker for learning is a short-answer statement. That is, it is a statement that answers "no" to the manager's question, and the feature value for the learning talker who performs such a short-answer statement is used as the second training data.

따라서, 거짓말 탐지 장치는 발화자의 단답형 진술에 대한 거짓 여부를 판단하며, 발화자가 단답형 진술을 수행할 때 획득된 타겟 열화상 얼굴 영상에서 타겟 특징값을 추출하여, 거짓 여부를 판단할 수 있다.Accordingly, the lie detection apparatus may determine whether the talker's short-answer statement is false, and determine whether the talker is false by extracting the target feature value from the target thermal image obtained when the talker performs the short-answer statement.

제2인공 신경망은, 제2훈련 데이터에서 발화자가 참을 진술한 경우의 특징값과 타겟 특징값이 유사하면 발화자의 진술이 참이라고 분류할 수 있으며, 제2훈련 데이터에서 발화자가 거짓을 진술한 경우의 특징값과 타겟 특징값이 유사하면, 발화자의 진술이 거짓이라고 분류할 수 있다.The second artificial neural network can classify the talker's statement as true if the feature value when the talker states true in the second training data and the target feature value are similar, and if the talker makes a false statement in the second training data If the feature value of is similar to the target feature value, the speaker's statement can be classified as false.

한편, 음성이나 표정과 달리, 혈류량의 변화가 발생하는 속도는 빠르지 않다. 다시 말해, 발화자가 거짓말을 진술할 경우 진술 중에 음성 및 표정의 변화가 발생하는데 반해, 혈류량의 변화는 진술 중에 발생하여, 진술 이후에도 변할 수 있다.On the other hand, unlike voices and facial expressions, the rate at which the change in blood flow occurs is not fast. In other words, when the talker tells a lie, changes in voice and facial expression occur during the statement, whereas changes in blood flow occur during the statement and may change even after the statement.

이러한 점을 이용하여, 본 발명의 일실시예에 따른 거짓말 탐지 장치는, 단시간이 소요되는 발화자의 단답형 진술에 대한 거짓 여부 탐지뿐만 아니라, 장시간이 소요되는 발화자의 장문 진술에 대한 거짓 진술 의도를 탐지할 수 있다. 발화자가 문장 형태로 진술할 경우, 이러한 진술에는 거짓과 참이 섞여 있을 수 있으며, 거짓이 섞여 있다면 거짓 의도를 가지고 진술하고 있다고 판단될 수 있다.Using this point, the lie detection apparatus according to an embodiment of the present invention not only detects whether the speaker's short-answer statements that take a short time are false or not, but also detects the intention of false statements about the speaker's long-form statements that take a long time. can do. When the speaker makes a statement in sentence form, false and true may be mixed in such a statement, and if false, it may be judged that the statement is made with false intentions.

이를 위해, 제2인공 신경망의 학습에 이용되는 제2훈련 데이터는, 문장 형태로 진술하는 학습용 발화자에 대한 열화상 얼굴 영상으로부터 추출된 특징값을 포함할 수 있으며, 거짓말 탐지 장치는 문장 형태로 진술하는 거짓말 탐지 대상인 발화자에 대한 열화상 얼굴 영상으로부터 특징값을 추출하여, 발화자의 진술에 대한 거짓 진술 의도를 탐지할 수 있다.To this end, the second training data used for the learning of the second artificial neural network may include feature values extracted from the thermal image face image of the talker for learning to state in a sentence form, and the lie detection device may state in a sentence form. By extracting a feature value from the thermal image of the talker, which is the target of the lying detection target, the intention of false statement regarding the talker's statement can be detected.

이와 같이, 본 발명의 일실시예에 따르면, 발화자의 얼굴 혈류량 변화를 이용하여 발화자의 단답형 진술에 대한 거짓 여부를 탐지할 수 있을 뿐만 아니라, 거짓말을 탐지할 수 있을 뿐만 아니라, 발화자의 장문 진술에 대한 거짓 진술 의도를 탐지할 수 있다.As described above, according to an embodiment of the present invention, not only can the talker's short-answer statement be false or not, but also the talker's long statement, by using the change of the talker's facial blood flow. Intent to falsely state against can be detected.

앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The technical details described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

또한, 이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.In addition, as described above, the present invention has been described by specific matters such as specific components and limited embodiments and drawings, but this is only provided to help a more general understanding of the present invention, and the present invention is limited to the above embodiments. It is not, and a person of ordinary skill in the field to which the present invention belongs can make various modifications and variations from this description. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .

Claims (13)

거짓말 탐지 대상인 발화자의 음성 데이터로부터 추출된 특징값을 포함하는 제1훈련 데이터를 생성하는 단계;
상기 제1훈련 데이터를 이용하여, 제2훈련 데이터를 통해 학습된 인공 신경망을 추가로 학습하는 단계; 및
상기 발화자의 타겟 음성으로부터 추출된 타겟 특징값을 상기 인공 신경망에 입력하여, 상기 타겟 음성에 대한 거짓 여부를 탐지하는 단계
를 포함하는 음성을 이용하는 거짓말 탐지 방법.
Generating first training data including feature values extracted from voice data of a talker who is a lie detection target;
Additionally learning an artificial neural network learned through second training data by using the first training data; And
Inputting a target feature value extracted from the target voice of the talker into the artificial neural network to detect whether the target voice is false
Lie detection method using voice comprising a.
제 1항에 있어서,
상기 제1훈련 데이터에 포함되는 특징값은
피치값, 세기값, 지터값, 시머값, MFCC 중 적어도 하나를 포함하며,
상기 인공 신경망을 추가로 학습하는 단계는
상기 제1훈련 데이터에 포함되는 특징값의 조합을 이용하여, 상기 인공 신공망을 복수회 학습하는 단계; 및
상기 복수회 학습된 각각의 결과를 이용하여, 특징값의 조합 중 하나를 선택하는 단계
를 포함하는 음성을 이용하는 거짓말 탐지 방법.
The method of claim 1,
The feature value included in the first training data is
It includes at least one of a pitch value, an intensity value, a jitter value, a seamer value, and MFCC,
The step of additionally learning the artificial neural network
Learning the artificial new public network multiple times by using a combination of feature values included in the first training data; And
Selecting one of a combination of feature values using the results of each of the plurality of times learned
Lie detection method using voice comprising a.
제 2항에 있어서,
상기 타겟 음성에 대한 거짓 여부를 탐지하는 단계는
상기 선택된 특징값의 조합에 대응되는 타겟 특징값을 이용하여, 상기 타겟 음성에 대한 거짓 여부를 탐지하는
음성을 이용하는 거짓말 탐지 방법.
The method of claim 2,
The step of detecting whether the target voice is false
Using a target feature value corresponding to the combination of the selected feature values, detecting whether the target voice is false
Lie detection method using voice.
제 1항에 있어서,
상기 제1훈련 데이터는
피부전기반사값(GSR), 맥파값(PPG), 심전도값(ECG) 중 하나를 이용하여 거짓 또는 참으로 분류된 음성 데이터의 특징값을 포함하는
음성을 이용하는 거짓말 탐지 방법.
The method of claim 1,
The first training data is
Including the feature values of voice data classified as false or true using one of the precutaneous base value (GSR), pulse wave value (PPG), and electrocardiogram value (ECG)
Lie detection method using voice.
랜드마크가 표시된 얼굴 영상을 포함하는 제1훈련 데이터를 이용하여, 제1인공 신경망을 학습하는 단계;
상기 제1인공 신경망을 이용하여, 거짓말 탐지 대상인 발화자의 타겟 얼굴 영상에서 랜드마크를 예측하는 단계; 및
미리 학습된 제2인공 신경망을 이용하여, 상기 예측된 랜드마크의 움직임에 따른 상기 발화자의 거짓 진술 여부를 판단하는 단계
를 포함하는 얼굴 영상을 이용하는 거짓말 탐지 방법.
Learning a first artificial neural network by using first training data including a face image in which the landmark is displayed;
Predicting a landmark in a target face image of a talker who is a lie detection target using the first artificial neural network; And
Determining whether or not the talker makes a false statement according to the predicted movement of the landmark using a pre-learned second artificial neural network
Lie detection method using a face image comprising a.
제 5항에 있어서,
상기 랜드마크를 예측하는 단계는
상기 발화자의 진술 이전 구간, 진술 구간 및 진술 이후 구간의 타겟 얼굴 영상에서 랜드마크를 예측하는,
얼굴 영상을 이용하는 거짓말 탐지 방법.
The method of claim 5,
The step of predicting the landmark
Predicting a landmark in the target face image in the section before the talker's statement, the statement section, and the section after the statement,
A lie detection method using facial images.
제 5항에 있어서,
상기 발화자의 음성을 이용하여, 상기 타겟 얼굴 영상에서 상기 발화자의 진술 구간을 검출하는 단계; 및
상기 진술 구간을 기준으로, 상기 타겟 얼굴 영상에서 상기 진술 이전 구간 및 상기 진술 이후 구간을 검출하는 단계
를 더 포함하는 얼굴 영상을 이용하는 거짓말 탐지 방법.
The method of claim 5,
Detecting a statement section of the talker in the target face image by using the talker's voice; And
Based on the statement section, detecting a section before the statement and a section after the statement in the target face image
Lie detection method using a face image further comprising.
제 5항에 있어서,
상기 발화자의 거짓 진술 여부를 판단하는 단계는
상기 예측된 랜드마크의 움직임 중에서, 미세 표정(micro expression)에 대응되는 움직임을 이용하여, 상기 발화자의 거짓 진술 여부를 판단하는
얼굴 영상을 이용하는 거짓말 탐지 방법.
The method of claim 5,
The step of determining whether the talker makes a false statement
Among the motions of the predicted landmarks, using a motion corresponding to a micro expression, determining whether the talker has a false statement
A lie detection method using facial images.
제 8항에 있어서,
상기 발화자의 거짓 진술 여부를 판단하는 단계는
상기 랜드마크의 예측 결과를 이용하여, 시간 흐름에 따른 상기 랜드마크의 좌표값을 생성하는 단계;
상기 좌표값 중에서, 상기 미세 표정이 발생하는 길이의 시간 구간에서 변화가 발생하는 좌표값을 추출하는 단계; 및
상기 추출된 좌표값을 상기 제2인공 신경망에 입력하여, 상기 발화자의 거짓 진술 여부를 판단하는 단계
를 포함하는 얼굴 영상을 이용하는 거짓말 탐지 방법.
The method of claim 8,
The step of determining whether the talker makes a false statement
Generating a coordinate value of the landmark over time using the prediction result of the landmark;
Extracting a coordinate value in which a change occurs in a time section of a length in which the fine expression occurs, from among the coordinate values; And
Inputting the extracted coordinate values into the second artificial neural network to determine whether the talker is false
Lie detection method using a face image comprising a.
랜드마크가 표시된 열화상 얼굴 영상을 포함하는 제1훈련 데이터를 이용하여, 제1인공 신경망을 학습하는 단계;
상기 제1인공 신경망을 이용하여, 거짓말 탐지 대상인 발화자의 타겟 열화상 얼굴 영상에서 랜드마크를 예측하는 단계;
상기 예측된 랜드마크를 이용하여, 상기 타겟 열화상 얼굴 영상을 복수의 관심 영역으로 분할하는 단계; 및
상기 발화자에 대한 상기 관심 영역에서 추출된 타겟 특징값을 미리 학습된 제2인공 신경망에 입력하여, 상기 발화자의 진술에 대한 거짓 여부 또는 거짓 진술 의도를 탐지하는 단계
를 포함하는 열화상 영상을 이용하는 거짓말 탐지 방법.
Learning a first artificial neural network by using first training data including a thermal face image in which the landmark is displayed;
Predicting a landmark in a target thermal image of a talker who is a lie detection target using the first artificial neural network;
Dividing the target thermal image face image into a plurality of regions of interest by using the predicted landmark; And
Inputting a target feature value extracted from the region of interest for the talker into a pre-learned second artificial neural network to detect whether the talker's statement is false or false statement intention
Lie detection method using a thermal image comprising a.
제 10항에 있어서,
상기 타겟 특징값은
상기 관심 영역에 포함된 화소값에 대한 평균값, 최대값, 중앙값(median), 표준편차값, 첨도값, 왜도값 중 적어도 하나를 포함하는
열화상 영상을 이용하는 거짓말 탐지 방법.
The method of claim 10,
The target feature value is
Including at least one of an average value, a maximum value, a median, a standard deviation value, a kurtosis value, and a skewness value for the pixel values included in the region of interest.
Lie detection method using thermal imaging.
제 10항에 있어서,
상기 발화자의 거짓말을 탐지하는 단계는
상기 발화자의 단답형 진술에 대한 거짓 여부를 탐지하는
열화상 영상을 이용하는 거짓말 탐지 방법.
The method of claim 10,
The step of detecting the talker's lies
To detect whether the talker's short-answer statement is false
Lie detection method using thermal imaging.
제 10항에 있어서,
상기 발화자의 거짓말을 탐지하는 단계는
상기 발화자의 장문 진술에 대한 거짓 진술 의도를 탐지하는
열화상 영상을 이용하는 거짓말 탐지 방법.

The method of claim 10,
The step of detecting the talker's lies
To detect false intentions of the talker's long statement
Lie detection method using thermal imaging.

KR1020190091422A 2019-07-29 2019-07-29 Deception detection method using biometric information KR102350068B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190091422A KR102350068B1 (en) 2019-07-29 2019-07-29 Deception detection method using biometric information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190091422A KR102350068B1 (en) 2019-07-29 2019-07-29 Deception detection method using biometric information

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200153434A Division KR20210014088A (en) 2020-11-17 2020-11-17 Deception detection method using biometric information

Publications (2)

Publication Number Publication Date
KR20210013793A true KR20210013793A (en) 2021-02-08
KR102350068B1 KR102350068B1 (en) 2022-01-10

Family

ID=74560199

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190091422A KR102350068B1 (en) 2019-07-29 2019-07-29 Deception detection method using biometric information

Country Status (1)

Country Link
KR (1) KR102350068B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066275A (en) * 2010-12-14 2012-06-22 유비벨록스(주) Lie detecting method and lie detecting server thereby and terminal device having the same
CN105160318A (en) * 2015-08-31 2015-12-16 北京旷视科技有限公司 Facial expression based lie detection method and system
KR101788211B1 (en) * 2016-07-26 2017-10-20 계명대학교 산학협력단 Face landmark detection method and apparatus for drive state monitoring
KR20180057970A (en) * 2016-11-23 2018-05-31 한국전자통신연구원 Apparatus and method for recognizing emotion in speech

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066275A (en) * 2010-12-14 2012-06-22 유비벨록스(주) Lie detecting method and lie detecting server thereby and terminal device having the same
CN105160318A (en) * 2015-08-31 2015-12-16 北京旷视科技有限公司 Facial expression based lie detection method and system
KR101788211B1 (en) * 2016-07-26 2017-10-20 계명대학교 산학협력단 Face landmark detection method and apparatus for drive state monitoring
KR20180057970A (en) * 2016-11-23 2018-05-31 한국전자통신연구원 Apparatus and method for recognizing emotion in speech

Also Published As

Publication number Publication date
KR102350068B1 (en) 2022-01-10

Similar Documents

Publication Publication Date Title
US10806393B2 (en) System and method for detection of cognitive and speech impairment based on temporal visual facial feature
JP4546767B2 (en) Emotion estimation apparatus and emotion estimation program
JP2020034835A (en) Voice interactive system, voice interactive method, program, learning model generation device, and learning model generation method
TWI294107B (en) A pronunciation-scored method for the application of voice and image in the e-learning
US20210034898A1 (en) Entering of human face information into database
Garg et al. Computer-vision analysis reveals facial movements made during Mandarin tone production align with pitch trajectories
Valliappan et al. Air-Tissue Boundary Segmentation in Real-Time Magnetic Resonance Imaging Video Using Semantic Segmentation with Fully Convolutional Networks.
Ponce-López et al. Multi-modal social signal analysis for predicting agreement in conversation settings
Mannem et al. Air-tissue boundary segmentation in real time magnetic resonance imaging video using a convolutional encoder-decoder network
KR20240117999A (en) method of judging a user's concentration based on a preprocessed concentration score using the time series characteristics of concentration
CN111950480A (en) English pronunciation self-checking method and system based on artificial intelligence
JP2008146268A (en) Method for estimating pronunciation using image
KR20210014088A (en) Deception detection method using biometric information
KR102350068B1 (en) Deception detection method using biometric information
Mannem et al. Acoustic and Articulatory Feature Based Speech Rate Estimation Using a Convolutional Dense Neural Network.
Mannem et al. A SegNet based image enhancement technique for air-tissue boundary segmentation in real-time magnetic resonance imaging video
JP2019152737A (en) Speaker estimation method and speaker estimation device
Wang et al. Vowel recognition from continuous articulatory movements for speaker-dependent applications
JP2019049829A (en) Target section determination device, model learning device and program
CN106599764A (en) Lip-shape-characteristic-based living body determination method and equipment
Gu et al. AI-Driven Depression Detection Algorithms from Visual and Audio Cues
KR102338684B1 (en) Data process method for prediction of involuntary emotion
Jain et al. Lip contour detection for estimation of mouth opening area
Zhang A Novel Eye-tracking and Audio Hybrid System for Autism Spectrum Disorder Early Detection
KR102409611B1 (en) Deception detection method using thermal video

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant