KR20230069369A - 영상 기반의 생체 및 행태 데이터 통합 검출 방법 - Google Patents

영상 기반의 생체 및 행태 데이터 통합 검출 방법 Download PDF

Info

Publication number
KR20230069369A
KR20230069369A KR1020210155339A KR20210155339A KR20230069369A KR 20230069369 A KR20230069369 A KR 20230069369A KR 1020210155339 A KR1020210155339 A KR 1020210155339A KR 20210155339 A KR20210155339 A KR 20210155339A KR 20230069369 A KR20230069369 A KR 20230069369A
Authority
KR
South Korea
Prior art keywords
data
biometric
image
person
detecting
Prior art date
Application number
KR1020210155339A
Other languages
English (en)
Other versions
KR102621990B1 (ko
Inventor
김영원
이의철
고대준
Original Assignee
한국전자기술연구원
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원, 상명대학교산학협력단 filed Critical 한국전자기술연구원
Priority to KR1020210155339A priority Critical patent/KR102621990B1/ko
Publication of KR20230069369A publication Critical patent/KR20230069369A/ko
Application granted granted Critical
Publication of KR102621990B1 publication Critical patent/KR102621990B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

환자 또는 범죄자를 촬영한 영상을 분석하여, 다수의 생체 및 행태 데이터를 검출하는 방법이 제공된다. 본 발명의 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 방법은, 영상 수집부가, 사람을 객체로 하여 촬영된 영상 데이터를 획득하는 단계; 및 프로세서가, 획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출하는 단계;를 포함한다. 이에 의해, 상담(취조)과정에서 촬영된 영상을 통해 피촬영자인 환자(범죄자)의 여러 생체 및 행태 데이터를 통합 검출과정을 통해 검출함으로써, 데이터 수집을 위해 신체의 센서 부착 등의 준비과정이 복잡하지 않고 복수의 센서 간의 노이즈가 존재 하지 않아 정확한 생체 및 행태 데이터 검출이 가능하도록 할 수 있다. 더불어, 통합된 환경에서 데이터를 취득하기 때문에 동일 시점의 데이터의 유사관계를 보다 쉽고 정확하게 분석할 수 있다.

Description

영상 기반의 생체 및 행태 데이터 통합 검출 방법{Method of biometric and behavioral data integrated detection based on video}
본 발명은 영상 기반의 생체 및 행태 데이터 통합 검출 방법에 관한 것으로, 더욱 상세하게는 환자 또는 범죄자를 촬영한 영상을 분석하여, 다수의 생체 및 행태 데이터를 검출하는 방법에 관한 것이다.
기존에는 환자(범죄자)의 상담(취조) 시, 환자(범죄자)의 신체에 다양한 종류의 센서를 부착한 상태로 환자(범죄자)의 상담(취조)를 진행하며, 환자(범죄자)의 상태를 파악하는데 신체에 부착된 센서의 측정 값들을 활용하였다.
그러나 상담(취조) 과정에서 환자(범죄자)의 다양한 생체 및 행태 데이터를 검출하기 위해서 여러 종류의 센서를 몸에 부착하게 되면, 이종 센서 간 중첩 및 환자(범죄자)의 센서에 대한 스트레스로 인해 정확한 데이터 검출의 어려움을 초래할 수 있다.
또한, 접촉식 생체 및 행태 데이터 검출 센서는 준비 과정 및 사용 방법이 복잡하여 상담(취조) 시간이 지연될 뿐만 아니라 전문가가 아니면 사용하기 어렵다는 단점이 존재한다.
그리고 기존의 영상 기반의 생체 및 행태 데이터 검출 기술들은 하나의 생체 및 행태 데이터 검출에 성능에 집중되어 연구가 진행되기 때문에, 통합된 환경에서 동작하지 않는 각각의 방법들은 취득 주기 및 처리 속도가 달라 동일 시점의 데이터의 유사관계를 분석하기 어렵다는 단점이 존재한다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 상담(취조)과정에서 촬영된 영상을 통해 피촬영자인 환자(범죄자)의 여러 생체 및 행태 데이터를 통합 검출과정을 통해 검출할 수 있는 영상 기반의 생체 및 행태 데이터 통합 검출 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 영상 기반의 생체 및 행태 데이터 통합 검출 방법은, 영상 수집부가, 사람을 객체로 하여 촬영된 영상 데이터를 획득하는 단계; 및 프로세서가, 획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출하는 단계;를 포함한다.
그리고 검출하는 단계는, 영상 데이터 내에 사람의 얼굴 영역에서 사람의 혈류량 변화를 관측하여 심박 신호를 측정할 수 있다.
또한, 검출하는 단계는, 심박 신호를 측정하기 위해, 영상 데이터 내에 사람의 얼굴 영역을 검출하는 단계; 검출된 얼굴 영역에서 혈류량 변화 관측이 어려운 영역인 머리카락, 눈썹, 수염에 해당하는 영역을 제외하기 위해, 피부색 영역만 분류하는 단계; 분류된 피부색 영역 중 상대적으로 다른 색상 성분보다 조명 밝기 변화에 민감하지 않은 색상 성분을 분리하는 단계; band-pass filtering를 이용하여 분리된 색상 성분 내 노이즈 성분을 제거하는 단계; 및 band-pass filtering를 통과한 부분을 혈류량 변화 신호로 활용하여, 심박 신호를 측정하는 단계;를 포함할 수 있다.
그리고 검출하는 단계는, 영상 데이터 내에 사람의 얼굴 영역 및 신체 영역에서 기설정된 주요 포인트 영역을 검출하고, 검출된 주요 포인트 영역을 분석하여, 얼굴 표정을 검출하거나 또는 시선 방향을 검출할 수 있다.
또한, 검출하는 단계는, CNN(Convolutional Neural Networks) 기반의 인식 모델을 기반으로 얼굴 영역 내 주요 포인트 영역을 분석하여 얼굴 표정을 검출할 수 있다.
그리고 검출하는 단계는, 얼굴 영역 내 주요 포인트 영역을 분석하여 얼굴의 방향 벡터와 눈이 바라보는 방향 벡터를 검출하고, 검출된 방향 벡터들을 기반으로 시선 방향을 검출할 수 있다.
본 발명의 일 실시예에 따른, 영상 기반의 생체 및 행태 데이터 통합 검출 방법은, 프로세서가, 검출된 데이터들을 기반으로 촬영된 사람의 집중 상태 또는 산만 상태를 수치적으로 산출하는 단계;를 더 포함할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 영상 기반의 생체 및 행태 데이터 통합 검출 시스템은, 사람을 객체로 하여 촬영된 영상 데이터를 획득하는 영상 수집부; 및 획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출하는 프로세서;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 상담(취조)과정에서 촬영된 영상을 통해 피촬영자인 환자(범죄자)의 여러 생체 및 행태 데이터를 통합 검출과정을 통해 검출함으로써, 데이터 수집을 위해 신체의 센서 부착 등의 준비과정이 복잡하지 않고 복수의 센서 간의 노이즈가 존재 하지 않아 정확한 생체 및 행태 데이터 검출이 가능하도록 할 수 있다.
더불어, 통합된 환경에서 데이터를 취득하기 때문에 동일 시점의 데이터의 유사관계를 보다 쉽고 정확하게 분석할 수 있다.
도 1은, 본 발명의 일 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 시스템의 설명에 제공된 도면,
도 2는, 상기 도 1에 도시된 영상 수집부를 통해 영상을 획득하는 모습이 예시된 도면,
도 3 내지 도 4는, 상기 도 1에 도시된 프로세서의 구성 설명에 제공된 도면,
도 5는, 상기 도 3에 도시된 프로세서를 통해 인체 주요 포인트를 추출하는 모습이 예시된 도면,
도 6는, 상기 도 3에 도시된 프로세서를 통해, 피촬영자의 시선 방향을 검출하는 모습이 예시된 도면,
도 7은, 상기 도 3에 도시된 프로세서를 통해, 검출된 생체 및 형태 데이터가 표출된 모습이 예시된 도면,
도 8은, 본 발명의 일 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 방법의 설명에 제공된 도면, 그리고
도 9는, 상기 도 8에 도시된 영상 기반의 생체 및 행태 데이터 통합 검출 방법 중 생체 데이터를 검출하는 과정을 더욱 상세히 설명하기 위해 제공된 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은, 본 발명의 일 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 시스템의 설명에 제공된 도면이고, 도 2는, 상기 도 1에 도시된 영상 수집부를 통해 영상을 획득하는 모습이 예시된 도면이다.
본 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 시스템(이하에서는 '데이터 통합 검출 시스템'으로 총칭하기로 함)은, 사람(환자, 범죄자 등의 피촬영자)을 객체로 촬영하여 획득되는 영상 데이터를 분석하여 피촬영자의 생체 데이터 및 형태 데이터를 검출하기 위해 마련된다.
이를 위해, 데이터 통합 검출 시스템은, 영상 수집부(110), 프로세서(120) 및 저장부(130)를 포함할 수 있다.
영상 수집부(110)는, 사람을 객체로 하여 촬영된 영상 데이터를 획득하기 위해 마련된다. 예를 들면, 영상 수집부는 RGB 카메라로 구현되어, 도 2에 예시된 바와 같이 피촬영자를 촬영하여 영상 데이터를 획득할 수 있다.
저장부(130)는, 프로세서(120)가 동작함에 있어 필요한 프로그램 및 데이터를 저장하는 저장매체이다.
프로세서(120)는, 획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출할 수 있다.
예를 들면, 프로세서(120)는, 영상 데이터 내에 사람의 얼굴 영역에서 사람의 혈류량 변화를 관측하여 심박 신호를 측정할 수 있다.
또한, 프로세서(120)는, 영상 데이터 내에 사람의 얼굴 영역 및 신체 영역에서 기설정된 주요 포인트 영역을 검출하고, 검출된 주요 포인트 영역을 분석하여, 얼굴 표정을 검출하거나 또는 시선 방향을 검출할 수 있다.
또한, 프로세서(120)는, 검출된 생체 데이터 및 형태 데이터를 기반으로 피촬영자의 상태(ex. 집중 상태, 산만 상태 등)를 판단할 수 있다.
예를 들면, 프로세서(120)는, 검출된 생체 데이터 및 형태 데이터를 기반으로 촬영된 사람의 집중 상태 또는 산만 상태를 수치적으로 산출할 수 있다.
도 3 내지 도 4는, 상기 도 1에 도시된 프로세서의 구성 설명에 제공된 도면이고, 도 5는, 상기 도 3에 도시된 프로세서를 통해 인체 주요 포인트를 추출하는 모습이 예시된 도면이며, 도 6는, 상기 도 3에 도시된 프로세서를 통해, 피촬영자의 시선 방향을 검출하는 모습이 예시된 도면이며, 도 7은, 상기 도 3에 도시된 프로세서를 통해, 검출된 생체 및 형태 데이터가 표출된 모습이 예시된 도면이다.
도 3 내지 도 4를 참조하면, 프로세서(120)는, 획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출하고, 검출된 생체 데이터 및 형태 데이터를 기반으로 피촬영자의 상태를 판단하기 위해, 심박 신호 검출 모듈(121), 얼굴 표정 검출 모듈(122), 시선 방향 검출 모듈(123) 및 상태 판단 모듈(124)을 포함할 수 있다.
심박 신호 검출 모듈(121)은, 영상 데이터 내에 사람의 얼굴 영역에서 사람의 혈류량 변화를 관측하여 심박 신호를 측정할 수 있다.
구체적으로, 심박 신호 검출 모듈(121)은, 영상 데이터 내에 사람의 얼굴 영역을 관심 영역으로 지정하여, 영상 데이터 내에 관심 영역으로 지정된 사람의 얼굴 영역을 검출하고, 검출된 얼굴 영역에서 혈류량 변화 관측이 어려운 영역인 머리카락, 눈썹, 수염에 해당하는 영역을 제외하기 위해, 피부색 영역만 분류할 수 있다.
심박 신호 검출 모듈(121)은, 피부색 영역만 분류되면, 분류된 피부색 영역 중 상대적으로 다른 색상 성분보다 조명 밝기 변화에 민감하지 않은 색상 성분을 분리하고, band-pass filtering를 이용하여 분리된 색상 성분 내 노이즈 성분을 제거할 수 있다.
다음으로, 심박 신호 검출 모듈(121)은, band-pass filtering를 통과한 부분을 혈류량 변화 신호로 활용하여, 심박 신호를 측정할 수 있다.
얼굴 표정 검출 모듈(122)은, CNN(Convolutional Neural Networks) 기반의 인식 모델을 기반으로 얼굴 영역 내 주요 포인트 영역을 분석하여 얼굴 표정을 검출할 수 있다.
예를 들면, 얼굴 표정 검출 모듈(122)은, 특징 검출에 사용되는 속성 값을 파라미터로 저장되어, 영상 데이터 내에 사람의 얼굴 영역을 관심 영역으로 지정하고, 영상 데이터와 관심 영역으로 지정된 얼굴 영역에서 기저장된 파라미터에 따라 기설정된 주요 포인트 영역에서의 특징들을 검출하여, 얼굴 표정을 검출할 수 있다.
시선 방향 검출 모듈(123)은, 얼굴 영역 내 주요 포인트 영역을 분석하여 얼굴의 방향 벡터와 눈이 바라보는 방향 벡터를 검출하고, 검출된 방향 벡터들을 기반으로 시선 방향을 검출할 수 있다.
예를 들면, 시선 방향 검출 모듈(123)은, 특징 검출에 사용되는 속성 값을 파라미터로 저장되어, 기저장된 파라미터에 따라 얼굴 영역 및 신체 영역에서 기설정된 주요 포인트 영역을 검출하고, 검출된 주요 포인트 영역을 분석하여, 시선 방향을 검출할 수 있다.
구체적으로 예를 들면, 시선 방향 검출 모듈(123)은, 도 5에 예시된 바와 같이 피촬영자의 얼굴 영역 내 눈동자가 바라보는 방향 및 이마의 중앙 또는 코에 해당하는 제1 지점이 향하는 (P1)의 방향, 양쪽 어깨에 해당하는 제2 지점(P2) 및 제3 지점(P3) 간의 수평 관계, 양쪽 팔꿈치에 해당하는 제4 지점(P4) 및 제5 지점(P5) 간의 수평 관계, 양쪽 손목에 해당하는 제6 지점(P6) 및 제7 지점(P7) 간의 수평 관계 등에 대한 특징 검출을 통하여, 시선 방향을 검출할 수 있다.
상태 판단 모듈(124)은, 심박수, 얼굴 표정, 시선 방향 등을 기반으로 촬영된 사람의 집중 상태 또는 산만 상태를 수치적으로 산출할 수 있다.
이를 통해, 데이터 수집을 위해 신체의 센서 부착 등의 준비과정이 복잡하지 않고 복수의 센서 간의 노이즈가 존재 하지 않아 정확한 생체 및 행태 데이터 검출이 가능하도록 할 수 있으며, 통합된 환경에서 데이터를 취득하기 때문에 동일 시점의 데이터의 유사관계를 보다 쉽고 정확하게 분석할 수 있다.
도 8은, 본 발명의 일 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 방법의 설명에 제공된 도면이다.
본 실시예에 따른 영상 기반의 생체 및 행태 데이터 통합 검출 방법(이하에서는 '데이터 통합 검출 방법'으로 총칭하기로 함)은, 도 1 내지 도 7을 참조하여 전술한 데이터 통합 검출 시스템에 의해 실행될 수 있다.
도 8을 참조하면, 데이터 통합 검출 방법은, 데이터 통합 검출 시스템을 통해 사람을 객체로 하여 촬영된 영상 데이터를 획득하고(S810), 획득된 영상 데이터를 기반으로 촬영된 사람(피촬영자)의 생체 데이터 및 형태 데이터를 검출할 수 있다(S820, S825).
여기서, 생체 데이터 및 형태 데이터를 검출하는 순서는, 도 3 내지 도 7을 참조하여 전술한 심박 신호 검출 모듈(121), 얼굴 표정 검출 모듈(122) 및 시선 방향 검출 모듈(123)을 통해 병렬적으로 수행될 수 있다.
그리고 데이터 통합 검출 방법은, 검출된 생체 데이터 및 형태 데이터를 기반으로 피촬영자의 집중 상태, 산만 상태 등을 판단할 수 있다(S830).
도 9는, 상기 도 8에 도시된 영상 기반의 생체 및 행태 데이터 통합 검출 방법 중 생체 데이터를 검출하는 과정을 더욱 상세히 설명하기 위해 제공된 도면이다. 이하에서는 도 9를 참조하여, 도 8을 참조하여 전술한 데이터 통합 검출 방법 중 심박 신호 검출 모듈을 이용하여 피촬영자의 생체 데이터인 심박 신호를 측정하는 과정을 더욱 상세히 설명하기로 한다.
데이터 통합 검출 방법은, 심박 신호 측정을 위해, 우선 영상 데이터 내에 사람의 얼굴 영역을 검출하고(S910), 검출된 얼굴 영역에서 혈류량 변화 관측이 어려운 영역인 머리카락, 눈썹, 수염에 해당하는 영역을 제외하기 위해, 피부색 영역만 분류할 수 있다(S920).
그리고 데이터 통합 검출 방법은, 분류된 피부색 영역 중 상대적으로 다른 색상 성분보다 조명 밝기 변화에 민감하지 않은 색상 성분을 분리하고(S930), band-pass filtering를 이용하여 분리된 색상 성분 내 노이즈 성분을 제거할 수 있다(S940).
또한, 노이즈 성분이 제거되면, 데이터 통합 검출 방법은, band-pass filtering를 통과한 부분을 혈류량 변화 신호로 활용하여, 심박 신호를 측정할 수 있다(S950).
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 영상 수집부
120 : 프로세서
121 : 심박 신호 검출 모듈
122 : 얼굴 표정 검출 모듈
123 : 시선 방향 검출 모듈
124 : 상태 판단 모듈
130 : 저장부

Claims (8)

  1. 영상 수집부가, 사람을 객체로 하여 촬영된 영상 데이터를 획득하는 단계; 및
    프로세서가, 획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출하는 단계;를 포함하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  2. 청구항 1에 있어서,
    검출하는 단계는,
    영상 데이터 내에 사람의 얼굴 영역에서 사람의 혈류량 변화를 관측하여 심박 신호를 측정하는 것을 특징으로 하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  3. 청구항 2에 있어서,
    검출하는 단계는,
    심박 신호를 측정하기 위해, 영상 데이터 내에 사람의 얼굴 영역을 검출하는 단계;
    검출된 얼굴 영역에서 혈류량 변화 관측이 어려운 영역인 머리카락, 눈썹, 수염에 해당하는 영역을 제외하기 위해, 피부색 영역만 분류하는 단계;
    분류된 피부색 영역 중 상대적으로 다른 색상 성분보다 조명 밝기 변화에 민감하지 않은 색상 성분을 분리하는 단계;
    band-pass filtering를 이용하여 분리된 색상 성분 내 노이즈 성분을 제거하는 단계; 및
    band-pass filtering를 통과한 부분을 혈류량 변화 신호로 활용하여, 심박 신호를 측정하는 단계;를 포함하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  4. 청구항 1에 있어서,
    검출하는 단계는,
    영상 데이터 내에 사람의 얼굴 영역 및 신체 영역에서 기설정된 주요 포인트 영역을 검출하고, 검출된 주요 포인트 영역을 분석하여, 얼굴 표정을 검출하거나 또는 시선 방향을 검출하는 것을 특징으로 하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  5. 청구항 4에 있어서,
    검출하는 단계는,
    CNN(Convolutional Neural Networks) 기반의 인식 모델을 기반으로 얼굴 영역 내 주요 포인트 영역을 분석하여 얼굴 표정을 검출하는 것을 특징으로 하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  6. 청구항 4에 있어서,
    검출하는 단계는,
    얼굴 영역 내 주요 포인트 영역을 분석하여 얼굴의 방향 벡터와 눈이 바라보는 방향 벡터를 검출하고, 검출된 방향 벡터들을 기반으로 시선 방향을 검출하는 것을 특징으로 하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  7. 청구항 1에 있어서,
    프로세서가, 검출된 데이터들을 기반으로 촬영된 사람의 집중 상태 또는 산만 상태를 수치적으로 산출하는 단계;를 더 포함하는 것을 특징으로 하는 영상 기반의 생체 및 행태 데이터 통합 검출 방법.
  8. 사람을 객체로 하여 촬영된 영상 데이터를 획득하는 영상 수집부; 및
    획득된 영상 데이터를 기반으로 촬영된 사람의 생체 데이터 및 형태 데이터를 검출하는 프로세서;를 포함하는 영상 기반의 생체 및 행태 데이터 통합 검출 시스템.
KR1020210155339A 2021-11-12 2021-11-12 영상 기반의 생체 및 행태 데이터 통합 검출 방법 KR102621990B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210155339A KR102621990B1 (ko) 2021-11-12 2021-11-12 영상 기반의 생체 및 행태 데이터 통합 검출 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210155339A KR102621990B1 (ko) 2021-11-12 2021-11-12 영상 기반의 생체 및 행태 데이터 통합 검출 방법

Publications (2)

Publication Number Publication Date
KR20230069369A true KR20230069369A (ko) 2023-05-19
KR102621990B1 KR102621990B1 (ko) 2024-01-10

Family

ID=86546696

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210155339A KR102621990B1 (ko) 2021-11-12 2021-11-12 영상 기반의 생체 및 행태 데이터 통합 검출 방법

Country Status (1)

Country Link
KR (1) KR102621990B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190020779A (ko) * 2016-06-23 2019-03-04 가부시키가이샤 가이아 시스템 솔루션 인게이지먼트값 처리 시스템 및 인게이지먼트값 처리 장치
KR20200139039A (ko) * 2019-06-03 2020-12-11 계명대학교 산학협력단 카메라를 이용한 비접촉 ppg 신호 측정 시스템 및 그 구동 방법
KR20210128358A (ko) * 2020-04-16 2021-10-26 주식회사 에이비에이치 인공지능 기반 감정 인식 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190020779A (ko) * 2016-06-23 2019-03-04 가부시키가이샤 가이아 시스템 솔루션 인게이지먼트값 처리 시스템 및 인게이지먼트값 처리 장치
KR20200139039A (ko) * 2019-06-03 2020-12-11 계명대학교 산학협력단 카메라를 이용한 비접촉 ppg 신호 측정 시스템 및 그 구동 방법
KR20210128358A (ko) * 2020-04-16 2021-10-26 주식회사 에이비에이치 인공지능 기반 감정 인식 장치 및 방법

Also Published As

Publication number Publication date
KR102621990B1 (ko) 2024-01-10

Similar Documents

Publication Publication Date Title
CN105787420B (zh) 用于生物认证的方法、装置以及生物认证系统
US10154818B2 (en) Biometric authentication method and apparatus
Tasli et al. Remote PPG based vital sign measurement using adaptive facial regions
KR101738278B1 (ko) 영상을 이용한 감정 인식 방법
JP2019194888A (ja) 情報処理装置、情報処理方法及びプログラム
KR101644843B1 (ko) 얼굴의 온도분포 특이성을 이용한 상태 분석 방법
CA3071819A1 (en) Detailed eye shape model for robust biometric applications
Guo et al. Physiological parameter monitoring of drivers based on video data and independent vector analysis
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
Rumiński Reliability of pulse measurements in videoplethysmography
JP2015211829A (ja) 動脈拍動波伝搬時間のvpgおよびecg/ekg信号からの判定
WO2020070745A1 (en) Remote prediction of human neuropsychological state
Andreu-Cabedo et al. Mirror mirror on the wall… An intelligent multisensory mirror for well-being self-assessment
CN111429345A (zh) 一种超低功耗视觉计算心率及心率变异性方法
Alzahrani et al. Preprocessing realistic video for contactless heart rate monitoring using video magnification
Li et al. Daily life event segmentation for lifestyle evaluation based on multi-sensor data recorded by a wearable device
Gupta et al. Accurate heart-rate estimation from face videos using quality-based fusion
CN108958489A (zh) 一种基于脑电和眼动仪的图像感兴趣区域快速检出方法
Talukdar et al. Evaluating visual photoplethysmography method
Lazri et al. Detecting essential landmarks directly in thermal images for remote body temperature and respiratory rate measurement with a two-phase system
Jayawardena et al. Automated filtering of eye gaze metrics from dynamic areas of interest
KR102621990B1 (ko) 영상 기반의 생체 및 행태 데이터 통합 검출 방법
JP6201520B2 (ja) 生理指標を用いる視線分析システムおよび方法
Murashov et al. Detecting events in video sequence of video-EEG monitoring
KR102369059B1 (ko) 비접촉식 심박 측정 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right