KR20220117671A - 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 - Google Patents
몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 Download PDFInfo
- Publication number
- KR20220117671A KR20220117671A KR1020210021312A KR20210021312A KR20220117671A KR 20220117671 A KR20220117671 A KR 20220117671A KR 1020210021312 A KR1020210021312 A KR 1020210021312A KR 20210021312 A KR20210021312 A KR 20210021312A KR 20220117671 A KR20220117671 A KR 20220117671A
- Authority
- KR
- South Korea
- Prior art keywords
- learner
- dht
- immersion
- inference
- micro
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Psychiatry (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Resources & Organizations (AREA)
- Educational Administration (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
도2는 도1에 도시된 휴먼 튜터 생성 장치의 작동 흐름을 개략적으로 보인다.
도3a는 하나 또는 그 이상의 실시 예에 따른 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법에서, 안면 특징 검출 과정을 보이는 플로우챠트이다.
도3b는 FACS에서 정의하는 특징점 (Landmark)의 배치를 예시한다.
도4는 하나 또는 그 이상의 실시 예에 따른 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법에서, 얼굴영상(Facial Video)-얼굴검출(Face Detection)-특징점 검출(Facial Landmark detection) 과정에 따른 결과물을 보인다.
도5는 하나 또는 그 이상의 실시 예에 따른 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법에서, 검출된 눈영역을 예시한다.
도6은 하나 또는 그 이상의 실시 예에 따른 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법에서, 얼굴 특징점의 검출 및 정규화 결과를 예시한다.
도7은 하나 또는 그 이상의 실시 에에 따른 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법에서, 학습자 영상에서 심장 박동에 의한 얼굴의 무의식적 미세 표현을 추출하기 위한 과정을 보여주는 플로우챠트이다.
도8은 하나 또는 그 이상의 실시 예에 따른 교감형 디지털 휴먼 튜터의 생상 방법에서, 전 단계에서 얻어진 미세표현 데이터(MED)에서 심장 박동 신호를 판단하는 과정의 플로우챠트이다.
도9는 하나 또는 그 이상의 실시 예에 따른 교감형 디지털 휴먼 튜터의 생상 방법에서, 얼굴 근육 AU별 강도를 보이는 막대그래프이다.
도10은 하나 또는 그 이상의 실시 예에 따른 교감형 디지털 휴먼 튜터의 생상 방법에서, 학습자 영상에서 관절(Key Point)이 검출된 상체 사진을 예시한다.
도11은 하나 또는 그 이상의 실시 예에 따른 교감형 디지털 휴먼 튜터의 생상 방법에서, 학습자로부터 추출된 관절(Key Point)의 링크 구조를 예시한다.
도12는 하나 또는 그 이상의 실시 예에 따른 교감형 디지털 휴먼 튜터의 생상 방법에서, MIM을 이용한 크로스-엔트리 계산의 흐름도이다.
도13은 도12에 도시된 크로스 엔트리 계산 흐름을 도식적으로 보인다.
도14는 하나 또는 그 이상의 실시 예에 따른 교감형 디지털 휴먼 튜터의 생상 방법에서, 크로스-엔트로피에 의한 몰입도 평가를 위한 SVM(Support Vector Machine) 선형 분류를 예시한다.
도15는 하나 또는 그 이상의 실시 예에 따라 제작된 강의 영상 재생 시스템을 예시한다.
Claims (17)
- 강의용 영상 자료와 강의를 진행할 교수자에 대응하는 DHT (Digital Human Tutor)를 생성하는 단계;
상기 강의용 영상 자료와 DHT를 합성하여 강의용 영상 콘텐츠를 형성하는 단계;
상기 영상 콘텐츠를 학습자에게 시현하면서, 학습자의 안면을 포함하는 인체 영상을 획득하는 단계;
상기 인체 영상으로부터 상기 학습자의 안면의 물리적 움직임에 대한 특징 정보를 추출하는 단계;
상기 물리적 특징의 변화를 상기 DHT에 적용하여 상기 학습자의 반응을 상기 DHT에 간헐적으로 또는 소정의 패턴으로 모방시키는 단계; 그리고
상기 DHT와 학습자의 안면으로부터 미세 움직임 데이터(Micro Movement Data, MMD)를 추출하여, 상기 학습 컨텐츠에 대한 학습자의 몰입도를 평가하는 단계;를 포함하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제1항에 있어서,
상기 몰입도를 평가하는 단계;는
상기 DHT와 학습자의 MMD 각각에 대한 FFT 분석을 통해 각각의 PSD(Power Spectral Density)를 계산하는 단계;
상기 각각의 PSD를 정규화(Normalization)하는 단계;
상기 정규화된 PSD에 대한 크로스-엔트로피를 계산하는 단계;
그리고, 상기 크로스-엔트로피를 이용해 상기 DHT에 대한 학습자의 유사도를 구하는 단계;
상기 유사도를 축적하여 선형 분류기에 의해 몰입도를 추론하는 단계;를 포함하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제1항에 있어서,
상기 학습자의 외형적 특징을 추출하는 단계에서,
상기 학습자의 안면 특정 영역에서 특징점을 추출하고, 추출된 특징점의 미세 움직임 데이터를 추출하고, 상기 미세 움직임 데이터로부터 심박 정보를 추출하여, 상기 HDT의 특성값으로 입력하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제2항에 있어서,
상기 미세 움직임 데이터를 추출하기 위하여 상기 특징점 추적에 KLT (Kanade-Lucas-Tomasi) 추적 알고리즘 또는 TM (Transformation Matrix) 기반 추적 알고리즘를 적용하여 미세 움직임 데이터(Micro Movement Data)를 계산하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제2항 내지 제4항 중의 어느 한 항에 있어서,
상기 미세 움직임 데이터로부터 무의식적 미세 표현 데이터를 추출하기 위하여, 미세 움직임 데이터에 대한 소정 주파수의 필터링을 수행하고, 필터링된 미세표현 데이터에 대해 주성분 분석(PCA)에 의해 심박의 주기성을 판단하고, 상기 주성분 분석을 거친 미세 움직임 데이터를 상기 DHT의 특성값으로 입력하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법 - 제5항에 있어서,
상기 주성분 분석을 거친 나온 0.75~Hz(45bpm)~2.5Hz(150bpm) 대역의 얼굴 미세 신호는 상기 미세 움직임 데이터로 적용하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제1항에 있어서,
상기 안면 영상에서 학습자의 동공 영역을 추출하고,
상기 동공 영역에서 상기 학습자의 시선 파라미터를 추출하고, 그리고
상기 시선 파라미터를 상기 DHT의 시선에 대한 특성값으로 입력하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제7항에 있어서,
상기 안면 영상에서 안면에 정의된 안면 근육 AU의 미세 움직임 값을 추출하고,
상기 안면 근육 AU의 움직임 값을 상기 DHT의 안면 근육 AU이 특성값으로 입력하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 제1항에 있어서,
상기 인체 영상에서 상기 학습자의 다수 관절에 대한 2차원 위치 좌표 데이터를 추출하고, 그리고
상기 2차원 위치 좌표로부터 3차원 각도로 변환하여 상기 DHT의 관절 특성값으로 입력하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 방법. - 청구항1 내지 제4항 중의 어느 한 항에 기재된 방법을 수행하는 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템에 있어서,
상기 강의용 영상 자료를 생성하는 영상 생성부;
강의를 진행할 상기 DHT를 생성하는 DHT 생성부;
상기 강의용 영상 자료와 DHT를 합성하여 강의용 영상 콘텐츠를 형성하는 영상-DHT 합성부;
상기 영상 콘텐츠를 학습자에게 제공하는 영상 콘텐츠 배포부;
상기 영상 콘텐츠를 시청하는 학습자의 안면을 포함하는 인체 영상을 획득하는 카메라를 포함하는 영상 정보 처리부;
상기 학습자의 인체 영상으로부터 학습자의 안면의 물리적 움직임에 따른 물리적 특성변수를 측정하여 상기 DHT의 특성변수로 입력하여 DHT의 특성값으로 전송하는 특성 변수 측정부; 그리고
상기 MMD로 부터 상기 학습 컨텐츠에 대한 학습자의 몰입도를 평가하는 몰입도 평가부;를 구비하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제10항에 있어서,
상기 특성 변수 측정부는,
상기 미세 움직임 데이터로부터 무의식적 미세 움직임 데이터를 추출하기 위하여, 미세 움직임 데이터에 대한 소정 주파수의 필터링을 수행하고, 필터링된 미세표현 데이터에 대해 주성분 분석(PCA)에 의해 심박의 주기성을 판단하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제11항에 있어서,
상기 특성 변수 측정부는,
상기 주성분 분석을 거친 나온 0.75~Hz(45bpm)~2.5Hz(150bpm) 대역의 얼굴 미세 신호는 상기 미세 움직임 데이터로 추출하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제11항에 있어서,
상기 특성 변수 측정부는,
상기 안면 영상에서 학습자의 동공 영역을 추출하고,
상기 동공 영역에서 상기 학습자의 시선 파라미터를 추출하고, 그리고
상기 시선 파라미터를 상기 DHT의 시선에 대한 특성값으로 전송하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제13항에 있어서,
상기 특성 변수 측정부는,
상기 안면 영상에서 안면에 정의된 안면 근육 AU의 미세 움직임 값을 추출하고,
상기 안면 근육 AU의 움직임 값을 상기 DHT의 안면 근육 AU의 특성값으로 전송하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제14항에 있어서,
상기 특성 변수 측정부는,
상기 인체 영상에서 상기 학습자의 다수 관절에 대한 2차원 위치 좌표 데이터를 추출하고, 그리고
상기 2차원 위치 좌표로부터 3차원 각도로 변환하여 상기 DHT의 관절 특성값으로 전송하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제11항에 있어서,
상기 특성 변수 측정부는,
상기 안면 영상에서 안면에 정의된 안면 근육 AU의 미세 움직임 값을 추출하고,
상기 안면 근육 AU의 움직임 값을 상기 DHT의 안면 근육 AU의 특성값으로 전송하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템. - 제11항에 있어서,
상기 특성 변수 측정부는,
상기 인체 영상에서 상기 학습자의 다수 관절에 대한 2차원 위치 좌표 데이터를 추출하고, 그리고
상기 2차원 위치 좌표로부터 3차원 각도로 변환하여 상기 DHT의 관절 특성값으로 전송하는, 몰입도-추론 기반 교감-유도형 디지털 휴먼 튜터 생성 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210021312A KR102654378B1 (ko) | 2021-02-17 | 2021-02-17 | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210021312A KR102654378B1 (ko) | 2021-02-17 | 2021-02-17 | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220117671A true KR20220117671A (ko) | 2022-08-24 |
KR102654378B1 KR102654378B1 (ko) | 2024-04-03 |
Family
ID=83111760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210021312A Active KR102654378B1 (ko) | 2021-02-17 | 2021-02-17 | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102654378B1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130032620A (ko) * | 2011-09-23 | 2013-04-02 | 김용국 | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 |
KR20130082701A (ko) * | 2011-12-14 | 2013-07-22 | 한국전자통신연구원 | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 |
KR20160059390A (ko) * | 2014-11-18 | 2016-05-26 | 상명대학교서울산학협력단 | 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템 |
KR20170040692A (ko) * | 2015-10-05 | 2017-04-13 | (주)감성과학연구센터 | Au 기반의 안면 움직임 정보 추출 방법 및 장치 |
KR20200087540A (ko) * | 2019-01-11 | 2020-07-21 | (주)감성과학연구센터 | 비전 기반 심박수 측정 방법 |
-
2021
- 2021-02-17 KR KR1020210021312A patent/KR102654378B1/ko active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130032620A (ko) * | 2011-09-23 | 2013-04-02 | 김용국 | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 |
KR20130082701A (ko) * | 2011-12-14 | 2013-07-22 | 한국전자통신연구원 | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 |
KR20160059390A (ko) * | 2014-11-18 | 2016-05-26 | 상명대학교서울산학협력단 | 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템 |
KR20170040692A (ko) * | 2015-10-05 | 2017-04-13 | (주)감성과학연구센터 | Au 기반의 안면 움직임 정보 추출 방법 및 장치 |
KR20200087540A (ko) * | 2019-01-11 | 2020-07-21 | (주)감성과학연구센터 | 비전 기반 심박수 측정 방법 |
Non-Patent Citations (13)
Title |
---|
Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3430-3437). |
Chartrand, T. L., and Van Baaren, R. (2009). Human mimicry. Advances in experimental social psychology, 41, 219-274. |
Cortes, C., and Vapnik, V. (1995). Support-vector networks. Machine learning, 20(3), 273-297. |
Dich, Y., Reilly, J., and Schneider, B. (2018, June). Using physiological synchrony as an indicator of collaboration quality, task performance and learning. In International Conference on Artificial Intelligence in Education (pp. 98-110). Springer, Cham. |
Kazemi, V., and Sullivan, J. (2014). One millisecond face alignment with an ensemble of regression trees. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1867-1874). |
Liu, W., Pokharel, P. P., and Principe, J. C. (2006, July). Correntropy: A localized similarity measure. In The 2006 IEEE international joint conference on neural network proceedings (pp. 4919-4924). IEEE. |
Lucas, B. D., and Kanade, T. (1981, April). An iterative image registration technique with an application to stereo vision. |
Park, S., Choi, S. J., Mun, S., and Whang, M. (2019). Measurement of emotional contagion using synchronization of heart rhythm pattern between two persons: Application to sales managers and sales force synchronization. Physiology and behavior, 200, 148-158. |
Schutte, N. S., and Stilinovi?, E. J. (2017). Facilitating empathy through virtual reality. Motivation and emotion, 41(6), 708-712. |
Tomasi, C., and Kanade, T. (1991). Detection and tracking of point. features. Technical Report CMU-CS-91-132, Carnegie, Mellon University. |
Viola, P., and Jones, M. (2001, December). Rapid object detection using a boosted cascade of simple features. In Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition. CVPR 2001 (Vol. 1, pp. I-I). IEEE. |
김상미 (2020). 코로나19 관련 온라인 교육에 관한 국내 언론보도기사 분석. 한국디지털콘텐츠학회 논문지, 21(6), 1091-1100. |
최원경(Choi, Wonkyung).(2020). 면대면 대 비대면 강의 만족도 비교. 영어교과교육, 19(4): 223-245 |
Also Published As
Publication number | Publication date |
---|---|
KR102654378B1 (ko) | 2024-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110313923B (zh) | 基于联合注意能力测试和音视频行为分析的孤独症早期筛查系统 | |
US10210425B2 (en) | Generating and using a predictive virtual personification | |
Venture et al. | Recognizing emotions conveyed by human gait | |
Piana et al. | Adaptive body gesture representation for automatic emotion recognition | |
Gunes et al. | Bodily expression for automatic affect recognition | |
Szwoch et al. | Emotion recognition for affect aware video games | |
CN108780228A (zh) | 利用映像的增强现实系统和方法 | |
Li et al. | An EEG-based multi-modal emotion database with both posed and authentic facial actions for emotion analysis | |
Amara et al. | Emotion recognition for affective human digital twin by means of virtual reality enabling technologies | |
Szwoch | FEEDB: a multimodal database of facial expressions and emotions | |
Duchowski et al. | Eye movement synthesis with 1/f pink noise | |
Bevilacqua et al. | Automated analysis of facial cues from videos as a potential method for differentiating stress and boredom of players in games | |
Villa et al. | A survey of biometric and machine learning methods for tracking students’ attention and engagement | |
Celiktutan et al. | Computational analysis of affect, personality, and engagement in human–robot interactions | |
KR20240111732A (ko) | 교감형 디지털 휴먼 튜터 생성 방법 및 시스템 | |
KR102654378B1 (ko) | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 | |
KR102816643B1 (ko) | 제스처 증강 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 | |
KR102805335B1 (ko) | 제스처 증강 교감형 디지털 휴먼 튜터 생성 방법 및 시스템 | |
Ilyas et al. | Effective facial expression recognition through multimodal imaging for traumatic brain injured patient’s rehabilitation | |
Maglogiannis | Human centered computing for the development of assistive environments: The sthenos project | |
Joosten | Detecting Social Signals with Spatiotemporal Gabor Filters | |
Feghoul | Deep learning for simulation in healthcare: Application to affective computing and surgical data science | |
Rehm et al. | Effective Facial Expression Recognition Through Multimodal Imaging for Traumatic Brain Injured Patient's | |
Tangnimitchok | Non-intrusive affective assessment in the circumplex model from pupil diameter and facial expression monitoring | |
KR20240002080A (ko) | 실재감 있는 제스처 증강 디지털 휴먼 튜터 생성 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210217 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230519 Patent event code: PE09021S01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231128 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240328 |
|
PG1601 | Publication of registration |