KR20190124470A - method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique - Google Patents

method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique Download PDF

Info

Publication number
KR20190124470A
KR20190124470A KR1020180048478A KR20180048478A KR20190124470A KR 20190124470 A KR20190124470 A KR 20190124470A KR 1020180048478 A KR1020180048478 A KR 1020180048478A KR 20180048478 A KR20180048478 A KR 20180048478A KR 20190124470 A KR20190124470 A KR 20190124470A
Authority
KR
South Korea
Prior art keywords
amount
frequency band
movement
competition
fine
Prior art date
Application number
KR1020180048478A
Other languages
Korean (ko)
Other versions
KR102155777B1 (en
Inventor
황성택
이동원
박상인
문성철
원명주
황민철
Original Assignee
상명대학교산학협력단
재단법인 실감교류인체감응솔루션연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단, 재단법인 실감교류인체감응솔루션연구단 filed Critical 상명대학교산학협력단
Priority to KR1020180048478A priority Critical patent/KR102155777B1/en
Publication of KR20190124470A publication Critical patent/KR20190124470A/en
Application granted granted Critical
Publication of KR102155777B1 publication Critical patent/KR102155777B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • G06K9/00315
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method and an apparatus for evaluating a cooperation-competition relationship which is a social relationship. The method comprises the steps of: photographing faces of two subjects in a state where the two subjects can communicate using a video camera; extracting fine motion data of the subject by detecting a change amount between frames in the face image; detecting fine motion data for each frequency band by the magnitude of the fine motion of the subject from the fine motion data; and evaluating a cooperation-competition relationship between the two subjects using fine motion data for each frequency band.

Description

인체 미동 기반 상호작용에 따른 경쟁과 협력 평가 방법{method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique}Method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique}

본 발명은 비접촉 센싱 기술에 의해 사회적 상호작용에 따른 경쟁과 협력을 평가하는 방법에 관한 것으로, 상세하게는 인체 미동을 이용하여 사회적 상호작용에 따른 경쟁과 협력을 평가하는 방법에 관한 것이다.The present invention relates to a method for evaluating competition and cooperation according to social interaction by contactless sensing technology, and more particularly, to a method for evaluating competition and cooperation according to social interaction using human body movement.

IT 기술 발전에 따라 사용자는 다양한 정보와 콘텐츠를 쉽게 접근하여 사용하고 있다. 과거에는 신문, 책 등의 오프라인 콘텐츠를 이용했다면 현재는 IT기기를 활용한 온라인 콘텐츠가 그 자리를 대신하고 있다. 이와 마찬가지로 사람들 사이에서 발생 되는 커뮤니케이션의 형태도 오프라인뿐 만 아니라 온라인으로 확장되고 있다. With the development of IT technology, users are easily accessing and using various information and contents. In the past, offline content such as newspapers and books was used. Today, online content using IT devices takes the place. Similarly, the forms of communication between people are expanding online as well as offline.

사람이 행하는 커뮤니케이션 활동은 주로 단순 정보 전달과 감성적 교류의 정보전달로 나뉠 수 있다. 또한 과거에는 전달하고자 하는 정보는 수동적이고 표시 가능한 정보를 전달했다면, 현재는 양방향의 상호적인 교감, 느낌의 정서적 정보를 포함시켜 전달하고 있다. 특히 온라인에서도 정서적 감성적인 정보를 주고받으며 이를 인식하고 평가하려는 연구가 증가하고 있다. 기존 감성인식 연구는 단순히 현재 자신의 감성을 인식하는 연구로 진행 되어왔다. 하지만 사회적 관계가 온라인을 통해 관계성이 넓어지고 이슈화 되면서 사회적 관계에 따른 감성 인식 연구가 증가되고 있다. Human communication activities can be divided into simple information transfer and emotional communication. In addition, in the past, the information to be conveyed was passive and displayable information. In the present, the two-way interactive sympathy and emotional information are included. In particular, there is an increasing number of researches that exchange emotional and emotional information online and recognize and evaluate it. The existing research on emotion recognition has been conducted simply to recognize one's own emotion. However, as social relations become more wide-ranging and issues through online, research on emotional perception according to social relations is increasing.

최근에는 타인과 자신의 상호작용 속에서 유발되는 사회감성(Social Emotion) 인식에 대한 연구가 진행되고 있다. 사회감성은 두 사람 사이에서 다양한 상호작용 활동을 통해 형성되며, 관계 속에서 유발되는 고차원 감성을 의미한다. 이러한 사회감성은 두 사람의 친밀도, 공감도, 참여도 등이 그 대표적인 예이다[11,12]. 감성인식 방법은 정량적 생체 반응 데이터를 수집하기 위해 접촉식 센서를 이용해 추론했다. 그러나 센서를 착용하면 자유로운 상호작용과 의사소통을 할 수 없기 때문에 생체 반응의 정량적인 데이터를 수집하는데 한계가 있다. 이를 해결하기 위해 비접촉 센싱 기술을 활용한 감성인식 방법이 연구되고 있다. Recently, research on the recognition of Social Emotion caused by the interaction with others has been conducted. Social sensibility is formed through various interaction activities between two people, and it means high-level emotions generated in the relationship. Such social sensibility is a representative example of intimacy, empathy and participation of two people [11, 12]. Emotion recognition methods were inferred using contact sensors to collect quantitative biometric data. However, there is a limit in collecting quantitative data of biological responses because wearing sensors does not allow free interaction and communication. In order to solve this problem, emotional recognition method using non-contact sensing technology is being studied.

현재까지는 주로 얼굴 표정의 외현적 반응을 이용한 감성인식 기술이 대표적이다. 그러나 얼굴 표정만을 이용한 감성 인식은 Ekman의 6가지 기본 감성만 인식 가능하며, 복합적인 사회감성을 인식하기에는 다소 한계점이 있다. 따라서 내적인 생체 반응을 기반으로 한 비접촉 센싱 기술이 필요하다. Up to now, the emotional recognition technology using the external response of facial expressions is representative. However, emotion recognition using only facial expression can recognize only Ekman's six basic emotions, and there are some limitations in recognizing complex social emotions. Therefore, there is a need for a non-contact sensing technology based on an internal biological response.

최근 생체 반응을 비접촉 형태로 센싱하는 기술이 연구되고 있다. 선행 연구에 따르면 얼굴의 피부 변화나 머리의 움직임을 통한 심장반응 추론 연구가 보고 되었다. 이와 같이 비접촉 형태로 생체 반응을 추론 가능한 이유는 인체가 가지고 있는 해부학적 원리 때문이다. 신경공학 관점에서 심장과 뇌는 연결성을 가지고 있다. 심장의 반응은 사람이 제어 할 수 없는 인체의 반응으로 구심성(Afferent)을 통해 뇌로 전달하고 뇌의 반응은 반대로 원심성(Efferent)을 통해 제어 가능한 인지적 정보를 인체에 전달하는 역할을 하며 상호유기적인 관계를 유지한다. 이러한 관점에서 해부학적으로 전정기관(Vestibular organ)은 내적인 생리적 변화를 외적인 인체의 움직임 반응이 나타나도록 관여한다. Recently, a technique for sensing a biological response in a non-contact form has been studied. Previous studies have reported a study of inferences of heart reactions through facial skin changes or head movements. The reason why the biological response can be inferred in the non-contact form is because of the anatomical principles of the human body. From a neurotechnology perspective, the heart and brain are connected. The response of the heart is a response of the human body that cannot be controlled by the human body. The response of the heart is transmitted to the brain through afferent, and the response of the brain is to transfer controllable cognitive information to the human body through efferent. Maintain relationships. Anatomically, the vestibular organ (Vestibular organ) is involved in the internal physiological changes to the appearance of the external body movement response.

구체적으로 전정기관은 인체의 균형감각을 조절한다. 방향전환, 서있기 등 인체 상황에 따라 모든 신체 기관에 정보를 유기적으로 전달하여 인체가 균형을 잡을 수 있도록 유지하는 기관이다. 이 기관은 자율 및 중추 신경계 정보를 주고받는 신경로에 위치하고 있으며 심혈관계와 호흡계에 영향을 직접적으로 미치는 기관으로 전정반사(Vestibular reflexes)를 이용해 각종 신경계의 정보를 주고받는다. 이 때 생리적 반응을 포함한 인체의 균형감각을 유지함에 따라 미세한 움직임이 발생되고 감정, 심리 상태에 따라 그 움직임이 다르게 표현된다. 이와 같은 움직임은 사람의 눈에 보이지 않는 매우 작은 떨림으로 표현 된다. Specifically, the vestibular organ regulates the sense of balance of the human body. It is an organ that keeps the human body in balance by organically transmitting information to all body organs according to the human body situation such as redirection and standing. This organ is located in the neuropath that sends and receives autonomic and central nervous system information and directly affects the cardiovascular and respiratory system. It uses the vestibular reflexes to exchange information of various nervous systems. At this time, as the body maintains a sense of balance including a physiological response, minute movements are generated and the movements are expressed differently according to emotion and psychological state. Such movements are represented by very small tremors that are invisible to the human eye.

<선행기술문헌><Preceding technical literature>

[1] Y. S. Cha, J. H. Kim, J. H. Kim, S. Y. Kim, D. K.Kim & M. Whang, “Validity analysis of the social emotion model based on relation types in SNS”, J.of the Korea Emotion and Sensibility, Vol. 15, No. 2, pp. 283-296, 2012.[1] Y. S. Cha, J. H. Kim, J. H. Kim, S. Y. Kim, D. K. Kim & M. Whang, “Validity analysis of the social emotion model based on relation types in SNS”, J. of the Korea Emotion and Sensibility, Vol. 15, No. 2, pp. 283-296, 2012.

[2] S. Shin, M. Shin, Y. Jeong & J. Lee, “An investigation of Social Commerce Service Quality on Consumer's Satisfaction”, J of IT Convergence Society for SMB, Vol. 5, No. 2, pp. 27-32, 2015.[2] S. Shin, M. Shin, Y. Jeong & J. Lee, “An investigation of Social Commerce Service Quality on Consumer's Satisfaction”, J of IT Convergence Society for SMB, Vol. 5, No. 2, pp. 27-32, 2015.

[3] H. Kim & P. Jang, “Differences in Sentiment on SNS: Comparison among Six Languages", J of the Digital Convergence, Vol. 14, No. 3, pp. 165-170, 2016.[4] E. Jung, J. Kim, H. J & K. Chung, Social Network based Sensibility Design Recommendation using {User?Associative Design} Matrix", J of the Digital Convergence, Vol. 14, No. 8, pp. 313-318,2016.[3] H. Kim & P. Jang, “Differences in Sentiment on SNS: Comparison among Six Languages”, J of the Digital Convergence, Vol. 14, No. 3, pp. 165-170, 2016. [4] E Jung, J. Kim, H. J & K. Chung, Social Network based Sensibility Design Recommendation using {User? Associative Design} Matrix ", J of the Digital Convergence, Vol. 14, No. 8, pp. 313-318,2016.

[5] J. Ahn & S. Kim, “Comparison the Difference of User Experience for Mobile Facebook and Instagram Using Nonparametric Statistics Methods -Focused on Emotional Interface Model-", J of the Digital Convergence, Vol. 14, No. 11, pp. 481-488,2016.[5] J. Ahn & S. Kim, “Comparison the Difference of User Experience for Mobile Facebook and Instagram Using Nonparametric Statistics Methods-Focused on Emotional Interface Model-", J of the Digital Convergence, Vol. 14, No. 11, pp. 481-488,2016.

[6] D. K. Lee & Y. D. Yoon, “Study of Emotional Communication Strategy of Storytelling through Social Media - Based on the "Bear and Hare" Commercial of John lewis”, J of the Korea Contents Association, Vol. 16, No. 11, pp. 29-37, 2016.[6] D. K. Lee & Y. D. Yoon, “Study of Emotional Communication Strategy of Storytelling through Social Media-Based on the" Bear and Hare "Commercial of John lewis", J of the Korea Contents Association, Vol. 16, No. 11, pp. 29-37, 2016.

[7] Y. J. Kim, Motivation to use according to the relationship formation of social network service : focusing on Twitter and Me2DAY. Hongik University, Master. thesis, 2010.[7] Y. J. Kim, Motivation to use according to the relationship formation of social network service: focusing on Twitter and Me2DAY. Hongik University, Master. thesis, 2010.

[8] Y. J. Kim,“A Study of Online Relationship”, J. of the Broadcasting and Telecommunication Studies, Vol. 23, No. 5, pp. 45-82, 2009.[8] Y. J. Kim, “A Study of Online Relationship”, J. of the Broadcasting and Telecommunication Studies, Vol. 23, No. 5, pp. 45-82, 2009.

[9] Y. Bae,“Social Relation in Cyberspace-Focused on the Making and Maintenance of Relation with Personal Media”, J. of the Korea Socialogy, Vol. 39, No. 5, pp. 55-82, 2005.[9] Y. Bae, “Social Relation in Cyberspace-Focused on the Making and Maintenance of Relation with Personal Media”, J. of the Korea Socialogy, Vol. 39, No. 5, pp. 55-82, 2005.

[10] J. H. Park,“Exploring Factors Influencing User’s Continuance Intention in Social Networking Sites”, J. of the Korea Society for Information Management, Vol. 25, No. 4, pp. 205-226, 2008.[11] S. J. Lim, The Integrated Model of Social Emotion Based on Both Emotional Adjectives and Face Expression. Sangmyung University, MS. thesis,2015.[10] J. H. Park, “Exploring Factors Influencing User's Continuance Intention in Social Networking Sites,” J. of the Korea Society for Information Management, Vol. 25, No. 4, pp. 205-226, 2008. [11] S. J. Lim, The Integrated Model of Social Emotion Based on Both Emotional Adjectives and Face Expression. Sangmyung University, MS. thesis, 2015.

[12] J. E. Cho, S. Park, M. J. Won, M. J. Park & M. Whang,“Research on Micro-Movement Responses of Facial, Muscles by Intimacy, Empathy, Valence”, J. of the Korea Contents Association, Vol. 17, No. 2, pp. 439-448, 2017.[12] J. E. Cho, S. Park, M. J. Won, M. J. Park & M. Whang, “Research on Micro-Movement Responses of Facial, Muscles by Intimacy, Empathy, Valence”, J. of the Korea Contents Association, Vol. 17, No. 2, pp. 439-448, 2017.

[13] J. H. Park, A Study on Emotion Evaluation by Change of the Facial Micromobility, Sangmyung University, MS. thesis, 2012.[13] J. H. Park, A Study on Emotion Evaluation by Change of the Facial Micromobility, Sangmyung University, MS. thesis, 2012.

[14] K. Scherer & P. Ekman, Expression and the natureof emotion, Approaches to Emotion, 1984.[14] K. Scherer & P. Ekman, Expression and the nature of emotion, Approaches to Emotion, 1984.

[15] Wu. H. Y, Rubinstein. M, Shih. E, Guttag. J. V, Durand. F & Freeman. W. T, "Eulerian video magnification for revealing subtle changes in the world", J of the ACM Transactions on Graphics, Vol. 31, No. 4, pp. 1-8, 2012.[15] Wu. H. Y, Rubinstein. M, Shih. E, Guttag. J. V, Durand. F & Freeman. W. T, "Eulerian video magnification for revealing subtle changes in the world", J of the ACM Transactions on Graphics, Vol. 31, No. 4, pp. 1-8, 2012.

[16] Poh. M. Z, McDuff. D. J & Picard. R. W, "Non-contact, automated cardiac pulse measurements using video imaging and blind source separation", J. of the Optics express, Vol. 18, No. 10, pp. 10762-10774, 2010.[16] Poh. M. Z, McDuff. D. J & Picard. R. W, "Non-contact, automated cardiac pulse measurements using video imaging and blind source separation", J. of the Optics express, Vol. 18, No. 10, pp. 10762-10774, 2010.

[17] M. Whang & S. Park, "Brain-Heart Neural Connectivity and Emotion" J. of the Architecture and Building Science, Vol. 58, No. 9, pp. 59-62, 2014.[17] M. Whang & S. Park, "Brain-Heart Neural Connectivity and Emotion" J. of the Architecture and Building Science, Vol. 58, No. 9, pp. 59-62, 2014.

[18] T. K. Lee & W. H. Chung, "Vestibular Influences on Autonomic Regulation", J. of the Korea Balance Society, Vol. 5, No. 2, pp. 329-335, 2006.[18] T. K. Lee & W. H. Chung, "Vestibular Influences on Autonomic Regulation", J. of the Korea Balance Society, Vol. 5, No. 2, pp. 329-335, 2006.

[19] E. C. Lee, M. Whang, D. Ko, S. Park & S. T. Hwang, A New Social Emotion Estimating Method by Measuring Micro-Movement of Human Bust, In Industrial Application of Affective Engineering, 2014.[19] E. C. Lee, M. Whang, D. Ko, S. Park & S. T. Hwang, A New Social Emotion Estimating Method by Measuring Micro-Movement of Human Bust, In Industrial Application of Affective Engineering, 2014.

[20] S. Park, M. J. Won, S. Mun, E. C. Lee and M. Whang, "Does visual fatigue from 3D displays affect autonomic regulation and heart rhythm?", J. of the Psychophysiology, Vol. 92, No. 1, pp. 42-48, 2011.[20] S. Park, M. J. Won, S. Mun, E. C. Lee and M. Whang, "Does visual fatigue from 3D displays affect autonomic regulation and heart rhythm?", J. of the Psychophysiology, Vol. 92, No. 1, pp. 42-48, 2011.

[21] V. Muller & U. Lindenbeerger, "Cardiac and Respiratory Patterns Synchronize between Persons during Choir Singing", J. of the PloS one, Vol. 6, No. 9, pp. e24893, 2011.[21] V. Muller & U. Lindenbeerger, "Cardiac and Respiratory Patterns Synchronize between Persons during Choir Singing", J. of the PloS one, Vol. 6, No. 9, pp. e24893, 2011.

[22] D. Tag, "A Study on The Influence of Convergence Benefit of Facebook Fan Page in Brand Attachment and Brand Commitment", J. of the Korea Convergence Society, Vol. 6, No. 5, pp.199-206, 2015.[22] D. Tag, "A Study on The Influence of Convergence Benefit of Facebook Fan Page in Brand Attachment and Brand Commitment", J. of the Korea Convergence Society, Vol. 6, No. 5, pp. 199-206, 2015.

[23] L. S. Kim, "Convergence of Information Technology and Corporate Strategy", J. of the Korea Convergence Society, Vol. 6, No. 6, pp. 18-26, 2015.[23] L. S. Kim, "Convergence of Information Technology and Corporate Strategy", J. of the Korea Convergence Society, Vol. 6, No. 6, pp. 18-26, 2015.

[24] M. Lee, "A Game Design for IoT environment", J. of the Korea Convergence Society, Vol. 6, No. 4, pp. 134-137, 2015[24] M. Lee, "A Game Design for IoT environment", J. of the Korea Convergence Society, Vol. 6, No. 4, pp. 134-137, 2015

본 발명은 인체 미동(MM, Micro-movement 을 비접촉 영상처리 기술을 이용해 생체 반응 정보로서 추출하며, 이를 이용해 사회적 상호작용에 유발 될 수 있는 감성인 경쟁(Competition)과 협력(Cooperation)에 대한 사회감성인식을 평가하는 방법을 제시한다.The present invention extracts human microscopic movements (MM, Micro-movement) as biometric response information using non-contact image processing technology, and uses it for social sensitivity to competition and cooperation that can be induced in social interaction. Present ways to assess perception.

본 발명에 따른 방법:은Process according to the invention:

동영상 카메라를 이용해 교감이 가능한 상태에 있는 두 피험자의 안면을 촬영하는 단계;Photographing the faces of two subjects in a sympathetic state using a video camera;

상기 안면 영상에서 프레임간 변화량을 검출하여 피험자의 미세 움직임 데이터를 추출하는 단계;Extracting fine motion data of a subject by detecting a change amount between frames in the face image;

상기 미세 움직임 데이터로부터 상기 피험자의 미세 움직임의 크기 별로 소정 주파수 밴드 별로 미동 데이터를 검출하는 단계; 그리고Detecting fine motion data for each frequency band by the magnitude of the fine motion of the subject from the fine motion data; And

상기 주파수 밴드 별 미동 데이터를 이용하여 상기 두 피험자 간의 협력-경쟁 관계성을 평가하는 단계;를 포함한다.And evaluating a cooperative-competition relationship between the two subjects using the frequency band fine motion data.

본 발명의 구체적인 실시 예에 따르면, 상기 협력-경쟁 관계성의 평가는 상기 주파수 밴드 별 움직임 양, 움직임 변화량 또는 움직임의 동기화 중의 어느 하나를 이용할 수 있다.According to a specific embodiment of the present invention, the evaluation of the cooperative-competition relationship may use any one of the amount of motion for each frequency band, the amount of change in motion, or the synchronization of motion.

본 발명의 구체적인 실시 예에 따르면, 상기 주파수 밴드는 0.5Hz, 1Hz, 3Hz, 5Hz 또는 15Hz 중의 적어도 어느 하나의 밴드를 포함할 수 있다.According to a specific embodiment of the present invention, the frequency band may include at least one band of 0.5Hz, 1Hz, 3Hz, 5Hz or 15Hz.

본 발명의 구체적인 실시 예에 따르면, 상기 움직임 변화량은 아래의 <식>에서 정의되는 미동량(OFHZ)이다.According to a specific embodiment of the present invention, the movement change amount is a fine movement amount (O FHZ ) defined by the following Equation.

<식><Expression>

Figure pat00001
Figure pat00001

상기 식에서, W와 H는 미동량 측정 대상이 되는 영역, 즉 ROI(Region of interest)에서 상체 미동의 수평 및 수직 길이(크기 또는 거리), In(i, j) 는 n 번째 이미지 프레임의 i 번째 칼럼(Column)과 J 번째 로(Row)의 픽셀 값, R은 사용된 카메라의 프레임 레이트(Frame rate)이다.In the above formula, W and H are horizontal and vertical lengths (size or distance) of upper body fines in the region of interest, i.e., region of interest (ROI), and In ( i, j ) is the i th of the nth image frame The pixel values of the column and Jth row, R, are the frame rate of the camera used.

본 발명의 구체적인 실시 예에 따르면, 상기 두 피험자는 온라인 또는 오프라인 상에서 상호 마주대할 수 있다.According to a specific embodiment of the present invention, the two subjects may face each other on-line or off-line.

상기 방법을 수행하는 본 발명에 따른 경쟁-협력 관계성 평가장치:는 Apparatus for evaluating competition-cooperation relationship according to the present invention for performing the above method:

상기 피험자를 촬영하는 동영상 카메라;A video camera photographing the subject;

상기 동영상 카메라로부터의 영상을 처리하는 영상 처리부; 그리고An image processor which processes an image from the video camera; And

상기 영상 처리부로 부터의 정보를 이용해 피험자간의 협력-경쟁 관계성을 평가하는 분석부;를 포함할 수 있다.And an analyzer configured to evaluate a cooperative-competition relationship between the subjects using the information from the image processor.

도1은 본 발명에 따른 실험환경을 보인다.
도2는 본 발명에 따른 실험에 사용되는 키보드의 키 배열을 보인다.
도3은 본 발명에 따른 협력-경쟁 실험에서 제시되는 화면을 보인다.
도4는 본 발명에 따른 협력-경쟁 실험에서 인체 미동 추출에 사용되는 인터페이스 화면이다.
도5는 본 발명의 실험에 의해 얻어진 주파수 밴드 별 미동을 도시한다.
도6은 본 발명의 실험 절차를 보이는 흐름도이다.
도7은 본 발명의 실험 절차에서의 태스크 흐름을 보인다.
도8은 본 발명에 따른 실험 결과로서 미동량의 패턴을 보인다.
도9은 본 발명에 따른 실험 결과로서 미동량 통계분석 결과를 보인다.
도10은 본 발명에 따른 실험 결과로서 미동 변화 패턴을 보인다.
도11은 본 발명에 따른 실험 결과로서 미동 변화의 통계 분석결과를 보인다.
도12는 본 발명에 따른 실험 결과로서 그룹 동기화 상관성 분석 결과를 보인다.
도13은 본 발명에 따른 실험 결과로서 그룹 동기화 패턴을 보인다.
도14는 본 발명의 실험에 사용되는 시스템의 블록다이어그램이다.
도15는 본 발명의 실험에 의해 획득된 룰베이스를 보이는 그래프이다.
1 shows an experimental environment according to the present invention.
Figure 2 shows the key arrangement of the keyboard used in the experiment according to the present invention.
3 shows a screen presented in a co-competition experiment according to the present invention.
4 is an interface screen used for extracting human body movements in a co-competition experiment according to the present invention.
Fig. 5 shows fine motion for each frequency band obtained by the experiment of the present invention.
6 is a flowchart showing an experimental procedure of the present invention.
Figure 7 shows the task flow in the experimental procedure of the present invention.
8 shows a pattern of microscopic amounts as a result of the experiment according to the present invention.
Figure 9 shows the results of the statistical analysis of small amounts as experimental results according to the present invention.
10 shows the microscopic change pattern as a result of the experiment according to the present invention.
Figure 11 shows the statistical analysis of the microscopic change as an experimental result according to the present invention.
12 shows the results of group synchronization correlation analysis as an experimental result according to the present invention.
Figure 13 shows a group synchronization pattern as a result of the experiment according to the present invention.
14 is a block diagram of a system used in the experiment of the present invention.
Figure 15 is a graph showing the rule base obtained by the experiment of the present invention.

이하, 첨부된 도면을 참조하면서 본 발명에 따른 인체 미세 움직임을 이용한 피험자간 협력/경쟁 관계성을 평가하는 방법 및 장치의 구체적인 실시 예에 대해 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a specific embodiment of the method and apparatus for evaluating the cooperation / competition relationship between the subjects using the human body movement according to the present invention.

먼저, 본 발명에 따른 협력/경쟁 관계성 평가 방법을 검증하기 위한 실험에 대해 설명한다.First, an experiment for verifying a cooperation / competition relationship evaluation method according to the present invention will be described.

<피험자><Subject>

피험자는 태스크(Task)를 수행하기 위해 한 쌍이 될 수 있도록 하며 성별에 따른 차이를 고려해 남녀 비율을 맞춰 모집 하였다. 두 피험자 간에는 어색함을 배제하기 위해 서로 안면이 있는 피험자로 선정하였으며 적극적인 태스크를 수행 할 수 있도록 하였다. 이 실험에 대학생 12명(남자6명, 여자6명, 평균나이: 25.72 ±1.26)이 피험자로 참여하였다. 이러한 피험자는 심혈 및 신경계에 병력이 없는 자를 모집하였다. 실험 전 수면 및 심혈관계에 미칠 수 있는 카페인, 흡연, 음주 등에 섭취는 금하도록 권고하였다. 피험자로부터 연구 목적을 제외하고 실험에 대한 대략적인 사항에 대해 설명한 후 자발적 참여의사에 대한 피험자 동의서를 받았다. 실험에 참여한 대가로 소정의 금액을 지불하여 실험 참여의사를 높였다.Subjects could be paired to perform the task, and the gender ratio was recruited considering gender differences. The two subjects were selected as face-to-face subjects to avoid awkwardness and were able to perform aggressive tasks. Twelve college students (6 males, 6 females, average age: 25.72 ± 1.26) participated in the experiment. These subjects recruited those with no history of cardiovascular and nervous systems. Before the experiment, it was recommended to avoid ingestion of caffeine, smoking, and drinking that may affect sleep and cardiovascular system. Subjects were given an informed consent for their voluntary intention after explaining the approximate details of the experiment, except for the purpose of the study. The intention to participate in the experiment was raised by paying a predetermined amount in exchange for participating in the experiment.

<실험환경>Experimental Environment

실험 환경에는 패턴 맞추기 태스크를 수행 할 수 있는 시스템과 자극 화면을 볼 수 있는 42인치 대형 모니터, 태스크 수행을 위한 키보드, 피험자를 동시에 영상 촬영할 수 있는 웹 카메라가 배치되었다. The experimental environment includes a system that can perform pattern matching tasks, a large 42-inch monitor that can see the stimulus screen, a keyboard for task execution, and a web camera that can simultaneously photograph the subject.

두 명의 피험자는, 도1에 도시된 비와 같이 피험자 1(S1)과 피험자 2(S2)의 자리에 앉아 시스템에서 제공되는 경쟁과 협력 태스크를 수행 할 수 있도록 하였다.The two subjects, as shown in Figure 1, sit in the seats of Subject 1 (S1) and Subject 2 (S2) to perform the competition and cooperation tasks provided by the system.

실험은 이성간 차이를 없애기 위해 동성 간에 진행 하였으며 피험자는 리더(Leader)와 팔로워(Follower)로 분류하였다. 리더(Leader)는 상대방 뒤편에 있는 자극시스템의 모니터에 나타나는 제시 된 얼굴 표정을 직접 보고 태스크(Task)를 수행하였고 팔로워(Follower)는 리더(Leader)의 얼굴을 직접보고 얼굴 표정 실험을 진행 하였다. 두 피험자는 서로 역할을 바꿔 4번의 반복을 진행 하였다. 리더(Leader)와 팔로워(Follower)의 역할 진행시 순서에 따른 효과를 제거하기 위해 무작위적(Random)으로 수행 하였다. 태스크(Task) 수행은 제시 된 표정을 따라 하였으며 실험 절차는 도1에 도시된 바와 같다.The experiment was conducted between the same sex to eliminate the difference between the opposite sex, and the subjects were classified as leader and follower. The leader performed the task by directly looking at the suggested facial expressions displayed on the monitor of the stimulation system behind the other party, and the follower conducted the facial expression experiment by directly looking at the leader's face. The two subjects performed four repetitions with different roles. In order to remove the effects of the order during the role of the leader and the follower, they were performed randomly. Task performance was performed according to the presented expression, and the experimental procedure is as shown in FIG.

<실험자극><Experimental Stimulation>

패턴 맞추기 태스크 수행에 필요한 실험 자극은 3 가지색의 동전(금색, 은색, 동색)으로 구성했다. The experimental stimuli needed to perform the pattern matching task consisted of three coins (gold, silver and copper).

중앙에 제시된 (Target)은 상기 3 가지 동전을 조합하여 랜덤 하게 패턴을 제작 후 디스플레이 하였다. Target (Target) is a combination of the three coins to produce a pattern randomly displayed.

움직임에 대한 영향을 최소화하기 위해 태스크 수행은 오른손으로만 제어할 수 있도록 키보드를 배치하였으며 배치 된 키 배열은 도2에 도시된 바와 같다.In order to minimize the influence on the movement, the keyboard is arranged so that the task execution can be controlled only by the right hand, and the arranged key arrangement is shown in FIG. 2.

경쟁 시 자극은 패턴을 맞출 수 있는 각 화면을 피험자 별로 제시하고 화면 중앙에 맞춰야 하는 타겟 패턴(Target Pattern)을 제시하여 제한된 3분 동안 무제한으로 패턴을 맞춰 각 피험자 별로 점수(Score)를 누적 하였다. 협력 시 자극은 경쟁과 동일 한 방법으로 패턴 맞추기 태스크를 수행하는데 좌측에는 컴퓨터의 화면을 제시하고 우측에는 팀 화면에 피험자 1(Subject 1)과 피험자 2(subject 2)의 커서를 제시하여 컴퓨터와 팀이 경쟁하여 실제로 팀은 협력이 유발 되도록 태스크를 제시했다. In the competition, the stimulus presented each screen that can match the pattern by each subject, and presented a target pattern that should be centered on the screen, and accumulated a score for each subject by setting an unlimited pattern for a limited 3 minutes. In cooperation, the stimulus performs the pattern matching task in the same way as the competition. On the left side, the computer screen is displayed by showing the computer screen on the left side and the subject 1 and the subject 2 cursors on the team screen on the right side. In this competition, the team actually presented tasks to encourage cooperation.

최종 3분이 지난 후에는 경쟁 시에는 많은 점수를 획득한 피험자에게 추가 보상을 협력 시에는 컴퓨터 보다 많은 점수를 획득 시에 팀에게 추가 보상을 태스크가 끝나자마자 바로 지급하였으며 제시된 화면은 도3에 도시된 바와 같다. After the last 3 minutes, additional rewards were given to subjects who scored a lot during the competition, and additional rewards were given to the team as soon as the task was completed. As shown.

<데이터 수집 및 처리><Data collection and processing>

영상 데이터 수집은 두 피험자 모두 정면에서 상반신을 촬영 할 수 있도록 하였다. 웹 카메라는 Logitech사의C920을 사용하였다. 카메라 설정은 해상도 1280×720,30fps와 화이트 밸런스 및 포커스 등 영상 데이터 취득 시 데이터에 오차를 줄이기 위해 각 자동 조절 기능들은 모두 OFF 상태로 유지하였다. Image data collection enabled both subjects to photograph the upper body from the front. The web camera used Logitech's C920. The camera settings were set to 1280 × 720,30fps and all the auto-adjustment functions were turned OFF to reduce errors in the data when acquiring image data such as white balance and focus.

도14은 본 발명에서 적용하는 시스템의 개략적 구성도이다.14 is a schematic structural diagram of a system to be applied in the present invention.

두 피험자(S1, S2)를 각각 촬영하는 카메라는 동영상 카메라, 예를 들어 웹캠 또는 소형 동영상 카메라(110a, 110b)이다. 카메라(110a, 110b)로부터의 동영상은 영상 처리부(120)를 거쳐서 특정의 영상이 추출되고 이것은 프로세싱 장치(130)에 의해 처리된다. 프로세싱 장치(130)는 전술한 바와 같은 방법을 수행하는 소프트웨어 및 이를 지원하는 하드웨어 시스템을 가진다. 도14에서는 피험자별로 카메라가 배치되는 것으로 표현되어 있으나, 본 발명의 다른 실시 예에 따르면, 도1에 도시된 바와 같이 하나의 카메라에 두 피험자를 촬영하게 할 수 도 있다.Cameras photographing the two subjects S1 and S2, respectively, are video cameras, for example webcams or small video cameras 110a and 110b. The moving image from the cameras 110a and 110b is extracted through the image processing unit 120 and a specific image is processed by the processing apparatus 130. The processing device 130 has software for performing the method as described above and a hardware system supporting the same. In FIG. 14, cameras are arranged for each subject, but according to another exemplary embodiment of the present disclosure, two subjects may be photographed in one camera as illustrated in FIG. 1.

이러한 프로세싱 장치(130)는 컴퓨터 기반의 장치, 예를 들어 전술한 바와 같은 방법 또는 알고리즘을 담고 있는 소프트웨어 및 이 소프트웨어가 구동할 수 있는 하드웨어를 포함하는 범용 컴퓨터 또는 전용 장치일 수 있다. 상기와 같은 프로세싱 장치(130)로부터의 처리 결과는 디스플레이 장치(130)에 의해 표시된다. 위와 같인 시스템은 일반적인 입력 장치를 포함하는 일반적인 외부 인터페이스 장치, 예를 들어 키보드, 마우스 등을 더 포함할 수 있다.Such processing device 130 may be a computer-based device, for example a general purpose computer or dedicated device including software containing the methods or algorithms described above and hardware on which the software can run. The processing result from the processing device 130 as described above is displayed by the display device 130. The system as described above may further include a general external interface device including a general input device, for example, a keyboard, a mouse, and the like.

이러한 시스템을 이용함에 있어서, OpenCV와 Visual C++를 이용해 얼굴의 중심부를 기준으로 ROI(Region of Interest) 설정 후 움직임 차이 값의 정보를 평균으로 하여 주파수 대역의 파워값을 추출 하도록 구현 하였으며 도4에 도시된 바와 같다.In this system, OpenCV and Visual C ++ were used to extract the power value of the frequency band by averaging the information of the movement difference after setting the ROI (Region of Interest) based on the center of the face. As it is.

이하에서 구체적인 데이터 처리방법을 살펴본다.Hereinafter, a detailed data processing method will be described.

영상 카메라를 이용하여 입력 된 영상 데이터를 이용하여 인체의 미세한 움직임을 머리에서 추출하기 위하여 OpenC를 이용한 안면인식을 통해 영상 정보를 분리한다. In order to extract fine movements of the human body from the head using the image data input using the image camera, image information is separated through face recognition using OpenC.

OpenCV(Open Computer Vision)은 C 이다. 원래는 이 개발하였으며, , 등의 여러 플랫폼에서 사용할 수 있다. 이러한 OpenCV는 실시간 이미지 프로세싱에 중점을 둔 라이브러리이다. Open Computer Vision is OpenCV. Originally developed by, it can be used on several platforms, including. This OpenCV is a library focused on real-time image processing.

상기 OpenCV에 기반을 둔 안면 인식 시스템(facial recognition system)은 디지털 이미지를 통해 각 사람을 자동으로 식별하는 컴퓨터 지원 응용 프로그램을 말한다. 이는 살아 있는 이미지에 나타나는 선택된 얼굴 특징과 안면 데이터베이스를 서로 비교함으로써 이루어진다. The OpenCV based facial recognition system refers to a computer-assisted application that automatically identifies each person through a digital image. This is done by comparing the facial database with the selected facial features appearing in the live image.

Adaboost 방법을 적용한 안면 인식 시스템 또는 검출기(프로그램)을 이용하여 상체 이미지의 첫 번째 프레임에서 얼굴 영역을 검출한다. 이때에, 모든 프레임들에서 얼굴 영역의 검출은 필요하지 않다. 이는, 본 발명에 따라서, 인접한 두 프레임에서 동일한 위치의 픽셀의 (휘도)값의 차를 구하여 미세 움직임의 양을 추출하기 때문이다.The facial region is detected in the first frame of the upper body image using a facial recognition system or a detector (program) using the Adaboost method. At this time, detection of the face area in all the frames is not necessary. This is because, according to the present invention, the amount of fine movement is extracted by obtaining a difference of (luminance) values of pixels at the same position in two adjacent frames.

Adaboost 방법은, 입력 이미지에서 안면을 검출하기 위하여 많은 약한 분류기(Simple Weak Classifier)를 결합(combining)하는 것에 의해 생성된 강한 분류기(Strong Classifier)를 사용한다. 알고리즘은 많은 학습 시간을 요구하지만, 이것은 검출에 요구되는 짧은 시간과 양질의 검출 결과의 이점(Advantage) 등을 가진다. 이것은, 1/4로 데시메이션된(decimated) 이미지에서 안면 영역을 검출하는데 한 이미지 당 평균 29msec(밀리초)가 소요되었다.The Adaboost method uses a Strong Classifier created by combining many Simple Weak Classifiers to detect faces in the input image. Algorithms require a lot of learning time, but this has the short time required for detection and the advantages of good detection results. This took an average of 29 msec (milliseconds) per image to detect the facial area in a decimated image of 1/4.

안면 영역 검출 이후, 상체 미세 움직임을 계산하기 위하여 이미지를 빼기(Subtracting) 위한 선택된 영역(Candidate region, 도2에서 녹색 사각형)은 안면 영역의 수평 방향으로 소정 수의 픽셀, 예를 들어 160 픽셀로 확장시켰다After facial region detection, the selected region for subtracting the image (green square in FIG. 2) to expand the upper body fine motion extends to a predetermined number of pixels, for example 160 pixels, in the horizontal direction of the facial region. Let

안면 인식 프로그램은 각 영상의 프레임별 차이 값을 계산하여 한 프레임 간 변화 된 움직임의 양을 계산하는 것으로 현재와 이전의 움직임 정보를 추출하여 초당 30 Hz의 Raw 데이터가 된다. 여기에서 Raw 데이터로부터 통해 움직임의 크기에 따라 주파수 성분으로 추출한다. The facial recognition program calculates the amount of motion changed between frames by calculating the difference value of each frame of each image, and extracts current and previous motion information into raw data of 30 Hz per second. From the raw data, we extract the frequency components according to the size of the motion.

구체적으로 30 Hz의 미동 데이터는 초당 0.5 Hz, 1 Hz, 3 Hz, 5 Hz, 15 Hz 주파수밴드별로 평균 미동량(OFHZ)를 추출하였다.Specifically, the average fine movement amount (O FHZ ) was extracted for each 30 Hz frequency band of 0.5 Hz, 1 Hz, 3 Hz, 5 Hz, and 15 Hz frequency bands.

구체적으로 주파수 밴드 별로 평균 미동량을 측정하기 위하여, 카메라 영상 분석 프로그램이 분석에 적용되었다. 캡쳐된 칼라 이미지는 흑백의 그레이 스케일로 변환되었다. 이는 이미지의 색상 정보는 거동 분석에 있어서 중요하지 않기 때문이다. 미동 평균량 "O"을 계산함에 있어서, 주파수가 임의 값 "F" 인 대역에서의 평균 미동량(OFHz, Average amount of micro movement at Frequency "F" Band)은 아래의 식으로 계산될 수 있다 Specifically, in order to measure the average amount of fine movement for each frequency band, a camera image analysis program was applied to the analysis. The captured color image was converted to gray scale of black and white. This is because the color information of the image is not important for behavior analysis. In calculating the fine movement average amount "O" , the average amount of micro movement at frequency "F" band (F F) may be calculated by the following equation.

<식1><Equation 1>

Figure pat00002
Figure pat00002

상기 식1에서, W와 H는 미동량 측정 대상이 되는 영역, 즉 ROI(Region of interest)에서 상체 미동의 수평 및 수직 길이(크기 또는 거리)이다. 그리고, In(i, j) 는 n 번째 이미지 프레임의 i 번째 칼럼(Column)과 J 번째 로(Row)의 픽셀 값이다. R은 사용된 카메라의 프레임 레이트(Frame rate)이다.In Equation 1, W and H are horizontal and vertical lengths (sizes or distances) of upper body fines in a region to be measured for microscopic movements, that is, a region of interest (ROI). In ( i, j ) are pixel values of the i th column and the J th row of the n th image frame. R is the frame rate of the camera used.

도4에서, (1)의 화면은 피험자의 실시간 얼굴 영상을 표시하는 화면이며, (2)의 화면은 실제 피험자의 움직임이 발생한 정보만 표시하는 영역으로 그 데이터는 (4)화면과 같이 나타나게 된다. (3)화면의 경우 잘 보이지 않는 미세한 움직임의 데이터를 실시간으로 추출 할 때 나타나는 움직임 양의 원형 데이터(Raw data)를 표시하는 화면이다.In Fig. 4, the screen of (1) is a screen displaying a real-time face image of the subject, and the screen of (2) is an area displaying only information on which the actual subject's movement occurred, and the data is displayed as shown in (4) screen. . (3) The screen is a screen that displays the raw data of the amount of motion that appears when extracting minute motion data that is hard to see.

도5는 위와 같은 데이터 처리에 얻어진 미동에 대한 그래프이다.Fig. 5 is a graph of fine motion obtained in the above data processing.

사람 눈에 보이는 큰 움직임의 경우 저주파 성분의 속성에서 나타나고 눈에 보이지 않는 작은 움직임은 고주파 성분에서의 매우 작게 나타나는 움직임 성분을 가지고 있게 된다.In the case of large movements visible to the human eye, small movements appear in the properties of low frequency components, and small movements invisible have very small movement components in high frequency components.

따라서, 본 발명의 실험에서는 가장 많은 샘플링(Sampling)이 가능하고 가장 작은 데이터를 볼 수 있는 고주파인 15Hz 대역을 선정하여 해당 주파수 성분의 데이터를 추출할 수 있도록 선행 연구에서 제시하는 주파수 성분 추출방법과 평균값 도출 알고리즘을 적용하였다. Therefore, in the experiments of the present invention, the frequency component extraction method proposed in the previous study was selected to extract the data of the corresponding frequency components by selecting a high frequency 15 Hz band capable of sampling the most and viewing the smallest data. The mean derivation algorithm is applied.

해당 주파수 성분의 움직임 데이터를 추출하였고 프레임 내의 전체 움직임을 평균으로 변환해 저장하여 데이터를 수집하였다. The motion data of the frequency component was extracted, and the total motion in the frame was converted to an average and stored.

실험 절차는 도6에 도시된 바와 같은 순서로 진행되었는데, 태스크를 수행 할 수 있는 자극 시스템 앞에 두 피험자가 앉은 상태에서 진행되었다.The experimental procedure was performed in the order shown in FIG. 6, with two subjects sitting in front of the stimulation system capable of performing the task.

(1) 피험자에게 카메라 및 키보드 위치를 실험에 맞춰 설정 후 진행 할 수 있도록 하였다. (1) Subject was allowed to proceed after setting camera and keyboard position in accordance with experiment.

(2) 태스크 수행에 이해를 돕기 위해 사전에 경쟁과 협력에 대한 설명을 진행하였다. (2) The competition and cooperation were explained in advance to help understand the task performance.

(3) 조작 실수에 대한 오류를 최소화하기 위해 태스크의 사전 테스트를 통해 충분히 익힌 후 실험을 진행하도록 하였다. (3) In order to minimize the error of the operation mistake, the experiment was conducted after fully learned through the pre-test of the task.

(4) 조작패널에 대한 숙지가 완료 되면 실험에 관한 태스크를 수행하였다. (4) When the knowledge of the operation panel was completed, the task on the experiment was performed.

(5) 실험이 완료되면 측정 및 설정을 종료 하였다.(5) When the experiment was completed, the measurement and setting were finished.

실험의 태스크 수행은 경쟁과 협력으로 구분되어 두 피험자가 서로 경쟁을 하고 협력을 하는 태스크를 하여 2회 반복 수행 하였다. Task performance of the experiment was divided into competition and cooperation, and two subjects performed the task of competing and cooperating with each other twice.

또한 반복되는 실험에 따른 생리반응의 지속효과(Running effect)를 최소화하기 위해 태스크 시작 전과 후에 레퍼런스(Reference)와 휴식(Rest 타임)을3분과 5분을 주었으며 실제 수행 된 태스크는 3분간 진행되었고 절차는 도7에 도시된 바와 같다. In addition, to minimize the running effect of the physiological response according to repeated experiments, the reference and rest time were given before and after the start of the task for 3 minutes and 5 minutes. Is as shown in FIG.

<데이터 분석><Data analysis>

경쟁과 협력의 태스크 수행 시 측정 된 영상 데이터로부터 전술한 방법에 의해 미동 데이터를 추출하여 분석하였으며 미동 양, 미동의 변화량, 미동의 동조성 3가지의 지표(Indicator)를 도출하여 분석하였다. Fine motion data was extracted and analyzed by the above-mentioned method from the image data measured during the task of competition and cooperation, and three indicators of the amount of fine movement, the amount of change in fine movement, and the coordination of fine movement were derived and analyzed.

본 발명에서 추출한 지표(Indicator)들로서, 미동 양은 각 피험자의 태스크 수행 시 발생되는 미세 움직임의 양을 뜻한다. 그리고, 미동의 변화량은 발생된 미세 움직임의 정규화 과정을 수행한 변화 정도를 뜻한다. 또한, 미동의 동조성은 두 피험자의 움직임에 대한 일치성을 분석하는 지표이다. As the indicators extracted in the present invention, the micro-movement amount refers to the amount of fine movement generated when each subject performs a task. In addition, the change amount of fine motion refers to the degree of change performed by the normalization process of the generated fine motion. In addition, coarseness of fineness is an indicator to analyze the correspondence of the movements of two subjects.

이와 같은 지표는 HRC(Heart rhythm coherence)나 HRP(Heart rhythm pattern)와 같은 생리반응을 분석하는 방법론과 개념을 미동 지표에 반영하여 분석을 진행 하였다. 미동 양과 변화량 데이터는 정규성을 만족하지 못하여 비모수 검정(Mann-whitney)을 수행하였다. These indicators were analyzed by reflecting the methodology and concept of physiological responses such as HRC (Heart rhythm coherence) or HRP (Heart rhythm pattern) in the microscopic indicators. The amount of fluctuation and change data did not satisfy the normality, so the nonparametric test (Mann-whitney) was performed.

동조성은 상관분석(Correlation) 후 도출 된 상관계수를 통해 정규성을 확인 후 모수 검정인 독립표본검정 (IndependentT-test)을 진행하였다. The coherence was confirmed by the correlation coefficient derived after the correlation analysis and then the independent T-test, which is a parameter test, was performed.

통계적 유의성을 확보하기 위한 샘플은 G Power(ver 3.1.7)를 이용해 샘플 수 충족 여부를 확인 후 SPSS ver 17k를 사용하여 통계 데이터 분석을 진행하였다.In order to secure statistical significance, G Power (ver 3.1.7) was used to check whether the number of samples was met, and then statistical data was analyzed using SPSS ver 17k.

<미동량 분석><Mist analysis>

경쟁과 협력의 태스크를 수행한 구간에 15 Hz 성분의 움직임 데이터를 추출하였다. The motion data of the 15 Hz component was extracted in the section in which the task of competition and cooperation was performed.

추출된 데이터의 미동 양에 따른 패턴을 비교 해본 결과 경쟁일 때가 협력일 때보다 높은 패턴을 보였으며 도8에 도시된 바와 같다.As a result of comparing the patterns according to the amount of microscopic movement of the extracted data, the competition pattern was higher than that of cooperation, and is shown in FIG. 8.

미동 양의 평균값을 비교 결과 도9에 도시된 바와 같이 경쟁(M = 0.656, SE =0.020)과 협력(M = 0.602, SE = 0.020)이 통계적으로 유의한 차이를 보였다(Z(40) = -2.272, p < 0.05).As a result of comparing the mean value of the amount of unanimity, competition ( M = 0.656, SE = 0.020) and cooperation ( M = 0.602, SE = 0.020) showed statistically significant differences as shown in FIG. 9 ( Z (40) =- 2.272, p <0.05).

<미동 변화량 분석><Slow change analysis>

동일 구간에서 추출된 15 Hz의 주파수 성분을 통해 미동 양의 변화량 패턴을 비교하였다. The variation pattern of the amount of microscopic movement was compared through the frequency component of 15 Hz extracted from the same section.

그 결과 거의 모든 피험자가 협력 태스크를 수행 할 때보다 경쟁 태스크를 수행 시 더 높은 패턴을 보였으며 도10에 도시된 바와 같다.As a result, almost all the subjects showed a higher pattern when performing the competing task than when performing the cooperative task, as shown in FIG.

미동 양의 변화량 평균값을 비교 결과 도11에 도시된 바와 같이, 경쟁(M =0.278, SE = 0.015)과 협력(M = 0.149, SE = 0.018)이 통계적으로 유의한 차이를 보였다(Z(40) = -4.680, p < 0.001)As a result of comparing the average amount of change in the amount of micromovement, as shown in FIG. 11, competition ( M = 0.278, SE = 0.015) and cooperation ( M = 0.149, SE = 0.018) showed a statistically significant difference ( Z (40)). = -4.680, p <0.001)

<경쟁/협력 평가 룰-베이스 설정><Competitive / Collaborative Evaluation Rule-Base Setting>

경쟁/협력 평가 평가 룰-베이스는 미세 움직임 변화량 분석 결과를 기준으로 설정 하였다. 각 피험자의 변화량 분석 결과를 변화율(Micro Movement rate of change, Variation)과 움직임 거리(Micro-movement of distance, Amount))를 조건에 따라 플로팅한 결과는 도15에 도시된 바와 같다. Competitive / Collaborative Evaluation The evaluation rule-base was set based on the results of the analysis of the micro-movement variation. As a result of plotting the change analysis result of each subject according to the conditions of the micro movement rate of change (Variation) and the movement distance (Micro-movement of distance, Amount) as shown in FIG. 15.

이러한 플로팅 결과를 토대로 협력 및 경쟁을 구분하는 아래와 같은 1차 방정식의 룰-베이스를 구하였는데, 아래의 룰 베이스는 통계적으로 유의한 차이를 보인 미동의 양(micro-movement of distance, amount)과 변화량(micro-movement rate of change, variation)의 두 변수를 이용해 아래와 같은 2차원의 평가 룰-베이스(rule base)를 도출하였다.Based on these plotting results, we obtained a rule-base of the following first-order equations that distinguish cooperation and competition. The rule-base below shows the statistically significant micro-movement of distance and amount. Two-dimensional evaluation rule bases were derived using two variables (micro-movement rate of change, variation).

Y=0.15909X + 0.11239Y = 0.15909X + 0.11239

각 피험자의 데이터 중에서 변화율(Variation)과 움직임 거리(Amount)를 구분할 수 있는 가장 큰 분별력을 갖는 지점을 임계값 (threshold)으로 설정하였다. 이에 따라, 움직임 거리(Amount)에 상응하는 Variation의 기준값(reference, Y) 대비 실제 변화량(Variation)이 대략 10~15 % 보다 크게 증가하는 경우를 경쟁(Competition), 반대의 경우를 협력(Cooperation)로 판단하는 룰-베이스로 설정하였다.Among the data of each subject, the point having the largest discernment to distinguish the variation and the distance was set as a threshold. As a result, competition occurs when the actual variation increases by more than about 10-15% compared to the reference value Y of the variation corresponding to the movement distance. Set to rule-based to judge.

즉, 어느 한 피험자의 움직임 거리(Amount)를 위의 1차 방정식의 룰베이스에 X 값으로 대입했을 때 그 값이 X 값에 상응하는 Y 값에 비해 크면 경쟁적 관계, 그 반대이면 협력적 관계로 판단하며, 이때에 위와 같은 임계값을 Y에 대해 20~25%를 기준으로 경쟁적 관계 또는 협력적 관계를 판단하며, 그 중간인 경우 중립적 관계인 것으로 볼 수 있다.In other words, when a subject's movement distance (Amount) is substituted into the rule base of the equation above as an X value, if the value is larger than the Y value corresponding to the X value, it is a competitive relationship and vice versa. In this case, the above threshold is determined based on 20-25% of Y for a competitive or cooperative relationship, and in the middle, it may be regarded as a neutral relationship.

상기한 바와 같은 본 발명은 가상공간 속에서 감성 상호작용에 중요한 경쟁과 협력의 사회감성을 비접촉 센싱 기법인 인체 미동을 이용하여 확인하였다. The present invention as described above has confirmed the social sensitivity of competition and cooperation important for emotional interaction in the virtual space using the human body movement, a non-contact sensing technique.

실험은 남녀 대학생 12명을 대상으로 경쟁과 협력을 유발 할 수 있는 태스 수행을 통해 실험을 진행하였다. 남녀 대학생 12명으로 구성되는 피험자 그룹은 전술한 바와 같은 조건으로 선발되었다.The experiment was carried out through 12 tasks of 12 male and female college students through the task of inducing competition and cooperation. A subject group consisting of 12 male and female college students was selected under the conditions described above.

서로 경쟁 및 협업 태스크를 수행한 후 각 게임에 승리하여 추가 보상을 줌으로써 경쟁과 협력의 적극적인 참여를 통한 감성적 반응을 유도 하였다. 데이터 분석은 인체 미동으로부터 얻어진 15 Hz 주파수 성분의 데이터를 각 경쟁과 협력 태스크 별로 분류 하였다. After competing and collaborating with each other, each game was won by giving additional rewards to induce emotional responses through active participation in competition and cooperation. Data analysis classifies 15 Hz frequency component data obtained from human body motion by each competition and cooperative task.

수집된 데이터는 미동 양과 미동 양의 변화량 그리고 두 피험자들 간의 미동의 동조성 분석하였다.분석 결과 미동에 양의 평균, 변화량 모두 경쟁 할 때가 협력 할 때보다 높은 패턴을 보였으며 통계적으로 유의한 차이를 보였다. The collected data were analyzed for the amount of fluctuation, the amount of fluctuation, and the synchronism of the fluctuations between the two subjects. .

또한 두 피험자들이 태스크 수행 시 발생되는 미동의 동조성에는 경쟁 할 때보다 협력 할 때가 동조성이 더 높았으며 통계적으로 유의한 차이를 확인했다. In addition, the coordination of movement between the two subjects was higher in coordination than in competition, and statistically significant difference was observed.

이는 피험자들 간에 경쟁 상태일 때는 상대를 이기기 위해 각성 및 긴장도가 높아지면서 무의식적으로 미세 움직임 양과 변화 정도가 급격하게 향상 되는 것으로 볼 수 있으며 반대로 협력 상황일 때는 상대방과의 호흡을 맞추기 위해 개인의 변화보다 상대방에게 호흡을 맞추는 것에 집중하는 것으로 두 피험자의 움직임이 서로 일치고 있는 것으로 해석 할 수 있다. This can be seen that the amount of change and the degree of change are increased unconsciously when the arousal and tension are increased to overcome the opponent when the subject is in a competitive state. Concentrating on breathing on the other side can be interpreted as a match between the movements of the two subjects.

따라서 팀이 승리하기 위해 집중과 호흡을 맞추는 것이 움직임에 대한동조성이 높게 나타나는 것으로 생각된다. Therefore, it seems that the team's focus and breathing aim to win is highly synchronized with the movement.

본 발명의 실험 결과는 선행 연구에서 제시하는 것과 같이 태스크 수행 시 호흡과 심박에 대한 동조성이 일어나는 것과 같이 움직임에 대한 동조성도 동일하게 유발 된다고 해석 할 수 있다. 센서 착용의 부담감 및 불편함을 최소화한 비접촉 센싱 방법인 인체 미동을 이용해 경쟁과 협력에 대하여 감성융합기술의 가능함을 평가하였다. Experimental results of the present invention can be interpreted that the synchronism for movement is the same as the synchronism for respiration and heart rate occurs when performing the task as suggested in the previous study. We evaluated the feasibility of emotional convergence technology for competition and cooperation by using human body motion, which is a non-contact sensing method that minimizes the burden and inconvenience of wearing sensors.

비접촉 방식 방법으로 Ekman의 6가지 기본감성에서 인식 할 수 없는 사회감성의 인식 가능함을 확인하였다. In the non-contact method, we confirmed that social sensitivity, which cannot be recognized in Ekman's six basic emotions, is recognizable.

또한 인위적인 얼굴 표정 등으로 인식하는 방법이 아닌 해부학적 원리와 생리적 반응에 의거한 인식 기술로써 감성인식에 있어 새로운 지표를 통한 평가 방법을 확인하였다. In addition, the recognition method based on anatomical principles and physiological reactions, not the method of recognizing with artificial facial expressions, etc., has been confirmed through the evaluation of new indicators in emotional recognition.

이는 원격 사용자 간의 간단한 웹캠을 통해 동영상 촬영만으로 가상공간에서 사용자들이 상호작용으로 일어나는 반응을 이용해 쉽게 경쟁과 협력을 평가 할 수 있다. It allows users to easily evaluate competition and cooperation by using the reactions of users interacting in a virtual space with a simple webcam between remote users.

현재 온라인 게임 등에서 주로 사용하는 커뮤니케이션 수단은 채팅이나 음성 대화를 통한 언어적 수단을 통해 주로 이루어지고 있다. 하지만 선행 연구에 따르면 SNS상에서 브랜드 평가에 있어 단순 정보로 제공되는 기능적 편익보다 감성적 애착 현상이 브랜드에 영향을 더 많이 미치는 것으로 나타났으며 이는 언어적 커뮤니케이션 방법보다 감성적인 비언어 커뮤니케이션 수단이 매우 중하다는 것을 나타내고 있다. 또한 기업전략에 있어 정보기술은 기업이 경쟁력을 갖추기 위해 매우 중요한 요소로 보고 있다. Currently, the communication means mainly used in online games, etc. are mainly achieved through language means through chat or voice conversation. However, previous studies have found that emotional attachment affects brands more than functional benefits provided by simple information in brand evaluation on SNS, which suggests that emotional non-verbal communication means are more important than verbal communication methods. It is shown. In addition, information technology is a very important factor for corporate competitiveness in corporate strategy.

이에 따라 경쟁과 협력과 같은 감성정보는 기업전략에 주요 정보기술의 한 요소로 활용 할 수 있을 것으로 예상된다. 최근 IoT를 기반으로한 게임 컨텐츠 개발에 있어 빅테이터 및 인간에 대한 정보를 포함하려 하고있다. 현재는 인간의 습관적이나 사고의 패턴 등을 정보로 사용하지만 미래에는 인간의 감성적 사고에 관한 정보도 반영 할 수 있을 것으로 예상되며 미동과 같은 비언어적 커뮤니케이션 방법은 감성인식 및 기타 관련 분야에 활용 가지나 적용 범위가 높을 것으로 예상된다. 본 발명의 실험은 비접촉 센싱 기술인 인체 미동 기술을 이용하여 경쟁과 협력에 대한 평가를 확인하였다. Accordingly, emotional information such as competition and cooperation can be used as an element of major information technology in corporate strategy. Recently, it is trying to include information about big data and human in developing game contents based on IoT. At present, human habits and patterns of thinking are used as information, but in the future, it is expected to reflect information about human emotional thinking, and non-verbal communication methods such as immigration are used for emotional recognition and other related fields. Is expected to be high. The experiment of the present invention confirmed the evaluation of competition and cooperation using the human body movement technology, which is a non-contact sensing technology.

이러한 발명은 비접촉 형태의 센싱 방법을 통한 초기 연구 중 하나로 주변 환경이나 빛 등 외부요인에 따른 영향에 관한 연구와 정량적 지표를 통해 시스템화 및 생체신호와 상호 비교를 통하여 새로운 지표에 정확도를 검증 및 향상과 안정화에 관련된 추가 연구가 필요하다. This invention is one of the earliest studies through the non-contact sensing method. It is a study on the influence of external factors such as the surrounding environment and light, and the verification and improvement of accuracy on new indicators through systemization and mutual comparison with quantitative indicators. Further research related to stabilization is needed.

가상 및 공존현실 등 기술이 발전하고 그에 따른 시공간 제약이 사라져 가상공간에서의 활동이 넓어지고 있다. 또한 커뮤니케이션 도구 및 감성인식 기술에 대한 연구들도 증가하고 있다. 따라서 비접촉 센싱 방법과 경쟁과 협력에 대한정량적인 사회감성 인식 방법을 제시하는데 의의가 있다.With the development of technologies such as virtual and coexistence reality, the constraints of time and space have disappeared, and activities in virtual space are expanding. There is also an increasing number of studies on communication tools and emotion recognition technologies. Therefore, it is meaningful to suggest a non-contact sensing method and a quantitative social emotion recognition method for competition and cooperation.

이러한 본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 해당 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments illustrated in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true scope of protection of the present invention should be defined only by the appended claims.

Claims (12)

동영상 카메라를 이용해 교감이 가능한 상태에 있는 두 피험자의 안면을 촬영하는 단계;
상기 안면 영상에서 프레임간 변화량을 검출하여 피험자의 미세 움직임 데이터를 추출하는 단계;
상기 미세 움직임 데이터로부터 상기 피험자의 미세 움직임의 크기 별로 소정 주파수 밴드 별로 미동 데이터를 검출하는 단계; 그리고
상기 주파수 밴드 별 미동 데이터를 이용하여 상기 두 피험자 간의 협력-경쟁 관계성을 평가하는 단계;를 포함하는 협력-경쟁 관계성 평가 방법.
Photographing the faces of two subjects in a sympathetic state using a video camera;
Extracting fine motion data of a subject by detecting a change amount between frames in the face image;
Detecting fine motion data for each frequency band by the magnitude of the fine motion of the subject from the fine motion data; And
And evaluating a cooperative-competitive relationship between the two subjects using the frequency band-specific microscopic data.
제1항에 있어서,
상기 주파수 밴드 별 미동 데이터는 주파수 밴드 별 움직임 양, 움직임 변화량 또는 움직임의 동기화 중의 어느 하나인 것을 특징으로 하는 협력-경쟁 관계성 평가 방법.
The method of claim 1,
The fine data for each frequency band is any one of the amount of motion by frequency band, the amount of change of motion or the synchronization of motion.
제2항에 있어서,
상기 주파수 밴드는 0.5Hz, 1Hz, 3Hz, 5Hz 또는 15Hz 중의 적어도 어느 하나의 밴드를 포함하는 것을 특징으로 하는 협력-경쟁 관계성 평가 방법.
The method of claim 2,
Wherein said frequency band comprises at least one of 0.5 Hz, 1 Hz, 3 Hz, 5 Hz or 15 Hz.
제1항에 있어서,
상기 주파수 밴드는 0.5Hz, 1Hz, 3Hz, 5Hz 또는 15Hz 중의 적어도 어느 하나의 밴드를 포함하는 것을 특징으로 하는 협력-경쟁 관계성 평가 방법
The method of claim 1,
The frequency band includes at least one of 0.5 Hz, 1 Hz, 3 Hz, 5 Hz, or 15 Hz.
제4항에 있어서,
상기 움직임 변화량은 아래의 <식>에서 정의되는 미동량(OFHZ)인 것을 특징으로 하는 협력-경쟁 관계성 평가 방법.
<식>
Figure pat00003

여기에서, W와 H는 미동량 측정 대상이 되는 영역에서 상체 미동의 수평 및 수직 길이(크기 또는 거리), In(i, j) 는 n 번째 이미지 프레임의 i 번째 칼럼(Column)과 J 번째 로(Row)의 픽셀 값, R은 사용된 카메라의 프레임 레이트(Frame rate)이다.
The method of claim 4, wherein
The variation amount of movement is a cooperative-competition relationship evaluation method, characterized in that the fine movement amount (O FHZ ) defined in the following equation.
<Expression>
Figure pat00003

Where W and H are horizontal and vertical lengths (sizes or distances) of upper body fines in the area subject to microscopic measurement, and In ( i, j ) are the i th column and the J th The pixel value of (Row), R, is the frame rate of the camera used.
제1항에 있어서,
상기 주파수 밴드 별 미동 데이터는 아래의 <식>에서 정의되는 미동량(OFHZ)인 것을 특징으로 하는 협력-경쟁 관계성 판단 방법.
<식>
Figure pat00004

여기에서, W와 H는 미동량 측정 대상이 되는 영역에서 상체 미동의 수평 및 수직 길이(크기 또는 거리), In(i, j) 는 n 번째 이미지 프레임의 i 번째 칼럼(Column)과 J 번째 로(Row)의 픽셀 값, R은 사용된 카메라의 프레임 레이트(Frame rate)이다.
The method of claim 1,
The fine motion data for each frequency band is a cooperative-competition relationship determination method, characterized in that the fine motion amount (O FHZ ) defined in the following Equation.
<Expression>
Figure pat00004

Where W and H are horizontal and vertical lengths (sizes or distances) of upper body fines in the area subject to microscopic measurement, and In ( i, j ) are the i th column and the J th The pixel value of (Row), R, is the frame rate of the camera used.
제6항에 있어서,
상기 주파수 밴드는 0.5Hz, 1Hz, 3Hz, 5Hz 또는 15Hz 중의 적어도 어느 하나의 밴드를 포함하는 것을 특징으로 하는 협력-경쟁 관계성 판단 방법
The method of claim 6,
The frequency band is a cooperative-competition relationship determination method characterized in that it comprises at least one band of 0.5Hz, 1Hz, 3Hz, 5Hz or 15Hz
제1항에 기재된 방법을 수행하는 경쟁-협력 관계성 평가장치:에 있어서,
상기 피험자를 촬영하는 동영상 카메라;
상기 동영상 카메라로부터의 영상을 처리하는 영상 처리부; 그리고
상기 영상 처리부로부터의 정보를 이용해 피험자간의 협력-경쟁 관계성을 평가하는 분석부;를 포함하는 경쟁-협력 관계성 평가장치.
A competition-cooperation relationship evaluation apparatus for performing the method according to claim 1, comprising:
A video camera photographing the subject;
An image processor which processes an image from the video camera; And
And an analyzer configured to evaluate a cooperative-competition relationship between the subjects using the information from the image processing unit.
제8항에 있어서,
상기 주파수 밴드 별 미동 데이터는 주파수 밴드 별 움직임 양, 움직임 변화량 또는 움직임의 동기화 중의 어느 하나인 것을 특징으로 하는 협력-경쟁 관계성 평가 장치.
The method of claim 8,
The fine data for each frequency band is any one of the amount of movement of each frequency band, the amount of change of movement or the synchronization of movement.
제8항 또는 제9항에 있어서,
상기 주파수 밴드는 0.5Hz, 1Hz, 3Hz, 5Hz 또는 15Hz 중의 적어도 어느 하나의 밴드를 포함하는 것을 특징으로 하는 협력-경쟁 관계성 평가 장치.
The method according to claim 8 or 9,
And said frequency band comprises at least one of 0.5 Hz, 1 Hz, 3 Hz, 5 Hz or 15 Hz.
제10항에 있어서,
상기 움직임 변화량은 아래의 <식>에서 정의되는 미동량(OFHZ)인 것을 특징으로 하는 협력-경쟁 관계성 평가 장치.
<식>
Figure pat00005

여기에서, W와 H는 미동량 측정 대상이 되는 영역에서 상체 미동의 수평 및 수직 길이(크기 또는 거리), In(i, j) 는 n 번째 이미지 프레임의 i 번째 칼럼(Column)과 J 번째 로(Row)의 픽셀 값, R은 사용된 카메라의 프레임 레이트(Frame rate)이다.
The method of claim 10,
The apparatus for evaluating cooperation-competition relationship according to claim 1, wherein the movement change amount is a micro-movement amount (O FHZ ) defined in the following Equation.
<Expression>
Figure pat00005

Where W and H are horizontal and vertical lengths (sizes or distances) of upper body fines in the area subject to microscopic measurement, and In ( i, j ) are the i th column and the J th The pixel value of (Row), R, is the frame rate of the camera used.
제9항에 있어서,
상기 움직임 변화량은 아래의 <식>에서 정의되는 미동량(OFHZ)인 것을 특징으로 하는 협력-경쟁 관계성 평가 방법.
<식>
Figure pat00006

여기에서, W와 H는 미동량 측정 대상이 되는 영역에서 상체 미동의 수평 및 수직 길이(크기 또는 거리), In(i, j) 는 n 번째 이미지 프레임의 i 번째 칼럼(Column)과 J 번째 로(Row)의 픽셀 값, R은 사용된 카메라의 프레임 레이트(Frame rate)이다.
The method of claim 9,
The variation amount of movement is a cooperative-competition relationship evaluation method, characterized in that the fine movement amount (O FHZ ) defined in the following equation.
<Expression>
Figure pat00006

Where W and H are horizontal and vertical lengths (sizes or distances) of upper body fines in the area subject to microscopic measurement, and In ( i, j ) are the i th column and the J th The pixel value of (Row), R, is the frame rate of the camera used.
KR1020180048478A 2018-04-26 2018-04-26 method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique KR102155777B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180048478A KR102155777B1 (en) 2018-04-26 2018-04-26 method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180048478A KR102155777B1 (en) 2018-04-26 2018-04-26 method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique

Publications (2)

Publication Number Publication Date
KR20190124470A true KR20190124470A (en) 2019-11-05
KR102155777B1 KR102155777B1 (en) 2020-09-15

Family

ID=68577134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180048478A KR102155777B1 (en) 2018-04-26 2018-04-26 method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique

Country Status (1)

Country Link
KR (1) KR102155777B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160059414A (en) * 2014-11-18 2016-05-26 상명대학교서울산학협력단 Method and System for social relationship based on HRC by Micro movement of body
KR20170031814A (en) * 2015-09-11 2017-03-22 한국과학기술원 Method and apparatus for recognizing subtle expression of face

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160059414A (en) * 2014-11-18 2016-05-26 상명대학교서울산학협력단 Method and System for social relationship based on HRC by Micro movement of body
KR20170031814A (en) * 2015-09-11 2017-03-22 한국과학기술원 Method and apparatus for recognizing subtle expression of face

Also Published As

Publication number Publication date
KR102155777B1 (en) 2020-09-15

Similar Documents

Publication Publication Date Title
JP5926210B2 (en) Autism diagnosis support system and autism diagnosis support apparatus
Samad et al. A feasibility study of autism behavioral markers in spontaneous facial, visual, and hand movement response data
Giakoumis et al. Using activity-related behavioural features towards more effective automatic stress detection
CN107809951B (en) Psychophysiological detection (lie detection) method and apparatus for distortion using video-based detection of physiological signals
KR101722708B1 (en) Method and System for social relationship based on HRC by Micro movement of body
Beringer et al. Reliability and validity of machine vision for the assessment of facial expressions
Aigrain et al. Person-specific behavioural features for automatic stress detection
Müller-Bardorff et al. Effects of emotional intensity under perceptual load: An event-related potentials (ERPs) study
KR102155309B1 (en) Method for predicting cognitive impairment, server, user device and application implementing the method
Kuwahara et al. Eye fatigue estimation using blink detection based on Eye Aspect Ratio Mapping (EARM)
Wang et al. Screening early children with autism spectrum disorder via response-to-name protocol
Masui et al. Measurement of advertisement effect based on multimodal emotional responses considering personality
Aoki et al. Physical fatigue detection from gait cycles via a multi-task recurrent neural network
KR101753834B1 (en) A Method for Emotional classification using vibraimage technology
KR101940673B1 (en) Evaluation Method of Empathy based on micro-movement and system adopting the method
Maskeliunas et al. Are you ashamed? Can a gaze tracker tell?
KR102155777B1 (en) method for determining competition and cooperation by social interaction based on body movement by non-contact sensing technique
Logan et al. From individual features to full faces: Combining aspects of face information
JP2024512045A (en) Visual system for diagnosing and monitoring mental health
KR20220158957A (en) System for prediction personal propensity using eye tracking and real-time facial expression analysis and method thereof
Ahmed et al. Assisting the autistic with improved facial expression recognition from mixed expressions
KR101706740B1 (en) Method and System for determining online social relationship based on Heart Rhythm Coherence by Micro movement of body
Manousos et al. Contactless detection of facial signs related to stress: A preliminary study
Rawat et al. Real-Time Heartbeat Sensing with Face Video using a Webcam and OpenCV
Powar An approach for the extraction of thermal facial signatures for evaluating threat and challenge emotional states

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant