KR20210070119A - 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템 - Google Patents

스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템 Download PDF

Info

Publication number
KR20210070119A
KR20210070119A KR1020190160202A KR20190160202A KR20210070119A KR 20210070119 A KR20210070119 A KR 20210070119A KR 1020190160202 A KR1020190160202 A KR 1020190160202A KR 20190160202 A KR20190160202 A KR 20190160202A KR 20210070119 A KR20210070119 A KR 20210070119A
Authority
KR
South Korea
Prior art keywords
posture
meditation
user
artificial intelligence
smartphone
Prior art date
Application number
KR1020190160202A
Other languages
English (en)
Inventor
백상엽
박종윤
김종현
박순우
이재용
Original Assignee
주식회사 퓨전소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 퓨전소프트 filed Critical 주식회사 퓨전소프트
Priority to KR1020190160202A priority Critical patent/KR20210070119A/ko
Publication of KR20210070119A publication Critical patent/KR20210070119A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/62Posture

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Psychology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Anesthesiology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Acoustics & Sound (AREA)
  • Pain & Pain Management (AREA)
  • Hematology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nursing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에 관한 것으로서, 보다 구체적으로는 명상 가이드 시스템으로서, 스마트폰의 전면에 구비되며, 명상하는 사용자의 모습을 촬영하는 스마트폰 전면 카메라부; 상기 스마트폰 전면 카메라부에서 촬영된 사용자의 모습으로부터, 신체 포인트를 추출하는 특징 추출부; 사전 학습된 인공지능 모델을 이용해, 상기 추출된 신체 포인트로부터 사용자의 자세를 인식하는 자세 분석부; 및 상기 자세 분석부의 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공하는 가이드 제공부를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에 따르면, 스마트폰 전면 카메라에서 촬영된 명상하는 사용자의 모습으로부터 인공지능 모델을 이용해 사용자의 자세를 인식하고, 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공함으로써, 사용자가 제대로 명상을 하는지를 체크하고 피드백을 제공하여, 스마트폰만으로도 사용자의 올바른 명상을 효과적으로 도와줄 수 있다.
또한, 본 발명에서 제안하고 있는 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에 따르면, 사전 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식함으로써, 명상에 중요한 호흡과 자세를 인식하여 정확한 피드백을 제공할 수 있다.

Description

스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템{MEDITATION GUIDE SYSTEM USING SMARTPHONE FRONT CAMERA AND AI POSTURE ANALYSIS}
본 발명은 명상 가이드 시스템에 관한 것으로서, 보다 구체적으로는 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에 관한 것이다.
현대인의 생활에서 스트레스는 각종 질병을 일으킬 뿐만 아니라 삶의 질에도 큰 영향을 미치는 요소가 되었다. 과중한 업무에 시달리는 직장인, 과도한 학업 스트레스에 시달리는 학생, 힘겨운 가사노동에 따른 스트레스와 우울증을 호소하는 가정주부, 가족들로부터의 단절과 사회로부터의 소외에 따른 스트레스를 느끼는 노인 등 스트레스는 때와 장소 그리고 대상을 가리지 않고 찾아온다. 이와 같이 항상 스트레스에 노출되는 현대인들에게 있어 이러한 스트레스를 어떻게 관리하느냐의 문제는 매우 중요한 화두가 되고 있다.
이러한 스트레스를 해소하기 위한 방법으로 운동, 영화관람 등 다양한 엔터테인먼트 활동들이 제시되고 있으나, 운동이나 영화관람같이 외향적인 활동을 좋아하지 않는 사람에게는 여전히 스트레스를 풀 수 있는 마땅한 방법이 존재하지 않았다. 따라서 새로운 대안으로 명상을 하는 방법이 제시되고 있는데, 명상의 경우 시간과 공간의 제약이 크지 않으며 별도의 비용을 들이지 않고서도 스트레스를 해소할 수 있다는 장점이 있다. 예를 들어, 직장인의 경우에는 업무시간 도중이나 점심시간 등을 이용하여 잠깐 명상에 잠김으로써 스트레스를 해소할 수 있게 되는 것이다.
따라서 이와 같은 명상을 도와줄 수 있는 기기들에 대하여 사회의 관심이 생기고 기술들이 개발되고 있다. 최근에는 소셜 미디어를 통해 명상을 설명하고 명상 음악을 제공하는 등의 동영상 콘텐츠가 공유되어, 시간 및 공간에 구애받지 않고 동영상 콘텐츠를 보면서 누구나 명상활동을 즐기기도 한다. 그러나 이러한 소셜 미디어를 이용하는 방식은 일 방향으로 영상을 보는 것에 불과하므로, 제대로 명상을 하는지를 체크하고 피드백 받을 수 없는 한계가 있는바, 명상하는 사용자와 상호작용을 할 수 있는 명상 가이드 기술의 개발이 필요한 실정이다.
한편, 본 발명과 관련된 선행기술로서, 공개특허 제10-2018-0092533호(발명의 명칭: 명상 보조 시스템, 공개일자: 2018년 08월 20일) 등이 개시된 바 있다.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 스마트폰 전면 카메라에서 촬영된 명상하는 사용자의 모습으로부터 인공지능 모델을 이용해 사용자의 자세를 인식하고, 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공함으로써, 사용자가 제대로 명상을 하는지를 체크하고 피드백을 제공하여, 스마트폰만으로도 사용자의 올바른 명상을 효과적으로 도와줄 수 있는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템을 제공하는 것을 그 목적으로 한다.
또한, 본 발명은, 사전 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식함으로써, 명상에 중요한 호흡과 자세를 인식하여 정확한 피드백을 제공할 수 있는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템을 제공하는 것을 또 다른 목적으로 한다.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템은,
명상 가이드 시스템으로서,
스마트폰의 전면에 구비되며, 명상하는 사용자의 모습을 촬영하는 스마트폰 전면 카메라부;
상기 스마트폰 전면 카메라부에서 촬영된 사용자의 모습으로부터, 신체 포인트를 추출하는 특징 추출부;
사전 학습된 인공지능 모델을 이용해, 상기 추출된 신체 포인트로부터 사용자의 자세를 인식하는 자세 분석부; 및
상기 자세 분석부의 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공하는 가이드 제공부를 포함하는 것을 그 구성상의 특징으로 한다.
바람직하게는, 상기 특징 추출부는,
사용자의 머리, 어깨, 가슴, 허리, 골반, 손끝 및 발끝을 인식하는 신체 인식 모듈을 포함할 수 있다.
더욱 바람직하게는, 상기 특징 추출부는,
상기 사용자의 얼굴의 눈, 코 및 입을 인식하는 얼굴 인식 모듈을 더 포함할 수 있다.
더욱 바람직하게는, 상기 자세 분석부는,
상기 추출된 신체 포인트의 좌표 및 각 좌표의 변화량을 이용해 인공지능 모델을 학습하는 학습 모듈; 및
상기 학습 모듈에서 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식하는 예측 모듈을 포함할 수 있다.
더더욱 바람직하게는, 상기 학습 모듈은,
상기 인식된 신체 포인트 중에서, 어깨, 머리 및 가슴의 3차원 좌표와 각속도를 이용해, 호흡의 빠르기를 인식하는 제1 모델;
상기 인식된 신체 포인트 중에서, 어깨, 허리 및 골반의 3차원 좌표와 각속도를 이용해, 자세의 기울어짐을 인식하는 제2 모델; 및
상기 인식된 신체 포인트 중에서, 손끝 및 발끝의 위치 변화를 이용해, 자세의 정지 상태를 인식하는 제3 모델을 학습하며,
상기 예측 모듈은,
상기 학습 모듈에서 학습된 제1 모델, 제2 모델 및 제3 모델을 이용해, 명상하는 상기 사용자의 자세를 인식할 수 있다.
바람직하게는,
명상 음악을 출력하는 스피커부; 및
상기 명상 자세 및 명상 영상을 포함하는 군에서 선택된 적어도 하나를 출력하는 디스플레이부를 더 포함할 수 있다.
더욱 바람직하게는, 상기 가이드 제공부는,
상기 명상 음악에 따라 상기 자세 분석부에서 인식된 사용자의 자세를 평가하는 자세 평가 모듈; 및
상기 자세 평가 모듈의 평가 결과에 따라, 사용자의 자세를 가이드하는 가이드 피드백을 생성하여 상기 스피커부 및 디스플레이부 중 적어도 하나에 전달하는 피드백 모듈을 포함할 수 있다.
바람직하게는,
명상 시작 시각, 종료 시각 및 명상 중 분석된 사용자의 자세를 포함하는 명상 정보를 저장 및 관리하는 명상 관리부를 더 포함할 수 있다.
본 발명에서 제안하고 있는 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에 따르면, 스마트폰 전면 카메라에서 촬영된 명상하는 사용자의 모습으로부터 인공지능 모델을 이용해 사용자의 자세를 인식하고, 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공함으로써, 사용자가 제대로 명상을 하는지를 체크하고 피드백을 제공하여, 스마트폰만으로도 사용자의 올바른 명상을 효과적으로 도와줄 수 있다.
또한, 본 발명에서 제안하고 있는 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에 따르면, 사전 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식함으로써, 명상에 중요한 호흡과 자세를 인식하여 정확한 피드백을 제공할 수 있다.
도 1은 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템을 사용하는 명상 모습을 예를 들어 도시한 도면.
도 2는 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템의 구성을 도시한 도면.
도 3은 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에서, 스마트폰 구성을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에서, 인공지능 자세 분석을 설명하기 위해 도시한 도면.
도 5는 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에서 인식되는 사용자의 신체 포인트를 도시한 도면.
도 6은 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템에서, 명상 가이드의 제공을 예를 들어 도시한 도면.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
도 1은 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템을 사용하는 명상 모습을 예를 들어 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템은, 스마트폰을 설치하고 스마트폰의 정면을 향하고 사용자가 명상을 하면, 스마트폰 전면 카메라에서 명상하는 사용자의 모습을 촬영하고, 촬영된 사용자의 영상으로부터 인공지능 모델을 이용해 사용자의 자세를 인식하며, 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 스마트폰을 통해 제공할 수 있다. 이때, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템은, 스마트폰을 거치하기 위한 거치대를 더 포함할 수 있으며, 미리 정해진 높이 내에서 조절이 가능한 거치대에 스마트폰을 거치함으로써, 사용자의 자세가 정확하게 인식되도록 할 수 있다.
도 2는 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 구성을 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)은, 스마트폰 전면 카메라부(100), 스피커부(200), 디스플레이부(300), 특징 추출부(400), 자세 분석부(500) 및 가이드 제공부(600)를 포함하여 구성될 수 있으며, 명상 관리부(700)를 더 포함하여 구성될 수 있다.
도 3은 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에서, 스마트폰(20) 구성을 도시한 도면이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)은, 스마트폰 전면 카메라부(100), 스피커부(200) 및 디스플레이부(300)를 포함하는 스마트폰(20)을 이용하여, 별도의 카메라, 스피커, 디스플레이 패널 등의 특수한 장치 없이도 쉽고 편리하게 이용할 수 있다.
여기서 스마트폰(20)은, 스마트폰(20)뿐 아니라, 휴대가 가능하고 전면 카메라, 스피커 및 디스플레이를 포함하는 태블릿(tablet) PC(personal computer), 랩탑(laptop) PC, 넷북(netbook) 컴퓨터 등을 포함할 수 있다. 다만 다양한 실시예들에서, 스마트폰(20)은 전술한 기기들에 한정되지는 않는다.
또한, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)은, 스마트폰(20)과 연결될 수 있는 웨어러블 장치(wearable device)를 더 포함하여, 사용자의 체온, 심박수 등 생체정보를 포함하는 다양한 정보를 수집할 수도 있다. 이때, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트렌즈, 또는 머리착용형 장치(HMD, head-mounted-device), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형 회로(implantable circuit) 중 적어도 하나를 포함할 수 있다.
한편, 본 발명에서는, 스마트폰(20)을 통해 명상을 위한 영상과 음악 등을 제공할 수 있으며, 사용자의 개인 컨디션과 바이오리듬 등에 따라 맞춤형 영상 및 음악을 제공할 수 있다. 이때, 사용자의 개인 컨디션과 바이오리듬은, 사용자로부터 직접 입력받을 수 있으며, 사용자가 착용한 웨어러블 장치에서 수집된 생체신호를 이용해 분석할 수도 있다.
이하에서는, 도 2 및 도 3을 참조하여, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 스마트폰 전면 카메라부(100), 스피커부(200) 및 디스플레이부(300)에 대해 상세히 설명하도록 한다.
스마트폰 전면 카메라부(100)는, 스마트폰(20)의 전면에 구비되며, 명상하는 사용자의 모습을 촬영할 수 있다. 특히, 본 발명에서는, 스마트폰(20) 전면에 구비된 카메라를 이용하므로, 사용자가 디스플레이부(300)에 출력되는 영상을 볼 수 있음과 동시에 사용자의 모습을 촬영할 수 있다.
스피커부(200)는, 명상 음악을 출력할 수 있다. 이때, 스피커부(200)는, 도 3에 도시된 바와 같이 스마트폰(20)에 구비된 스피커일 수 있으나, 스마트폰(20)과 유무선으로 연결된 외부 스피커나 헤드셋, 이어폰 등일 수도 있다. 스피커부(200)는, 명상 음악 외에도 추후 상세히 설명할 가이드 제공부(600)가 제공하는 명상 가이드를 음성이나 음악 등 음향으로 제공할 수 있다.
디스플레이부(300)는, 명상 자세 및 명상 영상을 포함하는 군에서 선택된 적어도 하나를 출력할 수 있다. 디스플레이부(300)는, 도 3에 도시된 바와 같이 스마트폰(20)에 구비된 디스플레이 패널일 수 있으나, 스마트폰(20)과 유무선으로 연결된 스크린, 스마트 TV, 컴퓨터 모니터 등 다양할 수 있다. 또한, 디스플레이부(300)는, 스마트폰 전면 카메라부(100)에서 촬영된 명상하는 사용자의 모습을 실시간으로 출력하여, 사용자가 자신의 명상 모습을 시각적으로 확인하도록 할 수 있고, 추후 상세히 설명할 가이드 제공부(600)가 제공하는 명상 가이드를 텍스트, 이미지, 동영상 등 시각적으로 제공할 수 있다.
도 4는 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에서, 인공지능 자세 분석을 설명하기 위해 도시한 도면이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에서는, 특징 추출부(400), 자세 분석부(500) 및 가이드 제공부(600)가 유기적으로 결합하여 사용자의 명상하는 자세를 분석하고 명상 가이드를 제공할 수 있다.
이와 같은, 특징 추출부(400), 자세 분석부(500), 및 가이드 제공부(600)에 의한 인공지능 자세 분석은, 스마트폰(20)에서 처리될 수 있으나, 네트워크를 통해 클라우드 기반으로 처리될 수도 있다. 특히, 많은 계산량이 요구되는 인공지능 모델의 학습은 네트워크 서버에서 처리되고, 스마트폰(20)은 네트워크 서버로부터 사전 학습된 인공지능 모델을 전달받아 사용자의 자세 인식을 처리할 수 있다.
이하에서는, 도 4를 참조하여 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 특징 추출부(400), 자세 분석부(500) 및 가이드 제공부(600)의 각 구성에 대해 상세히 설명하도록 한다.
특징 추출부(400)는, 스마트폰 전면 카메라부(100)에서 촬영된 사용자의 모습으로부터, 신체 포인트를 추출할 수 있다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 특징 추출부(400)는, 신체 인식 모듈(410) 및 얼굴 인식 모듈(420)을 포함하여 구성될 수 있다.
신체 인식 모듈(410)은, 사용자의 머리, 어깨, 가슴, 허리, 골반, 손끝 및 발끝을 인식할 수 있다. 즉, 신체 인식 모듈(410)은, 스마트폰 전면 카메라부(100)로부터 사용자의 모습을 촬영한 사용자 영상을 전달받고, 영상 처리 기술을 이용해 각 신체 포인트를 인식할 수 있다.
도 5는 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에서 인식되는 사용자의 신체 포인트를 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 신체 인식 모듈(410)은, 사용자의 머리, 어깨, 가슴, 허리, 골반, 손끝 및 발끝을 인식할 수 있다. 이때, 신체 인식 모듈(410)에서는, 각각의 신체 포인트의 3차원 좌표를 추출할 수 있다.
한편, 신체 인식 모듈(410)은, 영상 처리 기술을 이용하는데, 보다 구체적으로는 사용자 영상으로부터 신체 영역을 검출하고, 검출된 신체 영역에서 회귀 분석을 기반으로 신체 포인트를 추출할 수 있다. 실시예에 따라서는, 회귀 분석 대신 영상으로부터 신체 포인트를 추출하도록 사전 학습된 인공지능 모델을 사용할 수 있으며, 신경망 모델 기반의 CNN(Convolutional Neural Network) 등을 사용할 수 있다. 실시예에 따라서는, 캐스케이드 회귀 포레스트와 고속 반경 대칭 변환(Fast Radial Symmetry Transform, FRST)을 이용하여, 조명의 변화에 따른 영향을 최소화하여 정확하게 신체 포인트를 추출할 수도 있다.
얼굴 인식 모듈(420)은, 사용자의 얼굴의 눈, 코 및 입을 인식할 수 있다. 즉, 얼굴 인식 모듈(420)은, 스마트폰 전면 카메라로부터 사용자의 모습을 촬영한 사용자 영상을 전달받고, 사용자 영상에서 얼굴 영역을 검출하고, 회귀 분석을 기반으로 눈, 코 및 입을 포함하는 얼굴 포인트를 추출할 수 있다. 추출된 얼굴 포인트는, 2차원 좌표일 수 있다.
자세 분석부(500)는, 사전 학습된 인공지능 모델을 이용해, 추출된 신체 포인트로부터 사용자의 자세를 인식할 수 있다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 자세 분석부(500)는, 학습 모듈(510) 및 예측 모듈(520)을 포함하여 구성될 수 있다.
학습 모듈(510)은, 추출된 신체 포인트의 좌표 및 각 좌표의 변화량을 이용해 인공지능 모델을 학습할 수 있다. 학습 모듈(510)은, 인공지능 모델의 학습을 위해 대량의 학습 데이터를 사용할 수 있으며, 다양한 신체 특징 및 자세가 포함된 명상 영상을 학습 데이터로 할 수 있다. 보다 구체적으로, 학습 모듈(510)은, 제1 모델(511), 제2 모델(512) 및 제3 모델(513)을 포함하는 복수의 인공지능 모델을 학습할 수 있다.
제1 모델(511)은, 인식된 신체 포인트 중에서, 어깨, 머리 및 가슴의 3차원 좌표와 각속도를 이용해, 호흡의 빠르기를 인식하는 인공지능 모델일 수 있다. 예를 들어, 제1 모델(511)은, 호흡의 빠르기를 상(빠름), 중(보통), 하(느림) 중 어느 하나로 예측하는 모델일 수 있다. 학습 모듈(510)은, 호흡 시 움직이는 신체 포인트의 위치 변화를 통해 호흡의 빠르기를 인식하도록 제1 모델(511)을 학습할 수 있다. 보다 구체적으로, 학습 모듈(510)은, 학습 데이터 중에서 어깨, 머리 및 가슴의 3차원 좌표 변화와 각속도를 입력으로 하고, 호흡의 빠르기를 출력으로 하는 제1 모델(511)을 학습할 수 있다.
제2 모델(512)은, 인식된 신체 포인트 중에서, 어깨, 허리 및 골반의 3차원 좌표와 각속도를 이용해, 자세의 기울어짐을 인식하는 인공지능 모델일 수 있다. 예를 들어, 제2 모델(512)은, 자세의 기울어짐을 상(많이 기울어짐), 중(보통), 하(기울어지지 않음) 중 어느 하나로 예측하는 모델일 수 있다. 학습 모듈(510)은, 사용자의 몸통의 위치 정보를 통해 바른 명상 자세인지 판단하도록 제2 모델(512)을 학습할 수 있다. 보다 구체적으로, 학습 모듈(510)은, 학습 데이터 중에서 어깨, 허리 및 골반의 3차원 좌표 변화와 각속도를 입력으로 하고, 자세의 기울어짐을 출력으로 하는 제2 모델(512)을 학습할 수 있다.
제3 모델(513)은, 인식된 신체 포인트 중에서, 손끝 및 발끝의 위치 변화를 이용해, 자세의 정지 상태를 인식하는 인공지능 모델일 수 있다. 예를 들어, 제3 모델(513)은, 자세의 정지 상태를 상(많이 움직임), 중(보통), 하(정지 상태임) 중 어느 하나로 예측하는 모델일 수 있다. 즉, 학습 모듈(510)은, 정적인 자세를 유지하면서 명상을 하는지 판단하도록 제3 모델(513)을 학습할 수 있다. 보다 구체적으로, 학습 모듈(510)은, 학습 데이터 중에서 손끝 및 발끝의 3차원 좌표 변화를 입력으로 하고, 자세의 정지 상태를 출력으로 하는 제3 모델(513)을 학습할 수 있다.
한편, 본 발명의 제1 모델(511), 제2 모델(512) 및 제3 모델(513)은, 각각 CNN(Convolutional neural network) 또는 RNN(Recurrent Neural Network)일 수 있으며, 실시예에 따라서는 CNN과 LSTM(Long short-term memory) RNN을 결합한 인공신경망 모델일 수도 있다. 실시예에 따라서는, 랜덤 포레스트(Random Forest) 분류기를 제1 모델(511), 제2 모델(512) 또는 제3 모델(513)로 학습시켜 사용할 수 있으며, 가중 랜덤 포레스트 분류기(WRFR)나 캐스케이드 회귀 포레스트(Cascade Regression Forest)가 사용될 수도 있다.
또한, 본 발명에서는, 기존 학습 데이터 이외에, 사용자에 대하여 수집되는 데이터를 이용해 트랜스퍼 학습을 수행함으로써, 제1 모델(511), 제2 모델(512) 및 제3 모델(513)을 해당 사용자에게 최적화할 수 있다.
예측 모듈(520)은, 학습 모듈(510)에서 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식할 수 있다. 보다 구체적으로, 예측 모듈(520)은, 학습 모듈(510)에서 학습된 제1 모델(511), 제2 모델(512) 및 제3 모델(513)을 이용해, 명상하는 사용자의 자세를 인식할 수 있다. 즉, 특징 추출부(400)에서 자세 인식이 필요한 사용자의 신체 포인트가 추출되면, 예측 모듈(520)은 학습 모듈(510)에서 학습된 인공지능 모델에 추출된 신체 포인트 정보를 입력하여, 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 예측할 수 있다.
가이드 제공부(600)는, 자세 분석부(500)의 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공할 수 있다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)의 가이드 제공부(600)는, 자세 평가 모듈(610) 및 피드백 모듈(620)을 포함하여 구성될 수 있다.
자세 평가 모듈(610)은, 명상 음악에 따라 자세 분석부(500)에서 인식된 사용자의 자세를 평가할 수 있다. 즉, 자세 평가 모듈(610)은, 명상 음악의 진행에 따라 명상 시작 단계, 명상 진행 단계, 자세 변경 단계, 명상 마무리 단계 등으로 명상의 단계를 구분하고, 자세 분석부(500)에서 분석된 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태가 각 단계의 요구 사항에 부합되는지 판단할 수 있다. 예를 들어, 제1 모델(511), 제2 모델(512) 및 제3 모델(513)을 이용한 예측 모듈(520)의 예측 결과가 모두 상, 중, 하로 출력될 때, 명상 시작 단계에서는, 호흡의 빠르기는 중 또는 하, 자세의 기울어짐은 하, 자세의 정지 상태는 중 또는 하일 때 바른 자세인 것으로 판단할 수 있다. 명상 진행 단계에서는, 호흡의 빠르기, 자세의 기울어짐, 자세의 정지 상태 모두 하일 때 바른 자세인 것으로 판단할 수 있다.
피드백 모듈(620)은, 자세 평가 모듈(610)의 평가 결과에 따라, 사용자의 자세를 가이드하는 가이드 피드백을 생성하여 스피커부(200) 및 디스플레이부(300) 중 적어도 하나에 전달할 수 있다. 즉, 자세 평가 모듈(610)의 평가 결과, 호흡의 빠르기가 빠른 것으로 판단되었다면, 호흡을 천천히 하라는 가이드 피드백을 생성하여 제공할 수 있다.
도 6은 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에서, 명상 가이드의 제공을 예를 들어 도시한 도면이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따른 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에서는, 스마트폰(20)의 스피커부(200) 및 디스플레이부(300)를 통해, 호흡을 천천히 하도록 유도하는 가이드 피드백이 제공될 수 있다.
명상 관리부(700)는, 명상 시작 시각, 종료 시각 및 명상 중 분석된 사용자의 자세를 포함하는 명상 정보를 저장 및 관리할 수 있다. 즉, 명상 관리부(700)는 사용자의 명상 히스토리를 관리함으로써, 추후 사용자 맞춤형 명상 음악, 명상 영상, 가이드 피드백 등이 제공되도록 할 수 있다.
본 발명에서 제안하고 있는 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10)에 따르면, 스마트폰 전면 카메라에서 촬영된 명상하는 사용자의 모습으로부터 인공지능 모델을 이용해 사용자의 자세를 인식하고, 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공함으로써, 사용자가 제대로 명상을 하는지를 체크하고 피드백을 제공하여, 스마트폰(20)만으로도 사용자의 올바른 명상을 효과적으로 도와줄 수 있다. 또한, 본 발명에 따르면, 사전 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식함으로써, 명상에 중요한 호흡과 자세를 인식하여 정확한 피드백을 제공할 수 있다.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
10: 명상 가이드 시스템
20: 스마트폰
100: 스마트폰 전면 카메라부
200: 스피커부
300: 디스플레이부
400: 특징 추출부
410: 신체 인식 모듈
420: 얼굴 인식 모듈
500: 자세 분석부
510: 학습 모듈
511: 제1 모델
512: 제2 모델
513: 제3 모델
520: 예측 모듈
600: 가이드 제공부
610: 자세 평가 모듈
620: 피드백 모듈
700: 명상 관리부

Claims (8)

  1. 명상 가이드 시스템(10)으로서,
    스마트폰(20)의 전면에 구비되며, 명상하는 사용자의 모습을 촬영하는 스마트폰 전면 카메라부(100);
    상기 스마트폰 전면 카메라부(100)에서 촬영된 사용자의 모습으로부터, 신체 포인트를 추출하는 특징 추출부(400);
    사전 학습된 인공지능 모델을 이용해, 상기 추출된 신체 포인트로부터 사용자의 자세를 인식하는 자세 분석부(500); 및
    상기 자세 분석부(500)의 인식 결과에 따라 명상 자세를 가이드하는 가이드 피드백을 제공하는 가이드 제공부(600)를 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  2. 제1항에 있어서, 상기 특징 추출부(400)는,
    사용자의 머리, 어깨, 가슴, 허리, 골반, 손끝 및 발끝을 인식하는 신체 인식 모듈(410)을 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  3. 제2항에 있어서, 상기 특징 추출부(400)는,
    상기 사용자의 얼굴의 눈, 코 및 입을 인식하는 얼굴 인식 모듈(420)을 더 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  4. 제2항에 있어서, 상기 자세 분석부(500)는,
    상기 추출된 신체 포인트의 좌표 및 각 좌표의 변화량을 이용해 인공지능 모델을 학습하는 학습 모듈(510); 및
    상기 학습 모듈(510)에서 학습된 인공지능 모델을 이용해 호흡의 빠르기, 자세의 기울어짐 및 자세의 정지 상태를 포함하는 사용자의 자세를 인식하는 예측 모듈(520)을 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  5. 제4항에 있어서, 상기 학습 모듈(510)은,
    상기 인식된 신체 포인트 중에서, 어깨, 머리 및 가슴의 3차원 좌표와 각속도를 이용해, 호흡의 빠르기를 인식하는 제1 모델(511);
    상기 인식된 신체 포인트 중에서, 어깨, 허리 및 골반의 3차원 좌표와 각속도를 이용해, 자세의 기울어짐을 인식하는 제2 모델(512); 및
    상기 인식된 신체 포인트 중에서, 손끝 및 발끝의 위치 변화를 이용해, 자세의 정지 상태를 인식하는 제3 모델(513)을 학습하며,
    상기 예측 모듈(520)은,
    상기 학습 모듈(510)에서 학습된 제1 모델(511), 제2 모델(512) 및 제3 모델(513)을 이용해, 명상하는 상기 사용자의 자세를 인식하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  6. 제1항에 있어서,
    명상 음악을 출력하는 스피커부(200); 및
    상기 명상 자세 및 명상 영상을 포함하는 군에서 선택된 적어도 하나를 출력하는 디스플레이부(300)를 더 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  7. 제6항에 있어서, 상기 가이드 제공부(600)는,
    상기 명상 음악에 따라 상기 자세 분석부(500)에서 인식된 사용자의 자세를 평가하는 자세 평가 모듈(610); 및
    상기 자세 평가 모듈(610)의 평가 결과에 따라, 사용자의 자세를 가이드하는 가이드 피드백을 생성하여 상기 스피커부(200) 및 디스플레이부(300) 중 적어도 하나에 전달하는 피드백 모듈(620)을 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
  8. 제1항에 있어서,
    명상 시작 시각, 종료 시각 및 명상 중 분석된 사용자의 자세를 포함하는 명상 정보를 저장 및 관리하는 명상 관리부(700)를 더 포함하는 것을 특징으로 하는, 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템(10).
KR1020190160202A 2019-12-04 2019-12-04 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템 KR20210070119A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190160202A KR20210070119A (ko) 2019-12-04 2019-12-04 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190160202A KR20210070119A (ko) 2019-12-04 2019-12-04 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템

Publications (1)

Publication Number Publication Date
KR20210070119A true KR20210070119A (ko) 2021-06-14

Family

ID=76417693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190160202A KR20210070119A (ko) 2019-12-04 2019-12-04 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템

Country Status (1)

Country Link
KR (1) KR20210070119A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102491700B1 (ko) * 2022-04-08 2023-01-20 유명철 안면 마비의 진단 및 재활을 위한 어플리케이션을 실행하는 전자 장치의 동작 방법
KR102569505B1 (ko) * 2023-02-16 2023-08-21 경복대학교 산학협력단 실시간 자동 신체 인식 기능을 탑재한 모바일 장비용 인공지능 자세추정 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102491700B1 (ko) * 2022-04-08 2023-01-20 유명철 안면 마비의 진단 및 재활을 위한 어플리케이션을 실행하는 전자 장치의 동작 방법
KR102569505B1 (ko) * 2023-02-16 2023-08-21 경복대학교 산학협력단 실시간 자동 신체 인식 기능을 탑재한 모바일 장비용 인공지능 자세추정 시스템 및 방법

Similar Documents

Publication Publication Date Title
EP3616050B1 (en) Apparatus and method for voice command context
KR102354428B1 (ko) 이미지를 분석하기 위한 웨어러블기기 및 방법
US10311746B2 (en) Wearable apparatus and method for monitoring posture
US9443307B2 (en) Processing of images of a subject individual
EP3286619B1 (en) A scene image analysis module
CN110326300B (zh) 信息处理设备、信息处理方法及计算机可读存储介质
US20150206329A1 (en) Method and system of augmented-reality simulations
US20220301002A1 (en) Information processing system, communication device, control method, and storage medium
CN107683446A (zh) 用于自动识别眼睛追踪设备的至少一个用户的方法以及眼睛追踪设备
US9671873B2 (en) Device interaction with spatially aware gestures
WO2015020638A1 (en) Emotion-related query processing
CN109259724A (zh) 一种用眼监控方法、装置、存储介质及穿戴式设备
Kye et al. Multimodal data collection framework for mental stress monitoring
KR20210070119A (ko) 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템
KR20210043174A (ko) 운동 코칭 기능을 제공하는 방법 및 이를 수행하는 전자 장치
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
US11328187B2 (en) Information processing apparatus and information processing method
EP4325383A1 (en) Techniques to provide user authentication for a near-eye display device
CN110199244A (zh) 信息处理设备、信息处理方法以及程序
US11227148B2 (en) Information processing apparatus, information processing method, information processing program, and information processing system
US20170100067A1 (en) Method and system for emotion measurement
US20220050498A1 (en) Wearable apparatus and methods for providing transcription and/or summary
JP6336414B2 (ja) 画像集中誘導装置及びそれを用いた画像集中誘導方法
Fedotov et al. Towards real-time contextual touristic emotion and satisfaction estimation with wearable devices
Adiani et al. Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application