KR102349355B1 - 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템 - Google Patents

모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102349355B1
KR102349355B1 KR1020210144508A KR20210144508A KR102349355B1 KR 102349355 B1 KR102349355 B1 KR 102349355B1 KR 1020210144508 A KR1020210144508 A KR 1020210144508A KR 20210144508 A KR20210144508 A KR 20210144508A KR 102349355 B1 KR102349355 B1 KR 102349355B1
Authority
KR
South Korea
Prior art keywords
value
motion
analysis result
measurement value
glove
Prior art date
Application number
KR1020210144508A
Other languages
English (en)
Inventor
배수형
박성철
이상욱
하홍렬
Original Assignee
주식회사 안심엘피씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 안심엘피씨 filed Critical 주식회사 안심엘피씨
Priority to KR1020210144508A priority Critical patent/KR102349355B1/ko
Application granted granted Critical
Publication of KR102349355B1 publication Critical patent/KR102349355B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C17/00Other devices for processing meat or bones
    • A22C17/0006Cutting or shaping meat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Food Science & Technology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일실시예에 따르면, 장치에 의해 수행되는, 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법에 있어서, 사용자가 모션 글로브를 착용한 상태에서 발골 작업을 수행하고 있는 경우, 상기 모션 글로브의 센서부에서 측정된 제1 측정값과 상기 모션 글로브의 발골 메뉴얼 측정부에서 측정된 제2 측정값을 시간대 별로 획득하는 단계; 상기 제1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성하는 단계; 상기 제2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성하는 단계; 상기 제1 분석 결과 및 상기 제2 분석 결과를 기초로, 상기 발골 작업에 대한 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성하는 단계; 및 상기 제3 분석 결과를 기초로, 발골 교육 콘텐츠를 생성하는 단계를 포함하는, 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법이 제공된다.

Description

모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR CONSTRUCTING DEBONING EDUCATION CONTENTS BASED ON AR/VR ENVIRONMENT USING MOTION GLOVES}
아래 실시예들은 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템에 관한 것이다.
일반적으로 육류의 발골은 식육이라는 상품으로서 부가가치를 창출하는 중요한 과정이다. 따라서 육류의 발골은 품질 균일도를 최대로 살리는 발골이 중요하며, 식육시장에서 원활한 거래를 위해서 통일된 발골 방법에 의한 규격화가 요구된다.
발골 대상에 따른 칼을 잡는 방식, 칼을 잡는 악력, 칼을 이용하여 자를 때 힘 벡터 등 발골 메뉴얼을 수집해 발골하는 메뉴얼 범위를 정의하고 그 범위에 따라 발골방식을 수집데이터와 매칭시키는 작업이 필요한 상황이다.
또한, 모션 글로브를 이용하여 AR/VR 환경을 기반으로 어느 장소에서나 발골 교육을 받을 수 있는 시스템의 개발이 필요한 상황이다.
한국등록특허 제10-2254656호 한국공개특허 제10-2017-0139312호 한국등록특허 제10-1892995호 한국등록특허 제10-0996959호
일실시예에 따르면, 사용자가 모션 글로브를 착용한 상태에서 발골 작업을 수행하고 있는 경우, 모션 글로브의 센서부에서 측정된 제1 측정값과 모션 글로브의 발골 메뉴얼 측정부에서 측정된 제2 측정값을 시간대 별로 획득하고, 제1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성하고, 제2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성하고, 제1 분석 결과 및 제2 분석 결과를 기초로, 발골 작업에 대한 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성하고, 제3 분석 결과를 기초로, 발골 교육 콘텐츠를 생성하는, 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법에 있어서, 사용자가 모션 글로브를 착용한 상태에서 발골 작업을 수행하고 있는 경우, 상기 모션 글로브의 센서부에서 측정된 제1 측정값과 상기 모션 글로브의 발골 메뉴얼 측정부에서 측정된 제2 측정값을 시간대 별로 획득하는 단계; 상기 제1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성하는 단계; 상기 제2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성하는 단계; 상기 제1 분석 결과 및 상기 제2 분석 결과를 기초로, 상기 발골 작업에 대한 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성하는 단계; 및 상기 제3 분석 결과를 기초로, 발골 교육 콘텐츠를 생성하는 단계를 포함하는, 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법이 제공된다.
상기 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법은, 상기 제1 분석 결과 및 상기 제2 분석 결과를 기반으로, 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발골한 것이 확인되면, 상기 제1 측정값에서 상기 제1 시점에 측정된 제1-1 측정값과 상기 제2 시점에 측정된 제1-2 측정값을 추출하는 단계; 상기 제1-1 측정값 및 상기 제1-2 측정값을 비교하여, 차이값을 산출하는 단계; 상기 차이값이 미리 설정된 오차범위 내에 있는 것으로 확인되면, 상기 제1-1 측정값 및 상기 제1-2 측정값에 대한 평균값을 산출하는 단계; 및 상기 평균값에 기초하여 상기 제1 분석 결과를 수정하는 단계를 더 포함할 수 있다.
상기 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법은, 상기 사용자가 제1 모션 글로브 및 제2 모션 글로브를 양손에 착용한 상태에서 상기 발골 작업을 수행하고 있는 경우, 상기 제1 모션 글로브로부터 획득된 상기 제1 측정값 및 상기 제2 측정값을 기초로, 상기 제1 모션 글로브를 착용한 손을 칼질을 하는 손으로 구분하는 단계; 상기 제1 모션 글로브를 착용한 손이 칼질을 하는 손으로 구분되면, 상기 제2 모션 글로브를 착용한 손을 지지하는 손으로 구분하는 단계; 상기 제1 모션 글로브로부터 획득된 상기 제2 측정값에서 칼을 잡고 힘을 주는 힘 벡터를 제1 벡터로 추출하고, 상기 제2 모션 글로브로부터 획득된 상기 제2 측정값에서 고기를 잡고 힘을 주는 힘 벡터를 제2 벡터로 추출하는 단계; 제3 시점에 상기 제1 벡터의 방향과 상기 제2 벡터의 방향이 반대 방향으로 확인되면, 상기 제1 벡터의 크기 및 상기 제2 벡터의 크기를 합산한 값으로, 상기 제1 벡터의 크기를 조정하는 단계; 및 상기 제1 벡터를 상기 제3 시점에 칼을 이용하여 자를 때의 힘 벡터로 설정하여, 상기 제2 분석 결과를 수정하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 모션 글로브를 이용한 발골 메뉴얼 콘텐츠 구축으로 인해 효율적으로 육류의 발골 방법을 교육받을 수 있다.
또한, 일실시예에 따르면, 모션 글로브에 측정되는 데이터를 기반 추론 및 사례 기반 추론에 대입함으로써, 고도로 훈련된 전문가 없이도 발골 메뉴얼을 쉽게 교육받을 수 있게 된다. 발골 메뉴얼을 신속하고 정확하게 교육받을 수 있어 소요되는 시간을 줄일 수 있게 된다. 또한 측정되는 데이터를 집계 또는 통계 처리함으로써, 수집한 데이터의 활용성을 높일 수 있게 된다.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 모션 글로브의 구성도이다.
도 2는 일실시예에 따른 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 시스템의 구성의 예시도이다.
도 4는 일실시예에 따른 발골 교육 콘텐츠의 생성 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제1 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제2 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 발골 교육 콘텐츠를 VR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1 내지 도 8에 도시된 바와 같이, 본 발명은 모션 글로브를 이용하여 AR/VR 환경 기반의 발골 교육 콘텐츠의 구축에 관한 것이다.
도 1은 일실시예에 따른 모션 글로브의 구성도이다.
모션 글로브는 사용자의 손에 끼워져 사용자의 촉각과 고유수용성 감각을 인식하여 디지털 값으로 바꿀 수 있도록 하는 글러브 센서로 이루어진다.
모션 글로브는 장갑(10), 센서부(20) 및 발골 메뉴얼 측정부(30)를 포함한다.
장갑(10)은 사용자의 손가락이 끼워지는 형태로 구현될 수 있다.
센서부(20)는 하나 이상의 센서를 포함한다. 센서의 종류에는 휨 센서, 구부림(Bending) 센서, 압력(Pressure) 센서, 기울기 센서, 기압계(Barometer) 센서, 위치감지 센서, 자이로 센서 등이 포함될 수 있다.
휨 센서는 굽힘과 펴짐이 이루어질 때 휨의 정도를 알 수 있어 포함될 수 있다. 구부림(Bending) 센서는 손가락 별 구부림 정도를 측정하여 포함될 수 있다. 압력(Pressure) 센서는 물건을 잡을 때 압력을 측정하여 포함될 수 있다. 기울기 센서는 기울어짐 또는 어느 쪽으로 기울어졌는지를 감지하여 포함될 수 있다. 기압계 (Barometer)센서는 손의 위치에 대한 벡터값을 측정하여 포함될 수 있다. 위치 감지 센서는 눌린 위치를 감지할 수 있어 포함될 수 있다. 또한 자이로 센서는 좌측 또는 우측 손의 위치값을 리딩하는데 사용하여 포함될 수 있다.
또한, 센서부(20)는 발골 메뉴얼을 구축하는데 필요한 그 외의 센서를 더 포함할 수도 있다.
발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 칼을 잡는 방식, 칼을 잡는 악력, 칼을 이용하여 자를 때 힘의 벡터에 대한 메뉴얼을 생성할 수 있다.
발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 칼을 잡는 방식이 칼을 던지듯이 잡는 지 찌르듯이 잡는 지를 구분할 수 있다.
발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 칼을 잡는 악력이 얼만큼 인지 측정할 수 있다.
발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 칼을 이용하여 자를 때 모션과 각도를 측정하여 힘의 벡터를 측정할 수 있다.
발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 왼손과 오른손 중 어느 쪽이 칼질을 하는 손인지 지지하는 손인지를 구분할 수 있다.
발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 해당 발골을 위한 포인트와 라인을 파악하고, 발골을 위한 포인트와 라인에 따라 칼이 들어가고 힘을 어떻게 사용해야 하는지를 측정할 수 있다.
또한, 발골 메뉴얼 측정부(30)는 센서부(20)를 통해 측정된 센서값을 기초로, 발골 순서와 부위, 발골을 할 때 포인트를 측정할 수 있다.
도 2는 일실시예에 따른 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법을 설명하기 위한 순서도이다.
모션 글로브를 이용한 발골 교육 콘텐츠의 구축 방법은 모션 글로브에 있는 발골 메뉴얼 측정부(30)와 센서부(20)에서 측정된 값을 통신부(100)로 보내는 단계; 통신부(100)에서 데이터베이스(200)로 보내는 단계; 데이터베이스(200)에서 기계학습장치(300)로 보내는 단계;가 포함될 수 있다.
센서부(20)와 발골 메뉴얼 측정부(30)에서 통신부(100) 및 데이터베이스(200)로 가는 단계에서 같은 부위를 같은 방식으로 발골할 때 센서부(20)와 발골 메뉴얼 측정부(30)에서 측정한 측정값이 오차가 있을 경우, 기계학습장치(300)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값에 대한 평균값을 각각 계산할 수 있다.
기계학습장치(300)는 평균값을 계산할 때 첫번째와 두번째 데이터의 변화량을 측정하여 그 변화량이 설정된 상수값을 벗어난 경우에는 그 값을 제거하고 그 다음 시행한 데이터 값과 비교한다. 이렇게 하여 오차범위가 큰 데이터 값을 제거하고 오차범위가 작은 평균값을 생성할 수 있다.
일실시예에 따르면, 발골은 소와 같은 발골 대상을 내장 빼고 고기로 분리하는 작업인데 무게, 크기, 형상 등 다양한 유형에 따른 발골 대상의 발골 방식이 있다. 부위 별로 발골하는 방식에는 어디를 찌르고 가르고 하는 순서가 포함될 수 있다. 모션 글로브를 이용한 발골 교육 콘텐츠의 구축 방법을 이용하여 발골 순서와 부위, 발골을 할 때 포인트, 발골 라인에 따라 모션 글로브로 데이터를 수집하고 각 데이터를 매칭시켜서 발골 메뉴얼을 구축하고, 이를 통해, 발골 교육 콘텐츠를 구축할 수 있다.
도 3은 일실시예에 따른 시스템의 구성의 예시도이다.
도 3을 참조하면, 일실시예에 따른 시스템은 모션 글로브(400) 및 장치(500)를 포함할 수 있다.
먼저, 모션 글로브(400)는 장갑(10), 센서부(20) 및 발골 메뉴얼 측정부(30)를 포함하여 구현될 수 있다.
모션 글로브(400)는 하나 또는 한 쌍으로 사용될 수 있는데, 모션 글로브(400)가 하나만 사용될 때에는 칼질을 하는 손에만 모션 글로브(400)가 착용되고, 모션 글로브(400)가 한 쌍이 사용될 때에는 양손에 모션 글로브(400)가 착용될 수 있다.
장치(500)는 통신부(100), 데이터베이스(200) 및 기계학습장치(300)를 포함하여 구현될 수 있다.
장치(500)는 장치(500)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(500)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.
장치(500)는 모션 글로브(400)와 유무선으로 통신하도록 구성될 수 있으며, 모션 글로브(400)에서 측정된 측정값을 획득하고, 모션 글로브(400)의 전체적인 동작을 제어할 수 있다.
일실시예에 따르면, 발골 대상을 발골할 때 발골 순서가 정해져 있고, 발골 순서 별로 부위가 정해져 있으며, 부위 별로 발골하는 방식(어딜 찌르고 가르고 하는 순서 등)이 상이할 수 있다.
장치(500)는 발골 대상에 따라 발골하는 메뉴얼 범위를 정의하고, 그 범위에 따라 가르는 방식을 수집 데이터와 매칭시킬 수 있다. 여기서, 수집 데이터는 모션 글로브(400)를 통해 수집된 데이터로, 칼을 잡는 방식, 칼을 잡는 악력, 칼을 이용하여 자를 때 힘 벡터(모션, 각도), 칼을 잡는 손이 어느 손인지, 지지하는 손이 어느 손인지 등에 대한 정보를 포함할 수 있다.
발골 대상을 발골을 하기 위해 포인트와 라인이 정해져 있는데, 장치(500)는 모션 글로브(400)를 통해 그 포인트와 라인에 따라 칼이 들어가고 힘을 어떻게 사용해야 하는지 데이터를 수집해서, 발골 매뉴얼을 구축할 수 있다.
발골 대상(무게, 크기, 형상 등 다양한 유형)에 따라 발골 방식이 달라질 수 있는데, 장치(500)는 발골 대상 별로 수집된 데이터를 기초로, 발골 대상 별로 발골 매뉴얼을 구축하여, 이를 통해, 발골 교육 콘텐츠를 생성할 수 있다.
즉, 장치(500)는 발골 순서와 부위, 발골을 할 때 포인트, 발골 라인에 따라 모션 글로브(400)의 데이터를 매칭시켜서, 발골 매뉴얼을 구축하고, 이를 AR/VR 콘텐츠에 적용시킬 수 있다.
도 4는 일실시예에 따른 발골 교육 콘텐츠의 생성 과정을 설명하기 위한 순서도이다.
도 4를 참조하면, 먼저, S401 단계에서, 장치(500)는 사용자가 모션 글로브(400)를 착용한 상태에서 발골 작업을 수행하고 있는 경우, 모션 글로브(400)의 센서부(20)에서 측정된 제1 측정값을 시간대 별로 획득할 수 있다. 여기서, 제1 측정값은 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함할 수 있다.
구체적으로, 모션 글로브(400)가 사용자에게 착용된 상태에서, 모션 글로브(400)에 구비된 발골 작업 시작 버튼이 눌리면, 모션 글로브(400)는 사용자가 발골 작업을 수행하는 것으로 판단할 수 있으며, 모션 글로브(400)의 센서부(20)는 휨 센서를 통해 휨 센서값을 측정하고, 구부림 센서를 통해 구부림 센서값을 측정하고, 압력 센서를 통해 압력 센서값을 측정하고, 기울기 센서를 통해 기울기 센서값을 측정하고, 기압계 센서를 통해 기압계 센서값을 측정하고, 자이로 센서를 통해 자이로 센서값을 측정하고, 위치감지 센서를 통해 위치감지 센서값을 측정할 수 있다. 이때, 장치(500)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함하는 제1 측정값을 모션 글로브(400)로부터 시간대 별로 획득할 수 있다. 장치(500)는 모션 글로브(400)에 구비된 발골 작업 종료 버튼이 눌릴 때까지, 모션 글로브(400)로부터 제1 측정값을 계속 획득할 수 있다.
S402 단계에서, 장치(500)는 사용자가 모션 글로브(400)를 착용한 상태에서 발골 작업을 수행하고 있는 경우, 모션 글로브(400)의 발골 메뉴얼 측정부(30)에서 측정된 제2 측정값을 시간대 별로 획득할 수 있다. 여기서, 제2 측정값은 칼을 잡는 방식에 대한 측정값, 칼을 잡는 압력에 대한 측정값 및 칼을 이용하여 자를 때의 힘 벡터를 포함할 수 있다.
구체적으로, 모션 글로브(400)가 사용자에게 착용된 상태에서, 모션 글로브(400)에 구비된 발골 작업 시작 버튼이 눌리면, 모션 글로브(400)는 사용자가 발골 작업을 수행하는 것으로 판단할 수 있으며, 모션 글로브(400)의 발골 메뉴얼 측정부(30)는 칼을 잡는 방식이 칼을 던지듯이 잡는 지 찌르듯이 잡는 지를 구분하여 칼을 잡는 방식에 대한 측정값을 측정하고, 칼을 잡는 악력이 얼마큼 인지 측정하여 칼을 잡는 압력에 대한 측정값을 측정하고, 칼을 이용하여 자를 때 모션과 각도를 측정하여 칼을 이용하여 자를 때의 힘 벡터를 측정할 수 있다. 이때, 장치(500)는 칼을 잡는 방식에 대한 측정값, 칼을 잡는 압력에 대한 측정값 및 칼을 이용하여 자를 때의 힘 벡터를 포함하는 제2 측정값을 모션 글로브(400)로부터 시간대 별로 획득할 수 있다. 장치(500)는 모션 글로브(400)에 구비된 발골 작업 종료 버튼이 눌릴 때까지, 모션 글로브(400)로부터 제2 측정값을 계속 획득할 수 있다.
S403 단계에서, 장치(500)는 제1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성할 수 있다. 여기서, 제1 분석 결과는 시간대 별로 측정된 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값에 대한 분석 결과이다.
S404 단계에서, 장치(500)는 제2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성할 수 있다. 여기서, 제2 분석 결과는 시간대 별로 측정된 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터에 대한 분석 결과이다.
S405 단계에서, 장치(500)는 제1 분석 결과 및 제2 분석 결과를 기초로, 발골 작업에 대한 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성할 수 있다, 여기서, 제3 분석 결과는 시간대 별로 분석된 발골 순서, 발골을 할 때 포인트 및 발골 라인에 대한 분석 결과이다.
S406 단계에서, 장치(500)는 제3 분석 결과를 기초로, 발골 교육 콘텐츠를 생성할 수 있다. 이때, 장치(500)는 발골 순서, 발골을 할 때 포인트 및 발골 라인을 통해, AR/VR 환경 기반에서 발골 교육이 이루어질 수 있도록, 발골 교육 콘텐츠를 생성할 수 있다.
도 5는 일실시예에 따른 제1 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(500)는 제1 분석 결과 및 제2 분석 결과를 기반으로, 서로 다른 시점에 같은 부위를 같은 방식으로 발굴하였는지 여부를 확인할 수 있다.
즉, 장치(500)는 제1 분석 결과 및 제2 분석 결과를 기반으로, 어느 시점에 어느 부위를 어느 방식으로 발굴하는지 파악할 수 있으며, 이를 통해, 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발굴하였는지 여부를 확인할 수 있다.
S501 단계에서 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발골한 것이 확인되면, S502 단계에서, 장치(500)는 제1 측정값에서 제1 시점에 측정된 제1-1 측정값을 추출하고, 제1 측정값에서 제2 시점에 측정된 제1-2 측정값을 추출할 수 있다. 여기서, 제1-1 측정값은 제1 시점에 측정된 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함하고, 제1-2 측정값은 제2 시점에 측정된 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함할 수 있다.
즉, 장치(500)는 모션 글로브(400)로부터 제1 측정값을 계속해서 획득하고 있는데, 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발골한 것이 확인되면, 제1 측정값에서 제1 시점에 측정된 측정값을 제1-1 측정값으로 추출하고, 제1 측정값에서 제2 시점에 측정된 측정값을 제1-2 측정값으로 추출할 수 있다.
S503 단계에서, 장치(500)는 제1-1 측정값 및 제1-2 측정값을 비교하여, 차이값을 산출할 수 있다. 이때, 장치(500)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 비교한 후, 차이가 있는 값을 모두 합산하여, 차이값을 산출할 수 있다.
S504 단계에서, 장치(500)는 차이값이 오차범위 내에 있는지 여부를 확인할 수 있다. 여기서, 오차범위는 실시예에 따라 상이하게 설정될 수 있다.
S504 단계에서 차이값이 오차범위 내에 있는 것으로 확인되면, S505 단계에서, 장치(500)는 제1-1 측정값 및 제1-2 측정값에 대한 평균값을 산출할 수 있다. 이때, 장치(500)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값 각각에 대한 평균값을 산출할 수 있다.
S504 단계에서 차이값이 오차범위를 벗어나는 것으로 확인되면, S506 단계에서, 장치(500)는 제1-1 측정값 및 제1-2 측정값을 삭제할 수 있다.
S507 단계에서, 장치(500)는 제1 분석 결과를 수정할 수 있다. 이때, 장치(500)는 제1-1 측정값 및 제1-2 측정값에 대한 평균값을 산출한 경우, 평균값에 기초하여 제1 분석 결과를 수정하고, 제1-1 측정값 및 제1-2 측정값을 삭제한 경우, 제1-1 측정값 및 제1-2 측정값을 삭제한 것이 반영되도록, 제1 분석 결과를 수정할 수 있다.
즉, 장치(500)는 제1-1 측정값 및 제1-2 측정값을 포함하는 제1 측정값을 기초로, 제1 분석 결과를 생성한 후, 제1-1 측정값 및 제1-2 측정값에 대한 평균값을 산출한 경우, 제1 분석 결과에서 제1-1 측정값 및 제1-2 측정값을 평균값으로 대체함으로써, 제1 분석 결과를 수정할 수 있으며, 제1-1 측정값 및 제1-2 측정값을 삭제한 경우, 제1 분석 결과에서 제1-1 측정값 및 제1-2 측정값을 삭제함으로써, 제1 분석 결과를 수정할 수 있다.
도 6은 일실시예에 따른 제2 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(500)는 제1 모션 글로브로부터 제1 측정값 및 제2 측정값을 획득할 수 있고, S602 단계에서, 장치(500)는 제2 모션 글로브로부터 제1 측정값 및 제2 측정값을 획득할 수 있다. 이때, 사용자는 제1 모션 글로브 및 제2 모션 글로브를 양손에 착용한 상태에서 발골 작업을 수행하고 있다.
S603 단계에서, 장치(500)는 제1 모션 글로브로부터 획득된 제1 측정값 및 제2 측정값을 기초로, 제1 모션 글로브를 착용한 손을 칼질을 하는 손으로 구분할 수 있다. 즉, 장치(500)는 제1 모션 글로브를 통해 수집된 데이터를 분석하여, 제1 모션 글로브를 착용한 손이 칼질을 하는 손인지 구분할 수 있다.
S604 단계에서, 장치(500)는 제2 모션 글로브로부터 획득된 제1 측정값 및 제2 측정값을 기초로, 제2 모션 글로브를 착용한 손을 지지하는 손으로 구분할 수 있다. 즉, 장치(500)는 제2 모션 글로브를 통해 수집된 데이터를 분석하여, 제2 모션 글로브를 착용한 손이 지지하는 손인지 구분할 수 있다.
S605 단계에서, 장치(500)는 제1 모션 글로브로부터 획득된 제2 측정값에서 칼을 잡고 힘을 주는 힘 벡터를 제1 벡터로 추출할 수 있다. 즉, 제1 모션 글로브로부터 획득된 제2 측정값에는 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터에 대한 정보가 포함되어 있는데, 장치(500)는 제2 측정값에서 칼을 이용하여 자를 때의 힘 벡터를 제1 벡터로 추출할 수 있다.
S606 단계에서, 장치(500)는 제2 모션 글로브로부터 획득된 제2 측정값에서 고기를 잡고 힘을 주는 힘 벡터를 제2 벡터로 추출할 수 있다. 즉, 제2 모션 글로브로부터 획득된 제2 측정값에는 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터에 대한 정보가 포함되어 있는데, 장치(500)는 제2 측정값에서 칼을 이용하여 자를 때의 힘 벡터를 고기를 잡고 힘을 주는 힘 벡터로 인식하여, 칼을 이용하여 자를 때의 힘 벡터를 제2 벡터로 추출할 수 있다.
S607 단계에서, 장치(500)는 특정 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향인지 여부를 확인할 수 있다.
S607 단계에서 제3 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향으로 확인되면, S608 단계에서, 장치(500)는 제1 벡터의 크기 및 제2 벡터의 크기를 합산한 값으로, 제1 벡터의 크기를 조정할 수 있다.
즉, 특정 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향인 경우, 장치(500)는 해당 시점에 제1 벡터의 크기 및 제2 벡터의 크기를 합산한 값으로, 제1 벡터의 크기를 변경시킬 수 있다.
S609 단계에서, 장치(500)는 제1 벡터를 제3 시점에 칼을 이용하여 자를 때의 힘 벡터로 설정하여, 제2 분석 결과를 수정할 수 있다.
즉, 장치(500)는 칼을 이용하여 자를 때의 힘 벡터로 제2 분석 결과를 생성한 후, 제3 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향으로 확인되면, 칼을 이용하여 자를 때의 힘 벡터와 고기를 잡고 힘을 주는 힘 벡터를 합산한 값으로, 칼을 이용하여 자를 때의 힘 벡터를 변경함으로써, 제2 분석 결과를 수정할 수 있다.
일실시예에 따르면, 모션 글로브(400)를 양손에 착용하여, 한 손은 매달려 움직이는 고기를 잡고, 반대편 손에는 칼을 잡고 힘을 줄 때, 서로 반대 방향의 힘을 작용하여 발골 작업을 수행하는데, 제1 벡터의 크기 및 제2 벡터의 크기를 합산한 값을 통해, 서로 반대 방향의 힘이 작용하는 것을 제2 분석 결과에 반영시킬 수 있다.
도 7은 일실시예에 따른 발골 교육 콘텐츠를 VR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저, S701 단계에서, 장치(500)는 학생이 모션 글로브(400)를 착용한 상태에서 VR 기기를 착용한 것으로 확인되면, 발골 교육 콘텐츠가 실행되어 VR 기기의 화면에 표시되도록 제어할 수 있다. 이때, VR 기기의 화면에는 발골 교육 콘텐츠의 초기 화면이 표시될 수 있다.
일실시예에 따르면, VR 기기는 스마트 안경, HMD(Head mounted Display) 등일 수 있으며, 가상 현실을 통해 정보를 표시할 수 있다. 예를 들어, 평소에는 투명한 스마트 안경을 통해 증강 현실이 필요할 때에는 투명한 안경 위에 정보를 표시하고, 가상 현실이 필요할 때에는 안경이 불투명해지면서 새로운 가상의 정보를 표시할 수 있다. 장치(500)는 VR 기기와 유무선으로 통신하도록 구성될 수 있으며, VR 기기의 전체적인 동작을 제어할 수 있다.
S702 단계에서, 장치(500)는 발골 교육 콘텐츠가 제1 고기의 발골을 연습하기 위한 교육 콘텐츠로 확인되면, 제1 고기의 전체 부위가 VR 기기의 화면에서 제1 색으로 표시되도록, VR 기기의 동작을 제어할 수 있다.
S703 단계에서, 장치(500)는 제1 고기의 전체 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제1 부위를 확인할 수 있다.
즉, 장치(500)는 발골 교육 콘텐츠를 생성할 때, 제1 고기의 각 부위에 발골 순서를 설정할 수 있으며, 제1 고기의 전체 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제1 부위를 확인할 수 있다.
S704 단계에서, 장치(500)는 제1 부위가 VR 기기의 화면에서 제2 색으로 표시되도록, VR 기기의 동작을 제어하고, 제1 부위에 대한 발굴 가이드 내용이 VR 기기의 화면에 표시되도록, VR 기기의 동작을 제어할 수 있다.
예를 들어, 제1 고기에 제1 부위, 제2 부위 및 제3 부위가 포함되어 있는 경우, VR 기기의 화면에서 제1 부위만 빨간색으로 표시되고, 제2 부위 및 제3 부위는 파란색으로 표시될 수 있으며, 제1 부위를 발굴하는데 있어 주의해야 하는 발굴 가이드 내용이 더 표시될 수 있다.
S705 단계에서, 장치(500)는 제1 부위에 대한 발골이 완료된 것으로 확인되면, 제1 부위가 VR 기기의 화면에서 제3 색으로 표시되도록, VR 기기의 동작을 제어할 수 있다. 이때, 장치(500)는 학생이 착용한 모션 글로브(400)를 통해 수집된 데이터를 분석하여, 제1 부위에 대한 발골이 완료되었는지 여부를 확인할 수 있으며, 제1 부위에 대한 발골이 완료된 것으로 확인되면, VR 기기의 화면에서 제1 부위만 제3 색으로 표시되고, 나머지 부위는 제1 색으로 표시될 수 있다.
S706 단계에서, 장치(500)는 제1 고기의 전체 부위 중 발골 순서가 제1 부위 다음으로 설정되어 있는 제2 부위를 확인할 수 있다.
S707 단계에서, 장치(500)는 제2 부위가 제2 부위가 VR 기기의 화면에서 제2 색으로 표시되도록 제어하고, 제2 부위에 대한 발굴 가이드 내용이 VR 기기의 화면에 표시되도록, VR 기기의 동작을 제어할 수 있다. 이때, 제1 부위는 제3 색으로 표시되고, 제2 부위는 제2 색으로 표시되고, 나머지 부위는 제1 색으로 표시될 수 있다.
일실시예에 따르면, 장치(500)는 VR 기기에서 실행중인 발골 교육 콘텐츠를 통해, 제1 캐릭터를 이용한 가상 공간의 접속 요청을 수신할 수 있다.
구체적으로, VR 기기에서 발골 교육 콘텐츠를 실행하고, 사용자 계정을 통한 로그인이 완료되면, VR 기기에는 대기 화면이 표시될 수 있다. 대기 화면에는 사용자에 의해 생성된 캐릭터들이 표시되어 있으며, 대기 화면에 표시된 캐릭터들 중 제1 캐릭터가 선택되면, 장치(500)는 VR 기기로부터 제1 캐릭터를 이용한 가상 공간의 접속 요청을 수신할 수 있다.
이후, 장치(500)는 제1 캐릭터에 대응하는 제1 객체에 대한 정보를 획득하고, 제1 객체와 인접한 위치에 있는 제1 광원에 대한 정보를 획득할 수 있다.
구체적으로, 장치(500)는 제1 캐릭터에 대응하여 가상 공간 상에서 움직이는 제1 객체를 확인하고, 가상 공간 상에서 제1 객체가 어느 위치에 배치되어 있는지 확인하고, 가상 공간 상에서 제1 객체와 가장 인접한 위치에 있는 제1 광원을 확인할 수 있다.
이후, 장치(500)는 제1 광원을 기초로 하여 제1 객체에 대한 라이트맵을 생성할 수 있다. 이때, 장치(500)는 공지된 다양한 기술을 통해, 음영, 조명 빛, 광원의 빛, 반사광, 투명한 효과 등 빛의 효과를 적용하여, 제1 객체에 대한 라이트맵을 생성할 수 있다.
일실시예에 따르면, 라이트맵이 적용되기 이전에는 객체 및 광원의 위치와 상관없는 가상 공간의 화면이 제공되는 반면, 라이트맵이 적용된 이후에는 객체 및 광원의 위치에 따라 상이한 빛의 효과가 적용된 가상 공간의 화면이 제공될 수 있다.
장치(500)는 제1 광원의 위치, 제1 객체의 위치, 제1 객체의 주변 환경 등을 고려하여, 제1 객체에 대한 라이트맵을 생성할 수 있다.
이후, 장치(500)는 생성된 라이트맵을 이용하여, 가상 공간 상에 위치한 제1 객체가 VR 기기의 화면에 표시되도록 제어할 수 있다. 이때, 장치(500)는 제1 캐릭터가 가상 공간 서비스에 접속한 것으로 처리하여, 제1 객체와 제1 객체의 주변 영역을 포함하는 가상 공간의 화면을 VR 기기로 제공할 수 있다.
장치(500)는 가상 공간의 화면을 VR 기기의 화면에 제공할 때, 라이트맵 적용 상태에서 음영을 더 명확하게 하는 후처리를 수행할 수 있다. 이때, 장치(500)는 음영, 조명 빛, 광원의 빛, 반사광, 투명한 효과 등을 처리하는 셰이딩(Shading)을 통해 후처리를 수행할 수 있다. 예를 들어, Ambient Occlusion 등의 셰이딩 기법을 통해, 제1 객체의 라이트맵에 대한 음영 효과를 제공할 수 있다.
일실시예에 따르면, 장치(500)는 제1 캐릭터를 이용한 가상 공간의 접속 요청이 수신되면, 제1 캐릭터에 대한 가상 공간 이용 내역을 획득할 수 있다. 여기서, 제1 캐릭터에 대한 가상 공간 이용 내역은 제1 캐릭터의 가상 공간 접속 이력, 가상 공간 종료 이력, 가상 공간 접속 종료 시 제1 캐릭터의 위치 등에 대한 정보를 포함할 수 있다.
이후, 장치(500)는 제1 캐릭터의 가상 공간 이용 내역을 기초로, 가상 공간 상에서 제1 객체가 위치하고 있는 지점을 제1 지점으로 확인할 수 있다. 이때, 장치(500)는 제1 캐릭터의 가상 공간 이용 내역을 기초로, 가장 최근에 가상 공간의 접속을 종료한 시간을 확인하고, 가장 최근에 가상 공간의 접속을 종료할 때 제1 객체가 가상 공간 상에서 어디에 위치한 상태로 접속이 종료되었는지 확인할 수 있다.
예를 들어, 제1 객체가 제1 지점에 위치한 상태로 가상 공간의 접속이 종료된 후, 제1 캐릭터를 이용한 가상 공간의 접속 요청이 수신된 경우, 장치(500)는 가상 공간 상에서 제1 객체가 가장 최근까지 위치한 지점인 제1 지점을 확인할 수 있다.
이후, 장치(500)는 제1 지점을 중심으로 제1 기준 거리 이내에 있는 영역을 제1 영역으로 설정할 수 있다. 여기서, 제1 기준 거리는 실시예에 따라 상이하게 설정될 수 있다.
예를 들어, 장치(500)는 제1 지점을 중심으로 반경 제1 기준 거리 이내에 있는 영역을 제1 영역으로 설정할 수 있다.
이후, 장치(500)는 제1 영역 내에 제1 광원이 배치되어 있는지 여부를 확인할 수 있다.
제1 영역 내에 제1 광원이 배치되어 있는 것으로 확인되면, 장치(500)는 제1 광원을 기초로 하여 제1 객체에 대한 라이트맵을 생성할 수 있다.
예를 들어, 제1 광원이 제2 지점에 위치하고 있는 경우, 장치(500)는 제1 영역 내에 제2 지점이 포함되어 있으므로, 제1 영역 내에 제1 광원이 배치되어 있는 것으로 확인할 수 있으며, 제2 지점에 배치된 제1 광원을 기초로 하여, 제1 지점에 배치된 제1 객체에 대한 라이트맵을 생성할 수 있다. 이때, 장치(500)는 제1 지점 및 제2 지점의 위치에 따라 빛의 효과를 적용하여, 제1 객체에 대한 라이트맵을 생성할 수 있다.
이후, 장치(500)는 제1 영역을 배경으로 하여 제1 객체가 VR 기기의 화면에 표시되도록 제어할 수 있다.
즉, 장치(500)는 제1 영역을 제1 객체의 주변 영역으로 설정하고, 제1 객체와 제1 영역을 포함하는 가상 공간의 화면을 VR 기기로 제공할 수 있다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(500)는 프로세서(510) 및 메모리(520)를 포함한다. 프로세서(510)는 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(500)를 이용하는 자 또는 단체는 도 1 내지 도 7을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(520)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(520)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(510)는 프로그램을 실행하고, 장치(500)를 제어할 수 있다. 프로세서(510)에 의하여 실행되는 프로그램의 코드는 메모리(520)에 저장될 수 있다. 장치(500)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법에 있어서,
    사용자가 모션 글로브를 착용한 상태에서 발골 작업을 수행하고 있는 경우, 상기 모션 글로브의 센서부에서 측정된 제1 측정값과 상기 모션 글로브의 발골 메뉴얼 측정부에서 측정된 제2 측정값을 시간대 별로 획득하는 단계;
    상기 제1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성하는 단계;
    상기 제2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성하는 단계;
    상기 제1 분석 결과 및 상기 제2 분석 결과를 기초로, 상기 발골 작업에 대한 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성하는 단계; 및
    상기 제3 분석 결과를 기초로, 발골 교육 콘텐츠를 생성하는 단계를 포함하는,
    모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법.
  2. 제1항에 있어서,
    상기 제3 분석 결과를 생성하는 단계 이전에,
    상기 제1 분석 결과 및 상기 제2 분석 결과를 기반으로, 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발골한 것이 확인되면, 상기 제1 측정값에서 상기 제1 시점에 측정된 제1-1 측정값과 상기 제2 시점에 측정된 제1-2 측정값을 추출하는 단계;
    상기 제1-1 측정값 및 상기 제1-2 측정값을 비교하여, 차이값을 산출하는 단계;
    상기 차이값이 미리 설정된 오차범위 내에 있는 것으로 확인되면, 상기 제1-1 측정값 및 상기 제1-2 측정값에 대한 평균값을 산출하는 단계; 및
    상기 평균값에 기초하여 상기 제1 분석 결과를 수정하는 단계를 더 포함하는,
    모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법.
  3. 제1항에 있어서,
    상기 제3 분석 결과를 생성하는 단계 이전에,
    상기 사용자가 제1 모션 글로브 및 제2 모션 글로브를 양손에 착용한 상태에서 상기 발골 작업을 수행하고 있는 경우, 상기 제1 모션 글로브로부터 획득된 상기 제1 측정값 및 상기 제2 측정값을 기초로, 상기 제1 모션 글로브를 착용한 손을 칼질을 하는 손으로 구분하는 단계;
    상기 제1 모션 글로브를 착용한 손이 칼질을 하는 손으로 구분되면, 상기 제2 모션 글로브를 착용한 손을 지지하는 손으로 구분하는 단계;
    상기 제1 모션 글로브로부터 획득된 상기 제2 측정값에서 칼을 잡고 힘을 주는 힘 벡터를 제1 벡터로 추출하고, 상기 제2 모션 글로브로부터 획득된 상기 제2 측정값에서 고기를 잡고 힘을 주는 힘 벡터를 제2 벡터로 추출하는 단계;
    제3 시점에 상기 제1 벡터의 방향과 상기 제2 벡터의 방향이 반대 방향으로 확인되면, 상기 제1 벡터의 크기 및 상기 제2 벡터의 크기를 합산한 값으로, 상기 제1 벡터의 크기를 조정하는 단계; 및
    상기 제1 벡터를 상기 제3 시점에 칼을 이용하여 자를 때의 힘 벡터로 설정하여, 상기 제2 분석 결과를 수정하는 단계를 더 포함하는,
    모션 글로브를 이용한 AR/VR 환경 기반 발골 교육 콘텐츠의 구축 방법.
KR1020210144508A 2021-10-27 2021-10-27 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템 KR102349355B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210144508A KR102349355B1 (ko) 2021-10-27 2021-10-27 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210144508A KR102349355B1 (ko) 2021-10-27 2021-10-27 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102349355B1 true KR102349355B1 (ko) 2022-01-10

Family

ID=79347356

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210144508A KR102349355B1 (ko) 2021-10-27 2021-10-27 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102349355B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102500237B1 (ko) * 2022-10-13 2023-02-16 주식회사 안심엘피씨 모형을 이용한 ar/vr 발골 교육 방법, 장치 및 시스템
KR102500234B1 (ko) 2022-07-25 2023-02-16 주식회사 안심엘피씨 Ar/vr 기반의 육류 발골 교육용 햅틱 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100996959B1 (ko) 2008-07-24 2010-11-30 대한민국 Rfid를 이용한 육가공장의 생산이력 관리 시스템 및방법
KR20170139312A (ko) 2016-06-09 2017-12-19 주식회사 에스지알팩 닭다리 발골장치
WO2017222858A1 (en) * 2016-06-24 2017-12-28 Microsoft Technology Licensing, Llc Integrated free space and surface input device
KR101892995B1 (ko) 2018-06-04 2018-08-31 유영구 유통을 위한 육류처리 방법
US20190193273A1 (en) * 2016-08-31 2019-06-27 Taechyon Robotics Corporation Robots for interactive comedy and companionship
WO2019147359A1 (en) * 2018-01-27 2019-08-01 Walmart Apollo, Llc System for augmented apparel design
WO2021061450A1 (en) * 2019-09-27 2021-04-01 Qsinx Management Llc Scene-to-text conversion
KR102254656B1 (ko) 2020-12-31 2021-05-21 최항석 육류의 가공방법 및 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100996959B1 (ko) 2008-07-24 2010-11-30 대한민국 Rfid를 이용한 육가공장의 생산이력 관리 시스템 및방법
KR20170139312A (ko) 2016-06-09 2017-12-19 주식회사 에스지알팩 닭다리 발골장치
WO2017222858A1 (en) * 2016-06-24 2017-12-28 Microsoft Technology Licensing, Llc Integrated free space and surface input device
US20190193273A1 (en) * 2016-08-31 2019-06-27 Taechyon Robotics Corporation Robots for interactive comedy and companionship
WO2019147359A1 (en) * 2018-01-27 2019-08-01 Walmart Apollo, Llc System for augmented apparel design
KR101892995B1 (ko) 2018-06-04 2018-08-31 유영구 유통을 위한 육류처리 방법
WO2021061450A1 (en) * 2019-09-27 2021-04-01 Qsinx Management Llc Scene-to-text conversion
KR102254656B1 (ko) 2020-12-31 2021-05-21 최항석 육류의 가공방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102500234B1 (ko) 2022-07-25 2023-02-16 주식회사 안심엘피씨 Ar/vr 기반의 육류 발골 교육용 햅틱 시스템
KR102500237B1 (ko) * 2022-10-13 2023-02-16 주식회사 안심엘피씨 모형을 이용한 ar/vr 발골 교육 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
KR102349355B1 (ko) 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템
US10470510B1 (en) Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements
EP3683727A1 (en) Generating synthetic models or virtual objects for training a deep learning network
KR20220062338A (ko) 스테레오 카메라들로부터의 손 포즈 추정
EP3139297B1 (en) Malware determination device, malware determination system, malware determination method, and program
CN112749758B (zh) 图像处理方法、神经网络的训练方法、装置、设备和介质
EP3540574B1 (en) Eye tracking method, electronic device, and non-transitory computer readable storage medium
CN111401318B (zh) 动作识别方法及装置
US11669990B2 (en) Object area measurement method, electronic device and storage medium
US20220273194A1 (en) System and method for human motion detection and tracking
KR20180122247A (ko) 이종 센서들로부터 추출된 스켈레톤 정보를 이용하여 기계학습 데이터 및 주석을 생성하는 장치 및 그 방법
CN109887234A (zh) 一种防儿童走失方法、装置、电子设备及存储介质
CN113658165B (zh) 杯盘比确定方法、装置、设备及存储介质
CN115127557A (zh) 路径导航方法、装置、可穿戴设备及存储介质
US20200070033A1 (en) Interactive Exercise Experience
CN116092120B (zh) 基于图像的动作确定方法、装置、电子设备及存储介质
CN105607990A (zh) 一种空指针崩溃的挖掘方法及装置
KR102456145B1 (ko) Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템
KR101628602B1 (ko) 프로그램의 유사도를 판단하기 위한 유사도 판단 방법 및 유사도 판단 장치
JP2021078715A (ja) 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム
KR20220122937A (ko) 정보 검증 방법, 장치, 설비 및 매체
KR102211159B1 (ko) 사용자 영상의 신체 부위를 검출하는 장치 및 방법
CN114792445A (zh) 目标人体姿态样本的挖掘方法及装置、设备和介质
CN110909739A (zh) 图片识别并操作的方法、装置、计算机设备及存储介质
CN110738318B (zh) 网络结构运行时间评估及评估模型生成方法、系统和装置

Legal Events

Date Code Title Description
GRNT Written decision to grant