KR102456145B1 - Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템 - Google Patents
Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템 Download PDFInfo
- Publication number
- KR102456145B1 KR102456145B1 KR1020210193046A KR20210193046A KR102456145B1 KR 102456145 B1 KR102456145 B1 KR 102456145B1 KR 1020210193046 A KR1020210193046 A KR 1020210193046A KR 20210193046 A KR20210193046 A KR 20210193046A KR 102456145 B1 KR102456145 B1 KR 102456145B1
- Authority
- KR
- South Korea
- Prior art keywords
- displayed
- screen
- content
- user
- controlling
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000033001 locomotion Effects 0.000 claims abstract description 134
- 238000005259 measurement Methods 0.000 claims abstract description 110
- 210000000988 bone and bone Anatomy 0.000 claims description 84
- 239000004020 conductor Substances 0.000 claims description 59
- 238000012549 training Methods 0.000 claims description 53
- 238000004458 analytical method Methods 0.000 claims description 38
- 238000005452 bending Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 27
- 238000005520 cutting process Methods 0.000 claims description 22
- 238000009412 basement excavation Methods 0.000 claims description 20
- 210000000610 foot bone Anatomy 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 14
- 230000010355 oscillation Effects 0.000 claims description 3
- 230000011164 ossification Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 19
- 235000013372 meat Nutrition 0.000 description 17
- 210000003128 head Anatomy 0.000 description 12
- 230000003190 augmentative effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 235000015278 beef Nutrition 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004886 head movement Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 208000008558 Osteophyte Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003307 slaughter Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
일실시예에 따르면, 장치에 의해 수행되는, AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 방법에 있어서, 제1 사용자가 AR 기기를 착용한 것으로 확인되면, AR 기반의 발골 교육 콘텐츠인 제1 콘텐츠가 실행되어 상기 AR 기기의 화면에 표시되도록 제어하는 단계; 상기 제1 사용자가 VR 기기를 착용한 것으로 확인되면, VR 기반의 발골 교육 콘텐츠인 제2 콘텐츠가 실행되어 상기 VR 기기의 화면에 표시되도록 제어하는 단계; 상기 제1 콘텐츠 또는 상기 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 상기 제1 사용자가 모션 글로브를 착용하고 있는 경우, 상기 모션 글로브에서 측정된 제1 측정값을 획득하고, 상기 제1 사용자가 전신 모션 슈트를 착용하고 있는 경우, 상기 전신 모션 슈트에서 측정된 제2 측정값을 획득하고, 상기 제1 사용자가 손에 나이프를 쥐고 있는 경우, 상기 나이프에서 측정된 제3 측정값을 획득하는 단계; 및 상기 제1 측정값, 상기 제2 측정값 및 상기 제3 측정값에 기초하여, 상기 제1 사용자의 발골 교육에 대한 실습 결과를 평가하는 단계를 포함하는, AR 및 VR 환경 기반 발골 교육 콘텐츠 제공 방법이 제공된다.
Description
아래 실시예들은 AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 기술에 관한 것이다.
일반적으로 육류의 발골은 식육이라는 상품으로서 부가가치를 창출하는 중요한 과정이다. 따라서 육류의 발골은 품질 균일도를 최대로 살리는 발골이 중요하며, 식육시장에서 원활한 거래를 위해서 통일된 발골 방법에 의한 규격화가 요구된다.
발골 대상에 따라 칼을 잡는 방식, 칼을 잡는 악력, 칼을 이용하여 자를 때 힘 벡터 등이 상이하기 때문에, 발골 메뉴얼을 수집해 발골하는 메뉴얼 범위를 정의하고 그 범위에 따라 발골 방식을 수집데이터와 매칭시키는 작업이 필요한 상황이다.
또한, AR 및 VR 환경을 기반으로 어느 장소에서나 발골 교육을 받을 수 있는 시스템의 개발이 필요한 상황이다.
한편, 2001년 소고기 시장이 전면 개방됨에 따라 수입소의 국내 시장 점유는 지속적으로 증가하여 2020년 66%를 기록하고 있으며, 국내 소고기 자급률은 34%에 불과하지만 대신 한우의 고급육 정책으로 고가 시장을 유지하고 있다.
지속적인 생산 공정과 시설 현대화로 국내 육가공 산업경쟁력을 육성하기 위해 현대식 공판장에서 도축 및 지육가공, 경매 그리고 콜드체인 유통 등에서 자동화가 이루어지고 있으나 발골 공정은 100%인력으로 진행되는 특성이 있으며 이는 국내 육가공 산업 발전의 병목이 되고 있다.
모든 이가 즐기는 한식요리와는 달리 한식 재료, 특히 한우 발골과 같은 육가공 분야의 발골 기술은 특정 지역, 특정 계층에게서만 도제식 형태로 암암리에 전수되어 온 특성에 따라 현대 산업 사회에서도 기술 공개화, 표준화, 산업화가 늦다는 특성이 있다.
또한, 발골 공정은 5~15℃에서 장시간 진행되는 등 작업환경이 열악한 가운데 젊은 인력들이 회피하는 경향이 있고, 발골 인력 육성은 장시간이 소요되나 체계적인 교육시스템과 더불어 마땅한 실습기회가 없어 육가공업체는 만성적인 인력난에 어려움이 있다.
이는 산업의 병목 현상으로 작용하여 국내 육가공 산업발전의 저해요인이 되므로 발골 작업을 분석하고 입력하는 장치를 개발하여 기술의 디지털화를 이루고 작업의 표준화를 이루어 인력을 체계적으로 양성시킬 교육/훈련 시뮬레이터 등의 시스템 개발과 서비스가 필요하다.
일실시예에 따르면, 제1 사용자가 AR 기기를 착용한 것으로 확인되면, AR 기반의 발골 교육 콘텐츠인 제1 콘텐츠가 실행되어 AR 기기의 화면에 표시되도록 제어하고, 제1 사용자가 VR 기기를 착용한 것으로 확인되면, VR 기반의 발골 교육 콘텐츠인 제2 콘텐츠가 실행되어 VR 기기의 화면에 표시되도록 제어하고, 제1 콘텐츠 또는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 제1 사용자가 모션 글로브를 착용하고 있는 경우, 모션 글로브에서 측정된 제1 측정값을 획득하고, 제1 사용자가 전신 모션 슈트를 착용하고 있는 경우, 전신 모션 슈트에서 측정된 제2 측정값을 획득하고, 제1 사용자가 손에 나이프를 쥐고 있는 경우, 나이프에서 측정된 제3 측정값을 획득하고, 제1 측정값, 제2 측정값 및 제3 측정값에 기초하여, 제1 사용자의 발골 교육에 대한 실습 결과를 평가하는, AR 및 VR 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 방법에 있어서, 제1 사용자가 AR 기기를 착용한 것으로 확인되면, AR 기반의 발골 교육 콘텐츠인 제1 콘텐츠가 실행되어 상기 AR 기기의 화면에 표시되도록 제어하는 단계; 상기 제1 사용자가 VR 기기를 착용한 것으로 확인되면, VR 기반의 발골 교육 콘텐츠인 제2 콘텐츠가 실행되어 상기 VR 기기의 화면에 표시되도록 제어하는 단계; 상기 제1 콘텐츠 또는 상기 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 상기 제1 사용자가 모션 글로브를 착용하고 있는 경우, 상기 모션 글로브에서 측정된 제1 측정값을 획득하고, 상기 제1 사용자가 전신 모션 슈트를 착용하고 있는 경우, 상기 전신 모션 슈트에서 측정된 제2 측정값을 획득하고, 상기 제1 사용자가 손에 나이프를 쥐고 있는 경우, 상기 나이프에서 측정된 제3 측정값을 획득하는 단계; 및 상기 제1 측정값, 상기 제2 측정값 및 상기 제3 측정값에 기초하여, 상기 제1 사용자의 발골 교육에 대한 실습 결과를 평가하는 단계를 포함하는, AR 및 VR 환경 기반 발골 교육 콘텐츠 제공 방법이 제공된다.
상기 제1 콘텐츠가 상기 AR 기기의 화면에 표시되도록 제어하는 단계는, 상기 제1 콘텐츠가 실행되면, 상기 AR 기기를 착용한 상기 제1 사용자의 시선을 추적하는 단계; 상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 제1 구역을 응시하고 있는 것으로 확인되면, 상기 제1 구역에 대한 실시간 영상이 상기 AR 기기의 화면에 표시되도록 제어하는 단계; 상기 제1 구역에 발골을 연습하기 위한 제1 도체(屠體)가 위치하고 있는지 여부를 확인하는 단계; 상기 제1 구역에 상기 제1 도체가 위치하고 있는 것으로 확인되면, 상기 제1 구역에 대한 영상을 기반으로, 상기 제1 도체의 각 부위를 인식하는 단계; 상기 인식된 제1 도체의 각 부위가 상기 AR 기기의 화면에서 제1 색으로 표시되도록 제어하는 단계; 상기 인식된 제1 도체의 각 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제1 부위를 확인하는 단계; 상기 제1 부위가 상기 AR 기기의 화면에서 제2 색으로 표시되도록 제어하고, 상기 제1 부위에 대한 발굴 가이드 내용이 상기 AR 기기의 화면에 표시되도록 제어하는 단계; 상기 제1 부위에 대한 발골이 완료된 것으로 확인되면, 상기 제1 부위가 상기 AR 기기의 화면에서 제3 색으로 표시되도록 제어하는 단계; 상기 인식된 제1 도체의 각 부위 중 발굴 순서가 상기 제1 부위 다음으로 설정되어 있는 제2 부위를 확인하는 단계; 및 상기 제2 부위가 상기 AR 기기의 화면에서 상기 제2 색으로 표시되도록 제어하고, 상기 제2 부위에 대한 발굴 가이드 내용이 상기 AR 기기의 화면에 표시되도록 제어하는 단계를 포함할 수 있다.
상기 제2 콘텐츠가 상기 VR 기기의 화면에 표시되도록 제어하는 단계는, 상기 제2 콘텐츠가 실행되면, 발골 연습 도체에 대한 선택 영상이 상기 VR 기기의 화면에 표시되도록 제어하는 단계; 상기 선택 영상을 통해 제2 도체(屠體)가 선택되면, 상기 제2 도체의 전체 부위가 상기 VR 기기의 화면에서 상기 제1 색으로 표시되도록 제어하는 단계; 상기 제2 도체의 전체 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제3 부위를 확인하는 단계; 상기 제3 부위가 상기 VR 기기의 화면에서 상기 제2 색으로 표시되도록 제어하고, 상기 제3 부위에 대한 발굴 가이드 내용이 상기 VR 기기의 화면에 표시되도록 제어하는 단계; 상기 제3 부위에 대한 발골이 완료된 것으로 확인되면, 상기 제3 부위가 상기 VR 기기의 화면에서 상기 제3 색으로 표시되도록 제어하는 단계; 상기 제2 도체의 전체 부위 중 발굴 순서가 상기 제3 부위 다음으로 설정되어 있는 제4 부위를 확인하는 단계; 및 상기 제4 부위가 상기 VR 기기의 화면에서 상기 제2 색으로 표시되도록 제어하고, 상기 제4 부위에 대한 발굴 가이드 내용이 상기 VR 기기의 화면에 표시되도록 제어하는 단계를 포함할 수 있다.
일실시예에 따르면, AR 및 VR 기반의 발골 교육 콘텐츠에 대한 제공으로 인해 효율적으로 육류의 발골 방법을 교육받을 수 있다.
또한, 일실시예에 따르면, 모션 글로브, 전신 모션 슈트 및 나이프에 측정되는 데이터를 기반 추론 및 사례 기반 추론에 대입함으로써, 고도로 훈련된 전문가 없이도 발골 메뉴얼을 쉽게 교육받을 수 있게 된다. 발골 메뉴얼을 신속하고 정확하게 교육받을 수 있어 소요되는 시간을 줄일 수 있게 된다. 또한 측정되는 데이터를 집계 또는 통계 처리함으로써, 수집한 데이터의 활용성을 높일 수 있게 된다.
또한, 일실시예에 따르면, 발골 전문 인력 양성으로 국내 육가공 산업의 병목 해소, 요식업자의 육가공 기술 습득 및 이를 활용한 새로운 한식 메뉴 및 신사업 창출(예를 들면, 한우 오마카세), 관련 육가공 기술자 해외 진출 등의 일자리 창출, 세계 고급육 시장에 한우의 수출 경쟁력 확보 등 K-푸드 및 한국 전통문화의 세계 확산 보급에 기여할 수 있는 효과가 있다.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 발골 교육에 대한 실습 결과를 평가하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 제1 콘텐츠를 AR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제2 콘텐츠를 VR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 모션 글로브의 구성도이다.
도 7은 일실시예에 따른 모션 글로브를 통해 발골 교육에 대한 실습 결과를 평가하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 제1 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제2 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
도 2는 일실시예에 따른 AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 발골 교육에 대한 실습 결과를 평가하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 제1 콘텐츠를 AR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제2 콘텐츠를 VR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 모션 글로브의 구성도이다.
도 7은 일실시예에 따른 모션 글로브를 통해 발골 교육에 대한 실습 결과를 평가하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 제1 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제2 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 AR 기기(100), VR 기기(200), 모션 글로브(300), 전신 모션 슈트(400), 나이프(500) 및 장치(600)를 포함할 수 있다.
먼저, AR 기기(100)는 스마트 안경, HMD(Head mounted Display) 등으로 구현될 수 있으며, 증강 현실(AR : Augmented Reality)을 통해 화면에 정보를 표시할 수 있다. 즉, 실제 사물 위에 컴퓨터그래픽(CG)을 통해 정보와 콘텐츠를 표시할 수 있다.
예를 들어, AR 기기(100)는 홀로렌즈(HoloLens)로, 머리에 쓰는 디스플레이 장치(Head Mounted Display, HMD)로 구현될 수 있으며, 반투명한 디스플레이를 통해 사용자의 주변 환경을 볼 수 있도록, 화면을 구비할 수 있다.
AR 기기(100)는 반투명 디스플레이로 구현된 화면 상에 증강 현실 영상을 표시할 수 있으며, 이때, 사용자 환경과 상호작용을 통해 화면에 영상이 재생될 수 있다.
AR 기기(100)는 고글(Goggle)형 프레임, 디스플레이 화면, 광각 렌즈, 모션 센서(적외선, 자이로, 지자기, 가속도 등)을 포함하여 구성될 수 있다.
또한, AR 기기(100)는 AR 기기(100)를 착용한 사용자의 머리 움직임을 통해 사용자의 시선을 추적할 수 있으며, 헤드 트렉킹을 통해 사용자의 시선 이동에 따라 영상이 변경되어 표시되도록 처리할 수 있다. 즉, AR 기기(100)는 사용자 머리의 회전 각도와 속도 등을 수치화하여, 사용자 머리의 움직임과 동일한 방향으로 영상이 변경되도록 처리할 수 있다. 예를 들어, 사용자의 머리가 오른쪽으로 회전하면 증강 현실의 영상에서도 오른쪽으로 움직이고, 사용자의 머리가 왼쪽으로 회전하면 증강 현실의 영상에서도 왼쪽으로 움직이도록 처리할 수 있다.
AR 기기(100)는 AR 기기(100)를 착용한 사용자의 손짓을 인식하여, 증강 현실 영상을 조작할 수 있도록, 처리할 수 있다.
VR 기기(200)는 스마트 안경, HMD(Head mounted Display) 등으로 구현될 수 있으며, 가상 현실(VR : Virtual Reality)을 통해 화면에 정보를 표시할 수 있다. 즉, 새로운 현실을 경험하도록 가상의 정보와 콘텐츠를 표시할 수 있다.
예를 들어, VR 기기(200)는 머리에 쓰는 디스플레이 장치(Head Mounted Display, HMD)로 구현될 수 있으며, 불투명한 디스플레이를 통해 가상 세계에 대한 환경을 볼 수 있도록, 화면을 구비할 수 있다.
VR 기기(200)는 불투명 디스플레이로 구현된 화면 상에 가상 현실 영상을 표시할 수 있으며, 이때, 가상 현실의 환경과 사용자의 상호작용을 통해 화면에 영상이 재생될 수 있다.
VR 기기(200)는 고글(Goggle)형 프레임, 디스플레이 화면, 광각 렌즈, 모션 센서(적외선, 자이로, 지자기, 가속도 등)을 포함하여 구성될 수 있다.
또한, VR 기기(200)는 VR 기기(200)를 착용한 사용자의 머리 움직임을 통해 사용자의 시선을 추적할 수 있으며, 헤드 트렉킹을 통해 사용자의 시선 이동에 따라 영상이 변경되어 표시되도록 처리할 수 있다. 즉, VR 기기(200)는 사용자 머리의 회전 각도와 속도 등을 수치화하여, 사용자 머리의 움직임과 동일한 방향으로 영상이 변경되도록 처리할 수 있다. 예를 들어, 사용자의 머리가 오른쪽으로 회전하면 가상 현실의 영상에서도 오른쪽으로 움직이고, 사용자의 머리가 왼쪽으로 회전하면 가상 현실의 영상에서도 왼쪽으로 움직이도록 처리할 수 있다.
VR 기기(200)는 VR 기기(200)를 착용한 사용자의 손짓을 인식하여, 가상 현실 내에서의 영상을 조작할 수 있도록, 처리할 수 있다.
일실시예에 따르면, AR 기기(100)와 VR 기기(200)는 AR 및 VR을 모두 지원하는 하나의 기기로 구현될 수 있다. 예를 들어, AR 및 VR을 모두 지원하는 기기는 증강 현실이 필요할 때 반투명한 화면에 증강 현실의 정보를 표시하고, 가상 화면이 필요할 때 불투명한 화면에 가상 현실의 정보를 표시할 수 있다. 즉, 증강 현실과 가상 현실을 혼합하여 확장된 현실을 창조하는 확장 현실(XR : eXtended Reality)의 제공이 가능하다.
모션 글로브(300)는 사용자의 손에 끼워져 사용자의 촉각과 고유수용성 감각을 인식하여 디지털 값으로 바꿀 수 있도록 하는 글러브의 형태로 이루어질 수 있다.
모션 글로브(300)는 하나 이상의 센서를 포함할 수 있다. 센서의 종류에는 휨 센서, 구부림(Bending) 센서, 압력(Pressure) 센서, 기울기 센서, 기압계(Barometer) 센서, 위치감지 센서, 자이로 센서 등이 포함될 수 있으며, 모션 글로브(300)를 착용한 사용자의 움직임과 힘을 감지하는데 필요한 그 외의 센서를 더 포함할 수도 있다.
모션 글로브(300)는 모션 글로브(300)에 의해 측정된 제1 측정값을 장치(600)로 전송할 수 있다. 여기서, 제1 측정값은 모션 글로브(300)에 포함된 센서에 의해 측정된 센서값을 의미할 수 있다.
모션 글로브(300)는 하나 또는 한 쌍으로 사용될 수 있는데, 모션 글로브(300)가 하나만 사용될 때에는 칼질을 하는 손에만 모션 글로브(300)가 착용되고, 모션 글로브(300)가 한 쌍이 사용될 때에는 양손에 모션 글로브(300)가 착용될 수 있다.
전신 모션 슈트(400)는 사용자의 몸에 착용되어 사용자 전신의 움직임을 인식하여 디지털 값으로 바꿀 수 있도록 하는 모션 슈트의 형태로 이루어질 수 있다.
전신 모션 슈트(400)는 하나 이상의 센서를 포함할 수 있다. 센서의 종류에는 FBG(Fiber Bragg Grating) 센서, 형상 센서, 각도 센서, 비틀림 센서 등을 포함할 수 있으며, 전신 모션 슈트(400)를 착용한 사용자의 움직임과 관절 동작을 감지하는데 필요한 그 외의 센서를 더 포함할 수도 있다. 이를 통해, 전신 모션 슈트(400)는 실시간으로 3차원 형상, 고국률의 구부러짐 각도, 비틀림 각도 등을 측정하여 인체의 움직임과 관절 동작을 정밀하게 측정할 수 있다.
전신 모션 슈트(400)는 전신 모션 슈트(400)에 의해 측정된 제2 측정값을 장치(600)로 전송할 수 있다. 여기서, 제2 측정값은 전신 모션 슈트(400)에 포함된 센서에 의해 측정된 센서값을 의미할 수 있다.
나이프(500)는 사용자의 손에 쥐어져서 사용될 수 있으며, 사용자가 나이프(500)를 손에 쥐고 미는 힘의 방향 및 크기를 인식하여 디지털 값으로 바꿀 수 있도록 하는 칼의 형태로 이루어질 수 있다.
나이프(500)는 하나 이상의 센서를 포함할 수 있다. 센서의 종류에는 휨 센서, 구부림(Bending) 센서, 압력(Pressure) 센서, 기울기 센서, 기압계(Barometer) 센서, 위치감지 센서, 자이로 센서 등이 포함될 수 있으며, 나이프(500)를 손에 쥐고 있는 사용자의 손이 밀고 있는 힘의 방향과 크기를 감지하는데 필요한 그 외의 센서를 더 포함할 수도 있다.
나이프(500)는 나이프(500)는 의해 측정된 제3 측정값을 장치(600)로 전송할 수 있다. 여기서, 제3 측정값은 나이프(500)에 포함된 센서에 의해 측정된 센서값을 의미할 수 있다.
장치(600)는 장치(600)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(600)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.
장치(600)는 AR 기기(100)와 유무선으로 통신하도록 구성될 수 있으며, AR 기기(100)의 화면에 정보를 표시하고, AR 기기(100)의 전체적인 동작을 제어할 수 있다.
장치(600)는 VR 기기(200)와 유무선으로 통신하도록 구성될 수 있으며, VR 기기(200)의 화면에 정보를 표시하고, VR 기기(200)의 전체적인 동작을 제어할 수 있다.
장치(600)는 모션 글로브(300)와 유무선으로 통신하도록 구성될 수 있으며, 모션 글로브(300)에서 측정된 제1 측정값을 획득하고, 모션 글로브(300)의 전체적인 동작을 제어할 수 있다.
장치(600)는 전신 모션 슈트(400)와 유무선으로 통신하도록 구성될 수 있으며, 전신 모션 슈트(400)에서 측정된 제2 측정값을 획득하고, 전신 모션 슈트(400)의 전체적인 동작을 제어할 수 있다.
장치(600)는 나이프(500)와 유무선으로 통신하도록 구성될 수 있으며, 나이프(500)에서 측정된 제3 측정값을 획득하고, 나이프(500)의 전체적인 동작을 제어할 수 있다.
일실시예에 따르면, 발골은 소와 같은 발골 대상을 내장 빼고 고기로 분리하는 작업인데 무게, 크기, 형상 등 다양한 유형에 따른 발골 대상의 발골 방식이 있다. 부위 별로 발골하는 방식에는 어디를 찌르고 가르고 하는 순서가 포함될 수 있다. 장치(600)는 발골 순서와 부위, 발골을 할 때 포인트, 발골 라인에 따라 수집된 데이터를 기초로, 각 데이터를 매칭시켜서 발골 메뉴얼을 구축하고, 이를 통해, 발골 교육 콘텐츠를 구축하여 데이터베이스에 저장할 수 있다.
즉, 발골 대상을 발골할 때 발골 순서가 정해져 있고, 발골 순서 별로 부위가 정해져 있으며, 부위 별로 발골하는 방식(어딜 찌르고 가르고 하는 순서 등)이 상이할 수 있다. 이때, 장치(600)는 발골 대상에 따라 발골하는 메뉴얼 범위를 정의하고, 그 범위에 따라 가르는 방식을 수집 데이터와 매칭시킬 수 있다. 여기서, 수집 데이터는 모션 글로브(300), 전신 모션 슈트(400) 및 나이프(500)에서 측정되어 수집된 데이터로, 칼을 잡는 방식, 칼을 잡는 악력, 칼을 이용하여 자를 때 힘 벡터(모션, 각도), 칼을 잡는 손이 어느 손인지, 지지하는 손이 어느 손인지 등에 대한 정보를 포함할 수 있다.
발골 대상을 발골을 하기 위해 포인트와 라인이 정해져 있는데, 장치(600)는 모션 글로브(300), 전신 모션 슈트(400) 및 나이프(500)를 통해 그 포인트와 라인에 따라 칼이 들어가고 힘을 어떻게 사용해야 하는지 데이터를 수집해서, 발골 매뉴얼을 구축할 수 있다.
발골 대상(무게, 크기, 형상 등 다양한 유형)에 따라 발골 방식이 달라질 수 있는데, 장치(600)는 발골 대상 별로 수집된 데이터를 기초로, 발골 대상 별로 발골 매뉴얼을 구축하여, 이를 통해, 발골 교육 콘텐츠를 생성할 수 있다.
즉, 장치(600)는 발골 순서와 부위, 발골을 할 때 포인트, 발골 라인에 따라 모션 글로브(300), 전신 모션 슈트(400) 및 나이프(500)에서 측정된 데이터를 매칭시켜서, 발골 매뉴얼을 구축하고, 이를 AR 및 VR 환경의 교육 콘텐츠에 적용시킬 수 있다.
도 2는 일실시예에 따른 AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(600)는 발골 교육 훈련장의 상태를 대기 상태로 설정하여, 발골 교육 훈련장에 사용자가 입장하기 전까지, 대기 상태를 유지할 수 있다.
일실시예에 따르면, 발골 교육 훈련장에는 AR 기기(100) 및 VR 기기(200)가 배치되어 있으며, 사용자는 모션 글로브(300) 및 전신 모션 슈트(400)를 착용하고, 손에 나이프(500)를 쥐고 있는 상태로 발골 교육 훈련장에 입장할 수 있다.
S202 단계에서, 장치(600)는 제1 사용자가 발골 교육 훈련장에 입장하였는지 여부를 확인할 수 있다. 이때, 장치(600)는 발골 교육 훈련장 입구에 설치된 출입문이 개방된 경우, 제1 사용자가 발골 교육 훈련장에 입장한 것으로 확인할 수 있으며, 발골 교육 훈련장 내부를 촬영하는 영상 정보를 분석하여, 제1 사용자가 발골 교육 훈련장에 입장한 것을 확인할 수도 있다.
S202 단계에서 제1 사용자가 발골 교육 훈련장에 입장하지 않은 것으로 확인되면, S201 단계로 되돌아가, 장치(600)는 발골 교육 훈련장의 대기 상태를 유지할 수 있다.
S202 단계에서 제1 사용자가 발골 교육 훈련장에 입장한 것으로 확인되면, S203 단계에서, 장치(600)는 AR 기기(100) 또는 VR 기기(200)에 대한 착용 안내 메시지를 출력할 수 있다. 이때, 장치(600)는 발골 교육 훈련장에 설치된 스피커를 통해, AR 기기(100) 또는 VR 기기(200)의 착용을 안내하는 메시지가 출력되도록, 스피커의 동작을 제어할 수 있다.
S204 단계에서, 장치(600)는 제1 사용자가 AR 기기(100)를 착용하였는지 여부를 확인할 수 있다. 이때, 장치(600)는 AR 기기(100)에 부착된 센서로부터 감지 신호를 획득하면, 제1 사용자가 AR 기기(100)를 착용한 것으로 확인할 수 있다.
S204 단계에서 제1 사용자가 AR 기기(100)를 착용하지 않은 것으로 확인되면, S205 단계에서, 장치(600)는 제1 사용자가 VR 기기(200)를 착용하였는지 여부를 확인할 수 있다. 이때, 장치(600)는 VR 기기(200)에 부착된 센서로부터 감지 신호를 획득하면, 제1 사용자가 VR 기기(200)를 착용한 것으로 확인할 수 있다.
S205 단계에서 제1 사용자가 VR 기기(200)를 착용하지 않은 것으로 확인되면, S203 단계로 되돌아가, 장치(600)는 AR 기기(100) 또는 VR 기기(200)에 대한 착용 안내 메시지를 다시 출력할 수 있다.
한편, S204 단계에서 제1 사용자가 AR 기기(100)를 착용한 것으로 확인되면, S206 단계에서, 장치(600)는 AR 기기(100)에서 제1 콘텐츠가 실행되어, 제1 콘텐츠가 AR 기기(100)의 화면에 표시되도록 제어할 수 있다. 여기서, 제1 콘텐츠는 AR 기반의 발골 교육 콘텐츠로, AR 환경에서 실습이 이루어지는 발골 교육 콘텐츠를 의미할 수 있다.
또한, S205 단계에서 제1 사용자가 VR 기기(200)를 착용한 것으로 확인되면, S207 단계에서, 장치(600)는 VR 기기(200)에서 제2 콘텐츠가 실행되어, 제2 콘텐츠가 VR 기기(200)의 화면에 표시되도록 제어할 수 있다. 여기서, 제2 콘텐츠는 VR 기반의 발골 교육 콘텐츠로, VR 환경에서 실습이 이루어지는 발골 교육 콘텐츠를 의미할 수 있다.
도 3은 일실시예에 따른 발골 교육에 대한 실습 결과를 평가하는 과정을 설명하기 위한 순서도이다.
도 3을 참조하면, 먼저, S301 단계에서, 장치(600)는 제1 콘텐츠 또는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 제1 사용자가 모션 글로브(300)를 착용하고 있는 경우, 모션 글로브(300)에서 측정된 제1 측정값을 획득할 수 있다.
구체적으로, 제1 사용자가 AR 기기(100)를 착용한 경우, AR 기기(100)의 화면에 표시되는 제1 콘텐츠를 통해 발골 교육이 진행될 수 있고, 제1 사용자가 VR 기기(200)를 착용한 경우, VR 기기(200)의 화면에 표시되는 제2 콘텐츠를 통해 발골 교육이 진행될 수 있다. 이때, 제1 사용자는 AR 기기(100)를 착용한 상태에서 모션 글로브(300)를 더 착용하고 있거나, VR 기기(200)를 착용한 상태에서 모션 글로브(300)를 더 착용하고 있는 상태이다.
모션 글로브(300)는 AR 기기(100)로 제공되는 제1 콘텐츠 또는 VR 기기(200)로 제공되는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 모션 글로브(300)를 착용한 제1 사용자의 움직임과 힘을 감지하여 제1 측정값을 생성할 수 있으며, 장치(600)는 발골 교육이 진행되는 동안, 제1 사용자가 착용하고 있는 모션 글로브(300)에서 측정된 제1 측정값을 획득할 수 있다.
S302 단계에서, 장치(600)는 제1 콘텐츠 또는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 제1 사용자가 전신 모션 슈트(400)를 착용하고 있는 경우, 전신 모션 슈트(400)에서 측정된 제2 측정값을 획득할 수 있다.
구체적으로, 제1 사용자가 AR 기기(100)를 착용한 경우, AR 기기(100)의 화면에 표시되는 제1 콘텐츠를 통해 발골 교육이 진행될 수 있고, 제1 사용자가 VR 기기(200)를 착용한 경우, VR 기기(200)의 화면에 표시되는 제2 콘텐츠를 통해 발골 교육이 진행될 수 있다. 이때, 제1 사용자는 AR 기기(100)를 착용한 상태에서 전신 모션 슈트(400)를 더 착용하고 있거나, VR 기기(200)를 착용한 상태에서 전신 모션 슈트(400)를 더 착용하고 있는 상태이다.
전신 모션 슈트(400)는 AR 기기(100)로 제공되는 제1 콘텐츠 또는 VR 기기(200)로 제공되는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 전신 모션 슈트(400)를 착용한 제1 사용자의 움직임과 관절 동작을 감지하여 제2 측정값을 생성할 수 있으며, 장치(600)는 발골 교육이 진행되는 동안, 제1 사용자가 착용하고 있는 전신 모션 슈트(400)에서 측정된 제2 측정값을 획득할 수 있다.
S303 단계에서, 장치(600)는 제1 콘텐츠 또는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 제1 사용자가 나이프(500)를 손에 쥐고 있는 경우, 나이프(500)에서 측정된 제3 측정값을 획득할 수 있다.
구체적으로, 제1 사용자가 AR 기기(100)를 착용한 경우, AR 기기(100)의 화면에 표시되는 제1 콘텐츠를 통해 발골 교육이 진행될 수 있고, 제1 사용자가 VR 기기(200)를 착용한 경우, VR 기기(200)의 화면에 표시되는 제2 콘텐츠를 통해 발골 교육이 진행될 수 있다. 이때, 제1 사용자는 AR 기기(100)를 착용한 상태에서 손에 나이프(500)를 쥐고 있거나, VR 기기(200)를 착용한 상태에서 손에 나이프(500)를 쥐고 있는 상태이다.
나이프(500)는 AR 기기(100)로 제공되는 제1 콘텐츠 또는 VR 기기(200)로 제공되는 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 나이프(500)를 손에 쥐고 있는 제1 사용자의 손이 밀고 있는 힘의 방향과 크기를 감지하여 제3 측정값을 생성할 수 있으며, 장치(600)는 발골 교육이 진행되는 동안, 제1 사용자가 손에 쥐고 있는 나이프(500)에서 측정된 제3 측정값을 획득할 수 있다.
S304 단계에서, 장치(600)는 제1 측정값, 제2 측정값 및 제3 측정값에 기초하여, 제1 사용자의 발골 교육에 대한 실습 결과를 평가할 수 있다.
구체적으로, 장치(600)는 제1 측정값, 제2 측정값 및 제3 측정값에 기초하여, 발골 교육이 진행되는 동안 제1 사용자가 각 부위 중에서 어느 순서로 발골을 진행하였는지를 확인하여 발골 순서를 분석하고, 제1 사용자가 부위 별로 어느 방식으로 발골을 수행하였는지를 확인하여 발골 방식을 분석하고, 제1 사용자가 부위 별로 어느 포인트에 힘을 주어 발골을 진행하였는지 확인하여 발골 포인트를 분석하고, 제1 사용자가 부위 별로 어느 라인을 통해 발골을 진행하였는지 확인하여 발골 라인을 분석할 수 있다.
즉, 발골 대상의 종류 별로 발골 순서가 상이하고, 발골 대상의 부위 별로 발골 방식, 발골할 때 포인트, 발골 라인 등이 상이할 수 있다. 이를 통해, 장치(600)는 제1 측정값, 제2 측정값 및 제3 측정값에 기초하여, 발골 순서, 부위별 발골 방식, 발골 포인트 및 발골 라인을 분석할 수 있으며, 분석된 발골 순서가 미리 정해진 발골 순서와 일치하는지 여부에 따라 점수를 부여하고, 분석된 부위별 발골 방식이 미리 정해진 부위별 발골 방식과 일치하는지 여부에 따라 점수를 부여하고, 분석된 부위별 발골 포인트가 미리 정해진 발골 포인트와 일치하는지 여부에 따라 점수를 부여하고, 분석된 발골 라인이 미리 정해진 발골 라인과 일치하는지 여부에 따라 점수를 부여할 수 있다.
이후, 장치(600)는 발골 순서, 부위별 발골 방식, 발골 포인트 및 발골 라인 각각을 통해 부여된 점수를 합산하여, 제1 사용자의 발골 교육에 대한 실습 결과를 평가할 수 있다.
도 4는 일실시예에 따른 제1 콘텐츠를 AR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
먼저, 장치(600)는 제1 사용자가 AR 기기(100)를 착용한 것으로 확인되면, 제1 콘텐츠가 실행되어 AR 기기(100)의 화면에 표시되도록 제어할 수 있다. 이때, AR 기기(100)의 화면에는 제1 콘텐츠의 초기 화면이 표시될 수 있다. 여기서, 제1 콘텐츠는 AR 기반의 발골 교육 콘텐츠로, 발골 교육 훈련장에 있는 도체를 실제로 발골하기 위한 교육을 지원하는 콘텐츠로 구성될 수 있다.
도 4를 참조하면, S401 단계에서, 장치(600)는 제1 콘텐츠가 실행되면, AR 기기(100)를 착용한 제1 사용자의 시선을 추적할 수 있다. 이때, 장치(600)는 AR 기기(100)를 착용한 사용자의 머리 움직임을 기초로, 제1 사용자의 시선을 유추하여 제1 사용자의 시선을 추적할 수 있으며, AR 기기(100)를 착용한 제1 사용자의 눈을 카메라로 촬영하여, 제1 사용자의 눈 움직임을 통해 제1 사용자의 시선을 추적할 수도 있다.
일실시예에 따르면, AR 기기(100)는 자체적으로 제1 사용자의 시선을 추적할 수 있으며, 제1 사용자의 시선에 대한 추적 결과를 실시간으로 장치(600)로 전송할 수 있고, 장치(600)는 AR 기기(100)의 동작을 제어할 수 있다.
S402 단계에서, 장치(600)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 발골 교육 훈련장의 제1 구역을 응시하고 있는 확인할 수 있다. 이때, 장치(600)는 AR 기기(100)의 방향과 위치, AR 기기(100)를 착용하고 있는 사용자 머리의 방향과 위치 등을 분석하여, 제1 사용자의 시선이 제1 구역을 응시하고 있는 것으로 확인할 수 있다.
S403 단계에서, 장치(600)는 제1 구역에 대한 실시간 영상이 AR 기기(100)의 화면에 표시되도록 제어할 수 있다. 이때, 장치(600)는 AR 기기(100)의 반투명 디스플레이 화면에 제1 구역이 그대로 투과되어 표시되도록 제어할 수 있으며, AR 기기(100)에 장착된 카메라로 제1 구역을 촬영한 후, 제1 구역을 촬영한 영상이 AR 기기(100)의 화면에 표시되도록 제어할 수도 있다
S404 단계에서, 장치(600)는 제1 구역에 발골을 연습하기 위한 제1 도체(屠體)가 위치하고 있는지 여부를 확인할 수 있다. 이를 위해, 발골 교육 훈련장에는 발골을 연습하기 위한 제1 도체가 배치되어 있으며, 장치(600)는 제1 구역을 촬영한 영상을 분석하여, 제1 구역에 제1 도체가 위치하고 있는지 여부를 확인할 수 있다. 즉, 장치(600)는 AR 기기(100)를 착용하고 있는 제1 사용자가 제1 도체를 응시하고 있는지 여부를 확인할 수 있다.
S404 단계에서 제1 구역에 제1 도체가 위치하고 있지 않은 것으로 확인되면, S401 단계로 되돌아가, 장치(600)는 AR 기기(100)를 착용한 제1 사용자의 시선을 계속 추적할 수 있다. 즉, 장치(600)는 AR 기기(100)를 착용하고 있는 제1 사용자가 제1 도체를 응시할 때까지, 제1 사용자의 시선을 계속 추적할 수 있다.
S404 단계에서 제1 구역에 제1 도체가 위치하고 있는 것으로 확인되면, S405 단계에서, 장치(600)는 제1 구역에 대한 영상을 기반으로, 제1 도체의 각 부위를 인식할 수 있다. 이때, 장치(600)는 AR 기기(100)에 장착된 카메라로 촬영된 제1 구역의 영상을 AR 기기(100)로부터 획득하고, 제1 구역의 영상을 분석하여 제1 도체의 각 부위를 인식할 수 있다.
예를 들어, 장치(600)는 인공지능, 빅데이터 등을 이용하여, 제1 구역의 영상에서 제1 구역 내에 있는 제1 도체의 각 부위를 인식할 수 있다. 즉, 장치(600)는 미리 학습된 인공 신경망에 제1 구역의 영상 정보를 입력하여, 인공 신경망의 출력을 기초로, 제1 구역 내에 있는 제1 도체의 각 부위를 인식할 수 있다. 또한, 장치(600)는 데이터베이스에 저장된 도체의 부위별 이미지와 제1 구역의 영상을 비교하여, 제1 구역 내에 있는 제1 도체의 각 부위를 인식할 수 있다.
S406 단계에서, 장치(600)는 인식된 제1 도체의 각 부위가 AR 기기(100)의 화면에서 제1 색으로 표시되도록, AR 기기(100)의 동작을 제어할 수 있다.
예를 들어, 제1 구역의 영상을 통해 제1 도체에서 제1 부위 및 제2 부위가 인식된 경우, 장치(600)는 제1 부위 및 제2 부위가 AR 기기(100)의 화면에서 제1 색으로 표시되도록 제어할 수 있다.
S407 단계에서, 장치(600)는 인식된 제1 도체의 각 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제1 부위를 확인할 수 있다.
즉, 장치(600)는 AR 기반의 발골 교육 콘텐츠인 제1 콘텐츠를 생성할 때, 제1 도체의 각 부위에 발골 순서를 설정할 수 있으며, 제1 도체의 각 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제1 부위를 확인할 수 있다.
S408 단계에서, 장치(600)는 제1 부위가 AR 기기(100)의 화면에서 제2 색으로 표시되도록, AR 기기(100)의 동작을 제어하고, 제1 부위에 대한 발굴 가이드 내용이 AR 기기(100)의 화면에 표시되도록, AR 기기(100)의 동작을 제어할 수 있다.
예를 들어, 제1 도체에 제1 부위 및 제2 부위가 포함되어 있는 경우, AR 기기(100)의 화면에서 제1 부위만 제2 색으로 표시되고, 제2 부위는 제1 색으로 표시될 수 있으며, 제1 부위를 발굴하는데 있어 주의해야 하는 발굴 가이드 내용이 더 표시될 수 있다.
S409 단계에서, 장치(600)는 제1 부위에 대한 발골이 완료된 것으로 확인되면, 제1 부위가 AR 기기(100)의 화면에서 제3 색으로 표시되도록, AR 기기(100)의 동작을 제어할 수 있다. 이때, 장치(600)는 제1 사용자가 착용한 모션 글로브(300) 및 전신 모션 슈트(400)와 제1 사용자의 손에 쥐고 있는 나이프(500)를 통해 수집된 측정값을 분석하여, 제1 부위에 대한 발골이 완료되었는지 여부를 확인할 수 있으며, 제1 부위에 대한 발골이 완료된 것으로 확인되면, AR 기기(100)의 화면에서 제1 부위만 제3 색으로 표시되고, 나머지 부위는 제1 색으로 표시될 수 있다.
S410 단계에서, 장치(600)는 인식된 제1 도체의 각 부위 중 발골 순서가 제1 부위 다음으로 설정되어 있는 제2 부위를 확인할 수 있다.
S411 단계에서, 장치(600)는 제2 부위가 AR 기기(100)의 화면에서 제2 색으로 표시되도록 제어하고, 제2 부위에 대한 발굴 가이드 내용이 AR 기기(100)의 화면에 표시되도록, AR 기기(100)의 동작을 제어할 수 있다. 이때, 제1 부위는 제3 색으로 표시되고, 제2 부위는 제2 색으로 표시되고, 나머지 부위는 제1 색으로 표시될 수 있다.
도 5는 일실시예에 따른 제2 콘텐츠를 VR 기기의 화면에 표시하는 과정을 설명하기 위한 순서도이다.
먼저, 장치(600)는 제1 사용자가 VR 기기(200)를 착용한 것으로 확인되면, 제2 콘텐츠가 실행되어 VR 기기(200)의 화면에 표시되도록 제어할 수 있다. 이때, VR 기기(200)의 화면에는 제2 콘텐츠의 초기 화면이 표시될 수 있다. 여기서, 제2 콘텐츠는 VR 기반의 발골 교육 콘텐츠로, 가상 환경에서 실제로 있지 않은 도체를 가상으로 발골하기 위한 교육을 지원하는 콘텐츠로 구성될 수 있다.
도 5를 참조하면, S501 단계에서, 장치(600)는 제2 콘텐츠가 실행되면, 발골 연습 도체에 대한 선택 영상이 VR 기기(200)의 화면에 표시되도록, VR 기기(200)의 동작을 제어할 수 있다. 이때, 발골 연습 도체에 대한 선택 영상은 발골 대상의 종류에 따라 연습 도체를 선택하기 위한 화면이 제공될 수 있다.
S502 단계에서, 장치(600)는 선택 영상을 통해 제2 도체(屠體)가 선택되면, 제2 도체의 전체 부위가 VR 기기(200)의 화면에서 제1 색으로 표시되도록, VR 기기(200)의 동작을 제어할 수 있다.
구체적으로, 장치(600)는 VR 기기(200)를 착용한 제1 사용자의 시선을 추적하여, 선택 영상에서 어느 지점을 응시하고 있는지 확인할 수 있으며, 제1 사용자의 시선을 추적한 결과, 선택 영상에서 제2 도체가 표시되어 있는 부분을 미리 설정된 기간 보다 길게 응시하고 있는 것으로 확인되면, 발골 연습 도체로 제2 도체를 선택한 것으로 파악할 수 있다.
또한, 장치(600)는 제1 사용자가 착용하고 있는 모션 글로브(300)의 움직임을 통해 제2 도체를 선택한 것을 파악할 수 있으며, 제1 사용자의 손에 쥐고 있는 나이프(500)의 움직임을 통해 제2 도체를 선택한 것을 파악할 수도 있다.
예를 들어, 제2 도체에 제3 부위 및 제4 부위가 포함되어 있는 것으로 설정되어 있는 경우, 장치(600)는 제2 도체가 선택되면, 제3 부위 및 제4 부위가 VR 기기(200)의 화면에서 제1 색으로 표시되도록 제어할 수 있다.
S503 단계에서, 장치(600)는 제2 도체의 전체 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제3 부위를 확인할 수 있다.
즉, 장치(600)는 VR 기반의 발골 교육 콘텐츠인 제2 콘텐츠를 생성할 때, 제2 도체의 각 부위에 발골 순서를 설정할 수 있으며, 제2 도체의 각 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제3 부위를 확인할 수 있다.
S504 단계에서, 장치(600)는 제3 부위가 VR 기기(200)의 화면에서 제2 색으로 표시되도록, VR 기기(200)의 동작을 제어하고, 제3 부위에 대한 발굴 가이드 내용이 VR 기기(200)의 화면에 표시되도록, VR 기기(200)의 동작을 제어할 수 있다.
예를 들어, 제2 도체에 제3 부위 및 제4 부위가 포함되어 있는 경우, VR 기기(200)의 화면에서 제3 부위만 제2 색으로 표시되고, 제4 부위는 제1 색으로 표시될 수 있으며, 제3 부위를 발굴하는데 있어 주의해야 하는 발굴 가이드 내용이 더 표시될 수 있다.
S505 단계에서, 장치(600)는 제3 부위에 대한 발골이 완료된 것으로 확인되면, 제3 부위가 VR 기기(200)의 화면에서 제3 색으로 표시되도록, VR 기기(200)의 동작을 제어할 수 있다. 이때, 장치(600)는 제1 사용자가 착용한 모션 글로브(300) 및 전신 모션 슈트(400)와 제1 사용자의 손에 쥐고 있는 나이프(500)를 통해 수집된 측정값을 분석하여, 제3 부위에 대한 발골이 완료되었는지 여부를 확인할 수 있으며, 제3 부위에 대한 발골이 완료된 것으로 확인되면, VR 기기(200)의 화면에서 제3 부위만 제3 색으로 표시되고, 나머지 부위는 제1 색으로 표시될 수 있다.
S506 단계에서, 장치(600)는 제2 도체의 전체 부위 중 발골 순서가 제3 부위 다음으로 설정되어 있는 제4 부위를 확인할 수 있다.
S507 단계에서, 장치(600)는 제4 부위가 VR 기기(200)의 화면에서 제2 색으로 표시되도록 제어하고, 제4 부위에 대한 발굴 가이드 내용이 VR 기기(200)의 화면에 표시되도록, VR 기기(200)의 동작을 제어할 수 있다. 이때, 제3 부위는 제3 색으로 표시되고, 제4 부위는 제2 색으로 표시되고, 나머지 부위는 제1 색으로 표시될 수 있다.
도 6은 일실시예에 따른 모션 글로브의 구성도이다.
도 6을 참조하면, 모션 글로브(300)는 장갑(310), 센서부(320) 및 발골 메뉴얼 측정부(330)를 포함한다.
장갑(310)은 사용자의 손가락이 끼워지는 형태로 구현될 수 있다.
센서부(320)는 하나 이상의 센서를 포함한다. 센서의 종류에는 휨 센서, 구부림(Bending) 센서, 압력(Pressure) 센서, 기울기 센서, 기압계(Barometer) 센서, 위치감지 센서, 자이로 센서 등이 포함될 수 있다.
휨 센서는 굽힘과 펴짐이 이루어질 때 휨의 정도를 알 수 있어 포함될 수 있다. 구부림(Bending) 센서는 손가락 별 구부림 정도를 측정하여 포함될 수 있다. 압력(Pressure) 센서는 물건을 잡을 때 압력을 측정하여 포함될 수 있다. 기울기 센서는 기울어짐 또는 어느 쪽으로 기울어졌는지를 감지하여 포함될 수 있다. 기압계 (Barometer)센서는 손의 위치에 대한 벡터값을 측정하여 포함될 수 있다. 위치 감지 센서는 눌린 위치를 감지할 수 있어 포함될 수 있다. 또한 자이로 센서는 좌측 또는 우측 손의 위치값을 리딩하는데 사용하여 포함될 수 있다.
또한, 센서부(320)는 발골 메뉴얼을 구축하는데 필요한 그 외의 센서를 더 포함할 수도 있다.
발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 칼을 잡는 방식, 칼을 잡는 악력, 칼을 이용하여 자를 때 힘의 벡터에 대한 메뉴얼을 생성할 수 있다.
발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 칼을 잡는 방식이 칼을 던지듯이 잡는 지 찌르듯이 잡는 지를 구분할 수 있다.
발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 칼을 잡는 악력이 얼만큼 인지 측정할 수 있다.
발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 칼을 이용하여 자를 때 모션과 각도를 측정하여 힘의 벡터를 측정할 수 있다.
발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 왼손과 오른손 중 어느 쪽이 칼질을 하는 손인지 지지하는 손인지를 구분할 수 있다.
발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 해당 발골을 위한 포인트와 라인을 파악하고, 발골을 위한 포인트와 라인에 따라 칼이 들어가고 힘을 어떻게 사용해야 하는지를 측정할 수 있다.
또한, 발골 메뉴얼 측정부(330)는 센서부(320)를 통해 측정된 센서값을 기초로, 발골 순서와 부위, 발골을 할 때 포인트를 측정할 수 있다.
도 7은 일실시예에 따른 모션 글로브를 통해 발골 교육에 대한 실습 결과를 평가하는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저, S701 단계에서, 장치(600)는 제1 사용자가 모션 글로브(300)를 착용한 상태에서 발골 교육에 대한 실습을 수행하고 있는 경우, 모션 글로브(300)의 센서부(320)에서 측정된 제1-1 측정값을 시간대 별로 획득할 수 있다. 여기서, 제1-1 측정값은 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함할 수 있다.
구체적으로, 모션 글로브(300)가 제1 사용자에게 착용된 상태에서, 모션 글로브(300)에 구비된 발골 작업 시작 버튼이 눌리면, 모션 글로브(300)는 제1 사용자가 발골 작업을 수행하는 것으로 판단할 수 있으며, 모션 글로브(300)의 센서부(320)는 휨 센서를 통해 휨 센서값을 측정하고, 구부림 센서를 통해 구부림 센서값을 측정하고, 압력 센서를 통해 압력 센서값을 측정하고, 기울기 센서를 통해 기울기 센서값을 측정하고, 기압계 센서를 통해 기압계 센서값을 측정하고, 자이로 센서를 통해 자이로 센서값을 측정하고, 위치감지 센서를 통해 위치감지 센서값을 측정할 수 있다. 이때, 장치(600)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함하는 제1-1 측정값을 모션 글로브(300)로부터 시간대 별로 획득할 수 있다. 장치(600)는 모션 글로브(300)에 구비된 발골 작업 종료 버튼이 눌릴 때까지, 모션 글로브(300)로부터 제1-1 측정값을 계속 획득할 수 있다.
S702 단계에서, 장치(600)는 제1 사용자가 모션 글로브(300)를 착용한 상태에서 발골 교육에 대한 실습을 수행하고 있는 경우, 모션 글로브(300)의 발골 메뉴얼 측정부(330)에서 측정된 제1-2 측정값을 시간대 별로 획득할 수 있다. 여기서, 제1-2 측정값은 칼을 잡는 방식에 대한 측정값, 칼을 잡는 압력에 대한 측정값 및 칼을 이용하여 자를 때의 힘 벡터를 포함할 수 있다.
구체적으로, 모션 글로브(300)가 제1 사용자에게 착용된 상태에서, 모션 글로브(300)에 구비된 발골 작업 시작 버튼이 눌리면, 모션 글로브(300)는 제1 사용자가 발골 작업을 수행하는 것으로 판단할 수 있으며, 모션 글로브(300)의 발골 메뉴얼 측정부(330)는 칼을 잡는 방식이 칼을 던지듯이 잡는 지 찌르듯이 잡는 지를 구분하여 칼을 잡는 방식에 대한 측정값을 측정하고, 칼을 잡는 악력이 얼마큼 인지 측정하여 칼을 잡는 압력에 대한 측정값을 측정하고, 칼을 이용하여 자를 때 모션과 각도를 측정하여 칼을 이용하여 자를 때의 힘 벡터를 측정할 수 있다. 이때, 장치(600)는 칼을 잡는 방식에 대한 측정값, 칼을 잡는 압력에 대한 측정값 및 칼을 이용하여 자를 때의 힘 벡터를 포함하는 제1-2 측정값을 모션 글로브(300)로부터 시간대 별로 획득할 수 있다. 장치(600)는 모션 글로브(300)에 구비된 발골 작업 종료 버튼이 눌릴 때까지, 모션 글로브(300)로부터 제1-2 측정값을 계속 획득할 수 있다.
S703 단계에서, 장치(600)는 제1-1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성할 수 있다. 여기서, 제1 분석 결과는 시간대 별로 측정된 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값에 대한 분석 결과이다.
S704 단계에서, 장치(600)는 제1-2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성할 수 있다. 여기서, 제2 분석 결과는 시간대 별로 측정된 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터에 대한 분석 결과이다.
S705 단계에서, 장치(600)는 제1 분석 결과 및 제2 분석 결과를 기초로, 발골 작업에 대한 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성할 수 있다, 여기서, 제3 분석 결과는 시간대 별로 분석된 발골 순서, 발골을 할 때 포인트 및 발골 라인에 대한 분석 결과이다.
S706 단계에서, 장치(600)는 제3 분석 결과에 기초하여, 제1 사용자의 발골 교육에 대한 실습 결과를 평가할 수 있다. 이때, 장치(600)는 발골 순서, 발골을 할 때 포인트 및 발골 라인을 통해, 발골 교육에 대한 실습이 제대로 이루어졌는지 확인하여, 발골 교육에 대한 실습 결과를 평가할 수 있다.
도 8은 일실시예에 따른 제1 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(600)는 제1 분석 결과 및 제2 분석 결과를 기반으로, 서로 다른 시점에 같은 부위를 같은 방식으로 발굴하였는지 여부를 확인할 수 있다.
즉, 장치(600)는 제1 분석 결과 및 제2 분석 결과를 기반으로, 어느 시점에 어느 부위를 어느 방식으로 발굴하는지 파악할 수 있으며, 이를 통해, 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발굴하였는지 여부를 확인할 수 있다.
S801 단계에서 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발골한 것이 확인되면, S802 단계에서, 장치(600)는 제1-1 측정값에서 제1 시점에 측정된 제1-1-1 측정값을 추출하고, 제1-1 측정값에서 제2 시점에 측정된 제1-1-2 측정값을 추출할 수 있다. 여기서, 제1-1-1 측정값은 제1 시점에 측정된 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함하고, 제1-1-2 측정값은 제2 시점에 측정된 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 포함할 수 있다.
즉, 장치(600)는 모션 글로브(300)로부터 제1-1 측정값을 계속해서 획득하고 있는데, 제1 시점과 제2 시점에 같은 부위를 같은 방식으로 발골한 것이 확인되면, 제1-1 측정값에서 제1 시점에 측정된 측정값을 제1-1-1 측정값으로 추출하고, 제1-1 측정값에서 제2 시점에 측정된 측정값을 제1-1-2 측정값으로 추출할 수 있다.
S803 단계에서, 장치(600)는 제1-1-1 측정값 및 제1-1-2 측정값을 비교하여, 차이값을 산출할 수 있다. 이때, 장치(600)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 비교한 후, 차이가 있는 값을 모두 합산하여, 차이값을 산출할 수 있다.
S804 단계에서, 장치(600)는 차이값이 오차범위 내에 있는지 여부를 확인할 수 있다. 여기서, 오차범위는 실시예에 따라 상이하게 설정될 수 있다.
S804 단계에서 차이값이 오차범위 내에 있는 것으로 확인되면, S805 단계에서, 장치(600)는 제1-1-1 측정값 및 제1-1-2 측정값에 대한 평균값을 산출할 수 있다. 이때, 장치(600)는 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값 각각에 대한 평균값을 산출할 수 있다.
S804 단계에서 차이값이 오차범위를 벗어나는 것으로 확인되면, S806 단계에서, 장치(600)는 제1-1-1 측정값 및 제1-1-2 측정값을 삭제할 수 있다.
S807 단계에서, 장치(600)는 제1 분석 결과를 수정할 수 있다. 이때, 장치(600)는 제1-1-1 측정값 및 제1-1-2 측정값에 대한 평균값을 산출한 경우, 평균값에 기초하여 제1 분석 결과를 수정하고, 제1-1-1 측정값 및 제1-1-2 측정값을 삭제한 경우, 제1-1-1 측정값 및 제1-1-2 측정값을 삭제한 것이 반영되도록, 제1 분석 결과를 수정할 수 있다.
즉, 장치(600)는 제1-1-1 측정값 및 제1-1-2 측정값을 포함하는 제1-1 측정값을 기초로, 제1 분석 결과를 생성한 후, 제1-1-1 측정값 및 제1-1-2 측정값에 대한 평균값을 산출한 경우, 제1 분석 결과에서 제1-1-1 측정값 및 제1-1-2 측정값을 평균값으로 대체함으로써, 제1 분석 결과를 수정할 수 있으며, 제1-1-1 측정값 및 제1-1-2 측정값을 삭제한 경우, 제1 분석 결과에서 제1-1-1 측정값 및 제1-1-2 측정값을 삭제함으로써, 제1 분석 결과를 수정할 수 있다.
도 9는 일실시예에 따른 제2 분석 결과를 수정하는 과정을 설명하기 위한 순서도이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(600)는 제1 모션 글로브로부터 제1-1 측정값 및 제1-2 측정값을 획득할 수 있고, S902 단계에서, 장치(600)는 제2 모션 글로브로부터 제1-1 측정값 및 제1-2 측정값을 획득할 수 있다. 이때, 제1 사용자는 제1 모션 글로브 및 제2 모션 글로브를 양손에 착용한 상태에서 발골 교육에 대한 실습을 수행하고 있다.
S903 단계에서, 장치(600)는 제1 모션 글로브로부터 획득된 제1-1 측정값 및 제1-2 측정값을 기초로, 제1 모션 글로브를 착용한 손을 칼질을 하는 손으로 구분할 수 있다. 즉, 장치(600)는 제1 모션 글로브를 통해 수집된 데이터를 분석하여, 제1 모션 글로브를 착용한 손이 칼질을 하는 손인지 구분할 수 있다.
S904 단계에서, 장치(600)는 제2 모션 글로브로부터 획득된 제1-1 측정값 및 제1-2 측정값을 기초로, 제2 모션 글로브를 착용한 손을 지지하는 손으로 구분할 수 있다. 즉, 장치(600)는 제2 모션 글로브를 통해 수집된 데이터를 분석하여, 제2 모션 글로브를 착용한 손이 지지하는 손인지 구분할 수 있다.
S905 단계에서, 장치(600)는 제1 모션 글로브로부터 획득된 제1-2 측정값에서 칼을 잡고 힘을 주는 힘 벡터를 제1 벡터로 추출할 수 있다. 즉, 제1 모션 글로브로부터 획득된 제1-2 측정값에는 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터에 대한 정보가 포함되어 있는데, 장치(600)는 제1-2 측정값에서 칼을 이용하여 자를 때의 힘 벡터를 제1 벡터로 추출할 수 있다.
S906 단계에서, 장치(600)는 제2 모션 글로브로부터 획득된 제1-2 측정값에서 고기를 잡고 힘을 주는 힘 벡터를 제2 벡터로 추출할 수 있다. 즉, 제2 모션 글로브로부터 획득된 제1-2 측정값에는 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터에 대한 정보가 포함되어 있는데, 장치(600)는 제1-2 측정값에서 칼을 이용하여 자를 때의 힘 벡터를 고기를 잡고 힘을 주는 힘 벡터로 인식하여, 칼을 이용하여 자를 때의 힘 벡터를 제2 벡터로 추출할 수 있다.
S907 단계에서, 장치(600)는 특정 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향인지 여부를 확인할 수 있다.
S907 단계에서 제3 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향으로 확인되면, S908 단계에서, 장치(600)는 제1 벡터의 크기 및 제2 벡터의 크기를 합산한 값으로, 제1 벡터의 크기를 조정할 수 있다.
즉, 특정 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향인 경우, 장치(600)는 해당 시점에 제1 벡터의 크기 및 제2 벡터의 크기를 합산한 값으로, 제1 벡터의 크기를 변경시킬 수 있다.
S909 단계에서, 장치(600)는 제1 벡터를 제3 시점에 칼을 이용하여 자를 때의 힘 벡터로 설정하여, 제2 분석 결과를 수정할 수 있다.
즉, 장치(600)는 칼을 이용하여 자를 때의 힘 벡터로 제2 분석 결과를 생성한 후, 제3 시점에 제1 벡터의 방향과 제2 벡터의 방향이 반대 방향으로 확인되면, 칼을 이용하여 자를 때의 힘 벡터와 고기를 잡고 힘을 주는 힘 벡터를 합산한 값으로, 칼을 이용하여 자를 때의 힘 벡터를 변경함으로써, 제2 분석 결과를 수정할 수 있다.
일실시예에 따르면, 모션 글로브(300)를 양손에 착용하여, 한 손은 매달려 움직이는 고기를 잡고, 반대편 손에는 칼을 잡고 힘을 줄 때, 서로 반대 방향의 힘을 작용하여 발골 작업을 수행하는데, 제1 벡터의 크기 및 제2 벡터의 크기를 합산한 값을 통해, 서로 반대 방향의 힘이 작용하는 것을 제2 분석 결과에 반영시킬 수 있다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(600)는 프로세서(610) 및 메모리(620)를 포함한다. 프로세서(610)는 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(600)를 이용하는 자 또는 단체는 도 1 내지 도 9를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(620)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(620)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(610)는 프로그램을 실행하고, 장치(600)를 제어할 수 있다. 프로세서(610)에 의하여 실행되는 프로그램의 코드는 메모리(620)에 저장될 수 있다. 장치(600)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
Claims (3)
- 장치에 포함된 프로세서에 의해 수행되는, AR 및 VR 환경을 기반으로 발골 교육 콘텐츠를 제공하는 방법에 있어서,
제1 사용자가 AR 기기를 착용한 것으로 확인되면, AR 기반의 발골 교육 콘텐츠인 제1 콘텐츠가 실행되어 상기 AR 기기의 화면에 표시되도록 제어하는 단계;
상기 제1 사용자가 VR 기기를 착용한 것으로 확인되면, VR 기반의 발골 교육 콘텐츠인 제2 콘텐츠가 실행되어 상기 VR 기기의 화면에 표시되도록 제어하는 단계;
상기 제1 콘텐츠 또는 상기 제2 콘텐츠를 이용하여 발골 교육이 진행되는 동안, 상기 제1 사용자가 모션 글로브를 착용하고 있는 경우, 상기 모션 글로브에서 측정된 제1 측정값을 획득하고, 상기 제1 사용자가 전신 모션 슈트를 착용하고 있는 경우, 상기 전신 모션 슈트에서 측정된 제2 측정값을 획득하고, 상기 제1 사용자가 손에 나이프를 쥐고 있는 경우, 상기 나이프에서 측정된 제3 측정값을 획득하는 단계; 및
상기 제1 측정값, 상기 제2 측정값 및 상기 제3 측정값에 기초하여, 상기 제1 사용자의 발골 교육에 대한 실습 결과를 평가하는 단계를 포함하며,
상기 모션 글로브에서 측정된 상기 제1 측정값을 획득하는 단계는,
상기 제1 사용자가 상기 모션 글로브를 착용한 상태에서 발골 교육에 대한 실습을 수행하고 있는 경우, 상기 모션 글로브의 센서부에서 측정된 제1-1 측정값과 상기 모션 글로브의 발골 메뉴얼 측정부에서 측정된 제1-2 측정값을 시간대 별로 획득하는 단계;
상기 제1-1 측정값을 기초로, 휨 센서값, 구부림 센서값, 압력 센서값, 기울기 센서값, 기압계 센서값, 자이로 센서값 및 위치감지 센서값을 각각 시간대 별로 분석하여, 제1 분석 결과를 생성하는 단계;
상기 제1-2 측정값을 기초로, 칼을 잡는 방식, 칼을 잡는 압력 및 칼을 이용하여 자를 때의 힘 벡터를 시간대 별로 분석하여, 제2 분석 결과를 생성하는 단계; 및
상기 제1 분석 결과 및 상기 제2 분석 결과를 기초로, 발골 교육이 진행되는 동안에 발골 순서, 발골을 할 때 포인트 및 발골 라인을 분석하여, 제3 분석 결과를 생성하는 단계를 포함하며,
상기 제1 사용자의 발골 교육에 대한 실습 결과를 평가하는 단계는,
상기 제3 분석 결과에 기초하여, 상기 제1 사용자의 발골 교육에 대한 실습 결과를 평가하는 단계를 포함하는,
AR 및 VR 환경 기반 발골 교육 콘텐츠 제공 방법. - 제1항에 있어서,
상기 제1 콘텐츠가 상기 AR 기기의 화면에 표시되도록 제어하는 단계는,
상기 제1 콘텐츠가 실행되면, 상기 AR 기기를 착용한 상기 제1 사용자의 시선을 추적하는 단계;
상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 제1 구역을 응시하고 있는 것으로 확인되면, 상기 제1 구역에 대한 실시간 영상이 상기 AR 기기의 화면에 표시되도록 제어하는 단계;
상기 제1 구역에 발골을 연습하기 위한 제1 도체(屠體)가 위치하고 있는지 여부를 확인하는 단계;
상기 제1 구역에 상기 제1 도체가 위치하고 있는 것으로 확인되면, 상기 제1 구역에 대한 영상을 기반으로, 상기 제1 도체의 각 부위를 인식하는 단계;
상기 인식된 제1 도체의 각 부위가 상기 AR 기기의 화면에서 제1 색으로 표시되도록 제어하는 단계;
상기 인식된 제1 도체의 각 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제1 부위를 확인하는 단계;
상기 제1 부위가 상기 AR 기기의 화면에서 제2 색으로 표시되도록 제어하고, 상기 제1 부위에 대한 발굴 가이드 내용이 상기 AR 기기의 화면에 표시되도록 제어하는 단계;
상기 제1 부위에 대한 발골이 완료된 것으로 확인되면, 상기 제1 부위가 상기 AR 기기의 화면에서 제3 색으로 표시되도록 제어하는 단계;
상기 인식된 제1 도체의 각 부위 중 발굴 순서가 상기 제1 부위 다음으로 설정되어 있는 제2 부위를 확인하는 단계; 및
상기 제2 부위가 상기 AR 기기의 화면에서 상기 제2 색으로 표시되도록 제어하고, 상기 제2 부위에 대한 발굴 가이드 내용이 상기 AR 기기의 화면에 표시되도록 제어하는 단계를 포함하는,
AR 및 VR 환경 기반 발골 교육 콘텐츠 제공 방법. - 제2항에 있어서,
상기 제2 콘텐츠가 상기 VR 기기의 화면에 표시되도록 제어하는 단계는,
상기 제2 콘텐츠가 실행되면, 발골 연습 도체에 대한 선택 영상이 상기 VR 기기의 화면에 표시되도록 제어하는 단계;
상기 선택 영상을 통해 제2 도체(屠體)가 선택되면, 상기 제2 도체의 전체 부위가 상기 VR 기기의 화면에서 상기 제1 색으로 표시되도록 제어하는 단계;
상기 제2 도체의 전체 부위 중 발골 순서가 가장 빠른 것으로 설정되어 있는 제3 부위를 확인하는 단계;
상기 제3 부위가 상기 VR 기기의 화면에서 상기 제2 색으로 표시되도록 제어하고, 상기 제3 부위에 대한 발굴 가이드 내용이 상기 VR 기기의 화면에 표시되도록 제어하는 단계;
상기 제3 부위에 대한 발골이 완료된 것으로 확인되면, 상기 제3 부위가 상기 VR 기기의 화면에서 상기 제3 색으로 표시되도록 제어하는 단계;
상기 제2 도체의 전체 부위 중 발굴 순서가 상기 제3 부위 다음으로 설정되어 있는 제4 부위를 확인하는 단계; 및
상기 제4 부위가 상기 VR 기기의 화면에서 상기 제2 색으로 표시되도록 제어하고, 상기 제4 부위에 대한 발굴 가이드 내용이 상기 VR 기기의 화면에 표시되도록 제어하는 단계를 포함하는,
AR 및 VR 환경 기반 발골 교육 콘텐츠 제공 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210193046A KR102456145B1 (ko) | 2021-12-30 | 2021-12-30 | Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210193046A KR102456145B1 (ko) | 2021-12-30 | 2021-12-30 | Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102456145B1 true KR102456145B1 (ko) | 2022-10-18 |
KR102456145B9 KR102456145B9 (ko) | 2023-03-23 |
Family
ID=83803945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210193046A KR102456145B1 (ko) | 2021-12-30 | 2021-12-30 | Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102456145B1 (ko) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100996959B1 (ko) | 2008-07-24 | 2010-11-30 | 대한민국 | Rfid를 이용한 육가공장의 생산이력 관리 시스템 및방법 |
KR20170139312A (ko) | 2016-06-09 | 2017-12-19 | 주식회사 에스지알팩 | 닭다리 발골장치 |
KR101892995B1 (ko) | 2018-06-04 | 2018-08-31 | 유영구 | 유통을 위한 육류처리 방법 |
KR101981701B1 (ko) * | 2018-06-20 | 2019-05-23 | 주식회사 에스피지코리아 | 가상현실을 이용한 교육실습 장치 및 방법 |
KR20210057432A (ko) * | 2019-11-12 | 2021-05-21 | 한국전자기술연구원 | 헤드 마운트 디스플레이 및 제어 방법 |
KR102254656B1 (ko) | 2020-12-31 | 2021-05-21 | 최항석 | 육류의 가공방법 및 장치 |
KR20210130041A (ko) * | 2020-04-21 | 2021-10-29 | 사회복지법인 삼성생명공익재단 | 3차원 영상을 활용한 술기 교육 시스템 및 머신 러닝 기반의 수술 가이드 시스템 |
-
2021
- 2021-12-30 KR KR1020210193046A patent/KR102456145B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100996959B1 (ko) | 2008-07-24 | 2010-11-30 | 대한민국 | Rfid를 이용한 육가공장의 생산이력 관리 시스템 및방법 |
KR20170139312A (ko) | 2016-06-09 | 2017-12-19 | 주식회사 에스지알팩 | 닭다리 발골장치 |
KR101892995B1 (ko) | 2018-06-04 | 2018-08-31 | 유영구 | 유통을 위한 육류처리 방법 |
KR101981701B1 (ko) * | 2018-06-20 | 2019-05-23 | 주식회사 에스피지코리아 | 가상현실을 이용한 교육실습 장치 및 방법 |
KR20210057432A (ko) * | 2019-11-12 | 2021-05-21 | 한국전자기술연구원 | 헤드 마운트 디스플레이 및 제어 방법 |
KR20210130041A (ko) * | 2020-04-21 | 2021-10-29 | 사회복지법인 삼성생명공익재단 | 3차원 영상을 활용한 술기 교육 시스템 및 머신 러닝 기반의 수술 가이드 시스템 |
KR102254656B1 (ko) | 2020-12-31 | 2021-05-21 | 최항석 | 육류의 가공방법 및 장치 |
Non-Patent Citations (1)
Title |
---|
Kyle Melnick. Practice Your Carving Skills On This AR Turkey. 인터넷사이트, [online], 2018.11.21.,[2022.04.21. 검색] 인터넷 https://vrscout.com/news/practice-carving-skills-ar-turkey/* * |
Also Published As
Publication number | Publication date |
---|---|
KR102456145B9 (ko) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MassirisFernández et al. | Ergonomic risk assessment based on computer vision and machine learning | |
Clark et al. | Three-dimensional cameras and skeleton pose tracking for physical function assessment: A review of uses, validity, current developments and Kinect alternatives | |
RU2644520C2 (ru) | Бесконтактный ввод | |
Avola et al. | An interactive and low-cost full body rehabilitation framework based on 3D immersive serious games | |
Petersen et al. | Cognitive augmented reality | |
Regazzoni et al. | RGB cams vs RGB-D sensors: Low cost motion capture technologies performances and limitations | |
US11710040B2 (en) | Generating synthetic models or virtual objects for training a deep learning network | |
Lu et al. | Immersive manipulation of virtual objects through glove-based hand gesture interaction | |
JP2017529635A5 (ko) | ||
JP6930995B2 (ja) | 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム | |
KR102349355B1 (ko) | 모션 글로브를 이용한 ar/vr 환경 기반 발골 교육 콘텐츠의 구축 방법, 장치 및 시스템 | |
JP2015505089A (ja) | 姿勢を推定する方法及び装置 | |
JP7010542B2 (ja) | 作業分析装置、作業分析方法、及びプログラム | |
KR20200056602A (ko) | 객체 움직임 인식 방법 및 장치 | |
KR102456145B1 (ko) | Ar 및 vr 환경 기반 발골 교육 콘텐츠 제공 방법, 장치 및 시스템 | |
US11386615B2 (en) | Creating a custom three-dimensional body shape model | |
Mihaľov et al. | Potential of low cost motion sensors compared to programming environments | |
CN112912925A (zh) | 程序、信息处理装置、定量化方法以及信息处理系统 | |
JP2021078715A (ja) | 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム | |
KR101519589B1 (ko) | 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법 | |
JP2024508782A (ja) | マーカレス運動解析を改善するための方法 | |
JP2019197278A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
CN113392744A (zh) | 舞蹈动作美感确认方法、装置、电子设备及存储介质 | |
Yang et al. | Bimanual natural user interaction for 3D modelling application using stereo computer vision | |
KR20200032990A (ko) | 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |