KR102500237B1 - Ar/vr skeletal training method, apparatus and system using model - Google Patents

Ar/vr skeletal training method, apparatus and system using model Download PDF

Info

Publication number
KR102500237B1
KR102500237B1 KR1020220131263A KR20220131263A KR102500237B1 KR 102500237 B1 KR102500237 B1 KR 102500237B1 KR 1020220131263 A KR1020220131263 A KR 1020220131263A KR 20220131263 A KR20220131263 A KR 20220131263A KR 102500237 B1 KR102500237 B1 KR 102500237B1
Authority
KR
South Korea
Prior art keywords
model
model tool
electronic device
tool
carcass
Prior art date
Application number
KR1020220131263A
Other languages
Korean (ko)
Inventor
배수형
박성철
민영석
이상욱
Original Assignee
주식회사 안심엘피씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 안심엘피씨 filed Critical 주식회사 안심엘피씨
Priority to KR1020220131263A priority Critical patent/KR102500237B1/en
Application granted granted Critical
Publication of KR102500237B1 publication Critical patent/KR102500237B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C17/00Other devices for processing meat or bones
    • A22C17/006Putting meat on skewers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Abstract

An electronic device according to one embodiment of the present invention may comprise a memory and a processor. The processor can detect approach of a model tool within a specified level to at least one point connecting a first part and a second part on a modeled carcass, generate first vibration on the model tool in response to the approach of the model tool, display information indicating that the model tool was allowed to come in contact with a correct point to dismantle the modeled carcass, detect the approach of the model tool within a specified level of a point corresponding to a bone other than at least one point connecting the first part and the second part on the modeled carcass, generate second vibration on the model tool in response to the approach of the model tool, and display information indicating that the model tool was in contact with an incorrect point to dismantle the modeled carcass. According to the present invention, the modeled carcass is composed of a plurality of parts and includes a magnetic object at at least one point connecting the first part and the second part, so that the points are connected by using magnetism and other points having no magnetism are physically connected by using at least one of a rubber band, a yarn, or a Velcro. The first part and the second part can be configured to be allowed to be separated from each other or joined to each other. The model tool can include an electronic control device that provides vibration when approaching the specific point containing a magnetic object within a specified level on the modeled carcass. Accordingly, the education of learners can be effectively performed.

Description

모형을 이용한 AR/VR 발골 교육 방법, 장치 및 시스템{AR/VR SKELETAL TRAINING METHOD, APPARATUS AND SYSTEM USING MODEL}AR/VR bone training method, apparatus and system using model {AR/VR SKELETAL TRAINING METHOD, APPARATUS AND SYSTEM USING MODEL}

아래 실시예들은 모형을 이용한 AR/VR 발골 교육 방법, 장치 및 시스템에 관한 것이다. The following embodiments relate to an AR/VR bone training method, apparatus, and system using a model.

최근 현실 세계(real-world elements)의 이미지나 배경에 가상 이미지를 겹쳐 정보를 제공하는 증강현실(AR: augmented reality) 또는 혼합현실(MR: mixed reality) 서비스를 지원하는 전자 장치에 대한 수요가 급증하고 있다. Recently, demand for electronic devices supporting augmented reality (AR) or mixed reality (MR) services, which provide information by overlapping virtual images on images or backgrounds of real-world elements, is rapidly increasing. are doing

증강현실(Augmented Reality, AR)은 가상현실(Virtual Reality)의 한 분야로 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. 증강현실은 현실 세계의 기반위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있다Augmented Reality (AR), a field of virtual reality, is a computer graphics technique that synthesizes virtual objects or information in a real environment to make them look like objects existing in the original environment. Augmented reality can reinforce and provide additional information that is difficult to obtain in the real world by synthesizing virtual objects on the basis of the real world.

증강 현실 서비스를 지원하는 차세대 실감미디어 장치(이하, AR 장치)로서, 신체에 착용될 수 있는 웨어러블 전자 장치(예: 헤드 마운티드 장치(head-mounted device), 헤드 마운티드 디스플레이(head-mounted display), 또는 AR 글래스)가 개발되고 있다. AR 장치는 5세대(5G) 통신과 같이 대용량의 데이터 전송이 가능하도록 통신 기술이 발전됨에 따라 관심이 높아지고 있는 추세이다.As a next-generation immersive media device (hereinafter referred to as AR device) supporting augmented reality services, wearable electronic devices that can be worn on the body (e.g., head-mounted device, head-mounted display, or AR glasses) are being developed. As communication technology develops to enable large-capacity data transmission, such as 5G communication, interest in AR devices is increasing.

상기의 AR/VR 기술을 적용해 한우의 발골 기능을 숙련시키는 VR/AR 실감형 한우 발골 교육 시스템을 구축한다면 발골 교육에 소요되는 시간과 비용을 크게 절감시켜 국내 한우 산업 발전에 기여할 것이다.If a VR/AR immersive Korean beef bone training system is applied to train Korean beef bone boning by applying the above AR/VR technology, it will greatly reduce the time and cost required for bone bone training and contribute to the development of the domestic Korean beef industry.

선행문헌 1 (KR 공개특허 10-2022-0107506, 모바일 증강현실 기반의 요리 체험 학습 시스템)은 모바일 증강현실 기반으로 요리 체험을 제공하지만, 본원처럼 실제로 고기나 육류, 신체 부위에 대한 모형에 도구를 사용하는 직접적인 감각을 제공하지 못하는 한계가 있다.Prior Document 1 (KR Patent Publication 10-2022-0107506, Mobile Augmented Reality-based Cooking Experience Learning System) provides a cooking experience based on mobile augmented reality, but, like the present application, actually uses tools on models for meat, meat, and body parts. There is a limit to not providing a direct sense of use.

선행문헌 2 (KR 공개특허 10-2019-0023003호, 영상 처리 및 기계 학습에 기초한 뼈 나이 판독 장치 및 방법)는 입력된 영상에 기초하여 뼈에 대한 등급을 분류하거나 나이를 판독하지만, VR 및 AR기기와 고기나 육류, 신체 부위에 대한 모형을 이용하여 사용자에게 학습을 제공하는 방법을 제공하지 못하는 한계가 있다.Prior Document 2 (KR Publication No. 10-2019-0023003, Bone age reading device and method based on image processing and machine learning) classifies bones or reads age based on an input image, but VR and AR There is a limitation in not being able to provide a method of providing learning to the user using a model of the device and meat or meat and body parts.

(선행문헌 0001) KR 공개특허 10-2022-0107506호(Prior Document 0001) KR Publication No. 10-2022-0107506 (선행문헌 0002) KR 공개특허 10-2019-0023003호(Prior Document 0002) KR Publication No. 10-2019-0023003

VR/AR 기술을 이용하여 한우의 발골 교육 시스템을 구성할 때 가장 난해한 부분 중의 하나는 경제성과 기능을 동시에 만족시키며 체험자에게 직접적으로 피드백을 주는 것인데 현재 VR/AR 기술을 이용한 발골 교육 시스템에 적용할 수 있는 적절한 도구가 없는 문제가 있다.One of the most difficult parts when constructing a bone training system for Korean cattle using VR/AR technology is to provide direct feedback to the experiencer while simultaneously satisfying economic feasibility and function. There is no proper tool to solve the problem.

본 발명은 칼과 같은 조리도구와 실제 발골 시 칼의 물리적 저항을 체험자가 느낄수 있도록 지육을 사용해야만 하는 특성을 감안하여 실제 학습자들이 체험하기 어려웠던 발골 교육 효과를 안전하고 효율적으로 제공할 수 있는 증강현실 기반의 발골 체험 학습 시스템을 제공하는 것을 목적으로 한다.The present invention is an augmented reality that can safely and efficiently provide a boning education effect that was difficult for actual learners to experience, taking into account the characteristics of cooking tools such as knives and carcass that must be used so that the experiencer can feel the physical resistance of the knife during actual boning. An object of the present invention is to provide a bone experiential learning system based on the bone structure.

본 발명은 단순히 3D 객체를 모바일 기기의 디스플레이 상에 단순히 표시해 주는 것이 아닌 학습자의 교육을 효과적으로 수행할 수 있도록 하는 증강현실 기반의 발골 체험 학습 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an augmented reality-based bone experiential learning system that allows learners to effectively perform education rather than simply displaying 3D objects on a display of a mobile device.

일 실시예에 따른 전자 장치는 메모리 및 프로세서를 포함할 수 있다. An electronic device according to an embodiment may include a memory and a processor.

프로세서는 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고, 모형 도구의 접근에 대응하여 상기 모형 도구 상에 제 1 진동을 발생시키고, 모형 지육을 해체하기 위해 올바른 지점에 상기 모형 도구를 접촉시켰음을 지시하는 정보를 표시하며, 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점이 아닌 뼈에 대응하는 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고, 모형 도구의 접근에 대응하여 상기 모형 도구 상에 제 2 진동을 발생시키고, 모형 지육을 해체하기 위해 부적절한 지점에 상기 모형 도구를 접촉시켰음을 지시하는 정보를 표시할 수 있다. 여기서 모형 지육은 복수개의 부위로 구성되고, 제 1부위 및 제 2 부위를 연결하는 적어도 하나의 지점에 자성을 띄는 물체를 포함하고, 자성을 이용해 연결되며, 자성을 띄지 않는 나머지 지점은 고무줄, 실 또는 벨크로 중 적어도 하나를 이용하여 물리적으로 연결되고, 상기 제 1 부위와 상기 제 2 부위는 상호간 분리 또는 결합이 가능하게 구성될 수 있다. 모형 도구는 모형 지육 상에서 자성을 띄는 물체를 포함하는 특정 지점에 지정된 수준 이내로 가까워지면 진동을 제공하는 전자 제어 장치를 포함할 수 있다.The processor detects that the model tool approaches within a specified level to at least one point connecting the first part and the second part on the model body, and causes a first vibration on the model tool in response to the approach of the model tool. and displays information indicating that the model tool has been brought into contact with the correct point to dismantle the model carcass, and at least one point connecting the first part and the second part on the model carcass but not a bone Detects that the model tool approaches the corresponding point within a specified level, generates a second vibration on the model tool in response to the model tool's approach, and contacts the model tool at an inappropriate point to dismantle the model intellect. You can display information indicating that you have done it. Here, the model carcass consists of a plurality of parts, includes a magnetic object at at least one point connecting the first part and the second part, and is connected using magnetism, and the remaining points that are not magnetic are rubber bands or threads. Alternatively, they may be physically connected using at least one of Velcro, and the first part and the second part may be separated or coupled to each other. The model tool may include an electronic control device that provides vibration when a specific point, including a magnetic object, on the model piece of land is approached within a specified level.

일실시예에 따른 전자 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.An electronic device according to an embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the methods described above.

일 실시예에 따른 전자 장치는 VR 기술을 이용해 시각적으로 한우 지육의 실물 이미지와 실제 설치된 교구와 동기화 시켜 역동성과 손의 감각을 느낄 수 있도록 발골감을 제공할 수 있다.The electronic device according to an embodiment may provide a sense of bone bone so that dynamics and hand sensations can be felt by visually synchronizing the actual image of Korean beef carcass with the actually installed teaching aids using VR technology.

일 실시예에 따른 전자 장치는 지육 모형과 연동된 모형 칼에 동작과 관련한 전자 장치를 설치하여 동작을 감지하고, 학습자의 발골 동작 수행에 대해 평가하고, 문제점을 분석하여 제공할 수 있다.An electronic device according to an embodiment may install an electronic device related to a motion in a model knife linked with a cognitive model to detect a motion, evaluate a learner's boning motion performance, and analyze and provide problems.

일 실시예에 따른 모형을 이용한 AR/VR 발골 교육 방법은 소 분할로 나누어지며 대 분할로 합쳐지는 모형 지육을 이용하여 비싼 고기를 이용하지 않고서도 발골에 대한 학습 경험을 제공할 수 있으며, 신체 부위를 이용하지 않고서도 신체 해부에 대한 학습 경험을 제공할 수 있다.The AR/VR boning education method using a model according to an embodiment can provide a learning experience on boning without using expensive meat by using model carcass that is divided into small divisions and combined into large divisions, and can provide body parts It is possible to provide a learning experience on body anatomy without using

일 실시예에 따른 모형을 이용한 AR/VR 발골 교육 방법은 모형 칼과 한우 지육 모형을 통해 발골 시의 저항을 피드백 받을 수 있으며 동시에 교육에 필요한 정보도 실시간으로 얻을 수 있어 좀더 현실감 있는 체험교육을 제공할 수 있다.In the AR/VR boning education method using a model according to an embodiment, resistance during boning can be fed back through a model knife and a Korean beef carcass training model, and at the same time, information necessary for education can be obtained in real time, providing more realistic experiential education. can do.

도 1은 일실시예에 따른 전자 장치의 구성의 예시도이다.
도 2는 일 실시예에 따른 모형을 이용한 AR,VR 발골 교육 방법을 순서도로 나타낸 것이다.
도 3은 일 실시예에 따른 AR기기의 분산 렌더링을 위한 방법을 도시한 것이다.
도4는 일실시예에 따른 인공지능 모델의 구성을 도시한 도면이다.
1 is an exemplary diagram of a configuration of an electronic device according to an embodiment.
Figure 2 is a flow chart showing an AR, VR bone training method using a model according to an embodiment.
3 illustrates a method for distributed rendering of an AR device according to an embodiment.
4 is a diagram showing the configuration of an artificial intelligence model according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 일실시예에 따른 전자 장치의 구성의 예시도이다.1 is an exemplary diagram of a configuration of an electronic device according to an embodiment.

일 실시예에 따른 전자 장치(101)는 프로세서(120) 및 메모리(130)를 포함할 수 있으며, 도시된 구성 중 일부가 생략 또는 치환 될 수도 있다. 일 실시예에 따른 전자 장치(101)는 서버 또는 단말일 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 각 구성 요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 하나 이상의 프로세서들로 구성될 수 있다. 메모리(130)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(130)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. 메모리(130)는 다양한 파일 데이터들을 저장할 수 있으며, 프로세서(120)의 동작에 따라 저장된 파일 데이터들은 업데이트 될 수 있다.The electronic device 101 according to an embodiment may include a processor 120 and a memory 130, and some of the illustrated components may be omitted or replaced. The electronic device 101 according to an embodiment may be a server or a terminal. According to an embodiment, the processor 120 is a component capable of performing calculations or data processing related to control and/or communication of each component of the electronic device 101, and may include one or more processors. The memory 130 may store information related to the above-described method or a program in which the above-described method is implemented. Memory 130 may be volatile memory or non-volatile memory. The memory 130 may store various file data, and the stored file data may be updated according to the operation of the processor 120 .

일 실시예에 따르면, 프로세서(120)는 프로그램을 실행하고, 장치(101)를 제어할 수 있다. 프로세서(120)에 의하여 실행되는 프로그램의 코드는 메모리(130)에 저장될 수 있다. 프로세서(120)의 동작들은 메모리(130)에 저장된 인스트럭션들을 로딩(loading)함으로써 수행될 수 있다. 전자 장치(101)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.According to one embodiment, the processor 120 may execute a program and control the device 101 . Program codes executed by the processor 120 may be stored in the memory 130 . Operations of the processor 120 may be performed by loading instructions stored in the memory 130 . The electronic device 101 may be connected to an external device (eg, a personal computer or network) through an input/output device (not shown) and exchange data.

일 실시예에 따르면, 프로세서(120)가 전자 장치 상에서 구현할 수 있는 연산 및 데이터 처리 기능에는 한정됨이 없을 것이나, 이하에서는 모형 지육 및 AR, VR을 이용해 발골 교육을 수행하는 기능에 대해 설명될 것이다.According to one embodiment, there will be no limitations on the calculation and data processing functions that the processor 120 can implement on the electronic device, but hereinafter, a function of performing bone training using model education, AR, and VR will be described.

도 2는 일 실시예에 따른 모형을 이용한 AR,VR 발골 교육 방법을 순서도로 나타낸 것이다.Figure 2 is a flow chart showing an AR, VR bone training method using a model according to an embodiment.

도 2를 통하여 설명되는 동작들은 컴퓨터 기록 매체 또는 메모리(예: 도 1의 메모리(130))에 저장될 수 있는 인스트럭션들 을 기반으로 구현될 수 있다. 도시된 방법은 앞서 도 1 을 통해 설명한 전자 장치(예: 도 1의 전자 장치(101))에 의해 실행될 수 있으며, 앞서 설명한 바 있는 기술적 특징은 이하에서 생략하기로 한다. 도2의 각 동작의 순서가 변경될 수 있으며, 일부 동작이 생략될 수도 있고, 일부 동작들이 동시에 수행될 수도 있다.Operations described through FIG. 2 may be implemented based on instructions that may be stored in a computer recording medium or memory (eg, the memory 130 of FIG. 1). The illustrated method may be executed by the electronic device (eg, the electronic device 101 of FIG. 1 ) previously described with reference to FIG. 1 , and technical features described above will be omitted below. The order of each operation in FIG. 2 may be changed, some operations may be omitted, or some operations may be performed simultaneously.

동작 210에서, 프로세서(예: 도 1의 프로세서(120))는 모형 지육 상에서 제 1 부위 및 제 2 부위를 연결하는 적어도 하나의 지점에 모형 도구가 지정된 수준 이내로 접근하는 것을 감지할 수 있다.In operation 210, the processor (eg, the processor 120 of FIG. 1 ) may detect that the model tool approaches at least one point connecting the first part and the second part on the model map within a specified level.

모형 지육은 복수개의 부위로 구성되고, 제 1부위 및 제 2 부위를 연결하는 적어도 하나의 지점에 자성을 띄는 물체를 포함하고, 자성을 이용해 연결되며, 자성을 띄지 않는 나머지 지점은 고무줄, 실 또는 벨크로 중 적어도 하나를 이용하여 물리적으로 연결되고, 상기 제 1 부위와 상기 제 2 부위는 상호간 분리 또는 결합이 가능하도록 구성될 수 있다. 모형 도구는 모형 지육 상에서 자성을 띄는 물체를 포함하는 특정 지점에 지정된 수준 이내로 가까워지면 진동을 제공하는 전자 제어 장치를 포함할 수 있다.Model carcass consists of a plurality of parts, includes a magnetic object at at least one point connecting the first part and the second part, and is connected using magnetism, and the remaining points that are not magnetic are rubber bands, threads, or It may be physically connected using at least one of Velcro, and the first part and the second part may be configured to be separated or coupled to each other. The model tool may include an electronic control device that provides vibration when a specific point, including a magnetic object, on the model piece of land is approached within a specified level.

동작 220에서, 프로세서(120)는 모형 도구의 접근에 대응하여 모형 도구 상에 제 1 진동을 발생시키고 모형 지육을 해체하기 위해 올바른 지점에 모형 도구를 접촉시켰음을 지시하는 정보를 표시할 수 있다. In operation 220, the processor 120 may generate a first vibration on the model tool in response to the approach of the model tool and display information indicating that the model tool has been brought into contact with the correct location to dismantle the model object.

동작 230에서, 프로세서(120)는 모형 지육 상에서 제 1 부위 및 제 2 부위를 연결하는 적어도 하나의 지점이 아닌 뼈에 대응하는 지점에 모형 도구가 지정된 수준 이내로 접근하는 것을 감지할 수 있다.In operation 230, the processor 120 may detect that the model tool approaches a point corresponding to a bone other than at least one point connecting the first and second portions on the model body within a specified level.

동작 240에서, 프로세서(120)는 모형 도구의 접근에 대응하여 모형 도구 상에 제 2 진동을 발생시키고, 모형 지육을 해체하기 위해 부적절한 지점에 모형 도구를 접촉시켰음을 지시하는 정보를 표시할 수 있다.In operation 240, the processor 120 may generate a second vibration on the model tool in response to the approach of the model tool, and display information indicating that the model tool has been contacted at an inappropriate location to dismantle the model object. .

일 실시예에 따르면, 프로세서(120)는 모형 지육 상의 상기 모형 도구의 위치를 감지하고, 모형 도구의 위치에 기반하여 상기 모형 지육의 특정 부위의 명칭을 디스플레이 상에 표시하며, 특정 부위의 명칭에 기반하여 상기 모형 도구의 각도, 깊이, 위치 또는 특정 부위에 가하는 힘의 세기 중 적어도 어느 하나에 대한 정보를 포함하는 상기 모형 도구의 제어 방법을 제공할 수 있다. 프로세서(120)는 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고,자성의 방향을 유지시키고, 자성의 세기는 지정된 수준 미만으로 제어하여 상기 모형 지육을 해체하기 위해 올바른 지점에 위치하였으며, 적절한 수준의 힘을 가하고 있음을 지시하는 정보를 제공할 수 있다. 프로세서(120)는 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점이 아닌 뼈에 대응하는 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고, 자성의 방향을 바꿔 상기 모형 도구를 밀어내도록 제어하여 지육을 해체하기 위해 올바르지 않은 지점에 위치하였음을 지시하는 정보를 제공하고,자성의 세기는 지정된 수준을 초과하도록 제어하여 적절하지 않은 수준의 힘을 가하고 있음을 지시하는 정보를 제공할 수 있다.According to one embodiment, the processor 120 detects the position of the model tool on the model cognitive model, displays the name of a specific part of the model cognitive education on a display based on the position of the model tool, and displays the name of the specific part on the display. Based on the model tool, it is possible to provide a control method of the model tool that includes information on at least one of the angle, depth, position, or intensity of force applied to a specific part of the model tool. The processor 120 detects that the model tool approaches at least one point connecting the first part and the second part on the model map within a specified level, maintains the direction of magnetism, and determines the strength of the magnetism. It is controlled below the level to provide information indicating that the model is positioned at the right point to dismantle the model carcass and that an appropriate level of force is being applied. The processor 120 detects that the model tool approaches a point corresponding to a bone, which is not at least one point connecting the first part and the second part on the model cognitive body within a specified level, and changes the direction of magnetism. Controlling the model tool to push it to provide information indicating that it is located at an incorrect point to dismantle the carcass, and controlling the magnetic intensity to exceed a specified level to indicate that an inappropriate level of force is being applied can provide information.

프로세서(120)는 지정된 시간을 설정하여 사용자에게 상기 모형 지육을 발골하도록 사용자 경험을 제공하고,인공지능 학습모델을 이용하여 모형 도구의 각도, 깊이, 위치 또는 특정 부위에 가하는 힘의 세기 중 적어도 어느 하나에 기반하여 점수를 부여하고, 점수가 지정된 수준 미만인 사용자에게 점수가 낮은 이유에 대한 분석을 제공하고, 다시 지정된 시간을 설정하여 사용자에게 상기 모형 지육을 발골하도록 사용자 경험을 제공하며, 인공지능 학습모델 상으로 사용자의 모형 지육 발골에 대한 학습 경험, 점수 및 문제점에 대한 분석을 학습시키고, 사용자 별로 잘못된 발골 방법에 대한 분석을 제공할 수 있다.The processor 120 sets a designated time to provide the user with a user experience to develop the model intellect, and at least one of the angle, depth, position of the model tool or the intensity of force applied to a specific part using an artificial intelligence learning model Give a score based on one, provide an analysis of why the score is low for users whose scores are below the specified level, set a specified time again to provide users with a user experience to develop the model education, and artificial intelligence learning On the model, it is possible to learn the user's learning experience, score, and analysis of problems with model carcass bone bone, and to provide an analysis of the wrong bone bone method for each user.

일 실시예에 따르면, 프로세서(120)는 모형 지육에 대응하는 실제 지육 이미지를 상기 모형 지육과 함께 표시하고, 지육 이미지와 상기 모형 지육을 동기화하여, 모형 도구에 의해 상기 모형 지육의 형태가 변경되면, 상기 지육 이미지도 상기 모형 지육의 형태에 대응하는 형태로 변경시킬 수 있다. 프로세서(120)는 모형 지육이 상기 모형 도구에 의해 제 1 부분 및 제 2 부분으로 절단되면, 제 1 부분의 근내지방도, 육색, 지방색, 조직감, 성숙도 등심단면적 또는 등지방두께 중 적어도 어느 하나에 대한 정보를 표시하고, 제 2 부분의 근내지방도, 육색, 지방색, 조직감, 성숙도 등심단면적 또는 등지방두께 중 적어도 어느 하나에 대한 정보를 표시할 수 있다. 모형 도구는 지정된 수준 이상 휘어지거나, 지정된 수준 미만의 강도를 갖도록 제작될 수 있다.According to an embodiment, the processor 120 displays an actual cognitive education image corresponding to the model education together with the model education, synchronizes the education image and the model education, and when the shape of the model education is changed by a model tool. , The carcass image may also be changed into a shape corresponding to the shape of the model carcass. When the model carcass is cut into the first part and the second part by the model tool, the processor 120 determines at least one of intramuscular fat degree, meat color, fat color, texture, maturity, loin cross-sectional area, and back fat thickness of the first part. Information may be displayed, and information on at least one of intramuscular fat degree, meat color, fat color, texture, maturity, loin cross-sectional area, and back fat thickness of the second part may be displayed. The model tool may be manufactured to have more than a specified level of bending or less than a specified level of strength.

일 실시예에 따르면, 프로세서(120)는 헤드 추적(head tracking) 작업, 핸드 추적(hand tracking) 작업, 눈 추적(eye tracking) 작업, 장면 분석(예: scene understanding) 또는 랜더링(rendering) 작업 중 적어도 하나를 포함하는 작업을 수행하고, 증강 현실 서비스를 수행하는 동안, 센서를 이용하여 상기 전자 장치의 성능 데이터 또는 AR 사용 데이터를 획득할 수 있다. 프로세서(120)는 전자 장치의 성능 데이터 또는 AR 사용 데이터에 기반하여 AR 컨택스트에 대응하는 성능 평가를 수행하고, AR 성능 평가 요소 별 성능 평가 점수를 계산하고 성능 평가를 분석하여 취약점에 대한 정보를 사용자에게 제공하고, 성능 평가 결과에 기초하여 상기 기본 성능 프리셋의 구성 파리미터들의 적어도 일부가 조정된 개인화된 성능 프리셋을 생성하고, 생성된 개인화된 성능 프리셋을 상기 증강 현실 서비스에 적용할 수 있다. According to an embodiment, the processor 120 may perform a head tracking task, a hand tracking task, an eye tracking task, a scene analysis (eg, scene understanding) task, or a rendering task. Performance data or AR usage data of the electronic device may be obtained by using a sensor while performing a task including at least one and performing an augmented reality service. The processor 120 performs performance evaluation corresponding to the AR context based on the performance data of the electronic device or AR use data, calculates a performance evaluation score for each AR performance evaluation factor, and analyzes the performance evaluation to obtain information about vulnerabilities. It is provided to the user, a personalized performance preset in which at least some of configuration parameters of the basic performance preset are adjusted is generated based on a performance evaluation result, and the generated personalized performance preset may be applied to the augmented reality service.

전자 장치의 성능 데이터는 전자 장치의 GPU 클럭(clock) 및 CPU 로드(load), 상기 전자 장치의 GPU 클럭 및 GPU 로드(load), 네트워크 타입, 상기 전자 장치와 상기AR 장치와의 테더링 네트워크 타입, 테더링 네트워크 신호 세기, 랜더링 FPS(frame per second), 상기 전자 장치의 표면 온도, 상기 전자 장치의 한계 온도, 전자 장치 해상도 중 적어도 어느 하나를 포함할 수 있다. The performance data of the electronic device includes GPU clock and CPU load of the electronic device, GPU clock and GPU load of the electronic device, network type, and tethering network type between the electronic device and the AR device. , tethering network signal strength, rendering frames per second (FPS), a surface temperature of the electronic device, a threshold temperature of the electronic device, and a resolution of the electronic device.

AR 사용 데이터는 AR 장치의 디스플레이 주파수, 상기 AR 장치의 동작 온도, 상기 AR 장치의 주사율(refresh rate), 상기 AR 장치의 화면 밝기, 상기 AR 장치의 한계 온도, 네트워크 트래픽, 추적 주파수, 추적 좌표, 추적 지연속도(tracking latency), 또는 추적 정확도(tracking accuracy), 추적 입력 이미지 품질(tracking input image quality), 장면 분석 결과, 장면 분석 정확도 상기 전자 장치의 위치 정보 및 상기 AR 장치의 GPS 기반 위치 정보, 증강 현실 서비스 시의 에러 프로세스 정보, AR 앱 사용 시간 중 적어도 하나를 포함할 수 있다.The AR usage data includes the display frequency of the AR device, the operating temperature of the AR device, the refresh rate of the AR device, the screen brightness of the AR device, the threshold temperature of the AR device, network traffic, tracking frequency, tracking coordinates, tracking latency, or tracking accuracy, tracking input image quality, scene analysis result, scene analysis accuracy, location information of the electronic device and GPS-based location information of the AR device, It may include at least one of error process information during augmented reality service and AR app usage time.

일 실시예에 따르면, 프로세서(120)는 카메라를 이용하여 상기 모형 도구의 움직임을 캡처(capture)하고, 캡처된 비디오 프레임 이미지들로부터 상기 모형 도구의 움직임과 관련된 물리적 속성을 분석 후, 사용자의 신체 부위에 적합하도록 상기 모형 도구의 크기를 결정하고, 발골용 증강콘텐츠 오브젝트를 렌더링하고 인터렉션을 설정할 수 있다. 프로세서(120)는 모형 지육과 상기 발골용 증강콘텐츠 오브젝트를 시스루 (see through) 방식으로 중첩시켜 표시하고, 모형 지육 상에서 상기 모형 도구의 위치, 움직이는 방향 또는 움직이는 힘의 세기 중 적어도 어느 하나에 기반하여 사용자에게 제공할 상기 모형 지육의 발골에 대한 정보를 결정하고 디스플레이를 이용하여 상기 모형 지육의 발골에 대한 정보를 제공할 수 있다.According to one embodiment, the processor 120 captures the motion of the model tool using a camera, analyzes physical properties related to the motion of the model tool from the captured video frame images, and then the user's body It is possible to determine the size of the model tool to be suitable for the part, render the augmented content object for the bone, and set the interaction. The processor 120 overlaps and displays the model intellect and the augmented content object for the bone in a see-through manner, and based on at least one of the location, moving direction, or strength of the moving force of the model tool on the model intellect Information on the bones of the model carcass to be provided to the user may be determined, and the information about the bones of the model carcass may be provided using a display.

디스플레이는 HMD(Head Mounted Display) 또는 스마트 글래스 중 어느 하나를 포함할 수 있다.The display may include any one of a Head Mounted Display (HMD) and smart glasses.

도 3은 일 실시예에 따른 AR기기의 분산 렌더링을 위한 방법을 도시한 것이다.3 illustrates a method for distributed rendering of an AR device according to an embodiment.

서버에 의해 호스팅되는API(application programming interface)는 프로세서(예: 도 1의 프로세서(120))를 통한 데이터 액세스, 업로드, 다운로드 또는 삭제 중 적어도 어느 하나의 기능을 제공할 수 있다.An application programming interface (API) hosted by the server may provide at least one function of data access, upload, download, or deletion through a processor (eg, the processor 120 of FIG. 1 ).

동작 302에서, 프로세서(120)는 AR 기기를 이용하여 현실 특징을 추정할 수 있다. AR 기기를 이용하여 표시되는 현실의 특징은 여러가지가 있으나, 이하에서는 현실의 모형 지육 및 모형 도구와 대응되는 가상의 지육 이미지, 가상의 도구에 대해 설명할 것이다.In operation 302, the processor 120 may estimate a reality feature using the AR device. There are various characteristics of reality displayed using AR devices, but hereinafter, virtual cognitive education images and virtual tools corresponding to real model education and model tools will be described.

동작 304에서, 프로세서(120)는 AR 기기를 이용하여 모형 지육 및 모형 도구의 특징을 추정할 수 있다. In operation 304, the processor 120 may use the AR device to estimate features of model education and model tools.

동작 306에서, 프로세서(120)는 클라우드에 모형 도구 비트맵을 렌더링시킬 수 있다.At operation 306, the processor 120 may render the model tool bitmap to the cloud.

동작 308에서, 프로세서(120)는 비트맵을 적용해서 로컬 렌더링을 개선시킬 수 있다.At operation 308, the processor 120 may apply the bitmap to improve local rendering.

도4는 일실시예에 따른 인공지능 모델의 구성을 도시한 도면이다.4 is a diagram showing the configuration of an artificial intelligence model according to an embodiment.

일 실시예에 따른 인공지능 모델은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)을 포함할 수 있다.An artificial intelligence model according to an embodiment may include an input layer, a hidden layer, and an output layer.

입력 계층(input layer)은 인공지능 모델에 입력되는 입력 값과 관련된 계층이다.An input layer is a layer related to input values input to an artificial intelligence model.

은닉 계층(hidden layer)에서는 입력 값에 대하여 MAC 연산(multiply-accumulate)과 활성화 연산을 수행하여 피쳐 맵을 출력할 수 있다.In the hidden layer, a feature map may be output by performing a multiply-accumulate (MAC) operation and an activation operation on an input value.

MAC 연산은 입력 값과 대응되는 가중치를 각각 곱하고, 곱한 값들을 합하는 연산일 수 있다. The MAC operation may be an operation of multiplying an input value by a corresponding weight and summing the multiplied values.

활성화 연산은 MAC 연산의 결과를 활성화 함수에 입력하여 결과 값을 출력하는 연산일 수 있다. 활성화 함수는, 다양한 유형일 수 있다. 예를 들어, 활성화 함수는, 시그모이드 함수, 탄젠트 함수, 렐루 함수, 리키 렐루 함수, 맥스아웃 함수 및/또는 엘루 함수을 포함할 수 있으나 그 종류에 제한이 없다.The activation operation may be an operation of inputting a result of the MAC operation to an activation function and outputting a resultant value. Activation functions can be of various types. For example, the activation function may include, but is not limited to, a sigmoid function, a tangent function, a relu function, a ricky relu function, a maxout function, and/or an elu function.

은닉 계층은 적어도 하나의 계층(layer)로 구성될 수 있다. 예를 들어, 은닉 계층이 제 1 은닉 계층 및 제 2 은닉 계층으로 구성된 경우, 제 1 은닉 계층은 입력 계의 입력 값에 기반하여 MAC 연산 및 활성화 연산을 수행하여 피쳐 맵을 출력하고, 제 1 은닉 계층에서의 결과 값인 피쳐 맵이 제 2 은닉 계층에서의 입력 값이 될 수 있다. 제 2 은닉 계층은 제 1 은닉 계층의 결과 값인 피쳐 맵에 기반하여 MAC 연산 및 활성화 연산을 수행할 수 있다.The hidden layer may consist of at least one layer. For example, when the hidden layer is composed of a first hidden layer and a second hidden layer, the first hidden layer outputs a feature map by performing a MAC operation and an activation operation based on the input value of the input system, and A feature map, which is a result value of the layer, may be an input value of the second hidden layer. The second hidden layer may perform a MAC operation and an activation operation based on the feature map resulting from the first hidden layer.

출력 계층(output layer)은, 은닉 계층에서 수행한 연산의 결과 값과 관련된 계층일 수 있다.An output layer may be a layer related to a result value of an operation performed in a hidden layer.

일 실시예에서, 학습 모델은 주어진 말뭉치에서 빈번히 결합하여 사용된 음절(글자) 패턴을 학습 하여 복합어 및 개체명의 경계를 자동으로 학습하고, 제1 UI 소스의 객체 정보와 브라우저에서 렌더링한 객체 정보를 통합하여 학습용 객체 정보 파일을 생성하고, 상기 학습용 객체 정보 파일을 이용하여 딥러닝 네트워크의 학습을 위한 학습 데이터를 생성하고, 지원 시스템의 다양한 도메인들의 데이터를 수신하고, 상기 다양한 도메인들 각각에 대응하는 적어도 하나의 표준화 방법에 기반하여, 상기 다양한 도메인들의 데이터를 통합된 형식으로 표준화하며, 특정 도메인의 데이터를 학습 및 추론하고, 상기 특정 도메인의 데이터에서, 상기 표준화를 위해 전달될 정보를 결정하고,상기 다양한 도메인들로부터의 데이터에 대해 후처리(post processing)를 수행할 수 있다. 제1 UI 소스는 XML 파일을 포함하고, 상기 학습용 객체 정보 파일은 특징(Features) 학습을 위한 입력 JSON 파일과 학습시 정답(Label) 데이터인 출력 JSON 파일을 포함하며, 상기 출력 JSON 파일은 웹표준을 준수하여 구현된 HTML의 DOM Tree 정보가 포함된 파일을 포함하고 상기 다양한 도메인들은 RAN(radio access network), 트랜스포트(transport) 또는 코어(core) 중 적어도 하나를 포함하고, 상기 후처리는 상관(correlation) 기능을 포함할 수 있다.In one embodiment, the learning model automatically learns the boundaries of compound words and object names by learning syllable (letter) patterns that are frequently combined and used in a given corpus, and object information of the first UI source and object information rendered by the browser Integrating to create an object information file for learning, generating learning data for learning a deep learning network using the object information file for learning, receiving data from various domains of the support system, and corresponding to each of the various domains Based on at least one standardization method, standardizes the data of the various domains in an integrated format, learns and infers data of a specific domain, determines information to be transmitted for the standardization in the data of the specific domain, Post processing may be performed on data from the various domains. The first UI source includes an XML file, and the object information file for learning includes an input JSON file for learning features and an output JSON file that is label data during learning, and the output JSON file is a web standard. and the various domains include at least one of RAN (radio access network), transport, or core, and the post-processing is (correlation) function can be included.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (5)

전자 장치에 있어서,
통신 모듈; 및
모형 지육 및 모형 도구와 전기적으로 연결된 프로세서를 포함하고,
상기 모형 지육은
복수개의 부위로 구성되고, 제 1부위 및 제 2 부위를 연결하는 적어도 하나의 지점에 자성을 띄는 물체를 포함하고, 자성을 이용해 연결되며,
자성을 띄지 않는 나머지 지점은 고무줄, 실 또는 벨크로 중 적어도 하나를 이용하여 물리적으로 연결되고, 상기 제 1 부위와 상기 제 2 부위는 상호간 분리 또는 결합이 가능하며,
상기 모형 도구는
상기 모형 지육 상에서 자성을 띄는 물체를 포함하는 특정 지점에 지정된 수준 이내로 가까워지면 진동을 제공하는 전자 제어 장치를 포함하며,
상기 프로세서는
상기 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고,
상기 모형 도구의 접근에 대응하여 상기 모형 도구 상에 제 1 진동을 발생시키고,
상기 모형 지육을 해체하기 위해 올바른 지점에 상기 모형 도구를 접촉시켰음을 지시하는 정보를 표시하며,
상기 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점이 아닌 뼈에 대응하는 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고,
상기 모형 도구의 접근에 대응하여 상기 모형 도구 상에 제 2 진동을 발생시키고,
상기 모형 지육을 해체하기 위해 부적절한 지점에 상기 모형 도구를 접촉시켰음을 지시하는 정보를 표시하는 전자 장치.
In electronic devices,
communication module; and
A processor electrically connected to the model intellect and the model tool;
The model carcass is
It consists of a plurality of parts, includes a magnetic object at at least one point connecting the first part and the second part, and is connected using magnetism,
The remaining non-magnetic points are physically connected using at least one of a rubber band, thread, or Velcro, and the first and second portions can be separated or coupled to each other,
The modeling tool is
An electronic control device that provides vibration when a specific point containing a magnetic object on the model land is approached within a specified level,
The processor
Detecting that the model tool approaches at least one point connecting the first part and the second part on the model land within a specified level;
Generating a first vibration on the model tool in response to the approach of the model tool;
Displays information indicating that the model tool has been contacted at the correct point to dismantle the model carcass;
Detecting that the model tool approaches a point corresponding to a bone, which is not at least one point connecting the first part and the second part on the model carcass within a specified level;
In response to the approach of the model tool, a second vibration is generated on the model tool;
An electronic device displaying information indicating that the model tool has been contacted at an inappropriate point to dismantle the model carcass.
제 1항에 있어서,
상기 프로세서는
상기 모형 지육 상의 상기 모형 도구의 위치를 감지하고,
상기 모형 도구의 위치에 기반하여 상기 모형 지육의 특정 부위의 명칭을 디스플레이 상에 표시하며,
상기 특정 부위의 명칭에 기반하여 상기 모형 도구의 각도, 깊이, 위치 또는 특정 부위에 가하는 힘의 세기 중 적어도 어느 하나에 대한 정보를 포함하는 상기 모형 도구의 제어 방법을 제공하고,
상기 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고,
자성의 방향을 유지시키고, 자성의 세기는 지정된 수준 미만으로 제어하여 상기 모형 지육을 해체하기 위해 올바른 지점에 위치하였으며, 적절한 수준의 힘을 가하고 있음을 지시하는 정보를 제공하고,
상기 모형 지육 상에서 상기 제 1 부위 및 상기 제 2 부위를 연결하는 적어도 하나의 지점이 아닌 뼈에 대응하는 지점에 상기 모형 도구가 지정된 수준 이내로 접근하는 것을 감지하고,
자성의 방향을 바꿔 상기 모형 도구를 밀어내도록 제어하여 지육을 해체하기 위해 올바르지 않은 지점에 위치하였음을 지시하는 정보를 제공하고,
자성의 세기는 지정된 수준을 초과하도록 제어하여 적절하지 않은 수준의 힘을 가하고 있음을 지시하는 정보를 제공하며,
지정된 시간을 설정하여 사용자에게 상기 모형 지육을 발골하도록 사용자 경험을 제공하고,
인공지능 학습모델을 이용하여 상기 모형 도구의 각도, 깊이, 위치 또는 특정 부위에 가하는 힘의 세기 중 적어도 어느 하나에 기반하여 점수를 부여하고,
상기 점수가 지정된 수준 미만인 사용자에게 점수가 낮은 이유에 대한 분석을 제공하고,
다시 지정된 시간을 설정하여 사용자에게 상기 모형 지육을 발골하도록 사용자 경험을 제공하며,
상기 인공지능 학습모델 상으로 상기 사용자의 모형 지육 발골에 대한 학습 경험, 점수 및 문제점에 대한 분석을 학습시키고, 사용자 별로 잘못된 발골 방법에 대한 분석을 제공하는 전자 장치.
According to claim 1,
The processor
Detecting the position of the model tool on the model intellect;
Based on the position of the model tool, the name of a specific part of the model education is displayed on a display,
Provide a control method of the model tool including information on at least one of the angle, depth, position of the model tool or the intensity of force applied to the specific part based on the name of the specific part,
Detecting that the model tool approaches at least one point connecting the first part and the second part on the model land within a specified level;
Maintaining the direction of magnetism and controlling the intensity of magnetism to less than a specified level, providing information indicating that the model is located at the right place to dismantle the model and that an appropriate level of force is being applied,
Detecting that the model tool approaches a point corresponding to a bone, which is not at least one point connecting the first part and the second part on the model carcass within a specified level;
Controlling the model tool to push it by changing the direction of the magnetism to provide information indicating that it is located at an incorrect location to dismantle the carcass,
The intensity of the magnetism is controlled to exceed a specified level to provide information indicating that an inappropriate level of force is being applied,
Setting a designated time to provide a user experience to develop the model education to the user;
Giving a score based on at least one of the angle, depth, position of the model tool or the intensity of force applied to a specific part using an artificial intelligence learning model,
Provide an analysis of why the score is low for users whose scores are below a specified level;
By setting a specified time again, the user is provided with a user experience to develop the model education,
An electronic device that learns the user's learning experience, score, and analysis of problems with the artificial intelligence learning model, and provides an analysis of the wrong bone bone method for each user.
제 1항에 있어서,
상기 프로세서는
상기 모형 지육에 대응하는 실제 지육 이미지를 상기 모형 지육과 함께 표시하고,
상기 지육 이미지와 상기 모형 지육을 동기화하여,
상기 모형 도구에 의해 상기 모형 지육의 형태가 변경되면, 상기 지육 이미지도 상기 모형 지육의 형태에 대응하는 형태로 변경시키며,
상기 모형 지육이 상기 모형 도구에 의해 제 1 부분 및 제 2 부분으로 절단되면,
상기 제 1 부분의 근내지방도, 육색, 지방색, 조직감, 성숙도 등심단면적 또는 등지방두께 중 적어도 어느 하나에 대한 정보를 표시하고,
상기 제 2 부분의 근내지방도, 육색, 지방색, 조직감, 성숙도 등심단면적 또는 등지방두께 중 적어도 어느 하나에 대한 정보를 표시하며,
상기 모형 도구는
지정된 수준 이상 휘어지거나, 지정된 수준 미만의 강도를 갖도록 제작되는 전자 장치.
According to claim 1,
The processor
Displaying an actual cognitive education image corresponding to the model cognitive education together with the model cognitive education;
By synchronizing the cognitive education image and the model education,
When the shape of the model education is changed by the model tool, the education image is also changed to a shape corresponding to the shape of the model education,
When the model carcass is cut into a first part and a second part by the model tool,
Displaying information on at least one of intramuscular fat, meat color, fat color, texture, maturity, loin cross-section area, or back fat thickness of the first part;
Displays information on at least one of intramuscular fat map, meat color, fat color, texture, maturity, loin cross-section area, or back fat thickness of the second part,
The modeling tool is
An electronic device manufactured to be more flexible than a specified level or have less strength than a specified level.
제 1항에 있어서,
상기 프로세서는
헤드 추적(head tracking) 작업, 핸드 추적(hand tracking) 작업, 눈 추적(eye tracking) 작업, 장면 분석(예: scene understanding) 또는 랜더링(rendering) 작업 중 적어도 하나를 포함하는 작업을 수행하고,
증강 현실 서비스를 수행하는 동안, 센서를 이용하여 상기 전자 장치의 성능 데이터 또는 AR 사용 데이터를 획득하고,
상기 전자 장치의 성능 데이터 또는 AR 사용 데이터에 기반하여 AR 컨택스트에 대응하는 성능 평가를 수행하고, AR 성능 평가 요소 별 성능 평가 점수를 계산하고
상기 성능 평가를 분석하여 취약점에 대한 정보를 사용자에게 제공하고,
상기 성능 평가 결과에 기초하여 기본 성능 프리셋의 구성 파리미터들의 적어도 일부가 조정된 개인화된 성능 프리셋을 생성하고,
상기 생성된 개인화된 성능 프리셋을 상기 증강 현실 서비스에 적용하며
상기 전자 장치의 성능 데이터는
상기 전자 장치의 GPU 클럭(clock) 및 CPU 로드(load), 상기 전자 장치의 GPU 클럭 및 GPU 로드(load), 네트워크 타입, 상기 전자 장치와 AR 장치와의 테더링 네트워크 타입, 테더링 네트워크 신호 세기, 랜더링 FPS(frame per second), 상기 전자 장치의 표면 온도, 상기 전자 장치의 한계 온도, 전자 장치 해상도 중 적어도 어느 하나를 포함하고,
상기 AR 사용 데이터는
AR 장치의 디스플레이 주파수, AR 장치의 동작 온도, AR 장치의 주사율(refresh rate), AR 장치의 화면 밝기, AR 장치의 한계 온도, 네트워크 트래픽, 추적 주파수, 추적 좌표, 추적 지연속도(tracking latency), 또는 추적 정확도(tracking accuracy), 추적 입력 이미지 품질(tracking input image quality), 장면 분석 결과, 장면 분석 정확도 상기 전자 장치의 위치 정보 및 AR 장치의 GPS 기반 위치 정보, 증강 현실 서비스 시의 에러 프로세스 정보, AR 앱 사용 시간 중 적어도 하나를 포함하는 전자 장치.
According to claim 1,
The processor
Performing a task that includes at least one of a head tracking task, a hand tracking task, an eye tracking task, a scene analysis (eg, scene understanding), or a rendering task;
Acquiring performance data or AR usage data of the electronic device using a sensor while performing an augmented reality service;
Based on the performance data of the electronic device or the AR usage data, performance evaluation corresponding to the AR context is performed, performance evaluation scores are calculated for each AR performance evaluation element,
Analyzing the performance evaluation to provide information about vulnerabilities to users;
Based on the performance evaluation result, create a personalized performance preset in which at least some of the configuration parameters of the basic performance preset are adjusted;
Applying the generated personalized performance preset to the augmented reality service;
The performance data of the electronic device is
GPU clock and CPU load of the electronic device, GPU clock and GPU load of the electronic device, network type, tethering network type between the electronic device and AR device, tethering network signal strength , rendering FPS (frame per second), including at least one of a surface temperature of the electronic device, a limit temperature of the electronic device, and a resolution of the electronic device,
The above AR usage data is
AR device display frequency, AR device operating temperature, AR device refresh rate, AR device screen brightness, AR device threshold temperature, network traffic, tracking frequency, tracking coordinates, tracking latency, Or tracking accuracy, tracking input image quality, scene analysis result, scene analysis accuracy, location information of the electronic device and GPS-based location information of the AR device, error process information in augmented reality service, An electronic device that includes at least one AR app usage time.
제 1항에 있어서,
상기 프로세서는
카메라를 이용하여 상기 모형 도구의 움직임을 캡처(capture)하고,
상기 캡처된 비디오 프레임 이미지들로부터 상기 모형 도구의 움직임과 관련된 물리적 속성을 분석 후, 사용자의 신체 부위에 적합하도록 상기 모형 도구의 크기를 결정하고,
발골용 증강콘텐츠 오브젝트를 렌더링하고 인터렉션을 설정하며,
상기 모형 지육과 상기 발골용 증강콘텐츠 오브젝트를 시스루 (see through) 방식으로 중첩시켜 표시하고,
상기 모형 지육 상에서 상기 모형 도구의 위치, 움직이는 방향 또는 움직이는 힘의 세기 중 적어도 어느 하나에 기반하여 사용자에게 제공할 상기 모형 지육의 발골에 대한 정보를 결정하고,
디스플레이를 이용하여 상기 모형 지육의 발골에 대한 정보를 제공하며,
상기 디스플레이는 HMD(Head Mounted Display) 또는 스마트 글래스 중 어느 하나를 포함하는 전자 장치.
According to claim 1,
The processor
Capture the movement of the model tool using a camera,
After analyzing the physical properties related to the movement of the model tool from the captured video frame images, determining the size of the model tool to fit the user's body part;
Render augmented content objects for bones and set interactions,
The model education and the bone augmentation content object are superimposed and displayed in a see through manner,
Determining information about the bones of the model intellect to be provided to the user based on at least one of the position, moving direction, or strength of the moving force of the model tool on the model intellect;
Provides information on the bone of the model carcass using a display,
The display is an electronic device including any one of a Head Mounted Display (HMD) and smart glasses.
KR1020220131263A 2022-10-13 2022-10-13 Ar/vr skeletal training method, apparatus and system using model KR102500237B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220131263A KR102500237B1 (en) 2022-10-13 2022-10-13 Ar/vr skeletal training method, apparatus and system using model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220131263A KR102500237B1 (en) 2022-10-13 2022-10-13 Ar/vr skeletal training method, apparatus and system using model

Publications (1)

Publication Number Publication Date
KR102500237B1 true KR102500237B1 (en) 2023-02-16

Family

ID=85325948

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220131263A KR102500237B1 (en) 2022-10-13 2022-10-13 Ar/vr skeletal training method, apparatus and system using model

Country Status (1)

Country Link
KR (1) KR102500237B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190023003A (en) 2017-08-25 2019-03-07 남정림 Apparatus and method for estimating bone age based on image processing and machine learning
KR101981701B1 (en) * 2018-06-20 2019-05-23 주식회사 에스피지코리아 Educational Training Apparatus and Methods Using Virtual Reality
KR102104326B1 (en) * 2019-06-28 2020-04-27 한화시스템 주식회사 Maintenance training system and method based on augmented reality
KR20210130041A (en) * 2020-04-21 2021-10-29 사회복지법인 삼성생명공익재단 System for providing educational information of surgical techniques and skills and surgical guide system based on machine learning using 3 dimensional image
KR102349355B1 (en) * 2021-10-27 2022-01-10 주식회사 안심엘피씨 Method, device and system for constructing deboning education contents based on ar/vr environment using motion gloves
KR20220107506A (en) 2021-01-25 2022-08-02 주식회사 조은정보기술 Cooking experience learning system based on mobile augmented reality

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190023003A (en) 2017-08-25 2019-03-07 남정림 Apparatus and method for estimating bone age based on image processing and machine learning
KR101981701B1 (en) * 2018-06-20 2019-05-23 주식회사 에스피지코리아 Educational Training Apparatus and Methods Using Virtual Reality
KR102104326B1 (en) * 2019-06-28 2020-04-27 한화시스템 주식회사 Maintenance training system and method based on augmented reality
KR20210130041A (en) * 2020-04-21 2021-10-29 사회복지법인 삼성생명공익재단 System for providing educational information of surgical techniques and skills and surgical guide system based on machine learning using 3 dimensional image
KR20220107506A (en) 2021-01-25 2022-08-02 주식회사 조은정보기술 Cooking experience learning system based on mobile augmented reality
KR102349355B1 (en) * 2021-10-27 2022-01-10 주식회사 안심엘피씨 Method, device and system for constructing deboning education contents based on ar/vr environment using motion gloves

Similar Documents

Publication Publication Date Title
US10657652B2 (en) Image matting using deep learning
KR101379074B1 (en) An apparatus system and method for human-machine-interface
AU2019202799A1 (en) A method to automatically predict handle locations for skinningtransformations using deep learning
EP2175636A1 (en) Method and system for integrating virtual entities within live video
CN110502097B (en) Motion control portal in virtual reality
CN109035415B (en) Virtual model processing method, device, equipment and computer readable storage medium
US11449189B1 (en) Virtual reality-based augmented reality development system
US11373373B2 (en) Method and system for translating air writing to an augmented reality device
CN112673400A (en) Avatar animation
CN106447756B (en) Method and system for generating user-customized computer-generated animations
KR102069366B1 (en) Augmented reality implementation apparatus and method for interacting with robot for education
CN106843532A (en) The implementation method and device of a kind of virtual reality scenario
Kim et al. Empath-d: Vr-based empathetic app design for accessibility
KR102500237B1 (en) Ar/vr skeletal training method, apparatus and system using model
Demidova Augmented Reality and ARToolkit for Android: the First Steps
Horst et al. Highlighting techniques for 360° video virtual reality and their immersive authoring
Romli et al. AR heart: a development of healthcare informative application using augmented reality
CN113612985A (en) Processing method of interactive VR image
Girašek et al. Visualization of temperature fields distribution on power module within web interface
Ivaschenko et al. Focused visualization in interactive applications for surgery training
KR20110107707A (en) Online learning apparatus for augmented reality and method thereof
US10866688B2 (en) Augmented reality tour guide
US20230326145A1 (en) Manifesting a virtual object in a virtual environment
Quintana et al. Non-photorealistic rendering as a feedback strategy in virtual reality for rehabilitation
Tao Multi-View Web Interfaces in Augmented Reality

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant