KR102092290B1 - Providing system for a virtual manual of electronic device based on the agmented reality and method therefor - Google Patents
Providing system for a virtual manual of electronic device based on the agmented reality and method therefor Download PDFInfo
- Publication number
- KR102092290B1 KR102092290B1 KR1020170172616A KR20170172616A KR102092290B1 KR 102092290 B1 KR102092290 B1 KR 102092290B1 KR 1020170172616 A KR1020170172616 A KR 1020170172616A KR 20170172616 A KR20170172616 A KR 20170172616A KR 102092290 B1 KR102092290 B1 KR 102092290B1
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- wearable computer
- manual
- providing
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 50
- 230000003190 augmentative effect Effects 0.000 claims abstract description 35
- 238000004891 communication Methods 0.000 claims abstract description 16
- 238000013507 mapping Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004092 self-diagnosis Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims 2
- 230000000694 effects Effects 0.000 description 16
- 239000011800 void material Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000004886 head movement Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 101150005835 scly gene Proteins 0.000 description 2
- 206010069747 Burkholderia mallei infection Diseases 0.000 description 1
- 241001233278 Scalopus aquaticus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- Primary Health Care (AREA)
- Computer Graphics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 증강현실을 기반으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것으로서, 보다 상세하게는, 매뉴얼 제공 대상의 전자장치를 인식하여 데이터화하고 통신망을 통하여 서버로부터 해당 전자장치에 대한 교육용 매뉴얼 데이터를 전달받아 증강현실을 기반으로 해당 교육용 매뉴얼 데이터를 사용자에게 제공하는 착용식 컴퓨터를 포함하여 구성되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것이다.The present invention relates to a system for providing a virtual manual for an electronic device based on augmented reality and a method for providing a virtual manual, and more specifically, to recognize and data an electronic device for which a manual is provided, and transmit it from a server to a corresponding electronic device through a communication network. The present invention relates to a system for providing a virtual manual for an electronic device and a method for providing a virtual manual, comprising a wearable computer that provides training manual data to a user based on augmented reality by receiving training manual data for Korea.
Description
본 발명은 증강현실을 기반으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것으로서, 보다 상세하게는, 매뉴얼 제공 대상의 전자장치를 인식하여 데이터화하고 통신망을 통하여 서버로부터 해당 전자장치에 대한 교육용 매뉴얼 데이터를 전달받아 증강현실을 기반으로 해당 교육용 매뉴얼 데이터를 사용자에게 제공하는 착용식 컴퓨터를 포함하여 구성되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것이다.The present invention relates to a system for providing a virtual manual for an electronic device based on augmented reality and a method for providing a virtual manual, and more specifically, to recognize and data an electronic device for which a manual is provided, and transmit it from a server to a corresponding electronic device through a communication network. The present invention relates to a system for providing a virtual manual for an electronic device and a method for providing a virtual manual, comprising a wearable computer that provides training manual data to a user based on augmented reality by receiving training manual data for Korea.
일반적으로, 증강현실(Agmented reality)이란 사용자가 육안으로 보는 현실공간에 가상의 물체를 겹쳐서 표시하여 주는 기술을 가리킨다.In general, augmented reality (Agmented reality) refers to a technology that displays a virtual object superimposed on the real space that the user sees with the naked eye.
· 증강현실은 현실 공간에 실시간으로 부가정보를 가지는 가상의 정보를 합쳐서 영상으로 표시하여 주므로 혼합현실(Mixed Reality)이라고도 지칭되며, 관련 연구가 계속하여 발전하고 있는 추세이다.Augmented reality is also referred to as mixed reality because it displays virtual information that has additional information in real time in the real space, and is also referred to as mixed reality, and the related research continues to develop.
증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하나 컴퓨터 그래픽은 현실 환경에 필요한 정보를 추가적으로 제공하는 역할을 함으로써 보다 나은 현실감과 부가 정보를 제공할 수 있다. Augmented reality uses a virtual environment made of computer graphics, but computer graphics can provide better realism and additional information by providing additional information necessary for the real environment.
이러한 증강 현실 기술은 상점의 정보 제공 서비스, 원격의료진단, 게임 분야 등에서 활발하게 응용되고 있으며, 증강현실을 실외에서 실현하기 위하여 착용식 컴퓨터(wearable computer)도 개발되고 있다.These augmented reality technologies are actively applied in information providing services of stores, telemedicine diagnosis, and games, and wearable computers have also been developed to realize augmented reality outdoors.
특히, 머리에 쓰는 형태의 착용식 컴퓨터는 사용자가 보는 실제환경에 컴퓨터 그래픽·문자 등을 겹쳐 실시간으로 보여줌으로써 증강현실을 가능하게 한다.In particular, a wearable computer in the form of a head is capable of augmented reality by displaying computer graphics and characters in real time by superimposing on the real environment viewed by the user.
이렇게 머리에 쓰는 형태의 착용식 컴퓨터를 HMD(head mounted display)라 부르며, 상품화된 것으로서는 미국의 마이크로소프트(Micro Soft)사의 제품인 상품명 홀로렌즈(Hololens)를 들 수 있다. The wearable computer in the form of a head is called a head mounted display (HMD), and as a commercialized product, there is a product of the United States Microsoft (Micro Soft), a brand name, Hollens (Hololens).
홀로렌즈는 O/S 로써 윈도우10(Window 10)을 이용하며, 고해상도의 홀로그램 렌즈를 내장하고, 인간의 시선, 제스처(gesture), 음성 및 주변 환경을 인식할 수 있는 API(application programming interface)를 지원하며, 3D 스캐닝(scanning) 기능도 가능한 제품이다.The holo lens uses Windows 10 as an O / S, has a high-resolution hologram lens, and provides an API (application programming interface) that can recognize human eyes, gestures, voice, and surroundings. Supported, 3D scanning function is also available.
그러나, 각종 산업현장에서 이용되는 전자장치를 증강현실과 상호작용하여 실무 및 교육에 사용하는 수준의 기술은 개발되지 않은 실정이다.However, the level of technology used for practical and educational interactions with augmented reality by interacting with electronic devices used in various industrial sites has not been developed.
전자장치의 조작이나 유지 보수에 필요한 정보를 증강현실을 이용하게 되면 사용자가 실제 장비를 보면서 작업에 필요한 정보를 즉시 획득할 수 있는 장점이 있어, 미국의 보잉사에서는 증강현실 기술을 이용하여 항공기의 전선 조립을 보조하는 시스템을 자체 개발하여 현장에서 시험 운영하고 있으며, 독일의 BMW 사는 자동차를 조립하기 위해 증강현실을 기반으로 교육 시스템을 자체 개발 및 시험 운영하고 있는 실정이다.When augmented reality is used for information necessary for operation or maintenance of electronic devices, the user can immediately obtain information necessary for work while looking at actual equipment, and Boeing in the United States uses augmented reality technology to The system that assists with the assembly of electric wires has been developed and tested in the field, and the German BMW company has developed and tested an educational system based on augmented reality to assemble a car.
그러므로, 이처럼 산업현장에서 응용되고 있는 증강현실 기술을 이용하여 산업현장에서 사용되는 전자장치의 교육 및 실무 적용을 위한 교육용 매뉴얼 제공 시스템을 개발해야 될 필요성이 절실한 상황이다. Therefore, there is an urgent need to develop an educational manual providing system for educational and practical application of electronic devices used in industrial sites by using augmented reality technology applied in industrial fields.
한편, 증강현실을 이용한 기술로서 대한민국특허 제 957470 호의 증강현실을 이용한 수술로봇 시스템 및 그 제어방법의 기술이 공지되어 있다.On the other hand, as a technique using augmented reality, a technique of a surgical robot system using the augmented reality of Korean Patent No. 957470 and a control method thereof are known.
본 발명은 상술한 바와 같은 종래의 제반 문제점을 해소하기 위하여 창안된 것으로서, 증강현실 기술을 이용하여 각종 산업현장에서 이용되는 전자장치에 대한 매뉴얼을 제공하여 줌으로써 전자장치의 교육 및 실무 적용을 수행할 수 있는 증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법을 제공한다. The present invention was devised to solve the above-mentioned problems as described above, and provides education and practical application of electronic devices by providing manuals for electronic devices used in various industrial sites using augmented reality technology. It provides a virtual manual providing system and method for augmented reality based electronic devices.
상기와 같은 기술적 과제를 달성하기 위한 본 발명의 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법은, 매뉴얼 제공 대상의 전자장치를 인식하여 데이터화하고 통신망을 통하여 서버로부터 해당 전자장치에 대한 교육용 매뉴얼 데이터를 전달받아 증강현실을 기반으로 해당 교육용 매뉴얼 데이터를 사용자에게 제공하는 착용식 컴퓨터를 포함하여 구성되는 것을 특징으로 한다.The system for providing a virtual manual of the electronic device of the present invention and a method for providing the virtual manual for achieving the above technical problem are recognized and dataized by the electronic device for manual provision, and training manual data for the corresponding electronic device from a server through a communication network. It is characterized in that it comprises a wearable computer that provides the user with the corresponding training manual data based on augmented reality.
상기와 같이 구성되는 본 발명의 증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법은, 머리에 쓰는 착용식 컴퓨터가 제공하는 센서들과 기능들을 활용하여 전자장치의 크기나 기능에 관계없이 다양한 형태의 전자장치의 하드웨어를 인식하고 이와 상호 작용하게 되는 일련의 과정(본 발명에서 이를 캘리브레이션이라 지칭)을 통하여 전자장치의 사용법을 쉽게 익힐 수 있으며 이로 인하여 전자장치의 교육 및 실무 적용을 단시간내에 수행할 수 있게 되었다.The virtual manual provision system and method of the augmented reality-based electronic device of the present invention configured as described above, utilizes sensors and functions provided by the wearable computer worn on the head, regardless of the size or function of the electronic device. It is easy to learn how to use the electronic device through a series of processes (referred to as calibration in the present invention) that recognizes and interacts with the hardware of the electronic device in the form, thereby performing education and practical application of the electronic device within a short time. I can do it.
또한, 본 발명의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법은 전자장치가 설치된 환경에 구애받지 않고 교육 및 실무 적용을 실시할 수 있게 되어 해당 기기의 실무자의 초기 실무 도입 기간 및 교육 비용을 절감할 수 있게 된다.In addition, the system and method for providing a virtual manual of the electronic device of the present invention can perform training and practical application regardless of the environment in which the electronic device is installed, thereby reducing the initial operation introduction period and training cost of practitioners of the device. It becomes possible.
또한, 본 발명은 서버에 등록된 다양한 전자장치들의 정보를 다운로드 받아서 교육에 활용할 수 있기 때문에 1 대의 착용식 컴퓨터로도 여러 가지 전자장치들의 사용법을 숙지할 수 있으며 다양한 기기들의 가상 매뉴얼로도 활용할 수 있는 효과가 있다. In addition, since the present invention can download and use information of various electronic devices registered on the server for education, it is possible to learn how to use various electronic devices with one wearable computer and use it as a virtual manual for various devices. It has an effect.
또한, 전자장치의 교육 기관에서 본 발명의 교육 시스템을 활용하게 되면, 산업 현장에서 즉시 실무에 투입될 수 있는 인력으로 양성할 수 있게 되며, 이는 해당 교육 기관의 취업률 향상으로 이어져 사회적으로 경제적 파급 효과를 가져올 수 있는 효과를 발현하는 매우 진보한 발명인 것이다.In addition, if the educational system of the present invention is utilized by an educational institution of an electronic device, it can be trained as a manpower that can be immediately put into practice in an industrial field, which leads to an improvement in the employment rate of the educational institution and a socially economic ripple effect. It is a very advanced invention that expresses an effect that can bring about.
도 1 은 본 발명의 전자장치의 가상 매뉴얼 제공 시스템의 블록다이어그램,
도 2 는 본 발명의 전자장치의 가상 매뉴얼 제공 시스템을 이용한 교육 수행 상태를 나타내는 도면,
도 3 은 본 발명의 전자장치의 가상 매뉴얼 제공 방법의 플로우챠트,
도 4a 및 도 4b 는 본 발명의 전자장치의 가상 매뉴얼 제공 방법의 가상 교육 방법의 캘리브레이션 단계를 설명하는 개념도,
도 5 는 본 발명의 전자장치의 가상 매뉴얼 제공 방법의 캘리브레이션 단계의 상세 과정의 플로우챠트,
도 6a 내지 도 6i 는 본 발명의 전자장치의 가상 교육 과정에서 착용식 컴퓨터에 표시되는 증강현실 화면의 일례의 도면이다.1 is a block diagram of a system for providing a virtual manual of an electronic device of the present invention,
2 is a view showing a training performance state using the virtual manual provision system of the electronic device of the present invention,
3 is a flowchart of a method for providing a virtual manual of an electronic device of the present invention,
4A and 4B are conceptual diagrams illustrating calibration steps of a virtual education method of a method for providing a virtual manual of an electronic device of the present invention;
5 is a flowchart of a detailed process of a calibration step of a method for providing a virtual manual of an electronic device of the present invention,
6A to 6I are diagrams of an example of an augmented reality screen displayed on a wearable computer in a virtual training process of an electronic device of the present invention.
이하, 첨부 도면에 의거하여 본 발명의 증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법의 구성 및 작동을 상세하게 설명한다.Hereinafter, the configuration and operation of the virtual manual providing system and method of the augmented reality based electronic device of the present invention will be described in detail based on the accompanying drawings.
단, 도시된 도면들은 당업자에게 본 발명 사상이 충분하게 전달될 수 있도록 하기 위한 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 태양으로 구체화될 수도 있다.However, the illustrated drawings are provided as an example for sufficiently transmitting the spirit of the present invention to those skilled in the art. Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other aspects.
또한, 본 발명 명세서에서 사용되는 용어에 있어서 다른 정의가 없다면, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.In addition, unless otherwise defined in terms used in the specification of the present invention, those skilled in the art to which the present invention pertains have the meanings commonly understood, and the gist of the present invention in the following description and the accompanying drawings. Detailed descriptions of well-known functions and configurations that may be unnecessarily cloudy are omitted.
도 1 은 본 발명의 전자장치의 가상 매뉴얼 제공 시스템의 블록다이어그램이다.1 is a block diagram of a virtual manual provision system of an electronic device of the present invention.
본 발명의 전자장치의 가상 매뉴얼 제공 시스템(이하, '가상 매뉴얼 제공 시스템'이라 약칭한다)은, 착용식 컴퓨터가 제공하는 시선, 제스처, 음성 및 주변 환경을 인식하는 센서 및 3D 스캐닝, 고해상도 홀로그램 렌즈의 기능을 활용하여 교육 대상의 전자장치를 인식하여 데이터화함으로써 해당 전자장치의 교육을 수행하는 시스템이다.The virtual manual provision system of the electronic device of the present invention (hereinafter abbreviated as 'virtual manual provision system') is a sensor and 3D scanning, high resolution hologram lens that recognizes the gaze, gesture, voice, and surrounding environment provided by the wearable computer. It is a system that performs education of the electronic device by recognizing and converting the electronic device to be trained using the function of.
이를 위하여, 본 발명의 가상 매뉴얼 제공 시스템은, 교육 대상의 전자장치(50)를 인식하여 데이터화하고 통신망(20)을 통하여 서버(30)로부터 해당 전자장치(50)에 대한 교육용 매뉴얼 데이터를 전달받아 사용자에게 제공하는 착용식 컴퓨터(10)를 포함하는 구성을 특징으로 한다.To this end, the virtual manual providing system of the present invention recognizes and dataizes the
이때, 본 발명의 착용식 컴퓨터(10)는 마치 전자장치(50)에 외관을 데이터화시키는 작동을 수행하며, 이하, 이러한 작동을 본 발명 명세서에서 캘리브레이션(calibration)이라 지칭한다.At this time, the
본 발명의 착용식 컴퓨터(10)에 의하여 캘리브레이션되는 대상은 전자장치(50)의 케이스의 형상, 케이스 상에 부설된 조절 단자, 스위치, 노브(nob), 버튼 등의 각종 단자류와, 케이스 상에 부설된 디스플레이를 위한 표시창을 들 수 있다.The object to be calibrated by the
한편, 본 발명의 교육 대상이 되는 전자장치(50)는 도시된 바와 같이 무대 음향장치의 제어에 사용되는 음향제어기기(믹서) 뿐만 아니라 공작기기, 계측기, 시험기기, 테스터 기기 등의 모든 전자장치를 통칭한다.On the other hand, the
도 2 는 본 발명의 가상 매뉴얼 제공 시스템을 이용한 교육 수행 상태를 나타내는 도면으로서, 사용자(U)가 착용식 컴퓨터(10)를 착용한 상태에서 교육 대상의 전자장치(50)가 착용식 컴퓨터(10)에 의하여 홀로그램으로 표시되는 상태를 나타내고 있다. FIG. 2 is a diagram showing a training performance state using the virtual manual provision system of the present invention, in which the
상기 착용식 컴퓨터(10)는 해당 전자장치(50)를 캘리브레이션을 통하여 인식하고 데이터화함으로써 사용자(U)에게 해당 전자장치(50)의 교육용 매뉴얼 데이터를 전달하여 줄 수 있는 것이다.The
이때, 상기 착용식 컴퓨터(10)는 내장된 주변환경 인식센서(이미지센서 등)에 의한 공간맵핑(Spatial Mapping)을 수행하여 전자장치(50)의 주변의 공간 데이터를 생성하고, 생성된 공간데이터를 캘리브레이션된 전자장치(50)의 데이터와 통합하여 조건과 상황에 따라서 교육에 필요한 메뉴 및 도움말 데이터를 표시하여 줄 수 있다. 일례로, 도 2 에 도시된 도면에는 해당 전자장치(50)의 교육 데이터 중 하나인 '주파수를 조정하려면 해당 다이얼을 돌리세요'라는 도움말 데이터가 표시되고 있다.At this time, the
본 발명 실시예의 착용식 컴퓨터(10)는 머리에 쓰는 형태의 착용식 컴퓨터인 HMD(head mounted display)를 채용하였으며, 구체적으로, 미국의 마이크로소프트(Micro Soft)사의 제품인 상품명 홀로렌즈(Hololens)를 채용하였다.The
전술한 바와 같이, 상기 홀로렌즈는 O/S로써 윈도우10(Window 10)을 이용하며, 고해상도의 홀로그램 렌즈를 내장하고, 인간의 시선, 제스처(gesture), 음성 및 주변 환경을 인식할 수 있는 API(application programming interface)를 지원하며, 3D 스캐닝(scanning) 기능도 가능한 제품이며, 특히, 상술한 공간맵핑(Spatial Mapping) 기능을 기본적으로 수행할 수 있는 장비이다.As described above, the holo lens uses Windows 10 as an O / S, a high-resolution hologram lens is embedded, and an API capable of recognizing human gaze, gesture, voice, and surrounding environment It supports (application programming interface), and it is a product that can perform 3D scanning function. In particular, it is a device that can basically perform the above-described spatial mapping function.
또한, 착용식 컴퓨터(10)와 통신망(20)을 통하여 데이터를 송수신하는 서버(30)는 해당 전자장치(50)를 위한 교육용 매뉴얼 데이터를 연동된 데이터베이스(40)에 저장하고, 해당 전자장치(50)의 교육용 매뉴얼 데이터를 업데이트하여 최신의 데이터로 갱신한다.In addition, the
또한, 상기 서버(30)는 본 발명의 가상 매뉴얼 제공 시스템을 통한 서비스의 제공을 위하여, 착용식 컴퓨터(10)를 통하여 교육용 매뉴얼 데이터를 제공받는 사용자의 ID 와 비밀번호 및 신상정보와 같은 식별정보를 전달받아 데이터베이스(40)에 저장하고 관리한다.In addition, the
그리고, 상기 통신망(20)은 착용식 컴퓨터(10)와 서버(30) 사이에서 데이터의 송수신이 가능한 인터넷 등의 공지의 유무선 통신망이다.In addition, the
따라서, 상기와 같이 구성되는 본 발명의 가상 매뉴얼 제공 시스템은, 사용자가 착용식컴퓨터(10)를 착용하여 교육 대상의 전자장치(50)를 육안으로 보게 되면, 서버(30)로부터 통신망(20)을 통하여 착용식컴퓨터(10)에 해당 전자장치(50)를 위한 교육용 매뉴얼 데이터가 전달되어 표시되게 되며, 사용자는 표시된 교육용 매뉴얼 데이터를 통하여 해당 전자장치(50)의 각 부분/부품별 세부 명칭과 기능 및 사용법을 매뉴얼을 통하여 순차적으로 교육받을 수 있게 된다.Accordingly, in the virtual manual providing system of the present invention configured as described above, when a user wears the
이하, 상기와 같이 구성되는 본 발명의 가상 매뉴얼 제공 시스템에 의하여 구현되는 본 발명의 전자장치의 가상 교육 방법을 상세하게 설명한다. 도 3 은 본 발명의 가상 매뉴얼 제공 방법의 플로우챠트이다.Hereinafter, the virtual education method of the electronic device of the present invention implemented by the virtual manual providing system of the present invention configured as described above will be described in detail. 3 is a flowchart of a method for providing a virtual manual of the present invention.
본 발명의 전자장치의 가상 교육방법은, 착용식 컴퓨터가 제공하는 시선, 제스처, 음성 및 주변 환경을 인식하는 센서 및 3D 스캐닝, 고해상도 홀로그램 렌즈의 기능을 활용하여 교육 대상의 전자장치를 인식하여 데이터화함으로써 해당 전자장치의 교육을 수행하는 방법이다.The virtual education method of the electronic device of the present invention utilizes the functions of the sensor, 3D scanning, and high-resolution hologram lens that recognizes the gaze, gesture, voice, and surrounding environment provided by the wearable computer, and recognizes and dataizes the electronic device of the education object. By doing so, it is a method of conducting education of the corresponding electronic device.
이를 위하여, 본 발명의 가상 교육 방법은, 교육 대상의 전자장치(50)를 인식하여 데이터화하고 통신망(20)을 통하여 서버(30)로부터 해당 전자장치(50)에 대한 교육용 매뉴얼 데이터를 전달받아 사용자에게 제공하는 착용식 컴퓨터(10)에 의하여 수행된다.To this end, the virtual education method of the present invention recognizes and converts the
또한, 본 발명의 전자장치의 가상교육을 수행하기 위하여 서버(30)로부터 착용식 컴퓨터(10)로 기송부된 전자장치 교육용 어플리케이션 프로그램(application program)이 실행되어 각 단계들이 진행되는 것이 바람직하다.Also, in order to perform virtual education of the electronic device of the present invention, it is preferable that an application program for education of an electronic device transmitted from the
또한, 본 발명의 전자장치의 가상교육을 수행하기 위해서는 착용식 컴퓨터(10)가 교육 대상의 전자장치(50)를 보는 상태에서 교육이 수행되는 것이나, 반드시 전자장치(10)가 교육 현장에 실물로 존재하지 않아도 서버(30)로부터 전달되는 교육용 매뉴얼 데이터만 가지고도 교육이 이루어질 수 있다.In addition, in order to perform the virtual education of the electronic device of the present invention, the training is performed while the
먼저, 도 3 을 참조하면, 본 발명의 전자장치의 가상 매뉴얼 제공방법은, 사용자에 착용된 착용식 컴퓨터(10)가 통신망(20)을 경유하여 서버(30)에 로그인이 수행되는 단계(S10)와, 로그인에 필요한 사용자의 ID 및 비밀번호 등의 식별정보가 서버(30)에 입력되는 단계(S20)를 포함한다.First, referring to FIG. 3, a method for providing a virtual manual of an electronic device of the present invention includes a step in which a
도 6a 는 상기 로그인이 수행되는 단계에서 착용식 컴퓨터(10)에 홀로그램으로 표시되는 증강현실 화면의 일례를 나타내는 도면으로서, 사용자의 ID 및 비밀번호의 입력창이 표시되어 있다.6A is a diagram illustrating an example of an augmented reality screen displayed as a hologram on the
또한, 도 6b 는 상기 S20 단계의 로그인을 위한 식별정보를 입력하기 위한 증강현실 화면의 일례로서, 문자 패드와 숫자 키패드가 표시되어 있다.In addition, FIG. 6B is an example of an augmented reality screen for inputting identification information for login in step S20, and a character pad and a numeric keypad are displayed.
다음으로, 상기 S20 단계의 로그인이 수행되어 착용식 컴퓨터(10)가 서버(30)에 접속되며, 서버(30)는 통신망(20)을 통하여 해당 착용식컴퓨터(10)에 서버(30)로부터의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 전달한다(S30).Next, the login of step S20 is performed so that the
도 6c 는 상기 S30 단계에서의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 선택하는 증강현실 화면의 일례를 나타낸다.6C shows an example of an augmented reality screen for selecting a list of electronic devices capable of providing manual data for education in step S30.
그리고, 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면, 서버(30)는 선택된 전자장치의 교육을 위한 데이터가 최신의 교육용 매뉴얼 데이터인지 판단하여 해당 데이터를 업데이트(update)시킨다(S40).Then, when an electronic device desired to be trained is selected by the
상기의 교육용 매뉴얼 데이터의 업데이트는 서버(30)가 연동된 데이터베이스(40)를 검색하여 자체적으로 수행할 수도 있고, 사용자의 착용식컴퓨터(10)로 교육 데이터의 패치(patch) 데이터가 있음을 통지한 후 사용자의 패치 수행 요청에 따라서 이루어질 수도 있다.The update of the training manual data may be performed by searching the
도 6d 는 상기 S40 단계에서 교육용 매뉴얼 데이터의 패치 수행 요청을 선택하는 메뉴창을 나타내는 증강현실 화면의 일례를 나타낸다.6D shows an example of an augmented reality screen showing a menu window for selecting a request to perform a patch of training manual data in step S40.
이어서, 상기 착용식컴퓨터(10)는 교육 대상의 전자장치의 캘리브레이션(calibration)을 수행한다(S50).Subsequently, the
상기의 캘리브레이션의 수행은 교육 대상의 전자장치(50)에 외관을 데이터화시키는 것이며, 이때, 상기 착용식 컴퓨터(10)는 내장된 주변환경 인식센서(이미지센서 등)에 의한 공간 맵핑(Spatial Mapping)을 수행하여 전자장치(50)의 주변의 공간 데이터를 생성하고, 생성된 공간데이터를 캘리브레이션된 전자장치(50)의 교육용 매뉴얼 데이터와 통합하여 조건과 상황에 따라서 교육에 필요한 메뉴 및 도움말 데이터를 표시하여 줄 수 있게 된다.Performing the above calibration is to make the appearance of data on the
도 4a 및 도 4b 는 본 발명의 전자장치의 가상 매뉴얼 제공방법의 캘리브레이션 단계를 설명하는 개념도이다.4A and 4B are conceptual diagrams illustrating calibration steps of a method for providing a virtual manual of an electronic device of the present invention.
먼저, 도 4a 에 도시된 바와 같이, 본 발명의 착용식컴퓨터(10)에 의한 캘리브레이션은, 교육 대상의 전자장치(50)의 전체 외곽을 인식하고, 인식된 전자장치(50)의 전체 외곽을 트랙킹(tracking)하게 된다.First, as illustrated in FIG. 4A, the calibration by the
이러한 이유는 착용식컴퓨터(10)가 머리 부분에 착용되는 것임을 감안할 때 사용자의 머리의 움직임에 따라서 전자장치(50)의 표시가 X 축,Y 축 및 Z 축의 이동과 회전이 변화되어 실시간으로 사물의 좌표 추적시 지속적인 3D 스캐닝으로 인하여 전자장치(50)의 판별이 어려운 경우를 감안하여, 본 발명의 캘리브레이션 단계에서는 해당 전자장치(50)의 전체 외곽에 대하여 4 개 이하의 점(도 4a 에서 P1,P2,P3,P4)을 지정하여 사용자의 머리 움직임에 따라서 변형되는 물체의 외형을 지정함으로써, 프레임의 속도 저하에 영향을 미치는 3D 스캐닝의 수행을 최소화하게 된다.For this reason, considering that the
다음으로, 도 4b 에 도시된 바와 같이, 상기와 같이 전자장치(50)의 전체 외곽이 4 개의 점(P1,P2,P3,P4)을 통하여 인식되어 트랙킹이 가능한 상태로 되면, 본 발명의 착용식컴퓨터(10)에 의하여 전체 외관 인식된 전자장치(50)가 가지고 있는 케이스 상에 부설된 조절 단자, 스위치, 노브(nob) 등의 각종 단자류와, 케이스 상에 부설된 디스플레이를 위한 표시창 등의 소형 객체의 외곽을 인식하고(도 4b 에서 B1,B2,B3,B4), 인식된 소형 객체의 외곽에 대한 트랙킹(tracking)이 수행된다.Next, as shown in FIG. 4B, when the entire outer periphery of the
그리고, 서버(30)에 저장된 전자장치(50)의 주요 단자류의 위치와 크기 비율 정보를 이용하여 사용자의 머리 움직임에 따른 착용식 컴퓨터(10)의 시야각을 보정함으로써 전자장치(50)의 소형 객체들의 외곽을 보다 정확하게 인식할 수 있게 된다.And, by using the position and size ratio information of the main terminals of the
여기서, 착용식 컴퓨터(10)에 의한 시야각의 보정은, 초기 캘리브레이션이 수행된 전자장치의 외형값을 기준으로 현재 보여지는 전자장치의 이미지의 기울기의 각도를 산출하고, 서버(30)에 기설정된 해당 전자장치(50)의 소형 객체에 관한 정보 및 산출된 현재 보여지는 전자장치의 이미지의 기울기의 각도에 따라서 해당 전자장치(50)의 소형 객체에 대한 위치 및 크기에 대한 보정을 수행하게 된다.Here, the correction of the viewing angle by the
본 발명의 실시예에 의하면, 상기와 같은 착용식 컴퓨터(10)에 의한 캘리브레이션을 통하여 적어도 가로 10mm 및 세로 10mm 이상의 크기의 소형 객체를 인식하여 트래킹하는 것이 바람직하다.According to an embodiment of the present invention, it is preferable to recognize and track a small object having a size of at least 10 mm and 10 mm in length through calibration by the
도 5 는 본 발명의 전자장치의 가상 매뉴얼 제공방법의 캘리브레이션 단계의 상세 과정의 플로우챠트이다.5 is a flowchart of a detailed process of a calibration step of a method for providing a virtual manual of an electronic device of the present invention.
도면을 참조하면, 상기의 캘리브레이션을 수행하는 단계(S50)는, 착용식 컴퓨터(10)에 내장된 이미지센서 등의 주변환경 인식센서에 의하여 공간맵핑(Spatial Mapping)이 수행되는 단계(S51); 착용식컴퓨터(10)에 의하여 실제 진열된 전자장치(50)에 대한 전체 외곽 및 단자, 버튼, 디스플레이와 같은 소형 객체들의 외곽을 인식함으로써 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치들을 세팅하는 단계(S52); 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽 위치가 세팅되면 서버(30)에 저장된 전자장치(50)의 주요 단자류의 위치와 크기 비율 정보를 이용하여 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치와 크기 및 상술한 이미지의 기울기의 각도에 따른 외곽의 회전값을 보정하는 단계(S53)를 수행함으로써 이루어진다.Referring to the drawings, the step of performing the above-described calibration (S50) includes: Spatial Mapping is performed by a surrounding environment recognition sensor such as an image sensor built into the wearable computer 10 (S51); The overall outline of the
도 6e 는 상기의 캘리브레이션의 외곽을 보정하는 단계의 메뉴를 표시하는 증강현실 화면의 일례를 나타내는 것으로서, 위치(Position), 크기(Scale) 및 회전값(Rotate) 각각에 대하여 위치의 값을 조절하는 메뉴(X축,Y축,Z축 방향 UP,DOWN), 크기의 값을 조절하는 메뉴(UP,DOWN) 및 회전값을 조절하는 메뉴(시계방향, 반시계방향,UP/DlOWN)를 표시하고 있다.FIG. 6E shows an example of the augmented reality screen displaying a menu of the steps of correcting the outline of the calibration, and adjusting the position value for each of the position, size, and rotation. Displays the menu (X-axis, Y-axis, UP-DOWN in Z-axis direction), menu (UP, DOWN) for adjusting the value of size, and menu (clockwise, counter-clockwise, UP / DlOWN) for adjusting the rotation value. have.
그리고, 도 6f 는 캘리브레이션이 수행된 후 기본적인 버튼에 대한 안내가 표시되는 증강현실 화면의 일례를 나타낸다.In addition, FIG. 6F shows an example of an augmented reality screen in which guidance for a basic button is displayed after calibration is performed.
아울러, 상기와 같은 캘리브레이션을 수행하기 위하여, 시선 데이터에 따른 캘리브레이션 포지션을 조절하고, 위치, 크기 및 회전값을 미세조절하고, 캘리브레이션을 종료하고, 각종 메뉴들의 팝업을 초기화하거나 활성화하고, 시간 경과에 따라서 메뉴의 팝업을 비활성화하고, 홈 메인으로 접근하는 버추얼 UI 를 생성하고, 시선 데이터에 따른 UI 의 좌표를 이동하고, 제스쳐 매니저 초기화 및 관리 이벤트 발생과 이펙트 효과를 수행하고, 음성을 인식하는 등의 로직들이 착용식 컴퓨터(10)로 기송부된 전자장치 교육용 어플리케이션 프로그램(application program)에 의하여 수행되는 것이 바람직하며, 하기에 상기 로직들의 예시를 개조식으로 설명하기로 한다. 로직의 내용은 알고리즘 내용중에 기재된 지문을 참조한다.In addition, in order to perform the above-described calibration, the calibration position according to the gaze data is adjusted, the position, size, and rotation values are finely adjusted, the calibration is terminated, and pop-ups of various menus are initialized or activated, and over time. Therefore, it is possible to disable the pop-up of the menu, create a virtual UI that accesses the home main, move the coordinates of the UI according to the gaze data, initialize the gesture manager, perform management events, effect effects, and recognize speech. It is preferable that the logics are performed by an electronic device education application program transmitted to the
private void LateUpdate()
{
if(index == 0 && Application.platform != RuntimePlatform.WindowsEditor)
{
transform.position = cursor.position;//1. Spatial Mapping 에 의해 만들어진 공간에서 바라보고 있는 위치의 좌표 값
//메인카메라 위치와 1 의 위치의 각도값을 계산
Vector3 directionToTarget = Camera.main.transform.position - transform.position;
//directionToTarget.x = 0.0f;
if (directionToTarget.sqrMagnitude < 0.001f)
return;
//커서를 해당 각도에 맞게 수정
transform.rotation = Quaternion.LookRotation(-directionToTarget);
transform.eulerAngles = new Vector3(cursor.eulerAngles.x, transform.eulerAngles.y, transform.eulerAngles.z);
}
SetScale.cs
private void LateUpdate ()
{
if (index == 0 && Application.platform! = RuntimePlatform.WindowsEditor)
{
transform.position = cursor.position; // 1. The coordinate value of the position you are looking at in the space created by spatial mapping
// Calculate the angle value of the main camera position and the position of 1
Vector3 directionToTarget = Camera.main.transform.position-transform.position;
//directionToTarget.x = 0.0f;
if (directionToTarget.sqrMagnitude <0.001f)
return;
// Modify cursor to the angle
transform.rotation = Quaternion.LookRotation (-directionToTarget);
transform.eulerAngles = new Vector3 (cursor.eulerAngles.x, transform.eulerAngles.y, transform.eulerAngles.z);
}
public void SetRotate(ButtonClick btn)
{
//회전 시킬 값을 적용
targetObject.transform.Rotate(btn.posSend);
//현재 패널의 각도 값 x, y, z 을 표시
rotX.text = string.Format("{0}", (int)targetObject.transform.eulerAngles.x);
rotY.text = string.Format("{0}", (int)targetObject.transform.eulerAngles.y);
rotZ.text = string.Format("{0}", (int)targetObject.transform.eulerAngles.z);
}
public TextMesh posX, posY, posZ;
public void SetPosition(ButtonClick btn)
{
//이동 시킬 값을 적용
targetObject.transform.Translate(btn.posSend);
//현재 패널의 위치 값 x, y, z 를 표시
posX.text = string.Format("{0:F2}", targetObject.transform.position.x);
posY.text = string.Format("{0:F2}", targetObject.transform.position.y);
posZ.text = string.Format("{0:F2}", targetObject.transform.position.z);
}
public TextMesh sclX, sclY, sclZ;
public void SetScale(ButtonClick btn)
{
//패널의 크기 값을 적용
targetObject.transform.localScale += btn.posSend;
//현재 패널의 크기 값 x, y, z 를 표시
sclX.text = string.Format("{0:F2}", targetObject.transform.localScale.x);
sclY.text = string.Format("{0:F2}", targetObject.transform.localScale.y);
sclZ.text = string.Format("{0:F2}", targetObject.transform.localScale.z);CalibractionManager.cs
public void SetRotate (ButtonClick btn)
{
// Apply the value to rotate
targetObject.transform.Rotate (btn.posSend);
// Display the current panel's angle values x, y, z
rotX.text = string.Format ("{0}", (int) targetObject.transform.eulerAngles.x);
rotY.text = string.Format ("{0}", (int) targetObject.transform.eulerAngles.y);
rotZ.text = string.Format ("{0}", (int) targetObject.transform.eulerAngles.z);
}
public TextMesh posX, posY, posZ;
public void SetPosition (ButtonClick btn)
{
// Apply the value to move
targetObject.transform.Translate (btn.posSend);
// Display the current panel position values x, y, z
posX.text = string.Format ("{0: F2}", targetObject.transform.position.x);
posY.text = string.Format ("{0: F2}", targetObject.transform.position.y);
posZ.text = string.Format ("{0: F2}", targetObject.transform.position.z);
}
public TextMesh sclX, sclY, sclZ;
public void SetScale (ButtonClick btn)
{
// Apply the panel size value
targetObject.transform.localScale + = btn.posSend;
// Display the current panel size values x, y, z
sclX.text = string.Format ("{0: F2}", targetObject.transform.localScale.x);
sclY.text = string.Format ("{0: F2}", targetObject.transform.localScale.y);
sclZ.text = string.Format ("{0: F2}", targetObject.transform.localScale.z);
// 부모 transform 삭제
transform.parent = null;
p1.gameObject.SetActive(false);
p2.gameObject.SetActive(false);
// index 초기화
index = 0;
// 객체 비활성화
enabled = false;
// spatial mapping 종료
spatial.SetActive(false);
// 메뉴 보기
MenuManager.Instance.FrontPanel();
Setscale.cs
// delete parent transform
transform.parent = null;
p1.gameObject.SetActive (false);
p2.gameObject.SetActive (false);
// index initialization
index = 0;
// deactivate object
enabled = false;
// End spatial mapping
spatial.SetActive (false);
// View menu
MenuManager.Instance.FrontPanel ();
void Start()
{
Instance = this;//Instance 등록
gameObject.SetActive(false);//첫 실행시 비활성화
}
Popup.cs
//팝업을 설정합니다.
public void SetPopup(string desc, float time, bool useLimit, bool ViewProgress = false)
{
//내용, 보여지는 시간, 자동으로 사라지는 기능을 사용할것인지, 프로그래스 바를 보여줄것인지
isPlay = true;
tDesc.text = desc;//내용 설정
timeSum = 0;//합산시간
//useLimit == true 일 경우 최대 시간 설정
if (useLimit)
{
HIDE = true;
timeLimit = time;
}
progress.gameObject.SetActive(ViewProgress);//ViewProgress == true 일 경우 프로그래스바 표시
tPer.text = 0 + "%";//ViewProgress == true 일 경우 프로그래스바 의 % 표시
gameObject.SetActive(true);//팝업 표시
}
Popup.cs
void Start ()
{
Instance = this; // Instance registration
gameObject.SetActive (false); // disable on first run
}
Popup.cs
// Set the popup.
public void SetPopup (string desc, float time, bool useLimit, bool ViewProgress = false)
{
// Whether to use the content, the time to show, the function to disappear automatically, or to show the progress bar
isPlay = true;
tDesc.text = desc; // set content
timeSum = 0; // sum time
// Set maximum time when useLimit == true
if (useLimit)
{
HIDE = true;
timeLimit = time;
}
progress.gameObject.SetActive (ViewProgress); // show progress bar if ViewProgress == true
tPer.text = 0 + "%"; // ViewProgress == If true, display the progress bar%
gameObject.SetActive (true); // display popup
}
void Update () {
if (HIDE)
{
//최대시간 < 시작시 부터 합산된 시간
if (timeLimit < (timeSum += Time.deltaTime))
{
tPer.text = 100 + "%";
progress.value = 100;
isPlay = false;
gameObject.SetActive(false);//팝업 숨김
}
}
}Popup.cs
void Update () {
if (HIDE)
{
// Maximum time <Total time from start
if (timeLimit <(timeSum + = Time.deltaTime))
{
tPer.text = 100 + "%";
progress.value = 100;
isPlay = false;
gameObject.SetActive (false); // hide popup
}
}
}
//홈 메뉴로 돌아갑니다.
public void Home()
{
timeSum = 0;
transform.position = target.position;//메뉴가 보여질 위치를 지정
CHASE = false;
//리셋 포지션이 안되었을 경우에 숨길 메뉴를 설정
for (int i = 0; i < notSettingHideList.Length; i++)
notSettingHideList[i].SetActive(SetPanel.SETTING);
//홈 메뉴 이외의 메뉴를 숨김
for (int i = 0; i < hideHomeList.Length; i++)
hideHomeList[i].SetActive(false);
mainMenuList.SetActive(true);//홈 메뉴 리스트를 보여줍니다.
menuSpectrumAnalyzer.SetActive(false);//기기의 메뉴얼을 숨깁니다.
//패널을 숨깁니다.
if(ForotPanelManager.Instance != null)
ForotPanelManager.Instance.HideObject();
//MenuView();
gameObject.SetActive(true);//홈메뉴를 보여줍니다.
}MenuManager.cs
// Return to the home menu.
public void Home ()
{
timeSum = 0;
transform.position = target.position; // specify the position where the menu is displayed
CHASE = false;
// Set the menu to hide when the reset position is not
for (int i = 0; i <notSettingHideList.Length; i ++)
notSettingHideList [i] .SetActive (SetPanel.SETTING);
// Hide menus other than the home menu
for (int i = 0; i <hideHomeList.Length; i ++)
hideHomeList [i] .SetActive (false);
mainMenuList.SetActive (true); // Show the home menu list.
menuSpectrumAnalyzer.SetActive (false); // hide the device's manual.
// Hide the panel.
if (ForotPanelManager.Instance! = null)
ForotPanelManager.Instance.HideObject ();
// MenuView ();
gameObject.SetActive (true); // Show the home menu.
}
void LateUpdate()
{
if (anim !=null && anim.isPlaying)
return;
//포커스에 메뉴가 없을 경우 일정 시간 이후 포커스로 이동합니다.
if(GazeManager.Instance.focusedObject == null && CHASE)
{
//현 위치에서 포커스 사이의 거리를 계산
transform.position = Vector3.Lerp(toPos, target.position, (timeSum += Time.deltaTime) / duration);
//최대 이동 시간이 지나면 종료, 포커스 위치로 이동
if (timeSum >= duration)
{
timeSum = 0;
transform.position = target.position;
}
}
}MenuManager.cs
void LateUpdate ()
{
if (anim! = null && anim.isPlaying)
return;
// If there is no menu in focus, it moves to focus after a certain time
if (GazeManager.Instance.focusedObject == null && CHASE)
{
// Calculate the distance between the focus and the current position
transform.position = Vector3.Lerp (toPos, target.position, (timeSum + = Time.deltaTime) / duration);
// End when the maximum movement time has elapsed and move to the focus position
if (timeSum> = duration)
{
timeSum = 0;
transform.position = target.position;
}
}
}
void Start()
{
//제스처 매니저를 등록합니다.
gestureRecognizer = new GestureRecognizer();
gestureRecognizer.SetRecognizableGestures(GestureSettings.Tap);
//탭 이벤트 등록
gestureRecognizer.TappedEvent += GestureRecognizer_TappedEvent;
//제스처 매니저를 시작합니다.
gestureRecognizer.StartCapturingGestures();
}
public void TapEventEffect()
{
if (effect == null)
return;
//파티클 플레이
if (effect.isPlaying)
{
effect.Stop();//중지
effect.Clear();//초기화
}
effect.transform.position = transform.position;
//파티클의 위치 이동
effect.Play();//재생
}
GestureManager.cs
//탭 이벤트 가 발생했을 때 호출됩니다.
private void GestureRecognizer_TappedEvent(InteractionSourceKind source, int tapCount, Ray headRay)
{
//패널 위치 설정시 사용
if (scale != null)
{
//패널의 위치가 잡혀있지 않을 경우
if (MOVE_PANEL)
{
//PanelDrop();
MOVE_PANEL = !(scale.SetPoint());//위치를 지정합니다.
/*if (!MOVE_PANEL)
{
panel.ViewLayOut();
ForotPanelManager.Instance.SetTutorialMode(true);
}*/
}
}
//포커스가 오브젝트 위에 있을경우
if (focusedObject != null)
{
focusedObject.SendMessage("OnSelect");//해당 오브젝트로 메세지 호출
TapEventEffect();//해당 위치에 이팩트 발생
}
}GestureManager.cs
void Start ()
{
// Register gesture manager.
gestureRecognizer = new GestureRecognizer ();
gestureRecognizer.SetRecognizableGestures (GestureSettings.Tap);
// Tap event registration
gestureRecognizer.TappedEvent + = GestureRecognizer_TappedEvent;
// Start the gesture manager.
gestureRecognizer.StartCapturingGestures ();
}
public void TapEventEffect ()
{
if (effect == null)
return;
// Particle play
if (effect.isPlaying)
{
effect.Stop (); // stop
effect.Clear (); // initialize
}
effect.transform.position = transform.position;
// Move the particle position
effect.Play (); // Play
}
GestureManager.cs
// Called when a tab event occurs.
private void GestureRecognizer_TappedEvent (InteractionSourceKind source, int tapCount, Ray headRay)
{
// Used when setting the panel position
if (scale! = null)
{
// When the panel is not positioned
if (MOVE_PANEL)
{
// PanelDrop ();
MOVE_PANEL =! (Scale.SetPoint ()); // specify the location.
/ * if (! MOVE_PANEL)
{
panel.ViewLayOut ();
ForotPanelManager.Instance.SetTutorialMode (true);
} * /
}
}
// When the focus is on the object
if (focusedObject! = null)
{
focusedObject.SendMessage ("OnSelect"); // call message with that object
TapEventEffect (); // effect occurs at the location
}
}
void Start()
{
//음성인식에 사용될 키워드를 등록
keywords.Add("Reset Position", () =>
{
Debug.Log("Key Words Start : Reset Position");
MenuManager.Instance.ResetPosition();//해당 키워드가 인식이 되면 이 함수를 실행.
});
keywords.Add("Front Panel", () =>
{
Debug.Log("Key Words Start : Front Panel");
MenuManager.Instance.Features();
});
keywords.Add("View Manual", () =>
{
Debug.Log("Key Words Start : View Manual");
MenuManager.Instance.SpectrumAnalyzer();
});
keywords.Add("Tutorial List", () =>
{
Debug.Log("Key Words Start : Tutorial List");
MenuManager.Instance.listMenu[0].ViewPlay();
});
keywords.Add("Select Machine", () =>
{
Debug.Log("Key Words Start : Select Machine");
if (!MenuManager.Instance.mainMenuList.gameObject.active || !SetPanel.SETTING)
return;
?
MenuManager.Instance.ViewSelectMachine();
});
keywords.Add("Step Back", () =>
{
Debug.Log("Key Words Start : Tutorial Back");
Tutorial.BACK = true;
});
keywords.Add("Step Next", () =>
{
Debug.Log("Key Words Start : Tutorial Next");
Tutorial.NEXT = true;
});
//키워드를 등록하고 키워드의 이벤트를 등록하고 시작합니다.
keywordRecognizer = new KeywordRecognizer(keywords.Keys.ToArray());
keywordRecognizer.OnPhraseRecognized += KeywordRecognizer_OnPhraseRecognized;
keywordRecognizer.Start();
}
?
private void KeywordRecognizer_OnPhraseRecognized(PhraseRecognizedEventArgs args)
{
//등록된 키워드가 인식될 경우 호출됩니다.
System.Action keywordAction;
?
//인식된 키워드를 이용 검색.
if (keywords.TryGetValue(args.text, out keywordAction))
{
//지정해놓은 함수 호출
keywordAction.Invoke();
}
}KeywardManager.cs
void Start ()
{
// Register keywords to be used for speech recognition
keywords.Add ("Reset Position", () =>
{
Debug.Log ("Key Words Start: Reset Position");
MenuManager.Instance.ResetPosition (); // Run this function when the keyword is recognized.
});
keywords.Add ("Front Panel", () =>
{
Debug.Log ("Key Words Start: Front Panel");
MenuManager.Instance.Features ();
});
keywords.Add ("View Manual", () =>
{
Debug.Log ("Key Words Start: View Manual");
MenuManager.Instance.SpectrumAnalyzer ();
});
keywords.Add ("Tutorial List", () =>
{
Debug.Log ("Key Words Start: Tutorial List");
MenuManager.Instance.listMenu [0] .ViewPlay ();
});
keywords.Add ("Select Machine", () =>
{
Debug.Log ("Key Words Start: Select Machine");
if (! MenuManager.Instance.mainMenuList.gameObject.active || SetPanel.SETTING)
return;
?
MenuManager.Instance.ViewSelectMachine ();
});
keywords.Add ("Step Back", () =>
{
Debug.Log ("Key Words Start: Tutorial Back");
Tutorial.BACK = true;
});
keywords.Add ("Step Next", () =>
{
Debug.Log ("Key Words Start: Tutorial Next");
Tutorial.NEXT = true;
});
// Register keyword and register keyword event and start.
keywordRecognizer = new KeywordRecognizer (keywords.Keys.ToArray ());
keywordRecognizer.OnPhraseRecognized + = KeywordRecognizer_OnPhraseRecognized;
keywordRecognizer.Start ();
}
?
private void KeywordRecognizer_OnPhraseRecognized (PhraseRecognizedEventArgs args)
{
// Called when a registered keyword is recognized.
System.Action keywordAction;
?
// Search using recognized keywords.
if (keywords.TryGetValue (args.text, out keywordAction))
{
// call the specified function
keywordAction.Invoke ();
}
}
다음으로, 상기와 같이 캘리브레이션 단계(S40)가 수행된 이후, 착용식 컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시된다(S60).Next, after the calibration step S40 is performed as described above, the main menu for educating the corresponding electronic device is displayed on the wearable computer 10 (S60).
그리고, 메인 메뉴중 어느 하나의 메뉴가 선택됨에 따라서, 캘리브레이션돈 전자장치(50)의 화면상에서의 전체 외곽 및 소형 객체들의 외곽을 다시 미세조정하는 단계(S70)가 수행되거나, 전자장치의 버튼이나 단자류와 같은 소형 객체들의 기본정보를 열람하는 단계(S80)가 수행되거나, 전자장치의 조작 메뉴얼과 같은 데이터시트를 열람하는 단계(S90)가 수행되거나, 전자장치의 교육용 매뉴얼 데이터의 리스트의 표시를 신청하여(S100), 표시된 교육용 매뉴얼 데이터 리스트중 어느 하나의 항목의 리스트를 선택하고(S110), 선택된 리스트의 교육용 매뉴얼 데이터에 의하여 해당 전자장치에 대한 교육이 수행된다(S120). 교육이 종료되면(S130), 상기 S60 단계의 메인 메뉴를 표시하게 된다.Then, as any one of the main menus is selected, a step S70 of fine-adjusting the entire outline and the outlines of the small objects again on the screen of the calibration money
한편, 다른 전자장치를 선택하는 단계(S140)를 수행하면 S30 단계로 복귀하여 다른 전자장치를 선택할 수 있게 된다.On the other hand, if a step S140 of selecting another electronic device is performed, the process returns to step S30 to select another electronic device.
도 6g 는 상기 S60 단계의 메인메뉴를 표시하는 증강현실 화면의 일례를 나타내는 것으로서, '리셋 포지션(Reset Position)'은 상기의 S60 단계의 미세조정하는 단계를 선택하는 메뉴, '프론트 패널(Front Panel)'은 상기의 S70 단계의 소형 객체들의 기본정보를 열람하는 단계를 선택하는 메뉴, '뷰 메뉴얼(View Manual)'은 상기의 S80 단계의 데이터시트를 열람하는 단계를 선택하는 메뉴, '튜토리얼 리스트(Tutorial List)'는 상기의 S90 단계의 교육용 매뉴얼 데이터의 리스트를 표시하는 단계를 선택하는 메뉴, '셀렉트 머신(Select Machine)'은 상기의 다른 전자장치를 선택하는 단계를 선택하는 메뉴를 각각 나타내고 있다.FIG. 6G shows an example of the augmented reality screen displaying the main menu of step S60, wherein the 'Reset Position' is a menu for selecting the step of fine adjustment of step S60, 'Front Panel' ) 'Is a menu for selecting the step of viewing the basic information of the small objects in step S70,' View Manual 'is a menu for selecting the step of viewing the data sheet in step S80,' tutorial list ' (Tutorial List) 'is a menu for selecting a step of displaying a list of educational manual data in step S90, and' Select Machine 'represents a menu for selecting a step for selecting the other electronic device. have.
또한, 도 6h 는 상기 S110 단계에 따라서 교육용 매뉴얼 데이터 리스트를 선택하는 메뉴의 증강현실 화면의 일례를 나타낸다. 도시된 일례에는 해당 전자장치의 교육용 매뉴얼 데이터인 'MCU Pro'의 교육 데이터 및 'MCU Fader Alignment'의 교육 데이터중 하나를 선택하도록 하고 있다.6H shows an example of an augmented reality screen of a menu for selecting a manual data list for education according to step S110. In the illustrated example, one of the training data of the 'MCU Pro' and the training data of the 'MCU Fader Alignment', which are training manual data of the corresponding electronic device, are selected.
도 6i 는 상기 S120 단계에서의 해당 전자장치에 대한 교육이 수행될 경우의 해당 전자장치의 전체 외관 및 버튼이나 단자류와 같은 소형 객체들의 외관이 증강현실로 표시된 화면의 일례를 나타낸다.FIG. 6I shows an example of a screen in which the overall appearance of the corresponding electronic device and the appearance of small objects such as buttons or terminals are displayed as augmented reality when education for the corresponding electronic device is performed in step S120.
즉, 사용자가 착용식컴퓨터(10)를 머리에 착용하고, 본 발명의 전자장치의 가상 교육 방법을 수행하기 위한 어플리케이션 프로그램을 실행시킨 상태에서, 착용식컴퓨터(10)에서 제공하는 기능인 아이 트랙킹(eye-tracking) 기능과 제스쳐(gesture) 인식기능을 이용하여 상술한 S10 단계 내지 S140 단계의 각 메뉴를 선택하여 본 발명의 전자장치의 가상 교육 방법을 수행하게 되는 것이다.That is, in the state in which the user wears the
한편, 본 발명의 착용식컴퓨터(10)에 제공되는 전자장치의 교육 과정에서 사용자가 교육과정을 통하여 산출한 결과값을 표준의 데이터와 실시간으로 분석하여 해당 전자장치의 기능을 완전하게 숙지하였는지의 자가 진단도 가능하게 함이 바람직하다.On the other hand, in the training process of the electronic device provided to the
아울러, 상기의 본 발명의 전자장치의 가상 매뉴얼 제공방법의 각 단계를 수록한 컴퓨터 프로그램을 저장한 기록매체의 태양으로도 실시가능하다.In addition, the present invention can also be implemented as an aspect of a recording medium storing a computer program in which each step of the method for providing a virtual manual of the electronic device of the present invention is stored.
* 도면의 주요 부분에 대한 부호의 설명 *
10; 착용식 컴퓨터
20; 통신망
30; 서버
40; 데이터베이스
50; 전자장치* Explanation of reference numerals for main parts of drawings *
10; Wearable computer
20; communications network
30; server
40; Database
50; Electronics
Claims (15)
서버(30)가 통신망(20)을 통하여 착용식컴퓨터(10)에 서버(30)로부터의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 전달하는 단계(S30);
상기 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면, 상기 착용식컴퓨터(10)는 교육 대상의 전자장치(50)의 외관을 데이터화시켜 캘리브레이션(calibration)을 수행하는 단계(S50);
상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60);
상기 착용식컴퓨터(10)에 의하여 전자장치의 교육용 매뉴얼 데이터의 리스트중 어느 하나의 항목의 리스트가 선택되는 단계(S110);
선택된 리스트의 교육용 매뉴얼 데이터에 의하여 증강현실을 기반으로 하는 해당 전자장치에 대한 교육이 수행되는 단계(S120); 를 포함하여 구성되고,
상기 착용식컴퓨터(10)는 교육 대상의 전자장치(50)의 외관을 데이터화시켜 캘리브레이션(calibration)을 수행하는 단계(S50);는,
착용식 컴퓨터(10)에 내장된 주변환경 인식센서에 의하여 공간맵핑(Spatial Mapping)이 수행되는 단계(S51);
착용식컴퓨터(10)에 의하여 전자장치(50)에 대한 전체 외곽 및 소형 객체들의 외곽을 인식함으로써 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치들을 세팅하는 단계(S52);
전자장치(50)의 전체 외곽 및 소형 객체들의 외곽 위치가 세팅되면 서버(30)에 저장된 전자장치(50)의 소형 객체들의 위치와 크기 비율 정보를 이용하여 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치와 크기 및 이미지의 기울기의 각도에 따른 외곽의 회전값을 보정하는 단계(S53);를 수행하는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
It is a method for providing a virtual manual of the electronic device 50 performed by the wearable computer 10 performing data transmission and reception through the server 30 and the communication network 20,
A step in which the server 30 transmits a list of electronic devices capable of providing training manual data from the server 30 to the wearable computer 10 through the communication network 20 (S30);
When an electronic device desired to be educated by the wearable computer 10 is selected, the wearable computer 10 performs calibration by dataizing the appearance of the electronic device 50 to be trained (calibration) S50);
A step in which a main menu for educating the corresponding electronic device is displayed on the wearable computer 10 (S60);
Selecting a list of any one item from a list of training manual data of the electronic device by the wearable computer 10 (S110);
Step of performing education on the corresponding electronic device based on augmented reality by the training manual data of the selected list (S120); It comprises,
The wearable computer 10 is a step (S50) of performing an calibration by dataizing the appearance of the electronic device 50 to be educated (S50);
Spatial Mapping is performed by a surrounding environment recognition sensor embedded in the wearable computer 10 (S51);
Setting positions of the entire outer periphery of the electronic device 50 and the outer peripheries of the small objects by recognizing the outer perimeter and the outer perimeters of the small objects by the wearable computer 10 (S52);
When the entire outer outline of the electronic device 50 and the outer positions of the small objects are set, the entire outline and the small size of the electronic device 50 using the location and size ratio information of the small objects of the electronic device 50 stored in the server 30 A method of providing a virtual manual for an electronic device, characterized in that it is performed by correcting the rotation value of the outline according to the position and size of the outline of the objects and the angle of the inclination of the image.
7. The method of providing a virtual manual for an electronic device according to claim 6, wherein the electronic device education application program transmitted from the server (30) to the wearable computer (10) is executed and education is performed.
S30 단계 이후 상기 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면,
상기 서버(30)는 선택된 전자장치의 교육을 위한 매뉴얼 데이터가 최신의 교육용 매뉴얼 데이터인지 판단하여 해당 데이터를 업데이트시키는 단계(S40); 를 더 포함하여 구성되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method of claim 6,
After the step S30, if the electronic device desired to be educated by the wearable computer 10 is selected,
The server 30 determines whether the manual data for training of the selected electronic device is the latest training manual data and updates the corresponding data (S40); A method for providing a virtual manual of an electronic device, characterized in that further comprises a.
상기 캘리브레이션된 전자장치(50)의 화면상에서의 전체 외곽 및 소형 객체들의 외곽을 다시 미세조정하는 단계(S70)가 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method according to claim 6, wherein after the step (S60) of displaying the main menu for educating the corresponding electronic device on the wearable computer 10,
A method of providing a virtual manual for the electronic device, characterized in that the step (S70) of fine-adjusting the entire outline and the outlines of the small objects on the screen of the calibrated electronic device 50 is performed again.
전자장치의 버튼이나 단자류와 같은 소형 객체들의 기본정보를 열람하는 단계(S80)가 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method according to claim 6, wherein after the step (S60) of displaying the main menu for educating the corresponding electronic device on the wearable computer 10,
A method of providing a virtual manual for an electronic device, characterized in that a step (S80) of reading basic information of small objects such as buttons or terminals of the electronic device is performed.
전자장치의 데이터시트를 열람하는 단계(S90)가 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method according to claim 6, wherein after the step (S60) of displaying the main menu for educating the corresponding electronic device on the wearable computer 10,
A method of providing a virtual manual for an electronic device, characterized in that the step (S90) of reading the data sheet of the electronic device is performed.
서버(30)가 통신망(20)을 통하여 착용식컴퓨터(10)에 서버(30)로부터의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 전달하는 단계(S30);
상기 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면, 상기 착용식컴퓨터(10)는 교육 대상의 전자장치(50)의 외관을 데이터화시켜 캘리브레이션(calibration)을 수행하는 단계(S50);
상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60);
상기 착용식컴퓨터(10)에 의하여 전자장치의 교육용 매뉴얼 데이터의 리스트중 어느 하나의 항목의 리스트가 선택되는 단계(S110);
선택된 리스트의 교육용 매뉴얼 데이터에 의하여 증강현실을 기반으로 하는 해당 전자장치에 대한 교육이 수행되는 단계(S120); 를 포함하여 구성되고,
상기 선택된 리스트의 교육용 매뉴얼 데이터에 의하여 증강현실을 기반으로 하는 해당 전자장치에 대한 교육이 수행되는 단계(S120)에서,
사용자가 교육과정을 통하여 산출한 결과값을 표준 데이터와 실시간으로 분석하여 해당 전자장치의 기능을 완전하게 숙지하였는지의 자가 진단을 수행하는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
It is a method for providing a virtual manual of the electronic device 50 performed by the wearable computer 10 performing data transmission and reception through the server 30 and the communication network 20,
A step in which the server 30 transmits a list of electronic devices capable of providing training manual data from the server 30 to the wearable computer 10 through the communication network 20 (S30);
When an electronic device desired to be educated by the wearable computer 10 is selected, the wearable computer 10 performs calibration by dataizing the appearance of the electronic device 50 to be trained (calibration) S50);
A step in which a main menu for educating the corresponding electronic device is displayed on the wearable computer 10 (S60);
Selecting a list of any one item from a list of training manual data of the electronic device by the wearable computer 10 (S110);
Step of performing education on the corresponding electronic device based on augmented reality by the training manual data of the selected list (S120); It comprises,
In the step (S120) of training for the corresponding electronic device based on augmented reality according to the training manual data of the selected list,
A method of providing a virtual manual for an electronic device, characterized in that the user performs a self-diagnosis on whether to fully understand the function of the corresponding electronic device by analyzing the result value calculated through the training course in real time with standard data.
전자장치의 가상 매뉴얼 제공방법을 수행하기 위한 어플리케이션 프로그램을 실행시킨 상태에서,
상기 착용식컴퓨터(10)에서 제공하는 기능인 아이 트랙킹(eye-tracking) 기능과 제스쳐(gesture) 인식기능을 이용하여 착용식컴퓨터(10)가 제공되는 메뉴들이 선택되는 구성을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method of claim 7, wherein the wearable computer 10 is worn on the user's head,
In the state that the application program for performing the virtual manual provision method of the electronic device is executed,
The electronic device is characterized in that the menus provided by the wearable computer 10 are selected using the eye-tracking function and the gesture recognition function provided by the wearable computer 10. How to provide a virtual manual.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170172616A KR102092290B1 (en) | 2017-12-14 | 2017-12-14 | Providing system for a virtual manual of electronic device based on the agmented reality and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170172616A KR102092290B1 (en) | 2017-12-14 | 2017-12-14 | Providing system for a virtual manual of electronic device based on the agmented reality and method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190071514A KR20190071514A (en) | 2019-06-24 |
KR102092290B1 true KR102092290B1 (en) | 2020-03-23 |
Family
ID=67056280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170172616A KR102092290B1 (en) | 2017-12-14 | 2017-12-14 | Providing system for a virtual manual of electronic device based on the agmented reality and method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102092290B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102649380B1 (en) * | 2021-11-22 | 2024-03-21 | 주식회사 티엠솔루션스 | Switchboard maintenance system based on augmented reality |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101195446B1 (en) * | 2012-01-26 | 2012-12-24 | 이에스이 주식회사 | A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101730881B1 (en) * | 2010-04-21 | 2017-04-27 | 엘지전자 주식회사 | Augmented Remote Controller and Method of Operating the Same |
KR101609064B1 (en) * | 2014-09-15 | 2016-04-04 | 원혁 | Interactive guide using augmented reality |
-
2017
- 2017-12-14 KR KR1020170172616A patent/KR102092290B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101195446B1 (en) * | 2012-01-26 | 2012-12-24 | 이에스이 주식회사 | A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20190071514A (en) | 2019-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106471442B (en) | The user interface control of wearable device | |
Carmigniani et al. | Augmented reality technologies, systems and applications | |
US10257423B2 (en) | Method and system for determining proper positioning of an object | |
EP4342196A1 (en) | Beacons for localization and content delivery to wearable devices | |
US20130154913A1 (en) | Systems and methods for a gaze and gesture interface | |
CA2718441C (en) | Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor | |
CN108038726B (en) | Article display method and device | |
US11132069B2 (en) | Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations | |
US11526273B2 (en) | Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations | |
EP3966715A1 (en) | Systems and methods for obfuscating user selections | |
US20200356263A1 (en) | Systems and methods for obscuring touch inputs to interfaces promoting obfuscation of user selections | |
Köpsel et al. | Effects of auditory, haptic and visual feedback on performing gestures by gaze or by hand | |
JP2021524971A (en) | Displaying physical input devices as virtual objects | |
US20200356262A1 (en) | Systems and methods for obfuscating user navigation and selections directed by free-form input | |
JP2017134558A (en) | Information processor, information processing method, and computer-readable recording medium recorded with program | |
US20230256297A1 (en) | Virtual evaluation tools for augmented reality exercise experiences | |
CN103752010B (en) | For the augmented reality covering of control device | |
KR102092290B1 (en) | Providing system for a virtual manual of electronic device based on the agmented reality and method therefor | |
CN109643182B (en) | Information processing method and device, cloud processing equipment and computer program product | |
CN112650391A (en) | Human-computer interaction method, device and equipment based on virtual reality and storage medium | |
CN108700915A (en) | It is automatically aligned to device for virtual reality display | |
KR20180044613A (en) | Natural user interface control method and system base on motion regocnition using position information of user body | |
CN106990843B (en) | Parameter calibration method of eye tracking system and electronic equipment | |
WO2022240829A1 (en) | Virtual guided fitness routines for augmented reality experiences | |
Zhang et al. | Physics-inspired input method for near-field mixed reality applications using latent active correction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |