KR102092290B1 - Providing system for a virtual manual of electronic device based on the agmented reality and method therefor - Google Patents

Providing system for a virtual manual of electronic device based on the agmented reality and method therefor Download PDF

Info

Publication number
KR102092290B1
KR102092290B1 KR1020170172616A KR20170172616A KR102092290B1 KR 102092290 B1 KR102092290 B1 KR 102092290B1 KR 1020170172616 A KR1020170172616 A KR 1020170172616A KR 20170172616 A KR20170172616 A KR 20170172616A KR 102092290 B1 KR102092290 B1 KR 102092290B1
Authority
KR
South Korea
Prior art keywords
electronic device
wearable computer
manual
providing
data
Prior art date
Application number
KR1020170172616A
Other languages
Korean (ko)
Other versions
KR20190071514A (en
Inventor
장문수
김문석
김태선
장영준
이정진
원대연
윤성현
서미진
허소정
백수진
Original Assignee
주식회사 엔터리얼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엔터리얼 filed Critical 주식회사 엔터리얼
Priority to KR1020170172616A priority Critical patent/KR102092290B1/en
Publication of KR20190071514A publication Critical patent/KR20190071514A/en
Application granted granted Critical
Publication of KR102092290B1 publication Critical patent/KR102092290B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Computer Graphics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 증강현실을 기반으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것으로서, 보다 상세하게는, 매뉴얼 제공 대상의 전자장치를 인식하여 데이터화하고 통신망을 통하여 서버로부터 해당 전자장치에 대한 교육용 매뉴얼 데이터를 전달받아 증강현실을 기반으로 해당 교육용 매뉴얼 데이터를 사용자에게 제공하는 착용식 컴퓨터를 포함하여 구성되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것이다.The present invention relates to a system for providing a virtual manual for an electronic device based on augmented reality and a method for providing a virtual manual, and more specifically, to recognize and data an electronic device for which a manual is provided, and transmit it from a server to a corresponding electronic device through a communication network. The present invention relates to a system for providing a virtual manual for an electronic device and a method for providing a virtual manual, comprising a wearable computer that provides training manual data to a user based on augmented reality by receiving training manual data for Korea.

Description

증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법{Providing system for a virtual manual of electronic device based on the agmented reality and method therefor}Providing system for a virtual manual of electronic device based on the agmented reality and method therefor}

본 발명은 증강현실을 기반으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것으로서, 보다 상세하게는, 매뉴얼 제공 대상의 전자장치를 인식하여 데이터화하고 통신망을 통하여 서버로부터 해당 전자장치에 대한 교육용 매뉴얼 데이터를 전달받아 증강현실을 기반으로 해당 교육용 매뉴얼 데이터를 사용자에게 제공하는 착용식 컴퓨터를 포함하여 구성되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법에 관한 것이다.The present invention relates to a system for providing a virtual manual for an electronic device based on augmented reality and a method for providing a virtual manual, and more specifically, to recognize and data an electronic device for which a manual is provided, and transmit it from a server to a corresponding electronic device through a communication network. The present invention relates to a system for providing a virtual manual for an electronic device and a method for providing a virtual manual, comprising a wearable computer that provides training manual data to a user based on augmented reality by receiving training manual data for Korea.

일반적으로, 증강현실(Agmented reality)이란 사용자가 육안으로 보는 현실공간에 가상의 물체를 겹쳐서 표시하여 주는 기술을 가리킨다.In general, augmented reality (Agmented reality) refers to a technology that displays a virtual object superimposed on the real space that the user sees with the naked eye.

· 증강현실은 현실 공간에 실시간으로 부가정보를 가지는 가상의 정보를 합쳐서 영상으로 표시하여 주므로 혼합현실(Mixed Reality)이라고도 지칭되며, 관련 연구가 계속하여 발전하고 있는 추세이다.Augmented reality is also referred to as mixed reality because it displays virtual information that has additional information in real time in the real space, and is also referred to as mixed reality, and the related research continues to develop.

증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하나 컴퓨터 그래픽은 현실 환경에 필요한 정보를 추가적으로 제공하는 역할을 함으로써 보다 나은 현실감과 부가 정보를 제공할 수 있다. Augmented reality uses a virtual environment made of computer graphics, but computer graphics can provide better realism and additional information by providing additional information necessary for the real environment.

이러한 증강 현실 기술은 상점의 정보 제공 서비스, 원격의료진단, 게임 분야 등에서 활발하게 응용되고 있으며, 증강현실을 실외에서 실현하기 위하여 착용식 컴퓨터(wearable computer)도 개발되고 있다.These augmented reality technologies are actively applied in information providing services of stores, telemedicine diagnosis, and games, and wearable computers have also been developed to realize augmented reality outdoors.

특히, 머리에 쓰는 형태의 착용식 컴퓨터는 사용자가 보는 실제환경에 컴퓨터 그래픽·문자 등을 겹쳐 실시간으로 보여줌으로써 증강현실을 가능하게 한다.In particular, a wearable computer in the form of a head is capable of augmented reality by displaying computer graphics and characters in real time by superimposing on the real environment viewed by the user.

이렇게 머리에 쓰는 형태의 착용식 컴퓨터를 HMD(head mounted display)라 부르며, 상품화된 것으로서는 미국의 마이크로소프트(Micro Soft)사의 제품인 상품명 홀로렌즈(Hololens)를 들 수 있다. The wearable computer in the form of a head is called a head mounted display (HMD), and as a commercialized product, there is a product of the United States Microsoft (Micro Soft), a brand name, Hollens (Hololens).

홀로렌즈는 O/S 로써 윈도우10(Window 10)을 이용하며, 고해상도의 홀로그램 렌즈를 내장하고, 인간의 시선, 제스처(gesture), 음성 및 주변 환경을 인식할 수 있는 API(application programming interface)를 지원하며, 3D 스캐닝(scanning) 기능도 가능한 제품이다.The holo lens uses Windows 10 as an O / S, has a high-resolution hologram lens, and provides an API (application programming interface) that can recognize human eyes, gestures, voice, and surroundings. Supported, 3D scanning function is also available.

그러나, 각종 산업현장에서 이용되는 전자장치를 증강현실과 상호작용하여 실무 및 교육에 사용하는 수준의 기술은 개발되지 않은 실정이다.However, the level of technology used for practical and educational interactions with augmented reality by interacting with electronic devices used in various industrial sites has not been developed.

전자장치의 조작이나 유지 보수에 필요한 정보를 증강현실을 이용하게 되면 사용자가 실제 장비를 보면서 작업에 필요한 정보를 즉시 획득할 수 있는 장점이 있어, 미국의 보잉사에서는 증강현실 기술을 이용하여 항공기의 전선 조립을 보조하는 시스템을 자체 개발하여 현장에서 시험 운영하고 있으며, 독일의 BMW 사는 자동차를 조립하기 위해 증강현실을 기반으로 교육 시스템을 자체 개발 및 시험 운영하고 있는 실정이다.When augmented reality is used for information necessary for operation or maintenance of electronic devices, the user can immediately obtain information necessary for work while looking at actual equipment, and Boeing in the United States uses augmented reality technology to The system that assists with the assembly of electric wires has been developed and tested in the field, and the German BMW company has developed and tested an educational system based on augmented reality to assemble a car.

그러므로, 이처럼 산업현장에서 응용되고 있는 증강현실 기술을 이용하여 산업현장에서 사용되는 전자장치의 교육 및 실무 적용을 위한 교육용 매뉴얼 제공 시스템을 개발해야 될 필요성이 절실한 상황이다. Therefore, there is an urgent need to develop an educational manual providing system for educational and practical application of electronic devices used in industrial sites by using augmented reality technology applied in industrial fields.

한편, 증강현실을 이용한 기술로서 대한민국특허 제 957470 호의 증강현실을 이용한 수술로봇 시스템 및 그 제어방법의 기술이 공지되어 있다.On the other hand, as a technique using augmented reality, a technique of a surgical robot system using the augmented reality of Korean Patent No. 957470 and a control method thereof are known.

본 발명은 상술한 바와 같은 종래의 제반 문제점을 해소하기 위하여 창안된 것으로서, 증강현실 기술을 이용하여 각종 산업현장에서 이용되는 전자장치에 대한 매뉴얼을 제공하여 줌으로써 전자장치의 교육 및 실무 적용을 수행할 수 있는 증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법을 제공한다. The present invention was devised to solve the above-mentioned problems as described above, and provides education and practical application of electronic devices by providing manuals for electronic devices used in various industrial sites using augmented reality technology. It provides a virtual manual providing system and method for augmented reality based electronic devices.

상기와 같은 기술적 과제를 달성하기 위한 본 발명의 전자장치의 가상 매뉴얼 제공 시스템 및 가상 매뉴얼 제공방법은, 매뉴얼 제공 대상의 전자장치를 인식하여 데이터화하고 통신망을 통하여 서버로부터 해당 전자장치에 대한 교육용 매뉴얼 데이터를 전달받아 증강현실을 기반으로 해당 교육용 매뉴얼 데이터를 사용자에게 제공하는 착용식 컴퓨터를 포함하여 구성되는 것을 특징으로 한다.The system for providing a virtual manual of the electronic device of the present invention and a method for providing the virtual manual for achieving the above technical problem are recognized and dataized by the electronic device for manual provision, and training manual data for the corresponding electronic device from a server through a communication network. It is characterized in that it comprises a wearable computer that provides the user with the corresponding training manual data based on augmented reality.

상기와 같이 구성되는 본 발명의 증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법은, 머리에 쓰는 착용식 컴퓨터가 제공하는 센서들과 기능들을 활용하여 전자장치의 크기나 기능에 관계없이 다양한 형태의 전자장치의 하드웨어를 인식하고 이와 상호 작용하게 되는 일련의 과정(본 발명에서 이를 캘리브레이션이라 지칭)을 통하여 전자장치의 사용법을 쉽게 익힐 수 있으며 이로 인하여 전자장치의 교육 및 실무 적용을 단시간내에 수행할 수 있게 되었다.The virtual manual provision system and method of the augmented reality-based electronic device of the present invention configured as described above, utilizes sensors and functions provided by the wearable computer worn on the head, regardless of the size or function of the electronic device. It is easy to learn how to use the electronic device through a series of processes (referred to as calibration in the present invention) that recognizes and interacts with the hardware of the electronic device in the form, thereby performing education and practical application of the electronic device within a short time. I can do it.

또한, 본 발명의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법은 전자장치가 설치된 환경에 구애받지 않고 교육 및 실무 적용을 실시할 수 있게 되어 해당 기기의 실무자의 초기 실무 도입 기간 및 교육 비용을 절감할 수 있게 된다.In addition, the system and method for providing a virtual manual of the electronic device of the present invention can perform training and practical application regardless of the environment in which the electronic device is installed, thereby reducing the initial operation introduction period and training cost of practitioners of the device. It becomes possible.

또한, 본 발명은 서버에 등록된 다양한 전자장치들의 정보를 다운로드 받아서 교육에 활용할 수 있기 때문에 1 대의 착용식 컴퓨터로도 여러 가지 전자장치들의 사용법을 숙지할 수 있으며 다양한 기기들의 가상 매뉴얼로도 활용할 수 있는 효과가 있다. In addition, since the present invention can download and use information of various electronic devices registered on the server for education, it is possible to learn how to use various electronic devices with one wearable computer and use it as a virtual manual for various devices. It has an effect.

또한, 전자장치의 교육 기관에서 본 발명의 교육 시스템을 활용하게 되면, 산업 현장에서 즉시 실무에 투입될 수 있는 인력으로 양성할 수 있게 되며, 이는 해당 교육 기관의 취업률 향상으로 이어져 사회적으로 경제적 파급 효과를 가져올 수 있는 효과를 발현하는 매우 진보한 발명인 것이다.In addition, if the educational system of the present invention is utilized by an educational institution of an electronic device, it can be trained as a manpower that can be immediately put into practice in an industrial field, which leads to an improvement in the employment rate of the educational institution and a socially economic ripple effect. It is a very advanced invention that expresses an effect that can bring about.

도 1 은 본 발명의 전자장치의 가상 매뉴얼 제공 시스템의 블록다이어그램,
도 2 는 본 발명의 전자장치의 가상 매뉴얼 제공 시스템을 이용한 교육 수행 상태를 나타내는 도면,
도 3 은 본 발명의 전자장치의 가상 매뉴얼 제공 방법의 플로우챠트,
도 4a 및 도 4b 는 본 발명의 전자장치의 가상 매뉴얼 제공 방법의 가상 교육 방법의 캘리브레이션 단계를 설명하는 개념도,
도 5 는 본 발명의 전자장치의 가상 매뉴얼 제공 방법의 캘리브레이션 단계의 상세 과정의 플로우챠트,
도 6a 내지 도 6i 는 본 발명의 전자장치의 가상 교육 과정에서 착용식 컴퓨터에 표시되는 증강현실 화면의 일례의 도면이다.
1 is a block diagram of a system for providing a virtual manual of an electronic device of the present invention,
2 is a view showing a training performance state using the virtual manual provision system of the electronic device of the present invention,
3 is a flowchart of a method for providing a virtual manual of an electronic device of the present invention,
4A and 4B are conceptual diagrams illustrating calibration steps of a virtual education method of a method for providing a virtual manual of an electronic device of the present invention;
5 is a flowchart of a detailed process of a calibration step of a method for providing a virtual manual of an electronic device of the present invention,
6A to 6I are diagrams of an example of an augmented reality screen displayed on a wearable computer in a virtual training process of an electronic device of the present invention.

이하, 첨부 도면에 의거하여 본 발명의 증강현실 기반의 전자장치의 가상 매뉴얼 제공 시스템 및 그 방법의 구성 및 작동을 상세하게 설명한다.Hereinafter, the configuration and operation of the virtual manual providing system and method of the augmented reality based electronic device of the present invention will be described in detail based on the accompanying drawings.

단, 도시된 도면들은 당업자에게 본 발명 사상이 충분하게 전달될 수 있도록 하기 위한 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 태양으로 구체화될 수도 있다.However, the illustrated drawings are provided as an example for sufficiently transmitting the spirit of the present invention to those skilled in the art. Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other aspects.

또한, 본 발명 명세서에서 사용되는 용어에 있어서 다른 정의가 없다면, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.In addition, unless otherwise defined in terms used in the specification of the present invention, those skilled in the art to which the present invention pertains have the meanings commonly understood, and the gist of the present invention in the following description and the accompanying drawings. Detailed descriptions of well-known functions and configurations that may be unnecessarily cloudy are omitted.

도 1 은 본 발명의 전자장치의 가상 매뉴얼 제공 시스템의 블록다이어그램이다.1 is a block diagram of a virtual manual provision system of an electronic device of the present invention.

본 발명의 전자장치의 가상 매뉴얼 제공 시스템(이하, '가상 매뉴얼 제공 시스템'이라 약칭한다)은, 착용식 컴퓨터가 제공하는 시선, 제스처, 음성 및 주변 환경을 인식하는 센서 및 3D 스캐닝, 고해상도 홀로그램 렌즈의 기능을 활용하여 교육 대상의 전자장치를 인식하여 데이터화함으로써 해당 전자장치의 교육을 수행하는 시스템이다.The virtual manual provision system of the electronic device of the present invention (hereinafter abbreviated as 'virtual manual provision system') is a sensor and 3D scanning, high resolution hologram lens that recognizes the gaze, gesture, voice, and surrounding environment provided by the wearable computer. It is a system that performs education of the electronic device by recognizing and converting the electronic device to be trained using the function of.

이를 위하여, 본 발명의 가상 매뉴얼 제공 시스템은, 교육 대상의 전자장치(50)를 인식하여 데이터화하고 통신망(20)을 통하여 서버(30)로부터 해당 전자장치(50)에 대한 교육용 매뉴얼 데이터를 전달받아 사용자에게 제공하는 착용식 컴퓨터(10)를 포함하는 구성을 특징으로 한다.To this end, the virtual manual providing system of the present invention recognizes and dataizes the electronic device 50 for education and receives training manual data for the electronic device 50 from the server 30 through the communication network 20. Characterized by a configuration comprising a wearable computer 10 provided to the user.

이때, 본 발명의 착용식 컴퓨터(10)는 마치 전자장치(50)에 외관을 데이터화시키는 작동을 수행하며, 이하, 이러한 작동을 본 발명 명세서에서 캘리브레이션(calibration)이라 지칭한다.At this time, the wearable computer 10 of the present invention performs an operation to dataize the appearance of the electronic device 50, and hereinafter, this operation is referred to as calibration in the present specification.

본 발명의 착용식 컴퓨터(10)에 의하여 캘리브레이션되는 대상은 전자장치(50)의 케이스의 형상, 케이스 상에 부설된 조절 단자, 스위치, 노브(nob), 버튼 등의 각종 단자류와, 케이스 상에 부설된 디스플레이를 위한 표시창을 들 수 있다.The object to be calibrated by the wearable computer 10 of the present invention is the shape of the case of the electronic device 50, various types of terminals such as control terminals, switches, knobs, buttons, etc., placed on the case, and on the case. And a display window for a display attached to it.

한편, 본 발명의 교육 대상이 되는 전자장치(50)는 도시된 바와 같이 무대 음향장치의 제어에 사용되는 음향제어기기(믹서) 뿐만 아니라 공작기기, 계측기, 시험기기, 테스터 기기 등의 모든 전자장치를 통칭한다.On the other hand, the electronic device 50 that is the subject of education of the present invention, as shown, all the electronic devices such as machine tools, measuring instruments, test equipment, tester equipment, as well as sound control equipment (mixers) used to control the stage sound equipment Collectively.

도 2 는 본 발명의 가상 매뉴얼 제공 시스템을 이용한 교육 수행 상태를 나타내는 도면으로서, 사용자(U)가 착용식 컴퓨터(10)를 착용한 상태에서 교육 대상의 전자장치(50)가 착용식 컴퓨터(10)에 의하여 홀로그램으로 표시되는 상태를 나타내고 있다. FIG. 2 is a diagram showing a training performance state using the virtual manual provision system of the present invention, in which the electronic device 50 for training is worn by the user U while the user U wears the wearable computer 10. ) Indicates a state represented by a hologram.

상기 착용식 컴퓨터(10)는 해당 전자장치(50)를 캘리브레이션을 통하여 인식하고 데이터화함으로써 사용자(U)에게 해당 전자장치(50)의 교육용 매뉴얼 데이터를 전달하여 줄 수 있는 것이다.The wearable computer 10 is capable of transmitting the training manual data of the electronic device 50 to the user U by recognizing and dataizing the electronic device 50 through calibration.

이때, 상기 착용식 컴퓨터(10)는 내장된 주변환경 인식센서(이미지센서 등)에 의한 공간맵핑(Spatial Mapping)을 수행하여 전자장치(50)의 주변의 공간 데이터를 생성하고, 생성된 공간데이터를 캘리브레이션된 전자장치(50)의 데이터와 통합하여 조건과 상황에 따라서 교육에 필요한 메뉴 및 도움말 데이터를 표시하여 줄 수 있다. 일례로, 도 2 에 도시된 도면에는 해당 전자장치(50)의 교육 데이터 중 하나인 '주파수를 조정하려면 해당 다이얼을 돌리세요'라는 도움말 데이터가 표시되고 있다.At this time, the wearable computer 10 generates spatial data around the electronic device 50 by performing spatial mapping by a built-in ambient environment recognition sensor (such as an image sensor), and generates the generated spatial data. It can be integrated with the data of the calibrated electronic device 50 to display menus and help data necessary for training according to conditions and situations. As an example, in the drawing shown in FIG. 2, help data such as 'turn the dial to adjust the frequency', which is one of the training data of the corresponding electronic device 50, is displayed.

본 발명 실시예의 착용식 컴퓨터(10)는 머리에 쓰는 형태의 착용식 컴퓨터인 HMD(head mounted display)를 채용하였으며, 구체적으로, 미국의 마이크로소프트(Micro Soft)사의 제품인 상품명 홀로렌즈(Hololens)를 채용하였다.The wearable computer 10 of the embodiment of the present invention employs a head mounted display (HMD), which is a wearable computer in the form of a head, and specifically, employs the product name Hollens, which is a product of Microsoft Soft of the United States. Hiring.

전술한 바와 같이, 상기 홀로렌즈는 O/S로써 윈도우10(Window 10)을 이용하며, 고해상도의 홀로그램 렌즈를 내장하고, 인간의 시선, 제스처(gesture), 음성 및 주변 환경을 인식할 수 있는 API(application programming interface)를 지원하며, 3D 스캐닝(scanning) 기능도 가능한 제품이며, 특히, 상술한 공간맵핑(Spatial Mapping) 기능을 기본적으로 수행할 수 있는 장비이다.As described above, the holo lens uses Windows 10 as an O / S, a high-resolution hologram lens is embedded, and an API capable of recognizing human gaze, gesture, voice, and surrounding environment It supports (application programming interface), and it is a product that can perform 3D scanning function. In particular, it is a device that can basically perform the above-described spatial mapping function.

또한, 착용식 컴퓨터(10)와 통신망(20)을 통하여 데이터를 송수신하는 서버(30)는 해당 전자장치(50)를 위한 교육용 매뉴얼 데이터를 연동된 데이터베이스(40)에 저장하고, 해당 전자장치(50)의 교육용 매뉴얼 데이터를 업데이트하여 최신의 데이터로 갱신한다.In addition, the server 30 for transmitting and receiving data through the wearable computer 10 and the communication network 20 stores training manual data for the corresponding electronic device 50 in the interlocked database 40, and the corresponding electronic device ( Update the training manual data of 50) to the latest data.

또한, 상기 서버(30)는 본 발명의 가상 매뉴얼 제공 시스템을 통한 서비스의 제공을 위하여, 착용식 컴퓨터(10)를 통하여 교육용 매뉴얼 데이터를 제공받는 사용자의 ID 와 비밀번호 및 신상정보와 같은 식별정보를 전달받아 데이터베이스(40)에 저장하고 관리한다.In addition, the server 30 provides identification information such as ID and password of a user who receives training manual data through the wearable computer 10 and password and personal information to provide a service through the virtual manual provision system of the present invention. Received and stored in database 40 and managed.

그리고, 상기 통신망(20)은 착용식 컴퓨터(10)와 서버(30) 사이에서 데이터의 송수신이 가능한 인터넷 등의 공지의 유무선 통신망이다.In addition, the communication network 20 is a known wired or wireless communication network such as the Internet capable of transmitting and receiving data between the wearable computer 10 and the server 30.

따라서, 상기와 같이 구성되는 본 발명의 가상 매뉴얼 제공 시스템은, 사용자가 착용식컴퓨터(10)를 착용하여 교육 대상의 전자장치(50)를 육안으로 보게 되면, 서버(30)로부터 통신망(20)을 통하여 착용식컴퓨터(10)에 해당 전자장치(50)를 위한 교육용 매뉴얼 데이터가 전달되어 표시되게 되며, 사용자는 표시된 교육용 매뉴얼 데이터를 통하여 해당 전자장치(50)의 각 부분/부품별 세부 명칭과 기능 및 사용법을 매뉴얼을 통하여 순차적으로 교육받을 수 있게 된다.Accordingly, in the virtual manual providing system of the present invention configured as described above, when a user wears the wearable computer 10 and visually views the electronic device 50 to be trained, the communication network 20 from the server 30 Through this, the training manual data for the corresponding electronic device 50 is transmitted to the wearable computer 10 and displayed. The user can display the detailed name of each part / part of the corresponding electronic device 50 through the displayed training manual data. Function and usage can be trained sequentially through manual.

이하, 상기와 같이 구성되는 본 발명의 가상 매뉴얼 제공 시스템에 의하여 구현되는 본 발명의 전자장치의 가상 교육 방법을 상세하게 설명한다. 도 3 은 본 발명의 가상 매뉴얼 제공 방법의 플로우챠트이다.Hereinafter, the virtual education method of the electronic device of the present invention implemented by the virtual manual providing system of the present invention configured as described above will be described in detail. 3 is a flowchart of a method for providing a virtual manual of the present invention.

본 발명의 전자장치의 가상 교육방법은, 착용식 컴퓨터가 제공하는 시선, 제스처, 음성 및 주변 환경을 인식하는 센서 및 3D 스캐닝, 고해상도 홀로그램 렌즈의 기능을 활용하여 교육 대상의 전자장치를 인식하여 데이터화함으로써 해당 전자장치의 교육을 수행하는 방법이다.The virtual education method of the electronic device of the present invention utilizes the functions of the sensor, 3D scanning, and high-resolution hologram lens that recognizes the gaze, gesture, voice, and surrounding environment provided by the wearable computer, and recognizes and dataizes the electronic device of the education object. By doing so, it is a method of conducting education of the corresponding electronic device.

이를 위하여, 본 발명의 가상 교육 방법은, 교육 대상의 전자장치(50)를 인식하여 데이터화하고 통신망(20)을 통하여 서버(30)로부터 해당 전자장치(50)에 대한 교육용 매뉴얼 데이터를 전달받아 사용자에게 제공하는 착용식 컴퓨터(10)에 의하여 수행된다.To this end, the virtual education method of the present invention recognizes and converts the electronic device 50 as an education target and receives the training manual data for the electronic device 50 from the server 30 through the communication network 20. It is performed by the wearable computer 10 provided to the.

또한, 본 발명의 전자장치의 가상교육을 수행하기 위하여 서버(30)로부터 착용식 컴퓨터(10)로 기송부된 전자장치 교육용 어플리케이션 프로그램(application program)이 실행되어 각 단계들이 진행되는 것이 바람직하다.Also, in order to perform virtual education of the electronic device of the present invention, it is preferable that an application program for education of an electronic device transmitted from the server 30 to the wearable computer 10 is executed and each step proceeds.

또한, 본 발명의 전자장치의 가상교육을 수행하기 위해서는 착용식 컴퓨터(10)가 교육 대상의 전자장치(50)를 보는 상태에서 교육이 수행되는 것이나, 반드시 전자장치(10)가 교육 현장에 실물로 존재하지 않아도 서버(30)로부터 전달되는 교육용 매뉴얼 데이터만 가지고도 교육이 이루어질 수 있다.In addition, in order to perform the virtual education of the electronic device of the present invention, the training is performed while the wearable computer 10 sees the electronic device 50 as an education target, but the electronic device 10 is not physically present in the education field. Even if it does not exist, training can be performed with only training manual data transmitted from the server 30.

먼저, 도 3 을 참조하면, 본 발명의 전자장치의 가상 매뉴얼 제공방법은, 사용자에 착용된 착용식 컴퓨터(10)가 통신망(20)을 경유하여 서버(30)에 로그인이 수행되는 단계(S10)와, 로그인에 필요한 사용자의 ID 및 비밀번호 등의 식별정보가 서버(30)에 입력되는 단계(S20)를 포함한다.First, referring to FIG. 3, a method for providing a virtual manual of an electronic device of the present invention includes a step in which a wearable computer 10 worn on a user is logged in to the server 30 via a communication network 20 (S10) ) And the step (S20) of inputting identification information such as a user ID and password required for login into the server 30.

도 6a 는 상기 로그인이 수행되는 단계에서 착용식 컴퓨터(10)에 홀로그램으로 표시되는 증강현실 화면의 일례를 나타내는 도면으로서, 사용자의 ID 및 비밀번호의 입력창이 표시되어 있다.6A is a diagram illustrating an example of an augmented reality screen displayed as a hologram on the wearable computer 10 in the step of performing the login, and an input window of a user ID and password is displayed.

또한, 도 6b 는 상기 S20 단계의 로그인을 위한 식별정보를 입력하기 위한 증강현실 화면의 일례로서, 문자 패드와 숫자 키패드가 표시되어 있다.In addition, FIG. 6B is an example of an augmented reality screen for inputting identification information for login in step S20, and a character pad and a numeric keypad are displayed.

다음으로, 상기 S20 단계의 로그인이 수행되어 착용식 컴퓨터(10)가 서버(30)에 접속되며, 서버(30)는 통신망(20)을 통하여 해당 착용식컴퓨터(10)에 서버(30)로부터의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 전달한다(S30).Next, the login of step S20 is performed so that the wearable computer 10 is connected to the server 30, and the server 30 is connected to the wearable computer 10 through the communication network 20 from the server 30. A list of electronic devices capable of providing manual data for education is delivered (S30).

도 6c 는 상기 S30 단계에서의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 선택하는 증강현실 화면의 일례를 나타낸다.6C shows an example of an augmented reality screen for selecting a list of electronic devices capable of providing manual data for education in step S30.

그리고, 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면, 서버(30)는 선택된 전자장치의 교육을 위한 데이터가 최신의 교육용 매뉴얼 데이터인지 판단하여 해당 데이터를 업데이트(update)시킨다(S40).Then, when an electronic device desired to be trained is selected by the wearable computer 10, the server 30 determines whether the data for education of the selected electronic device is the latest training manual data and updates the corresponding data. Let (S40).

상기의 교육용 매뉴얼 데이터의 업데이트는 서버(30)가 연동된 데이터베이스(40)를 검색하여 자체적으로 수행할 수도 있고, 사용자의 착용식컴퓨터(10)로 교육 데이터의 패치(patch) 데이터가 있음을 통지한 후 사용자의 패치 수행 요청에 따라서 이루어질 수도 있다.The update of the training manual data may be performed by searching the database 40 linked with the server 30, or notify that there is a patch data of training data to the user's wearable computer 10. After that, it may be made according to the user's request to perform the patch.

도 6d 는 상기 S40 단계에서 교육용 매뉴얼 데이터의 패치 수행 요청을 선택하는 메뉴창을 나타내는 증강현실 화면의 일례를 나타낸다.6D shows an example of an augmented reality screen showing a menu window for selecting a request to perform a patch of training manual data in step S40.

이어서, 상기 착용식컴퓨터(10)는 교육 대상의 전자장치의 캘리브레이션(calibration)을 수행한다(S50).Subsequently, the wearable computer 10 performs calibration of the electronic device for education (S50).

상기의 캘리브레이션의 수행은 교육 대상의 전자장치(50)에 외관을 데이터화시키는 것이며, 이때, 상기 착용식 컴퓨터(10)는 내장된 주변환경 인식센서(이미지센서 등)에 의한 공간 맵핑(Spatial Mapping)을 수행하여 전자장치(50)의 주변의 공간 데이터를 생성하고, 생성된 공간데이터를 캘리브레이션된 전자장치(50)의 교육용 매뉴얼 데이터와 통합하여 조건과 상황에 따라서 교육에 필요한 메뉴 및 도움말 데이터를 표시하여 줄 수 있게 된다.Performing the above calibration is to make the appearance of data on the electronic device 50 to be educated, and in this case, the wearable computer 10 is spatial mapping by a built-in environment recognition sensor (such as an image sensor). To generate spatial data around the electronic device 50 and integrate the generated spatial data with the training manual data of the calibrated electronic device 50 to display menus and help data necessary for training according to conditions and circumstances. You can do it.

도 4a 및 도 4b 는 본 발명의 전자장치의 가상 매뉴얼 제공방법의 캘리브레이션 단계를 설명하는 개념도이다.4A and 4B are conceptual diagrams illustrating calibration steps of a method for providing a virtual manual of an electronic device of the present invention.

먼저, 도 4a 에 도시된 바와 같이, 본 발명의 착용식컴퓨터(10)에 의한 캘리브레이션은, 교육 대상의 전자장치(50)의 전체 외곽을 인식하고, 인식된 전자장치(50)의 전체 외곽을 트랙킹(tracking)하게 된다.First, as illustrated in FIG. 4A, the calibration by the wearable computer 10 of the present invention recognizes the entire outline of the electronic device 50 to be education, and recognizes the entire outline of the recognized electronic device 50. You will be tracking.

이러한 이유는 착용식컴퓨터(10)가 머리 부분에 착용되는 것임을 감안할 때 사용자의 머리의 움직임에 따라서 전자장치(50)의 표시가 X 축,Y 축 및 Z 축의 이동과 회전이 변화되어 실시간으로 사물의 좌표 추적시 지속적인 3D 스캐닝으로 인하여 전자장치(50)의 판별이 어려운 경우를 감안하여, 본 발명의 캘리브레이션 단계에서는 해당 전자장치(50)의 전체 외곽에 대하여 4 개 이하의 점(도 4a 에서 P1,P2,P3,P4)을 지정하여 사용자의 머리 움직임에 따라서 변형되는 물체의 외형을 지정함으로써, 프레임의 속도 저하에 영향을 미치는 3D 스캐닝의 수행을 최소화하게 된다.For this reason, considering that the wearable computer 10 is worn on the head, the movement and rotation of the X-axis, Y-axis, and Z-axis of the electronic device 50 change according to the movement of the user's head. Considering the case where it is difficult to discriminate the electronic device 50 due to the continuous 3D scanning when tracking the coordinates of the present invention, in the calibration step of the present invention, four or less points (P1 in FIG. 4A) for the entire outline of the electronic device 50. By designating, P2, P3, P4), it is possible to minimize the performance of 3D scanning that affects the speed of the frame by designating the shape of the object that is deformed according to the user's head movement.

다음으로, 도 4b 에 도시된 바와 같이, 상기와 같이 전자장치(50)의 전체 외곽이 4 개의 점(P1,P2,P3,P4)을 통하여 인식되어 트랙킹이 가능한 상태로 되면, 본 발명의 착용식컴퓨터(10)에 의하여 전체 외관 인식된 전자장치(50)가 가지고 있는 케이스 상에 부설된 조절 단자, 스위치, 노브(nob) 등의 각종 단자류와, 케이스 상에 부설된 디스플레이를 위한 표시창 등의 소형 객체의 외곽을 인식하고(도 4b 에서 B1,B2,B3,B4), 인식된 소형 객체의 외곽에 대한 트랙킹(tracking)이 수행된다.Next, as shown in FIG. 4B, when the entire outer periphery of the electronic device 50 is recognized through four points P1, P2, P3, and P4 as described above, tracking becomes possible, and the present invention is worn. Various terminals such as control terminals, switches, and knobs on the case of the electronic device 50 recognized by the expression computer 10 as a whole, and a display window for a display on the case. Recognizes the outline of the small object of (B1, B2, B3, B4 in FIG. 4B), and tracking is performed on the outline of the recognized small object.

그리고, 서버(30)에 저장된 전자장치(50)의 주요 단자류의 위치와 크기 비율 정보를 이용하여 사용자의 머리 움직임에 따른 착용식 컴퓨터(10)의 시야각을 보정함으로써 전자장치(50)의 소형 객체들의 외곽을 보다 정확하게 인식할 수 있게 된다.And, by using the position and size ratio information of the main terminals of the electronic device 50 stored in the server 30 to correct the viewing angle of the wearable computer 10 according to the user's head movement, the small size of the electronic device 50 The outer periphery of objects can be recognized more accurately.

여기서, 착용식 컴퓨터(10)에 의한 시야각의 보정은, 초기 캘리브레이션이 수행된 전자장치의 외형값을 기준으로 현재 보여지는 전자장치의 이미지의 기울기의 각도를 산출하고, 서버(30)에 기설정된 해당 전자장치(50)의 소형 객체에 관한 정보 및 산출된 현재 보여지는 전자장치의 이미지의 기울기의 각도에 따라서 해당 전자장치(50)의 소형 객체에 대한 위치 및 크기에 대한 보정을 수행하게 된다.Here, the correction of the viewing angle by the wearable computer 10 calculates the angle of inclination of the image of the electronic device currently displayed based on the external value of the electronic device on which the initial calibration is performed, and is preset in the server 30 The position and size of the small object of the electronic device 50 are corrected according to the information on the small object of the electronic device 50 and the angle of inclination of the calculated image of the currently displayed electronic device.

본 발명의 실시예에 의하면, 상기와 같은 착용식 컴퓨터(10)에 의한 캘리브레이션을 통하여 적어도 가로 10mm 및 세로 10mm 이상의 크기의 소형 객체를 인식하여 트래킹하는 것이 바람직하다.According to an embodiment of the present invention, it is preferable to recognize and track a small object having a size of at least 10 mm and 10 mm in length through calibration by the wearable computer 10 as described above.

도 5 는 본 발명의 전자장치의 가상 매뉴얼 제공방법의 캘리브레이션 단계의 상세 과정의 플로우챠트이다.5 is a flowchart of a detailed process of a calibration step of a method for providing a virtual manual of an electronic device of the present invention.

도면을 참조하면, 상기의 캘리브레이션을 수행하는 단계(S50)는, 착용식 컴퓨터(10)에 내장된 이미지센서 등의 주변환경 인식센서에 의하여 공간맵핑(Spatial Mapping)이 수행되는 단계(S51); 착용식컴퓨터(10)에 의하여 실제 진열된 전자장치(50)에 대한 전체 외곽 및 단자, 버튼, 디스플레이와 같은 소형 객체들의 외곽을 인식함으로써 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치들을 세팅하는 단계(S52); 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽 위치가 세팅되면 서버(30)에 저장된 전자장치(50)의 주요 단자류의 위치와 크기 비율 정보를 이용하여 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치와 크기 및 상술한 이미지의 기울기의 각도에 따른 외곽의 회전값을 보정하는 단계(S53)를 수행함으로써 이루어진다.Referring to the drawings, the step of performing the above-described calibration (S50) includes: Spatial Mapping is performed by a surrounding environment recognition sensor such as an image sensor built into the wearable computer 10 (S51); The overall outline of the electronic device 50 actually displayed by the wearable computer 10 and the location of the entire outline of the electronic device 50 and the outline of the small objects by recognizing the outline of small objects such as terminals, buttons, and displays. Setting them (S52); When the entire outer edge of the electronic device 50 and the outer positions of the small objects are set, the entire outer edge of the electronic device 50 and the position of the main terminals of the electronic device 50 stored in the server 30 and size ratio information are used. It is made by performing a step (S53) of correcting the rotation value of the outline according to the position and size of the outline of the small objects and the angle of the tilt of the image described above.

도 6e 는 상기의 캘리브레이션의 외곽을 보정하는 단계의 메뉴를 표시하는 증강현실 화면의 일례를 나타내는 것으로서, 위치(Position), 크기(Scale) 및 회전값(Rotate) 각각에 대하여 위치의 값을 조절하는 메뉴(X축,Y축,Z축 방향 UP,DOWN), 크기의 값을 조절하는 메뉴(UP,DOWN) 및 회전값을 조절하는 메뉴(시계방향, 반시계방향,UP/DlOWN)를 표시하고 있다.FIG. 6E shows an example of the augmented reality screen displaying a menu of the steps of correcting the outline of the calibration, and adjusting the position value for each of the position, size, and rotation. Displays the menu (X-axis, Y-axis, UP-DOWN in Z-axis direction), menu (UP, DOWN) for adjusting the value of size, and menu (clockwise, counter-clockwise, UP / DlOWN) for adjusting the rotation value. have.

그리고, 도 6f 는 캘리브레이션이 수행된 후 기본적인 버튼에 대한 안내가 표시되는 증강현실 화면의 일례를 나타낸다.In addition, FIG. 6F shows an example of an augmented reality screen in which guidance for a basic button is displayed after calibration is performed.

아울러, 상기와 같은 캘리브레이션을 수행하기 위하여, 시선 데이터에 따른 캘리브레이션 포지션을 조절하고, 위치, 크기 및 회전값을 미세조절하고, 캘리브레이션을 종료하고, 각종 메뉴들의 팝업을 초기화하거나 활성화하고, 시간 경과에 따라서 메뉴의 팝업을 비활성화하고, 홈 메인으로 접근하는 버추얼 UI 를 생성하고, 시선 데이터에 따른 UI 의 좌표를 이동하고, 제스쳐 매니저 초기화 및 관리 이벤트 발생과 이펙트 효과를 수행하고, 음성을 인식하는 등의 로직들이 착용식 컴퓨터(10)로 기송부된 전자장치 교육용 어플리케이션 프로그램(application program)에 의하여 수행되는 것이 바람직하며, 하기에 상기 로직들의 예시를 개조식으로 설명하기로 한다. 로직의 내용은 알고리즘 내용중에 기재된 지문을 참조한다.In addition, in order to perform the above-described calibration, the calibration position according to the gaze data is adjusted, the position, size, and rotation values are finely adjusted, the calibration is terminated, and pop-ups of various menus are initialized or activated, and over time. Therefore, it is possible to disable the pop-up of the menu, create a virtual UI that accesses the home main, move the coordinates of the UI according to the gaze data, initialize the gesture manager, perform management events, effect effects, and recognize speech. It is preferable that the logics are performed by an electronic device education application program transmitted to the wearable computer 10, and examples of the logics will be described below in a modified manner. The contents of the logic refer to the fingerprint described in the contents of the algorithm.

1) 시선 데이터에 따른 캘리브레이션 포지션을 조절하는 알고리즘1) Algorithm for adjusting calibration position according to gaze data SetScale.cs

private void LateUpdate()
{
if(index == 0 && Application.platform != RuntimePlatform.WindowsEditor)
{
transform.position = cursor.position;//1. Spatial Mapping 에 의해 만들어진 공간에서 바라보고 있는 위치의 좌표 값

//메인카메라 위치와 1 의 위치의 각도값을 계산
Vector3 directionToTarget = Camera.main.transform.position - transform.position;
//directionToTarget.x = 0.0f;
if (directionToTarget.sqrMagnitude < 0.001f)
return;
//커서를 해당 각도에 맞게 수정
transform.rotation = Quaternion.LookRotation(-directionToTarget);
transform.eulerAngles = new Vector3(cursor.eulerAngles.x, transform.eulerAngles.y, transform.eulerAngles.z);
}
SetScale.cs

private void LateUpdate ()
{
if (index == 0 && Application.platform! = RuntimePlatform.WindowsEditor)
{
transform.position = cursor.position; // 1. The coordinate value of the position you are looking at in the space created by spatial mapping

// Calculate the angle value of the main camera position and the position of 1
Vector3 directionToTarget = Camera.main.transform.position-transform.position;
//directionToTarget.x = 0.0f;
if (directionToTarget.sqrMagnitude <0.001f)
return;
// Modify cursor to the angle
transform.rotation = Quaternion.LookRotation (-directionToTarget);
transform.eulerAngles = new Vector3 (cursor.eulerAngles.x, transform.eulerAngles.y, transform.eulerAngles.z);
}

2) 위치, 크기 및 회전값 미세 조정 알고리즘2) Alignment algorithm for position, size and rotation value CalibractionManager.cs

public void SetRotate(ButtonClick btn)
{
//회전 시킬 값을 적용
targetObject.transform.Rotate(btn.posSend);
//현재 패널의 각도 값 x, y, z 을 표시
rotX.text = string.Format("{0}", (int)targetObject.transform.eulerAngles.x);
rotY.text = string.Format("{0}", (int)targetObject.transform.eulerAngles.y);
rotZ.text = string.Format("{0}", (int)targetObject.transform.eulerAngles.z);
}
public TextMesh posX, posY, posZ;
public void SetPosition(ButtonClick btn)
{
//이동 시킬 값을 적용
targetObject.transform.Translate(btn.posSend);
//현재 패널의 위치 값 x, y, z 를 표시
posX.text = string.Format("{0:F2}", targetObject.transform.position.x);
posY.text = string.Format("{0:F2}", targetObject.transform.position.y);
posZ.text = string.Format("{0:F2}", targetObject.transform.position.z);
}
public TextMesh sclX, sclY, sclZ;
public void SetScale(ButtonClick btn)
{
//패널의 크기 값을 적용
targetObject.transform.localScale += btn.posSend;
//현재 패널의 크기 값 x, y, z 를 표시
sclX.text = string.Format("{0:F2}", targetObject.transform.localScale.x);
sclY.text = string.Format("{0:F2}", targetObject.transform.localScale.y);
sclZ.text = string.Format("{0:F2}", targetObject.transform.localScale.z);
CalibractionManager.cs

public void SetRotate (ButtonClick btn)
{
// Apply the value to rotate
targetObject.transform.Rotate (btn.posSend);
// Display the current panel's angle values x, y, z
rotX.text = string.Format ("{0}", (int) targetObject.transform.eulerAngles.x);
rotY.text = string.Format ("{0}", (int) targetObject.transform.eulerAngles.y);
rotZ.text = string.Format ("{0}", (int) targetObject.transform.eulerAngles.z);
}
public TextMesh posX, posY, posZ;
public void SetPosition (ButtonClick btn)
{
// Apply the value to move
targetObject.transform.Translate (btn.posSend);
// Display the current panel position values x, y, z
posX.text = string.Format ("{0: F2}", targetObject.transform.position.x);
posY.text = string.Format ("{0: F2}", targetObject.transform.position.y);
posZ.text = string.Format ("{0: F2}", targetObject.transform.position.z);
}
public TextMesh sclX, sclY, sclZ;
public void SetScale (ButtonClick btn)
{
// Apply the panel size value
targetObject.transform.localScale + = btn.posSend;
// Display the current panel size values x, y, z
sclX.text = string.Format ("{0: F2}", targetObject.transform.localScale.x);
sclY.text = string.Format ("{0: F2}", targetObject.transform.localScale.y);
sclZ.text = string.Format ("{0: F2}", targetObject.transform.localScale.z);

3) 캘리브레이션 종료 알고리즘3) Calibration termination algorithm Setscale.cs

// 부모 transform 삭제
transform.parent = null;
p1.gameObject.SetActive(false);
p2.gameObject.SetActive(false);

// index 초기화
index = 0;

// 객체 비활성화
enabled = false;
// spatial mapping 종료
spatial.SetActive(false);

// 메뉴 보기
MenuManager.Instance.FrontPanel();
Setscale.cs

// delete parent transform
transform.parent = null;
p1.gameObject.SetActive (false);
p2.gameObject.SetActive (false);

// index initialization
index = 0;

// deactivate object
enabled = false;
// End spatial mapping
spatial.SetActive (false);

// View menu
MenuManager.Instance.FrontPanel ();

4) 팝업 초기화 및 인스턴스 생성과 팝업 활성화 알고리즘4) Popup initialization and instance creation and popup activation algorithm Popup.cs

void Start()
{
Instance = this;//Instance 등록
gameObject.SetActive(false);//첫 실행시 비활성화
}

Popup.cs

//팝업을 설정합니다.
public void SetPopup(string desc, float time, bool useLimit, bool ViewProgress = false)
{
//내용, 보여지는 시간, 자동으로 사라지는 기능을 사용할것인지, 프로그래스 바를 보여줄것인지
isPlay = true;

tDesc.text = desc;//내용 설정

timeSum = 0;//합산시간
//useLimit == true 일 경우 최대 시간 설정
if (useLimit)
{
HIDE = true;
timeLimit = time;
}

progress.gameObject.SetActive(ViewProgress);//ViewProgress == true 일 경우 프로그래스바 표시
tPer.text = 0 + "%";//ViewProgress == true 일 경우 프로그래스바 의 % 표시

gameObject.SetActive(true);//팝업 표시
}
Popup.cs

void Start ()
{
Instance = this; // Instance registration
gameObject.SetActive (false); // disable on first run
}

Popup.cs

// Set the popup.
public void SetPopup (string desc, float time, bool useLimit, bool ViewProgress = false)
{
// Whether to use the content, the time to show, the function to disappear automatically, or to show the progress bar
isPlay = true;

tDesc.text = desc; // set content

timeSum = 0; // sum time
// Set maximum time when useLimit == true
if (useLimit)
{
HIDE = true;
timeLimit = time;
}

progress.gameObject.SetActive (ViewProgress); // show progress bar if ViewProgress == true
tPer.text = 0 + "%"; // ViewProgress == If true, display the progress bar%

gameObject.SetActive (true); // display popup
}

5) 시간에 따른 팝업 비활성화 알고리즘5) Pop-up deactivation algorithm over time Popup.cs

void Update () {
if (HIDE)
{
//최대시간 < 시작시 부터 합산된 시간
if (timeLimit < (timeSum += Time.deltaTime))
{
tPer.text = 100 + "%";
progress.value = 100;
isPlay = false;
gameObject.SetActive(false);//팝업 숨김
}
}
}
Popup.cs

void Update () {
if (HIDE)
{
// Maximum time <Total time from start
if (timeLimit <(timeSum + = Time.deltaTime))
{
tPer.text = 100 + "%";
progress.value = 100;
isPlay = false;
gameObject.SetActive (false); // hide popup
}
}
}

6) 홈 메인으로 접근하는 버추얼UI 생성 알고리즘6) Virtual UI generation algorithm approaching home main MenuManager.cs

//홈 메뉴로 돌아갑니다.
public void Home()
{
timeSum = 0;
transform.position = target.position;//메뉴가 보여질 위치를 지정
CHASE = false;

//리셋 포지션이 안되었을 경우에 숨길 메뉴를 설정
for (int i = 0; i < notSettingHideList.Length; i++)
notSettingHideList[i].SetActive(SetPanel.SETTING);
//홈 메뉴 이외의 메뉴를 숨김
for (int i = 0; i < hideHomeList.Length; i++)
hideHomeList[i].SetActive(false);

mainMenuList.SetActive(true);//홈 메뉴 리스트를 보여줍니다.
menuSpectrumAnalyzer.SetActive(false);//기기의 메뉴얼을 숨깁니다.
//패널을 숨깁니다.
if(ForotPanelManager.Instance != null)
ForotPanelManager.Instance.HideObject();
//MenuView();

gameObject.SetActive(true);//홈메뉴를 보여줍니다.
}
MenuManager.cs

// Return to the home menu.
public void Home ()
{
timeSum = 0;
transform.position = target.position; // specify the position where the menu is displayed
CHASE = false;

// Set the menu to hide when the reset position is not
for (int i = 0; i <notSettingHideList.Length; i ++)
notSettingHideList [i] .SetActive (SetPanel.SETTING);
// Hide menus other than the home menu
for (int i = 0; i <hideHomeList.Length; i ++)
hideHomeList [i] .SetActive (false);

mainMenuList.SetActive (true); // Show the home menu list.
menuSpectrumAnalyzer.SetActive (false); // hide the device's manual.
// Hide the panel.
if (ForotPanelManager.Instance! = null)
ForotPanelManager.Instance.HideObject ();
// MenuView ();

gameObject.SetActive (true); // Show the home menu.
}

7) 시선 데이터에 따른UI 좌표 이동 알고리즘7) UI Coordinate Movement Algorithm According to Gaze Data MenuManager.cs

void LateUpdate()
{
if (anim !=null && anim.isPlaying)
return;

//포커스에 메뉴가 없을 경우 일정 시간 이후 포커스로 이동합니다.
if(GazeManager.Instance.focusedObject == null && CHASE)
{
//현 위치에서 포커스 사이의 거리를 계산
transform.position = Vector3.Lerp(toPos, target.position, (timeSum += Time.deltaTime) / duration);

//최대 이동 시간이 지나면 종료, 포커스 위치로 이동
if (timeSum >= duration)
{
timeSum = 0;
transform.position = target.position;
}
}
}
MenuManager.cs

void LateUpdate ()
{
if (anim! = null && anim.isPlaying)
return;

// If there is no menu in focus, it moves to focus after a certain time
if (GazeManager.Instance.focusedObject == null && CHASE)
{
// Calculate the distance between the focus and the current position
transform.position = Vector3.Lerp (toPos, target.position, (timeSum + = Time.deltaTime) / duration);

// End when the maximum movement time has elapsed and move to the focus position
if (timeSum> = duration)
{
timeSum = 0;
transform.position = target.position;
}
}
}

8) 제스쳐 매니저 초기화 및 관리 이벤트 발생과 이펙트 효과 알고리즘8) Gesture manager initialization and management event occurrence and effect effect algorithm GestureManager.cs

void Start()
{
//제스처 매니저를 등록합니다.
gestureRecognizer = new GestureRecognizer();
gestureRecognizer.SetRecognizableGestures(GestureSettings.Tap);

//탭 이벤트 등록
gestureRecognizer.TappedEvent += GestureRecognizer_TappedEvent;

//제스처 매니저를 시작합니다.
gestureRecognizer.StartCapturingGestures();
}

public void TapEventEffect()
{
if (effect == null)
return;

//파티클 플레이
if (effect.isPlaying)
{
effect.Stop();//중지
effect.Clear();//초기화
}
effect.transform.position = transform.position;
//파티클의 위치 이동
effect.Play();//재생
}
GestureManager.cs

//탭 이벤트 가 발생했을 때 호출됩니다.
private void GestureRecognizer_TappedEvent(InteractionSourceKind source, int tapCount, Ray headRay)
{
//패널 위치 설정시 사용
if (scale != null)
{
//패널의 위치가 잡혀있지 않을 경우
if (MOVE_PANEL)
{
//PanelDrop();
MOVE_PANEL = !(scale.SetPoint());//위치를 지정합니다.

/*if (!MOVE_PANEL)
{
panel.ViewLayOut();
ForotPanelManager.Instance.SetTutorialMode(true);
}*/
}
}

//포커스가 오브젝트 위에 있을경우
if (focusedObject != null)
{
focusedObject.SendMessage("OnSelect");//해당 오브젝트로 메세지 호출
TapEventEffect();//해당 위치에 이팩트 발생
}
}
GestureManager.cs

void Start ()
{
// Register gesture manager.
gestureRecognizer = new GestureRecognizer ();
gestureRecognizer.SetRecognizableGestures (GestureSettings.Tap);

// Tap event registration
gestureRecognizer.TappedEvent + = GestureRecognizer_TappedEvent;

// Start the gesture manager.
gestureRecognizer.StartCapturingGestures ();
}

public void TapEventEffect ()
{
if (effect == null)
return;

// Particle play
if (effect.isPlaying)
{
effect.Stop (); // stop
effect.Clear (); // initialize
}
effect.transform.position = transform.position;
// Move the particle position
effect.Play (); // Play
}
GestureManager.cs

// Called when a tab event occurs.
private void GestureRecognizer_TappedEvent (InteractionSourceKind source, int tapCount, Ray headRay)
{
// Used when setting the panel position
if (scale! = null)
{
// When the panel is not positioned
if (MOVE_PANEL)
{
// PanelDrop ();
MOVE_PANEL =! (Scale.SetPoint ()); // specify the location.

/ * if (! MOVE_PANEL)
{
panel.ViewLayOut ();
ForotPanelManager.Instance.SetTutorialMode (true);
} * /
}
}

// When the focus is on the object
if (focusedObject! = null)
{
focusedObject.SendMessage ("OnSelect"); // call message with that object
TapEventEffect (); // effect occurs at the location
}
}

9) 음성인식을 위한 초기화 및 이펙트 효과 알고리즘9) Initialization and effect effect algorithm for speech recognition KeywardManager.cs

void Start()
{
//음성인식에 사용될 키워드를 등록
keywords.Add("Reset Position", () =>
{
Debug.Log("Key Words Start : Reset Position");
MenuManager.Instance.ResetPosition();//해당 키워드가 인식이 되면 이 함수를 실행.
});
keywords.Add("Front Panel", () =>
{
Debug.Log("Key Words Start : Front Panel");
MenuManager.Instance.Features();
});
keywords.Add("View Manual", () =>
{
Debug.Log("Key Words Start : View Manual");
MenuManager.Instance.SpectrumAnalyzer();
});
keywords.Add("Tutorial List", () =>
{
Debug.Log("Key Words Start : Tutorial List");
MenuManager.Instance.listMenu[0].ViewPlay();
});
keywords.Add("Select Machine", () =>
{
Debug.Log("Key Words Start : Select Machine");
if (!MenuManager.Instance.mainMenuList.gameObject.active || !SetPanel.SETTING)
return;
?
MenuManager.Instance.ViewSelectMachine();
});
keywords.Add("Step Back", () =>
{
Debug.Log("Key Words Start : Tutorial Back");
Tutorial.BACK = true;
});
keywords.Add("Step Next", () =>
{
Debug.Log("Key Words Start : Tutorial Next");
Tutorial.NEXT = true;
});

//키워드를 등록하고 키워드의 이벤트를 등록하고 시작합니다.
keywordRecognizer = new KeywordRecognizer(keywords.Keys.ToArray());
keywordRecognizer.OnPhraseRecognized += KeywordRecognizer_OnPhraseRecognized;
keywordRecognizer.Start();
}
?
private void KeywordRecognizer_OnPhraseRecognized(PhraseRecognizedEventArgs args)
{
//등록된 키워드가 인식될 경우 호출됩니다.
System.Action keywordAction;
?
//인식된 키워드를 이용 검색.
if (keywords.TryGetValue(args.text, out keywordAction))
{
//지정해놓은 함수 호출
keywordAction.Invoke();
}
}
KeywardManager.cs

void Start ()
{
// Register keywords to be used for speech recognition
keywords.Add ("Reset Position", () =>
{
Debug.Log ("Key Words Start: Reset Position");
MenuManager.Instance.ResetPosition (); // Run this function when the keyword is recognized.
});
keywords.Add ("Front Panel", () =>
{
Debug.Log ("Key Words Start: Front Panel");
MenuManager.Instance.Features ();
});
keywords.Add ("View Manual", () =>
{
Debug.Log ("Key Words Start: View Manual");
MenuManager.Instance.SpectrumAnalyzer ();
});
keywords.Add ("Tutorial List", () =>
{
Debug.Log ("Key Words Start: Tutorial List");
MenuManager.Instance.listMenu [0] .ViewPlay ();
});
keywords.Add ("Select Machine", () =>
{
Debug.Log ("Key Words Start: Select Machine");
if (! MenuManager.Instance.mainMenuList.gameObject.active || SetPanel.SETTING)
return;
?
MenuManager.Instance.ViewSelectMachine ();
});
keywords.Add ("Step Back", () =>
{
Debug.Log ("Key Words Start: Tutorial Back");
Tutorial.BACK = true;
});
keywords.Add ("Step Next", () =>
{
Debug.Log ("Key Words Start: Tutorial Next");
Tutorial.NEXT = true;
});

// Register keyword and register keyword event and start.
keywordRecognizer = new KeywordRecognizer (keywords.Keys.ToArray ());
keywordRecognizer.OnPhraseRecognized + = KeywordRecognizer_OnPhraseRecognized;
keywordRecognizer.Start ();
}
?
private void KeywordRecognizer_OnPhraseRecognized (PhraseRecognizedEventArgs args)
{
// Called when a registered keyword is recognized.
System.Action keywordAction;
?
// Search using recognized keywords.
if (keywords.TryGetValue (args.text, out keywordAction))
{
// call the specified function
keywordAction.Invoke ();
}
}

다음으로, 상기와 같이 캘리브레이션 단계(S40)가 수행된 이후, 착용식 컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시된다(S60).Next, after the calibration step S40 is performed as described above, the main menu for educating the corresponding electronic device is displayed on the wearable computer 10 (S60).

그리고, 메인 메뉴중 어느 하나의 메뉴가 선택됨에 따라서, 캘리브레이션돈 전자장치(50)의 화면상에서의 전체 외곽 및 소형 객체들의 외곽을 다시 미세조정하는 단계(S70)가 수행되거나, 전자장치의 버튼이나 단자류와 같은 소형 객체들의 기본정보를 열람하는 단계(S80)가 수행되거나, 전자장치의 조작 메뉴얼과 같은 데이터시트를 열람하는 단계(S90)가 수행되거나, 전자장치의 교육용 매뉴얼 데이터의 리스트의 표시를 신청하여(S100), 표시된 교육용 매뉴얼 데이터 리스트중 어느 하나의 항목의 리스트를 선택하고(S110), 선택된 리스트의 교육용 매뉴얼 데이터에 의하여 해당 전자장치에 대한 교육이 수행된다(S120). 교육이 종료되면(S130), 상기 S60 단계의 메인 메뉴를 표시하게 된다.Then, as any one of the main menus is selected, a step S70 of fine-adjusting the entire outline and the outlines of the small objects again on the screen of the calibration money electronic device 50 is performed or a button of the electronic device is pressed. A step (S80) of reading basic information of small objects such as terminals is performed, a step (S90) of reading a data sheet such as an operation manual of the electronic device is performed, or a list of educational manual data of the electronic device is displayed. By applying for (S100), a list of any one of the displayed training manual data list is selected (S110), and training for the corresponding electronic device is performed by the training manual data of the selected list (S120). When the training is finished (S130), the main menu of step S60 is displayed.

한편, 다른 전자장치를 선택하는 단계(S140)를 수행하면 S30 단계로 복귀하여 다른 전자장치를 선택할 수 있게 된다.On the other hand, if a step S140 of selecting another electronic device is performed, the process returns to step S30 to select another electronic device.

도 6g 는 상기 S60 단계의 메인메뉴를 표시하는 증강현실 화면의 일례를 나타내는 것으로서, '리셋 포지션(Reset Position)'은 상기의 S60 단계의 미세조정하는 단계를 선택하는 메뉴, '프론트 패널(Front Panel)'은 상기의 S70 단계의 소형 객체들의 기본정보를 열람하는 단계를 선택하는 메뉴, '뷰 메뉴얼(View Manual)'은 상기의 S80 단계의 데이터시트를 열람하는 단계를 선택하는 메뉴, '튜토리얼 리스트(Tutorial List)'는 상기의 S90 단계의 교육용 매뉴얼 데이터의 리스트를 표시하는 단계를 선택하는 메뉴, '셀렉트 머신(Select Machine)'은 상기의 다른 전자장치를 선택하는 단계를 선택하는 메뉴를 각각 나타내고 있다.FIG. 6G shows an example of the augmented reality screen displaying the main menu of step S60, wherein the 'Reset Position' is a menu for selecting the step of fine adjustment of step S60, 'Front Panel' ) 'Is a menu for selecting the step of viewing the basic information of the small objects in step S70,' View Manual 'is a menu for selecting the step of viewing the data sheet in step S80,' tutorial list ' (Tutorial List) 'is a menu for selecting a step of displaying a list of educational manual data in step S90, and' Select Machine 'represents a menu for selecting a step for selecting the other electronic device. have.

또한, 도 6h 는 상기 S110 단계에 따라서 교육용 매뉴얼 데이터 리스트를 선택하는 메뉴의 증강현실 화면의 일례를 나타낸다. 도시된 일례에는 해당 전자장치의 교육용 매뉴얼 데이터인 'MCU Pro'의 교육 데이터 및 'MCU Fader Alignment'의 교육 데이터중 하나를 선택하도록 하고 있다.6H shows an example of an augmented reality screen of a menu for selecting a manual data list for education according to step S110. In the illustrated example, one of the training data of the 'MCU Pro' and the training data of the 'MCU Fader Alignment', which are training manual data of the corresponding electronic device, are selected.

도 6i 는 상기 S120 단계에서의 해당 전자장치에 대한 교육이 수행될 경우의 해당 전자장치의 전체 외관 및 버튼이나 단자류와 같은 소형 객체들의 외관이 증강현실로 표시된 화면의 일례를 나타낸다.FIG. 6I shows an example of a screen in which the overall appearance of the corresponding electronic device and the appearance of small objects such as buttons or terminals are displayed as augmented reality when education for the corresponding electronic device is performed in step S120.

즉, 사용자가 착용식컴퓨터(10)를 머리에 착용하고, 본 발명의 전자장치의 가상 교육 방법을 수행하기 위한 어플리케이션 프로그램을 실행시킨 상태에서, 착용식컴퓨터(10)에서 제공하는 기능인 아이 트랙킹(eye-tracking) 기능과 제스쳐(gesture) 인식기능을 이용하여 상술한 S10 단계 내지 S140 단계의 각 메뉴를 선택하여 본 발명의 전자장치의 가상 교육 방법을 수행하게 되는 것이다.That is, in the state in which the user wears the wearable computer 10 on the head and executes an application program for performing the virtual education method of the electronic device of the present invention, eye tracking (a function provided by the wearable computer 10) By using the eye-tracking function and the gesture recognition function, each menu of steps S10 to S140 described above is selected to perform the virtual education method of the electronic device of the present invention.

한편, 본 발명의 착용식컴퓨터(10)에 제공되는 전자장치의 교육 과정에서 사용자가 교육과정을 통하여 산출한 결과값을 표준의 데이터와 실시간으로 분석하여 해당 전자장치의 기능을 완전하게 숙지하였는지의 자가 진단도 가능하게 함이 바람직하다.On the other hand, in the training process of the electronic device provided to the wearable computer 10 of the present invention, whether the user has fully understood the functions of the corresponding electronic device by analyzing the results calculated through the training process in real time with standard data. It is desirable to enable self-diagnosis.

아울러, 상기의 본 발명의 전자장치의 가상 매뉴얼 제공방법의 각 단계를 수록한 컴퓨터 프로그램을 저장한 기록매체의 태양으로도 실시가능하다.In addition, the present invention can also be implemented as an aspect of a recording medium storing a computer program in which each step of the method for providing a virtual manual of the electronic device of the present invention is stored.

* 도면의 주요 부분에 대한 부호의 설명 *
10; 착용식 컴퓨터
20; 통신망
30; 서버
40; 데이터베이스
50; 전자장치
* Explanation of reference numerals for main parts of drawings *
10; Wearable computer
20; communications network
30; server
40; Database
50; Electronics

Claims (15)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 서버(30)와 통신망(20)을 통하여 데이터 송수신을 수행하는 착용식 컴퓨터(10)에 의하여 수행되는 전자장치(50)의 가상 매뉴얼 제공방법이며,
서버(30)가 통신망(20)을 통하여 착용식컴퓨터(10)에 서버(30)로부터의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 전달하는 단계(S30);
상기 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면, 상기 착용식컴퓨터(10)는 교육 대상의 전자장치(50)의 외관을 데이터화시켜 캘리브레이션(calibration)을 수행하는 단계(S50);
상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60);
상기 착용식컴퓨터(10)에 의하여 전자장치의 교육용 매뉴얼 데이터의 리스트중 어느 하나의 항목의 리스트가 선택되는 단계(S110);
선택된 리스트의 교육용 매뉴얼 데이터에 의하여 증강현실을 기반으로 하는 해당 전자장치에 대한 교육이 수행되는 단계(S120); 를 포함하여 구성되고,
상기 착용식컴퓨터(10)는 교육 대상의 전자장치(50)의 외관을 데이터화시켜 캘리브레이션(calibration)을 수행하는 단계(S50);는,
착용식 컴퓨터(10)에 내장된 주변환경 인식센서에 의하여 공간맵핑(Spatial Mapping)이 수행되는 단계(S51);
착용식컴퓨터(10)에 의하여 전자장치(50)에 대한 전체 외곽 및 소형 객체들의 외곽을 인식함으로써 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치들을 세팅하는 단계(S52);
전자장치(50)의 전체 외곽 및 소형 객체들의 외곽 위치가 세팅되면 서버(30)에 저장된 전자장치(50)의 소형 객체들의 위치와 크기 비율 정보를 이용하여 전자장치(50)의 전체 외곽 및 소형 객체들의 외곽의 위치와 크기 및 이미지의 기울기의 각도에 따른 외곽의 회전값을 보정하는 단계(S53);를 수행하는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
It is a method for providing a virtual manual of the electronic device 50 performed by the wearable computer 10 performing data transmission and reception through the server 30 and the communication network 20,
A step in which the server 30 transmits a list of electronic devices capable of providing training manual data from the server 30 to the wearable computer 10 through the communication network 20 (S30);
When an electronic device desired to be educated by the wearable computer 10 is selected, the wearable computer 10 performs calibration by dataizing the appearance of the electronic device 50 to be trained (calibration) S50);
A step in which a main menu for educating the corresponding electronic device is displayed on the wearable computer 10 (S60);
Selecting a list of any one item from a list of training manual data of the electronic device by the wearable computer 10 (S110);
Step of performing education on the corresponding electronic device based on augmented reality by the training manual data of the selected list (S120); It comprises,
The wearable computer 10 is a step (S50) of performing an calibration by dataizing the appearance of the electronic device 50 to be educated (S50);
Spatial Mapping is performed by a surrounding environment recognition sensor embedded in the wearable computer 10 (S51);
Setting positions of the entire outer periphery of the electronic device 50 and the outer peripheries of the small objects by recognizing the outer perimeter and the outer perimeters of the small objects by the wearable computer 10 (S52);
When the entire outer outline of the electronic device 50 and the outer positions of the small objects are set, the entire outline and the small size of the electronic device 50 using the location and size ratio information of the small objects of the electronic device 50 stored in the server 30 A method of providing a virtual manual for an electronic device, characterized in that it is performed by correcting the rotation value of the outline according to the position and size of the outline of the objects and the angle of the inclination of the image.
제 6 항에 있어서, 상기 서버(30)로부터 착용식 컴퓨터(10)로 기송부된 전자장치 교육용 어플리케이션 프로그램(application program)이 실행되어 교육이 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
7. The method of providing a virtual manual for an electronic device according to claim 6, wherein the electronic device education application program transmitted from the server (30) to the wearable computer (10) is executed and education is performed.
제 6 항에 있어서,
S30 단계 이후 상기 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면,
상기 서버(30)는 선택된 전자장치의 교육을 위한 매뉴얼 데이터가 최신의 교육용 매뉴얼 데이터인지 판단하여 해당 데이터를 업데이트시키는 단계(S40); 를 더 포함하여 구성되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method of claim 6,
After the step S30, if the electronic device desired to be educated by the wearable computer 10 is selected,
The server 30 determines whether the manual data for training of the selected electronic device is the latest training manual data and updates the corresponding data (S40); A method for providing a virtual manual of an electronic device, characterized in that further comprises a.
삭제delete 제 6 항에 있어서, 상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60) 이후,
상기 캘리브레이션된 전자장치(50)의 화면상에서의 전체 외곽 및 소형 객체들의 외곽을 다시 미세조정하는 단계(S70)가 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method according to claim 6, wherein after the step (S60) of displaying the main menu for educating the corresponding electronic device on the wearable computer 10,
A method of providing a virtual manual for the electronic device, characterized in that the step (S70) of fine-adjusting the entire outline and the outlines of the small objects on the screen of the calibrated electronic device 50 is performed again.
제 6 항에 있어서, 상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60) 이후,
전자장치의 버튼이나 단자류와 같은 소형 객체들의 기본정보를 열람하는 단계(S80)가 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method according to claim 6, wherein after the step (S60) of displaying the main menu for educating the corresponding electronic device on the wearable computer 10,
A method of providing a virtual manual for an electronic device, characterized in that a step (S80) of reading basic information of small objects such as buttons or terminals of the electronic device is performed.
제 6 항에 있어서, 상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60) 이후,
전자장치의 데이터시트를 열람하는 단계(S90)가 수행되는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method according to claim 6, wherein after the step (S60) of displaying the main menu for educating the corresponding electronic device on the wearable computer 10,
A method of providing a virtual manual for an electronic device, characterized in that the step (S90) of reading the data sheet of the electronic device is performed.
서버(30)와 통신망(20)을 통하여 데이터 송수신을 수행하는 착용식 컴퓨터(10)에 의하여 수행되는 전자장치(50)의 가상 매뉴얼 제공방법이며,
서버(30)가 통신망(20)을 통하여 착용식컴퓨터(10)에 서버(30)로부터의 교육용 매뉴얼 데이터의 제공이 가능한 전자장치의 리스트를 전달하는 단계(S30);
상기 착용식컴퓨터(10)에 의하여 교육받기를 소망하는 전자장치가 선택되면, 상기 착용식컴퓨터(10)는 교육 대상의 전자장치(50)의 외관을 데이터화시켜 캘리브레이션(calibration)을 수행하는 단계(S50);
상기 착용식컴퓨터(10)에 해당 전자장치의 교육을 진행하기 위한 메인 메뉴가 표시되는 단계(S60);
상기 착용식컴퓨터(10)에 의하여 전자장치의 교육용 매뉴얼 데이터의 리스트중 어느 하나의 항목의 리스트가 선택되는 단계(S110);
선택된 리스트의 교육용 매뉴얼 데이터에 의하여 증강현실을 기반으로 하는 해당 전자장치에 대한 교육이 수행되는 단계(S120); 를 포함하여 구성되고,
상기 선택된 리스트의 교육용 매뉴얼 데이터에 의하여 증강현실을 기반으로 하는 해당 전자장치에 대한 교육이 수행되는 단계(S120)에서,
사용자가 교육과정을 통하여 산출한 결과값을 표준 데이터와 실시간으로 분석하여 해당 전자장치의 기능을 완전하게 숙지하였는지의 자가 진단을 수행하는 것을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
It is a method for providing a virtual manual of the electronic device 50 performed by the wearable computer 10 performing data transmission and reception through the server 30 and the communication network 20,
A step in which the server 30 transmits a list of electronic devices capable of providing training manual data from the server 30 to the wearable computer 10 through the communication network 20 (S30);
When an electronic device desired to be educated by the wearable computer 10 is selected, the wearable computer 10 performs calibration by dataizing the appearance of the electronic device 50 to be trained (calibration) S50);
A step in which a main menu for educating the corresponding electronic device is displayed on the wearable computer 10 (S60);
Selecting a list of any one item from a list of training manual data of the electronic device by the wearable computer 10 (S110);
Step of performing education on the corresponding electronic device based on augmented reality by the training manual data of the selected list (S120); It comprises,
In the step (S120) of training for the corresponding electronic device based on augmented reality according to the training manual data of the selected list,
A method of providing a virtual manual for an electronic device, characterized in that the user performs a self-diagnosis on whether to fully understand the function of the corresponding electronic device by analyzing the result value calculated through the training course in real time with standard data.
제 7 항에 있어서, 상기 착용식컴퓨터(10)는 사용자의 머리 부분에 착용되며,
전자장치의 가상 매뉴얼 제공방법을 수행하기 위한 어플리케이션 프로그램을 실행시킨 상태에서,
상기 착용식컴퓨터(10)에서 제공하는 기능인 아이 트랙킹(eye-tracking) 기능과 제스쳐(gesture) 인식기능을 이용하여 착용식컴퓨터(10)가 제공되는 메뉴들이 선택되는 구성을 특징으로 하는 전자장치의 가상 매뉴얼 제공방법.
The method of claim 7, wherein the wearable computer 10 is worn on the user's head,
In the state that the application program for performing the virtual manual provision method of the electronic device is executed,
The electronic device is characterized in that the menus provided by the wearable computer 10 are selected using the eye-tracking function and the gesture recognition function provided by the wearable computer 10. How to provide a virtual manual.
제 6 항 내지 제 8 항, 제 10 항 내지 제 14 항 중 어느 한 항의 전자장치 가상 매뉴얼 제공방법의 각 단계를 수록한 컴퓨터 프로그램을 저장한 기록매체.Claims 6 to 8, 10 to 14, a recording medium storing a computer program containing each step of the electronic device virtual manual provision method of any one of claims.
KR1020170172616A 2017-12-14 2017-12-14 Providing system for a virtual manual of electronic device based on the agmented reality and method therefor KR102092290B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170172616A KR102092290B1 (en) 2017-12-14 2017-12-14 Providing system for a virtual manual of electronic device based on the agmented reality and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170172616A KR102092290B1 (en) 2017-12-14 2017-12-14 Providing system for a virtual manual of electronic device based on the agmented reality and method therefor

Publications (2)

Publication Number Publication Date
KR20190071514A KR20190071514A (en) 2019-06-24
KR102092290B1 true KR102092290B1 (en) 2020-03-23

Family

ID=67056280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170172616A KR102092290B1 (en) 2017-12-14 2017-12-14 Providing system for a virtual manual of electronic device based on the agmented reality and method therefor

Country Status (1)

Country Link
KR (1) KR102092290B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649380B1 (en) * 2021-11-22 2024-03-21 주식회사 티엠솔루션스 Switchboard maintenance system based on augmented reality

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195446B1 (en) * 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101730881B1 (en) * 2010-04-21 2017-04-27 엘지전자 주식회사 Augmented Remote Controller and Method of Operating the Same
KR101609064B1 (en) * 2014-09-15 2016-04-04 원혁 Interactive guide using augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195446B1 (en) * 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same

Also Published As

Publication number Publication date
KR20190071514A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
CN106471442B (en) The user interface control of wearable device
Carmigniani et al. Augmented reality technologies, systems and applications
US10257423B2 (en) Method and system for determining proper positioning of an object
EP4342196A1 (en) Beacons for localization and content delivery to wearable devices
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
CA2718441C (en) Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor
CN108038726B (en) Article display method and device
US11132069B2 (en) Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations
US11526273B2 (en) Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations
EP3966715A1 (en) Systems and methods for obfuscating user selections
US20200356263A1 (en) Systems and methods for obscuring touch inputs to interfaces promoting obfuscation of user selections
Köpsel et al. Effects of auditory, haptic and visual feedback on performing gestures by gaze or by hand
JP2021524971A (en) Displaying physical input devices as virtual objects
US20200356262A1 (en) Systems and methods for obfuscating user navigation and selections directed by free-form input
JP2017134558A (en) Information processor, information processing method, and computer-readable recording medium recorded with program
US20230256297A1 (en) Virtual evaluation tools for augmented reality exercise experiences
CN103752010B (en) For the augmented reality covering of control device
KR102092290B1 (en) Providing system for a virtual manual of electronic device based on the agmented reality and method therefor
CN109643182B (en) Information processing method and device, cloud processing equipment and computer program product
CN112650391A (en) Human-computer interaction method, device and equipment based on virtual reality and storage medium
CN108700915A (en) It is automatically aligned to device for virtual reality display
KR20180044613A (en) Natural user interface control method and system base on motion regocnition using position information of user body
CN106990843B (en) Parameter calibration method of eye tracking system and electronic equipment
WO2022240829A1 (en) Virtual guided fitness routines for augmented reality experiences
Zhang et al. Physics-inspired input method for near-field mixed reality applications using latent active correction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant