KR20190128962A - METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY - Google Patents
METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY Download PDFInfo
- Publication number
- KR20190128962A KR20190128962A KR1020180053365A KR20180053365A KR20190128962A KR 20190128962 A KR20190128962 A KR 20190128962A KR 1020180053365 A KR1020180053365 A KR 1020180053365A KR 20180053365 A KR20180053365 A KR 20180053365A KR 20190128962 A KR20190128962 A KR 20190128962A
- Authority
- KR
- South Korea
- Prior art keywords
- book
- user
- gesture
- interface
- image
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000003860 storage Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 증강현실 기반의 전자책 제공 방법 및 착용형 디스플레이 장치에 관한 것이다.The present invention relates to a method for providing an augmented reality based e-book and a wearable display device.
책은 수천년간 인류가 정보를 저장하고 검색하고 습득하는 가장 오래된 미디어로서 매우 큰 의미를 지닌다. 이러한 책 미디어는 정보통신 기술의 발전으로 전자책(eBook)으로 진화하여 더욱 강력한 정보 저장, 검색, 습득의 기능을 제공하며 현재 많은 부분에서 종이책을 대체하고 있다. 하지만 정보통신기술의 발전으로 더욱 향상된 정보 미디어에 대한 가능성이 열려지고 있고 그에 대한 탐구가 필요한 상황이다.Books have a great meaning as the oldest media that human beings store, search and acquire information for thousands of years. These book media have evolved into eBooks with the development of information and communication technology, providing more powerful functions of information storage, retrieval and acquisition, and are now replacing paper books in many places. However, with the development of information and communication technology, the possibility of further improved information media is opening up and the situation needs to be explored.
읽는 행위에는 여러 측면이 있으므로 ICT(Information and Communications Technologies) 기술을 활용하여 읽기 경험을 증진시키고자 하는 연구들 역시 다양하게 전개되었다. 사용된 정보 미디어의 종류도 전자책 단말기 이외에도 새로운 전도체, 태블릿 PC(Personal Computer), 노트북 등이 활용되었다.Because there are many aspects of reading behavior, there have been various researches aimed at enhancing the reading experience by utilizing information and communications technologies (ICT). In addition to e-book terminals, new types of information media used were new conductors, tablet PCs, and notebook computers.
최근 AR(Augmented Reality) 기술을 활용하여 독서 경험을 증진시키고자 다양한 시도가 있었으나 서사가 있는 글, 색칠 놀이나 교과서와 같이 몰입과 흥미가 중요한 장르에 치중되어 있다는 한계가 있다.Recently, various attempts have been made to enhance the reading experience using AR (Augmented Reality) technology, but there are limitations in the genre where immersion and interest are important, such as narrative writing, coloring games, and textbooks.
또한, 사용성을 증진시킨 경우에도 터치를 활용한 인터랙션이 필요해 의료, 군사훈련, 제조업 등 양손을 활용하기 어려운 경우까지 확장되기는 어려웠다.In addition, even when the usability was improved, it was difficult to expand to the case where it was difficult to use both hands such as medical, military training, and manufacturing industry because touch interaction was required.
한편, 독서를 수행할 때 사용자들은 반복적인 탭 전환을 회피하고자, 작업 영역과 열람 영역을 구분하기 위한 다양한 시도를 취한다. 예를들면, 화면을 반씩 사용하기, 스마트폰이나 태블릿 PC 이용하기 등과 같다.On the other hand, when reading, users make various attempts to distinguish the work area from the viewing area in order to avoid repetitive tap switching. For example, half-screen, using a smartphone or tablet PC.
또한, 사용자들은 책을 읽으면서 주제와 관련된 문단이 나오면 형광펜 기능을 활용하거나, 그 내용을 복사하여 다른 곳에 기록하는 듯 표시를 한다. 그러나, 자신이 재열람 해야할 페이지나 문단이 어디에 있는지를 기억하지 못해 어려움을 겪거나, 다른 곳에 페이지 번호, 문구 등을 보조적으로 기록해놓아야 한다.In addition, users read the book and use paragraph highlighting when the paragraphs related to the topic appear, or copy the contents and mark them as if they are recorded elsewhere. However, you may have difficulty remembering where you have a page or paragraph to revisit, or make a supplementary record of page numbers or phrases elsewhere.
또한, 사용자들은 저자의 이름이나 제목 등을 기억하기 위해 다양한 전략을 시도한다. 예를들면, 저자의 이름이나 제목을 직접 기록하거나 또는 책의 첫장으로 가서 저자 혹은 서재 정보를 다시 확인한다.In addition, users try various strategies to remember the author's name or title. For example, write down the author's name or title, or go to the first chapter of the book and double-check the author or library information.
이와 같이, 종래에 독서 수행시에는 사용자에게 다양한 불편함이 존재하나, 이를 효과적으로 해결할 수 있는 방안이 아직 제안되어 있지 않다.As described above, various inconveniences exist to the user when reading, but a method for effectively solving the problem has not been proposed.
본 발명이 해결하고자 하는 과제는 제스처 인식을 통해 판독한 사용자 입력에 따라 사용자의 독서 활동을 보조하는 증강현실 기반의 전자책 제공 방법 및 착용형 디스플레이 장치를 제공하는 것이다.The present invention has been made in an effort to provide an augmented reality-based e-book providing method and a wearable display device that assists a user's reading activity according to a user input read through gesture recognition.
본 발명의 한 실시예에 따르면, 전자책 제공 방법은 적어도 하나의 프로세서에 의해 동작하는 착용형 디스플레이 장치가 증강현실 기반의 전자책을 제공하는 방법으로서, 상기 착용형 디스플레이 장치를 착용한 사용자의 시선을 추적하는 단계, 상기 사용자의 시선 방향에 위치한 실사 영상을 획득하는 단계, 상기 실사 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 단계, 사용자의 손으로 책을 펼치는 제스처를 인식하는 단계, 그리고 제스처 인식에 따라 상기 전자책의 복수개의 북 페이지가 표시된 가상 영상을 상기 현실 세계 3차원 좌표계 상에 증강하는 단계를 포함한다.According to an embodiment of the present invention, a method of providing an e-book provides a method of providing an augmented reality-based e-book by a wearable display device operated by at least one processor, wherein the user wears the wearable display device. Tracking an image, acquiring a photorealistic image located in the user's gaze direction, augmenting a virtual image in which an e-book is displayed on a three-dimensional coordinate system of the photorealistic image, and recognizing a gesture of opening a book by a user's hand And augmenting a virtual image on which the plurality of book pages of the e-book is displayed on the real world 3D coordinate system according to gesture recognition.
상기 출력하는 단계는, 상기 사용자의 시선 방향이 가리키는 현실 세계를 촬영하여 실제 현실 영상 데이터를 생성하는 단계, 상기 실제 현실 영상 데이터로부터 식별된 객체들 중에서 사용자 디바이스를 판별하는 단계, 그리고 상기 사용자 디바이스의 주위에 그리드 인터페이스를 출력하는 단계를 포함하고, 상기 그리드 인터페이스는, 상기 현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상이고, 상기 나열하는 단계는, 상기 복수개의 북 페이지를 상기 복수개의 구간에 페이지 순서대로 각각 표시할 수 있다.The outputting may include generating real-real image data by photographing a real world indicated by the user's gaze direction, determining a user device among objects identified from the real-real image data, and And outputting a grid interface around the grid interface, wherein the grid interface is a hologram image obtained by dividing a virtual space overlaid on the real world three-dimensional coordinate system into a plurality of sections, and the arranging includes the plurality of books. Pages may be displayed in the page order in the plurality of sections, respectively.
상기 그리드 인터페이스를 출력하는 단계 이후, 상기 그리드 인터페이스를 클릭하는 제스처를 인식하는 단계, 그리고 상기 제스처 인식에 따라 상기 그리드 인터페이스의 각도 및 크기를 조정하여 출력하는 단계를 더 포함할 수 있다.After outputting the grid interface, the method may further include recognizing a gesture of clicking the grid interface, and adjusting and outputting an angle and a size of the grid interface according to the gesture recognition.
상기 나열하는 단계는, 상기 복수개의 북 페이지 각각에 태그를 표시하고, 상기 나열하는 단계 이후, 상기 태그를 접었다가 편 후 클릭하는 제스처를 인식하는 단계, 그리고 상기 태그와 해당 페이지를 매칭시켜 저장하는 단계를 더 포함하며, 상기 태그는, 페이지 그룹핑에 사용될 수 있다.The listing may include displaying a tag on each of the plurality of book pages, and after the listing, recognizing a gesture of folding and then clicking the tag, and matching and storing the tag with the corresponding page. In addition, the tag may be used for page grouping.
상기 나열하는 단계 이후, 사용자 음성을 인식하는 단계, 그리고 음성 인식에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하는 단계를 더 포함할 수 있다.After the listing, the method may further include recognizing a user voice, and outputting the book data according to the voice recognition on the grid interface.
본 발명의 다른 특징에 따르면, 착용형 디스플레이 장치는 영상을 촬영하는 영상 획득부, 사용자 눈의 움직임을 검출하는 시선 인터페이스, 사용자 손의 움직임이 나타내는 제스처를 인식하는 제스처 인터페이스, 현실 세계 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 증강현실 화면 출력부, 증강현실 기반의 전자책을 제공하는 프로그램을 저장하는 저장부, 그리고 상기 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고, 상기 프로그램은, 상기 시선 인터페이스가 검출한 사용자의 시선 방향에 위치하고 상기 영상 획득부터 획득한 현실 세계 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 투사하고, 사용자의 손으로 책을 펼치는 제스처가 인식되면, 상기 제스처 인식에 따라 상기 전자책의 복수개의 북 페이지를 상기 현실세계 3차원 좌표계 상에 나열하는 명령어들(Instructions)을 포함한다.According to another feature of the present invention, the wearable display device includes an image acquisition unit for capturing an image, a gaze interface for detecting a movement of a user's eyes, a gesture interface for recognizing a gesture indicated by a movement of a user's hand, and an image in a real world 3D coordinate system An augmented reality screen output unit for augmenting a virtual image displayed on the e-book, a storage unit for storing a program for providing an augmented reality-based e-book, and at least one processor for executing the program, the program, When the gesture of opening the book with the user's hand is recognized, the virtual image displaying the e-book is projected on the 3D coordinate system of the real world image which is located in the direction of the user's gaze detected by the gaze interface and acquired from the image acquisition. Recalling a plurality of book pages of the e-book according to gesture recognition It includes the commands that are listed in the real world three-dimensional coordinate system (Instructions).
상기 프로그램은, 상기 카메라로부터 생성된 사용자의 시선 방향이 가리키는 실제 현실 영상 데이터로부터 사용자 디바이스를 식별하고, 상기 사용자 디바이스의 주위에 그리드 인터페이스를 투사하며, 상기 그리드 인터페이스의 복수개의 구간에 상기 복수개의 북 페이지를 페이지 순서대로 각각 표시하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함하고, 상기 그리드 인터페이스는, 현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상일 수 있다.The program identifies the user device from the actual reality image data indicated by the user's gaze direction generated from the camera, projects a grid interface around the user device, and the plurality of books in a plurality of sections of the grid interface. And a command to control the augmented reality screen output unit to display pages in page order, respectively, and the grid interface may be a hologram image obtained by dividing a virtual space overlaid on a real world three-dimensional coordinate system into a plurality of sections.
상기 프로그램은, 상기 복수개의 북 페이지에 각각의 태그를 표시하고 상기 각각의 태그 중 한 태그를 접었다가 편 후 클릭하는 제스처를 인식하면, 제스처가 인식된 태그와 해당 페이지를 매칭시켜 저장하는 명령어들을 포함하고, 상기 저장부는, 제스처가 인식된 태그 별로 해당하는 적어도 하나의 페이지가 매칭된 그룹핑 정보를 저장할 수 있다.If the program recognizes a gesture of displaying each tag on the plurality of book pages and folding and clicking one of the respective tags, the program recognizes a gesture and a corresponding tag and stores the page. The storage unit may store grouping information in which at least one page corresponding to each tag in which a gesture is recognized is matched.
상기 착용형 디스플레이 장치는, 사용자 음성을 입력받는 마이크를 더 포함하고, 상기 프로세서는, 상기 사용자 음성을 인식하여 명령어를 도출하고, 상기 명령어에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함할 수 있다.The wearable display apparatus may further include a microphone configured to receive a user voice, and the processor may recognize the user voice to derive a command, and overlay the book data according to the command on the grid interface and output the command. It may include commands to control the reality screen output unit.
상기 프로세서는, 상기 그리드 인터페이스를 클릭하는 제스처가 인식되면, 상기 그리드 인터페이스의 각도 및 크기를 조정하기 위한 사용자 인터페이스를 출력하고 상기 사용자 인터페이스를 통해 인식된 제스처에 따라 상기 그리드 인터페이스를 변경하는 명령어들을 포함할 수 있다.The processor may include instructions for outputting a user interface for adjusting an angle and a size of the grid interface when the gesture of clicking the grid interface is recognized and for changing the grid interface according to the gesture recognized through the user interface. can do.
본 발명의 실시예에 따르면, 양손을 자유롭게 쓸 수 있는 상태에서 전자책을 읽을 수 있도록 하여 고도의 전문 지식이 요구되는 상황을 효율적으로 지원할 수 있다.According to the embodiment of the present invention, the electronic book can be read in a state where both hands can be freely written, thereby efficiently supporting a situation in which a high degree of expertise is required.
또한, 사용자들은 여러 텍스트를 동시에 참조할 수 있고 터치 방식이 아닌 제스처 인식을 사용하여 사용자 입력을 판독하므로, 멀티태스킹에 효과적이며 일반적인 글 읽기뿐만 아니라 의료, 군사훈련, 제조 분야 등 특정한 작업을 하면서 원하는 글을 여럿 읽는 상황에서의 사용자 경험까지 증진할 수 있다.In addition, users can refer to multiple texts simultaneously and read user input using gesture recognition rather than touch method, which is effective for multitasking and can be used for specific tasks such as medical, military training, and manufacturing, as well as general text reading. It can enhance the user experience in situations where you are reading multiple texts.
또한, 종래에 일반적인 독서시 반복적인 탭 전환에 대한 피로, 표시한 문단을 다시 불러오는 것에 대한 불편함, 저자 정보 및 서재 정보를 찾기 어려워 수기로 기록하는 등의 수작업을 수반했던 종래 문제를 해결할 수 있다.In addition, it is possible to solve the conventional problems of manual reading, such as fatigue of repeated tap switching in general reading, inconvenience of reloading the displayed paragraph, and manual writing such as difficult to find author information and study information. .
도 1은 본 발명의 한 실시예에 따른 증강현실 기반으로 전자책을 제공하는 예시도이다.
도 2는 본 발명의 한 실시예에 따른 착용형 디스플레이 장치의 하드웨어 구성을 나타낸 블록도이다.
도 3, 4, 5는 본 발명의 실시예에 따른 그리드 인터페이스의 예시도이다.
도 6은 본 발명의 실시예에 따른 전자책 제공 방법을 나타낸 순서도이다.1 is an exemplary view for providing an e-book based on augmented reality according to an embodiment of the present invention.
2 is a block diagram illustrating a hardware configuration of a wearable display device according to an exemplary embodiment.
3, 4 and 5 are exemplary views of a grid interface according to an embodiment of the present invention.
6 is a flowchart illustrating a method of providing an e-book according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless otherwise stated.
본 명세서에서 단수로 기재된 표현은 "하나" 또는 "단일" 등의 명시적인 표현을 사용하지 않은 이상, 단수 또는 복수로 해석될 수 있다.The expressions used in the singular herein may be interpreted in the singular or the plural, unless an explicit expression such as “one” or “single” is used.
본 명세서에서 사용자 인터랙션은 어떤 특정 결과를 유발하는 사용자 입력 동작을 지칭하는 용어로 정의한다.In this specification, user interaction is defined as a term referring to a user input operation that causes a certain result.
도 1은 본 발명의 한 실시예에 따른 증강현실 기반으로 전자책을 제공하는 예시도이다.1 is an exemplary view for providing an e-book based on augmented reality according to an embodiment of the present invention.
도 1을 참조하면, 사용자가 사용하는 디바이스(100)의 주위에 전자책이 표시된 그리드 인터페이스(200)가 증강된다. 사용자가 착용한 착용형 디스플레이 장치(300)는 사용자의 시선이 향하는 실제 영상을 획득하고, 실제 영상의 3차원 좌표계 상에 그리드 인터페이스(200)를 출력한다. 이는 사용자가 통합적인 독서를 하는 동안 글을 쓰거나 다른 자료도 함께 읽기 편리하도록 고안된 것이다.Referring to FIG. 1, a
그리드 인터페이스(200)에는 안쪽부터 바깥쪽으로 순서대로 북 페이지가 배치된다. 사용자는 그리드 인터페이스(200)를 클릭하여 자신의 디바이스(100)에 맞게 그리드 인터페이스(200)의 각도와 크기를 조절할 수 있다.The book pages are arranged in the
여기서, 착용형 디스플레이 장치(300)는 제스처 인식을 통해 전자책의 페이지 배치, 페이지 분류를 하거나 음성으로 전자책에 대한 정보를 획득할 수 있도록 한다. 착용형 디스플레이 장치(300)는 머리 부분에 장착해, 이용자의 눈 앞에 직접 영상을 제시할 수 있는 디스플레이 장치로서, 헤드 마운티드 디스플레이(Head??mounted display, HMD)라고 할 수도 있다. 이러한 착용형 디스플레이 장치의 구성에 대하여 도 2를 참고하여 설명한다.Here, the
도 2는 본 발명의 한 실시예에 따른 착용형 디스플레이 장치의 하드웨어 구성을 나타낸 블록도이고, 도 3, 4, 5는 본 발명의 실시예에 따른 그리드 인터페이스의 예시도이다.2 is a block diagram illustrating a hardware configuration of a wearable display device according to an embodiment of the present invention, and FIGS. 3, 4, and 5 are exemplary views of a grid interface according to an embodiment of the present invention.
도 2를 참조하면, 착용형 디스플레이 장치(300)는 AR(Augmented Reality) 화면 출력부(301), 영상 획득부(303), 스피커(305), 시선 인터페이스(307), 제스처 인터페이스(309), 음성 인터페이스(311), 통신 인터페이스(313), 저장부(315) 및 제어부(317)를 포함한다.Referring to FIG. 2, the
AR 화면 출력부(301)는 도 1에서도 설명한 바와 같이, 전자책이 표시된 그리드 인터페이스(도 1의 200)를 실사 영상에 증강한다. AR 화면 출력부(301)는 착용형 디스플레이 장치(300)의 디스플레이 구동 원리에 따라 다양한 실시예가 가능하다.As described with reference to FIG. 1, the AR
한 실시예에 따르면, AR 화면 출력부(301)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여주는 홀로그래픽 원리를 사용하는 홀로그램 렌즈(Hologram lens)로 구성될 수 있다. 이때, AR 화면 출력부(301)는 현실세계 3차원 좌표계 상에 전자책이 표시된 홀로그램 영상을 투사한다.According to an embodiment, the AR
다른 실시예에 따르면, AR 화면 출력부(301)는 스크린에 빛을 투사하여 영상을 표시하는 광학 디스플레이 방식의 광 투사 시스템으로 구현될 수 있다. AR 화면 출력부(301)는 프로젝터의 빔이 프리즘 안의 판에 반사되어 사용자의 눈에 영상이 맺힌다. 이때, AR 화면 출력부(301)는 전자책 광 영상을 프로젝터를 통해 출력할 수 있다. According to another exemplary embodiment, the AR
그러나, 착용형 디스플레이 장치(300)는 다양한 제조사들에 의해 제조되며 그 종류 및 기술 원리가 다양하므로, 이러한 두가지 실시예를 비롯하여 특정 기술로 국한되는 것은 아니다. However, since the
영상 획득부(303)는 적어도 하나의 실제 객체를 포함하는 현실 환경을 촬영하여 이로부터 현실 환경에 대한 영상, 즉, 실제 영상을 획득한다. The
한 실시예에 따르면, 영상 획득부(303)는 컬러(RGB), 스테레오(Stereo), 깊이(Depth) 또는 컬러와 깊이를 결합한(RGBD) 카메라일 수 있다. 영상 획득부(303)는 동영상 촬영이 가능한 비디오 카메라일 수 있다.According to an embodiment, the
또한, 영상 획득부(303)는 사용자 인터랙션에 기반이 되는 제스처 인식을 위해 사용자의 손 영상을 획득할 수 있다.In addition, the
스피커(305)는 제어부(317)의 동작에 따른 음성, 효과음 등을 출력한다.The
시선 인터페이스(307)는 사용자 눈의 움직임을 검출한다. 시선 인터페이스(307)는 사용자의 시선방향을 추적하는 시선 추적 센서일 수 있다. The
본 발명의 한 실시예에 따르면, 시선 인터페이스(307)는 광학 방식의 시선 추적 센서일 수 있다. 이 경우, 시선 인터페이스(307)는 육안으로 식별이 난해하며 인체에 무해한 광선(예컨대, 적외선)을 사용자에게 선택적으로 주사하고, 사용자로부터 반사되는 광선을 인식하여 사용자의 시선을 추적한다.According to an embodiment of the present invention, the
본 발명의 다른 실시예에 따르면, 시선 인터페이스(307)는 화상 입력 방식의 시선 추적 센서일 수 있다. 이 경우, 시선 인터페이스(307)는 CCD(Charge Coupled Device) 소자를 포함하는 카메라를 통해 사용자에 대한 화상 데이터를 입력받고, 화상 데이터를 판독하여 사용자의 시선을 추적한다.According to another embodiment of the present invention, the
그러나 전술한 사용자의 시선을 추적하는 방식이 상술된 방식으로 한정되는 것은 결코 아니며, 당업자에 따라 다양하게 변형하여 실시할 수 있으며, 본 발명은 상기 변형 가능한 모든 실시방법을 포함한다.However, the above-described method of tracking the eyes of the user is not limited to the above-described method, and may be variously modified and implemented by those skilled in the art, and the present invention includes all the above-described embodiments.
제스처 인터페이스(309)는 사용자의 움직임을 감지한다. 한 실시예에 따르면, 제스처 인터페이스(309)는 적외선 센서 또는 초음파 센서 등을 포함할 수 있다. 예를들면, 제스처 인터페이스(309)는 다수의 적외선 점을 발산하는 적외선 광원(Infrared Ray Illuminator), 반사된 적외선을 인지하는 적외선 센서(Infrared Ray Sensor), 큰 시야각을 위한 보조 적외선 센서 등을 통해 제스처를 인식할 수 있다. 적외선 센서가 인지한 광량 정보를 통해 제스처를 검출할 수 있고, 제스처 별 광량 정보는 사전에 저장되어 있을 수 있으나, 이러한 내용으로 국한되는 것은 아니다. 또한, 적외선 센서 또는 초음파 센서를 이용한 제스처 인식 기술은 종래에 알려진 기술을 이용할 수 있으므로, 상세한 설명은 생략한다.The
다른 실시예에 따르면, 제스처 인터페이스(309)는 영상 획득부(303)로부터 입력되는 영상에서 손영역을 추출하고, 추출한 손영역에 대한 영상 인식을 통하여 제스처를 검출할 수 있다. 이러한 영상 인식 기반의 제스처 인식 기술은 종래에 알려진 다양한 기술을 이용할 수 있다.According to another exemplary embodiment, the
음성 인터페이스(311)는 외부로부터 음성을 입력받는 구성 및 외부 음성을 인식하는 구성을 포함한다. 음성을 입력받는 구성은 마이크로폰 어레이가 사용될 수 있다. 음성 인식 기술에 대해서는 이미 잘 알려져 있으므로 여기에서는 구체적인 설명을 생략한다.The
통신 인터페이스(313)는 유무선 통신망(미도시)을 통해 외부 서버(미도시)와 연결되어, 전자책 서비스와 관련한 데이터를 송수신한다. 예를들면, 전자책 정보가 외부 서버(미도시)에 저장되어 있고, 이를 수신할 수 있다. 또한, 사용자의 제스처 인식 결과, 시선 추적 결과 등을 외부 서버(미도시)에 전송하고, 처리 결과를 수신할 수 있다.The
여기서, 외부 서버(미도시)는 착용형 디스플레이 장치(300)의 요청에 따른 전자책 정보를 제공하는 기능을 수행할 수 있다. 예를들면, 외부 서버는 검색 엔진(미도시됨)을 포함하여 착용형 디스플레이 장치(300)의 요청에 대응되는 전자책 정보를 검색하고 그 검색 결과를 착용형 디스플레이 장치(300)의 사용자가 브라우징할 수 있도록 제공할 수 있다.Here, the external server (not shown) may perform a function of providing e-book information in response to a request of the
저장부(315)는 비휘발성 메모리를 포함하며, 기능적으로 제어부(317)로 로딩될 프로그램 코드와 프로그램 코드가 사용하는 데이터 셋트를 저장 및 유지하는 저장매체 기능을 수행한다. The
저장부(315)는 증강현실 기반의 전자책을 제공하는 프로그램을 저장한다. 이러한 프로그램은 시선 추적 결과 및 제스처 인식 결과를 통해 사용자 인터랙션을 해석하고, 해석에 따른 전자책 정보를 증강현실로 구현하는 명령어들(Instructions)을 포함할 수 있다.The
제어부(317)는 각 구성 요소들을 제어하여, 본 발명에 따라 증강 현실 기반의 전자책 제공 방법을 수행하는 것으로, 이를 위한 하드웨어 프로세서 또는 이 하드웨어 프로세서에서 실행되는 소프트웨어 모듈이 될 수 있다. The
제어부(317)는 AR 화면 출력부(301), 영상 획득부(303), 스피커(305), 시선 인터페이스(307), 제스처 인터페이스(309), 음성 인터페이스(311), 통신 인터페이스(313) 및 저장부(315)와 연결되어, 이들 구성의 데이터 흐름을 제어한다. The
제어부(317)는 시선 인터페이스(307)를 통해 착용형 디스플레이 장치(300)를 착용한 사용자의 시선을 추적한다. 제어부(317)는 사용자의 시선 방향에 위치한 실사 영상을 영상 획득부(303)로부터 획득한다. 제어부(317)는 실사 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강한다. 이때, 제어부(317)는 전자책이 표시된 홀로그램 영상을 투사할 수 있다. 제어부(317)는 제스처 인터페이스(309)로부터 사용자의 손으로 책을 펼치는 제스처가 인식되면, 제스처 인식에 따라 전자책의 복수개의 북 페이지가 표시된 가상 영상을 현실 세계 3차원 좌표계 상에 증강하도록 AR 화면 출력부(301)를 제어한다. The
제어부(317)는 사용자의 시선 방향이 가리키는 실제 현실 영상 데이터로부터 사용자 디바이스(도 1의 100)를 식별하고, 사용자 디바이스(100)의 주위에 그리드 인터페이스(도 1의 200)를 출력할 수 있다. The
도 3, 4, 5를 참조하면, 그리드 인터페이스(200)는 실제 영상의 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상일 수 있다. 도 3을 참조하면, 그리드 인터페이스(200)는 실물 객체의 배경 또는 후면에 위치할 수 있다. 도 4를 참조하면, 그리드 인터페이스(200)는 실물 객체의 후면 및 좌우 측면에 위치할 수 있다. 3, 4, and 5, the
도 5를 참조하면, 그리드 인터페이스(200)는 다계층으로 구분될 수 있다. 즉,일정 개수의 구간으로 구분되는 제1 계층(201), 제2 계층(203), 제3 계층(205)으로 구분되고, 전자책 정보가 이러한 계층 별로 구분되어 표출될 수 있다.Referring to FIG. 5, the
제어부(317)는 사용자의 손으로 책을 펼치는 제스처가 인식되면, 제스처 인식에 따라 전자책의 복수개의 북 페이지를 실제 영상의 3차원 좌표계 상에 나열한다. 이때, 제어부(317)는 그리드 인터페이스(200)를 구성하는 복수개의 구간에 복수개의 북 페이지를 페이지 순서대로 각각 표시할 수 있다.When the gesture of opening the book with the user's hand is recognized, the
제어부(317)는 복수개의 북 페이지에 각각의 태그를 표시하고 각각의 태그 중 한 태그를 접었다가 편 후 클릭하는 제스처를 인식하면, 제스처가 인식된 태그와 해당 페이지를 매칭시켜 저장할 수 있다. 제어부(317)는 제스처가 인식된 태그 별로 해당하는 적어도 하나의 페이지가 매칭된 그룹핑 정보를 저장부(315)에 저장할 수 있다.If the
제어부(317)는 음성 인터페이스(311)로부터 수신되는 사용자 음성의 인식 결과를 토대로 해당하는 북 데이터를 그리드 인터페이스(200)에 오버레이시켜 출력할 수 있다. The
제어부(317)는 그리드 인터페이스(200)를 클릭하는 제스처가 인식되면, 그리드 인터페이스(200)의 각도 및 크기를 조정하기 위한 사용자 인터페이스를 출력하고 사용자 인터페이스를 통해 인식된 제스처에 따라 그리드 인터페이스(200)를 변경할 수 있다.When the gesture of clicking the
지금까지 설명한 구성을 토대로, 증강현실 기반의 전자책을 제공하는 일련의 과정에 대해 설명하면, 다음과 같다.Based on the configuration described so far, a series of processes for providing an augmented reality-based e-book will be described.
도 6은 본 발명의 실시예에 따른 전자책 제공 방법을 나타낸 순서도로서, 도 2의 구성과 연계하여 설명한다.6 is a flowchart illustrating a method of providing an e-book according to an embodiment of the present invention, which will be described in connection with the configuration of FIG. 2.
도 6을 참조하면, 제어부(317)는 시선 인터페이스(307)를 통해 사용자 시선을 인식한다(S101). 제어부(317)는 영상 획득부(303)를 통해 사용자 시선이 가리키는 전면 영상을 촬영하여 객체를 인식한다(S103).Referring to FIG. 6, the
제어부(317)는 인식(S103)한 객체를 기준으로 그리드 타입의 전자책 홀로그램 영상을 출력(S105)하도록 AR 화면 출력부(301)를 제어한다.The
제어부(317)는 제스처 인터페이스(309) 또는 음성 인터페이스(311)로부터 사용자 입력 신호를 수신(S107)하여, 입력된 사용자 입력 신호가 제스처 입력인지 또는 음성 입력인지를 판단한다(S109).The
사용자 입력 신호가 제스처 입력으로 판단되면, 제어부(317)는 제스처 인터페이스(309)로부터 입력되는 사용자 입력 신호로 제스처를 인식(S111)한다.If it is determined that the user input signal is a gesture input, the
제어부(317)는 인식(S111)한 제스처가 손가락으로 페이지를 펼치는 동작(Finger spread out)으로 판단(S113)되면, 손가락 방향으로 페이지를 이동하여 출력(S115)하도록 AR 화면 출력부(301)를 제어한다. 이 동작은 사용자가 자유롭게 손가락 제스처로 자신이 원하는 공간에 페이지를 배치할 수 있어 동시에 여러 책을 비교하기 수월하게 한다.The
제어부(317)는 인식(S111)한 제스처가 페이지 태그를 손가락으로 접었다 펴 클릭하는 동작(Finger Tag)으로 판단(S117)되면, 태그에 해당하는 페이지를 태그와 함께 저장한다(S119). 이 동작은 원하는 페이지의 태그 버튼을 손가락을 접었다 펴 클릭하면 태그 별로 페이지를 자동 분류해주고, 이는 주제와 관련된 페이지만을 따로 분류하여 저장하는 것을 도와줄 수 있다.When the
제어부(317)는 음성 입력 동작(Voice Find out)으로 판단(S109)되면, 음성 인터페이스(311)로부터 인식(S121)된 음성 명령에 따른 정보를 전자책 홀로그램 영상에 오버레이시켜 출력한다(S123). 이 동작은 '연도'와 '작가'를 발화하면 각 책에 대한 연도와 작가 정보가 나타나 작업 과정에서 서재 정보를 얻기 위해 특별히 화면을 전환하지 않더라도 언제든지 서재 정보를 알아내기 용이하도록 한다.If it is determined in operation S109 that the voice input operation is performed (Voice Find out), the
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not only implemented through the apparatus and the method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiments of the present invention or a recording medium on which the program is recorded.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
Claims (10)
상기 착용형 디스플레이 장치를 착용한 사용자의 시선을 추적하는 단계,
상기 사용자의 시선 방향에 위치한 실사 영상을 획득하는 단계,
상기 실사 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 단계,
사용자의 손으로 책을 펼치는 제스처를 인식하는 단계, 그리고
제스처 인식에 따라 상기 전자책의 복수개의 북 페이지가 표시된 가상 영상을 상기 현실 세계 3차원 좌표계 상에 증강하는 단계
를 포함하는, 증강현실 기반의 전자책 제공 방법.A wearable display device operated by at least one processor provides augmented reality-based e-book,
Tracking the eyes of the user wearing the wearable display device;
Acquiring a live-action image located in the user's gaze direction;
Augmenting a virtual image displaying an e-book on a three-dimensional coordinate system of the live-action image;
Recognizing a gesture of opening a book with a user's hand, and
Augmenting a virtual image on which the plurality of book pages of the e-book is displayed on the real world 3D coordinate system according to gesture recognition
Including, augmented reality based e-book providing method.
상기 출력하는 단계는,
상기 사용자의 시선 방향이 가리키는 현실 세계를 촬영하여 실제 현실 영상 데이터를 생성하는 단계,
상기 실제 현실 영상 데이터로부터 식별된 객체들 중에서 사용자 디바이스를 판별하는 단계, 그리고
상기 사용자 디바이스의 주위에 그리드 인터페이스를 출력하는 단계를 포함하고,
상기 그리드 인터페이스는,
상기 현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상이고,
상기 나열하는 단계는,
상기 복수개의 북 페이지를 상기 복수개의 구간에 페이지 순서대로 각각 표시하는, 증강현실 기반의 전자책 제공 방법.In claim 1,
The outputting step,
Generating real reality image data by photographing the real world indicated by the user's gaze direction;
Determining a user device among the objects identified from the real reality image data, and
Outputting a grid interface around the user device,
The grid interface,
A hologram image obtained by dividing a virtual space overlaid on the real world three-dimensional coordinate system into a plurality of sections;
The steps listed above,
And displaying the plurality of book pages in the page order in the plurality of sections, respectively.
상기 그리드 인터페이스를 출력하는 단계 이후,
상기 그리드 인터페이스를 클릭하는 제스처를 인식하는 단계, 그리고
상기 제스처 인식에 따라 상기 그리드 인터페이스의 각도 및 크기를 조정하여 출력하는 단계
를 더 포함하는, 증강현실 기반의 전자책 제공 방법.In claim 2,
After outputting the grid interface,
Recognizing a gesture of clicking the grid interface, and
Adjusting and outputting the angle and size of the grid interface according to the gesture recognition
Further comprising, augmented reality-based e-book providing method.
상기 나열하는 단계는,
상기 복수개의 북 페이지 각각에 태그를 표시하고,
상기 나열하는 단계 이후,
상기 태그를 접었다가 편 후 클릭하는 제스처를 인식하는 단계, 그리고
상기 태그와 해당 페이지를 매칭시켜 저장하는 단계를 더 포함하며,
상기 태그는,
페이지 그룹핑에 사용되는, 증강현실 기반의 전자책 제공 방법.In claim 2,
The steps listed above,
A tag is displayed on each of the plurality of book pages,
After the steps listed above,
Recognizing a gesture of folding and then clicking on the tag; and
Matching and storing the tag with the corresponding page;
The tag is,
Augmented Reality-based e-book providing method used for page grouping.
상기 나열하는 단계 이후,
사용자 음성을 인식하는 단계, 그리고
음성 인식에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하는 단계
를 더 포함하는, 증강현실 기반의 전자책 제공 방법.In claim 2,
After the steps listed above,
Recognizing a user's voice, and
Overlaying book data according to voice recognition on the grid interface and outputting the book data;
Further comprising, augmented reality-based e-book providing method.
사용자 눈의 움직임을 검출하는 시선 인터페이스,
사용자 손의 움직임이 나타내는 제스처를 인식하는 제스처 인터페이스,
현실 세계 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 증강현실 화면 출력부,
증강현실 기반의 전자책을 제공하는 프로그램을 저장하는 저장부, 그리고
상기 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 프로그램은,
상기 시선 인터페이스가 검출한 사용자의 시선 방향에 위치하고 상기 영상 획득부터 획득한 현실 세계 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 투사하고, 사용자의 손으로 책을 펼치는 제스처가 인식되면, 상기 제스처 인식에 따라 상기 전자책의 복수개의 북 페이지를 상기 현실세계 3차원 좌표계 상에 나열하는 명령어들(Instructions)을 포함하는, 착용형 디스플레이 장치. Image acquisition unit for taking an image,
A gaze interface for detecting the movement of the user's eyes,
A gesture interface for recognizing a gesture represented by movement of a user hand,
Augmented reality screen output unit for augmenting the virtual image in which the e-book is displayed on the real world three-dimensional coordinate system,
A storage unit for storing a program providing an augmented reality-based e-book, and
At least one processor for executing the program,
The program,
When the gesture of opening the book with the user's hand is recognized, the virtual image displaying the e-book is projected on the 3D coordinate system of the real world image which is located in the direction of the user's gaze detected by the gaze interface and acquired from the image acquisition. And instructions for arranging a plurality of book pages of the e-book on the real-world three-dimensional coordinate system according to gesture recognition.
상기 프로그램은,
상기 카메라로부터 생성된 사용자의 시선 방향이 가리키는 실제 현실 영상 데이터로부터 사용자 디바이스를 식별하고, 상기 사용자 디바이스의 주위에 그리드 인터페이스를 투사하며, 상기 그리드 인터페이스의 복수개의 구간에 상기 복수개의 북 페이지를 페이지 순서대로 각각 표시하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함하고,
상기 그리드 인터페이스는,
현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상인, 착용형 디스플레이 장치. In claim 6,
The program,
Identify the user device from the actual real image data indicated by the user's gaze direction generated from the camera, project a grid interface around the user device, and page the plurality of book pages in a plurality of sections of the grid interface. Commands for controlling the augmented reality screen output unit to display each, as shown,
The grid interface,
A wearable display device, which is a holographic image obtained by dividing a virtual space overlaid on a real world three-dimensional coordinate system into a plurality of sections.
상기 프로그램은,
상기 복수개의 북 페이지에 각각의 태그를 표시하고 상기 각각의 태그 중 한 태그를 접었다가 편 후 클릭하는 제스처를 인식하면, 제스처가 인식된 태그와 해당 페이지를 매칭시켜 저장하는 명령어들을 포함하고,
상기 저장부는,
제스처가 인식된 태그 별로 해당하는 적어도 하나의 페이지가 매칭된 그룹핑 정보를 저장하는, 착용형 디스플레이 장치.In claim 7,
The program,
And displaying the respective tags on the plurality of book pages, and recognizing a gesture of folding and clicking one tag among the respective tags, and including a command for matching and storing the recognized tag with the corresponding page.
The storage unit,
The wearable display device storing grouping information in which at least one page corresponding to each tag in which a gesture is recognized is matched.
사용자 음성을 입력받는 마이크를 더 포함하고,
상기 프로세서는,
상기 사용자 음성을 인식하여 명령어를 도출하고, 상기 명령어에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함하는, 착용형 디스플레이 장치.In claim 7,
Further comprising a microphone for receiving a user voice,
The processor,
And a command for controlling the augmented reality screen output unit to recognize the user's voice, derive a command, and overlay the book data according to the command on the grid interface for output.
상기 프로세서는,
상기 그리드 인터페이스를 클릭하는 제스처가 인식되면, 상기 그리드 인터페이스의 각도 및 크기를 조정하기 위한 사용자 인터페이스를 출력하고 상기 사용자 인터페이스를 통해 인식된 제스처에 따라 상기 그리드 인터페이스를 변경하는 명령어들을 포함하는, 착용형 디스플레이 장치.In claim 7,
The processor,
Wearable, comprising: instructions for outputting a user interface for adjusting the angle and size of the grid interface when the gesture of clicking the grid interface is recognized and for changing the grid interface according to a gesture recognized through the user interface Display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180053365A KR102570401B1 (en) | 2018-05-09 | 2018-05-09 | METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180053365A KR102570401B1 (en) | 2018-05-09 | 2018-05-09 | METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190128962A true KR20190128962A (en) | 2019-11-19 |
KR102570401B1 KR102570401B1 (en) | 2023-08-23 |
Family
ID=68771071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180053365A KR102570401B1 (en) | 2018-05-09 | 2018-05-09 | METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102570401B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435347A (en) * | 2020-11-23 | 2021-03-02 | 济南浪潮高新科技投资发展有限公司 | E-book reading system and method for enhancing reality |
WO2021246574A1 (en) * | 2020-06-02 | 2021-12-09 | 국민대학교산학협력단 | Portable terminal for controlling virtual reality content on basis of hand shape and illumination sensor, and vr viewer system including same |
CN114115532A (en) * | 2021-11-11 | 2022-03-01 | 珊瑚石(上海)视讯科技有限公司 | AR labeling method and system based on display content |
WO2022145888A1 (en) * | 2020-12-31 | 2022-07-07 | 삼성전자 주식회사 | Method for controlling augmented reality device, and augmented reality device performing same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130321390A1 (en) * | 2012-05-31 | 2013-12-05 | Stephen G. Latta | Augmented books in a mixed reality environment |
KR20140141319A (en) * | 2013-05-31 | 2014-12-10 | 전자부품연구원 | Augmented Reality Information Providing Apparatus and the Method |
KR20150140286A (en) * | 2013-03-15 | 2015-12-15 | 퍼셉트 테크놀러지스, 아이엔씨. | Enhanced optical and perceptual digital eyewear |
-
2018
- 2018-05-09 KR KR1020180053365A patent/KR102570401B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130321390A1 (en) * | 2012-05-31 | 2013-12-05 | Stephen G. Latta | Augmented books in a mixed reality environment |
KR20150140286A (en) * | 2013-03-15 | 2015-12-15 | 퍼셉트 테크놀러지스, 아이엔씨. | Enhanced optical and perceptual digital eyewear |
KR20140141319A (en) * | 2013-05-31 | 2014-12-10 | 전자부품연구원 | Augmented Reality Information Providing Apparatus and the Method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021246574A1 (en) * | 2020-06-02 | 2021-12-09 | 국민대학교산학협력단 | Portable terminal for controlling virtual reality content on basis of hand shape and illumination sensor, and vr viewer system including same |
CN112435347A (en) * | 2020-11-23 | 2021-03-02 | 济南浪潮高新科技投资发展有限公司 | E-book reading system and method for enhancing reality |
WO2022145888A1 (en) * | 2020-12-31 | 2022-07-07 | 삼성전자 주식회사 | Method for controlling augmented reality device, and augmented reality device performing same |
CN114115532A (en) * | 2021-11-11 | 2022-03-01 | 珊瑚石(上海)视讯科技有限公司 | AR labeling method and system based on display content |
CN114115532B (en) * | 2021-11-11 | 2023-09-29 | 珊瑚石(上海)视讯科技有限公司 | AR labeling method and system based on display content |
Also Published As
Publication number | Publication date |
---|---|
KR102570401B1 (en) | 2023-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11747618B2 (en) | Systems and methods for sign language recognition | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
KR102570401B1 (en) | METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY | |
US11960793B2 (en) | Intent detection with a computing device | |
IL264611A (en) | Word flow annotation | |
WO2022066728A1 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US20160196060A1 (en) | Gesture Controlled Adaptive Projected Information Handling System Input and Output Devices | |
US20150268773A1 (en) | Projected Information Handling System Input Interface with Dynamic Adjustment | |
WO2020156469A1 (en) | Hand-over-face input sensing for interaction with a device having a built-in camera | |
US11709593B2 (en) | Electronic apparatus for providing a virtual keyboard and controlling method thereof | |
Geer | Will gesture recognition technology point the way? | |
Du et al. | Opportunistic interfaces for augmented reality: Transforming everyday objects into tangible 6dof interfaces using ad hoc ui | |
US20150268731A1 (en) | Interactive Projected Information Handling System Support Input and Output Devices | |
Qian et al. | Dually noted: layout-aware annotations with smartphone augmented reality | |
Tran et al. | Wearable Augmented Reality: Research Trends and Future Directions from Three Major Venues | |
CN108604125B (en) | System and method for generating virtual badges based on gaze tracking | |
Kiefer et al. | Phalanger: Controlling Music Software With Hand Movement Using A Computer Vision and Machine Learning Approach. | |
Bhowmik | Natural and intuitive user interfaces with perceptual computing technologies | |
Stearns | Handsight: A Touch-Based Wearable System to Increase Information Accessibility for People with Visual Impairments | |
Chu et al. | A Study on AR Authoring using Mobile Devices for Educators. | |
KR20200116195A (en) | Apparatus and method for shopping clothes using holographic images | |
KR20200115967A (en) | Apparatus and method for shopping clothes using holographic images | |
KR20200127312A (en) | Apparatus and method for shopping clothes using holographic images | |
KR20230054030A (en) | Mobile device and the method thereof with English application | |
Yang | Variable reality: interacting with the virtual book |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |