KR20190128962A - METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY - Google Patents

METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY Download PDF

Info

Publication number
KR20190128962A
KR20190128962A KR1020180053365A KR20180053365A KR20190128962A KR 20190128962 A KR20190128962 A KR 20190128962A KR 1020180053365 A KR1020180053365 A KR 1020180053365A KR 20180053365 A KR20180053365 A KR 20180053365A KR 20190128962 A KR20190128962 A KR 20190128962A
Authority
KR
South Korea
Prior art keywords
book
user
gesture
interface
image
Prior art date
Application number
KR1020180053365A
Other languages
Korean (ko)
Other versions
KR102570401B1 (en
Inventor
김주섭
김신효
Original Assignee
서강대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서강대학교산학협력단 filed Critical 서강대학교산학협력단
Priority to KR1020180053365A priority Critical patent/KR102570401B1/en
Publication of KR20190128962A publication Critical patent/KR20190128962A/en
Application granted granted Critical
Publication of KR102570401B1 publication Critical patent/KR102570401B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided are a method and wearable display device for providing an electronic book based on augmented reality. The method for providing an electronic book based on augmented reality by the wearable display device operated by at least one processor comprises the steps of: tracking gaze of a user wearing the wearable display device; obtaining a real image positioned in a gaze direction of the user; augmenting a virtual image that the electronic book is displayed on three-dimensional coordinates of the real image; recognizing a gesture opening the electronic book with a hand of the user; and augmenting the virtual image on which a plurality of book pages of the electronic book is displayed according to the gesture recognition.

Description

증강현실 기반의 전자책 제공 방법 및 착용형 디스플레이 장치{METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY}Augmented Reality-based e-book providing method and wearable display device {METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY}

본 발명은 증강현실 기반의 전자책 제공 방법 및 착용형 디스플레이 장치에 관한 것이다.The present invention relates to a method for providing an augmented reality based e-book and a wearable display device.

책은 수천년간 인류가 정보를 저장하고 검색하고 습득하는 가장 오래된 미디어로서 매우 큰 의미를 지닌다. 이러한 책 미디어는 정보통신 기술의 발전으로 전자책(eBook)으로 진화하여 더욱 강력한 정보 저장, 검색, 습득의 기능을 제공하며 현재 많은 부분에서 종이책을 대체하고 있다. 하지만 정보통신기술의 발전으로 더욱 향상된 정보 미디어에 대한 가능성이 열려지고 있고 그에 대한 탐구가 필요한 상황이다.Books have a great meaning as the oldest media that human beings store, search and acquire information for thousands of years. These book media have evolved into eBooks with the development of information and communication technology, providing more powerful functions of information storage, retrieval and acquisition, and are now replacing paper books in many places. However, with the development of information and communication technology, the possibility of further improved information media is opening up and the situation needs to be explored.

읽는 행위에는 여러 측면이 있으므로 ICT(Information and Communications Technologies) 기술을 활용하여 읽기 경험을 증진시키고자 하는 연구들 역시 다양하게 전개되었다. 사용된 정보 미디어의 종류도 전자책 단말기 이외에도 새로운 전도체, 태블릿 PC(Personal Computer), 노트북 등이 활용되었다.Because there are many aspects of reading behavior, there have been various researches aimed at enhancing the reading experience by utilizing information and communications technologies (ICT). In addition to e-book terminals, new types of information media used were new conductors, tablet PCs, and notebook computers.

최근 AR(Augmented Reality) 기술을 활용하여 독서 경험을 증진시키고자 다양한 시도가 있었으나 서사가 있는 글, 색칠 놀이나 교과서와 같이 몰입과 흥미가 중요한 장르에 치중되어 있다는 한계가 있다.Recently, various attempts have been made to enhance the reading experience using AR (Augmented Reality) technology, but there are limitations in the genre where immersion and interest are important, such as narrative writing, coloring games, and textbooks.

또한, 사용성을 증진시킨 경우에도 터치를 활용한 인터랙션이 필요해 의료, 군사훈련, 제조업 등 양손을 활용하기 어려운 경우까지 확장되기는 어려웠다.In addition, even when the usability was improved, it was difficult to expand to the case where it was difficult to use both hands such as medical, military training, and manufacturing industry because touch interaction was required.

한편, 독서를 수행할 때 사용자들은 반복적인 탭 전환을 회피하고자, 작업 영역과 열람 영역을 구분하기 위한 다양한 시도를 취한다. 예를들면, 화면을 반씩 사용하기, 스마트폰이나 태블릿 PC 이용하기 등과 같다.On the other hand, when reading, users make various attempts to distinguish the work area from the viewing area in order to avoid repetitive tap switching. For example, half-screen, using a smartphone or tablet PC.

또한, 사용자들은 책을 읽으면서 주제와 관련된 문단이 나오면 형광펜 기능을 활용하거나, 그 내용을 복사하여 다른 곳에 기록하는 듯 표시를 한다. 그러나, 자신이 재열람 해야할 페이지나 문단이 어디에 있는지를 기억하지 못해 어려움을 겪거나, 다른 곳에 페이지 번호, 문구 등을 보조적으로 기록해놓아야 한다.In addition, users read the book and use paragraph highlighting when the paragraphs related to the topic appear, or copy the contents and mark them as if they are recorded elsewhere. However, you may have difficulty remembering where you have a page or paragraph to revisit, or make a supplementary record of page numbers or phrases elsewhere.

또한, 사용자들은 저자의 이름이나 제목 등을 기억하기 위해 다양한 전략을 시도한다. 예를들면, 저자의 이름이나 제목을 직접 기록하거나 또는 책의 첫장으로 가서 저자 혹은 서재 정보를 다시 확인한다.In addition, users try various strategies to remember the author's name or title. For example, write down the author's name or title, or go to the first chapter of the book and double-check the author or library information.

이와 같이, 종래에 독서 수행시에는 사용자에게 다양한 불편함이 존재하나, 이를 효과적으로 해결할 수 있는 방안이 아직 제안되어 있지 않다.As described above, various inconveniences exist to the user when reading, but a method for effectively solving the problem has not been proposed.

본 발명이 해결하고자 하는 과제는 제스처 인식을 통해 판독한 사용자 입력에 따라 사용자의 독서 활동을 보조하는 증강현실 기반의 전자책 제공 방법 및 착용형 디스플레이 장치를 제공하는 것이다.The present invention has been made in an effort to provide an augmented reality-based e-book providing method and a wearable display device that assists a user's reading activity according to a user input read through gesture recognition.

본 발명의 한 실시예에 따르면, 전자책 제공 방법은 적어도 하나의 프로세서에 의해 동작하는 착용형 디스플레이 장치가 증강현실 기반의 전자책을 제공하는 방법으로서, 상기 착용형 디스플레이 장치를 착용한 사용자의 시선을 추적하는 단계, 상기 사용자의 시선 방향에 위치한 실사 영상을 획득하는 단계, 상기 실사 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 단계, 사용자의 손으로 책을 펼치는 제스처를 인식하는 단계, 그리고 제스처 인식에 따라 상기 전자책의 복수개의 북 페이지가 표시된 가상 영상을 상기 현실 세계 3차원 좌표계 상에 증강하는 단계를 포함한다.According to an embodiment of the present invention, a method of providing an e-book provides a method of providing an augmented reality-based e-book by a wearable display device operated by at least one processor, wherein the user wears the wearable display device. Tracking an image, acquiring a photorealistic image located in the user's gaze direction, augmenting a virtual image in which an e-book is displayed on a three-dimensional coordinate system of the photorealistic image, and recognizing a gesture of opening a book by a user's hand And augmenting a virtual image on which the plurality of book pages of the e-book is displayed on the real world 3D coordinate system according to gesture recognition.

상기 출력하는 단계는, 상기 사용자의 시선 방향이 가리키는 현실 세계를 촬영하여 실제 현실 영상 데이터를 생성하는 단계, 상기 실제 현실 영상 데이터로부터 식별된 객체들 중에서 사용자 디바이스를 판별하는 단계, 그리고 상기 사용자 디바이스의 주위에 그리드 인터페이스를 출력하는 단계를 포함하고, 상기 그리드 인터페이스는, 상기 현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상이고, 상기 나열하는 단계는, 상기 복수개의 북 페이지를 상기 복수개의 구간에 페이지 순서대로 각각 표시할 수 있다.The outputting may include generating real-real image data by photographing a real world indicated by the user's gaze direction, determining a user device among objects identified from the real-real image data, and And outputting a grid interface around the grid interface, wherein the grid interface is a hologram image obtained by dividing a virtual space overlaid on the real world three-dimensional coordinate system into a plurality of sections, and the arranging includes the plurality of books. Pages may be displayed in the page order in the plurality of sections, respectively.

상기 그리드 인터페이스를 출력하는 단계 이후, 상기 그리드 인터페이스를 클릭하는 제스처를 인식하는 단계, 그리고 상기 제스처 인식에 따라 상기 그리드 인터페이스의 각도 및 크기를 조정하여 출력하는 단계를 더 포함할 수 있다.After outputting the grid interface, the method may further include recognizing a gesture of clicking the grid interface, and adjusting and outputting an angle and a size of the grid interface according to the gesture recognition.

상기 나열하는 단계는, 상기 복수개의 북 페이지 각각에 태그를 표시하고, 상기 나열하는 단계 이후, 상기 태그를 접었다가 편 후 클릭하는 제스처를 인식하는 단계, 그리고 상기 태그와 해당 페이지를 매칭시켜 저장하는 단계를 더 포함하며, 상기 태그는, 페이지 그룹핑에 사용될 수 있다.The listing may include displaying a tag on each of the plurality of book pages, and after the listing, recognizing a gesture of folding and then clicking the tag, and matching and storing the tag with the corresponding page. In addition, the tag may be used for page grouping.

상기 나열하는 단계 이후, 사용자 음성을 인식하는 단계, 그리고 음성 인식에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하는 단계를 더 포함할 수 있다.After the listing, the method may further include recognizing a user voice, and outputting the book data according to the voice recognition on the grid interface.

본 발명의 다른 특징에 따르면, 착용형 디스플레이 장치는 영상을 촬영하는 영상 획득부, 사용자 눈의 움직임을 검출하는 시선 인터페이스, 사용자 손의 움직임이 나타내는 제스처를 인식하는 제스처 인터페이스, 현실 세계 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 증강현실 화면 출력부, 증강현실 기반의 전자책을 제공하는 프로그램을 저장하는 저장부, 그리고 상기 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고, 상기 프로그램은, 상기 시선 인터페이스가 검출한 사용자의 시선 방향에 위치하고 상기 영상 획득부터 획득한 현실 세계 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 투사하고, 사용자의 손으로 책을 펼치는 제스처가 인식되면, 상기 제스처 인식에 따라 상기 전자책의 복수개의 북 페이지를 상기 현실세계 3차원 좌표계 상에 나열하는 명령어들(Instructions)을 포함한다.According to another feature of the present invention, the wearable display device includes an image acquisition unit for capturing an image, a gaze interface for detecting a movement of a user's eyes, a gesture interface for recognizing a gesture indicated by a movement of a user's hand, and an image in a real world 3D coordinate system An augmented reality screen output unit for augmenting a virtual image displayed on the e-book, a storage unit for storing a program for providing an augmented reality-based e-book, and at least one processor for executing the program, the program, When the gesture of opening the book with the user's hand is recognized, the virtual image displaying the e-book is projected on the 3D coordinate system of the real world image which is located in the direction of the user's gaze detected by the gaze interface and acquired from the image acquisition. Recalling a plurality of book pages of the e-book according to gesture recognition It includes the commands that are listed in the real world three-dimensional coordinate system (Instructions).

상기 프로그램은, 상기 카메라로부터 생성된 사용자의 시선 방향이 가리키는 실제 현실 영상 데이터로부터 사용자 디바이스를 식별하고, 상기 사용자 디바이스의 주위에 그리드 인터페이스를 투사하며, 상기 그리드 인터페이스의 복수개의 구간에 상기 복수개의 북 페이지를 페이지 순서대로 각각 표시하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함하고, 상기 그리드 인터페이스는, 현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상일 수 있다.The program identifies the user device from the actual reality image data indicated by the user's gaze direction generated from the camera, projects a grid interface around the user device, and the plurality of books in a plurality of sections of the grid interface. And a command to control the augmented reality screen output unit to display pages in page order, respectively, and the grid interface may be a hologram image obtained by dividing a virtual space overlaid on a real world three-dimensional coordinate system into a plurality of sections.

상기 프로그램은, 상기 복수개의 북 페이지에 각각의 태그를 표시하고 상기 각각의 태그 중 한 태그를 접었다가 편 후 클릭하는 제스처를 인식하면, 제스처가 인식된 태그와 해당 페이지를 매칭시켜 저장하는 명령어들을 포함하고, 상기 저장부는, 제스처가 인식된 태그 별로 해당하는 적어도 하나의 페이지가 매칭된 그룹핑 정보를 저장할 수 있다.If the program recognizes a gesture of displaying each tag on the plurality of book pages and folding and clicking one of the respective tags, the program recognizes a gesture and a corresponding tag and stores the page. The storage unit may store grouping information in which at least one page corresponding to each tag in which a gesture is recognized is matched.

상기 착용형 디스플레이 장치는, 사용자 음성을 입력받는 마이크를 더 포함하고, 상기 프로세서는, 상기 사용자 음성을 인식하여 명령어를 도출하고, 상기 명령어에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함할 수 있다.The wearable display apparatus may further include a microphone configured to receive a user voice, and the processor may recognize the user voice to derive a command, and overlay the book data according to the command on the grid interface and output the command. It may include commands to control the reality screen output unit.

상기 프로세서는, 상기 그리드 인터페이스를 클릭하는 제스처가 인식되면, 상기 그리드 인터페이스의 각도 및 크기를 조정하기 위한 사용자 인터페이스를 출력하고 상기 사용자 인터페이스를 통해 인식된 제스처에 따라 상기 그리드 인터페이스를 변경하는 명령어들을 포함할 수 있다.The processor may include instructions for outputting a user interface for adjusting an angle and a size of the grid interface when the gesture of clicking the grid interface is recognized and for changing the grid interface according to the gesture recognized through the user interface. can do.

본 발명의 실시예에 따르면, 양손을 자유롭게 쓸 수 있는 상태에서 전자책을 읽을 수 있도록 하여 고도의 전문 지식이 요구되는 상황을 효율적으로 지원할 수 있다.According to the embodiment of the present invention, the electronic book can be read in a state where both hands can be freely written, thereby efficiently supporting a situation in which a high degree of expertise is required.

또한, 사용자들은 여러 텍스트를 동시에 참조할 수 있고 터치 방식이 아닌 제스처 인식을 사용하여 사용자 입력을 판독하므로, 멀티태스킹에 효과적이며 일반적인 글 읽기뿐만 아니라 의료, 군사훈련, 제조 분야 등 특정한 작업을 하면서 원하는 글을 여럿 읽는 상황에서의 사용자 경험까지 증진할 수 있다.In addition, users can refer to multiple texts simultaneously and read user input using gesture recognition rather than touch method, which is effective for multitasking and can be used for specific tasks such as medical, military training, and manufacturing, as well as general text reading. It can enhance the user experience in situations where you are reading multiple texts.

또한, 종래에 일반적인 독서시 반복적인 탭 전환에 대한 피로, 표시한 문단을 다시 불러오는 것에 대한 불편함, 저자 정보 및 서재 정보를 찾기 어려워 수기로 기록하는 등의 수작업을 수반했던 종래 문제를 해결할 수 있다.In addition, it is possible to solve the conventional problems of manual reading, such as fatigue of repeated tap switching in general reading, inconvenience of reloading the displayed paragraph, and manual writing such as difficult to find author information and study information. .

도 1은 본 발명의 한 실시예에 따른 증강현실 기반으로 전자책을 제공하는 예시도이다.
도 2는 본 발명의 한 실시예에 따른 착용형 디스플레이 장치의 하드웨어 구성을 나타낸 블록도이다.
도 3, 4, 5는 본 발명의 실시예에 따른 그리드 인터페이스의 예시도이다.
도 6은 본 발명의 실시예에 따른 전자책 제공 방법을 나타낸 순서도이다.
1 is an exemplary view for providing an e-book based on augmented reality according to an embodiment of the present invention.
2 is a block diagram illustrating a hardware configuration of a wearable display device according to an exemplary embodiment.
3, 4 and 5 are exemplary views of a grid interface according to an embodiment of the present invention.
6 is a flowchart illustrating a method of providing an e-book according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless otherwise stated.

본 명세서에서 단수로 기재된 표현은 "하나" 또는 "단일" 등의 명시적인 표현을 사용하지 않은 이상, 단수 또는 복수로 해석될 수 있다.The expressions used in the singular herein may be interpreted in the singular or the plural, unless an explicit expression such as “one” or “single” is used.

본 명세서에서 사용자 인터랙션은 어떤 특정 결과를 유발하는 사용자 입력 동작을 지칭하는 용어로 정의한다.In this specification, user interaction is defined as a term referring to a user input operation that causes a certain result.

도 1은 본 발명의 한 실시예에 따른 증강현실 기반으로 전자책을 제공하는 예시도이다.1 is an exemplary view for providing an e-book based on augmented reality according to an embodiment of the present invention.

도 1을 참조하면, 사용자가 사용하는 디바이스(100)의 주위에 전자책이 표시된 그리드 인터페이스(200)가 증강된다. 사용자가 착용한 착용형 디스플레이 장치(300)는 사용자의 시선이 향하는 실제 영상을 획득하고, 실제 영상의 3차원 좌표계 상에 그리드 인터페이스(200)를 출력한다. 이는 사용자가 통합적인 독서를 하는 동안 글을 쓰거나 다른 자료도 함께 읽기 편리하도록 고안된 것이다.Referring to FIG. 1, a grid interface 200 in which an e-book is displayed around the device 100 used by a user is augmented. The wearable display device 300 worn by a user acquires an actual image to which the user's eyes are directed, and outputs the grid interface 200 on the 3D coordinate system of the actual image. It is designed to make it easier for users to write or read other materials while doing integrated reading.

그리드 인터페이스(200)에는 안쪽부터 바깥쪽으로 순서대로 북 페이지가 배치된다. 사용자는 그리드 인터페이스(200)를 클릭하여 자신의 디바이스(100)에 맞게 그리드 인터페이스(200)의 각도와 크기를 조절할 수 있다.The book pages are arranged in the grid interface 200 in order from the inside to the outside. The user may click on the grid interface 200 to adjust the angle and size of the grid interface 200 according to his device 100.

여기서, 착용형 디스플레이 장치(300)는 제스처 인식을 통해 전자책의 페이지 배치, 페이지 분류를 하거나 음성으로 전자책에 대한 정보를 획득할 수 있도록 한다. 착용형 디스플레이 장치(300)는 머리 부분에 장착해, 이용자의 눈 앞에 직접 영상을 제시할 수 있는 디스플레이 장치로서, 헤드 마운티드 디스플레이(Head??mounted display, HMD)라고 할 수도 있다. 이러한 착용형 디스플레이 장치의 구성에 대하여 도 2를 참고하여 설명한다.Here, the wearable display apparatus 300 may perform page layout, page classification, or obtain information on the e-book by voice through gesture recognition. The wearable display device 300 is a display device that can be mounted on a head and present an image directly in front of a user's eyes. The wearable display device 300 may also be referred to as a head mounted display (HMD). A configuration of such a wearable display device will be described with reference to FIG. 2.

도 2는 본 발명의 한 실시예에 따른 착용형 디스플레이 장치의 하드웨어 구성을 나타낸 블록도이고, 도 3, 4, 5는 본 발명의 실시예에 따른 그리드 인터페이스의 예시도이다.2 is a block diagram illustrating a hardware configuration of a wearable display device according to an embodiment of the present invention, and FIGS. 3, 4, and 5 are exemplary views of a grid interface according to an embodiment of the present invention.

도 2를 참조하면, 착용형 디스플레이 장치(300)는 AR(Augmented Reality) 화면 출력부(301), 영상 획득부(303), 스피커(305), 시선 인터페이스(307), 제스처 인터페이스(309), 음성 인터페이스(311), 통신 인터페이스(313), 저장부(315) 및 제어부(317)를 포함한다.Referring to FIG. 2, the wearable display device 300 includes an augmented reality screen output unit 301, an image acquisition unit 303, a speaker 305, a gaze interface 307, a gesture interface 309, The voice interface 311, the communication interface 313, the storage unit 315, and the controller 317 are included.

AR 화면 출력부(301)는 도 1에서도 설명한 바와 같이, 전자책이 표시된 그리드 인터페이스(도 1의 200)를 실사 영상에 증강한다. AR 화면 출력부(301)는 착용형 디스플레이 장치(300)의 디스플레이 구동 원리에 따라 다양한 실시예가 가능하다.As described with reference to FIG. 1, the AR screen output unit 301 augments the grid interface (200 of FIG. 1) on which the e-book is displayed on the live image. The AR screen output unit 301 may be various embodiments according to the display driving principle of the wearable display device 300.

한 실시예에 따르면, AR 화면 출력부(301)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여주는 홀로그래픽 원리를 사용하는 홀로그램 렌즈(Hologram lens)로 구성될 수 있다. 이때, AR 화면 출력부(301)는 현실세계 3차원 좌표계 상에 전자책이 표시된 홀로그램 영상을 투사한다.According to an embodiment, the AR screen output unit 301 may be configured as a hologram lens using a holographic principle of displaying a stereoscopic image in the air by using interference of light. In this case, the AR screen output unit 301 projects a hologram image in which an e-book is displayed on the real world three-dimensional coordinate system.

다른 실시예에 따르면, AR 화면 출력부(301)는 스크린에 빛을 투사하여 영상을 표시하는 광학 디스플레이 방식의 광 투사 시스템으로 구현될 수 있다. AR 화면 출력부(301)는 프로젝터의 빔이 프리즘 안의 판에 반사되어 사용자의 눈에 영상이 맺힌다. 이때, AR 화면 출력부(301)는 전자책 광 영상을 프로젝터를 통해 출력할 수 있다. According to another exemplary embodiment, the AR screen output unit 301 may be implemented as an optical display system of an optical display type by displaying light by projecting light onto a screen. The AR screen output unit 301 reflects the beam of the projector to the plate in the prism to form an image in the eyes of the user. In this case, the AR screen output unit 301 may output the e-book optical image through the projector.

그러나, 착용형 디스플레이 장치(300)는 다양한 제조사들에 의해 제조되며 그 종류 및 기술 원리가 다양하므로, 이러한 두가지 실시예를 비롯하여 특정 기술로 국한되는 것은 아니다. However, since the wearable display device 300 is manufactured by various manufacturers and its types and technical principles vary, the wearable display device 300 is not limited to a specific technology including these two embodiments.

영상 획득부(303)는 적어도 하나의 실제 객체를 포함하는 현실 환경을 촬영하여 이로부터 현실 환경에 대한 영상, 즉, 실제 영상을 획득한다. The image acquisition unit 303 photographs a real environment including at least one real object and acquires an image of the real environment, that is, a real image from the real environment.

한 실시예에 따르면, 영상 획득부(303)는 컬러(RGB), 스테레오(Stereo), 깊이(Depth) 또는 컬러와 깊이를 결합한(RGBD) 카메라일 수 있다. 영상 획득부(303)는 동영상 촬영이 가능한 비디오 카메라일 수 있다.According to an embodiment, the image acquisition unit 303 may be a color (RGB), stereo, depth, depth, or a combination of color and depth (RGBD). The image acquisition unit 303 may be a video camera capable of shooting a video.

또한, 영상 획득부(303)는 사용자 인터랙션에 기반이 되는 제스처 인식을 위해 사용자의 손 영상을 획득할 수 있다.In addition, the image acquisition unit 303 may obtain a user's hand image for gesture recognition based on user interaction.

스피커(305)는 제어부(317)의 동작에 따른 음성, 효과음 등을 출력한다.The speaker 305 outputs a voice, an effect sound, and the like according to the operation of the controller 317.

시선 인터페이스(307)는 사용자 눈의 움직임을 검출한다. 시선 인터페이스(307)는 사용자의 시선방향을 추적하는 시선 추적 센서일 수 있다. The gaze interface 307 detects movement of the user's eyes. The gaze interface 307 may be a gaze tracking sensor that tracks a gaze direction of a user.

본 발명의 한 실시예에 따르면, 시선 인터페이스(307)는 광학 방식의 시선 추적 센서일 수 있다. 이 경우, 시선 인터페이스(307)는 육안으로 식별이 난해하며 인체에 무해한 광선(예컨대, 적외선)을 사용자에게 선택적으로 주사하고, 사용자로부터 반사되는 광선을 인식하여 사용자의 시선을 추적한다.According to an embodiment of the present invention, the gaze interface 307 may be an optical gaze tracking sensor. In this case, the gaze interface 307 selectively scans the user with a light ray (for example, infrared ray) that is difficult to visually recognize and is harmless to the human body, and recognizes the ray reflected from the user to track the user's gaze.

본 발명의 다른 실시예에 따르면, 시선 인터페이스(307)는 화상 입력 방식의 시선 추적 센서일 수 있다. 이 경우, 시선 인터페이스(307)는 CCD(Charge Coupled Device) 소자를 포함하는 카메라를 통해 사용자에 대한 화상 데이터를 입력받고, 화상 데이터를 판독하여 사용자의 시선을 추적한다.According to another embodiment of the present invention, the gaze interface 307 may be a gaze tracking sensor of an image input method. In this case, the line of sight interface 307 receives image data of the user through a camera including a charge coupled device (CCD) element, and reads the image data to track the line of sight of the user.

그러나 전술한 사용자의 시선을 추적하는 방식이 상술된 방식으로 한정되는 것은 결코 아니며, 당업자에 따라 다양하게 변형하여 실시할 수 있으며, 본 발명은 상기 변형 가능한 모든 실시방법을 포함한다.However, the above-described method of tracking the eyes of the user is not limited to the above-described method, and may be variously modified and implemented by those skilled in the art, and the present invention includes all the above-described embodiments.

제스처 인터페이스(309)는 사용자의 움직임을 감지한다. 한 실시예에 따르면, 제스처 인터페이스(309)는 적외선 센서 또는 초음파 센서 등을 포함할 수 있다. 예를들면, 제스처 인터페이스(309)는 다수의 적외선 점을 발산하는 적외선 광원(Infrared Ray Illuminator), 반사된 적외선을 인지하는 적외선 센서(Infrared Ray Sensor), 큰 시야각을 위한 보조 적외선 센서 등을 통해 제스처를 인식할 수 있다. 적외선 센서가 인지한 광량 정보를 통해 제스처를 검출할 수 있고, 제스처 별 광량 정보는 사전에 저장되어 있을 수 있으나, 이러한 내용으로 국한되는 것은 아니다. 또한, 적외선 센서 또는 초음파 센서를 이용한 제스처 인식 기술은 종래에 알려진 기술을 이용할 수 있으므로, 상세한 설명은 생략한다.The gesture interface 309 detects a user's movement. According to an embodiment, the gesture interface 309 may include an infrared sensor or an ultrasonic sensor. For example, the gesture interface 309 can be gestured through an Infrared Ray Illuminator that emits multiple infrared points, an Infrared Ray Sensor that recognizes reflected infrared light, an auxiliary Infrared Sensor for large viewing angles, and the like. Can be recognized. The gesture may be detected through the light amount information recognized by the infrared sensor, and the light amount information for each gesture may be stored in advance, but is not limited thereto. In addition, since a gesture recognition technique using an infrared sensor or an ultrasonic sensor may use a technique known in the art, a detailed description thereof will be omitted.

다른 실시예에 따르면, 제스처 인터페이스(309)는 영상 획득부(303)로부터 입력되는 영상에서 손영역을 추출하고, 추출한 손영역에 대한 영상 인식을 통하여 제스처를 검출할 수 있다. 이러한 영상 인식 기반의 제스처 인식 기술은 종래에 알려진 다양한 기술을 이용할 수 있다.According to another exemplary embodiment, the gesture interface 309 may extract a hand region from an image input from the image acquirer 303, and detect a gesture through image recognition of the extracted hand region. Such image recognition-based gesture recognition technology may use various techniques known in the art.

음성 인터페이스(311)는 외부로부터 음성을 입력받는 구성 및 외부 음성을 인식하는 구성을 포함한다. 음성을 입력받는 구성은 마이크로폰 어레이가 사용될 수 있다. 음성 인식 기술에 대해서는 이미 잘 알려져 있으므로 여기에서는 구체적인 설명을 생략한다.The voice interface 311 includes a configuration for receiving a voice from the outside and a configuration for recognizing the external voice. In the voice input configuration, a microphone array may be used. Since the speech recognition technology is well known, a detailed description thereof will be omitted.

통신 인터페이스(313)는 유무선 통신망(미도시)을 통해 외부 서버(미도시)와 연결되어, 전자책 서비스와 관련한 데이터를 송수신한다. 예를들면, 전자책 정보가 외부 서버(미도시)에 저장되어 있고, 이를 수신할 수 있다. 또한, 사용자의 제스처 인식 결과, 시선 추적 결과 등을 외부 서버(미도시)에 전송하고, 처리 결과를 수신할 수 있다.The communication interface 313 is connected to an external server (not shown) through a wired or wireless communication network (not shown), and transmits and receives data related to an e-book service. For example, the e-book information is stored in an external server (not shown) and can be received. In addition, a gesture recognition result of the user, a gaze tracking result, and the like may be transmitted to an external server (not shown), and the processing result may be received.

여기서, 외부 서버(미도시)는 착용형 디스플레이 장치(300)의 요청에 따른 전자책 정보를 제공하는 기능을 수행할 수 있다. 예를들면, 외부 서버는 검색 엔진(미도시됨)을 포함하여 착용형 디스플레이 장치(300)의 요청에 대응되는 전자책 정보를 검색하고 그 검색 결과를 착용형 디스플레이 장치(300)의 사용자가 브라우징할 수 있도록 제공할 수 있다.Here, the external server (not shown) may perform a function of providing e-book information in response to a request of the wearable display device 300. For example, the external server may include a search engine (not shown) to retrieve e-book information corresponding to a request of the wearable display device 300 and browse the search results by a user of the wearable display device 300. Can be provided to do so.

저장부(315)는 비휘발성 메모리를 포함하며, 기능적으로 제어부(317)로 로딩될 프로그램 코드와 프로그램 코드가 사용하는 데이터 셋트를 저장 및 유지하는 저장매체 기능을 수행한다. The storage unit 315 includes a nonvolatile memory and functionally stores a program code to be loaded into the controller 317 and a data set used by the program code.

저장부(315)는 증강현실 기반의 전자책을 제공하는 프로그램을 저장한다. 이러한 프로그램은 시선 추적 결과 및 제스처 인식 결과를 통해 사용자 인터랙션을 해석하고, 해석에 따른 전자책 정보를 증강현실로 구현하는 명령어들(Instructions)을 포함할 수 있다.The storage unit 315 stores a program for providing an augmented reality-based electronic book. Such a program may include instructions for interpreting a user interaction through a gaze tracking result and a gesture recognition result, and implementing e-book information according to the interpretation in augmented reality.

제어부(317)는 각 구성 요소들을 제어하여, 본 발명에 따라 증강 현실 기반의 전자책 제공 방법을 수행하는 것으로, 이를 위한 하드웨어 프로세서 또는 이 하드웨어 프로세서에서 실행되는 소프트웨어 모듈이 될 수 있다. The controller 317 controls each component to perform a method for providing augmented reality-based e-book according to the present invention, which may be a hardware processor or a software module executed in the hardware processor.

제어부(317)는 AR 화면 출력부(301), 영상 획득부(303), 스피커(305), 시선 인터페이스(307), 제스처 인터페이스(309), 음성 인터페이스(311), 통신 인터페이스(313) 및 저장부(315)와 연결되어, 이들 구성의 데이터 흐름을 제어한다. The controller 317 is the AR screen output unit 301, the image acquisition unit 303, the speaker 305, the gaze interface 307, the gesture interface 309, the voice interface 311, the communication interface 313 and storage In conjunction with section 315, it controls the data flow of these configurations.

제어부(317)는 시선 인터페이스(307)를 통해 착용형 디스플레이 장치(300)를 착용한 사용자의 시선을 추적한다. 제어부(317)는 사용자의 시선 방향에 위치한 실사 영상을 영상 획득부(303)로부터 획득한다. 제어부(317)는 실사 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강한다. 이때, 제어부(317)는 전자책이 표시된 홀로그램 영상을 투사할 수 있다. 제어부(317)는 제스처 인터페이스(309)로부터 사용자의 손으로 책을 펼치는 제스처가 인식되면, 제스처 인식에 따라 전자책의 복수개의 북 페이지가 표시된 가상 영상을 현실 세계 3차원 좌표계 상에 증강하도록 AR 화면 출력부(301)를 제어한다. The controller 317 tracks the gaze of the user wearing the wearable display device 300 through the gaze interface 307. The controller 317 obtains a live image located in the direction of the user's eyes from the image acquirer 303. The controller 317 augments the virtual image in which the e-book is displayed on the three-dimensional coordinate system of the live-action image. In this case, the controller 317 may project the hologram image on which the e-book is displayed. When the gesture of opening a book by the user's hand is recognized from the gesture interface 309, the controller 317 may augment an AR screen to augment a virtual image on which a plurality of book pages of an e-book is displayed on the real world 3D coordinate system according to the gesture recognition. The output unit 301 is controlled.

제어부(317)는 사용자의 시선 방향이 가리키는 실제 현실 영상 데이터로부터 사용자 디바이스(도 1의 100)를 식별하고, 사용자 디바이스(100)의 주위에 그리드 인터페이스(도 1의 200)를 출력할 수 있다. The controller 317 may identify the user device (100 of FIG. 1) from the actual reality image data indicated by the user's gaze direction, and output a grid interface (200 of FIG. 1) around the user device 100.

도 3, 4, 5를 참조하면, 그리드 인터페이스(200)는 실제 영상의 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상일 수 있다. 도 3을 참조하면, 그리드 인터페이스(200)는 실물 객체의 배경 또는 후면에 위치할 수 있다. 도 4를 참조하면, 그리드 인터페이스(200)는 실물 객체의 후면 및 좌우 측면에 위치할 수 있다. 3, 4, and 5, the grid interface 200 may be a hologram image obtained by dividing a virtual space overlaid on a three-dimensional coordinate system of an actual image into a plurality of sections. Referring to FIG. 3, the grid interface 200 may be located on the background or the back of the real object. Referring to FIG. 4, the grid interface 200 may be located at the rear and left and right sides of the real object.

도 5를 참조하면, 그리드 인터페이스(200)는 다계층으로 구분될 수 있다. 즉,일정 개수의 구간으로 구분되는 제1 계층(201), 제2 계층(203), 제3 계층(205)으로 구분되고, 전자책 정보가 이러한 계층 별로 구분되어 표출될 수 있다.Referring to FIG. 5, the grid interface 200 may be divided into multiple layers. That is, the first layer 201, the second layer 203, and the third layer 205 may be divided into a predetermined number of sections, and the e-book information may be divided and displayed for each layer.

제어부(317)는 사용자의 손으로 책을 펼치는 제스처가 인식되면, 제스처 인식에 따라 전자책의 복수개의 북 페이지를 실제 영상의 3차원 좌표계 상에 나열한다. 이때, 제어부(317)는 그리드 인터페이스(200)를 구성하는 복수개의 구간에 복수개의 북 페이지를 페이지 순서대로 각각 표시할 수 있다.When the gesture of opening the book with the user's hand is recognized, the controller 317 lists the plurality of book pages of the e-book on the 3D coordinate system of the actual image according to the gesture recognition. In this case, the controller 317 may display a plurality of book pages in page order in a plurality of sections constituting the grid interface 200.

제어부(317)는 복수개의 북 페이지에 각각의 태그를 표시하고 각각의 태그 중 한 태그를 접었다가 편 후 클릭하는 제스처를 인식하면, 제스처가 인식된 태그와 해당 페이지를 매칭시켜 저장할 수 있다. 제어부(317)는 제스처가 인식된 태그 별로 해당하는 적어도 하나의 페이지가 매칭된 그룹핑 정보를 저장부(315)에 저장할 수 있다.If the controller 317 recognizes a gesture of displaying each tag on the plurality of book pages and folding and clicking one of the respective tags, the controller 317 may match and store the tag with the recognized gesture. The controller 317 may store the grouping information in which at least one page corresponding to each tag in which the gesture is recognized is matched in the storage 315.

제어부(317)는 음성 인터페이스(311)로부터 수신되는 사용자 음성의 인식 결과를 토대로 해당하는 북 데이터를 그리드 인터페이스(200)에 오버레이시켜 출력할 수 있다. The controller 317 may overlay the book data on the grid interface 200 and output the book data based on the recognition result of the user voice received from the voice interface 311.

제어부(317)는 그리드 인터페이스(200)를 클릭하는 제스처가 인식되면, 그리드 인터페이스(200)의 각도 및 크기를 조정하기 위한 사용자 인터페이스를 출력하고 사용자 인터페이스를 통해 인식된 제스처에 따라 그리드 인터페이스(200)를 변경할 수 있다.When the gesture of clicking the grid interface 200 is recognized, the controller 317 outputs a user interface for adjusting the angle and size of the grid interface 200, and the grid interface 200 according to the gesture recognized through the user interface. Can be changed.

지금까지 설명한 구성을 토대로, 증강현실 기반의 전자책을 제공하는 일련의 과정에 대해 설명하면, 다음과 같다.Based on the configuration described so far, a series of processes for providing an augmented reality-based e-book will be described.

도 6은 본 발명의 실시예에 따른 전자책 제공 방법을 나타낸 순서도로서, 도 2의 구성과 연계하여 설명한다.6 is a flowchart illustrating a method of providing an e-book according to an embodiment of the present invention, which will be described in connection with the configuration of FIG. 2.

도 6을 참조하면, 제어부(317)는 시선 인터페이스(307)를 통해 사용자 시선을 인식한다(S101). 제어부(317)는 영상 획득부(303)를 통해 사용자 시선이 가리키는 전면 영상을 촬영하여 객체를 인식한다(S103).Referring to FIG. 6, the controller 317 recognizes a user's gaze through the gaze interface 307 (S101). The controller 317 recognizes an object by photographing the front image indicated by the user's gaze through the image acquisition unit 303 (S103).

제어부(317)는 인식(S103)한 객체를 기준으로 그리드 타입의 전자책 홀로그램 영상을 출력(S105)하도록 AR 화면 출력부(301)를 제어한다.The controller 317 controls the AR screen output unit 301 to output a grid type e-book hologram image (S105) based on the recognized object (S103).

제어부(317)는 제스처 인터페이스(309) 또는 음성 인터페이스(311)로부터 사용자 입력 신호를 수신(S107)하여, 입력된 사용자 입력 신호가 제스처 입력인지 또는 음성 입력인지를 판단한다(S109).The controller 317 receives a user input signal from the gesture interface 309 or the voice interface 311 (S107), and determines whether the input user input signal is a gesture input or a voice input (S109).

사용자 입력 신호가 제스처 입력으로 판단되면, 제어부(317)는 제스처 인터페이스(309)로부터 입력되는 사용자 입력 신호로 제스처를 인식(S111)한다.If it is determined that the user input signal is a gesture input, the controller 317 recognizes the gesture with the user input signal input from the gesture interface 309 (S111).

제어부(317)는 인식(S111)한 제스처가 손가락으로 페이지를 펼치는 동작(Finger spread out)으로 판단(S113)되면, 손가락 방향으로 페이지를 이동하여 출력(S115)하도록 AR 화면 출력부(301)를 제어한다. 이 동작은 사용자가 자유롭게 손가락 제스처로 자신이 원하는 공간에 페이지를 배치할 수 있어 동시에 여러 책을 비교하기 수월하게 한다.The controller 317 determines that the gesture (S111) is to spread the page with a finger (Finger spread out) (S113), the AR screen output unit 301 to move the page in the direction of the finger to output (S115). To control. This operation allows the user to freely place pages in the desired space with finger gestures, making it easier to compare multiple books at the same time.

제어부(317)는 인식(S111)한 제스처가 페이지 태그를 손가락으로 접었다 펴 클릭하는 동작(Finger Tag)으로 판단(S117)되면, 태그에 해당하는 페이지를 태그와 함께 저장한다(S119). 이 동작은 원하는 페이지의 태그 버튼을 손가락을 접었다 펴 클릭하면 태그 별로 페이지를 자동 분류해주고, 이는 주제와 관련된 페이지만을 따로 분류하여 저장하는 것을 도와줄 수 있다.When the controller 317 determines that the recognized gesture (S111) is a function of folding and clicking the page tag by a finger (Singer Tag) (S117), the controller 317 stores the page corresponding to the tag with the tag (S119). This operation is to fold your finger on the tag button of the desired page and click on it to automatically sort the pages by tag, which can help to sort and save only the pages related to the topic.

제어부(317)는 음성 입력 동작(Voice Find out)으로 판단(S109)되면, 음성 인터페이스(311)로부터 인식(S121)된 음성 명령에 따른 정보를 전자책 홀로그램 영상에 오버레이시켜 출력한다(S123). 이 동작은 '연도'와 '작가'를 발화하면 각 책에 대한 연도와 작가 정보가 나타나 작업 과정에서 서재 정보를 얻기 위해 특별히 화면을 전환하지 않더라도 언제든지 서재 정보를 알아내기 용이하도록 한다.If it is determined in operation S109 that the voice input operation is performed (Voice Find out), the controller 317 overlays the information according to the voice command recognized from the voice interface 311 on the e-book hologram image and outputs the electronic book hologram image in operation S123. This action ignites 'year' and 'writer' so that the year and author information for each book appears, making it easier to find the library information at any time, even if the screen is not changed in order to obtain the library information.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not only implemented through the apparatus and the method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiments of the present invention or a recording medium on which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (10)

적어도 하나의 프로세서에 의해 동작하는 착용형 디스플레이 장치가 증강현실 기반의 전자책을 제공하는 방법으로서,
상기 착용형 디스플레이 장치를 착용한 사용자의 시선을 추적하는 단계,
상기 사용자의 시선 방향에 위치한 실사 영상을 획득하는 단계,
상기 실사 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 단계,
사용자의 손으로 책을 펼치는 제스처를 인식하는 단계, 그리고
제스처 인식에 따라 상기 전자책의 복수개의 북 페이지가 표시된 가상 영상을 상기 현실 세계 3차원 좌표계 상에 증강하는 단계
를 포함하는, 증강현실 기반의 전자책 제공 방법.
A wearable display device operated by at least one processor provides augmented reality-based e-book,
Tracking the eyes of the user wearing the wearable display device;
Acquiring a live-action image located in the user's gaze direction;
Augmenting a virtual image displaying an e-book on a three-dimensional coordinate system of the live-action image;
Recognizing a gesture of opening a book with a user's hand, and
Augmenting a virtual image on which the plurality of book pages of the e-book is displayed on the real world 3D coordinate system according to gesture recognition
Including, augmented reality based e-book providing method.
제1항에서,
상기 출력하는 단계는,
상기 사용자의 시선 방향이 가리키는 현실 세계를 촬영하여 실제 현실 영상 데이터를 생성하는 단계,
상기 실제 현실 영상 데이터로부터 식별된 객체들 중에서 사용자 디바이스를 판별하는 단계, 그리고
상기 사용자 디바이스의 주위에 그리드 인터페이스를 출력하는 단계를 포함하고,
상기 그리드 인터페이스는,
상기 현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상이고,
상기 나열하는 단계는,
상기 복수개의 북 페이지를 상기 복수개의 구간에 페이지 순서대로 각각 표시하는, 증강현실 기반의 전자책 제공 방법.
In claim 1,
The outputting step,
Generating real reality image data by photographing the real world indicated by the user's gaze direction;
Determining a user device among the objects identified from the real reality image data, and
Outputting a grid interface around the user device,
The grid interface,
A hologram image obtained by dividing a virtual space overlaid on the real world three-dimensional coordinate system into a plurality of sections;
The steps listed above,
And displaying the plurality of book pages in the page order in the plurality of sections, respectively.
제2항에서,
상기 그리드 인터페이스를 출력하는 단계 이후,
상기 그리드 인터페이스를 클릭하는 제스처를 인식하는 단계, 그리고
상기 제스처 인식에 따라 상기 그리드 인터페이스의 각도 및 크기를 조정하여 출력하는 단계
를 더 포함하는, 증강현실 기반의 전자책 제공 방법.
In claim 2,
After outputting the grid interface,
Recognizing a gesture of clicking the grid interface, and
Adjusting and outputting the angle and size of the grid interface according to the gesture recognition
Further comprising, augmented reality-based e-book providing method.
제2항에서,
상기 나열하는 단계는,
상기 복수개의 북 페이지 각각에 태그를 표시하고,
상기 나열하는 단계 이후,
상기 태그를 접었다가 편 후 클릭하는 제스처를 인식하는 단계, 그리고
상기 태그와 해당 페이지를 매칭시켜 저장하는 단계를 더 포함하며,
상기 태그는,
페이지 그룹핑에 사용되는, 증강현실 기반의 전자책 제공 방법.
In claim 2,
The steps listed above,
A tag is displayed on each of the plurality of book pages,
After the steps listed above,
Recognizing a gesture of folding and then clicking on the tag; and
Matching and storing the tag with the corresponding page;
The tag is,
Augmented Reality-based e-book providing method used for page grouping.
제2항에서,
상기 나열하는 단계 이후,
사용자 음성을 인식하는 단계, 그리고
음성 인식에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하는 단계
를 더 포함하는, 증강현실 기반의 전자책 제공 방법.
In claim 2,
After the steps listed above,
Recognizing a user's voice, and
Overlaying book data according to voice recognition on the grid interface and outputting the book data;
Further comprising, augmented reality-based e-book providing method.
영상을 촬영하는 영상 획득부,
사용자 눈의 움직임을 검출하는 시선 인터페이스,
사용자 손의 움직임이 나타내는 제스처를 인식하는 제스처 인터페이스,
현실 세계 3차원 좌표계 상에 전자책이 표시된 가상 영상을 증강하는 증강현실 화면 출력부,
증강현실 기반의 전자책을 제공하는 프로그램을 저장하는 저장부, 그리고
상기 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 프로그램은,
상기 시선 인터페이스가 검출한 사용자의 시선 방향에 위치하고 상기 영상 획득부터 획득한 현실 세계 영상의 3차원 좌표계 상에 전자책이 표시된 가상 영상을 투사하고, 사용자의 손으로 책을 펼치는 제스처가 인식되면, 상기 제스처 인식에 따라 상기 전자책의 복수개의 북 페이지를 상기 현실세계 3차원 좌표계 상에 나열하는 명령어들(Instructions)을 포함하는, 착용형 디스플레이 장치.
Image acquisition unit for taking an image,
A gaze interface for detecting the movement of the user's eyes,
A gesture interface for recognizing a gesture represented by movement of a user hand,
Augmented reality screen output unit for augmenting the virtual image in which the e-book is displayed on the real world three-dimensional coordinate system,
A storage unit for storing a program providing an augmented reality-based e-book, and
At least one processor for executing the program,
The program,
When the gesture of opening the book with the user's hand is recognized, the virtual image displaying the e-book is projected on the 3D coordinate system of the real world image which is located in the direction of the user's gaze detected by the gaze interface and acquired from the image acquisition. And instructions for arranging a plurality of book pages of the e-book on the real-world three-dimensional coordinate system according to gesture recognition.
제6항에서,
상기 프로그램은,
상기 카메라로부터 생성된 사용자의 시선 방향이 가리키는 실제 현실 영상 데이터로부터 사용자 디바이스를 식별하고, 상기 사용자 디바이스의 주위에 그리드 인터페이스를 투사하며, 상기 그리드 인터페이스의 복수개의 구간에 상기 복수개의 북 페이지를 페이지 순서대로 각각 표시하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함하고,
상기 그리드 인터페이스는,
현실세계 3차원 좌표계 상에 오버레이되는 가상 공간을 복수개의 구간으로 분할한 홀로그램 영상인, 착용형 디스플레이 장치.
In claim 6,
The program,
Identify the user device from the actual real image data indicated by the user's gaze direction generated from the camera, project a grid interface around the user device, and page the plurality of book pages in a plurality of sections of the grid interface. Commands for controlling the augmented reality screen output unit to display each, as shown,
The grid interface,
A wearable display device, which is a holographic image obtained by dividing a virtual space overlaid on a real world three-dimensional coordinate system into a plurality of sections.
제7항에서,
상기 프로그램은,
상기 복수개의 북 페이지에 각각의 태그를 표시하고 상기 각각의 태그 중 한 태그를 접었다가 편 후 클릭하는 제스처를 인식하면, 제스처가 인식된 태그와 해당 페이지를 매칭시켜 저장하는 명령어들을 포함하고,
상기 저장부는,
제스처가 인식된 태그 별로 해당하는 적어도 하나의 페이지가 매칭된 그룹핑 정보를 저장하는, 착용형 디스플레이 장치.
In claim 7,
The program,
And displaying the respective tags on the plurality of book pages, and recognizing a gesture of folding and clicking one tag among the respective tags, and including a command for matching and storing the recognized tag with the corresponding page.
The storage unit,
The wearable display device storing grouping information in which at least one page corresponding to each tag in which a gesture is recognized is matched.
제7항에서,
사용자 음성을 입력받는 마이크를 더 포함하고,
상기 프로세서는,
상기 사용자 음성을 인식하여 명령어를 도출하고, 상기 명령어에 따른 북 데이터를 상기 그리드 인터페이스에 오버레이시켜 출력하도록 상기 증강현실 화면 출력부를 제어하는 명령어들을 포함하는, 착용형 디스플레이 장치.
In claim 7,
Further comprising a microphone for receiving a user voice,
The processor,
And a command for controlling the augmented reality screen output unit to recognize the user's voice, derive a command, and overlay the book data according to the command on the grid interface for output.
제7항에서,
상기 프로세서는,
상기 그리드 인터페이스를 클릭하는 제스처가 인식되면, 상기 그리드 인터페이스의 각도 및 크기를 조정하기 위한 사용자 인터페이스를 출력하고 상기 사용자 인터페이스를 통해 인식된 제스처에 따라 상기 그리드 인터페이스를 변경하는 명령어들을 포함하는, 착용형 디스플레이 장치.
In claim 7,
The processor,
Wearable, comprising: instructions for outputting a user interface for adjusting the angle and size of the grid interface when the gesture of clicking the grid interface is recognized and for changing the grid interface according to a gesture recognized through the user interface Display device.
KR1020180053365A 2018-05-09 2018-05-09 METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY KR102570401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180053365A KR102570401B1 (en) 2018-05-09 2018-05-09 METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180053365A KR102570401B1 (en) 2018-05-09 2018-05-09 METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY

Publications (2)

Publication Number Publication Date
KR20190128962A true KR20190128962A (en) 2019-11-19
KR102570401B1 KR102570401B1 (en) 2023-08-23

Family

ID=68771071

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180053365A KR102570401B1 (en) 2018-05-09 2018-05-09 METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY

Country Status (1)

Country Link
KR (1) KR102570401B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435347A (en) * 2020-11-23 2021-03-02 济南浪潮高新科技投资发展有限公司 E-book reading system and method for enhancing reality
WO2021246574A1 (en) * 2020-06-02 2021-12-09 국민대학교산학협력단 Portable terminal for controlling virtual reality content on basis of hand shape and illumination sensor, and vr viewer system including same
CN114115532A (en) * 2021-11-11 2022-03-01 珊瑚石(上海)视讯科技有限公司 AR labeling method and system based on display content
WO2022145888A1 (en) * 2020-12-31 2022-07-07 삼성전자 주식회사 Method for controlling augmented reality device, and augmented reality device performing same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130321390A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Augmented books in a mixed reality environment
KR20140141319A (en) * 2013-05-31 2014-12-10 전자부품연구원 Augmented Reality Information Providing Apparatus and the Method
KR20150140286A (en) * 2013-03-15 2015-12-15 퍼셉트 테크놀러지스, 아이엔씨. Enhanced optical and perceptual digital eyewear

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130321390A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Augmented books in a mixed reality environment
KR20150140286A (en) * 2013-03-15 2015-12-15 퍼셉트 테크놀러지스, 아이엔씨. Enhanced optical and perceptual digital eyewear
KR20140141319A (en) * 2013-05-31 2014-12-10 전자부품연구원 Augmented Reality Information Providing Apparatus and the Method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021246574A1 (en) * 2020-06-02 2021-12-09 국민대학교산학협력단 Portable terminal for controlling virtual reality content on basis of hand shape and illumination sensor, and vr viewer system including same
CN112435347A (en) * 2020-11-23 2021-03-02 济南浪潮高新科技投资发展有限公司 E-book reading system and method for enhancing reality
WO2022145888A1 (en) * 2020-12-31 2022-07-07 삼성전자 주식회사 Method for controlling augmented reality device, and augmented reality device performing same
CN114115532A (en) * 2021-11-11 2022-03-01 珊瑚石(上海)视讯科技有限公司 AR labeling method and system based on display content
CN114115532B (en) * 2021-11-11 2023-09-29 珊瑚石(上海)视讯科技有限公司 AR labeling method and system based on display content

Also Published As

Publication number Publication date
KR102570401B1 (en) 2023-08-23

Similar Documents

Publication Publication Date Title
US11747618B2 (en) Systems and methods for sign language recognition
US9165381B2 (en) Augmented books in a mixed reality environment
KR102570401B1 (en) METHOD AND WEARABLE DISPLAY APPARATUS FOR PROVIDING eBOOK BASED ON AUGMENTED REALLITY
US11960793B2 (en) Intent detection with a computing device
IL264611A (en) Word flow annotation
WO2022066728A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US20160196060A1 (en) Gesture Controlled Adaptive Projected Information Handling System Input and Output Devices
US20150268773A1 (en) Projected Information Handling System Input Interface with Dynamic Adjustment
WO2020156469A1 (en) Hand-over-face input sensing for interaction with a device having a built-in camera
US11709593B2 (en) Electronic apparatus for providing a virtual keyboard and controlling method thereof
Geer Will gesture recognition technology point the way?
Du et al. Opportunistic interfaces for augmented reality: Transforming everyday objects into tangible 6dof interfaces using ad hoc ui
US20150268731A1 (en) Interactive Projected Information Handling System Support Input and Output Devices
Qian et al. Dually noted: layout-aware annotations with smartphone augmented reality
Tran et al. Wearable Augmented Reality: Research Trends and Future Directions from Three Major Venues
CN108604125B (en) System and method for generating virtual badges based on gaze tracking
Kiefer et al. Phalanger: Controlling Music Software With Hand Movement Using A Computer Vision and Machine Learning Approach.
Bhowmik Natural and intuitive user interfaces with perceptual computing technologies
Stearns Handsight: A Touch-Based Wearable System to Increase Information Accessibility for People with Visual Impairments
Chu et al. A Study on AR Authoring using Mobile Devices for Educators.
KR20200116195A (en) Apparatus and method for shopping clothes using holographic images
KR20200115967A (en) Apparatus and method for shopping clothes using holographic images
KR20200127312A (en) Apparatus and method for shopping clothes using holographic images
KR20230054030A (en) Mobile device and the method thereof with English application
Yang Variable reality: interacting with the virtual book

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant