KR20190069174A - Apparatus for providing contents based on projection - Google Patents

Apparatus for providing contents based on projection Download PDF

Info

Publication number
KR20190069174A
KR20190069174A KR1020170169606A KR20170169606A KR20190069174A KR 20190069174 A KR20190069174 A KR 20190069174A KR 1020170169606 A KR1020170169606 A KR 1020170169606A KR 20170169606 A KR20170169606 A KR 20170169606A KR 20190069174 A KR20190069174 A KR 20190069174A
Authority
KR
South Korea
Prior art keywords
user
content
book
mini
motion
Prior art date
Application number
KR1020170169606A
Other languages
Korean (ko)
Inventor
고혜영
김진희
김태경
박민하
안명진
Original Assignee
서울여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020170169606A priority Critical patent/KR20190069174A/en
Publication of KR20190069174A publication Critical patent/KR20190069174A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an apparatus for providing content based on projection. The apparatus may comprise: an input unit obtaining user motion information and real space information; and a processing unit recognizing user motion and real space using the user motion information and real space information obtained from the input unit, creating content changing according to change of space or the user motion, and displaying content created by mapping the recognized real space and virtual space through a projector.

Description

프로젝션 기반 콘텐츠 제공 장치{APPARATUS FOR PROVIDING CONTENTS BASED ON PROJECTION}[0001] APPARATUS FOR PROVIDING CONTENTS BASED ON PROJECTION [0002]

본 발명은 프로젝션 기반 콘텐츠 제공 장치에 관한 것이다.The present invention relates to a projection-based content providing apparatus.

최근, 유네스코는 국제연합에 의해 '지속가능 발전교육 10년' 선도기관으로 지정 받아 교육의 핵심적인 역할을 강조하고 있다. 유네스코는 지속가능 발전의 핵심요소를 환경, 경제, 사회 세 분야로 지정, 그 중 환경교육의 내용에 생물 다양성을 넣었다.In recent years, UNESCO has been designated by the United Nations as a leading organization for 10 years of sustainable development education, emphasizing the key role of education. UNESCO designated three key areas of sustainable development as environmental, economic and social fields, among which environmental education included biodiversity.

그리고, 가치 및 태도 형성에 결정적 시기인 아동기부터 다양한 교육과 경험을 통한 올바른 생명 가치관 확립 및 생명존중인식을 증진시켜야 한다. 그러나, 생물 영역에서 종 다양성을 다루는 생물학적 지식 접근과 멸종 위기 종을 통해 경각심을 유발하는 정도의 한정된 수준이어서 대책 수립이 필요하다.From childhood, which is crucial for the formation of values and attitudes, it is necessary to promote the establishment of correct life values and awareness of life through various education and experience. However, there is a limited level of biological awareness approach to biodiversity in the biosphere, and awareness through endangered species, and countermeasures are needed.

더욱이, 교육부는 2017년부터 통합과학분야를 신설하고, 단원 내 '변화와 다양성'을 포함했다. 이에, 생물 다양성, 멸종위기 동물에 대한 인식재고의 시급하다.Furthermore, the Ministry of Education has established an integrated science field since 2017 and has included 'change and diversity' within the unit. Thus, biodiversity and awareness of endangered species are urgently needed.

지속가능 발전 교육관련 콘텐츠의 필요성이 대두되고 있다. 이에, 생물의 다양성에 주목하고 그 중 멸종위기 동물에 대한 인식 재고를 목표로 하는 콘텐츠 제공 장치를 제공하는데 목적이 있다.The need for content related to sustainable development education is emerging. Accordingly, it is an object of the present invention to provide a content providing apparatus that focuses on biodiversity and aims at the recognition of endangered animals.

특허공개공보 제10-2016-0123194호 (2016.10.25.)Patent Publication No. 10-2016-0123194 (October 25, 2016)

본 발명의 실시예는 체험적 요소(인터렉티브)를 통해 멸종위기 동물에 대한 이야기를 시청각적 체험을 통해 제공하는 것을 목적으로 한다.An embodiment of the present invention aims to provide a story about an endangered animal through an experiential element (interactive) through an audiovisual experience.

본 발명의 실시예는 교육적 요소(생물다양성)를 통해 사용자에게 생물다양성과 그 보존에 대해 생각하는 계기를 제공하는 것을 목적으로 한다.Embodiments of the present invention aim to provide users with an opportunity to think about biodiversity and its conservation through educational elements (biodiversity).

본 발명의 실시예는 감성적 요소를 통해 자연 존중 인식을 증진시키고 감성적인 즐거움을 전달하는 것을 목적으로 한다.Embodiments of the present invention aim at enhancing awareness of nature through emotional factors and conveying emotional pleasure.

본 발명에 따른 콘텐츠 제공 장치는 사용자 모션 정보와 실제 공간 정보를 획득하는 입력부; 및 상기 입력부에서 획득된 사용자 모션 정보와 실제 공간 정보를 이용하여 사용자의 모션과 실제 공간을 인식하고, 공간의 변화나 사용자의 모션에 대응하여 변화하는 컨텐츠를 생성하고, 인식된 실제 공간과 가상 공간을 맵핑하여 생성된 컨텐츠를 프로젝터를 통해 디스플레이하는 처리부;를 포함할 수 있다.A content providing apparatus according to the present invention includes an input unit for obtaining user motion information and actual spatial information; And a control unit for recognizing the motion and the actual space of the user by using the user motion information and the actual space information obtained in the input unit, generating the content which changes according to the change of the space or the user's motion, And displaying the generated content through a projector.

상기 입력부는: 적어도 하나 이상의 사용자의 모션 정보를 획득하는 모션 감지부; 및 실제 공간 정보를 스캔하여 실제 공간의 3차원 특징을 추출하는 실제 공간 촬영부;를 포함하고, 상기 처리부는: 실제 공간 정보와 사용자의 모션 정보를 이용하여 객체를 인식하고 인식된 객체로부터 사용자의 모션을 포함한 실제 공간을 인식하고, 인식된 실제 공간과 가상 공간 간의 상호작용을 계산하여 실제 공간에 가상 공간을 결합함에 따라 콘텐츠를 생성하는 상호작용 처리부; 및 상기 상호작용 처리부를 통해 생성된 콘텐츠를 프로젝터를 통해 디스플레이하는 디스플레이 처리부;를 포함할 수 있다.Wherein the input unit comprises: a motion sensing unit for acquiring motion information of at least one user; And an actual space photographing unit for extracting three-dimensional features of the actual space by scanning the actual space information, wherein the processing unit recognizes the object using the actual space information and the user's motion information, An interaction processing unit for recognizing an actual space including a motion, calculating an interaction between the recognized real space and the virtual space to combine the virtual space with the actual space, and generating the contents; And a display processor for displaying the content generated through the interaction processor through a projector.

상기 디스플레이 처리부와 연결된 프로젝터가 영사하는 컨텐츠가 디스플레이되는 대형북;을 더 포함할 수 있다.And a large drum on which the contents to be projected by the projector connected to the display processing unit are displayed.

상기 대형북에 디스플레이되는 컨텐츠와 동일한 컨텐츠가 디스플레이되는 미니북과; 및 상기 미니북의 상단에 배치되어, 사용자의 모션 정보 및 컨텐츠 식별정보를 획득하는 미니북 카메라;를 포함하고, 상기 상호작용 처리부는 상기 미니북 카메라를 통해 얻어진 사용자의 모션 정보 및 컨텐츠 식별정보를 받아 콘텐츠에 반영할 수 있다.A mini-book on which contents identical to the contents displayed on the large book are displayed; And a mini-book camera disposed at an upper end of the mini-book for acquiring motion information and content identification information of the user, wherein the interaction processing unit is configured to receive the motion information and the content identification information of the user obtained through the mini-book camera It can receive and reflect on contents.

상기 모션감지부는: 상기 대형북의 전방의 사용자의 모션을 인식함에 있어서, 획득된 사용자의 모션 정보 중 불필요한 정보를 제외한 각 사용자의 동작 정보만 상기 상호작용 처리부로 보낼 수 있다.In recognizing the motion of the user in front of the large book, the motion detection unit may send only the operation information of each user except the unnecessary information among the acquired motion information of the user to the interaction processing unit.

상기 상호작용 처리부는: 사용자의 모션 정보가 없는 경우에는 상기 대형북과 상기 미니북을 대기모드 상태로 하고, 상기 미니북 카메라가 사용자의 모션 정보를 획득하면 상기 대형북 및 상기 미니북을 활성모드 상태로 전환할 수 있다.Wherein the interaction processor sets the large book and the mini-book in a standby mode when the user does not have motion information, and when the mini-book camera acquires motion information of the user, State.

상기 상호작용 처리부는: 상기 대형북 및 상기 미니북이 활성모드 상태로 전환되면, 사용자에게 콘텐츠의 아이템을 제시하고, 사용자의 입력에 따라 콘텐츠의 아이템을 선정하고 상기 선정된 아이템에 대응하여 콘텐츠를 제공하며, 제공되는 콘텐츠에 캐릭터가 등장해서 정해진 스토리를 진행하는 방식으로, 캐릭터가 사용자에게 음성 또는 문자로 문제 상황을 제시하고, 사용자의 모션에 대응하여 스토리를 진행할 수 있다.Wherein the interaction processor is configured to: present an item of content to a user when the large book and the mini-book are switched to an active mode state, select an item of content according to a user's input, The character can present a problem situation to the user by voice or a character in a manner in which a character appears in the provided content and a predetermined story is progressed, and the user can proceed the story in accordance with the user's motion.

사용자에게 제공하는 콘텐츠의 아이템은 멸종 위기 동물에 관한 것으로, 야생에서 멸종할 가능성이 대단히 높은 위급단계, 야생에서 멸종할 가능성이 높은 위기단계 및 야생에서 위기에 처할 가능성이 높은 취약단계의 3단계로 구분한 객관적 지표와; 기설정된 아이템과 서식 환경이 차이가 있고, 기설정된 아이템들과 생물학적 특징이 구별되는지를 평가하는 주관적 지표;를 반영하여, 각각의 지표에 대한 점수를 산정하고 기설정된 기준 점수 이상을 받은 아이템을 콘텐츠 리스트에 등록할 수 있다.The items of content that are provided to users are about endangered species, three stages: critical stages, which are very likely to be extinct in the wild, crisis stages that are likely to be extinct in the wild, and vulnerable stages, A separate objective indicator; And a subjective indicator for evaluating whether the predetermined item and the biological characteristic are distinguished from each other in terms of the predetermined item and the format environment, and calculating the score for each indicator, You can register in the list.

상기 미니북은 6개의 콘텐츠 식별정보를 포함하되, 상기 미니북 카메라가 사용자의 모션정보 또는 콘텐츠 식별정보 중 적어도 하나를 인식하고, 상기 처리부는 상기 인식된 사용자 모션 정보 또는 콘텐츠 식별정보에 따라 콘텐츠를 상기 미니북 및 상기 대형북에 제공하고, 상기 모션감지부는 사용자의 모션정보 중 사용자의 오른손의 위치값을 이용하여 콘텐츠를 진행할 수 있다.Wherein the mini-book includes six pieces of content identification information, wherein the mini-book camera recognizes at least one of the motion information or the content identification information of the user, and the processor reads the content according to the recognized user motion information or the content identification information The mini-book and the large book, and the motion sensing unit can advance the content using the position value of the user's right hand in the motion information of the user.

본 발명의 일 실시 예에 따르면, 체험적 요소(인터렉티브)를 통해 멸종위기 동물에 대한 이야기를 시청각적 체험을 통해 제공할 수 있다.According to one embodiment of the present invention, the story of an endangered animal can be provided through an audiovisual experience through an experiential element (interactive).

본 발명의 일 실시 예에 따르면, 교육적 요소(생물다양성)를 통해 사용자에게 생물다양성과 그 보존에 대해 생각하는 계기를 제공할 수 있다.According to one embodiment of the present invention, the educational element (biodiversity) can provide the user with an opportunity to think about biodiversity and its conservation.

본 발명의 일 실시 예에 따르면, 감성적 요소를 통해 자연 존중 인식을 증진시키고 감성적인 즐거움을 전달할 수 있다.According to one embodiment of the present invention, the emotional element can promote awareness of nature and convey emotional pleasure.

도 1은 본 발명의 실시예에 따른 콘텐츠 제공 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 콘텐츠 제공 장치의 세부적인 블록도이다.
도 3은 본 발명의 실시예에 따른 콘텐츠 제공 장치의 구성을 보여주는 예시적인 도면이다.
도 4는 본 발명의 실시예에 따른 미니북의 구성을 나타내는 예시적인 도면이다.
1 is a block diagram of a content providing apparatus according to an embodiment of the present invention.
2 is a detailed block diagram of a content providing apparatus according to an embodiment of the present invention.
3 is an exemplary diagram showing a configuration of a content providing apparatus according to an embodiment of the present invention.
4 is an exemplary diagram showing a configuration of a mini-book according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components. The term 'and / or' as used herein refers to each of the listed configurations or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.It should be noted that the terms such as '~', '~ period', '~ block', 'module', etc. used in the entire specification may mean a unit for processing at least one function or operation. For example, a hardware component, such as a software, FPGA, or ASIC. However, '~ part', '~ period', '~ block', '~ module' are not meant to be limited to software or hardware. Modules may be configured to be addressable storage media and may be configured to play one or more processors. ≪ RTI ID = 0.0 >

따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.Thus, by way of example, the terms 'to', 'to', 'to block', 'to module' refer to components such as software components, object oriented software components, class components and task components Microcode, circuitry, data, databases, data structures, tables, arrays, and the like, as well as components, Variables. The functions provided in the components and in the sections ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ' , '~', '~', '~', '~', And '~' modules with additional components.

이하, 본 명세서에 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings attached hereto.

도 1은 본 발명의 실시예에 따른 콘텐츠 제공 장치의 블록도이다.1 is a block diagram of a content providing apparatus according to an embodiment of the present invention.

도 1을 참조하면, 상기 콘텐츠 제공 장치(10)는 입력부(100) 및 처리부(200)를 포함한다. 상기 입력부(100)는 처리부(200)와 연결되어 콘텐츠를 제공한다.Referring to FIG. 1, the content providing apparatus 10 includes an input unit 100 and a processing unit 200. The input unit 100 is connected to the processing unit 200 to provide contents.

본 발명의 일 실시예에 따르면, 상기 입력부(100)는 사용자 모션 정보와 실제 공간 정보를 획득한다. 상기 입력부(100)는 모션감지부(110) 및 공간 촬영부(120)를 포함한다. 상기 모션감지부(110)는 적어도 하나 이상의 사용자의 모션 정보를 획득한다. 모션감지부(110)는 물체의 움직임을 감지하는 센서로, 일 예로는 키넥트(Kinect) 센서일 수 있다. 키넥트는 원래 게임에서 사용하는 기기로서 3D센서는 활동 범위 내에서 플레이어의 움직임을 파악하는데 쓰이고 있다. 저가의 깊이 카메라로써, 실시간으로 깊이 정보뿐만 아니라 RGB영상과 관절 추적 정보를 제공한다. 키넥트 센서로부터 제공되는 데이터의 사용은 제스처 인식을 위해 필요한 사람 또는 신체부위 검출 및 포즈 추정할 수 있다. 그러나, 상기 모션감지부(110)는 키넥트 센서로 제한되는 것은 아니고, 물체의 모션을 감지할 수 있으면 어떠한 장치라도 사용이 가능하다.According to an embodiment of the present invention, the input unit 100 acquires user motion information and actual spatial information. The input unit 100 includes a motion sensing unit 110 and a spatial photographing unit 120. The motion sensing unit 110 acquires motion information of at least one user. The motion sensing unit 110 is a sensor for sensing movement of an object, and may be, for example, a Kinect sensor. Kinect is a device used in the original game, and the 3D sensor is used to grasp the movement of the player within the activity range. As a low-cost depth camera, it provides RGB image and joint tracking information as well as depth information in real time. The use of data provided from the Kinect sensor can detect and pose a human or body part needed for gesture recognition. However, the motion sensing unit 110 is not limited to the Kinect sensor, and any device capable of sensing the motion of the object can be used.

본 발명의 일 실시예에 따르면, 상기 모션감지부(110)는 사용자의 자세(Skeleton Data)에서 관절값(Joint)을 총 20개까지 취득할 수 있다. 취득된 관절값 중 사용자의 왼손과 오른손을 식별하고, 그 중 오른손의 위치값에 따라 콘텐츠를 진행한다.According to an embodiment of the present invention, the motion sensing unit 110 may acquire a total of 20 joints from the user's skeleton data. Identify the user's left and right hands among the acquired joint values, and proceed the content according to the position value of the right hand.

예를 들면, 사용자가 콘텐츠 내에서 '밧줄을 끊어 낙타를 구해주시오'라는 미션을 받으면 사용자의 오른손을 칼 이미지가 있는 위치로 이동해서 칼을 습득한다. 칼 이미지가 사용자의 오른손에 매칭되면 사용자는 자유롭게 칼 이미지를 제어할 수 있다. 긴 밧줄의 특정 부분에 칼이 닿게 되면 밧줄을 끊어 낙타를 구해줄 수 있다. 그리고, 밧줄의 특정 부분을 3곳으로 하고 3곳을 모두 끊으면 다음 이야기가 진행되도록 설정될 수 있다.For example, when a user receives a mission to "cut off the rope and save the camel" within the content, the user moves his right hand to the knife image to learn the knife. When the knife image matches the right hand of the user, the user can freely control the knife image. If a knife touches a specific part of a long rope, you can cut the rope and save the camel. Then, if three parts of a specific part of the rope are cut off and all three parts are cut off, the following story can be set to proceed.

다른 예를 들면, 사용자가 콘텐츠 내에서 '나무늘보를 터치해 깨워주세요'라는 미션을 받으면 사용자의 오른손의 위치값이 나무늘보의 위치값과 일치하면 파티클이 생성되고 다음 이야기가 진행되도록 설정될 수 있다.In another example, when a user receives a mission to "wake up the sloth" in the content, if the position value of the user's right hand matches the position value of the sloth, the particle is created and the next story can be set to proceed have.

또 다른 예를 들면, 사용자가 콘텐츠 내에서 '그물을 잘라 바다거북을 구해주세요'라는 미션을 받으면 사용자의 오른손을 가위 이미지가 있는 위치로 이동해서 칼을 습득한다. 가위가 사용자의 오른손에 매칭되면 그물의 특정 부분에 2초간 머무르게 되면 그물이 잘린다. 그리고, 그물의 특정부분을 여러 곳으로 지정하고, 지정된 부분의 미션을 모두 해결해야 다음 이야기가 진행되도록 설정될 수 있다.In another example, when a user receives a mission to "cut a net and save a sea turtle" within the content, he moves his right hand to the location of the scissors image to acquire a knife. If the scissors are matched to the user's right hand, the net is cut off if they stay in a particular part of the net for two seconds. Then, it is possible to designate the specific part of the net to be several places, and to solve the missions of the designated part so that the next story proceeds.

이와 같이, 사용자의 오른손의 방향 및 위치에 따라 콘텐츠를 진행할 수 있다.Thus, the content can be progressed according to the direction and position of the right hand of the user.

본 발명의 일 실시예에 따르면, 상기 실제 공간 촬영부(120)는 실제 공간 정보를 스캔하여 실제 공간의 3차원 특징을 추출할 수 있다. 상기 실제 공간 촬영부(120)의 실제 공간의 스캔을 통해 실제 공간을 맵핑하여 실제 공간의 3차원 특징을 추출하고, 3차원 공간의 특징에 따라 처리부(200)에서 제공하는 콘텐츠를 프로젝터를 통해 디스플레이한다.According to an embodiment of the present invention, the actual space photographing unit 120 may extract the three-dimensional feature of the actual space by scanning the actual space information. Dimensional space of the actual space by mapping the actual space through the scan of the actual space of the actual space photographing unit 120 and displays the contents provided by the processing unit 200 through the projector according to the characteristics of the three- do.

본 발명은 스토리텔링의 상직적 조형물로 콘텐츠에 '이야기'가 포함되어 있음을 암시할 수 있는 책 모양으로 콘텐츠를 제공할 수 있다. 나아가, 2차원 공간에 책이 3차원 공간에 위치한 것처럼 느껴지도록 콘텐츠를 제공할 수 있다.The present invention can provide content in the form of a book that can suggest that 'story' is included in the content as a statue of the storytelling. Furthermore, the content can be provided so that the book appears to be located in the three-dimensional space in the two-dimensional space.

책이라는 익숙한 조형물을 통해 상기 콘텐츠 제공 장치(10)에 대한 사용자의 접근성을 용이하게 한다. 또한, 체험형 스토리텔링 학습모델로서 활용이 가능하고, 학습 흥미도와 몰입도 향상으로 사용자의 성취감을 극대화 할 수 있다.And facilitates the user's accessibility to the content providing apparatus 10 through a familiar sculpture called a book. In addition, it can be used as a learning storytelling learning model, and it can maximize user's sense of accomplishment by improving learning interest and immersion.

본 발명의 일 실시예에 따르면, 상기 처리부(200)는 상기 입력부(100)에서 획득된 사용자 모션 정보와 실제 공간 정보를 이용하여 사용자의 모션과 실제 공간을 인식하고, 공간의 변화나 사용자의 모션에 대응하여 변화하는 컨텐츠를 생성하고, 인식된 실제 공간과 가상 공간을 맵핑하여 생성된 컨텐츠를 프로젝터를 통해 디스플레이한다.According to an embodiment of the present invention, the processing unit 200 recognizes the user's motion and actual space using the user's motion information and actual spatial information obtained from the input unit 100, And displays the generated content through the projector by mapping the recognized actual space and the virtual space.

구체적으로, 사용자가 선택한 스토리의 마크가 미니북 카메라(410)에 인식되면 프로젝터가 해당 스토리 영상을 대형북(300)의 입체형 스크린의 굴곡을 적용하여 대형북(300)의 형태에 맞게 출력영상을 조절한다.Specifically, when the mark of the story selected by the user is recognized by the mini-book camera 410, the projector applies the curved image of the stereoscopic screen of the large book 300 to the story image to output an output image corresponding to the shape of the large book 300 .

도 2는 본 발명의 실시예에 따른 콘텐츠 제공 장치의 세부적인 블록도이다.2 is a detailed block diagram of a content providing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 상기 처리부(200)는 상호작용 처리부(210) 및 디스플레이 처리부(220)를 포함할 수 있다.Referring to FIG. 2, the processing unit 200 may include an interaction processing unit 210 and a display processing unit 220.

본 발명의 일 실시예에 따르면, 상기 상호작용 처리부(210)는 실제 공간 정보와 사용자의 모션 정보를 이용하여 객체를 인식하고 인식된 객체로부터 사용자의 모션을 포함한 실제 공간을 인식하고, 인식된 실제 공간과 가상 공간 간의 상호작용을 계산하여 실제 공간에 가상 공간을 결합함에 따라 콘텐츠를 생성할 수 있다.According to an embodiment of the present invention, the interaction processing unit 210 recognizes an object using actual spatial information and user's motion information, recognizes an actual space including a motion of the user from the recognized object, The content can be generated by calculating the interaction between the space and the virtual space and combining the virtual space with the actual space.

상기 상호작용 처리부(210)는 사용자의 모션을 인식하고 사용자의 모션에 반응하여 콘텐츠를 생성할 수 있다.The interaction processing unit 210 recognizes the motion of the user and can generate the content in response to the motion of the user.

본 발명의 일 실시예에 따르면, 상기 디스플레이 처리부(220)는 상기 상호작용 처리부(210)를 통해 생성된 콘텐츠를 프로젝터를 통해 디스플레이할 수 있다.According to one embodiment of the present invention, the display processing unit 220 can display the content generated through the interaction processing unit 210 through the projector.

예를 들면, 사용자가 미니북(400)의 책장을 넘기면 다음 내용의 영상이 맵핑된다. 나무늘보의 책장을 펼치면 나무늘보의 이야기가 시작되고, 낙타의 책장을 펼치면 낙타의 이야기가 대형북(300)에 맵핑되어 스토리가 진행된다.For example, when the user turns the bookcase of the mini-book 400 over, the image of the next content is mapped. When the booklet of the sloth is opened, the story of the sloth begins. When the camel's bookcase is opened, the story of the camel is mapped to the large book (300) and the story progresses.

도 3은 본 발명의 실시예에 따른 콘텐츠 제공 장치의 구성을 보여주는 예시적인 도면이다.3 is an exemplary diagram showing a configuration of a content providing apparatus according to an embodiment of the present invention.

도 3을 참조하면, 상기 콘텐츠 제공 장치(10)는 대형북(300) 및 미니북(400)을 더 포함할 수 있다.Referring to FIG. 3, the content providing apparatus 10 may further include a large book 300 and a mini book 400.

본 발명의 일 실시예에 따르면, 상기 대형북(300)은 상기 디스플레이 처리부(220)와 연결된 프로젝터가 영사하는 컨텐츠가 디스플레이될 수 있다. 대형북(300)은 스토리가 담긴 콘텐츠 영상이 프로젝션되며, 사용자의 몰입도를 향상시키기 위해 사용자의 신장에 맞추어 콘텐츠를 디스플레이한다.According to an exemplary embodiment of the present invention, the large book 300 may display content to be projected by a projector connected to the display processing unit 220. The large book 300 projects a content image containing the story and displays the content according to the height of the user to improve the user's immersion.

본 발명의 일 실시예에 따르면, 상기 미니북(400)은 상기 대형북(300)에 디스플레이되는 콘텐츠와 동일한 콘텐츠가 디스플레이된다.According to one embodiment of the present invention, the mini-book 400 displays the same content as the content displayed in the large book 300. [

상기 미니북 카메라(410)는 상기 미니북(400)의 상단에 배치되어, 사용자의 모션 정보 및 컨텐츠 식별정보를 획득할 수 있다.The mini-book camera 410 is disposed at an upper end of the mini-book 400, and can acquire motion information and content identification information of the user.

본 발명의 일 실시예에 따르면, 미니북(400)에는 총 6개의 컨텐츠 식별정보를 포함할 수 있다. 상기 컨텐츠 식별정보는 서로 다른 ID값을 가진다. 예를 들면, 시작 페이지의 ID값은 0, 낙타의 ID값은 1, 나무늘보의 ID값은 2, 북극곰의 ID값은 3, 거북이의 ID값은 4, 종료 페이지의 ID값은 5로 총 0~5까지 6개의 ID값을 가질 수 있다. 특정한 ID값을 가진 컨텐츠 식별정보가 미니북 카메라(410)에 인식되면 인식된 컨텐츠 식별정보에 따라 해당 이야기를 시작한다.According to an embodiment of the present invention, the mini book 400 may include a total of six pieces of content identification information. The content identification information has different ID values. For example, the start page ID value is 0, the camel ID value is 1, the sloth ID value is 2, the polar bear ID value is 3, the tortoise ID value is 4, and the end page ID value is 5 You can have 6 ID values from 0 to 5. When the mini-book camera 410 recognizes the content identification information having a specific ID value, the corresponding story is started according to the recognized content identification information.

다시 말하면, 사용자가 미니북(400)을 조작하면, 미니북 카메라(410)가 컨텐츠 식별정보에서 특정 ID값을 인식하고, 상기 ID값에 대응하는 영상을 재생하는 것이다.In other words, when the user operates the mini-book 400, the mini-book camera 410 recognizes the specific ID value in the content identification information and reproduces the video corresponding to the ID value.

상기 상호작용 처리부(210)는 상기 미니북 카메라(410)를 통해 얻어진 사용자의 모션 정보를 받아 콘텐츠에 반영한다.The interaction processing unit 210 receives the user's motion information obtained through the mini-book camera 410 and reflects the user's motion information.

상기 대형북(300)과 연동되어 사용자가 미니북(400)을 넘기는 제스쳐를 하면 그에 반응해 대형북(300)도 페이지를 넘길 수 있다. 이와 같은 텐저블 인터페이스를 활용하여 직관적인 조작을 할 수 있다. 더해서, 사용자가 모션을 통해 콘텐츠를 자신에게 맞는 속도로 전개해 나감으로써 사용자는 문제의식을 느끼고 문제를 해결할 수 있는 방법을 선택할 수 있다.When the user performs a gesture passing through the mini book 400 in cooperation with the large book 300, the large book 300 can also turn pages in response to the gesture. The intuitive operation can be performed by utilizing such a tensile interface. In addition, as users evolve content at their own pace through motion, users can feel the sense of the problem and choose a way to solve the problem.

본 발명의 일 실시예예 따른 모션 감지부(110)는 대형북(300)의 전방의 사용자의 모션을 인식함에 있어서, 획득된 사용자의 모션 정보 중 불필요한 정보를 제외한 각 사용자의 동작 정보(양팔의 움직임)만 상호작용 처리부(210)로 보낼 수 있다.In recognizing the motion of the user in front of the large book 300, the motion detection unit 110 according to an embodiment of the present invention detects motion information of each user except the unnecessary information in the acquired motion information of the user Can be sent to the interaction processing unit 210 only.

상기 모션 감지부(110)가 획득한 사용자 모션은 다양한 정보를 포함하고 있다. 다양한 정보를 담고 있기 때문에 큰 용량의 정보를 불필요하게 주고 받을 필요없이 필요한 정보만을 상호작용 처리부(210)로 보낸다면 장치의 효율성이 좋아질 것이다.The user motion acquired by the motion sensing unit 110 includes various information. The efficiency of the apparatus will be improved if only necessary information is sent to the interaction processing unit 210 without unnecessarily exchanging a large amount of information because it contains various information.

본 발명의 일 실시예에 따르면, 상기 상호작용 처리부(210)는 사용자의 모션 정보가 없는 경우에는 상기 대형북과 상기 미니북을 대기모드 상태로 하고, 상기 미니북 카메라가 사용자의 모션 정보를 획득하면 상기 대형북 및 상기 미니북을 활성모드 상태로 전환할 수 있다.According to one embodiment of the present invention, when there is no motion information of the user, the interaction processing unit 210 puts the large book and the mini-book in a standby mode, and the mini-book camera acquires motion information of the user The large book and the mini book can be switched to the active mode state.

예를 들면, 상기 모션 감지부(110) 또는 상기 미니북 카메라(410)에서 사용자의 모션 정보가 없는 경우에는 사용자가 없는 것으로 판단하고 상기 대형북(300) 및 미니북(400)에 콘텐츠를 디스플레이하지 않는다. 상기 모션 감지부(110) 또는 상기 미니북 카메라(410)에서 사용자의 모션 정보를 획득하면 사용자가 콘텐츠를 이용할 의사가 있는 것으로 판단하고 상기 대형북(300) 및 미니북(400)에 콘텐츠를 디스플레이 한다.For example, when there is no motion information of the user in the motion detection unit 110 or the mini-book camera 410, the motion detection unit 110 determines that there is no user and displays the content in the large book 300 and the mini- I never do that. When the motion sensing unit 110 or the mini-book camera 410 acquires the motion information of the user, it is determined that the user intends to use the content, and the content is displayed on the large book 300 and the mini- do.

본 발명의 일 실시예에 따르면, 상기 상호작용 처리부(210)은 상기 대형북(300) 및 상기 미니북(400)이 활성모드 상태로 전환되면, 사용자에게 콘텐츠의 아이템을 제시하고, 사용자의 입력에 따라 콘텐츠의 아이템을 선정하고 상기 선정된 아이템에 대응하여 콘텐츠를 제공하며, 제공되는 콘텐츠에 캐릭터가 등장해서 정해진 스토리를 진행하는 방식으로, 캐릭터가 사용자에게 음성 또는 문자로 문제 상황을 제시하고, 사용자의 모션에 대응하여 스토리를 진행한다.According to one embodiment of the present invention, when the large book 300 and the mini book 400 are switched to the active mode state, the interaction processing unit 210 presents an item of content to the user, A character is presented to the user with a voice or a letter in a manner that a character is displayed in the provided content and a predetermined story is progressed, The story proceeds according to the user's motion.

더해서, 사용자가 주인공이 되는 스토리텔링 형식으로 이야기에 대한 공감 유발과 이해를 도모할 수 있다. 정보의 단순 나열이 아닌, 콘텐츠에 캐릭터가 등장해서 유기적인 스토리 구조로 미취학아동들의 집중력을 유발할 수 있다.In addition, the user can promote sympathy and understanding of the story in a storytelling format that becomes the main character. Characters can appear in the content, rather than a simple list of information, and the concentration of preschool children can be induced in an organic story structure.

스토리를 진행하는 방식은 멸종위기동물의 그림책을 제시하고, 사용자가 미니북 또는 대형북의 책장을 넘기며 조작을 한다. 사용자의 조작결과에 따라 피드백이 생성되고, 인터랙티브 요소를 통해 콘텐츠가 반응한다. 사용자는 스토리에 대한 이해와 멸종 위기 동물에 관한 지식을 습득하고, 이에 대한 문제해결방법을 스스로 생각할 수 있다.The way the story progresses presents picture books of endangered animals and users manipulate them by turning over mini books or bookshelves of large books. Feedback is generated according to the result of the user's operation, and the content responds through the interactive element. Users can understand stories and learn about endangered animals and think about how to solve them.

본 발명의 일 실시예에 따르면, 사용자에게 제공하는 콘텐츠의 아이템은 멸종 위기 동물에 관한 것으로, 야생에서 멸종할 가능성이 대단히 높은 위급단계, 야생에서 멸종할 가능성이 높은 위기단계 및 야생에서 위기에 처할 가능성이 높은 취약단계의 3단계로 구분한 객관적 지표와 기설정된 아이템과 서식 환경이 차이가 있고, 기설정된 아이템들과 생물학적 특징이 구별되는지를 평가하는 주관적 지표를 반영하여, 각각의 지표에 대한 점수를 산정하고 기설정된 기준 점수 이상을 받은 아이템을 콘텐츠 리스트에 등록한다.According to one embodiment of the present invention, an item of content to be provided to a user is related to an endangered animal, including an emergency stage in which the possibility of extinction in the wild is extremely high, a crisis stage in a wilderness that is highly likely to become extinct, The objective index that is classified into three stages of the vulnerable stage with a high probability and the subjective index that evaluates whether the predetermined item and the habitat environment are different from each other and whether the predetermined items are distinguished from the biological characteristic, And registers an item having received a predetermined reference score or more in the content list.

여기서, 멸종위기 동물이란 자연적 또는 인위적 위협요인 때문에 서식지가 줄어들고 서식환경이 나빠지면서 개체수가 뚜렷하게 줄어들고 있는 동물로서, 현재의 위협요인이 제거되거나 완화되지 않을 경우 멸종위기에 놓일 위험이 있는 동물을 의미한다.Here, endangered animals are animals whose population is sharply diminishing due to natural or artificial threats, habitat loss and habitat degradation, which means animals at risk of extinction if current threats are not eliminated or mitigated .

이러한 큰 범위 내에서 객관적 지표와 주관적 지표를 설정해 콘텐츠에 적합한 동물들을 선정한다.Within such a large range, objective indicators and subjective indicators are set to select suitable animals for the content.

객관적 지표는 세계 자연 보전 연맹에서 작성한 멸종위기 동물 리스르를 참조했으며, 멸종 위기 종물은 총 7가지로 세분화 할 수 있다. 그 중 일반적으로 멸종 위기라고 보는 상태는 위급, 위기, 취약 3단계라고 볼 수 있다. 따라서, 상기 3단계의 멸종위기 동물들을 선정하는게 적합하다.Objective indicators refer to the Endangered Species Lysle created by the World Conservation Union, and the endangered species can be subdivided into a total of seven. Among them, the state of being considered as endangered is generally regarded as an emergency, crisis, or vulnerable stage. Therefore, it is appropriate to select the above three-stage endangered species.

Figure pat00001
Figure pat00001

<세계 자연 보전 연맹 멸종위기동물 리스트><List of endangered species of the World Conservation Union>

주관적 지표는 서식지의 특징이 확연하고 다양한 오디오를 활용할 수 있는 멸종 위기 동물 및 생물학적 특징이 확연해서 캐릭터화 했을 때 재미요소가 있어야한다. 이는, 사용자가 캐릭터를 통해 친밀감과 유대감을 느끼고, 기존의 캐릭터와 동일한 서식지와 모습을 하고 있다면 사용자가 지루함을 느낄 수 있길 때문이다.Subjective indicators should be interesting when characterizing endangered animals and biologic features that are distinctive in their habitat and that can harness diverse audio sources. This is because if the user feels intimacy and bond through the character and has the same habitat and appearance as the existing character, the user can feel bored.

도 4는 본 발명의 실시예에 따른 미니북의 구성을 나타내는 예시적인 도면이다.4 is an exemplary diagram showing a configuration of a mini-book according to an embodiment of the present invention.

도 4를 참조하면, 상기 미니북(400)에서 사용자가 스와이프(swipe) 동작을 통해 페이지를 넘기는 모션을 하는 것을 확인할 수 있다. 상기 미니북(400)이 사용자 모션에 의해 페이지를 넘기면 상기 대형북(300)에 디스플레이 되는 컨텐츠의 페이지도 동일하게 페이지를 넘긴다.Referring to FIG. 4, it can be confirmed that the user performs a motion of swiping a page through a swipe operation in the mini-book 400. When the mini-book 400 passes a page by user's motion, the page of the content displayed on the large book 300 also passes the same page.

이상에서 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것으로 이에 한정되지 않는다. 통상의 기술자는 전술한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.While the present invention has been described with reference to the exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. Those skilled in the art will appreciate that various modifications may be made to the embodiments described above. The scope of the present invention is defined only by the interpretation of the appended claims.

110 : 모션 감지부
120 : 공간 촬영부
200 : 처리부
210 : 상호작용 처리부
220 : 디스플레이 처리부
300 : 대형북
400 : 미니북
410 : 미니북 카메라
110: Motion detection unit
120:
200:
210: Interaction processor
220:
300: large drum
400: Mini Book
410: Mini Book Camera

Claims (9)

사용자 모션 정보와 실제 공간 정보를 획득하는 입력부; 및
상기 입력부에서 획득된 사용자 모션 정보와 실제 공간 정보를 이용하여 사용자의 모션과 실제 공간을 인식하고, 공간의 변화나 사용자의 모션에 대응하여 변화하는 컨텐츠를 생성하고, 인식된 실제 공간과 가상 공간을 맵핑하여 생성된 컨텐츠를 프로젝터를 통해 디스플레이하는 처리부;를 포함하는 콘텐츠 제공 장치.
An input unit for obtaining user motion information and actual spatial information; And
The user recognizes the motion and the actual space of the user by using the user motion information and the actual space information obtained from the input unit, generates content that changes according to the change of space or the motion of the user, And a processing unit for displaying the content generated by the mapping through the projector.
제 1 항에 있어서,
상기 입력부는:
적어도 하나 이상의 사용자의 모션 정보를 획득하는 모션 감지부; 및
실제 공간 정보를 스캔하여 실제 공간의 3차원 특징을 추출하는 실제 공간 촬영부;를 포함하고,
상기 처리부는:
실제 공간 정보와 사용자의 모션 정보를 이용하여 객체를 인식하고 인식된 객체로부터 사용자의 모션을 포함한 실제 공간을 인식하고, 인식된 실제 공간과 가상 공간 간의 상호작용을 계산하여 실제 공간에 가상 공간을 결합함에 따라 콘텐츠를 생성하는 상호작용 처리부; 및
상기 상호작용 처리부를 통해 생성된 콘텐츠를 프로젝터를 통해 디스플레이하는 디스플레이 처리부;를 포함하는 콘텐츠 제공 장치.
The method according to claim 1,
Wherein the input unit comprises:
A motion detection unit for obtaining motion information of at least one user; And
And an actual space photographing unit for extracting three-dimensional features of the actual space by scanning the actual space information,
Wherein the processing unit comprises:
Recognize objects using actual spatial information and user's motion information, recognize real space including user's motion from recognized objects, and calculate interaction between recognized real space and virtual space to combine virtual space in real space An interaction processor for generating a content according to the content; And
And a display processing unit for displaying the content generated through the interaction processing unit through a projector.
제 2 항에 있어서,
상기 디스플레이 처리부와 연결된 프로젝터가 영사하는 컨텐츠가 디스플레이되는 대형북;을 더 포함하는 콘텐츠 제공 장치.
3. The method of claim 2,
And a large book on which contents to be projected by a projector connected to the display processing unit are displayed.
제 3 항에 있어서,
상기 대형북에 디스플레이되는 컨텐츠와 동일한 컨텐츠가 디스플레이되는 미니북과; 및
상기 미니북의 상단에 배치되어, 사용자의 모션 정보 및 컨텐츠 식별정보를 획득하는 미니북 카메라;를 포함하고, 상기 상호작용 처리부는 상기 미니북 카메라를 통해 얻어진 사용자의 모션 정보 및 컨텐츠 식별정보를 받아 콘텐츠에 반영하는 콘텐츠 제공 장치.
The method of claim 3,
A mini-book on which contents identical to the contents displayed on the large book are displayed; And
And a mini-book camera disposed at an upper end of the mini-book for acquiring motion information and content identification information of the user, wherein the interaction processing unit receives the user's motion information and content identification information obtained through the mini-book camera A content providing device that reflects the content.
제 3 항에 있어서,
상기 모션감지부는:
상기 대형북의 전방의 사용자의 모션을 인식함에 있어서,
획득된 사용자의 모션 정보 중 불필요한 정보를 제외한 각 사용자의 동작 정보만 상기 상호작용 처리부로 보내는 콘텐츠 제공 장치.
The method of claim 3,
Wherein the motion sensing unit comprises:
In recognizing the motion of the user in front of the large book,
And transmits only the operation information of each user except for unnecessary information among the acquired motion information of the user to the interaction processing unit.
제 4 항에 있어서,
상기 상호작용 처리부는:
사용자의 모션 정보가 없는 경우에는 상기 대형북과 상기 미니북을 대기모드 상태로 하고, 상기 미니북 카메라가 사용자의 모션 정보를 획득하면 상기 대형북 및 상기 미니북을 활성모드 상태로 전환하는 콘텐츠 제공 장치.
5. The method of claim 4,
Wherein the interaction processing unit comprises:
If there is no motion information of the user, the large book and the mini book are put in the standby mode, and when the mini book camera acquires the motion information of the user, the large book and the mini book are switched to the active mode state Device.
제 6 항에 있어서,
상기 상호작용 처리부는:
상기 대형북 및 상기 미니북이 활성모드 상태로 전환되면, 사용자에게 콘텐츠의 아이템을 제시하고, 사용자의 입력에 따라 콘텐츠의 아이템을 선정하고 상기 선정된 아이템에 대응하여 콘텐츠를 제공하며,
제공되는 콘텐츠에 캐릭터가 등장해서 정해진 스토리를 진행하는 방식으로, 캐릭터가 사용자에게 음성 또는 문자로 문제 상황을 제시하고, 사용자의 모션에 대응하여 스토리를 진행하는 콘텐츠 제공 장치.
The method according to claim 6,
Wherein the interaction processing unit comprises:
When the large book and the mini book are switched to the active mode state, the content item is presented to the user, the content item is selected according to the input of the user, the content is provided corresponding to the selected item,
Wherein the character presents a problem situation to the user by voice or a character and proceeds to the story in accordance with the motion of the user in such a manner that a character appears in the provided content and a predetermined story is progressed.
제 6 항에 있어서,
사용자에게 제공하는 콘텐츠의 아이템은 멸종 위기 동물에 관한 것으로,
야생에서 멸종할 가능성이 대단히 높은 위급단계, 야생에서 멸종할 가능성이 높은 위기단계 및 야생에서 위기에 처할 가능성이 높은 취약단계의 3단계로 구분한 객관적 지표와;
기설정된 아이템과 서식 환경이 차이가 있고, 기설정된 아이템들과 생물학적 특징이 구별되는지를 평가하는 주관적 지표;를 반영하여, 각각의 지표에 대한 점수를 산정하고 기설정된 기준 점수 이상을 받은 아이템을 콘텐츠 리스트에 등록하는 콘텐츠 제공 장치.
The method according to claim 6,
The items of content that are provided to the user are related to endangered animals,
An objective indicator divided into three stages: a critical stage with a high probability of extinction in the wild, a crisis stage with a high possibility of extinction in the wild, and a vulnerable stage with a high possibility of being in crisis in the wild;
And a subjective indicator for evaluating whether the predetermined item and the biological characteristic are distinguished from each other in terms of the predetermined item and the form environment and calculating the score for each indicator, A content providing apparatus for registering in a list.
제 4 항에 있어서,
상기 미니북은 6개의 콘텐츠 식별정보를 포함하되,
상기 미니북 카메라가 사용자의 모션정보 또는 콘텐츠 식별정보 중 적어도 하나를 인식하고, 상기 처리부는 상기 인식된 사용자 모션 정보 또는 콘텐츠 식별정보에 따라 콘텐츠를 상기 미니북 및 상기 대형북에 제공하고, 상기 모션감지부는 사용자의 모션정보 중 사용자의 오른손의 위치값을 이용하여 콘텐츠를 진행하는 콘텐츠 제공 장치.
5. The method of claim 4,
The mini-book includes six pieces of content identification information,
Wherein the mini-book camera recognizes at least one of the user's motion information or the content identification information, and the processing unit provides the content to the mini-book and the large book according to the recognized user motion information or the content identification information, And the sensing unit proceeds with the content using the position value of the right hand of the user in the motion information of the user.
KR1020170169606A 2017-12-11 2017-12-11 Apparatus for providing contents based on projection KR20190069174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170169606A KR20190069174A (en) 2017-12-11 2017-12-11 Apparatus for providing contents based on projection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170169606A KR20190069174A (en) 2017-12-11 2017-12-11 Apparatus for providing contents based on projection

Publications (1)

Publication Number Publication Date
KR20190069174A true KR20190069174A (en) 2019-06-19

Family

ID=67104511

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169606A KR20190069174A (en) 2017-12-11 2017-12-11 Apparatus for providing contents based on projection

Country Status (1)

Country Link
KR (1) KR20190069174A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102262288B1 (en) * 2020-09-16 2021-06-08 주식회사 다베로아트 Realistic exhibition image realization system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160123194A (en) 2015-04-15 2016-10-25 이경일 Virtual zoo system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160123194A (en) 2015-04-15 2016-10-25 이경일 Virtual zoo system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102262288B1 (en) * 2020-09-16 2021-06-08 주식회사 다베로아트 Realistic exhibition image realization system
KR20220036842A (en) * 2020-09-16 2022-03-23 주식회사 다베로아트 Interactive exhibition image realization system using laser senor

Similar Documents

Publication Publication Date Title
US11645816B2 (en) Wearable electronic glasses display instructions as virtual hand gestures
US10661157B2 (en) Method and system incorporating real environment for virtuality and reality combined interaction
Wiegman The times we’re in: Queer feminist criticism and the reparative ‘turn’
US20230316676A1 (en) Virtual work of expression within a virtual environment
KR101264874B1 (en) Learning apparatus and learning method using augmented reality
Korn et al. Assistive systems for the workplace: Towards context-aware assistance
WO2012009225A1 (en) Method and system for presenting interactive, three-dimensional learning tools
Bazzaza et al. iARBook: An immersive augmented reality system for education
Jafri Electronic braille blocks: a tangible interface-based application for teaching braille letter recognition to very young blind children
Ehrlich et al. Interpreter education in the digital age: Innovation, access, and change
Lozada et al. MS-Kinect in the development of educational games for preschoolers
Hawreliak On the procedural mode
KR20190069174A (en) Apparatus for providing contents based on projection
CN109671317B (en) AR-based facial makeup interactive teaching method
Fong The stories outside the African farm: Indigeneity, orality, and unsettling the Victorian
Hayler Incorporating technology: A phenomenological approach to the study of artefacts and the popular resistance to e-reading
Indriyanto Deconstructing Paradise: We Narration As Collective Indigenous Voice in “This Is Paradise”
Wright Cultural history: Europeans, Americans, and the meanings of space
KR102410923B1 (en) Method, apparatus, computer-readable storage medium and computer program for providing augmented reality content for coding education applying ar technology to book
Selvik Spatial paths representing time: a cognitive analysis of temporal expressions in Norwegian sign language
US20080032275A1 (en) Interactive system
KR20160040750A (en) Motion recognition with Virtual Reality based Realtime Interactive Korea Cargo Vessel Learning System
WO2020250110A1 (en) A system and a method for generating a 3d visualization using mixed reality-based hmd
KR20110107707A (en) Online learning apparatus for augmented reality and method thereof
US20240096227A1 (en) Content provision system, content provision method, and content provision program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application