KR20190070162A - System and method for realizing multi-device contents based on pen-motion - Google Patents

System and method for realizing multi-device contents based on pen-motion Download PDF

Info

Publication number
KR20190070162A
KR20190070162A KR1020170170720A KR20170170720A KR20190070162A KR 20190070162 A KR20190070162 A KR 20190070162A KR 1020170170720 A KR1020170170720 A KR 1020170170720A KR 20170170720 A KR20170170720 A KR 20170170720A KR 20190070162 A KR20190070162 A KR 20190070162A
Authority
KR
South Korea
Prior art keywords
pen
motion
leader
output
unit
Prior art date
Application number
KR1020170170720A
Other languages
Korean (ko)
Other versions
KR102338019B1 (en
Inventor
조상용
Original Assignee
주식회사 글로브포인트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 글로브포인트 filed Critical 주식회사 글로브포인트
Priority to KR1020170170720A priority Critical patent/KR102338019B1/en
Publication of KR20190070162A publication Critical patent/KR20190070162A/en
Application granted granted Critical
Publication of KR102338019B1 publication Critical patent/KR102338019B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a system and method for implementing multi-device content based on pen motion recognition. According to an embodiment of the present invention, the system comprises: a content provider composed of a plurality of objects including a unique marker; a reader pen determining and controlling a predetermined output form corresponding to a motion generated by user operation when any one of the is selected; and an output device outputting content corresponding to a unique marker included in the selected object in accordance with the output form determined by the reader pen.

Description

펜모션 인식 멀티디바이스 콘텐츠 구현 시스템 및 방법 {System and method for realizing multi-device contents based on pen-motion}[0001] The present invention relates to a pen-motion-aware multi-device content implementation system and method,

본 발명은 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 전자펜의 움직임을 인식하여 그에 따른 멀티디바이스 콘텐츠를 재생하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a pen-motion-aware multi-device content implementation system and method, and more particularly, to a pen-motion-aware multi-device content implementation system and method for recognizing movement of an electronic pen and thereby reproducing multi- .

도서나 학습 벽보에 펜을 갖다 대면 글을 읽어주거나 그림을 설명해주는 전자펜이 인기를 얻고 있다. 전자펜은 원하는 단어와 문장을 반복해서 들을 수 있어 언어 학습에 도움이 되며, 녹음 기능을 포함하고 있는 경우 사용자가 직접 목소리를 녹음해 발음을 비교할 수도 있어 활용도가 높은 제품으로 각광받고 있다.When you bring a pen to a book or study wall, electronic pens that read or describe the picture are becoming popular. The electronic pen is useful for language learning because it can listen to the desired words and sentences repeatedly. If the user includes the recording function, the user can directly record his / her voice to compare the pronunciation.

기존의 전자펜은 기본적으로 책이나 벽보 등에 나와 있는 단어나 그림에 전자펜을 가져다대면, 전자펜이 단어나 그림에 포함되어 있는 보이지 않는 특정 마커를 인식하여 해당 음성이나 소리를 스피커로 출력한다.A conventional electronic pen basically brings an electronic pen to a word or a picture on a book or a wall, and the electronic pen recognizes a specific marker which is not shown in a word or a picture and outputs the voice or sound to the speaker.

전자펜이 인기를 얻고 있음에 따라, 각종 출판사, 및 학습지 업체들은 다양한 전자펜의 활용 방안들을 제시하고 있으며, 각 업체들에서 각자의 성격에 맞추어 변화된 전자펜들을 선보이고 있다.As electronic pens have gained popularity, various publishing companies and tutoring companies have suggested ways to utilize various electronic pens, and each company has introduced electronic pens changed according to their characteristics.

하지만, 여러 업체들별로 제공되는 전자펜은 그 외형이 변형되는 것이 대부분일 뿐, 소리 혹은 음성을 출력하는 기능, 음악 파일을 저장하여 음악을 재생하는 기능, 및 사용자에 의해 발생하는 소리를 녹음하는 기능과 같이 전자펜에 기본적으로 포함되는 메모리 및 스피커를 이용하는 기능 이외에는 다른 기능을 제공하지는 못하고 있는 실정이다.However, the electronic pen provided by various companies is most likely to be deformed in its appearance. The electronic pen has a function of outputting sound or voice, a function of playing music by storing a music file, and a recording of a sound generated by a user Functions other than the function of using a memory and a speaker basically included in the electronic pen as in the case of the function of the electronic pen.

국내공개특허 제2009-012558호(2009. 12. 09. 공개)Korean Patent Laid-Open No. 2009-012558 (Dec. 09, 2009)

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 사용자에 의해 조작되는 리더펜의 모션에 따라 리더펜의 내장 스피커 이외에도 다양한 디바이스를 통해 콘텐츠를 구현할 수 있는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템 및 방법을 제시하는 데 있다.According to an aspect of the present invention, there is provided a pen-motion-aware multi-device content implementation system capable of implementing contents through various devices in addition to a built-in speaker of a leader pen according to a motion of a reader pen operated by a user And methods.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The solution of the present invention is not limited to those mentioned above, and other solutions not mentioned can be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 고유의 마커를 포함하는 복수의 오브젝트로 이루어진 콘텐츠 제공기, 복수의 오브젝트 중 어느 하나의 오브젝트가 선택되면, 사용자의 조작에 의해 발생한 모션에 대응하도록 기설정된 출력 형태를 결정하여 제어하는 리더펜, 및 리더펜에 의해 결정된 출력 형태에 따라, 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하는 출력기를 포함하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템이 제공된다.As a means for solving the above-mentioned technical problems, according to an embodiment of the present invention, there is provided a contents providing apparatus comprising a content provider composed of a plurality of objects including unique markers, And an output device for outputting a content corresponding to a unique marker included in the selected object in accordance with an output form determined by the leader pen, A recognized multi-device content implementation system is provided.

바람직하게, 사용자의 조작에 의해 발생한 모션은, 어느 하나의 오브젝트가 선택되는 동작의 직전 혹은 직후에 발생하는 모션일 수 있다.Preferably, the motion generated by the user's operation may be a motion that occurs immediately before or after an operation in which any one of the objects is selected.

또한 바람직하게, 출력기는 리더펜에 내장된 내장 스피커를 포함하는 내부 출력기, 및 외부 스피커, 영상출력기기, 및 VR HMD(Virtual Reality Head Mounted Display) 를 포함하는 외부 출력기중 적어도 어느 하나일 수 있다.Also preferably, the output device may be at least one of an internal output device including a built-in speaker built in the leader pen, and an external output device including an external speaker, a video output device, and a VR HMD (Virtual Reality Head Mounted Display).

또한 바람직하게, 리더펜은, 복수의 오브젝트에 포함되어 있는 고유의 마커를 인식하는 센서부, 사용자의 조작에 의해 발생한 모션을 인식하는 모션 인식부, 외부 출력기와의 인터페이스를 지원하는 근거리 통신부, 및 모션 인식부에 의해 인식된 모션에 대응하는 출력 형태를 결정하고, 결정된 출력 형태에 따라 내부 출력기 및 외부 출력기를 제어하는 제어부를 포함할 수 있다.Preferably, the leader pen includes: a sensor unit for recognizing a unique marker included in a plurality of objects; a motion recognition unit for recognizing a motion generated by a user's operation; a local communication unit for supporting an interface with an external output device; And a control unit for determining an output form corresponding to the motion recognized by the motion recognition unit and controlling the internal output unit and the external output unit according to the determined output form.

또한 바람직하게, 센서부는, 복수의 오브젝트 중 어느 하나의 오브젝트에 기설정된 인식범위 이내로 근접하게 되면, 어느 하나의 오브젝트에 포함되어 있는 고유의 마커를 인식할 수 있다.Preferably, the sensor unit can recognize a unique marker included in any one of the plurality of objects when the object approaches the predetermined recognition range.

또한 바람직하게, 제어부는, 결정된 출력 형태가 내부 출력기에 의해 수행되는 것일 경우, 내장된 내장 스피커를 통해 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하도록 제어하고, 결정된 출력 형태가 외부 출력기에 의해 수행되는 것일 경우, 근거리 통신부를 통해 외부 출력기 중 해당 외부 출력기가 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하도록 제어할 수 있다.Preferably, the control unit controls to output a content corresponding to a unique marker included in the selected object through the built-in built-in speaker when the determined output format is performed by the internal output device, , It is possible to control the corresponding external output device among the external output devices to output a content corresponding to a unique marker included in the selected object through the local communication unit.

한편, 본 발명의 다른 실시 예에 따르면, 고유의 마커를 포함하는 복수의 오브젝트로 이루어진 콘텐츠 제공기로부터 리더펜에 의해 복수의 오브젝트 중 어느 하나의 오브젝트가 선택되는 단계, 사용자의 조작에 의해 발생한 모션에 대응하도록 기설정된 출력 형태를 결정하는 단계, 및 결정된 출력 형태에 따라, 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하는 단계를 포함하는 펜모션 인식 멀티디바이스 콘텐츠 구현 방법이 제공된다.According to another embodiment of the present invention, there is provided a method of controlling a robot, comprising the steps of: selecting any one of a plurality of objects from a content provider composed of a plurality of objects including unique markers; And outputting a content corresponding to a unique marker included in the selected object in accordance with the determined output form. The present invention also provides a method for implementing a pen-motion recognition multi-device content.

바람직하게, 사용자에 의한 리더펜의 조작에 의해 발생하는 모션을 인식하는 단계를 더 포함할 수 있다.,Preferably, the step of recognizing the motion generated by the operation of the leader pen by the user may further include:

또한 바람직하게, 모션을 인식하는 단계는, 어느 하나의 오브젝트가 선택되는 단계의 직전 혹은 직후에 수행될 수 있다.Also, preferably, the step of recognizing motion may be performed immediately before or after the step of selecting any one of the objects.

또한 바람직하게, 오브젝트가 선택되는 단계에서, 리더펜이 복수의 오브젝트 중 어느 하나의 오브젝트에 기설정된 인식범위 이내로 근접하게 되면, 어느 하나의 오브젝트에 포함되어 있는 고유의 마커를 인식할 수 있다.Further, preferably, when the leader pen is brought close to any one of the plurality of objects within a predetermined recognition range at the step of selecting the object, it is possible to recognize a unique marker included in any one of the objects.

본 발명에 따르면, 책, 학습벽보 등과 같은 제한적인 매체를 통해서는 제공할 수 없었던 다양한 형태의 정보를 리더펜을 기정해진 모션으로 움직이는 간단한 동작에 의해 다양한 매체를 통해 제공할 수 있는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템 및 방법을 제공하는 효과가 있다.According to the present invention, it is possible to provide various types of information that can not be provided through a limited medium such as a book, a learning wall, etc. to a pen-motion recognition multi-function device capable of providing the reader pen through various media by a simple operation of moving the predetermined pen- There is an effect of providing a device content realization system and method.

이러한 리더펜을 학습 시스템에 적용할 경우, 다양한 매체를 통해 다양한 형태로 학습 정보를 전달함으로써, 학습자의 흥미를 유발하고 쉽게 지치지 않도록 하여 학습효과를 향상할 수 있는 효과가 이TEk.When the reader pen is applied to the learning system, the learning information is delivered in various forms through various media, thereby inducing the interest of the learner.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 바람직한 실시예에 따른 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템의 구성도,
도 2는 본 발명의 바람직한 실시예에 따른 리더펜의 블럭도,
도 3a 내지 도 3c는 본 발명의 바람직한 실시예에 따른 리더펜의 모션을 예시한 도면, 그리고,
도 4는 본 발명의 바람직한 실시예에 따른 펜모션 인식 멀티디바이스 콘텐츠 구현 방법을 설명하기 위한 흐름도이다.
1 is a configuration diagram of a pen-motion-aware multi-device content implementation system according to a preferred embodiment of the present invention;
2 is a block diagram of a leader pen according to a preferred embodiment of the present invention,
3A to 3C are diagrams illustrating motion of a leader pen according to a preferred embodiment of the present invention,
4 is a flowchart illustrating a method of implementing pen motion recognition multi-device contents according to a preferred embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Further, in the drawings, the thickness of the components is exaggerated for an effective description of the technical content.

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.It is to be understood that when an element, component, apparatus, or system is referred to as comprising a program or a component made up of software, it is not explicitly stated that the element, component, (E.g., memory, CPU, etc.) or other programs or software (e.g., drivers necessary to run an operating system or hardware, etc.)

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.It is also to be understood that the elements (or elements) may be implemented in software, hardware, or any form of software and hardware, unless the context requires otherwise.

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Also, terms used herein are for the purpose of illustrating embodiments and are not intended to limit the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprises" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.

도 1은 본 발명의 바람직한 실시예에 따른 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템의 구성도이다.1 is a configuration diagram of a pen motion recognition multi-device contents implementation system according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템은 콘텐츠 제공기(100), 리더펜(200), 및 출력기(300)로 이루어진다.Referring to FIG. 1, a pen motion recognition multi-device contents realization system according to a preferred embodiment of the present invention comprises a content provider 100, a leader pen 200, and an output device 300.

콘텐츠 제공기(100)는 고유의 마커를 포함하는 복수의 오브젝트로 이루어진 콘텐츠를 제공한다. 여기서, 복수의 오브젝트는, 콘텐츠 제공기(100) 내에 포함되는 그림, 문자, 배경을 포함하며, 각 오브젝트에는 오브젝트별로 표현할 수 있는 다양한 콘텐츠를 재생하기 위한 고유의 마커가 포함된다. 또한, 오브젝트별로 표현할 수 있는 다양한 콘텐츠는 소리, 음성, 영상, 가상현실 중 적어도 하나의 형태로 구현될 수 있다.The content provider 100 provides content composed of a plurality of objects including unique markers. Here, the plurality of objects includes pictures, texts, and backgrounds included in the contents provider 100, and each object includes a unique marker for reproducing various contents that can be expressed for each object. In addition, various contents that can be expressed by objects can be implemented in at least one form of sound, voice, image, and virtual reality.

콘텐츠 제공기(100)로는 종이책, 전자책, 및 컴퓨터와 같은 매체를 이용한 스토리북과 같이 다양한 형태로 콘텐츠를 제공할 수 있는 것이면 모두 적용될 수 있다.The content provider 100 may be any one capable of providing contents in various forms such as a paper book, an electronic book, and a story book using a medium such as a computer.

리더펜(200)은 사용자가 손으로 잡고 사용하기 용이하도록 펜 형상으로 형성되며, 사용자의 조작에 의해 콘텐츠 제공기(100)에 포함되어 있는 복수의 오브젝트 중 어느 하나를 선택하여 정보를 제공받을 수 있다.The leader pen 200 is formed in a pen shape so that the user can easily grasp the leader pen 200 by hand and can select any one of a plurality of objects included in the content provider 100 and receive information have.

본 실시예에서, 리더펜(200)은 단순히 오브젝트를 선택하는 기능만을 수행하는 것이 아니라, 사용자와 기약속된 모션을 인식하여 모션에 해당하는 출력기(300)를 선택할 수 있다. 리더펜(200)에 관하여는 후술하는 도 2에서 보다 상세히 설명한다.In the present embodiment, the leader pen 200 does not merely perform a function of simply selecting an object, but can recognize the user's predetermined motion and select the output device 300 corresponding to the motion. The leader pen 200 will be described in more detail later with reference to FIG.

출력기(300)는 리더펜(200)에 의해 결정된 출력 형태에 따라, 사용자가 선택한 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력한다. 본 실시예에서, 출력기(300)는 내부 출력기와 외부 출력기(300)를 포함한다.The output device 300 outputs a content corresponding to a unique marker included in the object selected by the user according to the output form determined by the leader pen 200. [ In this embodiment, the output device 300 includes an internal output device and an external output device 300. [

내부 출력기는 리더펜(200)에 내장된 내장 스피커일 수 있다. 또한, 외부 출력기(300)는 리더펜(200)과의 근거리 통신이 가능한 외부 스피커 예를 들면, 블루투스 스피커, 전자패드와 같은 영상출력기기, 및 가상현실의 구현이 가능한 VR HMD(Virtual Reality Head Mounted Display) 중 적어도 어느 하나일 수 있다.The internal output device may be a built-in speaker built in the leader pen 200. The external output device 300 may include an external speaker capable of short-range communication with the leader pen 200, for example, a video output device such as a Bluetooth speaker and an electronic pad, and a VR HMD (Virtual Reality Head Mounted Display).

출력기(300)가 내장 스피커 혹은 블루투스 스피커로 선택된 경우에는 콘텐츠가 소리 혹은 음성으로만 출력될 것이고, 전자패드로 선택된 경우에는 소리와 영상이 함께 출력될 것이다. 또한, VR HMD가 선택된 경우에는 가상현실 콘텐츠가 출력되어 사용자는 3D로 콘텐츠를 제공받을 수 있다.When the output device 300 is selected as a built-in speaker or a Bluetooth speaker, the content will be output only as sound or voice, and when selected as the electronic pad, sound and video will be output together. In addition, when the VR HMD is selected, the virtual reality contents are outputted and the user can receive the contents in 3D.

본 실시예에서는 도시하지 않았으나, 리더펜(200)에 소형 디스플레이가 구비될 수도 있다. 이러한 경우, 내부 출력기는 내장 스피커와 내장 소형 디스플레이를 포함하며, 콘텐츠의 출력이 내부 출력기를 통하는 것으로 선택된 경우에 소리와 영상이 함께 출력될 수 있다.Although not shown in the present embodiment, the leader pen 200 may be provided with a small display. In this case, the internal output device includes an internal speaker and a built-in small display, and sound and image can be output together when the output of the content is selected through the internal output device.

도 2는 본 발명의 바람직한 실시예에 따른 리더펜의 블럭도이다.2 is a block diagram of a leader pen according to a preferred embodiment of the present invention.

도 2를 참조하면, 본 발명의 바람직한 실시예에 따른 리더펜(200)은 센서부(210), 모션 인식부(220), 근거리 통신부(230), 내장 스피커(240), 메모리부(250), 및 제어부(260)를 포함한다.2, a leader pen 200 according to a preferred embodiment of the present invention includes a sensor unit 210, a motion recognition unit 220, a short range communication unit 230, a built-in speaker 240, a memory unit 250, , And a control unit 260. [

센서부(210)는 콘텐츠 제공기(100)에 포함되어 있는 복수의 오브젝트 중 사용자의 조작에 의해 어느 하나의 오브젝트가 선택되면, 선택된 오브젝트에 포함되어 있는 고유의 마커를 인식한다.When one of the plurality of objects included in the content provider 100 is selected by the user's operation, the sensor unit 210 recognizes a unique marker included in the selected object.

센서부(210)는 하드웨어적으로 리더펜(200)의 몸체 하단에 구비된다. 이에 의해, 사용자가 리더펜(200)의 몸체를 손으로 잡았을 때, 통상의 펜을 사용하는 것과 동일하게 몸체의 하단을 콘텐츠 제공기(100)의 오브젝트에 가져다대는 동작을 용이하게 수행할 수 있다.The sensor unit 210 is provided at the lower end of the body of the leader pen 200 in hardware. Accordingly, when the user holds the body of the leader pen 200 by hand, it is possible to easily perform an operation of bringing the lower end of the body to the object of the contents provider 100, like using a normal pen .

모션 인식부(220)는 사용자의 조작에 의해 발생하는 모션을 인식한다. 앞에서도 언급한 바와 같이, 기존의 전자펜에서는 전자펜을 종이책에 인쇄된 그림 혹은 문자에 가져다대면 전자펜에 내장된 스피커를 통해 소리나 음성을 출력하는 형태이다.The motion recognition unit 220 recognizes a motion generated by a user's operation. As mentioned above, in the conventional electronic pen, when the electronic pen is brought into a picture or character printed on a paper book, the sound or voice is outputted through a speaker built in the electronic pen.

하지만, 본 실시예에 따르면, 본 발명에 사용되는 리더펜(200)은 리더펜(200)을 종이책과 같은 콘텐츠 제공기(100)의 원하는 부분에 가져다대는 동작과 더불어 기설정된 모션에 의해 출력기(300)를 선택할 수 있도록 구성하였다. 그러므로, 모션 인식부(220)는 기설정된 모션 정보에 따라, 사용자가 리더펜(200)을 손에 들고 취하는 모션을 인식한다. However, according to the present embodiment, the leader pen 200 used in the present invention can be used in combination with an operation of bringing the leader pen 200 to a desired portion of the content provider 100 such as a paper book, (300) can be selected. Therefore, the motion recognition unit 220 recognizes the motion that the user takes with the leader pen 200 in hand, according to the predetermined motion information.

모션 인식부(220)에 의해 인식되는 모션 정보는 매우 다양하게 설정될 수 있다. 예를 들면, 리더펜(200)이 시계방향으로 회전되는 모션이 취해지면 선택된 오브젝트에 설정되어 있는 음성을 블루투스 스피커로 출력하도록 할 수 있고, 리더펜(200)이 시계 반대방향으로 회전되는 모션이 취해지면 선택된 오브젝트에 설정되어 있는 영상을 태블릿으로 출력하도록 할 수 있으며, 리더펜(200)이 "V" 형상을 그리는 모션이 취해지면 선택된 오브젝트에 설정되어 있는 가상현실 데이터를 VR HMD로 출력하도록 할 수 있다. The motion information recognized by the motion recognition unit 220 can be set in various ways. For example, when the motion in which the leader pen 200 is rotated in the clockwise direction is taken, the voice set in the selected object can be output to the Bluetooth speaker, and the motion in which the leader pen 200 is rotated counterclockwise When the motion of drawing the "V" shape is taken, the leader pen 200 outputs the virtual reality data set in the selected object to the VR HMD .

이는, 리더펜(200)이 취할 수 있는 모션을 이해를 돕기 위해 예시한 것일 뿐, 반드시 이에 한정되는 것은 아니며, 사용자의 편의성을 고려한 방안으로 얼마든지 변경될 수 있다. 모션 인식부(220)에서 리더펜(200)의 모션을 인식하는 것은 후술하는 도 3a 내지 도 3c에서 보다 상세히 설명한다.This is merely an example for understanding the motion that the leader pen 200 can take, and the present invention is not limited thereto, and may be changed in any way considering the convenience of the user. Recognition of the motion of the leader pen 200 by the motion recognition unit 220 will be described later in more detail with reference to FIGS. 3A to 3C.

근거리 통신부(230)는 리더펜(200)과 외부 출력기(300)간의 인터페이스를 지원하는 것으로, 통상 블루투스를 적용할 수 있다. 즉, 블루투스 기능을 갖는 기기라면, 어느 것이든 근거리 통신부(230)를 통해 리더펜(200)으로부터 콘텐츠 제공기(100)의 정보를 제공받아 사용자가 원하는 출력을 제공할 수 있다.The short-range communication unit 230 supports an interface between the leader pen 200 and the external output unit 300, and typically Bluetooth can be applied. That is, if the device has a Bluetooth function, the information of the content provider 100 may be provided from the leader pen 200 through the short-range communication unit 230, and the user may provide an output desired by the user.

내장 스피커(240)는 리더펜(200)에 구비된 내부 출력기에 해당하는 것으로, 후술하는 제어부(260)에 의해 출력 형태가 내부 출력기에 의한 것으로 결정되었을 때, 기선택된 오브젝트에 해당하는 소리 혹은 음성을 출력한다.The built-in speaker 240 corresponds to an internal output unit provided in the leader pen 200. When the control unit 260 determines that the output format is based on the internal output unit, .

본 실시예에서는, 리더펜(200)의 내부 출력기로 내장 스피커(240)만을 도시하였으나, 경우에 따라서는 리더펜(200)에 다른 내부 출력기가 더 구비될 수도 있다. 예를 들면, 리더펜(200)에 소형 디스플레이가 더 구비될 경우, 리더펜(200) 자체적으로 사용자에게 영상과 음성을 모두 제공하도록 구성할 수 있다.Although only the built-in speaker 240 is shown as an internal output device of the leader pen 200 in the present embodiment, another internal output device may be further provided in the leader pen 200 in some cases. For example, when the leader pen 200 is further provided with a small display, the leader pen 200 itself can be configured to provide both video and audio to the user.

메모리부(250)는 본 리더펜(200)의 동작에 필요한 모든 정보를 저장한다. 일 예로, 메모리부(250)는 모션 인식부(220)에서 모션을 인식할 때 사용하기 위하여 기설정된 모션 정보가 저장할 수 있으며, 외부 출력기(300)가 리더펜(200)에 등록되면 추후에 등록 절차 없이 사용할 수 있도록 외부 출력기(300)에 대한 정보를 저장할 수 있다.The memory unit 250 stores all information necessary for operation of the leader pen 200. For example, the memory unit 250 may store preset motion information for use in recognizing motion in the motion recognition unit 220. When the external output device 300 is registered in the leader pen 200, It is possible to store information on the external output device 300 so that it can be used without any procedure.

제어부(260)는 리더펜(200)의 동작에 필요한 모든 신호를 제어한다. 즉, 제어부(260)는 센서부(210), 모션 인식부(220), 근거리 통신부(230), 내장 스피커(240), 및 메모리부(250)들 간의 신호 입출력을 제어한다.The control unit 260 controls all the signals necessary for the operation of the leader pen 200. That is, the control unit 260 controls signal input / output between the sensor unit 210, the motion recognition unit 220, the short range communication unit 230, the internal speaker 240, and the memory unit 250.

제어부(260)는 모션 인식부(220)에 의해 인식된 모션에 대응하는 출력 형태를 결정한다. 즉, 제어부(260)는 모션 인식부(220)에 의해 인식된 모션을 메모리부(250)에 기저장되어 있는 모션정보와 비교하여 어느 출력기를 통해 출력하면 되는지를 결정할 수 있다.The control unit 260 determines an output type corresponding to the motion recognized by the motion recognition unit 220. [ That is, the control unit 260 can compare the motion recognized by the motion recognition unit 220 with the motion information stored in the memory unit 250, and determine which output unit to output.

또한, 제어부(260)는 결정된 출력 형태에 따라, 내부 출력기 혹은 외부 출력기(300)를 제어한다. 보다 구체적으로, 제어부(260)는 출력 형태가 내부 출력기에 의해 수행되는 것일 경우, 내장 스피커를 통해 기선택된 오브젝트에 해당하는 콘텐츠를 출력하도록 제어한다. 또한, 제어부(260)는 출력 형태가 외부 출력기에 의해 수행되는 것일 경우, 근거리 통신부(230)를 통해 외부 출력기(300) 중 해당 외부 출력기가 기선택된 오브젝트에 해당하는 콘텐츠를 출력하도록 제어한다. In addition, the controller 260 controls the internal or external output device 300 according to the determined output format. More specifically, when the output format is performed by the internal output device, the control unit 260 controls to output the content corresponding to the selected object through the built-in speaker. When the output format is performed by the external output device, the controller 260 controls the corresponding external output device of the external output device 300 to output the content corresponding to the selected object through the local communication unit 230.

도 3a 내지 도 3c는 본 발명의 바람직한 실시예에 따른 리더펜의 모션을 예시한 도면이다.3A to 3C are diagrams illustrating motion of a leader pen according to a preferred embodiment of the present invention.

도 3a 내지 도 3c를 통해, 복수의 오브젝트를 포함하는 콘텐츠 제공기(100a)와 더불어 리더펜(200)을 사용하는 방법을 설명한다. 종이책이나 학습벽보 등과 같은 형태인 평면상의 콘텐츠 제공기(100a)를 예시하였으며, 콘텐츠 제공기(100a)에는 여러 도형 형태의 오브젝트가 포함되어 있다. 즉, 콘텐츠 제공기(100a)에는 원형의 오브젝트(110a), 삼각형의 오브젝트(110b), 및 사각형의 오브젝트(110c)가 포함되어 있으며, 원형의 오브젝트(110a), 삼각형의 오브젝트(110b), 및 사각형의 오브젝트(110c)에는 리더펜(200)의 센서부(210)가 인식할 수 있는 각각의 고유의 마커가 포함되어 있다.3A to 3C, a method of using the leader pen 200 in addition to the content provider 100a including a plurality of objects will be described. A planar content provider 100a in the form of a paper book, a learning wall, or the like is exemplified. In the content provider 100a, objects of various graphic forms are included. That is, the content provider 100a includes a circular object 110a, a triangular object 110b, and a rectangular object 110c, and the circular object 110a, the triangular object 110b, The rectangular object 110c includes respective unique markers that the sensor unit 210 of the leader pen 200 can recognize.

도 3a를 참조하면, 사용자가 콘텐츠 제공기(100)를 보던 중, 추가적인 음성, 영상, 및 가상현실 데이터를 더 제공받고자 하는 경우, 사용자는 리더펜(200)을 이용하여 원형의 오브젝트(110a), 삼각형의 오브젝트(110b), 및 사각형의 오브젝트(110c) 중 원하는 하나의 오브젝트를 선택할 수 있다.3A, when a user wishes to receive additional voice, image, and virtual reality data while viewing the content provider 100, the user may select a circular object 110a using the leader pen 200, , The triangle object 110b, and the rectangular object 110c can be selected.

도시한 바와 같이, 사용자가 리더펜(200)을 이용하여 복수의 오브젝트 중 하나를 선택하는 동작은 리더펜(200)의 하단을 해당 오브젝트 즉, 사각형의 오브젝트(110c)에 근접하게 가져다대는 행위에 의해 수행될 수 있다. 리더펜(200)은 센서부(210)를 통해 특정 오브젝트의 고유 마커가 인식되면, 다음에 수행될 리더펜(200)의 모션이 인식될때까지 대기한다. As shown in the figure, the user selects one of the plurality of objects by using the leader pen 200, the action of bringing the lower end of the leader pen 200 close to the object, that is, the rectangular object 110c ≪ / RTI > The leader pen 200 waits until the unique marker of the specific object is recognized through the sensor unit 210 until the motion of the leader pen 200 to be performed next is recognized.

도 3b를 참조하면, 사용자는 리더펜(200)을 사각형의 오브젝트(110c)에 가져다댄 후, 리더펜(200)을 오른쪽(도면상에서 화살표 방향)으로 드래그하듯이 이동시킬 수 있다. 이러한 경우, 모션 인식부(220)는 오른쪽으로 드래그하는 모션을 인식한다.Referring to FIG. 3B, the user can move the leader pen 200 as if dragging the leader pen 200 to the right (in the direction of the arrow in the drawing) after bringing the leader pen 200 to the rectangular object 110c. In this case, the motion recognition unit 220 recognizes the motion to be dragged to the right.

도 3c를 참조하면, 사용자는 리더펜(200)을 사각형의 오브젝트(110c)에 가져다댄 후, 리더펜(200)을 시계반대방향(도면상에서 화살표 방향)으로 회전시킬 수 있다. 이러한 경우, 모션 인식부(220)는 시계반대방향으로 회전하는 모션을 인식한다.Referring to FIG. 3C, after the user brings the leader pen 200 to the rectangular object 110c, the user can rotate the leader pen 200 counterclockwise (arrow direction in the figure). In this case, the motion recognition unit 220 recognizes a motion that rotates counterclockwise.

본 실시예에서는, 리더펜(200)을 특정 오브젝트에 가져다대는 동작이 먼저 이루어진 후, 리더펜(200)의 모션이 뒤따르는 형태를 설명하였다. 이를 변경하여, 사용자가 리더펜(200)을 손에 쥔 상태에서 원하는 출력 형태에 따라 기설정된 모션을 먼저 수행한 후, 리더펜(200)을 특정 오브젝트에 가져다대는 동작이 뒤따르도록 구성할 수도 있다.In the present embodiment, the operation of bringing the leader pen 200 to a specific object is performed first, and then the motion of the leader pen 200 is followed. The user can change the shape of the leader pen 200 so as to follow the action of bringing the leader pen 200 to a specific object after performing the preset motion according to a desired output form while holding the leader pen 200 in hand have.

즉, 본 실시예에서는, 도 3a의 동작이 먼저 이루어지고 그 이후에 도 3b 혹은 도 3c의 동작이 이루어지는 형태이지만, 이를 변형하여 도 3b 혹은 도 3c의 동작이 먼저 이루어지고 그 이후에 도 3a의 동작이 이루어지도록 구성하는 것도 가능하다. 이는, 사용자의 편의성을 고려하여 변경할 수 있다.That is, in this embodiment, the operation of FIG. 3A is performed first and then the operation of FIG. 3B or 3C is performed. However, the operation of FIG. 3B or 3C is performed first, It is also possible to configure the operation to be performed. This can be changed in consideration of the convenience of the user.

도 4는 본 발명의 바람직한 실시예에 따른 펜모션 인식 멀티디바이스 콘텐츠 구현 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of implementing pen motion recognition multi-device contents according to a preferred embodiment of the present invention.

여기에서는 도 1 내지 도 4를 참조하여, 본 발명의 바람직한 실시예에 따른 펜모션 인식 멀티디바이스 콘텐츠 구현 방법을 설명한다.Hereinafter, with reference to Figs. 1 to 4, a method of implementing pen motion recognition multi-device contents according to a preferred embodiment of the present invention will be described.

사용자가 콘텐츠 제공기(100)를 이용하던 중, 콘텐츠 제공기(100)에서 보여지는 정보 이외에 다른 정보를 더 제공받고자 하는 경우, 사용자는 리더펜(200)을 이용하여 오브젝트 선택 및 모션을 입력한다. 이에 의해, 오브젝트가 선택되면 센서부(210)에서 오브젝트에 포함된 고유 마커를 인식하고, 출력기를 선택하는 모션이 입력되면, 모션 인식부(220)에서 사용자의 조작에 의한 모션을 인식한다(S400). 여기서, 모션 입력은 오브젝트가 선택되는 직전 혹은 직후에 이루어질 수 있다.When the user wants to receive other information besides the information displayed on the content provider 100 while using the content provider 100, the user inputs object selection and motion using the leader pen 200 . Accordingly, when the object is selected, the sensor unit 210 recognizes the unique marker included in the object, and when the motion for selecting the output device is inputted, the motion recognition unit 220 recognizes the motion by the user's operation (S400 ). Here, the motion input may be performed immediately before or after the object is selected.

제어부(260)는 모션 인식부(220)를 통해 인식된 모션에 대응하는 출력 형태를 결정한다. 이때, 제어부(260)는 메모리부(250)에 기저장된 모션 정보를 이용하여 출력 형태를 결정할 수 있다(S410).The control unit 260 determines an output type corresponding to the recognized motion through the motion recognition unit 220. [ At this time, the control unit 260 may determine the output type using the motion information pre-stored in the memory unit 250 (S410).

제어부(260)는 모션에 대응하는 출력 형태가 내부 출력 모션일 경우(S420-Y), 내장 스피커를 제어하여 기선택된 오브젝트에 해당하는 소리 혹은 음성을 출력한다(S430).If the output format corresponding to the motion is the internal output motion (S420-Y), the controller 260 controls the internal speaker to output sound or voice corresponding to the selected object (S430).

또한, 제어부(260)는 모션에 대응하는 출력 형태가 외부 출력 모션일 경우(S420-N), 제어부(260)는 근거리 통신부(230)를 통해 외부 출력기(300) 중 해당 출력기로 제어신호를 송신한다(S440). 이에 의해, 제어신호를 수신한 외부 출력기에서 기선택된 오브젝트에 해당하는 소리, 음성, 영상, 가상현실 데이터를 출력한다(S450).If the output format corresponding to the motion is the external output motion (S420-N), the control unit 260 transmits the control signal to the corresponding output unit of the external output unit 300 through the local communication unit 230 (S440). Thus, the external output device receiving the control signal outputs sound, voice, image, and virtual reality data corresponding to the selected object (S450).

이와 같이, 사용자의 손에 잡히는 형태로 제작되는 리더펜(200)의 특성상 그 크기에 제약이 따른다. 그러므로, 여러 출력기를 내장할 수 없으므로, 통상 내장 스피커 정도가 내장되는 것이 바람직하다. 이러한 경우, 리더펜(200)을 통해 제공할 수 있는 정보가 그림이나 문자과 관련된 소리 혹은 음성에 제한된다. 예를 들면, 책을 음성으로 읽어주기 기능이 이에 해당한다.As described above, the size of the leader pen 200, which is formed in a shape of being held by the user's hand, is limited. Therefore, since a plurality of output devices can not be built in, it is preferable that the built-in speaker is normally built in. In this case, information that can be provided through the leader pen 200 is limited to sound or voice associated with pictures or characters. For example, this is the ability to read a book by voice.

하지만, 본 실시예에서의 리더펜(200)에서는 리더펜(200)에 내장된 출력기 이외에도 블루투스와 같은 근거리 통신이 가능한 다양한 출력기를 통해 콘텐츠 제공기(100)에서 제공할 수 없는 부가 정보를 제공한다.However, in the reader pen 200 according to the present embodiment, in addition to an output device built in the reader pen 200, additional information that can not be provided by the content provider 100 through various output devices capable of short-distance communication such as Bluetooth is provided .

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 콘텐츠 제공기 200 : 리더펜
300 : 외부 출력기 210 : 센서부
220 : 모션 인식부 230 : 근거리 통신부
240 : 내장 스피커 250 : 메모리부
260 : 제어부
100: content provider 200: leader pen
300: external output device 210:
220: motion recognition unit 230:
240: internal speaker 250: memory unit
260:

Claims (10)

고유의 마커를 포함하는 복수의 오브젝트로 이루어진 콘텐츠 제공기;
상기 복수의 오브젝트 중 어느 하나의 오브젝트가 선택되면, 사용자의 조작에 의해 발생한 모션에 대응하도록 기설정된 출력 형태를 결정하여 제어하는 리더펜; 및
상기 리더펜에 의해 결정된 출력 형태에 따라, 상기 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하는 출력기;를 포함하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템.
A content provider comprising a plurality of objects including a unique marker;
A reader pen for determining and controlling a predetermined output form corresponding to a motion generated by a user's operation when any one of the plurality of objects is selected; And
And an output unit for outputting a content corresponding to a unique marker included in the selected object according to an output form determined by the leader pen.
제 1 항에 있어서,
상기 사용자의 조작에 의해 발생한 모션은, 상기 어느 하나의 오브젝트가 선택되는 동작의 직전 혹은 직후에 발생하는 모션인 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템.
The method according to claim 1,
Wherein the motion generated by the user's operation is a motion that occurs immediately before or after the operation of selecting any one of the objects.
제 1 항에 있어서,
상기 출력기는, 상기 리더펜에 내장된 내장 스피커를 포함하는 내부 출력기, 및 외부 스피커, 영상출력기기, 및 VR HMD(Virtual Reality Head Mounted Display) 를 포함하는 외부 출력기중 적어도 어느 하나인 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템.
The method according to claim 1,
Wherein the output device is at least one of an internal output device including a built-in speaker built in the leader pen, and an external output device including an external speaker, a video output device, and a VR HMD (Virtual Reality Head Mounted Display) Pen motion recognition multi - device content implementation system.
제 3 항에 있어서,
상기 리더펜은,
상기 복수의 오브젝트에 포함되어 있는 상기 고유의 마커를 인식하는 센서부;
상기 사용자의 조작에 의해 발생한 모션을 인식하는 모션 인식부;
상기 외부 출력기와의 인터페이스를 지원하는 근거리 통신부; 및
상기 모션 인식부에 의해 인식된 모션에 대응하는 상기 출력 형태를 결정하고, 상기 결정된 출력 형태에 따라 상기 내부 출력기 및 상기 외부 출력기를 제어하는 제어부;를 포함하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템.
The method of claim 3,
Wherein the leader pen comprises:
A sensor unit recognizing the unique marker included in the plurality of objects;
A motion recognition unit for recognizing a motion generated by the operation of the user;
A short range communication unit for supporting an interface with the external output unit; And
And a control unit for determining the output format corresponding to the motion recognized by the motion recognition unit and controlling the internal output unit and the external output unit according to the determined output format. Implementation system.
제 4 항에 있어서,
상기 센서부는, 상기 복수의 오브젝트 중 어느 하나의 오브젝트에 기설정된 인식범위 이내로 근접하게 되면, 상기 어느 하나의 오브젝트에 포함되어 있는 고유의 마커를 인식하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템.
5. The method of claim 4,
Wherein the sensor unit recognizes a unique marker included in any one of the plurality of objects when the object approaches the object within a predetermined recognition range, .
제 4 항에 있어서,
상기 제어부는, 상기 결정된 출력 형태가 상기 내부 출력기에 의해 수행되는 것일 경우, 상기 내장된 내장 스피커를 통해 상기 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하도록 제어하고, 상기 결정된 출력 형태가 상기 외부 출력기에 의해 수행되는 것일 경우, 상기 근거리 통신부를 통해 상기 외부 출력기 중 해당 외부 출력기가 상기 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하도록 제어하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템.
5. The method of claim 4,
Wherein the controller controls to output a content corresponding to a unique marker included in the selected object through the embedded speaker when the determined output format is performed by the internal output device, Wherein the control unit controls the external output unit of the external output unit to output a content corresponding to a unique marker included in the selected object through the local communication unit when the external output unit is performed by the external output unit. Content implementation system.
고유의 마커를 포함하는 복수의 오브젝트로 이루어진 콘텐츠 제공기로부터리더펜에 의해 복수의 오브젝트 중 어느 하나의 오브젝트가 선택되는 단계;
사용자의 조작에 의해 발생한 모션에 대응하도록 기설정된 출력 형태를 결정하는 단계; 및
상기 결정된 출력 형태에 따라, 상기 선택된 오브젝트에 포함된 고유의 마커에 해당하는 콘텐츠를 출력하는 단계;를 포함하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 방법.
Selecting any one of a plurality of objects by a leader pen from a content provider composed of a plurality of objects including unique markers;
Determining a preset output format corresponding to a motion generated by a user's operation; And
And outputting a content corresponding to a unique marker included in the selected object according to the determined output format.
제 7 항에 있어서,
상기 사용자에 의한 상기 리더펜의 조작에 의해 발생하는 모션을 인식하는 단계;를 더 포함하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 방법.
8. The method of claim 7,
And recognizing a motion generated by the operation of the leader pen by the user.
제 8 항에 있어서,
상기 모션을 인식하는 단계는, 상기 어느 하나의 오브젝트가 선택되는 단계의 직전 혹은 직후에 수행되는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 방법.
9. The method of claim 8,
Wherein the step of recognizing the motion is performed immediately before or after the step of selecting any one of the objects.
제 7 항에 있어서,
상기 오브젝트가 선택되는 단계에서, 상기 리더펜이 상기 복수의 오브젝트 중 어느 하나의 오브젝트에 기설정된 인식범위 이내로 근접하게 되면, 상기 어느 하나의 오브젝트에 포함되어 있는 고유의 마커를 인식하는 것을 특징으로 하는 펜모션 인식 멀티디바이스 콘텐츠 구현 방법.
8. The method of claim 7,
Wherein when the leader pen is brought close to any one of the plurality of objects within a predetermined recognition range at the step of selecting the object, the unique marker included in the one object is recognized Method for implementing pen motion recognition multi - device content.
KR1020170170720A 2017-12-12 2017-12-12 System and method for realizing multi-device contents based on pen-motion KR102338019B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170170720A KR102338019B1 (en) 2017-12-12 2017-12-12 System and method for realizing multi-device contents based on pen-motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170170720A KR102338019B1 (en) 2017-12-12 2017-12-12 System and method for realizing multi-device contents based on pen-motion

Publications (2)

Publication Number Publication Date
KR20190070162A true KR20190070162A (en) 2019-06-20
KR102338019B1 KR102338019B1 (en) 2021-12-10

Family

ID=67103762

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170170720A KR102338019B1 (en) 2017-12-12 2017-12-12 System and method for realizing multi-device contents based on pen-motion

Country Status (1)

Country Link
KR (1) KR102338019B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114771A (en) * 2020-03-11 2021-09-24 주식회사 인포랩 System for supporting creation of dental radiographic reading
WO2023018178A1 (en) * 2021-08-10 2023-02-16 삼성전자 주식회사 Electronic device and method for controlling input of electronic pen thereof
US12019814B2 (en) 2021-08-10 2024-06-25 Samsung Electronics Co., Ltd. Electronic device and electronic pen for input control and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090012558A (en) 2007-07-30 2009-02-04 최규영 Powder minuteness shattering apparatus
KR20140064162A (en) * 2012-11-19 2014-05-28 삼성전자주식회사 Method for displaying a screen in mobile terminal and the mobile terminal therefor
KR20150043109A (en) * 2013-10-14 2015-04-22 삼성전자주식회사 Electronic device and method for controlling object display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090012558A (en) 2007-07-30 2009-02-04 최규영 Powder minuteness shattering apparatus
KR20140064162A (en) * 2012-11-19 2014-05-28 삼성전자주식회사 Method for displaying a screen in mobile terminal and the mobile terminal therefor
KR20150043109A (en) * 2013-10-14 2015-04-22 삼성전자주식회사 Electronic device and method for controlling object display

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114771A (en) * 2020-03-11 2021-09-24 주식회사 인포랩 System for supporting creation of dental radiographic reading
WO2023018178A1 (en) * 2021-08-10 2023-02-16 삼성전자 주식회사 Electronic device and method for controlling input of electronic pen thereof
US12019814B2 (en) 2021-08-10 2024-06-25 Samsung Electronics Co., Ltd. Electronic device and electronic pen for input control and method thereof

Also Published As

Publication number Publication date
KR102338019B1 (en) 2021-12-10

Similar Documents

Publication Publication Date Title
US8638319B2 (en) Customer authoring tools for creating user-generated content for smart pen applications
US8944824B2 (en) Multi-modal learning system
US9031493B2 (en) Custom narration of electronic books
US20100289743A1 (en) Laser pointer and gesture-based input device
US20160124702A1 (en) Audio Bookmarking
US20150339524A1 (en) Method and device for reproducing partial handwritten content
US20160162137A1 (en) Interactive Digital Workbook Using Smart Pens
TW201423576A (en) Portable apparatus having a plurality of touch screens and method of outputting sound thereof
JP2015533003A (en) Multi-user collaboration with smart pen system
KR102338019B1 (en) System and method for realizing multi-device contents based on pen-motion
KR101789057B1 (en) Automatic audio book system for blind people and operation method thereof
JP2014081950A (en) Data processing system applying optical identification devices, method thereof, operation method thereof, and computer-readable recording medium
US9472113B1 (en) Synchronizing playback of digital content with physical content
US20160266654A1 (en) Providing contextual information
KR100850046B1 (en) Electronic lecture apparatus
KR20230149797A (en) An electronic device and a method for operating an electronic device
CN114402274A (en) Program, information processing apparatus, and method
JP2004325905A (en) Device and program for learning foreign language
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
JP2022051500A (en) Related information provision method and system
KR20220114953A (en) Method and apparatus for providing online lecture contents
KR101853322B1 (en) Device and method of learning application providing with editing of learning content
KR20140115900A (en) System for producing teaching plan content and method therefor
KR102495597B1 (en) Method for providing online lecture content for visually-impaired person and user terminal thereof
US20170220317A1 (en) Electronic apparatus and control program of electronic apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant