KR20190070568A - Apparatus of interacting with user - Google Patents

Apparatus of interacting with user Download PDF

Info

Publication number
KR20190070568A
KR20190070568A KR1020170171212A KR20170171212A KR20190070568A KR 20190070568 A KR20190070568 A KR 20190070568A KR 1020170171212 A KR1020170171212 A KR 1020170171212A KR 20170171212 A KR20170171212 A KR 20170171212A KR 20190070568 A KR20190070568 A KR 20190070568A
Authority
KR
South Korea
Prior art keywords
image
unit
user
device capable
content providing
Prior art date
Application number
KR1020170171212A
Other languages
Korean (ko)
Other versions
KR102081685B1 (en
Inventor
이인규
Original Assignee
주식회사 파코웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파코웨어 filed Critical 주식회사 파코웨어
Priority to KR1020170171212A priority Critical patent/KR102081685B1/en
Publication of KR20190070568A publication Critical patent/KR20190070568A/en
Application granted granted Critical
Publication of KR102081685B1 publication Critical patent/KR102081685B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides an apparatus capable of interacting with a user. The apparatus comprises: an image obtaining unit obtaining an image of a target area and a user related image; an image processing unit processing the images obtained from the image obtaining unit; a content providing unit providing content to a user based on a processing result of the image processing unit; and a control unit controlling the image obtaining unit, image processing unit, and content providing unit. The image obtaining unit obtains an image using two or more cameras.

Description

사용자 인터랙션이 가능한 장치{APPARATUS OF INTERACTING WITH USER} [0001] APPARATUS OF INTERACTING WITH USER [0002]

본 발명은 사용자 인터랙션이 가능한 장치에 관한 것으로, 좀 더 구체적으로는, 사용자 관련 영상 또는 사용자의 음성에 기초로 하여 사용자의 집중도 또는 흥미도를 높이는 방향으로 컨텐츠 제공부의 제어를 하는, 사용자 인터랙션이 가능한 장치에 관한 것이다.The present invention relates to a device capable of user interaction, and more particularly, to a device capable of performing user interaction, which controls a content providing section in a direction of increasing the concentration or interest of a user based on a user- ≪ / RTI >

우리나라는 물론이고 전 세계적으로 어린이 놀이 교구는 학부모들의 자녀들에 대한 애정과 교육열이 맞물려서 꾸준히 성장하는 분야이다. Children's play parishes, not only in Korea but also around the world, are areas where parents are growing steadily due to their love for their children and the heat of education.

관련하여, 대한민국 공개특허 제10-2016-0110354호(2016.09.21 공개, 발명의 명칭 : 두뇌활성화를 통한 어학 학습 교구 세트(LANGUAGE STUDY TOOL BY BRAIN ACTIVATION))에 따르면, "본 발명은 어학 학습 교구 세트에 관한 발명이다. 본 발명의 일실시예에 따른 어학 학습 교구 세트는, 특정한 대상이미지를 포함하는 제1시트; 상기 대상이미지에 상응하는 텍스트를 포함하는 제N시트(N은 자연수); 및 배경이미지, 패턴이미지, 대상이미지 및 텍스트 중 적어도 하나 이상을 포함하는 제2 내지 제N-1시트;를 포함하되, 제1 내지 제N시트는 서로 상이한 것을 특징으로 하며, 상기 배경이미지는 상기 제1시트 내의 상기 대상이미지를 제외한 배경에 상응하는 이미지이며, 상기 패턴이미지는 상기 대상이미지의 패턴 또는 무늬를 상기 텍스트 내에 포함하는 이미지이다. 본 발명에 따르면, 영유아를 포함하는 사용자가 특정한 대상이미지에 상응하는 텍스트를 학습하는데 있어서, 패턴화된 글자(즉, 패턴이미지)와 배경이미지 등을 활용하여 대상이미지와 텍스트 사이에 연결관계를 형성하여 대상이미지로부터 텍스트가(또는 텍스트로부터 대상이미지가) 용이하게 연상되도록 하는 효과가 있다."라는 기술이 개시되어 있다. According to Korean Patent Laid-Open Publication No. 10-2016-0110354 (published on Sep. 22, 2016, entitled LANGUAGE STUDY TOOL BY BRAIN ACTIVATION), " (N is a natural number) that includes a text corresponding to the target image, and a second sheet that includes text corresponding to the target image. And a second through an N-1th sheet including at least one of a background image, a pattern image, a target image, and text, wherein the first through Nth sheets are different from each other, 1 is an image corresponding to a background excluding the target image in a sheet, and the pattern image is an image including a pattern or a pattern of the target image in the text. According to the present invention, In order for a user including infants and children to learn text corresponding to a specific target image, a connection relationship is formed between the target image and the text using patterned characters (i.e., pattern image) and background image, (Or the target image from the text) is easily remapped. "

또한, 대한민국 등록실용신안 제20-0480000호(2016.03.25 등록, 고안의 명칭 : 어린이 학습 교구(TEACHING TOOLS))에서는, "본 고안은 어린이 학습 교구에 관한 것으로서, 더욱 상세하게는 보드의 전체적인 형상을 과일의 단면, 동물, 꽃마차 또는 자동차 등의 형상으로 형성하여 사용함으로써, 유아 또는 어린이가 과일, 동물, 꽃마차 또는 자동차 등의 형상을 육안으로 확인할 수 있고, 특히, 과일의 단면만 보고도 과일의 이름을 알 수 있도록 효과적으로 학습할 수 있도록 하는 어린이 학습 교구에 관한 것이다. 본 고안에 따른 어린이 학습 교구는 전면 양측에 가이드홈이 형성된 보드; 상기 보드 상부에 축 결합되고, 축의 중심을 기준으로 회전하는 회전판; 상기 보드에 형성된 고정핀에 끼움 고정되고, 전면 또는 후면에 학습별 주제가 인쇄되며, 양측 테두리에 컬러 모듈이 인쇄된 학습카드; 및 상기 보드에 형성된 가이드홈에 삽입되고, 상기 가이드홈을 따라 이동되며, 학습자가 컬러를 구별할 수 있도록 상기 컬러 모듈과 동일 선상에 위치하도록 하는 컬러블록;을 포함할 수 있다."라고 개시하고 있다. In addition, in Korean Registered Utility Model No. 20-0480000 (Registered on Mar. 25, 2016, design name: TEACHING TOOLS), "This design relates to a child learning parish, more specifically, Can be visually confirmed by an infant or a child with the shape of a fruit, an animal, a horse-drawn carriage or an automobile, and particularly, the fruit can be visually checked even in the cross section of the fruit. A child learning paradigm according to the present invention includes a board having guide grooves formed on both sides of a front surface thereof, a board that is axially coupled to the upper portion of the board, A rotation pin, a fixing pin formed on the board, and a subject of learning is printed on the front or rear surface, And a color block inserted into the guide groove formed in the board and moved along the guide groove so that the learner is collinear with the color module so as to distinguish the color Quot ;.

하지만, 이와 같은 종래의 어리인 학습 교구들은, 꾸준한 산업이나 시장의 성장에도 불구하고, 다양한 어린이 놀이 교구가 아직 부족한 실정이며, 특히, 본 발명에서 다루고자 하는 사용자 관련 영상 또는 사용자의 음성에 기초로 하여 사용자의 집중도 또는 흥미도를 높이는 방향으로 컨텐츠 제공부의 제어를 할 수 있는 기술에 대해서는 개시하지 못하고 있었다. However, such conventional educational diaries are still lacking in various children's diaries, despite the steady growth of the industry or the market. In particular, based on user-related images or user's voices to be dealt with in the present invention It has not been possible to disclose a technique capable of controlling the content providing unit in the direction of increasing the user's concentration or interest.

대한민국 공개특허 제10-2016-0110354호(2016.09.21 공개, 발명의 명칭 : 두뇌활성화를 통한 어학 학습 교구 세트(LANGUAGE STUDY TOOL BY BRAIN ACTIVATION))Korean Patent Laid-Open No. 10-2016-0110354 (published on Sep. 22, 2016, entitled LANGUAGE STUDY TOOL BY BRAIN ACTIVATION) 대한민국 등록실용신안 제20-0480000호(2016.03.25 등록, 고안의 명칭 : 어린이 학습 교구(TEACHING TOOLS))Registered Utility Model No. 20-0480000 (Registered on Mar. 25, 2016, Design Name: TEACHING TOOLS)

본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로, 본 발명은 사용자 관련 영상 또는 사용자의 음성에 기초로 하여 사용자의 집중도 또는 흥미도를 높이는 방향으로 컨텐츠 제공부의 제어를 하는, 사용자 인터랙션이 가능한 장치를 제공하는 것을 그 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a user interaction device capable of controlling a content providing unit in a direction of increasing a user's concentration or interest based on a user- And the like.

또한, 대상 영역이 격자로 구획된 평면으로 이루어져서, 대상 영역 상에 위치할 문자, 숫자 또는 블록을 포함하는 대상체의 윤곽선, 격자, 상기 문자, 상기 숫자 또는 상기 블록의 여백에 대한 특징점을 용이하게 추출하는 것이 가능한, 사용자 인터랙션이 가능한 장치를 제공하는 것을 또 다른 목적으로 한다. It is also possible to easily extract the contour, the lattice, the character, the number or the characteristic points for the margins of the block of the object including the character, number or block to be located on the object area, It is another object of the present invention to provide a device capable of user interaction capable of performing user interaction.

셋째, 디스플레이부의 크기 또는 높이에 맞게, 거치부에 착탈 가능하게 높이를 조절할 수 있는 적층형 맞춤 구조부를 더 구비하여, 디스플레이부를 사용자에게 맞게 맞춤형으로 조절하는 것이 가능한, 사용자 인터랙션이 가능한 장치를 제공하는 것을 또 다른 목적으로 한다. Third, it is possible to provide a device capable of user interaction capable of adjusting a display unit to be customized to a user by further including a laminated type fitting structure capable of adjusting the height so as to be detachable to the mounting part in accordance with the size or height of the display part For another purpose.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위한 본 발명에 따른 사용자 인터랙션이 가능한 장치는, 대상 영역의 영상과 사용자 관련 영상을 획득하는 영상 획득부; 상기 영상 획득부에서 획득한 영상을 처리하는 영상 처리부; 상기 영상 처리부의 처리 결과에 기초하여, 상기 사용자에게 컨텐츠를 제공하는 컨텐츠 제공부; 및 상기 영상 획득부, 상기 영상 처리부, 및 컨텐츠 제공부를 제어하는 제어부;를 포함하고, 상기 영상 획득부는, 2개 또는 그 이상의 카메라를 이용하여 영상을 획득한다. According to another aspect of the present invention, there is provided an apparatus capable of user interaction, including an image acquiring unit acquiring an image of a target region and a user related image; An image processing unit for processing the image acquired by the image acquisition unit; A content providing unit for providing the content to the user based on the processing result of the image processing unit; And a control unit for controlling the image acquiring unit, the image processing unit, and the content providing unit, and the image acquiring unit acquires an image using two or more cameras.

또한, 상기 장치는, 특정 표면에 거치되는 거치부; 및 상기 거치부로부터 연장되어 형성된 연장부;를 포함하고, 상기 영상 획득부는, 상기 연장부의 말단에 배치된 2개의 카메라로 이루어지며, 상기 2개의 카메라에서 스트리밍되는 각각의 영상을 파노라마 영상으로 병합하고, 병합된 파노라마 영상을 병렬 처리하여, 상기 대상 영역의 영상과 상기 사용자 관련 영상을 획득할 수 있다. The apparatus also includes: a mount mounted on the specific surface; And an extension formed extending from the mounting portion, wherein the image acquiring unit is composed of two cameras disposed at the end of the extending portion, and each image streamed from the two cameras is merged into a panorama image , The merged panoramic image can be processed in parallel to acquire the image of the object area and the user related image.

또한, 상기 장치는, 특정 표면에 거치되는 거치부; 및 상기 거치부로부터 연장되어 형성된 연장부;를 포함하고, 상기 영상 획득부는, 상기 연장부의 말단에 배치되어 상기 대상 영역의 영상을 획득하는 대상 영역 카메라, 및 상기 거치부의 전면(前面)에 배치되어 상기 사용자 관련 영상을 획득하는 사용자 관련 카메라로 이루어져서, 상기 대상 영역 카메라에서는 상기 대상 영역의 영상을 획득하고, 상기 사용자 관련 카메라는 상기 사용자 관련 영상을 획득할 수 있다. The apparatus also includes: a mount mounted on the specific surface; And an extension formed extending from the mounting portion, wherein the image acquiring unit includes: a target area camera disposed at an end of the extending unit to acquire an image of the target area; and a target area camera disposed at a front surface of the placing unit And a user-related camera for acquiring the user-related image, wherein the target area camera acquires an image of the target area, and the user-related camera acquires the user-related image.

또한, 상기 사용자의 음성을 포함하여 청각 신호를 획득하는 음성 획득부; 및 상기 음성 획득부에서 획득한 음성을 처리하는 음성 처리부;를 포함하고, 상기 컨텐츠 제공부는, 상기 영상 처리부 및 상기 음성 처리부의 처리 결과에 기초하여, 상기 사용자에게 컨텐츠를 제공하고, 상기 제어부는, 상기 영상 획득부, 상기 음성 획득부, 상기 영상 처리부, 상기 음성 처리부 및 컨텐츠 제공부를 제어한다. A voice acquiring unit for acquiring an auditory signal including the voice of the user; And a voice processing unit for processing the voice acquired by the voice acquiring unit, wherein the content providing unit provides the content to the user based on a processing result of the image processing unit and the voice processing unit, And controls the image acquiring unit, the voice acquiring unit, the image processing unit, the voice processing unit, and the content providing unit.

또한, 상기 대상 영역 상에 위치할 문자, 숫자 또는 블록을 포함하는 대상체의 윤곽선, 격자, 상기 문자, 상기 숫자 또는 상기 블록의 여백에 대한 특징점을 용이하게 추출할 수 있도록, 상기 대상 영역은 격자로 구획된 평면으로 이루어질 수 있다. Also, in order to easily extract the contour, the lattice, the character, the number, or the minutiae for the margin of the block including the character, number, or block to be located on the target area, It can be made of a divided plane.

또한, 상기 대상 영역은 격자로 구획된 평면 상에 쌓여진 복수 개의 블록으로 이루어진 격자로 구획된 평면 상의 공간으로 이루어질 수 있다. In addition, the object area may be a planar space defined by a grid consisting of a plurality of blocks piled on a plane partitioned by a lattice.

또한, 상기 사용자 관련 영상은, 상기 사용자의 얼굴, 표정, 눈, 코, 입을 포함하는 생체 정보로서, 상기 컨텐츠 제공부는, 상기 사용자 관련 영상에 기초로 하여, 상기 사용자의 집중도 또는 흥미도를 높이는 방향으로 제어할 수 있다. The user-related image may be biometric information including a user's face, facial expression, eye, nose, mouth, and the content providing unit may be configured to generate a biometric information based on the user- .

또한, 상기 컨텐츠 제공부는, 상기 거치부에 배치되는 디스플레이부로 이루어지며, 상기 디스플레이부의 크기 또는 높이에 맞게, 상기 거치부에 착탈 가능하게 높이를 조절할 수 있는 적층형 맞춤 구조부를 더 구비할 수 있다. The content providing unit may further include a laminated type fitting structure that can be detachably attached to the mounting unit in accordance with the size or height of the display unit, the display providing unit being disposed in the mounting unit.

한편, 본 발명의 또다른 실시에의 의한 사용자 인터랙션이 가능한 장치는, 대상 영역의 영상과 사용자 관련 영상을 획득하는 영상 획득부; 상기 영상 획득부에서 획득한 영상을 처리하는 영상 처리부; 상기 영상 처리부의 처리 결과에 기초하여, 상기 사용자에게 컨텐츠를 제공하는 컨텐츠 제공부; 및 상기 영상 획득부, 상기 영상 처리부, 및 컨텐츠 제공부를 제어하는 제어부;를 포함하고, 대상 영역의 대상체는 가상 대상체이다. According to another embodiment of the present invention, there is provided an apparatus capable of user interaction, including: an image acquiring unit acquiring an image of a target area and a user related image; An image processing unit for processing the image acquired by the image acquisition unit; A content providing unit for providing the content to the user based on the processing result of the image processing unit; And a control unit for controlling the image acquisition unit, the image processing unit, and the content providing unit, and the object in the object area is a virtual object.

물론, 대상 영역의 대상체는 실제 대상체만일 수도 있으며, 가상 대상체만일 수도 있으며, 가상 대상체와 실제 대상체를 모두 포함하는 것일 수도 있다. Of course, the object in the target area may be an actual object, a virtual object, or both a virtual object and an actual object.

또한, 상기 대상 영역 상에 가상 대상체를 투사하는 투사 장치를 더 포함하고, 상기 영상 획득부는, 상기 투사 장치에 의해서 투사된 가상 대상체에 대한 상기 사용자의 조작 영상을 획득하고, 상기 영상 처리부는, 상기 획득된 사용자의 조작 영상을 처리하여, 상기 컨텐츠 제공부 및 상기 투사 장치로 제공할 수 있다. The image processing apparatus may further include a projection device for projecting a virtual object on the object area, wherein the image acquisition unit acquires the operation image of the user with respect to the virtual object projected by the projection apparatus, Processing the acquired operation image of the user, and providing the image to the content providing apparatus and the projection apparatus.

또한, 상기 투사 장치는 상기 영상 처리부의 결과에 기초하여, 상기 대상 영역 상에 투사하는 상기 가상 대상체에 대한 정보를 수정하여 투사할 수 있다. Further, the projection apparatus can correct and project information on the virtual object to be projected on the object area, based on the result of the image processing section.

또한, 상기 대상 영역의 대상체는, 터치 스크린 상에 표시되는 가상의 대상체이며, 상기 영상 획득부는, 상기 터치 스크린 상의 가상 대상체에 대한 상기 사용자의 조작 영상을 획득하고, 상기 영상 처리부는 상기 획득된 사용자의 조작 영상을 처리하여 상기 사용자의 조작을 상기 컨텐츠 제공부로 제공하거나, 또는 상기 터치 스크린에서의 가상 대상체에 대한 상기 사용자의 조작을 통신을 통해서 상기 컨텐츠 제공부로 바로 제공할 수 있다. Also, the object of the object area is a virtual object displayed on the touch screen, and the image obtaining unit obtains the operation image of the user with respect to the virtual object on the touch screen, And provides the operation of the user to the contents provider through the communication with the virtual object or the operation of the user with respect to the virtual object on the touch screen.

또한, 상기 장치는, 가상의 대상체인 홀로그램 대상체를 구현하는 홀로그램부를 더 포함하고, 상기 영상 획득부는, 상기 홀로그램 대상체에 대한 상기 사용자의 조작 영상을 획득하고, 상기 영상 처리부는 상기 획득된 사용자의 조작 영상을 처리하여 상기 사용자의 조작을 상기 컨텐츠 제공부로 제공할 수 있다. The apparatus further includes a hologram unit that implements a virtual object hologram object, and the image obtaining unit obtains the operation image of the user with respect to the hologram object, and the image processing unit performs the operation of the obtained user And may provide the operation of the user to the content providing unit by processing the image.

본 발명에 따른 사용자 인터랙션이 가능한 장치에 의하면,According to the apparatus capable of user interaction according to the present invention,

첫째, 사용자 관련 영상 또는 사용자의 음성에 기초로 하여 사용자의 집중도 또는 흥미도를 높이는 방향으로 컨텐츠 제공부의 제어를 할 수 있다. First, the content providing unit can control the user based on the user-related image or the user's voice in the direction of increasing the concentration or interest of the user.

둘째, 대상 영역이 격자로 구획된 평면으로 이루어져서, 대상 영역 상에 위치할 문자, 숫자 또는 블록을 포함하는 대상체의 윤곽선, 격자, 상기 문자, 상기 숫자 또는 상기 블록의 여백에 대한 특징점을 용이하게 추출하는 것이 가능하다. Second, the object region is made up of planes partitioned into a grid, and the contour, the lattice, the character, the number, or the feature point for the margin of the block of the object including the character, number, It is possible to do.

셋째, 디스플레이부의 크기 또는 높이에 맞게, 거치부에 착탈 가능하게 높이를 조절할 수 있는 적층형 맞춤 구조부를 더 구비하여, 디스플레이부를 사용자에게 맞게 맞춤형으로 조절하는 것도 가능하다. Thirdly, it is also possible to provide a laminated fitting structure capable of adjusting the height so as to be detachable to the mount portion in accordance with the size or height of the display portion, so that the display portion can be adjusted in a customized manner to the user.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치의 사시도 및 격자 무늬의 평면 대상 영역을 나타낸 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치의 측면도이다.
도 3은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치의 정면도이다.
도 4는 도 2의 측면도에 디스플레이부를 더 포함하는 것으로 도시한 도면이다.
도 5는 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치를 사용하는 사용예를 나타낸 도면이다.
도 6은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 2개의 카메라를 이용하여 대상 영역 및 사용자 관련 영상을 동시에 파노라마 영상으로 획득하는 것으로 설명하는 도면이다.
도 7은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 대상 영역이 평면이 아닌 입체 또는 공간적 영역인 경우를 설명하는 도면이다.
도 8은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 대상 영역이 가상의 평면 영역인 경우를 설명하는 도면이다.
도 9는 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 대상 영역이 평면이 아닌 가상의 입체 또는 공간적 영역인 경우를 설명하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a perspective view of a device capable of user interaction according to a preferred embodiment of the present invention and a planar area of a lattice pattern.
2 is a side view of a user interactable device in accordance with a preferred embodiment of the present invention.
3 is a front view of a user interactable device according to a preferred embodiment of the present invention.
FIG. 4 is a view showing the display unit further including the side view of FIG. 2. FIG.
5 is a diagram illustrating an example of using a device capable of user interaction according to a preferred embodiment of the present invention.
FIG. 6 is a diagram illustrating that an object area and a user-related image are simultaneously acquired as panoramic images using two cameras in an apparatus capable of user interaction according to a preferred embodiment of the present invention.
FIG. 7 is a diagram for explaining a case where a target region in a device capable of user interaction according to a preferred embodiment of the present invention is a three-dimensional or spatial region rather than a plane.
FIG. 8 is a view for explaining a case where a target area is a virtual plane area in a user interactable apparatus according to a preferred embodiment of the present invention.
FIG. 9 is a view for explaining a case where a target area is not a plane but a virtual three-dimensional space or a spatial area in an apparatus capable of user interaction according to a preferred embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. However, it is to be understood that the present invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. It is to be understood by those of ordinary skill in the art that the present invention is not limited to the above embodiments, but may be modified in various ways. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

도 1은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치의 사시도 및 격자 무늬의 평면 대상 영역을 나타낸 도면이고, 도 2는 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치의 측면도이고, 도 3은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치의 정면도이다. 2 is a side view of a device capable of user interaction according to a preferred embodiment of the present invention, and FIG. 2 is a side view of a device capable of user interaction according to a preferred embodiment of the present invention. 3 is a front view of a user interactable device according to a preferred embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 사용자 인터랙션이 가능한 장치는, 영상 획득부, 영상 처리부, 음성 획득부, 음성 처리부, 컨텐츠 제공부, 및 제어부를 포함한다. As shown in FIG. 1, an apparatus capable of user interaction according to the present invention includes an image acquiring unit, an image processing unit, a voice acquiring unit, a voice processing unit, a content providing unit, and a control unit.

여기서 영상 획득부는, 2개 또는 그 이상의 카메라를 이용하여 영상을 획득한다. 영상 획득의 대상은 대상 영역의 영상과 사용자 관련 영상이다. Here, the image acquiring unit acquires images using two or more cameras. The target of the image acquisition is the image of the target area and the user related image.

관련해서, 사용자 인터랙션이 가능한 장치는, 테이블이나 탁자, 책상 등의 특정 표면에 거치되는 거치부 및 이 거치부로부터 연장되어 형성된 연장부를 포함한다. 여기서, 영상 획득부는, 연장부의 말단에 배치된 2개의 카메라(10 및 20)로 이루어지며, 2개의 카메라에서 스트리밍되는 각각의 영상을 파노라마 영상으로 병합하고, 병합된 파노라마 영상을 병렬 처리하여, 상술한 대상 영역의 영상과 사용자 관련 영상을 획득할 수 있다. In this connection, a device capable of user interaction includes a mounting part mounted on a specific surface such as a table, a table, a desk and the like, and an extension part extending from the mounting part. Here, the image acquiring unit is composed of two cameras 10 and 20 disposed at the ends of the extending unit, merging the respective images streamed from the two cameras into a panorama image, parallel processing the merged panorama images, It is possible to acquire an image of a target area and a user-related image.

또는 사용자 인터랙션이 가능한 장치는, 특정 표면에 거치되는 거치부, 및 이 거치부로부터 연장되어 형성된 연장부를 포함하고, 영상 획득부는, 연장부의 말단에 배치되어 상기 대상 영역의 영상을 획득하는 대상 영역 카메라(10 또는 20), 및 거치부의 전면(前面)에 배치되어 사용자 관련 영상을 획득하는 사용자 관련 카메라(30)로 이루어져서, 대상 영역 카메라에서는 대상 영역의 영상을 획득하고, 사용자 관련 카메라는 사용자 관련 영상을 획득할 수 있다. 여기서는, 영상 획득부가, 2개의 카메라를 갖는 경우만을 설명하였지만, 2개 이상의 카메라를 이용하여 영상을 획득할 수도 있다. Or an apparatus capable of user interaction includes a mounting part mounted on a specific surface and an extension formed extending from the mounting part, the image acquiring part includes an object area camera disposed at an end of the extension part and acquiring an image of the object area, (10 or 20), and a user-related camera (30) disposed on the front surface of the mount to acquire a user-related image, wherein the subject area camera acquires an image of the subject area, Can be obtained. Here, only the case where the image acquiring unit has two cameras has been described, but an image may be acquired using two or more cameras.

여기서, 거치부는 테이블이나 탁자, 책상 등에 고정하기 위한 고정 부재를 더 포함하는 것도 가능하다. 이를 통해서 좀 더 안정적으로 특정 표면에 거치하게 할 수 있다. Here, the mounting portion may further include a fixing member for fixing to a table, a table, a desk or the like. This makes it more stable to mount on certain surfaces.

이와 같이 영상 획득부에서 획득된 영상은 영상 처리부에서 처리한다. The image obtained by the image acquisition unit is processed by the image processing unit.

한편, 사용자 인터랙션이 가능한 장치는, 시각적 정보인 영상 획득 및 영상 처리만을 이용할 수도 있지만, 나아가 사용자의 음성을 포함하여 청각 신호(탁자를 치는 소리, 사용자가 손뼉을 치는 소리 등)를 획득하는 음성 획득부와, 이 음성 획득부에서 획득한 음성을 처리하는 음성 처리부를 포함할 수 있다. On the other hand, a device capable of user interaction can use only visual image acquisition and image processing as visual information, but also acquires audio signals including a user's voice to acquire an auditory signal (a sound of hitting a table or a user's hand) And a voice processing unit for processing the voice acquired by the voice acquisition unit.

여기서, 컨텐츠 제공부는, 영상 처리부 또는 음성 처리부의 결과에 기초하여, 사용자게에 컨텐츠를 제공하는 것도 가능하다. 이를 통해서, 예를 들어, 사용자의 얼굴, 표정, 눈, 시선, 코, 입, 목, 이, 귀, 손 등을 포함하는 생체 정보 등의 사용자 관련 영상을 활용하여, 컨텐츠 제공부는, 사용자의 집중도 또는 흥미도를 높이는 방향으로 제어할 수 있다. 구체적으로 눈동자를 추적함으로써 사용자가 현재 졸리는지 집중도 또는 흥미도를 가지고 접근하는지 확인할 수 있다. 이것에 맞추어 컨텐츠 제공부에서는 적응적으로 컨텐츠를 제공하는 것이 가능하다. Here, the content providing unit may provide the content to the user based on the results of the video processing unit or the audio processing unit. By using the user-related image such as biometric information including the user's face, facial expression, eyes, eyes, nose, mouth, neck, teeth, ear, hand, etc., Or in a direction to increase the degree of interest. Specifically, by tracking the pupil, the user can ascertain whether he is currently sleepy, intentional or interested. In accordance with this, it is possible to provide contents adaptively in content providing.

나아가, 도면에는 개시하지 않았지만, 추가적인 센서나 스마트 폰의 기능 등을 활용하여 사용자의 뇌파 등의 추가적인 생체 정보도 획득하여 컨텐츠 제공부에서 사용자의 현재 상태에 맞는 맞춤형 컨텐츠를 제공하는 것이 가능하다. Further, although not shown in the drawings, it is possible to acquire additional biometric information such as a brain wave of a user by utilizing the functions of an additional sensor or a smart phone, and to provide personalized contents according to the current state of the user in content providing.

이 때, 제어부는, 영상 획득부, 음성 획득부, 영상 처리부, 음성 처리부 및 컨텐츠 제공부를 제어한다. At this time, the control unit controls the image acquiring unit, the sound acquiring unit, the image processing unit, the audio processing unit, and the content providing unit.

도 1에 도시된 바와 같이, 평면의 대상 영역 상에 위치할 문자, 숫자 또는 블록을 포함하는 대상체의 윤곽선, 격자, 상기 문자, 상기 숫자 또는 상기 블록의 여백에 대한 특징점을 용이하게 추출할 수 있도록, 대상 영역은 격자로 구획된 평면(40)으로 이루어질 수 있다. 즉, 대상체의 영상 인식 및 영상 처리에 용이하기 때문에 격자 무늬를 활용한다. As shown in FIG. 1, it is possible to easily extract the contour, the lattice, the character, the number, or the minutiae for the margin of the block including the character, number or block to be positioned on the target area of the plane , And the target area may be a plane 40 partitioned into a lattice. That is, since it is easy for image recognition and image processing of a target object, a grid pattern is utilized.

도 1에 도시된 바와 같이, 격자판(40)에 "A", "C", "E"라는 3개의 문자 또는 블록을 배치하게 되며, 영상 획득부에서 이것을 획득하여, 영상 처리부에서는 이것을 처리하여 영어 단어인 "ACE"라는 것을 인식하고, 컨텐츠 제공부에서는 ACE의 뜻에 해당하는 사진이나 캐릭터나 설명을 표시하고, 도시되지는 않았지만, 음성 출력부, 예를 들어 스피커에서 "ACE"의 영어 발음을 미국식, 영국식 등으로 출력하여, 사용자와 인터랙션을 하게 된다. As shown in FIG. 1, three letters or blocks "A", "C", and "E" are arranged on the grid 40, Quot; ACE ". In the content providing unit, a photograph, a character or a description corresponding to the ACE is displayed, and the English output of "ACE" US, UK, etc., and interact with the user.

도 4는 도 2의 측면도에 디스플레이부를 더 포함하는 것으로 도시한 도면이다. 컨텐츠 제공부는, 통상 거치부에 배치되는 디스플레이부로 이루어진다. 디스플레이부의 크기 또는 높이에 맞게, 거치부에 착탈 가능하게 높이를 조절할 수 있는 적층형 맞춤 구조부를 더 구비할 수 있다. 구체적으로, 삼성전자의 갤럭시 탭을 이용하는 경우와 애플사의 아이패드를 이용하는 경우가 서로 다를 수 있으며, 각각의 버전에 따라서 거기에 맞는 적층형 맞춤 구조부가 제공하는 것이 좋다.FIG. 4 is a view showing the display unit further including the side view of FIG. 2. FIG. The content providing unit is usually composed of a display unit arranged in the mounting unit. And a laminated fitting structure capable of adjusting a height of the display unit so as to be detachable in accordance with the size or height of the display unit. Specifically, the case of using Samsung Galaxy Tab and the case of using Apple's iPad may be different from each other, and it is preferable to provide a laminated type custom structure corresponding to each version.

도 5는 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치를 사용하는 사용예를 나타낸 도면이다. 5 is a diagram illustrating an example of using a device capable of user interaction according to a preferred embodiment of the present invention.

앞에서 설명한 바와 같이, 격자 무늬를 이용할 경우, 대상체의 영상 인식 및 영상 처리에 용이하다. 이를 위해서 격자 무늬의 격자판을 사용하는 것도 가능하지만, 격자 무늬의 격자판 없이도 구현하는 것이 가능하다. 예를 들어, 대상 영역 상에 격자 무늬를 투사되는 투사장치를 더 포함하여, 투사장치에 의한 투사에 의해서 격자로 구획된 평면의 대상 영역이 형성되게 하는 것도 가능하다. As described above, when a grid pattern is used, it is easy for image recognition and image processing of a target object. For this purpose, it is possible to use a grating pattern grid, but it can also be implemented without a grating pattern grid. For example, it is possible to further include a projection device projecting a grating pattern on the object area so that a planar object area partitioned by the grating is formed by projection by the projection device.

또는, 대상 영역 상에 빛을 조사하는 광원을 가지고, 이 광원과 대상 영역의 중간에 위치하는 격자 무늬 창을 더 포함하여 격자 무늬를 만들 수 있다. 이 경우, 격자로 구획된 평면의 대상 영역은 광원이 격자 무늬 창에 대해서 조사함으로써, 격자 무늬 창의 그림자를 통해서 격자 무늬를 형성하는 것도 가능하다. Alternatively, a grid pattern may be formed by further including a light source for irradiating light on the target area, and a grid window located between the light source and the target area. In this case, it is also possible to form a lattice pattern through the shadow of the lattice pattern window by irradiating the object area of the plane partitioned by the lattice with the lattice pattern window of the light source.

도 5는 "R", "A", "B", "B", "I", "T"라는 6개의 문자 또는 블록(60)을 배치하게 되며, 영상 획득부에서 이것을 획득하여, 영상 처리부에서는 이것을 처리하여 영어 단어인 "RABBIT"라는 것을 인식하고, 컨텐츠 제공부에서는 RABBIT의 뜻에 해당하는 토끼 사진이나 캐릭터나 설명을 표시하고, 음성 출력부인 스피커에서 "ACE"의 영어 발음을 미국식, 영국식 등으로 출력하여, 사용자와 인터랙션을 하게 된다. 나아가 사용자가 영어 발음을 한 것을 마이크(미도시)에서 획득하여 음성 처리하여 사용자에게 발음에 대한 피드백을 주는 것도 가능하다. 5, six characters or blocks 60 of "R", "A", "B", "B", "I" and "T" are arranged, RABBIT "in the content providing unit, displays a rabbit photograph, a character or an explanation corresponding to RABBIT in the content providing unit, and transmits the English pronunciation of" ACE " And so on, thereby interacting with the user. Furthermore, it is also possible to acquire the English pronunciation of the user from a microphone (not shown), to process the voice, and to give feedback to the user about the pronunciation.

도 6은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 2개의 카메라를 이용하여 대상 영역 및 사용자 관련 영상을 동시에 파노라마 영상으로 획득하는 것으로 설명하는 도면이다. FIG. 6 is a diagram illustrating that an object area and a user-related image are simultaneously acquired as panoramic images using two cameras in an apparatus capable of user interaction according to a preferred embodiment of the present invention.

영상 획득부는, 연장부의 말단에 배치된 2개의 카메라(10 및 20)로 이루어지며, 2개의 카메라에서 스트리밍되는 각각의 영상을 파노라마 영상으로 병합하고, 병합된 파노라마 영상을 병렬 처리하여, 상술한 대상 영역의 영상과 사용자 관련 영상을 획득할 수 있다. The image acquiring unit is composed of two cameras 10 and 20 disposed at the end of the extension unit. The images obtained by merging the respective images streamed by the two cameras into a panorama image, parallel processing the merged panorama images, Area image and a user-related image can be obtained.

이를 위해서, 2개의 카메라(10 및 20) 각각(각각의 카메라의 화각의 예로는, 약 75도를 들 수 있음)은 서로 교차하지 않는 ROI(Region of Interest)를 설정할 수 있어서, 넓은 화각의 영상을 처리하는 것이 가능하다. 이와 같이 할 경우, 하나의 광각 렌즈를 이용하여 영상을 획득하고 처리하는 것과 비교하여 왜곡을 줄이는 것이 가능하다. 참고로, 도 6에서 도시된 공간(70)은 2개의 카메라를 통해서 획득되는 공간적인 영역을 표시한 것이다. For this purpose, each of the two cameras 10 and 20 (an example of the angle of view of each camera may include about 75 degrees) can set a region of interest (ROI) that does not intersect with each other, Can be processed. In this case, it is possible to reduce distortion as compared with acquiring and processing an image using one wide-angle lens. For reference, the space 70 shown in FIG. 6 represents a spatial area obtained through two cameras.

도 7은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 대상 영역이 평면이 아닌 입체 또는 공간적 영역인 경우를 설명하는 도면이다.FIG. 7 is a diagram for explaining a case where a target region in a device capable of user interaction according to a preferred embodiment of the present invention is a three-dimensional or spatial region rather than a plane.

도 7에 도시된 바와 같이, 대상 영역은 격자로 구획된 평면 상에 쌓여진 복수 개의 블록으로 이루어진 격자로 구획된 평면 상의 공간으로 이루어질 수 있다. 도 6에서는 영상 획득부에서 2개 또는 그 이상의 카메라에서 입체적인, 즉 평면 상의 공간 정보를 획득하여 평면 상에 쌓여진 블록 등을 인식하는 것이 가능하다. 여기서는 블록만을 설명하였지만, 블록 이외의 입체적인 모형 등을 영상 획득 및 영상 처리를 통해서 획득하는 것이 가능하다. 이를 통해서, 앞에서 설명한 평면의 대상 영역이 아닌 입체적, 공간적 대상 영역도 인식하는 것이 가능하게 된다. As shown in Fig. 7, the object area may be a planar space defined by a lattice of a plurality of blocks piled on a plane partitioned by a lattice. In FIG. 6, it is possible to acquire stereoscopic, that is, spatial information on a plane in two or more cameras in the image acquiring unit, to recognize blocks piled on the plane. Although only the block is described here, it is possible to acquire a stereoscopic model or the like other than the block through image acquisition and image processing. In this way, it becomes possible to recognize a stereoscopic or spatial object area other than the plane object area described above.

도 8은 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 대상 영역이 가상의 평면 영역인 경우를 설명하는 도면이다.FIG. 8 is a view for explaining a case where a target area is a virtual plane area in a user interactable apparatus according to a preferred embodiment of the present invention.

도 8에 도시된 바와 같이, 도 6의 블록(60)과 같은 실제의 대상체가 아니라, 가상이 대상체인 경우를 도시한 것으로, 가상의 대상체는 아이패드(80)나 갤럭시 탭(80)과 같은 터치 스크린 상에서 가상의 대상체가 존재하고, 이를 옮겨서 정해진 위치 또는 터치 스크린 상의 격자 무늬 위에 올려서, 도 5와 같이, 도 5의 "R", "A", "B", "B", "I", "T"라는 단어를 완성하는 것이 가능하다. As shown in Fig. 8, the virtual object is not an actual object such as the block 60 in Fig. 6, but a virtual object is a virtual object such as an iPad 80 or a Galaxy tab 80 "R", "A", "B", "B", "I" in FIG. 5 as shown in FIG. 5 by moving a virtual object on a touch screen and placing it on a predetermined position or a grid pattern on a touch screen. , It is possible to complete the word "T ".

이 경우, 제어부는, 가상의 대상체가 존재하는 터치 스크린의 전자 제품도 같이 제어하는 것이 바람직하다. 또는 서로 간의 블루투스 통신을 통해서 연동하여 동작하는 것도 가능하다. 이 경우, 터치 스크린 역할을 하는 아이패드나 갤럭시 탭의 마이크나 스피커를 활용하여 청각적인 신호를 획득하고 처리하고, 출력하는 것도 가능하다. In this case, it is preferable that the control unit also controls the electronic product of the touch screen on which the virtual object exists. Or may operate in conjunction with each other through Bluetooth communication between them. In this case, it is also possible to acquire, process, and output auditory signals by using an iPad or a Galaxy Tab microphone or speaker serving as a touch screen.

즉, 상술한 바와 같이, 대상 영역의 대상체는 실제 대상체만일 수도 있으며, 가상 대상체만일 수도 있으며, 가상 대상체와 실제 대상체를 모두 포함하는 것일 수도 있다. 실제 대상체를 분실하는 등 실제 대상체가 없는 경우나, 실제 대상체가 부족한 경우에 대응하는 것이 가능하며, 어린이들의 상상력을 좀 더 자극하는 형태의 가상 대상체를 갖게 할 수 있다. That is, as described above, the object in the object area may be an actual object, a virtual object, or both a virtual object and an actual object. It is possible to cope with the case where there is no actual object such as missing an actual object or the case where an actual object is lacked and it is possible to have a virtual object in a form that stimulates children's imagination more.

가상 대상체를 구현하는 방식은 도 8에 도시된 바와 같이, 대상 영역의 대상체는, 터치 스크린 상에 표시되는 가상의 대상체이며, 영상 획득부는, 터치 스크린 상의 가상 대상체에 대한 사용자의 조작 영상을 획득하고, 영상 처리부는 획득된 사용자의 조작 영상을 처리하여 사용자의 조작을 상기 컨텐츠 제공부로 제공하거나, 또는 터치 스크린에서의 가상 대상체에 대한 사용자의 조작을 통신을 통해서 컨텐츠 제공부로 바로 제공할 수 있다. As shown in FIG. 8, a method of implementing a virtual object is a virtual object displayed on a touch screen, and the image obtaining unit obtains an operation image of the user with respect to a virtual object on the touch screen , The image processing unit processes the obtained operation image of the user and provides the operation of the user to the content providing unit or directly provides the operation of the user of the virtual object on the touch screen to the content providing unit through communication.

또한, 가상 대상체를 구현하는 방식은 도 8과 같은 형태 이외에도, 대상 영역 상에 가상 대상체를 투사하는 투사 장치를 더 포함하고, 영상 획득부는, 투사 장치에 의해서 투사된 가상 대상체에 대한 사용자의 조작 영상을 획득하고, 영상 처리부는, 획득된 사용자의 조작 영상을 처리하여, 컨텐츠 제공부 및 상기 투사 장치로 제공할 수 있다. 여기서, 투사 장치는 영상 처리부의 결과에 기초하여, 대상 영역 상에 투사하는 가상 대상체에 대한 정보를 수정하여 투사할 수도 있다. The method for implementing a virtual object may further include a projection device for projecting a virtual object on an object area in addition to the form as shown in FIG. 8, and the image acquiring part may acquire an operation image of the virtual object projected by the projection device And the image processing unit can process the obtained operation image of the user and provide the image to the content providing apparatus and the projection apparatus. Here, the projection apparatus may correct the information on the virtual object to be projected on the object area based on the result of the image processing section, and project the information.

도 9는 본 발명의 바람직한 실시예에 따른 사용자 인터랙션이 가능한 장치에서 대상 영역이 평면이 아닌 가상의 입체 또는 공간적 영역인 경우를 설명하는 도면이다. FIG. 9 is a view for explaining a case where a target area is not a plane but a virtual three-dimensional space or a spatial area in an apparatus capable of user interaction according to a preferred embodiment of the present invention.

도 9에 도시된 바와 같이, 도 7과 같이, 대상 영역을 평면이 아니라 공간으로 확장한 것이며, 도 8과 같이 대상체를 실제 대상체가 아니라 가상의 대상체로 구현하고 동작하는 것으로, 홀로그램 대상체를 형성하여 동작하는 것을 도시한 것이다. 홀로그램 대상체 구현을 위해서, 본 발명에 따른 사용자 인터랙션이 가능한 장치의 연장부는 내부 공간이 만들어지게 되는 형태로 유선형의 형상을 가지는 것이 바람직하다. 홀로그램의 실제 구현은 다수의 종래 기술을 활용하여 구현하는 것이 가능하므로, 여기서 실제 구현의 설명은 생략하기로 한다. As shown in FIG. 9, as shown in FIG. 7, the object area is expanded not to a plane but to a space, and a hologram object is formed by implementing a target object as a virtual object instead of an actual object as shown in FIG. 8 Lt; / RTI > For the implementation of the hologram object, it is preferable that the extension of the device capable of user interaction according to the present invention has a streamlined shape in which an inner space is created. The actual implementation of the hologram can be implemented utilizing a number of conventional techniques, so that a description of the actual implementation will be omitted here.

도 8와 같이, 도 9는 가상 대상체를 구현하는 또다른 방식으로, 사용자 인터랙션이 가능한 장치는, 가상의 대상체인 홀로그램 대상체를 구현하는 홀로그램부를 더 포함하고, 영상 획득부는, 홀로그램 대상체에 대한 사용자의 조작 영상을 획득하고, 영상 처리부는 획득된 사용자의 조작 영상을 처리하여 사용자의 조작을 컨텐츠 제공부로 제공할 수 있다. As shown in FIG. 9, in another embodiment of implementing a virtual object, an apparatus capable of user interaction further includes a hologram unit that implements a virtual object hologram object, And the image processing unit processes the obtained operation image of the user to provide the operation of the user to the content providing unit.

이상, 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10 또는 20 .... 대상 영역 카메라
30 .... 사용자 관련 카메라
40 .... 격자로 구획된 평면 또는 격자판
10 or 20 .... Target area camera
30 .... User Related Camera
40 .... Plane or grating partitioned by a grid

Claims (8)

대상 영역의 영상과 사용자 관련 영상을 획득하는 영상 획득부;
상기 영상 획득부에서 획득한 영상을 처리하는 영상 처리부;
상기 영상 처리부의 처리 결과에 기초하여, 상기 사용자에게 컨텐츠를 제공하는 컨텐츠 제공부; 및
상기 영상 획득부, 상기 영상 처리부, 및 컨텐츠 제공부를 제어하는 제어부;를 포함하고,
상기 영상 획득부는, 2개 또는 그 이상의 카메라를 이용하여 영상을 획득하는,
사용자 인터랙션이 가능한 장치.
An image acquiring unit acquiring an image of a target area and a user related image;
An image processing unit for processing the image acquired by the image acquisition unit;
A content providing unit for providing the content to the user based on the processing result of the image processing unit; And
And a control unit for controlling the image acquisition unit, the image processing unit, and the content providing unit,
Wherein the image acquiring unit acquires an image using two or more cameras,
A device capable of user interaction.
제 1 항에 있어서,
상기 장치는,
특정 표면에 거치되는 거치부; 및 상기 거치부로부터 연장되어 형성된 연장부;를 포함하고,
상기 영상 획득부는, 상기 연장부의 말단에 배치된 2개의 카메라로 이루어지며, 상기 2개의 카메라에서 스트리밍되는 각각의 영상을 파노라마 영상으로 병합하고, 병합된 파노라마 영상을 병렬 처리하여, 상기 대상 영역의 영상과 상기 사용자 관련 영상을 획득하는,
사용자 인터랙션이 가능한 장치.
The method according to claim 1,
The apparatus comprises:
A mount mounted on a specific surface; And an extension formed extending from the mounting portion,
Wherein the image acquiring unit includes two cameras disposed at the ends of the extension unit, merges each of the images streamed by the two cameras into a panorama image, parallel-processes the merged panorama images, And acquiring the user-
A device capable of user interaction.
제 1 항에 있어서,
상기 장치는,
특정 표면에 거치되는 거치부; 및 상기 거치부로부터 연장되어 형성된 연장부;를 포함하고,
상기 영상 획득부는, 상기 연장부의 말단에 배치되어 상기 대상 영역의 영상을 획득하는 대상 영역 카메라, 및 상기 거치부의 전면(前面)에 배치되어 상기 사용자 관련 영상을 획득하는 사용자 관련 카메라로 이루어져서, 상기 대상 영역 카메라에서는 상기 대상 영역의 영상을 획득하고, 상기 사용자 관련 카메라는 상기 사용자 관련 영상을 획득하는,
사용자 인터랙션이 가능한 장치.
The method according to claim 1,
The apparatus comprises:
A mount mounted on a specific surface; And an extension formed extending from the mounting portion,
Wherein the image acquiring unit includes an object area camera disposed at an end of the extension unit to acquire an image of the object area and a user related camera disposed on a front surface of the object unit to acquire the user related image, Wherein the region camera acquires an image of the object region, and the user-related camera acquires the user-
A device capable of user interaction.
제 2 항 또는 제 3 항에 있어서,
상기 사용자의 음성을 포함하여 청각 신호를 획득하는 음성 획득부; 및
상기 음성 획득부에서 획득한 음성을 포함하는 청각 신호를 처리하는 음성 처리부;를 포함하고,
상기 컨텐츠 제공부는, 상기 영상 처리부 및 상기 음성 처리부의 처리 결과에 기초하여, 상기 사용자에게 컨텐츠를 제공하고,
상기 제어부는, 상기 영상 획득부, 상기 음성 획득부, 상기 영상 처리부, 상기 음성 처리부 및 컨텐츠 제공부를 제어하는,
사용자 인터랙션이 가능한 장치.
The method according to claim 2 or 3,
A voice acquiring unit for acquiring an auditory signal including the voice of the user; And
And a voice processing unit for processing an auditory signal including the voice acquired by the voice acquiring unit,
Wherein the content providing unit provides content to the user based on the processing results of the video processing unit and the audio processing unit,
Wherein the control unit controls the image obtaining unit, the voice obtaining unit, the image processing unit, the voice processing unit, and the content providing unit,
A device capable of user interaction.
제 2 항 또는 제 3 항에 있어서,
상기 대상 영역 상에 위치할 문자, 숫자 또는 블록을 포함하는 대상체의 윤곽선, 격자, 상기 문자, 상기 숫자 또는 상기 블록의 여백에 대한 특징점을 용이하게 추출할 수 있도록, 상기 대상 영역은 격자로 구획된 평면으로 이루어지는,
사용자 인터랙션이 가능한 장치.
The method according to claim 2 or 3,
In order to easily extract the contour line, the lattice, the character, the number, or the minutiae for the margin of the block including the character, number or block to be located on the target area, the target area is divided into a grid Comprising:
A device capable of user interaction.
제 2 항 또는 제 3 항에 있어서,
상기 대상 영역은 격자로 구획된 평면 상에 쌓여진 복수 개의 블록으로 이루어진 격자로 구획된 평면 상의 공간으로 이루어지는,
사용자 인터랙션이 가능한 장치.
The method according to claim 2 or 3,
Wherein the object area comprises a planar space defined by a lattice of a plurality of blocks stacked on a plane partitioned by a lattice,
A device capable of user interaction.
제 2 항 또는 제 3 항에 있어서,
상기 사용자 관련 영상은, 상기 사용자의 얼굴, 표정, 눈, 코, 입을 포함하는 생체 정보로서,
상기 컨텐츠 제공부는, 상기 사용자 관련 영상에 기초로 하여, 상기 사용자의 집중도 또는 흥미도를 높이는 방향으로 제어하는,
사용자 인터랙션이 가능한 장치.
The method according to claim 2 or 3,
The user-related image is biometric information including the user's face, facial expression, eye, nose, and mouth,
Wherein the content providing unit controls the user based on the user related image in a direction to increase the user's concentration or interest,
A device capable of user interaction.
제 2 항 또는 제 3 항에 있어서,
상기 컨텐츠 제공부는, 상기 거치부에 배치되는 디스플레이부로 이루어지며,
상기 디스플레이부의 크기 또는 높이에 맞게, 상기 거치부에 착탈 가능하게 높이를 조절할 수 있는 적층형 맞춤 구조부를 더 구비한,
사용자 인터랙션이 가능한 장치.
The method according to claim 2 or 3,
Wherein the content providing unit comprises a display unit disposed in the receiving unit,
Further comprising a laminated fitting structure capable of adjusting the height of the display unit so as to be detachable in accordance with the size or height of the display unit,
A device capable of user interaction.
KR1020170171212A 2017-12-13 2017-12-13 Apparatus of interacting with user KR102081685B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170171212A KR102081685B1 (en) 2017-12-13 2017-12-13 Apparatus of interacting with user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170171212A KR102081685B1 (en) 2017-12-13 2017-12-13 Apparatus of interacting with user

Publications (2)

Publication Number Publication Date
KR20190070568A true KR20190070568A (en) 2019-06-21
KR102081685B1 KR102081685B1 (en) 2020-02-26

Family

ID=67056692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170171212A KR102081685B1 (en) 2017-12-13 2017-12-13 Apparatus of interacting with user

Country Status (1)

Country Link
KR (1) KR102081685B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565486B1 (en) * 2023-01-17 2023-08-10 주식회사 빅드림 Method and Apparatus for Learning English by Using Block

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09197582A (en) * 1996-01-17 1997-07-31 Sony Corp Seamless panoramic video photographing device for multiscreen
JP2011206471A (en) * 2010-03-30 2011-10-20 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
KR101369358B1 (en) * 2013-08-06 2014-03-04 홍주희 Display control system and recording medium thereof
KR20170019400A (en) * 2017-02-13 2017-02-21 아토큐브 주식회사 Cube-type puzzle pattern matching method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09197582A (en) * 1996-01-17 1997-07-31 Sony Corp Seamless panoramic video photographing device for multiscreen
JP2011206471A (en) * 2010-03-30 2011-10-20 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
KR101369358B1 (en) * 2013-08-06 2014-03-04 홍주희 Display control system and recording medium thereof
KR20170019400A (en) * 2017-02-13 2017-02-21 아토큐브 주식회사 Cube-type puzzle pattern matching method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
대한민국 공개특허 제10-2016-0110354호(2016.09.21 공개, 발명의 명칭 : 두뇌활성화를 통한 어학 학습 교구 세트(LANGUAGE STUDY TOOL BY BRAIN ACTIVATION))
대한민국 등록실용신안 제20-0480000호(2016.03.25 등록, 고안의 명칭 : 어린이 학습 교구(TEACHING TOOLS))

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565486B1 (en) * 2023-01-17 2023-08-10 주식회사 빅드림 Method and Apparatus for Learning English by Using Block

Also Published As

Publication number Publication date
KR102081685B1 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
LaValle Virtual reality
Arno et al. Auditory coding of visual patterns for the blind
CN112601509B (en) Hybrid perspective augmented reality system and method for low vision users
US8239032B2 (en) Audiotactile vision substitution system
EP2482760B1 (en) Object tracking for artificial vision
US20170303052A1 (en) Wearable auditory feedback device
US20190105783A1 (en) Customization of robot
KR102605318B1 (en) Method for operating a head-mounted electronic display device, and display system for displaying a virtual content
KR20170107229A (en) cognitive training apparatus and method with eye-tracking
US20170199543A1 (en) Glass-type terminal and method of controling the same
JP2011152333A (en) Body skill learning support device and body skill learning support method
KR20220089513A (en) Electronic apparatus providing content-based care service and controlling method thereof
Moldoveanu et al. Mastering an advanced sensory substitution device for visually impaired through innovative virtual training
KR20190070568A (en) Apparatus of interacting with user
EP2834802B1 (en) Apparatus and method for aiding learning
Valencia et al. A computer-vision based sensory substitution device for the visually impaired (See ColOr).
KR20170107224A (en) eye-tracking module with cognitive training contents and cognitive training method thereof
KR20190070619A (en) Apparatus of interacting with user
CN211475595U (en) Intelligent desk lamp
JP5571895B2 (en) Information display device
US20070048694A1 (en) System and method for simultaneous demonstration mouth movements together with visual presentation of an image that represents a letter(s) or word(s) being pronounced
KR102488893B1 (en) Educational learning tool system
Ho Three observations on filming tactility and movement in crafts-based practice: A preliminary investigation
CN110276242B (en) Image processing method, device and storage medium
KR102148033B1 (en) System for embodying VR using coloring AR aids

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant