KR20220036842A - Interactive exhibition image realization system using laser senor - Google Patents

Interactive exhibition image realization system using laser senor Download PDF

Info

Publication number
KR20220036842A
KR20220036842A KR1020210070982A KR20210070982A KR20220036842A KR 20220036842 A KR20220036842 A KR 20220036842A KR 1020210070982 A KR1020210070982 A KR 1020210070982A KR 20210070982 A KR20210070982 A KR 20210070982A KR 20220036842 A KR20220036842 A KR 20220036842A
Authority
KR
South Korea
Prior art keywords
image
exhibition
user
interactive
identification symbol
Prior art date
Application number
KR1020210070982A
Other languages
Korean (ko)
Other versions
KR102412992B1 (en
Inventor
최림
김준홍
Original Assignee
주식회사 다베로아트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다베로아트 filed Critical 주식회사 다베로아트
Priority to KR1020210070982A priority Critical patent/KR102412992B1/en
Publication of KR20220036842A publication Critical patent/KR20220036842A/en
Application granted granted Critical
Publication of KR102412992B1 publication Critical patent/KR102412992B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is an interactive exhibition image realization system using a laser sensor which can realize an interactive exhibition image linked to the position or motion of a visitor (user) in an exhibition space. According to one embodiment of the present invention, the interactive exhibition image realization system comprises: a laser sensor module installed on a wall or a floor of an exhibition space, and sensing a motion of a user to present a special effect scene; and an image processor image-processing motion information of the user acquired from the laser sensor module. The laser sensor module, if an event of sensing a human body and sensing a motion at at least two points in the exhibition space occurs, presents a mutual event effect scene between the at least two points to display the mutual event effect scene. The image processor image-processes motion information of the user acquired from the laser sensor module to extract displacement information including a first displacement value by which the user moves around an X-axis, a second displacement value by which the user moves around a Y-axis, and a third displacement value by which the user moves around a Z-axis, and compares the extracted displacement information with preset motion reference information to acquire position information of the at least two points in the exhibition space, The motion reference information includes information on the center and radius of a three-dimensional sphere virtually extended and formed by a hand of a human body by tracking the length, width, and direction of an arm of a human body.

Description

레이저 센서를 이용한 인터렉티브 전시 영상 구현 시스템{INTERACTIVE EXHIBITION IMAGE REALIZATION SYSTEM USING LASER SENOR}Interactive exhibition image realization system using laser sensor {INTERACTIVE EXHIBITION IMAGE REALIZATION SYSTEM USING LASER SENOR}

본 발명은 전시 영상 구현 시스템에 관한 것으로, 보다 상세하게는 레이저 센서를 이용하여 인터렉티브 전시 영상을 구현하기 위한 시스템에 관한 것이다.The present invention relates to a system for realizing an exhibition image, and more particularly, to a system for realizing an interactive exhibition image using a laser sensor.

컴퓨터 기술의 발달로 전시관은 온라인이라는 형태로 발달되고 있으며, 단순 전시관에서 이제는 인터렉티브를 지양하는 전시관으로 발달하고 있다. 즉 시공간 개념을 넘어 전시관에 존재하는 관람자가 영상 속의 캐릭터와 대화를 하면서 관람자의 요구에 따라 캐릭터가 말을 하거나, 행동하는 것처럼 인식되기를 원하게 되었기 때문이다.With the development of computer technology, the exhibition hall is being developed in the form of an online form, and it is developing from a simple exhibition hall to an exhibition hall that avoids the interactive. This is because, beyond the concept of time and space, the viewer in the exhibition hall wants to be recognized as if the character is speaking or acting according to the viewer's request while having a conversation with the character in the video.

이와 같은 인터렉티브 전시관에 대한 니즈는 인터렉티브 전시관이 기존의 다른 전시관과는 달리 상호 이야기를 통하여 상황 변화를 해야 하고, 이미 짜여진 각본에 따라 진행되지 않도록 함으로써, 인터렉티브 전시관과 관람자의 상호 작용성을 통해 전시관 관람자를 수동적인 감상의 주체자로서가 아니라 능동적인 행위의 주체이자 창조의 주체로 만들어 주기 때문이다.The need for such an interactive pavilion is that the interactive pavilion, unlike other existing pavilions, has to change the situation through mutual stories and does not proceed according to a script that has already been crafted. This is because it makes them a subject of active action and creation, not as a subject of passive appreciation.

따라서, 인터렉티브 전시관을 위한 상호 작용의 특징은 첫째, 틀에 박힌 전시관의 관람 형태의 변화에서 비롯되었고, 둘째로 인터렉티브가 그 자체로 순수한 전시 공간에서 행해지며, 그것은 실제 환경과 단절된 상황에서 진행되어 경계의 설정이 이루어지며, 영상 속의 화면에 나오는 캐릭터 등을 통하여 알 수 있는 데 있다.Therefore, the characteristics of interaction for an interactive exhibition hall are firstly derived from the change in the viewing form of the conventional exhibition hall, and secondly, the interactive itself is performed in a pure exhibition space, and it proceeds in a situation disconnected from the real environment and thus the boundary is set, and it can be known through the characters appearing on the screen in the video.

그러나, 기존의 인터렉티브 전시관은 상호 작용성이 부족한데 즉 실제의 세계에서 실행되며, 사용자의 의도보다 기획된 전시 프로그램에 의해서 진행되기 때문이다. 한편, 최근에는 전시관에서 상호 작용성을 높이기 위한 시도가 있기는 하지만 컴퓨터 프로그램에 의해 운영되는 것으로, 컴퓨터 프로그램의 한계를 벗어날 수 없으며, 전시관의 관람자와 직접 부딪히는 인간적 결합이 불가능하다. 즉 관람자는 단순히 컴퓨터와 상대하며 그 결과도 프로그램 된 것에 의해 결정되기 때문이다.However, the existing interactive exhibition hall lacks interactivity, that is, it is executed in the real world, and is conducted by the planned exhibition program rather than the user's intention. Meanwhile, although recent attempts have been made to increase the interactivity in the exhibition hall, it is operated by a computer program, so it is impossible to escape the limitations of the computer program, and it is impossible to connect with people directly in the exhibition hall. That is, the spectator simply interacts with the computer, and the result is also determined by what is programmed.

이와 같은 문제점에도 불구하고 기존의 인터렉티브 전시관이 운영되는 이유는 학습 효과를 위해 단순 방문을 하거나, 컴퓨터 프로그램 내에서만 관람자와 상호 작용을 할 뿐이더라도 자유로운 인터렉티브 전시관 환경을 대처할 만한 대안이 없기 때문이다.The reason that the existing interactive exhibition hall is operated despite these problems is that there is no alternative to cope with the free interactive exhibition environment, even if it is only a simple visit or interaction with the viewer within a computer program for learning effect.

이와 같은 현실에서 정서적으로 안정되고 휴식을 즐기면서 교육적 가치를 지닌 인터렉티브 전시관 솔루션의 개발은 매우 중요하다. 즉, 인터렉티브 전시관은 새로운 전시관의 일부로 자리 잡고 있으며 경제적으로도 그 가치가 매우 커졌기 때문이다. 따라서, 상호 작용성이 있는 인터렉티브 전시관을 구현할 수 있는 새로운 시스템의 개발이 필요하다.In this reality, it is very important to develop an interactive pavilion solution with educational value while being emotionally stable and enjoying relaxation. In other words, the interactive pavilion is positioned as a part of the new pavilion, and its economic value has grown significantly. Therefore, it is necessary to develop a new system capable of realizing an interactive exhibition hall with interactivity.

관련 선행기술로는 대한민국 공개특허공보 제10-2011-0006976호(발명의 명칭: 전시관용 인터렉티브제어시스템, 공개일자: 2011.01.21.)가 있다.As a related prior art, there is Republic of Korea Patent Publication No. 10-2011-0006976 (title of the invention: interactive control system for exhibition halls, publication date: 2011.01.21.).

본 발명의 목적은, 레이저 센서를 이용하여 전시 공간 내에 관람객(사용자)의 위치나 동작과 연동되어 인터렉티브한 전시 영상을 구현할 수 있는 전시 영상 구현 시스템을 제공하는 것이다.An object of the present invention is to provide an exhibition image realization system capable of realizing an interactive exhibition image by interlocking with the position or operation of a visitor (user) in an exhibition space using a laser sensor.

또한, 본 발명의 다른 목적은, 관람객(사용자)이 쇄미록 등의 전시용 책을 넘기게 되면 적외선 카메라를 통해 전시용 책의 각 페이지를 인식하여 해당 페이지에 담겨 있는 내용과 관련된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력함으로써 실감형 영상 콘텐츠를 제작할 수 있는 전시 영상 구현 시스템을 제공하는 것이다.In addition, another object of the present invention is to recognize each page of the exhibition book through an infrared camera when a visitor (user) turns over an exhibition book, such as a book for the exhibition, and display image data related to the contents contained in the page in the exhibition space. An object of the present invention is to provide an exhibition image realization system capable of producing immersive image content by outputting it to a display area.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and another problem(s) not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적은, 본 발명에 따라, 전시 공간의 바닥면이나 벽면에 설치되고, 사용자의 모션을 감지하여 특수 효과 장면을 연출하기 위한 레이저 센서 모듈, 및 상기 레이저 센서 모듈로부터 획득한 상기 사용자의 모션 정보를 영상 처리하는 이미지 프로세서;를 포함하고, 상기 레이저 센서 모듈은 상기 전시 공간 내 적어도 2 지점에서의 인체 감지 및 동작 감지의 이벤트가 발생된 경우, 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 디스플레이하고, 상기 이미지 프로세서는 상기 레이저 센서 모듈로부터 획득한 상기 사용자의 모션 정보를 영상 처리하여 상기 사용자가 X축을 중심으로 위치 이동한 제1 변위값, 상기 사용자가 Y축을 중심으로 위치 이동한 제2 변위값, 및 상기 사용자가 Z축을 중심으로 위치 이동한 제3 변위값을 포함하는 변위 정보를 추출하고, 상기 추출된 변위 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 전시 공간 내 적어도 2 지점의 위치 정보를 획득하며, 상기 모션 기준 정보는 인체의 팔의 길이, 폭 및 방향에 대한 추적을 통하여 인체의 손에 의해 가상으로 연장 형성되는 3차원 형상인 구의 중심 및 반경에 대한 정보를 포함하는 것을 특징으로 하는 인터렉티브 전시 영상 구현 시스템에 의해 달성된다.The above object is, according to the present invention, a laser sensor module installed on the floor or wall surface of an exhibition space to detect a user's motion to produce a special effect scene, and the user's motion information obtained from the laser sensor module an image processor for image processing; including, wherein the laser sensor module produces a mutual event effect scene between the at least two points when an event of human body detection and motion detection occurs at at least two points in the exhibition space, display, and the image processor image-processes the motion information of the user obtained from the laser sensor module, a first displacement value in which the user moves around the X-axis, and a second displacement in which the user moves around the Y-axis Displacement information including a displacement value and a third displacement value moved by the user about the Z-axis is extracted, and the extracted displacement information is compared with preset motion reference information to position at least two points in the exhibition space information is obtained, and the motion reference information includes information on the center and radius of a sphere, which is a three-dimensional shape that is virtually extended by a human hand through tracking of the length, width, and direction of the arm of the human body This is achieved by an interactive exhibition image realization system.

바람직하게, 상기 이미지 프로세서는 상기 레이저 센서 모듈로부터 획득한 상기 사용자의 모션 정보를 영상 처리하여 상기 사용자의 움직이는 신체 중 특정 부위를 체크하고, 상기 체크한 영상의 프레임 간 차이를 분석하여 상기 특정 부위가 움직인 궤적을 계산하며, 상기 궤적에 매칭되는 위치에 해당하는 디스플레이 영역에 상기 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.Preferably, the image processor image-processes the motion information of the user obtained from the laser sensor module to check a specific part of the user's moving body, and analyzes a difference between frames of the checked image so that the specific part is The moving trajectory may be calculated, and the mutual event effect scene may be produced and displayed in a display area corresponding to a position matching the trajectory.

바람직하게, 상기 이미지 프로세서는 상기 상호 이벤트 효과 장면을 제공하는 서버의 주소 링크를 상기 사용자의 SNS를 통해 공유하는 이벤트가 발생한 후 상기 사용자의 SNS가 실행중인 모바일 단말기가 상기 주소 링크를 통해 상기 서버에 접속하여 상기 상호 이벤트 효과 장면에 관한 메뉴를 선택하면, 상기 선택된 메뉴에 해당하는 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.Preferably, in the image processor, after an event of sharing the address link of the server providing the scene of the mutual event effect through the user's SNS occurs, the mobile terminal in which the user's SNS is running is connected to the server through the address link When a menu relating to the mutual event effect scene is accessed and selected, a mutual event effect scene corresponding to the selected menu may be produced and displayed.

바람직하게, 인터렉티브 전시 영상 구현 시스템은, 전시용 책이 배치된 상기 전시 공간 위에 설치되고, 상기 전시용 책의 각 페이지별로 인쇄된 페이지 식별 기호를 획득하는 카메라 모듈, 및 상기 이미지 프로세서에 의해 추출된 영상 데이터를 상기 전시 공간 내 디스플레이 영역에 출력하는 빔 프로젝터를 더 포함하고, 상기 이미지 프로세서는 상기 카메라 모듈에 의해 획득된 페이지 식별 기호를 영상 분석하여 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하며, 상기 이미지 프로세서는 상기 카메라 모듈에 의해 현재 획득된 페이지 식별 기호를 이전에 획득된 페이지 식별 기호와 주기적으로 비교하여 상기 비교의 결과 일치하지 않을 경우 상기 사용자에 의한 상기 전시용 책의 책 넘김으로 인식하여 상기 영상 데이터의 출력 시 장면 전환 효과를 적용하고, 상기 이미지 프로세서는 상기 카메라 모듈에 의해 촬영된 영상의 원본 문서에서 텍스트와 이미지를 분리한 후, 상기 텍스트와 이미지의 크기와 색상을 분석하고, 상기 원본 문서의 분석 결과에 따라, 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 큰 문자열을 제목으로 간주하고, 상기 제목으로 간주된 문자열 자체에 미리 설정된 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하거나, 상기 원본 문서에 포함된 이미지를 색상 계열별로 분리하고, 상기 원본 문서에 포함된 이미지의 색상 계열별로 이미지 자체에 상기 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하거나, 또는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 작은 문자열을 주석으로 간주하고, 상기 주석으로 간주된 문자열을 선택할 시, 부가 설명이 팝업으로 출력되도록 상기 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하고, 상기 인터랙티브 효과가 적용된 변환 문서를 출력하고, 상기 변환 문서는 전화번호가 입력된 상기 사용자의 모바일 단말기로 공유될 수 있다.Preferably, the interactive exhibition image realization system includes a camera module that is installed on the exhibition space in which the exhibition book is arranged, and obtains a page identification symbol printed for each page of the exhibition book, and the image data extracted by the image processor and a beam projector for outputting to a display area in the exhibition space, wherein the image processor analyzes the page identification symbol obtained by the camera module and extracts image data matching the page identification symbol from the exhibition image database and the image processor periodically compares the page identification symbol currently acquired by the camera module with the previously acquired page identification symbol, and if the result of the comparison does not match, it is recognized as turning the book of the exhibition book by the user to apply a scene change effect when outputting the image data, the image processor separates text and an image from the original document of the image captured by the camera module, and then analyzes the size and color of the text and image, According to the analysis result of the original document, within a specific page of the original document, a character string with the largest text size is regarded as a title, and a preset interactive effect is applied to the character string regarded as the title itself to transform the original document Alternatively, the image included in the original document is separated by color series, and the interactive effect is applied to the image itself for each color series of the image included in the original document to convert the original document, or a specific page of the original document In the text, a character string with the smallest text size is regarded as a comment, and when a character string regarded as the comment is selected, the original document is converted by applying the interactive effect so that an additional explanation is output as a pop-up, and the interactive effect is applied The converted document may be output, and the converted document may be shared with the mobile terminal of the user into which the phone number is input.

상기 카메라 모듈은 적외선 카메라를 포함하고, 상기 페이지 식별 기호는 사용자의 육안으로는 보이지 않는 적외선 잉크를 사용하여 상기 전시용 책에 인쇄되며, 상기 카메라 모듈은 상기 전시용 책의 페이지를 향해 적외선을 조사하는 적외선 투광기(IR Illuminator)를 더 포함하고, 상기 적외선 카메라는 상기 적외선 투광기에 의해 조사된 적외선과 반응하는 상기 적외선 잉크로부터 상기 페이지 식별 기호를 획득하며, 상기 전시 영상 데이터베이스는 상기 전시용 책의 각 페이지 내용에 맞게 사전 제작된 상기 영상 데이터를 상기 페이지 식별 기호와 매칭하여 매칭 테이블에 기록하고, 상기 이미지 프로세서는 상기 매칭 테이블을 참조하여 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출할 수 있다.The camera module includes an infrared camera, the page identification symbol is printed on the exhibition book using infrared ink that is invisible to the naked eye of the user, and the camera module irradiates infrared rays toward the pages of the exhibition book. Further comprising an IR Illuminator, wherein the infrared camera acquires the page identification symbol from the infrared ink reacting with the infrared ray irradiated by the infrared illuminator, and the exhibition image database is stored in the contents of each page of the exhibition book. The image data prepared in advance to match the page identification symbol may be matched with the page identification symbol and recorded in a matching table, and the image processor may extract image data matching the page identification symbol with reference to the matching table.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and accompanying drawings.

본 발명의 일 실시예에 따르면, 전시 공간 내에 설치된 인체 감지 센서 및 동작 감지 센서를 통해 상기 전시 공간 내 적어도 2 지점에서의 인체 감지 및 동작 감지의 이벤트가 발생된 경우 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 디스플레이함으로써, 전시 공간 내에 관람객(사용자)의 위치나 동작과 연동되는 인터렉티브한 전시 영상을 구현할 수 있다.According to an embodiment of the present invention, when an event of human body detection and motion detection occurs at at least two points in the exhibition space through a human body detection sensor and a motion detection sensor installed in the exhibition space, a mutual event between the at least two points By directing and displaying an effect scene, it is possible to implement an interactive exhibition image that is linked to the position or motion of a visitor (user) in the exhibition space.

또한, 본 발명의 다른 실시예에 따르면, 관람객(사용자)이 쇄미록 등의 전시용 책을 넘기게 되면 적외선 카메라를 통해 전시용 책의 각 페이지를 인식하여 해당 페이지에 담겨 있는 내용과 관련된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력함으로써 인터렉티브한 전시 영상 콘텐츠를 제작할 수 있다.In addition, according to another embodiment of the present invention, when a visitor (user) turns over a book for exhibition, such as a book for exhibition, the infrared camera recognizes each page of the book for exhibition and displays image data related to the content contained in the page. By outputting it to the display area in the space, interactive exhibition video content can be produced.

본 발명의 일 실시예에 따르면, 레이저 센서 모듈을 통해 사용자 간 상호 이벤트 효과 장면을 생성하여 제공함으로써 사용자에게 전시 영상과 관련된 체험 기회를 부여할 수 있으며, 이를 통해 사용자의 흥미를 유발할 수 있다.According to an embodiment of the present invention, by creating and providing a scene of a mutual event effect between users through a laser sensor module, it is possible to give the user an opportunity to experience an exhibition image, thereby stimulating the user's interest.

도 1은 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템을 설명하기 위해 도시한 개념도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템을 설명하기 위해 도시한 블록도이다.
도 4 내지 도 8은 본 발명의 일 실시예에 따라 이미지 프로세서에 의해 추출된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력하는 일례를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템의 추가 구성요소인 레이저 센서 모듈의 설치 위치 및 기능을 설명하기 위해 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템을 이용한 실감형 전시 영상 구현 방법을 설명하기 위해 도시한 흐름도이다.
1 is a conceptual diagram illustrating an interactive exhibition image realization system according to an embodiment of the present invention.
2 and 3 are block diagrams illustrating an interactive exhibition image realization system according to an embodiment of the present invention.
4 to 8 are diagrams illustrating an example of outputting image data extracted by an image processor to a display area in an exhibition space according to an embodiment of the present invention.
9 is a diagram illustrating an installation location and function of a laser sensor module, which is an additional component of an interactive exhibition image realization system according to an embodiment of the present invention.
10 is a flowchart illustrating a method for realizing an immersive exhibition image using an interactive exhibition image realizing system according to an embodiment of the present invention.

본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.Advantages and/or features of the present invention, and methods for achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 기 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능 구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능 구성을 위주로 설명한다. 만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능 구성 중에서 종래에 기 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성 요소와 본 발명을 위해 추가된 구성 요소 사이의 관계도 명백하게 이해할 수 있을 것이다.In addition, preferred embodiments of the present invention implemented below are already provided in each system function configuration in order to efficiently describe the technical components constituting the present invention, or system functions normally provided in the technical field to which the present invention belongs The configuration is omitted as much as possible, and the functional configuration to be additionally provided for the present invention will be mainly described. If a person of ordinary skill in the art to which the present invention pertains, it will be possible to easily understand the functions of conventionally used components among the functions omitted not shown below, and also the components omitted as described above. Relationships between elements and components added for purposes of the present invention will also be clearly understood.

또한, 이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다.In addition, in the following description, the term "transmission", "communication", "transmission", "reception" and other similar meanings of signals or information means that signals or information are directly transmitted from one component to another. as well as passing through other components. In particular, to “transmit” or “transmit” a signal or information to a component indicates the final destination of the signal or information and does not imply a direct destination. The same is true for "reception" of signals or information.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템을 설명하기 위해 도시한 개념도이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템을 설명하기 위해 도시한 블록도이다.1 is a conceptual diagram illustrating an interactive exhibition image implementation system according to an embodiment of the present invention, and FIGS. 2 and 3 are diagrams illustrating an interactive exhibition image implementation system according to an embodiment of the present invention It is a block diagram.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템(100)은 카메라 모듈(210), 이미지 프로세서(220), 빔 프로젝터(230), 및 제어부(240)를 포함하여 구성될 수 있다.1 to 3 , the interactive exhibition image realization system 100 according to an embodiment of the present invention includes a camera module 210 , an image processor 220 , a beam projector 230 , and a controller 240 . may be included.

상기 카메라 모듈(210)은 상기 전시용 책(101)이 배치된 전시 공간(s) 위에 설치될 수 있다. 여기서, 상기 전시용 책(101)은 테이블 위에 놓인 상태로 구비될 수 있다.The camera module 210 may be installed on the exhibition space s in which the exhibition book 101 is disposed. Here, the exhibition book 101 may be provided in a state of being placed on a table.

상기 카메라 모듈(210)은 상기 전시용 책(101)의 각 페이지별로 인쇄된 페이지 식별 기호를 획득할 수 있다. 즉, 상기 카메라 모듈(210)은 상기 전시용 책(101)에 적외선 에너지를 방사한 후 반사되는 적외선 에너지를 감지함으로써 상기 페이지 식별 기호를 획득할 수 있다. 여기서, 상기 페이지 식별 기호는 점 패턴, 숫자 중 적어도 하나를 포함할 수 있으며, 사용자의 육안으로는 보이지 않는 적외선 잉크를 사용하여 상기 전시용 책(101)에 인쇄될 수 있다.The camera module 210 may acquire a page identification symbol printed for each page of the book 101 for exhibition. That is, the camera module 210 may acquire the page identification symbol by sensing the infrared energy reflected after emitting infrared energy to the exhibition book 101 . Here, the page identification symbol may include at least one of a dot pattern and a number, and may be printed on the display book 101 using infrared ink that is invisible to the user's naked eye.

이를 위해, 상기 카메라 모듈(210)은 적외선 카메라(211) 및 적외선 투광기(IR Illuminator)(212)를 포함할 수 있다. 상기 적외선 투광기(212)는 상기 전시용 책(101)의 페이지를 향해 적외선을 조사하고, 상기 적외선 카메라(211)는 상기 적외선 투광기(212)에 의해 조사된 적외선과 반응하는 상기 적외선 잉크로부터 상기 페이지 식별 기호를 획득할 수 있다.To this end, the camera module 210 may include an infrared camera 211 and an infrared illuminator 212 . The infrared projector 212 irradiates infrared rays toward the pages of the exhibition book 101 , and the infrared camera 211 identifies the pages from the infrared ink reacting with the infrared rays irradiated by the infrared projector 212 . sign can be obtained.

상기 이미지 프로세서(220)는 상기 적외선 카메라(210)에 의해 인식된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스(미도시)로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출할 수 있다.The image processor 220 may analyze the image of the page identification symbol recognized by the infrared camera 210 and extract image data matching the page identification symbol from an exhibition image database (not shown).

여기서, 상기 전시 영상 데이터베이스는 상기 전시용 책(101)의 각 페이지 내용에 맞게 사전 제작된 영상 데이터를 상기 페이지 식별 기호와 매칭하여 매칭 테이블에 기록하여 저장하는 데이터 저장소로서 기능할 수 있다.Here, the exhibition image database may function as a data storage that records and stores image data pre-produced according to the contents of each page of the exhibition book 101 with the page identification symbol and recorded in a matching table.

이에 따라, 상기 이미지 프로세서(220)는 상기 전시 영상 데이터베이스에 의해 기록된 상기 매칭 테이블을 참조하여, 상기 페이지 식별 기호에 매칭되는 영상 데이터를 상기 전시 영상 데이터베이스로부터 추출할 수 있다.Accordingly, the image processor 220 may extract image data matching the page identification symbol from the exhibition image database by referring to the matching table recorded by the exhibition image database.

다시 말해, 상기 이미지 프로세서(220)는 상기 카메라 모듈(210)에 의해 상기 전시용 책(101)에 인쇄된 페이지 식별 기호가 획득되면, 상기 획득된 페이지 식별 기호를 상기 매칭 테이블에서 검색할 수 있다.In other words, when the page identification symbol printed on the exhibition book 101 is obtained by the camera module 210 , the image processor 220 may search for the obtained page identification symbol in the matching table.

상기 이미지 프로세서(220)는 상기 검색된 페이지 인식 기호에 매칭되어 기록된 해당 영상 데이터의 참조 정보를 탐색할 수 있다. 상기 이미지 프로세서(220)는 상기 탐색된 참조 정보를 이용하여 상기 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 상기 전시 영상 데이터베이스로부터 추출할 수 있다.The image processor 220 may search for reference information of corresponding image data recorded by matching the searched page recognition symbol. The image processor 220 may extract image data matching the page identification symbol from the exhibition image database from the exhibition image database by using the found reference information.

상기 이미지 프로세서(220)는 상기 카메라 모듈(210)에 의해 현재 획득된 페이지 식별 기호(제1 페이지 식별 기호)를 이전에 획득된 페이지 식별 기호(제2 페이지 식별 기호)와 주기적으로 비교할 수 있다.The image processor 220 may periodically compare the page identification symbol (first page identification symbol) currently obtained by the camera module 210 with the page identification symbol (second page identification symbol) obtained previously.

상기 이미지 프로세서(220)는 상기 제1 및 제2 페이지 식별 기호의 비교 결과에 따라 상기 영상 데이터의 출력 시 장면 전환 효과를 적용할 수 있다. 즉, 상기 이미지 프로세서(220)는 상기 제1 페이지 식별 기호와 상기 제2 페이지 식별 기호가 일치하지 않을 경우, 사용자에 의한 상기 전시용 책(101)의 책 넘김으로 인식하여 상기 영상 데이터의 출력 시 장면 전환 효과를 적용할 수 있다.The image processor 220 may apply a scene change effect when outputting the image data according to a comparison result of the first and second page identification symbols. That is, when the first page identification symbol and the second page identification symbol do not match, the image processor 220 recognizes that the display book 101 is turned over by the user and outputs the image data. Transition effects can be applied.

여기서, 상기 장면 전환 효과는 한 화면이 사라짐과 동시에 다른 화면이 점차로 나타나는 장면 전환 기법으로서, 앞 화면의 밀도가 점점 감소하는 것과 동시에 뒤 화면의 밀도가 높아져서 장면이 전환되는 기법인 디졸브(dissolve)로 구현될 수 있다.Here, the scene change effect is a scene change technique in which one screen disappears and another screen gradually appears at the same time, and at the same time the density of the front screen gradually decreases and the density of the rear screen increases at the same time, the scene is switched by dissolve. can be implemented.

다만, 상기 장면 전환 효과는 이에 한정되지 않고, 한 화면을 밀어내면서 다른 화면이 나타나는 전환 기법인 와이프(wipe)나, 영상이 천천히 어두워져 암전(black)이 되거나 암전 상태에서 천천히 밝아져 영상이 나타나게 하는 장면 전환 기법인 페이드(fade), 또는 장면과 장면을 바로 이어 붙이는 기법인 컷(cut) 등 다른 다양한 장면 전환 기법으로 구현될 수도 있다.However, the scene transition effect is not limited thereto, and a wipe, which is a transition technique in which another screen appears while pushing one screen, or an image slowly darkens to black, or slowly brightens to display an image. It can also be implemented with various other scene change techniques, such as fade, which is a scene change technique, or cut, which is a technique that directly connects a scene to a scene.

이때, 상기 이미지 프로세서(220)는 상기 전시 공간(s) 내에 설치된 인체 감지 센서(미도시) 및 동작 감지 센서(미도시) 중 적어도 하나를 통해, 상기 전시용 책(101)의 위치를 기준으로 일정 거리의 범위 내에서 인체 감지 및 동작 감지 중 적어도 하나의 이벤트가 발생된 경우, 사용자에 의한 상기 전시용 책(101)의 책 넘김으로 인식할 수 있다.At this time, the image processor 220 is set based on the position of the exhibition book 101 through at least one of a human body detection sensor (not shown) and a motion detection sensor (not shown) installed in the exhibition space (s). When at least one of the human body detection and the motion detection occurs within the range of the distance, it may be recognized as turning the book 101 by the user.

상기 빔 프로젝터(230)는 상기 이미지 프로세서(220)에 의해 추출된 영상 데이터를 상기 전시 공간(s) 내 디스플레이 영역(102)에 출력할 수 있다. 여기서, 상기 디스플레이 영역(102)은 상기 전시 공간(s)의 전면부 벽면에 곡면 형태로 구현될 수 있으며, 상기 전시 공간(s)의 전면부 벽면 외에 바닥면 등에도 구현될 수 있다.The beam projector 230 may output the image data extracted by the image processor 220 to the display area 102 in the exhibition space s. Here, the display area 102 may be implemented in the form of a curved surface on the front wall of the exhibition space (s), and may be implemented on the floor in addition to the front wall of the exhibition space (s).

예컨대, 상기 빔 프로젝터(230)는 도 4 내지 도 8에 도시된 바와 같이 상기 이미지 프로세서(220)에 의해 추출된 영상 데이터를 상기 전시 공간(s) 내 디스플레이 영역(102)에 출력할 수 있다. 도 4 내지 도 8에 기재된 나레이션 부분은 음성으로만 출력되고 영상에는 출력되지 않는다. 참고로, 도 4 내지 도 8은 본 발명의 일 실시예에 따라 이미지 프로세서에 의해 추출된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력하는 일례를 도시한 도면이다.For example, the beam projector 230 may output the image data extracted by the image processor 220 to the display area 102 in the exhibition space s as shown in FIGS. 4 to 8 . The narration part described in FIGS. 4 to 8 is output only with audio and not on video. For reference, FIGS. 4 to 8 are diagrams illustrating an example of outputting image data extracted by an image processor to a display area in an exhibition space according to an embodiment of the present invention.

상기 빔 프로젝터(230)는 상기 전시용 책(101)의 페이지 영역에도 상기 영상 데이터 혹은 상기 영상 데이터와 연관된 다른 영상 데이터를 출력할 수 있다. 이때, 상기 전시용 책(101)은 왼쪽은 빈 페이지, 오른쪽은 글자가 기재된 페이지로 구성될 수 있으나, 이에 한정되지 않고 다양한 구성이 가능하다.The beam projector 230 may also output the image data or other image data related to the image data to the page area of the exhibition book 101 . In this case, the exhibition book 101 may be composed of a blank page on the left side and a page with letters on the right side, but is not limited thereto, and various configurations are possible.

상기 제어부(240)는 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템(100), 즉 상기 카메라 모듈(210), 상기 이미지 프로세서(220), 상기 빔 프로젝터(230) 등의 동작을 전반적으로 제어할 수 있다.The controller 240 generally controls the operation of the interactive exhibition image realization system 100 , that is, the camera module 210 , the image processor 220 , and the beam projector 230 according to an embodiment of the present invention. can be controlled

한편, 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템(100)은 도 9에 도시된 바와 같이 레이저 센서 모듈(250)을 더 포함하여 구성될 수 있다.Meanwhile, the interactive exhibition image realization system 100 according to an embodiment of the present invention may further include a laser sensor module 250 as shown in FIG. 9 .

상기 레이저 센서 모듈(250)은 상기 전시 공간(s)의 바닥면이나 벽면에 설치되고, 상기 디스플레이 영역(102)에 출력되는 영상 데이터와 연계하여 특수 효과 장면을 연출하기 위한 기능을 수행할 수 있다.The laser sensor module 250 may be installed on the floor or wall surface of the exhibition space s, and may perform a function to produce a special effect scene in connection with image data output to the display area 102 . .

구체적으로, 상기 전시 공간(s) 내에 설치된 인체 감지 센서 및 동작 감지 센서 중 적어도 하나를 통해, 상기 전시 공간(s) 내 적어도 2 지점에서의 인체 감지 및 동작 감지 중 적어도 하나의 이벤트 발생이 감지될 수 있다. 이러한 경우, 상기 레이저 센서 모듈(250)은 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 상기 전시 공간(s)의 바닥면이나 벽면에 출력함으로써 해당 연출 장면을 디스플레이할 수 있다.Specifically, the occurrence of at least one of human body detection and motion detection at at least two points in the exhibition space s is detected through at least one of a human body detection sensor and a motion detection sensor installed in the exhibition space s. can In this case, the laser sensor module 250 may display a corresponding scene by producing a scene of a mutual event effect between the at least two points and outputting the scene to the floor or wall of the exhibition space (s).

예를 들면, 도 9에 도시된 바와 같이 상기 전시 공간(s) 내 3 지점(A, B, C)에서 인체 감지 또는 동작 감지의 이벤트가 발생한 경우, 상기 레이저 센서 모듈(250)은 레이저를 이용하여 A 지점, B 지점, C 지점 간에 상호 이벤트 효과(예: 눈 오는 장면에서 눈 싸임, 강물 장면, 바람에 날리는 장면 등) 장면을 연출하여 디스플레이할 수 있다.For example, as shown in FIG. 9 , when an event of human body detection or motion detection occurs at three points A, B, and C in the exhibition space s, the laser sensor module 250 uses a laser Thus, it is possible to produce and display a scene with a mutual event effect (eg, a snowy scene in a snowy scene, a river scene, a wind blowing scene, etc.) between point A, point B, and point C.

이때, 상기 이미지 프로세서(220)는 상기 레이저 센서 모듈(250)로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자가 X축을 중심으로 위치 이동한 제1 변위값, 상기 사용자가 Y축을 중심으로 위치 이동한 제2 변위값, 및 상기 사용자가 Z축을 중심으로 위치 이동한 제3 변위값을 포함하는 변위 정보를 추출하고, 상기 추출된 변위 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 전시 공간 내 적어도 2 지점의 위치 정보를 획득할 수 있다.In this case, the image processor 220 image-processes the user's motion information obtained from the laser sensor module 250 to determine the first displacement value the user moves about the X-axis, and the user's position about the Y-axis. Displacement information including the second displacement value moved and the third displacement value moved by the user about the Z-axis is extracted, and the extracted displacement information is compared with preset motion reference information to at least in the exhibition space. Location information of two points can be obtained.

이에 따라, 상기 레이저 센서 모듈(250)은 상기 적어도 2 지점의 위치 정보를 토대로 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 상기 전시 공간(s)의 바닥면이나 벽면에 출력함으로써 해당 연출 장면을 디스플레이할 수 있다. 여기서, 상기 모션 기준 정보는 인체의 팔의 길이, 폭, 방향 등에 대한 추적을 통하여 인체의 손에 의해 가상으로 연장 형성되는 3차원 형상인 구의 중심 및 구의 반경에 대한 정보를 포함할 수 있다.Accordingly, the laser sensor module 250 produces a scene of a mutual event effect between the at least two points based on the location information of the at least two points, and outputs the scene on the floor or wall of the exhibition space (s) to produce the corresponding directing scene. can be displayed. Here, the motion reference information may include information about the center of the sphere and the radius of the sphere, which are three-dimensional shapes that are virtually extended and formed by the hand of the human body through tracking of the length, width, direction, etc. of the arm of the human body.

또한, 상기 이미지 프로세서(220)는 상기 레이저 센서 모듈(250)로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자의 움직이는 신체 중 특정 부위를 체크하고, 상기 체크한 영상의 프레임 간 차이를 분석하여 상기 특정 부위가 움직인 궤적을 계산할 수 있다. 상기 이미지 프로세서(220)는 상기 궤적에 매칭되는 위치에 해당하는 디스플레이 영역에 상기 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.In addition, the image processor 220 checks a specific part of the user's moving body by image processing the motion information of the user obtained from the laser sensor module 250, and analyzes the difference between the frames of the checked image. A trajectory of the movement of the specific part may be calculated. The image processor 220 may produce and display the scene of the mutual event effect in a display area corresponding to a position matching the trajectory.

또한, 상기 이미지 프로세서(220)는 상기 상호 이벤트 효과 장면을 제공하는 서버의 주소 링크를 상기 사용자의 SNS를 통해 공유하는 이벤트가 발생한 후 상기 사용자의 SNS가 실행중인 모바일 단말기가 상기 주소 링크를 통해 상기 서버에 접속하여 상기 상호 이벤트 효과 장면에 관한 메뉴를 선택하면, 상기 선택된 메뉴에 해당하는 상호 이벤트 효과 장면을 연출하여 디스플레이할 수도 있다.In addition, after an event of sharing the address link of the server providing the mutual event effect scene through the user's SNS occurs, the image processor 220 allows the mobile terminal in which the user's SNS is running through the address link. When a menu related to the mutual event effect scene is selected by accessing the server, a mutual event effect scene corresponding to the selected menu may be produced and displayed.

한편, 전문가는 물론 일반 사용자가 대량의 문서를 신속하게 전자책 포맷으로 변환할 수 있도록 하는 기술을 제공함으로써 상기 전시용 책(101)의 내용 및 이미지를 사용자(박물관 방문자)와 스마트폰 등의 모바일 단말기로 공유 가능하며, 이를 위해서 전화번호 입력이 필요하다.On the other hand, by providing a technology that allows not only experts but also general users to quickly convert a large amount of documents into an e-book format, the contents and images of the exhibition book 101 can be shared with users (museum visitors) and mobile terminals such as smartphones. You can share it with , and you need to enter your phone number for this.

상기 이미지 프로세서(220)는 카메라에 의해 촬영된 영상의 원본 문서에서 텍스트와 이미지를 분리한 후, 상기 텍스트와 이미지의 크기와 색상을 분석하고, 상기 원본 문서의 분석 결과에 따라 미리 설정된 인터랙티브 효과를 적용하여 상기 원본 문서를 변환할 수 있다. 그리고, 상기 이미지 프로세서(220)는 상기 인터랙티브 효과가 적용된 변환 문서를 출력할 수 있다. 상기 출력된 변환 문서는 상기 전화번호의 입력을 통해 해당 모바일 단말기로 공유될 수 있다.The image processor 220 separates text and image from the original document of the image captured by the camera, analyzes the size and color of the text and image, and generates a preset interactive effect according to the analysis result of the original document. can be applied to transform the original document. In addition, the image processor 220 may output a converted document to which the interactive effect is applied. The output converted document may be shared to a corresponding mobile terminal through input of the phone number.

이때, 상기 이미지 프로세서(220)는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 큰 문자열을 제목으로 간주하고, 상기 제목으로 간주된 문자열 자체에 미리 설정된 인터랙티브 효과를 적용하거나, 상기 원본 문서에 포함된 이미지를 색상 계열별로 분리하고, 상기 원본 문서에 포함된 이미지의 색상 계열별로 이미지 자체에 미리 설정된 인터랙티브 효과를 적용하거나, 또는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 작은 문자열을 주석으로 간주하고, 상기 주석으로 간주된 문자열을 선택할 시, 부가 설명이 팝업으로 출력되도록 인터랙티브 효과를 적용할 수 있다.In this case, the image processor 220 regards a character string having the largest text size as a title within a specific page of the original document, applies a preset interactive effect to the character string regarded as the title, or applies a preset interactive effect to the original document. Separates the included image by color series, applies a preset interactive effect to the image itself for each color series of the image included in the original document, or annotates the character string with the smallest text size within a specific page of the original document , and when a character string regarded as the comment is selected, an interactive effect may be applied so that an additional explanation is output as a pop-up.

한편, 본 발명의 일 실시예에서, 상기 전시용 책(101)의 각 페이지별로 구비된 상기 페이지 식별 기호의 인쇄 영역 위에는 상기 전시용 책(101)의 책 넘김 시 사용자 조작에 의한 상기 페이지 식별 기호의 훼손을 방지하기 위한 방지 코팅층(미도시)이 구비될 수 있다.On the other hand, in an embodiment of the present invention, on the printing area of the page identification symbol provided for each page of the exhibition book 101, the page identification symbol is damaged by a user operation when the exhibition book 101 is turned over. An anti-aging coating layer (not shown) may be provided to prevent .

상기 방지 코팅층은 디펜타에리트리톨 헥사아크릴레이트(DPHA) 100중량부에 대하여, 하이드록시 하이드로 신나메이트 10 ~ 20중량부, 옥타데실 3,5-디-t-부틸-4- 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 7 ~ 15중량부, 히드록시 에틸 히드록시 프로필 셀룰로오즈 15 ~ 35중량부를 포함하는 재질로 형성될 수 있다.The anti-corrosive coating layer is based on 100 parts by weight of dipentaerythritol hexaacrylate (DPHA), 10 to 20 parts by weight of hydroxy hydrocinnamate, octadecyl 3,5-di-t-butyl-4-ethyl 2-[3 It may be formed of a material containing 7 to 15 parts by weight of -(6-nitrobenzol[d]thiazol-2-yl)ureido]acetate and 15 to 35 parts by weight of hydroxyethyl hydroxypropyl cellulose.

이하에서는 상기 페이지 식별 기호의 인쇄 영역 위에 구비된 방지 코팅층에 대해서 구체적으로 설명하기로 한다.Hereinafter, the prevention coating layer provided on the printing area of the page identification symbol will be described in detail.

상기 방지 코팅층의 경도, 투과율, 내열성, 밀착성, 유연성 등을 측정하기 위하여 다음과 같은 실험을 수행하였다.The following experiments were performed to measure the hardness, transmittance, heat resistance, adhesion, flexibility, etc. of the prevention coating layer.

1. 시편의 제조1. Preparation of Specimen

실시예 1Example 1

디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 15g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 10g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 7g을 아세톤을 이용하여 혼합한 후, 사출 성형으로 두께 20미크론의 시편을 제작하고, 아세톤을 휘발하였다.Dipentaerythritol hexaacrylate 100 g, hydroxyethyl hydroxypropyl cellulose 15 g, octadecyl 3,5-di-tbutyl-4-hydroxy hydrocinnamate 10 g, ethyl 2- [3- (6-nitrobenzol [ After mixing 7 g of d]thiazol-2-yl)ureido]acetate using acetone, a specimen having a thickness of 20 microns was prepared by injection molding, and the acetone was volatilized.

실시예 2Example 2

디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 35g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 20g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 15g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.Dipentaerythritol hexaacrylate 100g, hydroxyethyl hydroxypropyl cellulose 35g, octadecyl 3,5-di-tbutyl-4-hydroxy hydrocinnamate 20g, ethyl 2-[3-(6-nitrobenzol[ 15 g of d]thiazol-2-yl)ureido]acetate was mixed with acetone to prepare a specimen in the same manner as in Example 1.

비교예 1Comparative Example 1

디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 40g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 5g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 10g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.100 g of dipentaerythritol hexaacrylate, 40 g of hydroxyethyl hydroxypropyl cellulose, 5 g of octadecyl 3,5-di-tbutyl-4-hydroxyhydrocinnamate, ethyl 2-[3-(6-nitrobenzol[ 10 g of d]thiazol-2-yl)ureido]acetate was mixed with acetone to prepare a specimen in the same manner as in Example 1.

비교예 2Comparative Example 2

디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 10g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 30g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 10g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.100 g of dipentaerythritol hexaacrylate, 10 g of hydroxyethyl hydroxypropyl cellulose, 30 g of octadecyl 3,5-di-tbutyl-4-hydroxyhydrocinnamate, ethyl 2-[3-(6-nitrobenzol[ 10 g of d]thiazol-2-yl)ureido]acetate was mixed with acetone to prepare a specimen in the same manner as in Example 1.

비교예 3Comparative Example 3

디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 25g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 15g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 2g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.100 g of dipentaerythritol hexaacrylate, 25 g of hydroxyethyl hydroxypropyl cellulose, 15 g of octadecyl 3,5-di-tbutyl-4-hydroxyhydrocinnamate, ethyl 2-[3-(6-nitrobenzol[ 2 g of d]thiazol-2-yl)ureido]acetate was mixed with acetone to prepare a specimen in the same manner as in Example 1.

비교예 4Comparative Example 4

디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 20g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 10g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 20g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.100 g of dipentaerythritol hexaacrylate, 20 g of hydroxyethyl hydroxypropyl cellulose, 10 g of octadecyl 3,5-di-tbutyl-4-hydroxy hydrocinnamate, ethyl 2-[3-(6-nitrobenzol[ 20 g of d]thiazol-2-yl)ureido]acetate was mixed with acetone to prepare a specimen in the same manner as in Example 1.

상기 실시예 1 ~ 2, 비교예 1 ~ 4에서 제시된 조성을 표 1에 정리하였으며, 단위는 그램(g)이다.The compositions presented in Examples 1 to 2 and Comparative Examples 1 to 4 are summarized in Table 1, and the unit is gram (g).

[표 1][Table 1]

Figure pat00001
Figure pat00001

2. 경도 측정 및 평가 방법2. Hardness measurement and evaluation method

상기 실시예 1 ~ 2, 비교예 1 ~ 4에서 제조된 시편에 대해 하기 항목을 평가하였다.The following items were evaluated for the specimens prepared in Examples 1 to 2 and Comparative Examples 1 to 4.

1) 연필경도는 ASTM D3502(연필경도기 테스터기)로 측정하였다.1) Pencil hardness was measured by ASTM D3502 (pencil hardness tester).

2) 투과율은 UV-vis 스펙트럼(DARSA PRO-5000 SYSTEM)으로 측정하였다.2) Transmittance was measured by UV-vis spectrum (DARSA PRO-5000 SYSTEM).

3) 내열성은 90℃에서 4시간 동안 방치 후 외관의 크랙 및 휨의 발생을 측정하였다.3) For heat resistance, cracks and warpage of the exterior were measured after standing at 90° C. for 4 hours.

4) 밀착성은 시편에 2mm 간격으로 선을 그어 바둑눈을 만든 후 TAPE 접착 후 수직방향으로 강하게 1회 당겨서 박리 현상이 있는지 여부를 평가하였다.4) Adhesion was evaluated whether there was a peeling phenomenon by drawing a line on the specimen at intervals of 2 mm to make a grid, then pulling strongly once in the vertical direction after attaching the TAPE.

5) 유연성은 코팅 뒤 12시간 경과 후 180° 굽힘으로 크랙 유무를 판정하였다.5) For flexibility, the presence or absence of cracks was determined by bending 180° after 12 hours of coating.

3. 결과 및 분석3. Results and Analysis

평가 결과는 표 2에 나타냈다.The evaluation results are shown in Table 2.

[표 2][Table 2]

Figure pat00002
Figure pat00002

상기 표 2의 결과에서 볼 수 있는 바와 같이, 실시예 1, 2의 경우 연필경도, 투과율, 내열성, 밀착성, 유연성 모두에서 우수한 특성을 가지는 것을 알 수 있는 반면, 비교예 1 ~ 4의 경우 우수한 투과율과 밀착성을 가지지만 연필경도, 내열성 및 유연성에 있어서 불량한 특성을 가지는 것을 알 수 있다.As can be seen from the results of Table 2, Examples 1 and 2 have excellent properties in all of pencil hardness, transmittance, heat resistance, adhesion, and flexibility, whereas Comparative Examples 1 to 4 have excellent transmittance It can be seen that although it has high adhesion, it has poor characteristics in pencil hardness, heat resistance and flexibility.

이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

도 10은 본 발명의 일 실시예에 따른 인터렉티브 전시 영상 구현 시스템을 이용한 실감형 전시 영상 구현 방법을 설명하기 위해 도시한 흐름도이다.10 is a flowchart illustrating a method for realizing an immersive exhibition image using an interactive exhibition image realizing system according to an embodiment of the present invention.

여기서 설명하는 방법은 본 발명의 하나의 실시예에 불과하며, 그 이외에 필요에 따라 다양한 단계들이 아래와 같이 부가될 수 있고, 하기의 단계들도 순서를 변경하여 실시될 수 있으므로, 본 발명이 하기에 설명하는 각 단계 및 그 순서에 한정되는 것은 아니다.The method described here is only one embodiment of the present invention, and in addition, various steps may be added as follows if necessary, and since the following steps may also be performed by changing the order, the present invention is described below It is not limited to each step described and the order thereof.

도 1, 도 2 및 도 10을 참조하면, 단계(1010)에서 상기 인터렉티브 전시 영상 구현 시스템(100)의 카메라 모듈(210)은 전시용 책(101)의 각 페이지별로 인쇄된 페이지 식별 기호를 획득할 수 있다.1, 2 and 10, in step 1010, the camera module 210 of the interactive exhibition image realizing system 100 obtains a page identification symbol printed for each page of the exhibition book 101. can

다음으로, 단계(1020)에서 상기 인터렉티브 전시 영상 구현 시스템(100)의 이미지 프로세서(220)는 상기 카메라 모듈(210)에 의해 획득된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출할 수 있다.Next, in step 1020 , the image processor 220 of the interactive exhibition image realization system 100 analyzes the page identification symbol obtained by the camera module 210 , and the page identification symbol from the exhibition image database It is possible to extract image data matching the .

다음으로, 단계(1030)에서 상기 인터렉티브 전시 영상 구현 시스템(100)의 빔 프로젝터(230)는 상기 이미지 프로세서(220)에 의해 추출된 영상 데이터를 상기 전시 공간(S) 내 디스플레이 영역(102)에 출력할 수 있다.Next, in step 1030 , the beam projector 230 of the interactive exhibition image realization system 100 transfers the image data extracted by the image processor 220 to the display area 102 in the exhibition space S. can be printed out.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CDROMs and DVDs, and magneto-optical disks such as floppy disks. hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

100: 인터렉티브 전시 영상 구현 시스템
101: 전시용 책
102: 디스플레이 영역
210: 카메라 모듈
211: 적외선 카메라
212: 적외선 투광기
220: 이미지 프로세서
230: 빔 프로젝터
240: 제어부
250: 레이저 센서 모듈
100: Interactive exhibition image realization system
101: exhibition book
102: display area
210: camera module
211: infrared camera
212: infrared emitter
220: image processor
230: beam projector
240: control unit
250: laser sensor module

Claims (5)

전시 공간의 바닥면이나 벽면에 설치되고, 사용자의 모션을 감지하여 특수 효과 장면을 연출하기 위한 레이저 센서 모듈; 및
상기 레이저 센서 모듈로부터 획득한 상기 사용자의 모션 정보를 영상 처리하는 이미지 프로세서;를 포함하고,
상기 레이저 센서 모듈은 상기 전시 공간 내 적어도 2 지점에서의 인체 감지 및 동작 감지의 이벤트가 발생된 경우, 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 디스플레이하고,
상기 이미지 프로세서는 상기 레이저 센서 모듈로부터 획득한 상기 사용자의 모션 정보를 영상 처리하여 상기 사용자가 X축을 중심으로 위치 이동한 제1 변위값, 상기 사용자가 Y축을 중심으로 위치 이동한 제2 변위값, 및 상기 사용자가 Z축을 중심으로 위치 이동한 제3 변위값을 포함하는 변위 정보를 추출하고, 상기 추출된 변위 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 전시 공간 내 적어도 2 지점의 위치 정보를 획득하며,
상기 모션 기준 정보는 인체의 팔의 길이, 폭 및 방향에 대한 추적을 통하여 인체의 손에 의해 가상으로 연장 형성되는 3차원 형상인 구의 중심 및 반경에 대한 정보를 포함하는 것을 특징으로 하는 인터렉티브 전시 영상 구현 시스템.
a laser sensor module installed on the floor or wall of the exhibition space to detect a user's motion to produce a special effect scene; and
Including; an image processor for image processing the motion information of the user obtained from the laser sensor module;
The laser sensor module produces and displays a scene with a mutual event effect between the at least two points when an event of human body detection and motion detection occurs at at least two points in the exhibition space,
The image processor image-processes the motion information of the user obtained from the laser sensor module, a first displacement value in which the user moves around the X-axis, a second displacement value in which the user moves around the Y-axis, and extracting displacement information including a third displacement value moved by the user about the Z-axis, and comparing the extracted displacement information with preset motion reference information to obtain location information of at least two points in the exhibition space and
The motion reference information includes information on the center and radius of a sphere, which is a three-dimensional shape that is virtually extended by the hand of the human body through tracking the length, width, and direction of the arm of the human body. implementation system.
제1항에 있어서,
상기 이미지 프로세서는
상기 레이저 센서 모듈로부터 획득한 상기 사용자의 모션 정보를 영상 처리하여 상기 사용자의 움직이는 신체 중 특정 부위를 체크하고, 상기 체크한 영상의 프레임 간 차이를 분석하여 상기 특정 부위가 움직인 궤적을 계산하며, 상기 궤적에 매칭되는 위치에 해당하는 디스플레이 영역에 상기 상호 이벤트 효과 장면을 연출하여 디스플레이하는 것을 특징으로 하는 인터렉티브 전시 영상 구현 시스템.
According to claim 1,
The image processor
The user's motion information obtained from the laser sensor module is image-processed to check a specific part of the user's moving body, and the difference between frames of the checked image is analyzed to calculate the movement trajectory of the specific part, The interactive exhibition image realization system, characterized in that the interactive event effect scene is produced and displayed in a display area corresponding to a position matching the trajectory.
제2항에 있어서,
상기 이미지 프로세서는
상기 상호 이벤트 효과 장면을 제공하는 서버의 주소 링크를 상기 사용자의 SNS를 통해 공유하는 이벤트가 발생한 후 상기 사용자의 SNS가 실행중인 모바일 단말기가 상기 주소 링크를 통해 상기 서버에 접속하여 상기 상호 이벤트 효과 장면에 관한 메뉴를 선택하면, 상기 선택된 메뉴에 해당하는 상호 이벤트 효과 장면을 연출하여 디스플레이하는 것을 특징으로 하는 인터렉티브 전시 영상 구현 시스템.
3. The method of claim 2,
The image processor
After an event of sharing the address link of the server providing the mutual event effect scene through the user's SNS occurs, the mobile terminal running the user's SNS accesses the server through the address link, and the mutual event effect scene An interactive exhibition image realization system, characterized in that when a menu is selected, a scene of a mutual event effect corresponding to the selected menu is produced and displayed.
제1항 내지 제3항 중 어느 한 항에 있어서,
전시용 책이 배치된 상기 전시 공간 위에 설치되고, 상기 전시용 책의 각 페이지별로 인쇄된 페이지 식별 기호를 획득하는 카메라 모듈; 및
상기 이미지 프로세서에 의해 추출된 영상 데이터를 상기 전시 공간 내 디스플레이 영역에 출력하는 빔 프로젝터;를 더 포함하고,
상기 이미지 프로세서는 상기 카메라 모듈에 의해 획득된 페이지 식별 기호를 영상 분석하여 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하며,
상기 이미지 프로세서는 상기 카메라 모듈에 의해 현재 획득된 페이지 식별 기호를 이전에 획득된 페이지 식별 기호와 주기적으로 비교하여 상기 비교의 결과 일치하지 않을 경우 상기 사용자에 의한 상기 전시용 책의 책 넘김으로 인식하여 상기 영상 데이터의 출력 시 장면 전환 효과를 적용하고,
상기 이미지 프로세서는 상기 카메라 모듈에 의해 촬영된 영상의 원본 문서에서 텍스트와 이미지를 분리한 후, 상기 텍스트와 이미지의 크기와 색상을 분석하고, 상기 원본 문서의 분석 결과에 따라, 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 큰 문자열을 제목으로 간주하고, 상기 제목으로 간주된 문자열 자체에 미리 설정된 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하거나, 상기 원본 문서에 포함된 이미지를 색상 계열별로 분리하고, 상기 원본 문서에 포함된 이미지의 색상 계열별로 이미지 자체에 상기 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하거나, 또는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 작은 문자열을 주석으로 간주하고, 상기 주석으로 간주된 문자열을 선택할 시, 부가 설명이 팝업으로 출력되도록 상기 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하고, 상기 인터랙티브 효과가 적용된 변환 문서를 출력하고, 상기 변환 문서는 전화번호가 입력된 상기 사용자의 모바일 단말기로 공유되는 것을 특징으로 하는 인터렉티브 전시 영상 구현 시스템.
4. The method according to any one of claims 1 to 3,
a camera module installed on the exhibition space in which the exhibition book is arranged, and configured to obtain a page identification symbol printed on each page of the exhibition book; and
A beam projector for outputting the image data extracted by the image processor to a display area in the exhibition space; further comprising,
The image processor extracts image data matching the page identification symbol from the exhibition image database by analyzing the image of the page identification symbol obtained by the camera module,
The image processor periodically compares the page identification symbol currently acquired by the camera module with the previously acquired page identification symbol, and if the result of the comparison does not match, recognizes that the display is turned over by the user and the When outputting video data, a scene transition effect is applied,
The image processor separates text and an image from the original document of the image captured by the camera module, analyzes the size and color of the text and image, and according to the analysis result of the original document, In a page, a character string with the largest text size is regarded as a title, and the original document is converted by applying a preset interactive effect to the character string itself considered as the title, or images included in the original document are separated by color series and converts the original document by applying the interactive effect to the image itself for each color series of the image included in the original document, or considers a string with the smallest text size within a specific page of the original document as a comment, , converts the original document by applying the interactive effect so that an additional description is output as a pop-up when selecting a character string considered as the annotation, and outputs a converted document to which the interactive effect is applied, wherein the converted document contains a phone number Interactive exhibition image realization system, characterized in that it is shared to the mobile terminal of the user.
제4항에 있어서,
상기 카메라 모듈은 적외선 카메라를 포함하고,
상기 페이지 식별 기호는 사용자의 육안으로는 보이지 않는 적외선 잉크를 사용하여 상기 전시용 책에 인쇄되며,
상기 카메라 모듈은 상기 전시용 책의 페이지를 향해 적외선을 조사하는 적외선 투광기(IR Illuminator)를 더 포함하고,
상기 적외선 카메라는 상기 적외선 투광기에 의해 조사된 적외선과 반응하는 상기 적외선 잉크로부터 상기 페이지 식별 기호를 획득하며,
상기 전시 영상 데이터베이스는 상기 전시용 책의 각 페이지 내용에 맞게 사전 제작된 상기 영상 데이터를 상기 페이지 식별 기호와 매칭하여 매칭 테이블에 기록하고,
상기 이미지 프로세서는 상기 매칭 테이블을 참조하여 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하는 것을 특징으로 하는 인터렉티브 전시 영상 구현 시스템.
5. The method of claim 4,
The camera module includes an infrared camera,
The page identification symbol is printed on the display book using infrared ink that is invisible to the user's naked eye,
The camera module further comprises an infrared illuminator (IR Illuminator) for irradiating infrared rays toward the page of the book for exhibition,
The infrared camera obtains the page identification symbol from the infrared ink reacting with the infrared ray irradiated by the infrared projector,
The exhibition image database records the image data prepared in advance according to the contents of each page of the exhibition book with the page identification symbol and records it in a matching table,
and the image processor extracts image data matching the page identification symbol by referring to the matching table.
KR1020210070982A 2020-09-16 2021-06-01 Interactive exhibition image realization system using laser senor KR102412992B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210070982A KR102412992B1 (en) 2020-09-16 2021-06-01 Interactive exhibition image realization system using laser senor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200119243A KR102262288B1 (en) 2020-09-16 2020-09-16 Realistic exhibition image realization system
KR1020210070982A KR102412992B1 (en) 2020-09-16 2021-06-01 Interactive exhibition image realization system using laser senor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200119243A Division KR102262288B1 (en) 2020-09-16 2020-09-16 Realistic exhibition image realization system

Publications (2)

Publication Number Publication Date
KR20220036842A true KR20220036842A (en) 2022-03-23
KR102412992B1 KR102412992B1 (en) 2022-06-24

Family

ID=76399040

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200119243A KR102262288B1 (en) 2020-09-16 2020-09-16 Realistic exhibition image realization system
KR1020210070982A KR102412992B1 (en) 2020-09-16 2021-06-01 Interactive exhibition image realization system using laser senor

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200119243A KR102262288B1 (en) 2020-09-16 2020-09-16 Realistic exhibition image realization system

Country Status (1)

Country Link
KR (2) KR102262288B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024122852A1 (en) * 2022-12-05 2024-06-13 삼성전자주식회사 Electronic device and method for generating visual object corresponding to motion of external object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142090A (en) * 2016-06-16 2017-12-27 주식회사 에이치투앤컴퍼니 Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof
KR20190061783A (en) * 2017-11-28 2019-06-05 김무아 Method and program for generating virtual reality contents
KR20190069174A (en) * 2017-12-11 2019-06-19 서울여자대학교 산학협력단 Apparatus for providing contents based on projection
KR20200068278A (en) * 2018-12-05 2020-06-15 이영조 Smart glasses system for the visually impaired to prevent crime damage

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102013622B1 (en) * 2018-02-12 2019-08-26 박상현 Apparatus and system for projection mapping

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142090A (en) * 2016-06-16 2017-12-27 주식회사 에이치투앤컴퍼니 Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof
KR20190061783A (en) * 2017-11-28 2019-06-05 김무아 Method and program for generating virtual reality contents
KR20190069174A (en) * 2017-12-11 2019-06-19 서울여자대학교 산학협력단 Apparatus for providing contents based on projection
KR20200068278A (en) * 2018-12-05 2020-06-15 이영조 Smart glasses system for the visually impaired to prevent crime damage

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024122852A1 (en) * 2022-12-05 2024-06-13 삼성전자주식회사 Electronic device and method for generating visual object corresponding to motion of external object

Also Published As

Publication number Publication date
KR102262288B1 (en) 2021-06-08
KR102412992B1 (en) 2022-06-24

Similar Documents

Publication Publication Date Title
US20200310532A1 (en) Systems, apparatuses, and methods for gesture recognition and interaction
US9160993B1 (en) Using projection for visual recognition
US11145135B1 (en) Augmented reality interaction and contextual menu system
CN107430437A (en) The system and method that real crawl experience is created in virtual reality/augmented reality environment
JP2001282456A (en) Man-machine interface system
WO2018142756A1 (en) Information processing device and information processing method
US11709593B2 (en) Electronic apparatus for providing a virtual keyboard and controlling method thereof
CN113934297B (en) Interaction method and device based on augmented reality, electronic equipment and medium
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
US20210118232A1 (en) Method and System for Translating Air Writing To An Augmented Reality Device
KR102412992B1 (en) Interactive exhibition image realization system using laser senor
US11277658B1 (en) Integrating overlaid digital content into displayed data via graphics processing circuitry
Choi et al. Arclassnote: Augmented reality based remote education solution with tag recognition and shared hand-written note
US20230388109A1 (en) Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry
CN109461203B (en) Gesture three-dimensional image generation method and device, computer equipment and storage medium
Lo et al. Augmediated reality system based on 3D camera selfgesture sensing
US20230196036A1 (en) Integrating overlaid textual digital content into displayed data via graphics processing circuitry using a frame buffer
Sundaram et al. An augmented reality application with leap and android
US20240061496A1 (en) Implementing contactless interactions with displayed digital content
US20230048284A1 (en) Integrating digital content into displayed data on an application layer via processing circuitry of a server
US20200226833A1 (en) A method and system for providing a user interface for a 3d environment
CN109857244A (en) A kind of gesture identification method, device, terminal device, storage medium and VR glasses
US10922043B2 (en) Information processing device and information processing method for acquiring information associated with a target
US20240185546A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant