KR102262288B1 - 실감형 전시 영상 구현 시스템 - Google Patents

실감형 전시 영상 구현 시스템 Download PDF

Info

Publication number
KR102262288B1
KR102262288B1 KR1020200119243A KR20200119243A KR102262288B1 KR 102262288 B1 KR102262288 B1 KR 102262288B1 KR 1020200119243 A KR1020200119243 A KR 1020200119243A KR 20200119243 A KR20200119243 A KR 20200119243A KR 102262288 B1 KR102262288 B1 KR 102262288B1
Authority
KR
South Korea
Prior art keywords
image
exhibition
page
identification symbol
user
Prior art date
Application number
KR1020200119243A
Other languages
English (en)
Inventor
최림
김준홍
Original Assignee
주식회사 다베로아트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다베로아트 filed Critical 주식회사 다베로아트
Priority to KR1020200119243A priority Critical patent/KR102262288B1/ko
Priority to KR1020210070982A priority patent/KR102412992B1/ko
Application granted granted Critical
Publication of KR102262288B1 publication Critical patent/KR102262288B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템은 전시용 책이 배치된 전시 공간 위에 설치되고, 상기 전시용 책의 각 페이지별로 인쇄된 페이지 식별 기호를 획득하는 카메라 모듈; 상기 카메라 모듈에 의해 획득된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하는 이미지 프로세서; 및 상기 이미지 프로세서에 의해 추출된 영상 데이터를 상기 전시 공간 내 디스플레이 영역에 출력하는 빔 프로젝터를 포함한다.

Description

실감형 전시 영상 구현 시스템{REALISTIC EXHIBITION IMAGE REALIZATION SYSTEM}
본 발명의 실시예들은 관람객(사용자)이 전시용 책을 넘기게 되면 적외선 카메라를 통해 전시용 책의 각 페이지를 인식하여 해당 페이지에 담겨 있는 내용과 관련된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력할 수 있는 실감형 전시 영상 구현 시스템에 관한 것이다.
컴퓨터 기술의 발달로 전시관은 온라인이라는 형태로 발달되고 있으며, 단순 전시관에서 이제는 인터렉티브를 지양하는 전시관으로 발달하고 있다. 즉 시공간 개념을 넘어 전시관에 존재하는 관람자가 영상 속의 캐릭터와 대화를 하면서 관람자의 요구에 따라 캐릭터가 말을 하거나, 행동하는 것처럼 인식되기를 원하게 되었기 때문이다.
이와 같은 인터렉티브 전시관에 대한 니즈는 인터렉티브 전시관이 기존의 다른 전시관과는 달리 상호 이야기를 통하여 상황 변화를 해야 하고, 이미 짜여진 각본에 따라 진행되지 않도록 함으로써, 인터렉티브 전시관과 관람자의 상호 작용성을 통해 전시관 관람자를 수동적인 감상의 주체자로서가 아니라 능동적인 행위의 주체이자 창조의 주체로 만들어 주기 때문이다.
따라서, 인터렉티브 전시관을 위한 상호 작용의 특징은 첫째, 틀에 박힌 전시관의 관람 형태의 변화에서 비롯되었고, 둘째로 인터렉티브가 그 자체로 순수한 전시 공간에서 행해지며, 그것은 실제 환경과 단절된 상황에서 진행되어 경계의 설정이 이루어지며, 영상 속의 화면에 나오는 캐릭터 등을 통하여 알 수 있는 데 있다.
그러나, 기존의 인터렉티브 전시관은 상호 작용성이 부족한데 즉 실제의 세계에서 실행되며, 사용자의 의도보다 기획된 전시 프로그램에 의해서 진행되기 때문이다. 한편, 최근에는 전시관에서 상호 작용성을 높이기 위한 시도가 있기는 하지만 컴퓨터 프로그램에 의해 운영되는 것으로, 컴퓨터 프로그램의 한계를 벗어날 수 없으며, 전시관의 관람자와 직접 부딪히는 인간적 결합이 불가능하다. 즉 관람자는 단순히 컴퓨터와 상대하며 그 결과도 프로그램 된 것에 의해 결정되기 때문이다.
이와 같은 문제점에도 불구하고 기존의 인터렉티브 전시관이 운영되는 이유는 학습 효과를 위해 단순 방문을 하거나, 컴퓨터 프로그램 내에서만 관람자와 상호 작용을 할 뿐이더라도 자유로운 인터렉티브 전시관 환경을 대처할 만한 대안이 없기 때문이다.
이와 같은 현실에서 정서적으로 안정되고 휴식을 즐기면서 교육적 가치를 지닌 인터렉티브 전시관 솔루션의 개발은 매우 중요하다. 즉, 인터렉티브 전시관은 새로운 전시관의 일부로 자리 잡고 있으며 경제적으로도 그 가치가 매우 커졌기 때문이다. 따라서, 상호 작용성이 있는 인터렉티브 전시관을 구현할 수 있는 새로운 시스템의 개발이 필요하다.
관련 선행기술로는 대한민국 공개특허공보 제10-2011-0006976호(발명의 명칭: 전시관용 인터렉티브제어시스템, 공개일자: 2011.01.21.)가 있다.
본 발명의 일 실시예는 관람객(사용자)이 쇄미록 등의 전시용 책을 넘기게 되면 적외선 카메라를 통해 전시용 책의 각 페이지를 인식하여 해당 페이지에 담겨 있는 내용과 관련된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력함으로써 실감형 영상 콘텐츠를 제작할 수 있는 실감형 전시 영상 구현 시스템을 제공한다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템은 전시용 책이 배치된 전시 공간 위에 설치되고, 상기 전시용 책의 각 페이지별로 인쇄된 페이지 식별 기호를 획득하는 카메라 모듈; 상기 카메라 모듈에 의해 획득된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하는 이미지 프로세서; 및 상기 이미지 프로세서에 의해 추출된 영상 데이터를 상기 전시 공간 내 디스플레이 영역에 출력하는 빔 프로젝터를 포함한다.
상기 카메라 모듈은 적외선 카메라를 포함하고, 상기 페이지 식별 기호는 사용자의 육안으로는 보이지 않는 적외선 잉크를 사용하여 상기 전시용 책에 인쇄될 수 있다.
상기 카메라 모듈은 상기 전시용 책의 페이지를 향해 적외선을 조사하는 적외선 투광기(IR Illuminator)를 더 포함하고, 상기 적외선 카메라는 상기 적외선 투광기에 의해 조사된 적외선과 반응하는 상기 적외선 잉크로부터 상기 페이지 식별 기호를 획득할 수 있다.
상기 빔 프로젝터는 상기 전시용 책의 페이지 영역에 소정의 영상을 출력할 수 있다.
상기 전시 영상 데이터베이스는 상기 전시용 책의 각 페이지 내용에 맞게 사전 제작된 상기 영상 데이터를 상기 페이지 식별 기호와 매칭하여 매칭 테이블에 기록하고, 상기 이미지 프로세서는 상기 매칭 테이블을 참조하여 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출할 수 있다.
상기 이미지 프로세서는 상기 카메라 모듈에 의해 현재 획득된 페이지 식별 기호를 이전에 획득된 페이지 식별 기호와 주기적으로 비교하고, 상기 비교의 결과 일치하지 않을 경우 사용자에 의한 상기 전시용 책의 책 넘김으로 인식하여 상기 영상 데이터의 출력 시 장면 전환 효과를 적용할 수 있다.
상기 이미지 프로세서는 상기 전시 공간 내에 설치된 인체 감지 센서 및 동작 감지 센서 중 적어도 하나를 통해, 상기 전시용 책의 위치를 기준으로 일정 거리의 범위 내에서 인체 감지 및 동작 감지 중 적어도 하나의 이벤트가 발생된 경우, 사용자에 의한 상기 전시용 책의 책 넘김으로 인식할 수 있다.
본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템은 상기 전시 공간의 바닥면이나 벽면에 설치되고, 상기 디스플레이 영역에 출력되는 영상과 연계하여 특수 효과 장면을 연출하기 위한 레이저 센서 모듈을 더 포함할 수 있다.
상기 레이저 센서 모듈은 상기 전시 공간 내에 설치된 인체 감지 센서 및 동작 감지 센서 중 적어도 하나를 통해, 상기 전시 공간 내 적어도 2 지점에서의 인체 감지 및 동작 감지 중 적어도 하나의 이벤트가 발생된 경우, 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.
상기 이미지 프로세서는 상기 레이저 센서 모듈로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자가 X축을 중심으로 위치 이동한 제1 변위값, 상기 사용자가 Y축을 중심으로 위치 이동한 제2 변위값, 및 상기 사용자가 Z축을 중심으로 위치 이동한 제3 변위값을 포함하는 변위 정보를 추출하고, 상기 추출된 변위 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 전시 공간 내 적어도 2 지점의 위치 정보를 획득할 수 있다.
상기 이미지 프로세서는 상기 레이저 센서 모듈로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자의 움직이는 신체 중 특정 부위를 체크하고, 상기 체크한 영상의 프레임 간 차이를 분석하여 상기 특정 부위가 움직인 궤적을 계산하며, 상기 궤적에 매칭되는 위치에 해당하는 디스플레이 영역에 상기 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.
상기 이미지 프로세서는 상기 상호 이벤트 효과 장면을 제공하는 서버의 주소 링크를 상기 사용자의 SNS를 통해 공유하는 이벤트가 발생한 후 상기 사용자의 SNS가 실행중인 모바일 단말기가 상기 주소 링크를 통해 상기 서버에 접속하여 상기 상호 이벤트 효과 장면에 관한 메뉴를 선택하면, 상기 선택된 메뉴에 해당하는 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.
상기 페이지 식별 기호의 인쇄 영역 위에는 상기 전시용 책의 책 넘김 시 사용자 조작에 의한 상기 페이지 식별 기호의 훼손을 방지하기 위한 방지 코팅층이 구비되고, 상기 방지 코팅층은 디펜타에리트리톨 헥사아크릴레이트(DPHA) 100중량부에 대하여, 하이드록시 하이드로 신나메이트 10 ~ 20중량부, 옥타데실 3,5-디-t-부틸-4- 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 7 ~ 15중량부, 히드록시 에틸 히드록시 프로필 셀룰로오즈 15 ~ 35중량부를 포함하는 재질로 형성될 수 있다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.
본 발명의 일 실시예에 따르면, 관람객(사용자)이 쇄미록 등의 전시용 책을 넘기게 되면 적외선 카메라를 통해 전시용 책의 각 페이지를 인식하여 해당 페이지에 담겨 있는 내용과 관련된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력함으로써 실감형 영상 콘텐츠를 제작할 수 있다.
본 발명의 일 실시예에 따르면, 레이저 센서 모듈을 통해 사용자 간 상호 이벤트 효과 장면을 생성하여 제공함으로써 사용자에게 전시 영상과 관련된 체험 기회를 부여할 수 있으며, 이를 통해 사용자의 흥미를 유발할 수 있다.
도 1은 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템을 설명하기 위해 도시한 개념도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템을 설명하기 위해 도시한 블록도이다.
도 4 내지 도 8은 본 발명의 일 실시예에 따라 이미지 프로세서에 의해 추출된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력하는 일례를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템의 추가 구성요소인 레이저 센서 모듈의 설치 위치 및 기능을 설명하기 위해 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템을 이용한 실감형 전시 영상 구현 방법을 설명하기 위해 도시한 흐름도이다.
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.
또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 기 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능 구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능 구성을 위주로 설명한다. 만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능 구성 중에서 종래에 기 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성 요소와 본 발명을 위해 추가된 구성 요소 사이의 관계도 명백하게 이해할 수 있을 것이다.
또한, 이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템을 설명하기 위해 도시한 개념도이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템을 설명하기 위해 도시한 블록도이다.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템(100)은 카메라 모듈(210), 이미지 프로세서(220), 빔 프로젝터(230), 및 제어부(240)를 포함하여 구성될 수 있다.
상기 카메라 모듈(210)은 상기 전시용 책(101)이 배치된 전시 공간(s) 위에 설치될 수 있다. 여기서, 상기 전시용 책(101)은 테이블 위에 놓인 상태로 구비될 수 있다.
상기 카메라 모듈(210)은 상기 전시용 책(101)의 각 페이지별로 인쇄된 페이지 식별 기호를 획득할 수 있다. 즉, 상기 카메라 모듈(210)은 상기 전시용 책(101)에 적외선 에너지를 방사한 후 반사되는 적외선 에너지를 감지함으로써 상기 페이지 식별 기호를 획득할 수 있다. 여기서, 상기 페이지 식별 기호는 점 패턴, 숫자 중 적어도 하나를 포함할 수 있으며, 사용자의 육안으로는 보이지 않는 적외선 잉크를 사용하여 상기 전시용 책(101)에 인쇄될 수 있다.
이를 위해, 상기 카메라 모듈(210)은 적외선 카메라(211) 및 적외선 투광기(IR Illuminator)(212)를 포함할 수 있다. 상기 적외선 투광기(212)는 상기 전시용 책(101)의 페이지를 향해 적외선을 조사하고, 상기 적외선 카메라(211)는 상기 적외선 투광기(212)에 의해 조사된 적외선과 반응하는 상기 적외선 잉크로부터 상기 페이지 식별 기호를 획득할 수 있다.
상기 이미지 프로세서(220)는 상기 적외선 카메라(210)에 의해 인식된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스(미도시)로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출할 수 있다.
여기서, 상기 전시 영상 데이터베이스는 상기 전시용 책(101)의 각 페이지 내용에 맞게 사전 제작된 영상 데이터를 상기 페이지 식별 기호와 매칭하여 매칭 테이블에 기록하여 저장하는 데이터 저장소로서 기능할 수 있다.
이에 따라, 상기 이미지 프로세서(220)는 상기 전시 영상 데이터베이스에 의해 기록된 상기 매칭 테이블을 참조하여, 상기 페이지 식별 기호에 매칭되는 영상 데이터를 상기 전시 영상 데이터베이스로부터 추출할 수 있다.
다시 말해, 상기 이미지 프로세서(220)는 상기 카메라 모듈(210)에 의해 상기 전시용 책(101)에 인쇄된 페이지 식별 기호가 획득되면, 상기 획득된 페이지 식별 기호를 상기 매칭 테이블에서 검색할 수 있다.
상기 이미지 프로세서(220)는 상기 검색된 페이지 인식 기호에 매칭되어 기록된 해당 영상 데이터의 참조 정보를 탐색할 수 있다. 상기 이미지 프로세서(220)는 상기 탐색된 참조 정보를 이용하여 상기 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 상기 전시 영상 데이터베이스로부터 추출할 수 있다.
상기 이미지 프로세서(220)는 상기 카메라 모듈(210)에 의해 현재 획득된 페이지 식별 기호(제1 페이지 식별 기호)를 이전에 획득된 페이지 식별 기호(제2 페이지 식별 기호)와 주기적으로 비교할 수 있다.
상기 이미지 프로세서(220)는 상기 제1 및 제2 페이지 식별 기호의 비교 결과에 따라 상기 영상 데이터의 출력 시 장면 전환 효과를 적용할 수 있다. 즉, 상기 이미지 프로세서(220)는 상기 제1 페이지 식별 기호와 상기 제2 페이지 식별 기호가 일치하지 않을 경우, 사용자에 의한 상기 전시용 책(101)의 책 넘김으로 인식하여 상기 영상 데이터의 출력 시 장면 전환 효과를 적용할 수 있다.
여기서, 상기 장면 전환 효과는 한 화면이 사라짐과 동시에 다른 화면이 점차로 나타나는 장면 전환 기법으로서, 앞 화면의 밀도가 점점 감소하는 것과 동시에 뒤 화면의 밀도가 높아져서 장면이 전환되는 기법인 디졸브(dissolve)로 구현될 수 있다.
다만, 상기 장면 전환 효과는 이에 한정되지 않고, 한 화면을 밀어내면서 다른 화면이 나타나는 전환 기법인 와이프(wipe)나, 영상이 천천히 어두워져 암전(black)이 되거나 암전 상태에서 천천히 밝아져 영상이 나타나게 하는 장면 전환 기법인 페이드(fade), 또는 장면과 장면을 바로 이어 붙이는 기법인 컷(cut) 등 다른 다양한 장면 전환 기법으로 구현될 수도 있다.
이때, 상기 이미지 프로세서(220)는 상기 전시 공간(s) 내에 설치된 인체 감지 센서(미도시) 및 동작 감지 센서(미도시) 중 적어도 하나를 통해, 상기 전시용 책(101)의 위치를 기준으로 일정 거리의 범위 내에서 인체 감지 및 동작 감지 중 적어도 하나의 이벤트가 발생된 경우, 사용자에 의한 상기 전시용 책(101)의 책 넘김으로 인식할 수 있다.
상기 빔 프로젝터(230)는 상기 이미지 프로세서(220)에 의해 추출된 영상 데이터를 상기 전시 공간(s) 내 디스플레이 영역(102)에 출력할 수 있다. 여기서, 상기 디스플레이 영역(102)은 상기 전시 공간(s)의 전면부 벽면에 곡면 형태로 구현될 수 있으며, 상기 전시 공간(s)의 전면부 벽면 외에 바닥면 등에도 구현될 수 있다.
예컨대, 상기 빔 프로젝터(230)는 도 4 내지 도 8에 도시된 바와 같이 상기 이미지 프로세서(220)에 의해 추출된 영상 데이터를 상기 전시 공간(s) 내 디스플레이 영역(102)에 출력할 수 있다. 도 4 내지 도 8에 기재된 나레이션 부분은 음성으로만 출력되고 영상에는 출력되지 않는다. 참고로, 도 4 내지 도 8은 본 발명의 일 실시예에 따라 이미지 프로세서에 의해 추출된 영상 데이터를 전시 공간 내 디스플레이 영역에 출력하는 일례를 도시한 도면이다.
상기 빔 프로젝터(230)는 상기 전시용 책(101)의 페이지 영역에도 상기 영상 데이터 혹은 상기 영상 데이터와 연관된 다른 영상 데이터를 출력할 수 있다. 이때, 상기 전시용 책(101)은 왼쪽은 빈 페이지, 오른쪽은 글자가 기재된 페이지로 구성될 수 있으나, 이에 한정되지 않고 다양한 구성이 가능하다.
상기 제어부(240)는 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템(100), 즉 상기 카메라 모듈(210), 상기 이미지 프로세서(220), 상기 빔 프로젝터(230) 등의 동작을 전반적으로 제어할 수 있다.
한편, 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템(100)은 도 9에 도시된 바와 같이 레이저 센서 모듈(250)을 더 포함하여 구성될 수 있다.
상기 레이저 센서 모듈(250)은 상기 전시 공간(s)의 바닥면이나 벽면에 설치되고, 상기 디스플레이 영역(102)에 출력되는 영상 데이터와 연계하여 특수 효과 장면을 연출하기 위한 기능을 수행할 수 있다.
구체적으로, 상기 전시 공간(s) 내에 설치된 인체 감지 센서 및 동작 감지 센서 중 적어도 하나를 통해, 상기 전시 공간(s) 내 적어도 2 지점에서의 인체 감지 및 동작 감지 중 적어도 하나의 이벤트 발생이 감지될 수 있다. 이러한 경우, 상기 레이저 센서 모듈(250)은 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 상기 전시 공간(s)의 바닥면이나 벽면에 출력함으로써 해당 연출 장면을 디스플레이할 수 있다.
예를 들면, 도 9에 도시된 바와 같이 상기 전시 공간(s) 내 3 지점(A, B, C)에서 인체 감지 또는 동작 감지의 이벤트가 발생한 경우, 상기 레이저 센서 모듈(250)은 레이저를 이용하여 A 지점, B 지점, C 지점 간에 상호 이벤트 효과(예: 눈 오는 장면에서 눈 싸임, 강물 장면, 바람에 날리는 장면 등) 장면을 연출하여 디스플레이할 수 있다.
이때, 상기 이미지 프로세서(220)는 상기 레이저 센서 모듈(250)로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자가 X축을 중심으로 위치 이동한 제1 변위값, 상기 사용자가 Y축을 중심으로 위치 이동한 제2 변위값, 및 상기 사용자가 Z축을 중심으로 위치 이동한 제3 변위값을 포함하는 변위 정보를 추출하고, 상기 추출된 변위 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 전시 공간 내 적어도 2 지점의 위치 정보를 획득할 수 있다.
이에 따라, 상기 레이저 센서 모듈(250)은 상기 적어도 2 지점의 위치 정보를 토대로 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 상기 전시 공간(s)의 바닥면이나 벽면에 출력함으로써 해당 연출 장면을 디스플레이할 수 있다. 여기서, 상기 모션 기준 정보는 인체의 팔의 길이, 폭, 방향 등에 대한 추적을 통하여 인체의 손에 의해 가상으로 연장 형성되는 3차원 형상인 구의 중심 및 구의 반경에 대한 정보를 포함할 수 있다.
또한, 상기 이미지 프로세서(220)는 상기 레이저 센서 모듈(250)로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자의 움직이는 신체 중 특정 부위를 체크하고, 상기 체크한 영상의 프레임 간 차이를 분석하여 상기 특정 부위가 움직인 궤적을 계산할 수 있다. 상기 이미지 프로세서(220)는 상기 궤적에 매칭되는 위치에 해당하는 디스플레이 영역에 상기 상호 이벤트 효과 장면을 연출하여 디스플레이할 수 있다.
또한, 상기 이미지 프로세서(220)는 상기 상호 이벤트 효과 장면을 제공하는 서버의 주소 링크를 상기 사용자의 SNS를 통해 공유하는 이벤트가 발생한 후 상기 사용자의 SNS가 실행중인 모바일 단말기가 상기 주소 링크를 통해 상기 서버에 접속하여 상기 상호 이벤트 효과 장면에 관한 메뉴를 선택하면, 상기 선택된 메뉴에 해당하는 상호 이벤트 효과 장면을 연출하여 디스플레이할 수도 있다.
한편, 전문가는 물론 일반 사용자가 대량의 문서를 신속하게 전자책 포맷으로 변환할 수 있도록 하는 기술을 제공함으로써 상기 전시용 책(101)의 내용 및 이미지를 사용자(박물관 방문자)와 스마트폰 등의 모바일 단말기로 공유 가능하며, 이를 위해서 전화번호 입력이 필요하다.
상기 이미지 프로세서(220)는 카메라에 의해 촬영된 영상의 원본 문서에서 텍스트와 이미지를 분리한 후, 상기 텍스트와 이미지의 크기와 색상을 분석하고, 상기 원본 문서의 분석 결과에 따라 미리 설정된 인터랙티브 효과를 적용하여 상기 원본 문서를 변환할 수 있다. 그리고, 상기 이미지 프로세서(220)는 상기 인터랙티브 효과가 적용된 변환 문서를 출력할 수 있다. 상기 출력된 변환 문서는 상기 전화번호의 입력을 통해 해당 모바일 단말기로 공유될 수 있다.
이때, 상기 이미지 프로세서(220)는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 큰 문자열을 제목으로 간주하고, 상기 제목으로 간주된 문자열 자체에 미리 설정된 인터랙티브 효과를 적용하거나, 상기 원본 문서에 포함된 이미지를 색상 계열별로 분리하고, 상기 원본 문서에 포함된 이미지의 색상 계열별로 이미지 자체에 미리 설정된 인터랙티브 효과를 적용하거나, 또는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 작은 문자열을 주석으로 간주하고, 상기 주석으로 간주된 문자열을 선택할 시, 부가 설명이 팝업으로 출력되도록 인터랙티브 효과를 적용할 수 있다.
한편, 본 발명의 일 실시예에서, 상기 전시용 책(101)의 각 페이지별로 구비된 상기 페이지 식별 기호의 인쇄 영역 위에는 상기 전시용 책(101)의 책 넘김 시 사용자 조작에 의한 상기 페이지 식별 기호의 훼손을 방지하기 위한 방지 코팅층(미도시)이 구비될 수 있다.
상기 방지 코팅층은 디펜타에리트리톨 헥사아크릴레이트(DPHA) 100중량부에 대하여, 하이드록시 하이드로 신나메이트 10 ~ 20중량부, 옥타데실 3,5-디-t-부틸-4- 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 7 ~ 15중량부, 히드록시 에틸 히드록시 프로필 셀룰로오즈 15 ~ 35중량부를 포함하는 재질로 형성될 수 있다.
이하에서는 상기 페이지 식별 기호의 인쇄 영역 위에 구비된 방지 코팅층에 대해서 구체적으로 설명하기로 한다.
상기 방지 코팅층의 경도, 투과율, 내열성, 밀착성, 유연성 등을 측정하기 위하여 다음과 같은 실험을 수행하였다.
1. 시편의 제조
실시예 1
디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 15g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 10g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 7g을 아세톤을 이용하여 혼합한 후, 사출 성형으로 두께 20미크론의 시편을 제작하고, 아세톤을 휘발하였다.
실시예 2
디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 35g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 20g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 15g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.
비교예 1
디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 40g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 5g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 10g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.
비교예 2
디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 10g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 30g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 10g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.
비교예 3
디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 25g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 15g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 2g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.
비교예 4
디펜타에리트리톨 헥사아크릴레이트 100g, 히드록시 에틸 히드록시 프로필 셀룰로오즈 20g, 옥타데실 3,5-디-t부틸-4-하이드록시 하이드로 신나메이트 10g, 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 20g을 아세톤으로 혼합하여 실시예 1과 동일한 방법으로 시편을 제작하였다.
상기 실시예 1 ~ 2, 비교예 1 ~ 4에서 제시된 조성을 표 1에 정리하였으며, 단위는 그램(g)이다.
[표 1]
Figure 112020098432282-pat00001
2. 경도 측정 및 평가 방법
상기 실시예 1 ~ 2, 비교예 1 ~ 4에서 제조된 시편에 대해 하기 항목을 평가하였다.
1) 연필경도는 ASTM D3502(연필경도기 테스터기)로 측정하였다.
2) 투과율은 UV-vis 스펙트럼(DARSA PRO-5000 SYSTEM)으로 측정하였다.
3) 내열성은 90℃에서 4시간 동안 방치 후 외관의 크랙 및 휨의 발생을 측정하였다.
4) 밀착성은 시편에 2mm 간격으로 선을 그어 바둑눈을 만든 후 TAPE 접착 후 수직방향으로 강하게 1회 당겨서 박리 현상이 있는지 여부를 평가하였다.
5) 유연성은 코팅 뒤 12시간 경과 후 180° 굽힘으로 크랙 유무를 판정하였다.
3. 결과 및 분석
평가 결과는 표 2에 나타냈다.
[표 2]
Figure 112020098432282-pat00002
상기 표 2의 결과에서 볼 수 있는 바와 같이, 실시예 1, 2의 경우 연필경도, 투과율, 내열성, 밀착성, 유연성 모두에서 우수한 특성을 가지는 것을 알 수 있는 반면, 비교예 1 ~ 4의 경우 우수한 투과율과 밀착성을 가지지만 연필경도, 내열성 및 유연성에 있어서 불량한 특성을 가지는 것을 알 수 있다.
이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
도 10은 본 발명의 일 실시예에 따른 실감형 전시 영상 구현 시스템을 이용한 실감형 전시 영상 구현 방법을 설명하기 위해 도시한 흐름도이다.
여기서 설명하는 방법은 본 발명의 하나의 실시예에 불과하며, 그 이외에 필요에 따라 다양한 단계들이 아래와 같이 부가될 수 있고, 하기의 단계들도 순서를 변경하여 실시될 수 있으므로, 본 발명이 하기에 설명하는 각 단계 및 그 순서에 한정되는 것은 아니다.
도 1, 도 2 및 도 10을 참조하면, 단계(1010)에서 상기 실감형 전시 영상 구현 시스템(100)의 카메라 모듈(210)은 전시용 책(101)의 각 페이지별로 인쇄된 페이지 식별 기호를 획득할 수 있다.
다음으로, 단계(1020)에서 상기 실감형 전시 영상 구현 시스템(100)의 이미지 프로세서(220)는 상기 카메라 모듈(210)에 의해 획득된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출할 수 있다.
다음으로, 단계(1030)에서 상기 실감형 전시 영상 구현 시스템(100)의 빔 프로젝터(230)는 상기 이미지 프로세서(220)에 의해 추출된 영상 데이터를 상기 전시 공간(S) 내 디스플레이 영역(102)에 출력할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
100: 실감형 전시 영상 구현 시스템
101: 전시용 책
102: 디스플레이 영역
210: 카메라 모듈
211: 적외선 카메라
212: 적외선 투광기
220: 이미지 프로세서
230: 빔 프로젝터
240: 제어부
250: 레이저 센서 모듈

Claims (13)

  1. 전시용 책이 배치된 전시 공간 위에 설치되고, 상기 전시용 책의 각 페이지별로 인쇄된 페이지 식별 기호를 획득하는 카메라 모듈;
    상기 카메라 모듈에 의해 획득된 페이지 식별 기호를 영상 분석하여, 전시 영상 데이터베이스로부터 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하는 이미지 프로세서;
    상기 이미지 프로세서에 의해 추출된 영상 데이터를 상기 전시 공간 내 디스플레이 영역에 출력하는 빔 프로젝터; 및
    상기 전시 공간의 바닥면이나 벽면에 설치되고, 상기 디스플레이 영역에 출력되는 영상과 연계하여 특수 효과 장면을 연출하기 위한 레이저 센서 모듈을 포함하고,
    상기 이미지 프로세서는 상기 카메라 모듈에 의해 현재 획득된 페이지 식별 기호를 이전에 획득된 페이지 식별 기호와 주기적으로 비교하고, 상기 비교의 결과 일치하지 않을 경우 사용자에 의한 상기 전시용 책의 책 넘김으로 인식하여 상기 영상 데이터의 출력 시 장면 전환 효과를 적용하며,
    상기 레이저 센서 모듈은 상기 전시 공간 내에 설치된 인체 감지 센서 및 동작 감지 센서를 통해, 상기 전시 공간 내 적어도 2 지점에서의 인체 감지 및 동작 감지의 이벤트가 발생된 경우, 상기 적어도 2 지점 사이의 상호 이벤트 효과 장면을 연출하여 디스플레이하고,
    상기 이미지 프로세서는 상기 레이저 센서 모듈로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자가 X축을 중심으로 위치 이동한 제1 변위값, 상기 사용자가 Y축을 중심으로 위치 이동한 제2 변위값, 및 상기 사용자가 Z축을 중심으로 위치 이동한 제3 변위값을 포함하는 변위 정보를 추출하고, 상기 추출된 변위 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 전시 공간 내 적어도 2 지점의 위치 정보를 획득하며,
    상기 모션 기준 정보는 인체의 팔의 길이, 폭 및 방향에 대한 추적을 통하여 인체의 손에 의해 가상으로 연장 형성되는 3차원 형상인 구의 중심 및 반경에 대한 정보를 포함하고,
    상기 이미지 프로세서는 상기 카메라 모듈에 의해 촬영된 영상의 원본 문서에서 텍스트와 이미지를 분리한 후, 상기 텍스트와 이미지의 크기와 색상을 분석하고, 상기 원본 문서의 분석 결과에 따라, 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 큰 문자열을 제목으로 간주하고, 상기 제목으로 간주된 문자열 자체에 미리 설정된 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하거나, 상기 원본 문서에 포함된 이미지를 색상 계열별로 분리하고, 상기 원본 문서에 포함된 이미지의 색상 계열별로 이미지 자체에 상기 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하거나, 또는 상기 원본 문서의 특정 페이지 내에서, 텍스트 크기가 가장 작은 문자열을 주석으로 간주하고, 상기 주석으로 간주된 문자열을 선택할 시, 부가 설명이 팝업으로 출력되도록 상기 인터랙티브 효과를 적용하여 상기 원본 문서를 변환하고, 상기 인터랙티브 효과가 적용된 변환 문서를 출력하고, 상기 변환 문서는 전화번호가 입력된 상기 사용자의 모바일 단말기로 공유되는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  2. 제1항에 있어서,
    상기 카메라 모듈은
    적외선 카메라를 포함하고,
    상기 페이지 식별 기호는
    사용자의 육안으로는 보이지 않는 적외선 잉크를 사용하여 상기 전시용 책에 인쇄되는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  3. 제2항에 있어서,
    상기 카메라 모듈은
    상기 전시용 책의 페이지를 향해 적외선을 조사하는 적외선 투광기(IR Illuminator)를 더 포함하고,
    상기 적외선 카메라는
    상기 적외선 투광기에 의해 조사된 적외선과 반응하는 상기 적외선 잉크로부터 상기 페이지 식별 기호를 획득하는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  4. 제1항에 있어서,
    상기 빔 프로젝터는
    상기 전시용 책의 페이지 영역에 소정의 영상을 출력하는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  5. 제1항에 있어서,
    상기 전시 영상 데이터베이스는
    상기 전시용 책의 각 페이지 내용에 맞게 사전 제작된 상기 영상 데이터를 상기 페이지 식별 기호와 매칭하여 매칭 테이블에 기록하고,
    상기 이미지 프로세서는
    상기 매칭 테이블을 참조하여 상기 페이지 식별 기호에 매칭되는 영상 데이터를 추출하는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 제1항에 있어서,
    상기 이미지 프로세서는
    상기 레이저 센서 모듈로부터 획득한 사용자의 모션 정보를 영상 처리하여 상기 사용자의 움직이는 신체 중 특정 부위를 체크하고, 상기 체크한 영상의 프레임 간 차이를 분석하여 상기 특정 부위가 움직인 궤적을 계산하며, 상기 궤적에 매칭되는 위치에 해당하는 디스플레이 영역에 상기 상호 이벤트 효과 장면을 연출하여 디스플레이하는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  12. 제11항에 있어서,
    상기 이미지 프로세서는
    상기 상호 이벤트 효과 장면을 제공하는 서버의 주소 링크를 상기 사용자의 SNS를 통해 공유하는 이벤트가 발생한 후 상기 사용자의 SNS가 실행중인 모바일 단말기가 상기 주소 링크를 통해 상기 서버에 접속하여 상기 상호 이벤트 효과 장면에 관한 메뉴를 선택하면, 상기 선택된 메뉴에 해당하는 상호 이벤트 효과 장면을 연출하여 디스플레이하는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
  13. 제1항에 있어서,
    상기 페이지 식별 기호의 인쇄 영역 위에는 상기 전시용 책의 책 넘김 시 사용자 조작에 의한 상기 페이지 식별 기호의 훼손을 방지하기 위한 방지 코팅층이 구비되고,
    상기 방지 코팅층은
    디펜타에리트리톨 헥사아크릴레이트(DPHA) 100중량부에 대하여, 하이드록시 하이드로 신나메이트 10 ~ 20중량부, 옥타데실 3,5-디-t-부틸-4- 에틸 2-[3-(6-니트로벤졸[d]티아졸-2-일)우레이도]아세테이트 7 ~ 15중량부, 히드록시 에틸 히드록시 프로필 셀룰로오즈 15 ~ 35중량부를 포함하는 재질로 형성되는 것을 특징으로 하는 실감형 전시 영상 구현 시스템.
KR1020200119243A 2020-09-16 2020-09-16 실감형 전시 영상 구현 시스템 KR102262288B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200119243A KR102262288B1 (ko) 2020-09-16 2020-09-16 실감형 전시 영상 구현 시스템
KR1020210070982A KR102412992B1 (ko) 2020-09-16 2021-06-01 레이저 센서를 이용한 인터렉티브 전시 영상 구현 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200119243A KR102262288B1 (ko) 2020-09-16 2020-09-16 실감형 전시 영상 구현 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210070982A Division KR102412992B1 (ko) 2020-09-16 2021-06-01 레이저 센서를 이용한 인터렉티브 전시 영상 구현 시스템

Publications (1)

Publication Number Publication Date
KR102262288B1 true KR102262288B1 (ko) 2021-06-08

Family

ID=76399040

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200119243A KR102262288B1 (ko) 2020-09-16 2020-09-16 실감형 전시 영상 구현 시스템
KR1020210070982A KR102412992B1 (ko) 2020-09-16 2021-06-01 레이저 센서를 이용한 인터렉티브 전시 영상 구현 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210070982A KR102412992B1 (ko) 2020-09-16 2021-06-01 레이저 센서를 이용한 인터렉티브 전시 영상 구현 시스템

Country Status (1)

Country Link
KR (2) KR102262288B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142090A (ko) * 2016-06-16 2017-12-27 주식회사 에이치투앤컴퍼니 360도 vr 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법 및 장치
KR20190061783A (ko) * 2017-11-28 2019-06-05 김무아 가상현실 콘텐츠 생성방법 및 프로그램
KR20190069174A (ko) * 2017-12-11 2019-06-19 서울여자대학교 산학협력단 프로젝션 기반 콘텐츠 제공 장치
KR20190098293A (ko) * 2018-02-12 2019-08-22 박상현 프로젝션 매핑 장치 및 시스템
KR20200068278A (ko) * 2018-12-05 2020-06-15 이영조 범죄 피해 예방을 위한 시각 장애인용 스마트 안경 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142090A (ko) * 2016-06-16 2017-12-27 주식회사 에이치투앤컴퍼니 360도 vr 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법 및 장치
KR20190061783A (ko) * 2017-11-28 2019-06-05 김무아 가상현실 콘텐츠 생성방법 및 프로그램
KR20190069174A (ko) * 2017-12-11 2019-06-19 서울여자대학교 산학협력단 프로젝션 기반 콘텐츠 제공 장치
KR20190098293A (ko) * 2018-02-12 2019-08-22 박상현 프로젝션 매핑 장치 및 시스템
KR20200068278A (ko) * 2018-12-05 2020-06-15 이영조 범죄 피해 예방을 위한 시각 장애인용 스마트 안경 시스템

Also Published As

Publication number Publication date
KR20220036842A (ko) 2022-03-23
KR102412992B1 (ko) 2022-06-24

Similar Documents

Publication Publication Date Title
US9633479B2 (en) Time constrained augmented reality
US11145135B1 (en) Augmented reality interaction and contextual menu system
WO2018142756A1 (ja) 情報処理装置及び情報処理方法
JP2001282456A (ja) マンマシーン・インターフェース・システム
US20210118232A1 (en) Method and System for Translating Air Writing To An Augmented Reality Device
US11758217B2 (en) Integrating overlaid digital content into displayed data via graphics processing circuitry
Zhang et al. Privacy assurance for android augmented reality apps
KR20210008075A (ko) 시각 검색 방법, 장치, 컴퓨터 기기 및 저장 매체 (video search method and apparatus, computer device, and storage medium)
Lo et al. Augmediated reality system based on 3D camera selfgesture sensing
KR102262288B1 (ko) 실감형 전시 영상 구현 시스템
US20230388109A1 (en) Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry
CN109461203B (zh) 手势三维图像生成方法、装置、计算机设备及存储介质
US20230048284A1 (en) Integrating digital content into displayed data on an application layer via processing circuitry of a server
US20200226833A1 (en) A method and system for providing a user interface for a 3d environment
WO2023114530A1 (en) Augmented reality (ar) visual display to save
US10733491B2 (en) Fingerprint-based experience generation
US10922043B2 (en) Information processing device and information processing method for acquiring information associated with a target
CN113934297B (zh) 一种基于增强现实的交互方法、装置、电子设备及介质
US20240185546A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20230334792A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20230334790A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
Kuusisto Creating augmented reality
US20200106727A1 (en) Information service system and method thereof
WO2024039887A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant