KR102208340B1 - 인터렉티브 월 시스템 및 그 제공 방법 - Google Patents

인터렉티브 월 시스템 및 그 제공 방법 Download PDF

Info

Publication number
KR102208340B1
KR102208340B1 KR1020180162798A KR20180162798A KR102208340B1 KR 102208340 B1 KR102208340 B1 KR 102208340B1 KR 1020180162798 A KR1020180162798 A KR 1020180162798A KR 20180162798 A KR20180162798 A KR 20180162798A KR 102208340 B1 KR102208340 B1 KR 102208340B1
Authority
KR
South Korea
Prior art keywords
information
sensor
effect
content
identification
Prior art date
Application number
KR1020180162798A
Other languages
English (en)
Other versions
KR20200074429A (ko
Inventor
박수진
Original Assignee
주식회사 더시퀀스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더시퀀스 filed Critical 주식회사 더시퀀스
Priority to KR1020180162798A priority Critical patent/KR102208340B1/ko
Publication of KR20200074429A publication Critical patent/KR20200074429A/ko
Application granted granted Critical
Publication of KR102208340B1 publication Critical patent/KR102208340B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 인터렉티브 월 시스템 및 그 제공 방법에 관한 것이다. 본 발명은, 사용자 단말(400)이 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 제 1 단계; 및 사용자 단말(400)이 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 제 2 단계; 를 포함하는 것을 특징으로 한다.
이에 의해, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있는 효과를 제공한다.
뿐만 아니라, 본 발명은, 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시킬 수 있는 효과를 제공한다.

Description

인터렉티브 월 시스템 및 그 제공 방법{Interactive wall system, and method for providing the same}
본 발명은 인터렉티브 월 시스템 및 그 제공 방법에 관한 것으로, 보다 구체적으로는, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법에 관한 것이다.
건물, 도로, 인도 등과 같은 통로 등의 벽면을 활용한 광고 표시 장치가 널리 사용되고 있는데, 보다 상세하게는 외벽 상에 소정 모양의 발광영역을 형성하고 그 발광영역들의 조합하여 원하는 문구나 내용을 표시하거나, 전체의 LCD 등과 같은 디스플레이 장치를 활용하여 원하는 영상을 표시할 수 있다.
그러나 옥외의 디스플레이 장치는 단순히 광고용으로 정보를 한 방향으로 전달하고 있어서, 정보 전달에 한계가 있으며 사람들에게 흥미 유발하지 못하고, 그 밖의 학습용 등으로 다방면으로 활용할 수 없는 한계점이 있어 왔다.
대한민국 특허등록공보 등록번호 제10-0470866호 "디스플레이 광고 시스템(DISPLAY ADVERTISEMENT SYSTEM)"
본 발명은 상기의 문제점을 해결하기 위한 것으로, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법을 제공하기 위한 것이다.
또한, 본 발명은 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시키도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법을 제공하기 위한 것이다.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 인터렉티브 월 제공 방법은, 사용자 단말(400)이 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 제 1 단계; 및 사용자 단말(400)이 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 제 2 단계; 를 포함하는 것을 특징으로 한다.
이때, 상기 제 2 단계의 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 한다.
또한, 상기 제 2 단계 이후, 사용자 단말(400)이 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 제 3 단계; 를 더 포함하는 것이 바람직하다.
또한, 상기 제 3 단계 이후, 사용자 단말(400)이 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 제 4 단계; 를 더 포함하는 것을 특징으로 한다.
또한, 상기 제 4 단계 이후, 사용자 단말(400)이 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 한다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 인터렉티브 월 제공 시스템은, 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함하여 이루어지는 인터렉티브 월 시스템(1)에 있어서, 사용자 단말(400)은, 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 컨텐츠 제공 모듈(421); 및 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 센싱 모듈(422); 를 포함하는 것을 특징으로 한다.
또한, 본 발명에 있어서, 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 한다.
또한, 센싱 모듈(422)은, 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 것을 특징으로 한다.
또한, 센싱 모듈(422)은, 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 것을 특징으로 한다.
또한, 사용자 단말(400)은, 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 스크린 제공 모듈(424); 을 더 포함하는 것을 특징으로 한다.
본 발명의 실시예에 따른 인터렉티브 월 시스템 및 그 제공 방법은, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있는 효과를 제공한다.
뿐만 아니라, 본 발명의 다른 실시예에 따른 인터렉티브 월 시스템 및 그 제공 방법은, 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시킬 수 있는 효과를 제공한다.
도 1은 본 발명의 실시예에 따른 인터렉티브 월 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 인터렉티브 월 시스템(1) 중 사용자 단말(400)의 구성요소를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 인터렉티브 월 제공 방법을 나타내는 흐름도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 인터렉티브 월 제공 방법에서 실제로 복합형 터치스크린(500)에 구현되는 빔 프로젝터(600)의 이펙트 컨텐츠를 나타내는 도면이다.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
도 1은 본 발명의 실시예에 따른 인터렉티브 월 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 인터렉티브 월 시스템(1)은 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함할 수 있다.
제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합일 수 있으며, 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 등으로 이루어질 수 있다.
제 2 센서 모듈(200)은 제 1 센서 모듈(100)과 대비되게 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합일 수 있으며, 터치센서 등으로 이루어질 수 있다.
아두이노 보드(300)는 다양한 센서나 부품을 연결할 수 있고 입출력, 중앙처리장치가 포함되어 있는 기판으로, 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)로부터 센싱 정보를 수신한 뒤, 자체적으로 구비된 USB 포트 등으로 형성 가능한 통신 포트를 통해 사용자 단말(400)의 I/O 인터페이스(410) 중 제 1 I/O 단자(411)와 연결되는 구조를 갖는다.
복합형 터치스크린(500)은 도로, 인도 등의 통로의 벽 전면에 형성된 대형 스크린으로, 설치된 사용자 단말(400)의 I/O 인터페이스(410) 중 제 2 I/O 단자(412)와 연결된 구조를 가지며, 사용자 단말(400)에 의해 미리 설정된 센서 반응형 컨텐츠를 출력하며, 사용자 단말(400)에 의한 아두이노 보드(300)를 통해 제 1 센서 모듈(100) 및/또는 제 2 센서 모듈(200)에 의해 센싱된 센싱 신호를 수신시, 사용자 단말(400)에 의한 I/O 인터페이스(410) 중 HDMI 단자 등으로 형성 가능한 제 3 I/O 단자(413)와 연결된 빔 프로젝터(600)로 이펙트 컨텐츠 출력 명령에 따라 빔 프로젝터(600)로부터 센서 방응형 컨텐츠 상의 각 센싱 신호와 매칭되는 미리 설정된 효과 영역에 이펙트 컨텐츠를 제공받는 역할을 수행한다.
도 2는 본 발명의 실시예에 따른 인터렉티브 월 시스템(1) 중 사용자 단말(400)의 구성요소를 나타내는 블록도이다. 도 2를 참조하면, 사용자 단말(400)은 I/O 인터페이스(410), 제어부(420), 저장부(430) 및 입출력부(440)를 포함할 수 있다.
I/O 인터페이스(410)는 제 1 I/O 단자(411), 제 2 I/O 단자(412), 제 3 I/O 단자(413)를 포함할 수 있다.
제 1 I/O 단자(411)는 아두이노 보드(300)로부터 각종 센싱 정보를 수신하기 위해 USB 단자 등으로 형성될 수 있으며, 제 2 I/O 단자(412)는 복합형 터치스크린(500)으로 제 1 I/O 단자(411)로부터 각 센싱 정보를 수신 전에 미리 설정된 센서 반응형 컨텐츠 정보를 제공하기 위해 모니터와 단말 사이에 제공되는 각종 통신 버스로 형성될 수 있으며, 제 3 I/O 단자(413)는 빔 프로젝터(600)와의 신호 및 데이터 송수신을 위해 HDMI 단자 등으로 형성될 수 있다.
여기서 제어부(420)는 컨텐츠 제공 모듈(421), 센싱 모듈(422), 좌표 보정 모듈(423), 스크린 제공 모듈(424)을 포함할 수 잇다.
컨텐츠 제공 모듈(421)은 센싱 모듈(422)에 대한 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송할 수 있다.
이후, 컨텐츠 제공 모듈(421)은 컨텐츠 제공 모듈(421)에 의해 추출된 센서 반응형 컨텐츠의 식별 ID를 센싱 모듈(422)로 통지할 수 있다.
센싱 모듈(422)은 컨텐츠 식별 ID를 수신한 뒤, 수신된 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한다.
이후, 센싱 모듈(422)은 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어할 수 있다.
이에 따라, 센싱 모듈(422)은 제 1 I/O 단자(411)를 통해 감지 명령을 전송한 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출한다.
이후, 센싱 모듈(422)은 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬할 수 있다.
최종적으로 센싱 모듈(422)은 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 스크린 제공 모듈(424)로 전달한다.
한편, 좌표 보정 모듈(423)이 스크린 제공 모듈(424)에 의한 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에, 스크린 제공 모듈(424)은 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 할 수 있다. 좌표 보정 모듈(423)은 빔 프로젝터(600)에 대한 좌표 정보 영점 보정을 통해 빔 프로젝터(600)에 의한 각 이펙트 컨텐츠가 각 이펙트 컨텐츠에 대해서 설정된 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 정밀하게 투사되도록 할 수 있다.
이를 위해, 제 1 센서 모듈(100)을 구성하는 단위 센서 중 카메라가 빔 프로젝터(600) 상에서 복합형 터치스크린(500)을 향하여 형성되는 것이 바람직하다. 이러한 구성을 통해 좌표 보정 모듈(423)은 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에 순서 정렬 정보에 따른 최초의 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 추출한 뒤, 좌표 정보로 이펙트 컨텐츠와 동일한 복합형 터치스크린(500)의 미리 설정된 효과 영역으로 미리 설정된 색상 정보를 출력한 뒤, 카메라를 통해 영상을 획득한 뒤, 영상 분석을 통해 미리 설정된 효과 영역으로 매칭되게 광원이 투사되었는지를 확인할 수 있다.
만약에 영상 분석에 따라 광원 투사 영역이 매칭되지 않는 경우, 좌표 보정 모듈(423)은 제 3 I/O(413)를 통해 빔 프로젝터(600)의 위치를 조정하기 위해 팬/틸트/요잉을 수행하는 다관절 로봇암으로 영상 분석을 통한 좌표 보정 명령을 전송할 수 있다.
도 3은 본 발명의 실시예에 따른 인터렉티브 월 제공 방법을 나타내는 흐름도이다. 그리도 도 4 및 도 5는 본 발명의 실시예에 따른 인터렉티브 월 제공 방법에서 실제로 복합형 터치스크린(500)에 구현되는 빔 프로젝터(600)의 이펙트 컨텐츠를 나타내는 도면이다.
도 3을 참조하면, 사용자 단말(400)은 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장한다(S110).
단계(S110) 이후, 사용자 단말(400)은 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어한다(S120).
단계(S120) 이후, 사용자 단말(400)은 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출한다(S130).
단계(S130) 이후, 사용자 단말(400)은 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장한다(S140).
단계(S140) 이후, 사용자 단말(400)은 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어한다(S150).
즉, 도 4와 같이 제 1 센서 모듈(100)에 형성된 모션센서 또는 제 2 센서 모듈(200)에 형성되는 적외선 센서를 통해 복합형 터치스크린(500)의 전면에 형성된 인체의 모션을 인식한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 도트 영상이 출력될 수 있으며, 여기서 이펙트 컨텐츠로 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현할 수 있다.
또한, 도 5와 같이 제 2 센서 모듈(200)로 복합형 터치스크린(500) 상의 미리 설정된 영역에 터치모듈을 구비한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 학습 영상이 출력될 수 있으며, 사용자의 각 터치모듈에 대한 터치 입력시 터치된 좌표와 매칭되는 이펙트 컨텐츠로 시간의 흐름에 해당하는 빛의 움직임 표시 효과를 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현할 수 있다.
한편, 본 발명의 다른 실시예로, 센싱 모듈(422)은 복수의 빅 프로젝터(600)가 형성되는 경우, 아두이노 보드(300)로부터 '센싱 유닛 정보'로 단위 센서 이름, 위치 정보, 목적 정보를 추출한 뒤, 추출된 정보와 사전에 각 빅 프로젝터(600)에 대해서 설정된 전담 단위 센서, 전시 위치, 효과 카테고리와 매칭되는 빔 프로젝터(600)의 식별 ID를 추출할 수 있다.
보다 구체적으로, 센싱 모듈(422)은 '센싱 유닛 정보'의 단위 센서 이름을 포함하는 카테고리 정보를 갖는 빔 프로젝터(600)의 식별 ID를 1차로 추출한다. 센싱 모듈(422)은 1차로 추출된 식별 ID가 복수인 경우, '센싱 유닛 정보'의 위치 정보 및 목적 정보를 활용하여 최종적으로 하나의 식별 ID를 추출할 수 있다. 즉, 센싱 모듈(422)은 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)의 효과 카테고리에 해당하는 '센싱 유닛 정보'의 목적 정보에 해당하는지를 제 1 분석을 수행하고, 또한 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)가 설치된 위치를 중심으로 미리 설정된 반경에 해당하는 위치 영역 내에 '센싱 유닛 정보'의 위치 정보가 있는지에 대한 제 2 분석을 수행할 수 있다.
이에 따라, 센싱 모듈(422)은 제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 없는 경우, 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출할 수 있다.
보다 구체적으로, 센싱 모듈(422)은 제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정할 수 있으며, 2차로 추출되는 식별 ID가 복수인 경우에는 다시 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출할 수 있다.
여기서, 센싱 모듈(422)은 3차 추출을 위해 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정하며, 반대로 복수인 경우, 위치 정보로부터 미리 설정된 반경의 중심 위치로부터 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정할 수 있다.
또한 센싱 모듈(422)은 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나도 없는 경우, 위치 정보로부터 미리 설정된 반경의 테두리로부터 가장 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정하여, 상술한 출력 요청을 스크린 제공 모듈(424)로 제공할 수 있다.
이에 따라, 스크린 제공 모듈(424)은 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 할 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
1 : 인터렉티브 월 시스템
100 : 제 1 센서 모듈
200 : 제 2 센서 모듈
300 : 아두이노 보드
400 : 사용자 단말
410 : I/O 인터페이스
411 : 제 1 I/O 단자
412 : 제 2 I/O 단자
413 : 제 3 I/O 단자
420 : 제어부
421 : 컨텐츠 제공 모듈
422 : 센싱 모듈
423 : 좌표 보정 모듈
424 : 스크린 제공 모듈
430 : 저장부
440 : 입출력부
500 : 복합형 터치스크린
600 : 빔 프로젝터

Claims (10)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함하는 인터렉티브 월 시스템(1)에 있어서,
    제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로, 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서을 포함하여 이루어지는 제 1 센서 모듈(100);
    제 1 센서 모듈(100)과 대비되게 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하여 이루어지는 제 2 센서 모듈(200);
    센서나 부품을 연결할 수 있고 입출력, 중앙처리장치가 포함되어 있는 기판으로, 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)로부터 센싱 정보를 수신한 뒤, 자체적으로 통신 포트를 통해 사용자 단말(400)의 I/O 인터페이스(410) 중 제 1 I/O 단자(411)와 연결되는 구조를 갖는 아두이노 보드(300);
    도로 및 인도의 통로의 벽 전면에 형성된 대형 스크린으로, 설치된 사용자 단말(400)의 I/O 인터페이스(410) 중 제 2 I/O 단자(412)와 연결된 구조를 가지며, 사용자 단말(400)에 의해 미리 설정된 센서 반응형 컨텐츠를 출력하며, 사용자 단말(400)에 의한 아두이노 보드(300)를 통해 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에 의해 센싱된 센싱 신호를 수신시, 사용자 단말(400)에 의한 I/O 인터페이스(410) 중 제 3 I/O 단자(413)와 연결된 빔 프로젝터(600)로 이펙트 컨텐츠 출력 명령에 따라 빔 프로젝터(600)로부터 센서 방응형 컨텐츠 상의 각 센싱 신호와 매칭되는 미리 설정된 효과 영역에 이펙트 컨텐츠를 제공받는 역할을 수행하는 복합형 터치스크린(500); 및 사용자 단말(400); 를 포함하며,
    사용자 단말(400)은 I/O 인터페이스(410), 제어부(420), 저장부(430) 및 입출력부(440)를 포함하며, I/O 인터페이스(410)는 제 1 I/O 단자(411), 제 2 I/O 단자(412), 제 3 I/O 단자(413)를 포함하며,
    제 1 I/O 단자(411)는, 아두이노 보드(300)로부터 각종 센싱 정보를 수신하기 위해 형성되며, 제 2 I/O 단자(412)는 복합형 터치스크린(500)으로 제 1 I/O 단자(411)로부터 각 센싱 정보를 수신 전에 미리 설정된 센서 반응형 컨텐츠 정보를 제공하기 위해 모니터와 단말 사이에 제공되는 통신 버스로 형성며, 제 3 I/O 단자(413)는 빔 프로젝터(600)와의 신호 및 데이터 송수신을 위해 형성되며,
    제어부(420)는,
    센싱 모듈(422)에 대한 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 추출된 센서 반응형 컨텐츠의 식별 ID를 센싱 모듈(422)로 통지하는 컨텐츠 제공 모듈(421);
    컨텐츠 식별 ID를 수신한 뒤, 수신된 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출하며, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하며, 제 1 I/O 단자(411)를 통해 감지 명령을 전송한 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하며, 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬하고, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 스크린 제공 모듈(424)로 전달하는 센싱 모듈(422);
    출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 스크린 제공 모듈(424); 및
    제 1 센서 모듈(100)을 구성하는 단위 센서 중 카메라가 빔 프로젝터(600) 상에서 복합형 터치스크린(500)을 향하여 형성되는 구성시,
    이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에 순서 정렬 정보에 따른 최초의 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 추출한 뒤, 좌표 정보로 이펙트 컨텐츠와 동일한 복합형 터치스크린(500)의 미리 설정된 효과 영역으로 미리 설정된 색상 정보를 출력한 뒤, 카메라를 통해 영상을 획득한 뒤, 영상 분석을 통해 미리 설정된 효과 영역으로 매칭되게 광원의 투사 여부를 확인하며,
    영상 분석에 따라 광원 투사 영역이 매칭되지 않는 경우, 좌표 보정 모듈(423)은 제 3 I/O(413)를 통해 빔 프로젝터(600)의 위치를 조정하기 위해 팬/틸트/요잉을 수행하는 다관절 로봇암으로 영상 분석을 통한 좌표 보정 명령을 전송하는 좌표 보정 모듈(423); 을 포함하며,
    제 1 센서 모듈(100)에 형성된 모션센서 또는 제 2 센서 모듈(200)에 형성되는 적외선 센서를 통해 복합형 터치스크린(500)의 전면에 형성된 인체의 모션을 인식한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 도트 영상이 출력되는 경우, 이펙트 컨텐츠로 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현하며,
    제 2 센서 모듈(200)로 복합형 터치스크린(500) 상의 미리 설정된 영역에 터치모듈을 구비한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 학습 영상이 출력되며, 사용자의 각 터치모듈에 대한 터치 입력시 터치된 좌표와 매칭되는 이펙트 컨텐츠로 시간의 흐름에 해당하는 빛의 움직임 표시 효과를 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현하며,
    센싱 모듈(422)은 복수의 빅 프로젝터(600)가 형성되는 경우, 아두이노 보드(300)로부터 '센싱 유닛 정보'로 단위 센서 이름, 위치 정보, 목적 정보를 추출한 뒤, 추출된 정보와 사전에 각 빅 프로젝터(600)에 대해서 설정된 전담 단위 센서, 전시 위치, 효과 카테고리와 매칭되는 빔 프로젝터(600)의 식별 ID를 추출하되, '센싱 유닛 정보'의 단위 센서 이름을 포함하는 카테고리 정보를 갖는 빔 프로젝터(600)의 식별 ID를 1차로 추출하고, 1차로 추출된 식별 ID가 복수인 경우, '센싱 유닛 정보'의 위치 정보 및 목적 정보를 활용하여 최종적으로 하나의 식별 ID를 추출하며,
    센싱 모듈(422)은,
    1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)의 효과 카테고리에 해당하는 '센싱 유닛 정보'의 목적 정보에 해당하는지를 제 1 분석을 수행하고, 또한 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)가 설치된 위치를 중심으로 미리 설정된 반경에 해당하는 위치 영역 내에 '센싱 유닛 정보'의 위치 정보가 있는지에 대한 제 2 분석을 수행하며,
    제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정할 수 있으며, 2차로 추출되는 식별 ID가 복수인 경우에는 다시 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출하며,
    3차 추출을 위해 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정하며, 반대로 복수인 경우, 위치 정보로부터 미리 설정된 반경의 중심 위치로부터 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정하며,
    위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나도 없는 경우, 위치 정보로부터 미리 설정된 반경의 테두리로부터 가장 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정하여, 상술한 출력 요청을 스크린 제공 모듈(424)로 제공함으로써,
    스크린 제공 모듈(424)에 의해 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
KR1020180162798A 2018-12-17 2018-12-17 인터렉티브 월 시스템 및 그 제공 방법 KR102208340B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180162798A KR102208340B1 (ko) 2018-12-17 2018-12-17 인터렉티브 월 시스템 및 그 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162798A KR102208340B1 (ko) 2018-12-17 2018-12-17 인터렉티브 월 시스템 및 그 제공 방법

Publications (2)

Publication Number Publication Date
KR20200074429A KR20200074429A (ko) 2020-06-25
KR102208340B1 true KR102208340B1 (ko) 2021-01-26

Family

ID=71400280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162798A KR102208340B1 (ko) 2018-12-17 2018-12-17 인터렉티브 월 시스템 및 그 제공 방법

Country Status (1)

Country Link
KR (1) KR102208340B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102530644B1 (ko) * 2021-01-29 2023-05-09 선문대학교 산학협력단 적외선 인터렉티브 프로젝션 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767569B1 (ko) * 2017-02-20 2017-08-11 주식회사 유조이월드 디스플레이되는 영상컨텐츠와 관련된 증강현실 인터랙티브 시스템 및 상기 시스템의 운영방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101671373B1 (ko) * 2009-12-21 2016-11-02 한국전자통신연구원 가상낙서 시스템 및 그 인터페이스 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767569B1 (ko) * 2017-02-20 2017-08-11 주식회사 유조이월드 디스플레이되는 영상컨텐츠와 관련된 증강현실 인터랙티브 시스템 및 상기 시스템의 운영방법

Also Published As

Publication number Publication date
KR20200074429A (ko) 2020-06-25

Similar Documents

Publication Publication Date Title
JP6735765B2 (ja) 位置に依存するコンテンツを表示するためのシステムおよび方法
JP6367499B1 (ja) マルチビュー建築照明システム
US10012508B2 (en) Providing directions to a location in a facility
US20150379770A1 (en) Digital action in response to object interaction
TWI524772B (zh) 投影系統及其投影方法
US10900790B2 (en) Interior building navigation system
CN104049720B (zh) 电子设备和用于其的显示方法
US20140347262A1 (en) Object display with visual verisimilitude
TWI504931B (zh) 投影系統及其投影方法
KR102208340B1 (ko) 인터렉티브 월 시스템 및 그 제공 방법
US10229538B2 (en) System and method of visual layering
US10725586B2 (en) Presentation of a digital image of an object
KR101575063B1 (ko) 뎁스 카메라를 이용한 다중 사용자 멀티 터치 인터페이스 장치 및 방법
US10268175B2 (en) Information presentation method and information presentation apparatus
JP2018169787A (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
CN105988638B (zh) 位置检测装置及其控制方法和显示装置及其控制方法
KR101615330B1 (ko) 광고 디스플레이 시스템 및 그 디스플레이 방법
KR102437606B1 (ko) 실감형 hud의 향상된 ui/ux 제공을 위한 증강정보 시뮬레이터
CN106201289A (zh) 一种智能投影装置及方法
CN105468171A (zh) 显示系统及显示系统的显示方法
TWI695966B (zh) 用於移動通訊裝置之室內定位導航系統
US10345965B1 (en) Systems and methods for providing an interactive user interface using a film, visual projector, and infrared projector
JP7210884B2 (ja) 情報処理装置、表示システム及びプログラム
JP7103841B2 (ja) 案内システム及び案内用ロボット
CN111754274A (zh) 一种基于车载玻璃显示的智能区域广告推送方法及其系统

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant