KR20130104780A - 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법 - Google Patents

프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법 Download PDF

Info

Publication number
KR20130104780A
KR20130104780A KR1020120026624A KR20120026624A KR20130104780A KR 20130104780 A KR20130104780 A KR 20130104780A KR 1020120026624 A KR1020120026624 A KR 1020120026624A KR 20120026624 A KR20120026624 A KR 20120026624A KR 20130104780 A KR20130104780 A KR 20130104780A
Authority
KR
South Korea
Prior art keywords
projector
user
user terminal
interaction
content
Prior art date
Application number
KR1020120026624A
Other languages
English (en)
Inventor
윤기범
신윤호
이소현
이준석
전완중
최경철
배종필
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020120026624A priority Critical patent/KR20130104780A/ko
Publication of KR20130104780A publication Critical patent/KR20130104780A/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/001Slide projectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 휴대용이 가능한 사용자 단말을 이용하고, 사용자 단말과 프로젝터를 연결하여 사용자 단말을 통해 제공되는 콘텐츠 또는 어플리케이션의 영상 데이터를 확대하여 외부 스크린으로 영사하며, 영사된 화면과 관련하여 사용자와 인터렉션 서비스를 제공하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법을 제공한다.

Description

프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법{USER INTERATION SERVICE SYSTEM AND METHOD USING PROJECTOR}
본 발명은 사용자 단말과 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법에 관한 것으로서, 상세하게는 사용자 단말과 프로젝터간 연동으로 사용자 단말을 통해 제공되는 콘텐츠를 확대하여 외부 스크린으로 영사(映寫)하고 영사된 화면과 관련하여 사용자로부터 인터렉션 신호가 입력되면 인터렉션 신호에 대응하여 기 정의된 서비스를 제공하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법에 관한 것이다.
프로젝터(projector)란 티브이(TV), 비디오 재생 장치(VTR), 컴퓨터(PC), 노트북, 캠코더 등과 같은 각종 영상 기기로부터 영상 신호를 입력받아입력받은 영상신호를 렌즈를 통해 스크린 상에 확대하여 표시하는 장비를 말한다. 이러한 프로젝터는 발표자가 회의 참가자들에게 자료를 프레젠테이션하는 데 주로 사용한다.
이처럼 일반적인 프레젠테이션의 경우, 영상 기기에 프레젠테이션을 할 자료를 저장하고 이 영상 기기를 프로젝터에 연결시켜서 사용한다.
그러나, 프레젠테이션을 하려면 프레젠테이션할 장소에 프로젝터뿐만 아니라 사용자가 프레젠테이션을 할 자료를 저장한 영상 기기를 구비해야 하고, 구비한 영상 기기와 프로젝터를 연결시켜야만 표시가 가능한 번거로움이 있다. 특히, 프레젠테이션을 할 자료가 인터넷을 통해 제공받아야 하는 경우면 더욱이 PC 등 인터넷이 가능한 단말과의 연결이 필요하다.
따라서, 상기와 같은 프레젠테이션 환경을 극복하고 언제든지 장소 또는 시간의 제약을 받지 않고 프레젠테이션을 실현할 수 있는 환경에 부합되는 시스템의 구현이 필요하다.
본 발명은 상기한 필요성에 의해 창안된 것으로서, 휴대용이 가능한 사용자 단말을 이용하고, 이 사용자 단말과 프로젝터간 연동으로 사용자 단말을 통해 제공되는 콘텐츠를 확대하여 외부 스크린으로 영사하고 영사된 화면과 관련하여 사용자로부터 인터렉션 신호가 입력되면 인터렉션 신호에 대응하여 기 정의된 서비스를 제공하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법을 제공하는 데 그 목적이 있다.
이를 위하여 본 발명의 제1 측면에 따르면, 본 발명의 프로젝터를 이용한 사용자 인터렉션 서비스 시스템은, 외부의 스크린에 프레젠테이션을 할 영상 데이터를 확대하여 영사하는 프로젝터; 상기 프레젠테이션을 할 콘텐츠 또는 어플리케이션의 실행이 입력되면 입력받은 콘텐츠 또는 어플리케이션의 영상 데이터를 상기 프로젝터로 전달하고, 상기 프로젝터를 통해 영사하는 화면과 관련하여 사용자의 인터렉션 신호를 입력받으면 상기 콘텐츠 또는 어플리케이션에 대하여 기 정의된 인터렉션 기능 중 상기 인터렉션 신호에 대응하는 기능을 수행하는 사용자 단말을 포함하는 것을 특징으로 한다.
본 발명의 제2 측면에 따르면, 본 발명의 프로젝터를 이용한 사용자 인터렉션 서비스 방법은, 사용자 단말과 프로젝터를 연결한 시스템에서의 서비스 방법으로서, 상기 사용자 단말이 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 실행하는 단계; 상기 사용자 단말이 실행한 콘텐츠 또는 어플리케이션의 영상 데이터를 상기 프로젝터로 출력하여 외부의 스크린으로 영사시키는 단계; 상기 사용자 단말이 상기 프로젝터를 통해 영사된 화면과 관련하여 사용자로부터 인터렉션 신호를 입력받는 단계; 및 상기 사용자 단말이 입력받은 인터렉션 신호에 대응하여 기 정의된 기능을 수행하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 휴대용이 가능한 사용자 단말과 경량의 프로젝터를 이용함으로써 프레젠테이션을 준비하는 데 제약적인 장소와 환경을 극복할 수 있는 효과가 있다.
또한, 인터넷을 통해 프레젠테이션 자료를 제공받아야 하는 경우 PC 등을 연결하지 않고서도 사용자 단말을 통해 쉽게 수신할 수 있으므로 간편하게 프레젠테이션 구현이 가능한 효과가 있다.
또한, 프로젝터를 통해 영사된 화면과 관련하여 사용자와 인터렉션 서비스를 제공함으로써 사용자 또는 프로젝터를 감상하는 여러 사용자들로 하여금 흥미를 극대화하는 데 효과가 있다. 이러한 이유로 여러 명이 참여하는 게임이나 교육, 홍보, 프로모션 등에 적용이 가능하다.
도 1은 본 발명에 따른 프로젝터를 이용한 사용자 인터렉션 시스템을 나타낸 구성도이다.
도 2는 도 1의 시스템에 적용되는 사용자 단말의 구성을 나타낸 도면이다.
도 3은 본 발명에 따른 프로젝터를 이용한 사용자 인터렉션 서비스 방법을 설명하는 흐름도이다.
도 4는 본 발명에 따른 사용자 인터렉션 서비스의 응용 예이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다. 본 발명의 상세한 설명에 앞서, 동일한 구성요소에 대해서는 다른 도면 상에 표시되더라도 가능한 동일한 부호로 표시하며, 공지된 구성에 대해서는 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 구체적인 설명은 생략하기로 함에 유의한다.
도 1은 본 발명에 따른 프로젝터를 이용한 사용자 인터렉션 시스템을 나타낸 구성도이다.
본 발명에 따른 사용자 인터렉션 시스템은 프로젝터(100)와, 사용자 단말(200), 콘텐츠 제공 장치(300)를 통해 구현할 수 있다.
즉, 프로젝터(100)가 사용자 단말(200)에서 제공하는 콘텐츠 또는 어플리케이션을 확대하여 영사하고, 프로젝터(100)를 통해 영사된 화면과 관련하여 사용자가 제스쳐 또는 음성 등을 출력하면 이를 사용자 단말(200)이 감지하여 사용자의 제스쳐 또는 음성에 대응하는 서비스를 제공한다. 콘텐츠 제공 장치(300)는 사용자 단말(200)에게 프레젠테이션을 할 자료를 제공한다.
이의 구성을 구체적으로 설명하면, 프로젝터(100)는 외부의 영상 신호 입력을 위한 영상신호 입력 단자들(VGA 입력단자, 콤포지트 입력단자, DVI 입력단자, S-Video 입력단자 등)이 장착되어 있으며, 이 영상신호 입력 단자들을 통해 입력되는 영상 신호를 확대하여 출력하는 영상 처리부를 기본 구성으로 포함한다. 또, 영상 처리부는 필요에 따라 고화질로 영상을 처리하는 기능이 추가될 수 있다.
본 발명의 프로젝터(100)는 기본적인 프로젝션 기능만 포함해도 본 발명의 사용자 인터렉션 서비스의 구현이 가능하다. 따라서, 본 발명의 프로젝터(100)는 장소 이동이 간편한 소형이면서 저가형으로 구현할 수 있다.
사용자 단말(200)은 프로젝터(100)의 영상신호 입력 단자와 연결되고, 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 실행하면 실행되는 콘텐츠 또는 어플리케이션의 영상 데이터를 프로젝터(100)로 전달한다.
또한, 사용자 단말(200)은 카메라, 마이크, 센서부 등을 통해 사용자의 제스쳐 또는 음성 등을 감지하고 사용자의 제스쳐 또는 음성 등에 대응하는 서비스를 제공한다.
이때, 사용자 단말(200)은 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 내부의 메모리에 미리 저장해 두고 원하는 콘텐츠 또는 어플리케이션을 선택하여 실행할 수 있지만, 네트워크 기반의 콘텐츠 제공 장치(300)로부터 수신하여 제공할 수 있다.
또한, 사용자 단말(200)은 실행되는 콘텐츠 또는 어플리케이션의 종류에 따라 카메라, 마이크, 센서부 등을 선택적으로 동작시킴으로써 사용자의 제스쳐 또는 음성 등을 수신할 수 있다. 이를 위한 사용자 단말(200)의 내부 구성은 이하의 도 2에서 자세히 설명한다.
콘텐츠 제공 장치(300)는 다양한 콘텐츠 또는 어플리케이션이 데이터베이스에 저장되어 있다. 따라서, 콘텐츠 제공 장치(300)가 사용자 단말(200)로부터 원하는 콘텐츠 또는 어플리케이션에 대한 요청이 있으면 해당 콘텐츠 또는 어플리케이션을 전달한다. 이 경우, 사용자 단말(200)은 실시간 스트리밍 방식과 같이 콘텐츠 제공 장치(300)로부터 콘텐츠 또는 어플리케이션을 수신하면서 즉시 실행할 수 있고, 또는 내부 메모리에 미리 저장해 두고 실행할 수 있다.
이러한 콘텐츠 제공 장치(300)는 특정 회사에서 웹 사이트를 통해 교육 또는 게임 등의 콘텐츠 또는 어플리케이션을 제공하는 서버일 수 있고, 교육이나 게임 등의 목적과 상관없이 다양한 콘텐츠를 통합하여 다수의 사용자들이 접속 가능한 온라인 오픈 마켓의 서버일 수 있다. 또는, 사용자 개인이 접속할 수 있는 메일, 웹 하드, 외부 기기 등을 포함할 수 있다.
도 2는 도 1의 시스템에 적용되는 사용자 단말의 구성을 나타낸 도면이다.
본 발명의 사용자 단말(200)은 휴대용이 가능한 단말이면서 필요시 인터넷 접속이 가능한 단말이면 종류에 관계없이 구현이 가능하다. 또, 프레젠테이션을 위한 문서 뷰어 또는 어플리케이션의 실행이 가능한 단말이면 종류에 관계없이 구현이 가능할 것이다. 예컨대, 스마트폰, 태블릿 PC 등 스마트 기기를 적용할 수 있다.
이러한 사용자 단말(200)은 기본적으로 제어부(210), 카메라(220), 마이크(230), 센서부(240), 무선 송수신부(250), 저장부(260), 표시부(270), 스피커(280), 프로젝터 접속부(290)를 포함한다.
카메라(220)는 전방의 사용자를 촬영하여 사용자가 동작하는 율동 또는 특정 제스쳐에 관한 사용자 영상을 획득한다. 또는, 프로젝터를 통해 영사되는 영사 화면을 촬영하여 영사 화면에 비춰보이는 그림자의 영상을 획득할 수 있다.
마이크(230)는 사용자가 말하거나 노래부르는 음성을 입력받는다.
센서부(240)는 사용자 단말(200)의 움직임을 감지한다. 이는 사용자 단말(200)의 움직임으로부터 사용자의 동작을 추측할 수 있다.
무선 송수신부(250)는 네트워크 기반의 콘텐츠 제공 장치(도 1의 300)와 접속할 수 있는 통신 인터페이스를 제공한다. 예를 들어, 인터넷을 통해 콘텐츠 또는 어플리케이션을 제공받고자 하는 경우 무선 송수신부(250)가 인터넷을 통해 콘텐츠 제공 장치(도 1의 300)에 접속하여 원하는 콘텐츠 또는 어플리케이션을 요청하고 해당 데이터를 수신한다.
저장부(260)는 프레젠테이션을 위한 자료로 다수의 어플리케이션(262) 또는 다수의 콘텐츠(264) 등을 저장하고, 이 외에 프레젠테이션 메뉴, 문서 뷰어, 사용자 인터렉션에 대응하여 정의한 인터렉션 기능 등을 저장할 수 있다.
표시부(270)는 제어부(210)에서 실행한 프레젠테이션 자료 또는 사용자간 인터렉션에 대응하는 영상을 시각적으로 출력한다.
스피커(280)는 제어부(210)에서 실행한 프레젠테이션 자료의 음성 또는 사용자간 인터렉션에 대응하는 음성을 출력한다.
프로젝터 접속부(290)는 외부의 프로젝터(도 1의 100)와 연결되어 제어부(210)에서 실행한 프레젠테이션 자료 또는 사용자간 인터렉션에 대응하는 영상을 전달한다.
제어부(210)는 키 입력부를 통해 프레젠테이션을 할 콘텐츠 또는 어플리케이션의 실행이 입력되면 해당 콘텐츠 또는 어플리케이션의 영상 데이터를 저장부(260) 또는 무선 송수신부(250)로부터 수신하여 프로젝터 접속부(290)로 출력하고, 동시에 표시부(270) 및 스피커(280)로도 출력하여 사용자 단말(200)에도 함께 재생한다. 동영상이나 음성을 포함한 자료의 경우 이미지 데이터는 프로젝터(도 1의 100)를 통해 확대된 영상으로 표시하는 한편, 음성 데이터는 사용자 단말(200)의 스피커(280)를 통해 출력한다.
또한, 제어부(210)는 무선 송수신부(250)로부터 원하는 콘텐츠 또는 어플리케이션의 데이터를 수신하는 경우 키 입력부를 통해 프레젠테이션을 할 콘텐츠 또는 어플리케이션의 실행이 입력하는 과정 전에 접속할 콘텐츠 제공 장치(도 1의 300)의 액세스 정보를 입력하여 접속하는 과정을 더 수행할 수 있다.
또한, 제어부(210)는 프로젝터(도 1의 100)를 통해 영사하는 도중, 영사한 화면과 관련하여 카메라(220), 마이크(230), 센서부(240)로부터 사용자의 인터렉션 신호가 입력되면 영사된 콘텐츠 또는 어플리케이션에 대하여 기 저장된 인터렉션 기능 중 상기 인터렉션 신호에 대응하는 기능을 저장부(260)로부터 불러 와 수행한다. 수행 후 제어부(210)는 그 결과를 표시부(270)와 스피커(280), 또는 프로젝터 접속부(290)로 출력하여 사용자 단말(200) 또는 프로젝터(도 1의 100)에 반영할 수 있다.
여기서, 사용자의 인터렉션 신호는 마이크(230)를 통해 입력받은 사용자의 음성 신호, 카메라(220)를 통해 촬영한 사용자의 영상, 카메라(220)를 통해 촬영한 스크린의 그림자 영상, 또는 센서부(240)를 통해 감지한 사용자 단말의 움직임 신호 등이 될 수 있다. 이중 사용자의 인터렉션 신호는 하나이거나 또는 하나 이상을 포함할 수 있다.
인터렉션 신호에 대응하는 인터렉션 기능은 실행하고 있는 콘텐츠 또는 어플리케이션의 종류에 따라 다양하다. 예를 들어, 실행 중인 콘텐츠 또는 어플리케이션이 노래방 서비스인 경우 이의 인터렉션 기능은 마이크(230)를 통해 입력받은 사용자의 음성 신호를 토대로 노래 점수를 계산하는 것일 수 있다. 실행 중인 콘텐츠 또는 어플리케이션이 율동 따라하기 서비스인 경우 이의 인터렉션 기능은 카메라(220)를 통해 촬영한 그림자 영상으로부터 사용자의 제스쳐를 검출하고 제스쳐에 따른 점수를 계산하는 것일 수 있다.
또한, 제어부(210)는 키 입력부를 통해 콘텐츠의 자동 재생 또는 종류를 설정할 수 있고, 사용자 단말의 표시부(270)에 출력되는 화면을 콘텐츠 또는 어플리케이션의 실행 화면과 프로젝터를 통해 영사되는 화면으로 분리한 다중 화면으로 설정할 수 있다.
이하, 이상의 구성에 기초하여 프레젠테이션 서비스와 함께 사용자 인터렉션 서비스를 제공하는 방법에 대하여 구체적으로 설명하기로 한다.
도 3은 본 발명에 따른 프로젝터를 이용한 사용자 인터렉션 서비스 방법을 설명하는 흐름도이다.
먼저, 사용자 단말은 프로젝터와 접속하고 프레젠테이션 기능을 수행할 수 있다.
이후, 사용자 단말은 키 입력부를 통해 사용자로부터 프레젠테이션을 할 콘텐츠 또는 어플리케이션의 실행이 입력되면 해당 콘텐츠 또는 어플리케이션을 기 저장된 데이터로부터 불러 와 실행한다(S100). 또는 네트워크 기반의 외부 콘텐츠 제공 장치로부터 제공받아 실행할 수 있다.
예를 들어, 사용자 단말이 기 저장되어 있는 노래방 어플리케이션을 실행하는 경우, 노래방 어플리케이션에 포함되어 있는 다양한 음악 콘텐츠 중에서 원하는 음악 콘텐츠를 콘텐츠 제공 장치로부터 제공받아 실행할 수 있다.
이후, 사용자 단말은 실행한 콘텐츠 또는 어플리케이션을 표시부 및 스피커로 출력하여 표시하는 동시에, 실행한 콘텐츠 또는 어플리케이션의 영상 데이터를 프로젝터로 출력하여 외부의 스크린으로 영사시킨다(S110). 따라서, 사용자 단말에서 실행한 콘텐츠 또는 어플리케이션의 영상 데이터는 프로젝터를 통해 확대된 영상으로 표시하고, 음성 데이터는 사용자 단말의 스피커를 통해 재생한다.
이러한 과정에서, 사용자 단말은 카메라, 마이크, 센서부 등을 이용하여 프로젝터를 통해 영사된 화면과 관련되는 사용자의 인터렉션 신호를 입력 받는다(S120).
사용자의 인터렉션 신호는 사용자 단말의 마이크를 통해 입력받은 사용자의 음성 신호이거나, 사용자 단말의 카메라를 통해 촬영한 사용자의 영상 또는 외부의 스크린에 비춰보이는 그림자의 영상이거나, 또는 사용자 단말의 센서부를 통해 감지한 사용자 단말의 움직임 신호일 수 있다. 본 발명에서 사용자의 인터렉션 신호는 상기의 신호들 중 하나만 입력받을 수 있고, 또는 하나 이상을 복합적으로 입력받을 수 있다.
예를 들어, 노래방 서비스의 경우 마이크를 통해 사용자의 음성 신호만 입력받고, 동요 율동 따라하기 서비스의 경우 카메라를 통해 촬영한 사용자의 영상 또는 그림자의 영상을 입력받을 수 있다. 또는 게임 서비스의 경우 센서부를 통해 감지한 사용자 단말의 움직임 신호만을 입력받을 수 있다.
이후, 사용자 단말은 입력받은 인터렉션 신호에 대응하여 기 저장된 인터렉션 기능을 수행한다(S130).
이후, 사용자 단말은 사용자 단말이 수행한 그 결과를 표시부 또는 프로젝터로 출력하여 사용자에게 알림 기능을 제공할 수 있다(S140).
인터렉션 신호에 대응하여 기 저장된 인터렉션 기능은 실행 중인 콘텐츠 또는 어플리케이션의 서비스에 따라 다양할 수 있다.
예를 들어, 도 4의 응용 예를 살펴보면, 인터렉션 서비스의 종류가 가사 따라 부르기의 경우, 프로젝터를 통해 노래 가사 화면을 영사하고 마이크를 통해 노래를 하면 사용자 단말이 사용자의 음성 신호를 입력받아 노래 점수를 계산하고 그 결과를 제공할 수 있다.
또, 인터렉션 서비스의 종류가 동작 따라하기의 경우, 프로젝터를 통해 율동 화면을 영사하고 사용자가 프로젝터 앞에서 동작을 따라하면 사용자 단말의 카메라를 통해 프로젝터 앞에서 비춰보이는 그림자 영상을 촬영하고 그림자 영상으로부터 사용자의 율동 또는 제스쳐를 검출하여 일치 여부에 따라 평가하고 그 결과를 제공할 수 있다.
또, 인터렉션 서비스의 종류가 동작 인식 게임인 경우, 프로젝터를 통해 게임 화면을 영사하고, 사용자 단말을 소지하고 움직이면 센서부를 이용하여 감지하고 감지한 움직임에 따라 게임 아바타에 반영하여 제공할 수 있다.
이상의 설명은 본 발명을 예시적으로 설명한 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다. 예를 들어, 노래방이나, 동작 따라하기, 동작 인식 게임 등의 서비스에 대해서만 설명하고 있으나, 이를 활용하여 체조, 댄스 등의 게임을 통한 교육, 외국어 회화 교육, 유아 교육 등 교육 서비스를 위한 학습 콘텐츠로 적용할 수 있을 것이다.
따라서, 본 발명의 명세서에 개시된 실시 예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.
종래 프로젝터 시스템은 프레젠테이션을 할 장소에 프로젝터뿐만 아니라 프레젠테이션 자료를 저장한 영상 기기를 구비하고, 이들을 연결시켜야만 표시가 가능한 번거로움이 있었으나, 본 발명은 휴대용이 가능한 사용자 단말을 이용하고, 이 사용자 단말과 프로젝터간 연동으로 사용자 단말을 통해 제공되는 콘텐츠를 확대하여 외부 스크린으로 영사하면서 영사된 화면과 관련하여 사용자로부터 인터렉션 신호가 입력되면 인터렉션 신호에 대응하여 기 정의된 서비스를 제공함으로써 기존 제약적인 프레젠테이션 환경을 극복하였다. 이러한 기술은 단지 프레젠테이션의 기능을 뛰어 넘어 사용자간 인터렉션이 가능하게 함으로써 여러 명이 참여하는 게임이나, 교육, 홍보, 프로모션 등에 적용할 수 있으므로 산업상 이용 가능성이 있는 유용한 발명이다.
100: 프로젝터 200: 사용자 단말
300: 콘텐츠 제공 장치 210: 제어부
220: 카메라 230: 마이크
240: 키 입력부 250: 무선 송수신부
260: 저장부 262: 다수의 어플
264: 다수의 콘텐츠 270: 표시부
280: 스피커 290: 프로젝터 출력부

Claims (8)

  1. 외부의 스크린에 프레젠테이션을 할 영상 데이터를 확대하여 영사하는 프로젝터;
    상기 프레젠테이션을 할 콘텐츠 또는 어플리케이션의 실행이 입력되면 입력받은 콘텐츠 또는 어플리케이션의 영상 데이터를 상기 프로젝터로 전달하고, 상기 프로젝터를 통해 영사하는 화면과 관련하여 사용자의 인터렉션 신호를 입력받으면 상기 콘텐츠 또는 어플리케이션에 대하여 기 정의된 인터렉션 기능 중 상기 인터렉션 신호에 대응하는 기능을 수행하는 사용자 단말
    을 포함하는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템.
  2. 제 1 항에 있어서,
    상기 사용자의 인터렉션 신호는
    마이크를 통해 입력받은 사용자의 음성 신호, 카메라를 통해 촬영한 사용자의 영상, 상기 프로젝터를 통해 영사된 화면에 비춰보이는 그림자 영상, 또는 상기 사용자 단말의 움직임 신호 중 어느 하나 또는 하나 이상인 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템.
  3. 제 1 항에 있어서,
    상기 사용자 단말은 상기 인터렉션 신호에 대응하여 기 정의된 기능을 수행하고 그 결과를 상기 사용자 단말의 화면 또는 상기 프로젝터로 출력하여 반영하는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템.
  4. 제 1 항에 있어서,
    상기 사용자 단말은
    상기 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 단말 내 미리 저장하거나, 또는 네트워크 기반의 외부 콘텐츠 제공 장치로부터 제공받는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 시스템.
  5. 사용자 단말과 프로젝터를 연결한 시스템에서의 서비스 방법으로서,
    상기 사용자 단말이 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 실행하는 단계;
    상기 사용자 단말이 실행한 콘텐츠 또는 어플리케이션의 영상 데이터를 상기 프로젝터로 출력하여 외부의 스크린으로 영사시키는 단계;
    상기 사용자 단말이 상기 프로젝터를 통해 영사된 화면과 관련하여 사용자로부터 인터렉션 신호를 입력받는 단계; 및
    상기 사용자 단말이 입력받은 인터렉션 신호에 대응하여 기 정의된 기능을 수행하는 단계
    를 포함하는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 방법.
  6. 제 5 항에 있어서,
    상기 사용자 단말이 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 실행하는 단계는,
    상기 프레젠테이션을 할 콘텐츠 또는 어플리케이션을 기 저장된 데이터로부터 호출하여 실행하거나 또는 네트워크 기반의 외부 콘텐츠 제공 장치로부터 제공받아 실행하는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 방법.
  7. 제 5 항에 있어서,
    상기 사용자 단말이 상기 프로젝터를 통해 영사된 화면과 관련하여 사용자로부터 인터렉션 신호를 입력받는 단계는,
    상기 사용자 단말의 마이크를 통해 음성 신호를 입력받거나, 상기 사용자 단말의 카메라를 통해 촬영한 사용자의 영상을 입력받거나, 상기 프로젝터를 통해 영사된 화면에 비춰보이는 그림자 영상을 입력받거나, 또는 상기 사용자 단말의 센서부를 통해 감지한 사용자 단말의 움직임 신호를 입력받는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 방법.
  8. 제 5 항에 있어서,
    수행 후 상기 사용자 단말이 수행한 그 결과를 상기 사용자 단말의 화면 또는 상기 프로젝터로 출력하는 단계
    를 더 포함하는 것을 특징으로 하는 프로젝터를 이용한 사용자 인터렉션 서비스 방법.
KR1020120026624A 2012-03-15 2012-03-15 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법 KR20130104780A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120026624A KR20130104780A (ko) 2012-03-15 2012-03-15 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120026624A KR20130104780A (ko) 2012-03-15 2012-03-15 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20130104780A true KR20130104780A (ko) 2013-09-25

Family

ID=49453553

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120026624A KR20130104780A (ko) 2012-03-15 2012-03-15 프로젝터를 이용한 사용자 인터렉션 서비스 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20130104780A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220023681A (ko) * 2020-08-21 2022-03-02 김덕규 투영된 콘텐츠와 인터렉션하기 위한 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220023681A (ko) * 2020-08-21 2022-03-02 김덕규 투영된 콘텐츠와 인터렉션하기 위한 시스템
KR20230054806A (ko) * 2020-08-21 2023-04-25 김덕규 콘텐츠와 인터렉션하기 위한 빔 프로젝터

Similar Documents

Publication Publication Date Title
CN108769814B (zh) 视频互动方法、装置、终端及可读存储介质
US11445255B2 (en) Operation method, device, apparatus and storage medium of playing video
CN111970533B (zh) 直播间的互动方法、装置及电子设备
EP3873100A1 (en) Interactive method and apparatus for live streaming
WO2017173793A1 (zh) 一种视频投屏方法及装置
US9661390B2 (en) Method, server, and user terminal for sharing video information
US11720179B1 (en) System and method for redirecting content based on gestures
CN106131583A (zh) 一种直播处理方法、装置、终端设备及系统
CN112073765A (zh) 一种显示设备
US20160065880A1 (en) Systems and methods for picture-in-picture video conference functionality
WO2007102110A2 (en) Method of transferring data
CN103997676A (zh) 信息显示方法、装置和系统
JP5982079B2 (ja) 画像伝送の方法、装置、プログラム及び記録媒体
CN111338536B (zh) 多屏电子设备的屏幕录制方法及装置、多屏电子设备、存储介质
CN110769189B (zh) 视频会议切换方法、装置及可读存储介质
CN112118477A (zh) 虚拟礼物展示方法、装置、设备以及存储介质
CN113365153B (zh) 数据分享方法、装置、存储介质及电子设备
US10685642B2 (en) Information processing method
CN106331830A (zh) 直播处理方法、装置、设备及系统
WO2023098011A1 (zh) 视频播放方法及电子设备
CN114428598A (zh) 投屏方法、装置、电子设备及存储介质
CN109754275B (zh) 数据对象信息提供方法、装置及电子设备
CN104903844A (zh) 用于呈现网络和相关联的移动设备中的数据的方法
KR20220120303A (ko) 디스플레이 장치 및 그 동작방법
KR102051828B1 (ko) 영상 통화 방법 및 영상 통화 중개 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application