KR20240082141A - 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템 - Google Patents

센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템 Download PDF

Info

Publication number
KR20240082141A
KR20240082141A KR1020230023179A KR20230023179A KR20240082141A KR 20240082141 A KR20240082141 A KR 20240082141A KR 1020230023179 A KR1020230023179 A KR 1020230023179A KR 20230023179 A KR20230023179 A KR 20230023179A KR 20240082141 A KR20240082141 A KR 20240082141A
Authority
KR
South Korea
Prior art keywords
audience
behavior
robot
sensors
tracking
Prior art date
Application number
KR1020230023179A
Other languages
English (en)
Inventor
김영주
김근홍
Original Assignee
주식회사 리맵
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리맵 filed Critical 주식회사 리맵
Publication of KR20240082141A publication Critical patent/KR20240082141A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Electromagnetism (AREA)
  • Marketing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Remote Sensing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Toys (AREA)

Abstract

본 발명은 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템에 관한 것으로, 보다 상세하게는 실감형 콘텐츠에서 센서를 통해 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 관객동작신호를 생성하고, 관객동작신호에 따라 인터랙션되는 미디어아트, 조명설비, 음향설비 및 로봇 등 다양한 오브제의 융합된 플레이를 연출할 수 있는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템에 관한 것이다.
본 발명에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 실감형 콘텐츠가 실행되기 위한 실제 공간; 상기 실제 공간에 배치되는 객체; 상기 실제 공간의 벽면 또는 바닥면에 표시되는 미디어아트; 상기 실제 공간에 배치되는 조명설비; 상기 실제 공간에 배치되는 음향설비; 상기 실제 공간에서 동작 가능하게 프로그래밍된 로봇; 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 제어하는 컨트롤러; 및 상기 실제 공간에서 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 관객동작신호를 생성하는 관객인식센서;를 포함하되, 상기 컨트롤러는 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 정해진 타임 코드에 따라 제어하는 시나리오 모듈; 및 상기 관객인식센서로부터 수신된 관객동작신호를 분석하여 소정의 기준에 따라 인터랙션 포인트를 설정하고, 인터랙션 포인트가 설정된 경우 상기 시나리오 모듈에 의한 제어에 우선하여 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 상기 관객동작신호에 대응되게 제어할 수 있는 인터랙션 모듈;을 포함하는 것을 특징으로 한다.

Description

센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템{INTERACTION SYSTEM BASED ON AUDIENCE DETECTION, TRACKING AND BEHAVIOR THROUGH SENSORS}
본 발명은 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템에 관한 것으로, 보다 상세하게는 실감형 콘텐츠에서 센서를 통해 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 관객동작신호를 생성하고, 관객동작신호에 따라 인터랙션되는 미디어아트, 조명설비, 음향설비 및 로봇 등 다양한 오브제의 융합된 플레이를 연출할 수 있는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템에 관한 것이다.
실감형 콘텐츠는 정보통신기술(ICT)을 기반으로 인간의 오감을 극대화하여 실제와 유사한 경험을 제공하는 차세대 콘텐츠이다.
소비자와 콘텐츠의 능동적 상호작용성과 오감을 만족시키는 경험 제공, 이동성이 특징이다.
가상현실(VR), 증강현실(AR), 홀로그램, 오감 미디어 등이 대표적인 실감형 콘텐츠의 예가 되고 있으며 실감형 콘텐츠는 게임, 영화를 넘어 교육, 의료, 자동차 등 다양한 분야에서 적용되고 발전될 것으로 기대되고 있다.
종래기술로 대한민국 공개특허공보 제10-2022-0036496호(2022.03.23. 공개)에는 다양한 센서들에 기반한 복합 센싱 및 복수의 스크린들에 기반한 영상 블렌딩(blending)을 통한 '이머시브 콘텐츠 제공 시스템'이 제안된 바 있다.
하지만, 상기의 종래기술은 제공되는 실감형 콘텐츠가 단순히 복수의 스크린들에 기반한 영상 블렌딩(blending)으로만 구성되어 있어 관객의 행동에 대응되는 인터랙션에 한계가 있고, 사용자의 행동을 감지하는 장치로 깊이 카메라만을 이용하여 관객을 탐지하고 추적하는 데에는 한계가 있었다.
본 발명은 상기와 같은 종래기술의 문제점을 해결하기 위하여 안출된 것으로 본 발명의 목적은 동작 가능한 로봇을 실감형 콘텐츠의 소재로 활용하여 로보틱아트 실감형 콘텐츠의 제공이 가능하고, 센서를 통해 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 인터랙션 플레이를 연출할 수 있는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템을 제공하는 데에 있다.
상기와 같은 목적을 달성하고자 본 발명에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 실감형 콘텐츠가 실행되기 위한 실제 공간; 상기 실제 공간에 배치되는 객체; 상기 실제 공간의 벽면 또는 바닥면에 표시되는 미디어아트; 상기 실제 공간에 배치되는 조명설비; 상기 실제 공간에 배치되는 음향설비; 상기 실제 공간에서 동작 가능하게 프로그래밍된 로봇; 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 제어하는 컨트롤러; 및 상기 실제 공간에서 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 관객동작신호를 생성하는 관객인식센서;를 포함하되, 상기 컨트롤러는 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 정해진 타임 코드에 따라 제어하는 시나리오 모듈; 및 상기 관객인식센서로부터 수신된 관객동작신호를 분석하여 소정의 기준에 따라 인터랙션 포인트를 설정하고, 인터랙션 포인트가 설정된 경우 상기 시나리오 모듈에 의한 제어에 우선하여 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 상기 관객동작신호에 대응되게 제어할 수 있는 인터랙션 모듈;을 포함하는 것을 특징으로 한다.
여기서, 상기 컨트롤러는 상기 미디어아트, 조명설비, 음향설비 및 로봇을 각각 독립적으로 제어하는 복수개의 하부서버; 및 상기 복수개의 하부서버에 의한 제어를 상호 실시간으로 동기화시키는 메인서버;를 포함하는 것을 특징으로 한다.
여기서, 상기 인터랙션 모듈은 상기 미디어아트, 조명설비, 음향설비 및 로봇의 플레이 제어를 통해 연출 가능한 다수의 연출 이벤트가 저장된 이벤트DB가 구비되고, 상기 관객인식센서로부터 수신된 관객동작신호를 소정의 기준 또는 랜덤으로 상기 이벤트DB에 저장된 다수의 연출 이벤트 중 어느 하나에 매칭시켜 그 매칭된 연출 이벤트가 플레이되도록 제어하는 것을 특징으로 한다.
여기서, 상기 관객인식센서는 빛을 이용한 거리 측정을 통해 관객을 탐지 및 추적하고, 관객이 벽면 또는 바닥면의 특정 위치를 터치했는지 여부를 감지할 수 있는 라이다(Lidar) 센서; 및 상기 로봇에 설치되어 관객을 촬영하고, 촬영된 이미지를 분석하여 관객의 행동을 인식할 수 있는 이미지 센서;를 포함하는 것을 특징으로 한다.
여기서, 상기 로봇은 상호 관절로 연결되어 동작 가능한 복수개의 아암; 상기 복수개의 아암의 선단에 구비되어 관객에게 영상을 통해 시각적 정보를 전달할 수 있는 모니터; 및 상기 관객에게 소리를 통해 청각적 정보를 전달할 수 있는 스피커; 외부로부터 입력된 텍스트를 인식하고, 인식된 텍스트를 변환하여 상기 스피커를 통해 소리로 출력할 수 있는 TTS 모듈; 및 상기 스피커에서 출력되는 소리와 동조되며 상기 모니터에서 출력되는 영상에 변화를 줄 수 있는 싱크 모듈;이 구비된 것을 특징으로 한다.
여기서, 상기 로봇은 관객의 음성을 감지할 수 있는 마이크; 및 상기 마이크에 감지된 관객의 음성을 인식하고, 인공지능 기술을 이용하여 인식된 관객의 음성에 대응할 수 있는 대화문을 생성하며, 생성된 대화문을 상기 TTS 모듈을 이용하여 상기 스피커를 통해 소리로 출력할 수 있는 대화 모듈;이 더 구비된 것을 특징으로 한다.
상기와 같은 구성에 의하여 본 발명에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 로보틱아트 실감형 콘텐츠의 제공이 가능하고, 센서를 통해 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 인터랙션 플레이를 연출할 수 있는 장점이 있다.
또한, 본 발명에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 관객감지센서로 라이다(Lidar) 센서와 이미지 센서를 이용하여 효과적으로 관객을 탐지, 추적 및 행동을 감지할 수 있는 장점이 있다.
또한, 본 발명에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 복수개의 하부서버와 이를 동기화시키는 메인서버의 분산구조를 통해 각 오브제 상호 간의 연동 플레이에 레이턴시를 최소화할 수 있는 장점이 있다.
도 1은 본 발명의 일실시예에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템의 구성도
도 2는 본 발명의 일실시예에 따른 로봇의 구성도
도 3은 본 발명의 일실시예에 따른 하부서버 및 메인서버의 구성도
도 4는 본 발명의 일실시예에 따른 실제 공간과 가상의 3D 공간의 구성 관계도
도 5는 본 발명의 일실시예에 따른 객체, 미디어아트 및 조명설비의 배치에 대한 설명을 위한 예시도
도 6은 본 발명의 일실시예에 따른 객체, 조명설비, 음향설비 및 로봇의 배치에 대한 설명을 위한 예시도
도 7은 본 발명의 일실시예에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템의 작동 상태 예시도
도 8은 본 발명의 일실시예에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템을 이용한 실감형 콘텐츠의 실행 예시도
이하에서는 도면에 도시된 실시예를 참조하여 본 발명에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템의 구성도이고, 도 2는 본 발명의 일실시예에 따른 로봇의 구성도이며, 도 3은 본 발명의 일실시예에 따른 하부서버 및 메인서버의 구성도이고, 도 4는 본 발명의 일실시예에 따른 실제 공간과 가상의 3D 공간의 구성 관계도이다.
도 1을 살펴보면, 본 발명의 일실시예에 따른 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 실제 공간(10)과, 객체(20)와, 미디어아트(30)와, 조명설비(40)와, 음향설비(50)와, 로봇(60)과, 관객인식센서(70)와, 컨트롤러(80)를 포함한다.
상기 실제 공간(10)은 실제로 실감형 콘텐츠가 실행되기 위한 공간이다.
본 발명의 일실시예에서 제공되는 실감형 콘텐츠는 별도의 실감형 콘텐츠 저작 도구를 통해 도 4에 도시된 바와 같이 가상의 3D 공간(10a)에서 저작될 수 있다.
이에 도 5 내지 도 8에는 가상의 3D 공간(10a)을 이용하여 본 발명을 설명하였으나 가상의 3D 공간(10a)에서의 구성과 실제 공간(10)에서의 구성은 도 4에 도시된 바와 같이 실질적으로 일대일 매칭된다.
상기 객체(20)는 상기 실제 공간(10)에 배치되는 구성으로 도 5의 (a)에 가상의 객체(20a)로 도시된 바와 같이 3D 공간(10a)의 바닥면에 놓이는 의자 등의 소품이 될 수 있고, 도 6에 도시된 바와 같이 가상의 로봇(60a)을 원통형으로 둘러싸는 샤막(20a')이 될 수도 있다.
상기 미디어아트(30)는 상기 실제 공간(10)의 벽면 또는 바닥면에 표시되는 구성이다.
상기 미디어아트(30)를 구현하기 위해서는 실제 공간(10)의 벽면에 부착되는 대형 디스플레이 장치 또는 벽면을 향해 영상을 투사하는 프로젝터 등이 이용될 수 있다.
한편, 실감형 콘텐츠 저작 도구를 통해 구현된 가상의 미디어아트(30a)와 실제 미디어아트(30)는 도 4에 도시된 바와 같이 저작 도구의 컨트롤러부(800)와 본 시스템의 컨트롤러(80)의 정보 교환을 통해 동기화 가능하고, 고속 통신망을 이용해 양자간 실시간 동기화 또한 가능하게 구성될 수 있다.
상기 조명설비(40) 및 음향설비(50)는 조명 효과와 음향 효과를 위해 상기 실제 공간(10)에 배치되는 구성이다.
상기 조명설비(40) 및 음향설비(50) 또한 실감형 콘텐츠 저작 도구를 통해 가상으로 배치되어 가상의 3D 공간(10a)에서의 조명 및 음향 효과를 확인함으로써 실제 공간(10)에서 최적화된 조명설비(40) 및 음향설비(50)의 종류 및 배치를 정할 수 있게 구성되는 것이 바람직하다.
한편, 가상의 조명설비(40a) 및 음향설비(50a)의 플레이는 도 4에 도시된 바와 같이 저작 도구의 컨트롤러부(800)와 본 시스템의 컨트롤러(80)의 정보 교환을 통해 실제 조명설비(40) 및 음향설비(50)의 플레이와 동기화 가능하고, 고속 통신망을 이용해 양자간 실시간 동기화 또한 가능하게 구성될 수 있다.
상기 로봇(60)은 상기 실제 공간(10)에서 동작 가능하게 프로그래밍된 구성이다.
실감형 콘텐츠 저작 도구에서는 상기 실제 공간(10)에서 동작 가능하게 프로그래밍된 로봇(60)을 3D 공간(10a)에 가상의 로봇(60a)으로 구현할 수 있고, 도 4에 도시된 바와 같이 상호간 플레이의 동기화가 가능하도록 구성된다.
즉, 가상의 로봇(60a)과 실제 로봇(60)은 상호 동일한 동작이 가능하도록 프로그래밍되고, 가상의 3D 공간(10a)에 적용된 상기 가상의 로봇(60a)의 플레이(속도, 스케일 등)를 시뮬레이션한 후 조정된 움직임 값이 실제 로봇(60)에 적용되도록 정보를 송수신하여 상호 동기화시킬 수 있게 된다.
본 발명의 일실시예에서 상기 로봇(60)은 도 2에 도시된 바와 같이 복수개의 아암(61)과, 모니터(62)와, 스피커(63)와, 마이크(64)와, TTS 모듈(65)과, 싱크 모듈(66)고, 대화 모듈(67)이 구비될 수 있다.
한편, 도 6에 도시된 바와 같이 가상의 로봇(60a) 주변으로 가상의 객체(20a)로서의 샤막(20a')을 원통형으로 세워서 상기 샤막(20a')에 미디어아트(30a)가 표시되도록 구성하는 것과 같이 실제 공간(10)에서 로봇(60) 주변을 구성할 수 있다.
상기 복수개의 아암(61)은 복수개가 상호 관절로 연결되어 동작 가능한 구성이다.
상기 모니터(62)는 상기 복수개의 아암(61)의 선단에 구비되어 관객에게 영상을 통해 시각적 정보를 전달할 수 있는 구성이다.
상기 모니터(62)에는 관객에게 친숙함을 제공할 수 있는 캐릭터 얼굴 화면을 표시할 수 있다.
상기 스피커(63)는 상기 관객에게 소리를 통해 청각적 정보를 전달할 수 있는 구성이고, 상기 마이크(64)는 관객의 음성을 감지할 수 있는 구성이다.
상기 TTS 모듈(65)은 외부로부터 입력된 텍스트를 인식하고, 인식된 텍스트를 변환하여 상기 스피커(63)를 통해 소리로 출력할 수 있는 구성이다.
상기 TTS 모듈(65)은 운영요원에 의해 실시간으로 관객과의 소통을 위한 텍스트가 입력되도록 구성될 수도 있고, 후술할 대화 모듈(67)에서 생성된 대화문이 텍스트로 입력되도록 구성될 수도 있다.
상기 싱크 모듈(66)은 상기 스피커(63)에서 출력되는 소리와 동조되며 상기 모니터(62)에서 출력되는 영상에 변화를 줄 수 있는 구성이다.
일예로 상기 모니터(62)에 캐릭터 얼굴 화면이 표시된 경우 상기 싱크 모듈(66)은 상기 캐릭터 얼굴 화면의 입술이 스피커에서 출력되는 소리에 맞춰 립싱크되도록 구성할 수 있다.
상기 대화 모듈(67)은 상기 마이크(64)에 감지된 관객의 음성을 인식하고, 인공지능 기술을 이용하여 인식된 관객의 음성에 대응할 수 있는 대화문을 생성하며, 생성된 대화문을 상기 TTS 모듈(65)을 이용하여 상기 스피커(63)를 통해 소리로 출력할 수 있는 구성이다.
상기와 같은 구성에 의하여 본 발명의 일실시예에 따른 로봇(60)은 관객과 대화를 통한 인터랙션 플레이를 할 수 있게 된다.
상기 관객인식센서(70)는 상기 실제 공간(10)에서 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 관객동작신호를 생성하는 구성이다.
본 발명의 일실시예에서 상기 관객인식센서(70)는 라이다(Lidar) 센서(71)와, 이미지 센서(72)를 포함한다.
상기 라이다(Lidar) 센서(71)는 빛을 이용한 거리 측정을 통해 관객을 탐지 및 추적하고, 관객이 벽면 또는 바닥면의 특정 위치를 터치했는지 여부를 감지할 수 있는 구성이다.
상기 이미지 센서(72)는 상기 로봇(60)에 설치되어 관객을 촬영하고, 촬영된 이미지를 분석하여 관객의 행동을 인식할 수 있는 구성이다.
상기와 같이 라이다(Lidar) 센서(71)와, 이미지 센서(72)의 조합을 통해 본 발명에 따른 관객인식센서(70)는 관객을 효과적으로 탐지, 추적 및 행동을 감지할 수 있게 된다.
상기 컨트롤러(80)는 상기 미디어아트(30), 조명설비(40), 음향설비(50) 및 로봇(60)의 각 플레이를 제어하는 구성으로 시나리오 모듈(81)과, 인터랙션 모듈(82)이 구비된다.
상기 시나리오 모듈(81)은 상기 미디어아트(30), 조명설비(40), 음향설비(50) 및 로봇(60)의 각 플레이를 정해진 타임 코드에 따라 제어하는 구성이다.
즉, 상기 시나리오 모듈(81)는 실감형 콘텐츠의 전체적인 스토리를 시간의 순서에 따라 순차적으로 진행할 수 있도록 하는 구성이다.
상기 인터랙션 모듈(82)은 상기 관객인식센서(70)로부터 수신된 관객동작신호를 분석하여 소정의 기준에 따라 인터랙션 포인트를 설정하고, 인터랙션 포인트가 설정된 경우 상기 시나리오 모듈(81)에 의한 제어에 우선하여 상기 미디어아트(30), 조명설비(40), 음향설비(50) 및 로봇(60)의 각 플레이를 상기 관객동작신호에 대응되게 제어할 수 있는 구성이다.
본 발명의 일실시예에서 상기 인터랙션 모듈(82)은 상기 미디어아트(30), 조명설비(40), 음향설비(50) 및 로봇(60)의 플레이 제어를 통해 연출 가능한 다수의 연출 이벤트가 저장된 이벤트DB(821)가 구비된다.
또한, 상기 인터랙션 모듈(82)은 상기 관객인식센서(70)로부터 수신된 관객동작신호를 소정의 기준 또는 랜덤으로 상기 이벤트DB(821)에 저장된 다수의 연출 이벤트 중 어느 하나에 매칭시켜 그 매칭된 연출 이벤트가 플레이되도록 제어할 수 있다.
실감형 콘텐츠 저작 도구를 통한 가상의 3D 공간(10a)을 예로 들면 도 7(a)에서와 같이 대기 상태로 있다가 관객(70a)이 등장하는 경우 도 7의 (b)에서와 같이 벽면 및 바닥면에 미디어아트(30a)가 표시되고, 관객(70a)이 로봇(60a)을 향해 이동하는 경우 로봇(60a)은 관객을 향해 방향을 전환하는 연출 이벤트가 플레이되도록 구성될 수 있다.
한편, 상기 컨트롤러(80)는 도 3에 도시된 바와 같이 상기 미디어아트(30), 조명설비(40), 음향설비(50) 및 로봇(60)을 각각 독립적으로 제어하는 복수개의 하부서버(83)와, 상기 복수개의 하부서버(83)에 의한 제어를 상호 실시간으로 동기화시키는 메인서버(84)를 포함한다.
이러한 복수개의 하부서버(83)에 의한 분산구조 및 메인서버(84)를 통한 동기화를 통해 상기 미디어아트(30), 조명설비(40), 음향설비(50) 및 로봇(60) 상호 간의 연동 플레이에 레이턴시를 최소화할 수 있게 된다.
앞에서 설명되고 도면에서 도시된 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템은 본 발명을 실시하기 위한 하나의 실시예에 불과하며, 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안된다. 본 발명의 보호범위는 이하의 특허청구범위에 기재된 사항에 의해서만 정하여지며, 본 발명의 요지를 벗어남이 없이 개량 및 변경된 실시예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것인 한 본 발명의 보호범위에 속한다고 할 것이다.
10 실제 공간
20 객체
30 미디어아트
40 조명설비
50 음향설비
60 로봇
61 아암, 62 모니터, 63 스피커, 64 마이크
65 TTS 모듈, 66 싱크 모듈, 67 대화 모듈
70 관객인식센서
71 라이다(Lidar) 센서
72 이미지 센서
80 컨트롤러
81 시나리오 모듈
82 인터랙션 모듈 821 이벤트DB
83 하부서버
84 메인서버

Claims (6)

  1. 실감형 콘텐츠가 실행되기 위한 실제 공간;
    상기 실제 공간에 배치되는 객체;
    상기 실제 공간의 벽면 또는 바닥면에 표시되는 미디어아트;
    상기 실제 공간에 배치되는 조명설비;
    상기 실제 공간에 배치되는 음향설비;
    상기 실제 공간에서 동작 가능하게 프로그래밍된 로봇;
    상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 제어하는 컨트롤러; 및
    상기 실제 공간에서 관객을 탐지, 추적 및 행동을 감지하여 그에 매칭되는 관객동작신호를 생성하는 관객인식센서;를 포함하되,
    상기 컨트롤러는, 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 정해진 타임 코드에 따라 제어하는 시나리오 모듈; 및 상기 관객인식센서로부터 수신된 관객동작신호를 분석하여 소정의 기준에 따라 인터랙션 포인트를 설정하고, 인터랙션 포인트가 설정된 경우 상기 시나리오 모듈에 의한 제어에 우선하여 상기 미디어아트, 조명설비, 음향설비 및 로봇의 각 플레이를 상기 관객동작신호에 대응되게 제어할 수 있는 인터랙션 모듈;을 포함하는 것을 특징으로 하는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템.
  2. 제1항에 있어서,
    상기 컨트롤러는, 상기 미디어아트, 조명설비, 음향설비 및 로봇을 각각 독립적으로 제어하는 복수개의 하부서버; 및 상기 복수개의 하부서버에 의한 제어를 상호 실시간으로 동기화시키는 메인서버;를 포함하는 것을 특징으로 하는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템.
  3. 제1항에 있어서,
    상기 인터랙션 모듈은, 상기 미디어아트, 조명설비, 음향설비 및 로봇의 플레이 제어를 통해 연출 가능한 다수의 연출 이벤트가 저장된 이벤트DB가 구비되고, 상기 관객인식센서로부터 수신된 관객동작신호를 소정의 기준 또는 랜덤으로 상기 이벤트DB에 저장된 다수의 연출 이벤트 중 어느 하나에 매칭시켜 그 매칭된 연출 이벤트가 플레이되도록 제어하는 것을 특징으로 하는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템.
  4. 제1항 내지 제3항 중 어느 하나의 항에 있어서,
    상기 관객인식센서는,
    빛을 이용한 거리 측정을 통해 관객을 탐지 및 추적하고, 관객이 벽면 또는 바닥면의 특정 위치를 터치했는지 여부를 감지할 수 있는 라이다(Lidar) 센서; 및
    상기 로봇에 설치되어 관객을 촬영하고, 촬영된 이미지를 분석하여 관객의 행동을 인식할 수 있는 이미지 센서;를 포함하는 것을 특징으로 하는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템.
  5. 제1항 내지 제3항 중 어느 하나의 항에 있어서,
    상기 로봇은, 상호 관절로 연결되어 동작 가능한 복수개의 아암; 상기 복수개의 아암의 선단에 구비되어 관객에게 영상을 통해 시각적 정보를 전달할 수 있는 모니터; 및 상기 관객에게 소리를 통해 청각적 정보를 전달할 수 있는 스피커; 외부로부터 입력된 텍스트를 인식하고, 인식된 텍스트를 변환하여 상기 스피커를 통해 소리로 출력할 수 있는 TTS 모듈; 및 상기 스피커에서 출력되는 소리와 동조되며 상기 모니터에서 출력되는 영상에 변화를 줄 수 있는 싱크 모듈;이 구비된 것을 특징으로 하는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템.
  6. 제5항에 있어서,
    상기 로봇은, 관객의 음성을 감지할 수 있는 마이크; 및 상기 마이크에 감지된 관객의 음성을 인식하고, 인공지능 기술을 이용하여 인식된 관객의 음성에 대응할 수 있는 대화문을 생성하며, 생성된 대화문을 상기 TTS 모듈을 이용하여 상기 스피커를 통해 소리로 출력할 수 있는 대화 모듈;이 더 구비된 것을 특징으로 하는 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템.
KR1020230023179A 2022-11-30 2023-02-21 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템 KR20240082141A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220164899 2022-11-30
KR1020220164899 2022-11-30

Publications (1)

Publication Number Publication Date
KR20240082141A true KR20240082141A (ko) 2024-06-10

Family

ID=91482601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230023179A KR20240082141A (ko) 2022-11-30 2023-02-21 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템

Country Status (1)

Country Link
KR (1) KR20240082141A (ko)

Similar Documents

Publication Publication Date Title
US10447899B2 (en) System and method for 3D projection mapping with robotically controlled objects
CN106363637A (zh) 一种机器人快速示教方法及装置
SA110310836B1 (ar) مساعدة تعاونية ظاهرية تعتمد على صورة رمزية
KR20140082266A (ko) 혼합현실 콘텐츠 시뮬레이션 시스템
KR20080033352A (ko) 상호 작용식 오락 시스템과 이의 작동 방법
US11354871B2 (en) Head-mountable apparatus and methods
US11209657B2 (en) Position tracking system for head-mounted display systems that includes angle sensitive detectors
CN107437063A (zh) 用于感测环境的装置和方法、非暂态计算机可读介质
US20190355281A1 (en) Learning support system and recording medium
KR20240082141A (ko) 센서를 통한 관객 탐지, 추적 및 행동에 따른 인터랙션 시스템
CN113720202A (zh) 一种沉浸式3d影像射击训练靶场软件系统及方法
US11405531B2 (en) Data processing
US11314082B2 (en) Motion signal generation
US20170246534A1 (en) System and Method for Enhanced Immersion Gaming Room
Kawahara et al. Transformed human presence for puppetry
KR102212035B1 (ko) 제스처 인식 기반 원격 교육서비스 시스템 및 방법
CN213987885U (zh) 基于虚拟现实技术的军用沉浸式体验设施
US11979448B1 (en) Systems and methods for creating interactive shared playgrounds
US20220347705A1 (en) Water fountain controlled by observer
WO2023063159A1 (ja) 情報処理装置、及び情報処理方法
WO2023228432A1 (en) Robot, robot control method, and computer program
KR20170011412A (ko) 페이셜모션캡쳐식 화상 강의 시스템
KR20240082140A (ko) 3d 공간 시뮬레이션 기반 실감형 콘텐츠 저작 시스템
Dwivedi et al. Adaptive Camera System for Enhanced Virtual Teleportation: Expanding the Boundaries of Immersive Experiences
Takacs et al. Towards a unified control framework for humanoid robots and their virtual avatars in physical and virtual reality-based interactions