KR20120078564A - 실감 획득을 위한 시스템 및 방법 - Google Patents

실감 획득을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20120078564A
KR20120078564A KR1020110068443A KR20110068443A KR20120078564A KR 20120078564 A KR20120078564 A KR 20120078564A KR 1020110068443 A KR1020110068443 A KR 1020110068443A KR 20110068443 A KR20110068443 A KR 20110068443A KR 20120078564 A KR20120078564 A KR 20120078564A
Authority
KR
South Korea
Prior art keywords
sensing
sensory
sensory effect
effect metadata
valid data
Prior art date
Application number
KR1020110068443A
Other languages
English (en)
Inventor
오현우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110142430A priority Critical patent/KR20120078610A/ko
Priority to US13/340,273 priority patent/US20120169855A1/en
Publication of KR20120078564A publication Critical patent/KR20120078564A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/003Kinematic accelerometers, i.e. measuring acceleration in relation to an external reference frame, e.g. Ferratis accelerometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/42Devices characterised by the use of electric or magnetic means
    • G01P3/44Devices characterised by the use of electric or magnetic means for measuring angular speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 실감 획득을 위한 시스템 및 방법에 관한 것으로, 영상 획득 장치와 접속된 실감 획득 시스템에 있어서, 상기 영상 획득 장치의 주변을 센싱하여 센싱 데이터를 생성하는 센싱 수단; 상기 센싱 수단에 의해 생성된 센싱 데이터로부터 유효 데이터를 추출하기 위한 기준값을 설정하는 환경 설정 수단; 상기 센싱 수단에 의해 생성된 센싱 데이터로부터 상기 환경 설정 수단에 의해 설정된 기준값에 따라 유효 데이터를 추출하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성 수단; 및 상기 영상 획득 장치의 영상 획득 시점 및 종점에 따라 상기 센싱 수단의 동작을 제어하는 시작/종료 처리 수단을 포함하는 실감 획득 시스템을 제공함으로써, 카메라로 영상을 획득하는 시점에서 카메라 주변 환경 정보를 센싱하여 유효 데이터를 추출하고, 이를 이용해 실감 효과 메타데이터를 생성하여 제공함으로써 보다 현실감과 현장감을 제공할 수 있다.

Description

실감 획득을 위한 시스템 및 방법{SYSTEM AND METHOD FOR REAL-SENSE ACQUISITION}
본 발명은 실감 획득을 위한 시스템 및 방법에 관한 것으로, 더욱 자세하게는 카메라 촬영 시점에 센서를 통해 주변 환경 정보를 센싱하여 유효데이터를 추출하고 이를 기반으로 실감 효과 메타 데이터를 생성함으로써 실감 효과를 제공하기 위한, 시스템 및 이를 이용한 실감 획득 방법에 관한 것이다.
우리가 흔히 말하는 디지털홈은 유무선 홈네트워킹 기술을 이용하여 가정내에 존재하는 다양한 정보가전 및 디지털 디바이스를 제어하고, 고품질 양방향 멀티미디어 서비스를 제공하는 홈을 말한다. IT839 정책에서 그간 표방했던 디지털홈의 범위는 가정, 사무실 등 indoor로 한정되어 있었지만, 향후 디지털홈의 범위는 사회, 그룹, 도시 등으로 확대된 유비쿼터스홈으로 발전할 것이다. 이러한 유비쿼터스홈은 디지털 디바이스들이 천장, 벽면, 바닥, 사람의 의복이나 신체부위로 숨어 들어가는 홈으로 표현될 수 있으며, 오감위주의 실감 기술과 디바이스간 자율 협업을 기반으로 하는 지능형 기술이 복합적으로 적용되어 어떠한 장소에서의 이벤트를 홈에서 구현할 수 있는 단계로 정리될 수 있다. 이 단계에서는 홈을 바다속의 풍경으로 만들어 돌고래와 대화를 하거나 괌의 비치로 만들어 마치 자신이 괌에 있는 착각 속에 빠지게 할 수도 있는 꿈의 유비쿼터스홈 출현이 전망되고 있다. 이러한 유비쿼터스홈을 구현하기 위해서는 우선 관련 기술의 진화방향과 시장에서 요구하는 서비스들에 대한 고려가 수반되어야 한다. 먼저 관련 기술인 미디어와 디지털 디바이스 기술 동향을 살펴보면, 미디어는 대화형미디어, 맞춤형미디어, 리치미디어, 오감미디어, 몰입형미디어, 실감체험형 미디어 등으로 다양해지고 있으며, 이러한 미디어를 재현하는 디바이스도 고해상도를 지원하는 DTV, 휴대성을 지원하는 DMB폰, 거울, 유리, 벽면을 이용하는 Wall Display등으로 진화해 가고 있다. 일반적으로 미디어라 함은 오디오(음성, 음향 포함) 및 비디오(이미지 포함) 신호를 지칭하며, 여기에 메타데이터를 포함할 때 컨텐츠라는 용어를 사용한다. 현재의 미디어 기술은 실감형 미디어로 발전되고 있으며, 단순히 보는 것과 듣는 것에 대한 실감뿐만 아니라 사람의 오감을 만족시키는 오감형 미디어로 진화하고 있다. 이러한 미디어를 재생하기 위한 디바이스들 역시 기존에 아날로그 형태로 기록된 미디어를 재생하는 디바이스들로부터 디지털로 기록된 미디어를 재생하는 디바이스로 변화하고 있으며, 더 나아가 실감 오디오 재생을 위한 멀티 채널 오디오 기술 및 실감 영상 재생을 위한 고화질 디스플레이와 입체영상 디스플레이 기술로 발전되고 있다. 일반 가정에서 사용되던 모든 가전 디바이스들 또한 아날로그 신호에 의하여 제어되던 형태에서 디지털 신호에 의하여 제어되도록 변화되고 있으며, 다양한 디바이스들이 하나의 홈서버에 의하여 제어될 수 있도록 발전되고 있다.
미디어와 디바이스의 진화는 미디어에 다양한 부가 정보를 포함하여 사용자로 하여금 보다 많은 정보를 제공하여 편리하고 실감있게 재현하기 위한 노력의 결과이며, 이는 사용자의 요구에 부응하는 진화 과정으로 볼 수 있다. 현실적으로 미디어와 디바이스의 발전은 디바이스의 진화에 따른 미디어의 개발 혹은 미디어의 개발에 따른 디바이스의 진화로 이어지는 원인과 결과의 구조 하에 진행되고 있으며, 이들은 하나의 미디어가 하나의 디바이스와 일대일로 매핑되어 서비스를 재현하는 SMSD(Single-Media Single-Device; 확장형 미디어 서비스를 위하여 하나의 미디어를 여러 디바이스와 연동하여 재현시키는 기술) 기반의 서비스가 주를 이루고 있다. 이러한 SMSD의 서비스 구조에서 미디어를 더욱 사실적으로 재현하기 위하여 입체음향 혹은 입체영상 미디어 개발과 함께 이러한 미디어를 재현하기 위한 입체음향장치 혹은 입체영상장치가 개발되고 있으며 이들은 향후 기존의 장치를 대체해 갈 것으로 예측되고 있지만 기술이 성숙단계에 이르기에는 아직 해결해야 할 기술적 한계가 많은 상황이다.
또한, 이러한 미디어의 진화와 디바이스의 발전은 과거의 오디오, 비디오 만으로 한정되던 미디어의 개념을 다양한 디바이스가 연동되는 미디어의 개념으로 확장하도록 요구하고 있다. 즉, 하나의 미디어에 의하여 멀티디바이스가 동작할 수 있는 새로운 형태의 미디어 포맷이 바로 그것이다. 사실, 미디어와 디바이스가 연동되는 개념은 이미 다양한 분야에서 사용되고 있다.
예를 들어 음악에 따라 분수가 춤을 추는 음악분수, 실감 게임을 위한 진동 조이스틱이나 진동의자, 음악에 따라 조명 효과가 달라지는 노래방 조명 시스템 등은 미디어의 특성에 따라 적절한 디바이스들이 동작하므로 실감을 높이거나 사람의 감성을 자극하도록 하는 시스템들이며, 이미 우리의 생활 속에서 사용되고 있다.
이러한 실감 기술과 관련하여 논문(‘Architecture of the SMMD Media Service System’, 6th WSEAS International Conference on E-ACTIVITIES, Tenerife, Spain, December 14-16, 2007)은 하나의 미디어에 실감 효과 메타데이터를 추가하여 단일 ne-미디어(ne-media; next-generation media)를 생성하는 기술을 개시하고 있다. 여기서, ne-미디어는 오디오, 비디오, 텍스트 및 실감적인(realistic) 오감(five-sense) 정보, 상기 종류의 정보를 인접한 사용자에게 표현하기 위한 디지털 디바이스 제어 정보, 및 동기화 정보를 포함하는 새로운 형태의 미디어 포맷이다. 단일 ne-미디어는 하나의 파일로 저작되어 홈서버에 저장된다. 홈서버는 ne-미디어 파일을 읽어 들여 실감 효과 메타데이터를 추출하고 미디어와 동기화를 맞추어 실감 효과 디바이스를 제어함으로써 실감 효과를 극대화하는 서비스 구조로 이루어져있다.
그리고, 한국 특허 공개 제10-2008-0016393호(‘SMMD 기반 유비쿼터스 홈 미디어 서비스 장치 및 방법과 그를 이용한 홈 미디어 서비스 시스템 및 그 방법’, 2008. 02. 21. 공개)는 동영상, 오디오 및 텍스트로 이루어진 기존의 미디어에 실감 서비스를 위한 디바이스 제어 및 동기화 정보를 추가할 수 있는 새로운 구조의 미디어(ne-미디어)를 생성하고, 상기 생성한 ne-미디어에 개인의 취향 및 주변 디바이스 환경에 맞는 실감 재현정보를 입력한 후 주변 디바이스로 전송함으로써, 가정, 사무실, 공공 장소 등 사용자의 물리적 위치에 관계없이 주변의 다양한 기능을 가진 디바이스들이 ne-미디어를 통해 자율적으로 융합하여 사용자에게 실감있는 미디어 서비스를 제공하도록 한다.
하지만, 이와 같은 종래 기술들은 기존에 이미 생성된 미디어에 저작자가 의도한 실감 효과를 추가하여 ne-미디어를 생성하고 실감 효과를 추가하지만, 카메라 영상을 획득하는 시점의 주변환경 정보를 실시간으로 제공하지 못하기 때문에 영상 정보 취득 시점의 실감 효과를 제공하지 못한다.
또한, 상기 종래 기술들은 기존의 미디어를 활용함으로써 기존 미디어가 가지고 있는 시간 정보에 저작자가 실감 효과 메타데이터에 대한 기준 시간을 맞추어야 하며, 저작툴을 통해 각 장면에 따라 저작자가 수동으로 실감 효과를 추가해야 하는 문제점이 있다.
이로 인해, 카메라를 촬영하는 시점, 즉, 영상 취득 시점에 정확하게 동기화를 맞춰 실감 효과 메타데이터를 자동적으로 생성하여 추가함으로써 보다 실감나는 효과를 제공할 수 있는 시스템 및 방법이 필요하다.
따라서, 본 발명은 상기와 같은 문제점을 해결하고 상기와 같은 요구에 부응하기 위하여 제안된 것으로, 카메라 촬영 시점에 센서를 통해 주변 환경 정보를 센싱하여 유효데이터를 추출하고 이를 기반으로 실감 효과 메타 데이터를 생성함으로써 실감 효과를 제공하기 위한 시스템 및 방법을 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명은, 영상 획득 장치와 접속된 실감 획득 시스템에 있어서, 상기 영상 획득 장치의 주변을 센싱하여 센싱 데이터를 생성하는 센싱 수단; 상기 센싱 수단에 의해 생성된 센싱 데이터로부터 유효 데이터를 추출하기 위한 기준값을 설정하는 환경 설정 수단; 상기 센싱 수단에 의해 생성된 센싱 데이터로부터 상기 환경 설정 수단에 의해 설정된 기준값에 따라 유효 데이터를 추출하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성 수단; 및 상기 영상 획득 장치의 영상 획득 시점 및 종점에 따라 상기 센싱 수단의 동작을 제어하는 시작/종료 처리 수단을 포함하는 실감 획득 시스템을 제공한다.
또한 상기 목적을 달성하기 위한 본 발명은, 상기 영상 획득 장치의 주변을 센싱하여 센싱 데이터를 생성하는 센싱 단계; 상기 센싱 단계에 의해 생성된 센싱 데이터로부터 유효 데이터를 추출하기 위한 기준값을 설정하는 환경 설정 단계; 및 상기 센싱 단계에 의해 생성된 센싱 데이터로부터 상기 환경 설정 단계에 의해 설정된 기준값에 따라 유효 데이터를 추출하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성 단계를 포함하되, 상기 센싱 단계는 상기 영상 획득 장치의 영상 획득 시점 및 종점에 따라 제어되는 실감 획득 방법을 제공한다.
본 발명에 의하면, 카메라로 영상을 획득하는 시점에서 카메라 주변 환경 정보를 센싱하여 유효 데이터를 추출하고, 이를 이용해 실감 효과 메타데이터를 생성하여 제공함으로써 보다 현실감과 현장감을 제공할 수 있으며, 외부에 접속된 실감방송서버에 전송함으로써, 실시간으로 영상과 실감 효과를 재현할 수 있는 효과가 있다.
또한, 본 발명에 의해, 센싱데이터를 기반으로 유효데이터를 추출하고, 이를 통해 실감 효과 메타데이터를 생성하여 메모리에 저장함으로써, 저작툴 서버와 같은 외부서버에 전달하여 저작툴을 이용한 실감 효과 편집 및 실감 효과를 포함한 미디어 생성 및 출력이 가능하다.
나아가, 본 발명에 의해, 카메라를 통해 영상을 촬영하는 사용자는 실감 효과 메타데이터를 임의의 시점에 추가할 수 있으며, 사용자는 실감 획득 시스템의 환경정보 기준값을 자유롭게 변경함으로써 각종 센서 단위로 실감 효과 메타데이터의 생성을 조절할 수 있는 효과가 있다.
도 1은 본 발명이 적용되는 네트워크에 대한 일실시예 구성도.
도 2는 본 발명에 따른 실감 획득 시스템에 대한 일실시예 구성도.
도 3은 본 발명에 따른 실감 획득 시스템에서의 실감 획득 방법에 대한 흐름도.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면들을 함께 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.
본 발명에 따르면, 실감 획득 시스템은 카메라의 주변환경의 온도, 습도, 조도, 카메라 움직임, 향기, 바람, 위치정보를 센서를 통하여 카메라 촬영 시점에 센싱하고, 당해 센싱된 데이터를 기반으로 유효데이터를 추출하며, 당해 추출된 유효데이터를 기반으로, 발열효과, 물분사효과, 조명효과, 모션효과, 발향효과, 바람효과, 위치효과 등의 실감 효과 메타데이터를 생성하여 실감방송서버 또는 SMMD 저작서버로 제공함으로써, 실감 효과 메타데이터를 자동으로 생성하고, 실시간 실감방송을 가능하게 한다.
이하, 첨부된 도면들을 함께 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 덧붙여, 본 발명을 설명하는데 있어, 당업자 수준에서 카메라 주변 환경을 센싱하는 센서를 포함하는 실감 획득 시스템은 어떠한 센서를 적용하여 카메라 주변 환경을 센싱할 수 있음을 쉽게 이해할 수 있을 것이다.
도 1은 본 발명이 적용되는 네트워크에 대한 일실시예 구성도이다.
도 1에 도시된 바와 같이, 본 발명이 적용되는 네트워크는 실감 획득 시스템(101), 카메라(102), 외부서버(103), 홈서버(104), 단말(105), 실감 효과를 제어하는 실감 효과 디바이스(106)를 포함한다. 이러한 네트워크는 휴대 인터넷(와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(WiMAX), 모바일 와이맥스(M-WiMAX) 등), LTE(Long Term Evolution)등 일 수 있다.
도 1을 참조하면, 본 발명에 의한 실감 획득 시스템(101)은 카메라(102)에 부착하여 사용되며, 실감방송서버 또는 실감 효과 저작툴 서버와 같은 외부서버(103)에 카메라 영상 및 실감 효과 메타데이터를 함께 제공한다.
상기 외부서버(103)는 유무선 통신 인터페이스를 통하여 네트워크에 접속된 홈서버(104)에 카메라 영상 및 실감 효과 메타데이터를 전송한다.
상기 외부서버(103)로부터 카메라 영상 및 실감 효과 메타데이터를 전달받은 홈서버(104)는 실감 효과 메타데이터가 포함된 미디어를 파싱하여 단말(105)에 영상을 전달한다. 이와 동시에, 상기 홈서버(104)는 실감 효과 메타데이터를 분석하여 실감 효과 디바이스(106)와 매핑하고, 상기 단말(105)을 통해 재생시키는 영상 장면과 동기화하여 제어한다.
상기 단말(105)은 상기 홈서버(104)로부터 전달받은 영상을 재생시키며, 상기 실감 효과 디바이스(106)는 상기 홈서버(104)로부터 전달받은 매핑된 실감 효과 메타데이터를 상기 단말(105)과 동기화하여 출력한다.
도 2는 본 발명에 따른 실감 획득 시스템에 대한 일실시예 구성도이다.
도 2에 도시된 바와 같이, 실감 획득 시스템은 전원공급부(201), 전원리셋부(202), 기능버튼부(203), 카메라 통신 인터페이스부(204), 시작/종료 처리부(205), 네트워크 통신 인터페이스부(206), 센싱데이터 수신부(207), 센서부(208), 센싱데이터 전처리부(209), 환경정보 기준 설정부(210), 유효데이터 추출부(211), 실감 효과 메타데이터 생성부(212), 절대시간 삽입부(212), 실감 효과 메타데이터 관리부(214), 실감 효과 메타데이터 저장부(215)를 포함한다.
도 2를 참조하면, 전원공급부(201)는 실감 획득 시스템(101)를 작동시키기 위해 카메라 전원 및 휴대용 배터리로부터 전원을 공급받는다.
전원리셋부(202)는 사용자에 의해 상기 실감 획득 시스템(101)의 전원 버튼이 눌러졌을 경우, 상기 실감 획득 시스템(101)이 동작을 수행 할 수 있도록 전원을 인가한다.
기능버튼부(203)는 전송버튼부(2031) 및 복수개의 실감 효과 수동 입력부(2032)를 포함한다.
상기 전송버튼부(2031)는 상기 실감 획득 시스템(101)의 전원리셋부(202)를 통해 전원 인가 신호를 전달받으면, 상기 실감 획득 시스템(101)에 포함된 복수개의 센서의 정보를 초기화 시킨다.
또한 상기 전송버튼부(2031)는 센서를 통해 카메라 주변 환경에 대한 정보를 센싱하여 실감 효과 메타데이터 생성을 위한 시작 시간 및 종료 시간 메시지를 시작/종료 처리부(205)에 전달한다.
상기 실감 효과 수동 입력부(2032)는 카메라 영상을 촬영하는 시점에 상기 실감 획득 시스템(101)을 이용하는 사용자로부터 임의의 실감 효과를 입력받으면, 상기 실감 효과 수동 입력부(2032)는 상기 사용자가 요청한 실감 효과에 따른 실감 효과 메타데이터를 생성하여 제공한다.
예를 들면, 상기 실감 효과 수동 입력부(2032)는 카메라 영상을 촬영하는 시점에 사용자로부터 바람효과를 입력받으면, 바람효과를 나타내는 실감 효과 메타데이터를 강제로 생성하여 제공한다.
카메라 통신 인터페이스부(204)는 카메라 영상을 촬영하는 시작하는 시작 정보 및 촬영을 종료하는 종료 정보를 수신하여 상기 시작/종료 처리부(205)에 전달한다.
시작/종료 처리부(205)는 후술되는 센싱데이터 수신부(207)의 동작을 제어하며, 이러한 제어는, (i) 상기 전송버튼부(2031)로부터 실감 효과 메타데이터 생성을 위한 센싱데이터 수신 시작 시간 및 종료 시간 메시지, (ii) 상기 카메라 통신 인터페이스(34)로부터 전달받은 카메라의 녹화 시작 및 종료 정보, 또는 (iii) 상기 외부서버(103)로부터 네트워크 통신 인터페이스부(206)를 통해 센싱데이터 수신 시작 시간 및 종료 시간 메시지에 기초하여 이루어진다.
예를 들어, 네트워크 통신 인터페이스부(206)는 상기 외부서버(103)가 실감 효과 메타데이터를 전달받기 위한 센싱데이터 수신 시작 및 종료 시간 메시지를 전달받아 상기 시작/종료처리부(205)에 전달한다.
센싱데이터 수신부(207)는 상기 센서부(208)를 통해 카메라 촬영 시점에 카메라 주변 환경을 센싱한 센싱데이터를 수신하여 센싱데이터 전처리부(209)에 전달한다. 센싱데이터 수신부(207)는 상기 시작/종료 처리부(205)로부터 제어 메시지, 즉 센싱데이터 수신 시작 또는 녹화 시작 메시지를 수신하면, 상기 센싱데이터 수신부(207)에서 상기 센서부(208)로부터 센싱된 센싱 데이터를 수신하여 센싱데이터 전처리부(209)에 전달한다.
센서부(208)는 카메라가 촬영하는 시점부터 카메라 주변 환경을 센싱하는 센서를 관리한다. 상기 센서는 온도센서, 습도센서, 조도센서, 가속도센서, 각속도센서, 향기센서, 바람센서, GPS(Global Positioning System)센서 등을 포함하며, 이를 통해 카메라 주변 환경을 센싱한다. 상기 센싱데이터 수신부(207)로부터 센싱데이터를 전달받은 센싱데이터 전처리부(209)는 상기 센싱데이터를 스케일링 하고 간섭을 제거하며, 0.1초 미만으로 센싱되는 데이터를 0.1초 단위로 어그리게이션한다. 이때, 상기 어그리게이션은 주로 평균값을 활용한다.
그리고 상기 센싱데이터 전처리부(209)는 전처리된 센싱데이터를 환경정보 기준 설정부(210)에 전달하며, 상기 환경정보 기준 설정부(210)에 포함된 센싱주기 설정부(2101)에 의해 센싱데이터를 모아 유효데이터 추출부(211)에 전달한다.
환경정보 기준 설정부(210)는 상기 센싱데이터 전처리부(209)로부터 전달받은 센싱데이터를 기반으로 환경정보 기준값을 설정한다.
예를 들어, 상기 환경정보 기준 설정부(210)는 온도센서로부터 센싱된 센싱데이터를 상기 센싱데이터 전처리부(209)를 통해 전달받으면, 상기 센싱데이터 전처리부(209)로부터 전달받은 센싱데이터를 현재 온도로 초기값으로 설정한다.
또한 상기 환경정보 기준 설정부(210)는 상기 네트워크 통신 인터페이스(206)로부터 상기 외부서버(103)에서 변경한 환경정보 기준값을 수신하여, 상기 변경된 환경정보 기준값을 기반으로 각 센서 단위로 기준값을 설정한다.
여기서 상기 환경정보 기준 설정부(210)는 센싱주기 설정부(2101), 전송주기 설정부(2102) 및 한계값 설정부(2103)를 포함한다.
상기 센싱주기 설정부(2101)는 카메라 촬영 시점에서 각 센서를 통해 카메라 주변 환경을 센싱하기 위한 센싱 주기를 설정한다.
상기 전송주기 설정부(2102)는 센싱데이터를 기반으로 실감 효과 메타데이터를 생성하고 이를 외부서버에 제공하거나 메모리에 저장하는 주기를 설정한다.
상기 한계값 설정부(2103)는 센싱데이터의 변화량의 한계점을 설정하여 유효데이터를 추출하기 위한 한계값을 설정한다.
유효데이터 추출부(211)는 상기 환경정보 기준 설정부(210)의 센싱주기, 전송주기, 한계점을 기반으로 상기 센싱데이터 전처리부(209)로부터 전달받은 센싱데이터를 실감 효과 데이터로서 유효한 유효데이터를 추출하여 실감 효과 메타데이터 생성부(212)에 전달한다.
실감 효과 메타데이터 생성부(212)는 상기 유효데이터 추출부(211)로부터 전달받은 유효데이터를 바탕으로 실감 효과 메타데이터를 생성하며, 상기 생성된 실감 효과 메타데이터를 실감 효과 메타데이터 관리부(214)에 전달한다.
이때, 실감 효과 메타데이터 생성부(212)는 절대시간 삽입부(213)로부터 기준 시간을 제공받아 실감 효과 재현 시간을 설정한다. 그리고 상기 실감 효과 메타데이터는 실감 효과 시간, 시작시간, 지속시간, 스케일링 값 등을 포함한다.
상기 절대시간 삽입부(213)는 상기 시작/종료 처리부(205)로부터 시작 시간 메시지를 전달받은 시점부터 기준시간을 생성하여 상기 실감 효과 메타 데이터 생성부(212)에 실감 효과 재현 시간을 제공한다.
상기 실감 효과 메타데이터 관리부(214)는 상기 실감 효과 메타데이터 생성부(212)로부터 실감 효과 메타데이터를 전달받으면 전송모드를 확인한다.
확인 결과, 전송모드인 경우, 상기 실감 효과 메타데이터를 상기 네트워크 통신 인터페이스부(206)를 통해 외부에 접속된 외부서버(103)에 전송한다.
확인 결과, 전송모드가 아닌 경우, 상기 실감 효과 메타데이터를 실감 효과 메타데이터 저장부(215)에 저장한다. 여기서 상기 외부서버(103)로부터 상기 실감 효과 메타데이터 저장부(215)에 저장된 상기 실감 효과 메타데이터를 요청 받을 경우, 상기 실감 효과 메타데이터 저장부(215)에 저장된 실감 효과 메타데이터를 상기 외부서버(103)에 전달한다.
실감 효과 메타데이터 저장부(215)는 상기 실감 효과 메타데이터 관리부(214)로부터 실감 효과 메타데이터를 전달받아 메모리에 저장하며, 상기 실감 효과 메타데이터 관리부(214)의 요청에 따라 실감 효과 메타데이터를 상기 실감 효과 메타데이터 관리부(214)에 전달한다.
도 3은 본 발명에 따른 실감 획득 시스템에서의 실감 획득 방법에 대한 흐름도이다.
도 3을 참조하면, 카메라 영상을 촬영하는 시점에, 상기 실감 획득 시스템(101)에서 상기 센싱데이터 수신부(207)는 상기 카메라 주변 환경을 상기 센서부(208)의 센서를 통해 센싱된 센싱데이터를 수신하여, 이를 상기 센싱데이터 전처리부(209)에 전달한다(S301).
상기 센싱데이터 수신부(207)로부터 센싱데이터를 수신한 상기 센싱데이터 전처리부(209)는 상기 센싱데이터의 지터를 제거하고 정수 및 소수값 스케일링을 하여, 0.1초 단위로 에그리에이션을 수행함으로써 센싱데이터를 전처리한다(S303).
그리고 상기 센싱데이터 전처리부(209)는 상기 전처리된 센싱데이터를 환경정보 기준 설정부(210) 및 상기 유효데이터 추출부(211)에 전달한다.
상기 센싱데이터 전처리부(209)로부터 전처리된 센싱데이터를 수신한 상기 환경정보 기준 설정부(210)는 상기 센싱데이터를 기반으로 환경정보 기준값으로 설정한다(S305).
즉, 환경정보 기준 설정부(210)는 온도 센서를 통해 센싱되어 전처리된 센싱데이터를 확인한 결과, 현재 온도가 섭씨 20도 이면 이를 기준값으로 하여 5도가 변화되면 히터장치를 작동시키기 위해 상기 현재 온도를 기준값으로 설정한다.
그리고 상기 환경정보 기준 설정부(210)는 외부서버(103)로부터 외부 설정 이벤트가 발생하는지 확인한다(S307).
확인 결과(S307), 상기 외부서버(103)로부터 외부 설정 이벤트가 발생하는 경우(S307a), 상기 S305단계로 돌아가 상기 외부서버(103)로부터 발생한 외부설정 이벤트를 바탕으로 환경정보 기준값을 재설정한다.
즉, 상기 외부서버(103)가 상기 실감 획득 시스템(101)에 접속하게 되면 외부설정 모드로 전환하여 환경정보 기준값인 센싱주기, 전송주기, 한계값 등을 각 센서 단위로 재설정한다.
즉, 상기 환경정보 기준 설정부(210)는 상기 외부서버(103)에 의해 센싱주기, 전송주기, 한계값을 변경한다.
그러나 확인 결과(S307), 상기 외부서버(103)로부터 외부 설정 이벤트가 발생하지 않는다면(S307b), 상기 센싱데이터 전처리부(209)로부터 센싱데이터를 전달받은 유효데이터 추출부(211)는 상기 환경정보기준 설정부(210)에 설정된 센싱주기, 전송주기, 한계값을 통해 유효데이터를 추출하여 상기 실감 효과 메타데이터 생성부(212)에 전달한다(S309).
실감 효과 메타데이터 생성부(212)는 상기 유효데이터 추출부(211)로부터 전달받은 유효데이터를 바탕으로 실감 효과 메타데이터를 생성하며, 상기 생성된 실감 효과 메타데이터를 실감 효과 메타데이터 관리부(214)에 전달한다(S311).
상기 실감 효과 메타데이터 관리부(214)는 상기 실감 효과 메타데이터 생성부(212)로부터 실감 효과 메타데이터를 전달받으면 전송모드를 확인한다(S313).
확인 결과(S313), 전송모드인 경우(S313a), 상기 실감 효과 메타데이터를 상기 네트워크 통신 인터페이스부(206)를 통해 외부에 접속된 외부서버(103)에 전송한다(S315).
확인 결과(S313), 전송모드가 아닌 경우(S313b), 상기 실감 효과 메타데이터를 실감 효과 메타데이터 저장부(215)에 저장한다(S317).
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
101 : 에그리게이터
102 : 카메라
103 : 외부 서버
104 : 홈서버
105 : 단말
106 : 실감효과 디바이스

Claims (10)

  1. 영상 획득 장치와 접속된 실감 획득 시스템에 있어서,
    상기 영상 획득 장치의 주변을 센싱하여 센싱 데이터를 생성하는 센싱 수단;
    상기 센싱 수단에 의해 생성된 센싱 데이터로부터 유효 데이터를 추출하기 위한 기준값을 설정하는 환경 설정 수단;
    상기 센싱 수단에 의해 생성된 센싱 데이터로부터 상기 환경 설정 수단에 의해 설정된 기준값에 따라 유효 데이터를 추출하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성 수단; 및
    상기 영상 획득 장치의 영상 획득 시점 및 종점에 따라 상기 센싱 수단의 동작을 제어하는 시작/종료 처리 수단
    을 포함하는 실감 획득 시스템.
  2. 제1항에 있어서,
    상기 환경 설정 수단은
    상기 센싱 수단의 센싱 주기를 설정하기 위한 센싱 주기 설정부; 및
    상기 센싱 수단에 의해 생성된 센싱 데이터로부터 유효 데이터를 추출하기 위한 한계값을 설정하기 위한 한계점 설정부
    를 포함하는 실감 획득 시스템.
  3. 제1항에 있어서,
    상기 실감 효과 메타데이터 생성 수단은
    상기 센싱 수단에 의해 생성된 센싱 데이터로부터 상기 환경 설정 수단에 의해 설정된 기준값에 따라 유효 데이터를 추출하는 유효 데이터 추출부; 및
    상기 추출된 유효 데이터에 기초하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성부
    를 포함하는 실감 획득 시스템.
  4. 제1항에 있어서,
    상기 시작/종료 처리 수단은
    상기 영상 획득 장치의 영상 획득 시점 및 종점 이외의 외부 입력에 따라서도 상기 센싱 수단의 동작을 제어하는 실감 획득 시스템.
  5. 제1항에 있어서,
    상기 센싱 수단은
    적어도 온도센서, 습도센서, 조도센서, 가속도센서, 각속도센서, 향기센서, 바람센서, 및 GPS센서 중 어느 하나를 포함하는 실감 획득 시스템.
  6. 제1항에 있어서,
    상기 실감 효과 메타데이터는,
    적어도 실감 효과 타입, 시작시간, 지속시간, 및 스케일링값(백분율) 중 어느 하나를 포함하는 실감 획득 시스템.
  7. 상기 제1항 내지 제6항 중 어느 한 항의 실감 획득 시스템을 이용한 실감 획득 방법에 있어서,
    상기 영상 획득 장치의 주변을 센싱하여 센싱 데이터를 생성하는 센싱 단계;
    상기 센싱 단계에 의해 생성된 센싱 데이터로부터 유효 데이터를 추출하기 위한 기준값을 설정하는 환경 설정 단계; 및
    상기 센싱 단계에 의해 생성된 센싱 데이터로부터 상기 환경 설정 단계에 의해 설정된 기준값에 따라 유효 데이터를 추출하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성 단계
    를 포함하되,
    상기 센싱 단계는 상기 영상 획득 장치의 영상 획득 시점 및 종점에 따라 제어되는 실감 획득 방법.
  8. 제7항에 있어서,
    상기 실감 효과 메타데이터 생성 단계는
    상기 센싱 단계에 의해 생성된 센싱 데이터로부터 상기 환경 설정 단계에 의해 설정된 기준값에 따라 유효 데이터를 추출하는 유효 데이터 추출 단계; 및
    상기 추출된 유효 데이터에 기초하여 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성 단계
    를 포함하는 실감 획득 방법.
  9. 제7항에 있어서,
    상기 센싱 단계는
    상기 영상 획득 장치의 영상 획득 시점 및 종점 이외의 외부 입력에 따라서도 제어되는 실감 획득 방법.
  10. 제7항에 있어서,
    상기 실감 효과 메타데이터는,
    적어도 실감 효과 타입, 시작시간, 지속시간, 및 스케일링값(백분율) 중 어느 하나를 포함하는 실감 획득 방법.
KR1020110068443A 2010-12-30 2011-07-11 실감 획득을 위한 시스템 및 방법 KR20120078564A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110142430A KR20120078610A (ko) 2010-12-30 2011-12-26 실감 획득을 위한 시스템 및 방법
US13/340,273 US20120169855A1 (en) 2010-12-30 2011-12-29 System and method for real-sense acquisition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100138848 2010-12-30
KR1020100138848 2010-12-30

Publications (1)

Publication Number Publication Date
KR20120078564A true KR20120078564A (ko) 2012-07-10

Family

ID=46711883

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020110068443A KR20120078564A (ko) 2010-12-30 2011-07-11 실감 획득을 위한 시스템 및 방법
KR1020110142430A KR20120078610A (ko) 2010-12-30 2011-12-26 실감 획득을 위한 시스템 및 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020110142430A KR20120078610A (ko) 2010-12-30 2011-12-26 실감 획득을 위한 시스템 및 방법

Country Status (1)

Country Link
KR (2) KR20120078564A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111629167A (zh) * 2019-02-27 2020-09-04 欧普罗科技股份有限公司 智能观测系统所使用的摄影装置

Also Published As

Publication number Publication date
KR20120078610A (ko) 2012-07-10

Similar Documents

Publication Publication Date Title
US20120169855A1 (en) System and method for real-sense acquisition
KR101492635B1 (ko) 실감 미디어 생성 및 소비 방법 및 그 장치
US10445941B2 (en) Interactive mixed reality system for a real-world event
US8990842B2 (en) Presenting content and augmenting a broadcast
CN106303555A (zh) 一种基于混合现实的直播方法、装置和系统
KR101984645B1 (ko) 향상된 미디어 경험들을 제공하기 위한 햅틱 기술들의 사용
CN103842936A (zh) 将多个实况视频剪辑和静态照片记录、编辑和合并为成品组合作品
CN104243961A (zh) 多视角影像的显示系统及方法
Yoon et al. MPEG-V: Bridging the virtual and real world
KR101443427B1 (ko) 홈 미디어용 4d 이펙트 구현 시스템 및 방법
CN104010206A (zh) 基于地理位置的虚拟现实视频播放的方法和系统
CN108874471B (zh) 一种房源的功能间附加元素添加方法及系统
KR102200239B1 (ko) 실시간 cg 영상 방송 서비스 시스템
KR20140023665A (ko) 합성 영상을 이용한 노래방 시스템
JP2017126355A (ja) イベントに関連付けられる情報を人に供給するための方法
JP2020102782A (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム
KR20120078564A (ko) 실감 획득을 위한 시스템 및 방법
WO2020013429A1 (ko) 가상현실 체험 기기를 이용한 가상현실 영상 제공 시스템
US20230031160A1 (en) Information processing apparatus, information processing method, and computer program
KR101633676B1 (ko) 온라인 네트워크를 통해 재생되는 동영상 컨텐츠를 기반으로 하는 햅틱 효과를 클라이언트의 단말장치에 제공하는 방법 및 시스템
KR20120097785A (ko) 인터랙티브 미디어 매핑 시스템 및 그 방법
KR20140135386A (ko) 영상 표시 기기 및 그의 동작 방법
CN111770373B (zh) 基于直播的内容同步方法、装置、设备及存储介质
WO2024125046A9 (zh) 虚拟角色的显示方法、装置、设备及存储介质
Oh et al. Implementation of multiple sensory media creation system based on smart devices