KR20160077548A - 실감 효과 메타데이터 생성 장치 및 방법 - Google Patents
실감 효과 메타데이터 생성 장치 및 방법 Download PDFInfo
- Publication number
- KR20160077548A KR20160077548A KR1020140187540A KR20140187540A KR20160077548A KR 20160077548 A KR20160077548 A KR 20160077548A KR 1020140187540 A KR1020140187540 A KR 1020140187540A KR 20140187540 A KR20140187540 A KR 20140187540A KR 20160077548 A KR20160077548 A KR 20160077548A
- Authority
- KR
- South Korea
- Prior art keywords
- feature point
- vector
- information
- average
- real
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/41—Indexing; Data structures therefor; Storage structures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치는 프로그램에 따라 미디어에 상응하는 실감 효과 메타데이터를 생성하는 프로세서 및 프로그램을 저장하는 메모리를 포함하되, 프로그램은, 미디어로부터 특징점을 추출하고, 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하고, 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하기 위해 구성되는 것을 특징으로 한다.
Description
본 발명은 미디어를 기반으로 실감 체험을 제공하기 위한 실감 효과 메타데이터를 생성하는 기술에 관한 것으로, 보다 상세하게는 미디어 장면에 포함된 오브젝트의 기울기, 회전, 줌인 아웃, 카메라의 이동, 회전에 대응하는 실감 효과 메타데이터를 생성하는 기술에 관한 것이다.
미디어를 기반으로 실감 체험 서비스를 제공하는 기술은 기존 미디어에 MPEG-V 국제 표준 실감 효과 메타데이터를 추가하여 미디어를 재생산하고, 미디어를 재현하는 시스템이 미디어 재생과 함께 실감 효과 메타데이터를 파싱하고 분석하여 실감 효과를 재현할 디바이스를 미디어 재생시간과 동기화하여 실감 효과를 재현하는 기술이다.
일반적으로 실감 효과 메타데이터를 생성하는 방식은 제작자가 미디어를 반복적으로 보면서 해당 시간 위치를 기억하고 그 시간에 실감 효과에 대응하는 실감 효과 메타데이터를 수동적으로 입력하는 방식이거나, 실감 효과 메타데이터 생성 장치가 저작도구를 이용하여 원하는 체감효과를 제작자로부터 의도한 시간에 실험적인 속성값을 입력받아 실감 효과 메타데이터를 생성하는 방식이다.
따라서 생성된 실감 효과 메타데이터는 4D 모션 의자 등의 실감 효과를 재현하는 디바이스인 실감 효과 재현 장치를 통해 실감 효과를 사용자에게 제공할 수 있다.
하지만, 일반적인 실감 효과 메타데이터를 생성하는 방식은 실감 효과 메타데이터를 제작자의 입력에 기반하여 생성해야 한다.
본 발명이 해결하고자 하는 과제는 미디어에 나타나는 객체의 움직임 및 카메라 시점 변화에 따라 실감 효과 메타데이터를 자동으로 생성하는 실감 효과 메타데이터 생성 장치 및 그 방법을 제공하는 것이다.
본 발명의 일 측면에 따르면, 프로그램에 따라 미디어에 상응하는 실감 효과 메타데이터를 생성하는 프로세서; 및 상기 프로그램을 저장하는 메모리; 를 포함하되, 상기 프로그램은, 상기 미디어로부터 특징점을 추출하고, 상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하고, 상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하기 위해 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치가 제공된다.
상기 프로그램은 상기 특징점 중 객체의 윤곽 지점에 위치하는 유효 특징점을 선정하고, 유효 특징점 중 크기 기준점을 꼭지점으로 하는 팔각형의 넓이에 따라 상기 객체 줌 정보를 생성하기 위해 구성되고, 상기 크기 기준점은 객체의 중심점을 지나고, 미리 지정된 기준 방향과 미리 지정된 각도를 이루는 3개의 직선 상에 위치하는 유효 특징점일 수 있다.
상기 프로그램은 i+1번째 유효 특징점과 i+2번째 유효 특징점 간의 거리가 i번째 유효 특징점과 i+2번째 유효 특징점 간의 거리 이상인 경우, 상기 i+1번째 유효 특징점의 값을 상기 i+2번째 유효 특징점의 값과 동일하도록 보정하도록 구성되고, 상기 i는 1 이상의 자연수이고, 상기 i+1번째 유효 특징점은 i번째 이후의 유효 특징점 중 i번째 유효 특징점과 가장 가까운 거리에 위치한 유효 특징점일 수 있다.
상기 프로그램은 로컬 섹터별 각 특징점의 벡터에 대한 평균 벡터를 산출하고, 상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치를 초과하는 경우, 상기 로컬 섹터별 평균 벡터의 평균에 상응하는 회전각인 글로벌 회전각을 산출하고, 상기 글로벌 회전각을 포함하는 인클라인 정보를 생성하고, 상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치 이하인 경우, 상기 로컬 섹터별 평균 벡터의 평균을 포함하는 무브 정보를 생성하도록 구성될 수 있다.
상기 프로그램은 상기 로컬 섹터에 포함된 각 특징점 중 어느 하나의 벡터인 대상 벡터와 상기 평균 벡터 간의 차에 따른 스칼라 값이 미리 지정된 수치 미만인 경우, 상기 대상 벡터에 방사형 섹터값 대비 가중치를 적용한 후, 상기 로컬 섹터별 각 특징점의 벡터에 대한 평균으로 상기 평균 벡터를 갱신하도록 구성될 수 있다.
상기 프로그램은 상기 특징점 중 변화량이 미리 지정된 수치 이상인 변화 특징점을 선정하고, 미디어를 미리 지정된 크기의 영역으로 구분하였을 때, 변화 특징점을 포함하는 영역을 객체 영역으로 선정하고, 객체 영역 상 특징점의 위치를 추적하여 객체 움직임 벡터를 산출하고, 객체 영역을 구성하는 미리 지정된 크기의 각 영역 별 특징점의 평균 변화량에 따라 객체의 회전 속도 및 방향을 산출하고, 객체의 중심축을 설정하고, 중심축을 기준으로 하는 벡터 변화량에 따라 객체 기울기를 산출하도록 구성될 수 있다.
상기 프로그램은 상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상을 포함하는 모션 데이터를 생성하고, 상기 모션 데이터에 상응하는 모션 패턴이 매핑된 실감 효과 메타데이터를 생성하도록 구성될 수 있다.
상기 프로그램은 상기 모션 데이터를 벡터 포지셔닝(vector positioning)하여 벡터를 산출하고, 상기 벡터 중 인접한 벡터에 상응하는 인접 벡터 차를 산출하고, 상기 인접 벡터 차의 변화량이 하나 이상의 미리 지정된 조건 중 어느 하나를 만족하는 경우, 만족된 상기 조건에 상응하는 모션 패턴을 현재의 모션 패턴으로 매핑하도록 구성될 수 있다.
본 발명의 다른 측면에 따르면, 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 방법에 있어서, 미디어로부터 특징점을 추출하는 단계; 상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계; 및 상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하는 단계; 를 포함하는 실감 효과 메타데이터 생성 방법이 제공된다.
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는, 상기 특징점 중 객체의 윤곽 지점에 위치하는 유효 특징점을 선정하는 단계; 및 유효 특징점 중 크기 기준점을 꼭지점으로 하는 팔각형의 넓이에 따라 상기 객체 줌 정보를 생성하는 단계; 를 포함하되, 상기 크기 기준점은 객체의 중심점을 지나고, 미리 지정된 기준 방향과 미리 지정된 각도를 이루는 3개의 직선 상에 위치하는 유효 특징점일 수 있다.
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는, i+1번째 유효 특징점과 i+2번째 유효 특징점 간의 거리가 i번째 유효 특징점과 i+2번째 유효 특징점 간의 거리 이상인 경우, 상기 i+1번째 유효 특징점의 값을 상기 i+2번째 유효 특징점의 값과 동일하도록 보정하는 단계를 더 포함하되, 상기 i는 1 이상의 자연수이고, 상기 i+1번째 유효 특징점은 i번째 이후의 유효 특징점 중 i번째 유효 특징점과 가장 가까운 거리에 위치한 유효 특징점일 수 있다.
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는, 로컬 섹터별 각 특징점의 벡터에 대한 평균 벡터를 산출하는 단계; 상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치를 초과하는 경우, 상기 로컬 섹터별 평균 벡터의 평균에 상응하는 회전각인 글로벌 회전각을 산출하고, 상기 글로벌 회전각을 포함하는 인클라인 정보를 생성하는 단계; 및 상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치 이하인 경우, 상기 로컬 섹터별 평균 벡터의 평균을 포함하는 무브 정보를 생성하는 단계를 포함할 수 있다.
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는, 상기 로컬 섹터에 포함된 각 특징점 중 어느 하나의 벡터인 대상 벡터와 상기 평균 벡터 간의 차에 따른 스칼라 값이 미리 지정된 수치 미만인 경우, 상기 대상 벡터에 방사형 섹터값 대비 가중치를 적용한 후, 상기 로컬 섹터별 각 특징점의 벡터에 대한 평균으로 상기 평균 벡터를 갱신하는 단계를 더 포함할 수 있다.
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는, 상기 특징점 중 변화량이 미리 지정된 수치 이상인 변화 특징점을 선정하는 단계; 미디어를 미리 지정된 크기의 영역으로 구분하였을 때, 변화 특징점을 포함하는 영역을 객체 영역으로 선정하는 단계; 객체 영역 상 특징점의 위치를 추적하여 객체 움직임 벡터를 산출하는 단계; 객체 영역을 구성하는 미리 지정된 크기의 각 영역 별 특징점의 평균 변화량에 따라 객체의 회전 속도 및 방향을 산출하는 단계; 및 객체의 중심축을 설정하고, 중심축을 기준으로 하는 벡터 변화량에 따라 객체 기울기를 산출하는 단계를 포함할 수 있다.
상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하는 단계는 상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상을 포함하는 모션 데이터를 생성하는 단계; 및 상기 모션 데이터에 상응하는 모션 패턴이 매핑된 실감 효과 메타데이터를 생성하는 단계를 포함할 수 있다.
상기 모션 데이터에 상응하는 모션 패턴이 매핑된 실감 효과 메타데이터를 생성하는 단계는, 상기 모션 데이터를 벡터 포지셔닝(vector positioning)하여 벡터를 산출하는 단계; 상기 벡터 중 인접한 벡터에 상응하는 인접 벡터 차를 산출하는 단계; 및 상기 인접 벡터 차의 변화량이 하나 이상의 미리 지정된 조건 중 어느 하나를 만족하는 경우, 만족된 상기 조건에 상응하는 모션 패턴을 현재의 모션 패턴으로 매핑하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치는 실감 효과 메타데이터를 자동으로 생성할 수 있다.
본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치는 실감 효과 메타데이터를 미디어에 포함된 객체의 움직임에 따라 생성하여, 실감 효과 재현 장치가 미디어의 내용에 정확히 동기화된 실감 효과를 재현하도록 할 수 있다.
도 1은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치를 예시한 블록도.
도 2는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 과정을 예시한 순서도.
도 3은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 객체 줌 정보를 생성하는 것을 예시한 순서도.
도 4는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 인클라인 정보 또는 무브 정보를 생성하는 과정을 예시한 순서도.
도 5는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 객체 변화량을 산출하는 과정을 예시한 순서도.
도 6은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 과정을 예시한 순서도.
도 2는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 과정을 예시한 순서도.
도 3은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 객체 줌 정보를 생성하는 것을 예시한 순서도.
도 4는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 인클라인 정보 또는 무브 정보를 생성하는 과정을 예시한 순서도.
도 5는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 객체 변화량을 산출하는 과정을 예시한 순서도.
도 6은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 과정을 예시한 순서도.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
도 1은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치를 예시한 블록도이다.
본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치는 신 인터페이스(110), 프로세서(120), 메모리(130) 및 스토리지(140)를 포함한다.
통신 인터페이스(110)는 미리 지정된 프로토콜을 통해 외부로부터 미디어를 수신하고, 실감 효과 메타데이터 생성 장치가 생성한 실감 효과 메타데이터를 출력한다.
프로세서(120)는 미리 지정된 프로그램에 따라 미디어에 상응하는 실감 효과 메타데이터를 생성한다.
메모리(130)는 상술한 실감 효과 메타데이터의 생성을 위해 미리 지정된 프로그램을 저장한다. 메모리(130)는 공지된 방식의 랜덤 엑세스 메모리(RAM) 등의 휘발성 메모리일 수 있다.
스토리지(140)는 실감 효과 메타데이터의 생성을 위해 미리 지정된 프로그램을 저장하고, 프로그램을 메모리(130)로 제공할 수 있다. 따라서, 프로세서(120)는 메모리(130)에 저장된 프로그램을 참조하여 실감효과 메타데이터를 생성하는 과정을 수행할 수 있다.
이하, 도 2를 참조하여 상술한 실감 효과 메타데이터 생성 장치가 미디어에 상응하는 실감 효과 메타데이터를 생성하는 과정을 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 과정을 예시한 순서도이다. 이하 설명하는 각 과정은 실감 효과 메타데이터 생성 장치의 프로세서(220)가 메모리(230)에 저장된 프로그램에 따라 수행하는 과정이나, 발명의 명확하고 간략한 설명을 위해 메모리의 프로그램을 참조하는 등의 컴퓨터 장치가 수행하는 일반적인 과정에 대한 설명은 생략하고, 각 단계의 주체를 실감효과 메타데이터 생성 장치로 통칭하도록 한다.
도 3을 참조하면, 단계 205에서 실감 효과 메타데이터 생성 장치는 통신 인터페이스(110)를 통해 미디어를 수신한다.
단계 210에서 실감 효과 메타데이터 생성 장치는 미디어로부터 특징점을 추출한다. 이 때, 특징점은 주로 배경과 오브젝트의 경계 부분, 움직임이 있는 오브젝트 상의 지점에서 추출될 수 있다.
단계 215에서 실감 효과 메타데이터 생성 장치는 각 특징점의 변화량을 산출하고, 변화량이 미리 지정된 임계값 이상인 변화 특징점을 선정한다. 이 때, 특징점의 변화량은 미디어의 특정 시간 구간 상 특징점이 이동한 거리를 의미한다.
단계 220에서 실감 효과 메타데이터 생성 장치는 특징점을 참조하여 객체 변화량을 산출한다. 예를 들어, 객체 변화량은 미디어 상의 객체의 이동 방향 및 거리, 객체의 회전 속도와 방향 및 객체의 기울기 중 하나 이상을 포함하는 정보일 수 있다. 객체 변화량을 산출하는 과정은 추후 도 5를 참조하여 상세히 설명하도록 한다.
단계 230에서 실감 효과 메타데이터 생성 장치는 객체의 윤곽 지점 상에 위치한 변화 특징점에 따라 객체의 줌 인(Zoom In)/줌 아웃(Zoom Out)이 된 정도를 나타내는 객체 줌 정보를 산출할 수 있다. 추후 도 3을 참조하여, 객체 줌 정보를 산출하는 과정을 상세히 설명하도록 한다.
단계 240에서 실감 효과 메타데이터 생성 장치는 각 로컬 섹터 별 특징점에 상응하는 벡터에 따라 회전각을 산출하고, 회전각에 따라 카메라가 회전함에 따라 발생하는 전체 특징점의 회전하는 정도를 나타내는 회전각(이하, 글로벌 회전각이라 지칭) 또는 카메라의 움직임에 따라 발생하는 전체 특징점의 움직임을 나타내는 벡터(이하, 글로벌 움직임 벡터라 지칭)를 산출한다. 추후 도 4를 참조하여 글로벌 회전각 또는 글로벌 움직임 벡터를 산출하는 과정을 상세히 설명하도록 한다.
단계 245에서 실감 효과 메타데이터 생성 장치는 객체 변화량, 객체 줌 정보, 글로벌 회전각 및 글로벌 움직임 벡터 중 하나 이상을 포함하는 모션 데이터를 생성한다.
단계 250에서 실감 효과 메타데이터 생성 장치는 미리 지정된 모션 패턴 중 모션 데이터에 대응하는 모션 패턴을 포함하는 실감 효과 메타데이터를 생성한다. 예를 들어, 실감 효과 메타데이터 생성 장치는 복수의 모션 패턴을 각 모션 데이터에 대응하여 미리 저장할 수 있고, 생성된 모션 데이터에 대응하는 모션 패턴을 포함하는 실감 효과 메타데이터를 생성할 수 있다.
도 3은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 객체 줌 정보를 생성하는 것을 예시한 순서도이다. 이 때, 도 3은 상술한 도 2의 단계 230에 해당하는 과정을 예시한 순서도일 수 있다.
도 3을 참조하면, 단계 305에서 실감 효과 메타데이터 생성 장치는 윤곽 지점에 해당하는 특징점을 선정한다. 예를 들어, 실감 효과 메타데이터 생성 장치는 미디어의 영상을 미리 지정된 크기의 복수 영역으로 분할하고, 특징점이 포함된 수가 미리 지정된 수 이상인 영역의 특징점을 윤곽 지점에 해당하는 특징점으로 선정할 수 있다.
단계 310에서 실감 효과 메타데이터 생성 장치는 단계 305에서 선정된 특징점 간의 편차(특징점 간의 거리)를 산출한다.
단계 315에서 실감 효과 메타데이터 생성 장치는 각 특징점에 상응하는 편차가 미리 지정된 수치 이하인 특징점을 유효 특징점으로 선정한다. 이 때, 유효 특징점은 객체 줌 정보를 산출하기 위해 고려되는 특징점을 의미할 수 있다.
단계 320에서 실감 효과 메타데이터 생성 장치는 i+1번째 및 i+2번째 유효 특징점 간의 거리가 i번째 및 i+2번째 유효 특징점 간의 거리 이상인지 판단한다. 이 때, i는 1 이상의 자연수일 수 있고, 최초 i의 값은 1로 설정될 수 있다. 또한, i+1번째 유효 특징점은 i번째 이후의 유효 특징점 중 i번째 유효 특징점과 가장 가까운 거리에 위치한 유효 특징점일 수 있다. 만약, i번째 이후의 유효 특징점 중 i번째 유효 특징점과 가장 가까운 거리에 위치한 유효 특징점이 복수 존재하는 경우, i번째 유효 특징점을 기준으로 미리 지정된 범위의 방향에 위치하는 유효 특징점이 i+1번째 유효 특징점으로 설정될 수 있다.
단계 320에서 i+1번째 및 i+2번째 유효 특징점 간의 거리가 i번째 및 i+2번째 유효 특징점 간의 거리 미만인 경우, 단계 325에서 실감 효과 메타데이터 생성 장치는 i의 값을 1만큼 증가시킨다.
단계 320에서 i+1번째 및 i+2번째 유효 특징점 간의 거리가 i번째 및 i+2번째 유효 특징점 간의 거리 이상인 경우, 단계 330에서 실감 효과 메타데이터 생성 장치는 i+2번째 유효 특징점의 위치와 동일하도록 i+1번째 유효 특징점의 위치를 설정한다.
단계 335에서 실감 효과 메타데이터 생성 장치는 i+2번째 유효 특징점이 마지막 유효 특징점인지 확인한다.
단계 335에서 i+2번째 유효 특징점이 마지막 유효 특징점이 아닌 경우, 실감 효과 메타데이터 생성 장치는 단계 325부터의 과정을 다시 수행한다.
단계 335에서 i+2번째 유효 특징점이 마지막 유효 특징점인 경우, 단계 340에서 실감 효과 메타데이터 생성 장치는 각 유효 특징점 중 크기 기준점을 선정한다. 이 때, 크기 기준점은 객체의 중심점을 지나고, 미리 지정된 기준 방향과 0도, 45도 또는 90도를 이루는 직선 상에 위치하거나 가장 가까운 유효 특징점이다. 따라서, 크기 기준점은 총 8개의 지점일 수 있다.
단계 345에서 실감 효과 메타데이터 생성 장치는 8개의 크기 기준점을 꼭지점으로 하는 팔각형의 넓이를 산출하고, 미디어의 이전 프레임에 해당하는 팔각형의 넓이에서 현 단계에서 산출한 팔각형의 넓이로의 변화량에 따라 객체 줌 정보를 생성할 수 있다. 예를 들어, 실감 효과 메타데이터 생성 장치는 팔각형 넓이의 변화량에 미리 지정된 상수를 곱한 값을 포함하는 객체 줌 정보로 생성할 수 있다.
도 4는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 인클라인 정보 또는 무브 정보를 생성하는 과정을 예시한 순서도이다. 이 때, 도 4는 상술한 도 2의 단계 240에 해당하는 과정을 예시한 순서도일 수 있다.
도 4를 참조하면, 단계 405에서 실감 효과 메타데이터 생성 장치는 로컬 섹터별 각 특징점의 벡터에 대한 평균인 평균 벡터를 산출한다. 이 때, 실감 효과 메타데이터 생성 장치는 각 특징점에 대한 중심점을 기준으로 특징점이 분포된 영역을 복수의 로컬 섹터로 설정할 수 있다. 중심점은 각 특징점의 가로 좌표에 대한 평균과 세로 좌표에 대한 평균에 해당하는 좌표에 위치하는 지점을 의미할 수 있다. 예를 들어, 실감 효과 메타데이터 생성 장치는 중심점을 기준으로 미리 설정된 각도의 영역을 하나의 로컬 섹터로 설정할 수 있다. 즉, 실감 효과 메타데이터 생성 장치는 중심점을 기준으로 15도의 영역을 하나의 로컬 섹터로 설정하는 경우, 총 24개의 로컬 섹터를 설정할 수 있다.
단계 410에서 실감 효과 메타데이터 생성 장치는 각 로컬 섹터에 포함된 모든 벡터와 로컬 섹터의 평균 벡터를 비교하였는지 판단한다.
단계 410에서 각 로컬 섹터에 포함된 모든 벡터와 로컬 섹터의 벡터 평균을 비교하지 않은 경우, 단계 415에서 실감 효과 메타데이터 생성 장치는 평균 벡터와 대상 벡터 간의 차의 스칼라 값이 미리 지정된 수치 이상인지 판단한다. 이 때, 대상 벡터는 로컬 섹터에 위치하는 특징점 중 어느 하나에 상응하는 벡터일 수 있다.
단계 415에서 평균 벡터와 대상 벡터 간의 차의 스칼라 값이 미리 지정된 수치 이상인 경우, 실감 효과 메타데이터 생성 장치는 단계 410에서 평균 벡터와 비교되지 않은 로컬섹터의 벡터 중 어느 하나를 대상 벡터로 선정한다.
단계 415에서 평균 벡터와 대상 벡터 간의 차의 스칼라 값이 미리 지정된 수치 미만인 경우, 단계 425에서 실감 효과 메타데이터 생성 장치는 방사형 섹터값 대비 가중치를 대상 벡터에 적용한 후 로컬섹터의 평균 벡터를 다시 산출한다. 이 때, 방사형 섹터값 대비 가중치는 로컬섹터의 평균 벡터와 대상 벡터 간의 방향 차 및 스칼라값 차에 대응하여 미리 설정된 값이다. 이 때, 방사형 섹터값 대비 가중치는 로컬섹터의 평균 벡터와 대상 벡터 간의 방향 및 스칼라값이 유사할 수록 높은 값으로 설정될 수 있다. 따라서, 가중치가 부여된 대상 벡터에 따른 평균 벡터를 재산출하게 되면, 평균벡터의 변화량을 감소시키는 벡터가 평균 벡터에 반영되는 영향을 줄일 수 있다. 따라서, 실감 효과 메타데이터 생성 장치는 로컬 섹터의 평균 벤터의 변화량을 좀더 정확하게 측정할 수 있다.
단계 430에서 실감 효과 메타데이터 생성 장치는 로컬섹터별 평균 벡터에 따른 회전각을 산출한다. 즉, 실감 효과 메타데이터 생성 장치는 로컬섹터별 평균 벡터의 방향이 시간에 따라 변동되는 정도를 나타내는 회전각을 산출할 수 있다.
단계 440에서 실감 효과 메타데이터 생성 장치는 각 로컬섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치 이하인지 판단한다.
단계 440에서 로컬섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치를 초과하는 경우, 단계 445에서 실감 효과 메타데이터 생성 장치는 미디어에 대한 모션을 미리 지정된 모션 중의 하나인 인클라인 모션으로 설정한다. 이 때, 인클라인 모션은 카메라가 기울어지는 상황에서 실감 효과 구현 장치가 구현하는 모션일 수 있다. 또한, 인클라인 모션의 속성으로는 기울기의 정도를 나타내는 회전각이 설정될 수 있다. 실감 효과 메타데이터 생성 장치는 각 로컬섹터별 평균벡터에 대한 평균벡터의 회전각인 글로벌 회전각을 산출하고, 글로벌 회전각을 인클라인 모션의 속성으로 설정할 수 있다.
단계 440에서 각 로컬섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치 이하인 경우, 단계 450에서 실감 효과 메타데이터 생성 장치는 미디어에 대한 모션을 미리 지정된 모션 중 하나인 무브 모션으로 매핑한다. 이 때, 무브 모션은 카메라가 특정 방향으로 이동하는 상황에서 실감 효과 구현 장치가 구현하는 모션일 수 있다. 무브 모션의 속성으로는 카메라가 움직이는 방향 및 크기를 나타내는 벡터가 설정될 수 있다. 실감 효과 메타데이터 생성 장치는 각 로컬섹터별 평균벡터의 평균인 글로벌 모션 벡터를 무브 모션의 속성으로 설정할 수 있다.
도 5는 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 객체 변화량을 산출하는 과정을 예시한 순서도이다. 이 때, 도 5는 상술한 도 2의 단계 220에 해당하는 과정을 예시한 순서도일 수 있다.
단계 505에서 실감 효과 메타데이터 생성 장치는 변화량이 미리 지정된 수치 이상인 특징점(이하, 변화 특징점이라 지칭)을 선정한다.
단계 510에서 실감 효과 메타데이터 생성 장치는 미디어를 미리 지정된 크기의 영역으로 구분하였을 때, 변화 특징점을 포함하는 영역을 객체가 위치한 영역(이하, 객체 영역으로 지칭)으로 선정한다.
단계 515에서 실감 효과 메타데이터 생성 장치는 객체 영역 상의 특징점의 위치를 추적하여 미디어상 객체의 이동 거리 및 방향을 나타내는 객체 움직임 벡터를 산출한다.
단계 520에서 실감 효과 메타데이터 생성 장치는 객체 영역을 구성하는 미리 지정된 크기의 각 영역 별 특징점의 평균 변화량에 따라 객체의 회전 속도 및 방향을 산출한다. 실감 효과 메타데이터 생성 장치는 화면의 중심점, 중심점을 기준으로 움직이기 시작하는 시점의 평균 벡터(객체 상의 각 특징점의 벡터에 대한 평균)에 상응하는 지점, 중심점을 기준으로 움직임이 종료된 시점의 평균 벡터에 상응하는 지점을 참조하여 삼각 측량법에 따라 객체의 회전 속도 및 방향을 산출할 수 있다.
단계 525에서 실감 효과 메타데이터 생성 장치는 객체의 중심축을 설정하고, 중심축을 기준으로 하는 벡터 변화량을 산출하여 객체의 기울기를 산출한다. 실감 효과 메타데이터 생성 장치는 객체에 상응하는 벡터 중 변화량이 적은 미리 지정된 수의 벡터를 선정하고, 선정된 각 벡터에 상응하는 지점과의 거리가 최소인 직선을 중심축으로 설정할 수 있다. 또한, 실감 효과 메타데이터 생성 장치는 시간에 따른 변화량이 미리 지정된 수치 이상인 벡터의 움직임 방향 및 움직임 거리를 중심축을 기준으로 산출할 수 있다.
도 6은 본 발명의 일 실시예에 따른 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 과정을 예시한 순서도이다. 도 6에서 설명하는 과정은 도 2에서 상술한 단계 250에 해당하는 과정이다.
도 6을 참조하면, 단계 610에서 실감 효과 메타데이터 생성 장치는 모션 데이터를 미리 지정된 3차원 좌표계에 벡터 포지셔닝(vector positioning)하여 벡터를 산출한다.
단계 620에서 실감 효과 메타데이터 생성 장치는 인접한 벡터(벡터 간 거리가 최단인 위치에 해당하는 두 벡터) 간의 차(이하, 인접 벡터 차라 지칭)를 산출한다. 이 때, 실감 효과 메타데이터 생성 장치는 단계 610에서 벡터 포지셔닝된 벡터 중 미리 지정된 규칙에 따라 미리 지정된 수의 인접한 벡터를 선정할 수 있다.
단계 630에서 실감 효과 메타데이터 생성 장치는 미디어에 포함된 프레임의 전환에 따른 인접 벡터 차의 방향 및 크기의 변화량을 산출하고, 인접 벡터 차의 방향 및 크기의 변화량이 하나 이상의 미리 지정된 조건을 만족하는지 판단한다. 이 때, 실감 효과 메타데이터 생성 장치는 각 모션 패턴에 상응하는 인접 벡터 차의 방향 및 크기의 변화량에 대한 조건을 미리 저장할 수 있다.
단계 630에서 인접 벡터 차의 방향 및 크기의 변화량이 하나 이상의 미리 지정된 조건을 만족하는 경우, 단계 640에서 실감 효과 메타데이터 생성 장치는 해당 조건에 상응하는 모션 패턴을 현재에 상응하는 모션 패턴으로 매핑한다.
단계 630에서 인접 벡터 차의 방향 및 크기의 변화량이 하나 이상의 미리 지정된 조건을 만족하지 않는 경우, 실감 효과 메타데이터 생성 장치는 다음 프레임의 인접한 벡터를 대상으로 단계 620을 다시 수행한다.
단계 650에서 실감 효과 메타데이터 생성 장치는 모든 프레임에 대해서 패턴 예측을 수행하였는지 판단한다.
단계 650에서 모든 프레임에 대해서 패턴 예측을 수행한 경우, 단계 660에서 실감 효과 메타데이터 생성 장치는 각 단계 640에서 매핑된 모든 모션 패턴을 포함하는 실감 효과 메타데이터를 생성한다.
단계 650에서 모든 프레임에 대해서 패턴 예측을 수행하지 않은 경우, 실감 효과 메타데이터 생성 장치는 다음 프레임의 인접한 벡터를 대상으로 단계 620을 수행한다.
한편, 본 발명의 실시예에 따른 데이터 저장 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조등을 단독으로 또는 조합하여 포함할 수 있다.
저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
Claims (16)
- 프로그램에 따라 미디어에 상응하는 실감 효과 메타데이터를 생성하는 프로세서; 및
상기 프로그램을 저장하는 메모리;
를 포함하되,
상기 프로그램은,
상기 미디어로부터 특징점을 추출하고,
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하고,
상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하기 위해 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제1 항에 있어서,
상기 프로그램은
상기 특징점 중 객체의 윤곽 지점에 위치하는 유효 특징점을 선정하고,
유효 특징점 중 크기 기준점을 꼭지점으로 하는 팔각형의 넓이에 따라 상기 객체 줌 정보를 생성하기 위해 구성되고,
상기 크기 기준점은 객체의 중심점을 지나고, 미리 지정된 기준 방향과 미리 지정된 각도를 이루는 3개의 직선 상에 위치하는 유효 특징점인 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제2 항에 있어서,
상기 프로그램은
i+1번째 유효 특징점과 i+2번째 유효 특징점 간의 거리가 i번째 유효 특징점과 i+2번째 유효 특징점 간의 거리 이상인 경우, 상기 i+1번째 유효 특징점의 값을 상기 i+2번째 유효 특징점의 값과 동일하도록 보정하도록 구성되고,
상기 i는 1 이상의 자연수이고, 상기 i+1번째 유효 특징점은 i번째 이후의 유효 특징점 중 i번째 유효 특징점과 가장 가까운 거리에 위치한 유효 특징점인 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제1 항에 있어서,
상기 프로그램은
로컬 섹터별 각 특징점의 벡터에 대한 평균 벡터를 산출하고,
상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치를 초과하는 경우, 상기 로컬 섹터별 평균 벡터의 평균에 상응하는 회전각인 글로벌 회전각을 산출하고, 상기 글로벌 회전각을 포함하는 인클라인 정보를 생성하고,
상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치 이하인 경우, 상기 로컬 섹터별 평균 벡터의 평균을 포함하는 무브 정보를 생성하도록 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제4 항에 있어서,
상기 프로그램은
상기 로컬 섹터에 포함된 각 특징점 중 어느 하나의 벡터인 대상 벡터와 상기 평균 벡터 간의 차에 따른 스칼라 값이 미리 지정된 수치 미만인 경우, 상기 대상 벡터에 방사형 섹터값 대비 가중치를 적용한 후, 상기 로컬 섹터별 각 특징점의 벡터에 대한 평균으로 상기 평균 벡터를 갱신하도록 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제1 항에 있어서,
상기 프로그램은
상기 특징점 중 변화량이 미리 지정된 수치 이상인 변화 특징점을 선정하고,
미디어를 미리 지정된 크기의 영역으로 구분하였을 때, 변화 특징점을 포함하는 영역을 객체 영역으로 선정하고,
객체 영역 상 특징점의 위치를 추적하여 객체 움직임 벡터를 산출하고,
객체 영역을 구성하는 미리 지정된 크기의 각 영역 별 특징점의 평균 변화량에 따라 객체의 회전 속도 및 방향을 산출하고,
객체의 중심축을 설정하고, 중심축을 기준으로 하는 벡터 변화량에 따라 객체 기울기를 산출하도록 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제1 항에 있어서,
상기 프로그램은
상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상을 포함하는 모션 데이터를 생성하고,
상기 모션 데이터에 상응하는 모션 패턴이 매핑된 실감 효과 메타데이터를 생성하도록 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 제7 항에 있어서,
상기 프로그램은
상기 모션 데이터를 벡터 포지셔닝(vector positioning)하여 벡터를 산출하고,
상기 벡터 중 인접한 벡터에 상응하는 인접 벡터 차를 산출하고,
상기 인접 벡터 차의 변화량이 하나 이상의 미리 지정된 조건 중 어느 하나를 만족하는 경우, 만족된 상기 조건에 상응하는 모션 패턴을 현재의 모션 패턴으로 매핑하도록 구성되는 것을 특징으로 하는 실감 효과 메타데이터 생성 장치.
- 실감 효과 메타데이터 생성 장치가 실감 효과 메타데이터를 생성하는 방법에 있어서,
미디어로부터 특징점을 추출하는 단계;
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계; 및
상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하는 단계;
를 포함하는 실감 효과 메타데이터 생성 방법.
- 제9 항에 있어서,
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는,
상기 특징점 중 객체의 윤곽 지점에 위치하는 유효 특징점을 선정하는 단계; 및
유효 특징점 중 크기 기준점을 꼭지점으로 하는 팔각형의 넓이에 따라 상기 객체 줌 정보를 생성하는 단계;
를 포함하되,
상기 크기 기준점은 객체의 중심점을 지나고, 미리 지정된 기준 방향과 미리 지정된 각도를 이루는 3개의 직선 상에 위치하는 유효 특징점인 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
- 제10 항에 있어서,
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는,
i+1번째 유효 특징점과 i+2번째 유효 특징점 간의 거리가 i번째 유효 특징점과 i+2번째 유효 특징점 간의 거리 이상인 경우, 상기 i+1번째 유효 특징점의 값을 상기 i+2번째 유효 특징점의 값과 동일하도록 보정하는 단계를 더 포함하되,
상기 i는 1 이상의 자연수이고, 상기 i+1번째 유효 특징점은 i번째 이후의 유효 특징점 중 i번째 유효 특징점과 가장 가까운 거리에 위치한 유효 특징점인 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
- 제9 항에 있어서,
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는,
로컬 섹터별 각 특징점의 벡터에 대한 평균 벡터를 산출하는 단계;
상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치를 초과하는 경우, 상기 로컬 섹터별 평균 벡터의 평균에 상응하는 회전각인 글로벌 회전각을 산출하고, 상기 글로벌 회전각을 포함하는 인클라인 정보를 생성하는 단계; 및
상기 로컬 섹터별 평균 벡터 간의 방향 차이가 미리 지정된 수치 이하인 경우, 상기 로컬 섹터별 평균 벡터의 평균을 포함하는 무브 정보를 생성하는 단계
를 포함하는 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
- 제12 항에 있어서,
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는,
상기 로컬 섹터에 포함된 각 특징점 중 어느 하나의 벡터인 대상 벡터와 상기 평균 벡터 간의 차에 따른 스칼라 값이 미리 지정된 수치 미만인 경우, 상기 대상 벡터에 방사형 섹터값 대비 가중치를 적용한 후, 상기 로컬 섹터별 각 특징점의 벡터에 대한 평균으로 상기 평균 벡터를 갱신하는 단계를 더 포함하는 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
- 제9 항에 있어서,
상기 특징점에 따른 객체 변화량, 객체 줌 정보, 인클라인 정보 및 무브 정보 중 하나 이상을 산출하는 단계는,
상기 특징점 중 변화량이 미리 지정된 수치 이상인 변화 특징점을 선정하는 단계;
미디어를 미리 지정된 크기의 영역으로 구분하였을 때, 변화 특징점을 포함하는 영역을 객체 영역으로 선정하는 단계;
객체 영역 상 특징점의 위치를 추적하여 객체 움직임 벡터를 산출하는 단계;
객체 영역을 구성하는 미리 지정된 크기의 각 영역 별 특징점의 평균 변화량에 따라 객체의 회전 속도 및 방향을 산출하는 단계; 및
객체의 중심축을 설정하고, 중심축을 기준으로 하는 벡터 변화량에 따라 객체 기울기를 산출하는 단계를 포함하는 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
- 제9 항에 있어서,
상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상에 따른 실감 효과 메타데이터를 생성하는 단계는
상기 특징점에 따른 상기 객체 변화량, 상기 객체 줌 정보, 상기 인클라인 정보 및 상기 무브 정보 중 하나 이상을 포함하는 모션 데이터를 생성하는 단계; 및
상기 모션 데이터에 상응하는 모션 패턴이 매핑된 실감 효과 메타데이터를 생성하는 단계
를 포함하는 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
- 제15 항에 있어서,
상기 모션 데이터에 상응하는 모션 패턴이 매핑된 실감 효과 메타데이터를 생성하는 단계는,
상기 모션 데이터를 벡터 포지셔닝(vector positioning)하여 벡터를 산출하는 단계;
상기 벡터 중 인접한 벡터에 상응하는 인접 벡터 차를 산출하는 단계; 및
상기 인접 벡터 차의 변화량이 하나 이상의 미리 지정된 조건 중 어느 하나를 만족하는 경우, 만족된 상기 조건에 상응하는 모션 패턴을 현재의 모션 패턴으로 매핑하는 단계를 포함하는 것을 특징으로 하는 실감 효과 메타데이터 생성 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140187540A KR102231676B1 (ko) | 2014-12-23 | 2014-12-23 | 실감 효과 메타데이터 생성 장치 및 방법 |
US14/931,290 US9936107B2 (en) | 2014-12-23 | 2015-11-03 | Apparatus and method for generating sensory effect metadata |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140187540A KR102231676B1 (ko) | 2014-12-23 | 2014-12-23 | 실감 효과 메타데이터 생성 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160077548A true KR20160077548A (ko) | 2016-07-04 |
KR102231676B1 KR102231676B1 (ko) | 2021-03-25 |
Family
ID=56130973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140187540A KR102231676B1 (ko) | 2014-12-23 | 2014-12-23 | 실감 효과 메타데이터 생성 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9936107B2 (ko) |
KR (1) | KR102231676B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190008105A (ko) * | 2017-07-14 | 2019-01-23 | 한국전자통신연구원 | 실감 효과 적응 방법 및 이를 수행하는 적응 엔진 및 실감 장치 |
KR20190043059A (ko) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | 멀티미디어 데이터를 전송하는 방법 및 장치 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6776559B2 (ja) * | 2016-03-03 | 2020-10-28 | 富士通株式会社 | 生体画像処理装置、生体画像処理方法および生体画像処理プログラム |
KR102573933B1 (ko) * | 2016-10-04 | 2023-09-05 | 한국전자통신연구원 | 기계 학습 기반의 실감 미디어 저작 방법 및 장치 |
KR20180092778A (ko) | 2017-02-10 | 2018-08-20 | 한국전자통신연구원 | 실감정보 제공 장치, 영상분석 서버 및 실감정보 제공 방법 |
US10674824B2 (en) | 2017-07-14 | 2020-06-09 | Electronics And Telecommunications Research Institute | Apparatus for controlling motion and method thereof |
CN111694822B (zh) * | 2020-04-30 | 2024-07-26 | 云南电网有限责任公司信息中心 | 一种低压配网运行状态数据采集系统及其采集方法 |
WO2024048911A1 (ko) * | 2022-08-30 | 2024-03-07 | 삼성전자주식회사 | 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130009337A (ko) * | 2011-07-15 | 2013-01-23 | 인하대학교 산학협력단 | 지식관리 시스템기반의 증강현실을 이용한 정보제공시스템 및 그 방법 |
KR20130134130A (ko) * | 2012-05-30 | 2013-12-10 | 한국전자통신연구원 | 융합형 미디어 서비스 플랫폼에서의 미디어 처리 장치 및 그 방법 |
KR20140124096A (ko) * | 2013-04-16 | 2014-10-24 | 한국전자통신연구원 | 미디어 부가정보 처리 장치 및 방법 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8122464B2 (en) * | 2006-03-16 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to monitor media content on a consumer network |
WO2009051426A2 (en) * | 2007-10-16 | 2009-04-23 | Electronics And Telecommunications Research Institute | Sensory effect media generating and consuming method and apparatus thereof |
KR20090038835A (ko) | 2007-10-16 | 2009-04-21 | 한국전자통신연구원 | 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체 |
WO2010008235A2 (ko) * | 2008-07-16 | 2010-01-21 | 한국전자통신연구원 | 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
WO2010008232A2 (ko) * | 2008-07-16 | 2010-01-21 | 한국전자통신연구원 | 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
WO2010008233A2 (ko) * | 2008-07-16 | 2010-01-21 | 한국전자통신연구원 | 실감 효과 표현 방법 및 그 장치 및 사용자 환경 정보 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
US20110125788A1 (en) * | 2008-07-16 | 2011-05-26 | Electronics And Telecommunications Research Institute | Method and apparatus for representing sensory effects and computer readable recording medium storing sensory device capability metadata |
US20110188832A1 (en) * | 2008-09-22 | 2011-08-04 | Electronics And Telecommunications Research Institute | Method and device for realising sensory effects |
US8934545B2 (en) * | 2009-02-13 | 2015-01-13 | Yahoo! Inc. | Extraction of video fingerprints and identification of multimedia using video fingerprinting |
JP2012524452A (ja) | 2009-04-15 | 2012-10-11 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 感覚効果のためのメタデータ提供方法及び装置、感覚効果のためのメタデータが記録されたコンピュータ読み取り可能な記録媒体、感覚再生方法及び装置 |
KR20100114857A (ko) | 2009-04-16 | 2010-10-26 | 한국전자통신연구원 | 사용자 실감 효과 선호정보를 이용한 실감 효과 표현 방법 및 장치 |
US8675010B2 (en) * | 2010-04-02 | 2014-03-18 | Electronics And Telecommunications Research Institute | Method and apparatus for providing metadata for sensory effect, computer readable record medium on which metadata for sensory effect is recorded, method and apparatus for representating sensory effect |
CN102611887B (zh) * | 2011-01-21 | 2015-08-05 | 华为技术有限公司 | 非整像素位置运动矢量的坐标值取整方法和装置 |
KR20120090565A (ko) * | 2011-02-08 | 2012-08-17 | 삼성전자주식회사 | 영상 데이터의 실감 효과 처리장치 및 방법 |
US20110296452A1 (en) * | 2011-08-08 | 2011-12-01 | Lei Yu | System and method for providing content-aware persistent advertisements |
US20130249947A1 (en) * | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Communication using augmented reality |
US9501140B2 (en) * | 2012-11-05 | 2016-11-22 | Onysus Software Ltd | Method and apparatus for developing and playing natural user interface applications |
KR20140075825A (ko) | 2012-11-23 | 2014-06-20 | 한국전자통신연구원 | 실감 미디어의 메타데이터를 생성하는 방법 및 장치 |
US9271048B2 (en) * | 2013-12-13 | 2016-02-23 | The Directv Group, Inc. | Systems and methods for immersive viewing experience |
KR102300997B1 (ko) * | 2015-03-11 | 2021-09-13 | 한국전자통신연구원 | 전정 재활 운동을 위한 실감 효과 장치 및 방법 |
-
2014
- 2014-12-23 KR KR1020140187540A patent/KR102231676B1/ko active IP Right Grant
-
2015
- 2015-11-03 US US14/931,290 patent/US9936107B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130009337A (ko) * | 2011-07-15 | 2013-01-23 | 인하대학교 산학협력단 | 지식관리 시스템기반의 증강현실을 이용한 정보제공시스템 및 그 방법 |
KR20130134130A (ko) * | 2012-05-30 | 2013-12-10 | 한국전자통신연구원 | 융합형 미디어 서비스 플랫폼에서의 미디어 처리 장치 및 그 방법 |
KR20140124096A (ko) * | 2013-04-16 | 2014-10-24 | 한국전자통신연구원 | 미디어 부가정보 처리 장치 및 방법 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190008105A (ko) * | 2017-07-14 | 2019-01-23 | 한국전자통신연구원 | 실감 효과 적응 방법 및 이를 수행하는 적응 엔진 및 실감 장치 |
KR20190043059A (ko) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | 멀티미디어 데이터를 전송하는 방법 및 장치 |
US11463673B2 (en) | 2017-10-17 | 2022-10-04 | Samsung Electronics Co., Ltd. | Method and device for transmitting immersive media |
Also Published As
Publication number | Publication date |
---|---|
US20160182771A1 (en) | 2016-06-23 |
US9936107B2 (en) | 2018-04-03 |
KR102231676B1 (ko) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20160077548A (ko) | 실감 효과 메타데이터 생성 장치 및 방법 | |
US10482656B2 (en) | 3D face modeling methods and apparatuses | |
CN102221975B (zh) | 使用运动捕捉数据的项目导航 | |
US20120075433A1 (en) | Efficient information presentation for augmented reality | |
KR102197067B1 (ko) | 멀티 프레임들의 동일한 영역을 연속으로 렌더링하는 방법 및 장치 | |
CN110428388A (zh) | 一种图像数据生成方法及装置 | |
US9700788B2 (en) | Video object detecting apparatus, video object deforming apparatus, and methods thereof | |
KR20170007102A (ko) | 3차원 지도 생성 및 표시 장치 및 방법 | |
Tasse et al. | Enhanced texture‐based terrain synthesis on graphics hardware | |
JP2015079502A (ja) | オブジェクト追跡方法、オブジェクト追跡装置、及び追跡特徴選択方法 | |
KR20160097430A (ko) | 애니메이션 생성 장치 및 방법 | |
KR102217003B1 (ko) | 객체 추적 방법 및 이를 수행하는 장치 | |
US10331819B2 (en) | System, method and readable recording medium of controlling virtual model | |
KR20180078115A (ko) | 이미지 처리 방법 및 장치 | |
US20160182769A1 (en) | Apparatus and method for generating motion effects by analyzing motions of objects | |
CN108388649A (zh) | 处理音视频的方法、系统、设备及存储介质 | |
JP2023089947A (ja) | 容貌トラッキングシステムおよび方法 | |
WO2021124286A1 (en) | Location determination and mapping with 3d line junctions | |
KR20010090466A (ko) | 물체영역정보 생성방법 및 물체영역정보 생성장치와 근사다각형 생성방법 및 근사 다각형 생성장치 | |
EP2659455A1 (en) | Method for generating motion synthesis data and device for generating motion synthesis data | |
KR20170048003A (ko) | 가속 구조를 생성하는 방법 및 장치 | |
KR20070098363A (ko) | 3차원 맵에서의 향상된 캐릭터 이동 경로 설정 방법 | |
Oh et al. | Auto generation system of MPEG-V motion sensory effects based on media scene | |
US20240119668A1 (en) | Image processing apparatus, method for controlling the same, and storage medium | |
KR20190030565A (ko) | 전자 장치 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |