KR20130067649A - Apparatus and method for reality effect detection - Google Patents
Apparatus and method for reality effect detection Download PDFInfo
- Publication number
- KR20130067649A KR20130067649A KR1020110134424A KR20110134424A KR20130067649A KR 20130067649 A KR20130067649 A KR 20130067649A KR 1020110134424 A KR1020110134424 A KR 1020110134424A KR 20110134424 A KR20110134424 A KR 20110134424A KR 20130067649 A KR20130067649 A KR 20130067649A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- detection unit
- effect
- viewpoint
- motion effect
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 실감 효과 검출 장치 및 방법에 관한 것으로, 사용자에게 현장감, 사실감, 몰입감을 극대화 할 수 있는 4D 실감 미디어 콘텐츠 제작을 위한 실감 효과 데이터 검출하며 미디어 콘텐츠를 분석하여 영상 내용에 맞는 모션 효과를 자동 검출하는 실감 효과 검출 장치 및 방법에 관한 것이다.
The present invention relates to an apparatus and method for detecting sensory effect, which detects sensory effect data for producing 4D sensory media content that can maximize the realism, realism, and immersion to a user, and analyzes the media content to automatically detect motion effects suitable for video content. The present invention relates to a sensory effect detecting apparatus and a method for detecting the same.
현재 최근 TV나 영화관에서 실감나는 영상 재현을 위하여 3D나 특수 음향효과를 적용한 미디어 콘텐츠의 제작 및 상영이 증가 추세에 있으며 가정에서도 3D 영상을 시청할 수 있는 3D TV가 출시되는 등 좀 더 실감나는 영상 재현을 위한 시도가 이루어지고 있다. 이러한 노력의 일환으로 시각/청각 위주의 3D 영화에 팬, 모션 의자, 발향기, 조명 장치 등 실감 효과 재현 장치와 연동하여 오감을 자극하는 4D 영화의 제작 및 상영도 증가하는 추세에 있다.Nowadays, the production and screening of media contents with 3D or special sound effects are on the rise for realistic image reproduction on TVs and movie theaters, and more realistic image reproduction such as the release of 3D TVs that can watch 3D images at home. Attempts are being made. As part of this effort, the production and screening of 4D movies, which stimulate the five senses in conjunction with realistic effects reproduction devices such as fans, motion chairs, fragrances, and lighting devices, are on the rise in visual and auditory 3D movies.
이러한 추세에 따라 국제표준화 기구인 ISO/IEC MPEG-V에서는 실감미디어 제작 및 실감 효과 재현을 위한 빛(light), 플래쉬(flash), 온도(temperature), 바람(wind), 진동(vibration), 물보라(spray), 안개(fog), 색(color) 교정(correction), 움직임(motion) 등의 실감 효과를 기술하는 방법에 대하여 표준화를 진행하고 있다.In line with this trend, ISO / IEC MPEG-V, the International Organization for Standardization, produces light, flash, temperature, wind, vibration and sprays for producing realistic media and reproducing sensory effects. Standardization is underway to describe sensory effects such as spray, fog, color correction, and motion.
그러므로 기존의 미디어 콘텐츠에 실감 효과를 결합한 4D 실감 미디어의 제작과 4D 영화관에서의 상영이 증가할 것으로 예상되며, 가정용 4D 홈시어터 시스템용 4D 실감 미디어 콘텐츠의 제작 및 소비도 가능할 것으로 예상된다.Therefore, the production of 4D immersive media that combines immersive effects with existing media contents and screening in 4D movie theaters is expected to increase, and the production and consumption of 4D immersive media contents for home 4D home theater systems is also expected.
그러나 현재까지의 4D 실감미디어 제작 또는 4D 영화 제작은 제작자가 기 제작된 영상물을 보면서 영화 장면 장면에 추가할 실감 효과 요소를 결정하고, 표현하고자 하는 실감효과에 따라 실감효과 재현 장치를 구동할 프로그램을 제작함으로써 제작이 복잡하고 어려우며 제작 기간 및 비용이 많이 드는 단점이 있다. 그러므로 제작이 간단하여 실감 효과를 증가시킬 수 있는 기술의 개발이 필요하다.
However, until now, 4D sensational media production or 4D movie production has produced a program to determine the sensory effect elements to be added to the scene of a movie scene while the producers watch the pre-recorded videos, and to drive a sensory reproducing device according to the effect to be expressed. There are drawbacks to manufacturing by making the production complex and difficult, and the production period and costly. Therefore, it is necessary to develop a technology that is simple to manufacture and can increase the sensory effect.
따라서, 본 발명의 목적은 영상 미디어 콘텐츠에 실감효과 메타데이터를 추가하여 4D 실감미디어를 제작시 각 장면의 특성에 적합한 실감효과를 자동 검출하여 실감미디어를 제작하는 실감효과 자동 검출 및 4D 실감 미디어 제작 방법을 제공하는 것이다.Accordingly, an object of the present invention is to add sensory effect metadata to video media content and automatically detect sensory effects suitable for the characteristics of each scene when producing 4D sensory media. To provide a way.
또한, 본 발명의 다른 목적은, 영상과 오디오 신호로 구성된 기존 미디어를 구간별로 분석하여 영상 콘텐츠에 적절한 모션 효과를 자동 검출하며 특히 영상 내 특정 객체의 움직임과 카메라 앵글의 움직임에 따라 발생하는 viewpoint의 변화에 따른 모션 효과를 분석하여 떨림 효과(vibration)와 모션 효과를 자동 검출함으로써 실감미디어 제작을 용이하게 하고자 함이다.
In addition, another object of the present invention, by analyzing the existing media consisting of the image and audio signal by section to automatically detect the motion effect suitable for the image content, in particular of the viewpoint generated according to the movement of the specific object and the camera angle in the image. It aims to facilitate the creation of sensory media by analyzing the motion effect according to the change and automatically detecting vibration and motion effects.
상기한 목적들을 달성하기 위한 본 발명의 장치는, 실감 효과 검출 장치에 있어서, 영상내 특정 객체의 모션 효과를 검출하는 객체 모션 검출부와, 카메라의 이동 및 앵글 변화에 따라 발생하는 뷰포인트 모션 효과를 검출하는 뷰포인트 모션 검출부와, 상기 검출된 객체 모션 효과와 상기 검출된 viewpoint 모션 효과를 이용하여 최종의 모션 효과를 검출하는 모션 파라미터 검출부를 포함한다.
In accordance with another aspect of the present invention, an apparatus for detecting sensory effects includes: an object motion detector for detecting a motion effect of a specific object in an image; and a viewpoint motion effect generated according to a movement and an angle change of a camera. A viewpoint motion detection unit for detecting and a motion parameter detection unit for detecting a final motion effect using the detected object motion effect and the detected viewpoint motion effect.
본 발명은, 모션 의자에 떨림 효과 또는 모션효과를 주기 위한 실감 효과를 영상 미디어를 분석하여 영상 신호로부터 검출하며 viewpoint 검출, 객체 위치 검출, 객체 회전 검출부 각 부에서 검출된 결과를 결합하여 모션 효과를 검출하고 검출된 모션 효과를 동기를 맞추어 미디어에 결합함으로써 미디어 콘텐츠에 부합하는 4D 실감 미디어를 손쉽고 빠르게 제작할 수 있다.
The present invention analyzes the video media to detect a shaking effect or a sensory effect to give a motion chair from an image signal, and combines the results detected from each part of the viewpoint detection, object position detection, and object rotation detection unit. By synchronizing the detected and detected motion effects to media in synchronism, it is easy and fast to create 4D realistic media that matches media content.
도 1은 본 발명의 실시 예에 따른 실감효과 검출 장치의 구성도,
도 2는 본 발명의 실시 예에 따른 모션 효과 검출부의 구성도,
도 3은 모션 효과 검출부의 전체적인 동작 흐름도,
도 4는 실사를 기반으로 특징점을 찾고 선택영역을 표시하는 개념도,
도 5는 도 4에서 선택된 영역에 특징정보를 추출하기 위한 모델링 개념도,
도 6은 본 발명의 실시 예에 따른 객체의 위치정보를 추출하는 과정의 흐름도.1 is a block diagram of a sensory effect detection apparatus according to an embodiment of the present invention,
2 is a block diagram of a motion effect detection unit according to an embodiment of the present invention;
3 is an overall operation flowchart of the motion effect detection unit;
4 is a conceptual diagram of finding a feature point and displaying a selection area based on photorealism;
5 is a conceptual diagram illustrating a model for extracting feature information in a region selected from FIG. 4;
6 is a flowchart of a process of extracting location information of an object according to an embodiment of the present invention.
이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩뜨리지 않도록 생략될 것이라는 것을 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, only parts necessary for understanding the operation according to the present invention will be described, and the description of other parts will be omitted so as not to disturb the gist of the present invention.
도 1은 본 발명의 실시 예에 따른 실감효과 검출 장치의 구성도이다.1 is a block diagram of a sensory effect detection apparatus according to an embodiment of the present invention.
도 1의 실감 효과 검출 장치는 4D 실감미디어 제작을 위하여 미디어 재생부(110), 영상 표시장치(120), 제어부(130), 모션효과 검출부(140), 동기제어부(150), 실감미디어 융합부(160)로 구성된다.The sensory effect detecting apparatus of FIG. 1 is a
도 1을 참고하여 실감 효과 검출장치의 각 구성요소의 동작에 관하여 살펴보기로 한다. An operation of each component of the sensory effect detecting apparatus will be described with reference to FIG. 1.
미디어 재생부(110)는 영상 미디어를 재생하며, 영상 표시장치(120)는 미디어 재생부(110)에서 재생한 영상을 영상 표시장치에 출력한다. 제어부(130)는 전체 구간 중 실감 효과를 검출할 특정 구간 정보, 예를 들면 N개로 구성된 프레임에서 시작 프레임과 종료 프레임 정보를 모션 효과 검출부(140)에 제공한다. 또한 제어부(130)는 MxN의 pixel size를 갖는 프레임 내에서 모션 효과를 검출하고자 하는 특정 객체의 영역 정보, 객체의 실루엣 정보, 또는 객체 탐지 및 인식을 위한 정보를 제공한다.The
모션 효과 검출부(140)는 미디어 재생부(110)로부터 재생된 영상 신호를 분석하여 모션 효과를 검출한다. 동기 제어부(160) 미디어 재생부(110)에서 재생된 영상 신호와 모션 효과 검출부(140)에서 추출한 모션 효과의 동기를 맞춘다. 실감 미디어 융합부(150)는 모션효과 검출부(140)에서 검출한 모션 효과 데이터를 동기 제어부(160)의 동기 정보를 받아 동기 정보를 포함한 실감효과 데이터로 변환하여 XML 데이터로 생성하거나 또는 영상 미디어와 결합할 수 있는 형태의 데이터로 변환하여 영상 미디어 결합하여 최종적인 4D 실감미디어를 제작한다. 모션 효과 검출부(140)의 동작은 후술되는 도 2 내지 도 6을 이용하여 상세하게 설명하기로 한다. The
도 2는 본 발명의 실시 예에 따른 모션 효과 검출부의 구성도이다.2 is a block diagram of a motion effect detector according to an exemplary embodiment of the present invention.
도 2에서의 모션효과 검출부(140)는 영상내 특정 객체의 모션 효과를 검출하는 객체 모션 검출부(210)와 카메라의 이동 및 앵글 변화에 따라 발생하는 viewpoint 모션 효과를 검출하는 viewpoint 모션 검출부(220), 객체 모션 효과와 viewpoint 모션 효과를 종합하여 최종 모션 효과를 검출하는 모션 파라메터 검출부(230)로 구성된다.The
또한 객체 모션 검출부(210)는 객체의 이동에 따른 위치 정보를 검출하는 위치 검출부(211)와 객체의 좌/우/상/하 회전에 따른 회전 정보를 검출하는 회전 검출부(212)로 구성된다. 회전 검출부(212)는 객체 영역을 N개의 서브영역으로 분할하여 각 서브영역에서 특징점의 모션을 검출하여 객체의 회전 정보를 검출하는 것을 특징으로 한다. 위치 검출부(211)은 객체 모델링부(211a)와 객체 위치 검출부(211b)로 구성되며, 회전 검출부(212)는 객체 회전 모델링부(212a)와 객체회전 검출부(212b)로 구성된다.In addition, the
또한 Viewpoint 모션 검출부(220)는 Viewpoint 모델링부(221)와 Viewpont 검출부(222)로 구성된다. 모션 효과 검출부(140)의 동작과정은 후술되는 도 3 내지 도 5을 이용하여 상세하게 설명하기로 한다.In addition, the
도 3은 모션 효과 검출부의 전체적인 동작 흐름도이다. 도 4는 실사를 기반으로 특징점을 찾고 선택영역을 표시하는 개념도이다. 도 5는 도 4에서 선택된 영역에 특징정보를 추출하기 위한 모델링 개념도이다.3 is an overall operation flowchart of the motion effect detection unit. 4 is a conceptual diagram of finding a feature point and displaying a selection area based on the real picture. FIG. 5 is a conceptual diagram illustrating modeling for extracting feature information in a region selected in FIG. 4.
도 3은 모션 효과 검출부의 전체적인 동작 흐름도이다.3 is an overall operation flowchart of the motion effect detection unit.
모션 의자의 움직임을 제어하기 위한 모션 효과의 파라미터는 아래의 <표 1>에 나타낸 바와 같이 객체의 이동 각도, 객체 이동거리, 객체 좌우회전 각도, 그리고 객체 상하회전 각도로 구성할 수 있다. Parameters of the motion effect for controlling the movement of the motion chair can be configured as an object moving angle, an object moving distance, an object left and right rotation angle, and an object up and down rotation angle as shown in Table 1 below.
이동 각도Object
Moving angle
이동 거리Object
Moving distance
회전각도Object
Rotation angle
회전각도Object
Rotation angle
301단계에서 위치 검출부(211)의 객체 모델링부(211a)는 위치를 추적할 객체에 대한 모델링을 제공하며, 영상의 특정 구간의 첫 번째 프레임에 대해 제어부(130)에서 제공한 객체를 포함하는 영역 또는 객체의 실루엣에 해당하는 영역 내에 대하여 컬러 히스토그램, intensity, 객체 edge 검출 등의 방법에 추적할 객체를 모델링 한다.In
302단계에서 객체 위치 검출부(211b)는 객체 모델 정보를 바탕으로 각 프레임 마다 객체의 위치 정보를 검출한다. 이때 위치 정보는 객체 내의 모든 pixel의 x-y 좌표에 대하여 x 좌표의 평균값과 y 좌표의 평균값으로 구한다. 현재 프레임에서 객체의 위치 좌표가 검출되면 현재 프레임에서 객체에 대한 모델링을 재실행하고 객체 모델을 업데이트하여 다음 프레임에서 객체 위치 정보 추출을 위한 모델로 사용할 수 있다.In
303단계에서 회전 검출부(212)의 객체 회전 모델링 부(212a)는 이미지 영역 내에서 객체의 global 이동과는 별개로 객체 자체의 좌/우/상/하 회전 정보를 검출하기 위하여 객체의 회전 정보 검출에 필요한 객체의 특징 정보를 모델링한다. 도 5를 참조하면 객체 영역을 N 개의 서브영역으로 분할하고 회전정보를 검출하기 위한 특징점을 각 서브 영역에서 1개 이상, 객체 영역에서 합계 M개를 검출하고 각 특정점을 라벨링하여 메모리에 저장한다. 이때 객체의 특징점은 edge detect에 의한 edge 정보 또는 nxn pixel matrix의 eigenvalue 등이 사용될 수 있다.In
304단계에서 객체회전 검출부(212b)는 매 프레임 단위로 각 서브 영역에서 라벨링된 특징점의 위치를 검출하고 검출된 위치 정보를 메모리에 저장한다. 회전 정보는 먼저 라벨링된 각 특징점에 대하여 현재 프레임의 위치 정보와 과거 프레임의 위치 정보를 바탕으로 이동 각도를 계산한다. 객체의 전체 회전 각도는 아래의 <수학식 1> 같이 각 특징점의 이동각의 평균으로 구할 수 있다. 여기서 In
객체의 전체 회전 각도를 의미하고 는 각 특징점의 이동각을 의미한다.Means the total rotation angle of the object Denotes a moving angle of each feature point.
305단계에서 viewpoint 모델링부(221)는 회전 검출부(212)와 유사하게 객체 영역을 제외한 전체 프레임을 N개의 서브 영역으로 분할하고 각 서브 영역에 대해 viewpoint 검출을 위한 특징점을 검출한다. 검출된 특징점은 라벨링하여 추후의 특징점 검출 및 viewpoint 검출에서 사용한다.In
306단계에서 vewpoint 검출부(222)는 매 프레임 마다 각 특징점의 위치를 검출하고 과거 프레임의 viewpoint 정보와 비교하여 회전 각도 및 이동 각도와 이동 거리를 검출한다.In
307단계에서는 301단계와 302단계를 통해 검출된 객체 위치 정보와 305단계와 306단계를 통해 검출된 viewpoint 정보를 이용하여 객체의 위치 정보를 검출하고, 308단계에서는 304단계와 305단계를 통해 검출된 객체의 회전 정보와 305단계와 306단계에서 검출된 viewpoint 정보를 이용하여 객체의 회전 정보를 검출한다. In
모션 파라메터 검출부(230)는 viewpoint 검출부(220)의 정보와 객체 모션 검출부(210)의 정보를 바탕으로 최종적인 모션 효과를 검출한다. 예를 들어 viewpoint에서 검출된 정보가 좌측방향 10도 회전이고 객체 모션 검출부에서 검출한 객체의 회전 정보가 좌측방향 5도 회전이면 모션 효과 검출부에서는 객체 좌우회전각도를 15도로 결정한다. 또 다른 예로 viewpoint 검출부의 검출 결과가 좌측 방향 10pixel 객체 위치 검출 결과가 이동 방향이 우측, 이동거리 30 pixel이면 최종 모션 효과는 이동 방향 우측, 이동거리 20 pixel이 된다.The
도 6은 본 발명의 실시 예에 따른 객체의 위치정보를 추출하는 과정의 흐름도이다.6 is a flowchart illustrating a process of extracting location information of an object according to an embodiment of the present invention.
610단계에서는 분석하고자 하는 영상을 N개의 프레임으로 영역분할한다. 620단계에서는 610단계에서 분할된 각 영역의 특징점을 추출한다 630단계에서는 620단계에서 추출된 각 영역의 특징점의 위치를 검출한다. 640단계에서는 630단계에서 검출한 특징점의 위치를 이용하여 좌/우/상/하 회전 각도를 검출한다. 650단계에서는 현재 추출하고 있는 프레임이 마지막 프레임인지를 검사한다. 만약 마지막 프레임이라면 660단계로 천이하여 객체 회전 정보 추출을 종료한다. 만약 마지막 프레임이 아니라면 620단계로 천이한다. In
한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention. Therefore, the scope of the present invention should not be limited by the described embodiments, but should be determined by the scope of the appended claims, as well as the appended claims.
Claims (1)
영상내 특정 객체의 모션 효과를 검출하는 객체 모션 검출부;
카메라의 이동 및 앵글 변화에 따라 발생하는 뷰포인트 모션 효과를 검출하는 뷰포인트 모션 검출부;
상기 검출된 객체 모션 효과와 상기 검출된 viewpoint 모션 효과를 이용하여 최종의 모션 효과를 검출하는 모션 파라미터 검출부;를 포함하는 실감 효과 검출 장치.
In the sensory effect detection device,
An object motion detector configured to detect a motion effect of a specific object in the image;
A viewpoint motion detector configured to detect a viewpoint motion effect generated according to the movement and angle change of the camera;
And a motion parameter detector configured to detect a final motion effect by using the detected object motion effect and the detected viewpoint motion effect.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110134424A KR101842546B1 (en) | 2011-12-14 | 2011-12-14 | Apparatus and method for reality effect detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110134424A KR101842546B1 (en) | 2011-12-14 | 2011-12-14 | Apparatus and method for reality effect detection |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130067649A true KR20130067649A (en) | 2013-06-25 |
KR101842546B1 KR101842546B1 (en) | 2018-03-28 |
Family
ID=48863439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110134424A KR101842546B1 (en) | 2011-12-14 | 2011-12-14 | Apparatus and method for reality effect detection |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101842546B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10410094B2 (en) | 2016-10-04 | 2019-09-10 | Electronics And Telecommunications Research Institute | Method and apparatus for authoring machine learning-based immersive (4D) media |
US10719741B2 (en) | 2017-02-10 | 2020-07-21 | Electronics And Telecommunications Research Institute | Sensory information providing apparatus, video analysis engine, and method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100574227B1 (en) * | 2003-12-18 | 2006-04-26 | 한국전자통신연구원 | Apparatus and method for separating object motion from camera motion |
JP2006059215A (en) * | 2004-08-23 | 2006-03-02 | Seiko Epson Corp | Rotation angle detector for object, facial rotation angle detection program, and facial rotation angle detection method |
-
2011
- 2011-12-14 KR KR1020110134424A patent/KR101842546B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10410094B2 (en) | 2016-10-04 | 2019-09-10 | Electronics And Telecommunications Research Institute | Method and apparatus for authoring machine learning-based immersive (4D) media |
US10719741B2 (en) | 2017-02-10 | 2020-07-21 | Electronics And Telecommunications Research Institute | Sensory information providing apparatus, video analysis engine, and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101842546B1 (en) | 2018-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4548413B2 (en) | Display system, animation method and controller | |
US8614737B2 (en) | System and method for three-dimensional video capture workflow for dynamic rendering | |
US20180018944A1 (en) | Automated object selection and placement for augmented reality | |
JP2019525305A (en) | Apparatus and method for gaze tracking | |
US11514654B1 (en) | Calibrating focus/defocus operations of a virtual display based on camera settings | |
US8958686B2 (en) | Information processing device, synchronization method, and program | |
US9268520B1 (en) | Altering content projection | |
EP3374992A1 (en) | Device and method for creating videoclips from omnidirectional video | |
KR20080111515A (en) | Adaptive rendering of video content based on additional frames of content | |
JP2020095717A (en) | Method, system and apparatus for capture of image data for free viewpoint video | |
KR101491760B1 (en) | Apparatus and method for providing virtual reality of stage | |
EP1843581A2 (en) | Video processing and display | |
CN105138216A (en) | Method and apparatus for displaying audience interaction information on virtual seats | |
WO2019128086A1 (en) | Stage interactive projection method, apparatus and system | |
CN112913331B (en) | Determining light effects based on video and audio information according to video and audio weights | |
KR20130067649A (en) | Apparatus and method for reality effect detection | |
JP6680294B2 (en) | Information processing apparatus, information processing method, program, and image display system | |
US20230224442A1 (en) | Methods for producing visual immersion effects for audiovisual content | |
US8375311B2 (en) | System and method for determining placement of a virtual object according to a real-time performance | |
JP2009181043A (en) | Video signal processor, image signal processing method, program and recording medium | |
US11769312B1 (en) | Video system with scene-based object insertion feature | |
US20220414991A1 (en) | Video generation apparatus, method for generating video, and program of generating video | |
CN219802409U (en) | XR virtual film-making real-time synthesis system | |
US20230281933A1 (en) | Spatial video capture and replay | |
KR20120131425A (en) | Interactive advertisement authoring device and interactive advertisement authoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |