KR20130067649A - Apparatus and method for reality effect detection - Google Patents

Apparatus and method for reality effect detection Download PDF

Info

Publication number
KR20130067649A
KR20130067649A KR1020110134424A KR20110134424A KR20130067649A KR 20130067649 A KR20130067649 A KR 20130067649A KR 1020110134424 A KR1020110134424 A KR 1020110134424A KR 20110134424 A KR20110134424 A KR 20110134424A KR 20130067649 A KR20130067649 A KR 20130067649A
Authority
KR
South Korea
Prior art keywords
motion
detection unit
effect
viewpoint
motion effect
Prior art date
Application number
KR1020110134424A
Other languages
Korean (ko)
Other versions
KR101842546B1 (en
Inventor
지덕구
오현우
김지연
박미룡
장종현
박광로
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110134424A priority Critical patent/KR101842546B1/en
Publication of KR20130067649A publication Critical patent/KR20130067649A/en
Application granted granted Critical
Publication of KR101842546B1 publication Critical patent/KR101842546B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A sensory effect detection device and a method thereof are provided to easily and quickly produce 4D sensory effect media suitable for media contents by detecting motion effect through combination of detection result of a viewpoint motion detection unit, an object location detection unit and an object rotation detection unit, synchronizing the detected motion effect and combining the synchronized motion effect to media. CONSTITUTION: An object motion detection unit(210) detects motion effect of a specific object within an image. A viewpoint motion detection unit(220) detects viewpoint motion effect generated according to movement and angle variation of a camera. A motion parameter detection unit(230) detects the final motion effect using the detected object motion effect and the detected viewpoint motion effect. [Reference numerals] (211) Position detection unit; (211A) Object modeling unit; (211B) Object position detection unit; (212) Rotation detection unit; (212A) Object rotation modeling unit; (212B) Object rotation detection unit; (220) Viewpoint motion detection unit; (221) Viewpoint modeling unit; (222) Viewpoint detection unit; (230) Motion parameter detection un

Description

실감 효과 검출 장치 및 방법{APPARATUS AND METHOD FOR REALITY EFFECT DETECTION}Sensory effect detection apparatus and method {APPARATUS AND METHOD FOR REALITY EFFECT DETECTION}

본 발명은 실감 효과 검출 장치 및 방법에 관한 것으로, 사용자에게 현장감, 사실감, 몰입감을 극대화 할 수 있는 4D 실감 미디어 콘텐츠 제작을 위한 실감 효과 데이터 검출하며 미디어 콘텐츠를 분석하여 영상 내용에 맞는 모션 효과를 자동 검출하는 실감 효과 검출 장치 및 방법에 관한 것이다.
The present invention relates to an apparatus and method for detecting sensory effect, which detects sensory effect data for producing 4D sensory media content that can maximize the realism, realism, and immersion to a user, and analyzes the media content to automatically detect motion effects suitable for video content. The present invention relates to a sensory effect detecting apparatus and a method for detecting the same.

현재 최근 TV나 영화관에서 실감나는 영상 재현을 위하여 3D나 특수 음향효과를 적용한 미디어 콘텐츠의 제작 및 상영이 증가 추세에 있으며 가정에서도 3D 영상을 시청할 수 있는 3D TV가 출시되는 등 좀 더 실감나는 영상 재현을 위한 시도가 이루어지고 있다. 이러한 노력의 일환으로 시각/청각 위주의 3D 영화에 팬, 모션 의자, 발향기, 조명 장치 등 실감 효과 재현 장치와 연동하여 오감을 자극하는 4D 영화의 제작 및 상영도 증가하는 추세에 있다.Nowadays, the production and screening of media contents with 3D or special sound effects are on the rise for realistic image reproduction on TVs and movie theaters, and more realistic image reproduction such as the release of 3D TVs that can watch 3D images at home. Attempts are being made. As part of this effort, the production and screening of 4D movies, which stimulate the five senses in conjunction with realistic effects reproduction devices such as fans, motion chairs, fragrances, and lighting devices, are on the rise in visual and auditory 3D movies.

이러한 추세에 따라 국제표준화 기구인 ISO/IEC MPEG-V에서는 실감미디어 제작 및 실감 효과 재현을 위한 빛(light), 플래쉬(flash), 온도(temperature), 바람(wind), 진동(vibration), 물보라(spray), 안개(fog), 색(color) 교정(correction), 움직임(motion) 등의 실감 효과를 기술하는 방법에 대하여 표준화를 진행하고 있다.In line with this trend, ISO / IEC MPEG-V, the International Organization for Standardization, produces light, flash, temperature, wind, vibration and sprays for producing realistic media and reproducing sensory effects. Standardization is underway to describe sensory effects such as spray, fog, color correction, and motion.

그러므로 기존의 미디어 콘텐츠에 실감 효과를 결합한 4D 실감 미디어의 제작과 4D 영화관에서의 상영이 증가할 것으로 예상되며, 가정용 4D 홈시어터 시스템용 4D 실감 미디어 콘텐츠의 제작 및 소비도 가능할 것으로 예상된다.Therefore, the production of 4D immersive media that combines immersive effects with existing media contents and screening in 4D movie theaters is expected to increase, and the production and consumption of 4D immersive media contents for home 4D home theater systems is also expected.

그러나 현재까지의 4D 실감미디어 제작 또는 4D 영화 제작은 제작자가 기 제작된 영상물을 보면서 영화 장면 장면에 추가할 실감 효과 요소를 결정하고, 표현하고자 하는 실감효과에 따라 실감효과 재현 장치를 구동할 프로그램을 제작함으로써 제작이 복잡하고 어려우며 제작 기간 및 비용이 많이 드는 단점이 있다. 그러므로 제작이 간단하여 실감 효과를 증가시킬 수 있는 기술의 개발이 필요하다.
However, until now, 4D sensational media production or 4D movie production has produced a program to determine the sensory effect elements to be added to the scene of a movie scene while the producers watch the pre-recorded videos, and to drive a sensory reproducing device according to the effect to be expressed. There are drawbacks to manufacturing by making the production complex and difficult, and the production period and costly. Therefore, it is necessary to develop a technology that is simple to manufacture and can increase the sensory effect.

따라서, 본 발명의 목적은 영상 미디어 콘텐츠에 실감효과 메타데이터를 추가하여 4D 실감미디어를 제작시 각 장면의 특성에 적합한 실감효과를 자동 검출하여 실감미디어를 제작하는 실감효과 자동 검출 및 4D 실감 미디어 제작 방법을 제공하는 것이다.Accordingly, an object of the present invention is to add sensory effect metadata to video media content and automatically detect sensory effects suitable for the characteristics of each scene when producing 4D sensory media. To provide a way.

또한, 본 발명의 다른 목적은, 영상과 오디오 신호로 구성된 기존 미디어를 구간별로 분석하여 영상 콘텐츠에 적절한 모션 효과를 자동 검출하며 특히 영상 내 특정 객체의 움직임과 카메라 앵글의 움직임에 따라 발생하는 viewpoint의 변화에 따른 모션 효과를 분석하여 떨림 효과(vibration)와 모션 효과를 자동 검출함으로써 실감미디어 제작을 용이하게 하고자 함이다.
In addition, another object of the present invention, by analyzing the existing media consisting of the image and audio signal by section to automatically detect the motion effect suitable for the image content, in particular of the viewpoint generated according to the movement of the specific object and the camera angle in the image. It aims to facilitate the creation of sensory media by analyzing the motion effect according to the change and automatically detecting vibration and motion effects.

상기한 목적들을 달성하기 위한 본 발명의 장치는, 실감 효과 검출 장치에 있어서, 영상내 특정 객체의 모션 효과를 검출하는 객체 모션 검출부와, 카메라의 이동 및 앵글 변화에 따라 발생하는 뷰포인트 모션 효과를 검출하는 뷰포인트 모션 검출부와, 상기 검출된 객체 모션 효과와 상기 검출된 viewpoint 모션 효과를 이용하여 최종의 모션 효과를 검출하는 모션 파라미터 검출부를 포함한다.
In accordance with another aspect of the present invention, an apparatus for detecting sensory effects includes: an object motion detector for detecting a motion effect of a specific object in an image; and a viewpoint motion effect generated according to a movement and an angle change of a camera. A viewpoint motion detection unit for detecting and a motion parameter detection unit for detecting a final motion effect using the detected object motion effect and the detected viewpoint motion effect.

본 발명은, 모션 의자에 떨림 효과 또는 모션효과를 주기 위한 실감 효과를 영상 미디어를 분석하여 영상 신호로부터 검출하며 viewpoint 검출, 객체 위치 검출, 객체 회전 검출부 각 부에서 검출된 결과를 결합하여 모션 효과를 검출하고 검출된 모션 효과를 동기를 맞추어 미디어에 결합함으로써 미디어 콘텐츠에 부합하는 4D 실감 미디어를 손쉽고 빠르게 제작할 수 있다.
The present invention analyzes the video media to detect a shaking effect or a sensory effect to give a motion chair from an image signal, and combines the results detected from each part of the viewpoint detection, object position detection, and object rotation detection unit. By synchronizing the detected and detected motion effects to media in synchronism, it is easy and fast to create 4D realistic media that matches media content.

도 1은 본 발명의 실시 예에 따른 실감효과 검출 장치의 구성도,
도 2는 본 발명의 실시 예에 따른 모션 효과 검출부의 구성도,
도 3은 모션 효과 검출부의 전체적인 동작 흐름도,
도 4는 실사를 기반으로 특징점을 찾고 선택영역을 표시하는 개념도,
도 5는 도 4에서 선택된 영역에 특징정보를 추출하기 위한 모델링 개념도,
도 6은 본 발명의 실시 예에 따른 객체의 위치정보를 추출하는 과정의 흐름도.
1 is a block diagram of a sensory effect detection apparatus according to an embodiment of the present invention,
2 is a block diagram of a motion effect detection unit according to an embodiment of the present invention;
3 is an overall operation flowchart of the motion effect detection unit;
4 is a conceptual diagram of finding a feature point and displaying a selection area based on photorealism;
5 is a conceptual diagram illustrating a model for extracting feature information in a region selected from FIG. 4;
6 is a flowchart of a process of extracting location information of an object according to an embodiment of the present invention.

이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩뜨리지 않도록 생략될 것이라는 것을 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, only parts necessary for understanding the operation according to the present invention will be described, and the description of other parts will be omitted so as not to disturb the gist of the present invention.

도 1은 본 발명의 실시 예에 따른 실감효과 검출 장치의 구성도이다.1 is a block diagram of a sensory effect detection apparatus according to an embodiment of the present invention.

도 1의 실감 효과 검출 장치는 4D 실감미디어 제작을 위하여 미디어 재생부(110), 영상 표시장치(120), 제어부(130), 모션효과 검출부(140), 동기제어부(150), 실감미디어 융합부(160)로 구성된다.The sensory effect detecting apparatus of FIG. 1 is a media player 110, an image display device 120, a controller 130, a motion effect detector 140, a synchronization controller 150, a sensory media fusion unit for producing 4D sensory media. It consists of 160.

도 1을 참고하여 실감 효과 검출장치의 각 구성요소의 동작에 관하여 살펴보기로 한다. An operation of each component of the sensory effect detecting apparatus will be described with reference to FIG. 1.

미디어 재생부(110)는 영상 미디어를 재생하며, 영상 표시장치(120)는 미디어 재생부(110)에서 재생한 영상을 영상 표시장치에 출력한다. 제어부(130)는 전체 구간 중 실감 효과를 검출할 특정 구간 정보, 예를 들면 N개로 구성된 프레임에서 시작 프레임과 종료 프레임 정보를 모션 효과 검출부(140)에 제공한다. 또한 제어부(130)는 MxN의 pixel size를 갖는 프레임 내에서 모션 효과를 검출하고자 하는 특정 객체의 영역 정보, 객체의 실루엣 정보, 또는 객체 탐지 및 인식을 위한 정보를 제공한다.The media player 110 reproduces the image media, and the image display device 120 outputs the image reproduced by the media player 110 to the image display device. The controller 130 provides the motion effect detection unit 140 with the start frame and the end frame information in specific section information, for example, N frames, in which the sensory effect is to be detected. In addition, the controller 130 provides region information of a specific object, silhouette information of an object, or information for object detection and recognition in a frame having a pixel size of M × N.

모션 효과 검출부(140)는 미디어 재생부(110)로부터 재생된 영상 신호를 분석하여 모션 효과를 검출한다. 동기 제어부(160) 미디어 재생부(110)에서 재생된 영상 신호와 모션 효과 검출부(140)에서 추출한 모션 효과의 동기를 맞춘다. 실감 미디어 융합부(150)는 모션효과 검출부(140)에서 검출한 모션 효과 데이터를 동기 제어부(160)의 동기 정보를 받아 동기 정보를 포함한 실감효과 데이터로 변환하여 XML 데이터로 생성하거나 또는 영상 미디어와 결합할 수 있는 형태의 데이터로 변환하여 영상 미디어 결합하여 최종적인 4D 실감미디어를 제작한다. 모션 효과 검출부(140)의 동작은 후술되는 도 2 내지 도 6을 이용하여 상세하게 설명하기로 한다. The motion effect detector 140 detects a motion effect by analyzing an image signal reproduced from the media player 110. The synchronization controller 160 synchronizes the video signal reproduced by the media player 110 with the motion effect extracted by the motion effect detector 140. The sensory media fusion unit 150 receives the motion information detected by the motion effect detector 140 and converts the motion effect data into sensory effect data including the sync information by generating the XML data or converts the sensory effect data including the sync information into the image media. It converts the data into combinable form and combines the video media to produce the final 4D realistic media. The operation of the motion effect detection unit 140 will be described in detail with reference to FIGS. 2 to 6 to be described later.

도 2는 본 발명의 실시 예에 따른 모션 효과 검출부의 구성도이다.2 is a block diagram of a motion effect detector according to an exemplary embodiment of the present invention.

도 2에서의 모션효과 검출부(140)는 영상내 특정 객체의 모션 효과를 검출하는 객체 모션 검출부(210)와 카메라의 이동 및 앵글 변화에 따라 발생하는 viewpoint 모션 효과를 검출하는 viewpoint 모션 검출부(220), 객체 모션 효과와 viewpoint 모션 효과를 종합하여 최종 모션 효과를 검출하는 모션 파라메터 검출부(230)로 구성된다.The motion effect detector 140 of FIG. 2 is an object motion detector 210 that detects a motion effect of a specific object in an image, and a viewpoint motion detector 220 that detects a viewpoint motion effect generated according to a movement and an angle change of a camera. The motion parameter detector 230 detects the final motion effect by combining the object motion effect and the viewpoint motion effect.

또한 객체 모션 검출부(210)는 객체의 이동에 따른 위치 정보를 검출하는 위치 검출부(211)와 객체의 좌/우/상/하 회전에 따른 회전 정보를 검출하는 회전 검출부(212)로 구성된다. 회전 검출부(212)는 객체 영역을 N개의 서브영역으로 분할하여 각 서브영역에서 특징점의 모션을 검출하여 객체의 회전 정보를 검출하는 것을 특징으로 한다. 위치 검출부(211)은 객체 모델링부(211a)와 객체 위치 검출부(211b)로 구성되며, 회전 검출부(212)는 객체 회전 모델링부(212a)와 객체회전 검출부(212b)로 구성된다.In addition, the object motion detector 210 includes a position detector 211 that detects position information according to movement of an object, and a rotation detector 212 that detects rotation information according to left / right / up / down rotation of an object. The rotation detector 212 divides the object area into N sub-areas, detects motion of a feature point in each sub-area, and detects rotation information of the object. The position detector 211 includes an object modeling unit 211a and an object position detector 211b, and the rotation detector 212 includes an object rotation modeling unit 212a and an object rotation detector 212b.

또한 Viewpoint 모션 검출부(220)는 Viewpoint 모델링부(221)와 Viewpont 검출부(222)로 구성된다. 모션 효과 검출부(140)의 동작과정은 후술되는 도 3 내지 도 5을 이용하여 상세하게 설명하기로 한다.In addition, the viewpoint motion detector 220 includes a viewpoint modeling unit 221 and a viewpont detector 222. An operation process of the motion effect detection unit 140 will be described in detail with reference to FIGS. 3 to 5 to be described later.

도 3은 모션 효과 검출부의 전체적인 동작 흐름도이다. 도 4는 실사를 기반으로 특징점을 찾고 선택영역을 표시하는 개념도이다. 도 5는 도 4에서 선택된 영역에 특징정보를 추출하기 위한 모델링 개념도이다.3 is an overall operation flowchart of the motion effect detection unit. 4 is a conceptual diagram of finding a feature point and displaying a selection area based on the real picture. FIG. 5 is a conceptual diagram illustrating modeling for extracting feature information in a region selected in FIG. 4.

도 3은 모션 효과 검출부의 전체적인 동작 흐름도이다.3 is an overall operation flowchart of the motion effect detection unit.

모션 의자의 움직임을 제어하기 위한 모션 효과의 파라미터는 아래의 <표 1>에 나타낸 바와 같이 객체의 이동 각도, 객체 이동거리, 객체 좌우회전 각도, 그리고 객체 상하회전 각도로 구성할 수 있다. Parameters of the motion effect for controlling the movement of the motion chair can be configured as an object moving angle, an object moving distance, an object left and right rotation angle, and an object up and down rotation angle as shown in Table 1 below.

frame nframe n 객체
이동 각도
Object
Moving angle
객체
이동 거리
Object
Moving distance
객체좌우
회전각도
Object
Rotation angle
객체상하
회전각도
Object
Rotation angle

301단계에서 위치 검출부(211)의 객체 모델링부(211a)는 위치를 추적할 객체에 대한 모델링을 제공하며, 영상의 특정 구간의 첫 번째 프레임에 대해 제어부(130)에서 제공한 객체를 포함하는 영역 또는 객체의 실루엣에 해당하는 영역 내에 대하여 컬러 히스토그램, intensity, 객체 edge 검출 등의 방법에 추적할 객체를 모델링 한다.In operation 301, the object modeling unit 211a of the location detector 211 provides modeling of an object whose location is to be tracked and includes an object provided by the controller 130 for the first frame of a specific section of the image. Alternatively, the object to be tracked is modeled in a method such as color histogram, intensity, and object edge detection in the region corresponding to the silhouette of the object.

302단계에서 객체 위치 검출부(211b)는 객체 모델 정보를 바탕으로 각 프레임 마다 객체의 위치 정보를 검출한다. 이때 위치 정보는 객체 내의 모든 pixel의 x-y 좌표에 대하여 x 좌표의 평균값과 y 좌표의 평균값으로 구한다. 현재 프레임에서 객체의 위치 좌표가 검출되면 현재 프레임에서 객체에 대한 모델링을 재실행하고 객체 모델을 업데이트하여 다음 프레임에서 객체 위치 정보 추출을 위한 모델로 사용할 수 있다.In step 302, the object position detector 211b detects the position information of the object for each frame based on the object model information. At this time, the position information is obtained by the average value of the x coordinate and the average value of the y coordinate with respect to the x-y coordinates of all pixels in the object. When the position coordinates of the object are detected in the current frame, modeling of the object in the current frame can be re-executed and the object model can be updated to be used as a model for extracting object position information in the next frame.

303단계에서 회전 검출부(212)의 객체 회전 모델링 부(212a)는 이미지 영역 내에서 객체의 global 이동과는 별개로 객체 자체의 좌/우/상/하 회전 정보를 검출하기 위하여 객체의 회전 정보 검출에 필요한 객체의 특징 정보를 모델링한다. 도 5를 참조하면 객체 영역을 N 개의 서브영역으로 분할하고 회전정보를 검출하기 위한 특징점을 각 서브 영역에서 1개 이상, 객체 영역에서 합계 M개를 검출하고 각 특정점을 라벨링하여 메모리에 저장한다. 이때 객체의 특징점은 edge detect에 의한 edge 정보 또는 nxn pixel matrix의 eigenvalue 등이 사용될 수 있다.In step 303, the object rotation modeling unit 212a of the rotation detection unit 212 is configured to detect rotation information of the object in order to detect left / right / up / down rotation information of the object itself independently of the global movement of the object in the image area. Model the feature information of the required object. Referring to FIG. 5, the object area is divided into N sub-areas, and one or more feature points for detecting rotation information are detected in each sub-area, M totals are detected in the object area, and each specific point is labeled and stored in the memory. . In this case, the feature point of the object may use edge information by edge detect or an eigenvalue of an nxn pixel matrix.

304단계에서 객체회전 검출부(212b)는 매 프레임 단위로 각 서브 영역에서 라벨링된 특징점의 위치를 검출하고 검출된 위치 정보를 메모리에 저장한다. 회전 정보는 먼저 라벨링된 각 특징점에 대하여 현재 프레임의 위치 정보와 과거 프레임의 위치 정보를 바탕으로 이동 각도를 계산한다. 객체의 전체 회전 각도는 아래의 <수학식 1> 같이 각 특징점의 이동각의 평균으로 구할 수 있다. 여기서

Figure pat00001
In step 304, the object rotation detector 212b detects the position of the feature point labeled in each sub-area every frame and stores the detected position information in the memory. The rotation information first calculates a moving angle for each of the labeled feature points based on the position information of the current frame and the position information of the past frame. The total rotation angle of the object can be obtained as an average of the moving angles of each feature point as shown in Equation 1 below. here
Figure pat00001

객체의 전체 회전 각도를 의미하고

Figure pat00002
는 각 특징점의 이동각을 의미한다.Means the total rotation angle of the object
Figure pat00002
Denotes a moving angle of each feature point.

Figure pat00003
Figure pat00003

305단계에서 viewpoint 모델링부(221)는 회전 검출부(212)와 유사하게 객체 영역을 제외한 전체 프레임을 N개의 서브 영역으로 분할하고 각 서브 영역에 대해 viewpoint 검출을 위한 특징점을 검출한다. 검출된 특징점은 라벨링하여 추후의 특징점 검출 및 viewpoint 검출에서 사용한다.In step 305, the viewpoint modeling unit 221 divides the entire frame except the object region into N subregions and detects feature points for viewpoint detection in each subregion similarly to the rotation detector 212. The detected feature points are labeled and used for later feature point detection and viewpoint detection.

306단계에서 vewpoint 검출부(222)는 매 프레임 마다 각 특징점의 위치를 검출하고 과거 프레임의 viewpoint 정보와 비교하여 회전 각도 및 이동 각도와 이동 거리를 검출한다.In step 306, the vewpoint detector 222 detects the position of each feature point every frame and detects the rotation angle, the movement angle, and the movement distance by comparing the viewpoint information of the past frame.

307단계에서는 301단계와 302단계를 통해 검출된 객체 위치 정보와 305단계와 306단계를 통해 검출된 viewpoint 정보를 이용하여 객체의 위치 정보를 검출하고, 308단계에서는 304단계와 305단계를 통해 검출된 객체의 회전 정보와 305단계와 306단계에서 검출된 viewpoint 정보를 이용하여 객체의 회전 정보를 검출한다. In step 307, the object position information is detected using the object position information detected in steps 301 and 302 and viewpoint information detected in steps 305 and 306, and in step 308, the object position information is detected in steps 304 and 305. The rotation information of the object is detected using the rotation information of the object and viewpoint information detected in steps 305 and 306.

모션 파라메터 검출부(230)는 viewpoint 검출부(220)의 정보와 객체 모션 검출부(210)의 정보를 바탕으로 최종적인 모션 효과를 검출한다. 예를 들어 viewpoint에서 검출된 정보가 좌측방향 10도 회전이고 객체 모션 검출부에서 검출한 객체의 회전 정보가 좌측방향 5도 회전이면 모션 효과 검출부에서는 객체 좌우회전각도를 15도로 결정한다. 또 다른 예로 viewpoint 검출부의 검출 결과가 좌측 방향 10pixel 객체 위치 검출 결과가 이동 방향이 우측, 이동거리 30 pixel이면 최종 모션 효과는 이동 방향 우측, 이동거리 20 pixel이 된다.The motion parameter detector 230 detects the final motion effect based on the information of the viewpoint detector 220 and the information of the object motion detector 210. For example, if the information detected from the viewpoint is rotated 10 degrees in the left direction and the rotation information of the object detected by the object motion detector is rotated 5 degrees in the left direction, the motion effect detector determines the left and right rotation angles of the object by 15 degrees. As another example, if the detection result of the viewpoint detector is 10 pixels in the left direction and the object position detection result is in the moving direction to the right and the moving distance is 30 pixels, the final motion effect is 20 pixels to the right in the moving direction.

도 6은 본 발명의 실시 예에 따른 객체의 위치정보를 추출하는 과정의 흐름도이다.6 is a flowchart illustrating a process of extracting location information of an object according to an embodiment of the present invention.

610단계에서는 분석하고자 하는 영상을 N개의 프레임으로 영역분할한다. 620단계에서는 610단계에서 분할된 각 영역의 특징점을 추출한다 630단계에서는 620단계에서 추출된 각 영역의 특징점의 위치를 검출한다. 640단계에서는 630단계에서 검출한 특징점의 위치를 이용하여 좌/우/상/하 회전 각도를 검출한다. 650단계에서는 현재 추출하고 있는 프레임이 마지막 프레임인지를 검사한다. 만약 마지막 프레임이라면 660단계로 천이하여 객체 회전 정보 추출을 종료한다. 만약 마지막 프레임이 아니라면 620단계로 천이한다. In step 610, the image to be analyzed is divided into N frames. In step 620, the feature points of each region divided in step 610 are extracted. In step 630, the positions of the feature points of each region extracted in step 620 are detected. In step 640, the left / right / up / down rotation angle is detected using the position of the feature point detected in step 630. In step 650, it is checked whether the currently extracted frame is the last frame. If it is the last frame, the process proceeds to step 660 to finish the extraction of the object rotation information. If it is not the last frame, the process proceeds to step 620.

한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention. Therefore, the scope of the present invention should not be limited by the described embodiments, but should be determined by the scope of the appended claims, as well as the appended claims.

Claims (1)

실감 효과 검출 장치에 있어서,
영상내 특정 객체의 모션 효과를 검출하는 객체 모션 검출부;
카메라의 이동 및 앵글 변화에 따라 발생하는 뷰포인트 모션 효과를 검출하는 뷰포인트 모션 검출부;
상기 검출된 객체 모션 효과와 상기 검출된 viewpoint 모션 효과를 이용하여 최종의 모션 효과를 검출하는 모션 파라미터 검출부;를 포함하는 실감 효과 검출 장치.
In the sensory effect detection device,
An object motion detector configured to detect a motion effect of a specific object in the image;
A viewpoint motion detector configured to detect a viewpoint motion effect generated according to the movement and angle change of the camera;
And a motion parameter detector configured to detect a final motion effect by using the detected object motion effect and the detected viewpoint motion effect.
KR1020110134424A 2011-12-14 2011-12-14 Apparatus and method for reality effect detection KR101842546B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110134424A KR101842546B1 (en) 2011-12-14 2011-12-14 Apparatus and method for reality effect detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110134424A KR101842546B1 (en) 2011-12-14 2011-12-14 Apparatus and method for reality effect detection

Publications (2)

Publication Number Publication Date
KR20130067649A true KR20130067649A (en) 2013-06-25
KR101842546B1 KR101842546B1 (en) 2018-03-28

Family

ID=48863439

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110134424A KR101842546B1 (en) 2011-12-14 2011-12-14 Apparatus and method for reality effect detection

Country Status (1)

Country Link
KR (1) KR101842546B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410094B2 (en) 2016-10-04 2019-09-10 Electronics And Telecommunications Research Institute Method and apparatus for authoring machine learning-based immersive (4D) media
US10719741B2 (en) 2017-02-10 2020-07-21 Electronics And Telecommunications Research Institute Sensory information providing apparatus, video analysis engine, and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100574227B1 (en) * 2003-12-18 2006-04-26 한국전자통신연구원 Apparatus and method for separating object motion from camera motion
JP2006059215A (en) * 2004-08-23 2006-03-02 Seiko Epson Corp Rotation angle detector for object, facial rotation angle detection program, and facial rotation angle detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410094B2 (en) 2016-10-04 2019-09-10 Electronics And Telecommunications Research Institute Method and apparatus for authoring machine learning-based immersive (4D) media
US10719741B2 (en) 2017-02-10 2020-07-21 Electronics And Telecommunications Research Institute Sensory information providing apparatus, video analysis engine, and method thereof

Also Published As

Publication number Publication date
KR101842546B1 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP4548413B2 (en) Display system, animation method and controller
US8614737B2 (en) System and method for three-dimensional video capture workflow for dynamic rendering
US20180018944A1 (en) Automated object selection and placement for augmented reality
JP2019525305A (en) Apparatus and method for gaze tracking
US11514654B1 (en) Calibrating focus/defocus operations of a virtual display based on camera settings
US8958686B2 (en) Information processing device, synchronization method, and program
US9268520B1 (en) Altering content projection
EP3374992A1 (en) Device and method for creating videoclips from omnidirectional video
KR20080111515A (en) Adaptive rendering of video content based on additional frames of content
JP2020095717A (en) Method, system and apparatus for capture of image data for free viewpoint video
KR101491760B1 (en) Apparatus and method for providing virtual reality of stage
EP1843581A2 (en) Video processing and display
CN105138216A (en) Method and apparatus for displaying audience interaction information on virtual seats
WO2019128086A1 (en) Stage interactive projection method, apparatus and system
CN112913331B (en) Determining light effects based on video and audio information according to video and audio weights
KR20130067649A (en) Apparatus and method for reality effect detection
JP6680294B2 (en) Information processing apparatus, information processing method, program, and image display system
US20230224442A1 (en) Methods for producing visual immersion effects for audiovisual content
US8375311B2 (en) System and method for determining placement of a virtual object according to a real-time performance
JP2009181043A (en) Video signal processor, image signal processing method, program and recording medium
US11769312B1 (en) Video system with scene-based object insertion feature
US20220414991A1 (en) Video generation apparatus, method for generating video, and program of generating video
CN219802409U (en) XR virtual film-making real-time synthesis system
US20230281933A1 (en) Spatial video capture and replay
KR20120131425A (en) Interactive advertisement authoring device and interactive advertisement authoring method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant