WO2011105812A2 - 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법 - Google Patents

휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법 Download PDF

Info

Publication number
WO2011105812A2
WO2011105812A2 PCT/KR2011/001269 KR2011001269W WO2011105812A2 WO 2011105812 A2 WO2011105812 A2 WO 2011105812A2 KR 2011001269 W KR2011001269 W KR 2011001269W WO 2011105812 A2 WO2011105812 A2 WO 2011105812A2
Authority
WO
WIPO (PCT)
Prior art keywords
data
dimensional
portable terminal
parameter
display
Prior art date
Application number
PCT/KR2011/001269
Other languages
English (en)
French (fr)
Other versions
WO2011105812A3 (ko
Inventor
이건일
박하중
김용태
민형석
홍성빈
최광철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/580,861 priority Critical patent/US9369690B2/en
Priority to JP2012554927A priority patent/JP5859464B2/ja
Priority to EP11747702.6A priority patent/EP2541944A4/en
Publication of WO2011105812A2 publication Critical patent/WO2011105812A2/ko
Publication of WO2011105812A3 publication Critical patent/WO2011105812A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Definitions

  • the present invention relates to an apparatus and method for processing stereoscopic image data of a portable terminal, and in particular, a content between various 3D devices using a file structure and stored 3D related parameters for effectively storing stereoscopic image data obtained using a plurality of cameras.
  • the left view image and the right view image are respectively scanned at the corresponding positions on the existing display device, and the left view point and the right view point are separated from the user's left and right eyes to form a three-dimensional image.
  • portable terminals stereophones, stereoscopic cameras, stereoscopic camcorders, etc.
  • 3D TVs equipped with Barrier LCDs can play stereoscopic content to provide users with more realistic images.
  • FIG. 1 is a diagram illustrating the structure of an image file used in a general portable terminal.
  • the image file is a JPEG file which is a commonly used still image storage file format, which starts with a SOI (Start of Image) marker 101 and an EOI (End of Image) marker 107. The end of file is indicated.
  • an APP1 (EXIF) application marker 103 which stores additional information of an image, and includes a MCU (minimum coded unit) data portion 105 which is compressed data of an actual image.
  • the application marker 103 is an additional field currently defined from APP0 to APP15 and defines and uses parameters required by a camera manufacturer or a company that manufactures an associated viewer.
  • a plurality of image files having the above structure should be stored. For example, in case of stereo image data shot by two cameras, two files should be created respectively. In this case, information about the connection relationship between the two files should be stored. When one file is deleted or the file name is modified, 3D There is a problem that the device cannot reproduce in stereo.
  • An object of the present invention is to provide an apparatus and method for generating stereoscopic image data in a portable terminal.
  • Another object of the present invention is to provide an apparatus and method for generating stereoscopic image data having high compatibility between different multimedia devices in a portable terminal.
  • Another object of the present invention is to provide an apparatus and method for processing boundary occlusion areas for reducing visual fatigue in a portable terminal.
  • the apparatus for generating three-dimensional data in a portable terminal includes a camera unit for obtaining a plurality of multimedia data that can provide a three-dimensional effect, and And a 3D data manager for acquiring 3D parameters of the multimedia data, compressing the obtained multimedia data, and generating the obtained 3D parameter and the compressed data into one file.
  • a device for reproducing three-dimensional data in a portable terminal analyzes the 3D parameter of the three-dimensional data to be reproduced, and then based on the analyzed parameter And a three-dimensional data manager for analyzing a plurality of viewpoints included in the three-dimensional data and reproducing the analyzed plurality of viewpoints to provide a three-dimensional effect.
  • a method for generating three-dimensional data in a portable terminal is a process of obtaining a plurality of multimedia data that can provide a three-dimensional effect, and the obtained multimedia Acquiring the 3D parameter of the data, and after compressing the obtained multimedia data, generating the acquired 3D parameter and the compressed data into a single file.
  • a method for reproducing three-dimensional data in a portable terminal comprises the steps of analyzing the 3D parameters of the three-dimensional data to be reproduced, and based on the analyzed parameters And analyzing a plurality of viewpoints included in the three-dimensional data and providing a three-dimensional effect by reproducing the analyzed plurality of viewpoints.
  • FIG. 1 is a view showing the structure of an image file used in a typical portable terminal
  • FIG. 2 is a block diagram showing the configuration of a portable terminal for controlling three-dimensional data according to the present invention
  • FIG. 3 is a diagram showing the configuration of three-dimensional data using two image data according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing the configuration of three-dimensional data using three image data according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a process of generating 3D data in a portable terminal according to an embodiment of the present invention
  • FIG. 6 is a flowchart illustrating a process of reproducing 3D data in a portable terminal according to an embodiment of the present invention
  • FIG. 7 is a flowchart illustrating a process of reproducing 3D data using 3D parameters in a portable terminal according to an embodiment of the present invention
  • FIG. 8 is a diagram illustrating a process of reproducing 3D data in a portable terminal according to an embodiment of the present invention.
  • FIG. 9 illustrates a process of reproducing 3D data in a portable terminal according to an exemplary embodiment of the present invention.
  • the portable terminal refers to a display device that provides a stereoscopic effect to a user by playing stereoscopic contents such as a stereoscopic mobile communication terminal equipped with a barrier LCD, a stereoscopic camera, a stereoscopic camcorder, and a 3D TV. .
  • FIG. 2 is a block diagram showing the configuration of a portable terminal for controlling three-dimensional data according to the present invention.
  • the portable terminal includes a control unit 200, a three-dimensional data management unit 202, a camera unit 206, a memory unit 208, an input unit 210, a display unit 212, and a communication unit 214.
  • the 3D data manager 202 may be configured to include a 3D parameter analyzer 204.
  • the controller 200 of the portable terminal controls the overall operation of the portable terminal.
  • the controller 200 performs a process and control for voice call and data communication, and according to the present invention, the controller 200 combines a plurality of data providing 3D effects into a single file. Data is generated and processed to provide 3D effects by reproducing three-dimensional data generated in one file as described above.
  • the controller 200 processes the data to be reproduced while reducing visual fatigue of the user.
  • the 3D data manager 202 processes the plurality of data providing the 3D effect to be combined into one file form under the control of the controller 200.
  • the three-dimensional data management unit 202 generates the information about the 3D parameter for the data and then compresses the data. Thereafter, the 3D data manager 202 combines the 3D parameters for the respective data and the compressed data into one file.
  • the 3D data manager 202 analyzes the 3D parameter information when reproducing the 3D data merged into one file as described above, and reproduces the 3D data based on the analyzed 3D parameter. In this case, the three-dimensional data management unit 202 processes to reproduce the three-dimensional data while increasing the three-dimensional effect or reducing the visual fatigue caused by the three-dimensional effect according to the display size of the terminal to reproduce the three-dimensional data.
  • the 3D data management unit 202 reproduces the acquired data at a small distance from the reference data to reduce visual fatigue and to reduce the size. If a display is provided, the data obtained at a distance from the reference data is reproduced to increase the stereoscopic effect.
  • the 3D data manager 202 may reduce visual fatigue of a user by reproducing 3D data while removing a boundary area existing in a specific area of data acquired through two cameras positioned at a certain distance.
  • the 3D parameter analyzer 204 of the 3D data manager 202 analyzes parameters for a plurality of data that provide a 3D effect when generating the 3D data, and includes the data when the 3D data is reproduced. Identify the number of viewpoints (NumofStereoPair), the index of the point of time when the stereo pairing with the current point of view (PairedViewID []), the width of the boundary area (BoundaryOccludedWidth) from the current point of view, and the direction in which the boundary area occurs (OcclusionDirection) To reduce the viewer's visual fatigue.
  • the camera unit 206 means cameras photographed at different angles with respect to the same subject, and the main camera and the sub camera are provided at positions spaced apart from each other.
  • the memory unit 208 includes a read only memory (ROM), a random access memory (RAM), and a flash ROM.
  • the ROM stores a microcode of the program and various reference data for processing and control of the controller 200 and the 3D data manager 202.
  • the RAM is a working memory of the controller 200, and stores temporary data generated while executing various programs.
  • the flash ROM stores various updatable storage data such as a phone book, an outgoing message, and an incoming message.
  • the input unit 210 is a numeric key buttons of 0-9, menu button (menu), cancel button (clear), confirmation button, call button (TALK), end button (END), Internet access button, navigation key ( Or a plurality of function keys such as arrow keys) buttons and character input keys, and provides key input data corresponding to a key pressed by the user to the controller 200.
  • the display unit 212 displays status information generated during the operation of the portable terminal, a limited number of characters, a large amount of moving images and still images, and the like.
  • the display unit 212 may use a color liquid crystal display (LCD), and the display unit 212 may include a touch input device and may be used as an input device when applied to a touch input type portable terminal. .
  • LCD color liquid crystal display
  • the communication unit 214 transmits and receives a radio signal of data input / output through an antenna (not shown). For example, in the case of transmission, after performing channel coding and spreading on the data to be transmitted, RF processing is performed to transmit the data. In the case of reception, the received RF signal is converted into a baseband signal. The baseband signal is de-spreaded and channel decoded to restore data.
  • the role of the 3D data management unit 202 may be performed by the control unit 200 of the portable terminal.
  • the configuration of the 3D data management unit 202 is an exemplary configuration for convenience of description, and the scope of the present invention is never included. It should be understood that various modifications may be made within the scope of the present invention by those skilled in the art.
  • the controller 200 may be configured to process all of them.
  • 3 to 4 are diagrams illustrating the configuration of three-dimensional data according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram illustrating the configuration of three-dimensional data using two image data (stereo image data) according to an embodiment of the present invention.
  • the 3D data is obtained by using the auxiliary camera behind the data obtained by using the main camera (eg, left-view image). (E.g., right-view image).
  • the 3D data includes an APP1 marker area and an MCU data portion, and according to an exemplary embodiment of the present invention, the APP2 marker area and the 3D data including offset information 301 for decoding the MCU data according to an exemplary embodiment of the present invention.
  • An APP9 marker region 303 may be added for storing meta data.
  • the offset information 301 for decoding the MCU data refers to information about a start address of a block in which image data for a plurality of viewpoints are separately separated and sizes of image data for a plurality of viewpoints. Metadata for the 3D data illustrated as shown in 303 may be defined as shown in Table 1 below.
  • the metadata for the 3D data is defined and used by APP9.
  • the application marker is a field defined and used by various companies, since only the identifier field of the application marker area is different, it is classified as APP9. You can use any of APP0 to APP15.
  • FIG. 4 is a diagram illustrating a configuration of three-dimensional data using three image data according to an exemplary embodiment of the present invention.
  • the 3D data may be configured as described above.
  • the three-dimensional data is data that combines three image data into one, and adds an APP2 marker region including offset information for decoding three MCU data and an APP9 marker region for storing metadata about the three data. Can be.
  • FIG. 5 is a flowchart illustrating a process of generating 3D data in a portable terminal according to an exemplary embodiment of the present invention.
  • the portable terminal first determines whether a 3D data generation event occurs in step 401.
  • the three-dimensional data refers to data obtained by combining a plurality of data used for three-dimensional reproduction into one file form.
  • step 401 If the 3D data generation event does not occur in step 401, the portable terminal proceeds to step 413 to perform a corresponding function (eg, standby mode).
  • a corresponding function eg, standby mode
  • the portable terminal acquires the multimedia data (data to be used for the 3D table) to be generated as three-dimensional data using a plurality of cameras, and proceeds to step 405
  • the 3D parameter of the obtained multimedia data is analyzed.
  • the portable terminal will acquire two multimedia data photographed from different angles with respect to one subject using the camera, and separately store the obtained image data. To do this, the start address and 3D parameter of the block in which the respective image data are to be stored will be analyzed.
  • the 3D parameter is the number of data paired with the reference data of the obtained multimedia data (number of viewpoints), the index information of the data, the width of the occlusion of the current data compared to the reference time point Information, and information on the direction of occurrence of the boundary area.
  • the reference data becomes data acquired through the main camera, and the number of pairing data becomes "2".
  • the portable terminal analyzes a 3D parameter between the reference data and the data acquired through the second auxiliary camera, and between the data acquired through the second auxiliary camera and the data obtained through the third auxiliary camera. Analyze the 3D parameters.
  • step 407 the portable terminal generates the 3D parameter analyzed in step 405 and then proceeds to step 409 to compress the multimedia data.
  • step 411 the portable terminal generates the compressed multimedia data and the generated 3D parameter as one data.
  • the portable terminal acquires a plurality of image data capable of providing a 3D effect, and obtains a start address and a 3D parameter of a block in which each image data is to be stored to separate and store the image data. After compressing one image data, the compressed data is generated as one file together with the 3D parameter and the start address of the block.
  • the portable terminal then terminates this algorithm.
  • FIG. 6 is a flowchart illustrating a process of reproducing 3D data in a portable terminal according to an exemplary embodiment of the present invention.
  • the portable terminal first checks whether a 3D data reproduction event occurs in step 501.
  • step 501 If the 3D data reproduction event does not occur in step 501, the portable terminal proceeds to step 509 to perform a corresponding function (eg, standby mode).
  • a corresponding function eg, standby mode
  • step 501 determines whether the portable terminal is a 3D terminal that supports 3D data.
  • step 503 If it is determined in step 503 that the 3D terminal does not support the 3D data, the portable terminal proceeds to step 509 to perform a corresponding function (eg, 2D data reproduction). That is, when the 2D terminal reproduces the 3D data, the terminal acquires the data (eg, left view image) acquired using the main camera included in the 3D data. This is to increase the compatibility (2D backward compatibility) for the 3D data in a general portable terminal.
  • a corresponding function eg, 2D data reproduction
  • step 503 if it is determined in step 503 that the 3D terminal supports the three-dimensional data, the portable terminal proceeds to step 505 after analyzing the 3D parameters of the data to be reproduced, and proceeds to step 507 based on the analyzed 3D parameters To reproduce the 3D data.
  • step 507 the number of data paired with the reference data by analyzing the 3D parameter (the number of viewpoints), the index information of the data, and the width (occlusion) of the current data with respect to the reference time point ( width) information and generation direction information of the boundary area, and then the 3D data is reproduced based on the identified information.
  • a process of reproducing 3D data using the 3D parameter will be described in detail with reference to FIG. 6.
  • the portable terminal before analyzing the 3D parameter of the data to be reproduced, the portable terminal checks a start address of a block in which image data for a plurality of viewpoints are separately stored and then stores the 3D data to be reproduced in each block of the start address. You can analyze the parameters. Thereafter, the portable terminal determines a viewpoint included in the 3D data by using the analyzed parameter, and reproduces the determined viewpoint to provide a stereoscopic effect to the user.
  • the portable terminal then terminates this algorithm.
  • FIG. 7 is a flowchart illustrating a process of reproducing 3D data using 3D parameters in a portable terminal according to an exemplary embodiment of the present invention.
  • the portable terminal first checks the display size of the terminal to reproduce the 3D data in step 601 and then proceeds to step 603 to determine whether the portable terminal has a large sized display.
  • step 605 selects data (reference time point) and data having a short distance as reference data.
  • the portable terminal has " NumofStereoPair” information indicating the total number of viewpoints of stereoscopic pairing with the current viewpoint among the 3D parameters of the 3D data, and " PairedViewID [] " The information may be used to determine the distance between the reference viewpoint and the other data, and when the distance between the reference viewpoint and the other data is increased in the large size display, the image may pop out so that the visual fatigue of the user increases. It is to prevent.
  • step 603 if it is confirmed in step 603 that the display having a small size, the portable terminal proceeds to step 611 to select the reference data (reference point) and the long distance data. This is to select the data (reference point in time) and the data having a long distance as reference data in order to improve the stereoscopic feeling of the portable terminal having the small size display.
  • the portable terminal determines whether an occlusion exists in the data to be reproduced.
  • the boundary area is an area for increasing visual fatigue, and in the case of a stereo image photographed using two or more cameras, the boundary area refers to a specific area appearing only in each viewpoint image.
  • the portable terminal can check the boundary area by using the "OcclusionDirection" of the 3D parameter.
  • step 607 If it is determined in step 607 that the boundary region does not exist in the data to be reproduced, the portable terminal proceeds to step 507 of step 5 to reproduce the 3D data based on the 3D parameter.
  • step 607 if it is determined in step 607 that the boundary region exists in the data to be reproduced, the portable terminal proceeds to step 609 and performs post-processing on the existing boundary region to reduce the visual fatigue of the user. Play 3D data.
  • FIG. 8 is a diagram illustrating a process of reproducing 3D data in a portable terminal according to an exemplary embodiment of the present invention.
  • the portable terminal includes two cameras, and three data having different distances from a reference viewpoint are acquired using the two cameras.
  • the portable terminal acquires data L1 and R1 corresponding to the left and right by photographing a subject at one location using two cameras, and then moves data for a predetermined distance to acquire data photographing the subject (L2, R2). At this time, the time point for L2 and the time point for R1 are the same so that the portable terminal acquires a total of three data (L1, R1 or L2, R2).
  • the left view point L1 data, the shorter distance R1 (L2) data, and the larger distance R2 data are divided.
  • the divided data is stored as three-dimensional data having a structure as shown in FIG. 4 according to the present invention.
  • the portable terminal analyzes the 3D parameter of the data and stores NumOfStereoPair and PairedViewId [] values.
  • the portable terminal may change the data to be reproduced according to the size of the display.
  • a terminal (3D camera, mobile communication terminal) having a small display size is a problem that can not provide a three-dimensional effect due to the display of the small size.
  • the terminal having a display having a small size decodes the R2 data having a large distance from the reference point L1 data and reproduces them in three dimensions, thereby improving the stereoscopic effect.
  • the terminal having a display having a large size as described above it is possible to reduce visual fatigue by decoding the R1 data having a small distance from the reference point L1 data so that the stereoscopic feeling is not too large.
  • the 3D data according to the present invention can reproduce contents that provide effects that match the characteristics of 3D terminals regardless of the size of the display.
  • FIG. 9 is a diagram illustrating a process of reproducing 3D data in a portable terminal according to an exemplary embodiment of the present invention.
  • a boundary region exists only in data corresponding to each viewpoint in data photographed using two cameras.
  • a boundary region exists at the left corner of the left view data and the right corner of the right view data.
  • left view data has a boundary area that does not exist in the right view data.
  • viewpoint data a boundary region which does not exist in the left viewpoint data exists in the right corner region.
  • the boundary region is a factor that increases the viewer's visual fatigue during stereoscopic reproduction.
  • the boundary region is identified using a 3D parameter (OcclusionDirection) present in the 3D data.
  • OcclusionDirection a 3D parameter present in the 3D data.
  • a stereoscopic image (eg, a stereoscopic image) obtained by using a plurality of cameras can be effectively stored, and the stored 3D related parameters can be used for an application service for content sharing and playback between various 3D devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 휴대용 단말기의 입체 영상 데이터 처리 장치 및 방법에 관한 것으로, 특히 다수의 카메라를 이용하여 획득된 입체 영상을 효과적으로 저장하기 위한 파일구조 및 저장된 3D 관련 파라미터를 이용하여 다양한 3D 기기들간의 컨텐츠 공유 및 재생을 가능하게 하기 위한 장치 및 방법에 관한 것으로, 다수의 카메라를 이용하여 획득된 입체영상 (일례로 스테레오 영상)을 효과적으로 저장하기 위한 파일구조 및 저장된 3D 관련 파라미터를 이용하여 다양한 3D 기기들간의 컨텐츠 공유 및 재생을 가능하게 한다.

Description

휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
본 발명은 휴대용 단말기의 입체 영상 데이터 처리 장치 및 방법에 관한 것으로, 특히 다수의 카메라를 이용하여 획득된 입체 영상 데이터를 효과적으로 저장하기 위한 파일구조 및 저장된 3D 관련 파라미터를 이용하여 다양한 3D 기기들간의 컨텐츠 공유 및 재생을 가능하게 하기 위한 장치 및 방법에 관한 것이다.
최근의 영상 기술은 3차원 영상을 구현하는 방식에 대한 연구 쪽으로 활발히 진행되고 있다. 이는 보다 사실적이고 현실감 있는 영상 정보를 표현하기 위함이다. 인간 시각 특성을 활용하여, 기존의 디스플레이 장치에 좌시점 영상과 우시점 영상을 각각 해당 위치에 주사한 후, 좌시점과 우시점을 사용자의 좌안과 우안에 분리하여 상이 맺히게 함으로써 3차원 입체감을 느끼게 하는 방법이 여러 가지 면에서 가능성을 인정 받고 있다. 일례로 Barrier LCD를 장착한 휴대용 단말기(입체휴대폰, 입체 카메라, 입체 캠코더 등등) 및 3D TV 에서는 스테레오스코픽 컨텐츠를 재생하여 사용자에게 좀 더 실감나는 영상을 제공할 수 있게 되었다.
도 1은 일반적인 휴대용 단말기에서 사용하는 이미지 파일의 구조를 도시한 도면이다.
상기 도 1을 참조하면, 상기 이미지 파일은 일반적으로 많이 사용되는 정지영상 저장 파일포맷인 JPEG 파일로, SOI(Start of Image) 마커(101)로 시작하고 EOI(End of Image) 마커(107)로 파일의 끝을 나타내게 된다. 중간에 영상의 부가정보들을 저장하는 APP1(EXIF) 어플리케이션 마커(103)가 있으며, 실제적인 영상의 압축 데이터인 MCU(minimum coded unit) Data 부분(105)이 포함된다. 어플리케이션 마커(103) 부분은 APP0 ~ APP15까지 현재 정의되어 있는 추가적인 필드로써 카메라 제조업체나 관련 뷰어를 만드는 업체에서 나름대로 필요한 파라미터들을 정의하여 사용하고 있다.
다수의 카메라에서 촬영된 이미지 파일을 이용하여 입체 효과를 제공하기 위하여서는 상기와 같은 구조로된 이미지 파일을 다수개 저장해야한다. 일례로 두 개의 카메라에서 촬영된 스테레오 영상 데이터의 경우 두 개의 파일이 각각 생성되어야 하는데 이런 경우 두 파일간의 연결 관계에 대한 정보를 저장하고 있어야 하며, 한쪽의 파일이 지워지거나 파일이름이 수정된 경우 3D 디바이스에서 입체로 재생할 수 없는 문제점이 발생한다.
즉, 종래에는 다수의 카메라로 획득된 영상에 대한 저장 파일포맷 및 3D 관련 파라미터를 저장할 수 있는 파일구조가 정의되어 있지 않음으로 인하여 다양한 3D 기기들간의 컨텐츠 공유 및 재생이 불가능한 문제점이 있다.
상술한 문제점을 해결하기 위하여 안출된 것으로써, 본 발명의 목적은 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 다른 목적은 휴대용 단말기에서 다른 멀티미디어 기기간 호환성을 높인 입체 영상 데이터를 생성하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 휴대용 단말기에서 시각적 피로도 감소를 위한 경계(Boundary occlusion) 영역 처리를 위한 장치 및 방법을 제공함에 있다.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 휴대용 단말기에서 3차원 데이터를 생성하기 위한 장치는 3차원 효과를 제공할 수 있는 다수의 멀티미디어 데이터들을 획득하는 카메라부와, 상기 획득한 멀티미디어 데이터들의 3D 파라미터를 획득하고, 상기 획득한 멀티미디어 데이터를 압축한 후, 상기 획득한 3D 파라미터와 압축한 데이터를 하나의 파일로 생성하는 3차원 데이터 관리부를 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 휴대용 단말기에서 3차원 데이터를 재생하기 위한 장치는 재생하고자 하는 3차원 데이터의 3D 파라미터를 분석한 후, 상기 분석한 파라미터를 기반으로 상기 3차원 데이터에 포함된 다수의 시점을 분석하고, 상기 분석한 다수의 시점을 재생하여 3차원 효과를 제공하는 3차원 데이터 관리부를 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 3 견지에 따르면, 휴대용 단말기에서 3차원 데이터를 생성하기 위한 방법은 3차원 효과를 제공할 수 있는 다수의 멀티미디어 데이터들을 획득하는 과정과, 상기 획득한 멀티미디어 데이터들의 3D 파라미터를 획득하는 과정과, 상기 획득한 멀티미디어 데이터를 압축한 후, 상기 획득한 3D 파라미터와 압축한 데이터를 하나의 파일로 생성하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 4 견지에 따르면, 휴대용 단말기에서 3차원 데이터를 재생하기 위한 방법은 재생하고자 하는 3차원 데이터의 3D 파라미터를 분석하는 과정과, 상기 분석한 파라미터를 기반으로 상기 3차원 데이터에 포함된 다수의 시점을 분석하는 과정과, 상기 분석한 다수의 시점을 재생하여 3차원 효과를 제공하는 과정을 포함하는 것을 특징으로 한다.
도 1은 일반적인 휴대용 단말기에서 사용하는 이미지 파일의 구조를 도시한 도면,
도 2는 본 발명에 따른 3차원 데이터를 제어하는 휴대용 단말기의 구성을 도시한 블록도,
도 3은 본 발명의 바람직한 일 실시 예에 따라 두 개의 영상 데이터를 이용하는 3차원 데이터의 구성을 도시한 도면,
도 4는 본 발명의 바람직한 일 실시 예에 따라 세 개의 영상 데이터를 이용하는 3차원 데이터의 구성을 도시한 도면,
도 5는 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 생성하는 과정을 도시한 흐름도,
도 6는 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 재생하는 과정을 도시한 흐름도,
도 7은 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3D 파라미터를 이용하여 3차원 데이터를 재생하는 과정을 도시한 흐름도,
도 8은 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 재생하는 과정을 도시한 도면 및,
도 9는 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 재생하는 과정을 도시한 도면.
이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.
이하 설명에서는 본 발명에 따른 휴대용 단말기에서 다수의 카메라로 촬영된 데이터(일례로 스테레오 영상)을 하나의 파일로 저장한 3차원 데이터의 생성 및 재생 장치 및 방법에 대하여 설명할 것이다. 또한, 이하 설명에서 상기 휴대용 단말기는 배리어 LCD(Barrier LCD)를 장착한 입체 이동통신 단말기, 입체 카메라, 입체 캠코더, 3D TV등과 같이 스테레오스코픽 컨텐츠를 재생하여 사용자에게 입체감을 제공하는 디스플레이 기기를 의미한다.
도 2는 본 발명에 따른 3차원 데이터를 제어하는 휴대용 단말기의 구성을 도시한 블록도이다.
상기 도 2를 참조하면, 상기 휴대용 단말기는 제어부(200), 3차원 데이터 관리부(202), 카메라부(206), 메모리부(208), 입력부(210), 표시부(212) 및 통신부(214)를 포함하여 구성할 수 있으며, 상기 3차원 데이터 관리부(202)는 3D 파라미터 분석부(204)를 포함하여 구성할 수 있다.
먼저, 상기 휴대용 단말기의 제어부(200)는 상기 휴대용 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성통화 및 데이터 통신을 위한 처리 및 제어를 수행하고, 통상적인 기능에 더하여 본 발명에 따라 상기 제어부(200)는 3D 효과를 제공하는 다수의 데이터를 하나의 파일 형태로 합친 3차원 데이터로 생성하고, 상기와 같은 하나의 파일로 생성된 3차원 데이터를 재생하여 3D 효과를 제공하도록 처리한다.
이때, 상기 제어부(200)는 상기와 같은 3차원 데이터를 재생할 경우, 사용자의 시각적 피로를 줄이면서 해당 데이터를 재생하도록 처리한다.
상기 3차원 데이터 관리부(202)는 상기 제어부(200)의 제어를 받아 상기 3D 효과를 제공하는 다수의 데이터를 하나의 파일 형태로 합친 데이터로 생성하도록 처리한다. 이때, 상기 3차원 데이터 관리부(202)는 상기 데이터들에 대하여 3D 파라미터에 대한 정보를 생성한 후 상기 데이터를 압축시킨다. 이후, 상기 3차원 데이터 관리부(202)는 각각의 데이터들에 대한 3D 파라미터와 상기 압축한 데이터들을 하나의 파일로 합치도록 한다.
또한, 상기 3차원 데이터 관리부(202)는 상기와 같이 하나의 파일로 합쳐진 3차원 데이터를 재생시 상기 3D 파라미터 정보를 분석하고, 상기 분석한 3D 파라미터를 기반으로 3차원 데이터를 재생한다. 이때, 상기 3차원 데이터 관리부(202)는 상기 3차원 데이터를 재생하고자 하는 단말기의 디스플레이 크기에 따라 입체감을 높이거나 입체 효과에 따른 시각적 피로도를 줄이면서 상기 3차원 데이터를 재생하도록 처리한다.
일 예로, 상기 3차원 데이터 관리부(202)는 상기 3차원 데이터를 재생하고자 하는 단말기가 큰 사이즈의 디스플레이를 갖추고 있을 경우, 기준 데이터와 적은 거리에서 획득된 데이터를 재생하여 시각적 피로감을 줄이고, 작은 사이즈의 디스플레이를 갖추고 있을 경우, 기준 데이터와 먼 거리에서 획득된 데이터를 재생하여 입체 효과를 높이도록 처리한다.
또한, 상기 3차원 데이터 관리부(202)는 일정한 거리를 두고 위치한 두개의 카메라를 통해 획득된 데이터의 특정 영역에 존재하는 경계 영역을 제거하면서 3차원 데이터를 재생함으로써 사용자의 시각적 피로를 줄일 수 있다.
상기 3차원 데이터 관리부(202)의 3D 파라미터 분석부(204)는 상기 3차원 데이터 생성시 3D 효과를 제공하는 다수의 데이터들에 대한 파라미터를 분석하며, 상기 3차원 데이터 재생시 상기 데이터에 포함된 시점의 수(NumofStereoPair), 현재 시점과 Stereo Pairing을 이루는 시점의 인덱스(PairedViewID[]), 기준이 되는 시점 대비 현재 시점의 경계 영역의 폭(BoundaryOccludedWidth), 경계 영역이 발생하는 방향(OcclusionDirection)을 파악하여 시청자의 시각적 피로감을 줄이도록 처리한다.
상기 카메라부(206)는 동일 피사체에 대하여 다른 각도에서 촬영하는 카메라들을 의미하는 것으로, 메인 카메라와 서브 카메라는 일정 간격 떨어진 위치에 구비된다.
상기 메모리부(208)는 롬(ROM : Read Only Memory), 램(RAM : Random Access Memory), 플래쉬롬(flash ROM)으로 구성된다. 상기 롬은 상기 제어부(200), 3차원 데이터 관리부(202)의 처리 및 제어를 위한 프로그램의 마이크로코드와 각종 참조 데이터를 저장한다.
상기 램은 상기 제어부(200)의 워킹 메모리(working memory)로, 각종 프로그램 수행 중에 발생하는 일시적인 데이터를 저장한다. 또한, 상기 플래쉬롬은 전화번호부(phone book), 발신메시지 및 수신메시지와 같은 갱신 가능한 각종 보관용 데이터를 저장한다.
상기 입력부(210)는 0 ~ 9의 숫자키 버튼들과, 메뉴버튼(menu), 취소버튼(지움), 확인버튼, 통화버튼(TALK), 종료버튼(END), 인터넷접속 버튼, 네비게이션 키(또는 방향키) 버튼들 및 문자 입력 키 등 다수의 기능키들을 구비하며, 사용자가 누르는 키에 대응하는 키 입력 데이터를 상기 제어부(200)로 제공한다.
상기 표시부(212)는 상기 휴대용 단말기의 동작 중에 발생되는 상태 정보, 제한된 숫자의 문자들, 다량의 동영상 및 정지영상 등을 디스플레이한다. 상기 표시부(212)는 컬러 액정 디스플레이 장치(LCD : Liquid Crystal Display)를 사용할 수 있으며, 상기 표시부(212)는 터치 입력 장치를 구비하여 터치 입력 방식의 휴대용 단말기에 적용할 경우 입력 장치로 사용할 수 있다.
상기 통신부(214)는 안테나(미도시)를 통해 입출력되는 데이터의 무선신호를 송수신 처리하는 기능을 수행한다. 예를 들어, 송신인 경우, 송신할 데이터를 채널 코딩(Channel coding) 및 확산(Spreading)한 후, RF처리하여 송신하는 기능을 수행하고, 수신인 경우, 수신된 RF신호를 기저대역신호로 변환하고 상기 기저대역신호를 역 확산(De-spreading) 및 채널 복호(Channel decoding)하여 데이터를 복원하는 기능을 수행한다.
상기 3차원 데이터 관리부(202)의 역할은 상기 휴대용 단말기의 제어부(200)에 의해 수행할 수 있으나, 본 발명에서 이를 별도로 구성하여 도시한 것은 설명의 편의를 위한 예시적인 구성이지 결코 본 발명의 범위를 제한하자는 것이 아니며, 당업자라면 본 발명의 범위 내에서 다양한 변형 구성이 가능하다는 것을 알 수 있을 것이다. 예를 들어, 이들 모두를 상기 제어부(200)에서 처리하도록 구성할 수도 있다.
이상은 본 발명에 따른 휴대용 단말기에서 다수의 카메라로 촬영된 데이터(일례로 스테레오 영상)을 하나의 파일로 저장한 3차원 데이터의 생성 및 재생 장치에 대하여 설명하였고, 이하 설명에서는 본 발명의 바람직한 일 실시 예에 따른 상기 장치를 이용하여 3차원 데이터의 생성 및 재생 방법에 대하여 설명할 것이다.
도 3 내지 도 4는 본 발명의 바람직한 일 실시 예에 따른 3차원 데이터의 구성을 도시한 도면이다.
도 3은 본 발명의 바람직한 일 실시 예에 따라 두 개의 영상 데이터(스테레오 영상 데이터)를 이용하는 3차원 데이터의 구성을 도시한 도면이다.
상기 도 3을 참조하면, 3차원 데이터를 재생할 수 없는 일반적인 휴대용 단말기에서는 상기 3차원 데이터에 포함된 데이터 가운데 메인 카메라를 이용하여 획득한 데이터만을 재생할 수 있도록 한다.
상기와 같이 일반적인 휴대용 단말기에서 상기 3차원 데이터에 대한 호환성(2D backward compatibility)을 높이기 위하여 상기 3차원 데이터는 메인 카메라를 이용하여 획득한 데이터(예; 좌시점 영상) 뒤에 보조 카메라를 통해 획득한 데이터(예; 우시점 영상)를 배치한 형태로 구성한다.
또한, 상기 3차원 데이터는 APP1 마커 영역 및 MCU Data 부분을 포함하며, 본 발명의 바람직한 일 실시 예에 따라 상기 MCU Data의 디코딩을 위한 Offset 정보(301)들을 포함한 APP2 마커 영역과 3차원 데이터에 대한 메타 데이터를 저장하기 위한 APP9 마커 영역(303)을 추가할 수 있다. 여기에서, 상기 MCU Data의 디코딩을 위한 Offset 정보(301)는 다수의 시점에 대한 영상 데이터가 각각 분리되어 저장된 블록의 시작 주소 및 다수의 시점에 대한 영상 데이터의 크기에 대한 정보를 말하는 것이며, 상기 303과 같이 도시한 상기 3차원 데이터에 대한 메타데이터는 하기 표 1과 같이 정의할 수 있다.
표 1
Figure PCTKR2011001269-appb-T000001
본 발명에서는 상기 3차원 데이터에 대한 메타데이터를 APP9에 의해 정의하여 사용했지만 어플리케이션 마커는 여러 회사에서 나름대로 정의하여 사용하는 필드이기 때문에 어플리케이션 마커 영역의 identifier 필드만 다르게 하면 서로 구분이 되어지기 때문에 APP9으로 사용했지만 APP0 ~ APP15 중 아무거나 지정할 수 있다.
상기와 같은 구조로 저장된 3차원 데이터를 기존의 2D용 휴대용 단말기에서 재생할 경우, 메인 카메라를 통해 획득한 데이터만 재생하고, 3D용 휴대용 단말기에서는 보조 카메라를 통해 획득한 데이터까지 인식하여 3차원으로 재생하도록 한다.
도 4는 본 발명의 바람직한 일 실시 예에 따라 세 개의 영상 데이터를 이용하는 3차원 데이터의 구성을 도시한 도면이다.
상기 도 4를 참조하면, 상기 3차원 데이터는 앞서 설명한 바와 같은 형태로 구성할 수 있다.
하지만, 상기 3차원 데이터는 세 개의 영상 데이터를 하나로 합쳐놓은 데이터로 3개의 MCU Data의 디코딩을 위한 Offset 정보들을 포함한 APP2 마커 영역과 3개의 데이터에 대한 메타데이터를 저장하기 위한 APP9 마커 영역을 추가할 수 있다.
도 5는 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 생성하는 과정을 도시한 흐름도이다.
상기 도 5를 참조하면, 상기 휴대용 단말기는 먼저 401단계에서 3차원 데이터 생성 이벤트가 발생하는지 확인한다. 여기에서, 상기 3차원 데이터는 3차원 재생에 사용되는 다수의 데이터를 하나의 파일 형태로 합친 데이터를 의미한다.
만일, 상기 401단계에서 3차원 데이터 생성 이벤트가 발생하지 않을 경우, 상기 휴대용 단말기는 413단계로 진행하여 해당 기능(예; 대기 모드)을 수행한다.
한편, 상기 401단계에서 3차원 데이터 생성 이벤트가 발생할 경우, 상기 휴대용 단말기는 다수의 카메라를 이용하여 3차원 데이터로 생성할 멀티미디어 데이터(3D 표과에 사용할 데이터)를 획득한 후, 405단계로 진행하여 상기 획득한 멀티미디어 데이터의 3D 파라미터를 분석한다. 여기에서, 상기 휴대용 단말기는 2개의 카메라를 구비하고 있을 경우, 상기 카메라를 이용하여 하나의 피사체에 대하여 서로 다른 각도에서 촬영한 2개의 멀티미디어 데이터를 획득할 것이며, 상기 획득한 영상 데이터를 분리하여 저장하기 위하여 상기 각각의 영상 데이터가 저장될 블록의 시작 주소와 3D 파라미터를 분석할 것이다. 또한, 상기 3D 파라미터는 상기 획득한 멀티미디어 데이터의 기준이 되는 데이터와 페어링을 이루는 데이터의 수(시점 수)와 상기 데이터의 인덱스 정보, 기준이 되는 시점 대비 현재 데이터의 경계(occlusion) 폭(width) 정보, 및 상기 경계 영역의 발생 방향 정보등을 의미한다.
예를 들어, 상기 휴대용 단말기는 두개의 카메라를 구비함을 가정할 경우, 상기 기준이 되는 데이터는 메인 카메라를 통해 획득한 데이터가 되어 상기 페어링을 이루는 데이터의 수는 "2"가 된다.
만일, 상기 휴대용 단말기가 세개의 카메라를 구비함을 가정할 경우, 메인 카메라를 통해 획득한 데이터가 기준이 되는 데이터가 되고, 상기 페어링을 이루는 데이터의 수는 "3"이 된다. 이때, 상기 휴대용 단말기는 상기 기준이 되는 데이터와 제 2 보조 카메라를 통해 획득한 데이터 사이의 3D 파라미터를 분석하고, 상기 제 2 보조 카메라를 통해 획득한 데이터와 제 3 보조 카메라를 통해 획득한 데이터 사이의 3D 파라미터를 분석한다.
이후, 상기 휴대용 단말기는 407단계로 진행하여 상기 405단계에서 분석한 3D 파라미터를 생성한 후, 409단계로 진행하여 멀티미디어 데이터를 압축한다.
이후, 상기 휴대용 단말기는 411단계로 진행하여 상기 압축한 멀티미디어 데이터와 상기 생성한 3D 파라미터를 하나의 데이터로 생성한다.
즉, 상기 휴대용 단말기는 3차원 효과를 제공할 수 있는 다수의 영상 데이터들을 획득하여 영상 데이터를 분리하여 저장하기 위하여 상기 각각의 영상 데이터가 저장될 블록의 시작 주소와 3D 파라미터를 획득하고, 상기 획득한 영상 데이터를 압축한 후, 상기 압축한 데이터를 상기 3D 파라미터 및 블록의 시작 주소 와 함께 하나의 파일로 생성한는 것이다.
이후, 상기 휴대용 단말기는 본 알고리즘을 종료한다.
도 6은 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 재생하는 과정을 도시한 흐름도이다.
상기 6을 참조하면, 상기 휴대용 단말기는 먼저 501단계에서 3차원 데이터 재생 이벤트가 발생하는지 확인한다.
만일, 상기 501단계에서 3차원 데이터 재생 이벤트가 발생하지 않을 경우, 상기 휴대용 단말기는 509단계로 진행하여 해당 기능(예; 대기 모드)을 수행한다.
한편, 상기 501단계에서 3차원 데이터 재생 이벤트가 발생함을 확인할 경우, 상기 휴대용 단말기는 503단계로 진행하여 상기 휴대용 단말기가 3차원 데이터를 지원하는 3D용 단말기인지 확인한다.
만일, 상기 503단계에서 상기 3차원 데이터를 지원하는 3D용 단말기가 아님을 확인할 경우, 상기 휴대용 단말기는 509단계로 진행하여 해당 기능(예; 2D용 데이터 재생)을 수행한다. 즉, 2D인 단말기가 상기 3차원 데이터를 재생할 경우, 상기 3차원 데이터에 포함된 메인 카메라를 이용하여 획득한 데이터(예; 좌시점 영상)를 재생한다. 이는 일반적인 휴대용 단말기에서 상기 3차원 데이터에 대한 호환성(2D backward compatibility)을 높이기 위함이다.
한편, 상기 503단계에서 상기 3차원 데이터를 지원하는 3D용 단말기임을 확인할 경우, 상기 휴대용 단말기는 505단계로 진행하여 재생할 데이터의 3D 파라미터를 분석한 후, 507단계로 진행하여 분석한 3D 파라미터를 기반으로 3차원 데이터를 재생한다. 여기에서, 상기 507단계는 상기 3D 파라미터를 분석하여 기준이 되는 데이터와 페어링을 이루는 데이터의 수(시점 수)와 상기 데이터의 인덱스 정보, 기준이 되는 시점 대비 현재 데이터의 경계(occlusion)의 폭(width) 정보, 및 상기 경계 영역의 발생 방향 정보를 확인한 후, 상기 확인한 정보를 기반으로 상기 3차원 데이터를 재생하는 것이다. 상기 3D 파라미터를 이용하여 3차원 데이터를 재생하는 과정은 하기 도 6에서 상세히 설명한다. 이때, 상기 휴대용 단말기는 상기 재생할 데이터의 3D 파라미터를 분석하기 전에 다수의 시점에 대한 영상 데이터가 각각 분리되어 저장된 블록의 시작 주소를 확인한 후, 상기 시작주소의 각 블록에서 재생하고자 하는 3차원 데이터의 파라미터를 분석할 수 있다. 이후, 상기 휴대용 단말기는 상기 분석한 파라미터를 이용하여 상기 3차원 데이터에 포함된 시점을 결정하고, 상기 결정한 시점을 재생하여 사용자에게 입체 효과를 제공하는 것이다.
이후, 상기 휴대용 단말기는 본 알고리즘을 종료한다.
도 7은 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3D 파라미터를 이용하여 3차원 데이터를 재생하는 과정을 도시한 흐름도이다.
상기 도 7을 참조하면, 상기 휴대용 단말기는 먼저 601단계에서 3차원 데이터를 재생하고자 하는 단말기의 디스플레이 사이즈를 확인한 후, 603단계로 진행하여 상기 휴대용 단말기가 큰 사이즈의 디스플레이를 구비하였는지 확인한다.
만일, 상기 603단계에서 큰 사이즈의 디스플레이를 구비하였음을 확인할 경우, 상기 휴대용 단말기는 605단계로 진행하여 기준이 되는 데이터(기준 시점)와 거리(disparity)가 짧은 데이터를 선택한다. 여기에서, 상기 휴대용 단말기는 상기 3차원 데이터의 3D 파라미터 가운데 현재 시점과 Stereo Pairing을 이루는 총 시점들의 수를 나타내는 "NumofStereoPair" 정보와 현재 시점과 Stereo Pairing을 이루는 시점의 index을 나타내는 "PairedViewID[]" 정보를 이용하여 기준 시점과 다른 데이터 간의 거리를 확인할 수 있으며, 상기 큰 사이즈의 디스플레이에서 기준 시점과 다른 데이터 간의 거리를 크게할 경우, 영상이 너무 앞으로 튀어나와 보이게 되어 사용자의 시각적 피로가 증가되는 것을 방지하기 위한 것이다.
한편, 상기 603단계에서 작은 사이즈의 디스플레이를 구비하였음을 확인할 경우, 상기 휴대용 단말기는 611단계로 진행하여 기준이 되는 데이터(기준 시점)와 거리가 긴 데이터를 선택한다. 이는 작은 사이즈의 디스플레이를 구비하는 휴대용 단말기의 입체감을 향상시키기 위하여 기준이 되는 데이터(기준 시점)와 거리가 긴 데이터를 선택하는 것이다.
이후, 상기 휴대용 단말기는 607단계로 진행하여 재생할 데이터에 경계 영역(occlusion)이 존재하는지 확인한다. 여기에서, 상기 경계 영역은 시각적 피로도를 증가시키는 영역으로, 두 개 이상의 카메라를 이용하여 촬영한 스테레오 영상의 경우 각각의 시점 영상에서만 나타나는 특정 영역을 말한다. 이때, 상기 휴대용 단말기는 3D 파라미터의 "OcclusionDirection"을 이용하여 경계 영역을 확인할 수 있다.
만일, 상기 607단계에서 재생할 데이터에 경계 영역이 존재하지 않음을 확인할 경우, 상기 휴대용 단말기는 상기 더 5의 507단계로 진행하여 3D 파라미터를 기반으로 3차원 데이터를 재생한다.
한편, 상기 607단계에서 재생할 데이터에 경계 영역이 존재함을 확인할 경우, 상기 휴대용 단말기는 609단계로 진행하여 상기 존재하는 경계 영역에 대한 후처리 과정을 수행하여 사용자의 시각적 피로감을 줄이도록 처리한 후, 3차원 데이터를 재생한다.
도 8은 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 재생하는 과정을 도시한 도면이다.
상기 도 8을 참조하면, 상기 휴대용 단말기는 두 개의 카메라를 구비하고 있으며, 두 개의 카메라를 이용하여 기준 시점과 거리가 다른 세개의 데이터를 획득한다고 가정한다.
즉, 상기 휴대용 단말기는 두 개의 카메라를 이용하여 한 위치에서 피사체를 촬영하여 좌 우측에 해당하는 데이터(L1, R1)를 획득한 후, 일정 거리 이동 후, 피사체를 촬영한 데이터를 획득(L2, R2)한다. 이때, L2에 대한 시점과 R1에 대한 시점이 동일하여 상기 휴대용 단말기는 총 세개의 데이터(L1, R1 or L2, R2)를 획득하게 된다.
상기 획득한 데이터에서 기준시점의 데이터와 부가시점의 데이터 사이의 거리(disparity)를 비교해보면 기준이 되는 좌시점 L1 데이터, 거리가 가 작은 R1(L2) 데이터, 거리가 큰 R2 데이터로 구분되며, 상기 구분한 데이터는 본 발명에 따른 도 4와 같은 구조를 가지는 3차원 데이터로 저장된다.
이때, 상기 휴대용 단말기는 상기 데이터들의 3D 파라미터를 분석하여 NumOfStereoPair, PairedViewId[] 값을 저장하게 될 것이다.
상기와 같이 생성된 데이터를 재생할 경우, 상기 휴대용 단말기는 디스플레이의 크기에 따라 재생할 데이터를 변경할 수 있다.
일반적으로 상기 기준시점의 데이터와 부가시점의 데이터 사이의 거리가 클 수록 3D용 단말기에서는 높은 입체 효과를 제공할 수 있지만 상기 큰 사이즈의 디스플레이를 가지는 단말기(3D TV)에서는 기준시점의 데이터와 부가시점의 데이터 사이의 거리가 클 수록 3D 객체가 너무 앞으로 튀어나와 보이게 되어 시각적 피로도가 증가되는 문제점이 발생한다.
또한, 작은 사이즈의 디스플레이를 가지는 단말기(3D 카메라, 이동통신 단말기)에서는 작은 사이즈의 디스플레이로 인하여 입체감 효과를 제공할 수 없다는 문제점이 발생한다.
이에 따라, 상기 휴대용 단말기는 상기와 같이 생성된 데이터를 재생할 경우, 작은 사이즈의 디스플레이를 가지는 단말기에서는 기준시점 L1 데이터와 거리가 큰 R2 데이터를 디코딩하여 입체로 재생하여 입체감을 향상시키고, 3D TV와 같이 큰 사이즈의 디스플레이를 가지는 단말기에서는 입체감이 너무 커지지 않도록 기준시점 L1 데이터와 거리가 작은 R1 데이터를 디코딩하여 입체로 재생함으로써, 시각적 피로감을 줄이도록 할 수 있다.
이로 인하여 본 발명에 따른 3차원 데이터는 디스플레이의 사이즈와 상관없이 3D 단말기간의 특성에 맞는 효과를 제공하는 컨텐츠를 재생할 수 있다.
도 9는 본 발명의 바람직한 일 실시 예에 따른 휴대용 단말기에서 3차원 데이터를 재생하는 과정을 도시한 도면이다.
상기 도 9를 참조하면, 두 개의 카메라를 이용하여 촬영한 데이터는 각각의 시점에 해당하는 데이터에만 존재하는 경계 영역이 존재하게 된다.
도시한 바와 같이 좌시점 데이터의 왼쪽 모퉁이와 우시점 데이터의 오른쪽 모퉁이 부분에 경계 영역이 존재한다.
이는 다수의 카메라(스테레오 카메라)를 구비한 휴대용 단말기에서 두 개의 카메라를 일정거리 이상 떨어뜨려 촬영하는 특성 상 좌시점 데이터에서는 왼쪽 모퉁이 영역에 우시점 데이터에 존재하지 않는 경계 영역이 존재하는 것이고, 우시점 데이터에서는 오른쪽 모퉁이 영역에 좌시점 데이터에 존재하지 않는 경계 영역이 존재하는 것이다.
상기와 같은 경계 영역은 입체로 재생 시 시청자의 시각적 피로를 증가시키는 요인으로 본 발명에서는 3차원 데이터에 존재하는 3D 파라미터(OcclusionDirection)를 이용하여 경계 영역이 존재함을 확인하여 해당 영역에 대한 후처리 과정을 수행하여 시청자의 시각적 피로감을 줄이도록 한다.
본 발명을 통하여 다수의 카메라를 이용하여 획득된 입체영상 (일례로 스테레오 영상)을 효과적으로 저장할 수 있으며, 저장된 3D 관련 파라미터들은 다양한 3D 기기들간의 컨텐츠 공유 및 재생을 위한 응용 서비스에 이용될 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (18)

  1. 휴대용 단말기에서 3차원 데이터를 생성하기 위한 장치에 있어서,
    3차원 효과를 제공할 수 있는 다수의 영상 데이터들을 획득하는 카메라부와,
    상기 획득한 영상 데이터를 분리하여 저장하기 위하여 상기 각각의 영상 데이터가 저장될 블록의 시작 주소와 3D 파라미터를 획득하고, 상기 획득한 영상 데이터를 압축한 후, 상기 압축한 데이터를 상기 3D 파라미터 및 블록의 시작 주소 와 함께 하나의 파일로 생성하는 3차원 데이터 관리부를 포함하는 것을 특징으로 하는 장치.
  2. 제 1항에 있어서, 상기 획득한 멀티미디어 데이터들의 3D 파라미터는,
    상기 데이터에 포함된 시점의 수(NumofStereoPair), 현재 시점과 Stereo Pairing을 이루는 시점의 인덱스(PairedViewID[]), 기준이 되는 시점 대비 현재 시점의 경계 영역의 폭(BoundaryOccludedWidth), 경계 영역이 발생하는 방향(OcclusionDirection) 가운데 적어도 어느 한 가지를 포함하는 것을 특징으로 하는 장치.
  3. 휴대용 단말기에서 3차원 데이터를 재생하기 위한 장치에 있어서,
    적어도 2개 이상의 시점에 대한 영상 데이터가 각각 분리되어 저장된 블록의 시작주소를 읽어 낸 후, 상기 시작주소의 각 블록에서 재생하고자 하는 3차원 데이터의 파라미터를 분석하고, 상기 분석한 파라미터를 이용하여 상기 3차원 데이터에 포함된 시점을 결정한 후, 상기 결정한 시점을 재생하여 3차원 효과를 제공하는 3차원 데이터 관리부를 포함하는 것을 특징으로 하는 장치.
  4. 제 3항에 있어서, 상기 3차원 데이터 관리부는,
    상기 3차원 데이터에 포함된 시점의 수(NumofStereoPair), 현재 시점과 Stereo Pairing을 이루는 시점의 인덱스(PairedViewID[]), 기준이 되는 시점 대비 현재 시점의 경계 영역의 폭(BoundaryOccludedWidth), 경계 영역이 발생하는 방향(OcclusionDirection) 가운데 적어도 어느 한 가지를 분석하여 상기 시작주소의 각 블록에서 재생하고자 하는 3차원 데이터의 3D 파라미터를 분석하는 것을 특징으로 하는 장치.
  5. 제 3항에 있어서, 상기 3차원 데이터 관리부는,
    디스플레이의 크기에 따라 사용자의 입체 효과를 증가시키거나, 상기 디스플레이의 크기에 따라 시청자의 시각적 피로감을 줄여 상기 결정한 시점을 재생하여 3차원 효과를 제공하는 것을 특징으로 하는 장치.
  6. 제 3항에 있어서, 상기 3차원 데이터 관리부는,
    경계 영역에 제거하여 시청자의 시각적 피로를 줄여 상기 결정한 시점을 재생하여 3차원 효과를 제공하는 것을 특징으로 하는 장치.
  7. 제 5항에 있어서, 상기 3차원 데이터 관리부는,
    상기 디스플레이의 크기가 작을 경우, 기준 시점과 거리가 먼 보조 시점의 데이터를 재생하여 상기 디스플레이의 크기에 따라 사용자의 입체 효과를 증가시키는 것을 특징으로 하는 장치.
  8. 제 5항에 있어서, 상기 3차원 데이터 관리부는,
    상기 디스플레이의 크기가 클 경우, 기준 시점과 거리가 짧은 보조 시점의 데이터를 재생하여 상기 디스플레이의 크기에 따라 시청자의 시각적 피로감을 줄이는 것을 특징으로 하는 장치.
  9. 제 6항에 있어서, 상기 3차원 데이터 관리부는,
    입체 효과를 제공하는 데이터에 포함된 경계 영역의 방향 및 경계 영역의 폭을 확인하고, 상기 확인한 경계 영역에 대하여 후처리 과정을 수행하여 상기 경계 영역에 제거하여 시청자의 시각적 피로를 줄이는 것을 특징으로 하는 장치.
  10. 휴대용 단말기에서 3차원 데이터를 생성하기 위한 방법에 있어서,
    3차원 효과를 제공할 수 있는 다수의 시점에 대한 영상 데이터를 획득하는 과정과,
    상기 획득한 영상 데이터를 분리하여 저장하기 위하여 상기 각각의 영상 데이터가 저장될 블록의 시작 주소를 확인하는 과정과,
    상기 획득한 영상 데이터들의 3D 파라미터를 획득하는 과정과,
    상기 획득한 영상 데이터를 압축한 후, 상기 압축한 데이터를 상기 3D 파라미터 및 블록의 시작 주소와 함께 하나의 파일로 생성하는 과정을 포함하는 것을 특징으로 하는 방법.
  11. 제 10항에 있어서, 상기 획득한 멀티미디어 데이터들의 3D 파라미터는,
    상기 데이터에 포함된 시점의 수(NumofStereoPair), 현재 시점과 Stereo Pairing을 이루는 시점의 인덱스(PairedViewID[]), 기준이 되는 시점 대비 현재 시점의 경계 영역의 폭(BoundaryOccludedWidth), 경계 영역이 발생하는 방향(OcclusionDirection) 가운데 적어도 어느 한 가지를 포함하는 것을 특징으로 하는 방법.
  12. 휴대용 단말기에서 3차원 데이터를 재생하기 위한 방법에 있어서,
    적어도 2개 이상의 시점에 대한 영상 데이터가 각각 분리되어 저장된 블록의 시작주소를 읽는 과정,
    상기 시작주소의 각 블록에서 재생하고자 하는 3차원 데이터의 파라미터를 분석하는 과정,
    상기 분석한 파라미터를 이용하여 상기 3차원 데이터에 포함된 시점을 결정하는 과정, 및
    상기 결정한 시점을 재생하여 3차원 효과를 제공하는 과정을 포함하는 것을 특징으로 하는 방법.
  13. 제 12항에 있어서, 상기 시작주소의 각 블록에서 재생하고자 하는 3차원 데이터의 3D 파라미터를 분석하는 과정은,
    상기 3차원 데이터에 포함된 시점의 수(NumofStereoPair), 현재 시점과 Stereo Pairing을 이루는 시점의 인덱스(PairedViewID[]), 기준이 되는 시점 대비 현재 시점의 경계 영역의 폭(BoundaryOccludedWidth), 경계 영역이 발생하는 방향(OcclusionDirection) 가운데 적어도 어느 한 가지를 분석하는 과정임을 특징으로 하는 방법.
  14. 제 12항에 있어서, 상기 결정한 다수의 시점을 재생하여 3차원 효과를 제공하는 과정은,
    디스플레이의 크기에 따라 사용자의 입체 효과를 증가시키는 과정과,
    상기 디스플레이의 크기에 따라 시청자의 시각적 피로감을 줄이는 과정을 포함하는 것을 특징으로 하는 방법.
  15. 제 12항에 있어서, 상기 결정한 다수의 시점을 재생하여 3차원 효과를 제공하는 과정은,
    경계 영역에 제거하여 시청자의 시각적 피로를 줄이는 과정을 포함하는 것을 특징으로 하는 방법.
  16. 제 14항에 있어서, 상기 디스플레이의 크기에 따라 사용자의 입체 효과를 증가시키는 과정은,
    상기 디스플레이의 크기가 작을 경우, 기준 시점과 거리가 먼 보조 시점의 데이터를 재생하여 입체 효과를 증가시키는 과정을 포함하는 것을 특징으로 하는 방법.
  17. 제 14항에 있어서, 상기 디스플레이의 크기에 따라 시청자의 시각적 피로감을 줄이는 과정은,
    상기 디스플레이의 크기가 클 경우, 기준 시점과 거리가 짧은 보조 시점의 데이터를 재생하여 시각적 피로감을 줄이는 과정을 포함하는 것을 특징으로 하는 방법.
  18. 제 15항에 있어서, 상기 경계 영역에 제거하여 시청자의 시각적 피로를 줄이는 과정은,
    입체 효과를 제공하는 데이터에 포함된 경계 영역의 방향 및 경계 영역의 폭을 확인하는 과정과,
    상기 확인한 경계 영역에 대하여 시각적 피로감을 줄이기 위한 후처리 과정을 수행하는 과정을 포함하는 것을 특징으로 하는 방법.
PCT/KR2011/001269 2010-02-23 2011-02-23 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법 WO2011105812A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/580,861 US9369690B2 (en) 2010-02-23 2011-02-23 Apparatus and method for generating 3D image data in a portable terminal
JP2012554927A JP5859464B2 (ja) 2010-02-23 2011-02-23 携帯用端末機において立体映像データを生成するための装置及びその方法
EP11747702.6A EP2541944A4 (en) 2010-02-23 2011-02-23 DEVICE AND METHOD FOR GENERATING 3D IMAGE DATA IN A PORTABLE DEVICE

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0016151 2010-02-23
KR20100016151 2010-02-23
KR10-2011-0014557 2011-02-18
KR1020110014557A KR101802238B1 (ko) 2010-02-23 2011-02-18 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법

Publications (2)

Publication Number Publication Date
WO2011105812A2 true WO2011105812A2 (ko) 2011-09-01
WO2011105812A3 WO2011105812A3 (ko) 2012-01-12

Family

ID=44932593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/001269 WO2011105812A2 (ko) 2010-02-23 2011-02-23 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법

Country Status (5)

Country Link
US (1) US9369690B2 (ko)
EP (1) EP2541944A4 (ko)
JP (1) JP5859464B2 (ko)
KR (1) KR101802238B1 (ko)
WO (1) WO2011105812A2 (ko)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US8451312B2 (en) 2010-01-06 2013-05-28 Apple Inc. Automatic video stream selection
KR101802238B1 (ko) * 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
US20120012748A1 (en) 2010-05-12 2012-01-19 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN107404609B (zh) 2011-05-11 2020-02-11 快图有限公司 用于传送阵列照相机图像数据的方法
KR20140045458A (ko) 2011-06-28 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라와 함께 사용하는 광학 장치
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
CN104081414B (zh) * 2011-09-28 2017-08-01 Fotonation开曼有限公司 用于编码和解码光场图像文件的系统及方法
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
CN104685860A (zh) 2012-09-28 2015-06-03 派力肯影像公司 利用虚拟视点从光场生成图像
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
KR20140103486A (ko) 2013-02-18 2014-08-27 삼성디스플레이 주식회사 유기전계발광 표시장치
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9426343B2 (en) 2013-11-07 2016-08-23 Pelican Imaging Corporation Array cameras incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
JP7273250B2 (ja) 2019-09-17 2023-05-12 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた面モデリングのためのシステム及び方法
DE112020004813B4 (de) 2019-10-07 2023-02-09 Boston Polarimetrics, Inc. System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5625408A (en) 1993-06-24 1997-04-29 Canon Kabushiki Kaisha Three-dimensional image recording/reconstructing method and apparatus therefor
JP2888108B2 (ja) * 1993-09-29 1999-05-10 凸版印刷株式会社 視差画像作成方法および装置
JP3551467B2 (ja) * 1994-04-13 2004-08-04 松下電器産業株式会社 視差演算装置、視差演算方法及び画像合成装置
JPH07292259A (ja) 1994-04-28 1995-11-07 Kao Corp 高耐久性加熱瀝青質用添加剤、それを用いた高耐久性アスファルト舗装組成物、及びその製造方法
GB2294173B (en) * 1994-10-11 1998-12-09 Mitsubishi Electric Corp Disk media, and method of and device for recording and playing back information on or from a disk media
US5920842A (en) * 1994-10-12 1999-07-06 Pixel Instruments Signal synchronization
US6492986B1 (en) * 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
US6678394B1 (en) * 1999-11-30 2004-01-13 Cognex Technology And Investment Corporation Obstacle detection system
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US7082441B1 (en) * 2000-08-17 2006-07-25 Emc Corporation Method and storage and manipulation of storage system metrics
JP3744442B2 (ja) * 2002-03-04 2006-02-08 ソニー株式会社 認証システム及び認証方法、並びに、認証用媒体製造装置及び認証端末装置
JP2003284095A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US7111142B2 (en) * 2002-09-13 2006-09-19 Seagate Technology Llc System for quickly transferring data
US7720308B2 (en) * 2002-09-27 2010-05-18 Sharp Kabushiki Kaisha 3-D image display unit, 3-D image recording device and 3-D image recording method
JP4324435B2 (ja) 2003-04-18 2009-09-02 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
KR100617700B1 (ko) * 2003-11-17 2006-08-28 삼성전자주식회사 통신 단말기를 위한 3차원 입체음향 재생 장치 및 방법
EP1692633A4 (en) * 2003-11-27 2012-02-08 Agency Science Tech & Res METHOD AND DEVICE FOR CONSTRUCTION OF A MULTIDISCIPLINARY AND PERSONAL MEDICAL MULTIMEDIA IMAGE LIBRARY
JP4529556B2 (ja) 2004-06-24 2010-08-25 パナソニック株式会社 立体視用の画像ファイルを生成する電子機器、3次元画像データを生成する電子機器、画像ファイル生成方法、3次元画像データ生成方法および画像ファイルのファイル構造
JP2006013851A (ja) 2004-06-25 2006-01-12 Sharp Corp 撮像表示装置および撮像表示方法
KR100641176B1 (ko) * 2004-10-20 2006-11-02 엘지전자 주식회사 휴대단말기에서 삼차원 영상데이터 표시방법
KR100744800B1 (ko) * 2005-07-07 2007-08-01 심재용 휴대용 단말기의 3차원 입체영상 처리 장치
JP4914039B2 (ja) * 2005-07-27 2012-04-11 キヤノン株式会社 情報処理方法および装置
KR100653965B1 (ko) 2005-08-01 2006-12-05 심재용 휴대용 단말기의 서로 다른 카메라를 이용한 3차원입체영상 처리 장치
JP2009516447A (ja) * 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
US7538876B2 (en) * 2006-06-12 2009-05-26 The Boeing Company Efficient and accurate alignment of stereoscopic displays
JP4692849B2 (ja) * 2007-01-09 2011-06-01 富士フイルム株式会社 立体画像記録装置および立体画像記録方法
CN101035279B (zh) * 2007-05-08 2010-12-15 孟智平 一种在视频资源中使用信息集的方法
JP4759775B2 (ja) * 2007-06-14 2011-08-31 富士フイルム株式会社 画像記録方法及び装置
JP2008310187A (ja) * 2007-06-15 2008-12-25 Fujifilm Corp 画像処理装置及び画像処理方法
JP4748399B2 (ja) * 2007-08-14 2011-08-17 富士フイルム株式会社 画像処理システム、画像処理装置及び画像処理方法
KR20090081190A (ko) * 2008-01-23 2009-07-28 엘지전자 주식회사 휴대용 단말기
KR101802238B1 (ko) * 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of EP2541944A4 *

Also Published As

Publication number Publication date
EP2541944A2 (en) 2013-01-02
KR20110097647A (ko) 2011-08-31
JP5859464B2 (ja) 2016-02-10
WO2011105812A3 (ko) 2012-01-12
US20120314033A1 (en) 2012-12-13
US9369690B2 (en) 2016-06-14
KR101802238B1 (ko) 2017-11-29
JP2013520912A (ja) 2013-06-06
EP2541944A4 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
WO2011105812A2 (ko) 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
WO2010074437A2 (en) Image processing method and apparatus therefor
WO2012023833A2 (en) Method and apparatus for reducing deterioration of a quality of experience of a multimedia service in a multimedia system
US8836694B2 (en) Terminal device including a three-dimensional capable display
WO2009157710A2 (en) Image processing method and apparatus
WO2011031090A2 (en) Wireless connection method and apparatus using image recognition in mobile communication terminal
CN111245852B (zh) 流数据传输方法、装置、系统、接入设备及存储介质
CN114531564B (zh) 处理方法及电子设备
WO2016072238A1 (ja) 画像処理装置、画像表示装置、画像処理方法及び画像表示方法
WO2012157887A2 (en) Apparatus and method for providing 3d content
WO2011055926A2 (en) Apparatus and method for reproducing multi-sound channel contents using dlna in mobile terminal
WO2012091526A2 (ko) 카메라를 구비한 휴대용 영상 통화 장치 및 그 방법
WO2014007540A1 (en) Method and apparatus for supplying image
WO2014054896A1 (ko) 비디오 신호 처리 방법 및 장치
WO2012074291A2 (en) Apparatus and method for transmitting video data in video device
WO2020116740A1 (ko) 실시간 방송 편집 시스템 및 편집 방법
WO2012144816A2 (en) Apparatus and method of selecting resource of application in wireless terminal
CN110198457B (zh) 视频播放方法及其设备、系统、存储介质、终端、服务器
KR101306671B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체
WO2020262823A1 (ko) 영상을 처리하는 전자 장치 및 그 영상 처리 방법
CN107483876A (zh) 视频数据处理方法、存储设备、直录播互动终端
CN110913213B (zh) 视频质量评测处理的方法、装置及系统
CN115378915B (zh) 数据共享方法及电子设备
WO2018155910A1 (ko) 중계 방송을 지원하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP2012199712A (ja) 電子機器、及び録画制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11747702

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2012554927

Country of ref document: JP

NENP Non-entry into the national phase in:

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13580861

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011747702

Country of ref document: EP