CN103188509A - 用于多个3d内容的信号处理装置、显示装置、及其方法 - Google Patents

用于多个3d内容的信号处理装置、显示装置、及其方法 Download PDF

Info

Publication number
CN103188509A
CN103188509A CN2012105899170A CN201210589917A CN103188509A CN 103188509 A CN103188509 A CN 103188509A CN 2012105899170 A CN2012105899170 A CN 2012105899170A CN 201210589917 A CN201210589917 A CN 201210589917A CN 103188509 A CN103188509 A CN 103188509A
Authority
CN
China
Prior art keywords
content
frame
contents
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012105899170A
Other languages
English (en)
Inventor
秋镇镐
金泰成
崔鹤薰
金正民
金炯吉
郑春植
赵顺济
咸喆熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120054864A external-priority patent/KR20130076674A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103188509A publication Critical patent/CN103188509A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42607Internal components of the client ; Characteristics thereof for processing the incoming bitstream
    • H04N21/4263Internal components of the client ; Characteristics thereof for processing the incoming bitstream involving specific tuning arrangements, e.g. two tuners
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

一种显示装置包括:多个接收单元,其接收多个内容;存储单元;多个缩放器单元,其用于减小多个内容的数据大小、将具有减小的数据大小的相应内容存储在存储单元中、以及根据输出时序来读取在存储单元中存储的相应内容;多个帧速率转换单元,其对相应的读取内容的帧速率进行转换;以及视频输出单元,其组合和显示从多个帧速率转换单元输出的相应内容。因此,可以将资源最小化。

Description

用于多个3D内容的信号处理装置、显示装置、及其方法
相关申请的交叉引用
本申请要求于2011年12月28日在韩国知识产权局提交的韩国专利申请No.10-2011-144365、于2011年12月28日提交的韩国专利申请No.10-2011-145280、于2011年12月30日提交的韩国专利申请No.10-2011-147291、于2011年12月30日提交的韩国专利申请No.10-2011-147502、以及于2012年5月23日提交的韩国专利申请No.10-2012-0054864的优先权,通过引用将其公开内容合并于此。
技术领域
与示例性实施例相符的装置和方法涉及信号处理装置,显示装置、及其方法,并且更具体地,涉及用于处理多个内容的信号处理装置,用于显示内容的显示装置,及其方法。
背景技术
随着电子技术的发展,已经开发了多种类型的电子装置。特别地,诸如,电视机(TV)、移动电话、个人计算机(PC)、笔记本PC、以及个人数字助理(PDA)的各种显示装置已被广泛使用,即使在住所处也是如此。
随着显示装置使用的增加,对于更多功能的用户需求也随之增加。因此,为了满足这样的用户的需求,已经开发出具有新功能的产品。
因此,已经提供了要在显示装置中处理的不同种类的内容。特别地,最近已经提供了诸如,高分辨率内容和三维(3D)内容的具有大数据尺寸的内容。
此外,已经在努力开发可以同时提供多个内容,并且使得多个用户能够观看不同的内容的显示装置。在这样的显示装置的情况下,与在其中处理和显示一种内容的情况相比,需要诸如存储器和总线的大量资源,并且,因此,可能不能够顺畅地执行视频处理。
特别地,在具有较大的数据尺寸的多个内容,诸如3D内容将要被组合和显示的情况下,需要更多的资源。因此,可能难以实现这样的多视图(multi-view)显示。
因此,需要一种可以通过处理多个内容而有效地显示多视图的技术。
发明内容
示例性实施例至少可以解决上述问题和/或缺点,以及上面没有描述的其它缺点,并且至少提供下面描述的优点。
因此,一个或多个示例性实施例提供了一种用于处理多个内容的信号处理装置、用于显示内容的显示装置、及其方法。
根据示例性实施例的一个方面,显示装置包括:多个接收单元,其接收多个内容;存储器;多个缩放器单元,其用于减少多个内容的数据大小,在存储器中存储具有减少的数据大小的相应内容,并根据其输出时序,读取在存储器中存储的相应内容;多个帧速率转换单元,其转换相应的读取内容的帧速率;以及视频输出装置,其组合和显示从多个帧速率转换单元输出的相应内容。
多个内容可以是3D内容,其包括左眼图像和右眼图像,并且多个缩放器单元可以将多个3D内容缩小规模(downscale),减小帧速率,并且存储具有减小的帧速率的相应3D内容。
多个缩放器单元可以将多个3D内容缩小规模和在存储器中存储多个3D内容,并且如果在存储器中存储的相应3D内容根据输出时序来读取,则将读取的3D内容的帧速率减小(down),并且将具有减小的帧速率的3D内容提供给多个帧速率转换单元。
如果3D内容是3:2下拉电影视频内容,则多个缩放器单元中的至少一个可以将电影视频内容缩小规模,仅仅提取关键帧,并且在存储器中存储关键帧,并且,如果从存储器读取关键帧,则基于读取的关键帧,多个帧速率转换单元可以通过帧的插值来将相应3D内容的帧速率转换成多内容显示速率(multi-content display rate)。
视频输出装置可复用从多个帧速率转换单元提供的相应内容,以使得相应的内容根据预定的排列顺序而依次排列,将复用数据扩大规模以适应屏幕大小,并且显示扩大规模的数据。
根据示例性实施例的另一个方面,显示装置的多内容显示方法包括:接收分别包括左眼图像和右眼图像的多个内容;减少多个内容的数据大小,并存储具有减少的数据大小的多个内容;对相应的存储内容的帧速率进行转换;以及组合和显示具有转换的帧速率的相应内容。
所述多个内容可以是包括左眼图像和右眼图像的3D内容。
减少所述多个内容的数据大小的步骤可包括:将多个3D内容缩小规模;减少缩小规模的3D内容的帧速率;以及存储具有减小的帧速率的相应的3D内容,并且对帧速率进行转换的步骤可以将相应的3D内容的帧速率转换为多内容显示速率。
减小多个内容的数据大小的步骤可包括:如果3D内容是3:2下拉(pull-down)电影视频内容,则将电影视频内容缩小规模;以及仅仅提取和存储缩小规模的电影视频内容的关键帧,并且转换帧速率的步骤可以通过基于所存储的关键帧来对帧进行插值,从而将相应的3D内容的帧速率进行转换。
显示步骤可以包括复用相应的内容,以使得相应的内容根据预定的排列顺序而依次排列;将复用的数据扩大规模,以适应屏幕大小;以及显示扩大规模的数据。
根据示例性实施例中的又一个方面,信号处理装置包括:多个缩放器单元,其减小分别包括左眼图像和右眼图像的多个3D内容的数据大小;存储器,用于存储通过多个缩放器而处理的多个3D内容;以及多个帧速率转换单元,其将存储在存储器中的多个3D内容的帧速率转换为多内容显示速率。
多个缩放器单元可以将多个3D内容缩小规模并且在存储器中存储多个3D内容,并且如果从存储器中读取缩小规模的3D内容,则将读取的3D内容转换成可以通过多个帧速率转换单元来处理的格式。
根据示例性实施例的一个方面的信号处理装置还可以包括:视频处理单元,其使用具有由多个帧速率转换单元转换的帧速率的多个3D内容,来配置多内容帧数据;以及接口单元,其将多内容帧数据传输到显示装置。
根据示例性实施例的又一个方面,信号处理方法包括:将分别包括左眼图像和右眼图像的多个3D内容缩小规模;使用多个帧速率转换单元来将3D内容的帧速率进行转换;使用具有转换的帧速率的多个3D内容来对多内容帧数据进行配置;以及将3D多内容帧数据传输到显示装置。
根据示例性实施例的一个方面的信号处理方法还可以包括将相应的缩小规模的3D内容转换成可以通过多个帧速率转换单元来处理的格式。
根据示例性实施例的又一个方面,一种多视图显示方法,包括:接收具有不同帧速率的多个内容;匹配多个内容的帧速率;以及使用具有匹配的帧速率的相应内容来显示多视图帧。
匹配帧速率的步骤可以包括:存储多个内容;通过多个内容的处理来生成多个视频帧;以及对在多个内容中的具有相对低的帧速率的内容的视频帧进行插值。
插值步骤可以包括:通过比较多个内容的接收时间点,在已经存储多个内容中的一个内容的一个视频帧时,确定另一个内容的相应帧的存储速率;以及根据确认的存储速率,通过将对应帧与所述相应帧的下一帧进行组合来生成插值帧。
生成插值帧的步骤可以通过将相应帧与下一帧来进行比较,从而估计在帧中显示的对象的运动,并且通过将接收速率应用到估计的运动上来生成插值帧。
匹配帧速率的步骤可以包括:检测多个内容的关键帧;以及将检测的关键帧集合(integrate)。
集合关键帧的步骤可以在如果多个内容的关键帧的数目彼此不同的情况下,通过执行帧重复或跳帧来使得关键帧的数目彼此一致;以及集合相应的内容的对应关键帧。
匹配帧速率的步骤还可以包括通过执行集合关键帧的插值来执行运动颤动消除。
根据示例性实施例的又一个方面,一种显示装置包括:多个接收单元,其接收多个3D内容;多个片上系统(SoC),其具有安装在其上的显示处理器,以处理3D内容;以及输出装置,其通过由多个SoC处理的相应的3D内容的视频帧的组合,来输出多个内容视图。
多个SoC的一个可以包括复用器(MUX),其复用由安装在SoC上的显示处理器处理的数据和从另一个SoC输出的数据。
根据示例性实施例的一个方面的显示装置还可以包括:SoC,其具有安装在其上的MUX,以复用从多个SoC输出的数据;以及帧速率转换单元,其转换由MUX复用的数据的帧速率。
如上所述,根据各种示例性实施例,多个用户可以通过一个显示装置来观看不同的内容。
附图说明
参照附图,通过描述特定的示例性实施例,上述和/或其它方面将变得更加显而易见,在附图中:
图1是示出根据示例性实施例的显示装置的配置的方框图;
图2是用于解释用于向多个用户提供不同的3D内容的方法的视图;
图3是用于解释用于减小多个3D内容的数据大小,以处理具有减少的数据大小的3D内容的方法的示例的视图;
图4是用于解释用于减小多个3D内容的数据大小,以处理具有减少的数据大小的3D内容的方法的示例的视图;
图5A、5B和5C是解释用于一个3D内容的帧速率转换处理的视图;
图6是示出通过组合多个3D内容来配置多内容帧数据的方法的示例的视图;
图7是示出根据示例性实施例的信号处理装置的配置的方框图;
图8是示出根据示例性实施例的信号处理装置的结构的方框图;
图9是示出了根据示例性实施例的3D多内容显示方法的流程图;
图10是示出了根据示例性实施例的3D多内容显示方法的流程图;
图11是示出了根据示例性实施例的,向多个用户提供多个内容的系统的示例性视图;
图12是图11的系统中使用的显示装置的方框图;
图13是图12中的显示装置使用的信号处理单元的方框图;
图14A和14B是示出在输出同步的基础上,第一内容和第二内容的视频帧的相对排列位置的示例性视图;
图15是根据示例性实施例的多视图显示方法的流程图;
图16是示出根据示例性实施例的内容提供系统的结构的示意性视图;
图17是示出根据示例性实施例的内容提供系统的结构的示意性视图;
图18是示出在图16和17中所示的系统中使用的显示装置的结构的方框图;
图19示出了具有不同的帧速率的相应内容的关键帧;
图20示出了用于对具有不同的帧速率的相应内容的关键帧进行集合的方法;
图21示出了具有不同的帧速率的相应内容的集合的关键帧的示例;
图22A、22B、22C、22D和图22E是示出了对具有不同的帧速率的相应内容的关键帧进行集合的示例的示图;
图23是示出了图18的显示装置的详细结构的方框图;
图24是示出了在图16和17所示的系统中使用的眼镜装置的结构的方框图;
图25是示出根据示例性实施例的显示装置的内容提供方法的流程图;
图26是示出根据示例性实施例的显示装置的结构的方框图;
图27是示出了用于显示多个3D内容的3D多视图模式的视图;
图28是示出了用于显示多个2D内容的2D多视图模式的视图;
图29是示出了一个SoC的结构的示例的方框图;
图30是示出了显示装置的详细结构的示例的方框图;
图31是示出根据示例性实施例的显示装置的结构的方框图;
图32是示出根据示例性实施例的显示方法的流程图。
具体实施方式
在下文中,以下将参照附图来对某些示例性实施例进行更详细的描述。
在以下描述中,即使是在不同的附图中,类似参考标号也用于类似的元件。诸如详细的结构和元件之类的在描述中所限定的实体被提供来辅助对于示例性实施例的全面理解。然而,可以在没有这些特定限定的实体的情况下,来实现示例性实施例。此外,因为不必要的细节会混淆所进行的描述,所以将不对公知的功能或结构进行详细描述。
图1是示出根据示例性实施例的显示装置的结构的方框图。参考图1,显示装置100包括:第一和第二接收器110和120、第一和第二缩放器130和140、存储器150、第一和第二帧速率转换器160和170、和视频输出装置180。图1的显示装置100可以通过具有显示单元的装置来实现,诸如TV、移动电话、PDA、笔记本PC、监视器、平板PC、电子书、数码相框、售货亭、和个人医疗装置。
第一和第二接收器110和120接收来自不同源的内容。所述源可以是:广播站,其使用广播网络来传输广播节目内容;web服务器,其使用因特网来传输内容文件;或者各种记录介质再现装置,其连接到显示装置100。记录介质再现装置是指对存储在不同类型的记录介质,诸如CD、DVD、硬盘、蓝光盘、存储卡、以及USB存储器中的内容进行再现的装置。
在其中从广播站接收内容的示例性实施例中,第一和第二接收器110和120可以实现为包括诸如调谐器、解调器、均衡器、以及解码器(未示出)的结构。在其中从诸如Web服务器的源接收内容的示例性实施例中,第一和第二接收器110和120可以通过网络接口卡(未示出)来实现。另外,在其中从如上所述的各种记录介质再现装置来接收内容的示例性实施例中,第一和第二接收器110和120可以通过连接到所述记录介质再现装置的接口单元(未示出)来实现。如上所述,第一和第二接收器110和120可以根据示例性实施例,通过多样的形式来实现。
此外,第一和第二接收器110和120不需要从相同类型的源接收内容,并且第一接收器110和第二接收器120可以从不同类型的源来接收内容。例如,第一接收器110可以被实现为包括调谐器、解调器、均衡器、以及解码器的格式,并且第二接收器120可以通过网络接口卡来实现。
第一和第二缩放器130和140减小在第一和第二接收器110和120接收的相应内容中的数据大小,并且在存储器150中存储具有减少的数据大小的相应内容。如果已经到达在存储器150中存储的内容的输出时间,则第一和第二缩放器130和140进行读取,并且将相应的内容提供到第一和第二帧速率转换器160和170。
根据示例性实施例,可以以各种方式进行数据大小减小操作。例如,在第一和第二缩放器130和140可以执行对于相应内容的规模的缩小,以减少内容的大小,并且然后将规模缩小的内容存储在存储器150中。
第一和第二缩放器130和140可以执行对于相应的内容的规模的缩小,以减少内容的帧速率,并且然后在存储器150中存储具有减小的帧速率的内容。
此外,第一和第二缩放器130和140可以执行对于相应的内容的规模的缩小,在存储器150中存储缩小规模的内容,并且然后当根据输出时序来读取相应的存储内容时,减小读取内容的帧速率,以将具有减小的帧速率的内容提供给第一和第二帧速率转换器160和170。
特别地,如果3D内容是3:2下拉电影视频内容,则第一和第二缩放器130和140可以将电影视频内容缩小规模,仅仅提取关键帧,并且在存储器150中存储所提取的关键帧。
此外,第一和第二缩放器130和140可以执行内容的规模的缩小,并且将缩小规模的内容分别转换成与第一和第二帧速率转换器160和170的结构相对应的数据格式。具体而言,在输入数据是顶部至底部的格式,而第一和第二帧速率转换器160和170以并排(side by side)的格式来处理帧的情况下,第一和第二缩放器130和140将相应内容的左眼图像和右眼图像分离,并且在水平方向上将并排的分离的图像连接,以将内容转换为并排的格式。
数据格式转换工作可以在缩小规模的内容被存储在存储器150中之前,或者在从存储器150中读取内容之后来进行。
如上所述,如果第一和第二缩放器130和140减少内容的数据大小,并且将具有减小的数据大小的内容进行存储,则可以减小存储器150的容量,并且用于连接存储器150、第一和第二缩放器130和140、第一和第二帧速率转换器160和170等的总线量也可以减少。其结果是,资源可以被最小化。
第一和第二帧速率转换器160和170对从第一和第二缩放器130和140提供的相应内容的帧速率进行转换,以参考显示装置100的输出速率来匹配多内容显示速率。具体而言,如果显示装置100以60Hz来进行操作,则第一和第二帧速率转换器160和170将相应内容的帧速率转换成120Hz。另一方面,在如上所述,相对于电影视频内容,仅仅关键帧被读取,并且被存储在存储器150中的情况下,通过基于从存储器150读取的关键帧的帧的插值,对应的帧速率转换器160和170将相应的3D内容的帧速率转换成与视频输出装置180相对应的帧速率。
视频输出装置180组合并且显示从第一和第二帧速率转换器160和170输出的相应的内容。具体而言,视频输出装置180对从第一和第二帧速率转换器160和170提供的相应内容进行复用,以使得相应内容的视频帧至少逐个地交替排列;通过扩大复用的数据的规模来配置多内容帧数据,以适应屏幕大小;然后显示多内容帧数据。多内容帧数据是指被配置成使得多个用户可以分别观看多个内容的帧数据。根据显示装置的驱动方法,可以不同地实现用于配置多内容帧数据的方法。
例如,在快门镜片型显示装置的情况下,视频输出装置180通过至少逐个地交替排列第一内容的视频帧和第二内容的视频帧,来配置多内容帧数据,并且显示多内容帧数据。用户佩戴与视频输出装置180的显示时序互锁的眼镜装置,以观看用户所希望的内容。具体而言,眼镜装置通过左眼快门镜片和右眼快门镜片来构成。当观看3D内容时,左眼快门镜片和右眼快门镜片被交替地打开/关闭,而当显示多个内容时,根据与眼镜装置同步的内容的输出时序而将其共同打开/关闭。因此,单独的用户可以观看与其他用户分开的内容。
作为另一示例,在非眼镜型显示装置的情况下,视频输出装置180通过将第一和第二内容分割成多个线,并且交替地将所分割的线进行组合,从而配置至少一种多内容帧数据。视频输出装置180使用被提供有视差屏障或者柱状透镜的显示面板(未示出)来显示多内容帧数据,并且从而使用户能够分别观看不同内容的帧。
尽管图1示出了接收和处理两种内容的配置,但是也可以实现接收和处理三个或更多个内容的示例性实施例。在这种情况下,可以分别提供三个或更多个接收器、缩放器、和帧速率转换器。
如上所述,在其中多内容帧数据被配置和显示的模式可以被称为多视图模式(或双视图模式)。在其中只有2D内容和3D内容之一被显示的常规模式(或单视图模式)的情况下,显示装置100可仅激活第一和第二接收器110和120中的一个,以处理内容。即使是在常规模式中,如上所述的各种数据大小减小过程也可以进行,以减少资源利用量。如果在其中显示装置100在常规模式下操作的情况下,用户选择了多视图模式,则显示装置100激活剩余的接收器,从而以上述方式来处理数据。
另一方面,上述的内容可以是2D内容或3D内容。3D内容是指使用从不同的视角来表示同一对象的多视角图像,使得用户体验到3D效果的内容。
为了使用多个3D内容来配置多内容帧,视频输出装置180将从第一和第二帧速率转换器160和170提供的相应的3D内容中包括的左眼图像和右眼图像进行复用,并且根据预定的排列顺序,交替地排列复用的图像。另外,视频输出装置180通过扩大复用的数据的规模来配置多内容帧,以适应屏幕大小。
因此,第一内容的左眼图像和右眼图像以及第二内容的左眼图像和右眼图像被顺序地排列,并根据预定的排列顺序来显示,并且用户可以通过眼镜装置来观看一种内容的左眼图像和右眼图像。
虽然在图1未示出,显示装置100进一步包括如下的配置,其在显示装置100以多视图模式进行操作时,不同地提供在用于相应用户的相应内容中包括的音频数据。也就是说,显示装置100还可以包括:解复用器(DEMUX)(未示出),其从通过相应的接收器110和120接收的内容中分离音频数据;音频解码器(未示出),其将分离的音频数据进行解码;调制单元(未示出),其将解码的音频数据调制成不同的频率信号;以及输出单元(未示出),其将相应的调制音频数据传输到眼镜装置。通过诸如设置在眼镜装置上的耳机的输出装置,将从输出单元输出的相应的音频数据提供给用户。
图2是用于解释使用多个3D内容来显示多内容帧的快门镜片型显示设备102的操作的视图。
参照图2,显示装置100包括信号传输单元190。在视频输出装置180显示包括构成多个3D内容的左眼图像和右眼图像的多内容帧10的同时,信号传输单元190输出同步信号,其将不同的3D眼镜装置与左眼图像和右眼图像的输出时序同步。
可以以各种形式生成和传输同步信号。作为一个示例,信号传输单元190可以生成具有不同频率的多个IR(红外)同步信号或RF(射频)同步信号,并且将所生成的同步信号提供到相应的眼镜装置。
另外,所述信号传输单元190可以根据诸如蓝牙的各种无线通信标准来生成同步信号,并且将生成的同步信号传输给第一和第二眼镜装置210和220。为此,眼镜装置执行与显示装置100的配对。如果配对完成,则相应的眼镜装置的信息,例如,装置标识(ID)等可以被注册在显示装置中。信号传输单元190可以将眼镜装置信息与相应内容的显示时序匹配,并且根据通信标准生成和传输一个同步信号。
虽然在图2中,信号传输单元190被示出为突出到显示装置100的外部,但是根据示例性实施例,其可以内置在显示装置100中,其根据无线通信标准来传输同步信号。
如果接收了同步信号,则相应的眼镜装置210和220可以确认对应于其自身的眼睛装置信息的显示时序,并且根据确认显示时序来打开或关闭左眼快门镜片和右眼快门镜片。此外,同步信号可以以各种方式生成。
根据同步信号,相应的眼镜装置210和220独立地打开/关闭左眼快门镜片和右眼快门镜片。具体而言,当显示主3D内容的左眼图像ML1时,用于观看主3D内容的第一眼镜装置210打开左眼快门镜片,并且关闭右眼快门镜片,而当显示主3D内容的右眼图像MR1时,其打开右眼快门镜片,并且关闭左眼快门镜片。相反,当显示子3D内容的左眼图像SL1和右眼图像SR1时,第一眼镜装置210关闭左眼快门镜片和右眼快门镜片两者。当显示主3D内容的左眼图像ML1和右眼图像MR1时,第二眼镜装置220打开左眼快门镜片和右眼快门镜片两者。
因此,佩戴第一眼镜装置210的用户可以观看主3D内容,而佩戴第二眼镜装置220的用户可以观看子3D内容。
图3是用于解释减少3D内容的数据大小并且存储具有减小的数据大小的3D内容的处理的示例的视图。参照图3,如果接收主3D内容21和子3D内容22,则主3D内容和子3D内容的数据大小通过第一和第二缩放器130和140来减小,并且具有减小的数据大小的减少的主3D内容31和减少的子3D内容32被存储在存储器150中。根据输出时序来读取存储的内容31和32,并且利用其被转换的帧速率来显示存储的内容31和32。第一和第二缩放器130和140可以只进行缩小规模,或者可以执行缩小规模和帧减小,然后将相应的内容存储在存储器150中。图3示出了在其中以从顶部至底部的格式来接收主3D内容21和子3D内容22的左眼图像和右眼图像,并且对其原样进行处理的情况。
图4是示出了用于减小数据大小,并且存储具有减小的数据大小的3D内容的处理的另一个示例的视图。参照图4,如果以顶部至底部的格式来接收主3D内容21和子3D内容22,则其数据大小通过第一和第二缩放器130和140来减小,并且主3D内容和子3D内容被转换成并排的主3D内容41和子3D内容42,以被存储在存储器150中。根据输出时序来读取存储的内容41和42,并且将其提供给第一和第二帧速率转换器160和170。相对于具有减小的大小的数据内容,第一和第二帧速率转换器160和170执行帧速率转换操作。因此,用于转换帧速率的资源可以被最小化。
图5A至5C是用于说明对于一个3D内容的帧速率转换处理的视图。参照图5A至5C,在一个垂直同步信号周期中,主内容包括左眼图像ML0、ML1、ML2、...,以及右眼图像MR0、MR1、MR2、...(图5A)。如果接收主内容,则第一缩放器130进行缩小规模,并且然后减小帧速率(图5B)。参照图5A至5C,帧速率被减小到一半的程度。也就是说,如果输入内容的帧速率是60Hz,则帧速率被减小至30Hz。
如果在该种状态下,已经到达用于处理和输出3D内容的时间,则第一帧速率转换器160将帧速率增加至目标帧速率(图5C)。使用缩小规模的数据的帧,通过添加新的帧ML0'、MR0'、ML1'、MR1'、ML2'、MR2'、ML3'、MR3'等,第一帧速率转换器160增加帧速率。参照图5A至5C,帧速率被提高到120Hz。也就是说,多内容显示速率变为120Hz。
图6示出了使用通过第一和第二帧速率转换器160和170处理的主内容和子内容来对主内容帧进行配置的处理的示例。参照图6,通过以诸如ML0、SL0、MR0、SR0等的排列图案来组合主内容和子内容,视频输出装置180配置多内容帧。图6示出的是逐个地排列相应内容的视频帧。然而,可以两个两个地,诸如,ML0、ML0、SL0、SL0、MR0、MR0、SR0、SR0等地连续排列视频帧。
另一方面,信号传输单元190生成并输出用于同步相应的眼镜装置的同步信号,以匹配相应内容的输出时序。图6示出了在其中信号传输单元190传输一个同步信号,以用于根据蓝牙标准,顺序地打开第一眼镜装置210的左眼快门镜片、第二眼镜装置220的左眼快门镜片、第一眼镜装置210的右眼快门镜片、以及第二眼镜装置220的右眼快门镜片。
上述示例性实施例可以应用到除了显示装置之外的信号处理装置。信号处理装置是指接收和处理的内容,并且将处理的内容提供到显示装置的装置,例如,机顶盒、记录介质再现装置、视频处理芯片等。
图7是示出了根据示例性实施例的信号处理装置300的配置的视图。参照图7,信号处理装置300包括多个缩放器310-1和310-2、存储器320、以及多个帧速率转换器330-1和330-2。
缩放器310-1和310-2接收多个内容,并且减少其数据大小。所述内容可以是2D内容、3D内容等。在下文中,将描述在其中接收3D内容情况来作为参考。
如上所述,在上述的示例性实施例中,缩放器310-1和310-2可以通过执行各种处理,诸如缩小规模、帧速率减少、数据格式转换等来减少数据的大小。该数据大小减小可以在将内容存储在存储器320中之前或者在从存储器320中读取内容之后来执行。
存储器320存储通过多个缩放器处理的多个3D内容。然后,帧速率转换器330-1和330-2转换相应的3D内容的帧速率。
具有转换的帧速率的相应的3D内容被提供到连接到信号处理装置300的显示装置。显示装置可以通过从信号处理装置300传输的3D内容的组合来配置多内容帧,并且然后显示多内容帧。
图8是示出根据示例性实施例的信号处理装置300的配置的视图。参照图8,信号处理装置300包括:多个缩放器310-1、310-2、...、和310-n、存储器320、多个帧速率转换器330-1、330-2、...、和330–n、视频处理单元340、接口单元350、和作为上述单元之间的数据传输和接收路径的总线50。虽然在图7中示出的是一个主总线50,但是也可以提供多个总线。
由于多个缩放器310-1、310-2、...、和310-n、存储器320,以及多个帧速率转换器330-1、330-2、...、和330-n的操作与上述示例性实施例中的那些相同,所以将省略对其的重复描述。
视频处理单元340使用具有通过多个帧速率转换器330-1、330-2、...、和330-n转换的帧速率的多个3D内容,来配置多内容帧。具体而言,如在图6中示出的方法中所示,视频处理单元340可以配置多内容帧。
接口单元350将通过视频处理单元340配置的多内容帧的数据传输到显示装置。接口单元350可以通过I2C接口、串行接口、以及其它已知的有线或无线通信接口而连接到外部显示装置,从而传输数据。
如上所述,在图7和图8中所示的信号处理装置可以被连接到显示装置,以支持多视图功能。
图9是示出根据示例性实施例的显示装置的多内容显示方法的流程图。参照图9,如果接收到多个内容(S910),则相应内容的数据大小被减小(S920),并且具有减少的数据大小的内容被存储(S930)。
然后,如果已经到达用于输出相应内容的时间,则读取存储的内容,对读取的内容的帧速率进行转换(S940),并且显示通过内容的组合而获得的多内容帧(S950)。由于数据大小的减小方法在上述示例性实施例中已经被描述,所以将省略对其的重复描述。
图10是示出了根据另一示例性实施例的显示装置的多内容显示方法的流程图。参照图10,如果接收到多个内容(S1010),则进行缩小规模处理(S1020),然后存储缩小规模的内容(S1030)。然后,如果发生指示用于读取对应内容的事件(S1040),则读取数据,并且相对于所读取的数据执行数据格式转换和帧速率减少的至少一个数据处理操作(S1050)。此后,帧速率被转换成目标帧速率水平(S1060),并且组合相应的内容,以显示多内容帧。
虽然在图9和10中未示出,但多内容显示方法可以进一步包括音频数据处理步骤或同步信号传输步骤。另外,图9和10中所示的处理的内容可以是2D内容或3D内容。
此外,根据示例性实施例中的信号处理方法可以包括对分别包括左眼图像和右眼图像的多个3D内容进行缩小规模;使用多个帧速率转换器来转换3D内容的帧速率;使用具有转换的帧速率的多个3D内容来配置多内容帧;以及将3D多内容帧传输到显示装置。
此外,信号处理方法还可以包括将相应的缩小规模的3D内容转换成可以通过多个帧速率转换器处理的格式。
由于信号处理方法的相应步骤与在上述示例性实施例中描述的相同,所以将省略对其的重复描述和说明。
如上所述,根据各种示例性实施例,信号处理和显示过程中消耗的资源可以得到减小。因此,可以有效地实施可以通过一个显示装置来向多个用户同时提供多个内容,具体地,多个3D内容的技术。
如上所述,显示装置可以接收多个内容,并且提供多视图。相应的内容可以是从各种源提供的各种内容。因此,相应的内容的帧速率可能会彼此不同。在这种情况下,多视图显示方法可以包括:接收具有不同的帧速率的多个不同内容;匹配多个内容的帧速率;以及使用具有匹配的帧速率的相应内容来显示多视图帧。帧速率的匹配可以以不同的方法进行。也就是说,帧速率可以通过对帧进行插值、重复、或跳过而被匹配。在下文中,将描述根据示例性实施例的,用于通过接收具有不同的帧速率的相应内容来配置多视图的配置和方法。
将描述在帧速率彼此不同的情况下,对具有相对低的帧速率的内容进行插值的方法。
因此,即使在帧速率彼此不同的情况下,仍可以有效地对内容进行处理,以提供多视图。
图11是示出用于根据示例性实施例来向多个用户提供多个内容的设备104的示例性视图。
如图11中所示,设备104包括显示装置1108、以及眼镜装置1210和1220。
显示装置1108交替地显示多个内容,并且将与相应内容的显示时序相对应的同步信号传输到眼镜装置1210和1220。另外,显示装置1108输出相应内容的音频信号到对应于多个内容的眼镜装置1210和1220。显示装置1108可以通过具有显示单元的装置,例如,电视、移动电话、PDA、笔记本PC、监视器、平板PC、电子书、数码相框、以及售货亭来实现。
眼镜装置1210和1220根据从显示装置1108接收的同步信号,控制左眼和右眼快门镜片的打开时序。即,根据被包括在接收的同步信号中的信息,在相应内容被显示的时间周期内,眼镜装置1210和1220打开左眼和右眼快门镜片,以使得可以观看多个内容中的一个的视频图像。
根据示例性实施例,在被交替显示的第一至第四内容1212、1213、1214、和1215中的第一内容根据从显示装置1108接收的同步信号而被显示的时间点处,第一眼镜装置1210可以打开左眼和右眼快门镜片。因此,佩戴第一眼镜装置1210的用户可以通过相应的眼镜装置1210,观看被显示在显示装置1108上的多个内容中的第一内容的视频图像。
另一方面,交替地显示第一至第四内容的显示装置110可以对应于第一至第四内容的显示时序来输出第一至第四内容的音频信号。因此,在上述示例性实施例中,在第一内容的显示时间处打开左眼和右眼快门镜片的第一眼镜装置1210可以接收和输出从显示装置1108输出的第一内容的音频信号。因此,佩戴第一眼镜装置1210的用户可以在观看第一内容的视频图像的同时而收听到第一内容的音频。
与此相反,第二眼镜装置1220可以在交替显示的内容中的第三内容根据从显示装置1108接收的同步信号而被显示的时间点处,打开左眼和右眼快门镜片。如上所述,如果显示装置1108一起输出第一至第四内容的音频信号,则第二眼镜装置1220可以接收和输出从显示装置1108输出的第三个内容的音频信号。因此,佩戴第二眼镜装置1220的用户可以同时接收和享受第三内容的视频图像和音频。
已经描述了包括用于提供多个内容的显示装置1108以及用于观看从显示装置1108提供的多个内容的眼镜装置1210和1220的设备。
当前示例性实施例涉及将多个内容的相应视频帧进行同步,以使得显示装置1108显示多个内容的多视图。
在下文中,将详细描述如上所述的显示装置1108的配置。
图12是根据示例性实施例的显示装置1108的框图。
如图12所示,显示装置包括:接收单元1110、信号处理单元1120、存储器113、输出装置1140、以及控制器1150。
接收单元1110接收多个内容,并且包括接收第一内容的第一接收机1111和接收具有比第一内容更低的帧速率的第二内容的第二接收机1112。如上所述,第一和第二接收器1111和1112可以接收具有不同帧速率的内容。根据示例性实施例,第一接收器1111可以被实现为包括诸如调谐器、解调器、均衡器、以及解码器的配置,并且通过该配置接收从外部广播信道传输的第一内容。由于在第一接收器1111中包括相应的配置是在本领域中公知的,所以将省略对于相应配置的操作的描述。
第二接收器1112可以通过CART、AV、HDMI、COMPONENT(色差分量)、以及USB接口中的至少一个,来从诸如web服务器的源装置或者诸如DVD装置的再现装置接收第二内容。第二接收器1112可以接收从另一个外部广播信道传输的第二内容。如上所述,第二内容可以具有比第一内容更低的帧速率。然而,示例性实施例不限于此,并且第一内容的帧速率可能低于第二内容的帧速率。
在存储器1130中,从所述第一接收器1111接收的第一内容和从第二接收器1112接收的第二内容的视频帧被存储。
信号处理单元1120生成从所述第一和第二接收器1111和1112接收的第一内容和第二内容的视频帧,并且在存储器1130中存储视频帧。信号处理单元1120包括第一信号处理器1121和第二信号处理器1122。
第一信号处理器1121生成从第一接收器1111接收的第一内容的视频帧,并且将生成的视频帧存储在存储器1130中。第二信号处理器1122生成从第二接收器1112接收的第二内容的视频帧,并且将生成的视频帧存储在存储器1130中。如上所述,生成从第一接收机1111和第二接收机1112接收的第一内容和第二内容的视频帧的第一信号处理器1121和第二信号处理器1122可以如图13中所示地配置。
图13是根据示例性实施例的信号处理单元的框图。
如图13中所示,第一信号处理器1121和第二信号处理器1122生成从第一接收器1111接收的第一内容和从第二接收器1112接收的第二内容的视频帧。由于第一信号处理器1121和第二信号处理器1122的配置是相同的,所以仅仅对于第一信号处理器1121的配置进行详细说明。
如所示,第一信号处理器1121包括第一视频处理单元1121-1、第一音频处理单元1122-1、以及第一附加数据处理单元1123-1。
如果从第一接收器1111接收第一内容,则第一视频处理单元1121-1检测包括在接收的第一内容中的视频数据,以执行信号处理。具体而言,如果从第一接收器1111接收到内容,则第一视频处理单元1121-1从接收的内容检测视频数据,并且对检测的视频数据进行解码。此后,第一视频处理单元1121-1对解码的视频数据的视频帧进行缩小规模或者放大规模,以适合随后描述的视频输出装置1131的屏幕大小。如果对视频数据执行缩放,则第一视频处理单元1121-1参照显示装置的输出速率,将相应的缩放的视频帧转换为适应于多内容显示速率。具体地,在显示装置以60Hz来进行操作的情况下,第一视频处理单元1121-1可以将相应的缩放的视频帧的帧速率转换成120Hz。
第一音频处理单元1122-1检测在接收的内容中包含的音频数据,并执行信号处理。具体地,如果从第一接收机1111接收到内容,则第一音频处理单元1122-1通过解复用接收到的内容,从相应的内容中分离音频数据,并且对分离的音频数据进行解码。此后,第一音频处理单元1122-1将解码的音频数据调制成音频信号。通过第一音频处理单元1122-1调制的音频信号具有的频率信道可以不同于通过另一个音频处理单元调制的音频信号的频率信道。
第一附加数据处理单元1123-1确定附加数据,例如EPG(电子节目指南)或字幕(caption)是否被包括在接收的内容中,并且如果包括附加数据,则从接收的内容中分离附加数据。此后,第一附加数据处理单元1123-1可以将分离的附加数据添加到相应的视频帧。
如上所述,通过第一信号处理器1121和第二信号处理器1122处理的第一内容和第二内容的数据可以作为多视图和多声音而通过输出装置1140输出。当前的示例性实施例用于显示多个内容的多视图,并且将详细描述以多视图形式来显示多个内容的视频帧的输出装置1140的操作。
输出装置1140通过交替地排列通过第一和第二信号处理器1121和1122处理的第一内容和第二内容的视频帧来显示多视图。如上所述,第一和第二信号处理器1121和1122生成通过第一和第二接收器1111和1112接收的第一内容和第二内容的视频帧,并且在存储器1130中存储所生成的视频帧。因此,输出装置1140通过组合在存储器1130中存储的第一内容和第二内容的视频帧,来显示多视图帧。在这里,多视图帧是指被配置为使得多个用户可以观看多个内容的视频图像的帧数据。
根据示例性实施例,在快门镜片型显示装置的情况下,输出装置1140进行复用,以使得从第一和第二信号处理器1121和1122输出的第一内容和第二内容的视频帧被至少逐个地交替地排列。此后,输出设备1140将已经复用的第一内容和第二内容的视频帧扩大规模,以适应屏幕大小,并且然后配置在其中第一内容和第二内容的视频帧被组合的多视图帧,以显示所配置的多视图帧。
如上所述,如果显示在其中第一内容和第二内容的视频帧被组合的多视图帧,则多个用户可以通过用户佩戴着的眼镜装置,来观看不同内容的视频图像。
具体地,眼镜装置被提供有左眼快门镜片和右眼快门镜片。如果多视图帧通过输出装置1140来输出,则眼镜装置可以共同打开/关闭左眼和右眼镜片。
当左眼和右眼快门镜片被共同打开/关闭时,佩戴眼镜装置的用户可以观看到与另一个用户观看的内容分开的内容的视频图像。然而,示例性实施例不限于此,并且显示装置可以以偏振镜片的方法或其他方法来显示第一内容和第二内容的多视图帧。
控制器1150可以控制第二信号处理器1122,以根据在存储器1130中存储的第一内容和第二内容的视频帧之间的帧速率的差,来对第二内容的视频帧进行插值。如上所述,如果第二内容具有的帧速率低于第一内容的帧速率,则第二信号处理器1122根据控制器1150的控制命令,来对在存储器1130中存储的第二内容的视频帧进行插值。然而,如果第一内容具有的帧速率低于第二内容的帧速率,则控制器150可控制第一信号处理器1121,以对在存储器1130中存储的第一内容的视频帧进行插值。
如上所述,控制器1150控制第二信号处理器1122,以基于输出同步信号,通过比较第一内容和第二内容的相应视频帧的相对排列位置,来对第二内容的视频帧进行插值。在此,输出同步信号是指与从输出设备1140输出第一内容和第二内容的视频帧同步的信号。可根据比第二内容的帧速率更高的第一内容的帧速率,或者根据从外部输入的信息来设置输出同步信号。
因此,第二信号处理器1122可以根据从控制器1150输入用于第二内容的视频帧的插值控制命令的上述情况,基于输出同步信号来确定第一内容和第二内容的相应视频帧的相对排列位置。将参照图14来描述可以通过第二信号处理单元1122识别的,基于输出同步信号的第一内容和第二内容的视频帧的相对排列位置。
图14A和14B示出了根据示例性实施例的,基于输出同步信号的第一内容和第二内容的视频帧的相对排列位置的示例图。
如在图14A和14B所示,第一内容的视频帧可以被设置为具有30Hz的帧速率,并且第二内容的视频帧可以被设置为具有24Hz的帧速率。此外,用于第一内容和第二内容的视频帧的输出同步信号可以被设置为60Hz。
在输出同步信号被设置为60Hz的情况下,第一内容的视频帧的相对排列位置可以以0.5个单元来划分和确定。也就是说,对应于在其中将输出同步信号设置为60Hz的周期中的第一周期(1/60)的第一内容的视频帧的相对排列位置变成与视频帧A-0的0.5倍相对应的点。此外,与在其中将输出同步信号设置为60Hz的周期中的第一周期(1/60)对应的第二内容的视频帧的相对排列位置变成与视频帧B-0的0.4倍相对应的点。
根据示例性实施例的第二信号处理器1122可以参照第一内容和第二内容的视频帧的线的数量,或者第一内容和第二内容的视频帧信息来从输出同步信号中确定相对排列位置。例如,第二内容的视频帧的整个输入线的数量可以是1125线,并且第二内容的视频帧的第112线可以当前存储在存储器1130中。如果在第二内容的视频帧的整个输入线的第112线被存储在存储器1130中的时间点处生成输出同步信号,则第二信号处理器1122将当前存储在存储器1130中的线分裂成第二内容的视频帧的整个输入线的数量,并且计算相应的结果值。该结果值可以是在输出同步信号被生成时的第二内容的相对排列位置值。即,第二信号处理器1122将当前存储在存储器1130中的第二内容的视频帧的112输入线分裂成1125个的第二内容的视频帧的整个输入线。因此,从3.1的相应的结果值,可以获知在生成输出同步信号时,第二内容的视频帧的相对排列位置。
同样,如果生成输出同步信号,则第一信号处理器1121将被存储在存储器1130中的第一内容的视频帧的输入线分裂成在生成输出同步信号时的第一内容的视频帧的整个输入线的数量。因此,从相应的结果值中,可以获知在生成输出同步信号时,第一内容的视频帧的相对排列位置。
如上所述,一旦根据预定条件,基于输出同步信号而获取第一内容和第二内容的相应视频帧之间的相对排列位置,则控制器1150控制第二信号处理器1122,以通过比较第一内容和第二内容的相应视频帧之间的所获取的相对排列位置,来对第二内容的视频帧进行插值。
根据控制器1150的控制命令,第二信号处理器1122进行插值,以参照之前和之后的视频帧,即,前面的帧和随后的帧,生成对应于与第一内容的相对排列位置相对应的点的第二内容的视频帧。
然而,示例性实施例不限于此,并且控制器1150可以控制第二信号处理器1122,从而根据第一内容和第二内容的接收时间点,来对第二内容的视频帧进行插值。具体而言,如果接收第一内容和第二内容,则控制器1150比较第一内容和第二内容的接收时间点,并且确认与当完成在存储器1130中存储第一内容的一个视频帧时的时间点相对应的第二内容的对应帧的存储速率。此后,控制器1150控制第二信号处理器1122,以根据所确认的存储速率,通过组合第二内容的相应帧和相应帧的下一帧而生成插值帧。
根据这样的控制命令,第二信号处理器1122可以通过比较与当完成在存储器1130中存储第一内容的视频帧中的一个视频帧时的时间相对应的第二内容的对应帧,来估计在帧中显示的对象的运动,并且通过对估计的运动应用接收速率来生成插值帧。
例如,如上参照图14A和14B所述,如果完成了在存储器1130中存储第一内容的视频帧A-0、A-1、A-2、A-3、A-4、和A-5中的视频帧A-0,则可以存储约80%的视频帧B-0,其是在与完成视频帧A-0的存储时的时间对应的第二内容的相应帧。因此,第二信号处理器1122可以通过比较作为第二内容的对应帧的视频帧B-0和作为下一帧的视频帧B-1来估计在帧中显示的对象的运动,并且通过向估计的运动应用以其来接收或者存储作为第二内容的对应帧的视频帧B-0的速率(80%)来生成插值帧。
在下文中,将详细描述根据示例性实施例的,通过显示装置来执行多个内容的多视图显示的方法。
图15是示出了根据示例性实施例的显示装置的多视图显示方法的流程图。
如图15中所示,显示装置接收具有比第一内容的帧速率更低的帧速率的第一内容和第二内容(S1510)。此后,显示装置将接收的第一内容和第二内容存储在存储器中,并且通过第一信号处理器和第二信号处理器对存储在存储器中的第一内容和第二内容进行处理来生成第一内容和第二内容的视频帧(S1520和S1530)。此后,显示装置通过第二信号处理器来比较第一内容的帧速率和第二内容的帧速率,以获取帧速率之间的差,并且根据比较的结果来对第二内容的视频帧进行插值(S1540)。
然后,显示装置将从第一信号处理器生成的第一内容的视频帧和通过对第二内容的视频帧进行插值而生成的第二内容的视频帧进行组合,使得第一内容的视频帧和第二内容的视频帧交替地排列,并且显示组合的视频帧(S1550)。因此,根据示例性实施例的显示装置可以执行多个内容的多视图显示。
具体而言,显示装置通过第一和第二接收器来接收第一内容和第二内容。在此,可以从外部广播信道来传输第一内容和第二内容,或者可以从诸如web服务器的源装置或者诸如DVD装置的再现装置来提供第一内容和第二内容。第一内容和第二内容中的一个可以具有比另一个内容的帧速率更低的帧速率。在示例性实施例中,基于第二内容的帧速率比第一内容的帧速率低的假设来进行描述,然而,其不限于此。
如果通过第一和第二接收器来接收第一内容和第二内容,则显示装置将第一内容和第二内容存储在存储器中。如果第一内容和第二内容被存储在存储器中,则显示装置通过所述第一信号处理器和第二信号处理器,生成存储在存储器中的第一内容和第二内容的视频帧。由于已经参考图13而详细描述了用于生成第一内容和第二内容的视频帧的第一信号处理器和第二信号处理器的操作,所以将省略对其的详细描述。
如果通过第一信号处理器和所述第二信号处理器来生成第一内容和第二内容的视频帧,则显示装置在存储器中存储生成的第一内容和第二内容的视频帧。然后,显示装置通过比较第一内容的视频帧的帧速率与存储在存储器中的第二内容的视频帧的帧速率,来对第二内容的视频帧进行插值,并且生成第二内容的插值视频帧。
具体地,显示装置可以通过比较第一内容和第二内容的相应视频帧的相对排列位置,来对第二内容的视频帧进行插值。在此,输出同步信号是指与交替显示的第一内容和第二内容的视频帧同步的信号。可以根据比第二内容的帧速率更高的第一内容的帧速率,或者根据从外部输入的信息来设置输出同步信号。
因此,显示装置可以基于根据上述条件而设置的输出同步信号来确定第一内容和第二内容的相应视频帧的相对排列位置。如图14A和14B所示,第一个内容的视频帧可以被设置为具有30Hz的帧速率,并且第二内容的视频帧可以被设置为具有24Hz的帧速率。此外,第一内容和第二内容的视频帧的输出同步信号可以被设置为60Hz。
在输出同步信号被设置为60Hz的情况下,第一内容的视频帧的相对排列位置可以以0.5的单位而被划分和确定。也就是说,与在其中将输出同步信号设置为60Hz的周期中的第一周期(1/60)对应的第一内容的视频帧的相对排列位置变成与视频帧A-0的0.5倍相对应的点。此外,与在其中将输出同步信号设置为60Hz的周期中的第一周期(1/60)对应的第二内容的视频帧的相对排列位置变成与视频帧B-0的0.4倍相对应的点。
显示装置可以参照第一内容和第二内容的视频帧的线的数量,或者第一内容和第二内容的视频帧信息来从输出同步信号中确定相对排列位置。例如,第二内容的视频帧的整个输入线的数量可以是1125线,并且第二内容的视频帧的第112线可以当前存储在存储器中。如果在第二内容的视频帧的第112线被存储在存储器中的时间处生成输出同步信号,则显示装置将当前存储在存储器中的线分裂成第二内容的视频帧的整个输入线的数量,并且计算3.1的相应的结果值。从如上所述的3.1的相应的结果值,可以获知在生成输出同步信号时,第二内容的视频帧的相对排列位置。
如上所述,显示装置可以在通过上述方法生成输出同步信号的时间点,确定第一内容的视频帧的相对排列位置。如上所述,一旦根据预定条件,基于输出同步信号而获取第一内容和第二内容的相应视频帧之间的相对排列位置,则显示装置可以通过比较第一内容和第二内容的相应视频帧之间的所获取的相对排列位置,来对第二内容的视频帧进行插值。
如上所述,显示装置可以进行插值,以参照之前和之后的视频帧,生成对应于与第一内容的相对排列位置相对应的点的第二内容的视频帧。然而,示例性实施例不限于此,并且显示装置可以根据第一内容和第二内容的接收时间点,来对第二内容的视频帧进行插值。具体而言,如果接收第一内容和第二内容,则显示装置比较第一内容和第二内容的接收时间点,并且确认与当完成在存储器中存储第一内容的一个视频帧时的时间点相对应的第二内容的对应帧的存储速率。此后,显示装置根据所确认的存储速率,通过组合第二内容的相应帧和相应帧的下一帧而生成插值帧。
显示装置可以通过比较与当完成在存储器中存储第一内容的视频帧中的一个视频帧时的时间相对应的第二内容的对应帧,来估计在帧中显示的对象的运动,并且通过对估计的运动应用接收速率来生成插值帧。
例如,如参考图14A和14B所述,如果完成了在存储器1130中存储第一内容的视频帧A-0,则可以存储约80%的视频帧B-0,其是与完成视频帧A-0的存储时的时间对应的第二内容的对应帧。因此,显示装置可以通过比较作为第二内容的对应帧的视频帧B-0和作为下一帧的视频帧B-1来估计在帧中显示的对象的运动,并且通过向估计的运动应用以其来接收或者存储作为第二内容的对应帧的视频帧B-0的速率(80%)来生成插值帧。
如上所述,通过对帧速率的插值,可以实现使用多个内容的有效的多视图显示。
另一方面,帧速率可以通过对帧进行重复或跳过而被匹配。即,根据在其中在帧速率彼此不同的情况的另一个示例性实施例,通过对帧进行重复或跳过来对关键帧进行集合,从而将帧速率进行匹配。在下文中,将描述帧速率进行集合的示例性实施例。
图16和17是示出根据示例性实施例的内容提供系统2102的配置和操作的示意图。
参照图16,显示装置2100交替地显示多个2D内容(内容A和B),生成对应于相应的内容的同步信号,并且将其传输到第一和第二眼镜装置2200-1和2200-2。虽然在图16中示出了两个眼镜装置,但是眼镜装置的数目可以不同地设置。也就是说,在用于提供三种内容的三视图模式来作为多视图模式的情况下,可被使用三个眼镜,并且在用于提供四种内容的四视图模式的情况下,可以使用四个眼镜。图16示出了用于提供两种内容A和B的双视图模式。
第一眼镜装置2200-1可以进行操作,以当根据所述同步信号来显示一个内容A时,打开左快门镜片和右快门镜片,以及进行操作,以在显示其他的内容B时,同时关闭左快门镜片和右快门镜片。因此,佩戴第一眼镜装置2200-11的观看者1只能观看交替地显示的多个内容A和B中的与第一眼镜装置2200-1同步的一个内容A。以同样的方式,佩戴第二眼镜装置2200-2的观看者2只能观看内容B。
图17是用于解释根据示例性实施例的用于提供多个3D内容的方法的视图。
如图所示,在多个3D内容(内容A和B)的情况下,显示装置2100可以交替地显示3D内容的左眼图像和右眼图像,而交替地显示多个3D内容(内容A和B)。
例如,显示装置显示3D内容A的左眼图像AL和右眼图像AR,并且交替地显示3D内容B的左眼图像BL和右眼图像BR。这种情况下,第一眼镜装置2200-1可以在分别显示3D内容A的左眼图像AL和右眼图像AR的时间点处,打开左眼和右眼镜片,并且第二眼镜装置2200-2可以在分别显示3D内容B的左眼图像BL和右眼图像BR的时间点处,打开左眼和右眼镜片。
因此,佩戴第一个眼镜装置2200-1的观看者1可以仅仅观看3D内容A,并且佩戴第二眼镜2200-2B的观看者2可以仅仅观看3D内容B。
然而,基于采用快门镜片类型的假设来进行了以上的描述。但是在偏振类型的情况下,对于本领域的技术人员来说显而易见的是,多视图模式可以通过将显示装置实现为使得多个内容图像的偏振方向与第一和第二眼镜装置的偏振方向相符合来支持多视图模式。
图18是示出了根据示例性实施例的显示装置的配置的方框图。参照图18中,显示装置2100包括例如接收器的多个接收单元2110-1、2110-2、...、和2110-n,和例如检测器的多个检测单元2120-1、2120-2、...、和2120-n、集合单元2130、信号处理器2140、和显示器2150。
多个接收单元2110-1、2110-2、...、和2110-n接收多个内容。具体而言,相应的接收单位2110-1、2110-2、...、和2110-n使用广播网络从传输广播节目内容的广播电台接收内容,或者使用因特网从传输内容文件的web服务器接收内容。此外,相应的接收单元可以从在显示装置2100中提供、或连接到显示装置2100的各种记录介质再现装置来接收各种内容。记录介质再现装置是指再现在不同类型的记录介质,诸如CD、DVD、硬盘、蓝光盘、存储卡、和/或USB存储器中存储的内容的装置。
在其中从广播站接收内容的示例性实施例的情况下,多个接收单元2110-1、2110-2、...、和2110-n的可以被实现为包括如下的配置,例如,调谐器(未示出)、解调器(未示出)、以及均衡器(未示出)。相反,在其中从诸如Web服务器的源接收内容的实施例的情况下,多个接收单元2110-1、2110-2、...、2110-n可以由网络接口卡(未示出)来实现。另外,在其中从如上所述的各种记录介质再现装置接收内容的实施例的情况下,多个接收单元2110-1、2110-2、...、和2110-n可以通过连接到记录介质再现装置的接口单元(未示出)来实现。如上所述,多个接收单元2110-1、2110-2、...、和2110-n可以根据示例性实施例而以各种形式来实现。
此外,不需要多个接收单元2110-1、2110-2、...、和2110-n从相同类型的源接收内容,并且多个接收单元2110-1、2110-2、...、和2110-n可以从不同类型的源接收内容。例如,接收单元12110-1可以以包括调谐器、解调器、均衡器的形式来实现,并且接收单元22110-2可以通过网络接口卡来实现。
另一方面,多个接收单元2110-1、2110-2、...、和2110-n可以接收具有不同的帧速率的多个内容。具体而言,相应的接收单元2110-1、2110-2、...、和2110-n可以接收通过每秒24帧或每秒30帧构成的内容。
多个接收单元2110-1、2110-2、...、和2110-n中接收的内容可以是2D内容或3D内容。3D内容是指使用从不同的视角来表示同一对象的多视角图像,使得用户能够观看3D效果的内容。
3D内容可以是各种不同的格式,特别是,可以是根据顶部至底部型、并排型、水平交织型、垂直交织型、棋盘(checkerboard)型、和/或连续帧型中的一种的格式。
多个检测单元2120-1、2120-2、...、和2120-n可以检测构成以各种方法输入的内容的关键帧。
例如,如果构成内容的视频帧通过每秒24帧或每秒30帧的帧速率来输入,则相应的检测单元2120-1、2120-2、...、2120-n可以检测相应帧来作为关键帧。
另一方面,如果构成内容的视频帧以每秒60帧的帧速率来输入,则相应的检测单元2120-1、2120-2、...、和2120-n可以通过下拉方法提取输入帧来检测关键帧。例如,如果重复当前帧的三片(sheet)和重复下一帧的两片,则相应的检测单元2120-1、2120-2、...、和2120-n确定输入内容已被转换成3:2下拉类型,以使得显示装置2100再现内容,并且检测三个重复帧中的一个或者两个重复帧中的一个来作为关键帧。
集合单元2130对所检测的关键帧进行集合。具体而言,如果多个内容具有不同数量的关键帧,则集合单元2130通过执行帧重复或帧跳过来使得关键帧的数目彼此一致,并且将相应内容的对应关键帧进行集合。在这种情况下,集合单元2130可以将多个内容的相应关键帧集合成顶部至底部格式、并排格式、棋盘(checker board)格式、或者交织格式。将参考图19至22来描述其细节。
图19至22是用于解释根据示例性实施例来对具有不同帧速率的相应内容的关键帧进行集合的方法的视图。特别地,在附图中,内容A是3:2下拉型,并且具有每秒24帧的帧速率。内容B是2:2下拉类型,并且具有每秒30帧的帧速率。
如图19所示,如果输入从内容A中检测的关键帧A-a、A-b、A-c……,以及从内容B检测的关键帧B-a、B-b、B-c……,则集合单元130通过跳过构成具有更高的帧速率的内容的关键帧的部分,来使得多个内容的关键帧的数量彼此相等。在此,对关键帧的跳过可以被解释为去除对应的帧。
例如,如图20中所示,集合单元130可以通过跳过2:2下拉型的内容B的第三关键帧B-c、第八关键帧B-h……来使得内容B的关键帧数量与内容A的关键帧数量相等。
在此,被跳过的关键帧可以是根据相应的内容的下拉方法而在时间上没有彼此一致的关键帧。即,如图19和20中所示,3:2下拉型的内容A的第一关键帧A-a、第四关键帧A-d、第五关键帧A-e……分别与2:2下拉型的内容B的第一关键帧B-a、第五关键帧B-e、第六关键帧B-f……在时间上一致。因此,集合单元2130可以通过跳过除了上述的一致的关键帧之外的在时间上相互不一致的关键帧中的至少一个,来使得多个内容的相应关键帧彼此相等。
为了对相应内容的相应关键帧进行集合,集合单元2130可以重新排列关键帧。例如,集合单元2130可以如图21中所示,通过将内容A的第三关键帧A-c偏移,来使得内容A的第三关键帧A-c在时间上与内容B的第四关键帧B-d相一致;并且可以如图20中所示,通过将内容B的第二关键帧B-b和第七关键帧B-g偏移,来使得内容B的第二关键帧B-b和第七关键帧B-g在时间上分别与内容A的第二关键帧A-b和第六关键帧A-f相一致。如上所述,集合单元2130可以通过对已经使其数量彼此相等的关键帧进行重新排列来使得相应内容的关键帧在时间上彼此一致。
在上述示例性实施例中,集合单元2130通过跳过关键帧来使得关键帧的数目彼此一致。然而,关键帧的数量可以通过重复关键帧而彼此相等。即,集合单元2130可以通过将构成具有较低的帧速率的内容的关键帧中的一些进行重复,来使得多个内容的相应关键帧的数量彼此相等。
例如,在图20中,集合单元2130可以通过生成与内容B的第三帧B-c相对应的内容A的关键帧,与内容B的第七帧B-g相对应的内容A的关键帧等来使得多个内容的相应关键帧的数量彼此相等。
在此,集合单元2130可以通过复制相应的关键帧,来生成在时间上与内容B的第三帧B-c、内容B的第七帧B-g等相邻的内容A的关键帧。即,集合单元2130可以通过复制内容A的第二帧A-b,来生成与内容B的第三帧B-c相对应的内容A的关键帧,以及通过复制内容A的第六关键帧A-f关键帧,来生成与内容B的第七帧B-g相对应的内容A的关键帧。
集合单元2130以各种方式来对被排列为在时间上彼此一致的关键帧进行集合。
例如,集合单元2130可以以如在图22A中所示的顶部至底部的格式来对内容A和内容B的关键帧2131进行集合。具体而言,顶部至底部格式是在其中一个内容的关键帧被定位在上部,而其他内容的关键帧被定位在下部的格式。如图22C中所示,相应内容的关键帧2132可以在垂直方向中被1/2子采样,并且然后以上部至下部格式而被定位在上部和下部。
集合单元2130可以以如图22B中所示的并排格式,来对内容A和内容B的关键帧2133进行集合。具体而言,并排格式是在其中,一个内容的关键帧被定位在左侧,并且其他内容的关键帧被定位在右侧的格式。如图22D中所示,相应内容的关键帧2144可以在水平方向上被1/2子采样,并且然后以并排的格式而被定位在左侧和右侧。
集合单元2130可以以如图22E中所示的棋盘格式,来对内容A和内容B的关键帧2145进行集合。具体而言,棋盘格式是在其中,一个内容的关键帧以及其他内容的关键帧被分别在垂直和水平方向上1/2子采样,并且然后将相应的采样关键帧的像素交替定位的格式。
除了上述的格式,可以使用在其中一个内容的相应帧和其他内容的相应帧在垂直方向上被1/2子采样,并且然后对于每条线而言将相应的关键帧的像素交替地定位的交织格式,来对相应的关键帧进行集合。如上所述,集合单元2130可以根据各种方法来对多个内容的关键帧进行集合。
如果3D内容的关键帧被接收,则集合单元2130可以根据格式类型,生成构成3D内容的左眼视频帧和右眼视频帧,并且对多个内容的相应关键帧进行集合。
例如,如果3D图像格式是根据顶部至底部型、并排型、水平交织型、垂直交织型、棋盘(checker board)型、和/或连续帧型的格式,则集合单元2130通过提取相应视频帧的左眼视频部分和右眼视频部分以及对于提取的视频部分进行放大或者插值来生成左眼视频帧和右眼视频帧。
此外,如果3D图像格式是普通的帧序列类型,则集合单元2130从相应帧中提取左眼视频帧与右眼视频帧。
然后,集合单元2130通过跳过构成多个3D内容的左眼视频帧与右眼视频帧,使得相应的3D内容的帧的数目彼此一致,并且对左眼和右眼视频帧进行集合,以生成集合的关键帧。
信号处理器2140处理通过集合单元2130集合的关键帧。也就是说,信号处理器2140通过对由集合单元2130集合的关键帧进行插值,来执行运动颤动取消处理。具体而言,信号处理器2140执行FRC(帧速率控制),以用于将通过集合单元2130集合的关键帧的帧速率转换成可显示在显示装置2100上的帧速率。例如,在NTSC(国家电视系统委员会)类型的情况下,可显示在显示装置2100上的帧速率可以是每秒60帧。
在这种情况下,信号处理器2140可以通过估计在当前帧以及在下一帧中包括的对象的运动,而从集合关键帧中生成插值帧,并且将插值帧插入到当前帧和下一个帧之间,并且将集合关键帧的帧速率转换为可以显示在显示装置2100上的帧速率。因为可以使用用于通过对运动的估计来生成插值帧的任何已知方法,所以将省略对其的详细描述。
此外,信号处理器2140可以对于相应的内容,将其帧速率已被转换的帧分离,并且对相应帧进行扩大规模或者缩小规模,以使用缩放器(未示出)来使其适应显示单元2150的屏幕大小。
显示器2150使用从信号处理器2140输出的数据来显示多视图帧。具体而言,显示器2150可以通过对从信号处理单元2140提供的相应内容进行复用来显示多视图帧,以使得相应内容的视频帧至少逐个地交替排列。
例如,在快门镜片型显示装置的情况下,显示器2150配置和显示第一内容至第n内容,以使得第一内容的视频帧、第二内容的视频帧、...、和第n内容的视频帧被至少逐个地交替排列。
如果根据NTSC类型,可显示在显示装置2100上的帧速率是每秒60帧,则信号处理器2140将构成3D内容的左眼图像和右眼图像的帧速率转换成每秒60帧。利用n×60Hz的驱动频率,显示器2150可以显示被交替地排列的3D内容的左眼视频帧和右眼视频帧。用户可以通过佩戴与在显示器2150上的内容的显示时序互锁的眼镜装置(未示出),来观看用户所期望的内容。
具体地,眼镜装置通过左眼快门镜片和右眼快门镜片来构成。如上所述,在观看3D内容时,左眼快门镜片和右眼快门镜片被交替地打开/关闭,而当相应内容的视频帧被至少逐个地交替排列和显示时,根据与眼镜装置同步的内容的输出时序,其被共同地打开/关闭。因此,用户可以与其他用户分离地观看内容。
如上所述,在其中,相应内容的视频帧被交替地排列以进行显示的模式可以被称为多视图模式(或双视图模式)。在其中仅仅显示2D内容和3D内容之一的常规模式(或单视图模式)的情况下,显示装置2100可以仅仅激活接收单元2110-1、2110-2、...、和2110-n中的一个来处理内容。如果在显示装置2100在常规模式下操作的状态下,用户选择了多视图模式,则显示装置2100还激活剩余的接收单元,从而以上述方式来处理数据。
在使用多个3D内容的情况下,显示器2150可以复用在以预定的排列形式从信号处理器2140提供的相应3D内容中包括的左眼图像和右眼图像,并且交替地将3D内容的复用图像与其他内容的视频帧排列在一起。
具体地,在显示装置2100以60Hz进行操作的情况下,显示器2150可以顺序地排列第一内容的左眼图像和右眼图像、第二内容的左眼图像和右眼图像、...、以及第n内容的左眼图像和右眼图像、并且利用2×n×60Hz的驱动频率来显示顺序排列的图像。用户可以通过眼睛装置来观看一个3D内容的左眼图像和右眼图像。
虽然在图18中未示出,但是显示装置2100还可以包括如下的配置,其在显示装置2100以多视图模式进行操作时,不同地提供在相应的内容中包括的音频数据。也就是说,显示装置2100可进一步包括:解复用器(未示出),其从通过相应的接收单元2110-1、2110-2、...、和2110-n接收的内容中分离视频数据和音频数据;音频解码器(未示出),其解码分离的音频数据;调制单元(未示出),其将解码的音频数据调制成不同频率的信号;以及输出单元(未示出),其将相应的调制的音频数据传输到输出单元(未示出)。通过诸如在眼镜装置上提供的耳机之类的输出装置,从输出单元输出的相应的音频数据被提供给用户。
如果根据情况,例如EPG(电子节目指南)或字幕的附加信息被包括在内容中,则解复用器可以另外从内容中分离附加数据,并且将分离的附加数据传送到将在随后描述的控制器2160。另外,显示装置2100可以添加已经通过附加的数据处理单元(未示出)而被处理成可显示的字幕等。
另一方面,如果在常规模式(特别地,用于显示3D内容)中,通过在多个接收单元2110-1、2110-2、...、和2110-n中的激活的接收单元2110-1而接收到3D内容,则信号处理器2140处理构成3D内容的左眼图像和右眼图像。
具体地,显示器2150交替排列和显示通过信号处理器2140处理的相应3D内容的左眼视频帧与右眼视频帧。具体而言,显示器2150交替地以“左眼视频帧→右眼视频帧→左眼视频帧→右眼视频帧→...”的时间顺序来显示3D内容。如果根据NTSC类型,可以显示在显示装置2100上的帧速率是每秒60帧,则信号处理器2140将构成3D内容的左眼图像和右眼图像的帧速率转换成每秒60帧。利用120Hz的驱动频率,显示器2150可以显示被交替地排列的3D内容的左眼视频帧和右眼视频帧。
图23是示出显示装置的详细配置的方框图。参照图23,显示装置2100包括:多个接收单元2110-1、2110-2、...、和2110-n、多个检测单元2120-1、2120-2、...、和2120-n、集合单元2130、信号处理器2140、显示器2150、控制器2160、同步信号生成单元2170、以及接口单元2180。在对图23中所示的配置进行描述时,与图18中的那些相同的附图参考标号将被用于具有相同功能的配置,因此将省略对其的重复描述。
控制器2160控制显示装置2100的整体操作。具体地,控制器2160可控制多个接收单元2110-1、2110-2、...、和2110-n、多个检测单元2120-1、2120-2、...、和2120-n、集合单元2130、信号处理器2140、以及显示器2150,以执行与相应配置对应的功能。由于已经参考图18描述了这些配置,所以将省略对其的重复描述。
此外,控制器2160可以控制同步信号生成单元2170和接口单元2180,以使得眼镜装置与在显示单元2150上显示的内容的显示时序同步。
同步信号生成单元2170生成同步信号,以用于根据相应内容的显示时序,来同步与相应内容对应的眼镜装置。具体而言,同步信号生成单元2170生成同步信号,以使得眼镜装置与在多视图模式下的多个内容的视频帧的显示时序同步,并生成同步信号,以用于使得眼镜装置与在常规模式下的3D内容的左眼视频帧与右眼视频帧的显示时序同步。
接口单元2180传输同步信号到眼镜装置。接口单元2180通过根据各种无线通信方法来执行与眼镜装置的通信,从而将同步信号传输到眼镜装置。
例如,接口单元2180可以被提供有蓝牙通信模块,以执行与眼镜装置的通信,并且根据蓝牙通信标准来生成和传送分组,并且将其作为同步信号传输到眼镜装置。
传送分组包括用于与内容的显示时序同步地打开/关闭眼镜装置的快门镜片的时间信息。具体而言,时间信息包括:关于用于打开眼镜装置的左眼快门镜片的左快门打开偏移时间的信息、关于用于关闭左眼快门镜片的左快门关闭偏移时间的信息、关于用于打开右眼快门镜片的右快门打开偏移时间的信息、关于用于关闭右眼快门镜片的右快门关闭偏移时间的信息。
偏移时间是从为内容设置的参考时间点到快门镜片打开或关闭时间点的延迟信息。即,当从参考时间点经过时间偏移量时,眼镜装置打开/关闭左眼快门镜片和右眼快门镜片。
例如,参考时间点可以是在视频帧中生成垂直同步信号(即,帧同步)的时间点,并且关于参考时间点的信息可以被包括在传送分组中。另外,传送分组可以包括关于在显示装置2100中使用的时钟信号的信息。因此,如果传送分组被接收,则眼镜装置可以将其自己的时钟信号与显示装置2100的时钟信号进行同步,并且通过确定从使用时钟信号来生成垂直同步信号的时间点开始是否已经到达偏移时间,来打开/关闭快门镜片。
另外,传送分组还可以包括:关于帧同步信息的周期的信息、当帧同步信号具有小数点(decimal point)时用于使得小数点信息内切(inscribing)的信息等。
通过与眼镜装置传输和接收蓝牙装置地址和pin码,接口单元2180根据与眼镜装置的蓝牙通信方法来执行配对。如果配对完成,则通信接口单元2150可以基于通过配对获取的信息来将与多个内容的一个相对应的同步信号传输到眼镜装置。
此外,如果完成与多个眼镜装置的配对,通信接口单元2150可以基于通过配对获取的信息,将相同的或不同的同步信号传输到不同的眼镜装置。此外,通信接口单元2150可以将相同的同步信号传输到眼镜装置的一部分。例如,通信接口单元2150可以将与内容A对应的同步信号传输至第一眼镜装置,将与内容B对应的同步信号传输到第二眼镜装置,并且与内容A对应的同步信号传输至第三眼镜装置。
在上述的示例性实施例中,接口单元2180和眼镜装置根据蓝牙通信方法来彼此通信。然而,这仅仅是示例性的。即,除了蓝牙方法之外,还可以使用诸如红外通信和紫蜂(Zigbee)的通信方法,并且在短距离中,可以形成通信信道,以根据用于传输和接收信号的各种无线通信方法来进行通信。
此外,在上述示例性实施例中,用于生成同步信号的配置和用于传输同步信号的配置是分开提供的。然而,这仅仅是为了方便说明。即,接口单元2180可以生成和传输同步信号给眼镜装置,并且在这种情况下,同步信号生成部2170可以被省略。
此外,在上述示例性实施例中,显示装置2100生成和传输与眼镜装置的内容的显示时序对应的同步信号。然而,这仅仅是示例性的。
即,控制器2160可以控制接口单元2180,以根据蓝牙通信标准生成与相应内容的显示时序对应的同步信号,来作为一个传送分组。即,接口单元2180可以生成一个传送分组,其包括用于与第一内容的显示时序同步地打开/关闭眼镜装置的快门镜片的时间信息、用于与第二内容的显示时序同步地打开/关闭眼镜装置的快门镜片的时间信息、…、以及与第n内容的显示时序同步地打开/关闭眼镜装置的快门镜片的时间信息中的所有。
在这种情况下,接口单元2180可以通过将关于眼镜装置的信息与相应内容的显示时序来进行匹配,从而生成传送分组。例如,显示装置2100可以根据内容的视频帧的排列顺序,来对相应内容的不同眼镜装置的信息进行匹配。也就是说,如果以多视图模式提供两个内容,则内容的第一、第三、...、和第n视频帧可以与第一眼镜装置的信息匹配,并且内容的第二、第四、...、和(n+1)个视频帧与第二眼镜装置的信息匹配,(在此,n是奇数)。另外,接口单元2180可以将被生成以包括用于多个内容的同步信号的传送分组传输到眼镜装置。眼镜装置可以使用用于多个内容的同步信号的眼镜装置本身的信息的同步信号,来打开/关闭快门镜片。
图24是示出根据示例性实施例的眼镜装置2200的配置的方框图。由于在图16和17中的第一和第二眼镜装置2200-1和2200-2具有相同的结构,所以在图24中示出了眼镜装置2200中的一个的配置。参照图24,眼镜装置2200包括接口单元2210、控制器2200、快门镜片驱动器2230、第一快门镜片2240、和第二快门镜片2250。
接口单元2210从显示装置接收同步信号。接口单元2210可以使用各种通信方法。例如,接口单元2210可以根据各种无线电通信标准,诸如蓝牙、WiFi、紫蜂、IEEE等,或根据RF或IR信号的传输和接收方法,来执行通信。接口单元2210可以通过与显示装置的通信来接收同步信号。
同步信号是用于将眼镜装置与显示装置的内容视图输出时间点同步的信号。如上所述,同步信号可以根据不同的通信标准,而以传送分组的形式来接收。传送分组可以包括用于向用户通知内容的显示时序的时间信息。由于已经参考图23来描述了在传送分组中包括的信息,所以将省略对其的重复描述。
控制器2220控制眼镜装置2200的整体操作。特别地,控制器2220通过将从接口单元2210接收的同步信号传输到快门镜片驱动器2230,从而控制快门镜片驱动器2230的操作。也就是说,控制器2220控制快门镜片驱动器2230,以基于同步信号来生成用于驱动第一快门镜片2240和第二快门镜片2250的驱动信号。为了接收驱动信号,控制器2220可以执行与显示装置的配对。
快门镜片驱动器2230基于从控制器2220接收的同步信号来生成驱动信号。快门镜片驱动器2230将生成的驱动信号提供给快门镜片2240和2250,以根据在显示装置2100上显示的多个内容中的一个的显示时序,来打开第一快门镜片2240和第二快门镜片2250。
根据从快门镜片驱动器2230接收的驱动信号,第一快门镜片2240和第二快门镜片2250打开或关闭快门镜片。
具体地,当显示多个内容中的一个时,第一快门镜片2240和第二快门镜片2250同时打开快门镜片,当显示其他内容时,关闭所有的快门镜片。因此,佩戴眼镜装置2200的用户可以观看一个内容。
在3D内容的情况下,第一快门镜片2240和第二快门镜片2250交替地打开/关闭镜片。也就是说,第一快门镜片2240可以在显示构成一个3D内容的左眼图像时的时间处打开,并且第二快门镜片2250可在根据驱动信号来显示右眼图像时的时间处打开。
在上述示例性实施例中,显示装置生成与内容的显示时序对应的同步信号,并且将生成的同步信号传输到眼镜装置2200。然而,这仅仅是示例性的。也就是说,显示装置可生成与相应内容的显示时序对应的同步信号,并且根据蓝牙通信标准而将其作为一个传送分组传输到眼镜装置。
如果接收同步信号,则控制器2220可以确认与眼镜装置本身的信息对应的显示时序,并且根据确认的显示时序来打开或关闭快门镜片。
在上述的示例性实施例中,以短距离来形成通信信道,并且显示装置和眼镜装置根据可以传输和接收信号的各种无线电通信方法而彼此通信。然而,这仅仅是示例性的。即,显示装置可以将具有不同频率的IR(红外)同步信号提供给眼镜装置,并且眼镜装置可接收具有特定的频率的同步信号,并且根据对应内容的显示时序来打开或关闭快门镜片。
图25是示出根据又一示例性实施例的显示装置的内容提供方法的流程图。
首先,接收多个内容(S2310)。具体而言,可以接收具有不同帧速率的多个内容。
然后,多个内容的相应的关键帧被检测(S2320)。
例如,如果利用每秒24帧或者每秒30帧的帧速率来输入构成内容的视频帧,则可以检测相应帧来作为关键帧。
另一方面,如果利用每秒60帧的帧速率来输入构成内容的视频帧,则可以通过提取下拉类型的输入帧来检测关键帧。例如,如果重复当前帧的三片和重复下一帧的两片,则确定输入内容已被转换成3:2下拉类型,并且三个重复帧的一个以及两个重复帧的一个被检测为关键帧。
对检测的关键帧进行集合(S2330)。具体而言,如果多个内容具有不同数目的关键帧,则通过执行帧跳过而使得关键帧的数目彼此一致,并且对相应内容的对应的关键帧进行集合。在这种情况下,多个内容的相应关键帧可以被集合成顶部至底部格式、并排格式、或棋盘格式。因为已经详细描述了对应的实施例,所以将省略对其的重复描述。
然后,执行集合关键帧的信号处理(S2340)。也就是说,可以通过对集合的关键帧的插值来执行运动颤动取消。具体而言,执行FRC(帧速率控制),以将集合的关键帧的帧速率转换成可在显示装置显示的帧速率。例如,在NTSC(国家电视系统委员会)类型的情况下,可显示在显示装置2100的帧速率可以是每秒60帧。
在这种情况下,可以通过对来自集合关键帧中的当前帧和下一帧中包括的对象的运动进行估计来生成插值帧,并且插值帧可以被插入到当前帧和下一帧之间,并且集合关键帧的帧速率可以被转换成可以显示在显示装置上的帧速率。另一方面,其帧速率已被转换的帧可以与相应的内容分离,并且可以使用缩放器来对相应帧进行扩大规模或者缩小规模,以适应显示装置的屏幕大小。
然后,利用处理的关键帧来显示多视图帧(S2350)。具体而言,多视图帧可以通过复用相应内容的视频帧来显示,以便至少逐个地交替排列相应内容的视频帧。
例如,在快门镜片型显示装置的情况下,将第一内容的视频帧、第二内容的视频帧、...、和第n内容的视频帧配置为至少逐个地交替排列以将其显示。在这种情况下,如果处理的帧速率是每秒60帧,相应内容被以n×60Hz来显示,并且通过佩戴与内容的显示时序互锁的眼镜装置(未示出),用户可以观看其所期望的内容。
另一方面,在使用多个3D内容的情况下,在相应3D内容中包含的左眼图像和右眼图像以预定的排列形式来复用,然后将其与其他内容的视频帧一起交替地排列。
具体地,在显示装置以60Hz进行操作的情况下,第一内容的左眼图像和右眼图像、第二内容的左眼图像和右眼图像、...、以及第n内容的左眼图像和右眼图像被顺序地排列,并且以2×n×60Hz的驱动频率来显示。用户可以通过眼镜装置来识别一个3D内容的左眼图像和右眼图像。
此外,根据本示例性实施例的内容提供方法还可以包括生成同步信号,以根据相应内容的显示时序,来对与相应内容对应的眼睛装置进行同步,并且将同步信号传输到眼镜装置。
具体而言,在多视图模式中生成用于将眼镜装置与多个内容中的一个的视频帧的显示时序同步的同步信号,并且在常规模式中生成用于将眼镜装置与3D内容的左眼视频帧和右眼视频帧的显示时序同步的同步信号。
此外,根据各种无线通信方法,可以通过与眼镜装置的通信来传输相应的同步信号。由于已详细描述在蓝牙通信方法中对于同步信号的传输,所以将省略对其的重复描述。
如上所述,为了处理多个内容,与在其中处理一个内容的情况相比,现有技术提供了大量的组件。特别是,为了有效地提供多视图,可能要提供多个显示处理器。在这种情况下,大量的努力和成本可能被用来设计设置有多个显示处理器的SoC。考虑到这一点,将在下文中描述根据又一示例性实施例的,使用多个SoC来显示多个内容视图的显示装置和方法。
图26是示出根据又一示例性实施例的显示装置的配置的方框图。图26的显示装置3100可以通过具有显示单元的装置,诸如电视、移动电话、PDA、笔记本PC、监视器、平板PC、电子书、数字相框、和/或售货亭来实现。
参照图26,显示装置3100包括第一和第二接收器3110和3120、第一和第二SoC3130和3140、以及输出装置3150。
第一和第二接收器3110和3120接收来自不同源的相应内容。接收的内容可以是2D内容或3D内容。如上参照图1所述,源可以以各种类型来实现。由于第一和第二接收器3110和3120的操作与在图1中所示的根据示例性实施例的第一和第二接收器110和120的操作相同,所以将省略对其的重复描述。
第一SOC3130和第二SOC3140包括第一和第二显示处理器3131和3141。安装在第一SoC3130上的第一显示处理器3131处理从第一接收器3110接收到的内容,并且相对于内容中的视频数据,执行各种信号处理。具体而言,第一显示处理器3131可以执行诸如数据解码、缩放、和帧速率转换的处理。
安装在第二SoC3140上的第二显示处理器3141处理从第二接收器3120接收到的内容,并且相对于在内容中的视频数据,执行各种信号处理。具体而言,第二显示处理器3141可以执行诸如数据解码、缩放、和帧速率转换的处理。
第一显示处理器3131和第二显示处理器3141处理的数据被输出到第二SoC3140中的MUX3142。MUX3142通过相应数据的复用,生成包括多个内容视图的数据。输出设备3150包括视频输出单元,其显示从MUX3142输出的数据。例如,在快门镜片型显示装置的情况下,视频输出单元可以显示被交替地排列的第一内容和第二内容的视频帧。
作为另一个示例,在偏振型显示装置的情况下,视频输出单元可以显示如下的帧,在其中相应内容的视频帧被通过线分开,并且被交替排列。在偏振型的情况下,用于观看3D内容的眼镜装置和使用多视图模式的眼镜装置彼此不同。也就是说,在用于观看3D内容的眼镜装置中,左眼和右眼的偏振方向彼此不同,并且在使用多视图模式的眼镜装置中,左眼和右眼的偏振方向是相同的。
输出设备3150可以包括音频输出单元。音频输出单元将由单独提供的音频信号处理单元(未示出)处理的音频数据调制为不同的射频信号。射频信号可以被输出到相应的眼镜装置,或者可以通过接口单元(未示出)而传输。
通过本显示装置,可以执行在其中多个2D内容或多个3D内容被组合的多视图模式。
图27是示出接收和显示多个3D内容的快门镜片型显示设备3102的操作的视图。
参照图27,显示装置3100的输出装置3150显示多个内容视图3010,其包括构成在屏幕上的多个3D内容的左眼图像和右眼图像。相应的内容视图3010对应于屏幕大小的视频帧。图27的设备与图2中示出的设备类似。然而,在图2中的信号传输单元190被配置为突出到装置的外部,而图27的信号传输单元190可以被实施为内置在装置中。因为图27的信号传输单元的操作与图2的信号传输单元的操作相类似,所以将省略对其的重复描述。
图28是示出了接收和显示多个2D内容的快门镜片类型显示装置的操作的视图。参照图28,不同内容的视频帧被显示在内容视图1和2上。在输出相应的内容视图时,眼镜装置3210和3220共同打开左眼和右眼镜片。参照图28,第一个眼镜装置3210观看内容视图1,并且第二眼镜装置3220观看内容视图2。
显示装置3100根据相应的眼镜装置3210和3220的配对顺序,来将内容视图进行匹配。如果在其中提供两个内容视图的双视图模式中首先配对第一眼镜装置3210,则显示装置与内容视图1匹配,并且如果第二眼镜装置3220之后被配对,则显示装置与内容视图2匹配。
图29是示出了在图26的显示装置3100中使用的第一SoC3130的配置的示例的视图。第一SoC3130包括第一显示处理器3131、视频解码器3132、CPU3133、和存储器3134。
视频解码器3132被配置为对由第一接收器3110接收的内容中的视频数据进行解码。相对于从视频解码器3132输出的视频数据,第一显示处理器3111执行处理,诸如,如上所述的缩放和帧速率转换。
存储器3134存储对于第一SoC3130的操作所需的程序和数据。使用存储器3134,CPU3133控制视频解码器3132和第一显示处理器3131的操作。
第一SOC3130通过HDMI端口接收3D内容。通过诸如LVDS Tx之类的高速接口,第一SoC3130将通过第一显示处理器3131处理的数据输出到第二SoC3140。第二SoC3140通过LVDS Rx接收数据,并且第二显示处理器3141对接收的数据进行处理。MUX3142对相应的数据进行复用,并且将复用的数据提供到输出装置3150。
如上所述,显示装置3100可以处理2D内容或3D内容。在下文中,将描述接收多个3D内容的情况来作为示例。
图30是示出了显示装置的详细配置的方框图。参照图30,显示装置包括第一和第二接收器3110和3120、第一和第二SoC3130和3140、帧速率转换器3160、输出装置3150、控制器3170、接口单元3180、以及同步信号生成单元3190。
第一和第二接收器3130和3140接收来自各种源的3D内容。第一和第二SoC3130和3140处理相应的3D内容。由于第一和第二接收器3110和3120以及第一和第二SoC3130和3140已参照图26而被详细描述,所以将省略对其的重复描述。帧速率转换器3160对从第二SoC3140输出的数据的帧速率进行转换。帧速率转换器3160可以根据多视图模式的种类来转换帧速率。也就是说,根据内容视图的数目,多视图模式可包括各种模式,诸如,双视图模式、三重视图模式、和四视图模式。如果显示装置3100在双视图模式中以60Hz来进行操作,则帧速率转换器3160将相应的3D内容的帧速率转换为120Hz。
接口单元3180执行与眼镜装置的通信。具体而言,接口单元3180可以根据诸如蓝牙、WiFi、紫蜂、和IEEE的各种无线通信标准,来传输音频信号或同步信号到眼镜装置。此外,接口单元3180可以通过发射IR同步信号的IR灯,或者输出RF同步信号的RF发射器来实现。在由IR灯或RF发射器来实现接口单元3180的情况下,其可设置在显示装置的外部,例如在图2中的信号传递单元190。
同步信号生成单元3190生成同步信号,用于将从输出装置3150输出的多个内容视图与多个眼镜装置同步,并且通过接口单元3180将同步信号传输到相应的眼镜装置。同步信号生成单元3190可以以与眼镜装置的接口类型对应的格式来生成同步信号。也就是说,可以根据各种无线电通信标准,以数据流、RF信号、以及IR信号的形式来生成同步信号。同步信号生成单元3190也可以与接口单元3180一体地配置。
控制器3170控制显示装置3100的整体操作。控制器3170根据用户选择,可以改变显示装置3100的操作模式。用户可以选择各种操作模式中的一种,诸如用于观看一个内容的单视图模式,以及用于观看多个内容的多视图模式。在单视图模式中,2D内容和3D内容中的一个被输出,并且在多视图模式中,被如上所述组合的多个内容被提供来作为多个内容视图。即使分配给一个内容视图的内容的再现结束后,在多视图模式中开始下一内容的再现,也能原样地保持内容视图。
如果当装置工作在单视图模式中的同时,用户输入模式切换命令,则控制器3170控制第一和第二SoC3130和3140,以及输出装置3150,以组合和输出多个内容。如果模式被切换到多视图模式,则控制器3170控制同步信号生成单元3190和接口单元3180,以传输同步信号到匹配相应内容的相应的眼镜装置。
图31是示出根据另一示例性实施例的显示装置的配置的方框图。参照图31,显示装置包括第一和第二接收器3310和3320、多个第一、第二、和第三SoC3330、3340、和3350、帧速率转换器3360、和输出装置3370。
如上参照图26所述,第一和第二接收器3310和3320可以从各种源接收各种类型的内容。
第一SoC3330和第二SoC3340分别包括第一和第二显示处理器3331和3341。此外,第三SoC3350包括MUX3351。
MUX3351将从第一和第二SoC3330和3340输出的数据复用,并且将复用的数据输出到帧速率转换器3360。
帧速率转换器3360对通过MUX3351复用的数据的帧速率进行转换,并且将复用的数据输出到输出装置3370。
输出装置3370根据从帧速率转换器3360输出的数据,输出多个内容视图。
在图27和28中示出的眼镜装置可以具有如在图24中所示的配置。也就是说,第一和第二眼镜装置3210和3220可以包括第一和第二快门镜片2240和2250、快门镜片驱动器2230、控制器2220、和接口单元2210。由于已经参考图24而详细描述了眼镜装置,所以将省略对其的重复描述。
图32是示出根据又一示例性实施例的显示方法的流程图。参照图32,如果开始用于接收和输出多个3D内容的3D多视图模式(S3810),则接收多个3D内容(S3820),并且使用多个SoC来处理相应的3D内容(S3830)。
使用多个SoC来处理相应内容的步骤可以使用在多个SoC中的一个上安装的MUX,对通过相应SoC处理的数据进行复用,并且对复用的数据的帧速率进行转换。
在通过多个SoC来处理相应的3D内容之后,可以使用被安装在分离的SoC上的MUX来对数据进行复用,并且可以转换复用的数据的帧速率。
因此,通过组合相应的3D内容的视频帧来显示多个内容视图(S3840),并且传输同步信号(S3850)。
虽然在图32中未示出,根据本示例性实施例的显示方法可以进一步包括执行与多个眼镜装置的配对,以及根据配对顺序,依次将多个眼镜装置与多个内容视图进行匹配。
如上所述,根据示例性实施例,通过接收多个内容,可以有效地提供多视图。
用于执行如上所述的示例性实施例的软件程序可以被存储在要被使用的不同类型的记录介质中。
具体地,这样的程序可以被存储在可以通过终端读取的不同类型的记录介质中,诸如,RAM(随机存取存储器)、闪速存储器、ROM(只读存储器)、EPROM(可擦除可编程ROM)、EEPROM(电可擦除可编程ROM)、寄存器、硬盘、可移动盘、存储卡、USB存储器、和/或CD-ROM。
虽然已经示出和描述了几个示例性实施例,但是本技术领域的技术人员应该可以理解,在不脱离由所附的权利要求所定义的本公开的精神和范围的情况下,在这些示例性的实施例中可以在形式和细节上进行各种改变。
上述示例性实施例和优点仅仅是示例性的,并且不被解释为用于限制。本发明的教导可以容易地应用于其它类型的设备。此外,示例性实施例的描述旨在是解释性的,而不是限制权利要求的范围,对于本领域技术人员来说许多替换、修改、和变化将是显而易见的。

Claims (14)

1.一种显示装置,包括:
多个接收单元,所述多个接收单元接收多个内容;
存储单元;
多个缩放器单元,所述多个缩放器单元用于减小多个内容的数据大小、将具有减小的数据大小的相应内容存储在所述存储单元中、以及根据其的输出时序来读取在所述存储单元中存储的相应内容;
多个帧速率转换单元,所述多个帧速率转换单元对相应的读取内容的帧速率进行转换;以及
视频输出单元,所述视频输出单元组合和显示从所述多个帧速率转换单元输出的相应内容。
2.根据权利要求1所述的显示装置,其中,所述多个内容是包括左眼图像和右眼图像的3D内容,并且
所述多个缩放器单元对多个3D内容缩小规模,减小帧速率,并且存储具有减小的帧速率的相应3D内容。
3.根据权利要求1所述的显示装置,其中,所述多个内容是包括左眼图像和右眼图像的3D内容,并且
所述多个缩放器单元对所述3D内容缩小规模并且将所述3D内容存储在所述存储单元中,并且当存储在所述存储单元中的所述3D内容被根据输出时序而读取时,减小读取的3D内容的帧速率,并且将具有减小的帧速率的3D内容提供给所述多个帧速率转换单元。
4.根据权利要求1所述的显示装置,其中,所述多个内容是包括左眼图像和右眼图像的3D内容,并且
如果所述3D内容是3:2下拉电影视频内容,则所述多个缩放器单元中的至少一个对所述电影视频内容缩小规模,仅仅提取关键帧,并且在所述存储单元中存储关键帧,并且
如果从所述存储单元读取关键帧,则基于读取的关键帧,所述多个帧速率转换单元通过帧的插值来将相应3D内容的帧速率转换成多内容显示速率。
5.根据权利要求1所述的显示装置,其中,所述视频输出单元复用从所述多个帧速率转换单元提供的相应内容,以使得所述相应内容根据预定的排列顺序而依次排列,将复用数据扩大规模以适应屏幕大小,并且显示扩大规模的数据。
6.一种显示装置的多内容显示方法,所述方法包括:
接收包括左眼图像和右眼图像的多个内容;
减少所述多个内容的数据大小,并存储具有减少的数据大小的多个内容;
对相应的存储内容的帧速率进行转换;以及
组合和显示具有转换的帧速率的相应内容。
7.根据权利要求6所述的多内容显示方法,其中,在3D内容中包括左眼图像和右眼图像,并且
减少所述多个内容的数据大小的步骤包括:
将所述3D内容缩小规模;
减少缩小规模的3D内容的帧速率;以及
存储具有减小的帧速率的相应3D内容,
其中,对帧速率进行转换的步骤可以将相应3D内容的帧速率转换为多内容显示速率。
8.根据权利要求6所述的多内容显示方法,其中,在3D内容中包括左眼图像和右眼图像,并且
减小多个内容的数据大小的步骤包括:
如果3D内容是3:2下拉电影视频内容,则将所述电影视频内容缩小规模;以及
仅仅提取和存储缩小规模的电影视频内容的关键帧,
其中,转换帧速率的步骤通过基于所存储的关键帧来对帧进行插值,从而将相应3D内容的帧速率进行转换。
9.根据权利要求6所述的多内容显示方法,其中,组合和显示步骤包括:
复用相应内容,以使得相应内容根据预定的排列顺序而依次排列;
将复用的数据扩大规模,以适应屏幕大小;以及
显示扩大规模的数据。
10.一种信号处理装置,包括:
多个缩放器单元,所述多个缩放器单元减小包括左眼图像和右眼图像的多个3D内容的数据大小;
存储单元,所述存储单元存储通过多个缩放器单元而处理的多个3D内容;以及
多个帧速率转换单元,所述多个帧速率转换单元将存储在所述存储单元中的多个3D内容的帧速率转换为多内容显示速率。
11.根据权利要求10中所述的信号处理装置,其中,所述多个缩放器单元对多个3D内容缩小规模,并且将所述多个3D内容存储在所述存储单元中,并且当缩小规模的3D内容从所述存储单元中读取时,将读取的3D内容转换为可以通过所述多个帧速率转换单元处理的格式。
12.根据权利要求10中所述的信号处理装置,进一步包括:
视频处理单元,所述视频处理单元使用具有由所述多个帧速率转换单元转换的帧速率的多个3D内容,来配置多内容帧数据;以及
接口单元,所述接口单元将所述多内容帧数据传输到显示装置。
13.一种信号处理方法,包括:
将包括左眼图像和右眼图像的多个3D内容缩小规模;
使用多个帧速率转换单元来将所述3D内容的帧速率进行转换;
使用具有转换的帧速率的多个3D内容来对多内容帧数据进行配置;以及
将3D多内容帧数据传输到显示装置。
14.根据权利要求13所述的信号处理方法,进一步包括
将相应的缩小规模的3D内容转换成可以通过多个帧速率转换单元来处理的格式。
CN2012105899170A 2011-12-28 2012-12-28 用于多个3d内容的信号处理装置、显示装置、及其方法 Pending CN103188509A (zh)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
KR20110145280 2011-12-28
KR20110144365 2011-12-28
KR10-2011-0145280 2011-12-28
KR10-2011-0144365 2011-12-28
KR20110147502 2011-12-30
KR10-2011-0147502 2011-12-30
KR20110147291 2011-12-30
KR10-2011-0147291 2011-12-30
KR1020120054864A KR20130076674A (ko) 2011-12-28 2012-05-23 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들
KR10-2012-0054864 2012-05-23

Publications (1)

Publication Number Publication Date
CN103188509A true CN103188509A (zh) 2013-07-03

Family

ID=47221115

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012105899170A Pending CN103188509A (zh) 2011-12-28 2012-12-28 用于多个3d内容的信号处理装置、显示装置、及其方法

Country Status (3)

Country Link
US (1) US20130169755A1 (zh)
EP (1) EP2611161B1 (zh)
CN (1) CN103188509A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104767910A (zh) * 2015-04-27 2015-07-08 京东方科技集团股份有限公司 视频图像拼接系统及方法
CN107436683A (zh) * 2016-05-27 2017-12-05 三星电子株式会社 显示控制器、电子装置和虚拟现实装置
CN108696733A (zh) * 2017-02-22 2018-10-23 深圳市光峰光电技术有限公司 投影画面矫正方法及装置
CN111541940A (zh) * 2020-04-30 2020-08-14 深圳创维-Rgb电子有限公司 显示设备的运动补偿方法、装置、电视机及存储介质
CN111819621A (zh) * 2018-03-15 2020-10-23 Nec显示器解决方案株式会社 显示设备和多显示系统
CN113126940A (zh) * 2020-01-16 2021-07-16 西安诺瓦星云科技股份有限公司 视频处理方法、装置、显示控制器和显示系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140073237A (ko) * 2012-12-06 2014-06-16 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
US9497439B2 (en) * 2013-07-15 2016-11-15 Ati Technologies Ulc Apparatus and method for fast multiview video coding
KR102189647B1 (ko) 2014-09-02 2020-12-11 삼성전자주식회사 디스플레이 장치, 시스템 및 그 제어 방법
US9841939B2 (en) 2014-12-18 2017-12-12 Google Inc. Methods, systems, and media for presenting requested content on public display devices
US9916122B2 (en) 2014-12-18 2018-03-13 Google Llc Methods, systems, and media for launching a mobile application using a public display device
US9967320B2 (en) * 2014-12-18 2018-05-08 Google Llc Methods, systems, and media for controlling information used to present content on a public display device
US11144959B2 (en) 2014-12-18 2021-10-12 Google Llc Methods, systems, and media for presenting advertisements relevant to nearby users on a public display device
US10402955B2 (en) * 2016-12-21 2019-09-03 Facebook, Inc. Long exposure filter
US10757401B2 (en) * 2017-03-15 2020-08-25 Sony Corporation Display system and method for display control of a video based on different view positions
TWI819095B (zh) * 2019-09-20 2023-10-21 技嘉科技股份有限公司 可切換影像來源的顯示器及操作系統
CN112540737B (zh) * 2019-09-20 2024-05-28 技嘉科技股份有限公司 可切换图像来源的显示器及操作系统
CN112929650B (zh) * 2021-01-22 2022-11-25 上海曼恒数字技术股份有限公司 一种多视角虚拟显示信号处理方法、系统、计算机可读存储介质及电子设备
US20230063078A1 (en) * 2021-08-24 2023-03-02 Praveen Babu Vadivelu System on a chip with simultaneous usb communications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1756317A (zh) * 2004-10-01 2006-04-05 三星电子株式会社 变换多维视频格式的设备和方法
US20070052794A1 (en) * 2005-09-03 2007-03-08 Samsung Electronics Co., Ltd. 3D image processing apparatus and method
US20100007582A1 (en) * 2007-04-03 2010-01-14 Sony Computer Entertainment America Inc. Display viewing system and methods for optimizing display view based on active tracking
US20110169919A1 (en) * 2009-12-31 2011-07-14 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7953293B2 (en) * 2006-05-02 2011-05-31 Ati Technologies Ulc Field sequence detector, method and video device
EP2439934A4 (en) * 2009-06-05 2014-07-02 Lg Electronics Inc IMAGE DISPLAY DEVICE AND METHOD OF OPERATING IT
US9185328B2 (en) * 2009-06-08 2015-11-10 Lg Electronics Inc. Device and method for displaying a three-dimensional PIP image
JP2011087195A (ja) * 2009-10-16 2011-04-28 Sony Corp 画像処理装置および画像処理方法
KR101611263B1 (ko) * 2009-11-12 2016-04-11 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8922631B1 (en) * 2010-07-06 2014-12-30 Lucasfilm Entertainment Company Ltd. Presenting multiple viewer content on a single screen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1756317A (zh) * 2004-10-01 2006-04-05 三星电子株式会社 变换多维视频格式的设备和方法
US20070052794A1 (en) * 2005-09-03 2007-03-08 Samsung Electronics Co., Ltd. 3D image processing apparatus and method
US20100007582A1 (en) * 2007-04-03 2010-01-14 Sony Computer Entertainment America Inc. Display viewing system and methods for optimizing display view based on active tracking
US20110169919A1 (en) * 2009-12-31 2011-07-14 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104767910A (zh) * 2015-04-27 2015-07-08 京东方科技集团股份有限公司 视频图像拼接系统及方法
US9973712B2 (en) 2015-04-27 2018-05-15 Boe Technology Group Co., Ltd. Video image mosaic system and method
CN107436683A (zh) * 2016-05-27 2017-12-05 三星电子株式会社 显示控制器、电子装置和虚拟现实装置
CN107436683B (zh) * 2016-05-27 2021-01-01 三星电子株式会社 显示控制器、电子装置和虚拟现实装置
CN108696733A (zh) * 2017-02-22 2018-10-23 深圳市光峰光电技术有限公司 投影画面矫正方法及装置
CN111819621A (zh) * 2018-03-15 2020-10-23 Nec显示器解决方案株式会社 显示设备和多显示系统
US11573758B2 (en) 2018-03-15 2023-02-07 Sharp Nec Display Solutions, Ltd. Display device and multi-display system
CN113126940A (zh) * 2020-01-16 2021-07-16 西安诺瓦星云科技股份有限公司 视频处理方法、装置、显示控制器和显示系统
CN111541940A (zh) * 2020-04-30 2020-08-14 深圳创维-Rgb电子有限公司 显示设备的运动补偿方法、装置、电视机及存储介质
CN111541940B (zh) * 2020-04-30 2022-04-08 深圳创维-Rgb电子有限公司 显示设备的运动补偿方法、装置、电视机及存储介质

Also Published As

Publication number Publication date
US20130169755A1 (en) 2013-07-04
EP2611161A3 (en) 2014-01-08
EP2611161A2 (en) 2013-07-03
EP2611161B1 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
CN103188509A (zh) 用于多个3d内容的信号处理装置、显示装置、及其方法
EP2430839B1 (en) Receiving system and method of providing 3d image
CN101656890B (zh) 三维视频设备及应用到该设备的提供同屏显示的方法
WO2010064448A1 (ja) 立体映像再生装置、立体映像再生システム、立体映像再生方法、および立体映像再生用半導体装置
US8643697B2 (en) Video processing apparatus and video processing method
KR101370927B1 (ko) 이미지 디스플레이 방법 및 장치
US20100045779A1 (en) Three-dimensional video apparatus and method of providing on screen display applied thereto
CN102197655B (zh) 暂停模式中的立体图像再现方法及使用该方法的立体图像再现装置
WO2008153260A1 (en) Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
US20110063422A1 (en) Video processing system and video processing method
CN102598672B (zh) 3d显示设备及其选择性图像显示方法
EP2536155B1 (en) Image display method and apparatus
CN103546735A (zh) 图像显示装置、用于显示图像的方法、以及眼镜装置
US9076361B2 (en) Display apparatus and controlling method thereof
US8957950B2 (en) Electronic apparatus and image output method
KR101885215B1 (ko) 디스플레이 장치 및 그 디스플레이 방법
US20110134226A1 (en) 3d image display apparatus and method for determining 3d image thereof
KR20130076674A (ko) 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들
CN103188513A (zh) 用于显示视频的装置和方法
US20110310222A1 (en) Image distributing apparatus, display apparatus, and image distributing method thereof
CN204697147U (zh) 用于显示视频的装置
US20130266287A1 (en) Reproduction device and reproduction method
KR101620969B1 (ko) 디스플레이 장치 및 이에 적용되는 3d 영상 미리보기 제공 방법, 그리고 3d 영상 제공 시스템
CN102378034A (zh) 视频显示系统、显示装置以及再生装置
KR20110057950A (ko) 디스플레이 장치 및 이에 적용되는 3d 영상 변환 방법, 그리고 3d 영상 제공 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130703