CN102883177B - 图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置 - Google Patents

图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置 Download PDF

Info

Publication number
CN102883177B
CN102883177B CN201210243510.2A CN201210243510A CN102883177B CN 102883177 B CN102883177 B CN 102883177B CN 201210243510 A CN201210243510 A CN 201210243510A CN 102883177 B CN102883177 B CN 102883177B
Authority
CN
China
Prior art keywords
data
left eye
eye
mask
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210243510.2A
Other languages
English (en)
Other versions
CN102883177A (zh
Inventor
朴明秀
李再雨
金汉锡
金泰旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Display Co Ltd
Original Assignee
LG Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Display Co Ltd filed Critical LG Display Co Ltd
Publication of CN102883177A publication Critical patent/CN102883177A/zh
Application granted granted Critical
Publication of CN102883177B publication Critical patent/CN102883177B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

本申请涉及一种图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置。所述方法包括:提取对应于左眼图像的文本区域的左眼坐标和对应于右眼图像的文本区域的右眼坐标;通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;以及根据3D格式化方法产生3D图像数据。

Description

图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置
相关申请的交叉参考
本申请要求享有于2011年7月14日提交的韩国专利申请No.10-2011-0070071的优先权,通过援引将该专利申请的全部内容结合在此。
技术领域
以下的描述涉及一种图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置,当通过图案化延迟器法(patterned retarder method)实现立体图像(以下称作“三维(3D)图像”)时,所述图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置可在文本区域上实现较高的可读性。
背景技术
用于实现显示三维(3D)图像的立体图像显示装置的技术要么归为立体技术,要么归为自动立体技术。通常,立体技术通过给观看3D图像的用户的左眼和右眼分离地呈现两个偏差图像(offset image)而产生或增强图像深度的幻觉,这种技术要求使用眼镜来观看3D图像。这种立体技术使用在观看者的左眼和右眼之间的双眼视差图像,并且这种立体技术包括眼镜法和非眼镜法。眼镜法分为图案化延迟器法(以下称作“PR型”)和快门眼镜法(shutter glassesmethod)。在PR型中,通过改变偏振方向在直视式(direct view-based)显示装置或投影仪上显示双眼视差图像之后,使用偏振眼镜来实现三维(3D)图像是可能的。在快门眼镜法中,以时分方式在直视式显示装置或投影仪上显示双眼视差图像之后,使用液晶快门眼镜来实现3D图像是可能的。在非眼镜法中,通过使用用于分离双眼视差图像的光轴的光学板来实现3D图像是可能的,所述光学板诸如是视差栅栏或双凸透镜(lenticular lens)。
图1图解了常规PR型立体图像显示装置的分解透视图。参照图1,PR型立体图像显示装置利用设置在显示面板DIS上的图案化延迟器PR的偏振特性和用户佩戴的偏振眼镜PG的偏振特性来实现3D图像。PR型立体图像显示装置在显示面板DIS的奇数行上显示左眼图像,而在显示面板DIS的偶数行上显示右眼图像。左眼图像被图案化延迟器PR转换为左旋圆偏振光。右眼图像被图案化延迟器PR转换为右旋圆偏振光。偏振眼镜PG的左眼偏振滤光器仅使左旋圆偏振光穿过,而偏振眼镜PG的右眼偏振滤光器仅使右旋圆偏振光穿过。因此,用户通过他或她的左眼仅看到左眼图像,而通过他或她的右眼仅看到右眼图像。
在PR型立体图像显示装置的情形中,3D图像的边界部分可能被不平坦地显示,例如以台阶状显示,该3D图像的边界部分例如是在对象与另一个对象之间的边界部分,或者在对象与背景之间的边界部分。这种现象称为“锯齿(jagging)”、“锯齿状(jagness)”或“锯齿状伪像(zigzag artifact)”。在下面的描述中,3D图像中看起来像台阶图案的形状称为“锯齿”。
同时,3D图像可包括显示文本的文本区域。由于锯齿,3D图像的文本区域具有较差的可读性。
发明内容
本申请的实施方式在这里涉及一种图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置。
本申请的实施方式的一个目的是提供一种图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置,当实现2D图像和3D图像这两者时,所述图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置在文本区域上实现较高的可读性。
为了实现这些目的和其他优点,根据本发明一个方面的目的,一种图像处理方法包括:(A)将左眼图像数据转换为左眼边缘数据,并将右眼图像数据转换为右眼边缘数据;(B)通过分别分析所述左眼边缘数据和所述右眼边缘数据,提取对应于左眼图像的文本区域的左眼坐标和对应于右眼图像的文本区域的右眼坐标;(C)通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;和(D)通过根据3D格式方法转换所述左眼转换数据和所述右眼转换数据,产生3D图像数据。
在另一个方面中,一种图像处理器包括:边缘转换器,所述边缘转换器配置成将左眼图像数据转换为左眼边缘数据,并将右眼图像数据转换为右眼边缘数据;文本区域检测器,所述文本区域检测器配置成通过分别分析所述左眼边缘数据和所述右眼边缘数据,提取对应于左眼图像的文本区域的左眼坐标和对应于右眼图像的文本区域的右眼坐标;数据转换器,所述数据转换器配置成通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;和3D格式化器(formatter),所述3D格式化器配置成通过根据3D格式方法转换所述左眼转换数据和所述右眼转换数据,产生3D图像数据。
在另一个方面中,一种立体图像显示装置包括:显示面板,所述显示面板包括扫描线和数据线;图像处理器,所述图像处理器配置成通过检测图像的文本区域并提高所述文本区域的可读性来提供转换后的3D图像数据;数据驱动器,所述数据驱动器配置成将所述转换后的3D图像数据转换为数据电压并所述数据电压提供给所述数据线;和栅极驱动器,所述栅极驱动器配置成给所述栅极线按顺序提供与所述数据电压同步的栅极脉冲,其中所述图像处理器包括:边缘转换器,所述边缘转换器配置成将左眼图像数据转换为左眼边缘数据,并将右眼图像数据转换为右眼边缘数据;文本区域检测器,所述文本区域检测器配置成通过分别分析所述左眼边缘数据和所述右眼边缘数据,提取对应于左眼图像的文本区域的左眼坐标和对应于右眼图像的文本区域的右眼坐标;数据转换器,所述数据转换器配置成通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;和3D格式化器,所述3D格式化器配置成通过根据3D格式化方法转换所述左眼转换数据和所述右眼转换数据,产生3D图像数据。
在该发明内容和下面的详细描述中所述的特征和优点并不意在构成限制。考虑到附图、说明书和权利要求书,一些额外的特征和优点对于本领域普通技术人员来说将变得很明显。
附图说明
图1图解了常规PR型立体图像显示装置的分解透视图;
图2图解了根据本申请一个实施方式的立体图像显示装置的示意性框图;
图3图解了根据本申请一个实施方式的立体图像显示装置的显示面板、图案化延迟器和偏振眼镜的分解透视图;
图4图解了根据本申请一个实施方式的立体图像显示装置的图像处理器的框图;
图5图解了根据本申请一个实施方式的在3D模式下的图像处理方法的流程图;
图6A图解了根据本申请一个实施方式的输入的3D图像的屏幕截图(screen shot);
图6B图解了根据本申请一个实施方式的左眼图像的屏幕截图;
图6C图解了根据本申请一个实施方式的左眼灰度图像的屏幕截图;
图6D图解了根据本申请一个实施方式的左眼边缘图像的屏幕截图;
图6E图解了根据本申请一个实施方式的左眼量化图像的屏幕截图;
图7A图解了根据本申请一个实施方式的第一掩模;
图7B图解了根据本申请一个实施方式的第二掩模和第三掩模;
图8A图解了根据本申请一个实施方式的左眼量化图像的屏幕截图;
图8B图解了根据本申请一个实施方式的左眼文本区域扩展图像的屏幕截图;
图8C图解了根据本申请一个实施方式的左眼文本区域检测图像的屏幕截图;
图9A图解了根据本申请一个实施方式的简单3D图像的屏幕截图;
图9B图解了复杂3D图像的屏幕截图;
图10图解了根据本申请一个实施方式的3D格式化方法的例子的图表;
图11图解了根据本申请另一个实施方式的3D格式化方法的例子的图表;
图12图解了根据本申请一个实施方式的在2D模式下的图像处理方法的流程图;
图13A图解了由现有技术实现的包括文本区域的3D图像的屏幕截图;和
图13B图解了由本申请一个实施方式实现的包括文本区域的3D图像的屏幕截图。
具体实施方式
以下将参照附图更全面地描述本发明,附图中显示了本发明的实施例。然而,本发明可以以许多不同的形式实施,不应解释为本发明限于这里列出的实施方式。在整个说明书中,相似的参考标记指代相似的元件。在下面的描述中,如果确定涉及本发明的已知功能或构造的详细描述会使本发明的主题不清晰,则将省略所述详细描述。
图2图解了根据本申请一个实施方式的立体图像显示装置的示意性框图。图3图解了该立体图像显示装置的显示面板、图案化延迟器和偏振眼镜的分解透视图。根据本申请一个实施方式的该立体图像显示装置可以以平板显示器的形式实现,所述平板显示器诸如是液晶显示器(LCD)、场致发射显示器(FED)、等离子体显示面板(PDP)显示器和有机发光二极管(OLED)显示器。在下面的描述中,把液晶显示器(LCD)作为立体图像显示装置的一个例子来描述。然而,本申请的实施方式并不限于此。例如,可使用其他种类的平板显示器,所述其他种类的平板显示器诸如是FED、PDP和OLED。
参照图2和图3,根据本申请一个实施方式的该立体图像显示装置包括显示面板10、偏振眼镜20、栅极驱动器110、数据驱动器120、时序控制器(timingcontroller)130、图像处理器140和主机系统(host system)150。
显示面板10包括薄膜晶体管(TFT)基板和滤色器基板(未示出)。在TFT基板与滤色器基板之间形成液晶层(未示出)。在TFT基板上形成有数据线D和交叉越过数据线D的栅极线(或扫描线)G。像素以矩阵形式布置在由数据线D和栅极线G限定的单元区域(cell area)中。形成在数据线D和栅极线G的每个交叉处的TFT响应于通过栅极线G提供的栅极脉冲来将经数据线D提供的数据电压传输给液晶单元的像素电极。公共电压被提供到公共电极。每个像素由在像素电极和公共电极之间的电场驱动。
在滤色器基板上形成有包括黑矩阵和滤色器的滤色器阵列(未示出)。在诸如扭曲向列(TN)模式和垂直定向(vertical alignment,VA)模式之类的垂直电场驱动方式下,公共电极形成在滤色器基板上。在诸如面内切换(IPS)模式和边缘场切换(FFS)模式之类的水平电场驱动方式下,公共电极与像素电极一起形成在TFT基板上。显示面板10可以以诸如TN、VA、IPS和FFS模式之类的任何液晶模式实现。
显示面板10可以以调制来自背光单元(未示出)的光的透射型液晶面板的形式实现。背光单元包括导光板(或扩散板)、多个光源、和多个光学片等。背光单元可以以边缘型(edge type)背光单元或直下型(direct type)背光单元的形式实现。背光单元的光源可包括热阴极荧光灯(HCFL)、冷阴极荧光灯(CCFL)、外置电极荧光灯(EEFL)和发光二极管(LED)中的至少一种。
参照图3,上偏振板11A被贴附到滤色器基板,并且下偏振板11B被贴附到TFT基板。在TFT基板和滤色器基板上分别形成有用于设定液晶的预倾角的定向层。在TFT基板与滤色器基板之间形成有衬垫料,以保持液晶层的单元间隙(cell gap)。
在2D模式下,显示面板10在其奇数行和偶数行上显示二维(2D)图像。在三维(3D)模式下,显示面板10在奇数行上显示左眼图像或右眼图像并在偶数行上显示右眼图像或左眼图像。显示面板10上显示的图像通过上偏振板11A入射到设置在显示面板10上的图案化延迟器30。
图案化延迟器30包括形成在图案化延迟器30的奇数行上的第一延迟器31和形成在图案化延迟器30的偶数行上的第二延迟器32。第一延迟器31可位于与显示面板10的奇数行相对的位置,而第二延迟器32可位于与显示面板10的偶数行相对的位置。第一延迟器31可将从显示面板10入射的光转换为第一圆偏振光(例如左旋圆偏振光)。第二延迟器32可将从显示面板10入射的光转换为第二圆偏振光(例如右旋圆偏振光)。同时,图案化延迟器30可包括用于加宽垂直视角的黑条(black stripe)。
偏振眼镜20包括使由第一延迟器31转换的第一圆偏振光穿过的左眼偏振滤光器FL和使由第二延迟器32转换的第二圆偏振光穿过的右眼偏振滤光器FR。例如,左眼偏振滤光器FL能使左旋圆偏振光穿过,并且右眼偏振滤光器FR能使右旋圆偏振光穿过。
在示例性PR(图案化延迟器)型立体图像显示装置中,显示面板10可在图案化延迟器30的第一延迟器31的奇数行上显示左眼图像,并且可将该左眼图像转换为第一圆偏振光。左眼偏振滤光器FL可使第一圆偏振光穿过。因此,用户可通过他或她的左眼仅看到左眼图像。此外,显示面板10可在图案化延迟器30的第二延迟器32的偶数行上显示右眼图像,并且可将该右眼图像转换为第二圆偏振光。而且,右眼偏振滤光器FR可使第二圆偏振光穿过。因此,用户可通过他或她的右眼仅看到右眼图像。
数据驱动器120可包括多个源极驱动器集成电路(IC)(未示出)。源极驱动器IC可接收来自时序控制器130的转换后的2D图像数据RGB2D’或转换后的3D图像数据RGB3D’。源极驱动器IC可将从时序控制器130接收的转换后的2D图像数据RGB2D’或转换后的3D图像数据RGB3D’转换为正或负极性伽马补偿电压。源极驱动器IC可将正或负模拟数据电压提供给显示面板10的数据线D。
栅极驱动器110在时序控制器130的控制下可将与数据电压同步的栅极脉冲按顺序地提供给显示面板10的栅极线G。栅极驱动器110可包括多个栅极驱动器IC(未示出)。每一栅极驱动器IC可包括移位寄存器、电平移位器(levelshifter)和输出缓冲器等,所述电平移位器用于将移位寄存器的输出信号转换为具有适于液晶单元(liquid crystal cell)TFT驱动的摆幅(swing width)的信号。
时序控制器130可接收来自图像处理器140的转换后的2D图像数据RGB2D’或转换后的3D图像数据RGB3D’、时序信号和模式信号MODE。基于转换后的2D图像数据RGB2D’或转换后的3D图像数据RGB3D’、时序信号和模式信号MODE,时序控制器130可产生用于控制栅极驱动器110的栅极控制信号GCS和用于控制数据驱动器120的数据控制信号DCS。时序信号可包括垂直同步信号、水平同步信号、数据使能信号、点时钟(dot clock)等。时序控制器130可将栅极控制信号GCS输出至栅极驱动器110。时序控制器130可将转换后的2D图像数据RGB2D’或转换后的3D图像数据RGB3D’和数据控制信号DCS输出至数据驱动器120。
通过诸如低压差分信令(low voltage differential signaling,LVDS)接口或最小化传输差分信令(transition minimized differential signaling,TMDS)接口之类的接口,主机系统150将原始2D图像数据RGB2D或原始3D图像数据RGB3D提供给图像处理器140。此外,主机系统150可将时序信号和用于区分2D模式与3D模式的模式信号MODE提供给图像处理器140。
在2D模式下,图像处理器140从主机系统150接收原始2D图像数据RGB2D。在2D模式下,图像处理器140转换原始2D图像数据RGB2D并将转换后的2D图像数据RGB2D’输出给时序控制器130。在3D模式下,图像处理器140从主机系统150接收原始3D图像数据RGB3D。图像处理器140转换原始3D图像数据RGB3D并将转换后的3D图像数据RGB3D’输出给时序控制器130。
以下将参照图4和5来详细描述根据本申请实施方式的在3D模式下的图像处理方法和图像处理器140。
图4图解了图2中所示的图像处理器的框图。图5图解了根据本申请一个实施方式的在3D模式下的图像处理方法的流程图。参照图4,图像处理器140包括文本处理器141和3D格式化器142。文本处理器141包括数据扩展单元141A、灰度转换器141B、边缘数据转换器141C、文本区域检测器141D和数据转换器141E。在3D模式下,文本处理器141在通过分析原始3D图像数据RGB3D而检测文本区域之后,提高在文本区域上的可读性。3D格式化器142根据3D格式化方法转换来自文本处理器141的、可读性提高的图像数据。文本区域是指显示文本的区域。
数据扩展单元141A接收来自主机系统150的包括原始左眼图像数据和原始右眼图像数据的原始3D图像数据RGB3D。数据扩展单元141A接收来自主机系统150的模式信号MODE和时序信号。数据扩展单元141A可根据模式信号MODE区分2D模式与3D模式。
原始3D图像数据RGB3D包括并列输入的原始左眼图像数据和原始右眼图像数据。图6A图解了根据本申请一个实施方式的输入的3D图像的屏幕截图。例如,如图6A所示,原始3D图像数据RGB3D可包括左半侧输入的原始左眼图像数据和右半侧输入的原始右眼图像数据。或者,原始3D图像数据RGB3D可包括上半侧输入的原始左眼图像数据和下半侧输入的原始右眼图像数据。在3D模式下,数据扩展单元141A通过扩展原始左眼图像数据产生一帧的左眼图像数据RGBL,并通过扩展原始右眼图像数据产生一帧的右眼图像数据RGBR(见图5的S101)。
灰度转换器141B将左眼图像数据RGBL转换为左眼灰度数据GRGBL。灰度转换器141B将右眼图像数据RGBR转换为右眼灰度数据GRGBR。灰度转换器141B可使用等式1来转换左眼图像数据RGBL和右眼图像数据RGBR。
[等式1]
GRGBL=0.114×RL+0.587×GL+0.299×BL
GRGBR=0.114×RR+0.587×GR+0.299×BR
                                  10
在等式1中,GRGBL表示左眼灰度数据,并且RL表示左眼图像数据RGBL的红色数据。GL表示左眼图像数据RGBL的绿色数据,并且BL表示左眼图像数据RGBL的蓝色数据。GRGBR表示右眼灰度数据,并且RR表示右眼图像数据RGBR的红色数据。GR表示右眼图像数据RGBR的绿色数据,并且BR表示右眼图像数据RGBR的蓝色数据。左眼图像数据RGBL和右眼图像数据RGBR每个都包括红色数据、绿色数据和蓝色数据。
图6B图解了根据本申请一个实施方式的左眼图像的屏幕截图,并且图6C图解了根据本申请一个实施方式的左眼灰度图像的屏幕截图。参照图6B和图6C,左眼图像是从左眼图像数据RGBL获得的图像,而左眼灰度图像是从左眼灰度数据GRGBL获得的图像。此外,灰度转换器141B可通过给左眼灰度数据GRGBL应用噪声消除滤波器(noise elimination filter)来消除左眼灰度图像的噪声,所述噪声消除滤波器诸如是中值滤波器(median filter)。灰度转换器141B可通过给右眼灰度数据GRGBR应用噪声消除滤波器来消除右眼灰度图像的噪声(见图5的S102)。
边缘转换器141C可将左眼灰度数据GRGBL转换为左眼边缘数据EDL,并将右眼灰度数据GRGBR转换为右眼边缘数据EDR。为了将左眼灰度数据GRGBL转换为左眼边缘数据EDL并将右眼灰度数据GRGBR转换为右眼边缘数据EDR,边缘转换器141C可使用边缘转换算法(edge conversion algorithm),所述边缘转换算法诸如是索贝尔掩模(sobel mask)(或称“索贝尔算子”)方法等(见图5的S103)。
文本区域检测器141D通过分析左眼边缘数据EDL和右眼边缘数据EDR来检测文本区域。文本区域检测器141D包括量化处理器201、文本区域扩展单元202、文本区域处理器203和坐标提取器204。
量化处理器201通过使用量化方法将左眼边缘数据EDL和右眼边缘数据EDR每个都量化。如果左眼边缘数据EDL大于第一阈值(边缘数据阈值),则量化处理器201可通过将左眼边缘数据EDL转换为最大灰度级值来产生左眼量化数据QL。如果左眼边缘数据EDL小于等于第一阈值,则量化处理器201可将左眼边缘数据EDL转换为最小灰度级值。如果右眼边缘数据EDR大于第一阈值,则量化处理器201可通过将右眼边缘数据EDR转换为最大灰度级值来产生右眼量化数据QR。如果右眼边缘数据EDR小于等于第一阈值,则量化处理器201可将右眼边缘数据EDR转换为最小灰度级值。在完成所述量化方法之后,量化处理器201可将左眼量化数据QL和右眼量化数据QR输出到文本区域扩展单元202。
图6D图解了根据本申请一个实施方式的左眼边缘图像的屏幕截图。图6E图解了根据本申请一个实施方式的左眼量化图像的屏幕截图。参照图6D和图6E,左眼边缘图像可从左眼边缘数据EDL来获得,并且左眼量化图像可从左眼量化数据QL来获得。此外,当输入的图像数据为8比特时,左眼边缘图像和左眼量化图像每个都可表现为从“G0”到“G255”的灰度级值。在一个例子中,最大灰度级值可为灰度级值“G255”,并且最小灰度级值可为灰度级值“G0”。如图6D和图6E所示,由于量化方法的缘故,图6E的左眼量化图像(或右眼量化图像)的边缘比图6D的左眼边缘图像(或右眼边缘图像)的那些边缘更清晰。
文本区域扩展单元202接收来自量化处理器201的左眼量化数据QL和右眼量化数据QR。文本区域扩展单元202在以一掩模尺寸移动第一掩模M1的同时将左眼量化数据QL和右眼量化数据QR转换为左眼量化扩展数据EQL和右眼量化扩展数据EQR。
文本区域扩展单元202在左眼量化数据QL和右眼量化数据QR每个上都设置第一掩模M1。文本区域扩展单元202将第一掩模M1中包含的所有左眼量化数据QL或所有右眼量化数据QR转换为在第一掩模M1中包含的所有左眼量化数据QL之中的最大值或所有右眼量化数据QR之中的最大值。文本区域扩展单元202在以一掩模尺寸移动所述第一掩模M1的同时执行所述转换。第一掩模M1可为具有1×t尺寸的水平掩模,其中t是大于2的自然数。
图7A图解了根据本申请一个实施方式的第一掩模。例如,第一掩模M1可具有如图7A所示的1×5的尺寸。文本区域扩展单元202将第一掩模M1中包含的所有左眼量化数据QL(QD(i-2,j)、QD(i-1,j)、QD(i,j)、QD(i+1,j)、QD(i+2,j)(或所有的右眼量化数据QR)转换为在第一掩模M1中包含的所有左眼量化数据QL(QD(i-2,j)、QD(i-1,j)、QD(i,j)、QD(i+1,j)、QD(i+2,j)(或所有的右眼量化数据QR)之中的最大值。QD(i,j)表示具有坐标(i,j)的左眼量化数据,“i”是大于等于1并小于等于显示面板10的水平分辨率m的自然数,并且“j”是大于等于1并小于等于显示面板10的垂直分辨率n的自然数。左眼量化数据QL或右眼量化数据QR具有最大灰度级值或最小灰度级值。因此,如果第一掩模M1中包含的所有左眼量化数据QL(QD(i-2,j)、QD(i-1,j)、QD(i,j)、QD(i+1,j)、QD(i+2,j)(或右眼量化数据QR)之一是最大灰度级值,则文本区域扩展单元202将第一掩模M1中包含的所有左眼量化数据QL(QD(i-2,j)、QD(i-1,j)、QD(i,j)、QD(i+1,j)、QD(i+2,j)(或所有的右眼量化数据QR)转换为最大灰度级值。此外,如果第一掩模M1中包含的所有左眼量化数据QL(QD(i-2,j)、QD(i-1,j)、QD(i,j)、QD(i+1,j)、QD(i+2,j)(或所有右眼量化数据QR)之一是最小灰度级值,则文本区域扩展单元202将第一掩模M1中包含的所有左眼量化数据QL(QD(i-2,j)、QD(i-1,j)、QD(i,j)、QD(i+1,j)、QD(i+2,j)(或所有的右眼量化数据QR)转换为最小灰度级值。文本区域扩展单元202将左眼量化扩展数据EQL和右眼量化扩展数据EQR输出到文本区域处理器203。
图8A图解了根据本申请一个实施方式的左眼量化图像的屏幕截图。图8B图解了根据本申请一个实施方式的左眼量化扩展图像的屏幕截图。参照图8A和图8B,左眼量化图像是从左眼量化数据QL获得的图像。左眼量化扩展图像是从左眼量化扩展数据EQL获得的图像。特别是,在图8A和图8B中,分别放大了左眼量化图像和左眼量化扩展图像的文本区域。左眼量化图像和左眼量化扩展图像的文本区域分别表现为白色灰度级。在左眼量化图像的文本区域上,文本表现为白色灰度级,但文本之间的空间表现为黑色灰度级。在左眼量化扩展图像的文本区域上,文本以及文本之间的空间表现为白色灰度级。原因在于文本区域被文本区域扩展单元202扩展。白色灰度级是从最大灰度级值获得的灰度级,而黑色灰度级是从最小灰度级值获得的灰度级。
文本区域处理器203接收左眼量化扩展数据EQL和右眼量化扩展数据EQR。文本区域处理器203在以一掩模尺寸移动第二掩模M2和以一掩模尺寸移动第三掩模M3的同时,将左眼量化扩展数据EQL和右眼量化扩展数据EQR转换为左眼检测数据DL和右眼检测数据DR。
文本区域处理器203分别在左眼量化扩展数据EQL和右眼量化扩展数据EQR上设置第二掩模M2。文本区域处理器203确定第二掩模M2中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR是否具有最大灰度级值。如果第二掩模M2中包含的所有左眼量化扩展数据EQL或右眼量化扩展数据EQR具有最大灰度级值,则文本区域处理器203保持第二掩模M2中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR。如果第二掩模M2中包含的任意一个左眼量化扩展数据EQL或任意一个右眼量化扩展数据EQR具有最小灰度级值,则文本区域处理器203将第二掩模M2中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR转换为最小灰度级值。文本区域处理器203在以一掩模尺寸移动第二掩模M2的同时执行所述转换。第二掩模M2可为具有1×u尺寸的水平掩模,其中u是大于2的自然数。
文本区域处理器203分别在左眼量化扩展数据EQL和右眼量化扩展数据EQR上设置第三掩模M3。文本区域处理器203确定第三掩模M3中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR是否具有最大灰度级值。如果第三掩模M3中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR具有最大灰度级值,则文本区域处理器203保持第三掩模M3中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR。如果第三掩模M3中包含的任意一个左眼量化扩展数据EQL或任意一个右眼量化扩展数据EQR具有最小灰度级值,则文本区域处理器203将第三掩模M3中包含的所有左眼量化扩展数据EQL或所有右眼量化扩展数据EQR转换为最小灰度级值。文本区域处理器203通过以一掩模尺寸移动第三掩模M3执行所述转换。第三掩模M3可为具有v×1尺寸的垂直掩模,其中v是大于2的自然数。
此外,文本区域处理器203可执行用于弥补文本区域的一些误差的后处理(post process)。文本区域处理器203可将与第二掩模M2或第三掩模M3相邻的左眼量化扩展数据EQL或右眼量化扩展数据EQR转换为最大灰度级值。例如,文本区域处理器203可将在与第二掩模M2相邻的那些区域处存在于第二掩模M2的一半尺寸内的左眼量化扩展数据EQL或右眼量化扩展数据EQR转换为最大灰度级值。文本区域处理器203可将在与第三掩模M3相邻的那些区域处存在于第三掩模M3的一半尺寸内的左眼量化扩展数据EQL或右眼量化扩展数据EQR转换为最大灰度级值。
图7B图解了根据本申请一个实施方式的第二掩模和第三掩模。例如,如图7B所示,第二掩模M2可具有1×50的尺寸,而第三掩模M3可具有3×1的尺寸。在以上述掩模尺寸移动第二掩模M2的同时执行所述转换之后,文本区域处理器203在以上述掩模尺寸移动第三掩模M3的同时执行所述转换。文本区域处理器203将左眼检测数据DL和右眼检测数据DR输出至坐标提取器204。
图8C图解了根据本申请一个实施方式的左眼检测图像的屏幕截图。参照图8C,左眼检测图像是从左眼检测数据DL获得的图像。特别是,在图8C中,放大了左眼检测图像的文本区域。左眼检测图像的文本区域表现为白色灰度级。白色灰度级是从最大灰度级值获得的灰度级。
同时,文本区域处理器203可根据图像的复杂度,改变第二掩模M2的尺寸和第三掩模M3的尺寸。图像的复杂度越高,文本区域处理器203应用的第二掩模M2的尺寸和第三掩模M3的尺寸越大。
图9A图解了根据本申请一个实施方式的简单3D图像的屏幕截图。图9B图解了复杂3D图像的屏幕截图。参照图9A和图9B,线的复杂度基于线上边缘的数量。因此,与简单的线相比,复杂的线具有更多边缘。此外,与简单的图像相比,复杂的图像具有更多复杂的线。因此,文本区域处理器203可包括用于计算图像复杂度的复杂度计算器203A。
复杂度计算器203A将大于第二阈值(边缘检测阈值)的左眼量化数据QL检测为左边缘。复杂度计算器203A可以将大于第二阈值的右眼量化数据QR检测为右边缘。复杂度计算器203A计算复杂线的数量。当这行线中左边缘的数量或右边缘的数量大于等于第三阈值(复杂线阈值)时,复杂线由复杂度计算器203A定义。如果复杂线的数量大于等于第四阈值(复杂度检测阈值),则复杂度计算器203A可产生具有第一逻辑电平的复杂度信号。如果复杂线的数量小于第四阈值,则复杂度计算器203A可产生具有第二逻辑电平的复杂度信号。也就是说,如果复杂线的数量大于等于第四阈值,则复杂度计算器203A可确定图像为复杂图像。如果复杂线的数量小于第四阈值,则复杂度计算器203A可确定图像为简单图像。
文本区域处理器203可响应于具有第一逻辑电平的复杂度信号,选择具有第一尺寸的第二掩模M2和具有第二尺寸的第三掩模M3。文本区域处理器203可响应于具有第二逻辑电平的复杂度信号,选择具有第三尺寸的第二掩模M2和具有第四尺寸的第三掩模M3。具有第一尺寸的第二掩模M2比具有第三尺寸的第二掩模M2大。具有第二尺寸的第三掩模M3比具有第四尺寸的第三掩模M3大。
坐标提取器204接收来自文本区域处理器203的左眼检测数据DL和右眼检测数据DR。坐标提取器204提取具有最大灰度级值的左眼检测数据DL和具有最大灰度级值的右眼检测数据DR。提取的左眼检测数据的坐标定义为左眼坐标CL,而提取的右眼检测数据的坐标定义为右眼坐标CR。坐标提取器204将左眼坐标CL和右眼坐标CR输出至数据转换器141E。左眼坐标CL表示与左眼图像的文本区域对应的左眼图像数据RGBL的坐标。右眼坐标CR表示与右眼图像的文本区域对应的右眼图像数据RGBR的坐标(见图5的S104)。
在3D模式下,数据转换器141E接收来自坐标提取器204的左眼坐标CL和右眼坐标CR,并接收来自数据扩展单元141A的左眼图像数据RGBL和右眼图像数据RGBR。此外,数据转换器141E接收来自主机系统150的模式信号MODE。数据转换器141E可根据模式信号MODE来区分2D模式与3D模式。根据本申请的第一实施方式或第二实施方式,数据转换器141E通过转换对应于左眼坐标CL的左眼图像数据RGBL和对应于右眼坐标CR的右眼图像数据RGBR,产生左眼转换数据RGBCL和右眼转换数据RGBCR。更具体地说,根据本申请第一实施方式或第二实施方式的数据转换器141E通过将对应于左眼坐标CL的左眼图像数据转换为对应于左眼坐标CL的左眼图像数据和与该对应于左眼坐标CL的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据RGBCL,并通过将对应于右眼坐标CR的右眼图像数据转换为对应于右眼坐标CR的右眼图像数据和与该对应于右眼坐标CR的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据RGBCR。
如果左眼坐标CL是坐标(a,b),则根据本申请第一实施方式的数据转换器141E将对应于坐标(a,b)的左眼图像数据转换为对应于坐标(a,b)的左眼图像数据和对应于坐标(a-1,b)的左眼图像数据的平均值。如果右眼坐标CR是坐标(c,d),则根据本申请第一实施方式的数据转换器141E将对应于坐标(c,d)的右眼图像数据转换为对应于坐标(c,d)的右眼图像数据和对应于坐标(c-1,d)的右眼图像数据的平均值。“a”、“b”、“c”和“d”每个都是自然数,并且“a”和“c”大于1。
或者,如果左眼坐标CL是坐标(a,b),则根据本申请第一实施方式的数据转换器141E将对应于坐标(a,b)的左眼图像数据转换为对应于坐标(a,b)的左眼图像数据和对应于坐标(a+1,b)的左眼图像数据的平均值。如果右眼坐标CR是坐标(c,d),则根据本申请第一实施方式的数据转换器141E将对应于坐标(c,d)的右眼图像数据转换为对应于坐标(c,d)的右眼图像数据和对应于坐标(c+1,d)的右眼图像数据的平均值。“a”、b”、“c”和“d”每个都是自然数。
如果左眼坐标CL是坐标(a,b),则当坐标(a,b)的左眼图像数据在奇数行上时,根据本申请第二实施方式的数据转换器141E将对应于坐标(a,b)的左眼图像数据转换为对应于坐标(a,b)的左眼图像数据和对应于坐标(a+1,b)的左眼图像数据的平均值。如果右眼坐标CR是坐标(c,d),则当对应于坐标(c,d)的右眼图像数据在奇数行上时,根据本申请第二实施方式的数据转换器141E将对应于坐标(c,d)的右眼图像数据转换为对应于坐标(c,d)的右眼图像数据和对应于坐标(c+1,d)的右眼图像数据的平均值。
或者,如果左眼坐标CL是坐标(a,b),则当对应于坐标(a,b)的左眼图像数据在偶数行上时,根据本申请第二实施方式的数据转换器141E将对应于坐标(a,b)的左眼图像数据转换为对应于坐标(a,b)的左眼图像数据和对应于坐标(a-1,b)的左眼图像数据的平均值。如果右眼坐标CR是坐标(c,d),则当对应于坐标(c,d)的右眼图像数据在偶数行上时,根据本申请第二实施方式的数据转换器141E将对应于坐标(c,d)的右眼图像数据转换为对应于坐标(c,d)的右眼图像数据和对应于坐标(c-1,d)的右眼图像数据的平均值。
数据转换器141E将左眼转换数据RGBCL和右眼转换数据RGBCR输出至3D格式化器。同时,在给对应于左眼坐标CL的左眼图像数据RGBL和对应于右眼坐标CR的右眼图像数据RGBR应用用于提高文本区域可见性的锐度滤波器(sharpness filter)之后,根据本申请的第一实施方式或第二实施方式,数据转换器141E可转换对应于左眼坐标CL的左眼图像数据RGBL和对应于右眼坐标CR的右眼图像数据RGBR。锐度滤波器以现有技术中公知的滤波器的形式实现(见图5的S105)。
3D格式化器142接收来自数据转换器141E的左眼转换数据RGBCL和右眼转换数据RGBCR。3D格式化器142接收来自主机系统150的模式信号MODE。3D格式化器142可根据模式信号MODE区分2D模式与3D模式。在3D模式下,3D格式化器142通过根据本申请第一实施方式或第二实施方式的3D格式化方法转换左眼转换数据RGBCL和右眼转换数据RGBCR,产生转换后的3D图像数据RGB3D’。
图10图解了根据本申请一个实施方式的3D格式化方法的例子的图表。参照图10,根据本申请第一实施方式的3D格式化器142通过在奇数行上排列奇数行的左眼转换数据RGBCL并在偶数行上排列偶数行的右眼转换数据RGBCR,产生转换后的3D图像数据RGB3D’。或者,3D格式化器142通过在奇数行上排列偶数行的左眼转换数据RGBCL并在偶数行上排列奇数行的右眼转换数据RGBCR,产生转换后的3D图像数据RGB3D’。
图11图解了根据本申请另一个实施方式的3D格式化方法的例子的图表。参照图11,根据本申请第二实施方式的3D格式化器142通过在第N帧的奇数行上排列奇数行的左眼转换数据RGBCL并在第N帧的偶数行上排列偶数行的右眼转换数据RGBCR,产生第N帧的转换后的3D图像数据RGB3D’。此外,3D格式化器142通过在第(N+1)帧的奇数行上排列偶数行的左眼转换数据RGBCL并在第(N+1)帧的偶数行上排列奇数行的右眼转换数据RGBCR,产生第(N+1)帧的转换后的3D图像数据RGB3D’,其中N是自然数。3D格式化器142将转换后的3D图像数据RGB3D’提供给时序控制器130(见图5的S106)。
在此描述的各实施方式将对应于左眼坐标CL的左眼图像数据RGBL转换为对应于左眼坐标CL的左眼图像数据RGBL和位于其他行上与其相邻的左眼图像数据RGBL的平均值。此外,在此描述的各实施方式将对应于右眼坐标CR的右眼图像数据RGBR转换为对应于右眼坐标CR的右眼图像数据RGBR和位于其他行上与其相邻的右眼图像数据RGBR的平均值。因此,在此描述的各实施方式可补偿没有排列在奇数行或偶数行上的左眼转换数据RGBCL或右眼转换数据RGBCR。结果,在此描述的各实施方式可提高文本区域的可读性。
参照图4和图12详细描述根据本申请实施方式的在2D模式下的图像处理方法和图像处理器140。
图4图解了图2所示的图像处理器的框图。图12图解了根据本申请一个实施方式的在2D模式下的图像处理方法的流程图。参照图4,图像处理器140包括文本处理器141和3D格式化器142。文本处理器141包括数据扩展单元141A、灰度转换器141B、边缘数据转换器141C、文本区域检测器141D和数据转换器141E。在2D模式下,文本处理器141在通过分析原始2D图像数据RGB2D而检测文本区域之后,提高文本区域上的可读性。3D格式化器142照原样输出来自文本处理器141的图像数据,而不转换所述图像数据。文本区域是指显示文本的区域。
数据扩展单元141A接收来自主机系统150的原始2D图像数据RGB2D和模式信号MODE。数据扩展单元141A可根据模式信号MODE区分2D模式与3D模式。数据扩展单元141A将原始2D图像数据RGB2D照原样输出给灰度转换器141B,而不转换所述原始2D图像数据RGB2D(见图12的S201)。
灰度转换器141B将原始2D图像数据RGB2D转换为2D灰度数据GRGB2D。灰度转换器141B如图5的S102中所述执行所述转换(见图12的S202)。
边缘转换器141C将2D灰度数据GRGB2D转换为2D边缘数据E2D。边缘转换器141C如图5的S 103中所述执行所述转换(见图12的S203)。
文本区域检测器141D包括量化处理器201、文本区域扩展单元202、文本区域处理器203和坐标提取器204。量化处理器201通过运用将2D边缘数据E2D量化的量化方法来产生2D量化数据Q2D。量化处理器201如图5的S104中所述执行所述转换。文本区域扩展单元202通过使用第一掩模M1将2D量化数据Q2D转换为2D量化扩展数据EQ2D。文本区域扩展单元202如图5的S104中所述执行所述转换。文本区域处理器203通过使用第二掩模M2和第三掩模M3将2D量化扩展数据EQ2D转换为2D检测数据D2D。文本区域处理器203如图5的S104中所述执行所述转换。坐标提取器204提取2D坐标C2D。坐标提取器204如图5中的S104中所述执行坐标提取(见图12的S204)。
数据转换器141E接收来自数据扩展单元141A的原始2D图像数据RGB2D,并且接收来自文本区域检测器141D的2D坐标C2D。数据转换器141E接收来自主机系统150的模式信号MODE。数据转换器141E可根据模式信号MODE区分2D模式与3D模式。数据转换器141E通过给对应于2D坐标C2D的原始2D图像数据RGB2D应用用于提高文本区域可见性的锐度滤波器,产生转换后的2D图像数据RGB2D’。锐度滤波器以现有技术中公知的滤波器的形式实现(见图12的S205)。
3D格式化器142接收来自数据转换器141E的转换后的2D图像数据RGB2D’。3D格式化器142接收来自主机系统150的模式信号MODE。3D格式化器142可根据模式信号MODE区分2D模式与3D模式。在2D模式下,3D格式化器142将转换后的2D图像数据RGB2D’照原样输出至时序控制器130,而不转换所述转换后的2D图像数据RGB2D’(见图12的S206)。
当立体图像显示装置在2D模式下实现2D图像时,在此描述的各实施方式可通过给对应于2D坐标C2D的、被检测为文本区域的原始2D图像数据RGB2D应用锐度滤波器来提高文本区域的可读性。
图13A图解了由现有技术实现的包括文本区域的3D图像的屏幕截图。图13B图解了由本申请一个实施方式实现的包括文本区域的3D图像的屏幕截图。在图13A和13B中,放大了文本区域。
如图13A所示,由现有技术实现的包括文本区域的3D图像具有较差的可读性,从而用户不能识别文本区域上的文字。然而,如图13B所示,由本申请一个实施方式实现的包括文本区域的3D图像具有较高的可读性,从而用户能够很容易识别文本区域上的文字。
在此描述的各实施方式将对应于左眼坐标CL的左眼图像数据RGBL转换为对应于左眼坐标CL的左眼图像数据RGBL和位于其他行上与其相邻的左眼图像数据RGBL的平均值。此外,在此描述的各实施方式将对应于右眼坐标CR的右眼图像数据RGBR转换为对应于右眼坐标CR的右眼图像数据RGBR和位于其他行上与其相邻的右眼图像数据RGBR的平均值。因此,在此描述的各实施方式可补偿没有被3D格式化器排列的左眼转换数据RGBCL或右眼转换数据RGBCR。结果,在此描述的各实施方式可提高文本区域的可读性。
此外,当立体图像显示装置在2D模式下实现2D图像时,在此描述的各实施方式可通过给对应于2D坐标C2D的、被检测为文本区域的原始2D图像数据RGB2D应用锐度滤波器来提高文本区域上的可读性。
尽管已经参考多个示例性实施方式描述了本申请的实施方式,但应当认识到,本领域技术人员可以设想出都将落入本公开内容的原理范围内的本申请的很多其他的修改形式和实施方式。更特别地,在本公开内容、附图和所附的权利要求书的范围内,可以对主题组合设置的组成部件和/或配置进行各种改动和修改。除了在组成部分和/或配置方面的改动和修改之外,其他可选择的应用方式对于本领域技术人员来说也是很明显的。

Claims (13)

1.一种图像处理方法,所述图像处理方法包括以下步骤:
(A)将左眼图像数据转换为左眼边缘数据,并将右眼图像数据转换为右眼边缘数据;
(B)通过分别分析所述左眼边缘数据和所述右眼边缘数据,提取与左眼图像的文本区域对应的左眼坐标和与右眼图像的文本区域对应的右眼坐标;
(C)通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;
(D)通过根据3D格式化方法转换所述左眼转换数据和所述右眼转换数据,产生3D图像数据,
其中所述步骤(B)包括以下步骤:
(B-1)通过将大于边缘数据阈值的左眼边缘数据和右眼边缘数据转换为最大灰度级并将小于等于所述边缘数据阈值的左眼边缘数据和右眼边缘数据转换为最小灰度级,产生左眼量化数据和右眼量化数据;
(B-2)在以第一掩模的尺寸移动所述第一掩模的同时,将所述左眼量化数据和所述右眼量化数据转换为左眼量化扩展数据和右眼量化扩展数据,其中所述第一掩模为水平掩模;
(B-3)在以第二掩模的尺寸移动所述第二掩模并以第三掩模的掩模尺寸移动所述第三掩模的同时,将所述左眼量化扩展数据和所述右眼量化扩展数据转换为左眼检测数据和右眼检测数据,其中所述第二掩模为水平掩模,并且所述第三掩模为垂直掩模;和
(B-4)提取具有所述最大灰度级的所述左眼检测数据和具有所述最大灰度级的所述右眼检测数据,其中提取出的左眼检测数据的坐标定义为所述左眼坐标,并且提取出的右眼检测数据的坐标定义为所述右眼坐标,
其中所述步骤(B-2)包括以下步骤:
在移动所述第一掩模之前,在所述左眼量化数据和所述右眼量化数据上设置所述第一掩模;和
通过将所述第一掩模中包含的所有左眼量化数据和所有右眼量化数据转换为所述第一掩模中包含的所有左眼量化数据和所有右眼量化数据之中的最大值,产生所述左眼量化扩展数据和所述右眼量化扩展数据,以及
其中所述步骤(B-3)包括以下步骤:
在移动所述第二掩模之前,在所述左眼量化扩展数据和所述右眼量化扩展数据上设置所述第二掩模;
如果所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据具有最大灰度级值,则保持所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据;
如果所述第二掩模中包含的任意一个左眼量化扩展数据或任意一个右眼量化扩展数据具有最小灰度级值,则将所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据转换为所述最小灰度级值;
在移动所述第三掩模之前,在所述左眼量化扩展数据和所述右眼量化扩展数据上设置所述第三掩模;
如果所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据具有最大灰度级值,则保持所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据;和
如果所述第三掩模中包含的任意一个左眼量化扩展数据或任意一个右眼量化扩展数据具有最小灰度级值,则将所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据转换为所述最小灰度级值。
2.根据权利要求1所述的图像处理方法,其中图像的复杂度越高,所述第二掩模的尺寸和所述第三掩模的尺寸越大。
3.根据权利要求1所述的图像处理方法,其中所述步骤(C)包括以下步骤:
如果所述左眼坐标为坐标(a,b)且所述右眼坐标为坐标(c,d),
则将对应于所述坐标(a,b)的左眼图像数据转换为所述对应于所述坐标(a,b)的左眼图像数据和对应于坐标(a-1,b)的左眼图像数据的平均值,并将对应于所述坐标(c,d)的右眼图像数据转换为所述对应于所述坐标(c,d)的右眼图像数据和对应于坐标(c-1,d)的右眼图像数据的平均值,
其中a、b、c和d每个都是自然数,并且a和c每个都大于1。
4.根据权利要求1所述的图像处理方法,其中所述步骤(C)包括以下步骤:
如果所述左眼坐标为坐标(a,b)且所述右眼坐标为坐标(c,d),
则当所述坐标(a,b)在奇数行上时,将对应于所述坐标(a,b)的左眼图像数据转换为所述对应于坐标(a,b)的左眼图像数据和对应于坐标(a+1,b)的左眼图像数据的平均值,而当所述坐标(c,d)在奇数行上时,将对应于所述坐标(c,d)的右眼图像数据转换为所述对应于所述坐标(c,d)的右眼图像数据和对应于坐标(c+1,d)的右眼图像数据的平均值;和
当所述坐标(a,b)在偶数行上时,将对应于所述坐标(a,b)的左眼图像数据转换为所述对应于所述坐标(a,b)的左眼图像数据和对应于坐标(a-1,b)的左眼图像数据的平均值,而当所述坐标(c,d)在偶数行上时,将对应于所述坐标(c,d)的右眼图像数据转换为所述对应于所述坐标(c,d)的右眼图像数据和对应于坐标(c-1,d)的右眼图像数据的平均值,
其中a、b、c和d每个都是自然数,并且a和c每个都大于1。
5.根据权利要求1所述的图像处理方法,其中所述步骤(D)包括以下步骤:
通过在奇数行上排列奇数行的左眼转换数据并在偶数行上排列偶数行的右眼转换数据,产生转换后的3D图像数据,或者
通过在奇数行上排列偶数行的左眼转换数据并在偶数行上排列奇数行的右眼转换数据,产生转换后的3D图像数据。
6.根据权利要求1所述的图像处理方法,其中所述步骤(D)包括以下步骤:
通过在第N帧的奇数行上排列奇数行的左眼转换数据、在第N帧的偶数行上排列偶数行的右眼转换数据、在第(N+1)帧的奇数行上排列偶数行的左眼转换数据、并且在第(N+1)帧的偶数行上排列奇数行的右眼转换数据,产生转换后的3D图像数据,
其中N是自然数。
7.一种图像处理器,所述图像处理器包括:
边缘转换器,所述边缘转换器配置成将左眼图像数据转换为左眼边缘数据,并将右眼图像数据转换为右眼边缘数据;
文本区域检测器,所述文本区域检测器配置成通过分别分析所述左眼边缘数据和所述右眼边缘数据,提取与左眼图像的文本区域对应的左眼坐标和与右眼图像的文本区域对应的右眼坐标;
数据转换器,所述数据转换器配置成通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;
3D格式化器,所述3D格式化器配置成通过根据3D格式化方法转换所述左眼转换数据和所述右眼转换数据,产生3D图像数据,
所述文本区域检测器包括:
量化处理器,所述量化处理器配置成通过将大于边缘数据阈值的左眼边缘数据和右眼边缘数据转换为最大灰度级并将小于等于所述边缘数据阈值的左眼边缘数据和右眼边缘数据转换为最小灰度级,产生左眼量化数据和右眼量化数据;
文本区域扩展单元,所述文本区域扩展单元配置成在以第一掩模的尺寸移动所述第一掩模的同时,将所述左眼量化数据和所述右眼量化数据转换为左眼量化扩展数据和右眼量化扩展数据,其中所述第一掩模为水平掩模;
文本区域处理器,所述文本区域处理器配置成在以第二掩模的尺寸移动所述第二掩模并以第三掩模的掩模尺寸移动所述第三掩模的同时,将所述左眼量化扩展数据和所述右眼量化扩展数据转换为左眼检测数据和右眼检测数据,其中所述第二掩模为水平掩模,并且所述第三掩模为垂直掩模;和
坐标提取器,所述坐标提取器配置成提取具有所述最大灰度级的所述左眼检测数据和具有所述最大灰度级的所述右眼检测数据,其中提取出的左眼检测数据的坐标定义为所述左眼坐标,并且提取出的右眼检测数据的坐标定义为所述右眼坐标,
所述文本区域扩展单元配置成:
在移动所述第一掩模之前,在所述左眼量化数据和所述右眼量化数据上设置所述第一掩模;和
通过将所述第一掩模中包含的所有左眼量化数据和所有右眼量化数据转换为所述第一掩模中包含的所有左眼量化数据和所有右眼量化数据之中的最大值,产生所述左眼量化扩展数据和所述右眼量化扩展数据,以及
所述文本区域处理器配置成:
在移动所述第二掩模之前,在所述左眼量化扩展数据和所述右眼量化扩展数据上设置所述第二掩模;
如果所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据具有最大灰度级值,则保持所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据;
如果所述第二掩模中包含的任意一个左眼量化扩展数据或任意一个右眼量化扩展数据具有最小灰度级值,则将所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据转换为所述最小灰度级值;
在移动所述第三掩模之前,在所述左眼量化扩展数据和所述右眼量化扩展数据上设置所述第三掩模;
如果所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据具有最大灰度级值,则保持所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据;和
如果所述第三掩模中包含的任意一个左眼量化扩展数据或任意一个右眼量化扩展数据具有最小灰度级值,则将所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据转换为所述最小灰度级值。
8.根据权利要求7所述的图像处理器,其中图像的复杂度越高,所述第二掩模的尺寸和所述第三掩模的尺寸越大。
9.根据权利要求7所述的图像处理器,其中所述数据转换器配置成:
如果所述左眼坐标为坐标(a,b)且所述右眼坐标为坐标(c,d),
则将对应于所述坐标(a,b)的左眼图像数据转换为所述对应于所述坐标(a,b)的左眼图像数据和对应于坐标(a-1,b)的左眼图像数据的平均值,并将对应于所述坐标(c,d)的右眼图像数据转换为所述对应于所述坐标(c,d)的右眼图像数据和对应于坐标(c-1,d)的右眼图像数据的平均值,
其中a、b、c和d每个都是自然数,并且a和c每个都大于1。
10.根据权利要求7所述的图像处理器,其中所述数据转换器配置成:
如果所述左眼坐标为坐标(a,b)且所述右眼坐标为坐标(c,d),
则当所述坐标(a,b)在奇数行上时,将对应于坐标(a,b)的左眼图像数据转换为所述对应于坐标(a,b)的左眼图像数据和对应于坐标(a+1,b)的左眼图像数据的平均值,而当所述坐标(c,d)在奇数行上时,将所述对应于所述坐标(c,d)的右眼图像数据转换为所述对应于所述坐标(c,d)的右眼图像数据和对应于坐标(c+1,d)的右眼图像数据的平均值;和
当所述坐标(a,b)在偶数行上时,将对应于所述坐标(a,b)的左眼图像数据转换为所述对应于所述坐标(a,b)的左眼图像数据和对应于坐标(a-1,b)的左眼图像数据的平均值,而当所述坐标(c,d)在偶数行上时,将对应于所述坐标(c,d)的右眼图像数据转换为所述对应于所述坐标(c,d)的右眼图像数据和对应于坐标(c-1,d)的右眼图像数据的平均值,
其中a、b、c和d每个都是自然数,并且a和c每个都大于1。
11.根据权利要求7所述的图像处理器,其中所述3D格式化器配置成:
通过在奇数行上排列奇数行的左眼转换数据并在偶数行上排列偶数行的右眼转换数据,产生转换后的3D图像数据,或者
通过在奇数行上排列偶数行的左眼转换数据并在偶数行上排列奇数行的右眼转换数据,产生转换后的3D图像数据。
12.根据权利要求7所述的图像处理器,其中所述3D格式化器配置成:通过在第N帧的奇数行上排列奇数行的左眼转换数据、在第N帧的偶数行上排列偶数行的右眼转换数据、在第(N+1)帧的奇数行上排列偶数行的左眼转换数据、并且在第(N+1)帧的偶数行上排列奇数行的右眼转换数据,产生转换后的3D图像数据,
其中N是自然数。
13.一种立体图像显示装置,所述立体图像显示装置包括:
显示面板,所述显示面板包括扫描线和数据线;
图像处理器,所述图像处理器配置成通过检测图像的文本区域并提高所述文本区域的可读性来提供转换后的3D图像数据;
数据驱动器,所述数据驱动器配置成将所述转换后的3D图像数据转换为数据电压并将所述数据电压提供给所述数据线;和
栅极驱动器,所述栅极驱动器配置成给所述栅极线按顺序地提供与所述数据电压同步的栅极脉冲,
其中所述图像处理器包括:
边缘转换器,所述边缘转换器配置成将左眼图像数据转换为左眼边缘数据,并将右眼图像数据转换为右眼边缘数据;
文本区域检测器,所述文本区域检测器配置成通过分别分析所述左眼边缘数据和所述右眼边缘数据,提取与左眼图像的文本区域对应的左眼坐标和与右眼图像的文本区域对应的右眼坐标;
数据转换器,所述数据转换器配置成通过将对应于左眼坐标的左眼图像数据转换为所述对应于左眼坐标的左眼图像数据和与所述对应于左眼坐标的左眼图像数据相邻的另一个左眼图像数据的平均值,产生左眼转换数据,并通过将对应于右眼坐标的右眼图像数据转换为所述对应于右眼坐标的右眼图像数据和与所述对应于右眼坐标的右眼图像数据相邻的另一个右眼图像数据的平均值,产生右眼转换数据;和
3D格式化器,所述3D格式化器配置成通过根据3D格式化方法转换所述左眼转换数据和所述右眼转换数据,产生3D图像数据,
所述文本区域检测器包括:
量化处理器,所述量化处理器配置成通过将大于边缘数据阈值的左眼边缘数据和右眼边缘数据转换为最大灰度级并将小于等于所述边缘数据阈值的左眼边缘数据和右眼边缘数据转换为最小灰度级,产生左眼量化数据和右眼量化数据;
文本区域扩展单元,所述文本区域扩展单元配置成在以第一掩模的尺寸移动所述第一掩模的同时,将所述左眼量化数据和所述右眼量化数据转换为左眼量化扩展数据和右眼量化扩展数据,其中所述第一掩模为水平掩模;
文本区域处理器,所述文本区域处理器配置成在以第二掩模的尺寸移动所述第二掩模并以第三掩模的掩模尺寸移动所述第三掩模的同时,将所述左眼量化扩展数据和所述右眼量化扩展数据转换为左眼检测数据和右眼检测数据,其中所述第二掩模为水平掩模,并且所述第三掩模为垂直掩模;和
坐标提取器,所述坐标提取器配置成提取具有所述最大灰度级的所述左眼检测数据和具有所述最大灰度级的所述右眼检测数据,其中提取出的左眼检测数据的坐标定义为所述左眼坐标,并且提取出的右眼检测数据的坐标定义为所述右眼坐标,
所述文本区域扩展单元配置成:
在移动所述第一掩模之前,在所述左眼量化数据和所述右眼量化数据上设置所述第一掩模;和
通过将所述第一掩模中包含的所有左眼量化数据和所有右眼量化数据转换为所述第一掩模中包含的所有左眼量化数据和所有右眼量化数据之中的最大值,产生所述左眼量化扩展数据和所述右眼量化扩展数据,以及
所述文本区域处理器配置成:
在移动所述第二掩模之前,在所述左眼量化扩展数据和所述右眼量化扩展数据上设置所述第二掩模;
如果所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据具有最大灰度级值,则保持所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据;
如果所述第二掩模中包含的任意一个左眼量化扩展数据或任意一个右眼量化扩展数据具有最小灰度级值,则将所述第二掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据转换为所述最小灰度级值;
在移动所述第三掩模之前,在所述左眼量化扩展数据和所述右眼量化扩展数据上设置所述第三掩模;
如果所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据具有最大灰度级值,则保持所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据;和
如果所述第三掩模中包含的任意一个左眼量化扩展数据或任意一个右眼量化扩展数据具有最小灰度级值,则将所述第三掩模中包含的所有左眼量化扩展数据或所有右眼量化扩展数据转换为所述最小灰度级值。
CN201210243510.2A 2011-07-14 2012-07-13 图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置 Expired - Fee Related CN102883177B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110070071A KR101829459B1 (ko) 2011-07-14 2011-07-14 영상처리방법과 이를 이용한 입체영상 표시장치
KR10-2011-0070071 2011-07-14

Publications (2)

Publication Number Publication Date
CN102883177A CN102883177A (zh) 2013-01-16
CN102883177B true CN102883177B (zh) 2014-11-19

Family

ID=47484291

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210243510.2A Expired - Fee Related CN102883177B (zh) 2011-07-14 2012-07-13 图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置

Country Status (4)

Country Link
US (1) US9137510B2 (zh)
JP (1) JP5496276B2 (zh)
KR (1) KR101829459B1 (zh)
CN (1) CN102883177B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105467590A (zh) * 2014-09-29 2016-04-06 霍尼韦尔国际公司 用于平视显示器的高透射比眼镜

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
US9081195B2 (en) * 2012-08-13 2015-07-14 Innolux Corporation Three-dimensional image display apparatus and three-dimensional image processing method
CN103686141B (zh) * 2013-12-30 2016-08-17 京东方科技集团股份有限公司 3d显示方法及3d显示装置
US9606355B2 (en) 2014-09-29 2017-03-28 Honeywell International Inc. Apparatus and method for suppressing double images on a combiner head-up display
KR102324867B1 (ko) * 2015-09-25 2021-11-12 엘지디스플레이 주식회사 텍스트 검출 방법 및 이를 이용한 표시장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1816160A (zh) * 2005-02-04 2006-08-09 三星电子株式会社 根据输入图像特性创建立体图像及其再现的方法及设备
CN1917560A (zh) * 2006-09-08 2007-02-21 南京大学 图像缩放器中抗边缘锯齿噪声的方法
CN101888564A (zh) * 2009-05-15 2010-11-17 乐金显示有限公司 图像显示设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0413370A (ja) * 1990-05-01 1992-01-17 Canon Inc 画像処理装置
JPH11102438A (ja) * 1997-09-26 1999-04-13 Minolta Co Ltd 距離画像生成装置及び画像表示装置
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
JP2002252764A (ja) * 2001-02-26 2002-09-06 Matsushita Graphic Communication Systems Inc 画像処理装置及び画像処理方法
US20030198386A1 (en) * 2002-04-19 2003-10-23 Huitao Luo System and method for identifying and extracting character strings from captured image data
JP4228646B2 (ja) * 2002-10-02 2009-02-25 株式会社セガ 立体視画像生成方法および立体視画像生成装置
JP2004208117A (ja) * 2002-12-26 2004-07-22 Nec Engineering Ltd 字幕合成時における画質劣化検知システム
JP3852934B2 (ja) * 2003-05-20 2006-12-06 株式会社バンダイナムコゲームス 画像処理システム、プログラム及び情報記憶媒体
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
KR100898287B1 (ko) * 2005-07-05 2009-05-18 삼성모바일디스플레이주식회사 입체 영상 표시 장치
JP2009049751A (ja) * 2007-08-21 2009-03-05 Toshiba Corp 立体画像表示装置
JP5225662B2 (ja) 2007-11-21 2013-07-03 三桜工業株式会社 車両配管用鋼管
JP5257243B2 (ja) * 2009-05-28 2013-08-07 株式会社Jvcケンウッド 立体映像表示装置および立体映像表示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1816160A (zh) * 2005-02-04 2006-08-09 三星电子株式会社 根据输入图像特性创建立体图像及其再现的方法及设备
CN1917560A (zh) * 2006-09-08 2007-02-21 南京大学 图像缩放器中抗边缘锯齿噪声的方法
CN101888564A (zh) * 2009-05-15 2010-11-17 乐金显示有限公司 图像显示设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于边缘和纹理的文本定位算法的研究;马海清;《中国优秀硕士学位论文全文数据库 信息科技辑》;20090331;第2章第10-13页,图2-4 *
马海清.基于边缘和纹理的文本定位算法的研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2009,I138-765. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105467590A (zh) * 2014-09-29 2016-04-06 霍尼韦尔国际公司 用于平视显示器的高透射比眼镜

Also Published As

Publication number Publication date
KR20130009173A (ko) 2013-01-23
US20130016095A1 (en) 2013-01-17
CN102883177A (zh) 2013-01-16
JP2013027041A (ja) 2013-02-04
US9137510B2 (en) 2015-09-15
JP5496276B2 (ja) 2014-05-21
KR101829459B1 (ko) 2018-02-14

Similar Documents

Publication Publication Date Title
CN103002303B (zh) 立体图像显示装置及其驱动方法
CN102883177B (zh) 图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置
US8743111B2 (en) Stereoscopic image display and method for driving the same
KR101869872B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
CN102905153A (zh) 立体图像显示装置及其驱动方法
CN102760418A (zh) 立体图像显示装置及其驱动方法
CN102625114A (zh) 显示3d图像的方法和设备以及区分3d图像的设备和方法
KR101840876B1 (ko) 입체영상 표시장치와 그 구동방법
KR101763942B1 (ko) 입체영상표시장치
CN102752482B (zh) 去除立体图像的锯齿的方法及使用其的立体图像显示装置
KR102126532B1 (ko) 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
US9092871B2 (en) Image processing method and stereoscopic image display device using the same
KR101894090B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR20160024283A (ko) 렌티큘러 렌즈 방식의 입체영상표시장치
CN102547345B (zh) 立体图像显示器
KR101870233B1 (ko) 3d 화질개선방법과 이를 이용한 입체영상 표시장치
KR101843198B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101829466B1 (ko) 입체영상 표시장치
KR20130061287A (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101863140B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
KR101980352B1 (ko) 입체영상 표시장치와 그 구동방법
KR101957975B1 (ko) 디스패러티 산출방법과 이를 이용한 입체영상 표시장치
KR20130028345A (ko) 재깅 검출방법과 이를 이용한 입체영상 표시장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141119

Termination date: 20200713

CF01 Termination of patent right due to non-payment of annual fee