CN107742631B - 深度摄像器件及制造方法、显示面板及制造方法、装置 - Google Patents

深度摄像器件及制造方法、显示面板及制造方法、装置 Download PDF

Info

Publication number
CN107742631B
CN107742631B CN201711013369.6A CN201711013369A CN107742631B CN 107742631 B CN107742631 B CN 107742631B CN 201711013369 A CN201711013369 A CN 201711013369A CN 107742631 B CN107742631 B CN 107742631B
Authority
CN
China
Prior art keywords
substrate
layer
forming
photosensitive
collimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711013369.6A
Other languages
English (en)
Other versions
CN107742631A (zh
Inventor
王鹏鹏
王海生
丁小梁
郑智仁
韩艳玲
李扬冰
曹学友
刘伟
张平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201711013369.6A priority Critical patent/CN107742631B/zh
Publication of CN107742631A publication Critical patent/CN107742631A/zh
Priority to US16/169,698 priority patent/US10866648B2/en
Application granted granted Critical
Publication of CN107742631B publication Critical patent/CN107742631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Electroluminescent Light Sources (AREA)

Abstract

本发明提供一种深度摄像器件及其制造方法、显示面板及其制造方法、装置,该深度摄像器件制造方法包括:在基板上形成深度摄像头的接收单元的红外光敏器件;在该基板上的第一像素定义层上形成该深度摄像头的衍射单元的红外发光器件;在红外光敏器件和红外发光器件上形成封装层,并在封装层上形成第一光敏胶层;在第一光敏胶层上形成衍射单元的准直器件,准直器件和红外发光器件在基板上的正投影部分重叠;在准直器件上形成绝缘层,并在绝缘层上形成第二光敏胶层;在第二光敏胶层上形成衍射单元的衍射光学器件,衍射光学器件和准直器件在基板上的正投影重叠。本发明通过在基板上集成小型化的深度摄像头,从而实现了通过较低成本进行深度信息采集。

Description

深度摄像器件及制造方法、显示面板及制造方法、装置
技术领域
本申请涉及显示装置技术领域,具体涉及一种深度摄像器件及其制造方法、显示面板及其制造方法、装置。
背景技术
随着3D技术的发展,立体显示、机器视觉、卫星遥感等方面的技术应用越来越多地需要获取场景的深度信息,目前通常采用的技术手段是利用深度相机获取相机视野内目标的深度信息。
目前深度相机主要有三种架构,分别为双目立体视觉法、飞行时间法(TOF)和结构光法。
双目立体视觉法使用两个镜头的立体视觉进行场景深度的测量,相机发射光波照射三维场景,光波经过三维场景反射后回到深度相机。根据光波的发射时间和反射光波的接收时间之间的时间差(即相位差)获取三维场景的深度信息。
结构光法(Structured Light)的基本原理是由结构光投射器向被测物体表面投射可控制的光点、光条或光面结构,并由图像传感器(如摄像机)获得图像,通过系统几何关系,利用三角原理计算得到物体的三维坐标。
现有的深度相机难以普及应用的一个原因在于,因其复杂的光学器件和电子器件,通常难以小型化,并且价格昂贵,难以被普通消费者接受。
图1为一种现有的采用结构光法的深度相机进行手势识别的原理示意图。如图1所示,该深度相机需要两个核心部件,一个为投射结构光的投影设备101,另一个为接收打到物体103上的结构光以后反射回光线的摄像设备102。该过程中,投影设备101投射的为一个线结构光,但实际中可能出现各种各样的图样,例如条纹或者散点云等。通过计算摄像设备102接收到的编码结构光信息的形变或者位移相对变化从而反推出物体103的空间坐标。该二个核心部件通常以两个模组器件的形态出现,同时通常难以实现小型化,使得成本相对较高,并且使用不够灵活。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种集成小型化的深度摄像头以实现通过较低成本进行深度信息采集的深度摄像器件及其制造方法、显示面板及其制造方法、装置。
第一方面,本发明提供一种深度摄像器件制造方法,包括:
在基板上形成深度摄像头的接收单元的红外光敏器件;
在该基板上的第一像素定义层上形成该深度摄像头的衍射单元的红外发光器件;
在红外光敏器件和红外发光器件上形成封装层,并在封装层上形成第一光敏胶层;
在第一光敏胶层上形成衍射单元的准直器件,准直器件和红外发光器件在基板上的正投影部分重叠;
在准直器件上形成绝缘层,并在绝缘层上形成第二光敏胶层;
在第二光敏胶层上形成衍射单元的衍射光学器件(Diffractive OpticalElements,简称DOE),衍射光学器件和准直器件在基板上的正投影重叠。
第二方面,本发明提供一种显示面板制造方法,包括上述深度摄像器件制造方法,还包括:
形成红外发光器件的同时在基板上的第二像素定义层上形成显示单元的发光器件。
第三方面,本发明提供一种深度摄像器件,该深度摄像器件的基板上设有深度摄像头,该深度摄像头包括一个接收单元和若干衍射单元。
其中,接收单元包括:
红外光敏器件,位于该基板上。
衍射单元包括:
红外发光器件,位于该基板上的第一像素定义层上;
准直器件,位于第一光敏胶层上;第一光敏胶层位于封装层上,封装层位于红外光敏器件和红外发光器件上,准直器件和红外发光器件在基板上的正投影部分重叠;
衍射光学器件(Diffractive Optical Elements,简称DOE),位于第二光敏胶层上;第二光敏胶层位于绝缘层上,绝缘层位于准直器件上,衍射光学器件和准直器件在基板上的正投影重叠。
第四方面,本发明提供一种显示面板,包括上述深度摄像器件,上述基板上还设有显示单元,深度摄像器件位于显示单元的周边区域。
第五方面,本发明还提供一种装置,包括上述深度摄像器件或上述显示面板。
本发明诸多实施例提供的深度摄像器件及其制造方法、显示面板及其制造方法、装置通过在基板上集成小型化的深度摄像头,从而实现了通过较低成本进行深度信息采集;
本发明一些实施例提供的显示面板及其制造方法、装置进一步通过在制作显示单元的同时同步制作该深度摄像头,进一步降低了成本;
本发明一些实施例提供的深度摄像器件及其制造方法、显示面板及其制造方法、装置进一步通过配置具有特定形状和相对应的衍射结构的准直器件和DOE,实现了将光学器件小型化以集成在显示面板中,降低了显示面板的厚度;
本发明一些实施例提供的深度摄像器件、显示面板和装置进一步通过在深度摄像头中配置多个衍射单元,减少了深度信息的采集盲区;
本发明一些实施例提供的深度摄像器件、显示面板和装置进一步通过以时分复用的方式逐一采集各衍射单元所衍射的空间,避免了同时对重叠空间进行采集所产生的干扰。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为一种现有的采用结构光法的深度相机进行手势识别的原理示意图。
图2为本发明一实施例提供的一种深度摄像器件制造方法的流程图。
图3为图2所示方法的制造流程示意图。
图4为图2所示方法的一种优选实施方式的流程图。
图5为本发明一实施例提供的一种深度摄像器件的结构示意图。
图6为本发明一优选实施例中准直器件的俯视图。
图7为本发明一优选实施例中DOE的俯视图。
图8为本发明一实施例提供的一种显示面板的结构示意图。
图9为本发明一优选实施例中显示面板的结构示意图。
图10为本发明另一优选实施例中显示面板的结构示意图。
附图标号:101-投影设备,102-摄像设备,103-物体,401-底膜,402-阵列基板,403、803、903-衍射单元,404、802、902-接收单元,405-显示单元,406-阻水层,407-平坦层,408-光敏胶层,409-绝缘层,4031-红外发光器件,4032-准直器件,4033-衍射光学器件,4041-红外光敏器件,4042-聚光器件,4051-发光器件,41-手部,801、901-RGB摄像头。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图2为本发明一实施例提供的一种深度摄像器件制造方法的流程图。
如图2所示,在本实施例中,本发明提供的一种深度摄像器件制造方法包括:
S21:在基板上形成深度摄像头的接收单元的红外光敏器件;
S22:在该基板上的第一像素定义层上形成该深度摄像头的衍射单元的红外发光器件;
S23:在红外光敏器件和红外发光器件上形成封装层,并在封装层上形成第一光敏胶层;
S24:在第一光敏胶层上形成衍射单元的准直器件,准直器件和红外发光器件在基板上的正投影部分重叠;
S25:在准直器件上形成绝缘层,并在绝缘层上形成第二光敏胶层;
S26:在第二光敏胶层上形成衍射单元的衍射光学器件(Diffractive OpticalElements,简称DOE),衍射光学器件和准直器件在基板上的正投影重叠。
图3为图2所示方法的制造流程示意图。
如图2和图3所示,在步骤S21中,制造完阵列基板402后,在基板402上制作接收单元的红外光敏器件4041。在本实施例中,红外光敏器件具体配置为能同时检测红外光和可见光的有机光敏二极管(OPD),在更多实施例中,也可将其配置为不同的红外传感器,只要该红外传感器的大小不影响显示面板的集成,可实现相同的技术效果。
在步骤S22中,在基板402上的第一像素定义层上形成衍射单元的红外发光器件4031。具体地,基板402上可以设置一个或多个第一像素定义层。在本实施例中,红外发光器件具体配置为红外电致发光器件(红外EL),在更多实施例中,也可将其配置为不同的红外发光器件,只要该红外发光器件的大小不影响显示面板的集成,即可实现相同的技术效果。此外,根据实际配置的不同工艺设备、不同工艺流程,也可分步进行上述蒸镀工艺和红外发光器件的制作。
在步骤S23中,在红外光敏器件4041和红外发光器件4031上形成封装层,并在封装层上形成第一光敏胶层408。具体地,在本实施例中,封装层包括两层阻水层和位于两层阻水层之间的平坦层,步骤S23包括:在红外光敏器件4041和红外发光器件4031上形成第一阻水层406,在第一阻水层上形成平坦层407,在平坦层407上形成第二阻水层406,以及,在第二阻水层406上形成第一光敏胶层408。在更多实施例中,还可根据实际需求将封装层配置成本领域常用的不同封装层结构,并在步骤S23中配置相应的制造工艺,可实现相同的技术效果。
在步骤S24中,在第一光敏胶层408上形成衍射单元的准直器件4032,准直器件4032和红外发光器件4031在基板402上的正投影部分重叠。
具体地,在本实施例中,步骤S23所制作的准直器件4032的表面为一种具有相位波带的衍射结构,准直器件4032垂直于基板402方向的截面为若干阶梯形状,阶梯高度为um量级,平行于基板402方向的截面为不规则形状。该准直器件4032由遮光金属材料组成,具体可以采用钼(Mo)、钛(Ti)、铝(Al)、银(Ag)、氧化铟锡(ITO)中任意一种材料。
在步骤S25中,完成准直器件4032的制作后,在准直器件上形成绝缘层409,并在绝缘层409上形成第二光敏胶层408。在更多实施例中,可根据实际配置的不同工艺在准直器件和衍射光学器件之间配置不同的材质和组件,可实现相同的技术效果。
在步骤S26中,在第二光敏胶层408上形成衍射单元的衍射光学器件4033,衍射光学器件4033和准直器件4032在基板402上的正投影重叠。
具体地,在本实施例中,衍射光学器件4033的表面具有对应于上述相位波带的相位分布,其垂直于基板402方向的截面为若干阶梯形状,平行于基板402方向的截面为不规则形状。
在本实施例中,步骤S24和步骤S26通过制作具有特定形状和相对应的衍射结构的准直器件和DOE,实现了将光学器件小型化以集成在显示面板中,降低了显示面板的厚度。在更多实施例中,还可通过配置不同的光学设计模型制作不同形状的准直器件和DOE,例如将纵向剖面设计成不规则形状等,只要能实现将光学器件小型化以集成在显示面板中,可实现相同的技术效果。
上述实施例通过在基板上集成小型化的深度摄像头,从而实现了通过较低成本进行深度信息采集;并进一步通过配置具有特定形状和相对应的衍射结构的准直器件和DOE,实现了将光学器件小型化以集成在显示面板中,降低了显示面板的厚度。
图4为图2所示方法的一种优选实施方式的流程图。如图4所示,在一优选实施例中,上述方法还包括:
S27:在第二光敏胶层上形成接收单元的聚光器件,该聚光器件和红外光敏器件在基板上的正投影部分重叠。
具体地,在本实施例中,聚光器件为棱镜膜,在更多实施例中还可配置为不同类型的聚光膜,乃至凸透镜等不同的聚光器件。
优选地,为保障聚光效果,可以在第二光敏胶层上形成第三光敏胶层,并在第三光敏胶层上形成上述聚光器件。该第三光敏胶层与聚光器件在基板上的正投影重叠。
本发明还提供一种显示面板制造方法,与上述各实施例阐述的深度摄像器件的制造方法的区别仅在于,在基板上制造深度摄像头的同时还同步制造显示单元。
具体地,该显示面板制造方法还包括:形成红外发光器件的同时在基板上的第二像素定义层上形成显示单元的发光器件。其中,各第一像素定义层设置在各第二像素定义层的周边区域。
在本实施例中,该发光器件具体配置为电致发光器件(EL),在更多实施例中,同样可将其配置为不同的发光器件。
在本实施例的步骤S23中,在红外发光器件、红外光敏器件和发光器件上依次形成第一阻水层、平坦层、第二阻水层和第一光敏胶层。在更多实施例中,可根据实际配置的不同工艺在红外发光器件和准直器件之间配置不同的材质和组件,可实现相同的技术效果。
图5为本发明一实施例提供的一种深度摄像器件的结构示意图。图5所示的深度摄像器件可通过上述任一实施例提供的深度摄像器件制造方法制造获得。
如图5所示,在本实施例中,本发明提供一种深度摄像器件,该深度摄像器件的基板402上设有深度摄像头,该深度摄像头包括一个接收单元404和若干衍射单元403。
其中,接收单元404包括:位于基板402上的红外光敏器件4041。
衍射单元403包括:
红外发光器件4031,位于基板402上的第一像素定义层上;
准直器件4032,位于第一光敏胶层408上;第一光敏胶层408位于封装层上,封装层位于红外光敏器件4041和红外发光器件4031上,准直器件4032和红外发光器件4031在基板402上的正投影部分重叠;
衍射光学器件4033,位于第二光敏胶层408上;第二光敏胶层408位于绝缘层409上,绝缘层409位于准直器件4032上,衍射光学器件4033和准直器件4032在基板402上的正投影重叠。
具体地,在本实施例中,红外光敏器件4041为能同时检测红外光和可见光的有机光敏二极管(OPD),红外发光器件4031为红外电致发光器件(红外EL),在更多实施例中可根据实际需求配置为不同器件,只要能实现相同的功能并不影响显示面板的集成,即可实现相同的技术效果。
以手势识别为例,红外发光器件4031发射的红外光通过准直器件4032形成平行光,再通过衍射光学器件4033后形成散点云图的衍射,当手部41出现在屏幕上方的衍射空间中,即会在手部41上产生散点图案,接收单元404的红外光敏器件4041通过接收红外光采集到该散点图案,以供处理器解码并最终识别手势。除手势识别外,本实施例提供的显示面板同样可以应用于其它不同类型的深度信息采集和应用。
在一优选实施例中,接收单元还包括:聚光器件,位于第二光敏胶层上,聚光器件和红外光敏器件在基板上的正投影部分重叠。
优选地,同样如图5所示,为保障聚光效果,还可以在第二光敏胶层408上形成第三光敏胶层,并在第三光敏胶层上形成聚光器件4042。该第三光敏胶层与聚光器件4042在基板402上的正投影重叠。
在本实施例中,聚光器件为棱镜膜,在更多实施例中还可配置为不同类型的聚光膜,乃至凸透镜等不同的聚光器件。
图6为本发明一优选实施例中准直器件的俯视图。图7为本发明一优选实施例中DOE的俯视图。
如图5-7所示,在一优选实施例中,准直器件4032的表面为一种具有相位波带的衍射结构,其垂直于基板402方向的截面为若干阶梯形状,平行于基板402方向的截面为不规则形状;
衍射光学器件4033的表面具有对应于上述相位波带的相位分布,其垂直于基板402方向的为若干阶梯形状,平行于基板402方向的截面为不规则形状。
图8为本发明一实施例提供的一种显示面板的结构示意图。
如图8所示,本发明还提供一种显示面板,该显示面板与上述各实施例提供的深度摄像器件的区别仅在于,基板402上同时还设有显示单元405。
具体地,基板402上在衍射单元403的区域设有若干第一像素定义层(PDL),并在显示单元405的区域设有若干第二像素定义层,衍射单元403的红外发光器件4031和显示单元405的发光器件4051分别设置在第一像素定义层和第二像素定义层上。
图9为本发明一优选实施例中显示面板的结构示意图。图10为本发明另一优选实施例中显示面板的结构示意图。
如图9所示,在一些实施例中,显示面板中配置有单个衍射单元803。由于单个衍射单元的衍射空间范围为一个倒梯形体,会导致深度信息的采集存在盲区,影响用户体验,因此在另一些实施例中,如图10所示,可以通过显示面板中配置多个衍射单元903来解决该问题。
上述实施例进一步通过在深度摄像头中配置多个衍射单元,减少了深度信息的采集盲区。
然后配置多个衍射单元带来了新的问题,即各衍射单元的衍射空间范围存在重叠,会对接收单元的图像采集造成干扰。
因此,在一优选实施例中,通过将该深度摄像头配置为以时分复用的方式逐一采集各衍射单元所衍射的空间,以解决衍射空间范围存在重叠导致的图像采集干扰问题。
上述实施例进一步通过以时分复用的方式逐一采集各衍射单元所衍射的空间,避免了同时对重叠空间进行采集所产生的干扰。
本发明还提供了一种装置,包括上述任一实施例所提供的深度摄像器件或显示面板。该装置可以为:电子纸、手机、平板电脑、电视机、显示器、笔记本电脑、数码相框、导航仪等任何具有集成深度摄像头需求的产品或部件。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这根据所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以通过执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以通过专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,例如,各所述单元可以是设置在计算机或移动智能设备中的软件程序,也可以是单独配置的硬件装置。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离本申请构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种深度摄像器件制造方法,其特征在于,包括:
在基板上形成深度摄像头的接收单元的红外光敏器件;
在所述基板上的第一像素定义层上形成所述深度摄像头的衍射单元的红外发光器件;
在所述红外光敏器件和所述红外发光器件上形成封装层,并在所述封装层上形成第一光敏胶层;
在所述第一光敏胶层上形成所述衍射单元的准直器件,所述准直器件和所述红外发光器件在所述基板上的正投影部分重叠;
在所述准直器件上形成绝缘层,并在所述绝缘层上形成第二光敏胶层;
在所述第二光敏胶层上形成所述衍射单元的衍射光学器件,所述衍射光学器件和所述准直器件在所述基板上的正投影重叠。
2.根据权利要求1所述的方法,其特征在于,还包括:
在所述第二光敏胶层上形成所述接收单元的聚光器件,所述聚光器件和所述红外光敏器件在所述基板上的正投影部分重叠。
3.根据权利要求1所述的方法,其特征在于,所述在所述准直器件上形成绝缘层,并在所述绝缘层上形成第二光敏胶层包括:
在所述准直器件上形成第一阻水层;
在所述第一阻水层上形成平坦层;
在所述平坦层上形成第二阻水层;以及,
在所述第二阻水层上形成第二光敏胶层。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述准直器件的表面为一种具有相位波带的衍射结构,所述准直器件垂直于所述基板的截面为阶梯形状,平行于所述基板的截面为不规则形状;
所述衍射光学器件的表面具有对应于所述相位波带的相位分布,所述衍射光学器件垂直于所述基板的截面为阶梯形状,平行于所述基板的截面为不规则形状。
5.一种显示面板制造方法,其特征在于,包括如权利要求1-4任一项所述的深度摄像器件制造方法,还包括:
形成所述红外发光器件的同时在所述基板上的与第一像素定义层同层形成的第二像素定义层上形成显示单元的发光器件。
6.一种深度摄像器件,其特征在于,基板上设有深度摄像头,所述深度摄像头包括一个接收单元和若干衍射单元;
所述接收单元包括:
红外光敏器件,位于所述基板上;
所述衍射单元包括:
红外发光器件,位于所述基板上的第一像素定义层上;
准直器件,位于第一光敏胶层上;所述第一光敏胶层位于封装层上,所述封装层位于所述红外光敏器件和所述红外发光器件上,所述准直器件和所述红外发光器件在所述基板上的正投影部分重叠;
衍射光学器件,位于第二光敏胶层上;所述第二光敏胶层位于绝缘层上,所述绝缘层位于所述准直器件上,所述衍射光学器件和所述准直器件在所述基板上的正投影重叠。
7.根据权利要求6所述的深度摄像器件,其特征在于,所述接收单元还包括:
聚光器件,位于所述第二光敏胶层上,所述聚光器件和所述红外光敏器件在所述基板上的正投影部分重叠。
8.根据权利要求6所述的深度摄像器件,其特征在于,所述准直器件的表面为一种具有相位波带的衍射结构,所述准直器件垂直于所述基板的截面为阶梯形状,平行于所述基板的截面为不规则形状;
所述衍射光学器件的表面具有对应于所述相位波带的相位分布,所述衍射光学器件垂直于所述基板的截面为阶梯形状,平行于所述基板的截面为不规则形状。
9.一种显示面板,其特征在于,包括如权利要求6-8任一项所述的深度摄像器件,所述基板上还设有显示单元,所述深度摄像器件位于所述显示单元的周边区域。
10.一种装置,其特征在于,包括如权利要求6-8任一项所述的深度摄像器件,或,如权利要求9所述的显示面板。
CN201711013369.6A 2017-10-26 2017-10-26 深度摄像器件及制造方法、显示面板及制造方法、装置 Active CN107742631B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201711013369.6A CN107742631B (zh) 2017-10-26 2017-10-26 深度摄像器件及制造方法、显示面板及制造方法、装置
US16/169,698 US10866648B2 (en) 2017-10-26 2018-10-24 Display substrate and method for manufacturing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711013369.6A CN107742631B (zh) 2017-10-26 2017-10-26 深度摄像器件及制造方法、显示面板及制造方法、装置

Publications (2)

Publication Number Publication Date
CN107742631A CN107742631A (zh) 2018-02-27
CN107742631B true CN107742631B (zh) 2020-02-14

Family

ID=61238225

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711013369.6A Active CN107742631B (zh) 2017-10-26 2017-10-26 深度摄像器件及制造方法、显示面板及制造方法、装置

Country Status (2)

Country Link
US (1) US10866648B2 (zh)
CN (1) CN107742631B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146945B (zh) * 2018-08-02 2021-01-26 京东方科技集团股份有限公司 一种显示面板及显示装置
US11081516B2 (en) * 2018-08-10 2021-08-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Display screen, electronic device and method for three-dimensional feature recognition
CN109061603A (zh) * 2018-08-22 2018-12-21 Oppo广东移动通信有限公司 深度获取模组及电子装置
CN112424673B (zh) * 2018-08-24 2023-01-31 Oppo广东移动通信有限公司 红外投影仪,成像设备和终端设备
CN109379454B (zh) * 2018-09-17 2020-04-17 深圳奥比中光科技有限公司 电子设备
CN109325459B (zh) * 2018-09-30 2021-11-09 京东方科技集团股份有限公司 一种准直光学层和显示面板
CN109545835B (zh) * 2018-12-13 2021-02-09 京东方科技集团股份有限公司 显示基板及其制备方法、显示装置
CN112020697B (zh) * 2019-03-13 2023-08-29 京东方科技集团股份有限公司 触控基板及其驱动方法、触控组件、装置
CN110058742B (zh) * 2019-04-23 2021-01-26 京东方科技集团股份有限公司 显示装置、触摸检测方法及装置
CN112612373B (zh) * 2020-12-22 2023-04-28 湖北长江新型显示产业创新中心有限公司 一种显示面板和显示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN106291958A (zh) * 2016-10-21 2017-01-04 京东方科技集团股份有限公司 一种显示装置及图像显示方法
CN106813110A (zh) * 2015-11-27 2017-06-09 高准精密工业股份有限公司 发光装置
CN106911877A (zh) * 2015-12-23 2017-06-30 高准精密工业股份有限公司 光学装置
CN107210313A (zh) * 2015-02-03 2017-09-26 微软技术许可有限责任公司 具有集成式浅沟槽隔离结构的cmos深度图像传感器

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608360B2 (en) * 2000-12-15 2003-08-19 University Of Houston One-chip micro-integrated optoelectronic sensor
US8094129B2 (en) * 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
BRPI0816148A2 (pt) * 2007-08-31 2015-02-18 Sony Ericsson Mobile Communcations Ab Dispositivo de comunicação portátil, e, dispositivo de visor de entrada de toque.
EP2283383B1 (en) * 2008-04-11 2013-07-17 École Polytechnique Fédérale de Lausanne (EPFL) Time-of-flight based imaging system using a display as illumination source
GB0810179D0 (en) * 2008-06-04 2008-07-09 Elliptic Laboratories As Object location
KR101467509B1 (ko) * 2008-07-25 2014-12-01 삼성전자주식회사 이미지 센서 및 이미지 센서 동작 방법
EP3470963B1 (en) * 2009-07-07 2021-03-10 Elliptic Laboratories AS Control using movements
TW201108332A (en) * 2009-08-27 2011-03-01 Univ Nat Central Package base structure and related manufacturing method
GB0916707D0 (en) * 2009-09-23 2009-11-04 Elliptic Laboratories As Acoustic motion determination
KR101264728B1 (ko) * 2009-10-23 2013-05-15 엘지디스플레이 주식회사 액정 표시 장치
US20130155031A1 (en) * 2010-06-29 2013-06-20 Elliptic Laboratories As User control of electronic devices
US8912480B2 (en) * 2011-08-31 2014-12-16 Apple Inc. Light sensor systems for electronic devices
US8867015B2 (en) * 2012-01-11 2014-10-21 Apple Inc. Displays with liquid crystal shutters
US9070648B2 (en) * 2012-11-27 2015-06-30 Apple Inc. Electronic devices with display-integrated light sensors
US9530381B1 (en) * 2012-12-20 2016-12-27 Amazon Technologies, Inc. Display with light sensor feedback
US20150002734A1 (en) * 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
WO2014188018A1 (es) * 2013-05-21 2014-11-27 BLASCO WHYTE, Isabel Lena Integración monolítica de lentes plenópticas sobre sustratos fotosensores
US9438775B2 (en) * 2013-09-17 2016-09-06 Occipital, Inc. Apparatus for real-time 3D capture
US20150083917A1 (en) * 2013-09-23 2015-03-26 Qualcomm Incorporated Infrared light director for gesture or scene sensing fsc display
US9692968B2 (en) * 2014-07-31 2017-06-27 Invisage Technologies, Inc. Multi-mode power-efficient light and gesture sensing in image sensors
US9778476B2 (en) * 2014-11-03 2017-10-03 Aquifi, Inc. 3D depth sensor and projection system and methods of operating thereof
WO2016125164A2 (en) * 2015-02-05 2016-08-11 Verifood, Ltd. Spectrometry system applications
US9846473B1 (en) * 2015-03-25 2017-12-19 Apple Inc. Display with windows for visible and infrared components
US20170195667A1 (en) * 2015-04-02 2017-07-06 Tai-Kuo CHEN Eyeglasses Structure Enabling Image Enhancement
US9703374B1 (en) * 2015-12-16 2017-07-11 Google, Inc. In-cell gaze tracking for near-eye display
US9804441B2 (en) * 2015-12-22 2017-10-31 Apple Inc. Electronic device optical sensing system with stray light suppression
US9864116B2 (en) * 2015-12-28 2018-01-09 Apple Inc. Electronic devices having infrared-transparent window coatings
US10708573B2 (en) * 2016-01-04 2020-07-07 Occipital, Inc. Apparatus and methods for three-dimensional sensing
US10334184B2 (en) * 2016-09-16 2019-06-25 Apple Inc. Electronic device with light diffuser
US20180184972A1 (en) * 2016-09-22 2018-07-05 Verifood, Ltd. Spectrometry system applications
KR20180050473A (ko) * 2016-11-04 2018-05-15 삼성디스플레이 주식회사 표시 장치
US20180172510A1 (en) * 2016-12-08 2018-06-21 Verifood, Ltd. Spectrometry system applications
US20180213206A1 (en) * 2017-01-26 2018-07-26 Microsoft Technology Licensing, Llc Modifying illumination profile for light source
US10388026B1 (en) * 2017-07-07 2019-08-20 Facebook Technologies, Llc Fast scanning large field-of-view devices for depth sensing
US20190068853A1 (en) * 2017-08-22 2019-02-28 Microsoft Technology Licensing, Llc Structured light and flood fill light illuminator
US10962790B2 (en) * 2017-09-05 2021-03-30 Facebook Technologies, Llc Depth measurement using a pulsed structured light projector
US20190072771A1 (en) * 2017-09-05 2019-03-07 Facebook Technologies, Llc Depth measurement using multiple pulsed structured light projectors
US10440349B2 (en) * 2017-09-27 2019-10-08 Facebook Technologies, Llc 3-D 360 degrees depth projector
CN107749070B (zh) * 2017-10-13 2020-06-02 京东方科技集团股份有限公司 深度信息的获取方法和获取装置、手势识别设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN107210313A (zh) * 2015-02-03 2017-09-26 微软技术许可有限责任公司 具有集成式浅沟槽隔离结构的cmos深度图像传感器
CN106813110A (zh) * 2015-11-27 2017-06-09 高准精密工业股份有限公司 发光装置
CN106911877A (zh) * 2015-12-23 2017-06-30 高准精密工业股份有限公司 光学装置
CN106291958A (zh) * 2016-10-21 2017-01-04 京东方科技集团股份有限公司 一种显示装置及图像显示方法

Also Published As

Publication number Publication date
US10866648B2 (en) 2020-12-15
US20190129510A1 (en) 2019-05-02
CN107742631A (zh) 2018-02-27

Similar Documents

Publication Publication Date Title
CN107742631B (zh) 深度摄像器件及制造方法、显示面板及制造方法、装置
US20200408971A1 (en) Under-screen optical system, design method for diffractive optical element, and electronic device
US20200409163A1 (en) Compensating display screen, under-screen optical system and electronic device
US10656764B2 (en) Touch device and display device
US10401637B2 (en) Micro mirror array, manufacturing method of the micro mirror array, and floating display device including the micro mirror array
US8629389B2 (en) Low profile camera and vision sensor
CN109146945B (zh) 一种显示面板及显示装置
US9454265B2 (en) Integration of a light collection light-guide with a field sequential color display
TW201539012A (zh) 光學成像模組及包含飛行時間感測器之光學偵測模組
RU2608690C2 (ru) Световой проектор и видеосистема для определения расстояния
CN110275606B (zh) 感测元件
US20210234114A1 (en) Electroluminescent display panel and display apparatus
EP3664447A1 (en) Structured light projector, three-dimensional camera module and terminal device
JP7262600B2 (ja) スクリーンアセンブリ及び電子装置
CN105681687B (zh) 图像处理设备以及包括图像处理设备的移动相机
WO2013035553A1 (ja) ユーザインタフェース表示装置
CN110945525A (zh) 用于指纹识别的方法、指纹识别装置和电子设备
CN210324245U (zh) 指纹识别装置
US8847915B2 (en) Light pipe array lens, optical finger navigation device with the lens and method for making the device
US20240127566A1 (en) Photography apparatus and method, electronic device, and storage medium
US9285894B1 (en) Multi-path reduction for optical time-of-flight
KR101698779B1 (ko) 마이크로 미러 어레이 및 그 제조 방법, 그리고 이러한 마이크로 미러 어레이를 포함하는 플로팅 디스플레이
CN112965242B (zh) 一种屏下散斑投射模组、设计方法、显示设备及终端设备
CN112335049A (zh) 成像组件、触摸屏、摄像模组、智能终端、相机和距离测量方法
JP2017158148A (ja) 撮像モジュール、撮像装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant