CN115550716A - 一种显示设备和颜色混色显示方法 - Google Patents
一种显示设备和颜色混色显示方法 Download PDFInfo
- Publication number
- CN115550716A CN115550716A CN202210127412.6A CN202210127412A CN115550716A CN 115550716 A CN115550716 A CN 115550716A CN 202210127412 A CN202210127412 A CN 202210127412A CN 115550716 A CN115550716 A CN 115550716A
- Authority
- CN
- China
- Prior art keywords
- touch
- point
- color
- value
- target pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000002156 mixing Methods 0.000 title claims abstract description 25
- 238000010422 painting Methods 0.000 claims abstract description 39
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000003079 width control Methods 0.000 claims abstract description 10
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000004040 coloring Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 19
- 239000000203 mixture Substances 0.000 abstract description 2
- 230000009471 action Effects 0.000 description 27
- 239000010410 layer Substances 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 235000003940 Ceanothus thyrsiflorus Nutrition 0.000 description 2
- 241000229165 Ceanothus thyrsiflorus Species 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007591 painting process Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009500 colour coating Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
- H04N21/8153—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8166—Monomedia components thereof involving executable data, e.g. software
- H04N21/8173—End-user applications, e.g. Web browser, game
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种显示设备和颜色混色显示方法,该混色显示方法可应用于显示设备,其方法包括:提取颜色控件和所述宽度控件对应的特征值,确定画笔颜色值和宽度值;获取手绘轨迹对应触控点的像素坐标值;对相邻的触控点进行差值运算,得到手绘点的位置信息;获取目标像素点集合;其中,目标像素点集合为与手绘点距离小于或等于宽度值的像素点的集合;根据画笔颜色值和目标像素点的初始颜色值,利用预设颜色叠加计算公式计算所述目标像素点的目标颜色值,控制目标像素点的显示为目标颜色值。本申请通过使用颜色叠加算法,计算颜色叠加后像素颜色值,使画板作画过程中当前画笔的颜色会与画板原有的颜色产生混色效果,这使作画更加具有真实感。
Description
本申请要求在2021年06月30日提交中国专利局、申请号202110738848.4、发明名称为“一种显示设备和颜色混色显示方法”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及智能电视技术领域,尤其涉及一种显示设备和颜色混色显示方法。
背景技术
随着智能电视的普及,以及多媒体教育电视的不断更新,越来越多的教学娱乐、儿童益智的应用可以在电视上使用。画板无论对于教学还是应用,对儿童益智都显得非常重要。
现有技术在涂色和作画过程中,当前画笔的颜色会替换画板原有的颜色。比如画笔的颜色设置为红色,画板的颜色是蓝色,画笔在画板上作画后,原来的蓝色被替换成了红色。与实际绘画涂色效果不一致。
发明内容
本申请提供了一种显示设备和颜色混色显示方法,以改善智能画板作画涂色显示效果。
为了解决上述技术问题,本申请实施例公开了如下技术方案:
第一方面,本申请实施例公开了一种显示设备,包括:
显示器;
触控组件,被配置为检测用户输入的触控轨迹,检测用户触控的颜色控件、宽度控件;
控制器,被配置为:
提取所述颜色控件和所述宽度控件对应的特征值,确定用户输入的画笔颜色值和宽度值;
获取所述绘图轨迹对应手绘点的像素信息,其中所述像素信息包括所述像素坐标值,所述手绘点包括第一触控点、第二触控点、以及所述第一触控点与所述第二触控点之间的差值点;
计算所述绘图轨迹的目标像素点坐标值,所述目标像素点为距离手绘图形轨迹小于或等于画笔宽度的像素点;
利用所述目标像素点的背景颜色值和预设颜色叠加计算公式,计算所述目标像素点的目标颜色值;
控制所述目标像素点的颜色值显示为目标颜色值。
第二方面,本申请实施例公开了一种颜色混色显示方法,包括:
获取用户触控的颜色控件和宽度控件存储的画笔颜色值和宽度值;
获取手绘轨迹对应触控点的像素坐标值;
对相邻的所述触控点进行差值运算,得到手绘点的位置信息;
获取所述目标像素点集合;其中,所述目标像素点集合为与所述手绘点距离小于或等于所述宽度值的像素点的集合,所述目标像素点集合中包含全部目标像素点的坐标值和初始颜色值;
根据画笔颜色值和所述目标像素点的初始颜色值,利用预设颜色叠加计算公式计算所述目标像素点的目标颜色值,控制所述显示器中所述目标像素点的显示为目标颜色值。
本申请的有益效果为:
本申请提供了一种显示设备和颜色混色显示方法,该混色显示方法可应用于显示设备,其中颜色混色显示方法包括:提取所述颜色控件和所述宽度控件对应的特征值,确定画笔颜色值和宽度值;获取手绘轨迹对应触控点的像素坐标值;对相邻的所述触控点进行差值运算,得到手绘点的位置信息;获取所述目标像素点集合;其中,所述目标像素点集合为与所述手绘点距离小于或等于所述宽度值的像素点的集合,所述目标像素点集合中包含全部目标像素点的坐标值和初始颜色值;根据画笔颜色值和所述目标像素点的初始颜色值,利用预设颜色叠加计算公式计算所述目标像素点的目标颜色值,控制所述显示器中所述目标像素点的显示为目标颜色值。显示器对目标像素的目标颜色值进行图形显示。通过使用颜色叠加算法,计算颜色叠加后像素颜色值,使画板作画过程中当前画笔的颜色会与画板原有的颜色产生混色效果,这使作画更加具有真实感。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示例示出了本申请实施例提供的一种显示设备与控制装置之间操作场景的示意图;
图2示例示出了本申请实施例提供的一种控制装置100的配置框图;
图3示例示出了本申请实施例提供的一种显示设备200的硬件配置框图;
图4中示例性示出了根据一些实施例的显示设备200中软件配置示意图;
图5中示例性示出了根据一些实施例的电子画板应用的界面示意图;
图6为为根据一些实施例的电子画板应用的界面示意图二;
图7为根据一些实施例的电子画板应用的界面示意图三;
图8中示例性示出了根据一些实施例的颜色混色显示方法流程示意图;
图9为现有技术中画板颜色显示效果图;
图10为本申请技术方案中画板颜色显示效果图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明。应该理解这样使用的用语在适当情况下可以互换。
术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的所有组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
术语“模块”是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
图1为根据实施例中显示设备与控制装置之间操作场景的示意图。如图1所示,用户可通过智能设备300或控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式,通过无线或有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。
在一些实施例中,也可以使用智能设备300(如移动终端、平板电脑、计算机、笔记本电脑等)以控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。
在一些实施例中,显示设备200还可以采用除了控制装置100和智能设备300之外的方式进行控制,例如,可以通过显示设备200设备内部配置的获取语音指令的模块直接接收用户的语音指令控制,也可以通过显示设备200设备外部设置的语音控制设备来接收用户的语音指令控制。
在一些实施例中,显示设备200还与服务器400进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。
图2示例性示出了根据示例性实施例中控制装置100的配置框图。如图2所示,控制装置100包括控制器110、通信接口130、用户输入/输出接口140、存储器、供电电源。控制装置100可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起用用户与显示设备200之间交互中介作用。
图3示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、显示器260、音频输出接口270、存储器、供电电源、用户接口中的至少一种。
在一些实施例中控制器包括处理器,视频处理器,音频处理器,图形处理器,RAM,ROM,用于输入/输出的第一接口至第n接口。
在一些实施例中,显示器260包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件,用于接收源自控制器输出的图像信号,进行显示视频内容、图像内容以及菜单操控界面的组件以及用户操控UI界面。
在一些实施例中,显示器260可为液晶显示器、OLED显示器、以及投影显示器,还可以为一种投影装置和投影屏幕。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或服务器进行通信的组件。例如:通信器可以包括Wifi模块,蓝牙模块,有线以太网模块等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。显示设备200可以通过通信器220与外部控制设备或服务器400建立控制信号和数据信号的发送和接收。
在一些实施例中,用户接口,可用于接收控制装置100(如:红外遥控器等)的控制信号。
在一些实施例中,检测器230用于采集外部环境或与外部交互的信号。例如,检测器230包括光接收器,用于采集环境光线强度的传感器;或者,检测器230包括图像采集器,如摄像头,可以用于采集外部环境场景、用户的属性或用户交互手势,再或者,检测器230包括声音采集器,如麦克风等,用于接收外部声音。
在一些实施例中,外部装置接口240可以包括但不限于如下:高清多媒体接口(HDMI)、模拟或数据高清分量输入接口(分量)、复合视频输入接口(CVBS)、USB输入接口(USB)、RGB端口等任一个或多个接口。也可以是上述多个接口形成的复合性的输入/输出接口。
在一些实施例中,调谐解调器210通过有线或无线接收方式接收广播电视信号,以及从多个无线或有线广播电视信号中解调出音视频信号,如以及EPG数据信号。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器260上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接、图标或其他可操作的控件。与所选择的对象有关操作有:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。
在一些实施例中控制器包括中央处理器(Central Processing Unit,CPU),视频处理器,音频处理器,图形处理器(Graphics Processing Unit,GPU),RAM Random AccessMemory,RAM),ROM(Read-Only Memory,ROM),用于输入/输出的第一接口至第n接口,通信总线(Bus)等中的至少一种。
CPU处理器,用于执行存储在存储器中操作系统和应用程序指令,以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。CPU处理器,可以包括多个处理器。如,包括一个主处理器以及一个或多个子处理器。
在一些实施例中,图形处理器,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。图形处理器包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象;还包括渲染器,对基于运算器得到的各种对象,进行渲染,上述渲染后的对象用于显示在显示器上。
在一些实施例中,视频处理器,用于将接收外部视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频处理,可得到直接可显示设备200上显示或播放的信号。
在一些实施例中,视频处理器,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。其中,解复用模块,用于对输入音视频数据流进行解复用处理。视频解码模块,用于对解复用后的视频信号进行处理,包括解码和缩放处理等。图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。帧率转换模块,用于对转换输入视频帧率。显示格式化模块,用于将接收帧率转换后视频输出信号,改变信号以符合显示格式的信号,如输出RGB数据信号。
在一些实施例中,音频处理器,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等处理,得到可以在扬声器中播放的声音信号。
在一些实施例中,用户可在显示器260上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
在一些实施例中,显示设备的系统可以包括内核(Kernel)、命令解析器(shell)、文件系统和应用程序。内核、shell和文件系统一起组成了基本的操作系统结构,它们让用户可以管理文件、运行程序并使用系统。上电后,内核启动,激活内核空间,抽象硬件、初始化硬件参数等,运行并维护虚拟内存、调度器、信号及进程间通信(IPC)。内核启动后,再加载Shell和用户应用程序。应用程序在启动后被编译成机器码,形成一个进程。
参见图4,在一些实施例中,将系统分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),安卓运行时(Android runtime)和系统库层(简称“系统运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作系统自带的窗口(Window)程序、系统设置程序或时钟程序等;也可以是第三方开发者所开发的应用程序。在具体实施时,应用程序层中的应用程序包不限于以上举例。
框架层为应用程序提供应用编程接口(application programming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层相当于一个处理中心,这个中心决定让应用层中的应用程序做出动作。应用程序通过API接口,可在执行中访问系统中的资源和取得系统的服务。
如图4所示,本申请实施例中应用程序框架层包括管理器(Managers),内容提供者(Content Provider)等,其中管理器包括以下模块中的至少一个:活动管理器(ActivityManager)用与和系统中正在运行的所有活动进行交互;位置管理器(Location Manager)用于给系统服务或应用提供了系统位置服务的访问;文件包管理器(Package Manager)用于检索当前安装在设备上的应用程序包相关的各种信息;通知管理器(NotificationManager)用于控制通知消息的显示和清除;窗口管理器(Window Manager)用于管理用户界面上的括图标、窗口、工具栏、壁纸和桌面部件。
在一些实施例中,活动管理器用于管理各个应用程序的生命周期以及通常的导航回退功能,比如控制应用程序的退出、打开、后退等。窗口管理器用于管理所有的窗口程序,比如获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕,控制显示窗口变化(例如将显示窗口缩小显示、抖动显示、扭曲变形显示等)等。
在一些实施例中,系统运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作系统会运行系统运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层。如图4所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,压力传感器等)、以及电源驱动等。
在一些实施例中的硬件或软件架构可以基于上述实施例中的介绍,在一些实施例中可以是基于相近的其他硬件或软件架构,可以实现本申请的技术方案即可。
基于上述显示设备200,可以通过增加触控组件使显示设备200支持触控交互功能。通常,触控组件可以与显示器260共同构成触摸屏。在触摸屏上用户可以通过触摸操作输入不同的控制指令。例如,用户可以输入点击、滑动、长按、双击等触控指令,不同的触控指令可以代表不同的控制功能。
为了实现上述不同的触摸动作,触控组件可以在用户输入不同触摸动作时,产生不同的电信号,并将产生的电信号发送给控制器250。控制器250可以对接收到的电信号进行特征提取,从而根据提取的特征确定用户要执行的控制功能。
例如,当用户在应用程序界面中的任一程序图标位置输入点击触摸动作时,触控组件将感应到触摸动作从而产生电信号。控制器250在接收到电信号后,可以先对电信号中触摸动作对应电平的持续时间进行判断,在持续时间小于预设时间阈值时,识别出用户输入的是点击触控指令。控制器250再对电信号产生的位置特征进行提取,从而确定触摸位置。当触摸位置在应用图标显示范围内时,确定用户在应用图标位置输入了点击触控指令。相应的,点击触控指令在当前场景下用于执行运行相应应用程序的功能,因此控制器250可以启动运行对应的应用程序。
又例如,当用户在媒资展示页面中输入滑动动作时,触控组件同样将感应到的电信号发送给控制器250。控制器250先对电信号中触摸动作对应信号的持续时间进行判断。在确定持续时间大于预设时间阈值时,再对信号产生的位置变化情况进行判断,显然,对于互动触摸动作,其信号的产生位置将发生变化,从而确定用户输入了滑动触控指令。控制器250再根据信号产生位置的变化情况,对滑动触控指令的滑动方向进行判断,控制在媒资展示页面中对显示画面进行翻页,以显示更多的媒资选项。进一步地,控制器250还可以对滑动触控指令的滑动速度、滑动距离等特征进行提取,并按照所提取的特征进行翻页的画面控制,以达到跟手效果等。
同理,对于双击、长按等触控指令,控制器250可以通过提取不同的特征,并通过特征判断确定触控指令的类型后,按照预设的交互规则执行相应的控制功能。在一些实施例中,触控组件还支持多点触控,从而使用户可以在触摸屏上通过多指输入触摸动作,例如,多指点击、多指长按、多指滑动等。
对于上述触控动作还可以配合特定的应用程序,实现特定的功能。例如,当用户打开“画板”应用后,显示器260可以呈现绘图区域,用户可以通过滑动触控指令在绘图区域中画出特定触控动作轨迹,控制器250则通过触控组件检测的触控动作,确定触控动作图案,并控制显示器260实时进行显示,以满足演示效果。
在一些实施例中,显示设备可安装一个电子画板应用,在该应用的应用界面,用户可进行写字、划线、涂色等操作,显示设备可根据用户的触摸动作生成触摸轨迹,以实现画板演示或娱乐的功能。
参见图5,为根据一些实施例的电子画板应用的界面示意图,如图5所示,该电子画板的应用界面上可设置有工具栏区域T和绘制区域D,其中,工具栏区域T可显示多个绘制控件,如绘制颜色控件、删除控件、撤销控件、分享控件等等,绘制区域D可为一个矩形区域,用户可在绘制区域D内绘制图形。
在一些实施例中,在电子画板的应用界面,除了工具栏区域T之外的区域可为绘制区域D,或者,绘制区域D的面积也可除了工具栏区域T之外的区域中的一个小区域,此时,绘制区域D可显示一个边框,从而提示用户在边框内进行绘制。
参见图6,为根据一些实施例的电子画板应用的界面示意图二,如图6所示,绘制过程中,一般首先由用户点击选择画笔颜色、粗细(宽度值)等,随着用户输入触摸动作绘制不同的图案。显示器的屏幕颜色显示对应像素的ARGB值,控制器250根据用户选择的画笔颜色、粗细信息,计算绘制后屏幕像素的ARGB值,并将计算后的ARGB值传送至显示器,显示器根据计算后的ARGB值进行绘画图形的显示。图中箭头显示为用户触摸动作绘制动作示意。
参见图7,为根据一些实施例的电子画板应用的界面示意图三,如图7所示,为图6选取画笔颜色、宽度值后用户触摸动作绘制动作示意。
其中,ARGB是一种色彩模式,也就是RGB色彩模式附加上透明度通道。RGB色彩模式是通过对红(Red)、绿(Green)、蓝(Blue)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的模式。
在绘画过程中,经常使用不同颜色对画布进行涂布,绘画过程的颜色采用替代的方式,如原始画布颜色位红色,其像素值ARGB为(255,0,0,Alpha1);画笔颜色为蓝色,其的像素值ARGB为(0,0,255,Alpha2),则最终显示为画笔颜色(0,0,255,Alpha2)。与现实中绘画过程中颜色重叠混色呈现的颜色不一致,影响用户体验。
为解决以上问题,本申请提供了一种颜色混色显示方法,该混色显示方法可应用于显示设备200,为了实施所述混色显示方法,所述显示设备200包括显示器、触控组件和控制器,其中所述触控组件被配置为检测用户输入的画笔颜色、触控轨迹。图8中示例性示出了根据一些实施例的颜色混色显示方法流程示意图。如图8所示,所述颜色混色显示方法包括以下步骤:
获取用户输入的画笔颜色值和宽度值。
用户可以通过在应用界面工具栏区域点击选择画笔颜色,工具栏区域显示不同的画笔颜色控件和宽度控件,存储器内存储有颜色控件对应的画笔颜色值、宽度控件对应的画笔宽度值。触控组件将感应到触摸动作从而产生电信号。控制器在接收到电信号后,可以先对电信号中触摸动作对应电平的持续时间进行判断,在持续时间小于预设时间阈值时,识别出用户输入的是点击触控指令。控制器250再对电信号产生的位置特征进行提取,从而确定画笔颜色值和宽度值。
在本申请的一些实施例中,获取用户输入的画笔颜色值可通过获取当前像用户点击位置的像素颜色值,即为用户输入的画笔颜色值。其中,当前像素点集合的像素颜色值采用ARGB记录,例如:某一像素的颜色值为(R0,G0,B0,Alpha0)。
画笔宽度为控制器存储的对应用户点击位置的半径。
获取触控事件类型,判断触控事件是否为移动事件,如果所述触控事件类型为移动事件,则进行下一步。
触控事件是否为移动事件根据手指在触控显示屏的位置是否移动,根据手指在触控显示屏的位置的移动范围与预设像素点值进行判断。如果相邻两个手绘点在显示屏的移动范围小于预设像素点值,则触控事件为移动事件。
当手指在触控显示屏的位置的移动范围小于预设像素点值时,判断手指未发生移动,即该触控事件未存在轨迹移动。
移动范围为手指在触控显示屏X轴移动的坐标和手指在触控显示屏Y轴移动的坐标之和,移动范围小于3个像素点为手指在触控显示屏X轴移动的坐标和手指在触控显示屏Y轴移动的坐标之和小于3。
如果所述触控事件类型为移动事件,获取用户输入的手绘图形像素信息,其中手绘图形像素信息包括手绘点像素位置值。
在进行手绘图形识别时,显示设备200的控制器250可以从触控组件中获取用户输入的手绘图形轨迹。所述手绘图形轨迹是由多个手绘点坐标组成的数据集合。对于显示设备200,用户可以通过其内置的触控组件或外接的输入装置500输入绘制动作,绘制动作将在触控组件上产生电压变化,这种电压变化可以被输检测、传输以及存储,从而实现对手绘点的检测。触控组件再将检测的手绘点数据进行转化,转化成控制器250可以识别的输入数据。
根据触控组件的类型不同,对用户输入的绘制动作的检测方式也不同。例如,对于显示设备200内置的触控组件,可与显示器构成触摸屏,则通过触控组件可以检测用户的触摸点位置,进而检测用户输入的手绘图形轨迹。又例如,输入装置可以是鼠标等外设,当用户移动鼠标时,显示设备200界面上的光标也随之移动,此时可以通过检测鼠标的点击事件,如按下鼠标左键和松开鼠标左键,并检测在两次点击事件中光标的移动位置,确定光标经过的位置数据,实现检测用户输入的手绘图形轨迹。
本申请中触控事件为用户手指输入。
显然,由于用户输入绘制动作的过程是一个持续的过程,因此用户需要消耗一定时间才能完成对手绘图形轨迹的输入。通常,对于部分较简单的图形,可以按照用户执行一次绘制的开始时间和结束时间对输入的绘制动作进行检测。例如,用户通过手指触控操作执行绘制动作时,当手指刚开始接触触摸屏时表示绘制动作开始,当手指离开触摸屏时表示绘制动作结束,则在手指接触触摸屏的时间段内,手指所经过的所有位置点坐标即可构成用户输入的手绘图形轨迹。手指所经过的所有位置点即为手绘点。
触控屏输入的绘制动作进行检测具有一定的时间间隔,因此相邻的两次触控位置的获取之间存在一定的时间、距离。
因手指在触控组件触控点为单一像素,且获取到的手绘点为非连续像素点位置信息。为获取到更为精确的手绘点像素信息,对手绘点像素进行差值运算,得到手绘点位置信息。
在本申请实施例中,对两个触控点之间绘图轨迹进行获取的过程为:获取第一触控点和第二触控点的位置信息,其中第一触控点和第二触控点为触控屏在相邻时间内先后获取到的触控点,第一触控点在时间上先于第二触控点。
对第一触控点的位置信息和第二触控点的位置信息进行差值运算,得到差值点的位置信息。
为实现不同宽度的画笔显示效果,根据画笔宽度,获取与绘图轨迹的所有像素点距离在所述宽度范围之内的像素点集合。绘图轨迹包括第一触控点、第二触控点和差值点。
获取目标像素点集合的像素位置信息和背景颜色信息,目标像素点集合为距离手绘图形轨迹小于等于画笔宽度的所有像素点的集合。目标像素点集合为图7中用户手势轨迹与画笔宽度值计算后的全部像素点。
利用颜色叠加计算公式计算每一个像素的目标颜色值,得到涂色后的颜色信息,即目标颜色信息。
目标像素点集合中的像素即为目标像素。
某一像素点的背景颜色值为该像素点当前颜色信息,包括该像素点的颜色和透明度。触控器中内置原始绘图表,包含原始图形的所有像素点的位置信息和颜色值,定义为初始像素点集合。当目标像素点集合中的目标像素点与初始像素点的位置信息一致时,利用颜色叠加计算公式计算目标像素点集合中每一个像素的颜色值,得到目标颜色值,将目标像素点的位置信息和目标颜色值更新至原始绘图表。
如果目标像素点不存在于初始像素点集合中,则目标像素点的目标颜色为画笔颜色。并将该目标像素点的信息增加至原始绘图表。
在本申请实施例中,获取第一触控点的位置信息和第二触控点的位置信息。
获取第一触控点的位置信息,即第一触控点的像素坐标值。
获取第二触控点的位置信息,即第二触控点的像素坐标值。
第一触控点和第二触控点为所述触控屏在相邻时间内先后获取到的触控点,为方便表述,第一触控点在时间上先于第二触控点。在本申请中,触控点为手指触控区域的中心点。
对所述第一触控点与所述第二触控点的位置信息进行差值运算,得到差值点的位置信息。
根据用户选取的画笔宽度值R,计算距离手绘图形轨迹小于等于画笔宽度R的所有像素点的位置信息,组合形成目标像素点集合。其中,手绘点包括第一触控点、第二触控点、以及所述第一触控点与所述第二触控点之间的差值点。
获取目标像素点集合中目标像素点的位置信息与当前颜色值,其中目标像素点的当前颜色值即为目标像素点的背景颜色值。
利用目标像素点的背景颜色值和预设颜色叠加计算公式,计算目标像素点的目标颜色值。
本申请中提供的颜色叠加计算公式为:
Alpha3=1-(1-Alpha1)*(1-Alpha2)(1)
R3=(R1*Alpha1+R2*Alpha2*(1-Alpha1))/Alpha(2)
G3=(G1*Alpha1+G2*Alpha2*(1-Alpha1))/Alpha(3)
B 3=(B1*Alpha1+B2*Alpha2*(1-Alpha1))/Alpha(4)
其中公式(1)、(2)、(3)、(4)中,(R1,G1,B1,Alpha1)代表画笔颜色信息;(R2,G2,B2,Alpha2)代表像素初始颜色值,(R3,G3,B3,Alpha3)代表像素目标颜色信息。
显示器根据目标像素点集合的像素位置信息和目标颜色信息进行显示。显示器根据像素点集合对应的像素位置信息和像素点集合中每个像素点对应的涂色后的颜色值进行颜色显示。
在本申请实施例中,控制器获取相邻两次触控点位置,计算手绘轨迹中全部像素点的位置,然后画笔宽度值计算目标像素点集合。利用目标像素点的背景颜色值和预设颜色叠加计算公式,计算出目标像素点的目标颜色值,并对目标像素点的目标颜色进行显示。而后进行下一次触控点位置信息的获取。
图9为当前模式下中画板颜色显示效果图;图10为本申请技术方案中画板颜色显示效果图。其中,图9和图10均显示在红色背景下,采用蓝色画笔绘图的效果。其中,图9与图10中P区域为背景,Q区域为画笔作画区域,图9与图10的背景的像素颜色一致,画笔一致。根据图9和图10所示,利用本实施例提供的技术方案,在红色背景下,采用蓝色画笔绘图后,产生混色效果,更加真是,提高用户体验。
综上,本申请提供了一种显示设备和颜色混色显示方法,该混色显示方法可应用于显示设备,其中颜色混色显示方法包括:获取用户输入的画笔颜色值和宽度值;获取手绘轨迹对应触控点的像素坐标值;对相邻的所述触控点进行差值运算,得到手绘点的位置信息;获取所述目标像素点集合;其中,所述目标像素点集合为与所述手绘点距离小于或等于所述宽度值的像素点的集合,所述目标像素点集合中包含全部目标像素点的坐标值和初始颜色值;根据画笔颜色值和所述目标像素点的初始颜色值,利用预设颜色叠加计算公式计算所述目标像素点的目标颜色值,控制所述显示器中所述目标像素点的显示为目标颜色值。显示器对目标像素的目标颜色值进行图形显示。通过使用颜色叠加算法,计算颜色叠加后像素颜色值,使画板作画过程中当前画笔的颜色会与画板原有的颜色产生混色效果,这使作画更加具有真实感。
由于以上实施方式均是在其他方式之上引用结合进行说明,不同实施例之间均具有相同的部分,本说明书中各个实施例之间相同、相似的部分互相参见即可。在此不再详细阐述。
需要说明的是,在本说明书中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或暗示这些实体或操作之间存在任何这种实际的关系或顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的电路结构、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种电路结构、物品或者设备所固有的要素。在没有更多限制的情况下,有语句“包括一个……”限定的要素,并不排除在包括所述要素的电路结构、物品或者设备中还存在另外的相同要素。
本领域技术人员在考虑说明书及实践这里发明的公开后,将容易想到本申请的其他实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求的内容指出。
以上所述的本申请实施方式并不构成对本申请保护范围的限定。
Claims (10)
1.一种显示设备,其特征在于,包括:
显示器;
触控组件,被配置为检测用户输入的绘图轨迹,检测用户触控的颜色控件、宽度控件;
控制器,被配置为:
提取所述颜色控件和所述宽度控件对应的特征值,确定画笔颜色值和宽度值;
获取所述绘图轨迹对应手绘点的像素信息,其中所述像素信息包括所述像素坐标值,所述手绘点包括第一触控点、第二触控点、以及所述第一触控点与所述第二触控点之间的差值点;
计算所述绘图轨迹的目标像素点坐标值,所述目标像素点为距离手绘图形轨迹小于或等于画笔宽度的像素点;
利用所述目标像素点的背景颜色值和预设颜色叠加计算公式,计算所述目标像素点的目标颜色值;
控制所述目标像素点的颜色值显示为目标颜色值。
2.根据权利要求1所述的显示设备,其特征在于,所述获取所述绘图轨迹对应手绘点的像素信息前,包括:
判断用户输入的触控事件是否为移动事件,如果是移动事件,则获取所述绘图轨迹对应的手绘点像素信息。
3.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
所述第一触控点和所述第二触控点为所述触控屏在相邻时间内先后获取到的触控点,所述第一触控点在时间上先于所述第二触控点。
4.根据权利要求3所述的显示设备,其特征在于,所述获取所述绘图轨迹对应手绘点的像素信息,包括:
获取第一触控点的位置信息;
获取第二触控点的位置信息;
对所述第一触控点与所述第二触控点的位置信息进行差值运算,得到差值点的位置信息。
5.根据权利要求1所述的显示设备,其特征在于,根据利用预设颜色叠加计算公式计算所述像素点集合内全部像素的涂色后颜色值的步骤中,所述控制器被进一步配置为:
预设颜色叠加计算公式,其中,所述颜色叠加计算公式为:
Alpha3=1-(1-Alpha1)*(1-Alpha2) (1)
R3=(R1*Alpha1+R2*Alpha2*(1-Alpha1))/Alpha (2)
G3=(G1*Alpha1+G2*Alpha2*(1-Alpha1))/Alpha (3)
B3=(B1*Alpha1+B2*Alpha2*(1-Alpha1))/Alpha (4)
其中公式(1)—(4)中,(R1,G1,B1,Alpha1)为所述画笔颜色值;(R2,G2,B2,Alpha2)代表所述背景颜色值,(R3,G3,B3,Alpha3)代表所述目标颜色值。
6.一种显示设备,其特征在于,包括:
显示器;
触控组件,被配置为检测用户输入的手绘轨迹;
控制器,被配置为:
获取用户触控的颜色控件和宽度控件存储的画笔颜色值和宽度值;
获取所述手绘轨迹对应触控点的像素坐标值;
对相邻的所述触控点进行差值运算,得到手绘点的位置信息;
获取目标像素点集合;其中,所述目标像素点集合为与所述手绘点距离小于或等于所述宽度值的像素点的集合,所述目标像素点集合中包含全部目标像素点的坐标值和初始颜色值;
利用预设颜色叠加计算公式、所述目标像素点的初始颜色值和所述画笔颜色值,计算所述目标像素点的目标颜色值,控制所述显示器中所述目标像素点的显示为目标颜色值。
7.一种颜色混色显示方法,其特征在于,包括:
获取用户输入的画笔颜色值和宽度值;
获取手绘轨迹对应触控点的像素坐标值;
对相邻的所述触控点进行差值运算,得到手绘点的位置信息;
获取目标像素点集合;其中,所述目标像素点集合为与所述手绘点距离小于或等于所述宽度值的像素点的集合,所述目标像素点集合中包含全部目标像素点的坐标值和背景颜色值;
根据所述画笔颜色值和所述背景颜色值,利用预设颜色叠加计算公式计算所述目标像素点的目标颜色值,控制所述显示器中所述目标像素点的显示为目标颜色值。
8.根据权利要求7所述的颜色混色显示方法,其特征在于,所述对相邻的所述触控点进行差值运算,得到手绘点的位置信息,包括:
获取第一触控点的位置信息;
获取第二触控点的位置信息;
对所述第一触控点与所述第二触控点的位置信息进行差值运算,得到差值点的位置信息;
所述手绘点包括第一触控点、第二触控点、以及所述第一触控点与所述第二触控点之间的差值点。
9.根据权利要求7所述的颜色混色显示方法,其特征在于,所述获取所述手绘轨迹对应触控点的像素坐标值前,还包括:
判断用户输入的触控事件是否为移动事件,如果所述触控事件是移动事件,则执行下一步;
如果所述触控事件不是移动事件,则结束。
10.根据权利要求7所述的颜色混色显示方法,其特征在于,所述颜色叠加计算公式为:
Alpha3=1-(1-Alpha1)*(1-Alpha2) (1)
R3=(R1*Alpha1+R2*Alpha2*(1-Alpha1))/Alpha (2)
G3=(G1*Alpha1+G2*Alpha2*(1-Alpha1))/Alpha (3)
B3=(B1*Alpha1+B2*Alpha2*(1-Alpha1))/Alpha (4)
其中公式(1)—(4)中,(R1,G1,B1,Alpha1)代表所述画笔颜色值;(R2,G2,B2,Alpha2)代表所述背景颜色值,(R3,G3,B3,Alpha3)代表所述目标颜色值。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2022/084172 WO2023273462A1 (zh) | 2021-06-30 | 2022-03-30 | 一种显示设备及填色方法 |
CN202280046883.2A CN117616461A (zh) | 2021-06-30 | 2022-03-30 | 一种显示设备及填色方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738848 | 2021-06-30 | ||
CN2021107388484 | 2021-06-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115550716A true CN115550716A (zh) | 2022-12-30 |
Family
ID=84724059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210127412.6A Pending CN115550716A (zh) | 2021-06-30 | 2022-02-11 | 一种显示设备和颜色混色显示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115550716A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118142895A (zh) * | 2024-02-23 | 2024-06-07 | 常州浩康塑业有限公司 | 一种医用pvc颗粒加工废料回收设备及其回收方法 |
-
2022
- 2022-02-11 CN CN202210127412.6A patent/CN115550716A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118142895A (zh) * | 2024-02-23 | 2024-06-07 | 常州浩康塑业有限公司 | 一种医用pvc颗粒加工废料回收设备及其回收方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112672199B (zh) | 一种显示设备及多图层叠加方法 | |
CN113810746B (zh) | 一种显示设备及图片分享方法 | |
CN112799627B (zh) | 显示设备及图像显示方法 | |
CN114501107A (zh) | 一种显示设备及涂色方法 | |
CN113778217B (zh) | 显示设备及显示设备控制方法 | |
CN114157889B (zh) | 一种显示设备及触控协助交互方法 | |
CN115129214A (zh) | 一种显示设备和颜色填充方法 | |
CN114115637B (zh) | 显示设备及电子画板优化方法 | |
CN114501108A (zh) | 一种显示设备及分屏显示方法 | |
CN112799576B (zh) | 一种虚拟鼠标移动的方法及显示设备 | |
CN113485613A (zh) | 显示设备及自由画屏幕边缘涂色实现方法 | |
CN113485614A (zh) | 显示设备和颜色设置方法 | |
CN115550716A (zh) | 一种显示设备和颜色混色显示方法 | |
CN115550717A (zh) | 一种显示设备及多指触控显示方法 | |
CN112926420B (zh) | 一种显示设备和菜单文字识别方法 | |
CN114007128A (zh) | 一种显示设备及配网方法 | |
CN114296623A (zh) | 一种显示设备 | |
CN114442849B (zh) | 一种显示设备及显示方法 | |
CN114281284B (zh) | 显示设备和图像显示方法 | |
CN114296842B (zh) | 显示设备和滚动文本检测方法 | |
CN113766164B (zh) | 显示设备及信号源界面显示方法 | |
CN115268697A (zh) | 显示设备及绘线渲染方法 | |
CN113721817A (zh) | 显示设备及填充图形的编辑方法 | |
CN115550718A (zh) | 一种显示设备及显示方法 | |
CN115543160A (zh) | 显示设备及图形填充方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |