CN111684782A - 电子设备及其控制方法 - Google Patents
电子设备及其控制方法 Download PDFInfo
- Publication number
- CN111684782A CN111684782A CN201980011579.2A CN201980011579A CN111684782A CN 111684782 A CN111684782 A CN 111684782A CN 201980011579 A CN201980011579 A CN 201980011579A CN 111684782 A CN111684782 A CN 111684782A
- Authority
- CN
- China
- Prior art keywords
- display
- image
- area
- electronic device
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/02—Recognising information on displays, dials, clocks
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2310/00—Command of the display device
- G09G2310/02—Addressing, scanning or driving the display screen or processing steps related thereto
- G09G2310/0264—Details of driving circuits
- G09G2310/0281—Arrangement of scan or data electrode driver circuits at the periphery of a panel not inherent to a split matrix structure
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/045—Zooming at least part of an image, i.e. enlarging it or shrinking it
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/36—Memories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
Abstract
一种电子设备包括显示器、处理器和存储器,其中在显示器的其至少一个边缘上形成有凹口部分,存储器配置成存储与凹口部分相对应的区域的位置、大小或颜色中的至少一者,其中存储器配置成存储使得处理器执行以下操作的指令:当接收到请求显示图像的用户命令时,识别图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性,以及根据图像特性控制显示器调整显示图像的区域并显示图像。其他实施方式是可能的。
Description
技术领域
本公开的各种实施方式涉及在显示器上显示图像的电子设备,并且更具体地,涉及根据显示器的形状不同地实现图像显示方法的电子设备。
背景技术
近年来,随着便携式电子设备(例如,智能电话、平板个人计算机(PC)等)的功能变得越来越多样化,主要包括图像拍摄功能和图像再现功能的电子设备正在广泛地分布。
电子设备可以通过使用安装在其中的相机模块来拍摄图像,或者可以显示图像,并且可以显示从其他电子设备接收到的图像。
以上信息仅作为背景信息呈现以帮助理解本公开。关于以上任何内容是否可以用作关于本公开的现有技术,没有做出决定并且没有做出断言。
发明内容
问题的解决方案
近来电子设备正变得越来越薄,但以下电子设备正进入市场,该电子设备的显示器在一个边缘上形成有凹口部分,具有凹口部分是为了最大程度地利用电子设备的一个表面(这背离了标准化的显示器形状),从而满足用户在大屏幕上观看包括图像的各种内容的需求。
也就是说,这样的电子设备正在进入市场,其中扬声器、传感器等被设置在电子设备的一个表面上由显示器的凹口部分所形成的区域中并且另一区域用于显示器。在这种情况下,当在具有凹口部分的显示器上显示矩形图像时,可能无法显示图像的某个区域,这可能会带来不便。
根据各种实施方式,一种电子设备包括显示器、处理器和存储器,其中在显示器的至少一个边缘上形成有凹口部分,存储器配置成存储与凹口部分相对应的区域的位置、大小或颜色中的至少一者,其中存储器配置成存储使得处理器执行以下操作的指令:当接收到请求显示图像的用户命令时,识别图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性,以及根据图像特性控制显示器调整显示图像的区域并显示图像。
根据各种实施方式,一种控制方法包括:接收请求显示图像的用户命令;识别图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性;以及根据识别出的图像特性来调整显示图像的区域,并显示图像。
根据本公开的实施方式,电子设备可以考虑到图像的未在显示器上形成的凹口部分中显示的区域的图像特性来显示图像。
根据本公开的实施方式,电子设备可以考虑到形成在显示器上的凹口部分的尺寸和位置来显示图像。
根据本公开的实施方式,电子设备可以考虑到未在凹口部分中显示的区域的特性来按顺序显示再现的图像。
在描述以下具体实施方式之前,阐述贯穿本专利文献中使用的某些字词和短语的定义可能是有利的:术语“包括(include)”和“包括(comprise)”及其派生词意味着包括但不限于;术语“或”是包含性的,意思是和/或;短语“与……相关联”和“与其相关联”以及其派生词可能意味着包括、包括在……内、与……互连、包含、包含在……内、连接到或与……连接、联接到或与……联接、可与……通信、与……协作、交织、并置、与……接近、绑定到或与……绑定、具有、具有……属性等等;并且术语“控制器”意味着控制至少一个操作的任何设备、系统或其部分,此类设备可以以硬件、固件或软件、或者硬件、固件或软件中的至少两者的某种组合来实现。应注意,与任何特定控制器相关联的功能可以是集中的或分布式的,而无论是本地还是远程的。
此外,下文所描述的各种功能可以由一个或多个计算机程序实现或支持,每个计算机程序由计算机可读程序代码形成并体现于计算机可读介质中。术语“应用程序”和“程序”是指适于以合适的计算机可读程序代码实现的一个或多个计算机程序、软件部件、指令集、程序、功能、对象、类、实例、相关数据或其一部分。短语“计算机可读程序代码”包括任何类型的计算机代码,包括源代码、目标代码和可执行代码。短语“计算机可读介质”包括能够被计算机访问的任何类型的介质,诸如只读存储器(ROM)、随机访问存储器(RAM)、硬盘驱动器、光盘(CD)、数字视频光盘(DVD)或任何其他类型的存储器。“非暂时性”计算机可读介质排除传送暂时性电信号或其他信号的有线、无线、光学或其他通信链路。非暂时性计算机可读介质包括数据可被永久地存储的介质和数据可被存储且稍后被重写的介质,诸如可重写光盘或可擦除存储器设备。
贯穿本专利文献提供了某些字词和短语的定义。本领域的普通技术人员应当理解,在许多情况(如果不是大多数情况)下,此类定义适用于此类所定义词语和短语的先前以及将来使用。
附图说明
通过以下结合附图进行的描述,可以更清楚了解本公开的某些实施方式的上述和其他方面、特征以及优点,在附图中:
图1是示出根据实施方式的电子设备的示意性外部视图;
图2A和图2B是示出根据实施方式的电子设备考虑到形成在显示器边缘上的凹口部分可能无法显示的图像区域的图像特性而通过使用显示器的一部分来显示图像的情况的视图;
图3A和图3B是示出根据实施方式的电子设备考虑到包括在显示器中的凹口部分可能无法显示的图像区域的图像特性而通过使用整个显示器来显示图像的情况的视图;
图4A至图4D是示出根据实施方式的电子设备根据其握持姿势显示图像的情况的视图;
图5A和图5B是示出根据实施方式的电子设备根据形成在显示器上的凹口部分的尺寸来显示图像的情况的视图;
图6A和图6B是示出根据实施方式的电子设备按顺序显示图像的情况的视图;
图7是示出根据实施方式的电子设备考虑到形成在显示器边缘上的凹口部分可能无法显示的图像区域的图像特性而显示图像的情况的流程图;
图8是示出根据各种实施方式的网络环境中的电子设备的框图;
图9是示出根据各种实施方式的显示设备的框图;以及
图10是示出根据实施方式的处理器的框图。
具体实施方式
下文所论述的图1至图10以及本专利文献中用于描述本公开原理的各种实施方式仅仅是为了举例说明并不应以任何方式解释为限制本公开的范围。本领域的技术人员将理解,本公开的原理可以在任何适当布置的系统或设备中实现。
根据本公开的各种实施方式的电子设备可以包括各种类型的电子设备。电子设备可以包括例如便携式通信设备(例如智能电话)、计算机设备、便携式多媒体设备、便携式医疗设备、相机、可穿戴设备或家用电器中的至少一者。根据实施方式的电子设备不限于上述设备。
应了解,本公开的各种实施方式以及其中所使用的术语并不试图将本文所陈述的技术特征限于特定实施方式,并且包括对应实施方式的各种改变、等同或替代。关于附图的描述,可以使用相同的参考标号来指类似或有关的元件。将理解,对应于项目的名词的单数形式可以包括事物中的一者或多者,除非相关上下文另有清楚指示。如本文所使用,诸如“A或B”、“A和/或B中的至少一者”、“A、B或C”或者“A、B和/或C中的至少一者”等短语中的每一者可以包括所述短语中的对应一者中一起枚举的项目的所有可能组合。如本文所使用,诸如“第1”和“第2”或“第一”和“第二”等术语可以用来简单地区别对应部件与另一部件,并且不在其他方面(例如,重要性或次序方面)限制所述部件。将理解,如果在有或无术语“操作地”或“通信地”的情况下,元件(例如,第一元件)被称为“与......联接”、“联接到”、“与......连接”或“连接到”另一元件(例如,第二元件),那么其表示所述元件可以直接或经由第三元件与另一元件联接。
在下文中,将参考附图描述本公开的各种实施方式。
图1是示出根据实施方式的电子设备的示意性外部的视图。
参考图1,可以通过使用用于各种目的的设备来实现电子设备100。例如,如上所述,电子设备100可以通过移动电话、智能电话、笔记本计算机、平板设备、可穿戴设备等来实现,但不限于此。
参考图1,显示器10可以设置在电子设备100的前表面5上。显示器10可以以与触摸面板重叠的触摸屏的形式形成。根据实施方式,显示器10可以包括弯曲表面。扬声器20可以定位在显示器10的上侧以输出音频信号。主页键50可以以软键的形式定位在显示器的下侧。然而,被实现为软键的主页键50的形状不限于此。显示器10可以包括用于显示内容(例如,用户界面、图像、视频、文本、图标等)的显示区域。
根据实施方式,电子设备100可以具有安装在扬声器20的周边上以执行各种功能的部件。
根据实施方式,部件可以包括至少一个传感器模块40。例如,部件可以包括照度传感器(例如,光传感器)、接近传感器、红外传感器和超声传感器中的至少一者。根据实施方式,部件可以包括相机(或相机模块30)。根据实施方式,部件可以包括用于向用户通知电子设备100的状态信息的发光二极管(LED)指示器。
根据实施方式,显示器10可以包括形成在其至少一个边缘上的凹口部分12。根据实施方式,上述扬声器20、至少一个传感器模块40、相机30等可以定位在由显示器10的凹口部分12形成的空间中。
根据实施方式,由于显示器10具有凹口部分12,因此电子设备100可以进一步扩展用于向用户提供信息的区域。
与凹口部分12相对应的区域的位置、宽度或数量,也就是说,电子设备100的由凹口部分12形成的前表面5的一些区域不限于在本公开的附图中示出的那些。例如,电子设备100可以具有形成在显示器10的下端上的凹口部分,并且可以具有物理键形式的主页键。另外,扬声器20的位置可以改变成与电子设备100的前表面5相邻的侧表面,从而可以减小凹口部分12的尺寸。
根据实施方式,电子设备100可以预先存储形成在显示器10上的凹口部分12的位置。因此,电子设备100可以选择性地使用显示器10的位于显示器10的凹口部分12的左侧和右侧上的一些区域。
图2A和图2B是示出根据实施方式的电子设备考虑到图像的与形成在显示器边缘上的凹口部分相对应的区域可能无法显示的区域的图像特性而通过使用显示器的一部分来显示图像的情况的视图。
图2A示出了待由电子设备100显示的图像210。当接收到请求显示图像210的用户命令时,电子设备100可以在显示器10上显示图2A的图像210。在这种情况下,图像可以包括静止图像、活动图像等。
根据实施方式,电子设备100可以根据用户的请求在显示器10上显示各种图像。例如,电子设备100可以在显示器10上显示预先存储在电子设备100的存储器中的图像。电子设备100可以在显示器10上显示从经由通信网络与其连接的外部设备接收的图像。另外,电子设备100可以在显示器10上显示通过电子设备100中包括的相机(例如,图1的相机30)输入的图像。
参考图2B,电子设备100可以在显示图像的同时识别图像特性。
根据实施方式,图像特性可以是分析图像的结果。例如,图像特性可以是图像的边缘分量提取值、对图像中对象的检测、对图像中面部的检测以及图像的颜色值中的至少一者。
根据实施方式,电子设备100可以使用从图像的一些区域或整个区域检测到的边缘分量的检测值作为图像特性。
图像中的边缘可以是指存在于图像亮度从较低值改变为较高值或相反情况的点处的图像的一部分。因此,电子设备可以简单地通过从图像中找到亮度值的差异最大的部分来提取图像中对象之间的边界,也即,边缘。
根据实施方式,电子设备100可以通过使用Sobel边缘提取算法、Prewitt边缘提取算法、Roberts边缘提取算法等来提取图像的边缘分量。然而,边缘提取算法不限于此。
根据实施方式,电子设备100可以使用从图像检测到的对象或人的面部作为图像特性。
电子设备100可以通过上述边缘提取算法来检测图像中包括的对象或人的面部。
例如,电子设备100可以通过使用上述边缘检测算法来检测图像的边缘,并且可以通过检测到的边缘的形状来检测各种类型的对象或人的面部。
根据实施方式,电子设备100可以通过使用人工智能(AI)算法来辨识对象或面部。电子设备100可以通过将新拍摄的图像或新输入的图像应用于学习模型来检测对象或面部,该学习模型通过使用包括各种类型的对象或面部的图像来训练。
根据实施方式,电子设备100可以使用从图像的一些区域或整个区域检测到的颜色值作为图像特性。根据实施方式,电子设备100可以使用对与预定凹口部分12相对应的区域的颜色和从与凹口部分12相对应的区域相邻的区域(例如,与凹口部分12相对应的区域的左右显示区域或与凹口部分12相对应的区域的下端显示区域)上显示的图像的特定区域中检测到的颜色值进行比较的结果作为图像特性。
根据各种实施方式,颜色值可以是指被分类为0至255个级的红色值、绿色值和蓝色值。为了识别相似的颜色,可以将每种不同的颜色分类为红色值、绿色值和蓝色值,并且当不同颜色之间的每个红色值、绿色值和蓝色值之间的差异小于20个级时,可以将不同颜色识别为相似的。然而,用于确定颜色相似性的标准不限于此,并且可以根据各种标准来确定颜色相似性。
根据各种实施方式,电子设备100可以使用对图像中包括的第一区域和第二区域中的颜色值进行比较的结果作为图像特性。
参考图2B,当电子设备100显示图像210时,电子设备100可以识别与显示器10的凹口部分12相对应的区域可能无法显示的、图像210的区域的图像特性。
根据实施方式,显示器10的凹口部分12可以定位在显示器10的至少一个边缘上,如以上参考图1所描述的。如上所述形成为在其至少一个边缘上具有曲线的显示器10可以被称为凹口显示器。
当电子设备100通过使用具有凹口部分12的显示器10来显示图像时,可能存在图像中未在对应于凹口部分12的区域中显示的非显示区域。根据实施方式的电子设备100可以识别图像的未在与对应于凹口部分12的区域中显示的非显示区域有关的上述图像特性。电子设备100可以根据所识别的图像特性来调整显示器10的显示图像的区域。
参考图2A和图2B,当电子设备100通过使用具有凹口部分12的显示器10的整个区域来显示图像210时,对应于凹口部分12的区域可能无法显示A区域。
根据实施方式的电子设备100可以识别图像210的与对应于凹口部分12的区域可能无法显示的A区域有关的图像特性。
根据实施方式,电子设备100可以使用A区域的边缘检测值作为图像特性。电子设备100可以通过使用上述各种边缘检测算法来从A区域检测边缘分量。A区域可以包括窗户、门等,并且电子设备100可以从A区域检测多个边缘分量。在这种情况下,电子设备100可以将A区域识别为有意义的区域,并且可以通过使用显示器的某个区域来显示图像210。
根据各种实施方式,电子设备100可以使用A区域和与A区域相邻的周边的颜色值。电子设备100可以识别A区域和与A区域相邻的周边的颜色值,并且可以将该颜色值与对应于凹口部分12的区域的颜色进行比较。在这种情况下,可以将与凹口部分12相对应的区域的颜色预先存储在电子设备100的存储器中。当A区域和与A区域相邻的周边的颜色值与对应于凹口部分12的区域的颜色不同时,电子设备100可以通过使用显示器10的某个区域来显示图像210。
参考图2B,上述电子设备100可以通过使用显示器10的某个区域来显示图像。例如,电子设备100可以减小显示器10上显示图像210的区域的尺寸,并且可以不在显示器10的位于与凹口部分12相对应区域的左侧14和右侧16上的区域上显示图像210。
如上所述,根据实施方式的电子设备100可以考虑与形成在显示器10上的凹口部分12相对应的区域而将显示图像的功能设置为用于再现图像的一种模式或选项。因此,用户可以将该功能选择性地应用于电子设备100的图像显示功能。
图3A和图3B是示出根据实施方式的电子设备考虑到图像的与包括在显示器中的凹口部分相对应的区域可能无法显示的区域的图像特性而通过使用整个显示器来显示图像的情况的视图。
图3A示出了待由电子设备100显示的图像310。当接收到请求显示图像310的用户命令时,电子设备100可以在显示器10上显示图3A的图像310。
根据实施方式,电子设备100可以根据用户的请求在显示器上显示预先存储在存储器中的图像、从外部电子设备接收的图像,或者通过相机(例如,图1的相机30)输入的输入。
参考图3B,电子设备100可以识别图像的与显示器10的凹口部分12相对应的区域的图像特性。
根据实施方式,图像特性可以是分析图像的结果。例如,图像特性可以是图像的边缘分量提取值、检测到的对象、检测到的面部以及图像的颜色值中的至少一者。
根据实施方式,显示器10的凹口部分12可以定位在显示器10的至少一个边缘上,如以上参考图1所描述的。
当电子设备100通过使用具有凹口部分12的显示器10的整个区域来显示图像时,对应于凹口部分12的区域可能无法显示图像的某个区域。根据实施方式的电子设备100可以识别图像的与对应于凹口部分12的区域可能无法显示的非显示区域有关的上述图像特性。电子设备100可以根据识别出的图像特性来调整显示器10的显示图像的区域。
参考图3A和图3B,当电子设备100通过使用显示器10的整体来显示图像时,对应于凹口部分12的区域可能无法显示B区域。
根据实施方式的电子设备100可以识别图像310的与对应于凹口部分12的区域可能无法显示的区域有关的图像特性。
根据实施方式,电子设备100可以使用B区域的边缘检测值作为图像特性。电子设备100可以通过使用上述各种边缘检测算法来从B区域检测边缘分量。由于B区域的颜色没有很大差异,因此可能无法从B区域检测到多个边缘分量。在这种情况下,电子设备100可不将B区域识别为有意义的区域,并且可以通过使用显示器10的整个区域来显示图像310。
根据各种实施方式,电子设备100可以使用B区域和与B区域相邻的周边的颜色值。电子设备100可以识别B区域和与B区域相邻的周边的颜色值,并且可以将该颜色值与对应于凹口部分12的区域的颜色进行比较。当B区域的颜色值和与B区域相邻的周边的颜色值与对应于凹口部分12的区域的颜色相似时,电子设备100可以通过使用显示器10的整个区域来显示图像310。
参考图3B,电子设备100可以通过使用显示器10的整个显示区域来显示图像。
图4A至图4D是示出根据实施方式的电子设备根据电子设备的握持姿势显示图像的情况的视图。
参考图4A至图4D,根据实施方式的电子设备100可以根据显示器10是以竖屏取向还是以横屏取向定位来不同地显示图像。
例如,当通过在垂直方向上握持的电子设备100拍摄图像并且在显示器10以竖屏取向定位的情况下再现图像时,电子设备100可以通过使用显示器10的整个区域来显示所拍摄的图像。另外,当通过在垂直方向上握持的电子设备100拍摄图像并且在显示器10以横屏取向定位的情况下再现图像时,电子设备100可以通过使用显示器10的某个区域来显示所拍摄的图像,以便显示在垂直方向上所拍摄的整个图像。
参考图4A,当电子设备100显示图像时,电子设备100可以识别图像的与显示器10的凹口部分12相对应的区域可能无法显示的区域的图像特性。
根据实施方式,图像特性可以是分析图像的结果。例如,图像特性可以是图像的边缘分量提取值、检测到的对象、检测到的面部以及图像的颜色值中的至少一者。
参考图4A,当电子设备100通过使用显示器10的整体来显示图像410时,对应于凹口部分12的区域可能无法显示C区域。
根据实施方式的电子设备100可以识别图像410中通过凹口部分12可能无法显示的非显示区域的图像特性。
根据实施方式的电子设备100可以从C区域检测对象。例如,电子设备100可以通过使用上述边缘检测算法从C区域检测边缘分量,然后可以根据边缘的形状来检测对象(例如,鸟的翅膀)。
根据各种实施方式的电子设备100可以通过使用AI算法从C区域检测对象(例如,鸟的翅膀)。
在这种情况下,根据实施方式的电子设备100可以将C区域识别为有意义的区域,并且可以通过使用显示器10的某个区域来显示图像410。例如,电子设备100可以减小显示器10上显示图像410的区域的尺寸,并且可以不在位于对应于凹口部分12的区域的左侧和右侧上的、显示器10的某些侧面14、16上显示图像410。
参考图4B,当电子设备100显示图像时,电子设备100可以识别图像的与显示器10的凹口部分12相对应的区域的图像特性。
根据实施方式,当在水平方向上握持的电子设备100显示在垂直方向上拍摄的图像410时,电子设备100可以在显示器10的某个区域上显示图像410,以便显示整个图像410。
在这种情况下,无论显示器10的凹口部分12如何,电子设备100均可显示图像410。
参考图4C,电子设备100可以根据用户对放大和显示图像的输入来放大图像并显示图像。在这种情况下,电子设备100可以识别与凹口部分12相对应的区域可能无法显示的、图像410的非显示区域的图像特性。
根据实施方式的电子设备100可以在放大图像410的同时从与凹口部分12相邻的D区域检测边缘。例如,电子设备100可以通过使用上述边缘检测算法来从D区域检测边缘。由于D区域的颜色没有很大差异,所以可能无法从D区域检测到多个边缘分量。
参考图4D,电子设备100可以不将D区域识别为有意义的区域,并且可以通过使用显示器10的整体来显示图像410。
图5A和图5B是示出根据实施方式的电子设备根据与形成在电子设备的显示器上的凹口部分相对应的区域的尺寸来显示图像的情况的视图。
参考图5A和图5B,电子设备100可以预先存储与凹口部分12相对应的区域的形状和尺寸。电子设备100可以根据与凹口部分12相对应的区域的形状和尺寸来针对同一图像设置不同的显示方法。
根据实施方式,当电子设备100显示图像510时,电子设备100可以识别与显示器10的凹口部分12相对应的区域可能无法显示的、图像510的非显示区域的图像特性。
根据实施方式,图像特性可以是分析图像的结果。例如,图像特性可以是图像的边缘分量提取值、检测到的对象、检测到的面部以及图像的颜色值中的至少一者。
参考图5A和图5B,根据实施方式的电子设备100可以将与凹口部分12相对应的区域的颜色和与凹口部分12相邻的图像的某个区域的颜色值进行比较,并且可以利用比较结果作为图像特性。在这种情况下,电子设备100可以预先存储与凹口部分12相对应的区域的颜色。
参考图5A,图像的与凹口部分12a相邻的某个区域可以包括人的头部和背景。电子设备100可以识别出头部和背景具有不同的颜色,并且背景的颜色与对应于凹口部分12a的区域的颜色不同。
因此,电子设备100可以将与凹口部分12a相邻的区域识别为有意义的区域,并且可以通过使用显示器的某个区域来显示图像510。例如,电子设备100可以减小显示器10上显示图像的区域的尺寸,并且可以不在显示器10的位于与凹口部分12a相对应区域的左侧14和右侧16上的区域上显示图像510。
参考图5B,与凹口部分12b相邻的图像的一部分可以包括人的头部。电子设备100可以识别出头部的颜色与对应于凹口部分12b的区域的颜色相似。
因此,电子设备100可以不将与凹口部分12b相邻的区域识别为有意义的区域,并且可以通过使用显示器10的整个区域来显示图像510。
图6A和图6B是示出根据实施方式的电子设备按顺序显示图像的情况的视图。
根据实施方式的电子设备100可以根据请求顺序图像显示的用户输入,在显示器10上按顺序显示多个图像。
参考图6A,电子设备100可以接收按顺序显示第一图像610、第二图像620和第三图像630的用户输入。在这种情况下,术语“第一”、“第二”和“第三”不表示序列,并且可以被解释为区分多个图像。电子设备100可以响应于请求按顺序显示图6A的图像610、620、630的用户输入而在显示器10上显示图像610、620、630。在这种情况下,当在显示器10上显示图像610、620、630时,电子设备100可以识别与凹口部分12相对应的区域可能无法显示的非显示区域的图像特性。
参考图6A,当电子设备100通过使用显示器10的整体来显示图像610、620、630时,与凹口部分12相对应的区域可能无法显示E区域、F区域和G区域。
根据实施方式的电子设备100可以识别区域(E、F、G区域)的图像特性。
根据实施方式的电子设备100可以使用区域(E、F、G区域)的边缘检测值作为图像特性。电子设备100可以通过使用各种边缘检测算法来从区域(E、F、G区域)检测边缘分量。
由于E区域和F区域包括建筑物等,因此电子设备100可以从E区域和F区域检测到多个边缘分量。在这种情况下,电子设备100可以将E区域和F区域识别为有意义的区域。
由于G区域包括具有许多云的天空的一部分,因此可能无法从G区域检测到多个边缘分量。在这种情况下,电子设备100可以不将G区域识别为有意义的区域。
参考图6B,当有意义的区域被包括在与凹口部分12相对应的区域可能无法显示的区域(E、F、G区域)中时,电子设备100可以通过使用显示器10的某个区域按顺序显示图像610、620、630。例如,电子设备100可以减小显示器10上显示图像610、620、630的区域的尺寸,并且可以不在显示器10的位于与凹口部分12相对应区域的左侧14和右侧16上的区域上显示图像610、620、630。
然而,这不应解释为限制性的。根据各种实施方式,电子设备100可以以其他方法按顺序显示图像610、620、630。
例如,当电子设备100显示包括E区域、F区域的图像610、620时,电子设备100可以通过使用显示器10的某个区域来显示图像610、620。另外,当电子设备100显示包括G区域的图像630时,电子设备100可以通过使用显示器10的整个区域来显示图像630。
图7是示出根据实施方式的电子设备考虑到与形成在显示器的边缘上的凹口部分相对应的区域可能无法显示的显示器区域的图像特性而显示图像的情况的流程图。
在操作710中,电子设备100可以接收请求显示图像的用户命令。
在操作720中,当在显示器上显示图像时,电子设备100可以识别未在与凹口部分相对应的区域中显示的非显示区域。根据实施方式,电子设备100可以预先存储与凹口部分相对应的区域的尺寸和位置。电子设备100可以在显示器的横屏取向与显示器的竖屏取向之间进行区分,并且可以识别非显示区域。
在操作730中,电子设备100可以识别非显示区域的图像特性。根据实施方式的电子设备100可以将例如图像的边缘分量提取值、检测到的对象、检测到的面部、图像的颜色值中的至少一者识别为图像特性。
在操作740中,电子设备100可以根据识别出的图像特性来确定用于在显示器上显示图像的方法。例如,电子设备100可以通过使用显示器的某个区域或使用显示器的整个区域来显示图像。
图8是根据各种实施方式的网络环境800中的电子设备801的框图。电子设备801可包括图1中的电子设备100。参照图8,网络环境800中的电子设备801可经由第一网络898(例如,短距离无线通信网络)与电子设备802进行通信,或者经由第二网络899(例如,长距离无线通信网络)与电子设备804或服务器808进行通信。根据实施方式,电子设备801可经由服务器808与电子设备804进行通信。根据实施方式,电子设备801可包括处理器820、存储器830、输入装置850、声音输出装置855、显示装置860、音频模块870、传感器模块876、接口877、触觉模块879、相机模块880、电力管理模块888、电池889、通信模块890、用户识别模块(SIM)896或天线模块897。在一些实施方式中,可从电子设备801中省略所述部件中的至少一个(例如,显示装置860或相机模块880),或者可将一个或更多个其它部件添加到电子设备801中。在一些实施方式中,可将所述部件中的一些部件实现为单个集成电路。例如,可将传感器模块876(例如,指纹传感器、虹膜传感器、或照度传感器)实现为嵌入在显示装置860(例如,显示器)中。
处理器820可运行例如软件(例如,程序840)来控制电子设备801的与处理器820连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施方式,作为所述数据处理或计算的至少部分,处理器820可将从另一部件(例如,传感器模块876或通信模块890)接收到的命令或数据加载到易失性存储器832中,对存储在易失性存储器832中的命令或数据进行处理,并将结果数据存储在非易失性存储器834中。根据实施方式,处理器820可包括主处理器821(例如,中央处理器(CPU)或应用处理器(AP))以及与主处理器821在操作上独立的或者相结合的辅助处理器823(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。另外地或者可选择地,辅助处理器823可被适配为比主处理器821耗电更少,或者被适配为具体用于指定的功能。可将辅助处理器823实现为与主处理器821分离,或者实现为主处理器821的部分。
在主处理器821处于未激活(例如,睡眠)状态时,辅助处理器823可控制与电子设备801(而非主处理器821)的部件之中的至少一个部件(例如,显示装置860、传感器模块876或通信模块890)相关的功能或状态中的至少一些,或者在主处理器821处于激活状态(例如,运行应用)时,辅助处理器823可与主处理器821一起来控制与电子设备801的部件之中的至少一个部件(例如,显示装置860、传感器模块876或通信模块890)相关的功能或状态中的至少一些。根据实施方式,可将辅助处理器823(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器823相关的另一部件(例如,相机模块880或通信模块890)的部分。存储器830可存储由电子设备801的至少一个部件(例如,处理器820或传感器模块876)使用的各种数据。所述各种数据可包括例如软件(例如,程序840)以及针对与其相关的命令的输入数据或输出数据。存储器830可包括易失性存储器832或非易失性存储器834。
可将程序840作为软件存储在存储器830中,并且程序840可包括例如操作系统(OS)842、中间件844或应用846。
输入装置850可从电子设备801的外部(例如,用户)接收将由电子设备801的其它部件(例如,处理器820)使用的命令或数据。输入装置850可包括例如麦克风、鼠标、键盘或数字笔(例如,手写笔)。
声音输出装置855可将声音信号输出到电子设备801的外部。声音输出装置855可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的,接收器可用于呼入呼叫。根据实施方式,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示装置860可向电子设备801的外部(例如,用户)视觉地提供信息。显示装置860可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施方式,显示装置860可包括被适配为检测触摸的触摸电路或被适配为测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块870可将声音转换为电信号,反之亦可。根据实施方式,音频模块870可经由输入装置850获得声音,或者经由声音输出装置855或与电子设备801直接(例如,有线地)连接或无线连接的外部电子设备(例如,电子设备802)的耳机输出声音。
传感器模块876可检测电子设备801的操作状态(例如,功率或温度)或电子设备801外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施方式,传感器模块876可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口877可支持将用来使电子设备801与外部电子设备(例如,电子设备802)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施方式,接口877可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端878可包括连接器,其中,电子设备801可经由所述连接器与外部电子设备(例如,电子设备802)物理连接。根据实施方式,连接端878可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块879可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施方式,触觉模块879可包括例如电机、压电元件或电刺激器。
相机模块880可捕获静止图像或运动图像。根据实施方式,相机模块880可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块888可管理对电子设备801的供电。根据实施方式,可将电力管理模块888实现为例如电力管理集成电路(PMIC)的至少部分。
电池889可对电子设备801的至少一个部件供电。根据实施方式,电池889可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块890可支持在电子设备801与外部电子设备(例如,电子设备802、电子设备804或服务器808)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块890可包括能够与处理器820(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施方式,通信模块890可包括无线通信模块892(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块894(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络898(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络899(例如,长距离通信网络,诸如蜂窝网络、互联网、或计算机网络(例如,LAN或广域网(WAN)))与外部电子设备进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。
无线通信模块892可使用存储在用户识别模块896中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络898或第二网络899)中的电子设备801。
天线模块897可将信号或电力发送到电子设备801的外部(例如,外部电子设备)或者从电子设备801的外部(例如,外部电子设备)接收信号或电力。根据实施方式,天线模块897可包括多个天线,可由例如通信模块890(例如,无线通信模块892)从所述多个天线中选择适合于在通信网络(诸如第一网络898或第二网络899)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块890和外部电子设备之间发送或接收信号或电力。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施方式,可经由与第二网络899连接的服务器808在电子设备801和外部电子设备804之间发送或接收命令或数据。电子设备802和电子设备804中的每一个可以是与电子设备801相同类型的装置,或者是与电子设备801不同类型的装置。根据实施方式,将在电子设备801运行的全部操作或一些操作可在外部电子设备802、外部电子设备804或服务器808中的一个或更多个运行。例如,如果电子设备801应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子设备801可请求所述一个或更多个外部电子设备执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子设备801除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子设备执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子设备可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子设备801。电子设备801可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
根据实施方式的电子设备可以包括显示器、处理器和存储器,其中在显示器的至少一个边缘上形成有凹口部分,存储器配置成存储与凹口部分相对应的区域的位置、尺寸或颜色中的至少一者,并且存储器可以存储使得处理器执行以下操作的指令:当接收到请求显示图像的用户命令时,识别图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性,以及根据所述图像特性控制显示器以调整显示图像的区域并显示图像。
在根据实施方式的电子设备100中,图像特性可以是边缘分量检测值、检测到的对象、检测到的面部或颜色值中的至少一者。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当从非显示区域检测到对象或面部的至少一部分时,控制显示器通过使用显示器的某个区域来显示图像;以及当从非显示区域未检测到对象或面部的至少一部分时,控制显示器通过使用显示器的整个区域来显示图像。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当非显示区域的颜色与对应于凹口部分的区域的颜色相似时,控制显示器通过使用显示器的整个区域来显示图像;以及当非显示区域的颜色与对应于凹口部分的区域的颜色不同时,控制显示器通过使用显示器的某个区域来显示图像。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当接收到请求放大在显示器上显示的图像的用户命令并且图像被放大时,识别图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性;以及根据所述图像特性控制显示器以调整显示放大图像的区域。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当识别出从非显示区域检测到对象或面部的至少一部分时,控制显示器通过使用显示器的某个区域来放大并显示图像;以及当未识别出从非显示区域检测到对象或面部的至少一部分时,控制显示器通过使用显示器的整个区域来放大并显示图像。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当识别出非显示区域的颜色与对应于凹口部分的区域的颜色之间的相似性时,控制显示器通过使用显示器的整个区域来放大并显示图像;以及当未识别出非显示区域的颜色与对应于凹口部分的区域的颜色之间的相似性时,控制显示器通过使用显示器的某个区域来放大并显示图像。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当接收到按顺序显示包括第一图像和第二图像的多个图像的用户命令时,识别第一图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性;以及根据所述图像特性控制显示器以调整显示多个图像的区域并且按顺序显示多个图像。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当识别出从包括在第一图像中的非显示区域检测到对象或面部的至少一部分时,控制显示器通过使用显示器的某个区域来按顺序显示多个图像;以及当未识别出从包括在第一图像中的非显示区域检测到对象或面部的至少一部分时,控制显示器通过使用显示器的整个区域来按顺序显示多个图像。
在根据实施方式的电子设备100中,存储器可以存储使得处理器执行以下操作的指令:当识别出包括在第一图像中的非显示区域的颜色与对应于凹口部分的区域的颜色之间的相似性时,控制显示器通过使用显示器的整个区域来按顺序显示多个图像;以及当未识别出包括在第一图像中的非显示区域的颜色与对应于凹口部分的区域的颜色之间的相似性时,控制显示器通过使用显示器的一部分来按顺序显示多个图像。
图9是根据各种实施方式的显示设备860的框图900。参考图9,显示设备860可以包括显示器910和用于控制显示器的显示驱动器IC(DDI)930。DDI 930可以包括接口模块931、存储器933(例如,缓冲存储器)、图像处理模块935或映射模块937。DDI 930可以通过接口模块931从处理器820(例如,主处理器821(例如,应用处理器)或独立于主处理器821的功能进行操作的辅助处理器823)接收图像数据或包括与用于控制图像数据的命令相对应的图像控制信号的图像信息。DDI 930可以通过接口模块931与触摸电路950或传感器模块976通信。另外,DDI 930可以例如以帧为基础将接收到的图像信息的至少一部分存储在存储器933中。图像处理模块935可以至少基于图像数据的特性或显示器910的特性,对图像数据的至少一部分执行预处理或后处理(例如,调整分辨率、亮度或尺寸)。映射模块937可以至少部分地基于显示器910的像素的属性(例如,每个子像素的像素布置(RGB条纹或pentile)或尺寸)将通过图像处理模块935预处理或后处理的图像数据转换为能够驱动像素的电压值或电流值。可以基于电压值或电流值来驱动显示器910的至少一些像素,使得可以在显示器910上显示与图像数据相对应的视觉信息(例如,文本、图像或图标)。
根据实施方式,显示设备860还可以包括触摸电路950。触摸电路950可以包括触摸传感器951和用于控制触摸传感器的触摸传感器IC953。触摸传感器IC 953可以控制触摸传感器951以测量关于显示器910的特定位置的信号(例如,电压、光量、电阻或电荷量)的变化以检测关于特定位置的触摸输入或悬停输入,并且可以向处理器820提供与检测到的触摸输入或悬停输入有关的信息(例如,位置、面积、压力或时间)。根据实施方式,触摸电路950的至少一部分(例如,触摸传感器IC953)可以被包括为显示驱动器IC 930或显示器910的一部分,或者另一元件的一部分(例如,辅助处理器823)可以设置在显示设备860的外部。
根据实施方式,显示设备860还可以包括传感器模块876的至少一个传感器(例如,指纹传感器、虹膜传感器、压力传感器或照度传感器)或其控制电路。在这种情况下,所述至少一个传感器或其控制电路可以被嵌入在显示设备860的一部分(例如,显示器910或DDI930)或触摸电路950的一部分中。例如,当嵌入在显示设备860中的传感器模块876包括生物特征传感器(例如,指纹传感器)时,生物特征传感器可以获得与通过显示器910的某个区域的触摸输入相关联的生物特征信息(例如,指纹图像)。在另一示例中,当嵌入在显示设备860中的传感器模块876包括压力传感器时,压力传感器可以获得关于通过显示器910的一部分或显示器910的整个区域的触摸输入的压力信息。根据实施方式,触摸传感器951或传感器模块876可以设置在显示器910的像素层的像素之间或者在像素层之上或之下。
图10是根据实施方式的处理器的框图。
参考图10,根据实施方式的电子设备100的处理器820可以包括数据学习单元1010和数据辨识单元1020。
数据学习单元1010可以训练用于估计对象的学习模型以具有用于估计图像中包括的对象的标准。数据学习单元1010可以学习关于将使用哪些训练数据来估计图像中包括的对象、或者关于是否通过使用训练数据来估计图像中包括的对象的标准。数据学习单元1010可以获得要用于训练的训练数据,并且可以通过将所获得的数据应用于学习模型来估计图像中包括的对象,这将在下文进行描述。
数据学习单元1010可以通过使用内容来训练学习模型,并且可以生成用于估计图像中包括的对象的学习模型。在这种情况下,内容可以包括图像和视频中的至少一者。
数据学习单元1010可以通过使用内容和内容中包括的对象的类型作为训练数据来训练学习模型。
例如,训练数据可以是包括鸟的图像或指示图像中包括的对象是鸟的信息。
配置成估计图像中包括的对象的学习模型可以是一个学习模型或多个学习模型的组合。
数据辨识单元1020可以基于各种类型的特征数据(例如,图像、视频等)来估计图像中包括的对象。
数据辨识单元1020可以根据通过学习预先设定的标准来估计输入图像中包括的对象。数据辨识单元1020可以使用输入图像作为学习模型的输入值,并且可以使用用户对估计图像中包括的对象的结果的响应来完善学习模型。
根据实施方式,学习模型可以是配置成估计图像中包括的对象的学习模型。在这种情况下,数据辨识单元1020可以通过将图像作为特征数据应用于学习模型来估计图像中包括的对象。
例如,当输入包括人的面部的图像时,数据辨识单元1020可以根据所学习的准则来估计人的面部。
数据学习单元1010和数据辨识单元1020中的至少一者可以以至少一个硬件芯片的形式制造,并且可以安装在电子设备中。例如,数据学习单元1010和数据辨识单元1020中的至少一者可以以仅用于AI的硬件芯片的形式制造,或者可以制造为现有通用处理器(例如,CPU或应用处理器)或图形专用处理器(例如,GPU)的一部分,并且可以安装在上述各种类型的电子设备中。
根据实施方式,仅用于AI的硬件芯片是指定用于概率计算的专用处理器,并且具有比现有通用处理器更高的并行处理性能,因此可以在AI领域(诸如机器学习)中快速处理计算。
数据学习单元1010和数据辨识单元1020可以安装在一个电子设备中或者可以分别安装在单独的电子设备中。例如,数据学习单元1010和数据辨识单元1020中的一者可以被包括在电子设备中,并且另一者可以被包括在服务器中。另外,可以将由数据学习单元1010建立的模型信息有线或无线地提供给数据辨识单元1020,并且输入到数据辨识单元1020的数据可以作为附加的训练数据有线或无线地提供给数据学习单元1010。
数据学习单元1010和数据辨识单元1020中的至少一者可以实现为软件模块。当数据学习单元1010和数据辨识单元1020中的至少一者实现为软件模块(或者包括指令的程序模块)时,软件模块可以存储在非暂时性计算机可读介质中。在这种情况下,至少一个软件模块可以由操作系统(OS)或预定的应用程序提供。可替代地,至少一个软件模块的一部分可以由OS提供,而另一部分可以由预定的应用程序提供。
根据各种实施方式的电子设备可以是各种类型的电子设备中的一者。电子设备可以包括便携式通信设备(例如,智能电话)、计算机设备、便携式多媒体设备、便携式医疗设备、相机、可穿戴设备或家用电器中的至少一者。根据实施方式的电子设备不限于上述设备。
应了解,本公开的各种实施方式以及其中所使用的术语无意将本文所陈述的技术特征限于特定实施方式,并且包括对应实施方式的各种改变、等效或替代。关于附图的描述,可以使用类似的参考标号来指类似或有关的元件。将理解,对应于项目的名词的单数形式可以包括事物中的一者或多者,除非相关上下文另有清楚指示。如本文所使用,诸如“A或B”、“A和/或B中的至少一者”、“A、B或C”或者“A、B和/或C中的至少一者”等短语中的每一者可以包括所述短语中的对应一者中一起枚举的项目的所有可能组合。如本文所使用,诸如“第1”和“第2”或“第一”和“第二”等术语可以用来简单地区别对应部件与另一部件,并且不在其他方面(例如,重要性或次序方面)限制所述部件。将理解,如果在有或无术语“操作地”或“通信地”的情况下,元件(例如,第一元件)被称为“与......联接”、“联接到”、“与......连接”或“连接到”另一元件(例如,第二元件),那么其表示所述元件可以直接或经由第三元件与所述另一元件联接。
如本文所使用,术语“模块”可以包括以硬件、软件或固件实现的单元,并且可以与其他术语互换使用,例如“逻辑”、“逻辑块”、“部件”或“电路系统”。模块可以是适于执行一个或多个功能的单个一体部件,或其最小单元或零件。例如,模块可以以专用集成电路(ASIC)的形式实现。
如本文所陈述的各种实施方式可以实现为软件(例如,程序840),其包括存储在可由机器(例如,计算机)读取的机器可读存储介质(例如,内部存储器836或外部存储器838)中的指令。机器可以调用存储在存储介质中的指令,并且可以根据所调用的指令进行操作,并且可以包括根据所公开的实施方式的电子设备(例如,电子设备801)。当指令由处理器(例如,处理器820)执行时,处理器可以直接或者使用在处理器的控制下的其他部件来执行对应于指令的功能。指令可以包括由编译器或解译器生成或执行的代码。机器可读存储介质可以以非暂时性存储介质的形式提供。其中,术语“非暂时性”仅仅意味着存储介质是有形设备并且不包括信号,但此术语不区分数据半永久地存储于存储介质中的位置与数据临时地存储于存储介质中的位置。
根据实施方式,根据本公开的各种实施方式的方法可以包括并且提供在计算机程序产品中。计算机程序产品可以作为产品在卖家与买家之间交易。计算机程序产品可以以机器可读存储介质的形式(例如,光盘只读存储器(CD-ROM))来分配,或者经由应用程序商店(例如,PlayStoreTM)在线分配。如果在线分配,那么计算机程序产品的至少一部分可以临时生成或至少临时存储在机器可读存储介质(诸如制造商的服务器、应用程序商店的服务器或中继服务器的存储器)中。
根据各种实施方式,上述部件中的每个部件(例如,模块或程序)可以包括单个实体或多个实体。可省略上述部件中的一者或多者,或者可以添加一个或多个其他部件。可替代地或另外,可以将多个部件(例如,模块或程序)集成到单个部件中。在这种情况下,根据各种实施方式,集成部件可以仍以与在集成之前由多个部件中的对应一者执行相同或相似的方式执行所述多个部件中的每一者的一个或多个功能。根据各种实施方式,由模块、程序或另一部件执行的操作可以循序地、并行地、重复地或启发式地进行,或者所述操作中的一者或多者可以以不同次序执行或省略,或者可以添加一个或多个其他操作。
虽然已经通过各种实施方式描述了本公开,但是可以向本领域技术人员建议各种改变和修改。本公开旨在包括落入所附权利要求范围内的此类改变和修改。
Claims (15)
1.一种电子设备,包括:
显示器,包括形成在所述显示器的至少一个边缘上的凹口部分;
处理器;以及
存储器,配置成存储与所述凹口部分相对应的区域的位置、尺寸或颜色中的至少一者,并且存储在由所述处理器执行时使得所述处理器执行以下操作的指令:
当接收请求显示图像的用户命令时,识别所述图像的非显示区域的图像特性,其中所述非显示区域为所述图像的未在与所述凹口部分相对应的区域中显示的区域;以及
根据所述图像特性控制所述显示器调整显示所述图像的区域并显示所述图像。
2.根据权利要求1所述的电子设备,其中,所述图像特性是边缘分量检测值、检测到的对象、检测到的面部或颜色值中的至少一者。
3.根据权利要求2所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于从所述非显示区域检测到对象或面部的至少一部分,控制所述显示器通过使用所述显示器的一些区域来显示所述图像;以及
基于从所述非显示区域未检测到对象或面部的至少一部分,控制所述显示器通过使用所述显示器的整个区域来显示所述图像。
4.根据权利要求2所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色相似,控制所述显示器通过使用所述显示器的整个区域来显示所述图像;以及
基于所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色不相似,控制所述显示器通过使用所述显示器的一些区域来显示所述图像。
5.根据权利要求2所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于接收到请求放大所述显示器上显示的所述图像的用户命令,识别所述图像的未在与所述凹口部分相对应的区域中显示的所述非显示区域的图像特性,
控制所述显示器放大所述图像,以及
根据所述图像特性控制所述显示器调整显示所述放大图像的区域。
6.根据权利要求5所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于识别出从所述非显示区域检测到对象或面部的至少一部分,控制所述显示器通过使用所述显示器的一些区域来放大并显示所述图像;以及
基于未识别出从所述非显示区域检测到对象或面部的至少一部分,控制所述显示器通过使用所述显示器的整个区域来放大并显示所述图像。
7.根据权利要求5所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于识别出所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似,控制所述显示器通过使用所述显示器的整个区域来放大并显示所述图像;以及
基于未识别出所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似性,控制所述显示器通过使用所述显示器的一些区域来放大并显示所述图像。
8.根据权利要求2所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于接收到按顺序显示包括第一图像和第二图像的多个图像的用户命令,
识别所述第一图像的未在与所述凹口部分相对应的区域中显示的非显示区域的图像特性,以及
根据所述图像特性,控制所述显示器调整显示所述多个图像的区域并且按顺序显示所述多个图像。
9.根据权利要求8所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于识别出从所述第一图像中包括的所述非显示区域检测到对象或面部的至少一部分,控制所述显示器通过使用所述显示器的一些区域来按顺序显示所述多个图像;以及
基于未识别出从所述第一图像中包括的所述非显示区域检测到对象或面部的至少一部分,控制所述显示器通过使用所述显示器的整个区域来按顺序显示所述多个图像。
10.根据权利要求8所述的电子设备,其中,所述存储器配置成存储当由所述处理器执行时使得所述处理器执行以下操作的指令:
基于识别出所述第一图像中包括的所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似,控制所述显示器通过使用所述显示器的整个区域来按顺序显示所述多个图像;以及
基于未识别出所述第一图像中包括的所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似性,控制所述显示器通过使用所述显示器的一部分来按顺序显示所述多个图像。
11.一种控制方法,包括:
接收请求显示图像的用户命令;
识别所述图像的未在与凹口部分相对应的区域中显示的非显示区域的图像特性,以及
根据识别出的图像特性来调整显示所述图像的区域;以及
显示所述图像。
12.根据权利要求11所述的控制方法,其中,所述图像特性是边缘分量检测值、检测到的对象、检测到的面部或颜色值中的至少一者。
13.根据权利要求12所述的控制方法,其中,所述控制方法包括:
识别从所述非显示区域检测到对象或面部的至少一部分;
响应于从所述非显示区域检测到所述对象或面部的至少一部分,通过使用所述显示器的一些区域来显示所述图像;以及
响应于从所述非显示区域未检测到所述对象或面部的至少一部分,通过使用所述显示器的整个区域来显示所述图像。
14.根据权利要求12所述的控制方法,其中,所述控制方法包括:
识别所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似性;
响应于识别出所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似,通过使用所述显示器的整个区域来显示所述图像;以及
响应于未识别出所述非显示区域的颜色和与所述凹口部分相对应的区域的颜色之间的相似性,通过使用所述显示器的一些区域来显示所述图像。
15.根据权利要求12所述的控制方法,其中,所述控制方法包括:
接收请求放大并显示所述显示器上显示的所述图像的用户命令;
在放大所述图像时,识别所述图像的未在与所述凹口部分相对应的区域中显示的所述非显示区域的所述图像特性;以及
根据识别出的图像特性,调整显示经放大的图像的区域。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0018722 | 2018-02-14 | ||
KR1020180018722A KR102389201B1 (ko) | 2018-02-14 | 2018-02-14 | 전자 장치 및 전자 장치의 제어 방법 |
PCT/KR2019/001757 WO2019160325A1 (en) | 2018-02-14 | 2019-02-13 | Electronic device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111684782A true CN111684782A (zh) | 2020-09-18 |
CN111684782B CN111684782B (zh) | 2021-07-20 |
Family
ID=67541699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980011579.2A Active CN111684782B (zh) | 2018-02-14 | 2019-02-13 | 电子设备及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10909412B2 (zh) |
EP (1) | EP3753237B1 (zh) |
KR (1) | KR102389201B1 (zh) |
CN (1) | CN111684782B (zh) |
WO (1) | WO2019160325A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD901424S1 (en) * | 2018-05-30 | 2020-11-10 | Beijing Xiaomi Mobile Software Co., Ltd. | Mobile phone |
CA191510S (en) * | 2019-02-12 | 2021-01-13 | Lg Electronics Inc | Mobile phone |
US11289050B2 (en) * | 2019-08-16 | 2022-03-29 | Silicon Works Co., Ltd. | Controller and display device including the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103370924A (zh) * | 2010-12-10 | 2013-10-23 | 尤塔设备Ipr有限公司 | 具有用户界面的移动装置 |
CN105005413A (zh) * | 2015-07-24 | 2015-10-28 | 广东欧珀移动通信有限公司 | 显示屏模组及终端 |
KR101588975B1 (ko) * | 2014-06-24 | 2016-01-29 | 엘지디스플레이 주식회사 | 네로우 베젤을 갖는 표시장치의 패널 어레이 |
US20160358582A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Display system for enhancing visibility and methods thereof |
US9645663B2 (en) * | 2013-03-24 | 2017-05-09 | Belisso Llc | Electronic display with a virtual bezel |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10062317B2 (en) * | 2014-10-16 | 2018-08-28 | Lg Display Co., Ltd. | Panel array for display device with narrow bezel |
CN105629596B (zh) * | 2014-10-27 | 2019-06-28 | 群创光电股份有限公司 | 显示面板 |
KR102507567B1 (ko) | 2015-06-09 | 2023-03-09 | 삼성전자주식회사 | 이미지를 처리하는 전자 장치 및 그 제어 방법 |
GB2552090B (en) * | 2017-06-29 | 2021-06-16 | Inodyn Newmedia Gmbh | Front-facing camera and maximized display screen of a mobile device |
US9870024B2 (en) * | 2015-10-30 | 2018-01-16 | Essential Products, Inc. | Camera integrated into a display |
US9710689B2 (en) * | 2015-10-30 | 2017-07-18 | Essential Products, Inc. | Fingerprint sensors for mobile devices |
KR20170059201A (ko) | 2015-11-20 | 2017-05-30 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 컨텐츠 출력 방법 |
KR102512755B1 (ko) | 2015-12-11 | 2023-03-23 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 디스플레이 방법 |
JP2019070762A (ja) * | 2017-10-10 | 2019-05-09 | シャープ株式会社 | 電子機器、制御装置、電子機器の制御方法、および制御プログラム |
CN109979369B (zh) * | 2017-12-14 | 2023-02-28 | 矽创电子股份有限公司 | 显示画面的补偿电路及决定显示画面的补偿区域的方法 |
KR102082417B1 (ko) * | 2018-03-12 | 2020-04-23 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
-
2018
- 2018-02-14 KR KR1020180018722A patent/KR102389201B1/ko active IP Right Grant
-
2019
- 2019-02-13 CN CN201980011579.2A patent/CN111684782B/zh active Active
- 2019-02-13 EP EP19755092.4A patent/EP3753237B1/en active Active
- 2019-02-13 WO PCT/KR2019/001757 patent/WO2019160325A1/en unknown
- 2019-02-14 US US16/276,436 patent/US10909412B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103370924A (zh) * | 2010-12-10 | 2013-10-23 | 尤塔设备Ipr有限公司 | 具有用户界面的移动装置 |
US9645663B2 (en) * | 2013-03-24 | 2017-05-09 | Belisso Llc | Electronic display with a virtual bezel |
KR101588975B1 (ko) * | 2014-06-24 | 2016-01-29 | 엘지디스플레이 주식회사 | 네로우 베젤을 갖는 표시장치의 패널 어레이 |
US20160358582A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Display system for enhancing visibility and methods thereof |
CN105005413A (zh) * | 2015-07-24 | 2015-10-28 | 广东欧珀移动通信有限公司 | 显示屏模组及终端 |
Also Published As
Publication number | Publication date |
---|---|
KR20190098594A (ko) | 2019-08-22 |
EP3753237B1 (en) | 2024-03-27 |
EP3753237A4 (en) | 2021-03-31 |
CN111684782B (zh) | 2021-07-20 |
US20190251388A1 (en) | 2019-08-15 |
WO2019160325A1 (en) | 2019-08-22 |
US10909412B2 (en) | 2021-02-02 |
KR102389201B1 (ko) | 2022-04-21 |
EP3753237A1 (en) | 2020-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10860850B2 (en) | Method of recognition based on iris recognition and electronic device supporting the same | |
US9402018B2 (en) | Distributing processing for imaging processing | |
US9229526B1 (en) | Dedicated image processor | |
US9058536B1 (en) | Image-based character recognition | |
CN111684782B (zh) | 电子设备及其控制方法 | |
US11250287B2 (en) | Electronic device and character recognition method thereof | |
US20200210004A1 (en) | Method, electronic device, and storage medium for fingerprint recognition | |
US10769475B2 (en) | Method of identifying objects based on region of interest and electronic device supporting the same | |
US11445058B2 (en) | Electronic device and method for controlling display operation thereof | |
US20200098835A1 (en) | Electronic device for improving phenomenon of visual recognition in partial area of display | |
US9760177B1 (en) | Color maps for object tracking | |
US11580889B2 (en) | Electronic device, method, and computer-readable medium for displaying screen in deformable display panel | |
US11907290B2 (en) | Electronic device and control method thereof | |
US11410413B2 (en) | Electronic device for recognizing object and method for controlling electronic device | |
KR20140095601A (ko) | 자세 분류 장치 및 자세 분류 방법 | |
US20220036853A1 (en) | Electronic device and method for extending time interval during which upscaling is performed on basis of horizontal synchronization signal | |
US11460928B2 (en) | Electronic device for recognizing gesture of user from sensor signal of user and method for recognizing gesture using the same | |
US11144791B2 (en) | Electronic apparatus for recognizing user and controlling method thereof | |
KR102549503B1 (ko) | 저전력 상태에서 이미지들의 출력 타이밍을 동기화하기 위한 디스플레이 구동 회로 | |
US11062485B2 (en) | Display processing method and device for applying an attribute of a reference image to a target image | |
US11636675B2 (en) | Electronic device and method for providing multiple services respectively corresponding to multiple external objects included in image | |
KR20210100341A (ko) | 깊이 정보에 기반한 이미지 보정 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |