CN106201390A - 用于输出屏幕的方法及支持该方法的电子装置 - Google Patents

用于输出屏幕的方法及支持该方法的电子装置 Download PDF

Info

Publication number
CN106201390A
CN106201390A CN201610368232.1A CN201610368232A CN106201390A CN 106201390 A CN106201390 A CN 106201390A CN 201610368232 A CN201610368232 A CN 201610368232A CN 106201390 A CN106201390 A CN 106201390A
Authority
CN
China
Prior art keywords
area
content
user
input
electronic installation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610368232.1A
Other languages
English (en)
Inventor
曹锺根
温怒里
张喆相
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106201390A publication Critical patent/CN106201390A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Digital Computer Display Output (AREA)

Abstract

公开了一种用于输出屏幕的方法及支持该方法的电子装置。提供了一种在电子装置执行的屏幕输出方法。所述屏幕输出方法包括:将电子装置的显示器划分为第一区域和第二区域,将第一内容输出到第一区域并将第二内容输出到第二区域,接收与第一区域相关联的输入,并基于所述输入的属性来改变输出第二内容的方法。

Description

用于输出屏幕的方法及支持该方法的电子装置
本申请要求于2015年5月29日提交到韩国知识产权局并被分配序列号为10-2015-0076559的韩国专利申请的权益,其全部公开通过引用合并于此。
技术领域
本公开涉及一种输出包括各种内容的屏幕并向用户提供所述屏幕的方法以及支持所述方法的电子装置。
背景技术
诸如智能电话或平板个人计算机(PC)的电子装置执行诸如图像输出、无线互联网、游戏等的各种功能。电子装置通过屏幕向用户提供各种各样的信息,并且用户通过各种输入(例如,触摸输入、滑动输入等)来执行或控制功能。
此外,电子装置包括识别关于电子装置的环境或用户的信息(例如,附近亮度、关于电子装置的移动的信息、关于用户的心率的信息等)的各种传感器,并且基于识别的信息向用户提供各种用户接口(UI)和用户体验(UX)。
上述屏幕输出方法仅将由每个应用产生的视图输出到划分的屏幕。或者,屏幕输出方法通过将屏幕划分为多个区域来进行多任务工作。
此外,屏幕输出方法基于预定义的设置而不考虑用户的周围环境来提供诸如心跳、温度、湿度、紫外线(UV)指数等的信息。因此,在屏幕上显示的内容未被有效地发送到用户。
上述信息仅作为背景信息被呈现以帮助理解本公开。至于任何上述信息是否可应用为针对本公开的现有技术,尚未做出确定,也未做出声明。
发明内容
本公开的各方面在于至少解决上述问题和/或缺点并至少提供下述优点。因此,本公开的一方面在于提供一种屏幕输出方法,其中,所述屏幕输出方法基于用户的附近和用户的状态信息来实时地向用户提供用于与用户交互的用户界面(UI)并向用户提供各种效果。
本公开的另一方面在于提供一种屏幕输出方法,其中,所述屏幕输出方法基于与用户的交互向特定图像提供诸如混合效果的图像转换效果。
根据本公开的方面,提供了一种在电子装置执行的屏幕输出方法。所述屏幕输出方法包括:将电子装置的显示器划分为第一区域和第二区域,将第一内容输出到第一区域并将第二内容输出到第二区域,接收与第一区域相关联的输入,并基于所述输入的属性来改变输出第二内容的方法。
根据本公开的方面,提供了一种电子装置。所述电子装置包括:显示器,存储器和电连接到显示器和存储器的处理器,所述处理器被配置为:将显示器的区域划分为第一区域和第二区域,将第一内容输出到第一区域,将第二内容输出到第二区域,并且如果与第一区域相关联的输入被接收到,则基于所述输入的属性来改变输出第二内容的方法。
从以下结合附图进行的公开了本公开的各种实施例的详细描述,本公开的其它方面、优点和突出特征将对本领域普通技术人员而言变得清楚。
附图说明
从以下结合附图进行的描述,本公开的特定实施例的以上和其它方面、特征和优点将会更清楚,其中:
图1是示出根据本公开的各种实施例的网络环境中的电子装置的示图;
图2是示出根据本公开的各种实施例的屏幕输出方法的流程图;
图3是示出根据本公开的各种实施例的改变输出第二内容的方法的示图;
图4是示出根据本公开的各种实施例的合成和掩膜过程的示图;
图5是示出根据本公开的各种实施例的通过模糊的屏幕输出方法的示图;
图6是示出根据本公开的各种实施例的根据信息的附加的屏幕输出方法的示图;
图7是示出根据本公开的各种实施例的合成方法的流程图;
图8是示出根据本公开的各种实施例的卡型用户界面(UI)的示图;
图9是示出根据本公开的各种实施例的屏幕切换的示图;
图10是示出根据本公开的各种实施例的折叠型的屏幕切换的示图;
图11是示出根据本公开的各种实施例的电子装置的框图;
图12是示出根据本公开的各种实施例的程序模块的框图。
贯穿附图,应注意到:相同的附图标号被用于描述相同或相似的元件、特征和结构。
具体实施方式
提供参照附图的以下描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。虽然以下描述包括各种特定细节以帮助进行理解,但是这些特定细节将被认为仅仅是示例性的。因此,本领域普通技术人员将认识到:在不脱离本公开的范围和精神的情况下,可对在此描述的各种实施例进行各种改变和修改。此外,为了清晰和简洁,公知的功能和构造的描述可被省略。
在以下描述和权利要求中使用的术语和词汇不限于文献含义,而仅被发明人用于实现对本公开的清晰和一致的理解。因此,对本领域技术人员而言应该清楚的是:提供本公开的各种实施例的以下描述仅用于示意目的而并非为了限制由权利要求及其等同物限定的本发明的目的。
将理解:除非上下文清晰地另有指示,否则单数形式包括复数指示物。因此,例如,引用“组件表面”包括引用一个或更多个这样的表面。
在这里公开的公开中,这里使用的表述“具有”、“可具有”、“包括”和“包含”或“可包括”和“可包含”指示存在相应特征(例如,诸如数值、功能、操作或组件的元素),而不排除存在另外的特征。
在这里公开的公开中,这里使用的表述“A或B”,“至少一个A或/和B”,或“A或/和B中的一个或更多个”等可包括相关列出项中的一个或更多个的任何组合和所有组合。例如,术语“A或B”、“A和B中的至少一个”或“至少一个A或B”可指示以下情况中的全部:包括至少一个A的情况(1)、包括至少一个B的情况(2)或包括至少一个A和至少一个B两者的情况(3)。
在这里使用的诸如“第一”、“第二”等的术语可指示本公开的各种实施例的各种元件,但不限制元件。例如,这样的术语不限制元件的顺序和/或优先级。此外,这样的术语可用于将一个元件和另一元件进行区分。例如,“第一用户装置”和“第二用户装置”指示不同的用户装置。例如,在不脱离本公开的范围的情况下,第一元件可被称为第二元件,并且类似地,第二元件可被称为第一元件。
应理解:当元件(例如,第一元件)被称为与另一元件(第二元件)“(可操作地或通信地)耦接”/“(可操作地或通信地)耦接到”另一元件(第二元件)或“连接到”另一元件(例如,第二元件)时,它可与所述另一元件直接耦接/直接耦接到另一元件(例如,第二元件)或直接连接到所述另一元件,或者可存在中间元件(例如,第三元件)。与此相反,当元件(例如,第一元件)被称为与另一元件(例如,第二元件)“直接耦接”/“直接耦接到”到另一元件(例如,第二元件)或“直接连接到”另一元件(例如,第二元件)时,应被理解为不存在中间元件(例如,第三元件)。
根据情况,这里使用的表述“配置为”可被用作,例如,表述“适合用于”、“具有…能力”、“设计用于”、“适于”、“用作”或“能够”。术语“配置为”未必仅意味着“专门设计用于”硬件。作为替代,表述“配置为…的装置”可表示该装置“能够”与另一装置或其它组件一起进行操作。例如,“配置为(或设置为)执行A、B和C的处理器”可表示用于执行相应操作的专用处理器(例如,嵌入式处理器)或通过运行在存储装置中存储的一个或更多个软件程序来执行相应操作的通用处理器(例如,中央处理单元器(CPU)或应用处理器)。
除非在此另有限定,否则在这里使用的包括技术术语或科学术语的所有术语可具有与本领域技术人员通常理解的含义相同的含义。将进一步理解,在字典中定义的术语和常用的术语也应该按照相关现有技术中习惯的方式被解释而不是按照理想化或过于正式的方式被解释,除非在本公开的各种实施例中被如此明确地限定。在一些情况下,即使术语是在说明书中限定的术语,它们也可不被解释为排除本公开的实施例。
根据本公开的各种实施例的电子装置可包括以下项中的至少一个:智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、笔记本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组阶段1或阶段2(MPEG-1或MPEG-2)音频第三层(MP3)播放器、移动医疗装置、相机或可穿戴装置。根据各种实施例,可穿戴装置可包括以下项中的至少一个:配件型(例如,手表、戒指、手镯、脚镯、项链、眼镜、隐形眼镜或头戴式装置(HMDs))、织物或服装集成型(例如,电子服装)、身体安装型(例如,护具或纹身)或可植入型(例如,可植入电路)。
根据本公开的实施例,电子装置可以是家用电器。家用电器可包括例如以下项中的至少一个:电视机(TV)、数字通用盘(DVD)播放器、音响、冰箱、空调、吸尘器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动控制面板、安全控制面板、TV盒子(例如,三星HomeSyncTM、苹果TVTM或谷歌TVTM)、游戏控制台(例如,XboxTM和PlayStationTM)、电子词典、电子钥匙、摄像机或电子相框。
根据本公开的实施例,电子装置可包括以下项中的至少一个:医疗装置(例如,各种便携式医学测量装置(例如,血糖监控装置、心率测量装置、血压测量装置、体温测量装置等)、磁共振血管造影(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)、扫描仪和超声装置),导航装置、全球定位系统(GPS)接收器、事件数据记录器(EDR)、飞行数据记录器(FDR)、车辆信息娱乐装置,用于船舶的电子装备(例如,导航系统和回转罗盘)、航空电子装置、安全装置、汽车的头单元、工业机器人或家用机器人、自动柜员机(ATM)、销售点终端(POS)或物联网(例如,灯泡、各种传感器、电表或燃气表、洒水装置、火灾报警器、恒温器、街灯、烤面包机、健身装备、热水箱、加热器、锅炉等)。
根据本公开的实施例,电子装置可包括以下项中的至少一个:家具或建筑/结构的一部分、电子板、电子签名接收装置、投影仪或各种测量器具(例如,水表、电表、煤气表或电波表等)。根据各种实施例的电子装置可以是前述装置中的一个或前述装置的组合。根据实施例的电子装置可以是柔性电子装置。此外,根据本公开的实施例的电子装置可不限于前述装置,并根据技术的发展可包括其它电子装置和新的电子装置。
在下文中,将参照附图来描述根据各种实施例的电子装置。在本公开中,术语“用户”可指使用电子装置的人或可指使用电子装置的装置(例如,人工智能电子装置)。
图1是示出根据本公开的各种实施例的网络环境中的电子装置的示图。
参照图1,示出了根据本公开的各种实施例的网络环境100中的电子装置101。电子装置101可包括总线110、处理器120、存储器130、输入/输出(I/O)接口150、传感器模块155、显示器160、通信接口170、图形处理单元(GPU)180和物理引擎单元185。根据本公开的实施例,电子装置101可不包括上述组件中的至少一个,或者还可包括其它组件。
例如,总线110可使上述组件110、120、130、150、155、160、170、180和185互相连接,并可以是用于在上述组件之中传达通信(例如,控制消息和/数据)的电路。
处理器120可包括CPU、AP或通信处理器(CP)中的一个或更多个。例如,处理器120可执行与至少其它组件的控制和/或通信相关联的算术操作或数据处理。
根据本公开的各种实施例,处理器120可通过从I/O接口150接收的用户输入或从传感器模块155采集的感测信息来控制电子装置101的功能。
例如,处理器120可执行用于处理关于电子装置101的状态、用户的状态或与电子装置101或用户相关联的环境的状态的信息的操作,并且可将信息存储在存储器130中。处理器120可基于在存储器130中存储的信息(例如,关于用户的信息、用户输入信息等)来确定将通过显示器160向用户输出的内容。
根据本公开的各种实施例,处理器120可对通过传感器模块155(诸如,运动传感器、生物信息传感器等)接收的运动信号或生物信号执行预处理(例如,处理噪声去除、分割、信号标准化和特征抽取中的一个或更多个),并且可基于信号分析(例如,基于人工智能、决策树、模式识别和用户活动识别中的一个或更多个的分析)来确定用户的健康状态或情绪状态、运动的种类、或运动量。
存储器130可包括易失性和/或非易失性存储器。存储器130可存储与电子装置101的组件中的至少一个其它组件相关联的指令或数据。根据实施例,存储器130可存储软件和/或程序140。程序140可包括例如内核141、中间件143、应用程序编程接口(API)145和/或应用程序(或应用)147。内核141、中间件143或API 145中的至少部分可被称为“操作系统(OS)”。
例如,内核141可控制或管理用于执行其它程序(例如,中间件143、API 145或应用程序147)的操作或功能的系统资源(例如,总线110、处理器120、存储器130等)。此外,中间件141可提供允许中间件141、API 145或应用程序147访问电子装置101的分立组件的接口,以便控制或管理系统资源。
中间件143可扮演中介者的角色,使得API 145或应用程序147与内核141进行通信以交换数据。
此外,中间件143可根据优先级处理从应用程序147接收的任务请求。例如,中间件143可将使得使用电子装置101的系统资源(例如,总线110、处理器120、存储器130等)成为可能的优先级分配给应用程序147中的至少一个。例如,中间件143可根据分配给至少一个应用程序的优先级来处理一个或更多个任务请求,这使得对一个或更多个任务请求执行调度或负载均衡成为可能。
API 145可以是例如应用程序147控制由内核141或中间件143提供的功能的接口,并且可包括例如,用于文件控制、窗口控制、图像处理、文本控制等的至少一个接口或功能(例如,指令)。
I/O接口150可将从用户或另一外部装置输入的指令或数据发送到电子装置101的其它组件。此外,I/O接口150可将从电子装置101的其它组件接收的指令或数据输出到用户或另一外部装置。I/O接口150可接收通过用户的输入动作(通过触摸传感器、按钮、键、触控笔)接收的信息。
例如,I/O接口150可从用户接收用户想要实现的医疗保健目标(例如,运动量、减轻体重和根据锻炼的种类的锻炼频率中的一个或更多个)、日程、电话号码等。
根据本公开的各种实施例,I/O接口150可接收以下项中的一个或更多个:用于显示通过显示器160显示的一个或更多个内容(例如,网页或文件)的滚动(或滑动)输入、通过在显示若干项的列表(例如,音乐列表、视频列表等)中滚动或拖拽而进行的显示位置转移、在显示器上显示虚拟页的部分的情况下用于移动显示位置以显示其它部分的命令(例如,触摸、轻弹、拖拽、三维(3D)手势输入、语音输入、眼睛跟踪和跟踪面部方向中的一个或更多个)、以及通过用户界面(UI)进行的用于在以若干页、卡片或仪表板的形式实现的内容(例如,电子书和三星S-健康应用4.0)中显示另一页、卡片或仪表板的输入。
根据本公开的各种实施例,I/O接口150可通过触摸传感器、键输入、传感器、触控笔、输入装置来检测输入信号(例如,输入位置、输入手势、通过书写进行的输入、按钮输入、悬停信号输入)。此外,I/O接口150可通过冲击传感器、振动传感器(例如,加速度传感器、麦克风和压力传感器)来检测冲击、振动、敲击动作。
传感器模块155可包括用于测量便携式装置的状态、用户的状态或与用户相关联的环境的状态的一个或更多个传感器。传感器模块155可包括运动传感器、环境传感器、位置传感器、生物信息传感器、集成传感器等。
运动传感器可检测装置或用户的运动、位姿或方向方位中的一个或更多个。运动传感器可包括以下项中的一个或更多个:惯性传感器、角速度或加速度传感器、接近传感器、陀螺仪、磁传感器、光传感器、红色、绿色、蓝色(RGB)相机、红外(IR)相机、Kinect、压力传感器、定向无线信号检测器、IR发光二极管(LED)和触摸传感器。
例如,运动传感器可检测用户的位姿或运动。可根据运动传感器的识别结果来确定显示器的方向,并且在显示器上显示的内容的显示方向可被确定(例如,纵向模式或横向模式)。根据实施例,电子装置101可包括头戴式装置(HMD)或安装有运动传感器或眼睛跟踪器的数字地球,并且可检测用户的头部的运动、视线以及用户的手或手臂的手势输入。
环境传感器可测量装置或用户的周边的环境状态。环境传感器可包括以下项中的一个或更多个:照度传感器、气体传感器、微粒传感器、气压计传感器、湿度传感器、温度计、紫外线(UV)传感器、麦克风、剂量计、臭氧检测器和时间传感器。
为了确定装置或用户的位置,位置传感器可包括以下项中的一个或更多个:GPS/全球导航卫星系统(GNSS)传感器、基于无线通信的无线定位传感器(例如,以下项中的一个或更多个:cell-ID、到达时间(ToA)、到达时间差(TDoA)和到达角度(AoA)方法传感器)和室内定位传感器(例如,Wi-Fi指纹、近场通信(NFC)、射频识别(RFID)、计步器、相机、图像标记识别装置、图像码识别设备、红外传感器、超声波传感器和超宽带(UWB))。此外,为了检测海拔高度或海拔高度的变化,位置传感器可包括气压计。
生物信息传感器可测量用户的健康状态或情绪状态。生物信息传感器可包括计步器、血压计、血糖仪、光电容积脉搏波(PPG)传感器、心电图(ECG)传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、血容量脉冲(BVP)传感器、外围氧的饱和度(SPO2)传感器、皮肤电反应(GSR)传感器、皮肤导电性(SC)传感器、肥胖计、体温传感器、皮肤温度传感器、呼吸计、气体传感器等。此外,生物信息传感器可包括指纹传感器、虹膜识别传感器、面部识别读取器、掌形读取器、手部静脉读取器、语音识别读取器、用于识别用户的个人和生物特征的手写签名识别器,并且还可包括相机、IR相机、触摸传感器、麦克风等。
生物信息传感器可采集生物信号,其中,生物信号是用于测量用户的以下项中的一个或更多个的原始数据:血压、血流、心率(例如,心率监视器(HRM)和心率变异性(HRV))、体温、呼吸率、氧饱和度、心音、葡萄糖、腰围、身高、重量、体脂肪、热量消耗、EEG、语音、皮肤电阻、EMG、ECG、步态、超声图像、睡眠、面部(例如,脸)的外观、瞳孔散大和眨眼。生物信息传感器、传感器集线器或处理器120可分析生物信号,从而提取生物特征信息。例如,处理器120可将通过HRV传感器获得的脉搏波信号确定为生物信号,可基于对生物信号的分析来获得诸如平均心率、心跳分布等的主要生物特征信息,并且可基于对生物特征信息的处理来获得诸如应激状态和血管衰老的辅助生物特征信息,其中,辅助生物特征信息是高级信息。
生物信息传感器可简单地输出采集的用户生物信号,或可通过处理器120来分析生物信号,从而输出生物特征信息。因此,通过生物信息传感器采集的生物信号可被发送到耦接到传感器的主体控制单元、收集并处理各种传感器单元的信号的传感器集线器(其中,各种传感器单元的每个包括生物信息传感器)、或电子装置101的处理器120(其中,传感器装置被嵌入到处理器120中)并被分析,并且可被用于产生生物特征信息。例如,可使用嵌入有ECG传感器的移动电话。此外,在嵌入有PPG传感器的手表中,嵌入有生物信息传感器、传感器集线器或处理器120的每个装置可被用于产生生物特征信息。
根据本公开的实施例,在电子装置101通过有线或无线网络将生物信号发送到远程装置(例如,可穿戴装置、附件装置、智能电话、家用电器等)或服务器之后,远程装置或服务器的控制单元可处理生物信号,从而产生生物特征信息。
根据本公开的实施例,如果电子装置101产生主要生物特性信息并将生物特征信息发送到远程装置或服务器,则可由远程装置或服务器提取辅助生物特征信息。
根据本公开的实施例,由嵌入在手表装置中的HRV传感器采集的生物信号可基于无线方法被发送到连接到手表装置的智能电话(例如,主机)。智能电话可分析接收的生物信号,从而提取生物特征信息。生物特征信息可通过无线方法被发送,使得生物特征信息在智能电话上或手表装置的屏幕上被显示。因此,生物特征信息可在智能电话和手表装置中的一个或更多个上被显示。
集成传感器可基于一个传感器来感测两个或更多个信息。例如,加速度传感器可同时测量用户的运动和步数。另一示例,PPG传感器可被用作诸如心率和压力的生物信息的传感器并可基于接收的光量被用作接近传感器。另一示例,ECG传感器可通过对用户、心率和HRV的ECG分析来检测情绪识别,并且可被用作用于区分用户的认证。
根据本公开的各种实施例,在电子装置101通电时,传感器模块155可一直操作。根据实施例,传感器模块155可根据用户的输入(例如,键输入、按钮输入、图形UI(GUI)输入或手势识别)被驱动。根据各种实施例,传感器模块155可被嵌入在电子装置101中,可被嵌入在另一电子装置中,或者可被安装在外部环境(例如,室内空间、室外空间、建筑物、基站等)中。
显示器160可包括例如液晶显示器(LCD)、LED显示器、有机LED(OLED)显示器、微电子机械系统(MEMS)显示器或电子纸显示器。显示器160可向用户显示例如各种内容(例如,文本、图像、视频、图标、符号等)。显示器160可包括触摸屏,并可接收使用电子笔或用户的身体的部分进行的例如触摸输入、手势输入、接近输入或悬停输入。
根据本公开的各种实施例,显示器160可显示由GPU 180处理的内容,从而允许用户识别该内容。
电子装置101可通过由诸如显示器160和音频装置(未示出)的输出装置发送的图像、声音或振动来向用户提供输出信息(例如,动画、音频、声音、触觉反馈或力反馈)。
通信接口170可在第一电子装置101和外部电子装置(例如,第一外部电子装置102、第二外部电子装置104或服务器806)之间建立通信。例如,通信接口170可通过无线通信或有线通信连接到网络162,以与外部装置(例如,第二外部电子装置104或服务器106)进行通信。根据各种实施例,电子装置101可通过通信接口170识别用于检测无线/有线装置是否被连接到电子装置101的信号。
无线通信可使用例如以下项中的至少一个作为蜂窝通信协议:长期演进(LTE)、LTE高级(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)或用于移动通信的全球系统(GSM)等。此外,无线通信可包括例如局域网164。局域网164可包括例如以下项中的至少一个:Wi-Fi、BT、NFC、GNSS等。GNSS可包括以下项中的至少一个:GPS、全球导航卫星系统(GLONASS)、北斗卫星导航系统(在下文中被称为“北斗”)或欧洲的全球基于卫星的导航系统(Galileo)。在本说明书中,“GPS”和“GNSS”可被互换使用。有线通信可包括以下项中的至少一个:例如,通用串行总线(USB)、高清多媒体接口(HDMI)、推荐标准232(RS-232)或简易老式电话服务(POTS)。网络162可包括例如计算机网络(例如,局域网(LAN)或广域网(WAN))、互联网或电话网络的电信网络中的至少一个。
第一外部电子装置102和第二外部电子装置104中的每个可以是类型与电子装置101的类型相同或不同的装置。根据本公开的实施例,服务器106可包括一个或更多个服务器组成的组。根据各种实施例,电子装置101可执行的操作中的全部或部分可由另一电子装置或多个电子装置(例如,第一电子装置102和第二电子装置104以及服务器106)执行。
根据本公开的实施例,在电子装置101自动地或响应于请求执行任何功能或服务的情况下,电子装置101可不内部地执行功能或服务器,而是可选地另外,电子装置101可向其它装置(例如,第一电子装置102和第二电子装置104以及服务器106)请求与电子装置101相关联的功能的至少部分。其它电子装置(例如,第一电子装置102、第二电子装置104或服务器106)可执行请求的功能或附加的功能,并且可将执行结果发送到电子装置101。电子装置101可使用接收的结果来提供请求的功能或服务,或者可另外处理接收的结果以提供请求的功能或服务。为此,例如,可使用云计算、分布式计算或客户端-服务器计算。
GPU 180可执行与显示器160的输出相关联的算术操作。在图1中,示出GPU 180和处理器120是分离的。然而,这里公开的实施例可不限于此。GPU 180中的至少部分可被实现为包括在处理器120中。
根据各种实施例,GPU 180可包括渲染单元和动画单元中的至少一个或更多个。渲染单元可大体上向显示器160提供结果。例如,为了在显示器160上显示生动的3D图形图像,渲染单元可将3D图形图像变成二维(2D)图形图像,使得2D图形图像适合于显示器160的属性(例如,分辨率、刷新率、颜色模型等)。可选地,渲染单元可从源图像仅产生将在显示器160上被显示的区域,从而将产生的区域的数据发送到显示器160(例如,显示缓冲器)。
动画单元可向被提供到显示器160的对象提供效果。根据实施例,动画单元可基于由传感器模块155测量的传感器信息的统计值(例如,最大值、最小值、平均值、中间值、频率计数、方差、标准偏差等)来产生用于提供相应信息的UI的变化率、变化范围、变化速度、变化效果等。
根据本公开的实施例,动画单元可计算对象变换的属性。对象变换的属性可包括位置属性(例如,上、左或下)、尺寸属性(例如,宽度或高度)、方框属性(例如,空白或填充)、边框属性(例如,边框宽度、边框半径或边框颜色)、颜色属性(例如,颜色或背景颜色)、透明度属性(例如,不透明)、转换属性(例如,转换)等。根据实施例,动画单元可与物理引擎单元185连接并可被操作。
当对象被提供到便携式装置的屏幕时,物理引擎单元185可基于对象的运动路径来计算物理估计。物理引擎单元185可包括重力、速度、加速度、摩擦力、引力、弹力等之中的至少一个或更多个物理量,并且可针对所述物理量执行算术运算。在图1中,示出物理引擎单元185和GPU 185被单独地形成。然而,这里公开的实施例可不限于此。物理引擎单元185可被实现为包括在处理器120或GPU 180中。
图2是示出根据本公开的各种实施例的屏幕输出方法的流程图。
参照图2,在操作210中,GPU 180可将电子装置101的显示器160划分为多个区域。所述区域可被配置为输出不同的内容或输出彼此相关联的内容。下面,描述了GPU 180将显示器160划分为两个区域(例如,第一区域和第二区域)。然而,这里公开的实施例可不限于此。
第一区域可以是通过经由UI的输入直接执行至少一个或更多个操作(例如,滚动或页面转换)的区域。
根据本公开的实施例,第一区域可以是显示第一内容(例如,列表、地图、文档或社交网络服务(SNS)供给)的至少部分的区域,第二区域可以是显示第二内容(例如,图像或视频)的至少部分的区域。
根据本公开的实施例,第二区域可被布置为邻近第一区域或可被布置为与第一区域重叠。在第二区域与第一区域重叠的情况下,可基于卷积操作来将第二内容和第一内容之中的第二区域与第一区域重叠的部分的内容进行组合。
根据本公开的各种实施例,GPU 180可设置与第一区域和第二区域的位置相关联的属性(例如,尺寸、位置、比例和形状)。
GPU 180可确定第一区域和第二区域中的每个的尺寸和第一位置,以便具有默认值。例如,当显示指定列表时,GPU 180可在第一区域上显示列表的起始点,并可将第二区域的基于位置的属性设置为默认值。另一示例,GPU180可存储与列表的显示结束(或暂停)点相关联的信息以及与第二区域的位置相关联的属性信息。此后,当再次显示所述列表时,GPU 180可基于存储的信息来恢复第一区域和第二区域中的每个的尺寸和位置。
GPU 180可通过用户输入来设置第一区域和第二区域的位置。用户可确定第二区域将在屏幕上被设置的的尺寸和位置。GPU 180可显示允许用户从若干模板候选之中选择位置和尺寸的屏幕。此外,GPU 180可允许用户通过UI直接设置位置和尺寸(例如,选择形状、调整尺寸/位置等)。
GPU 180可基于第一区域和第二区域的内容来自动地设置每个区域的位置和尺寸。例如,GPU 180可基于将被显示的内容的尺寸、比例和位置以及显示器160的显示区域的尺寸、比例等来确定第一区域或第二区域的位置或尺寸。另一示例,GPU 180可基于将在第二区域上被显示的内容的属性来确定尺寸和比例,并且可设置第二区域,使得将在第一区域上被显示的内容的元素之中的最大的元素被显示。另一示例,GPU 180可允许在第一区域上显示的文档中的最大的图像被显示在第二区域上。另一示例,当根据用户输入产生的滚动从当前位置移动到特定位置时,GPU 180可基于当前位置和特定位置来设置第二区域的尺寸、比例和位置中的一个或更多个,使得第一内容的列表项之中的尺寸最大的项被显示在第二区域上。
在操作220中,GPU 180可将第一内容输出到第一区域并可将第二内容输出到第二区域。根据各种实施例,第一内容和第二内容可彼此不同。例如,第一内容可以指示用于表示由天气应用获得的当前天气的屏幕,第二内容可以是用于通过互联网浏览器搜索新闻的屏幕。
将在第一区域上显示的第一内容可包括列表、网格视图、卡片、仪表板和磁贴(tile)中的一个或更多个。基于用户输入,关于第一内容的区域中的至少部分可以以页为单元被向上滚动或向下滚动或移动。
根据本公开的实施例,诸如SNS应用(例如,Facebook和Twitter)、新闻文章(例如,FlipboardTM)、图像列表、专辑列表、音乐列表、缩略图列表、S-Health 4.0、地图图像等的应用可在第一区域上被显示,并且将在第一区域上被显示的部分可根据用户输入被改变。例如,在输出列表的应用的情况下,可基于滚动或轻弹来改变列表的所有项之中的在第一区域上被显示的项。此外,在地图的情况下,可通过拖拽或轻弹来改变通过第一区域显示的地图的部分。
第二区域可以是显示第二区域中的至少部分的区域,并且第二内容可包括图像、文本和符号中的至少一个或更多个。在第二区域上显示的内容可被显示,其中,所述内容的至少部分根据与第一区域相关联的用户输入而被改变。
根据本公开的各种实施例,在第二区域上显示的第二内容可以是默认图像或由用户选择的图像。此外,可基于在第一区域上布置的内容或将在第一区域上被布置的候选内容来自动地设置第二内容。例如,第二内容可以是:1)在当前的第一区域上显示的内容或被布置为邻近所述内容的内容、2)邻近在第一区域上显示的内容元素的上、下、左和右侧的内容(例如,图像、文档、段落等)、3)基于针对每个特定时间(例如,每周、每天或每月)的事件而发现的代表性图像或相关联的图像、4)在刚好在旅行之后的相应月份期间拍摄地点的图片图像或通过搜索与旅行区域相关联的代表性图像而推荐的图像、5)与当前时间(例如,早晨、白天、傍晚、夜晚等)、一周中的某一天、季节等相关联的图像、6)关于在特定的周年纪念日的情况下在相应周年纪念日发生的先前的事件的信息、7)被最后上传到相关的应用的图像和基于先前的内容的消费模式的图像(例如,显示的图像、视频的暂停图像、或从ID3标签提取的图像、或音乐的类似专辑的图像、8)布置在第一区域上的内容中的图像之中的被最频繁显示的图像、9)基于与第一区域中的内容相关联的关键词而选择或分析代表性关键词的内容、10)与根据用户输入从第一区域中的内容之中指定的内容相关联的图像、11)在第一区域中的若干图像中选择的(例如,触摸保持或悬停)特定图像、12)在选择旅行区域的图像的情况下与相应的旅行区域相关联的图像、13)基于搜索引擎的在本地或网络上的相关图像或专辑图像、14)基于诸如元数据(例如,基于Exif标签、ID3标签等的位置、关键词等)、标题等的关键词的图像等。第二内容可根据搜索结果被随机地设置并且可被设置为被最频繁显示的图像。
在操作230中,GPU 180可接收与第一区域相关联的输入。所述输入可包括通过用户的输入(例如,滑动操作、触摸操作等)或与通过在电子装置101中包括的传感器模块155采集的信息相应的输入。
根据本公开的各种实施例,可在第一区域和第二区域两者中产生输入,因此可发生在第一区域上显示的第一内容的改变(例如,基于滚动或页面移动而显示的区域的改变)。根据实施例,仅在第一区域中产生的输入可以是有效的。根据实施例,每当在第二区域中产生输入,该输入可以是有效的。
可通过在第一区域、第二区域或另一区域中的特定UI来产生输入。作为用于输入的界面中的一个的GUI可以是滚动条、在屏显示(OSD)、滑动条等,用于输入的硬件装置可以是按钮、键等。根据实施例,输入可包括眼睛跟踪、语音输入或通过运动传感器的手势、位姿或运动中的一个或更多个。
GPU 180可基于用户的生物信息(例如,心跳、压力、情绪、运动量或体温)来产生在第一区域上显示的内容的变化。根据实施例,GPU 180可通过诸如智能手表、智能眼镜等的可穿戴装置来检测用户的生物信息并且可基于所述生物信息来改变在第一区域上显示的内容的属性(例如,长度、尺寸、内容、页、颜色等)。例如,在医疗保健应用被显示在第一区域上的情况下,构成医疗保健应用的心跳磁贴、运动量磁贴、营养磁贴等可被输出为列表形状。在磁贴的一部分被显示在第一区域上的情况下,最近更新的磁贴或具有相对重要信息的磁贴可被显示为以页为单元被自动地向上滚动或向下滚动或被移动。
在步骤240中,GPU 180可基于输入来改变在第二区域中输出第二内容的方法。
输出第二内容的方法可以是第二内容根据输入增大或减小的方法,或者可以是根据输入来确定第二内容的显示级别的方法。输出第二内容的方法可包括以下项中的一个或更多个:基于位置的属性(例如,尺寸属性、位置属性、形状属性或几何处理属性)、图像转换属性(例如,图像滤波属性、合成属性或关于掩膜的信息)。
根据本公开的各种实施例,输出第二内容的方法可包括天气信息和主题信息的改变。利用以上描述,可根据天气信息、用户主题信息或示图区域属性信息来执行图像滤波、合成和掩膜操作中的一个或更多个。
例如,用户可基于从底部到顶部的滑动操作来移动(或滚动)在第一区域中的互联网新闻或Facebook的屏幕。
在第一区域中产生滑动输入的情况下,GPU 180可基于滑动输入的方向或速度来向下滚动第一区域的第一内容(例如,SNS、互联网新闻等)。
GPU 180可基于滑动输入来改变输出被输出到第二区域的第二内容(例如,背景屏幕、通讯簿等)的方法。GPU 180可基于滑动输入来使整个第二区域逐渐模糊,或者可使第一区域的整个尺寸沿垂直方向减小。
另一示例,GPU 180可基于滑动输入使第二区域的尺寸沿垂直方向逐渐减小。GPU 180可通过将第一区域和第二区域之间的边界线向第二区域的方向移动来使第一区域逐渐增大而第二区域逐渐减小。
GPU 180可在屏幕上锐化用户想要观看或突出显示的区域,并可处理用户不感兴趣的区域,使得用户不感兴趣的区域减小或不出现。
图3是示出根据本公开的各种实施例的改变输出第二内容的方法的示图。在图3中,示出了第二区域沿垂直方向的尺寸被改变。然而,这里公开的实施例可不限于此。
参照图3,屏幕301至屏幕304中的每个可被划分为多个区域。多个区域可输出不同的内容。可由一个应用产生或由多个应用输出内容。
在屏幕301至屏幕304中,示出了在第一区域310中产生了用户的滑动输入的情况下,第一区域310被布置在第二区域320的底部。然而,这里公开的实施例可不限于此。
在屏幕301中,用户可在第一区域310上产生第一输入330a。GPU 180可验证第一输入330a的属性(例如,输入方向-从屏幕的底部到顶部、输入速度-慢/正常/快中的正常、输入长度-从滑动输入的起始点至终点的距离等)。
在屏幕302中,在第一区域310上显示的第一内容(例如,互联网新闻、Facebook的屏幕等)可根据第一输入330a被滚动。第二区域320的尺寸可由于第一输入330a而垂直地减小。
在用户当前感兴趣的区域或用户突出显示的区域(例如,第一区域310)的情况下,所述区域在整个屏幕中所占的权重可逐渐增大并且用户当前不感兴趣的区域(例如,第二区域320)的尺寸可逐渐减小。
在屏幕302和屏幕303中,在用户产生第二输入330b的情况下,GPU 180可基于第二输入330b的属性来减小第二区域320,使得第二区域320比第一区域310小。
在屏幕303和屏幕304中,在用户产生第三输入330c的情况下,GPU 180可基于第三输入330c的属性来减小第二区域320,使得第二区域320比第一区域310小。在这种情况下,第二区域320可被改变成最小尺寸(例如,线形)。即使用户另外滑动第一区域310,第二区域320也可保持最小尺寸。根据各种实施例,在当第二区域320被最小化时用户单独地触摸第二区域320的情况下,第二区域320可被扩展到指定的尺寸。
根据本公开的各种实施例,在用户取消滑动操作或沿相反方向(例如,从顶部到底部)产生滑动操作的情况下,第二区域320可返回到现有的尺寸。
根据各种实施例,可根据依据用户输入而改变的第一内容的变化(例如,距离、显示区域的比例等)来改变第二区域320的位置属性(例如,尺寸、显示范围、显示位置等)。例如,可基于在第一区域上显示的内容的基于位置的信息(例如,当前显示位置在第一内容的总长度中的位置或比例、从第一内容的起始点到当前显示位置的距离等)来设置图像位置属性的变化。
根据本公开的各种实施例,在屏幕301中,第二区域320可基于在列表的初始状态中的尺寸和位置而被设置。在屏幕302至屏幕304中,可根据用户输入(例如,滚动、拖拽或轻弹)或第一内容的变化(例如,与用户输入相应的变化)来改变第二区域的尺寸和位置。
根据本公开的实施例,第二区域320的尺寸可基于第一内容的起始位置或结束位置被设置为最大尺寸或最小尺寸,并且第二区域320的尺寸或第二区域320的内容的尺寸可根据第一内容的显示位置被调整。
例如,如屏幕301所示,在内容的初始位置被显示的情况下(例如,在第一内容的顶部被显示的情况下),第二区域320的尺寸可被最大地设置并且通过第二区域320显示的第二内容的范围可以是整个区域。另一方面,在第一内容的最底端被显示在第一区域310上的情况下,第二区域320的尺寸可被设置为最小尺寸。
根据本公开的实施例,如果通过用户的输入在第一区域中执行滚动操作,则可根据在第一区域310上显示的第一内容的位置来确定第二区域的最大尺寸和最小尺寸。随着在第一区域上执行向上滚动操作,第二区域320的尺寸可减小。随着在第一区域上执行向下滚动操作,第二区域320的尺寸可增大。用户可基于第二区域的尺寸来确定当前第一内容的相对位置。例如,可根据用户输入来改变第二区域的内容的部分(例如,文本“今天”)的尺寸。另外,可保持第二内容的另一部分的尺寸。
根据本公开的实施例,可通过用户输入根据第一区域310的内容显示区域来改变通过第二区域320的第二内容的显示范围(例如,显示部分区域或增大/减小部分区域)。例如,在屏幕301中,如果随着执行滚动通过第一区域310显示的第一内容的显示区域被改变,则如屏幕302至屏幕304所示,第二区域320可在图像的上部逐渐减小。根据实施例,第二区域320的尺寸可不被改变,并且第二内容的部分可根据基于用户输入对第一区域310的控制结果而增加或减少。因此,第二区域320可以充满第二内容的部分。在保持第一区域与第二区域的比例时,整个第二内容可根据在第一区域310中的用户输入而增加或减少。可选地,第二内容的部分可被裁剪并被显示而不考虑比例。
根据本公开的实施例,GPU 180可设置第二区域320的最大区域和最小区域,使得在第一区域320上显示第一内容的元素中的最大元素(例如,图像、列表项等)。例如,GPU 180可指定在第一内容的起始部分和结束部分处显示的第二区域320的最大尺寸和最小尺寸,使得在第一区域上显示第一内容的最大元素。
根据本公开的各种实施例,新的内容可被添加到第一内容,并且可改变第一区域的内容显示区域。因此,可改变通过第二区域的第二内容的显示范围、第二区域的尺寸或第二内容的尺寸。例如,在用户锻炼的情况下,生物传感器、运动传感器、位置传感器和环境传感器中的一个或更多个可采集关于用户的运动和运动距离的信息。GPU 180可计算并显示锻炼信息(例如,心率、锻炼时间、锻炼路径、运动距离和运动量中的一个或更多个)作为第一内容。在作为第一内容的锻炼信息的记录被添加的情况下,第一内容的数量可增加,并且在第一区域上显示的第一内容的显示区域可被改变。第二区域的尺寸、显示的第二内容的显示范围或第二内容的至少部分的尺寸可根据第一内容的显示区域的变化而被改变。
图4是示出根据本公开的各种实施例的合成和掩膜过程的示图。
参照图4,GPU 180可基于在第一区域中用户的输入来改变源图像410。例如,为了将渐变效果应用到源图像410,GPU 180可选择源图像410并可选择透明度信息(例如,透明度信息被映射到的渐变图像420)。GPU 180可针对源图像410和渐变图像420执行合成操作,从而获得第一操作图像450。
根据本公开的各种实施例,为了将掩膜效果提供到指定图像430,GPU180可针对色度键(chroma-key)信息(例如,图4中的图像440)和目标图像430执行合成操作或掩膜操作,从而获得第二操作图像460。例如,在第二操作图像460中,菱形部分可被处理为是不透明的,并且菱形部分之间的黑色部分可被处理为是透明的。
根据本公开的各种实施例,图像470示出通过将添加了渐变效果的第一操作图像450(例如,通过处理源图像410而获得的图像)和添加了掩膜信息的第二操作图像460(例如,通过处理目标图像430而获得的图像)进行组合而获得的结果。
在图4中,示出了掩膜方法。然而,这里公开的实施例可不限于此。可基于各种各样的图像处理方法来改变输出第二区域的方法。
针对混合、几何处理或根据物理属性的处理,下面的方法1)至5)中的一个或更多个可被应用于第二区域,并且可针对每种方法提供属性(例如,应用到第二区域的方法和效果强度)。
1)图像滤波:针对应用了滤波器的屏幕的示图区域变换每个像素的颜色或透明度的方法。为了应用模糊效果,图像滤波可使用低通空间滤波器,或可使用平均滤波器或加权平均滤波器。
例如,GPU 180可使用作为加权平均滤波器之一的高斯平滑滤波器方法。根据实施例,为了调整模糊信息(例如,模糊等级),GPU 180可不同地应用将在卷积滤波器中使用的掩膜的尺寸。例如,如果增加模糊等级,则GPU 180可将掩膜的尺寸设置为相对较大。如果减小模糊等级,则GPU 180可将掩膜的尺寸设置为相对较小。
另一示例,为了将锐化效果应用于图像,GPU 180可通过基于高通滤波器和高频提升滤波器去除图像的低频部分来保持诸如图像上发生突变的图像的边界部分的部分。
另一示例,噪声滤波器可被用于降低图像的噪声或将噪声添加到图像。在噪声降低的情况下,当去除脉冲噪声或椒盐噪声时,GPU 180可基于中值滤波器执行操作。为了去除高斯噪声,GPU 180可使用低通滤波器。为了去除高斯噪声和均匀噪声,GPU 180可使用中点滤波器。
与此相反,GPU 180可将噪声添加到源图像。根据实施例,GPU 180可基于比率或概率来针对图像像素产生噪声(例如,椒盐噪声)。根据实施例,为了将噪声添加到源图像,GPU 180可将背景粒度图像和源图像进行混合,从而产生合成图像。
另一个示例,GPU 180可基于着色操作来针对源图像调整颜色分量(例如,RGB颜色模块中的红色、绿色和蓝色)的比例或水平,从而将特定效果提供到源图像。GPU 180可基于透明度的调整来针对源图像调整RGBA(例如,红色、绿色、蓝色和alpha)的alpha分量的比例或水平。因此,GPU 180可将半透明的或雾化效果应用到源图像,或可调整亮度、饱和度等。
2)合成:GPU 180可以以像素为单元针对区域中的多个图像来执行合成操作(其中,根据通过UI的输入(例如,通过轻弹或拖拽的滚动运动值)将滤波器应用到区域中的多个图像),从而产生合成图像作为结果。例如,GPU180可针对两个或更多个图像执行加、减、乘、与、或、异或、筛选(screen)等的图像处理。
3)掩膜操作:CPU 180可基于形态学方法来使用腐蚀运算、膨胀运算、开运算、闭运算中的一个或更多个。GPU 180可执行边缘检测。根据各种实施例,GPU 180可基于色度键方法来处理区域,使得该区域仅被显示或不出现。例如,GPU 180可根据用户的滚动运动值将将被应用的区域的垂直长度与水平长度的比例不同地应用到该区域,或可对于每个区域执行针对该区域的不同的掩膜操作,从而提供各种图像处理效果。掩膜操作可被用作用于图像滤波或合成的方法。
4)几何处理:GPU 180可基于通过UI的输入(例如,通过轻弹或拖拽的滚动运动值)来改变每个像素的阵列。例如,GPU 180可使用缩放、旋转和移动中的一个或更多个。根据实施例,GPU 180可改变图像中的形状。在这期间,GPU 180可使用变形方法或扭曲方法。
5)通过物理引擎的图像处理方法:当对象被提供到电子装置101的屏幕时,物理引擎单元185可基于对象的运动路径来计算物理估计。在这种情况下,将被运算的物理量可包括重力、速度、加速度、摩擦力、引力、弹力等中的至少一个或更多个。
图5是示出根据本公开的各种实施例的通过模糊的屏幕输出方法的示图。
参照图5,屏幕501至屏幕504可被换分为多个区域。屏幕501至屏幕504可输出彼此不同的内容。屏幕501至屏幕504可以是通过相互独立的应用的屏幕,并且屏幕501至屏幕504可以是从一个应用输出的不同内容。与图3的实施例不同,在图5中第二区域520的尺寸可以是固定的。
在屏幕501至屏幕504中,示出了在在第一区域510中产生了用户的从底部到顶部的滑动输入的情况下,第一区域510被布置在第二区域520的下部。然而,这里公开的实施例可不限于此。
在屏幕501中,用户可在第一区域510中产生第一输入530a。GPU 180可验证第一输入530a的属性(例如,输入方向-从屏幕的底部到顶部方向、输入速度-慢/正常/快中的正常、输入长度-从滑动输入的起始点至终点的距离等)。
在屏幕502中,在第一区域510上显示的第一内容(例如,互联网新闻、Facebook的屏幕等)可基于第一输入530a被朝向底部移动。第二区域520可根据第一输入530a逐渐模糊。各种各样的图像处理方法可被应用于模糊方法。图4所示的掩膜方法可被用于模糊方法。此外,模糊方法可以是分辨率降低的方法,并且滤波器对图像进行掩膜等的方法可被用于模糊方法。例如,在第二区域520的分辨率降低的情况下,GPU 180或处理器120处理的吞吐量可减小,因此处理速度可增大。根据各种实施例,在关于整个第二区域520的图像处理(例如,滤波)的基础上,分辨率可能降低或者屏幕可能模糊。
GPU 180可使用户提供输入并且用户当前确认的区域(例如,第一区域510)保持清晰的屏幕状态。此外,GPU 180可使用户当前漠不关心的区域(例如,第二区域520)逐渐模糊。用户可自然地关注用户感兴趣的区域。
在屏幕502和屏幕503中,在用户输入第二输入530b的情况下,GPU 180可基于第二输入530b的属性来使屏幕503的第二区域比屏幕502的第二区域520更加暗且更加模糊。
在屏幕503和屏幕504中,在用户输入第三输入530c的情况下,GPU 180可基于第三输入530c的属性来使屏幕504的第二区域520为比屏幕503的第二屏幕520更加暗且更加模糊。在这种情况下,第二区域520可被改变为最小亮度状态(例如,设置为默认值的亮度值或饱和度值)。即使用户另外滑动第一区域510,第二区域520也可保持最小亮度的状态。在用户另外触摸第二区域520的情况下,第二区域530可被改变成指定的亮度。
根据本公开的各种实施例,在用户取消滑动操作或沿相反方向(例如,从顶部到底部)产生滑动操作的情况下,第二区域520可返回到现有的亮度状态。
根据本公开的各种实施例,GPU 180可基于在第一区域510上显示的第一内容的属性(例如,代表色、代表透明度或元数据)来将转换效果应用到第二区域520的源图像。例如,如果在第一区域510上显示的第一内容的部分的属性是蓝色(例如,海),则GPU 180可将第二区域520的颜色改变成蓝色系的颜色。此外,每当根据用户的输入来改变在第一区域上显示的内容的部分或项目时,GPU 180可将转换效果应用到第二区域520。基于确定第一内容的属性的方法,GPU 180可分析元数据的关键词,可评估第一区域510的图像的部分的颜色(例如,基于每个像素的RGB值),或可使用分析第一区域510的文本信息等的方法中的一个或更多个。例如,在第一区域510上显示的内容是海洋景观(其中,在海洋景观中蓝色相对大)情况下,在第二区域520上显示的内容可接收蓝色系的着色效果。
根据本公开的实施例,GPU 180可基于第一内容的与第二区域520相应的部分(例如,第一内容的与第二区域520几乎重叠的部分)的属性(例如,代表色、代表透明度或元数据)来将转换效果应用到第二区域520的源图像。例如,在与主颜色为绿色的日历相关联的GUI被显示在第一区域510上的情况下,如果不存在第一区域510的与第二区域520重叠或与第二区域520邻近的部分,则GPU 180可不将图像转换效果应用到第二区域520。在绿色的日历的GUI基于用户的滑动操作而进入第二区域520的情况下,整个第二区域520的图像颜色可被改变成绿色。在蓝色系的缩略图图像基于用户的另外的滑动操作而进入第二区域520的情况下,整个第二区域520的图像颜色可被改变成蓝色。
根据本公开的各种实施例,GPU 180可根据用户输入将混合效果提供到第二区域520。例如,如果在第一区域510上显示的区域为第一内容的起始点,则GPU 180可在无需图像转换的情况下将第二内容显示在第二区域520上。如果根据用户输入改变了在第一区域510上显示的内容区域,则GPU 180可将混合效果应用到第二区域520。
混合效果的强度可根据依据用户输入改变的程度而被改变。例如,在第一区域510被显示在列表顶部区域上的情况下,在第二区域520中混合效果的强度可以是在最小状态(例如,模糊效果的程度为0%)。此外,在第一区域510被显示在列表底部区域(未示出)上的情况下,混合效果的强度可以是在最大状态(例如,模糊效果的程度为100%)。因此,可根据用户输入来改变混合效果的强度。在调整效果的强度的方法中,可使用通过用户输入的移动距离、到当前显示位置的移动距离与整个距离的比例、第一区域510的显示区域与和整个内容相应的区域的比例(即,根据缩放的调整来应用效果)等。
GPU 180可基于生物信息来控制混合效果。例如,可存在用户设置的锻炼目标(例如,热量的消耗、步数、运动距离等)的量。第一区域510可显示相应锻炼目标量和用户实现的运动量。在这种情况下,可基于诸如加速度传感器、心跳传感器、运动传感器、GPS等的传感器来测量运动量。测量的运动量与锻炼目标量的实现比率(例如,0至100%)可被确定。GPU 180可基于实现比率将混合效果应用到第二区域520。例如,如果关于运动量的实现比率为0%,则源图像的透明度可被提供为0%(例如,雾化效果100%),因此源图像可与白色重叠。如果关于运动量的实现比率接近或超过100%,则源图像的透明度可被提供为100%,因此,雾化效果被去除。其结果是,源图像可清晰地呈现。
GPU 180可将噪声的产生或去除效果、模糊效果、透明度、锐度、亮度、饱和度和对比度中的一个或更多个作为混合效果应用到源图像。根据实施例,可存在彩色化效果。例如,GPU 180可将彩色化效果的强度最初设置为源图像的像素的颜色值(例如,颜色分量),可基于用户输入的滚动方向或移动方向来将不同的滤色器应用到源图像,并可通过根据用户输入调整饱和度和亮度中的一个来增加彩色化效果的强度。
根据本公开的实施例,各种效果可基于多个图像转换属性而发生。例如,可产生应用了模糊效果的模糊粒度图像。根据实施例,可提供划痕效果、深褐色效果、雨效果等。
根据本公开的各种实施例,在第二区域520的源图像之中的与第二区域520相应的部分以及在第一区域510上显示的内容可通过合成操作被显示,因此GPU 180可向所述部分提供混合效果。
例如,当在第一区域510上显示的区域根据用户输入被滚动并且与第二区域520重叠时,显示在第二区域520上的源图像以及通过用户输入而布置在第二区域520上的第一内容的相应部分可基于合成操作被转换,并且转换的结果可被显示在第二区域520上。因此,基于用户输入,可将关于第一内容的布置在第二区域520上的部分和第二内容的信息进行组合,并向用户显示组合的结果。因此,可显示或预测用户输入的结果。
根据本公开的实施例,在用户输入发生时,通过执行合成操作而获得的结果可出现。因此,在用户输入发生时,可验证基于新进入第二区域520的第一内容的部分的图像转换效果。如果不存在用户输入,则源图像可被仅显示在第二区域520上,因此这可以表示用户输入不存在。根据实施例,如果虽然通过UI的输入存在,但是输入状态未被改变的操作(例如,在固定区域中的触摸并保持以及悬停输入)的时间超过时间(例如,一秒),则可取消合成效果。
图6是示出根据本公开的各种实施例的根据信息的附加的屏幕输出方法的示图。图6示出发生用户输入的第一区域被布置在第二区域的上部。然而,这里公开的实施例可不限于此。图6示出用于评估并显示睡眠记录的GUI。
参照图6,第一区域610和第二区域620可输出不同内容。第一区域610和第二区域620可分别输出由用一应用(例如,睡眠记录评估应用)显示的不同内容。
根据本公开的各种实施例,如果通过校正第一内容来改变第一区域610的内容显示区域,则GPU 180可改变并显示第二区域620的图像。例如,在用户锻炼的情况下,GPU 180可基于生物传感器、运动传感器、位置传感器和环境传感器中的一个或更多个来采集关于用户的运动和运动距离的数据,并且可计算和显示锻炼信息(例如,心率、锻炼时间、锻炼路径、运动距离和运动量中的一个或更多个)作为第一内容。在锻炼信息被添加作为第一内容的情况下,第一内容的量可增加,并且在第一区域610上显示的第一内容的显示区域可被改变。可根据第一内容的显示区域的变化来改变第二区域620的尺寸、显示的第二内容的显示区域范围、或第二内容的至少部分的尺寸。
诸如睡眠开始和结束时间、睡眠目标时间等的睡眠时间信息可基于生物传感器(例如,运动传感器、麦克风、EMG、GSR等)被测量,或可根据用户输入630被输入。可根据睡眠时间信息来执行睡眠的定性评估(例如,坏、一般和好)。
在屏幕601中,第一区域610可表示用户在12月22日下午11时开始睡觉并在中间具有唤醒状态一次,并且用户的睡眠在上午7时结束。第二区域620可表示用户的睡眠质量和睡眠量被评估为‘好’状态。第一区域610可关注在12月22日的睡眠信息,并且第二区域620可基于睡眠信息被设置为与‘好’相应的第一颜色(例如,绿色)。
在屏幕602中,在12月23日的睡眠信息可被添加到第一内容,并且可在第一区域610中显示关注的状态。第一区域610可表示用户在下午11时睡觉并且在上午7时10分用户的睡眠结束。第二区域620可表示用户的睡眠质量和睡眠量被评估为‘一般’状态。第二区域620可被设置为与在第一区域610上所关注的12月23日的睡眠的定性评估结果“一般”相应的第二颜色(例如,米黄色)。针对新添加的第一内容的所关注的部分,GPU 180可基于睡眠状态的评估结果来确定第二区域620的转换效果。此外,在通过用户输入而在第一区域610上关注先前日期的情况下,GPU 180可向第二区域620提供与和先前日期相应的睡眠状态的评估结果相应的着色效果。
图7是示出根据本公开的各种实施例的图像合成方法的流程图。
参照图7,在操作710中,GPU 180可将电子装置101的显示器160划分为数量被指定的多个区域。因此划分的区域可被配置为输出不同内容或输出彼此相关联的内容。下面,描述了GPU 180将显示器160划分为两个区域(例如,第一区域和第二区域)。然而,这里公开的实施例可不限于此。
在操作720中,GPU 180可将第一内容输出到第一区域并且可将第二内容输出到第二区域。根据各种实施例,第一内容和第二内容可彼此不同。
在操作730中,GPU 180可接收与第一区域相关联的输入。该输入可包括由用户进行的输入(例如,滑动操作、触摸操作等)或通过在电子装置101中包括的传感器模块155的输入。
在操作740中,GPU 180可基于接收的输入来确定子图像。第一区域可根据用户输入而被滚动,因此在第一区域上显示的图像可与第二区域重叠。GPU 180可将重叠的图像确定为子图像。
在操作750中,GPU 180可基于在第二区域上显示的第二内容以及通过用户输入而布置在第二区域上的子图像来针对源图像执行卷积操作,并且可输出执行的结果。
根据本公开的各种实施例,在电子装置执行的屏幕输出方法可包括:将电子装置的显示器划分为第一区域和第二区域,将第一内容输出到第一区域并且将第二内容输出到第二区域,接收与第一区域相关联的输入,并且基于输入的属性来改变输出第二内容的方法。
根据本公开的各种实施例,接收输入的步骤可包括:接收由用户进行的输入或关于通过传感器模块识别的电子装置的状态或用户的周围环境的输入。改变输出第二内容的方法的步骤可包括基于输入的变化来逐步地改变输出第二内容的方法。
根据本公开的各种实施例,改变输出第二内容的方法的步骤可包括基于输入的变化来改变第二区域的尺寸。改变尺寸的步骤可包括移动第一区域和第二区域之间的边界线并改变第二区域的尺寸。
根据本公开的各种实施例,改变输出第二内容的方法的步骤可包括针对第二内容执行图像处理并输出处理的第二内容。执行图像处理的步骤可包括执行混合效果、合成效果、掩膜效果或几何处理效果中的至少一个。混合效果可包括噪声的产生或去除效果、流动效果、透明度、锐利度、亮度、饱和度、对比度或彩色化效果中的至少一个。执行图像处理的步骤可包括:通过基于输入将不同的滤色器应用到第二内容来改变亮度或饱和度中的至少一个。执行图像处理的步骤可包括:针对第二区域的源图像以及第一内容的与第二区域相应的部分的图像执行合成操作,或者对第一内容的与第二区域相应的部分的图像进行掩膜。
根据本公开的各种实施例,屏幕输出方法还可包括:如果输入被取消,则将第二内容的状态改变为产生输入之前的状态。改变状态的步骤可包括基于输入被取消的程度来逐步地改变第二内容。
根据本公开的各种实施例,第一内容和第二内容可以是根据不同应用的操作输出的内容。可以以重叠方式和单个平面方式中的一种方式来布置第一区域和第二区域。划分显示器的步骤可包括将显示器的整个区域划分为第一区域和第二区域。
根据本公开的各种实施例,改变输出第二内容的方法的步骤可包括:基于输入来改变输出第一内容的方法,并基于输出第一内容的方法来改变关于输出第二内容的方法的至少一个属性。
图8是示出根据本公开的各种实施例的卡型UI的示图。
参照图8,卡型UI可在浏览器的网页、新闻磁贴和仪表板型GUI中被使用。图8是在根据用户输入选择并以横向显示模式显示第十九卡项目、第二十卡项目和第二十一卡项目的情况下的示图。显示的项目可被显示在第一区域810上,并且其余项目可在第二区域820a或第二区域820b中的一个或更多个上被显示为具有部分彼此重叠的形状或具有站立(例如,垂直或倾斜)的形状。
在屏幕801中,第一区域810可显示第十九项目,以及左边第二区域820a和右边第二区域820b可显示被放置在第十九项目的左侧或右侧的项目。根据实施例,左边第二区域820a和右边第二区域820b可包括其部分被显示的项目(例如,第十九项目和第二十项目),并且还可包括重叠形状或站立形状的其它项目(例如,第一项目至第十七项目和第二十一项目至第四十项目)。
在屏幕802中,第一区域810可显示第二十项目并可通过用户的水平滑动操作而被改变到第十九项目(即,屏幕801)或第二十一项目(即,屏幕803)。
在屏幕802中,如果在左边第二区域820a中发生用户输入(例如,触摸或悬停),则为先前项目的第十九项目可被显示,如果在右边第二区域820b中发生用户输入,则为下一项目的第二十一项目可被显示。GPU 180可根据在第二区域中发生用户输入的位置来改变用于改变显示的项目的速度。在左边第二区域820a中,如果用户输入在相对左边的位置被保持(例如,在超过固定时间期间的触摸保持或悬停保持),则GPU 180可以相对快的速度来改变显示的项目,如果用户输入在相对右边的位置被维持,则GPU 180可以相对慢的速度来改变显示的项目。
根据本公开的实施例,基于在第一区域810上显示的项目,第一区域810的位置可被改变,并且第二区域820a和第二区域820b的位置可被改变。例如,在第一项目或最后的项目被显示在第一区域810上的情况下,可仅显示第二区域820a和第二区域820b中的一个。在第一项目被显示在第一区域810上的情况下,可仅在第一区域810的右侧上显示第二区域820b。在最后的项目被显示在第一区域810上的情况下,可仅在第一区域810的左侧上显示第二区域820a。
在屏幕801至屏幕803中,第二区域820a和第二区域820b可显示稍微倾斜的站立项目,并且第一区域810可显示水平状态的项目。
屏幕801a至屏幕803a可以分别是屏幕801至屏幕803的概念侧示图。在第二区域820a和第二区域820b上显示的项目可垂直地站立,并且在第一区域810上显示的项目可被水平地布置。在第二区域820a和第二区域820b上布置的项目的站立角度不必是垂直的,并且该角度可根据通过UI的输入或通过加速度传感器、陀螺仪传感器等的事件而被改变。
在第二区域820a和第二区域820b上显示的图像可以是与站立或重叠状态的项目相关联的。
根据本公开的实施例,在第二区域820a和第二区域820b上显示的第二内容可以是指示垂直地站立项目的顶部的单独的图像。显示单独的站立项目的顶部的第二内容以及以水平状态显示的第一内容可以在第二区域820a和第二区域820b上被显示。
根据本公开的实施例,第二内容可以是重叠或覆盖在第二区域820a和第二区域820b中包括的站立项目上的单独的图像。例如,可将与第二内容相应的图像和与在第二区域820a和第二区域820b中包括的站立项目的上表面相应的图像进行组合,并且可将混合效果应用到图像。
根据本公开的各种实施例,可在电子装置处在横向模式的情况下应用输出第一区域810以及第二区域820a和第二区域820b的方法。在屏幕804中,第一区域810可被布置在屏幕的中心上,并且第二区域820a和第二区域820b可被分别布置在第一区域810的顶部和底部上。
图9是示出根据本公开的各种实施例的屏幕切换的示图。
参照图9,用户确认的项目可被显示在第一区域910上,并且其余项目可在第二区域920a和第二区域920b中的一个或更多个上被显示为具有部分彼此重叠的形状或具有站立(例如,垂直或倾斜)的形状。
在屏幕901a和屏幕901b中,第一区域910可显示第二十项目并且可通过用户从左到右的滑动操作被改变到第十九项目。例如,如果在左边第二区域920a中发生用户输入(例如,触摸或悬停),则为先前项目的第十九项目可被显示。
在屏幕902a和屏幕902b中,在第二十项目被折叠到右边(操作930a)或被闭合(操作930b)之后,第十九项目可被打开(操作940a)或被展开(操作940b)。可根据该过程来显示第十九项目。在第二区域920a或第二区域920b中,项目被垂直地布置的图像可以是反向图像或项目的背面,或者可以是用户倾斜地观看的正常图像的示图。
图10是示出根据本公开的各种实施例的折叠型的屏幕切换的示图。
参照图10,屏幕1001可表示如果在根据用户的输入而当前显示的第二十项目被对折并被拉至第二区域1020a的右边之后第十九项目被放置在第一区域1010、第一区域1010a、第一区域1010b和第一区域1010c中则展开屏幕的方法。
屏幕1002可表示在通过用户的输入而当前显示在第一区域1010、第一区域1010a、第一区域1010b和第一区域1010c中的第二十项目被对折并且同时被对折的第十九项目被显示为展开之后完整地观看第十九项目的方法。
在屏幕1002中,在将被显示的项目通过连续的滚动操作而不再存在的情况下,最左边的图像可示出被对折的最后的项目被显示为被展开,并且其余项目被显示为折叠的形状,以告知用户最后的项目被显示在当前屏幕上。GPU180可通过基于根据诸如拉纸、织物或橡胶的物理引擎而转换的结果使用图像效果,向用户明确地提供信息。纸张仿真技术、布仿真技术、织物仿真技术和弹簧仿真技术可被应用于此。
如果在最后的项目被显示时产生了诸如拉或推的滚动或翻动操作的事件以观看项目,则弹性效果、撕纸效果、布飘动效果等可被应用于此。GPU 180可将通过物理引擎的效果应用到第二区域1020a或第二区域1020b,并且可基于在第二区域1020a或第二区域1020b中包括的项目来显示项目。
图11是示出根据本公开的各种实施例的电子装置的框图。
参照图11,电子装置1101可包括例如图1中示出的电子装置101的全部或部分。电子装置1101可包括一个或更多个处理器(例如,应用处理器)1110、通信模块1120、用户识别模块(SIM)1124、存储器1130、传感器模块1140、输入装置1150、显示器1160、接口1170、音频模块1180、相机模块1191、电力管理模块1195、电池1196、指示器1197和电机1198。
处理器1110可驱动OS或应用程序以控制与处理器1110连接的多个硬件或软件组件,并可处理和计算各种数据。处理器1110可用例如片上系统(Soc)实现。根据实施例,处理器1110还可包括GPU和/或图像信号处理器。处理器1110可包括图11中示出的组件中的至少部分(例如,蜂窝模块1121)。处理器1110可将从其它组件中的至少一个组件(例如,非易失性存储器)接收到的指令或数据进行加载并处理,并可将各种数据存储在非易失性存储器中。
通信模块1120可具有与图1的通信接口170的配置相同或相似的配置。通信模块1120可包括蜂窝模块1121、Wi-Fi模块1123、蓝牙模块1125、GNSS模块1127(例如,GPS模块、Glonass模块、北斗模块或Galileo模块)、NFC模块1128和射频(RF)模块1129。
蜂窝模块1121可通过通信网络提供语音通信、视频通信、个性化服务、互联网服务等。根据本公开的实施例,蜂窝模块1121可使用例如SIM 1124(例如,SIM卡)来执行通信网络中的电子装置1101的识别和验证。根据本公开的实施例,蜂窝模块1121可执行处理器1110提供的功能中的至少部分功能。根据本公开的实施例,蜂窝模块1121可包括CP。
Wi-Fi模块1123、蓝牙模块1125、GNSS模块1127和NFC模块1128中的每个可包括例如用于处理经由相应模块交换的数据的处理器。根据实施例,蜂窝模块1121、Wi-Fi模块1123、蓝牙模块1125、GNSS模块1127和NFC模块1128中的至少部分(例如,两个或更多个组件)可包括在一个集成芯片(IC)或一个IC封装中。
RF模块1129可发送和接收通信信号(例如,RF信号)。RF模块1129可包括收发器、电力放大模块(PAM)、频率过滤器、低噪声放大器(LNA)、天线等。根据实施例,蜂窝模块1121、Wi-Fi模块1123、BT模块1125、GNSS模块1127或NFC模块1128中的至少一个可通过单独的RF模块发送和接收RF信号。
SIM 1124可包括例如SIM,并可包括唯一识别信息(例如,IC卡识别码(ICCID))或用户信息(例如,集成的移动用户身份(IMSI))。
存储器1130(例如,存储器130)可包括内部存储器1132或外部存储器1134。例如,内部存储器1132可包括以下项中的至少一个:易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)或同步DRAM(SDRAM))、非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩膜式ROM、闪存ROM、NAND闪存存储器或NOR闪存存储器)、硬盘驱动器或固态驱动器(SSD)。
外部存储器1134可包括闪存驱动器(例如,小型闪存(CF))、安全数字(SD)、微SD、迷你SD、极限数字卡(xD)、多媒体卡(MMC)、记忆棒等。外部存储器1134可通过各种接口功能地和/或物理地连接到电子装置1101。
传感器模块1140可测量例如物理量,或者可检测电子装置1101的操作状态。传感器模块1140可将测量的或检测到的信息转换成电子信号。传感器模块1140可包括以下项中的至少一个:手势传感器1140A、陀螺仪传感器1140B、大气压传感器1140C、磁性传感器1140D、加速度传感器1140E、握持传感器1140F、接近传感器1140G、颜色传感器1140H(例如,RGB传感器)、生物计量传感器1140I、温度/湿度传感器1140J、照度传感器1140K或UV传感器1140M。尽管未示出,但是另外或可选地,传感器模块1140可包括例如电子鼻传感器、EMG传感器、EEG传感器、ECG传感器、PPG传感器、IR传感器、虹膜传感器和/或指纹传感器。传感器模块1140还可包括用于控制传感器模块1140中包括的至少一个或更多个传感器的控制电路。根据实施例,电子装置1101还可包括被配置为控制传感器模块1140的处理器,其中,该处理器作为处理器1110的部分或独立于处理器1110。该处理器可当处理器1110保持在睡眠状态下时控制传感器模块1140。
输入装置1150可包括例如触摸面板1152、(数字)笔传感器1154、键1156或超声输入装置1158。触摸面板1152可使用电容检测方法、电阻检测方法、IR检测方法或超声波检测方法中的至少一个。另外,触摸面板1152还可包括控制电路。触摸面板1152还可包括触觉层,以向用户提供触觉反应。
(数字)笔传感器1154可以是例如触摸面板的部分,或者可包括用于识别的附加片。键1156可包括例如物理按钮、光学键、键盘等。超声输入装置1158可通过麦克风(例如,麦克风1188)来检测(或感测)从输入装置产生的超声信号,并且可确定与检测的超声信号相应的数据。
显示器1160(例如,图1的显示器160)可包括面板1162、全息装置1164或投影仪1166。面板1162可具有与图1的显示器160的配置相同或相似的配置。面板1162可被实现为是例如柔性的、透明的或可穿戴的。面板1162和触摸面板1152可被集成为单个模块。全息装置1164可利用光干涉现象在空间中显示立体图像。投影仪1166可将光投影到屏幕上,以便显示图像。屏幕可被布置在电子装置1101的内部或外部。根据实施例,显示器160还可包括用于控制面板1162、全息装置1164或投影仪1166的控制电路。
接口1170可包括例如HDMI 1172、USB 1174、光学接口1176或D-超小型(D-sub)1178。接口1170可包括在例如图1中示出的通信接口170中。另外或可选地,接口1170可包括例如移动高清连接(MHL)接口、SD卡/多媒体卡(MMC)接口或红外数据协会(IrDA)标准接口。
音频模块1180可进行声音和电信号的双向转换。音频模块1180的至少部分可包括在例如图1中示出的I/O接口150中。音频模块1180可对例如通过扬声器1182、接收器1184、耳机1186或麦克风1188输入或输出的声音信息进行处理。
用于拍摄静止图像或视频的相机模块1191可包括例如至少一个图像传感器(例如,前置传感器或后置传感器)、透镜、图像信号处理器(ISP)或闪光灯(例如,LED或氙灯)。
电力管理模块1195可管理例如电子装置1101的电力。根据实施例,电力管理模块1195可包括电力管理IC(PMIC)、充电器IC或电池或燃料计。PMIC可具有有线充电方法和/或无线充电方法。无线充电方法可包括例如磁共振方法、磁感应方法或电磁方法,并且还可包括附加电路,例如,线圈回路、谐振电路、整流器等。电池燃料计可测量例如电池1196的剩余量和在电池被充电期间的电压、电流或温度。电池1196可包括例如可充电电池或太阳能电池。
指示器1197可显示电子装置1101或电子装置1101的部分(例如,处理器1110)的特定状态,诸如,启动状态、消息状态、充电状态等。电机1198将电信号转换成机械振动,并可产生以下效果:振动、触觉等。尽管未示出,但电子装置1101可包括用于支持移动TV的处理装置(例如,GPU)。用于支持移动TV的处理装置可根据数字多媒体广播(DMB)、数字视频广播(DVB)、MediaFloTM的标准来处理媒体数据。
根据本公开的各种实施例的电子装置的上述元件中的每个元件可用一个或更多个组件来配置,并且元件的名称可根据电子装置的类型而改变。根据本公开的各种实施例的电子装置可包括上述元件中的至少一个,并且可省略一些元件,或者可添加其它附加的元件。此外,根据本公开的各种实施例的电子装置的一些元件可相互组合以形成一个实体,使得可按照与组合之前的方式相同的方式来执行元件的功能。
图12是示出根据本公开的各种实施例的程序模块的框图。
参照图12,根据本公开的实施例,程序模块1210(例如,程序140)可包括用于控制与电子装置(例如,电子装置101)相关联的资源的OS和/或在OS上驱动的各种各样的应用程序(例如,应用程序147)。OS可以是例如Android、iOS、Windows、Symbian、Tizen或Bada。
程序模块1210可包括内核1220、中间件1230、API 1260和/或应用1270。程序模块1210的至少部分可被预先加载在电子装置上或可从外部电子装置(例如,第一电子装置102和第二电子装置104、服务器106等)下载。
内核1220(例如,内核141)可包括例如系统资源管理器1221或装置驱动器1223。系统资源管理器1221可执行系统资源的控制、分配或检索。根据本公开的实施例,系统资源管理器1221可包括进程管理部分、存储管理部分或文件系统管理部分。装置驱动器1223可包括例如显示驱动器、相机驱动器、蓝牙驱动器、共享存储器驱动器、USB驱动器、键盘驱动器、Wi-Fi驱动器、音频驱动器或进程间通信(IPC)驱动器。
中间件1230可提供例如应用1270共同需要的功能,或可通过API 1260向应用1270提供各种功能以使应用1270有效地使用电子装置的有限的系统资源。根据本公开的实施例,中间件1230(例如,中间件143)可包括以下项中的至少一个:运行时库1235、应用管理器1241、窗口管理器1242、多媒体管理器1243、资源管理器1244、电力管理器1245、数据库管理器1246、包管理器1247、连接管理器1248、通知管理器1249、位置管理器1250、图形管理器1251或安全管理器1252。
运行时库1235可包括例如,在执行应用1270时由编译器使用以通过编程语言添加新功能的库模块。运行时库1235可执行I/O管理、存储器管理或关于算术功能的能力。
应用管理器1241可管理例如应用1270中的至少一个应用的生命周期。窗口管理器1242可管理在屏幕中使用的GUI资源。多媒体管理器1243可识别用于播放各种媒体文件所需的格式,并且可通过使用适合于所述格式的编解码器来执行媒体文件的编码或解码。资源管理器1244可管理应用1270中的至少一个应用的诸如存储空间、存储器或源代码的资源。
电力管理器1245可与例如基本输入/输出系统(BIOS)一起进行操作来管理电池或电力,并且可提供电子装置的操作所需的电力信息。数据库管理器1246可产生、搜索或修改将在应用1270中的至少一个应用中使用的数据库。包管理器1247可管理以包文件的形式分布的应用的安装或更新。
连接管理器1248可管理例如无线连接,诸如Wi-Fi或蓝牙。通知管理器1249可以以不打扰用户的方式显示或通知诸如消息到达、约定或接近通知的事件。位置管理器1250可管理电子装置的位置信息。图形管理器1251可管理将向用户提供的图形效果或与图形效果相关的UI。安全管理器1252可提供系统安全或用户认证所需的一般安全功能。根据本公开的实施例,在电子装置(例如,电子装置101)包括电话功能的情况下,中间件1230还可包括用于管理电子装置的语音或视频呼叫功能的电话管理器。
中间件1230可包括将上述组件的各种功能进行组合的中间件模块。中间件1230可提供每个OS专用的模块,以提供不同功能。此外,中间件1230可动态地去除现存的组件的部分,或者可另外添加新组件。
API 1260(例如,API 145)可以是例如编程函数的集合,并且可用根据OS可变的配置来提供。例如,在OS为Android或iOS的情况下,可允许向每个平台提供一个API集。在OS为Tizen的情况下,可允许向每个平台提供两个或更多个API集。
应用1270(例如,应用程序147)可包括例如能够针对以下项提供功能的一个或更多个应用程序:主页1271、拨号器1272、短消息服务(SMS)/多媒体消息服务(MMS)1273、即时消息(IM)1274、浏览器1275、相机1276、闹钟1277、联系人1278、语音拨号1279、电子邮件1280、日历1281、媒体播放器1282、相册1283和时钟1284,或者用于提供医疗保健(例如,测量运动量或血糖量)或环境信息(例如,大气压、湿度或温度)的一个或更多个应用。
根据实施例,应用1270可包括支持在电子装置(例如,电子装置101)和外部电子装置(例如,第一电子装置102或第二电子装置104)之间的信息交换的应用(在下文中,为了便于描述,被称为“信息交换应用”)。信息交换应用可包括例如用于将特定信息发送到外部电子装置的通知转发应用或用于管理外部电子装置的装置管理应用。
例如,信息交换应用可包括将由其它应用(例如,用于SMS/MMS、电子邮箱、医疗保健或环境信息的应用)产生的通知信息发送到外部电子装置(例如,第一电子装置102或第二电子装置104)的功能。此外,信息交换应用可从外部电子装置接收例如通知信息,并可向用户提供该通知信息。
装置管理应用可管理(例如,安装、删除或更新)例如与电子装置通信的外部电子装置(例如,第一电子装置102和第二电子装置104)的至少一个功能(例如,打开/关闭外部电子装置本身(或部分组件)或调整显示器的亮度(或分辨率))、在外部电子装置中进行的应用或从外部电子装置提供的服务(例如,呼叫服务、消息服务等)。
根据本公开的实施例,应用1270可包括根据外部电子装置(例如,第一电子装置102或第二电子装置104)的属性分配的应用(例如,移动医疗装置的医疗保健应用)。根据本公开的实施例,应用1270可包括从外部电子装置(例如,服务器106、第一电子装置102和第二电子装置104)接收到的应用。根据本公开的实施例,应用1270可包括预加载的应用或可从服务器下载的第三方应用。根据本公开的实施例的程序模块1210的组件名称可根据OS的种类而修改。
根据本公开的各种实施例,程序模块1210中的至少部分可以以软件、固件、硬件或软件、固件和硬件中的两个或更多个的组合实现。程序模块1210中的至少部分可由例如处理器(例如,处理器120)实现(例如,执行)。程序模块1210中的至少部分可包括例如用于执行一个或更多个功能的模块、程序、例程、指令集或进程等。
在这里使用的术语“模块”可表示例如包括硬件、软件和固件中的一个或更多个组合的单元。术语“模块”可与术语“单元”、“逻辑”、“逻辑块”、“组件”和“电路”互换使用。“模块”可以是集成组件的最小单元或最小单元的部分。“模块”可以是用于执行一个或更多个功能的最小单元或执行一个或更多个功能的最小单元的部分。“模块”可被机械地或电子地实现。例如,“模块”可包括以下项中的至少一个:专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)以及公知的或将被开发的用于执行一些操作的可编程逻辑器件。
根据本公开的各种实施例的设备(例如,设备的模块或功能)或方法(例如,操作)中的至少部分可用例如以程序模块的形式存储在计算机可读存储介质中的指令来实现。当指令被处理器(例如,处理器120)执行时,可促使一个或更多个处理器执行与指令相应的功能。计算机可读存储介质例如可以是存储器1130。
计算机可读存储介质可包括硬盘、磁性介质、软盘、磁性介质(例如,磁带)、光学介质(例如,压缩盘ROM(CD-ROM)、DVD或磁光介质(例如,软光盘))、和硬件装置(例如,ROM、RAM或闪存存储器)等。此外,程序指令可不仅包括机械代码(诸如,由编译器产生的事物),而且可包括在计算机上使用解释器可执行的高级语言代码。上述硬件单元可被配置为经由用于执行本公开的操作的一个或更多个软件模块来操作,反之亦然。
根据本公开的各种实施例,计算机可读存储介质可存储这样的程序,其中,所述程序用于执行获取当被访问时需要认证的数据的操作以及将数据中的至少部分存储到通过物理信道连接到处理器的嵌入式安全元件(eSE)中的操作。
根据本公开的各种实施例的屏幕输出方法可基于安装在电子装置中的传感器以及关于用户的附近和用户的状态(诸如用户的设置和输入方法)的信息等来提供用于与用户交互的UI。
根据本公开的各种实施例的屏幕输出方法可通过用于与用户交互的UI实时地提供各种屏幕效果并且可向用户提供有趣的用户体验。因此,可提高可见性和可读性。
根据各种实施例的模块或程序模块可包括上述元件中的至少一个,或可省略上述元件中的部分,或者还可包括附加的其它元件。根据本公开的各种实施例的由模块、程序模块或其它元件执行的操作可顺序地、以并行、重复或启发式的方法被执行。此外,操作的部分可以以不同的顺序被执行,或者其它操作可被添加。
虽然已经参照本公开的各种实施例示出并描述了本公开,但是本领域技术人员应理解:在不脱离由权利要求及其等同物限定的本发明的精神和范围的情况下,可在本公开中进行形式和细节上的各种改变。

Claims (15)

1.一种在电子装置执行的屏幕输出方法,所述屏幕输出方法包括:
将电子装置的显示器划分为第一区域和第二区域;
将第一内容输出到第一区域并将第二内容输出到第二区域;
接收与第一区域相关联的输入;
基于所述输入的属性来改变输出第二内容的方法。
2.如权利要求1所述的方法,其中,接收与第一区域相关联的输入的步骤包括:
接收以下输入中的至少一个:由用户进行的输入、或通过传感器模块识别的关于电子装置的状态或用户的周围环境的输入。
3.如权利要求1所述的方法,其中,改变输出第二内容的方法的步骤包括:
基于所述输入的变化来逐步地改变输出第二内容的方法。
4.如权利要求1所述的方法,其中,改变输出第二内容的方法的步骤包括:
基于所述输入的变化来改变第二区域的尺寸。
5.如权利要求4所述的方法,其中,改变第二区域的尺寸的步骤包括:
移动第一区域和第二区域之间的边界线;并且
改变第二区域的尺寸。
6.如权利要求1所述的方法,其中,改变输出第二内容的方法的步骤包括:
针对第二内容执行图像处理;并且
输出处理后的第二内容。
7.如权利要求6所述的方法,其中,执行图像处理的步骤包括:
执行混合效果、合成效果、掩膜效果或几何处理效果中的至少一个。
8.如权利要求7所述的方法,其中,混合效果包括以下项中的至少一项:噪声的产生或去除效果、流动效果、透明度、锐度、亮度、饱和度、对比度或着色效果。
9.如权利要求7所述的方法,其中,执行图像处理的步骤包括:
通过基于所述输入向第二内容应用不同的滤色器来改变亮度或饱和度中的至少一个。
10.如权利要求7所述的方法,其中,执行图像处理的步骤包括:
针对第二区域的源图像以及第一内容的与第二区域相应的部分的图像执行合成操作,或者对第一内容的与第二区域相应的部分的图像进行掩膜。
11.如权利要求1所述的方法,其中,第一内容和第二内容是根据不同应用的操作输出的内容。
12.一种电子装置,包括:
显示器;
存储器;
处理器,被电连接到显示器和存储器,所述处理器被配置为:
将显示器的区域划分为第一区域和第二区域,
将第一内容输出到第一区域,
将第二内容输出到第二区域,
如果与第一区域相关联的输入被接收到,则基于所述输入的属性来改变输出第二内容的方法。
13.如权利要求12所述的电子装置,还包括:
传感器模块,
其中,所述处理器还被配置为:接收由用户进行的输入、或通过传感器模块识别的关于电子装置的状态或用户的周围环境的输入。
14.如权利要求12所述的电子装置,其中,所述处理器还被配置为:基于所述输入的变化来逐步地改变输出第二内容的方法。
15.如权利要求12所述的电子装置,其中,所述处理器还被配置为:基于所述输入的变化来改变第二区域的尺寸。
CN201610368232.1A 2015-05-29 2016-05-30 用于输出屏幕的方法及支持该方法的电子装置 Pending CN106201390A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0076559 2015-05-29
KR1020150076559A KR102423184B1 (ko) 2015-05-29 2015-05-29 화면 출력 방법 및 이를 지원하는 전자 장치

Publications (1)

Publication Number Publication Date
CN106201390A true CN106201390A (zh) 2016-12-07

Family

ID=56092787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610368232.1A Pending CN106201390A (zh) 2015-05-29 2016-05-30 用于输出屏幕的方法及支持该方法的电子装置

Country Status (4)

Country Link
US (1) US20160349936A1 (zh)
EP (1) EP3098703A3 (zh)
KR (1) KR102423184B1 (zh)
CN (1) CN106201390A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021671A (zh) * 2017-12-06 2018-05-11 深圳市茁壮网络股份有限公司 一种页面透明处理方法及装置
CN108419116A (zh) * 2018-04-16 2018-08-17 北京酷我科技有限公司 一种竖版视频与滚动区联动的方法
CN108616770A (zh) * 2018-04-16 2018-10-02 北京酷我科技有限公司 一种竖版视频与滚动区联动方法
CN108650536A (zh) * 2018-05-28 2018-10-12 深圳智英电子有限公司 基于北斗卫星定位及指纹人脸识别户户通直播卫星机顶盒
CN108851251A (zh) * 2018-08-20 2018-11-23 厦门盈趣科技股份有限公司 一种具有身份识别功能的电子烟及其使用方法
CN109166169A (zh) * 2018-07-30 2019-01-08 长沙景美集成电路设计有限公司 一种gpgpu纹理采样器的硬件实现
CN109512466A (zh) * 2018-12-08 2019-03-26 余姚市华耀工具科技有限公司 智能化妇科b超仪
CN111568398A (zh) * 2020-04-30 2020-08-25 北京科技大学 一种基于体域网的生理信号采集系统
CN112162656A (zh) * 2017-06-29 2021-01-01 上海耕岩智能科技有限公司 一种生物特征识别方法和装置
CN114997104A (zh) * 2021-03-01 2022-09-02 北京字跳网络技术有限公司 文档的显示方法、装置、电子设备和存储介质

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
USD884721S1 (en) * 2016-07-01 2020-05-19 Visa International Service Association Display screen or portion thereof with animated graphical user interface
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
USD843398S1 (en) * 2016-10-26 2019-03-19 Google Llc Display screen with graphical user interface for a timeline-video relationship presentation for alert events
CN108153406B (zh) * 2016-12-02 2021-09-10 成都理想智美科技有限公司 一种控制hmd视角的方法及头戴显示设备
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US10819921B2 (en) 2017-05-25 2020-10-27 Google Llc Camera assembly having a single-piece cover element
US10683962B2 (en) 2017-05-25 2020-06-16 Google Llc Thermal management for a compact electronic device
US10972685B2 (en) 2017-05-25 2021-04-06 Google Llc Video camera assembly having an IR reflector
US11416817B2 (en) * 2017-06-02 2022-08-16 Apple Inc. Event extraction systems and methods
DE102017129795B4 (de) 2017-06-30 2024-08-08 Lg Display Co., Ltd. Anzeigevorrichtung und gate-treiberschaltkreis davon, ansteuerungsungsverfahren und virtuelle-realität-vorrichtung
US10460499B2 (en) 2017-09-27 2019-10-29 Whatsapp Inc. Animating digital graphics overlaid on visual media items based on dynamic attributes
KR101877215B1 (ko) * 2017-11-10 2018-07-12 엘아이지넥스원 주식회사 영상센서에 기인한 노이즈를 반영하는 시뮬레이션 영상 생성장치 및 방법
USD876459S1 (en) * 2017-12-04 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD876458S1 (en) * 2017-12-04 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD868810S1 (en) * 2017-12-04 2019-12-03 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US11762902B2 (en) * 2017-12-12 2023-09-19 Google Llc Providing a video preview of search results
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
USD916765S1 (en) * 2018-04-11 2021-04-20 Trivver, Inc. Display panel with transitional graphical user interface for augmented reality component
USD897362S1 (en) * 2018-07-11 2020-09-29 Timeshifter, Inc. Display screen or portion thereof with graphical user interface
USD904456S1 (en) * 2018-11-06 2020-12-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN109830179B (zh) * 2019-03-29 2021-01-08 维沃移动通信有限公司 终端设备及用于终端设备的感光检测方法
GB2607172B (en) * 2019-04-25 2023-11-01 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
CN110177208B (zh) * 2019-05-31 2022-02-22 努比亚技术有限公司 一种视频录制的关联控制方法、设备及计算机可读存储介质
CN111176764B (zh) * 2019-12-10 2022-04-05 华为技术有限公司 显示控制方法和终端设备
US11528297B1 (en) 2019-12-12 2022-12-13 Zimperium, Inc. Mobile device security application for malicious website detection based on representative image
USD944819S1 (en) * 2020-02-05 2022-03-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11703990B2 (en) * 2020-08-17 2023-07-18 Microsoft Technology Licensing, Llc Animated visual cues indicating the availability of associated content
US11487420B2 (en) 2020-09-02 2022-11-01 Deere & Company Methods, apparatus, and articles of manufacture to display data in compact spaces
CN115623158A (zh) * 2020-12-18 2023-01-17 北京字跳网络技术有限公司 展示方法、装置和电子设备
CN113722028B (zh) 2021-05-28 2022-10-28 荣耀终端有限公司 动态卡片显示方法及装置
US12094327B2 (en) * 2022-06-06 2024-09-17 International Business Machines Corporation Haptic effect management
US11947896B2 (en) 2022-06-24 2024-04-02 Adobe Inc. Font recommendation
US11989505B2 (en) * 2022-10-05 2024-05-21 Adobe Inc. Generating personalized digital design template recommendations
US11886809B1 (en) 2022-10-31 2024-01-30 Adobe Inc. Identifying templates based on fonts

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030090528A1 (en) * 2001-10-11 2003-05-15 Hiroki Masuda Information processing apparatus and method, and information processing program
US20110113361A1 (en) * 2009-11-06 2011-05-12 Apple Inc. Adjustment presets for digital images
US20130159941A1 (en) * 2011-01-06 2013-06-20 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
US20130167078A1 (en) * 2011-12-26 2013-06-27 Inadev Corporation Screen management system
CN103870282A (zh) * 2014-03-24 2014-06-18 深圳市中兴移动通信有限公司 一种调整图标显示方式的方法及装置
CN103885711A (zh) * 2014-03-21 2014-06-25 深圳市东方拓宇科技有限公司 一种电子设备分屏控制方法和系统
CN104320590A (zh) * 2014-11-19 2015-01-28 北京奇虎科技有限公司 一种分屏图像处理方法、装置及客户端

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050005249A1 (en) * 2003-07-01 2005-01-06 Microsoft Corporation Combined content selection and display user interface
US20140033118A1 (en) * 2006-06-21 2014-01-30 Adobe Systems Incorporated Space management in windowed environments
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US8068693B2 (en) * 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
TWI381304B (zh) * 2008-04-22 2013-01-01 Htc Corp 使用者介面顯示區域的調整方法、裝置及儲存媒體
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
KR101749529B1 (ko) * 2010-11-25 2017-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9104290B2 (en) * 2011-02-11 2015-08-11 Samsung Electronics Co., Ltd. Method for controlling screen of mobile terminal
KR20130034747A (ko) * 2011-09-29 2013-04-08 삼성전자주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
US9218123B2 (en) * 2011-12-29 2015-12-22 Apple Inc. Device, method, and graphical user interface for resizing content viewing and text entry interfaces
US8963857B2 (en) * 2012-02-21 2015-02-24 Lg Electronics Inc. Electronic device and method of controlling the same
KR102069014B1 (ko) * 2012-09-25 2020-02-12 삼성전자 주식회사 휴대단말기의 분리화면 제어장치 및 방법
JP6399744B2 (ja) * 2013-12-04 2018-10-03 キヤノン株式会社 表示装置、表示方法
KR101610882B1 (ko) * 2014-08-08 2016-04-08 네이버 주식회사 표시 제어 장치, 표시 제어 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030090528A1 (en) * 2001-10-11 2003-05-15 Hiroki Masuda Information processing apparatus and method, and information processing program
US20110113361A1 (en) * 2009-11-06 2011-05-12 Apple Inc. Adjustment presets for digital images
US20130159941A1 (en) * 2011-01-06 2013-06-20 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
US20130167078A1 (en) * 2011-12-26 2013-06-27 Inadev Corporation Screen management system
CN103885711A (zh) * 2014-03-21 2014-06-25 深圳市东方拓宇科技有限公司 一种电子设备分屏控制方法和系统
CN103870282A (zh) * 2014-03-24 2014-06-18 深圳市中兴移动通信有限公司 一种调整图标显示方式的方法及装置
CN104320590A (zh) * 2014-11-19 2015-01-28 北京奇虎科技有限公司 一种分屏图像处理方法、装置及客户端

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112162656A (zh) * 2017-06-29 2021-01-01 上海耕岩智能科技有限公司 一种生物特征识别方法和装置
CN108021671A (zh) * 2017-12-06 2018-05-11 深圳市茁壮网络股份有限公司 一种页面透明处理方法及装置
CN108021671B (zh) * 2017-12-06 2022-04-15 深圳市茁壮网络股份有限公司 一种页面透明处理方法及装置
CN108419116A (zh) * 2018-04-16 2018-08-17 北京酷我科技有限公司 一种竖版视频与滚动区联动的方法
CN108616770A (zh) * 2018-04-16 2018-10-02 北京酷我科技有限公司 一种竖版视频与滚动区联动方法
CN108650536A (zh) * 2018-05-28 2018-10-12 深圳智英电子有限公司 基于北斗卫星定位及指纹人脸识别户户通直播卫星机顶盒
CN109166169A (zh) * 2018-07-30 2019-01-08 长沙景美集成电路设计有限公司 一种gpgpu纹理采样器的硬件实现
CN108851251A (zh) * 2018-08-20 2018-11-23 厦门盈趣科技股份有限公司 一种具有身份识别功能的电子烟及其使用方法
CN108851251B (zh) * 2018-08-20 2021-08-31 厦门盈趣科技股份有限公司 一种具有身份识别功能的电子烟及其使用方法
CN109512466A (zh) * 2018-12-08 2019-03-26 余姚市华耀工具科技有限公司 智能化妇科b超仪
CN111568398A (zh) * 2020-04-30 2020-08-25 北京科技大学 一种基于体域网的生理信号采集系统
CN114997104A (zh) * 2021-03-01 2022-09-02 北京字跳网络技术有限公司 文档的显示方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
KR102423184B1 (ko) 2022-07-21
KR20160140221A (ko) 2016-12-07
EP3098703A3 (en) 2017-03-22
EP3098703A2 (en) 2016-11-30
US20160349936A1 (en) 2016-12-01

Similar Documents

Publication Publication Date Title
CN106201390A (zh) 用于输出屏幕的方法及支持该方法的电子装置
US10289376B2 (en) Method for displaying virtual object in plural electronic devices and electronic device supporting the method
CN106462325B (zh) 控制显示器的方法和提供该方法的电子设备
KR102491287B1 (ko) 전자 장치
KR102545768B1 (ko) 메타 데이터를 처리하기 위한 장치 및 방법
CN107665485B (zh) 用于显示图形对象的电子装置和计算机可读记录介质
CN110476189A (zh) 用于在电子装置中提供增强现实功能的方法和设备
CN108076217A (zh) 用于显示使用图标的应用的执行屏幕的电子装置和方法
KR20160144818A (ko) 이미지 데이터 처리 방법 및 이를 지원하는 전자 장치
CN107393501A (zh) 电子设备
CN108513060A (zh) 使用外部电子设备的拍摄方法和支持该方法的电子设备
CN107016950A (zh) 用于操作电子设备的方法和支持该方法的电子设备
CN105389077A (zh) 电子设备的显示方法以及电子设备
KR20160054840A (ko) 정보를 공유하기 위한 가상 환경
KR102356449B1 (ko) 회전 입력에 따른 추가 정보 제공 방법 및 장치
CN108024763B (zh) 活动信息提供方法及支持其的电子设备
CN106662969A (zh) 处理内容的方法及其电子设备
KR102411281B1 (ko) 전자 장치 및 전자 장치의 이미지 파일 생성 방법
CN108462818A (zh) 电子设备及用于在该电子设备中显示360度图像的方法
KR20160145965A (ko) 잠금 화면 출력 제어 방법 및 이를 지원하는 전자 장치
KR102613490B1 (ko) 전자 장치 및 그의 사용자의 활동 정보를 제공하는 방법
CN110178110B (zh) 电子设备及用于通过其显示屏幕的方法
CN105700785A (zh) 提供对象-相关服务的方法和设备
CN106250076A (zh) 用于独立控制显示器的多个区域的装置及其方法
KR20170000196A (ko) 객체의 속성 기반의 상태 변화 효과를 출력하기 위한 방법 및 그 전자 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161207

WD01 Invention patent application deemed withdrawn after publication