CN111886595A - 屏幕控制方法和支持屏幕控制方法的电子设备 - Google Patents
屏幕控制方法和支持屏幕控制方法的电子设备 Download PDFInfo
- Publication number
- CN111886595A CN111886595A CN201980018456.1A CN201980018456A CN111886595A CN 111886595 A CN111886595 A CN 111886595A CN 201980018456 A CN201980018456 A CN 201980018456A CN 111886595 A CN111886595 A CN 111886595A
- Authority
- CN
- China
- Prior art keywords
- electronic device
- meaning
- region
- processor
- different
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000004891 communication Methods 0.000 claims description 58
- 230000008569 process Effects 0.000 claims description 11
- 230000001815 facial effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 22
- 230000008859 change Effects 0.000 description 15
- 238000003860 storage Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 4
- 239000004984 smart glass Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/454—Multi-language systems; Localisation; Internationalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computer Hardware Design (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
公开了一种电子设备,包括显示器、存储器和处理器,其中处理器被配置为:识别在电子设备中设置的第一区域;识别与输出到显示器的第一对象相关联的第二区域;确定第一区域是否与第二区域不同;当第二区域与第一区域不同时,确认在第一区域中使用在显示器上输出的第二对象的第一含义以及在第二区域中使用第二对象的第二含义;确定第一含义是否与第二含义彼此不同;以及,当第一含义与第二含义彼此不同时,经由显示器通知第一含义与第二含义彼此不同。根据说明书知晓的其它各种实施例也是可能的。
Description
技术领域
在本说明书中公开的实施例涉及一种用于控制屏幕的技术。
背景技术
诸如智能电话之类的电子设备可以支持用于与不同区域(或国家或文化)中的用户进行通信的各种方法。例如,电子设备可以提供用于通过消息应用、电子邮件应用或聊天应用(例如,即时通讯(IM)应用)与其他用户发送和接收消息的环境。此外,电子设备可以发送和接收包括图像、音频或视频以及文本的消息。例如,电子设备可以支持发送/接收表情符号、贴纸、音频、视频等。
同时,正在广泛提供能够直接安装在用户的身体上的可穿戴电子设备。可以在将可穿戴电子设备安装在身体的一部分(例如手腕、脚踝、脖子、腰部或头部)上时使用可穿戴电子设备,从而提高其移动性和便携性。作为可穿戴电子设备的示例,可以包括安装在用户的头部上并显示图像的头戴式显示装置(HMD)、智能眼镜等。可穿戴电子设备可以提供虚拟现实(VR)环境或增强现实(AR)环境以与其它区域中的用户进行通信。
提供用于与其它区域中的用户进行通信的环境的电子设备可以提供翻译功能。例如,电子设备可以提供对发送和接收的文本进行翻译的功能,使得使用不同语言的用户之间可以顺利地通信。
发明内容
【技术问题】
然而,常规电子设备仅提供翻译文本的功能;另一方面,无需经过单独的处理就发送/接收能够针对每个区域(备选地,国家或文化)具有不同含义的对象。例如,常规电子设备在从其它区域的用户所利用的外部电子设备接收到指示表情符号、贴纸或手势的图像(这些图像能够针对每个区域具有不同的含义)的情况下,可以原样显示这些图像,或者可以将图像原样发送到外部电子设备。在这种情况下,可以交换不同含义的消息。
在本说明书中公开的实施例可以提供用于提供关于针对每个区域具有不同含义的对象的通知的屏幕控制方法、以及支持该屏幕控制方法的电子设备。
【技术方案】
根据本说明书中公开的实施例,电子设备可以包括显示器、存储器和处理器。处理器可以被配置为识别针对电子设备设置的第一区域;识别与输出到显示器的第一对象相关联的第二区域;确定第一区域是否与第二区域不同;当第二区域与第一区域不同时,识别在第一区域中使用输出到显示器的第二对象的第一含义以及在第二区域中使用第二对象的第二含义;确定第一含义是否与第二含义不同;以及,当第一含义与第二含义不同时,通过显示器提供第一含义与第二含义不同的通知。
此外,根据本说明书中公开的实施例,电子设备的屏幕控制方法可以包括:识别针对电子设备设置的第一区域;识别与输出到显示器的第一对象相关联的第二区域;确定第一区域是否与第二区域不同;当第二区域与第一区域不同时,识别在第一区域中使用输出到显示器的第二对象的第一含义以及在第二区域中使用第二对象的第二含义;确定第一含义是否与第二含义不同;以及,当第一含义与第二含义不同时,通过显示器提供第一含义与第二含义不同的通知。
【有益效果】
根据本说明书中公开的实施例,可以通过提供关于针对每个区域具有不同含义的对象的通知来支持与不同区域中的用户的更准确的通信。
此外,可以提供通过本公开直接或间接理解的各种技术效果。
附图说明
图1是根据实施例的与屏幕控制相关联的电子设备的框图。
图2是根据实施例的用于描述在不同区域的用户之间进行通信的方法的图。
图3是示出了根据实施例的操作与屏幕控制相关联的电子设备的方法的图。
图4是根据实施例的用于说明用于禁止使用具有不同含义的对象的方法的图。
图5是根据实施例的用于描述提供对象的不同含义的通知的方法的图。
图6是根据实施例的用于描述改变具有不同含义的对象的方法的图。
图7是根据实施例的用于描述在发送具有不同含义的对象时改变对象的方法的图。
图8是根据实施例的用于描述在选择具有不同含义的对象时改变对象的方法的图。
图9是根据实施例的用于描述VR环境中的屏幕控制方法的图。
图10是根据实施例的用于描述AR环境中的屏幕控制方法的图。
图11是根据各种实施例的网络环境中的电子设备的框图。
关于附图的描述,相同或相似的组件可以用相同或相似的附图标记标记。
具体实施方式
图1是根据实施例的与屏幕控制相关联的电子设备的框图。
根据实施例,电子设备100(例如,图11的电子设备1101)可以提供翻译功能,使得电子设备100的用户可以与另一个区域(备选地,国家或文化)中的用户(以下称为“对方”)顺利地通信。例如,电子设备100可以向消息应用、电子邮件应用或聊天应用提供翻译功能。此外,电子设备100可以向用户提供关于能够针对每个区域(备选地,国家或文化)具有不同含义的对象的通知。例如,电子设备100可以提供关于能够针对每个区域具有不同的含义的表情符号或贴纸的通知。对于另一示例,电子设备100可以提供关于图像的通知,该图像指示能够针对每个区域具有不同含义的手势。此外,电子设备100可以处理对象以防止该对象被使用或者可以将该对象改变为另一对象。
参考图1,执行上述功能的电子设备100可以包括显示器110(例如,图11的显示设备1160的至少一部分)、存储器130(例如,图11的存储器1130)以及处理器150(例如,图11的处理器1120)。然而,电子设备100的配置不限于此。根据各种实施例,除了上述组件之外,电子设备100还可以包括至少另一组件。例如,电子设备100还可以包括通信电路170(例如,图11的通信模块1190的至少一部分)。
显示器110可以向用户显示各种内容(例如,文本、图像、视频、图标、符号等)。根据实施例,显示器110可以包括触摸屏。例如,显示器110可以使用电子笔或用户身体的一部分(例如,手指)来获得触摸、手势、接近或悬停输入。
存储器130可以存储与电子设备100的至少另一组件相关联的命令或数据。根据实施例,存储器130可以存储软件和/或程序。例如,存储器130可以存储用于与对方通信的应用(例如,消息应用、电子邮件应用、聊天应用等)。在存储在存储器130中的软件和/或程序中包括的指令可以由处理器150执行。
根据实施例,存储器130可以存储文化数据库(DB)131。文化DB 131可以包括关于针对每个区域(备选地,国家或文化)具有不同含义的对象(例如,表情符号、贴纸、手势等)的信息。
处理器150可以执行与电子设备100的至少一个其它元件的控制和/或通信相关联的数据处理或操作。处理器150可以驱动操作系统(OS)或应用程序以控制连接到处理器150的多个硬件或软件组件,并且可以处理和计算各种数据。处理器150可以包括中央处理单元、应用处理器或通信处理器中的一个或多个。根据实施例,处理器150可以用片上系统(SoC)来实现。
根据实施例,处理器150可以识别在电子设备100中设置的区域。例如,处理器150可以识别与电子设备100的区域相关联的配置信息。对于另一个示例,处理器150可以通过电子设备100的用户的简档信息(或账户信息)识别电子设备100的区域。
根据实施例,处理器150可以识别与输出到显示器110的对象相关联的区域。例如,处理器150可以识别与包括在诸如消息应用、电子邮件应用或聊天应用之类的执行屏幕中的对象相关联的区域。对于另一示例,处理器150可以识别与包括在VR图像或AR图像中的对象相关联的区域。对象可以是与作为通信目标的对方相关联的对象。例如,对象可以包括能够识别对方的信息(例如,姓名、昵称、账户ID、电话号码等)。对于另一个示例,对象可以包括通过捕获对方而获得的图像。
根据实施例,当对象包括能够识别对方的信息时,处理器150可以使用该信息来识别对方的区域。例如,处理器150可以使用对方的姓名、昵称、账户ID、电话号码等来识别对方的区域。
根据实施例,当对象包括对方的图像时,处理器150可以分析图像,可以基于分析的信息来辨认对方的面部,可以通过辨认的信息来识别对方,并且可以识别使用识别的对方的简档信息识别对方的区域。备选地,处理器150可以基于来自分析图像的信息来确定对方的面部特征,并且可以通过面部特征来确定(推断)对方的区域。备选地,处理器150可以分析图像中包括的语音信息,可以基于分析的信息来辨认对方的语音,可以识别对方,并且可以使用识别的对方的简档信息来识别对方的区域。备选地,处理器150可以基于来自分析语音的信息,通过对方使用的语言或语言特征(例如,语调等)来确定(推断)对方的区域。
根据实施例,处理器150可以通过输出到显示器110的对象来识别用于每个区域的含义。例如,处理器150可以通过指示输出到显示器110的表情符号、标签或手势的图像来识别用于每个区域的含义。可以通过存储在存储器130中的文化DB 131来管理在对象用于每个区域的情况下的含义。
根据实施例,当在显示器110上显示针对每个区域具有不同含义的对象时,处理器150可以向用户通知该对象针对每个区域具有不同含义。例如,处理器150可以在显示器110上输出指示对象针对每个区域具有不同含义的文本、图像等。
根据实施例,处理器150可以处理针对每个区域具有不同含义的对象,以防止该对象被使用。例如,处理器150可以限制对对象的选择输入以防止对象被使用。例如,即使用户选择了对象,处理器150也可以忽略触摸输入,就好像没有选择该对象一样。对于另一个示例,处理器150可以控制屏幕以防止对象被使用。例如,处理器150可以删除或透明地处理对象,使得该对象在屏幕上不可见。
根据实施例,处理器150可以将针对每个区域具有不同含义的对象改变为另一对象。例如,当第一对象在第一区域中具有第一含义并且在第二区域中具有第二含义时,处理器150可以向第一区域中的用户原样显示第一对象,并且可以将第一对象改变成具有第一含义的第二对象以向第二区域中的用户显示第二对象。
通信电路170可以支持电子设备100与外部电子设备之间的通信信道的建立以及通过建立的通信信道的有线或无线通信的执行。
如上所述,根据各种实施例,电子设备(例如,电子设备100)可以包括显示器(例如,显示器110)、存储器(例如,存储器130)和处理器(例如,处理器150)。处理器可以被配置为识别针对电子设备设置的第一区域,识别与输出到显示器的第一对象相关联的第二区域,确定第一区域是否与第二区域不同,当第二区域与第一区域不同时,识别在第一区域中使用输出到显示器的第二对象的第一含义以及在第二区域中使用第二对象的第二含义,确定第一含义是否与第二含义不同,并且当第一含义与第二含义不同时,通过显示器提供第一含义与第二含义不同的通知。
根据各种实施例,存储器可以存储关于针对每个区域具有不同含义的至少一个对象的信息。
根据各种实施例,处理器可以包括识别存储在存储器中的信息,作为识别第一含义和第二含义的至少一部分。
根据各种实施例,作为识别第一区域的至少一部分,处理器可以基于电子设备的配置信息和关于电子设备的用户的简档信息中的至少一个来识别第一区域。
根据各种实施例,作为识别第二区域的至少一部分,当第一对象包括对方的标识信息时,处理器可以使用标识信息来识别第二区域。
根据各种实施例,作为识别第二区域的至少一部分,当第一对象包括通过捕获对方而获得的图像时,处理器可以分析图像,可以基于分析的信息辨认对方的面部,可以通过辨认的信息来识别对方,并且可以使用识别的对方的简档信息来识别第二区域。
根据各种实施例,作为识别第二区域的至少一部分,当第一对象包括通过捕获对方而获得的图像时,处理器可以分析该图像,可以基于分析的信息确定对方的面部特征,并且可以通过面部特征确定第二区域。
根据各种实施例,作为识别第二区域的至少一部分,当第一对象包括对方的语音时,处理器可以分析语音,可以基于分析的信息辨认对方的语音,可以通过辨认的信息识别对方,并且可以使用识别的对方的简档信息来识别第二区域。
根据各种实施例,作为识别第二区域的至少一部分,当第一对象包括对方的语音时,处理器可以分析语音,可以基于分析的信息确定对方使用的语言或语言特征中的至少一个,并且可以通过语言或语言特征中的至少一个来确定第二区域。
根据各种实施例,作为提供通知的至少一部分,处理器可以将指示第一含义与第二含义不同的文本和图像中的至少一个输出到显示器。
根据各种实施例,处理器可以将第二对象改变为指示第二对象的使用限制的第三对象,或者可以透明地处理第二对象。
根据各种实施例,处理器可以忽略对第二对象的触摸输入。
根据各种实施例,处理器可以将第二对象改变为具有第二含义的第三对象。
根据各种实施例,电子设备还可以包括与第二区域的外部电子设备通信的通信电路。当接收到用于通过通信电路将第二对象发送到外部电子设备的用户输入时,处理器可以将第二对象改变为具有第二含义的第三对象,并且可以将第三对象发送到外部电子设备。
图2是根据实施例的用于描述在不同区域的用户之间进行通信的方法的图。
参考图2,第一用户201可以通过支持翻译功能的应用250与另一个区域(备选地,国家或文化)中的第二用户203进行通信。
根据实施例,第一用户201可以通过安装在诸如智能电话211之类的电子设备中的消息应用、电子邮件应用或聊天应用与第二用户203进行通信。在这种情况下,第二用户203还可以利用诸如智能电话231之类的电子设备。
根据实施例,第一用户201可以通过VR环境与第二用户203通信。例如,第一用户201可以通过HMD 213等识别第二用户203使用相机233捕获的图像。此外,第一用户201可以通过向第二用户203提供关于图像的反馈来与第二用户203通信。在输出图像并提供反馈之后,HMD 213可以通过翻译功能向第一用户201通知针对每个区域具有不同含义的对象。
根据实施例,第一用户201可以通过AR VR环境与第二用户203通信。例如,第一用户201可以通过智能眼镜215等来识别第二用户203以及包括与翻译功能相关联的对象的图像。例如,当实际上与另一种文化的第二用户203交谈时,可以分析第二用户203的语音、手势等;当第二用户203的单词或手势的含义与第一用户201的文化下的含义不同时,可以将其提供给第一用户201。
图3是示出了根据实施例的操作与屏幕控制相关联的电子设备的方法的图。
参考图3,在操作310中,电子设备(例如,电子设备100)的处理器(例如,处理器150)可以识别在电子设备中设置的第一区域。例如,处理器可以在电子设备的存储器(例如,存储器130)中识别与第一区域相关联的配置信息。对于另一个示例,处理器可以通过关于电子设备的用户的简档信息(或账户信息)来识别第一区域。
在操作320中,处理器可以识别与输出到显示器(例如,显示器(110))的第一对象相关联的第二区域。例如,处理器可以识别与在显示器上显示的消息应用、电子邮件应用或聊天应用的执行屏幕中包括的第一对象相关联的第二区域。对于另一个示例,处理器可以识别与显示器上输出的VR图像或AR图像中包括的第一对象相关联的第二区域。本文中,第一对象可以是与作为通信目标的对方相关联的对象。例如,第一对象可以包括能够识别对方的信息(例如,姓名、昵称、账户ID、电话号码等)。对于另一个示例,第一对象可以包括通过捕获对方而获得的图像。
根据实施例,当第一对象包括能够识别对方的信息时,处理器可以使用该信息来识别对方的第二区域。根据实施例,当第一对象包括通过捕获对方而获得的图像时,处理器可以分析图像,可以基于分析的信息辨认对方的面部,并且可以通过对方的面部特征识别对方的区域或推断对方的第二区域。备选地,处理器可以分析图像中包括的语音信息,可以基于分析的信息辨认对方的语音,可以通过对方使用的语言或语言特征(例如,语调等)识别对方的区域或推断对方的第二区域。
在操作330中,处理器可以确定第一区域是否与第二区域不同。例如,处理器可以确定电子设备的用户的第一区域是否与对方的第二区域不同。
在操作340中,处理器可以识别在第一区域中使用在显示器上输出的第二对象的第一含义以及在第二区域中使用第二对象的第二含义。例如,处理器可以识别在第一区域中使用在显示器上显示的指示表情符号、贴纸或手势的图像的第一含义以及在第二区域中使用图像的第二含义。可以通过存储在存储器中的文化DB(例如,文化DB 131)来管理第二对象针对每个区域使用的含义。
在操作350中,处理器可以确定第一含义是否与第二含义不同。例如,处理器可以确定在第一区域中使用第二对象的第一含义是否与在第二区域中使用第二对象的第二含义不同。
在操作360中,处理器可以向用户通知第一含义与第二含义不同。例如,当在显示器上显示针对每个区域具有不同含义的第二对象时,处理器可以在显示器上输出指示第二对象针对每个区域具有不同含义的文本、图像等。
根据实施例,处理器可以处理针对每个区域具有不同含义的第二对象,以防止第二对象被使用。根据实施例,处理器可以限制对第二对象的选择输入,以防止第二对象被使用。对于另一个示例,处理器可以控制屏幕以防止第二对象被使用。例如,处理器可以删除或透明地处理第二对象,使得第二对象在屏幕上不可见。
根据实施例,处理器可以将针对每个区域具有不同含义的第二对象改变为另一个对象。例如,处理器可以将第二对象改变为用于在第二区域中具有第一含义的第三对象。
如上所述,根据各种实施例,电子设备的屏幕控制方法可以包括识别针对电子设备设置的第一区域,识别与输出到显示器的第一对象相关联的第二区域,确定第一区域是否与第二区域不同,当第二区域与第一区域不同时,识别在第一区域中使用输出到显示器的第二对象的第一含义以及在第二区域中使用第二对象的第二含义,确定第一含义是否与第二含义不同,并且当第一含义与第二含义不同时,通过显示器提供第一含义与第二含义不同的通知。
根据各种实施例,提供通知可以包括将指示第一含义与第二含义不同的文本和图像中的至少一个输出到显示器。
根据各种实施例,该方法还可以包括将第二对象改变为指示第二对象的使用限制的第三对象,或者透明地处理第二对象。
根据各种实施例,该方法还可以包括忽略对第二对象的触摸输入。
根据各种实施例,该方法还可以包括将第二对象改变为具有第二含义的第三对象。
根据各种实施例,该方法还可以包括接收用户输入以通过通信电路将第二对象发送到第二区域的外部电子设备,将第二对象改变为具有第二含义的第三对象,并且将第三对象发送到外部电子设备。
图4是根据实施例的用于说明用于禁止使用具有不同含义的对象的方法的图。
参考图4,电子设备400(例如,电子设备100)可以在显示器410(例如,显示器110)上显示支持与对方通信的消息应用、电子邮件应用、聊天应用等的执行屏幕。例如,电子设备400可以在显示器410上显示包括对方的标识信息的第一对象431、用户发送的会话内容433、通过对由对方发送的会话内容434进行翻译获得的内容435等。此外,电子设备400可以支持翻译功能,以用于不同地区的用户和对方之间的顺利通信,并且可以将包括翻译的语言信息的第二对象432输出到显示器410。
根据实施例,电子设备400可以识别与输出到显示器410的第一对象431相关联的区域。第一对象431可以是与作为通信目标的对方相关联的对象。例如,第一对象431可以包括能够识别对方的信息(例如,姓名、昵称、账户ID、电话号码等)。在任何实施例中,电子设备400可以使用与翻译功能相关联的第二对象432来识别对方的区域。例如,当第二对象432包括对方的语言信息时,电子设备400可以使用语言信息来确定对方的区域。
根据实施例,除了文本之外,电子设备400还可以控制显示器410的屏幕以发送表情符号、贴纸等。例如,电子设备400可以在电子设备400的屏幕的下部区域中提供用于选择表情符号、贴纸等的界面。
根据实施例,电子设备400可以识别针对每个区域输出到显示器410的诸如表情符号、贴纸等对象用于每个区域的含义。此外,当诸如表情符号、贴纸等的对象针对每个区域具有不同含义时,电子设备400可以在显示器410上输出指示该对象针对每个区域具有不同含义的文本、图像等。
根据实施例,电子设备400可以处理针对每个区域具有不同含义的对象,以防止该对象被使用。例如,电子设备400可以将无论区域如何都具有相同含义的表情符号(例如,第三对象436)原样输出到显示器410,而无需任何单独的处理;如在第一状态401中,电子设备400可以将针对每个区域具有不同含义的表情符号改变为指示表情符号的使用限制的第四对象437。对于另一个示例,如在第二状态403中,电子设备400可以对针对每个区域具有不同含义的表情符号执行透明处理438。
根据实施例,电子设备400可以限制对针对每个区域具有不同含义的对象的选择输入。例如,即使用户选择了对象,电子设备400也可以忽略对对象的触摸输入,就好像没有选择对象一样。
图5是根据实施例的用于描述提供对象的不同含义的通知的方法的图。
参考图5,当在显示器510(例如,显示器110)上显示的对象中存在针对每个区域具有不同含义的第一对象时,电子设备500(例如,电子设备100)可以提供第一对象针对每个区域具有不同含义的通知。
根据实施例,当存在针对每个区域具有不同含义的第一对象时,电子设备500可以将第一对象改变为指示第一对象的使用限制的第二对象531以将第二对象531输出到显示器510。
根据实施例,当发生用于选择第二对象531的用户输入550时,电子设备500可以在显示器510上输出包括第一对象受到限制的原因的第三对象533。例如,电子设备500可以在显示器510上输出具有对话气泡形式的第三对象533,该第三对象包括在另一区域中使用第一对象的含义。
图6是根据实施例的用于描述改变具有不同含义的对象的方法的图。
参考图6,当在显示器610(例如,显示器110)上输出的对象中存在针对每个区域具有不同含义的第一对象631时,电子设备600(例如,电子设备100)可以识别在用户区域中使用第一对象631的含义。此外,电子设备600可以将第一对象631改变为在对方的区域中具有含义的第二对象633,以将第二对象633输出到显示器610。例如,当用户尝试将具有第一含义的第一表情(第一对象631)发送给对方时,在第一表情符号(第一对象631)在对方的区域中用作第二含义的情况下,含义是不同的,因此可能无法顺利地进行通信。为了防止这种情况,电子设备600可以将第一表情符号(第一对象631)改变为在对方的区域中具有用户最初意图的第一含义的第二表情符号(第二对象633)。
图7是根据实施例的用于描述在发送具有不同含义的对象时改变对象的方法的图。
参考图7,当在显示器710(例如,显示器110)上输出的对象中存在针对每个区域具有不同含义的第一对象731a时,电子设备700(例如,电子设备100)可以识别在用户区域中使用第一对象731a的含义。例如,当电子设备700的用户通过消息应用输入消息731时,在消息731中包括的对象中存在针对每个区域具有不同含义的第一对象731a的情况下,电子设备700可以识别在用户区域中使用第一对象731a的含义。
根据实施例,当选择被配置为将消息731发送到对方使用的外部电子设备770的按钮733(750)(例如,发生对按钮733的用户输入750)时,电子设备700可以在将消息731发送到外部电子设备770的同时输出发送到显示器710的消息735。
根据实施例,当将针对每个区域具有不同含义的第一对象731a发送给对方时,电子设备700可以将第一对象731a改变为在对方的区域中具有用户最初意图的含义的第二对象791a并将其进行发送。例如,当通过通信电路(例如,通信电路170)发送包括针对每个区域具有不同含义的第一对象731a的消息731时,电子设备700可以将第一对象731a改变为在对方的区域中具有用户最初意图的含义的第二对象791a并将其进行发送。在这种情况下,对方使用的外部电子设备770可以在显示器771上输出包括第二对象791a的接收的消息791。在这种情况下,外部电子设备770可以翻译并输出接收的消息791。
图8是根据实施例的用于描述在选择具有不同含义的对象时改变对象的方法的图。
参考图8,当在显示器810(例如,显示器110)上输出的对象中具有针对每个区域具有不同含义的第一对象831a时,电子设备800(例如,电子设备100)可以识别在用户区域中使用第一对象831a的含义。例如,当电子设备800的用户通过消息应用输入消息831时,在消息831中包括的对象中存在针对每个区域具有不同含义的第一对象831a的情况下,电子设备800可以识别在用户区域中使用第一对象831a的含义。
根据实施例,在输入消息831的过程中,当选择被配置为完成对对象(例如,第一对象831a)的选择的按钮833(850)(例如,发生对按钮833的用户输入850)时,电子设备800可以识别消息831中包括的对象中是否存在针对每个区域具有不同含义的对象(例如,第一对象831a)。当存在针对每个区域具有不同含义的对象(例如,第一对象831a)时,电子设备800可以将对象改变为在对方的区域中具有用户最初意图的含义的第二对象831b,以将第二对象831b输出到显示器810。因此,用户可以在将消息831发送到对方之前识别改变的对象。
图9是根据实施例的用于描述VR环境中的屏幕控制方法的图。
参考图9,用户可以通过VR环境与对方通信。例如,用户可以通过电子设备900(例如,HM等)来识别对方使用相机等捕获的图像910。此外,用户可以通过向对方提供关于图像910的反馈来与对方通信。例如,电子设备900可以提供能够在屏幕的一些区域中输入消息的界面930。
例如,界面930可以是消息输入屏幕。因此,用户可以通过消息输入屏幕将对图像的反馈提供给对方。电子设备900可以在界面930中包括与翻译功能相关联的对象931。此外,电子设备900可以在界面930中包括能够输入表情符号933a或标签以及文本的区域933。
图10是根据实施例的用于描述AR环境中的屏幕控制方法的图。
参考图10,用户可以通过AR环境与对方通信。例如,用户可以通过电子设备1000(例如,智能眼镜等)识别对方1031和包括与翻译功能相关联的对象1033的图像1010。例如,电子设备1000可以分析对方1031发出的语音,并且可以在屏幕上输出通过翻译功能翻译的文本1035。此外,当向对方1031提供关于文本1035的反馈时,电子设备1000可以确定是否存在针对每个区域具有不同含义的手势1037a。当用户能够对对方1031执行的手势中存在针对每个区域具有不同含义的手势1037a作为反馈时,电子设备1000可以输出指示在屏幕的一些区域中存在针对每个区域具有不同含义的手势1037a的对象1037(例如,弹出对象)。例如,对象1037可以包括针对每个区域具有不同含义的手势1037a和指示在对方的区域中使用手势1037a的含义的对象1037b。
图11是示出了根据各种实施例的在网络环境1100中的电子设备1101的框图。
参考图11,网络环境1100中的电子设备1101可以经由第一网络1198(例如,短程无线通信网络)与电子设备1102通信,或者可以经由第二网络1199(例如,远程无线通信网络)与电子设备1104或服务器1108通信。根据实施例,电子设备1101可以经由服务器1108与电子设备1104通信。根据实施例,电子发备1101可以包括处理器1120、存储器1130、输入设备1150、声音输出设备1155、显示设备1160、音频模块1170、传感器模块1176、接口1177、触觉模块1179、相机模块1180、电力管理模块1188、电池1189、通信模块1190、用户识别模块(SIM)1196或天线模块1197。在一些实施例中,可以从电子设备1101中省略这些组件中的至少一个(例如,显示设备1160或相机模块1180),或者可以在电子设备1101中添加一个或多个其它组件。在一些实施例中,一些组件可以被实现为单个集成电路。例如,传感器模块1176(例如,指纹传感器、虹膜传感器或照度传感器)可以被实现为嵌入在显示设备1160(例如,显示器)中。
处理器1120可以执行例如软件(例如,程序1140)以控制与处理器1120耦接的电子设备1101的至少一个其它组件(例如,硬件或软件组件),并且可以执行各种数据处理或计算。根据一个实施例,作为数据处理或计算的至少一部分,处理器1120可以将从另一组件(例如,传感器模块1176或通信模块1190)接收的命令或数据加载到易失性存储器1132中,处理存储在易失性存储器1132中的命令或数据,并将所得数据存储在非易失性存储器1134中。根据实施例,处理器1120可以包括主处理器1121(例如,中央处理器(CPU)或应用处理器(AP))和可独立于或结合主处理器1121操作的辅助处理器1123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器集线器处理器或通信处理器(CP))。附加地或备选地,辅助处理器1123可以适于比主处理器1121消耗更少的功率,或者专用于指定的功能。辅助处理器1123可以被实现为与主处理器1121分离或作为其一部分。
辅助处理器1123可以控制与电子设备1101的组件中的至少一个组件(例如,显示设备1160、传感器模块1176或通信模块1190)有关的功能或状态中的至少一些,在主处理器1121处于非活动(例如,睡眠)状态时,可以替代主处理器1121,或者在主处理器1121处于活动状态(例如,执行应用)时与主处理器1121一起使用。根据实施例,辅助处理器1123(例如,图像信号处理器或通信处理器)可以被实现为在功能上与辅助处理器1123有关的另一组件(例如,相机模块1180或通信模块1190)的一部分。
存储器1130可以存储由电子设备1101的至少一个组件(例如,处理器1120或传感器模块1176)使用的各种数据。各种数据可以包括例如软件(例如,程序1140),以及针对与其有关的命令的输入数据或输出数据。存储器1130可以包括易失性存储器1132或非易失性存储器1134。
程序1140可以作为软件存储在存储器1130中,并且可以包括例如操作系统(OS)1142、中间件1144或应用1146。
输入设备1150可以从电子设备1101的外部(例如,用户)接收要由电子设备1101的其它组件(例如,处理器1120)使用的命令或数据。输入设备1150可以包括例如麦克风、鼠标、键盘或数字笔(例如,手写笔)。
声音输出设备1155可以向电子设备1101的外部输出声音信号。声音输出设备1155可以包括例如扬声器或受话器。扬声器可以用于一般目的,诸如播放多媒体或播放唱片,而受话器可以用于来电。根据实施例,受话器可以被实现为与扬声器分离或作为扬声器的一部分。
显示设备1160可以在视觉上向电子设备1101的外部(例如,用户)提供信息。显示设备1160可以包括例如显示器、全息设备或投影仪以及控制电路,控制电路用于控制显示器、全息设备和投影仪中的对应一个。根据实施例,显示设备1160可以包括适于检测触摸的触摸电路,或适于测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块1170可以将声音转换成电信号,并且反之亦然。根据实施例,音频模块1170可以经由输入设备1150获得声音,或者经由声音输出设备1155或与电子设备1101直接(例如,有线地)或无线耦接的外部电子设备(例如,电子设备1102)的耳机输出声音。
传感器模块1176可以检测电子设备1101的操作状态(例如,功率或温度)或电子设备1101外部的环境状态(例如,用户的状态),然后生成与检测到的状态相对应的电信号或数据值。根据实施例,传感器模块1176可以包括例如手势传感器、陀螺仪传感器、大气压传感器、磁传感器、加速度传感器、抓握传感器、接近传感器、颜色传感器、红外(IR)传感器、生物测量传感器、温度传感器、湿度传感器或照度传感器。
接口1177可以支持一种或多种指定协议,以用于使电子设备1101与外部电子设备(例如,电子设备1102)直接(例如,有线地)或无线地耦接。根据实施例,接口1177可以包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端子1178可以包括连接器,电子设备1101可以经由该连接器与外部电子设备(例如,电子设备1102)物理连接。根据实施例,连接端子1178可以包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块1179可以将电信号转换为机械刺激(例如,振动或运动)或电刺激,用户可以经由其触觉或动觉感觉来辨认机械刺激或电刺激。根据实施例,触觉模块1179可以包括例如马达、压电元件或电刺激器。
相机模块1180可以捕获静止图像或运动图像。根据实施例,相机模块1180可以包括一个或多个镜头、图像传感器、图像信号处理器或闪光灯。
电力管理模块1188可以管理被提供给电子设备1101的电力。根据实施例,电力管理模块1188可以被实现为例如电力管理集成电路(PMIC)的至少一部分。
电池1189可以向电子设备1101的至少一个组件供电。根据实施例,电池1189可以包括例如不可充电的一次电池、可充电的二次电池或燃料电池。
通信模块1190可以支持在电子设备1101与外部电子设备(例如,电子设备1102、电子设备1104或服务器1108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道进行通信。通信模块1190可以包括一个或多个通信处理器,其可以独立于处理器1120(例如,应用处理器(AP))操作并且支持直接(例如,有线)通信或无线通信。根据实施例,通信模块1190可以包括无线通信模块1192(例如,蜂窝通信模块、短程无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块1194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的对应通信模块可以经由第一网络1198(例如,短程通信网络,比如蓝牙TM、无线保真(Wi-Fi)直接或红外数据关联(IrDA))或第二网络1199(例如,远程通信网络,比如蜂窝网络、互联网或计算机网络(例如,LAN或广域网(WAN))与外部电子设备进行通信。这些各种类型的通信模块可以被实现为单个组件(例如,单个芯片),或者可以被实现为彼此分离的多个组件(例如,多个芯片)。无线通信模块1192可以使用存储在用户识别模块1196中的用户信息(例如,国际移动用户身份(IMSI)),在诸如第一网络1198或第二网络1199之类的通信网络中识别和认证电子设备1101。
天线模块1197可以向电子设备1101的外部(例如,外部电子设备)发送信号或电力或从其接收信号或电力。根据实施例,天线模块1197可以包括具有由在基板(例如,PCB)中或基板上形成的导电材料或导电图案组成的辐射元件的天线。根据实施例,天线模块1197可以包括多个天线。在这种情况下,例如,可以通过通信模块1190(例如,无线通信模块1192)从多个天线中选择适合于在诸如第一网络1198或第二网络1199之类的通信网络中使用的通信方案的至少一个天线。然后可以经由所选择的至少一个天线在通信模块1190与外部电子设备之间发送或接收信号或电力。根据实施例,可以附加地将除了辐射元件之外的另一组件(例如,射频集成电路(RFIC))形成为天线模块1197的一部分。
上述组件中的至少一些组件可以相互耦接,并经由外围通信方案(例如,总线、通用输入和输出(GPIO)、串行外围接口(SPI)或移动行业处理器接口(MIPI))在它们之间传递信号(例如,命令或数据)。
根据实施例,可以经由与第二网络1199耦接的服务器1108在电子设备1101与外部电子设备1104之间发送或接收命令或数据。电子设备1102和1104中的每一个可以是与电子设备1101相同或不同类型的设备。根据实施例,可以在外部电子设备1102、1104或1108中的一个或多个处执行要在电子设备1101处执行的所有或一些操作。例如,如果电子设备1101应该自动或者响应于来自用户或其它设备的请求执行功能或服务,则代替电子设备1101执行该功能或服务或除了电子设备1101执行该功能或服务之外,电子设备1101可以请求一个或多个外部电子设备执行功能或服务的至少一部分。接收到请求的一个或多个外部电子设备可以执行所请求的功能或服务的至少一部分,或与请求有关的附加功能或附加服务,并将执行的结果传递给电子设备1101。电子设备1101可以提供结果作为对请求的答复的至少一部分,而不管是否对结果进行进一步处理。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
根据各种实施例的电子设备可以是各种类型的电子设备中的一个。电子设备可以包括例如便携式通信设备(例如,智能电话)、计算机设备、便携式多媒体设备、便携式医疗设备、相机、可穿戴设备或家用电器。根据本发明的实施例,电子设备不限于上述那些。
应当理解,本公开的各种实施例及其中使用的术语并不旨在将本文阐述的技术特征限制于特定实施例,而是包括对应实施例的各种改变、等效或替换。关于附图的描述,相似的附图标记可以用于指代相似或相关的元件。应当理解,除非相关上下文清楚地另外指出,否则与项目相对应的名词的单数形式可以包括一个或多个事物。如本文所使用,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”之类的短语中的每一个可以包括在对应的一个短语中一起列举的项目的任何一个或所有可能的组合。如本文所使用,诸如“第一”和“第二”或“第一个”和“第二个”之类的术语可以被用来简单地将对应的组件与另一组件区分开,并且在其它方面(例如,重要性或顺序)不限制组件。应当理解,如果元件(例如,第一元件)在具有或不具有术语“可操作地”或“可通信地”的情况下被称为与另一元件(例如,第二元件)“耦接”、“耦接到”另一元件、与另一元件“连接”或“连接到”另一元件,则意味着该元件可以直接(例如,有线地)、无线地或经由第三元件与另一元件耦接。
如本文所使用,术语“模块”可以包括以硬件、软件或固件实现的单元,并且可以与其它术语(例如,“逻辑”、“逻辑块”、“部件”或“电路”)互换使用。模块可以是适于执行一个或多个功能的单个整体组件或其最小单元或一部分。例如,根据实施例,模块可以以专用集成电路(ASIC)的形式实现。
如本文所述的各种实施例可以被实现为包括存储在机器(例如,电子设备1101)可读的存储介质(例如,内部存储器1136或外部存储器1138)中的一个或多个指令的软件(例如,程序1140)。例如,机器(例如,电子设备1101)的处理器(例如,处理器1120)可以调用存储在存储介质中的一个或多个指令中的至少一个,并且在处理器的控制下在使用或不使用一个或多个其它组件的情况下执行该指令。这允许机器被操作以根据调用的至少一个指令来执行至少一个功能。一个或多个指令可以包括由编译器生成的代码或由解释器可执行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅表示该存储介质为有形设备,并且不包括信号(例如,电磁波),但该术语不区分数据是半永久性存储在该存储介质中还是数据被暂时存储在该存储介质中。
根据实施例,可以在计算机程序产品中包括并提供根据本发明的各种实施例的方法。计算机程序产品可以作为产品在卖方和买方之间进行交易。计算机程序产品可以以机器可读存储介质(例如,光盘只读存储器(CD-ROM))的形式分发,或者经由应用商店(例如,PlayStoreTM)在线分发(例如,下载或上传),或直接在两个用户设备(例如,智能手机)之间分发。如果在线分发,则计算机程序产品的至少一部分可以暂时生成或至少暂时存储在机器可读存储介质中,例如制造商的服务器的存储器、应用商店的服务器或中继服务器。
根据各种实施例,上述组件的每个组件(例如,模块或程序)可以包括单个实体或多个实体。根据各种实施例,可以省略上述组件中的一个或多个,或者可以添加一个或多个其它组件。备选地或附加地,可以将多个组件(例如,模块或程序)集成到单个组件中。在这种情况下,根据各种实施例,集成的组件仍可以以与集成之前多个组件中的对应组件执行功能相同或相似的方式来执行多个组件中的每个组件的一个或多个功能。根据各种实施例,可以顺序、并行、重复或启发式地执行由模块、程序或另一组件执行的操作,或者可以以不同顺序执行或省略操作中的一个或多个,或者可以添加一个或多个其它操作。
Claims (15)
1.一种电子设备,包括:
显示器;
存储器;以及
处理器,
其中,所述处理器被配置为:
识别针对所述电子设备设置的第一区域;
识别与输出到所述显示器的第一对象相关联的第二区域;
确定所述第一区域是否与所述第二区域不同;
当所述第二区域与所述第一区域不同时,识别在所述第一区域中使用输出到所述显示器的第二对象的第一含义以及在所述第二区域中使用所述第二对象的第二含义;
确定所述第一含义是否与所述第二含义不同;以及
当所述第一含义与所述第二含义不同时,通过所述显示器提供所述第一含义与所述第二含义不同的通知。
2.根据权利要求1所述的电子设备,其中所述存储器存储与针对每个区域具有不同含义的至少一个对象有关的信息。
3.根据权利要求2所述的电子设备,其中所述处理器包括:
作为识别所述第一含义和所述第二含义的至少一部分,识别存储在所述存储器中的所述信息。
4.根据权利要求1所述的电子设备,其中,作为识别所述第一区域的至少一部分,所述处理器基于所述电子设备的配置信息和与所述电子设备的用户有关的简档信息中的至少一个来识别所述第一区域。
5.根据权利要求1所述的电子设备,其中,作为识别所述第二区域的至少一部分,当所述第一对象包括对方的标识信息时,所述处理器使用所述标识信息来识别所述第二区域。
6.根据权利要求1所述的电子设备,其中,作为识别所述第二区域的至少一部分,当所述第一对象包括通过捕获对方而获得的图像时,所述处理器分析所述图像,基于分析的信息辨认所述对方的面部,通过辨认的信息来识别所述对方,并使用所识别的对方的简档信息来识别所述第二区域。
7.根据权利要求1所述的电子设备,其中,作为识别所述第二区域的至少一部分,当所述第一对象包括通过捕获对方而获得的图像时,所述处理器分析所述图像,基于分析的信息确定所述对方的面部特征,并通过所述面部特征确定所述第二区域。
8.根据权利要求1所述的电子设备,其中,作为识别所述第二区域的至少一部分,当所述第一对象包括对方的语音时,所述处理器分析所述语音,基于分析的信息辨认所述对方的语音,通过辨认的信息识别所述对方,并使用所识别的对方的简档信息来识别所述第二区域。
9.根据权利要求1所述的电子设备,其中,作为识别所述第二区域的至少一部分,当所述第一对象包括对方的语音时,所述处理器分析所述语音,基于分析的信息确定所述对方使用的语言或语言特征中的至少一个,并通过所述语言或语言特征中的所述至少一个来确定所述第二区域。
10.根据权利要求1所述的电子设备,其中,作为提供所述通知的至少一部分,所述处理器将指示所述第一含义与所述第二含义不同的文本和图像中的至少一个输出到所述显示器。
11.根据权利要求1所述的电子设备,其中所述处理器将所述第二对象改变为指示所述第二对象的使用限制的第三对象,或者透明地处理所述第二对象。
12.根据权利要求1所述的电子设备,其中所述处理器忽略对所述第二对象的触摸输入。
13.根据权利要求1所述的电子设备,其中所述处理器将所述第二对象改变为具有所述第二含义的第三对象。
14.根据权利要求1所述的电子设备,还包括:
通信电路,被配置为与所述第二区域的外部电子设备进行通信,
其中,当接收到用于通过所述通信电路将所述第二对象发送到所述外部电子设备的用户输入时,所述处理器将所述第二对象改变为具有所述第二含义的第三对象,并将所述第三对象发送到所述外部电子设备。
15.一种电子设备的屏幕控制方法,所述方法包括:
识别针对所述电子设备设置的第一区域;
识别与输出到显示器的第一对象相关联的第二区域;
确定所述第一区域是否与所述第二区域不同;
当所述第二区域与所述第一区域不同时,识别在所述第一区域中使用输出到所述显示器的第二对象的第一含义以及在所述第二区域中使用所述第二对象的第二含义;
确定所述第一含义是否与所述第二含义不同;以及
当所述第一含义与所述第二含义不同时,通过所述显示器提供所述第一含义与所述第二含义不同的通知。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180030734A KR102543656B1 (ko) | 2018-03-16 | 2018-03-16 | 화면 제어 방법 및 이를 지원하는 전자 장치 |
KR10-2018-0030734 | 2018-03-16 | ||
PCT/KR2019/003085 WO2019177437A1 (ko) | 2018-03-16 | 2019-03-18 | 화면 제어 방법 및 이를 지원하는 전자 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111886595A true CN111886595A (zh) | 2020-11-03 |
CN111886595B CN111886595B (zh) | 2024-05-28 |
Family
ID=67907137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980018456.1A Active CN111886595B (zh) | 2018-03-16 | 2019-03-18 | 屏幕控制方法和支持屏幕控制方法的电子设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11630574B2 (zh) |
EP (1) | EP3731114A4 (zh) |
KR (1) | KR102543656B1 (zh) |
CN (1) | CN111886595B (zh) |
WO (1) | WO2019177437A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113037607A (zh) * | 2020-12-18 | 2021-06-25 | 北京字跳网络技术有限公司 | 通信方法、客户端、服务器控制方法和存储介质 |
Citations (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060167992A1 (en) * | 2005-01-07 | 2006-07-27 | At&T Corp. | System and method for text translations and annotation in an instant messaging session |
CN1983271A (zh) * | 2005-12-16 | 2007-06-20 | 国际商业机器公司 | 用于定义和翻译聊天缩略语的系统和方法 |
CN101159010A (zh) * | 2006-08-04 | 2008-04-09 | 索尼株式会社 | 面部检测装置、成像设备、和面部检测方法 |
CN101584575A (zh) * | 2009-06-19 | 2009-11-25 | 无锡骏聿科技有限公司 | 一种基于人脸识别技术的年龄评估方法 |
JP2010146563A (ja) * | 2008-12-19 | 2010-07-01 | Intel Corp | 位置支援翻訳のための方法、装置及びシステム |
KR20130020065A (ko) * | 2011-08-18 | 2013-02-27 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
US20130329971A1 (en) * | 2010-12-10 | 2013-12-12 | Nagravision S.A. | Method and device to speed up face recognition |
US20140078372A1 (en) * | 2012-09-20 | 2014-03-20 | Canon Kabushiki Kaisha | Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus |
CN103824054A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联深度神经网络的人脸属性识别方法 |
CN103824090A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种自适应的人脸低层特征选择方法及人脸属性识别方法 |
CN104036247A (zh) * | 2014-06-11 | 2014-09-10 | 杭州巨峰科技有限公司 | 基于脸部特征的人脸种族分类方法 |
CN104143079A (zh) * | 2013-05-10 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 人脸属性识别的方法和系统 |
US8965170B1 (en) * | 2012-09-04 | 2015-02-24 | Google Inc. | Automatic transition of content based on facial recognition |
CN105224932A (zh) * | 2015-10-21 | 2016-01-06 | 北京旷视科技有限公司 | 一种人脸识别方法和系统 |
US20160054895A1 (en) * | 2014-08-21 | 2016-02-25 | Samsung Electronics Co., Ltd. | Method of providing visual sound image and electronic device implementing the same |
CN105847734A (zh) * | 2016-03-30 | 2016-08-10 | 宁波三博电子科技有限公司 | 一种基于人脸识别的视频通信方法及系统 |
CN105912912A (zh) * | 2016-05-11 | 2016-08-31 | 青岛海信电器股份有限公司 | 一种终端用户身份登录方法和系统 |
US20160323213A1 (en) * | 2015-04-28 | 2016-11-03 | Samsung Electronics Co., Ltd. | Method of processing message and electronic device supporting the same |
CN106203248A (zh) * | 2014-09-05 | 2016-12-07 | 三星电子株式会社 | 用于脸部识别的方法和设备 |
CN106228146A (zh) * | 2016-08-05 | 2016-12-14 | 蓝普金睛(北京)科技有限公司 | 一种分区域动态识别方法及系统 |
CN106257398A (zh) * | 2015-06-18 | 2016-12-28 | 三星电子株式会社 | 电子装置和在电子装置中处理通知的方法 |
CN106934364A (zh) * | 2017-03-09 | 2017-07-07 | 腾讯科技(上海)有限公司 | 人脸图片的识别方法及装置 |
CN107194817A (zh) * | 2017-03-29 | 2017-09-22 | 腾讯科技(深圳)有限公司 | 用户社交信息的展示方法、装置和计算机设备 |
US20190104340A1 (en) * | 2016-03-24 | 2019-04-04 | Shenzhen Prtek Co. Ltd. | Intelligent Terminal Control Method and Intelligent Terminal |
US20190222806A1 (en) * | 2015-10-30 | 2019-07-18 | 2Mee Ltd | Communication system and method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0306875D0 (en) | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
KR101168705B1 (ko) | 2009-02-18 | 2012-08-02 | 김기미 | 이동통신 단말기와 아이피 기반 정보 단말기를 이용한 맞춤, 지능형 심볼, 아이콘 인터넷 정보 검색시스템 |
KR20130083049A (ko) * | 2011-12-28 | 2013-07-22 | (주)에스제이기획 | 전자방명록 장치 |
KR20150141419A (ko) * | 2014-06-10 | 2015-12-18 | 삼성전자주식회사 | 전자 장치에서 이미지의 위치 정보에 기반한 이미지 활용 방법 및 그 장치 |
JP6286289B2 (ja) * | 2014-06-13 | 2018-02-28 | 株式会社Nttドコモ | 管理装置、会話システム、会話管理方法及びプログラム |
JP5791219B1 (ja) | 2015-02-03 | 2015-10-07 | 株式会社モバイルライフジャパン | インスタントメッセージ送受信プログラム、情報処理方法及び情報処理装置 |
KR20160139132A (ko) * | 2015-05-26 | 2016-12-07 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서의 상황 기반의 정보 처리 방법 |
US9760766B2 (en) | 2015-06-30 | 2017-09-12 | International Business Machines Corporation | System and method for interpreting interpersonal communication |
-
2018
- 2018-03-16 KR KR1020180030734A patent/KR102543656B1/ko active IP Right Grant
-
2019
- 2019-03-18 EP EP19767629.9A patent/EP3731114A4/en active Pending
- 2019-03-18 US US16/962,775 patent/US11630574B2/en active Active
- 2019-03-18 CN CN201980018456.1A patent/CN111886595B/zh active Active
- 2019-03-18 WO PCT/KR2019/003085 patent/WO2019177437A1/ko active Application Filing
Patent Citations (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060167992A1 (en) * | 2005-01-07 | 2006-07-27 | At&T Corp. | System and method for text translations and annotation in an instant messaging session |
CN1983271A (zh) * | 2005-12-16 | 2007-06-20 | 国际商业机器公司 | 用于定义和翻译聊天缩略语的系统和方法 |
US20070143410A1 (en) * | 2005-12-16 | 2007-06-21 | International Business Machines Corporation | System and method for defining and translating chat abbreviations |
CN101159010A (zh) * | 2006-08-04 | 2008-04-09 | 索尼株式会社 | 面部检测装置、成像设备、和面部检测方法 |
JP2010146563A (ja) * | 2008-12-19 | 2010-07-01 | Intel Corp | 位置支援翻訳のための方法、装置及びシステム |
CN101584575A (zh) * | 2009-06-19 | 2009-11-25 | 无锡骏聿科技有限公司 | 一种基于人脸识别技术的年龄评估方法 |
US20130329971A1 (en) * | 2010-12-10 | 2013-12-12 | Nagravision S.A. | Method and device to speed up face recognition |
KR20130020065A (ko) * | 2011-08-18 | 2013-02-27 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
US8965170B1 (en) * | 2012-09-04 | 2015-02-24 | Google Inc. | Automatic transition of content based on facial recognition |
US20140078372A1 (en) * | 2012-09-20 | 2014-03-20 | Canon Kabushiki Kaisha | Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus |
CN104143079A (zh) * | 2013-05-10 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 人脸属性识别的方法和系统 |
CN103824090A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种自适应的人脸低层特征选择方法及人脸属性识别方法 |
CN103824054A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联深度神经网络的人脸属性识别方法 |
CN104036247A (zh) * | 2014-06-11 | 2014-09-10 | 杭州巨峰科技有限公司 | 基于脸部特征的人脸种族分类方法 |
US20160054895A1 (en) * | 2014-08-21 | 2016-02-25 | Samsung Electronics Co., Ltd. | Method of providing visual sound image and electronic device implementing the same |
CN106203248A (zh) * | 2014-09-05 | 2016-12-07 | 三星电子株式会社 | 用于脸部识别的方法和设备 |
US20160323213A1 (en) * | 2015-04-28 | 2016-11-03 | Samsung Electronics Co., Ltd. | Method of processing message and electronic device supporting the same |
CN106257398A (zh) * | 2015-06-18 | 2016-12-28 | 三星电子株式会社 | 电子装置和在电子装置中处理通知的方法 |
CN105224932A (zh) * | 2015-10-21 | 2016-01-06 | 北京旷视科技有限公司 | 一种人脸识别方法和系统 |
US20190222806A1 (en) * | 2015-10-30 | 2019-07-18 | 2Mee Ltd | Communication system and method |
US20190104340A1 (en) * | 2016-03-24 | 2019-04-04 | Shenzhen Prtek Co. Ltd. | Intelligent Terminal Control Method and Intelligent Terminal |
CN105847734A (zh) * | 2016-03-30 | 2016-08-10 | 宁波三博电子科技有限公司 | 一种基于人脸识别的视频通信方法及系统 |
CN105912912A (zh) * | 2016-05-11 | 2016-08-31 | 青岛海信电器股份有限公司 | 一种终端用户身份登录方法和系统 |
CN106228146A (zh) * | 2016-08-05 | 2016-12-14 | 蓝普金睛(北京)科技有限公司 | 一种分区域动态识别方法及系统 |
CN106934364A (zh) * | 2017-03-09 | 2017-07-07 | 腾讯科技(上海)有限公司 | 人脸图片的识别方法及装置 |
CN107194817A (zh) * | 2017-03-29 | 2017-09-22 | 腾讯科技(深圳)有限公司 | 用户社交信息的展示方法、装置和计算机设备 |
Non-Patent Citations (1)
Title |
---|
吴婷: "基于pca和svm的中国多民族人脸识别研究", 中国优秀硕士学位论文全文数据库, no. 1, pages 138 - 2215 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113037607A (zh) * | 2020-12-18 | 2021-06-25 | 北京字跳网络技术有限公司 | 通信方法、客户端、服务器控制方法和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019177437A1 (ko) | 2019-09-19 |
US20200356268A1 (en) | 2020-11-12 |
EP3731114A1 (en) | 2020-10-28 |
KR102543656B1 (ko) | 2023-06-15 |
CN111886595B (zh) | 2024-05-28 |
KR20190108977A (ko) | 2019-09-25 |
US11630574B2 (en) | 2023-04-18 |
EP3731114A4 (en) | 2021-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190318545A1 (en) | Command displaying method and command displaying device | |
US20210042132A1 (en) | Electronic device and screen sharing method using same | |
US11350264B2 (en) | Method and apparatus for establishing device connection | |
KR102630452B1 (ko) | 디바이스 연결 설정 방법 및 장치 | |
KR20200100918A (ko) | 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법 | |
US11442554B2 (en) | Electronic device and method for recommending word in same | |
US20200051558A1 (en) | Electronic device supporting personalized device connection and method thereof | |
KR20150111632A (ko) | 지문 인식 방법 및 그 전자 장치 | |
KR20150125464A (ko) | 메시지 표시 방법 및 전자 장치 | |
US20230074380A1 (en) | Electronic device for providing augmented reality service and operating method thereof | |
CN111886595B (zh) | 屏幕控制方法和支持屏幕控制方法的电子设备 | |
US11308317B2 (en) | Electronic device and method for recognizing characters | |
US11126747B2 (en) | Apparatus and method for transmitting personal information using automatic response system | |
EP3758306A1 (en) | Electronic device and operating method therefor | |
US11341219B2 (en) | Apparatus for unlocking electronic device by using stylus pen and method thereof | |
US20220294895A1 (en) | Electronic device for generating contents | |
US20210081097A1 (en) | Method for mapping function of application and electronic device therefor | |
KR20210062279A (ko) | 전자 장치 및 이를 이용한 근거리 통신 장치의 사용자 식별 정보 획득 방법 | |
CN111367492A (zh) | 网页页面展示方法及装置、存储介质 | |
CN112740205A (zh) | 电子装置和使用该电子装置控制外部装置的连接的方法 | |
US11188227B2 (en) | Electronic device and key input method therefor | |
US20220413621A1 (en) | Electronic device for providing visual effect corresponding to gesture input and operating method thereof | |
CN113539271A (zh) | 语音识别方法、装置、设备及计算机可读存储介质 | |
KR20200100379A (ko) | 전자 장치의 단축 기능 제공 방법 및 이를 사용하는 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |