CN104284013A - 电子装置及其控制方法 - Google Patents
电子装置及其控制方法 Download PDFInfo
- Publication number
- CN104284013A CN104284013A CN201410321171.4A CN201410321171A CN104284013A CN 104284013 A CN104284013 A CN 104284013A CN 201410321171 A CN201410321171 A CN 201410321171A CN 104284013 A CN104284013 A CN 104284013A
- Authority
- CN
- China
- Prior art keywords
- user
- picture
- response diagram
- touch
- electronic installation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
Abstract
电子装置及其控制方法。公开了一种电子装置及其控制方法。该电子装置包括:触摸屏;摄像头;麦克风;以及控制器,其被配置为在触摸屏上显示预定应用的运行画面,在进入反应拍摄模式时控制摄像头和麦克风操作,在通过摄像头检测做出面部表情或手势的用户或通过麦克风检测所述用户的声音时,通过摄像头拍摄用户的视频或静态图像来获取反应图像,并且在触摸屏上显示获取的反应图像。因此,可以拍摄并在触摸屏上显示观看触摸屏上运行的预定画面的用户的图像。
Description
技术领域
本发明涉及一种电子装置及其控制方法,更具体地,涉及拍摄观看在触摸屏上运行的预定显示的用户的图像并且在触摸屏上进行显示。
背景技术
随着诸如个人计算机、膝上型计算机、蜂窝电话的终端的功能多样化,终端变成具有用于拍摄照片或运动图像、播放音乐和运动图像文件和玩游戏及接收广播节目的多种功能的多媒体播放器。
可以将终端分类成移动终端和固定终端。可以根据用户是否亲自携带终端,移动终端而进一步包括手持终端和车载终端。包括移动终端的常规终端提供数量越来越多的复杂和不同的功能。
为了在终端中支持和增强数量越来越多的功能,改善终端的结构部分和/或软件部分将是可取的。因为包括移动终端的各种终端提供多种复杂功能,所以菜单结构也变得复杂。此外,增加了通过终端显示包括网页的数字文档的功能。
发明内容
本发明的目的在于提供能够拍摄观看在触摸屏上运行的预定显示的用户的图像并且在触摸屏上显示该图像的电子装置及其控制方法。将理解的是,将通过本发明实现的技术目的不限于上面提到的技术目的,对于本发明所属领域的普通技术人员来说,这里未提到的其它技术目的将通过下面的描述变得明显。
为了实现以上目的,本发明的实施方式提供了一种电子装置,该电子装置包括:触摸屏;摄像头;麦克风;以及控制器,其被配置为:在所述触摸屏上显示预定应用的运行画面,在进入反应拍摄模式时控制所述摄像头和所述麦克风操作,在通过所述摄像头检测做出面部表情或手势的用户或者通过所述麦克风检测到所述用户的声音时,通过所述摄像头拍摄所述用户的视频或静态图像来获取反应图像,并且在所述触摸屏上显示获取的反应图像。
所述预定应用的所述运行画面可以包括以下中的至少一种:视频应用的运行画面、SNS(社交网络服务)的运行画面、消息发送应用的运行画面和网页的画面。
如果通过所述摄像头检测到所述用户的面部表情或手势达预定时间或更长时间,或者通过所述麦克风检测到所述用户的声音达所述预定时间或更长时间,则所述控制器可以将所述反应图像获取为视频,并且如果检测到所述用户的面部表情、手势或声音的时间比所述预定时间短,则所述控制器可以将所述反应图像获取为静态图像。
所述控制器可以在所述预定应用的所述运行画面上以交叠方式显示所获取的反应图像。
所述电子装置还可以包括存储器,并且所述控制器可以将显示所获取的反应图像的所述预定应用的所述运行画面作为单个文件保存在所述存储器中。
在通过所述摄像头检测到多个用户时,所述控制器可以获取所述多个用户中的被检测到做出面部表情或手势或发出声音的任一个用户的拍摄到的反应图像。
如果至少检测到的面部表情、检测到的手势或检测到的声音满足预定条件,则所述控制器可以改变所述反应图像的尺寸、显示位置和透明度中的至少一项。
所述控制器可以基于来自所述用户的预定输入信号来改变所述反应图像的尺寸、显示位置和透明度中的至少一项。
所述控制器可以通过所述摄像头连续地多次拍摄所述静态图像。
所述控制器可以在所述触摸屏上以缩略图形式显示所获取的反应图像。
在接收到用于选择以缩略图形式显示的所述反应图像中的任一个的输入时,所述控制器可以在所述触摸屏上显示与获取被选择的反应图像时的时间点相对应的所述应用的所述运行画面。
为了实现以上目的,本发明的实施方式提供了一种电子装置的控制方法,该方法包括以下步骤:在触摸屏上显示预定应用的运行画面;在进入反应拍摄模式时控制摄像头和麦克风操作;通过所述摄像头检测做出面部表情或手势的用户或者通过麦克风检测所述用户的声音;通过所述摄像头拍摄所述用户的视频或静态图像来获取反应图像;以及在所述触摸屏上显示获取的反应图像。
在显示所述预定应用的运行画面的步骤中,可以显示以下中的至少一种:视频应用的运行画面、SNS(社交网络服务)的运行画面、消息发送应用的运行画面和网页的画面。
在所述触摸屏上显示获取的反应图像的步骤中,可以在所述预定应用的所述运行画面上以交叠方式显示所获取的反应图像。
在获取所拍摄的所述用户的反应图像的步骤中,在通过所述摄像头检测到多个用户时,可以获取所述多个用户中的被检测到做出面部表情或手势或发出声音的任一个用户的拍摄到的反应图像。
根据本发明的电子装置及其控制方法具有以下优点。
根据本发明,可以与其它人分享观看视频、网页等的用户的反应。
此外,可以更直观地识别出检测到用户反应的时刻。
此外,可以通过连续地多次拍摄用户来直观地识别用户的面部表情、手势等。
此外,当多个用户在不同的时刻播放和观看视频时,多个用户的反应图像可以被获取、组合和分享。
附图说明
包括附图以提供本发明的进一步理解,附图被并入到本申请中并构成本申请的一部分,附图例示了本发明的实施方式,并且与描述一起用于解释本发明的原理。
图1是根据本发明的实施方式的电子装置的框图。
图2a是根据本发明的实施方式的电子装置的正面立体图。
图2b是根据本发明的实施方式的电子装置的后面立体图。
图2c和图2d例示了根据本发明的各种实施方式的电子装置和显示画面的形式。
图3是用于说明接近传感器的接近深度的示图。
图4例示了图1中示出的与电子装置通信的CDMA无线通信系统的配置。
图5是根据本发明第一实施方式的电子装置的控制方法的流程图。
图6至图13是示出显示了拍摄到的用户的应图像的触摸屏的示例的示图。
图14是根据本发明第二实施方式的电子装置的控制方法的流程图。
图15和图16是示出显示了拍摄到的多个用户的反应图像的触摸屏的示例的示图。
图17是根据本发明第三实施方式的电子装置的控制方法的流程图。
图18是说明本发明的第三实施方式的示图。
图19是说明本发明的第四实施方式的示图。
图20是示出根据本发明的保存和管理拍摄到的反应图像的文件的示例的示图。
图21是示出在网页的画面上显示反应图像的触摸屏的示例的示图。
图22是示出在SNS的运行画面上显示反应图像的触摸屏的示例的示图。
具体实施方式
本公开的上述和其它方面、特征和优点将从下面结合附图的详细描述中变得更明显。因为本发明允许各种改变和多个实施方式,所以特定实施方式将在附图中例示并且在撰写的说明书中被详细描述。在整个说明书中相同的标号表示相同的元件。在描述本公开中,为了不必要地模糊本公开的主题,将省略对已知功能或配置的详细描述。在本发明的描述中使用的数字(例如,第一、第二等)仅为了将一个元件与另一个元件区分开。
下面可以参照附图描述根据本发明的电子装置。在下面的描述中,仅考虑描述方便而将后缀“模块”和“单元”赋予电子装置的组件,这些后缀没有彼此相区别的含义或功能。
电子装置可包括蜂窝电话、智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航系统等。对于本领域技术人员而言明显的是,除了被公开为仅专门用于移动终端的应用之外,根据本说明书中公开的实施方式的配置应该可应用于诸如数字TV、台式计算机等的固定或静止终端。
图1是根据本发明的实施方式的电子装置的框图。
电子装置100可以包括无线通信单元110(或无线电通信单元)、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190。图1中示出的部件不是必需的部件,并且电子装置100中包括的部件的数量可以变化。现在将描述电子装置100的部件。
无线通信单元110可以包括允许在电子装置100与无线通信系统之间进行无线通信或者允许在电子装置100与电子装置100所在的网络之间进行无线通信的至少一个模块。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114(或局域通信模块)和位置信息模块115。
广播接收模块111可以通过广播频道从外部广播管理服务器接收广播信号和/或广播相关信息。
广播频道可以包括卫星频道和地面频道,并且广播管理服务器可以是产生和发送广播信号和/或广播相关信息的服务器,或者是接收先前创建的广播信号和/或广播相关信息并将该广播信号和/或广播相关信息发送到终端的服务器。广播信号不仅可以包括TV广播信号、无线电广播信号和数据广播信号等,而且还可以包括组合了TV广播信号和无线电广播信号的形式的信号。
广播相关信息可以是关于广播频道、广播节目或广播服务提供商的信息,并且甚至可以通过移动通信网络提供。在通过移动通信网络提供广播相关信息的情况下,广播相关信息可以由移动通信模块112接收。
广播相关信息可以以多种形式存在。例如,广播相关信息可以以数字多媒体广播(DMB)系统的电子节目指南(EPG)的形式、或以手持数字视频广播(DVB-H)系统的电子服务指南(ESG)的形式存在。
广播接收模块111可以利用各种广播系统接收广播信号。更具体地,广播接收模块111可以利用诸如地面数字多媒体广播(DMB-T)系统、卫星数字多媒体广播(DMB-S)系统、仅媒体前向链路(MediaFLO)系统、DVB-H和地面综合业务数字广播(ISDB-T)系统的数字广播系统来接收数字广播信号。广播接收模块111可以从除了上述数字广播系统之外的提供广播信号的广播系统接收信号。
通过广播接收模块111接收到的广播信号和/或广播相关信息可以存储在存储器160中。
移动通信模块112可以向/从移动通信网络上的基站、外部终端和服务器中的至少一个发送和/或接收无线信号。这里,根据文本/多媒体消息的收发,无线信号可以包括语音通话信号、视频电话通话信号或者各种格式的数据。
无线因特网模块113可以对应于用于无线因特网接入的模块,并且可以包括在电子装置100中,或者可以在外部附接到电子装置100。无线LAN(WLAN或Wi-Fi)、无线宽带(WiBro)、微波接入全球互通(Wimax)和高速下行链路分组接入(HSDPA)等可以用作无线因特网技术。
短距离通信模块114可以对应于用于短距离通信的模块。此外,射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)和/或可以用作短距离通信技术。
位置信息模块115是用于标识或获得电子装置的位置的模块。全球定位系统(GPS)模块是位置信息模块115的代表性示例。根据目前的技术,GPS模块115可以计算关于一个点或对象与至少三个卫星之间的距离的信息以及关于测量距离信息时的时间的信息,并且向获得的距离信息应用三角法以在预定时间根据纬度、经度和海拔获得关于点或对象的三维位置信息。还可以使用利用三个卫星计算位置和时间信息并且利用另一个卫星对计算出的位置和时间信息进行校正的方法。另外,GPS模块115可以实时连续地计算当前位置,并且利用位置或地点信息来计算速度信息。
参照图1,A/V输入单元120可以输入(或接收)音频信号和/或视频信号。A/V输入单元120可以包括摄像头121和麦克风122等。摄像头121可以处理在视频电话模式或者拍摄模式下由图像传感器获得的静态图像或运动图像的图像帧。经处理的图像帧可以显示在显示模块151上。
经摄像头121处理的图像帧可以存储在存储器160中,或者可以通过无线通信单元110发送到外部装置。电子装置100还可以包括至少两个摄像头121。
麦克风122可以在通话模式、记录模式和/或语音识别模式中接收外部音频信号,并且麦克风122可以将接收到的音频信号处理成电音频数据。音频数据然后可被转换成可以通过移动通信模块112发送到移动通信基站的格式,并且在通话模式中被输出。麦克风122可以采用各种噪声消除算法(或噪声去除算法),以消除或去除在接收外部音频信号时产生的噪声。
用户输入单元130可以从用户接收用于控制电子装置100的操作的输入数据。用户输入单元130可以包括键区、薄膜开关、触摸板(恒定电压/电容)、滚轮、拨动开关等。
感测单元140可以感测电子装置100的当前状态(诸如,电子装置100的打开/关闭状态、电子装置100的位置、用户是否触摸电子装置100、电子装置100的取向、电子装置100的加速度/减速度),并且感测单元140可以产生用于控制电子装置100的操作的感测信号。例如,如果电子装置100是滑盖式电话,则感测单元140可以感测滑盖电话是打开还是闭合的。此外,感测单元140可以感测电源单元190是否供电和/或接口单元170是否连接到外部装置。同时,感测单元140可以包括姿势传感器141和/或接近传感器。
输出单元150可以产生视觉、听觉和/或触觉输出,并且输出单元150可以包括显示模块151、音频输出模块152、告警器153和触觉模块154等。显示模块151可以显示由电子装置100处理的信息。当电子装置100处于通话模式时,显示模块151可以显示与电话通话相关的用户界面(UI)和/或图形用户界面(GUI)。当电子装置100处于视频电话模式或拍摄模式时,显示模块151还可以显示拍摄的和/或接收到的图像、UI或GUI。
显示模块151可以包括液晶显示器、薄膜晶体管液晶显示器、有机发光二极管显示器、柔性显示器和/或3D显示器中的至少一种。上述显示器中的一些可以被配置为透明类型或透光类型的显示器,通过这些显示器可以看到外部,这可以被称为“透明显示器”。
透明显示器的示例包括透明LCD。显示模块151的后部结构也可以是透光型的。因此,用户可以透过显示模块151所占据的电子装置100的机体的透明区域看到位于(电子装置100的)机体的后面的物体。
电子装置100还可以包括至少两个显示模块151。例如,电子装置可以包括按照预定距离设置在单个表面上的多个显示器151或集成的显示器。多个显示模块151还可以设置在不同侧。
当显示模块151和感测触摸的传感器(下面,称为触摸传感器)形成层叠结构(下面,称为触摸屏)时,显示模块151除了可以用作输出装置之外还可以用作输入装置。触摸传感器可以为例如触摸膜、触摸片和/或触摸板的形式。
触摸传感器可以将施加到显示模块151的特定部分的压力的变化、或在显示模块151的特定部分处产生的电容的变化等转换成电输入信号。触摸传感器可以感测触摸的压力以及触摸的位置和面积。
当用户向触摸传感器施加触摸输入时,与触摸输入相对应的信号(多个信号)可被发送至触摸控制器。然后,触摸控制器可以处理所述信号(多个信号),并向控制器180发送与经处理的信号(多个信号)相对应的数据。因此,控制器180可以检测到显示模块151的被触摸部分。
参照图1,接近传感器可以位于电子装置100的被触摸屏包围的内部区域,和/或触摸屏附近。接近传感器可以在没有机械触摸的情况下利用电磁力或红外光线来感测接近预定感测面的对象或者位于接近传感器附近的对象。接近传感器可以具有比接触式传感器长的寿命,并且因此可以在电子装置100中具有较广的应用。
接近传感器可以包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁性接近传感器和/或红外接近传感器。电容型触摸屏可以被构造为使得通过电场的根据指示器的接近的变化来检测指示器的接近。触摸屏(触摸传感器)可以被归类为接近传感器。
为了便于解释,可以将指示器接近触摸屏但未实际触摸到触摸屏的动作称为接近触摸,并且可以将指示器与触摸屏接触的动作称为接触触摸。触摸屏上的指示器的接近触摸点可以对应于触摸屏的其中指示器与触摸屏垂直的点。
接近传感器可以感测接近触摸和接近触摸模式(例如,接近触摸距离、接近触摸方向、接近触摸速度、接近触摸时间、接近触摸位置、接近触摸移动状态等)。然后,可以在触摸屏上显示与感测到的接近触摸动作和接近触摸模式相对应的信息。
音频输出模块152可以在呼叫信号接收模式、电话通话模式或记录模式、语音识别模式和广播接收模式中输出从无线通信单元110接收到的或存储在存储器160中的音频数据。音频输出模块152还可以输出与在电子装置100中执行的功能有关的音频信号,诸如呼叫信号接收音调、消息接收音调等。音频输出模块152可以包括接收器、扬声器、蜂呜器等。
告警器153可以输出用于指示电子装置100的事件的产生的信号。例如,当接收到呼叫信号、接收到消息、输入键信号和/或输入触摸时可以产生告警。告警器153还可以按照与视频信号或音频信号不同的方式输出信号,例如,输出用于通过振动指示事件的发生的信号。还可以通过显示模块151或音频输出模块152输出视频信号和/或音频信号。
触觉模块154可以产生用户可以感觉到的各种触觉效果。触觉效果的一个示例是振动。触觉模块154产生的振动的强度和/或模式也可以被控制。例如,不同的振动可以被组合和输出,或者可以按顺序输出。
除了振动以外,触觉模块154可以产生各种触觉效果,所述各种触觉效果包括根据针列与用户皮肤的接触面垂直移动的刺激效果、通过喷孔或吸孔的空气喷力或空气吸力的刺激效果、掠过皮肤的刺激效果、根据电极的接触的刺激效果、利用静电力的刺激效果、以及根据利用能够吸热或发热的器件来实现冷和热的效果。
触觉模块154不仅可以通过直接接触传递触觉效果,还可以通过用户的手指或手臂的肌觉使用户感觉触觉效果。电子装置100还可以包括多个触觉模块154。
存储器160可以存储用于控制器180的操作的程序,和/或临时存储诸如电话簿、消息、静态图像和/或运动图像的数据。存储器160还可以存储与当在触摸屏上施加触摸输入时所输出的各种模式的振动和声音有关的数据。
存储器160可以至少包括闪存、硬盘类型的存储器、多媒体微型卡类型的存储器、卡型存储器(例如,SD或者XD存储器)、随机存取存储器(RAM)、静态RAM(SRAM)、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、可编程ROM(PROM)磁性存储器、磁盘和/或光盘。电子置100还可以与在因特网上执行存储器160的存储功能的网络存储器相关地操作。
接口单元170可以用作到与连接到电子装置100的外部装置的路径。接口单元170可以从外部装置接收数据或电力,或者向电子装置100的内部部件发送数据或电力,或者可以向外部装置发送电子装置100的数据。例如,接口单元170可以包括有线/无线耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于连接具有用户身份模块的装置的端口、音频I/O端口、视频I/O端口和/或耳机端口。
用户身份模块是存储有用于对使用电子装置100的权限进行认证的信息的芯片。这里,用户身份模块可以是用户身份模块(UIM)、订户身份模块(SIM)和/或通用订户身份模块(USIM)等。(包括用户身份模块)的身份装置还可以以智能卡的形式制造。因此,身份装置可以通过端口与电子装置100连接。
当电子装置100与外部托架连接时,接口单元170还可以是将来自外部托架的电力提供给电子装置100的通路,或者是将用户通过托架输入的各种命令信号发送给电子装置100的通路。从托架输入的各种命令信号或电力可以用作确认电子装置100是否被正确地安放在托架中的信号。
控制器180可以控制电子装置100的整体操作。例如,控制器180可以针对语音通信、数据通信和/或视频电话执行控制和处理。控制器180还可以包括用于播放多媒体的多媒体模块181。多媒体模块181可以包括在控制器180中,或者可以与控制器180分开。
控制器180可以执行能够识别施加于触摸屏的手写输入或画图输入作为字符或图像的图案识别处理。电源单元190可以在控制器180的控制下接收外部电力和内部电力并且提供电子装置100的部件的操作所需的电力。这里描述的各种实施方式可以在可被计算机或类似装置读取的存储介质中实现为软件、硬件或者软件和硬件的组合。
根据硬件实现,实施方式可以利用以下中的至少一种来实现:专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器和/或执行功能的电气单元。实施方式可以由控制器180来实现。
根据软件实现,诸如程序或功能的实施方式可以用独立的软件模块来实现,所述软件模块执行至少一种功能或操作。软件代码可以根据用适当的软件语言所编写的软件应用来实现。软件代码可以存储在存储器160中,并且由控制器180执行。
图2a是根据本发明的实施方式的电子装置(或手持终端)的正面立体图。
电子装置100可以是直板形终端机体。然而,实施方式不仅限于条形终端,并且可以应用于包括具有相对可移动地组合的至少两个机体的滑盖型、折叠型、旋转型和/或旋盖型终端的各种类型的终端。
终端机体可以包括形成电子装置100的外部的壳体(外壳、盖等)。在实施方式中,壳体可以被划分成前壳体101和后壳体102。多种电子部件可以设置在在前壳体101和后壳体102之间所形成的空间中。在前壳体101和后壳体102之间可以另外设置至少一个中间壳体。
壳体可以通过注射成形用塑料形成,或者可以利用诸如不锈钢(STS)或钛(Ti)的金属材料制成。
显示模块151、音频输出单元152、摄像头121、用户输入单元130/131和132、麦克风122、接口170可以布置(或设置)在终端机体中,更具体地,可以布置(或设置)在前壳体101中。
显示模块151可以占据前壳体101的主表面的主要部分。音频输出模块152和摄像头121可以设置在接近显示模块151的两个端部中的一个端部的区域中,并且用户输入单元131和麦克风122可以设置在接近显示模块151的另一个端部的区域中。用户输入单元132和接口170可以布置(或设置)在前壳体101和后壳体102的侧面上。
用户输入单元130可以接收用于控制电子装置100的操作的命令,并且可以包括多个操作单元131和132。操作单元131和132可以被称为操纵部,并且可以采用其中用户可在具有触觉感知的同时操作所述操作单元131和132的任何触觉方式。
第一操作单元131和第二操作单元132可以接收各种输入。例如,第一操作单元131可以接收诸如开始、结束和滚动的命令,并且第二操作单元132可以接收诸如对从音频输出单元152输出的音量的控制或将显示模块151转换成触摸识别模式的命令。
图2b是图2a中示出的电子装置的后面立体图。
参照图2b,摄像头121’可以额外地附接到终端机体的后侧(即,后壳体102)。摄像头121’可以具有与摄像头121(图2a中所示)相反的拍摄方向,并且摄像头121’可以具有与摄像头121(图2a中所示)不同的像素。
例如,可以期望的是,摄像头121具有低像素,使得在视频电话的情况下摄像头121可以拍摄用户的脸部的图像并向接收方发送图像,而因为在多数情况下摄像头121’拍摄普通对象的图像并且不立即发送图像,所以摄像头121’具有高像素。摄像头121和121’可以按照摄像头121和121’可以旋转或弹出的方式附接(或设置)到终端机体。
可以接近摄像头121’额外地设置闪光灯123和镜子124。当摄像头121’拍摄对象的照片时,闪光灯123可以照亮对象。当用户想要利用摄像头121’对他自己/她自己进行自拍时,可以使用镜子124以使得用户在镜子124中看到他的/她的脸部。
在终端机体的后侧可以额外地设置音频输出单元152’。音频输出单元152’可以与音频输出单元152(图2a中所示)一起实现立体声功能,并且当终端被用于电话通话时,音频输出单元152’可以用于免提电话模式。
除了用于进行电话通话的天线之外,广播信号接收天线可以额外对附接(或设置)到终端机体的侧面。构成广播接收模块111(图1中示出)的一部分的天线可以按照天线可从终端机体中拉出的方式设置在终端机体中。
可以在终端机体中设置用于向电子装置100供电的电源单元190。电源单元190可以包括在终端机体中,或者可以可拆卸地附接到终端机体。
用于感测触摸的触摸板135可以附接到后壳体10。触摸板135可以是诸如显示模块151的透光型。在这种情况下,如果显示模块151通过其两侧输出视觉信息,则所述视觉信息可被触摸板135识别(或确定)。通过显示模块151的两侧输出的信息可以由触摸板135控制。另外,显示器可以额外地附接(或设置)到触摸板135,使得触摸屏甚至可以布置(或设置)在后壳体102中。
触摸板135可以与前壳体101的显示模块151相关联地操作。触摸板135可以与显示模块151平行地设置在显示模块151的后面。在尺寸上,触摸板135可以与显示模块151相同或小于显示模块151。
图2c和图2d例示了根据各种实施方式的电子装置100和显示模块151。
参照图2c,显示模块151可以包括物理上彼此分开的第一显示器和第二显示器。在具有通过铰链或滑动装置连接的两个机体的折叠型或滑盖型电子装置中,第一显示器(或主显示器)可以形成在所述机体中的一个机体的内表面或外表面上,并且第二显示器(或副显示器)可以形成在另一机体的内表面或外表面上。副显示器可以与电子装置分开,并且可以通过接口与电子装置机体可拆卸地组合以显示来自电子装置100的数据。
显示模块151可以包括显示面板中可以在逻辑上彼此分开的第一显示器和第二显示器,如图2d所示。
图3是用于说明接近传感器的接近深度的示图。
如图3所示,当指示器(例如,用户的手指)接近触摸屏时,位于触摸屏的内部或触摸屏的附近的接近传感器可以感测指示器的接近,并且可以输出接近信号。
接近传感器可被构造为使得接近传感器根据接近触摸屏的指示器和触摸屏之间的距离(称为“接近深度”)来输出接近信号。
可以将当指示器接近触摸屏时输出的接近信号的距离称为检测距离。可以利用具有不同检测距离的多个接近传感器并且将分别从所述多个接近传感器输出的接近信号进行比较来确定接近深度。
图3示出了可设置能够感测三个接近深度的接近传感器的触摸屏的部分。可以在触摸屏中设置能够感测少于三个或多于四个接近深度的接近传感器。
更具体地,当指示器完全接触到触摸屏(d0)时,可识别为接触触摸。当指示器位于距触摸屏距离d1内时,可识别为第一接近深度的接近触摸。当指示器位于距触摸屏的距离d1和距离d2之间时,可识别为第二接近深度的接近触摸。当指示器位于距触摸屏的距离d2和距离d3的范围内时,可识别为第三接近深度的接近触摸。当指示器与触摸屏相距的距离大于距离d3时,可识别为接近触摸的取消。
因此,控制器180可以根据指示器关于触摸屏的接近距离和接近位置将接近触摸识别为各种输入信号,并且控制器180可以根据输入信号执行各种操作控制。
参照图4,CDMA无线通信系统包括电子装置100、基站270、基站控制器275和移动交换中心280。移动交换中心280与公共交换电话网络(PSTN)290连接。移动交换中心280与基站控制器275连接。基站控制器275通过回程线路与基站270连接。回程线路可以根据相关技术中已知的E1/T1、ATM、IP、PPP、帧中继、HDSL、ADSL或xDSL来构造。CDMA无线通信系统可以包括至少两个基站控制器275。
各基站270可以包括一个或多个扇区(sector),并且各个扇区可以包括全向天线或被调节至基站270的特定辐射方向的天线。或者,各扇区可以包括两个分集接收天线。各基站270被构造为具有频率分配(frequency assignment),所述频率分配可以具有特定频谱(例如,1.25MHz和5MHz)。
扇区和频率分配的交叉可被称为CDMA信道。
基站270可以被称为基站收发器子系统(BTS)。在多个示例中,“基站”可被用作集总地表示基站控制器275和一个或更多个基站270的术语。此外,基站270可以被称为“蜂窝站”。另外,指定基站270的各扇区可以被称为蜂窝站。
地面DMB发送器295可以向在CDMA无线通信系统中操作的电子装置100发送广播信号。各个电子装置100的广播接收模块111被构造为接收从DMB发送器295发送的广播信号。这可以被类似地应用于以上描述的各种类型的广播和多播信令。
图4例示了全球定位系统(GPS)卫星300。这些卫星300可以跟踪一些或所有电子装置100的位置。尽管在图4中示出了两个卫星,但可以从少于两个或多于两个卫星获得位置信息。另外,可以使用其它位置跟踪技术(例如,可以代替GPS技术或者可以添加到GPS技术的位置跟踪技术)。如果需要,则一些或所有GPS卫星300可以单独或额外地支持卫星DMB传输。
当CDMA无线通信系统操作时,基站270从电子装置100接收反相链路信号。电子装置100可以处于电子装置100正进行通话、发送消息或执行其它通信的状态。基站270处理基站270接收到的反向链路信号。经处理的数据被发送到与基站270连接的基站控制器275。基站控制器275提供包括基站270之间的软切换的资源分配和移动性管理功能。此外,基站控制器275向移动交换中心280发送接收到的数据。移动交换中心280提供用于与PSTN290连接的附加路由服务。类似地,PSTN290与移动交换中心280连接,并且移动交换换中心280与基站控制器275连接。基站控制器275顺序地控制基站270向电子装置100发送前向链路信号。
下面将描述本发明的实施方式。在本发明中,为了方便描述,显示模块151被限定为触摸屏151。如上所述,触摸屏151可以执行显示信息的功能和输入信息的功能二者。然而,显然要强调的是,本发明不限于此。稍后将提到的术语“触摸”被解释被表示接触触摸和接近触摸二者。
图5是根据本发明第一实施方式的电子装置的控制方法的流程图。
当在触摸屏151上显示预定应用的运行画面(例如,视频播放画面)时,根据本发明实施方式的电子装置100可以在通过操作摄像头和麦克风拍摄观看触摸屏151的用户的图像的反应拍摄模式下操作。
即,当在通过操作摄像头和麦克风拍摄观看视频的用户时检测到诸如用户手势的反应时,控制器可以在拍摄用户的图像的反应拍摄模式下操作,并且在触摸屏上显示所拍摄的图像。
当正在观看视频或阅读网页的用户做出了面部表情或手势或发出声音时,根据本发明的实施方式的电子装置100可以与检测到的用户反应的触摸屏图像一起显示并保存用户的图像。因此,可以与其它人员分享对用户对视频或网页的反应。
下面描述根据本发明的实施方式的电子装置的控制方法。
控制器180可以在触摸屏151上显示预定应用的运行画面(S101)。
预定应用的运行画面可以包括以下中的至少一种:视频应用的播放画面、SNS(社交网络服务)的运行画面、消息发送应用的运行画面和网页的画面。例如,预定应用的运行可以是播放体育赛事的视频、音乐视频等的画面。
当控制器180进入反应拍摄模式时,控制器180可以操作摄像头和麦克风(S103)。
控制器180可以基于预定控制信号的输入而在反应拍摄模式下操作。预定控制信号可以在电子装置100中预设或通过用户输入来设置。
如果电子装置100中预设的预定条件被满足,则控制器180可以自动地在反应拍摄模式下操作。
当控制器180进入反应拍摄模式时,控制器180可以操作摄像头121和麦克风122。即,控制器180可以通过摄像头121拍摄观看触摸屏151的用户。控制器180可以通过麦克风122获取用户的声音。
控制器180可以检测做出面部表情或手势或发出声音的用户(S105)。即,控制器180可以通过摄像头121检测用户的面部表情或手势。另外,控制器180可以通过麦克风122检测用户的声音。
例如,控制器180可以检测正在观看音乐视频的用户的脸上的诸如惊讶或微笑的面部表情以及诸如用户笑声的声音。
控制器180可以通过摄像头拍摄用户的视频或静态图像来获取反应图像(S107)。
如果检测到用户的面部表情或手势达预定时间或更长时间,则控制器180可以获取反应图像作为视频。
另外,如果通过麦克风122检测到用户的声音达预定时间或更长时间,则控制器180可以获取反应图像作为视频。
另外,如果通过摄像头121或麦克风122检测到用户的面部表情、手势或声音少于预定时间,则控制器180可以获取反应图像作为静态图像。
预定时间可以在电子装置100中预设或者通过用户输入被重置。
例如,如果用户的微笑持续了不少于5秒种,则控制器180可以拍摄用户的视频并保存该视频。另外,如果用户的微笑持续了少于5秒钟,则控制器180可以拍摄用户的静态图像并保存该静态图像。
控制器180可以在触摸屏上显示获取的反应图像(S109)。这表示控制器180可以在通过摄像头121检测到用户的反应后就立即在触摸屏151上显示用户的图像。
控制器180可以在触摸屏上显示的预定应用的运行画面(例如,视频播放画面)上以交叠的方式显示获取的反应图像。
控制器180可以保存包括反应图像的画面(S110)。
例如,控制器180可以将音乐视频的显示有用户的反应图像的播放画面保存为单个文件。
图6至图13是示出显示有用户的拍摄的反应图像的触摸屏的示例的示图。
用户反应可以包括在用户的脸上表达了微笑或吃惊表情、举手、手势、笑声、喊声等。
如图6所示,可以在触摸屏151的视频播放画面20上以交叠的方式显示用户P2的拍摄图像。
例如,当在触摸屏151上正播放歌手的演出视频时,可以在触摸屏151上显示具有惊讶表情的用户的拍摄图像10。
控制器180可以在检测到面部表情的时刻在触摸屏上显示基于用户P2的诸如惊讶的表情或微笑的面部表情而拍摄到的用户的图像。
即,通过在触摸屏上显示用户的反应并进行保存,可以与其他用户分享包含观看视频的用户对歌手的表演的反应的图像。
如图7所示,当从用户P3检测到反应时,控制器180可以在触摸屏151的中心将用户的拍摄图像显示为较大尺寸12,然后在触摸屏151的下部将所述拍摄图像显示为较小尺寸13。
如图7中的(a)所示,控制器180可以在检测到用户P3的面部表情的时刻就在触摸屏151的中心将用户的拍摄图像12显示为不小于特定尺寸的尺寸。
例如,控制器180可以在检测到用户P3的面部表情的时刻就在触摸屏151的中心将用户P3的拍摄图像12显示预定时间(例如,2秒钟)。这增加了即时性的感觉,这使得能够立即识别出在播放视频(即,歌手的表演)的时刻检测到的用户反应。
如图7中的(b)所示,控制器180可以在触摸屏151的下部将图7中的(a)中显示的用户的拍摄图像12显示为较小的尺寸。
即,控制器180可以以将图像缩小并移动到触摸屏151的下部的方式来将图7中的(a)的图像12显示为图像13。
因此,可以在检测到用户反应时立即在触摸屏151上以较大的尺寸显示用户的图像,从而实现即时性并表现用户的情感。同时,可以以将图像缩小并移动到触摸屏151的下部的方式来显示图像,以尽可能防止图像阻碍正在运行播放视频的画面。
图8例示了在如图7所示地在触摸屏151上显示用户P4的反应图像14时添加了用于直观认识的预定动画效果的示例。
如图8中的(a)所示,在检测到用户的反应时,控制器180可在用户的拍摄图像14附近添加标记以突出显示图像14。例如,控制器180可以在图像14附近放置帧标记a1。另外,控制器180可以添加诸如使图像14闪烁、放大图像14和改变图像14的颜色、阴影等的动画效果。
因此,可以更直观地识别检测到用户反应的时刻。
图8中的(b)例示了以如图7中的(b)所示反应图像14被缩小并移动到触摸屏151的下部的方式显示图8中的(a)的反应图像14的示例。
图9例示了改变反应图像的显示位置的示例。
如图9中的(a)所示,在从用户P5检测到反应时,控制器180可以在触摸屏151的运行画面20上显示用户P5的拍摄图像16。
在接收到用手指F1等选择图像16并移动图像16的输入(例如,长触摸和拖拽)时,控制器180可以改变图像16的显示位置。即,用户可以移动反应图像16以在触摸屏151的期望的位置显示。
图10例示了改变反应图像的尺寸的示例。
如图10中的(a)所示,控制器180可以接收利用两个手指F2和F3选择在视频播放画面20上显示的用户P6的反应图像17并在箭头方向上放大反应图像17的输入。
如图10中的(b)所示,控制器180可以基于来自用户的输入信号F2和F3在触摸屏151上显示放大的反应图像18。
即,用户可以通过放大或缩小触摸屏151上显示的反应图像来调整该反应图像的尺寸。
图11例示了反应图像被显示为透明的示例。
如图11所示,控制器180可以在视频播放画面20上以透明形式显示用户P7的拍摄反应图像19。即,控制器180可以以这种方式在视频播放画面20上以交叠方式显示反应图像19,以甚至在交叠区域中也显示视频播放画面20。
控制器180可以调整反应图像19的透明度。
控制器180可以基于来自用户的输入信号来调整所显示的反应图像19的透明度,即,在反应图像19的显示区域中看到多少视频20。
另外,如果预设条件被满足(诸如用户的反应持续了预定时间或更长或者用户表现某一程度或更大程度的反应,则控制器180可以自动地改变显示的反应图像的透明度。
图12例示了在触摸屏151上全屏显示反应图像的示例。
如图12中的(a)所示,控制器180可以在触摸屏151上全屏显示视频的播放画面20,并且在视频播放画面41的下部的区域中显示用户16的拍摄的反应图像41。
控制器180可以接收诸如用手指F6在播放画面20上进行长触摸的输入的预定输入信号。
如图12中的(b)所示,控制器180可以基于输入信号F6在触摸屏151上将用户P16的反应图像41展开为全屏显示。
即,控制器180可以在触摸屏151上全屏显示反应图像,并且在反应图像42的画面的区域中显示当前播放的视频43。
图13例示了连续地拍摄用户并在触摸屏上进行显示的示例。
如图13所示,控制器180可以通过摄像头121连续地多次拍摄用户P14的图像。即,控制器180可以在视频播放画面20上显示用户P14的多个图像29、30、31和32。
如果连续拍摄的预定条件被满足,则控制器180可以在触摸屏上显示连续多次拍摄的或拍摄了预定时间的图像。
例如,连续拍摄的预定条件可以是从用户接收到预设的输入信号。另外,连续拍摄的预定条件可以是用户反应持续了预定时间或更长。
通过在触摸屏上显示用户的多个连续拍摄的图像,可以直观地识别用户的面部表情、手势等。
图14是根据本发明第二实施方式的电子装置的控制方法的流程图。图14例示了拍摄观看电子装置100的触摸屏151的多个用户的示例。
控制器180可以在触摸屏151上显示预定应用的运行画面(S201)。当控制器180进入反应拍摄模式时,控制器180可以操作摄像头121和麦克风122(S203)。
即,控制器180可以在触摸屏151上显示表演视频,并且进入用于拍摄观看触摸屏151的用户的反应拍摄模式。
可以参照图5的详细描述来描述步骤S201和S203。
控制器180可以拍摄多个用户中被检测到做出了面部表情或手势或发出声音的的任一个用户(S205)。控制器180可以在触摸屏151上显示拍摄到的静态图像或视频(S207)。
即,当多个用户正在观看触摸屏151时,控制器180可以拍摄所述用户中被检测到做出预定反应的的任一个用户,并且在触摸屏151上显示他或她。
当同时检测到做出了反应的多个用户时,控制器180可以拍摄被检测到做出反应的多个用户的图像作为单独的静态图像或单独的视频,并且在触摸屏151上显示单独的静态图像或单独的视频。
此外,当多个用户中的任一个用户被检测到做出了反应时,控制器180可以将多个用户一起拍摄为单个静态图像或单个视频,并且在触摸屏151上显示单个静态图像或单个视频。
控制器180可以保存包括所拍摄的图像的画面(S209)。控制器180可以将包括多个用户的拍摄图像的画面保存为单个文件。
图15和图16是示出显示有多个用户的拍摄反应图像的触摸屏的示例的示图。
如图15所示,控制器180可以在触摸屏151上显示第一用户P10和第二用户P11的单独的拍摄图像25和26。
即,当多个用户正在观看触摸屏151时,控制器180可以拍摄所述多个用户中被检测到做出反应的一些用户,并且在触摸屏151上显示他们的图像。
例如,如果第一用户P10的手势持续了预定时间或更长,则控制器180可以将第一用户P10的图像拍摄为视频25,并且在触摸屏151上显示该视频25。如果第二用户P11的面部表情持续了预定时间,则控制器180可以将第二用户P11的图像拍摄为静态图像,并且在触摸屏151上显示该静态图像。
此外,控制器180可以将第一用户P10和第二用户P11一起拍摄为单个视频或单个静态图像,并且在触摸屏151上显示该单个视频或单个静态图像。
图16例示了突出显示多个用户中表现出大反应的一些用户的示例。
例如,在检测到做出了面部表情的第一用户P12和做出了面部表情和手势的第二用户P13时,控制器180可以以比第一用户P12的拍摄图像27大的尺寸显示第二用户P13的拍摄图像28。即,如果在识别面部表情、手势或语音期间检测到多个反应,则控制器180可以识别出正发生大的反应。
图17是根据本发明第三实施方式的电子装置的控制方法的流程图。图17例示了当显示有第一反应图像并该第一反应图像被保存的视频被显示时还拍摄和显示第二反应图像的示例。
控制器180可以显示应用的包括第一反应图像的运行画面(S301)。
当在触摸屏151上播放显示有第一反应图像并且在其中保存了第一反应图像的运行画面时,控制器180可以拍摄用户的第二反应图像,并与第一反应图像一起显示和保存第二反应图像。
这表示可以与具有已拍摄的反应图像并且在其中保存了该反应图像的视频组合地显示其他用户的反应图像。
当控制器180进入反应拍摄模式时,控制器180可以操作摄像头和麦克风(S303)。控制器180可以检测做出面部表情或手势或发出声音的用户(S305)。控制器180可通过利用摄像头121拍摄用户的视频或静态图像来获取第二反应图像(S307)。
可以参照图5的详细描述来描述步骤S303、S305和S307。
控制器180可以在触摸屏151上显示获取的第二反应图像(S309)。控制器180可以保存包括第一反应图像和第二反应图像二者的画面(S311)。
即,控制器180可以在显示了第一反应图像的画面上还显示获取的第二反应图像。
因此,即使多个用户在不同的时刻播放和观看视频,这些用户的反应图像也可以被获取、组合和分享。
图18是说明本发明的第三实施方式的示图。
图18例示了当在触摸屏151上播放显示有第一反应图像并且在其中保存了第一反应图像的视频播放画面20时拍摄第二反应图像23的示例。
如图18中的(a)所示,当在触摸屏151上播放包括用户P8的第一反应图像22的视频20时,控制器180可以拍摄用户P9的第二反应图像23并且在触摸屏151上显示该第二反应图像23。
即,在从用户P9检测到反应时,控制器180可以拍摄第二反应图像23并且在触摸屏151的中心显示第二反应图像23。
如图18中的(b)所示,控制器180可以以将第二反应图像23缩小并移动到触摸屏151的下部的方式来显示第二反应图像24。
根据用户P9的反应的持续时间,第二反应图像23和24可以是视频或静态图像。
第二反应图像23可以以与已显示的第一反应图像22相同的尺寸来显示。
此外,根据反应的程度,第二反应图像23可以被显示为占据触摸屏151的比第一反应图像22大或小的比例。例如,如果在识别面部表情、手势或语音期间检测到多个反应,则控制器180可以识别出正在发生大反应。
图19是说明本发明的第四实施方式的示图。控制器180可通过在连续地多次拍摄用户P15而在视频播放画面20上显示反应图像33、34、35、36、37、38和39。反应图像33、34、35、36、37、38和39可以以缩略图形式被显示。
如图19中的(a)所示,控制器180可以接收用手指F5选择以缩略图形式显示的反应图像33、34、35、36、37、38和39中的任一个的触摸输入。
如图19中的(b)所示,控制器180可以基于用于选择缩略图形式的反应图像36的输入而允许反应图像36跳到视频中的拍摄反应图像36时的时刻并且显示该视频。
即,连续拍摄的反应图像可以用作指示拍摄各个反应图像的时刻的索引。因此,当缩略图形式的反应图像中的任何一个被选择时,视频可以在该视频中的选择的反应图像被拍摄的播放位置开始播放。
图20是示出根据本发明的保存和管理拍摄的反应图像的文件的示例的示图。
根据本发明的一个实施方式的电子装置20可以在播放视频文件时拍摄观看触摸屏151的用户的反应,并且在视频播放画面上显示和保存。
当正在播放显示有反应图像并且在其中保存了反应图像的视频文件时,电子装置100可以拍摄观看触摸屏151的用户的反应,并且在视频播放画面上显示和保存该反应。即,这表示附加的反应图像可以与单个视频文件组合在一起。
根据本发明的实施方式的电子装置100可以将包括反应图像的多个文件保存在存储器160中。可以根据具有反应的个人(用户)来对包括反应图像的多个文件分类。
如图20中的(a)和(b)所示,包括John P20的拍摄图像的第一文件51、第二文件52和第三文件53以及包括Tom P21的拍摄图像的第四、第五、第六和第七文件可以被分类并保存在单独的文件夹中。
图21是示出在网页的画面上显示反应图像的触摸屏的示例的示图。
根据本发明的一个实施方式的电子装置100可以在触摸屏151上显示预定网页70,并且拍摄观看触摸屏151的用户的反应,并且在触摸屏151上显示该反应。
例如,在检测到正在阅读网页的文本的用户的面部表情、手势或声音时,控制器180可以拍摄用户的图像,并且在触摸屏151的网页70上显示用户的图像。
图22是示出在SNS的运行画面上显示反应图像的触摸屏的示例的示图。
根据本发明的一个实施方式的电子装置100可以在触摸屏151上显示SNS(社交网络服务)的运行画面80,并且在SNS的运行画面80上显示观看触摸屏151的用户的拍摄图像。
如图22中的(a)所示,可以在SNS的运行画面80的评论输入区域(field)中显示用户的拍摄图像61。另外,可以在SNS的运行画面80的评论输入区域中显示看起来与拍摄图像中所包括的用户表情类似的表情图示(emoticon)62。
控制器180可以接收用于用手指F11至少选择评论输入区域81中所显示的图像61或表情图示62的触摸输入。例如,当接收到用于选择评论输入区域81中显示的图像61的输入时,控制器180将选择的图像61显示为评论(图22中的(b))。
控制电子装置的上述方法可以被编写为计算机程序,并且可以利用计算机可读记录介质在执行程序的数字处理器中实现。控制电子装置的方法可以通过软件执行。软件可以包括执行所需任务的代码段。程序或代码段还可以存储在处理器可读介质中,或者可以通过传输介质或通信网络根据与载波组合的计算机数据信号被传输。
计算机可读记录介质可以是可存储之后可被计算机系统读取的数据的任何数据存储装置。计算机可读记录介质的示例可以包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、DVD±ROM、DVD-RAM、磁带、软盘、光学数据存储装置。计算机可读记录介质还可以分布于联网的计算机系统,使得计算机可读代码以分布式方式被存储和执行。
电子装置可以包括被配置为显示第一对象的第一触摸屏、被配置为显示第二对象的第二触摸屏、和被配置为接收施加到第一对象的第一触摸输入并且当在第一触摸输入被维持的同时接收到施加到第二对象的第二触摸输入时将第一对象链接到与该第二对象相对应的功能的控制器。
可以提供控制电子装置的方法,该方法包括:在第一触摸屏上显示第一对象;在第二触摸屏上显示第二对象;接收施加到第一对象的第一触摸输入;以及当在第一触摸输入被维持时接收到施加到第二对象的第二触摸输入时将第一对象链接到与第二对象相对应的功能。
本说明书中“一个实施方式”、“实施方式”、“示例实施方式”等是指与该实施方式相关地描述的具体特征、结构、或特性包括在本发明的至少一个实施方式中。这些词语在说明书中不同位置的出现不一定全部指代相同的实施方式。另外,当与任何实施方式相关地描述具体特征、结构、或特性时,认为结合其它实施方式实现该特征、结构、或特性是在本领域技术人员的考虑范围内。
尽管参照多个示例性实施方式描述了实施方式,应理解的是本领域技术人员可建议落入本公开的原理的精神和范围内的许多其它修改和实施方式。更具体地,在本公开、附图以及所附的权利要求的范围内,在主题组合设置的组成部分和/或设置中可以做出各种变型和修改。除了组成部分和/或设置中的变型和修改之外,替换使用对于本领域技术人员也是明显的。
本申请要求2013年7月10日提交的韩国专利申请No.10-2013-0081220的权益和优先权。
Claims (15)
1.一种电子装置,该电子装置包括:
触摸屏;
摄像头;
麦克风;以及
控制器,其被配置为:
在所述触摸屏上显示预定应用的运行画面,
在进入反应拍摄模式时控制所述摄像头和所述麦克风操作,
在通过所述摄像头检测到做出面部表情或手势的用户或通过所述麦克风检测到所述用户的声音时,通过所述摄像头拍摄所述用户的视频或静态图像来获取反应图像,以及
在所述触摸屏上显示获取的反应图像。
2.根据权利要求1所述的电子装置,其中,所述预定应用的所述运行画面包括以下中的至少一种:视频应用的运行画面、社交网络服务SNS的运行画面、消息发送应用的运行画面和网页的画面。
3.根据权利要求1所述的电子装置,其中,如果通过所述摄像头检测到所述用户的面部表情或手势达预定时间或更长,或者通过所述麦克风检测到所述用户的声音达所述预定时间或更长,则所述控制器将所述反应图像获取为视频,并且如果检测到所述用户的面部表情、手势或声音少于所述预定时间,则所述控制器将所述反应图像获取为静态图像。
4.根据权利要求1所述的电子装置,其中,所述控制器在所述预定应用的所述运行画面上以交叠方式显示所获取的反应图像。
5.根据权利要求1所述的电子装置,该电子装置还包括存储器,并且所述控制器在所述存储器中将所述预定应用的显示所获取的反应图像的所述运行画面保存为单个文件。
6.根据权利要求1所述的电子装置,其中,在通过所述摄像头检测到多个用户时,所述控制器获取所述多个用户中的被检测到做出面部表情或手势或发出声音的任一个用户的被拍摄的反应图像。
7.根据权利要求1所述的电子装置,其中,如果至少检测到的面部表情、手势或声音满足预定条件,则所述控制器改变所述反应图像的尺寸、显示位置和透明度中的至少一项。
8.根据权利要求1所述的电子装置,其中,所述控制器基于来自所述用户的预定输入信号改变所述反应图像的尺寸、显示位置和透明度中的至少一项。
9.根据权利要求1所述的电子装置,其中,所述控制器通过所述摄像头连续多次拍摄所述静态图像。
10.根据权利要求1所述的电子装置,其中,所述控制器在所述触摸屏上以缩略图形式显示获取的反应图像。
11.根据权利要求10所述的电子装置,其中,在接收到用于选择以缩略图形式显示的所述反应图像中的任一个的输入时,所述控制器在所述触摸屏上显示所述应用的与获取所选择的反应图像时的时刻相对应的所述运行画面。
12.一种电子装置的控制方法,该方法包括以下步骤:
在触摸屏上显示预定应用的运行画面;
在进入反应拍摄模式时控制摄像头和麦克风操作;
通过所述摄像头检测做出面部表情或手势的用户或通过麦克风检测所述用户的声音;
通过所述摄像头拍摄所述用户的视频或静态图像来获取反应图像;以及
在所述触摸屏上显示获取的反应图像。
13.根据权利要求12所述的控制方法,其中,在显示所述预定应用的运行画面的步骤中,显示以下中的至少一种:视频应用的运行画面、社交网络服务SNS的运行画面、消息发送应用的运行画面和网页的画面。
14.根据权利要求12所述的控制方法,其中,在所述触摸屏上显示获取的反应图像的步骤中,在所述预定应用的所述运行画面上以交叠方式显示所获取的反应图像。
15.根据权利要求12所述的控制方法,其中,在获取所述用户的被拍摄的反应图像的步骤中,在通过所述摄像头检测到多个用户时,获取所述多个用户中的被检测到做出面部表情或手势或发出声音的任一个用户的被拍摄的反应图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0081220 | 2013-07-10 | ||
KR1020130081220A KR102182398B1 (ko) | 2013-07-10 | 2013-07-10 | 전자 기기 및 그 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104284013A true CN104284013A (zh) | 2015-01-14 |
CN104284013B CN104284013B (zh) | 2017-04-12 |
Family
ID=50478644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410321171.4A Expired - Fee Related CN104284013B (zh) | 2013-07-10 | 2014-07-07 | 电子装置及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9509959B2 (zh) |
EP (1) | EP2824538B1 (zh) |
KR (1) | KR102182398B1 (zh) |
CN (1) | CN104284013B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107852440A (zh) * | 2015-08-21 | 2018-03-27 | 三星电子株式会社 | 用于由电子设备处理声音的方法及其电子设备 |
CN107911614A (zh) * | 2017-12-25 | 2018-04-13 | 腾讯数码(天津)有限公司 | 一种基于手势的图像拍摄方法、装置和存储介质 |
CN108027645A (zh) * | 2016-06-07 | 2018-05-11 | 宝娜科技有限公司 | 镜面显示装置及其操作方法 |
CN108572780A (zh) * | 2017-03-08 | 2018-09-25 | 南宁富桂精密工业有限公司 | 子画面显示方法和装置 |
WO2022126738A1 (zh) * | 2020-12-14 | 2022-06-23 | 安徽鸿程光电有限公司 | 图像获取方法、装置、设备及介质 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8615112B2 (en) * | 2007-03-30 | 2013-12-24 | Casio Computer Co., Ltd. | Image pickup apparatus equipped with face-recognition function |
US10440432B2 (en) * | 2012-06-12 | 2019-10-08 | Realnetworks, Inc. | Socially annotated presentation systems and methods |
US9817960B2 (en) | 2014-03-10 | 2017-11-14 | FaceToFace Biometrics, Inc. | Message sender security in messaging system |
US10275583B2 (en) * | 2014-03-10 | 2019-04-30 | FaceToFace Biometrics, Inc. | Expression recognition in messaging systems |
KR101557608B1 (ko) * | 2015-01-23 | 2015-10-05 | 주식회사 바우드 | 촬영 모듈이 구비된 플렉서블 장치 |
EP3272126A1 (en) | 2015-03-20 | 2018-01-24 | Twitter, Inc. | Live video stream sharing |
EP3629587A1 (en) * | 2015-03-27 | 2020-04-01 | Twitter, Inc. | Live video streaming services |
CN105450930B (zh) * | 2015-11-09 | 2018-11-13 | 广州多益网络股份有限公司 | 一种自拍方法及装置 |
KR20170082349A (ko) * | 2016-01-06 | 2017-07-14 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN107241622A (zh) * | 2016-03-29 | 2017-10-10 | 北京三星通信技术研究有限公司 | 视频定位处理方法、终端设备及云端服务器 |
CN106060383B (zh) * | 2016-05-27 | 2019-07-16 | Oppo广东移动通信有限公司 | 一种图像获取的方法及系统 |
WO2018013366A1 (en) * | 2016-07-12 | 2018-01-18 | Proteq Technologies Llc | Intelligent software agent |
US10222958B2 (en) | 2016-07-22 | 2019-03-05 | Zeality Inc. | Customizing immersive media content with embedded discoverable elements |
US10770113B2 (en) * | 2016-07-22 | 2020-09-08 | Zeality Inc. | Methods and system for customizing immersive media content |
KR20180049787A (ko) * | 2016-11-03 | 2018-05-11 | 삼성전자주식회사 | 전자 장치, 그의 제어 방법 |
WO2018084576A1 (en) | 2016-11-03 | 2018-05-11 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
US10219009B2 (en) | 2016-11-18 | 2019-02-26 | Twitter, Inc. | Live interactive video streaming using one or more camera devices |
US11169661B2 (en) * | 2017-05-31 | 2021-11-09 | International Business Machines Corporation | Thumbnail generation for digital images |
US11206462B2 (en) | 2018-03-30 | 2021-12-21 | Scener Inc. | Socially annotated audiovisual content |
KR20190141866A (ko) * | 2018-06-15 | 2019-12-26 | 삼성전자주식회사 | 사용자의 사진 촬영 의도를 식별하기 위한 전자 장치 및 방법 |
KR20200013162A (ko) | 2018-07-19 | 2020-02-06 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
CN109214301A (zh) * | 2018-08-10 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 基于人脸识别和手势识别的控制方法及装置 |
CN108989692A (zh) * | 2018-10-19 | 2018-12-11 | 北京微播视界科技有限公司 | 视频拍摄方法、装置、电子设备及计算机可读存储介质 |
CN109756624A (zh) * | 2018-12-28 | 2019-05-14 | 努比亚技术有限公司 | 截图交互方法、移动终端及计算机可读存储介质 |
CN110225196B (zh) * | 2019-05-30 | 2021-01-26 | 维沃移动通信有限公司 | 终端控制方法及终端设备 |
KR20210009596A (ko) * | 2019-07-17 | 2021-01-27 | 엘지전자 주식회사 | 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101547312A (zh) * | 2008-03-28 | 2009-09-30 | 佳能株式会社 | 摄像设备和摄像设备的控制方法 |
US20090317060A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., Ltd. | Method and apparatus for processing multimedia |
CN101790046A (zh) * | 2009-01-22 | 2010-07-28 | 三星数码影像株式会社 | 数字拍摄装置及其控制方法以及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237761A (ja) | 2009-03-30 | 2010-10-21 | Nikon Corp | 電子機器 |
TWI411935B (zh) | 2009-12-25 | 2013-10-11 | Primax Electronics Ltd | 利用影像擷取裝置辨識使用者姿勢以產生控制訊號之系統以及方法 |
US8798445B2 (en) * | 2010-02-26 | 2014-08-05 | Blackberry Limited | Enhanced banner advertisements |
US9001255B2 (en) * | 2011-09-30 | 2015-04-07 | Olympus Imaging Corp. | Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs |
KR20130069041A (ko) * | 2011-12-16 | 2013-06-26 | 삼성전자주식회사 | 디스플레이 장치 및 방법 |
-
2013
- 2013-07-10 KR KR1020130081220A patent/KR102182398B1/ko active IP Right Grant
-
2014
- 2014-03-13 US US14/209,766 patent/US9509959B2/en active Active
- 2014-03-19 EP EP14001013.3A patent/EP2824538B1/en not_active Not-in-force
- 2014-07-07 CN CN201410321171.4A patent/CN104284013B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101547312A (zh) * | 2008-03-28 | 2009-09-30 | 佳能株式会社 | 摄像设备和摄像设备的控制方法 |
US20090317060A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., Ltd. | Method and apparatus for processing multimedia |
CN101790046A (zh) * | 2009-01-22 | 2010-07-28 | 三星数码影像株式会社 | 数字拍摄装置及其控制方法以及计算机可读存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107852440A (zh) * | 2015-08-21 | 2018-03-27 | 三星电子株式会社 | 用于由电子设备处理声音的方法及其电子设备 |
CN108027645A (zh) * | 2016-06-07 | 2018-05-11 | 宝娜科技有限公司 | 镜面显示装置及其操作方法 |
CN108572780A (zh) * | 2017-03-08 | 2018-09-25 | 南宁富桂精密工业有限公司 | 子画面显示方法和装置 |
CN107911614A (zh) * | 2017-12-25 | 2018-04-13 | 腾讯数码(天津)有限公司 | 一种基于手势的图像拍摄方法、装置和存储介质 |
CN107911614B (zh) * | 2017-12-25 | 2019-09-27 | 腾讯数码(天津)有限公司 | 一种基于手势的图像拍摄方法、装置和存储介质 |
WO2022126738A1 (zh) * | 2020-12-14 | 2022-06-23 | 安徽鸿程光电有限公司 | 图像获取方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
US20150015690A1 (en) | 2015-01-15 |
EP2824538B1 (en) | 2016-07-27 |
KR102182398B1 (ko) | 2020-11-24 |
CN104284013B (zh) | 2017-04-12 |
KR20150007159A (ko) | 2015-01-20 |
US9509959B2 (en) | 2016-11-29 |
EP2824538A1 (en) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104284013A (zh) | 电子装置及其控制方法 | |
CN104049728B (zh) | 电子设备及其控制方法 | |
CN101945150B (zh) | 移动终端 | |
CN101668055B (zh) | 具有触敏用户界面的便携式终端 | |
CN103491225B (zh) | 移动终端及其控制方法 | |
CN104796527B (zh) | 移动终端及其控制方法 | |
CN101909109B (zh) | 在移动终端中执行菜单的方法和使用该方法的移动终端 | |
CN103379223B (zh) | 移动终端及其控制方法 | |
CN101901071B (zh) | 显示设备以及控制该显示设备的方法 | |
CN104216653B (zh) | 电子设备及其控制方法 | |
US9182901B2 (en) | Mobile terminal and control method thereof | |
CN103377003B (zh) | 移动终端及其控制方法 | |
CN101674410A (zh) | 在移动终端上调整图像的显示方向 | |
CN102238761B (zh) | 移动终端及其控制方法 | |
US20100231558A1 (en) | Mobile terminal and input method of mobile terminal | |
CN103811005A (zh) | 移动终端及其控制方法 | |
US8666454B2 (en) | Mobile terminal and method of controlling the same | |
CN103327168A (zh) | 移动终端及其控制方法 | |
CN101645960A (zh) | 具有触摸屏的移动终端以及使用该移动终端处理消息的方法 | |
CN104519204A (zh) | 移动终端及其控制方法 | |
CN103914248A (zh) | 移动终端及其控制方法 | |
CN103813010B (zh) | 移动终端和移动终端的控制方法 | |
KR20110131500A (ko) | 이동 단말기 및 그 제어방법 | |
CN106445148A (zh) | 一种触发终端应用的方法及装置 | |
CN106843684A (zh) | 一种编辑屏幕文字的装置及方法、移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170412 Termination date: 20210707 |