CN101729628B - 具有图像投影的移动终端 - Google Patents

具有图像投影的移动终端 Download PDF

Info

Publication number
CN101729628B
CN101729628B CN200910132582.8A CN200910132582A CN101729628B CN 101729628 B CN101729628 B CN 101729628B CN 200910132582 A CN200910132582 A CN 200910132582A CN 101729628 B CN101729628 B CN 101729628B
Authority
CN
China
Prior art keywords
indicating device
touch
image
mobile terminal
shade
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200910132582.8A
Other languages
English (en)
Other versions
CN101729628A (zh
Inventor
辛德门
金钟焕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN101729628A publication Critical patent/CN101729628A/zh
Application granted granted Critical
Publication of CN101729628B publication Critical patent/CN101729628B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了一种具有图像投影的移动终端,该移动终端包括投影仪模块、相机和控制器。投影仪模块被配置成在外部屏幕上投影图像。相机被配置成接收显示在外部屏幕上的图像的输入图像。该输入图像包括位于该图像上的指示器以及该指示器的阴影。控制器被配置成从输入图像获得指示器和指示器的阴影之间的距离,以根据所获得的距离在所显示的图像中识别指示器对触摸点的触摸,通过投影仪模块在触摸点投影指示器光标,并且执行对应于所识别的触摸点的操作。

Description

具有图像投影的移动终端
相关申请的交叉引用
根据35U.S.C.§119(a),本申请要求于2008年10月15日提交的韩国专利申请No.10-2008-0101104的较早提交日和优先权的权益,通过引用的方式将其全部内容合并于此。
技术领域
本发明涉及一种移动终端,并且更具体地,涉及该移动终端中的图像投影和操纵。
背景技术
通常,终端可以被分成移动/便携式终端和固定终端。根据移动终端是可以保持在用户的手中还是安装在车辆中,而将移动终端分成手持终端和车载终端。
随着移动终端的功能多样化,日益将移动终端实现为具有综合功能的多媒体播放器,诸如照片或运动图像的拍摄、音乐或运动图像文件的重放、玩游戏以及广播接收。
为了支持并增加移动终端的功能,可以考虑改进移动终端的结构部分和/或软件部分。
通常,具有投影功能的移动终端能够将显示在移动终端屏幕上的图像投影到外部屏幕。根据由用户输入到移动终端的显示控制信号,这样的移动终端能够控制外部屏幕上的图像显示。如果移动终端具有触摸屏,则移动终端能够控制外部屏幕上的图像显示,以对应于在触摸屏上执行的用户触摸动作。然而,为了控制在外部屏幕上的图像显示,用户必须直接操纵移动终端。
发明内容
在本发明的示例性实施例中,提供了一种移动终端,其包括投影仪模块、相机和控制器。所述投影仪模块被配置成投影用于在外部屏幕上显示的图像。所述相机被配置成接收在所述外部屏幕上显示的图像的输入图像。所述输入图像包括位于所述图像上的指示器以及所述指示器的阴影。所述控制器被配置成从所述输入图像获得所述指示器和所述指示器的阴影之间的距离,以根据所获得的距离在所显示的图像中识别所述指示器对触摸点的触摸,通过所述投影仪模块在所述触摸点投影指示器光标,并且执行对应于所识别的触摸点的操作。
在一个实施例中,所述控制器被配置成,如果所获得的距离小于预定距离,则识别所述指示器的触摸。
在一个实施例中,所述控制器被配置成,当所获得的距离小于预定距离时如果从所述输入图像获得了所述指示器的具体运动,则识别所述指示器的触摸。
在一个实施例中,所述控制器被配置成,如果所述指示器对来自所述输入图像的至少一个点的触摸被识别,则获取所述指示器的触摸点信息或所述指示器以及阴影的大小信息中的至少一个。
在一个实施例中,所述控制器被配置成使用所获取的触摸点信息或所获取的大小信息中的至少一个来获得所述指示器的触摸模式,并且所述控制器被配置成执行对应于所获得的触摸模式的操作。
在一个实施例中,所述控制器被配置成使用所获取的触摸点信息或所获取的大小信息中的至少一个来调节显示在所述外部屏幕上的图像的大小。
在一个实施例中,所述控制器被配置成执行下列中的至少一个:放大/缩小所述图像的一部分的显示、驱动应用或参照所识别的触摸点执行数据。
在一个实施例中,所述操作是具体图像效果添加或具体功能执行中的至少一个。具体图像效果添加是显示在对应于所述触摸点以及所述指示器的运动的图像的上方所添加的图像。所述具体功能执行是执行与所述触摸点和所述指示器的运动相关的具体功能。
在一个实施例中,所述控制器被配置成确定所显示的图像与来自所述输入图像的外部物体重叠的范围,并且调节所显示的图像的大小以使得所显示的图像不与所述外部物体重叠。
在一个实施例中,如果在预定时间段中没有识别所述指示器的触摸,则所述控制器停止操作所述相机。
在一个实施例中,所述投影仪模块和所述相机的镜头中的每一个都被配置成面向相同的方向。
在一个实施例中,所述相机的位置相对于所述投影仪成预定角度,以检测所述指示器和所述阴影之间的距离。
在一个实施例中,所述控制器被配置成对应于所述指示器的运动来移动通过所述投影仪模块投影的所述指示器光标。
在本发明的示例性实施例中,提供了一种在移动终端中识别触摸的方法,包括在外部屏幕上投影图像;捕获(例如,拍摄)所述外部屏幕以获得输入图像,所述输入图像包括位于所述图像上的指示器以及所述指示器的阴影;从所述输入图像获得所述指示器和所述阴影之间的距离;根据所获得的距离识别所述指示器对所显示的图像中的触摸点的触摸;在所述触摸点处投影指示器光标;以及执行对应于所识别的触摸点的操作。
在一个实施例中,所述方法进一步包括如果在预定时间段中没有识别所述指示器的触摸,则停止捕获所述外部屏幕。
附图说明
被包括以提供对本发明的进一步的理解并且并入本申请并构成本申请的一部分的附图示出了本发明的实施例并且与该描述一起用于解释本发明的原理。
图1是根据本发明一个实施例的移动终端的框图。
图2A是根据本发明一个实施例的移动终端的前视图。
图2B是根据本发明一个实施例的移动终端的后视图。
图3A和图3B是根据本发明一个实施例的用于解释移动终端的操作状态的移动终端的前视图。
图4是示出接近传感器的接近深度的概念图。
图5是示出控制在一对重叠显示单元上的触摸动作的方法的概念图。
图6A和6B是示出用于检测接近信号的接近触摸识别区域以及用于生成触觉效果的触觉区域的概念图。
图7A和7B是根据本发明一个实施例的移动终端的透视图。
图8是根据本发明的一个实施例的识别在移动终端中的触摸的方法的流程图。
图9A和图9B是根据本发明一个实施例的在移动终端中提供的相机和投影仪模块图。
图10是根据本发明一个实施例的用于识别指示器和阴影之间的范围内的触摸点的图。
图11A、图11B和图11C是根据本发明一个实施例的触摸识别过程图。
图12A和图12B是根据本发明一个实施例的当有两个指示器时触摸识别过程图。
图13A、图13B和图13C是根据本发明一个实施例的参照触摸点放大/缩小显示在外部屏幕上的图像的图。
图14A和图14B是根据本发明一个实施例的用于参照触摸点通过驱动应用在外部屏幕上显示图像的图。
图15A和图15B是根据本发明一个实施例的用于参照触摸点通过执行数据在外部屏幕上显示图像的图。
图16是根据本发明一个实施例的用于使用指示器的触摸点信息和大小信息来识别触摸与拖动的图。
图17A和图17B是根据本发明一个实施例的用于使用指示器的触摸点信息和大小信息识别触摸计数和触摸持续时间的图。
图18A和图18B是根据本发明一个实施例的用于使用指示器的触摸点信息和大小信息在外部屏幕上放大并显示图像的图。
图19A和19B是根据本发明一个实施例的用于使用指示器的触摸点信息和大小信息在外部屏幕上缩小并显示图像的图。
图20A和图20B是根据本发明一个实施例的用于在外部屏幕上显示图像的图,该图像添加了由于指示器运动而引起的图像效果。
图21A和图21B是根据本发明一个实施例的用于在外部屏幕上显示对应于由于指示器运动而引起的具体功能执行的图像的图。
图22A和图22B是根据本发明一个实施例的用于放大/缩小并显示图像以达到在外部屏幕上显示的图像的覆盖范围图。
具体实施方式
现在将详细参照本发明的优选实施例,其示例在附图中示出。尽可能地,在全部附图中将使用相同的附图标记表示相同或类似部分。在下面描述中使用的元件的后缀“模块”和“单元”是可互换的。
在本公开中描述的移动终端包括移动电话、智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)以及导航系统。
根据本发明的示例性实施例的配置还可应用于静止终端,诸如数字电视(TV)和台式计算机。
图1是根据本发明一个实施例的移动终端100的框图。移动终端100包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、传感单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190。图1示出了具有各种组件的移动终端100,但是移动终端100可以具有比图1所示的组件更少的组件。也就是说,替代地可以实现更多或更少的组件。
无线通信单元110通常包括一个或多个组件,其允许在移动终端100与移动终端位于其中的无线通信系统或网络之间的无线通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114以及位置定位模块115。
广播接收模块111经由广播频道从外部广播管理服务器接收广播信号和/或广播相关信息。广播频道可以包括卫星频道和地面频道。广播管理服务器通常指的是生成并发送广播信号和/或广播相关信息的服务器,或提供有先前生成的广播信号和/或广播相关信息并且然后将所提供的信号或信息发送到终端的服务器。广播信号可以被实现为TV广播信号、无线电广播信号或数据广播信号。如果需要,广播信号可以进一步包括与TV或无线电广播信号结合的广播信号。
广播相关信息包括与广播频道、广播节目或广播服务提供商相关信息。可以经由移动通信网络提供广播相关信息,并且因此,可以由移动通信模块112接收广播相关信息。
广播相关信息可以以各种形式实现。例如,广播相关信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)或手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以被配置为接收从各种类型的广播系统发送的广播信号。通过非限制性的例子,这样的广播系统包括地面数字多媒体广播(DMB-T)系统、卫星数字多媒体广播(DMB-S)系统、手持数字视频广播(DVB-H)系统、被称为媒体仅有前向链路(MediaFLO)的数据广播系统以及综合服务地面数字广播(ISDB-T)系统。可选地,广播接收模块111可以被配置为适于其它广播系统以及上面解释的数字广播系统。
可以将由广播接收模块111接收的广播信号和/或广播相关信息存储在合适的设备中,诸如存储器160。
移动通信模块112向一个或多个网络实体(例如,基站、外部终端、服务器)发送无线信号,或从一个或多个网络实体(例如,基站、外部终端、服务器)接收无线信号。这样的无线信号可以代表根据文本/多媒体消息的音频、视频以及数据。
无线因特网模块113支持移动终端100访问因特网。该模块可以被内部或外部地耦合到移动终端100。在这种情况下,无线因特网技术可以包括WLAN(无线LAN)(Wi-Fi)、WiBro(无线宽带)、WiMAX(微波存取全球互通技术)以及HSDPA(高速下行链路分组接入)。
短距离通信模块114便于相对短距离的通信。用于实现该模块的适合技术包括射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)以及通常被称为Blutooth(蓝牙)和ZigBee(紫蜂)的网络技术,举几个为例。
位置定位模块115识别或以某种方式获得移动终端100的位置。如果需要,可以利用全球定位系统(GPS)组件可以实现该模块。
音频/视频(A/V)输入单元120被配置成提供输入到移动终端100的音频或视频信号。A/V输入单元120包括相机121和麦克风122。相机121接收并处理静止图片或视频的图像帧,这些图像帧是由图像传感器以视频呼叫模式或拍摄模式获得的。所处理的图像帧可以在显示单元151上显示。
可以将由相机121处理的图像帧存储在存储器160中,或可以经由无线通信单元110被外部地发送。可选地,可以向移动终端100提供至少两个相机121。
当便携式设备处于诸如电话呼叫模式、记录模式或语音识别模式的特定模式时,麦克风122接收外部音频信号。该音频信号被处理并转换成电子音频数据。在呼叫模式中,所处理的音频数据被变换成经由移动通信模块112可发送到移动通信基站的格式。麦克风122通常包括配套的消噪算法,以消除当接收外部音频信号时产生的噪声。
用户输入单元130响应于相关输入设备的用户操作而生成输入数据。这样的设备的例子包括键盘、薄膜开关、触摸板(例如,静态压力或电容)、滚轮和微动开关。
传感单元140使用移动终端的各方面的状态测量提供用于控制移动终端100的操作的感测信号。例如,传感单元140可以检测移动终端100的打开/关闭状态、移动终端100的组件(例如,显示装置和键盘)的相对位置、移动终端100或移动终端100的组件的位置变化、用户与移动终端100的接触的有或无以及移动终端100的方向或加速/减速。例如,当移动终端100是滑盖式移动终端时,传感单元140可以感测移动终端100的滑动部分是打开还是关闭。其它例子包括,传感单元140感测由电源190提供的功率的有或无以及在接口单元170和外部设备之间耦合或其它连接的有或无。传感单元140可以包括接近传感器141。
输出单元150生成与视觉、听觉和触觉有关的输出。输出单元150包括显示单元151、音频输出模块152、警报单元153、触觉模块154以及投影仪模块155。
显示单元151通常被实现成可视地显示(输出)与移动终端100相关的信息。例如,如果移动终端工作在电话呼叫模式,则该显示装置通常将提供包括与拨打、接通和终止电话呼叫相关的信息的用户界面(UI)或图形用户界面(GUI)。作为另一个例子,如果移动终端100处于视频呼叫模式或拍摄模式,则显示单元151可以附加或替代地显示与这些模式相关的图像,UI或GUI。
显示模块151可以使用包括例如,液晶显示装置(LCD)、薄膜晶体管液晶显示装置(TFT-LCD)、有机发光二极管显示装置(OLED)、柔性显示装置以及三维显示装置的已知显示技术来实现。移动终端100可以包括一个或多个这样的显示装置。
上面的显示装置中的一些可以被实现为透明的或光穿透式,其通常被称为透明显示装置。透明OLED(TOLED)是透明显示装置的代表性示例。显示单元151的后面配置也可以以光穿透式来实现。在该配置中,用户能够通过由移动主体的显示单元151占用的区域在移动主体的后面看到物体。
根据移动终端100的实施例,可以向移动终端100提供至少两个显示单元151。例如,可以在移动终端100的单个面上以彼此间隔开或置入一个主体中的方式设置多个显示单元。可替代地,可以在移动终端100的不同面上设置多个显示单元。
如果显示单元151和用于检测触摸动作的传感器(下文中称为“触摸传感器”)被配置为共同层结构(下文中称为“触摸屏”),则移动终端100能够将显示单元151用作输入设备以及输出设备。触摸传感器可以被配置为触摸薄膜、触摸薄片或触摸板。
触摸传感器可以被配置成将施加到显示单元151的具体部分的压力或从显示单元151的具体部分生成的电容的变化转换成电输入信号。此外,触摸传感器能够检测触摸压力以及触摸位置或距离。
如果向触摸传感器进行触摸输入,则对应于该触摸的信号被传送到触摸控制器。触摸控制器处理该信号,并且然后将所处理的信号传送到控制器180。因此,控制器180能够知道是否触摸了显示单元151的规定部分。
接近传感器141可以被设置在触摸屏所封闭的移动终端100的内部区域或在触摸屏周围。接近传感器141是使用电磁场强度或红外线无机械接触地检测有或无物体正在接近存在于接近传感器141周围的规定的检测表面或物体。因此,接近传感器141具有比接触式传感器更长的耐用性,并且还具有比接触式传感器更广的实用性。
接近传感器141可以包括透明光电传感器、直接反射光电传感器、镜反射光电传感器、射频振荡接近传感器、静电电容接近传感器、磁接近传感器或红外接近传感器。如果触摸屏包括静电电容接近传感器,则触摸屏被配置成根据指示器的接近使用电场的变化检测指示器的接近。在这种情况下,触摸屏(触摸传感器)可以被分类为接近传感器。
在下面的描述中,“接近触摸”是其中指示器在不接近触摸屏的情况下靠近触摸屏而被识别为触摸触摸屏的动作。另外,“接近触摸”是其中指示器实际接触触摸屏的动作。指示器接近触摸触摸屏上的位置是当指示器执行接近触摸时垂直相对触摸屏的指示器的位置。
接近传感器检测接近触摸以及接近触摸模式(例如,接近触摸距离、接近触摸持续时间、接近触摸位置或接近触摸变换状态)。对应于所检测的接近触摸动作和所检测的接近触摸模式的信息可以被输出到触摸屏。
音频输出模块152以各种模式工作,包括呼叫接收模式、呼叫拨打模式、记录模式、语音识别模式以及广播接收模式,并且输出从无线通信单元110接收的或存储在存储器160中的音频数据。在操作期间,音频输出模块152输出与特定功能(例如,所接收的呼叫、所接收的消息)有关的音频。音频输出模块152通常使用一格或多个扬声器、蜂鸣器、其他音频产生设备及其组合来实现。
警报单元153输出用于通告发生与移动终端100相关的特定事件的信号。典型的事件包括接收到呼叫事件、接收到消息事件以及接收到触摸输入事件。警报单元153能够通过振动、视频信号或音频信号的方式输出用于通告事件发生的信号。视频或音频信号可以经由显示单元151或音频输出单元152输出。因此,显示单元151或音频输出模块152可以被认为是警报单元153的一部分。
触觉模块154生成可以由用户感知的各种触觉效果。振动是由触觉模块154生成的触觉效果中的代表性的一个。由触觉模块154生成的振动的强度和模式是可控的。例如,不同的振动可以以合成在一起的方式输出,或者可以依次输出。
触觉模块154能够生成各种触觉效果以及振动。例如,触觉模块154生成由于相对于接触皮肤表面垂直移动的触针(pin)的设置、通过注入/吸气孔的空气注入/吸入功率、皮肤表面上的擦动、接触电极、静电力或使用吸热或放热设备表示热/冷感觉而引起的效果。
触觉模块154可以被实现为使得用户能够通过手指、手臂或身体的其他部分的肌肉感觉感知触觉效果。可选地,根据移动终端100的相应配置类型,可以在移动终端100中提供至少两个触觉模块154。
投影仪模块155是用于使用移动终端100执行图像投影仪功能的元件。投影仪模块155能够根据控制器180的控制信号在外部屏幕或墙壁上显示至少与在显示单元151上显示的图像相同或部分不同的图像。
具体地,投影仪155可以包括光源,其生成用于外部投影图像的光(例如,激光)、图像产生装置,用于使用从光源生成的光产生外部输出的图像,以及镜头,用于以预定焦距放大外部输出的图像。投影仪模块155可以进一步包括用于通过机械移动镜头或整个模块调节图像投影方向的设备。
根据显示装置的设备类型,投影仪模块155可以被分成CRT(阴极射线管)模块、LCD(液晶显示装置)模块以及DLP(数字光处理)模块。具体地,DLP模块通过使得从光源生成的光能够在DMD(数字微镜设备)芯片上反射的机制来工作,并且可以有利地用于缩小投影仪模块151的大小。
投影仪155可以被设置在移动终端100的侧面、前面或后侧方向的长度方向上。投影仪模块155可以根据需要被设置在移动终端100的任何部分中。
存储器单元160通常用于存储各种类型的数据,以支持移动终端100的处理、控制和存储要求。这样的数据的例子包括运行在移动终端100上的应用的程序指令、联系数据、电话簿数据、消息、音频、静止图片和运动图片。可以将每个数据的最近使用历史或累积使用频率(例如,每个电话簿、每个消息或每个多媒体的使用频率)存储在存储器单元160中。此外,可以将振动的各种模式的数据和/或向触摸屏进行触摸输入时输出的声音存储在存储器单元160中。
可以使用合适的易失性和非易失性存储器或存储设备的任何类型或组合实现存储器160,所述存储设备包括硬盘、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、闪存、磁或光盘、多媒体卡微型存储器、卡式存储器(例如,SD存储器、XD存储器)或其它类似存储器或数据存储设备。移动终端100能够与用于在因特网上执行存储器160的存储功能的网页存储相关联地工作。
接口单元170常被实现成将移动终端100与外部设备耦合。接口单元170从外部设备接收数据,或被供电,并且然后将数据或功率传送到移动终端100的各个元件,或使得在移动终端100内的数据能够被传送到外部设备。可以使用有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储器卡端口或用于耦合到具有识别模块的端口、音频输入/输出端口和视频输入/输出端口或耳机端口来配置接口单元170。
身份识别模块是用于存储认证移动终端100的使用授权的各种信息的芯片,并且可以包括用户身份识别模块(UIM)、订户身份识别模块(SIM)或通用用户身份识别模块(USIM)。具有身份识别模块的设备(下文称为“身份识别设备”)可以被制造成智能卡。身份识别设备可以经由相应端口连接到移动终端100。
当移动终端100被连接到外部支架(cradle)时,接口单元170变成用于从支架向移动终端100提供功率的通道或用于传递用户从支架向移动终端100输入的各种命令信号的通道。从支架输入的各种命令信号中的每个信号都可以操作为使得移动终端100能够识别其被正确加载在支架中的信号。
控制器180通常控制移动终端100的全部操作。例如,控制器180执行与语音呼叫、数据通信和视频呼叫相关的控制和处理。控制器180可以包括提供多媒体重放的多媒体模块181。多媒体模块181可以被配置为控制器180的一部分,或可以被实现为独立的组件。
控制器180能够执行模式识别过程,用于将在触摸屏上进行的写输入和画图输入识别为字符或图像。
电源单元190提供移动终端100的各种组件所需的功率。功率可以是内部功率、外部功率或其组合。
可以在计算机可读介质中例如,计算机软件、硬件或其某种组合实现在此描述的各种实施例。对于硬件实现来说,可以在一个或多个专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑设备(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计用于执行在此描述的功能的其它电子单元或其选择组合中实现在此描述的实施例。这样的实施例还可以由控制器180来实现。
对于软件实现来说,可以利用独立的软件模块实现在此描述的实施例,每个软件模块执行在此描述的功能和操作中的一个或多个。软件代码可以利用以任何合适的编程语言编写的软件应用来实现,并且可以存储在诸如存储器160的存储器中,并由控制器或处理器(例如,控制器180)执行。
图2A是根据本发明一个实施例的移动终端的前视图。该图中示出的移动终端100具有直板式终端主体。移动终端100可以以各种不同的配置来实现。这样的配置的例子包括直板式、折叠式、滑盖式、旋转式、摆动式(swing-type)及其组合。进一步的公开将主要涉及直板式移动终端100。然而,本公开同样应用于其它类型的移动终端。
参照图2A,移动终端100包括配置其外部的壳体(外壳、外壳和盖子)。在本实施例中,壳体包括前壳体101和后壳体102。各种电/电子部件被加载到前壳体101和后壳体102之间提供的空间中。可选地,至少一个中间壳体可以被进一步设置在前壳体101和后壳体102之间。
壳体101和102通过合成树脂的注入成型而形成,或可以由诸如不锈钢(STS)或钛(Ti)的金属物质形成。
可以将显示单元151、音频输出单元152、相机121、用户输入单元131和132、麦克风122以及接口170设置在终端主体中,并且更具体地,设置在前壳体101中。
显示单元151占用前壳体101的正面的大部分。音频输出单元151和相机121被设置在邻近显示单元151的两个端部中的一个的区域,而用户输入单元131和麦克风122被设置在邻近显示单元151的另一端部的另外区域中。用户输入单元132和接口170可以被设置在前壳体101和后壳体102的侧面。
操纵输入单元130以接收用于控制终端100的操作的命令。输入单元130能够包括多个操纵单元131和132。操纵单元131和132操纵这些部分,并且可以采用使得用户能够通过体验触摸感觉执行操纵动作的触觉模式的任何机制。
可以不同地设置由第一或第二操纵单元131或132输入的内容。例如,将诸如开始、结束或滚动的命令输入第一操纵单元131。可以将用于调节从音频输出单元152输出的声音的音量的命令或用于切换到显示单元151的触摸识别模式的命令输入到第二操纵单元132。
图2B是图2A所示的终端的后侧透视图。参照图2B,相机121′可以被附加设置在终端主体的后侧,并且更具体地,设置到到后壳体102。相机121′具有实质上与图2A所示的相机121的方向相反的拍摄方向,并且具有不同于相机121的像素的像素。
在示例性实施例中,前者相机121具有用于视频呼叫时足以捕获和发送的用户面部的图片的像素,而相机121′具有用于捕获更高质量照片的更大的像素。相机121和121′中的每个都可以被安装在终端主体上以旋转或弹出。
可以邻近相机121′附加提供闪光灯123和镜子124。当使用相机121′拍摄物体时闪光灯123向该物体投影光。当用户尝试使用相机121′拍摄自己的照片(自拍)时,镜子124使得用户能够观看其通过镜子124反射的面部。
可以将附加音频输出单元152′设置在终端主体的后侧。附加音频输出单元152′能够与图2A示出的音频输出单元152一起实现立体声功能,并且可以用于当终端在谈话中时以扬声器电话模式实现。
可以向终端主体的侧面附加地提供广播信号接收天线124以及用于通信的天线。天线124,构成图1所示的广播接收模块111的一部分,其可以可伸缩地设置在终端主体。
用于向终端100供电的电源单元190被设置在终端主体中。可以将电源单元190配置为置入终端主体内。可替代地,电源单元190可以被配置为可拆卸地连接到终端主体。
用于检测触摸的触摸板135可以被附加地设置在后壳体102。触摸板135可以是类似光透明式的显示单元151。因此,如果显示单元151被配置成从其两面输出可视信息,则用户将也能够经由触摸板135识别可视信息。从两面输出的信息可以完全由触摸板135控制。可替代地,显示装置进一步由触摸板135提供,从而触摸板是触摸屏。因此,触摸屏可以被设置在后壳体102以及前壳体101。
触摸板135通过与前壳体101的显示单元151互连而激活。触摸板135可以被设置在显示单元151的后部中并且与显示单元151平行。在示例性实施例中,触摸板135可以具有等于或小于显示单元151的大小的大小。
参照图3A和图3B说明在显示单元151和触摸板135之间的互连操作机制。图3A和图3B是根据本发明一个实施例的终端的透视图,用于说明移动终端的操作状态。可以在显示单元151上显示各种可视信息。可以以字符、数字、符号、图形或图标的形式显示信息。
为了输入信息,字符、数字、符号、图形和图标中的至少一个代表为在键盘信息中实现的单个预定阵列。这样的键盘信息可以是所谓的“软键”。图3A示出了经由通过终端主体前面的输入的触摸激活软键“9”。
显示单元151可通过整个区域或通过被分成多个区域操作。在后者的情况下,多个区域可以互操作地配置。例如,输出窗口151a和输入窗口151b被显示在显示单元151上。代表用于输入电话号码的数字的软键151c′被输出到输入窗口151b。如果触摸了软键151c′,则对应于所触摸的软键的数字被输出到输出窗口151a。如果操纵第一操纵单元131,则尝试显示在输出窗口151a上的电话号码的呼叫连接。
图3B示出了经由通过终端主体的后面输入的触摸激活软键。图3A示出了以肖像模式垂直设置的终端主体。图3B示出了以风景模式水平布置的终端主体。显示单元151可以被配置成根据所设置的终端主体的方向改变输出图片。
图3B示出了在终端中激活文本输入模式。在显示单元151的触摸板135上显示输出窗口135a和输入窗口135b。可以将代表字符、符号或数字中的至少一个的多个软键135c设置在输入窗口135b中。软键135c可以以QWERTY键信息设置。
如果通过触摸板135触摸软键135c,则对应于所触摸的软键的字符、符号和数字被输出到输出窗口135a。因此,相比于经由显示单元151输入的触摸,经由触摸板135输入的触摸更有利之处在于软键135c可以防止触摸时被手指阻挡。如果显示单元151和触摸板135被配置成透明的,则触摸板135能够可视地检查位于终端主体的后侧的手指。因此,更精确的触摸输入是可能的。
显示单元151或触摸板135可以被配置成接收滚动触摸输入。用户滚动显示单元151或触摸板135以变换在显示单元151上显示的实体(例如,图标)位置处的光标或指示器。此外,如果将手指变换到显示单元151或触摸板135上,则所变换的手指的路径可以可视地显示在显示单元151上。这样的功能在编辑显示在显示单元151上的图像时是很有用的。
如果在预定时间范围内触摸显示单元(触摸屏)151和触摸板135,则可以执行终端的特定功能。这样的同时触摸可以对应于当用户使用大拇指和食指(夹住)握住终端主体时。上面的功能可以包括显示单元151和/或触摸板135的激活或失活。
图4是用于示出接近传感器141的接近深度的图。当诸如用户的手指或笔的指示器靠近触摸屏时,设置在触摸屏内或附近的接近传感器141检测指示器的靠近,并且然后输出接近信号。接近传感器141可以被配置成根据在指示器和触摸屏之间的距离/接近深度输出不同的接近信号。
在图4中,根据本发明的示例性实施例,提供了触摸屏的截面来示出能够感测三个接近深度的接近传感器。然而,本发明并不因此被限制,并且接近传感器可以被配置成感测少于三个接近深度或四个或更多接近深度。
如果指示器完全接触触摸屏(d0),该接触被识别为接触触摸。如果指示器位于与触摸屏的间隔小于d1的距离,则指示器靠近被识别为在第一接近深度的接近触摸。如果指示器位于与触摸屏的间隔小于d2但大于或等于d1的距离,则指示器靠近被识别为第二接近深度的接近触摸。如果指示器与触摸屏的间隔小于d3但大于或等于d2的距离,则指示器靠近被识别为第三接近深度的接近触摸。如果指示器与触摸屏的间隔大于或等于d3的距离,则指示器被识别为在接近触摸范围之外。
因此,控制器180能够根据接近深度和指示器位置将接近触摸识别为各种输入信号中的一个。控制器180能够根据各种输入信号执行各种操作控制。
图5是示出控制在一对重叠显示单元156、157上的触摸动作的方法的图。图5的终端是折叠式终端,其中折叠部分被铰接到主体,以便折叠部分可以被折叠到主体,或从主体展开。
设置在折叠部分中的第一显示单元156是光穿透显示装置或透明式显示装置,诸如TOLED,而设置在主体中的第二显示单元157可以是非穿透式显示装置,诸如LCD。第一和第二显示单元156和157中的每个可以包括可触摸输入的触摸屏。
例如,如果检测到对第一显示单元或TOLED 156的触摸(接触触摸或接近触摸),则控制器180根据触摸类型和触摸持续时间从显示在TOLED 156上的图像列表选择或运行至少一个图像。
在下面的描述中,解释了一种当检测到对TOLED 156(其外部地暴露在重叠的配置)的触摸时控制在LCD 157(其不同于TOLED 156的显示装置)上的信息的方法。在下面的描述中,触摸输入类型被分成触摸、长触摸以及长触摸并拖动。
在重叠状态中(即,移动终端关闭或折叠的状态),TOLED 156被配置成与LCD 157重叠。在这种状态下,如果检测到与用于控制显示在TOLED 156上的图像的触摸(例如,长触摸-具有至少2秒的持续时间的触摸)不同的触摸,则控制器180能够根据所触摸的触摸输入,从显示在LCD 157上的图像列表中选择至少一个图像。执行所选择图像的结果被显示在TOLED 156上。
长触摸可用于有选择地将显示在LCD 157上的实体中的具体一个变换到TOLED 156(在不执行相应实体的动作的情况下)。具体地,如果用户在对应于LCD 157的具体实体的TOLED 156的规定区域上执行长触摸,则控制器180控制相应的实体通过变换到TOLED 156而被显示。显示在TOLED 156上的实体可以根据对TOLED 156的触摸输入通过变换到LCD 157而被显示,诸如轻击和旋转。
如图5所示,显示在LCD 157上的第二菜单被变换到TOLED 156,并且显示在TOLED 156上。如果与长触摸一起另外检测到诸如拖动的另外的输入,则控制器180执行与通过长触摸选择的图像相关的功能,以使得该图像的先前图片可以显示在TOLED 156上。如图5所示,执行第二菜单(图像文件)的预览(男性图片)。
当输出预览图像时,如果通过保持长触摸在TOLED 156上附加执行对不同图像的拖动,则控制器180变换LCD 157的选择光标(或选择条),并且然后显示通过在先前图片上的选择光标所选择的图像(女性图片)。此后,在触摸(长触摸并拖动)完成之后,控制器180显示通过长触摸选择的初始图像。
对TOLED 156的长触摸和拖动的功能以及滑动动作(即,对应于拖动的接近触摸的动作)和长接近触摸(例如,保持至少2或3秒的接近触摸)的功能是相同的。
如果检测到不同于上述触摸动作的触摸动作,则控制器180能够以根据通常触摸控制方法的方式工作。
以重叠状态控制触摸动作的方法可用于具有单个显示装置的终端。以重叠状态控制触摸动作的方法也可用于不同于具有双显示装置的折叠式终端的终端。
图6A和图6B是用于示出接近触摸识别区域和触觉效果生成区域的图。图6A代表圆形的诸如图标或菜单项的物体。然而,该物体和相应的区域可以具有任何形状。
如图6A的(a)所示,用于在显示单元151上显示物体的区域可以被分成处于中心部分的第一区域A以及包围第一区域A的第二区域B。第一区域A和第二区域B可以被配置成生成强度或模式互不相同的触觉效果。例如,第一和第二区域可以被配置为按照以下方式生成2步振动:如果第二区域B被触摸则输出第一振动,或如果第一区域A被触摸则输出大于第一振动的第二振动的方式。
如果接近触摸识别区域和触觉区域被同时设置在具有物体显示在其中的区域中,则传感单元140能够设置用于生成触觉效果的触觉区域,其不同于用于检测接近信号的接近触摸识别区域。具体地,传感单元140能够将触觉区域设置成比接近触摸识别区域更窄或更宽。例如,在图6A的(a)中,传感单元140能够将接近触摸识别区域设置成包括第一区域A和第二区域B两个区域的区域。另外,传感单元140能够将触觉区域设置成第一区域A。
传感单元140能够将具有物体显示在其中的区域区分成如图6A的(b)所示的三个区域A、B和C。可替代地,传感单元140能够将具有物体显示在其中的区域区分成如图6A的(c)所示的N个区域(N>4)。另外,传感单元140能够将所划分的区域中的每个都配置成生成具有不同强度或模式的触觉效果。如果具有单个物体呈现在其中的区域被分成至少三个区域,则传感单元能够根据使用环境将触觉区域和接近触摸识别区域设置成互不相同。
传感单元140能够将显示单元151的接近触摸识别区域的大小配置成根据接近深度而变化。具体地,参照图6B的(a),接近触摸识别区域被配置成根据显示单元151的接近深度而由C→B→A减少。相反地,接近触摸识别区域被配置为根据显示单元151的接近深度而由C→B→A增加。尽管上面的配置,但是传感单元140能够将触觉区域设置成具有预定大小,如图6B的(b)中示出的区域“H”,而不管显示单元151的接近深度。
当划分显示物体的区域用于设置触觉区域或接近触摸识别区域时,传感单元140能够使用水平/垂直划分、径向划分及其组合以及图6A所示的同心圆式划分的多种方案中的一个。
在下面的描述中,参照图7A和图7B详细说明了设置到直板式移动终端100的上述投影仪模块的配置。图7A和图7B是根据本发明一个实施例的移动终端的透视图。参照图7A,具有投影仪模块155的投影仪主体105能够被旋转地耦合到移动终端的主体101。具体地,投影仪主体105可以铰接到主体101。可以控制使用设置到投影仪主体101的投影仪模块155所投影的图像的投影角。在示例性实施例中,投影仪模块155利用激光波束投影。可以将相机121设置到投影仪主体105以拍摄由投影仪模块155投影的图像。图7A示出了在旋转投影仪主体105之前的状态。投影仪主体可旋转地耦合到主体101。图7B示出了在已经旋转投影仪主体105之后的状态。
在本发明的示例性实施例中,移动终端包括投影仪模块155以及图1所示的至少一个元件。在另一个实施例中,所述至少一个元件包括相机121。
图8是根据本发明一个实施例的识别在移动终端中的触摸的方法的流程图。参照图8,如果根据用户进行的选择激活了投影仪功能,则移动终端100能够使用投影仪模块155在外部屏幕上显示图像[S810]。
控制器能够控制投影仪功能激活以及投影仪模块155的全部操作。由于激活了投影仪功能,所以控制器180将投影仪模块155设置成进入可操作模式。然后将投影仪模块155设置成进入能够在控制器180的控制下在外部屏幕上显示图像的模式。
投影仪功能可以是使用设置到移动终端100的投影仪模块155在外部屏幕上显示图像的功能,该图像被存储在存储器160中或经由无线通信单元110从外部终端接收。外部屏幕包括各种用于显示通过投影仪模块155投影的图像的装置,并且并不受其名称或类型的限制。
例如,如果用户选择投影仪功能执行命令键,该投影仪功能执行命令键是通过菜单搜索“投影仪功能执行”的菜单项,则可以激活投影仪功能。
显示在外部屏幕上的图像(下文中称为“外部图像”)可以与显示在移动终端的整个或部分屏幕上的图像一致,或可以不显示在移动终端屏幕上。
移动终端100使用相机121接收包括设置在外部图像上的指示器以及指示器的阴影的图像的输入(下文中称为“输入图像”)[820]。
在这种情况下,当用户使用指示器(例如,用户的手指、铅笔或杆)指向外部图像的规定点时,可以说指示器设置在外部图像上。
如果检测到投影仪模块155的驱动,或用户经由用户输入单元130输入相机驱动命令信号,则控制器180能够将相机121设置成进入接收外部图像输入的模式。
相机121的图像输入距离可以等于或大于外部图像的显示区域。此外,控制器180能够调节相机121的图像输入距离,以使得输入图像能够以调节焦距的方式被输入。
相机121和投影仪模块155可以以将二者镜头配置成面向相同方向的方式设置到移动终端100。这是为了经由相机121接收输入图像,该图像包括设置在使用投影仪模块155显示的外部图像上的指示器以及指示器的阴影。
在示例性实施例中,当指示器是食指时,移动站识别食指和相应大拇指的相对移动。如此,用户可以使用用户的食指以及用户的大拇指的移动指示由移动终端将要执行的动作(例如,选择、激活),诸如将大拇指触摸食指或一起点击/按下大拇指或食指。如此,移动站将提供者的食指识别为指示器,并且使用指示器的阴影确定在外部图像上的指示器位置。移动终端能够相对于食指识别大拇指的移动。相对于食指的大拇指的具体移动可以用信号表示相对于指示器所指的外部图像上的位置将要执行的动作。例如,如果食指指向新闻标题,并且大拇指相对于食指移动(例如,触摸、点击或按下),则整个标题可以显示在外部屏幕上。
参照图9A或图9B,相机121的镜头和投影仪模块155的镜头可以设置在移动终端100的背面(图9A)或规定的侧面(图9B)上。
移动终端100在控制器180的控制下从在输入步骤S820中输入的输入图像获得指示器和阴影之间的距离[S830]。具体地,移动终端100能够参照面向外部屏幕的指示器的端部获得指示器和阴影之间的距离。控制器180能够通过从输入图像识别指示器和阴影中的每一个来获得指示器和阴影之间的距离。具体地,控制器180能够使用物体识别技术从输入图像识别指示器和阴影。在这种情况下,物体识别技术可以包括检测技术、跟踪技术以及识别技术。
例如,检测技术是从输入图像检测对应于指示器和阴影中每一个的图像部分的技术。因此,控制器180能够使用从输入图像检测到的指示器和阴影的图像部分获得在指示器和阴影之间的距离。
跟踪技术是根据指示器和阴影的运动通过跟踪输入图像中指示器和阴影来检测指示器及其阴影,同时从输入图像检测对应于指示器和阴影的图像部分的技术。因此,即使指示器和阴影正在移动,控制器180也能够使用输入图像获得在指示器和阴影之间的距离。
识别图像是通过比较将从输入图像检测的指示器和阴影的图像部分与先前存储的图像部分相匹配的技术。因此,控制器180将当前检测到的指示器和阴影的图像部分与先前存储的图像部分比较,并且然后能够获得指示器和阴影的位置和大小变化。
在识别或获得指示器和阴影之间的距离过程中,控制器180能够以下列方式获得在实际指示器和实际阴影之间的距离(下文中成为“实际距离”):确定实际外部图像与包括在输入图像中的外部图像(下文中称为“输入外部图像”)的比率并且然后将所确定的比率应用于在输入图像上的指示器和阴影之间的距离(下文中称为“输入距离”)。
例如,如果实际外部图像与输入外部图像的比率是10∶1,假设输入距离是0.5厘米,则能够获得达到5厘米的实际距离。
在控制器180的控制下,移动终端100能够根据在获得步骤S830中获得的指示器对阴影距离的范围识别指示器所指的外部图像的点的触摸[S840]。
如果所获得的指示器和阴影之间的距离处于预定距离之内,则移动终端100能够识别指示器所指示的点的触摸。
如果指示器和阴影之间的距离小于或等于预定距离,则外部图像的规定点被视为由指示器触摸。
例如,参照图10,如果指示器(或,朝向外部图像的指示器的端部)和指示器的阴影之间的距离处于预定距离d之内,则移动终端100能够识别指示器所指的外部图像的点的触摸。
如果指示器(或,朝向外部图像的指示器的端部)与其阴影重叠,则移动终端100能够识别指示器所指的外部图像的点的触摸。
例如,参照图11A,如果指示器及其阴影在指示器所指的外部图像的点重叠,则移动终端100能够识别指示器所指的外部图像的点的触摸。
当指示器(或,朝向外部图像的指示器的端部)和指示器的阴影之间的距离处于预定距离之内,或指示器和阴影互相重叠并且获得了指示器的具体运动时,移动终端100能够识别指示器所指的外部图像的点的触摸。
例如,参照图11B,当指示器和阴影互相重叠时,如果依次获得了在方向(1)和(2)上的指示器运动,则移动终端100能够识别指示器所指的外部图像的点的触摸。
此外,根据在获得步骤S830中获得的指示器到阴影的距离的范围,移动终端100能够输出文本以通告触摸识别可用。
例如,参照图11C,如果所获得的在指示器和阴影之间的距离是d1,则移动终端100输出文本以通告如果指示器靠近外部图像,则触摸就变得可识别[图11C的(a)]。如果所获得的指示器和阴影之间的距离是d2(<d1),则移动终端100能够识别指示器所指的外部图像的点的触摸。
移动终端100能够在获得步骤S830中获得在位于外部图像上的多个指示器及其阴影之间的距离,并且然后能够识别多个指示器中的每一个的触摸。
例如,参照图12A,如果在第一指示器(1)及其阴影之间的距离超过了触摸可识别距离,并且如果在第二指示器(2)及其阴影之间的距离小于或等于触摸可识别距离,则移动终端100仅能够识别第二指示器所指示的点的触摸。
例如,参照图12B,如果在第一指示器(1)及其阴影之间的距离小于或等于触摸可识别距离,并且如果在第二指示器(2)及其阴影之间的距离小于或等于触摸可识别距离,则移动终端100能够分别识别第一指示器(1)和第二指示器(2)所指示的点的触摸。
在控制器180的控制下,移动终端100能够执行对应于在识别步骤S840中识别的触摸点的操作[S870]。
例如,参照在识别步骤S840中识别的触摸点,移动终端100能够执行缩小/放大外部图像部分显示、驱动应用以及执行数据中的至少一个。
在下面的描述中,参照图13A至15B详细说明这样的教导。参照图13A至13C,如果识别了外部图像[图13A]的规定点的指示器的触摸,则移动终端100参照位于触摸点中心的一个区域1301放大并显示该外部图像[图13B],或缩小并显示该外部图像[图13C]。
具体地,区域1301内的图像部分被显示为全屏图像(full image)[图13B],或可以将整个外部图像显示在区域1301内[图13C]。
再次参照图13A,在另一个示例性实施例中,当识别了指示器的触摸时,指示器光标1302被显示在指示器的触摸的位置。假设指示器光标1302允许用户看到识别成被触摸的精确点。此外,一旦显示了指示器光标1302,如果用户需要,相应地用户可以通过移动指示器来改变指示器光标1302的位置。如此,如果指示器是手指,则指示器光标1302将根据手指的移动而移动。
参照图14A和图14B,如果识别了在包括应用图标[图14A]的外部图像中的消息图标1401的触摸,则移动终端100驱动消息相关应用,并且然后能够显示相应的外部图像[图14B]。
在这种情况下,应用是使用移动终端100可驱动的功能,并且包括消息相关应用、多媒体相关应用、呼叫相关应用或因特网相关应用。
参照图14B,如果识别了在外部图像中“写消息”的触摸,则移动终端100能够将包括写消息窗口的图像显示为外部图像。
参照图15A和图15B,如果识别了在包括显示为缩略图[图15A]的多个照片的外部图像中的第二照片1501的触摸,则移动终端100能够将第二照片显示为外部图像[图15B]。
如果照片数据、移动图片数据或文档数据以文本列表格式被包括在外部图像中,则移动终端100运行该文本列表中识别的触摸点所属的数据,并且然后能够将相应的图像显示为外部图像。
现在参照图8,在控制器180的控制下,如果将触摸识别为在识别步骤S840中的对外部图像的至少一个点的触摸,则当从输入图像识别对至少一个点的触摸时,移动终端100能够获取触摸点信息和指示器的大小信息中的至少一个[S850]。
在获取步骤S850中获取的指示器的触摸点信息以及大小信息中的至少一个可以被存储在存储器160中。使用所获取的触摸点信息以及所获取的大小信息,移动终端100能够获取外部图像或输入图像上指示器的位置和大小。
即使指示器处于从外部图像无法进行触摸识别的位置,移动终端100也能够从输入图像获取指示器的点信息和大小信息。
使用在获取步骤S850中获取的指示器的触摸点信息(或点信息)和大小信息中的至少一个,移动终端100能够获得由指示器创建的触摸模式[S860]。
触摸模式可以是触摸并拖动、触摸计数或触摸持续时间。在控制器180的控制下,移动终端100能够执行对应于在获得步骤S860中获得的触摸模式的操作。
如下参照图16至19B详细说明这样的教导。为了描述的清楚和方便,假设可以通过相机121依次输入多个输入图像。
参照图16,如果从第二输入图像获取的指示器(2)的触摸点或大小不同于从第一输入图像获取的指示器(1)的触摸点,或等于指示器(1)的大小,则移动终端100能够获得外部图像的指示器的触摸并拖动。因此,移动终端100能够执行对应于该触摸并拖动的操作。
例如,如果对来自多个照片中的具体照片的具体文件进行触摸并拖动,则移动终端100以将该具体照片包括在该具体文件中的方式执行对应于该触摸并拖动的操作。
参照图17A和图17B,移动终端100获取位于在从第一输入图像[图17A]的触摸可识别距离内的指示器(1)的触摸点信息以及大小信息,并且能够获取位于在从第二输入图像[图17B]的触摸识别不可用距离内的指示器(2)的触摸点信息以及大小信息。
例如,如果从第二输入图像获取的指示器(2)的位置或大小等于从第一输入图像获取的指示器(1)的位置但是大于指示器(1)的大小,则移动终端100能够在触摸外部图像的一个点第一持续时间(例如,短触摸一次)之后获得触摸释放。
因此,移动终端100能够在第一持续时间之后执行对应于该触摸释放的操作。在这种情况下,第一持续时间可以是短触摸的触摸时间段。
参照图17A,如果从依次输入的第一和第二输入图像获取的指示器(1)的触摸点和大小互相相等,则移动终端100能够获得第二持续时间的触摸点的触摸(例如,长触摸)。
因此,移动终端100能够执行对应于第二持续时间的触摸的操作。在这种情况下,第二持续时间可以是指长触摸的触摸时间段。
参照图17A和图17B,尽管来自依次输入的第一和第二输入图像的指示器的位置相同,但是如果指示器的大小以第一大小(在触摸可识别距离中的大小)、第二大小(在触摸识别不可用距离中的大小)以及分别根据第一和第二输入图像的第一大小的顺序而变化,则移动终端100能够获得对外部图像的规定点的两个触摸。因此,移动终端100能够执行对应于两次执行的两个触摸的操作。
现在参照图8,使用在获取步骤S850中获取的触摸点信息和大小信息中的至少一个,移动终端100能够在执行步骤S870中调节外部图像的大小。在下面的描述中,参照图18A至19B详细说明这样的教导。为了下面描述的清楚和方便,假设可以经由相机121输入多个输入图像。还假设用于使得指示器能够更远离或更靠近外部屏幕的操作对应于外部图像放大或缩小命令。
参照图18A和图18B,如果从第二输入图像获取的指示器(2)的位置或大小等于从第一输入图像获取的指示器(1)的位置,但是大于指示器(1)的大小(即,指示器更远离外部屏幕),则移动终端100能够放大并显示外部图像。
参照图19A和图19B,如果从第二输入图像获取的指示器(2)的位置或大小等于从第一输入图像获取的指示器(1)的位置,但是小于指示器(1)的大小(即,指示器更靠近外部屏幕),则移动终端100能够缩小并显示外部图像。
现在参照图8,如果在获得步骤S830中获得指示器的运动(假设指示器和阴影之间的距离位于触摸可识别距离内),则移动终端100能够将具体图像效果添加到对应于所获得的运动的外部图像,或能够执行具体功能。如下参照图20A至21B详细说明这样的教导。
参照图20A和图20B,如果在触摸可识别距离内获得用于图像效果添加的指示器运动,则移动终端100能够将对应于该指示器运动的图像效果添加到外部图像。
参照图21A和图21B,如果在触摸可识别距离内获得对应于具体功能执行的指示器运动,则移动终端100执行对应于该指示器运动的具体功能,并且能够显示相应的外部图像。
例如,当具体功能是“翻一页”,并且识别了对应于翻动该页的指示器运动,则移动终端100能够将紧邻第一图像的第二图像显示为外部图像。
现在参照图8,移动终端100在获得步骤S830从输入图像获得外部图像与外部物体重叠的范围,并且然后能够根据所获得的重叠范围调节外部图像的大小。参照图22A和图22B详细说明这样的教导。
参照图22A和图22B,如果外部图像和具体的人重叠,则移动终端100能够缩小并显示该外部图像,以避免与具体的人重叠的效果。
尽管缩小并显示了外部图像,但是如果变换了具体的人的位置,则移动终端100能够在避免与具体的人重叠的效果的范围内放大并显示外部图像。
根据本发明的一个实施例,可以在程序记录介质中将上述触摸识别方法实现为计算机可读代码。计算机可读介质包括其中存储计算机系统可读的数据的各种记录设备。计算机可读介质包括ROM、RAM、CD-RAM、磁带、软盘以及光数据存储设备,并且还包括载波类型的实现(例如,通过因特网传输)。
因此,本发明的实施例提供了下列效果和/或优点。首先,本发明的实施例使得能够使用通过设置到移动终端的相机输入的指示器及其阴影图像来识别触摸。因此,本发明的实施例提供了用于在不直接触摸触摸屏的情况下识别外部屏幕的触摸动作,并且由此执行相应的操作。
对于本领域的技术人员显而易见的是,在不背离本发明的精神或范围的情况下,在本发明中可以进行各种修改和变化。因此,本发明旨在涵盖本发明的修改和变化,只要它们落入权利要求及其等同物的范围内。

Claims (24)

1.一种移动终端,包括:
投影仪模块,所述投影仪模块被配置成投影用于在外部屏幕上显示的图像;
相机,所述相机被配置成接收包括在所述外部屏幕上显示的图像的输入图像,所述输入图像包括位于所述图像上的实际指示器以及所述实际指示器的阴影;以及
控制器,所述控制器被配置成通过使用物体识别技术识别所述实际指示器和所述实际指示器的阴影并且测量所述实际指示器和所述实际指示器的阴影之间的距离,以从所述输入图像获得所述实际指示器和所述实际指示器的阴影之间的距离,根据所获得的距离在所显示的图像中识别所述实际指示器对触摸点的触摸,通过所述投影仪模块在所述触摸点投影指示器光标,并且执行对应于所识别的触摸点的操作,
其中,所述实际指示器的阴影落在所述外部屏幕上,
其中,基于所测量的距离,通过应用实际外部图像与包括在输入图像中的外部图像的比率获得在所述实际指示器和所述外部屏幕之间的实际距离。
2.根据权利要求1所述的移动终端,其中,所述控制器被配置成,如果所获得的距离小于预定距离,则识别所述实际指示器的触摸。
3.根据权利要求1所述的移动终端,其中,所述控制器被配置成,当所获得的距离小于预定距离时如果从所述输入图像获得了所述实际指示器的具体运动,则识别所述实际指示器的触摸。
4.根据权利要求1所述的移动终端,其中,所述控制器被配置成,如果所述实际指示器对来自所述输入图像的至少一个点的触摸被识别,则获取所述实际指示器的触摸点信息或所述实际指示器以及阴影的大小信息中的至少一个。
5.根据权利要求4所述的移动终端,其中,所述控制器被配置成使用所获取的触摸点信息或所获取的大小信息中的至少一个获得所述指示器的触摸模式,并且所述控制器被配置成执行对应于所获得的触摸模式的操作。
6.根据权利要求4所述的移动终端,其中,所述控制器被配置成使用所获取的触摸点信息或所获取的大小信息中的至少一个来调节显示在所述外部屏幕上的图像的大小。
7.根据权利要求1所述的移动终端,其中,所述控制器被配置成执行下列中的至少一个:放大/缩小所述图像的一部分的显示、驱动应用或参照所识别的触摸点执行数据。
8.根据权利要求1所述的移动终端,其中,所述操作是具体图像效果添加或具体功能执行中的至少一个,所述具体图像效果添加是显示在对应于所述触摸点以及所述实际指示器的运动的图像上方所添加的图像,所述具体功能执行是执行与所述触摸点和所述实际指示器的运动相关的具体功能。
9.根据权利要求1所述的移动终端,其中,所述控制器被配置成确定所显示的图像与来自所述输入图像的外部物体重叠的范围,并且调节所显示的图像的大小以使得所显示的图像不与所述外部物体重叠。
10.根据权利要求1所述的移动终端,其中,如果在预定时间段中没有识别所述实际指示器的触摸,则所述控制器停止操作所述相机。
11.根据权利要求1所述的移动终端,其中,所述投影仪模块和所述相机中的每一个的镜头都被配置成面向相同的方向。
12.根据权利要求1所述的移动终端,其中,所述相机的位置相对于所述投影仪成预定角度,以检测所述实际指示器和所述阴影之间的距离。
13.根据权利要求1所述的移动终端,其中,所述控制器被配置成对应于所述实际指示器的运动来移动通过所述投影仪模块投影的所述指示器光标。
14.一种在移动终端中识别触摸的方法,所述方法包括:
在外部屏幕上显示图像;
接收在所述外部屏幕上显示的图像的输入图像,所述输入图像包括位于所述图像上的实际指示器以及所述实际指示器的阴影,所述实际指示器的阴影落在所述外部屏幕上;
通过使用物体识别技术识别所述实际指示器和所述实际指示器的阴影并且测量所述实际指示器和所述实际指示器的阴影之间的距离,以从所述输入图像获得所述实际指示器和所述实际指示器的阴影之间的距离;
根据所获得的距离识别所述指示器对所显示的图像中的触摸点的触摸;
在所述触摸点处投影指示器光标;以及
执行对应于所识别的触摸点的操作,
其中,基于所测量的距离,通过应用实际外部图像与包括在输入图像中的外部图像的比率获得在实际指示器和所述外部屏幕之间的实际距离。
15.根据权利要求14所述的方法,进一步包括如果所获得的距离小于预定距离,则识别所述实际指示器的触摸。
16.根据权利要求14所述的方法,进一步包括当所获得的距离小于预定距离时如果从所述输入图像获得了所述实际指示器的具体运动,则识别所述实际指示器的触摸。
17.根据权利要求14所述的方法,进一步包括如果从所述输入图像识别了所述实际指示器对至少一个点的触摸,则获取所述实际指示器的触摸点信息或所述指示器以及阴影的大小信息中的至少一个。
18.根据权利要求17所述的方法,进一步包括使用所获取的触摸点信息或所获取的大小信息中的至少一个来获得所述实际指示器的触摸模式,并且执行对应于所获得的触摸模式的操作。
19.根据权利要求17所述的方法,进一步包括使用所获取的触摸点信息或所获取的大小信息中的至少一个调节显示在所述外部屏幕上的图像的大小。
20.根据权利要求14所述的方法,进一步包括执行下列中的至少一个:放大/缩小所述图像的一部分的显示、驱动应用或参照所识别的触摸点执行数据。
21.根据权利要求14所述的方法,其中,所述操作是具体图像效果添加或具体功能执行中的至少一个,所述具体图像效果添加是显示在对应于所述触摸点以及所述实际指示器的运动的图像上方所添加的图像,所述具体功能执行是执行与所述触摸点和所述实际指示器的运动相关的具体功能。
22.根据权利要求14所述的方法,进一步包括确定所显示的图像与来自所述输入图像的外部物体重叠的范围,并且调节所显示的图像的大小以使得所显示的图像不与所述外部物体重叠。
23.根据权利要求14所述的方法,进一步包括如果在预定时间段中没有识别所述实际指示器的触摸,则停止捕获所述外部屏幕。
24.根据权利要求14所述的方法,进一步包括对应于所述实际指示器的运动移动所投影的指示器光标。
CN200910132582.8A 2008-10-15 2009-04-07 具有图像投影的移动终端 Expired - Fee Related CN101729628B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080101104A KR101537596B1 (ko) 2008-10-15 2008-10-15 이동 단말기 및 이것의 터치 인식 방법
KR10-2008-0101104 2008-10-15

Publications (2)

Publication Number Publication Date
CN101729628A CN101729628A (zh) 2010-06-09
CN101729628B true CN101729628B (zh) 2014-11-19

Family

ID=40409899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910132582.8A Expired - Fee Related CN101729628B (zh) 2008-10-15 2009-04-07 具有图像投影的移动终端

Country Status (4)

Country Link
US (1) US8427511B2 (zh)
EP (1) EP2177976B1 (zh)
KR (1) KR101537596B1 (zh)
CN (1) CN101729628B (zh)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8700097B2 (en) * 2009-02-05 2014-04-15 Samsung Electronics Co., Ltd. Method and system for controlling dual-processing of screen data in mobile terminal having projector function
KR101510723B1 (ko) * 2009-04-20 2015-04-20 삼성전자주식회사 프로젝터를 구비한 휴대 단말기 및 그 휴대 단말기에서 데이터 표시 방법
WO2011045786A2 (en) 2009-10-13 2011-04-21 Rami Parham Wearable device for generating input for computerized systems
JP5327017B2 (ja) * 2009-11-24 2013-10-30 ソニー株式会社 遠隔操作装置、遠隔操作システム、遠隔操作装置による情報処理方法およびプログラム
KR20110071326A (ko) * 2009-12-21 2011-06-29 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 입력 키 출력 방법 및 장치
US9880619B2 (en) 2010-02-23 2018-01-30 Muy Interactive Ltd. Virtual reality system with a finger-wearable control
CA2828222A1 (en) 2010-02-23 2011-09-01 Muv Interactive Ltd. A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9678662B2 (en) * 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
HK1147905A2 (en) * 2010-06-30 2011-08-19 Chi Ching Lee System and method for virtual touch sensing
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
JP5304848B2 (ja) * 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
US9097966B2 (en) * 2010-11-26 2015-08-04 Kyocera Corporation Mobile electronic device for projecting an image
KR101694272B1 (ko) * 2010-12-03 2017-01-10 삼성전자주식회사 디스플레이 장치에서의 터치 및 근접 정보 검출 장치 및 방법
WO2012119308A1 (en) * 2011-03-09 2012-09-13 Nokia Corporation An apparatus and method for remote user input
US9423877B2 (en) * 2012-02-24 2016-08-23 Amazon Technologies, Inc. Navigation approaches for multi-dimensional input
US9092090B2 (en) * 2012-05-17 2015-07-28 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Structured light for touch or gesture detection
JP6135239B2 (ja) * 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
US8928607B1 (en) * 2012-05-29 2015-01-06 Google Inc. Handheld input device for a computer
CN102722254B (zh) * 2012-06-20 2015-06-17 清华大学深圳研究生院 一种定位交互方法及系统
US9400575B1 (en) * 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
US9213436B2 (en) 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9030446B2 (en) * 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US8794766B2 (en) 2012-11-30 2014-08-05 Robert Listou Trust System and method for physically disabled persons to read e-publications
US9904414B2 (en) * 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
TWI454968B (zh) * 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
CN103905782B (zh) * 2012-12-26 2017-07-11 鸿富锦精密工业(深圳)有限公司 移动指挥系统及移动指挥终端系统
CN104049853A (zh) * 2013-03-11 2014-09-17 联想(北京)有限公司 一种信息处理方法及电子设备
KR102097452B1 (ko) * 2013-03-28 2020-04-07 삼성전자주식회사 프로젝터를 포함하는 전자 장치 및 그 제어 방법
CN105378616A (zh) * 2013-04-12 2016-03-02 爱康尼克斯公司 虚拟触摸屏
CN104346118B (zh) * 2013-08-09 2018-12-14 联想(北京)有限公司 一种电子设备
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
CN105094287A (zh) * 2014-04-15 2015-11-25 联想(北京)有限公司 一种信息处理方法和电子设备
WO2015178691A1 (en) * 2014-05-21 2015-11-26 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
KR102192956B1 (ko) * 2014-06-23 2020-12-18 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN105204725B (zh) * 2014-06-27 2019-01-15 联想(北京)有限公司 一种三维图像控制方法、装置、电子设备及三维投影设备
CN105335018A (zh) * 2014-08-07 2016-02-17 联想(北京)有限公司 具有触控功能的电子装置的控制方法及控制系统
CN104660815A (zh) * 2015-02-15 2015-05-27 无锡市崇安区科技创业服务中心 一种手机智能投影手环
US20160344987A1 (en) * 2015-05-21 2016-11-24 Babak Taherloo Special Environment Projection System
CN108141560B (zh) * 2015-09-23 2021-01-05 惠普发展公司,有限责任合伙企业 用于图像投影的系统及方法
US10129510B2 (en) * 2016-02-18 2018-11-13 Samsung Electronics Co., Ltd. Initiating human-machine interaction based on visual attention
US10739927B2 (en) * 2016-10-11 2020-08-11 Huawei Technologies Co., Ltd. Operation detection method and apparatus, and mobile terminal
CN106713880B (zh) * 2016-12-02 2019-03-15 北京一数科技有限公司 一种便携式智能投影系统
CN106941542B (zh) * 2017-04-19 2018-05-11 东莞颠覆产品设计有限公司 带投影功能的移动通信设备
CN106953951A (zh) * 2017-04-19 2017-07-14 东莞颠覆产品设计有限公司 新型曲面屏移动通信设备
CN108363603B (zh) * 2018-01-29 2022-04-01 上海闻泰电子科技有限公司 信息指引方法、装置、移动终端以及存储装置
CN108566506B (zh) * 2018-06-04 2023-10-13 Oppo广东移动通信有限公司 图像处理模组、控制方法、电子设备及可读存储介质
KR102465039B1 (ko) * 2021-12-30 2022-11-10 (주)웅진씽크빅 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP4150924B2 (ja) * 2003-07-02 2008-09-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US20060248447A1 (en) * 2005-05-02 2006-11-02 Nokia Corporation Indicating loading status of information from a computer network
JP4572815B2 (ja) * 2005-11-18 2010-11-04 富士フイルム株式会社 撮像装置及び撮像方法
KR101286412B1 (ko) * 2005-12-29 2013-07-18 삼성전자주식회사 다중기능 가상 사용자 입력 장치 및 방법
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
KR101453087B1 (ko) * 2008-01-24 2014-10-27 엘지전자 주식회사 감시용 카메라의 마스크 색상 제어장치 및 방법
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules

Also Published As

Publication number Publication date
US8427511B2 (en) 2013-04-23
EP2177976B1 (en) 2017-05-31
KR20100042006A (ko) 2010-04-23
EP2177976A2 (en) 2010-04-21
CN101729628A (zh) 2010-06-09
US20100188428A1 (en) 2010-07-29
KR101537596B1 (ko) 2015-07-20
EP2177976A3 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
CN101729628B (zh) 具有图像投影的移动终端
CN101729659B (zh) 移动终端和用于控制与外部设备相关的功能的方法
CN102238275B (zh) 移动终端和在移动终端中显示图像的方法
US20100060595A1 (en) Mobile terminal and method of switching identity module therein
KR20110122979A (ko) 이동 단말기 및 그 제어 방법
CN101923430A (zh) 移动终端及控制该移动终端的方法
CN104932816A (zh) 移动终端及其控制方法
KR102147203B1 (ko) 이동 단말기 및 그 제어방법
KR20100128489A (ko) 이동단말기 및 그 제어방법
CN104679403A (zh) 移动终端及其控制方法
KR20110054196A (ko) 이동 단말기에서 터치를 이용한 이미지 편집 방법 및 이를 위한 장치
KR101752417B1 (ko) 이동 단말기 및 디바이스 제어방법
KR20120037638A (ko) 이동 단말기 크래들 및 그 제어방법
KR20100038590A (ko) 터치센서 및 터치 인식방법
KR101977084B1 (ko) 이동 단말기
KR101700192B1 (ko) 이동 단말기 및 그 제어방법
KR20110003705A (ko) 이동 단말기에서의 정보 표시 방법 및 이를 이용한 이동 단말기
KR20110041864A (ko) 이동 통신 단말기에서의 데이터 첨부방법 및 이를 적용한 이동 통신 단말기
KR20100081082A (ko) 이동 단말기 및 그 제어방법
KR20120045466A (ko) 이동 단말기 및 디스플레이 장치 제어 방법
KR20100042107A (ko) 이동 통신 단말기 및 이를 이용한 표시정보 제어방법
KR101709503B1 (ko) 이동 단말기 및 영상 디스플레이 방법
KR101685973B1 (ko) 이동 단말기 및 그 제어방법
KR20110002614A (ko) 이동 단말기
KR20110057019A (ko) 이동 통신 단말기에서의 데이터 송신 방법 및 이를 적용한 이동 통신 단말기

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141119

Termination date: 20190407

CF01 Termination of patent right due to non-payment of annual fee