CN108021326A - 交互式显示设备 - Google Patents

交互式显示设备 Download PDF

Info

Publication number
CN108021326A
CN108021326A CN201610963146.5A CN201610963146A CN108021326A CN 108021326 A CN108021326 A CN 108021326A CN 201610963146 A CN201610963146 A CN 201610963146A CN 108021326 A CN108021326 A CN 108021326A
Authority
CN
China
Prior art keywords
display device
light beam
index
shelter
interactive display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610963146.5A
Other languages
English (en)
Inventor
李振升
曾志能
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Coretronic Corp
Original Assignee
Coretronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Coretronic Corp filed Critical Coretronic Corp
Priority to CN201610963146.5A priority Critical patent/CN108021326A/zh
Priority to US15/714,847 priority patent/US20180129308A1/en
Publication of CN108021326A publication Critical patent/CN108021326A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种交互式显示设备包括显示装置、操控装置以及影像撷取装置。显示装置电连接至主机,以根据主机提供的影像信号显示影像画面。操控装置包括第一光源、遮挡物以及多个功能按键。第一光源发出第一光束以于影像画面上形成操控指标。遮挡物具有多个形状不同的透光区域。多个功能按键电连接于遮挡物,当这些功能按键的其中之一被触发时,对应功能按键的透光区域会被切换至第一光束的传递路径上,以改变操控指标的形状。本发明的交互式显示设备可藉由操控装置改变影像画面上操控指标的形状,并根据形成于影像画面上操控指标的形状来对应执行相关的指令与功能,进而达成互动操控的目的。

Description

交互式显示设备
技术领域
本发明涉及一种显示设备,尤其涉及一种交互式显示设备。
背景技术
在各种交互式电子产品中,例如交互式投影机或交互式电子白板等产品,其中不乏使用光学式摄影机(例如是可检测红外光的摄影机)来撷取显示在屏幕或显示器上特定光波长的光点(例如是红外光的光点),进而将一般的投影机或显示器等设备转变成可交互式的产品。上述于投影屏幕或显示器产生光点的来源例如是自体发光源或红外光产生器,例如是具有发光二极管或激光二极管(可见光或不可见光)的主动式光笔。
然而,具备可检测红外光的摄影机的光学式互动投影机通常需以近距离接触的方式与投影屏幕进行互动触控的动作,因此使用光学式互动投影机进行简报时,需要站立在距离互动投影屏幕伸手可及的位置才能通过触控功能切换投影片或操控计算机等动作,此外,传统市售的简报笔(主动式光笔)尚需额外搭配无线传输模块与主机端进行数据传输与操控。因此如何针对上述的问题进行改善,实为本领域相关人员所关注的焦点。
本“背景技术”段落只是用来帮助了解本发明内容,因此在“背景技术”中所揭露的内容可能包含一些没有构成本领域技术人员所知道的现有技术。此外,在“背景技术”中所揭露的内容并不代表该内容或者本发明一个或多个实施例所要解决的问题,也不代表在本发明申请前已被本领域技术人员所知晓或认知。
发明内容
本发明的目的之一在于提供一种交互式显示设备,藉由操控装置来改变形成于影像画面上操控指标的形状,并根据操控指标的形状对应执行相关的指令与功能,进而达成互动操控的目的。
本发明的又一目的在于提供一种交互式显示设备的操控方法,藉由操控装置来改变形成于影像画面上操控指标的形状,并根据操控指标的形状对应执行相关的指令与功能,进而达成互动操控的目的。
本发明的其他目的和优点可以从本发明所揭露的技术特征中得到进一步的了解。
为达上述之一或部分或全部目的或是其他目的,本发明提供一种交互式显示设备,适于电连接至主机。交互式显示设备包括显示装置、操控装置以及影像撷取装置。显示装置适于电连接至主机,以根据主机提供的影像信号显示影像画面。操控装置包括第一光源、遮挡物以及多个功能按键。第一光源适于发出第一光束以于影像画面上形成操控指标。遮挡物具有多个形状不同的透光区域。多个功能按键电连接于遮挡物,当这些功能按键的其中之一被触发时,对应功能按键的透光区域会被切换至第一光束的传递路径上,以改变操控指标的形状。影像撷取装置适于撷取影像画面及形成于影像画面上的操控指标。
为达上述之一或部分或全部目的或是其他目的,本发明另提供一种交互式显示设备的操作方法,交互式显示设备包括显示装置、操控装置以及影像撷取装置,操控方法包括下列步骤:控制显示装置以显示显示画面;控制该操控装置发出第一光束以于显示画面上形成操控指标,操控装置包括遮挡物以及多个功能按键,且遮挡物具有多个形状不同的透光区域;触发该操控装置的多个功能按键的其中之一而使对应此功能按键的透光区域被切换至第一光束的传递路径上,以改变操控指标的形状;以及通过影像撷取装置撷取影像画面及形成于影像画面上的操控指标。
本发明实施例的交互式显示设备,利用操控装置来改变形成于影像画面上操控指标的形状,并根据形成于影像画面上操控指标的形状来对应执行相关的指令与功能,进而达成互动操控的目的。本发明的交互式显示设备可实现远距离互触控的应用,且本发明实施例的操控装置无须搭配无线传输模块即可进行互动操控。
为让本发明之上述和其他目的、特征和优点能更明显易懂,下文特举优选实施例,并结合附图,作详细说明如下。
附图说明
图1为本发明一实施例的交互式显示设备的结构示意图;
图2为图1所示的操控装置的功能方块示意图;
图3为图2所示的遮挡物的结构示意图;
图4为本实施例的遮挡物于一使用状态下的示意图;
图5为本实施例的遮挡物于另一使用状态下的示意图;
图6为本发明另一实施例的操控装置的结构示意图;
图7为本发明另一实施例的交互式显示设备的结构示意图;
图8为本发明另一实施例的交互式显示设备的结构示意图;以及
图9为本发明交互式显示设备的操控方法流程示意图。
具体实施方式
有关本发明的前述及其他技术内容、特点与功效,在以下结合附图的优选实施例的详细说明中,将可清楚的呈现。以下实施例中所提到的方向用语,例如:上、下、左、右、前或后等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明。
请参照图1,其为本发明一实施例的交互式显示设备的结构示意图。本实施例的互动显示设备1适于电连接至主机10,在本实施例中,主机10例如是个人计算机、笔记本电脑、智能型手机或是平板计算机等,但本发明并限于此。本实施例的交互式显示设备1包括显示装置12、操控装置14以及影像撷取装置16。显示装置12适于电连接至主机10,显示装置12根据主机10所提供的影像信号而于投影面100上显示影像画面M,在本实施例中,显示装置12例如是投影机,投影面100例如是投影屏幕、墙面或任何适当的表面,但本发明并不限于此。操控装置14适于发出第一光束L1以于显示于投影面100的影像画面M上形成操控指标P,在本实施例中,操控装置14例如是主动式光笔,其中第一光束L1为可见光或不可见光,本发明并不限于此。影像撷取装置16适于撷取显示于投影面100的影像画面M以及形成于影像画面M上的操控指标P,在本实施例中,影像撷取装置16例如是摄影机或相机等,但本发明并不限于此。
请参照图2与图3,图2为图1所示的操控装置14的功能方块示意图。图3为图2所示的遮挡物142的结构示意图。如图1至图3所示,本实施例的操控装置14包括第一光源141、遮挡物142以及多个功能按键143、144以及145。第一光源141可为固态发光体(Solid StateIlluminated element)例如发光二极管芯片(Chip of Light emitting diode,chip ofLED)或激光二极管芯片(Laser diode chip),又或是已封装的LED或激光源等,第一光源141适于发出第一光束L1以于影像画面M上形成操控指标P,在本实例中,第一光束L1例如是可见光,但本发明并不限于此,在其它的实施例中,第一光束L1也可以是不可见光(例如红外光)。遮挡物142的形状例如是具有圆心O的圆形且包括多个形状不同的透光区域P1、P2、P3。这些功能按键143、144、145电连接至遮挡物142且分别对应这些形状不同的透光区域P1、P2、P3。当这些功能按键143、144、145的其中之一被触发时,例如是功能按键143被触发,则对应功能按键143的透光区域P1会被切换至第一光束L1的传递路径上,此时,第一光束L1会被改变成与透光区域P1形状相同的光形并形成于影像画面M上。在本实施例中,功能按键的数量以及透光区域的数量分别以三个为例进行说明,但本发明不限定功能按键的数量,功能按键的数量以及透光区域的数量可依照实际情况的需求而有所增减。
如图2所示,本实施例的操控装置14还包括控制单元146以及驱动单元147。控制单元146电连接至这些功能按键143、144、145,因应这些功能按键143、144、145的其中之一被触发而发出控制信号并传递至驱动单元147。驱动单元147电连接至遮挡物142与控制单元147,驱动单元147接收来自控制单元146的控制信号后驱动遮挡物142进行旋转,进而使遮挡物142上对应被触发功能按键的透光区域切换至第一光束L1的传递路径上。在本实施例中,控制单元146例如是具有单核心或多核心的CPU(Central Processing Unit)、微处理器(Microprocessor)或其他类似组件,驱动单元147例如是步进马达(step motor)或其他适当的驱动组件,本发明并不不限于此。以下再针对操控装置14切换遮挡物142上形状不同的透光区域P1、P2、P3于第一光束L1的传递路径上的详细动作方式做更进一步的描述。
请参照图3至图5,并请同时结合参照图1至图2,图4为本实施例的遮挡物142于一使用状态下的示意图。图5为本实施例的遮挡物142于另一使用状态下的示意图。请先参考图3,本实施例的遮挡物142中,形状不同的透光区域P1、P2、P3分别位于第一位置A1、第二位置A2以及第三位置A3上,且第一光源141所发出的第一光束L1通过第一位置A1与透光区域P1,此时,第一光束L1会被透光区域P1改变为截面形状与透光区域P1相同并照射于影像画面M上。在本实施例中,透光区域P1的形状例如是手指图案,而手指图案所对应执行的操控功能例如是通过操控指标P执行点选动作或是通过操控指标P执行移动轨迹标示的动作,本发明并不不限于此。接着请参考图2与图4,当功能按键144被触发时,控制单元146因应功能按键144被触发而发出控制信号至驱动单元147,驱动单元147接收控制信号后驱动遮挡物142以圆心O为轴心进行旋转,使原本位于第一位置A1的透光区域P1移动至第二位置A2,原本位于第二位置A2的透光区域P2移动至第三位置A3,原本位于第三位置A3的透光区域P3则移动至第一位置A1,此时,通过第一位置A1的第一光束L1会被透光区域P3改变为截面形状与透光区域P3相同并照射于影像画面M上,在本实施例中,透光区域P3的形状例如是朝上的箭头,而朝上的箭头所对应执行的操控功能例如是通过操控指标P执行画面向上卷动动作,本发明并不限于此。如图2与图5所示,当功能按键145被触发时,控制单元146因应功能按键145被触发而发出控制信号至驱动单元147,驱动单元147接收控制信号后驱动遮挡物142以圆心O为轴心进行旋转,使原本位于第一位置A1的透光区域P3移动至第二位置A2,原本位于第二位置A2的透光区域P1移动至第三位置A3,原本位于第三位置A3的透光区域P2则移动至第一位置A1,此时,通过第一位置A1的第一光束L1会被透光区域P2改变为截面形状与透光区域P2相同并照射于影像画面M上,在本实施例中,透光区域P2的形状例如是朝下的箭头,而朝下的箭头所对应执行的操控功能例如是通过操控指标P执行画面向下卷动动作,本发明并不限于此。
需特别说明的是,遮挡物142的透光区域的数量以及透光区域的形状,遮挡物142的透光区域的数量以及形状可依照实际情况的需求而有所改变,本发明对此并不加以限定。
请参考图1,本实施例的影像撷取装置16还包括影像感测单元161以及图形识别单元162,在本实施例中,影像感测单元161例如是感光耦合元件(Charge Coupled Device,CCD),图形识别单元162例如是图形处理单元(Graphics Processing Unit,GPU),但本发明并不以此为限。影像感测单元161电连接于图形识别单元162,图形识别单元162电连接至主机10。影像感测单元161适于撷取显示于投影面100的影像画面M以及形成于影像画面M上的操控指标P,并将具有操控指标P的影像画面M传递至图形识别运算单元162。图形识别运算单元162适于分析具有操控指标P的影像画面M而获得分析结果,图形识别运算单元162将此分析结果传递至主机10。此时,主机10控制显示装置12显示另一显示画面。举例而言,当图形识别运算单元162判断影像画面M上的操控指标P形状为如图3所示的手指图案时,主机10控制显示装置12显示的显示画面例如为具有操控指标P移动轨迹的显示画面或是操控指标P执行点选动作后的显示画面。当图形识别运算单元162判断影像画面M上的操控指标P形状为如图4所示的箭头朝上图案时,主机10控制显示装置12显示的显示画面例如为操控指标P执行画面向上卷动动作后的显示画面。
请参考图6,其为本发明另一实施例的操控装置的结构示意图。本实施例的操控装置14a与图1至图3的操控装置14类似,且本实施例的操控装置14a亦可架构在如图1所示的互动显示设备1中,相同的元件以相同标号表示,在此不再赘述。请参考图2与图6,本实施例的操控装置14a与图1至图3的操控装置14的不同点在于,本实施例的操控装置14a还包括第二光源148。第二光源148适于发出第二光束L2,在本实施例中,第一光源141所发出的第一光束L1例如是可见光,第二光源148所发出的第二光束L2例如是不可见光。在本实施例中,操控装置14a可同时发出为可见光的第一光束L1以及为不可见光的第二光束L2,因此,用户在利用操控装置14a进行操控的过程中可以看见第一光束L1于影像画面M上所形成的操控指标P,另一方面,第二光束L2于影像画面M上所形成的操控指标P可以被影像撷取装置16(绘示于图1,例如是可撷取不可见光的影像撷取装置)撷取,以供交互式显示设备1撷取或记录操控指标P的位置。第二光源148亦可为固态发光体例如发光二极管芯片或激光二极管芯片,又或是已封装的LED或激光源等,本发明并不限于此。
请参照图7,其为本发明另一实施例的交互式显示设备的结构示意图。如图7所示,本实施例的交互式显示设备1b与图1至图3的交互式显示设备1类似,相同的元件以相同标号表示,在此不再赘述。本实施例的交互式显示设备1b与交互式显示设备1的不同点在于,交互式显示设备1b还包括至少一检测光源18。检测光源18适于发出检测光束DL以检测投影面100,其中检测光束DL例如平行于投影面M且与投影面M具有一极小间距(未示出)。当触控物体(例如手指或触控笔)接触投影面100而位于检测光束DL的范围内时,影像撷取装置16感测触控物体反射检测光束DL的反射光,此时,主机10根据反射光判断触控物体的触控位置。在本实施例中,检测光源18的数量例如为一个,但本发明并不加以限定检测光源18的数量,检测光源18的数量可依照实际情况的需求而有所改变。在本实施例中,检测光源18例如是光波长为不可见光的激光幕模块(Laser curtain module),且检测光束DL的光强度例如是小于第一光束L1,但本发明并不限于此。
请参照图8,其为本发明另一实施例的交互式显示设备的结构示意图。如图8所示,本实施例的交互式显示设备1c与图1至图3的交互式显示设备1类似,相同的元件以相同标号表示,在此不再赘述。交互式显示设备1c与交互式显示设备1的不同点在于,本实施例的互动显示设备1c的图形识别运算单元162设置于主机10c中以利用主机10c强大的运算能力提高影像分析速度,以增强显示画面的显示实时性。主机10c的图形识别运算单元162电连接至影像撷取装置16的影像感测单元161。当影像撷取装置16的影像感测单元161撷取显示于投影面100的影像画面M以及形成于影像画面M上的操控指标P时,影像撷取装置16将具有操控指标P的影像画面M传递至主机10c的图形识别运算单元162。图形识别运算单元162分析具有操控指标P的影像画面M而获得分析结果,此时,主机10c控制显示装置12显示另一显示画面,举例而言,当图形识别运算单元162判断影像画面M上的操控指标P形状为如图3所示的手指图案时,主机10c控制显示装置12显示的显示画面为具有操控指标P移动轨迹的显示画面或是操控指标P执行点选动作后的显示画面。当图形识别运算单元162判断影像画面M上的操控指标P形状为如图4所示的朝上的箭头时,主机10c控制显示装置12显示的显示画面为操控指标P执行画面向上卷动动作后的显示画面。
请参照图9,其为本发明交互式显示设备的操控方法流程示意图。如图9所示,并请结合参照图1至图3,本实施例的操控方法包括下列步骤:首先,如步骤S1所示,控制显示装置12于投影面100上显示出显示画面M;如步骤S2所示,控制操控装置14发出第一光束L1以于投影面100的显示画面M上形成操控指标P;如步骤S3所示,触发操控装置14的其中之一功能按键(例如是功能按键143、功能按键144或是功能按键145),以使对应被触发功能按键的透光区域被切换至第一光束L1的传递路径上,以改变操控指标P的形状;如步骤S4所示,通过影像撷取装置16撷取影像画面M及形成于影像画面M上的操控指标P。然后,如步骤S5所示,分析具有操控指标P的影像画面M而获得分析结果,并根据分析结果控制显示装置12显示另一显示画面。举例而言,当分析结果为影像画面M上的操控指标P形状为如图3所示的手指图案时,控制显示装置12显示的显示画面为具有操控指标P移动轨迹的显示画面或是操控指标P执行点选动作后的显示画面,其中步骤S5的分析步骤是如图1所示,影像撷取装置16的图形识别运算单元162分析具有操控指标P的影像画面M而获得分析结果,或者如图8所示,主机1的图形识别运算单元分析具有操控指标P的影像画面M而获得分析结果。当分析结果为影像画面M上的操控指标P形状为如图4所示的朝上的箭头时,控制显示装置12显示的显示画面为操控指标P执行画面向上卷动动作后的显示画面。值得注意的是,图9的交互式显示设备的操控方法流程并不限定仅适用于图1至图3的互动显示设备1与操控装置14,也可以应用于图7的显示设备1b与图8的显示设备1c,图6的操控装置14a亦可取代上述的操控装置14,本发明并不限于此。
综上所述,本发明实施例的交互式显示设备,利用操控装置来改变形成于影像画面上操控指标的形状,并根据形成于影像画面上操控指标的形状来对应执行相关的指令与功能,进而达成互动操控的目的。本发明的交互式显示设备可实现远距离互触控的应用,且本发明实施例的操控装置无须搭配无线传输模块即可进行互动操控。
以上所述,仅为本发明的优选实施例而已,当不能以此限定本发明实施的范围,即大凡依权利要求书及说明书所作的简单的等效变化与修饰,皆仍属本发明专利涵盖的范围内。另外,本发明的任一实施例或权利要求不须达成本发明所揭露的全部目的或优点或特点。此外,摘要部分和标题仅是用来辅助专利文件搜寻之用,并非用来限制本发明的权利范围。此外,本说明书或申请专利范围中提及的“第一”、“第二”等用语仅用以命名元件(element)的名称或区别不同实施例或范围,而并非用来限制元件数量上的上限或下限。
附图标记
1、1b、1c:交互式显示设备
10、10c:主机
12:显示装置
14、14a:操控装置
16:影像撷取装置
18:检测光源
100:投影面
141:第一光源
142:遮挡物
143、144、145:功能按键
146:控制单元
147:驱动单元
148:第二光源
161:影像感测单元
162:图形识别单元
A1:第一位置
A2:第二位置
A3:第三位置
DL:检测光束
L1:第一光束
L2:第二光束
M:影像画面
O:圆心
P:操控指标
P1、P2、P3:透光区域
S1~S5:步骤

Claims (11)

1.一种交互式显示设备,适于电连接至主机,其特征在于,所述交互式显示设备包括一显示装置、一操控装置以及一影像撷取装置,
所述显示装置适于电连接至所述主机,以根据所述主机提供的影像信号显示影像画面,
所述操控装置包括一第一光源、一遮挡物以及多个功能按键,
所述第一光源适于发出第一光束以于所述影像画面上形成操控指标,
所述遮挡物具有多个形状不同的透光区域,
所述多个功能按键电连接于所述遮挡物,当所述多个功能按键的其中之一被触发时,对应所述功能按键的所述透光区域会被切换至所述第一光束的传递路径上,以改变所述操控指标的形状,
所述影像撷取装置适于撷取所述影像画面及形成于所述影像画面上的所述操控指标。
2.如权利要求1所述的交互式显示设备,其特征在于,所述影像撷取装置包括一图形识别运算单元,所述图形识别运算单元适于分析具有所述操控指标的所述影像画面而获得分析结果,并传递所述分析结果至所述主机以显示另一显示画面。
3.如权利要求1所述的交互式显示设备,其特征在于,所述主机包括一图形识别运算单元,所述图形识别运算单元适于分析具有所述操控指标的所述影像画面而获得分析结果,所述主机根据所述分析结果显示另一显示画面。
4.如权利要求1所述的交互式显示设备,其特征在于,所述第一光源所发出的所述第一光束为可见光或不可见光。
5.如权利要求1所述的交互式显示设备,其特征在于,所述操控装置还包括一第二光源,所述第二光源适于发出第二光束,且所述第一光束为可见光,所述第二光束为不可见光。
6.如权利要求1所述的交互式显示设备,其特征在于,所述多个功能按键包括一第一功能按键以及一第二功能按键,所述多个透光区域包括一第一形状透光区域以及一第二形状透光区域,当所述第一功能按键被触发时,所述遮挡物对应旋转而使所述第一形状透光区域旋转至第一位置并使所述第二形状透光区域由所述第一位置旋转至第二位置,当所述第二功能键被触发时,所述遮挡物对应旋转而使所述第二形状透光区域由所述第二位置旋转至所述第一位置,且所述第一位置位于所述第一光束的传递路径上。
7.如权利要求1所述的交互式显示设备,其特征在于,所述操控装置还包括一控制单元以及一驱动单元,
所述控制单元电连接于所述多个功能按键,因应所述多个功能按键的其中之一被触发而发出控制信号,
所述驱动单元电连接于所述遮挡物与所述控制单元,所述驱动单元接收所述控制信号而驱动所述遮挡物上对应所述功能按键的所述透光区域切换至所述第一光束的传递路径上。
8.如权利要求1所述的交互式显示设备,其特征在于,还包括投影面以及至少一检测光源,
所述投影面适于显示所述显示画面,
所述至少一检测光源用于发检测光束以检测所述投影面,所述影像撷取装置感测触控物体反射所述检测光束的反射光,所述主机根据所述反射光判断所述触控物体的触控位置。
9.一种交互式显示设备的操控方法,所述交互式显示设备包括一显示装置、一操控装置以及一影像撷取装置,其特征在于,所述操控方法包括下列步骤:
控制所述显示装置以显示一显示画面;
控制所述操控装置发出一第一光束以于所述显示画面上形成一操控指标,所述操控装置包括一遮挡物以及多个功能按键,且所述遮挡物具有多个形状不同的透光区域;
触发所述操控装置的多个功能按键的其中之一而使对应所述功能按键的所述透光区域被切换至所述第一光束的传递路径上,以改变所述操控指标的形状;以及
通过所述影像撷取装置撷取所述影像画面及形成于所述影像画面上的所述操控指标。
10.如权利要求9所述的交互式显示设备的操控方法,其特征在于,还包括下列步骤:
分析具有所述操控指标的所述影像画面而获得一分析结果,并根据所述分析结果控制所述显示装置显示另一显示画面。
11.如权利要求9所述的交互式显示设备的操控方法,其特征在于,所述多个功能按键中的一第一功能按键被触发时,所述多个透光区域中的一第一形状透光区域会切换至所述第一光束的传递路径上,所述多个功能按键中的一第二功能键被触发时,所述多个透光区域中的一第二形状透光区域会切换至所述第一光束的传递路径上。
CN201610963146.5A 2016-11-04 2016-11-04 交互式显示设备 Pending CN108021326A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610963146.5A CN108021326A (zh) 2016-11-04 2016-11-04 交互式显示设备
US15/714,847 US20180129308A1 (en) 2016-11-04 2017-09-25 Interactive display apparatus and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610963146.5A CN108021326A (zh) 2016-11-04 2016-11-04 交互式显示设备

Publications (1)

Publication Number Publication Date
CN108021326A true CN108021326A (zh) 2018-05-11

Family

ID=62063807

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610963146.5A Pending CN108021326A (zh) 2016-11-04 2016-11-04 交互式显示设备

Country Status (2)

Country Link
US (1) US20180129308A1 (zh)
CN (1) CN108021326A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299727A (ja) * 1990-11-02 1992-10-22 Xerox Corp 大型ディスプレイのための位置及び機能入力システム
EP1037163A2 (en) * 1999-03-17 2000-09-20 Canon Kabushiki Kaisha Coordinate input apparatus and method
US20010045940A1 (en) * 1999-07-06 2001-11-29 Hansen Karl C. Computer presentation system and method with optical tracking of wireless pointer
CN101315586A (zh) * 2008-07-21 2008-12-03 贾颖 一种用于交互式电子白板的电子笔及其交互控制方法
CN102073374A (zh) * 2009-11-25 2011-05-25 亚太讯息科技有限公司 一种互动操作输入系统和方法
US20140327656A1 (en) * 2013-05-01 2014-11-06 Funai Electric Co., Ltd. Projector
CN104765233A (zh) * 2015-03-16 2015-07-08 浙江工业大学 一种跟踪屏幕可见光轨迹的投影放映系统
US20150338667A1 (en) * 2012-12-31 2015-11-26 Piqs Technology (Shenzhen) Limited Infrared interactive remote control device and projection system using same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299727A (ja) * 1990-11-02 1992-10-22 Xerox Corp 大型ディスプレイのための位置及び機能入力システム
EP1037163A2 (en) * 1999-03-17 2000-09-20 Canon Kabushiki Kaisha Coordinate input apparatus and method
US20010045940A1 (en) * 1999-07-06 2001-11-29 Hansen Karl C. Computer presentation system and method with optical tracking of wireless pointer
CN101315586A (zh) * 2008-07-21 2008-12-03 贾颖 一种用于交互式电子白板的电子笔及其交互控制方法
CN102073374A (zh) * 2009-11-25 2011-05-25 亚太讯息科技有限公司 一种互动操作输入系统和方法
US20150338667A1 (en) * 2012-12-31 2015-11-26 Piqs Technology (Shenzhen) Limited Infrared interactive remote control device and projection system using same
US20140327656A1 (en) * 2013-05-01 2014-11-06 Funai Electric Co., Ltd. Projector
CN104765233A (zh) * 2015-03-16 2015-07-08 浙江工业大学 一种跟踪屏幕可见光轨迹的投影放映系统

Also Published As

Publication number Publication date
US20180129308A1 (en) 2018-05-10

Similar Documents

Publication Publication Date Title
US10001845B2 (en) 3D silhouette sensing system
US9268413B2 (en) Multi-touch touchscreen incorporating pen tracking
EP2350792B1 (en) Single camera tracker
CN101971123B (zh) 具有可切换漫射体的交互式表面计算机
US8842076B2 (en) Multi-touch touchscreen incorporating pen tracking
TWI450159B (zh) Optical touch device, passive touch system and its input detection method
US20100225588A1 (en) Methods And Systems For Optical Detection Of Gestures
CN102460373A (zh) 表面计算机用户交互
JP4270248B2 (ja) 表示撮像装置、情報入力装置、物体検出プログラムおよび物体の検出方法
WO2010047256A1 (ja) 撮像装置、表示撮像装置および電子機器
CN101776971B (zh) 一种多点触摸屏装置及定位方法
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
TWI224749B (en) Passive touch-sensitive optical marker
JP2017142726A (ja) 電子黒板システム、表示装置及び表示方法
US9201519B2 (en) Three-dimensional pointing using one camera and three aligned lights
US10838504B2 (en) Glass mouse
CN104049747B (zh) 一种用手指直接控制光标的鼠标装置
CN103543825B (zh) 摄像机光标系统
CN108021326A (zh) 交互式显示设备
CN101840291A (zh) 光源式定位系统及其方法
KR102101565B1 (ko) 미디어 안내장치
RU2309454C1 (ru) Устройство управления компьютером
Al Sheikh et al. Design and implementation of an FTIR camera-based multi-touch display
Yi et al. Novel LCDs with IR‐sensitive backlights
Pal et al. Design and implementation of low-cost multi-touch surface computing using image processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180511

WD01 Invention patent application deemed withdrawn after publication