CN109101172B - 多屏联动系统及其互动显示方法 - Google Patents
多屏联动系统及其互动显示方法 Download PDFInfo
- Publication number
- CN109101172B CN109101172B CN201710936183.1A CN201710936183A CN109101172B CN 109101172 B CN109101172 B CN 109101172B CN 201710936183 A CN201710936183 A CN 201710936183A CN 109101172 B CN109101172 B CN 109101172B
- Authority
- CN
- China
- Prior art keywords
- screen
- sub
- image content
- touch input
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 26
- 230000003287 optical effect Effects 0.000 claims abstract description 32
- 230000003993 interaction Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种多屏联动系统及其互动显示方法,所述系统包括光学传感器、处理器和至少两个子屏幕,所述方法包括:所述光学传感器采集用户在第一子屏幕中的触控输入;所述处理器对所述触控输入进行分析,判断所述触控输入是否满足预设条件,若是,则将所述第一子屏幕的图像内容输出供第二子屏幕显示或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。由此,本发明能够实现不同触控屏幕之间的直接交互,可操作性强,而且不像现有技术那样需要多台能够独立运行的计算设备,从而大大降低了成本。
Description
技术领域
本发明涉及界面交互显示技术领域,具体涉及一种多屏联动系统及其互动显示方法。
背景技术
随着科技的飞速发展,多媒体互动技术产业代替了原来复杂、死板的模式。多屏联动是多媒体互动技术的展现,它的出现使得多媒体内容的展示方式更加丰富多彩,已广泛应用于各个领域。
现有的多屏联动技术以两台以上能独立运行的带显示屏幕的系统为硬件,所述带显示屏幕的系统例如为两台电脑,通过其中一台电脑可以控制另一台电脑上的屏幕显示,以此实现一台电脑上的屏幕显示和另一台电脑上的屏幕显示内容的同步或关联显示,但所述显示屏幕之间无法直接交互。
发明内容
有鉴于此,本发明实施例提供一种多屏联动系统及其互动显示方法。
一方面,本发明实施例提供了一种多屏联动系统的互动显示方法,所述多屏联动系统包括光学传感器、处理器和至少两个子屏幕,其特征在于,所述方法包括:
所述光学传感器采集用户在第一子屏幕中的触控输入;
所述处理器对所述触控输入进行分析,判断所述触控输入是否满足预设条件,若是,则所述处理器将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
进一步地,将所述第一子屏幕的图像内容输出供第二子屏幕显示包括:
将所述第一子屏幕的图像内容输出供所述第一子屏幕和第二子屏幕同时显示;或者
将所述第一子屏幕的图像内容输出仅供第二子屏幕显示;
将预设的与所述子屏幕的图像内容相关联的信息输出供第二子屏幕显示包括:
将预设的与所述子屏幕的图像内容相关的信息输出供所述第一子屏幕和第二子屏幕同时显示;或者
将预设的与所述子屏幕的图像内容相关的信息输出仅供第二子屏幕显示。
进一步地,包括:
所述处理器识别所述触控输入的触控轨迹;
将所述触控轨迹与预设触控轨迹进行比较,判断所述触控轨迹是否与所述预设触控轨迹匹配,若是,则判断所述触控轨迹满足预设条件;
将所述第一子屏幕中的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的图像信息输出供第二子屏幕显示。
进一步地,包括:
所述处理器获取所述触控输入的起始点坐标和终止点坐标,并记录所述起始点到所述终止点的时间;
根据所述起始点坐标、终止点坐标和时间,确定所述触控输入的速度、方向和距离;
判断所述速度、方向和距离是否在预设阈值范围内,若是,则判断所述触控输入满足预设条件;
将所述第一子屏幕中的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
将第一子屏幕的图像内容或者将预设的与第一子屏幕的图像内容相关联的信息输出到对应触控输入方向的第二子屏幕上显示。
第二方面,本发明实施例提供了一种多屏联动系统,所述系统包括:光学传感器、处理器和至少两个子屏幕,其中,
所述至少两个子屏幕用于显示图像内容;
所述光学传感器用于采集用户在第一子屏幕中的触控输入;
所述处理器用于对所述触控输入进行分析,判断所述触控输入是否满足预设条件,若是,则所述处理器将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
进一步地,所述处理器包括:
识别单元,用于识别所述触控输入的触控轨迹;
匹配单元,用于将所述触控轨迹与预设触控轨迹进行比较,判断所述触控轨迹是否与所述预设触控轨迹匹配,若是,则判断所述触控轨迹满足预设条件;
执行单元,用于将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
进一步地,所述处理器包括:
记录单元,用于获取所述触控输入的起始点坐标和终止点坐标,并记录所述起始点到所述终止点的时间;
计算单元,用于根据所述起始点坐标、终止点坐标和时间,确定所述触控输入的速度、方向和距离;
判断单元,用于判断所述速度、方向和距离是否在预设阈值范围内,若是,则判断所述触控输入满足预设条件;
第二执行单元,用于将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
进一步地,所述至少两个子屏幕表面布置有红外光幕,所述光学传感器为红外摄像头。
进一步地,所述系统还包括多屏拼接处理器,用于当触控输入满足预设条件时,将所述第一子屏幕的图像内容或预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示,或者将所述第一子屏幕的图像内容或预设的与所述第一子屏幕的图像内容相关联的信息输出供所述第一子屏幕和第二子屏幕共同显示。
本发明实施例提供的多屏联动系统及其互动显示方法,通过采集用户在第一子屏幕中的触控输入,并分析判断所述触控输入是否满足预设条件,当满足预设条件时,将第一子屏幕的图像内容输出供第二子屏幕显示或预设的与所述第一子屏幕的图像内容相关联的信息。由此能够实现不同触控屏幕之间的直接交互,可操作性强,而且不像现有技术那样需要多台能够独立运行的计算设备,从而大大降低了成本。
附图说明
图1是本发明一个实施例提出的多屏联动系统的互动显示方法的流程示意图。
图2是本发明另一个实施例提供的多屏联动系统的互动显示方法的流程示意图。
图3是本发明又一个实施例提供的多屏联动系统的互动显示方法的流程示意图。
图4是本发明又一个实施例提供的多屏联动系统的结构示意图。
图5是本发明另一些实施例提供的处理器的结构示意图。
图6是本发明另一些实施例提供的处理器的结构示意图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。应当理解,此处描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
请参照图1,图1是本发明一个实施例提出的多屏联动系统的互动显示方法的流程示意图,所述多屏联动系统包括光学传感器、处理器和至少两个子屏幕,所述方法包括:
S11:所述光学传感器采集用户在第一子屏幕中的触控输入。
所述第一子屏幕可以是红外线式(红外边框式或红外光幕式)等触控屏幕,用户输入可以通过光学传感器被捕获。
对于红外光幕式屏幕,红外光幕可以通过屏幕上方的红外激光器阵列而形成于屏幕表面,当通过手指等作用于布置有红外光幕的屏幕时,通过红外摄像头捕获用户在第一子屏幕中的触控输入。例如,当在第一子屏幕上进行触控时,触控点处的红外光幕的光分布将因触控行为而发生变化,例如触控点处的部分红外光被触控手指反射离开屏幕或因触控手指的作用透射穿过屏幕,红外摄像头拍摄触控点在内的红外图像,捕获用户的触控输入。此外,例如还可以通过使用户带上红外光发射手套,当带有手套并且手套能在触控时发射红外光的手指触控屏幕时,红外摄像头拍摄手指在屏幕上的操作或触控点,由此获取用户在第一子屏幕中的触控输入。屏幕可以是多种类型的,例如,LCD、LED和DLP等显示屏幕或投影屏幕,其材质并不做限定。
S12:所述处理器对所述触控输入进行分析,判断所述触控输入是否满足预设条件,若是,则执行步骤S13,将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
在本步骤中,光学传感器将用户在第一子屏幕中的触控输入采集并转化为电信号以后发送至处理器,处理器对所述电信号进行分析后能够获得用户的触控输入坐标,根据触控输入坐标能够获得用户的触控轨迹,判断用户的触控轨迹是否与预设触控轨迹相匹配,若匹配,则判断用户的触控输入满足预设条件。
或者,处理器可以根据触控输入的坐标判断触控输入的速度、方向和移动距离是否在预设阈值范围内,若满足,则判断用户的触控输入满足预设条件。
S13:将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
在本步骤中,当处理器判断用户在第一子屏幕上的触控输入满足预设条件时,将第一子屏幕的图像内容发送至第二子屏幕,使第二子屏幕能够显示第一子屏幕的图像内容,此时,第一子屏幕可根据用户需要显示图像内容。
将所述第一子屏幕的图像内容输出供第二子屏幕显示,一种可能的实施方式是,处理器将第一子屏幕的内容发送至多屏拼接处理器,由多屏拼接处理器将第一子屏幕的图像内容发送至第二子屏幕显示,或者由多屏拼接处理器将第一子屏幕的图像内容发送至第一子屏幕和第二子屏幕同时显示。此处,所述多屏拼接处理器的功能可以集成在处理器中,也可以与所述处理器单独设置。
在本步骤中,当处理器判断用户的触控输入满足预设条件时,可以将预先存储的与第一子屏幕中的图像内容相关联的信息输出供第二子屏幕显示,或者供第一子屏幕和第二子屏幕显示。其中,所述预设的与第一子屏幕中的图像内容相关联的信息可以为文字、表格、图片、视频或网页链接等。例如:第一子屏幕显示的图像内容是二维地图,与之相关联的内容是三维地图,则当用户的触控输入满足预设条件时,将三维地图的图像内容显示在第二子屏幕上。
利用本发明实施例提供的多屏联动系统的互动显示方法时,能够实现多屏联动系统中不同触控屏幕之间的直接交互,可操作性强,而且不像现有技术那样需要多台能够独立运行的计算设备,从而大大降低了成本。
请参照图2,图2是本发明另一个实施例提供的多屏联动系统的互动显示方法的流程示意图。具体地,所述系统包括光学传感器、处理器和至少两个子屏幕,该方法包括:
S21:所述光学传感器采集用户在第一子屏幕中的触控输入。
S22:所述处理器识别所述触控输入中的触控轨迹。
以手指在红外光幕式触控屏上进行触控为例,红外摄像头捕获用户的触控输入,例如捕获每帧触控图像,分析每帧触控图像中触点的位置,从而识别出触控输入的触控轨迹。
S23:将所述触控轨迹与预设触控轨迹进行比较,判断所述触控轨迹是否与预设触控轨迹匹配,若是,则判断所述触控输入满足预设条件,执行步骤S24,将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示,若否,则结束操作。
在本步骤中,用户可以对预设触控轨迹进行自定义设置,例如:当开启触控轨迹设置页面后,用户能够新建并自定义触控轨迹。即用户能够自定义预设触控轨迹以及预设触控轨迹对应的触控操作。接着,将预设触控轨迹存储,并将预设触控轨迹和触控操作关联后存储。
将输入的触控轨迹与预先存储的触控轨迹进行比较,若输入的触控轨迹与预设触控轨迹相匹配,根据预设触控轨迹和触控操作之间的映射关系得到预设触控轨迹对应的触控操作,并执行该触控操作,例如将第一子屏幕的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示;若判断输入的触控轨迹与预设触控轨迹不匹配,则说明输入的触控轨迹是无效的,结束操作。
S24:将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
步骤S24可参照上述实施例中的步骤S13进行理解,此处不再赘述。
下面举例来说明本发明实施例提供的多屏联动系统的互动显示方法的工作过程:
例如:当有手势W(或其他事先拟定的手势)被一个光学传感器(例如红外摄像头)捕获时,光学传感器将采集到的触控输入信息发送给处理器,处理器接着对该电信号进行分析识别,将识别出的手势与预先存储的触控轨迹W匹配,若匹配,则获取预先存储的触控轨迹W对应的触控操作,根据该触控操作将第一子屏幕上的图像内容显示在第二子屏幕上,或者将预设的与所述第一子屏幕的图像内容相关联的信息显示在第二子屏幕上。
利用本发明实施例提供的多屏联动的互动显示方法,能够通过在屏幕上直接进行操作实现在第一子屏幕和第二子屏幕中同时显示图像内容,或者仅在第二子屏幕中显示图像内容,实现了不同触控屏幕之间的直接交互,可操作性强,而且不像现有技术那样需要多台能够独立运行的计算设备,从而大大降低了成本。
请参照图3,图3是本发明又一个实施例提供的多屏联动系统的互动显示方法的流程示意图。具体地,所述系统包括光学传感器、处理器和至少两个子屏幕,该方法包括:
S31:所述光学传感器采集用户在第一子屏幕中的触控输入。
S32:所述处理器获取所述触控输入的起始点坐标和终止点坐标,并记录所述起始点到所述终止点的时间,根据所述起始点坐标、终止点坐标和时间,确定所述触控输入的速度、方向和距离。
在本步骤中,用户在第一子屏幕上进行触控输入时,光学传感器能够采集用户在第一子屏幕上进行触控输入时的每一帧图像,将所述每一帧图像转化为电信号后发送至处理器,处理器根据所述电信号能够获得触控输入的起始点E的坐标(X1,Y1)和终止点F的坐标(X2,Y2),并记录起始点E到终止点F的时间t。处理器根据起始点E的坐标(X1,Y1)和终止点F的坐标(X2,Y2)能够确定起始点E到终止点F之间的距离,结合时间t能够确定用户触控输入的速度,同时根据起始点E和终止点F的坐标能够确定触控输入的斜率,即触控输入的方向。
S34:判断所述速度、方向和距离是否在预设阈值范围内,若是,则执行步骤S35,若否,则结束操作。
当触控输入的速度、方向和距离在预设阈值范围内时,判断用户的触控输入符合要求。
S35:将所述第一子屏幕中的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
步骤S35可参照上述实施例中的步骤S13进行理解,此处不再赘述。
在本实施例中,在将第一子屏幕的图像内容或预设的与第一子屏幕的图像内容相关的信息(以下简称预设相关信息)输出供第二子屏幕显示时,可以根据触控输入的方向决定将第一子屏幕的图像内容或预设相关信息输出到对应移动方向的第二子屏幕上显示。此处可以预先在处理器内存储触控输入的方向对应的控制信息。例如:假设第一子屏幕的左上角为坐标原点,取向右方向为X轴的正方向,向左方向为X轴的负方向,向上方向为Y轴的正方向,向下方向为Y轴的负方向,触控输入的移动方向相对于X轴的斜率为K,则当0°<K≤45°时,表示手指向上滑动,将第一子屏幕中的图像内容或预设相关信息显示到位于第一子屏幕上方的第二子屏幕中;当45°<K<135°时,表示手指向左滑动,将第一子屏幕中的图像内容或预设相关信息显示到位于第一子屏幕左边的第二子屏幕中;当135°≤K<225°时,表示手指向下滑动,将第一子屏幕中的图像内容或预设相关信息显示到位于第一子屏幕下方的第二子屏幕中;当225°≤K<315°时,表示手指向右滑动,将第一子屏幕中的图像内容或预设相关信息显示到位于第一子屏幕右边的第二子屏幕中。
需要说明的是,上述描述仅是示例性的说明了根据所述触控输入的方向,将第一子屏幕上的图像内容或预设相关信息显示在对应触控输入的方向的第二子屏幕上。在实际应用中,可自定义设置第一子屏幕中的图像内容或预设相关信息显示在哪个方向的第二子屏幕上。
在本发明另一些实施例中,还可以根据触控输入的起始点和终止点的横坐标的移动方向ΔX,或者根据触控输入的起始点和终止点的纵坐标的移动方向ΔY来决定将第一子屏幕的图像内容或预设相关信息输出供哪个方向的第二子屏幕进行显示。例如:当ΔX>0时,表示手指向右滑动,将第一子屏幕上的图像内容或预设相关信息显示在第一子屏幕右边的第二子屏幕上;当ΔX<0时,表示手指向左滑动,将第一子屏幕上的图像内容或预设相关信息显示在第一子屏幕左边的第二子屏幕上;当ΔY>0时,表示手指向上滑动,将第一子屏幕上的图像内容或预设相关信息显示在第一子屏幕上边的第二子屏幕上;当ΔY<0时,表示手指向下滑动,将第一子屏幕上的图像内容或预设相关信息显示在第一子屏幕下边的第二子屏幕上。
利用本发明实施例提供的多屏联动的互动显示方法,能够通过在屏幕上直接操作实现在第一子屏幕和第二子屏幕中同时显示图像内容,或者仅在第二子屏幕中显示图像内容,实现了不同触控屏幕之间的直接交互,可操作性强,而且不像现有技术那样需要多台能够独立运行的计算设备,从而大大降低了成本。
为了更好的理解本发明一个实施例提供的多屏联动系统的互动显示方法,本发明另一实施例还提供了多屏联动系统。其中,名词的含义与上述多屏联动系统的互动显示方法相同,具体实现细节可以参考方法实施例中的说明。
请参照图4,图4是本发明又一个实施例提供的多屏联动系统的结构示意图,具体地,所述系统包括光学传感器、处理器和至少两个子屏幕。
第一子屏幕m1和第二子屏幕m2、红外激光器a1和a2、光学传感器b1和b2、处理器c。其中,第一子屏幕m1和第二子屏幕m2可以通过多屏拼接处理器拼接在一起,但可以在空间上分开安置,用于显示图像;红外激光器a1和a2用于形成平行于第一子屏幕m1和第二子屏幕m2的光幕,红外激光器的数目可以与子屏幕的数目相同为2个,2个红外激光器a1和a2分别设置于第一子屏幕m1和第二子屏幕m2的上方;光学传感器b1和b2用于采集用户在第一子屏幕m1上的触控输入,第一子屏幕m1和第二子屏幕m2位于红外摄像头b1和b2的视角范围内,可以将红外摄像头的数目设置为与子屏幕的数目相同,为2个。红外激光器a1和a2开启时,形成平行于第一子屏幕m1和第二子屏幕m2的表面并且厚度均匀的激光面。当用户在第一子屏幕m1上进行触摸时,实际上是在第一子屏幕m1上形成了手指触点的光信号,然后,光学传感器b1拍摄第一子屏幕m1上的触控输入的图像,之后光学传感器b1将该图像信息发送至处理器c。处理器c对接收到的图像信息进行分析,判断触控输入是否满足预设条件,如果满足预设条件,则将第一子屏幕m1的图像内容或预设相关信息发送至第二子屏幕m2进行显示。或者处理器将第一子屏幕m1的图像内容或预设相关信息发送至多屏拼接处理器,由多屏拼接处理器将第一子屏幕m1的图像内容或预设相关信息发送至第二子屏幕m2进行显示。还可以使得第一子屏幕m1和第二子屏幕m2同时显示图像内容。其中,多屏拼接处理器可以集成在处理器c中,也可以与处理器c分别独立设置。所述光学传感器b1和b2可以为红外摄像头。
在本发明另一些实施例中,如图5所示,图5是本发明另一些实施例提供的处理器的结构示意图。处理器c可包括:识别单元41、匹配单元42和第一执行单元43。其中,
所述识别单元41用于识别所述触控输入的触控轨迹;所述匹配单元42用于将所述触控轨迹与预设触控轨迹进行比较,判断所述触控轨迹是否与所述预设触控轨迹匹配,若是,则判断所述触控轨迹满足预设条件;所述第一执行单元43,用于当所述触控轨迹满足预设条件时,将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
在本发明另一些实施例中,如图6所示,图6是本发明另一些实施例提供的处理器的结构示意图。处理器c可包括:记录单元51、计算单元52、判断单元53和第二执行单元54。其中,
记录单元51用于获取所述触控输入的起始点坐标和终止点坐标,并记录所述起始点到所述终止点的时间;计算单元52用于根据所述起始点坐标、终止点坐标和时间,确定所述触控输入的速度、方向和距离;判断单元53用于当所述速度、方向和距离在预设阈值范围内时判断所述触控输入满足预设条件;第二执行单元54用于当所述触控输入满足预设条件时,将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
根据本发明又一个实施例的多屏联动系统可对应于根据本发明一个实施例的多屏联动系统的互动显示方法中的执行主体,并且多屏联动系统中的各个模块的上述和其它操作或功能分别为了实现图1中的各个方法的相应流程,为了简洁,在此不再赘述。
利用本发明实施例提供的多屏联动系统,能够通过用户直接在屏幕上进行操作,实现将第一子屏幕的图像内容或预设相关信息输出供第二子屏幕显示,或者同时在第一子屏幕和第二子屏幕中显示图像内容,实现了不同触控屏幕之间的直接交互,可操作性强,而且不像现有技术那样需要多台能够独立运行的计算设备,从而大大降低了成本。
上述示例可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种多屏联动系统的互动显示方法,所述多屏联动系统包括光学传感器、处理器和至少两个子屏幕,其特征在于,所述方法包括:
获取光学传感器采集的触控输入,确定所述触控输入位于第一子屏幕中;
所述处理器对所述触控输入进行分析,响应于所述触控输入满足预设条件所述处理器获取所述触控输入位于的所述第一子屏幕的图像内容,将所述图像内容输出至第二子屏幕,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出至第二子屏幕。
2.根据权利要求1所述的多屏联动系统的互动显示方法,其特征在于,将所述第一子屏幕的图像内容输出供第二子屏幕显示包括:
将所述第一子屏幕的图像内容输出供所述第一子屏幕和第二子屏幕同时显示;或者
将所述第一子屏幕的图像内容输出仅供第二子屏幕显示;
将预设的与所述子屏幕的图像内容相关联的信息输出供第二子屏幕显示包括:
将预设的与所述子屏幕的图像内容相关联的信息输出供所述第一子屏幕和第二子屏幕同时显示;或者
将预设的与所述子屏幕的图像内容相关联的信息输出仅供第二子屏幕显示。
3.根据权利要求1或2所述的多屏联动系统的互动显示方法,其特征在于,包括:
所述处理器识别所述触控输入的触控轨迹;
将所述触控轨迹与预设触控轨迹进行比较,判断所述触控轨迹是否与所述预设触控轨迹匹配,若是,则判断所述触控轨迹满足预设条件;
将所述第一子屏幕中的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
4.根据权利要求1或2所述的多屏联动系统的互动显示方法,其特征在于,包括:
所述处理器获取所述触控输入的起始点坐标和终止点坐标,并记录所述起始点到所述终止点的时间;
根据所述起始点坐标、终止点坐标和时间,确定所述触控输入的速度、方向和距离;
判断所述速度、方向和距离是否在预设阈值范围内,若是,则判断所述触控输入满足预设条件;
将所述第一子屏幕中的图像内容输出供第二子屏幕显示,或者将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
5.根据权利要求4所述的多屏联动系统的互动显示方法,其特征在于,将第一子屏幕的图像内容或者将预设的与第一子屏幕的图像内容相关联的信息输出到对应触控输入方向的第二子屏幕上显示。
6.一种多屏联动系统,其特征在于,所述多屏联动系统包括:光学传感器、处理器和至少两个子屏幕,其中,
所述至少两个子屏幕用于显示图像内容;
所述光学传感器用于采集用户在第一子屏幕中的触控输入;
所述处理器用于获取光学传感器采集的触控输入,确定所述触控输入位于第一子屏幕中,对所述触控输入进行分析,响应于所述触控输入满足预设条件,所述处理器将获取所述触控输入位于的所述第一子屏幕的图像内容,将所述图像内容输出至第二子屏幕,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出至第二子屏幕显示。
7.根据权利要求6所述的多屏联动系统,其特征在于,所述处理器包括:
识别单元,用于识别所述触控输入的触控轨迹;
匹配单元,用于将所述触控轨迹与预设触控轨迹进行比较,判断所述触控轨迹是否与所述预设触控轨迹匹配,若是,则判断所述触控轨迹满足预设条件;
第一执行单元,用于当所述触控轨迹满足预设条件时,将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
8.根据权利要求6所述的多屏联动系统,其特征在于,所述处理器包括:
记录单元,用于获取所述触控输入的起始点坐标和终止点坐标,并记录所述起始点到所述终止点的时间;
计算单元,用于根据所述起始点坐标、终止点坐标和时间,确定所述触控输入的速度、方向和距离;
判断单元,用于判断所述速度、方向和距离是否在预设阈值范围内,若是,则判断所述触控输入满足预设条件;
第二执行单元,用于将所述第一子屏幕的图像内容输出供第二子屏幕显示,或者所述处理器将预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示。
9.根据权利要求6所述的多屏联动系统,其特征在于,所述至少两个子屏幕表面布置有红外光幕,所述光学传感器为红外摄像头。
10.根据权利要求6-9任意一项所述的多屏联动系统,其特征在于,所述系统还包括多屏拼接处理器,用于当所述触控输入满足预设条件时,将所述第一子屏幕的图像内容或预设的与所述第一子屏幕的图像内容相关联的信息输出供第二子屏幕显示,或者将所述第一子屏幕的图像内容或预设的与所述第一子屏幕的图像内容相关联的信息输出供所述第一子屏幕和第二子屏幕共同显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710936183.1A CN109101172B (zh) | 2017-10-10 | 2017-10-10 | 多屏联动系统及其互动显示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710936183.1A CN109101172B (zh) | 2017-10-10 | 2017-10-10 | 多屏联动系统及其互动显示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109101172A CN109101172A (zh) | 2018-12-28 |
CN109101172B true CN109101172B (zh) | 2021-07-09 |
Family
ID=64796471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710936183.1A Active CN109101172B (zh) | 2017-10-10 | 2017-10-10 | 多屏联动系统及其互动显示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109101172B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109901779B (zh) * | 2019-02-03 | 2021-03-19 | 联想(北京)有限公司 | 显示方法和电子设备 |
CN109992193B (zh) * | 2019-03-29 | 2022-04-12 | 佛吉亚歌乐电子(丰城)有限公司 | 一种车内触控屏飞屏互动方法 |
CN110928614B (zh) * | 2019-10-11 | 2021-06-29 | 广州视源电子科技股份有限公司 | 界面显示方法、装置、设备及存储介质 |
CN110989954B (zh) * | 2019-11-28 | 2024-03-01 | 北京猎户星空科技有限公司 | 一种多屏联动的资源展示方法、装置及电子设备 |
CN111078117B (zh) * | 2020-03-24 | 2020-07-21 | 杭州赛鲁班网络科技有限公司 | 一种基于多屏互动的课件系统 |
CN113407136A (zh) * | 2021-06-24 | 2021-09-17 | 博锐尚格科技股份有限公司 | 集成监控系统和基于集成监控系统的多屏交互方法 |
CN114356271B (zh) * | 2022-01-11 | 2023-02-07 | 中国测绘科学研究院 | 一种地下空间多维灾情信息多屏联动可视化方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11345042A (ja) * | 1998-06-03 | 1999-12-14 | Matsushita Electric Ind Co Ltd | 携帯情報端末 |
CN103076925A (zh) * | 2011-10-26 | 2013-05-01 | 原相科技股份有限公司 | 光学触控系统、光学感测模块及其运作方法 |
JP2014157562A (ja) * | 2013-02-18 | 2014-08-28 | Oki Electric Ind Co Ltd | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
CN104065988A (zh) * | 2013-03-18 | 2014-09-24 | 珠海扬智电子科技有限公司 | 多屏互动控制方法及其多屏互动系统 |
CN104545997A (zh) * | 2014-11-25 | 2015-04-29 | 深圳市理邦精密仪器股份有限公司 | 一种超声设备的多屏互动操作方法和系统 |
CN104881265A (zh) * | 2015-06-03 | 2015-09-02 | 上海华豚科技有限公司 | 可实现图像记录的双屏幕设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128708A (ja) * | 2003-10-22 | 2005-05-19 | Denso Corp | 入力処理システム |
US9134799B2 (en) * | 2010-07-16 | 2015-09-15 | Qualcomm Incorporated | Interacting with a projected user interface using orientation sensors |
CN105847952A (zh) * | 2016-03-29 | 2016-08-10 | 乐视控股(北京)有限公司 | 多屏联动控制方法及装置 |
-
2017
- 2017-10-10 CN CN201710936183.1A patent/CN109101172B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11345042A (ja) * | 1998-06-03 | 1999-12-14 | Matsushita Electric Ind Co Ltd | 携帯情報端末 |
CN103076925A (zh) * | 2011-10-26 | 2013-05-01 | 原相科技股份有限公司 | 光学触控系统、光学感测模块及其运作方法 |
JP2014157562A (ja) * | 2013-02-18 | 2014-08-28 | Oki Electric Ind Co Ltd | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
CN104065988A (zh) * | 2013-03-18 | 2014-09-24 | 珠海扬智电子科技有限公司 | 多屏互动控制方法及其多屏互动系统 |
CN104545997A (zh) * | 2014-11-25 | 2015-04-29 | 深圳市理邦精密仪器股份有限公司 | 一种超声设备的多屏互动操作方法和系统 |
CN104881265A (zh) * | 2015-06-03 | 2015-09-02 | 上海华豚科技有限公司 | 可实现图像记录的双屏幕设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109101172A (zh) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109101172B (zh) | 多屏联动系统及其互动显示方法 | |
US10614120B2 (en) | Information search method and device and computer readable recording medium thereof | |
US9588673B2 (en) | Method for manipulating a graphical object and an interactive input system employing the same | |
US9880721B2 (en) | Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method | |
CN109697043B (zh) | 多屏互动显示方法、装置、系统及计算机可读存储介质 | |
KR101669079B1 (ko) | 표시제어장치 및 그 제어 방법 | |
WO2015159602A1 (ja) | 情報提供装置 | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
US20130257813A1 (en) | Projection system and automatic calibration method thereof | |
US10031667B2 (en) | Terminal device, display control method, and non-transitory computer-readable recording medium | |
US10817054B2 (en) | Eye watch point tracking via binocular and stereo images | |
US20170212906A1 (en) | Interacting with user interfacr elements representing files | |
JP7043601B2 (ja) | 環境モデルを生成するための方法および装置ならびに記憶媒体 | |
CN109101173B (zh) | 屏幕布局控制方法、装置、设备及计算机可读存储介质 | |
US20150261385A1 (en) | Picture signal output apparatus, picture signal output method, program, and display system | |
US20140247209A1 (en) | Method, system, and apparatus for image projection | |
CN108369486B (zh) | 通用涂墨支持 | |
KR101257871B1 (ko) | 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법 | |
CN110100224B (zh) | 显示装置及其控制方法 | |
JP2016181835A (ja) | 再生制御装置、再生制御方法 | |
US20130201095A1 (en) | Presentation techniques | |
US8493362B2 (en) | Image-based coordinate input apparatus and method utilizing buffered images | |
TWI408488B (zh) | 互動式投影系統及其系統控制方法 | |
US10175825B2 (en) | Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image | |
US11675496B2 (en) | Apparatus, display system, and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |