CN102799375B - 一种超大幅面显示触点融合交互系统的图像处理方法 - Google Patents

一种超大幅面显示触点融合交互系统的图像处理方法 Download PDF

Info

Publication number
CN102799375B
CN102799375B CN201210231546.9A CN201210231546A CN102799375B CN 102799375 B CN102799375 B CN 102799375B CN 201210231546 A CN201210231546 A CN 201210231546A CN 102799375 B CN102799375 B CN 102799375B
Authority
CN
China
Prior art keywords
display screen
image
contact
fusion
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210231546.9A
Other languages
English (en)
Other versions
CN102799375A (zh
Inventor
朱立新
周光霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN201210231546.9A priority Critical patent/CN102799375B/zh
Publication of CN102799375A publication Critical patent/CN102799375A/zh
Application granted granted Critical
Publication of CN102799375B publication Critical patent/CN102799375B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种超大幅面显示触点融合交互系统的图像处理方法,所述超大幅面显示触点融合交互系统包括多块显示屏组成的超大幅面显示屏,单块显示屏背面设有两台摄像机跟踪拍摄图像,而所述摄像机连接有处理图像的交互主机,该交互主机包括触点融合模块、触点提取模块和交互控制模块。本发明对两台摄像机的图像进行融合处理,提高了显示屏边缘或顶角位置的定位精度,并具有快速的处理响应速度;同时采用模块化设计,提高大幅面、高分辨率显示系统的扩展性应用需求。

Description

一种超大幅面显示触点融合交互系统的图像处理方法
技术领域
本发明属于摄像机图像处理技术,尤其涉及多块显示屏组成的超大幅面显示屏的触点融合交互系统的图像处理方法。
背景技术
随着战场监视、侦察技术的发展,军事指挥应用中能够获取大量情报信息,形成全局的战场态势。为了有效组织和使用这些数据,一般需要采用大幅面、高分辨率的显示系统来实现对各种战场数据的综合显示,提高了指挥员对战争全过程的感知能力。超大幅面显示系统主要是指显示面积大于200英寸,分辨率大于2056×2056dpi的显示设备,这类设备由于尺寸大、分辨率高,一般采取多个小尺寸显示单元拼接而成。目前这类设备普遍不支持在屏幕表面上对显示内容进行直接交互,而采用专业人员辅助操作的方式。超大幅面显示系统融合交互方法是针对这类设备提出的一种交互设备设计方法。
美国空军研究实验室开发的交互式数据墙系统(1.Peter A.Jedrysik,Jason Moore,et al Interactive Displays for Command and Control.In Proceedings of IEEE Aerospace Conference,2000,Vol.2:341-351)是一种大尺寸、高分辨率的公共战术图像显示系统。支持用户直接在显示器表面上利用激光笔进行交互,也支持用户在一定距离内(2米左右)利用激光笔进行指示交互。我国清华大学的史元春教授等(2.Xiaojun Bi,Yuanchun Shi,et al uPen:Laser-based,Personalized,Multi-User Interaction on Large Display.In Proceedings of ACM Multimedia,2005,pages:1049-1050.)在激光笔基础上通过增加功能按键,实现了一种能够模拟鼠标交互功能的交互设备。但以上系统还存在两个方面的不足,具体表现为:①用于激光交互点跟踪的摄像机数量一般安装在显示单元的中间位置,在边缘、顶角等位置上的交互精度较低;②受限于摄像机的图像采集分辨率,在大幅面、高分辨率显示系统应用中交互精度较低。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种超大幅面显示触点融合交互系统的图像处理方法。
技术方案:为实现上述目的,本发明采用以下技术方案:一种超大幅面显示触点融合交互系统的图像处理方法,所述超大幅面显示触点融合交互系统包括多块显示屏组成的超大幅面显示屏,单块显示屏背面设有两台摄像机跟踪拍摄图像,而所述摄像机连接有处理图像的交互主机,该交互主机包括触点融合模块、触点提取模块和交互控制模块,所述触点融合模 块,将同一显示屏对应的两台摄像机采集的图像进行融合统一;所述触点提取模块,提取单块显示屏图像中交互触点的坐标数据,并将包括交互触点坐标数据在内的图像数据其转换成与显示屏适配的图像数据;所述交互控制模块,将上述单块显示屏图像坐标系下的图像数据转换到整块超大幅面显示屏的坐标系下。
作为优选,该系统安装后需要确认触点融合模块中的融合参数,该确认方法包括以下步骤:(1)单块显示屏对应的两台摄像机的融合参数的设定,假设两台摄像机分别采集的图像数据之间的融合参数仅包括缩放和位移参数如下:
T = α x β x γ x α y β y γ y 0 0 1
其中,T表示摄像机图像融合参数,αx、βx表示X轴的缩放变换参数,γx表示X轴的位移参数;αy、βy表示Y轴的缩放变换参数,γy表示Y轴的位移参数;(2)单块显示屏对应的两台摄像机的融合参数的计算,选取两幅图像中各3个特征点的坐标值,并分别设定为(X1,Y1)、(X2,Y2)、(X3,Y3)和(x1,y1)、(x2,y2)、(x3,y3),并在此基础上构建方程组,计算公式如式(1):
α x = ( X 1 - X 2 ) ( y 2 - y 3 ) - ( X 2 - X 3 ) ( y 1 - y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) β x = ( x 1 - x 2 ) ( X 2 - X 3 ) - ( x 2 - x 3 ) ( X 1 - X 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) α y = ( Y 1 - Y 2 ) ( y 2 - y 3 ) - ( Y 2 - Y 3 ) ( y 1 - y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) β y = ( x 1 - x 2 ) ( Y 2 - Y 3 ) - ( x 2 - x 3 ) ( Y 1 - Y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) γ x = X 1 - α x x 1 - β x y 1 γ y = Y 1 - α y x 1 - β y y 1 - - - ( 1 )
将计算得到的融合参数存储到交互主机中的触点融合模块中。
进一步的,所述触点融合模块的融合方法是采用线性加权融合方法,它包括以下步骤:(1)每台摄像机采集图像均分配双缓存M1和M2,采集图像灰阶为256,采用8bit存储一位数字化像素,从而进行数字化图像的采集,并存储到缓存M1和M2中;(2)首先向缓存M1中读入视频图像数据,当一帧图像写入完毕,通过回调函数调用触点融合算法,实现对从两个 数字摄像机读取的图像I1和I2进行融合,与此同时,继续向缓存M2中读入图像数据,从而实现交替连续的读写和处理;其中,所述触点融合算法采用线性加权融合方法,即将单块显示屏均分为4个区域,分别是左上部A1、右上部A2、右下部A3和左下部A4,各个区域的融合算法如下:
A1=0.7×TI1+0.3I2
A2=0.5×TI1+0.5I2
A3=0.3×TI1+0.7I2
A4=0.5×TI1+0.5I2
(3)所述触点融合算法时间低于33ms。
作为优选,所述触点提取模块,用于提取交互激光笔投射在显示屏上触点的坐标,其方法包括以下步骤:(1)先求取从融合图像中分割交互触点的阈值Tdiff,亮度大于Tdiff的为交互触点区域,亮度小于Tdiff的为背景区域,其中Tdiff的确认方法如下:先拍摄10幅不同交互触点位置的图像,并人工判定交互触点位置;然后围绕交互触点中心截取31×31像素大小的区域,分别设为Ici,i=1,2,…,10,求取平均图像 接着求取图像Ic中值最大的10%像素点的平均值avgH(Ic)和Ic中值最小的10%像素点的均值avgL(Ic),计算Tdiff=(avgH(Ic)+avgL(Ic))2;
(2)求取交互触点区域的中心坐标(Xc,Yc),其计算公式如式(2):
X c = Σ i = 1 n X i n , Y c = Σ i = 1 n Y i n - - - ( 2 )
式(2)中,(Xi,Yi)表示连通的交互触点区域中扫描到的第i个点的坐标,n表示连通的交互触点区域的像素数量;(3)将步骤(2)中得到的交互触点区域的中心坐标作为交互触点坐标,并其转换到单个显示屏的坐标轴下。
作为优选,所述交互控制模块,是将单块显示屏坐标系下的交互触点坐标转换到整个超大幅面显示屏的坐标系下;假设每个显示屏的显示分辨率为(W×H),坐标转换公式如下:
(XS,YS)=(XI,YI),(XI,YI)∈左屏幕;
(XS,YS)=(XI+W,YI),(XI,YI)∈中屏幕;
(XS,YS)=(XI+2W,YI),(XI,YI)∈右屏幕。
有益效果:相对于现有技术,本发明具有以下优点:对两台摄像机的图像进行融合处理,提高了显示屏边缘或顶角位置的定位精度,并具有快速的处理响应速度;同时采用模块化设计,提高大幅面、高分辨率显示系统的扩展性应用需求。
附图说明
图1为本发明的结构示意图;
图2为本发明所述摄像机安放位置示意图;
图3为本发明用于计算融合参数的特征模板;
图4为本发明图像采集与融合处理的时隙关系图;
图5为本发明交互触点提取板块示例图;
图6为本发明用于计算坐标转换参数的特征模板;
图7为本发明交互坐标转换示例图。
其中,显示屏1、摄像机2、交互主机3
具体实施方式
下面结合附图对本发明作更进一步的说明。
一种超大幅面显示触点融合交互系统,由硬件和软件两部分组成,其组成结构如图1所示,包括交互触点数据采集和交互触点数据处理两部分。其中硬件部分包括连接有投影主机的投影仪、多块显示屏、连接有交互主机的摄像机和交互激光笔,所述显示屏为涂覆有反射膜的玻璃平板,多块这样的显示屏拼接成超大幅面显示屏,投影仪将画面投影到该显示屏上。为了能够实现交互控制,在单块显示屏的背面各安装两台摄像机,且摄像机与交互主机连接控制,此时利用能发射532nm波长红外射线的交互激光笔在显示屏上投射高亮度的光点,此光点就是交互触点,此时在每块显示屏的背面设置两台摄像机,该两台摄像机放置的位置与其对应的显示屏左上部和右下部分别对应,且为距显示屏中心1/4的位置,这两台摄像机同时对投射到该显示屏上的交互触点进行跟踪和采集,并将采集的数据传输给交互主机处理后,反馈到与投影仪连接的投影主机上,由投影仪将处理的图像数据反馈到显示屏上,从而完成触点融合交互控制。在此过程中,主要是利用两台摄像机同时跟踪高强光亮的激光点即交互触点,通过交互主机将交互触点的进行融合处理后,反馈回投影主机,从而实现超大幅面显示初定融合交互控制。而交互主机对图像处理方法分以下几个部分:
第一部分:摄像机图像的融合参数确认方法
如图1所示,两台数字摄像机采集图像的覆盖区域都为单块显示屏,为了后续处理中融合两台数字摄像机采集到的图像。由于两台摄像机可能由于焦距、角度或者位移的偏差,使 得采集的图像无法融合成统一的图像,因此在摄像机安装完成后需要先对两台摄像机图像的融合参数进行确认,其具体实施方法如下:
步骤一:利用如图3所示的模板首先调整数字摄像机拍摄角度、聚焦参数等,实现两台数字摄像机采集的图像与模板间是正投影关系,并且保持如图3所示模板中水平线的图像水平线一致,并与垂直线正交;
步骤二:计算两台摄像机的融合参数,由于步骤一已经实现了图像的正投影采集和正交化,因此可以假设两幅图像之间的融合参数仅包括缩放和位移相关的6个参数。
T = α x β x γ x α y β y γ y 0 0 1
步骤三:由于以上参数矩阵仅有6个位置参数,所以仅需要在利用图3所示模板采集到的图像中间位置选取3个特征点就能得到6个位置参数的具体值。假设两幅图像上对应点的坐标分别为(X1,Y1)、(X2,Y2)、(X3,Y3)和(x1,y1)、(x2,y2)、(x3,y3)。在此基础上构造一个六元一次方程组,计算得到各个融合参数。计算公式如式(1):
α x = ( X 1 - X 2 ) ( y 2 - y 3 ) - ( X 2 - X 3 ) ( y 1 - y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) β x = ( x 1 - x 2 ) ( X 2 - X 3 ) - ( x 2 - x 3 ) ( X 1 - X 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) α y = ( Y 1 - Y 2 ) ( y 2 - y 3 ) - ( Y 2 - Y 3 ) ( y 1 - y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) β y = ( x 1 - x 2 ) ( Y 2 - Y 3 ) - ( x 2 - x 3 ) ( Y 1 - Y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) γ x = X 1 - α x x 1 - β x y 1 γ y = Y 1 - α y x 1 - β y y 1 - - - ( 1 )
计算得到的融合参数存储在融合交互一级处理单元3的触点融合模块中。每台拼接显示屏单元中安装的两个数字摄像机的融合参数都不同,因此需要依次进行计算。
第二部分:交互触点的融合(触点融合模块)
触点融合模块是固化在融合交互一级处理单元上的计算模块。由于以上融合参数计算复杂度为O(n),因此适合在电路板卡上实现。触点融合模块的融合计算过程如下所示:
步骤一:分配与采集图像分辨率匹配的视频图像采集缓存,为每台摄像机采集图像分配双缓存M1和M2。采集图像的灰阶为256,采用8bit存储一位数字化像素,开始采集数字化 的视频图像;
步骤二:触点视频图像的采集时隙如图4所示,首先向缓存M1中读入视频图像数据,当一帧图像写入完毕,通过回调函数调用触点融合算法,实现对从两个数字摄像机1读取的图像I1和I2进行融合;同时进入下一个循环,开始向缓存M2中读入视频图像数据;
步骤三:融合计算过程的最大计算时间不能超过33ms,这是因为在缓存M2被填充满之前必须将缓存M1释放出来,而通过我们大量测试,计算时长不能超过33ms。因此本发明中主要采用线性加权融合方法,以提高计算效率,使得计算时长控制在33ms以内。融合加权系数将充分发挥多摄像机的特点,在图2所示不同的区域采用不同的权重设置。具体融合算法如下表所示。T表示融合图像前需要进行的几何变换,各计算公式表示不同区域的融合算法。
  A1   0.7×TI1+0.3I2
  A2   0.5×TI1+0.5I2
  A3   0.3×TI1+0.7I2
  A4   0.5×TI1+0.5I2
通过以上计算得到的融合图像可以充分发挥不同位置设置数字摄像机的特点,避免由于物像距离增加而导致的触点定位误差。同时对于区域A2和A4,由于采用了两台数字摄像机从不同的方向进行获取触点位置,可以较好地减少单一数字摄像机的随机误差。
第三部分:交互触点的提取(触点提取模块)
触点提取模块也是固化在融合交互一级处理单元上的计算模块。由于数字摄像机的分辨率仅有640×480dpi,远低于大幅面显示系统的显示分辨率,因此采集到的交互触点往往在视频图像上呈现为一个模糊的斑点。其准确的交互触点中心位置需要采用扫描求中心点的方式实现。具体算法如下:
步骤一:首先求取从融合图像中分割交互触点的阈值Tdiff,亮度大于Tdiff的为交互触点区域,亮度小于Tdiff的为背景区域,其中Tdiff的确认方法如下:先拍摄10幅不同交互触点位置的图像,并人工判定交互触点位置;然后围绕交互触点中心截取31×31像素大小的区域,分别设为Ici,i=1,2,…,10,求取平均图像 接着求取图像Ic中值最大的10%像素点的平均值avgH(Ic)和Ic中值最小的10%像素点的均值avgL(Ic),计算Tdiff=(avgH(Ic)+avgL(Ic))/2。
步骤二:利用分割阈值Tdiff提取图象中的交互触点。亮度大于Tdiff的为交互触点区域,否则为背景区域,提取结果呈现为不规则的连通区域如图5所示;
步骤三:对以上如图5所示的连通区域进行扫描,求取其中心坐标(Xc,Yc),其计算复杂度为O(n)。
X c = Σ i = 1 n X i n , Y c = Σ i = 1 n Y i n - - - ( 2 )
上式(2)中(Xi,Yi)表示连通区域中扫描到的第i个点的坐标,n表示连通区域的像素数量。以上求取的坐标的方法本质上是一种插值方法,可以将交互精度提高到亚像素级。例如图5左图的中心坐标为(3,3),而右图为(3,3.5)。
步骤四:将以上触点的图像坐标转换到单个拼接显示器坐标轴下。计算坐标转换矩阵的方法上文计算图像融合变换参数的方式一致,但在采用的具体方法上存在一定差异。首先在每个拼接显示器上显示如图6所示的模板图像,然后在显示单元上选取相邻的四个矩形顶点,并找出这些顶点在图像上的对应点。利用这些点的坐标,通过计算公式(1)计算得到四个矩形顶点确定的矩形区域内的变换矩阵,存储到数据文件中;最后利用以上变换矩阵将交互触点在图像坐标轴下的坐标转换到显示器坐标下,并输出给融合交互二级处理单元4。
第四部分:图像坐标系转换(交互控制模块)
融合交互二级处理单元4是安装在计算机上的软件模块,主要实现将局部坐标系下的交互触点转换到整个大幅面显示系统坐标下,并将交互动作转化成平台相关的交互命令。由于可以假设拼接显示器的坐标轴之间是平移关系,所以可以通过简单的坐标映射实现,技术原理图如图7所示。以三屏拼接系统为例,假设每个拼接显示屏的显示分辨率为(W×H),那么每个显示屏的坐标转换公式如下所示:
(XS,YS)=(XI,YI),(XI,YI)∈左屏幕;
(XS,YS)=(XI+W,YI),(XI,YI)∈中屏幕;
(XS,YS)=(XI+2W,YI),(XI,YI)∈右屏幕。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (1)

1.一种超大幅面显示触点融合交互系统的图像处理方法,其特征在于:所述超大幅面显示触点融合交互系统包括多块显示屏组成的超大幅面显示屏,单块显示屏背面设有两台摄像机跟踪拍摄图像,而所述摄像机连接有处理图像的交互主机,该交互主机包括触点融合模块、触点提取模块和交互控制模块,
所述触点融合模块,将同一显示屏对应的两台摄像机采集的图像进行融合统一;
所述触点提取模块,提取单块显示屏图像中交互触点的坐标数据,并将包括交互触点坐标数据在内的图像数据其转换成与显示屏适配的图像数据;
所述交互控制模块,将上述单块显示屏图像坐标系下的图像数据转换到整块超大幅面显示屏的坐标系下;
该系统安装后需要确认触点融合模块中的融合参数,该确认方法包括以下步骤:
(1)单块显示屏对应的两台摄像机的融合参数的设定,假设两台摄像机分别采集的图像数据之间的融合参数仅包括缩放和位移参数如下:
T = α x β x γ x α y β y γ y 0 0 1
其中,T表示摄像机图像融合参数,αx、βx表示X轴的缩放变换参数,γx表示X轴的位移参数;αy、βy表示Y轴的缩放变换参数,γy表示Y轴的位移参数;
(2)单块显示屏对应的两台摄像机的融合参数的计算,选取两幅图像中各3个特征点的坐标值,并分别设定为(X1,Y1)、(X2,Y2)、(X3,Y3)和(x1,y1)、(x2,y2)、(x3,y3),并在此基础上构建方程组,计算公式如式(1):
α x = ( X 1 - X 2 ) ( y 2 - y 3 ) - ( X 2 - X 3 ) ( y 1 - y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) β x = ( x 1 - x 2 ) ( X 2 - X 3 ) - ( x 2 - x 3 ) ( X 1 - X 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) α y = ( Y 1 - Y 2 ) ( y 2 - y 3 ) - ( Y 2 - Y 3 ) ( y 1 - y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) β y = ( x 1 - x 2 ) ( Y 2 - Y 3 ) - ( Y 2 - Y 3 ) ( Y 1 - Y 2 ) ( x 1 - x 2 ) ( y 2 - y 3 ) - ( x 2 - x 3 ) ( y 1 - y 2 ) γ x = X 1 - α x x 1 - β x y 1 γ y = Y 1 - α y x 1 - β y y 1 - - - ( 1 )
将计算得到的融合参数存储到交互主机中的触点融合模块中;
所述触点融合模块的融合方法是采用线性加权融合方法,它包括以下步骤:
(1)每台摄像机采集图像均分配双缓存M1和M2,采集图像灰阶为256,采用8bit存储一位数字化像素,从而进行数字化图像的采集,并存储到缓存M1和M2中;
(2)首先向缓存M1中读入视频图像数据,当一帧图像写入完毕,通过回调函数调用触点融合算法,实现对从两个数字摄像机读取的图像I1和I2进行融合,与此同时,继续向缓存M2中读入图像数据,从而实现交替连续的读写和处理;
其中,所述触点融合算法采用线性加权融合方法,即将单块显示屏均分为4个区域,分别是左上部A1、右上部A2、右下部A3和左下部A4,各个区域的融合算法如下:
A1=0.7×TI1+0.3I2
A2=0.5×TI1+0.5I2
A3=0.3×TI1+0.7I2
A4=0.5×TI1+0.5I2
(3)所述触点融合算法时间低于33ms;
所述触点提取模块,用于提取交互激光笔投射在显示屏上触点的坐标,其方法包括以下步骤:
(1)先求取从融合图像中分割交互触点的阈值Tdiff,亮度大于Tdiff的为交互触点区域,亮度小于Tdiff的为背景区域,其中Tdiff的确认方法如下:先拍摄10幅不同交互触点位置的图像,并人工判定交互触点位置;然后围绕交互触点中心截取31×31像素大小的区域,分别设为Ici,i=1,2,…,10,求取平均图像接着求取图像Ic中值最大的10%像素点的平均值avgH(Ic)和Ic中值最小的10%像素点的均值avgL(Ic),计算Tdiff=(avgH(Ic)+avgL(Ic))/2;
(2)求取交互触点区域的中心坐标(Xc,Yc),其计算公式如式(2):
X c = Σ i = 1 n X i n , Y c = Σ i = 1 n Y i n - - - ( 2 )
式(2)中,(Xi,Yi)表示连通的交互触点区域中扫描到的第i个点的坐标,n表示连通的交互触点区域的像素数量;
(3)将步骤(2)中得到的交互触点区域的中心坐标作为交互触点坐标,并其转换到单个显示屏的坐标轴下;
所述交互控制模块,是将单块显示屏坐标系下的交互触点坐标转换到整个超大幅面显示屏的坐标系下;假设每个显示屏的显示分辨率为(W×H),坐标转换公式如下:
(XS,YS)=(XI,YI),(XI,YI)∈左屏幕;
(XS,YS)=(XI+W,YI),(XI,YI)∈中屏幕;
(XS,YS)=(XI+2W,YI),(XI,YI)∈右屏幕。
CN201210231546.9A 2012-07-05 2012-07-05 一种超大幅面显示触点融合交互系统的图像处理方法 Expired - Fee Related CN102799375B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210231546.9A CN102799375B (zh) 2012-07-05 2012-07-05 一种超大幅面显示触点融合交互系统的图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210231546.9A CN102799375B (zh) 2012-07-05 2012-07-05 一种超大幅面显示触点融合交互系统的图像处理方法

Publications (2)

Publication Number Publication Date
CN102799375A CN102799375A (zh) 2012-11-28
CN102799375B true CN102799375B (zh) 2015-08-19

Family

ID=47198492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210231546.9A Expired - Fee Related CN102799375B (zh) 2012-07-05 2012-07-05 一种超大幅面显示触点融合交互系统的图像处理方法

Country Status (1)

Country Link
CN (1) CN102799375B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064565B (zh) * 2013-01-11 2015-09-09 海信集团有限公司 一种定位方法及电子设备
CN107589930A (zh) * 2017-09-05 2018-01-16 北京仁光科技有限公司 多屏幕控制系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393497A (zh) * 2008-10-30 2009-03-25 上海交通大学 基于双目立体视觉的多点触摸方法
CN101621634A (zh) * 2009-07-24 2010-01-06 北京工业大学 动态前景分离的大幅面视频拼接方法
CN201408412Y (zh) * 2009-05-21 2010-02-17 翁荣森 背投多触点交互装置
CN102402855A (zh) * 2011-08-29 2012-04-04 深圳市蓝盾科技有限公司 用于智能交通的双摄像机实时全景视频融合方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100440117C (zh) * 2003-04-01 2008-12-03 中国科学院电子学研究所 大屏幕非接触式控制方式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393497A (zh) * 2008-10-30 2009-03-25 上海交通大学 基于双目立体视觉的多点触摸方法
CN201408412Y (zh) * 2009-05-21 2010-02-17 翁荣森 背投多触点交互装置
CN101621634A (zh) * 2009-07-24 2010-01-06 北京工业大学 动态前景分离的大幅面视频拼接方法
CN102402855A (zh) * 2011-08-29 2012-04-04 深圳市蓝盾科技有限公司 用于智能交通的双摄像机实时全景视频融合方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于激光笔的远程人机交互技术;刘芳等;《中国图像图形学报》;20031130;第8卷(第11期);全文 *

Also Published As

Publication number Publication date
CN102799375A (zh) 2012-11-28

Similar Documents

Publication Publication Date Title
CN102591531B (zh) 一种电子白板的坐标映射方法、装置及电子白板
WO2022142759A1 (zh) 一种激光雷达与相机联合标定方法
CN104266605B (zh) 一种三维激光扫描成像仪的成像方法
CN1959343B (zh) 机载多角度成像测高技术
CN102984453B (zh) 利用单摄像机实时生成半球全景视频图像的方法及系统
CN103594132B (zh) 核电站堆芯燃料组件实际位置偏差测量方法和系统
CN101751659A (zh) 大容量快速图像拼接方法
CN110300292A (zh) 投影畸变校正方法、装置、系统及存储介质
US20210223040A1 (en) Method and apparatus for planning sample points for surveying and mapping, control terminal, and storage medium
CN101566897B (zh) 触摸屏定位装置及触摸屏定位方法
CN104330074A (zh) 一种智能测绘平台及其实现方法
CN111028267B (zh) 一种移动机器人单目视觉跟随系统及跟随方法
CN102509304A (zh) 基于智能优化的摄像机标定方法
CN110516014A (zh) 一种面向城市道路监控视频映射到二维地图的方法
CN102778980B (zh) 一种超大幅面显示触点融合交互系统
CN103795935A (zh) 一种基于图像校正的摄像式多目标定位方法及装置
CN108917633A (zh) 基于水下双目视觉的燃料组件变形检测系统
CN102799375B (zh) 一种超大幅面显示触点融合交互系统的图像处理方法
CN204206350U (zh) 多画面融合后的超广角画面多摄像机联动跟踪标定系统
CN106445195A (zh) 屏幕中激光点的位置检测方法、装置及系统
US20220358679A1 (en) Parameter Calibration Method and Apparatus
CN102622137B (zh) 一种摄像头前定位触摸屏多点触控方法及装置
CN103949054A (zh) 红外光枪定位方法及系统
CN101729739A (zh) 一种图像纠偏处理方法
CN112182967B (zh) 一种基于热影仪的光伏组件自动建模方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150819

Termination date: 20210705