CN106131455A - 一种自适应双雷达视频拼接方法 - Google Patents

一种自适应双雷达视频拼接方法 Download PDF

Info

Publication number
CN106131455A
CN106131455A CN201610498586.8A CN201610498586A CN106131455A CN 106131455 A CN106131455 A CN 106131455A CN 201610498586 A CN201610498586 A CN 201610498586A CN 106131455 A CN106131455 A CN 106131455A
Authority
CN
China
Prior art keywords
video
macro block
distance
self adaptation
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610498586.8A
Other languages
English (en)
Other versions
CN106131455B (zh
Inventor
司晓云
顾晶
张奔
薛振南
苗锋
杜瀚宇
白俊奇
朱伟
赵春光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN201610498586.8A priority Critical patent/CN106131455B/zh
Publication of CN106131455A publication Critical patent/CN106131455A/zh
Application granted granted Critical
Publication of CN106131455B publication Critical patent/CN106131455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种自适应双雷达视频拼接的方法。该方法首先接收两路雷达视频并分别将两路雷达视频依据方位索引放置于各自的视频缓冲区;单视频逆向坐标转换,根据感兴趣区域的位置,逆向计算两路视频对应的方位与距离中心;单视频宏块划分,依据像素间距与距离单元长度,自适应划分视频方位‑距离搜索宏块,并隔二搜索宏块视频幅度峰值;双视频拼接,选取两路视频中幅值较大者为拼接结果;拼接视频显示,设置显示刷新率,当拼接时间超过刷新率时,自适应等待拼接完成后刷新。本发明不仅能快速定位雷达视频中心,消除雷达显示的“盲点”与“死点”,而且能避免量程大时目标丢失的现象,完成双雷达视频互补、克服单雷达在遮挡区无法探测目标的难题。

Description

一种自适应双雷达视频拼接方法
技术领域
本发明涉及双雷达视频拼接技术,特别是涉及一种自适应双雷达视频拼接方法。
背景技术
雷达显示终端中,雷达回波信号的极坐标方式需要被转换为计算机显示屏的直角坐标方式从而得到显示。然而由于极坐标与直角坐标地址分辨参数不同,显示器上会形成一些“盲点”和“死点”,影响了对雷达回波的观察与显示质量。所谓“盲点”指的是近区一个直角坐标对应多个极坐标;“死点”指的是远区部分直角坐标不能通过极坐标变换而访问。目前克服“盲点”与“死点”的方法都是基于正向坐标转换(由极坐标转换为直角坐标)和优化查表法进行,如采用“死点”偏移访问、提高方位分辨精度、采用“死点”循环覆盖、增加正弦余弦函数值精度、采用远区插值补偿等方法,该类方法的缺点是需要将所有的视频极坐标转换为直角坐标,并且提高精度操作也更增加了运算量。
地面雷达天线扫描时,如遇大型遮挡物如高楼大厦等,则无法获取遮挡物背后的场景和目标,对于重要军事区域,则需要另架设一台雷达于遮挡物的另一侧,从而进行全方位无死角地警戒监视。当遮挡物较多时,甚至需要多台雷达天线同时扫描工作,若每一雷达视频单独在一个终端显示,则增大了观察人员的工作量和繁冗度,也阻碍了直接有效地获得监视结果。因此将多雷达视频拼接显示于一个终端,是多雷达辅助合作所必需解决的问题之一。多雷达视频拼接需要解决的关键问题有:
一、消除单雷达屏蔽遮挡区域的暗视频数据;
二、融合多雷达无遮挡区域的目标视频数据。
发明内容
发明目的:本发明的目的是提供一种能够克服现有技术存在的缺陷的自适应双雷达视频拼接方法。
技术方案:
本发明所述的自适应双雷达视频拼接方法,包括以下步骤:
S1:接收双雷达视频,将视频解包后分别置于视频缓冲区:将双雷达缓冲区划分为8192个方位,接收的视频依据扫描的方位信息依次放入缓冲区,对于重复接收的同方位视频,忽略不计;对于缺失的方位,其视频数据按照最近两方位视频数据的大小进行插值,同时记录视频起始距离Dstart、视频信息长度Dmax和视频采样率f;
S2:单视频逆向坐标转换:根据感兴趣区域分别相对于单雷达中心为原点的直角坐标,逆向计算每个像元对应的方位中心A和距离中心D;
S3:单视频宏块划分:根据像素间距与视频距离单元长度,自适应划分视频方位-距离搜索宏块,并隔二搜索宏块视频幅度峰值,得到两路单视频幅值;
S4:双视频拼接:对步骤S3得到的两路单视频幅值比较,选取幅值较大者为拼接结果;
S5:拼接视频显示:显示最终拼接结果,设置显示刷新率,当拼接时间超过刷新率时,自适应等待拼接完成后刷新。
进一步,步骤S2中单视频逆向坐标转换步骤如下:
S2.1:依据感兴趣区域相对于单雷达中心为原点的直角坐标和显示器的分辨率Row*Column,确定每个像元的直角坐标值[Xpixl,Ypixl];
S2.2:按行列顺序,依次逆向求出该像元所对应的方位中心A,其中A∈[0,8191],将像元按照四个象限分别考虑,具体公式如下:
A = 8192 2 P i &times; arctan ( X p i x l Y p i x l ) , X p i x l &GreaterEqual; 0 , Y p i x l > 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + P i ) , X p i x l &GreaterEqual; 0 , Y p i x l < 0 2047 , X p i x l &GreaterEqual; 0 , Y p i x l = 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + P i ) , X p i x l < 0 , Y p i x l < 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + 2 P i ) , X p i x l < 0 , Y p i x l > 0 6143 , X p i x l < 0 , Y p i x l = 0 - - - ( 1 )
S2.3:对于视频缓冲区中步骤S2.2所得方位中心A的视频数据,根据该像元所对应的视频距离长度以及视频起始距离Dstart、视频采样率f,求出视频距离单元以及该像元所对应的距离中心其中C为光速。
进一步,步骤S3中单视频宏块划分步骤下:
S3.1:若距离中心D超出该雷达视频信息长度,则设置视频数据为0,否则继续以下步骤;
S3.2:根据像素间距和视频距离单元Dunit,确定搜索宏块的距离左边界Dleft、距离右边界Dright、方位上边界Aup和方位下边界Adown
S3.3:以搜索宏块左上角[Aup,Dleft]开始,隔二比较视频幅值,直至宏块结束[Adown,Dright],选取搜索宏块的峰值为当前像元的幅值。
进一步,步骤S3.2中确定搜索宏块的步骤如下:
S3.21:确定搜索宏块步长S,具体公式如下:
S = &Delta;Y p i x l D u n i t , A &Element; &lsqb; 0 , 1023 ) , A &Element; &lsqb; 3071 , 5119 ) , A &Element; &lsqb; 7167 , 8191 ) &Delta;X p i x l D u n i t , A &Element; &lsqb; 1023 , 3071 ) , A &Element; &lsqb; 5119 , 7167 ) - - - ( 2 )
其中ΔYpixl为垂直相邻像元间的距离,ΔXpixl为水平相邻像元的距离;
S3.22:确定宏块距离左边界Dleft:以方位中心A、距离中心D为搜索宏块中心,距离左边界Dleft为:
D l e f t = D - S / 2 , D - S / 2 &GreaterEqual; 0 0 , D - S / 2 < 0 - - - ( 3 )
S3.23:确定宏块距离右边界Dright
D r i g h t = D + S / 2 , D + S / 2 < D max D m a x , D + S / 2 > D m a x - - - ( 4 )
S3.24:确定宏块方位上边界Aup
A u p = A - S / 2 , A - S / 2 &GreaterEqual; 0 8192 + A - S / 2 , A - S / 2 < 0 - - - ( 5 )
S3.25:确定宏块方位下边界Adown
A d o w n = A + S / 2 , A + S / 2 < 8192 A + S / 2 - 8192 , A + S / 2 &GreaterEqual; 8192 - - - ( 6 ) .
有益效果:
与现有技术相比,本发明具有如下的有益效果:
(1)采用逆向坐标转换的方式,由像素值一次获得雷达视频的中心方位与距离,使得显示不存在“盲点”与“死点”现象;
(2)根据像素间距与视频距离单元长度,自适应划分视频方位-距离搜索宏块,隔二搜索宏块峰值,保证不丢失目标的同时,提高雷达数据处理速度;
(3)双视频拼接时选择幅值较大者,因此克服了单雷达受到大型建筑遮挡时丢失目标现象。
附图说明
图1是本发明的方法流程图;
图2是搜索宏块步长确定分界图;
图3是搜索宏块图;
图4是雷达一的视频显示图;
图5是雷达二的视频显示图;
图6是双雷达的视频拼接显示结果图。
具体实施方式
下面结合附图和具体实施方式,对本发明的技术方案作进一步的介绍。
本发明公开了一种自适应双雷达视频拼接方法,如图1所示,包括以下步骤:
S1:接收双雷达视频,将视频解包后分别置于视频缓冲区:将双雷达缓冲区划分为8192个方位,接收的视频依据扫描的方位信息依次放入缓冲区,对于重复接收的同方位视频,忽略不计;对于缺失的方位,其视频数据按照最近两方位视频数据的大小进行插值,同时记录视频起始距离Dstart、视频信息长度Dmax和视频采样率f;
S2:单视频逆向坐标转换:根据感兴趣区域分别相对于单雷达中心为原点的直角坐标,逆向计算每个像元对应的方位中心A和距离中心D,主要分为以下三步:
S2.1:依据感兴趣区域相对于单雷达中心为原点的直角坐标和显示器的分辨率Row*Column,确定每个像元的直角坐标值[Xpixl,Ypixl];
S2.2:按行列顺序,依次逆向求出该像元所对应的方位中心A,其中A∈[0,8191],将像元按照四个象限分别考虑,具体公式如下:
A = 8192 2 P i &times; arctan ( X p i x l Y p i x l ) , X p i x l &GreaterEqual; 0 , Y p i x l > 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + P i ) , X p i x l &GreaterEqual; 0 , Y p i x l < 0 2047 , X p i x l &GreaterEqual; 0 , Y p i x l = 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + P i ) , X p i x l < 0 , Y p i x l < 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + 2 P i ) , X p i x l < 0 , Y p i x l > 0 6143 , X p i x l < 0 , Y p i x l = 0 - - - ( 1 )
S2.3:对于视频缓冲区中步骤S2.2所得方位中心A的视频数据,根据该像元所对应的视频距离长度以及视频起始距离Dstart、视频采样率f,求出视频距离单元以及该像元所对应的距离中心其中C为光速;
S3:单视频宏块划分:根据像素间距与视频距离单元长度,自适应划分视频方位-距离搜索宏块,并隔二搜索宏块视频幅度峰值,得到两路单视频幅值,具体步骤如下:
S3.1:若距离中心D超出该雷达视频信息长度,则设置视频数据为0,否则继续以下步骤;
S3.2:如图2所示,根据像素间距和视频距离单元Dunit,确定搜索宏块的距离左边界Dleft、距离右边界Dright、方位上边界Aup和方位下边界Adown
S3.3:如图3所示,以搜索宏块左上角[Aup,Dleft]开始,隔二比较视频幅值,直至宏块结束[Adown,Dright],选取搜索宏块的峰值为当前像元的幅值;图4和图5分别为雷达一的视频显示图和雷达二的视频显示图;
S4:双视频拼接:对步骤S3得到的两路单视频幅值比较,选取幅值较大者为拼接结果;
S5:拼接视频显示:显示最终拼接结果,设置显示刷新率,当拼接时间超过刷新率时,自适应等待拼接完成后刷新。图6为双雷达视频拼接结果显示图。
其中,步骤S3.2中确定搜索宏块的步骤如下:
S3.21:确定搜索宏块步长S,具体公式如下:
S = &Delta;Y p i x l D u n i t , A &Element; &lsqb; 0 , 1023 ) , A &Element; &lsqb; 3071 , 5119 ) , A &Element; &lsqb; 7167 , 8191 ) &Delta;X p i x l D u n i t , A &Element; &lsqb; 1023 , 3071 ) , A &Element; &lsqb; 5119 , 7167 ) - - - ( 2 )
其中ΔYpixl为垂直相邻像元间的距离,ΔXpixl为水平相邻像元的距离;
S3.22:确定宏块距离左边界Dleft:以方位中心A、距离中心D为搜索宏块中心,距离左边界Dleft为:
D l e f t = D - S / 2 , D - S / 2 &GreaterEqual; 0 0 , D - S / 2 < 0 - - - ( 3 )
S3.23:确定宏块距离右边界Dright
D r i g h t = D + S / 2 , D + S / 2 < D max D m a x , D + S / 2 > D m a x - - - ( 4 )
S3.24:确定宏块方位上边界Aup
A u p = A - S / 2 , A - S / 2 &GreaterEqual; 0 8192 + A - S / 2 , A - S / 2 < 0 - - - ( 5 )
S3.25:确定宏块方位下边界Adown
A d o w n = A + S / 2 , A + S / 2 < 8192 A + S / 2 - 8192 , A + S / 2 &GreaterEqual; 8192 - - - ( 6 ) .

Claims (4)

1.一种自适应双雷达视频拼接方法,其特征在于:包括以下步骤:
S1:接收双雷达视频,将视频解包后分别置于视频缓冲区:将双雷达缓冲区划分为8192个方位,接收的视频依据扫描的方位信息依次放入缓冲区,对于重复接收的同方位视频,忽略不计;对于缺失的方位,其视频数据按照最近两方位视频数据的大小进行插值,同时记录视频起始距离Dstart、视频信息长度Dmax和视频采样率f;
S2:单视频逆向坐标转换:根据感兴趣区域分别相对于单雷达中心为原点的直角坐标,逆向计算每个像元对应的方位中心A和距离中心D;
S3:单视频宏块划分:根据像素间距与视频距离单元长度,自适应划分视频方位-距离搜索宏块,并隔二搜索宏块视频幅度峰值,得到两路单视频幅值;
S4:双视频拼接:对步骤S3得到的两路单视频幅值比较,选取幅值较大者为拼接结果;
S5:拼接视频显示:显示最终拼接结果,设置显示刷新率,当拼接时间超过刷新率时,自适应等待拼接完成后刷新。
2.根据权利要求1所述的自适应双雷达视频拼接方法,其特征在于:步骤S2中单视频逆向坐标转换步骤如下:
S2.1:依据感兴趣区域相对于单雷达中心为原点的直角坐标和显示器的分辨率Row*Column,确定每个像元的直角坐标值[Xpixl,Ypixl];
S2.2:按行列顺序,依次逆向求出该像元所对应的方位中心A,其中A∈[0,8191],将像元按照四个象限分别考虑,具体公式如下:
A = 8192 2 P i &times; arctan ( X p i x l Y p i x l ) , X p i x l &GreaterEqual; 0 , Y p i x l > 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + P i ) , X p i x l &GreaterEqual; 0 , Y p i x l < 0 2047 , X p i x l &GreaterEqual; 0 , Y p i x l = 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + P i ) , X p i x l < 0 , Y p i x l < 0 8192 2 P i &times; ( arctan ( X p i x l Y p i x l ) + 2 P i ) , X p i x l < 0 , Y p i x l > 0 6143 , X p i x l < 0 , Y p i x l = 0 - - - ( 1 )
S2.3:对于视频缓冲区中步骤S2.2所得方位中心A的视频数据,根据该像元所对应的视频距离长度以及视频起始距离Dstart、视频采样率f,求出视频距离单元以及该像元所对应的距离中心其中C为光速。
3.根据权利要求1所述的自适应双雷达视频拼接方法,其特征在于:步骤S3中单视频宏块划分步骤下:
S3.1:若距离中心D超出该雷达视频信息长度,则设置视频数据为0,否则继续以下步骤;
S3.2:根据像素间距和视频距离单元Dunit,确定搜索宏块的距离左边界Dleft、距离右边界Dright、方位上边界Aup和方位下边界Adown
S3.3:以搜索宏块左上角[Aup,Dleft]开始,隔二比较视频幅值,直至宏块结束[Adown,Dright],选取搜索宏块的峰值为当前像元的幅值。
4.根据权利要求3所述的自适应双雷达视频拼接方法,其特征在于:步骤S3.2中确定搜索宏块的步骤如下:
S3.21:确定搜索宏块步长S,具体公式如下:
S = &Delta;Y p i x l D u n i t , A &Element; &lsqb; 0 , 1023 ) , A &Element; &lsqb; 3071 , 5119 ) , A &Element; &lsqb; 7167 , 8191 ) &Delta;X p i x l D u n i t , A &Element; &lsqb; 1023 , 3071 ) , A &Element; &lsqb; 5119 , 7167 ) - - - ( 2 )
其中ΔYpixl为垂直相邻像元间的距离,ΔXpixl为水平相邻像元的距离;
S3.22:确定宏块距离左边界Dleft:以方位中心A、距离中心D为搜索宏块中心,距离左边界Dleft为:
D l e f t = D - S / 2 , D - S / 2 &GreaterEqual; 0 0 , D - S / 2 < 0 - - - ( 3 )
S3.23:确定宏块距离右边界Dright
D r i g h t = D + S / 2 , D + S / 2 < D max D m a x , D + S / 2 > D m a x - - - ( 4 )
S3.24:确定宏块方位上边界Aup
A u p = A - S / 2 , A - S / 2 &GreaterEqual; 0 8192 + A - S / 2 , A - S / 2 < 0 - - - ( 5 )
S3.25:确定宏块方位下边界Adown
A d o w n = A + S / 2 , A + S / 2 < 8192 A + S / 2 - 8192 , A + S / 2 &GreaterEqual; 8192 - - - ( 6 ) .
CN201610498586.8A 2016-06-29 2016-06-29 一种自适应双雷达视频拼接方法 Active CN106131455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610498586.8A CN106131455B (zh) 2016-06-29 2016-06-29 一种自适应双雷达视频拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610498586.8A CN106131455B (zh) 2016-06-29 2016-06-29 一种自适应双雷达视频拼接方法

Publications (2)

Publication Number Publication Date
CN106131455A true CN106131455A (zh) 2016-11-16
CN106131455B CN106131455B (zh) 2019-07-12

Family

ID=57284572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610498586.8A Active CN106131455B (zh) 2016-06-29 2016-06-29 一种自适应双雷达视频拼接方法

Country Status (1)

Country Link
CN (1) CN106131455B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107192988A (zh) * 2017-05-17 2017-09-22 中国电子科技集团公司第二十八研究所 一种雷达硬件扫描变换图像级插值去死点方法
CN108663662A (zh) * 2018-03-06 2018-10-16 中国船舶重工集团公司第七二四研究所 基于gpu的雷达视频信号整体定时刷新贴图显示方法
CN113608213A (zh) * 2021-08-03 2021-11-05 哈尔滨工业大学 一种基于船用雷达信息融合的海上目标联合检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102967309A (zh) * 2012-12-12 2013-03-13 中国船舶重工集团公司第七〇七研究所 基于电子海图的雷达视频图像叠加方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102967309A (zh) * 2012-12-12 2013-03-13 中国船舶重工集团公司第七〇七研究所 基于电子海图的雷达视频图像叠加方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIAOYUN SI ET AL: "SAR Images Reconstruction based on Compressive Sensing", 《2009 2ND ASIAN-PACIFIC CONFERENCE ON SYNTHETIC APERTURE RADAR》 *
朱伟 等: "两维数字阵列雷达的数字单脉冲测角方法", 《系统工程与电子技术》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107192988A (zh) * 2017-05-17 2017-09-22 中国电子科技集团公司第二十八研究所 一种雷达硬件扫描变换图像级插值去死点方法
CN107192988B (zh) * 2017-05-17 2019-08-02 中国电子科技集团公司第二十八研究所 一种雷达硬件扫描变换图像级插值去死点方法
CN108663662A (zh) * 2018-03-06 2018-10-16 中国船舶重工集团公司第七二四研究所 基于gpu的雷达视频信号整体定时刷新贴图显示方法
CN113608213A (zh) * 2021-08-03 2021-11-05 哈尔滨工业大学 一种基于船用雷达信息融合的海上目标联合检测方法

Also Published As

Publication number Publication date
CN106131455B (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
CN102006425B (zh) 一种基于多摄像机的视频实时拼接方法
CN103632359B (zh) 一种视频超分辨率处理方法
CN108962179B (zh) 显示面板的亮度调整方法及组件、显示装置
CN104822088A (zh) 视频图像缩放方法和装置
CN102279973B (zh) 基于高梯度关键点的海天线检测方法
CN106131455A (zh) 一种自适应双雷达视频拼接方法
CN107247268A (zh) 多线激光雷达系统及其水平安装角度的校正方法
CN104102678A (zh) 增强现实的实现方法以及实现装置
US20210150730A1 (en) Method for separating image and computer device
US20180031442A1 (en) Method and system for measuring lens distortion
US20100066914A1 (en) Frame interpolation device and method, and storage medium
CN110602490B (zh) 自动测试重显率的方法、装置及可读存储介质
CN111127559A (zh) 光学动捕系统中标定杆检测方法、装置、设备和存储介质
CN112907573B (zh) 一种基于3d卷积的深度补全方法
CN108710860B (zh) 一种视频新闻分割方法和装置
CN104636743A (zh) 文字图像校正的方法和装置
CN101539623B (zh) 一种雷达ppi图像像素的更新方法及系统
US11295700B2 (en) Display apparatus, display method, image processing device and computer program product for image processing
CN104090441A (zh) 显示面板及其驱动方法
CN103379255B (zh) 影像处理装置及其处理方法
CN105184736B (zh) 一种窄重叠双视场高光谱成像仪的图像配准的方法
CN112308773A (zh) 一种无人机航摄影像无损放大和拼接融合方法
Wang et al. Approach of recognition and precision location for the beacon in satellite optical communications
CN103092929A (zh) 一种视频摘要的生成方法及装置
CN105651258A (zh) 主动视角双目测距系统及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant