CN108268157B - 一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置 - Google Patents

一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置 Download PDF

Info

Publication number
CN108268157B
CN108268157B CN201611259513.XA CN201611259513A CN108268157B CN 108268157 B CN108268157 B CN 108268157B CN 201611259513 A CN201611259513 A CN 201611259513A CN 108268157 B CN108268157 B CN 108268157B
Authority
CN
China
Prior art keywords
watermark
image
image block
information
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611259513.XA
Other languages
English (en)
Other versions
CN108268157A (zh
Inventor
段晓辉
周闻杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201611259513.XA priority Critical patent/CN108268157B/zh
Publication of CN108268157A publication Critical patent/CN108268157A/zh
Application granted granted Critical
Publication of CN108268157B publication Critical patent/CN108268157B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0065Extraction of an embedded watermark; Reliable detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了一种应用于显示屏幕或投影屏幕的设备定位方法。其中设备定位方法包括如下步骤:通过在显示屏的图像中嵌入数字水印图像块,用带有摄像头的定位设备(如手写笔)抓拍到含有数字水印的图像块,再对图像进行水印检测处理,从而确定手写笔位置,由多个定位点可以得到定位设备的运动轨迹,从而实现手写输入的功能。该方法具有定位分辨率高、对画质影响小等特点,可在大尺寸、无触控介质的显示屏上直接实现手写输入功能,实现的可操作性强,成本相较于普通触控屏低,有很好的经济价值。

Description

一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置
技术领域
本发明涉及一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置。
背景技术
手写输入已经成为计算机输入的一种重要方式,而手写输入所涉及的最主要的技术之一就是设备定位技术。目前采用的显示屏幕定位技术有多种形式,但以两类技术为主。一类定位方式需要通过触控介质或是在显示屏附加其他的装置来实现手写设备定位,从而实现手写输入功能,包括红外式触摸技术、电容式触摸技术、电阻式触摸技术、LED点阵屏检测技术等。这类技术比较成熟、易于实现,但成本较高,所以这类手写输入和定位技术大多应用于小屏幕的应用场景,如手机、平板电脑等,鲜有20寸以上的大屏幕手写输入技术投入大规模商用;另一类定位方式则通过在显示介质上加载特定的编码图案,通过光笔等设备读取码值,从而实现定位和手写轨迹输入。其中编码图案的实现多为可见图案,如二维码等,影响了阅读感受。
专利CN102682265A公开了一种显示终端的手写输入方法、装置及手写输入系统。该方法需要一张印有二维码图案阵列的坐标纸,通过二维码读取设备在二维码坐标纸上移动,获得读取设备在移动时所经过的二维码坐标点的码值,根据该二维码值确定读取设备位置,并根据一系列位置坐标得到读取设备的轨迹,计算获得手写输入的轨迹特征,并根据该特征显示至少一个与上述轨迹匹配的字符,以供用户进行选择。该专利的不足之处在于需要借助二维码坐标纸,无法直接在电视机等显示设备上实现设备定位和手写输入。
专利CN103098075A公开了一种使用光笔的绝对位置和其他信息的点码图案、打印点码方法、读取点码方法。此方法通过在显示介质上(如书本)印刷二维码图案,该图案由平行窄带的序列形成,嵌在两行文字中间的空白处。光笔扫描二维码图案,确定光笔位置,实现定位。该专利的不足之处在于分辨率有限,仅可确定光笔在文档上的哪一行,无法做到像鼠标一样自由定位,而且不能直接应用于大型显示屏幕上。
发明内容
本发明的主要目的在于提供一种新型的设备定位方法,在传统显示屏或投影屏幕上自由定位,直接实现手写输入的功能,并根据手写笔的姿态特性,显示具有不同笔锋和粗细等信息的线条。该方法可应用于大尺寸、无触控介质的显示屏,成本更低,但不影响阅读感受。该方法通过在显示屏的图像中嵌入数字水印图像块,用带有摄像头的定位设备(如手写笔)抓拍到含有数字水印的图像块,再对图像进行水印检测处理,从而确定手写笔位置,由多个定位点可以得到定位设备的运动轨迹,从而实现手写输入的功能。
为实现上述目的,本发明的技术方案如下:
1.一种应用于大型显示屏幕或投影屏幕的设备定位方法,该定位方法包括以下步骤:
【1】在屏幕中显示背景图像IMG。
【2】如图1和图2所示,主控制设备在背景图像IMG的行位置X和列位置Y处嵌入一个固定的水印信息C,得到水印图像块W,该水印图像块的位置X,Y随着时间变化,比如从左向右,从上往下扫描,使得水印图像块扫描经过整个屏幕。同时,主控制设备记录水印图像块W在图像IMG的当前位置坐标X和Y。
【3】水印信息C所嵌入的图像块W的形状可以为方形、圆形或任意形状。
【4】当待定位的设备在屏幕上移动时,设备上的摄像头实时采集屏幕上的图像块W,得到图像块W’。
【5】待定位的设备对该图像块W’进行水印检测处理,把检测结果等信息发送到主控制设备,或者通过通信模块,把图像块W’和设备的其他信息如IMU参数等信息,发送到主控制设备进行水印检测处理。
【6】当水印检测成功时,说明前述带水印的图像块W被待定位的设备采集到,主控制设备结合所记录的图像块W的当前坐标X和Y,即可判断待定位的设备所处的屏幕位置为X,Y,从而完成设备在屏幕上的定位。
2.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】背景图像IMG可以是一个图像序列IMG[I]。
【2】水印信息C,可以根据图像的序列号变化,即水印C[I],从而嵌入的图像块为W[I]。
【3】水印检测时,可以采集得到图像序列W’[I],采用多个图像序列上的水印信息组合在一起来检测,实现设备的定位。
3.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图3所示,水印图像块W根据图像的位置X,Y变化,也即水印图像块W[X,Y],水印随位置变化的方法可以是每个不同的X,Y位置,具有不同的水印。
【2】通过检测出不同的水印图像块W’[X,Y],可以对应到位置[X,Y],从而实现手写笔的定位。
4.一种如上所述的手写笔定位方法,其特征在于:
【1】水印图像块W中可以嵌入辅助信息S,进行定位,比如S可以是水印图像块的当前位置信息[X,Y],也即水印图像块Ws。
【2】通过检测采集到的水印图像块Ws’,并直接从中提取出F,从而得到水印图像块的位置信息[X,Y],从而实现手写笔的定位。
5.一种上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图4所示,水印信息C可以是多个水印C1,C2,C3…Cn,嵌入生成水印图像块W,设备采集的水印图像块为W’。
【2】通过检测水印图像块W’中的不同的水印C1,C2…Cn进行组合定位,比如将一帧图像分为m列,n行,C1为随X变化的水印信息,C2为随Y变化的水印信息,如果从W’分别检测水印C1和C2,即可实现手写笔的X,Y的初步定位。然后,结合C3的检测,则实现更精确的定位。
6.一种上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图5所示,当对手写笔所采集的图像进行水印检测时,可以把手写笔采集的图像W’进行多个方向的逐级放大,以及多个角度的旋转后,再进行水印检测。
【2】选择水印检测效果最好的角度α、β、γ,即可得到手写笔与屏幕的角度Pα,Pβ,Pγ
【3】选择水印检测效果最好的放大倍数A,即可得到手写笔笔尖与屏幕的距离PD
【4】上述经过图像处理得到的手写笔参数,可以用于控制手写笔的各种特性,包括笔画粗细,笔锋等。
7.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
手写笔上带有IMU(惯性传感器),可以实时获取手写笔的姿态信息。手写笔可以单独使用IMU获得的参数来控制手写笔的特性。
8.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
手写笔上带有IMU(惯性传感器),可以实时获取手写笔的姿态信息。手写笔可以结合IMU获得的参数和图像处理得到的手写笔参数,来控制手写笔的特性。
9.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
所嵌入的水印C采用正交码,比如m序列,Walsh码、ZC码等。
优选地,可以在嵌入的水印C中加入校验码。
10.一种如上任一项所述的水印信息嵌入方法,水印信息C以m序列为例,其特征在于:
【1】嵌入的水印信息C可以由两部分组成,长度为L1的M序列m1和长度为L2的M序列m2
【2】背景图像IMG中,选取b*b大小的图像块B,b*b>=L1且4(b+1)>=L2
【3】在图像块B中,依次嵌入M序列m1的每一位,序列m1的嵌入顺序有两种方法,一种是按照从左到右、从上到下的顺序嵌入每一个像素点,另一种是先将序列m1按照一定规则置乱,再嵌入图像块B,如图6所示。m1嵌入像素点的位置为对应像素点低a位Wa…W1W0,a可以取3或4。若序列m1的某一位为0,则Wa…W1W0=0;若序列m1的某一位为1,则Wa…W1W0=1..11(a个1)。
【4】序列m1嵌入完成后,在图像块B外围嵌入序列m2,方法同步骤3,嵌入顺序则按照顺时针(或逆时针)方向的顺序嵌入,形成矩形方框,得到图像块W。如果序列m2长度小于图像块B的边框,可以将序列m2循环重复,直至嵌入形成矩形方框。
11.一种如上任一项所述的水印信息检测方法,水印信息C以m序列为例,其特征在于:
【1】定位设备采集到图像块W’,并对图像进行预处理。
【2】提取图像块W’像素点低a位的信息,若Wa…W1W0<2a-1,则对应的水印信息位Cx=0;若Wa…W1W0>=2a-1,则对应的水印信息位Cx=1,从而提取到水印信息C’。
【3】将提取的水印信息C’与本地存储的水印信息C做相关计算,先检测序列m2,从而确定矩形方框的位置和形变程度。进行校正后,再检测矩形方框内的序列m1,先进行反置乱,再做相关计算。如果出现尖锐的相关峰,则可以判定检测到水印信息C。
12.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图7所示,水印信息C可以增加外围轮廓,轮廓形状为矩形。
【2】当对手写笔所采集的图像进行水印检测时,对提取的水印信息C’的外围轮廓进行图像处理,如边缘检测、Hough变换等,计算得到提取的水印信息C’和水印信息C之间的透视变换矩阵PR和缩放倍数B。
【3】上述经过图像处理得到的手写笔参数,可以用于控制手写笔的各种特性,包括笔画粗细,笔锋等。
13.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图8所示,水印信号C,嵌入到背景图像的X,Y处,得到水印图像块W,随着X,Y的变化,水印图像块W在全屏幕进行扫描。
【2】当手写笔检测到该水印C后,系统可以知道手写笔位于[X,Y]附近。
【3】主控制设备接着在以X,Y为中心的区域[X-Wx,X+Wx],[Y-Hy,Y+Hy]范围,用新的水印C2进行扫描。
【4】当手写笔检测到C2后,系统可以进一步确定手写笔的位置为[X2,Y2]
14.一种如上任一项所述的手写笔,如图9所示,包含以下模块:
【1】摄像模块,用于采集显示屏上的图像;
【2】开关按钮,用于控制手写笔定位程序的开、关;
【3】绘制按钮,用于控制手写笔轨迹绘制程序的开、关;
【4】IMU单元,用于采集笔的姿态;
【5】无线模块,用于和主控制设备通信。
15.一种上任一项所述的主控制设备,如图10所示,包含以下模块:
【1】图像采集模块,提供VGA或HDMI图像输入接口,用于连接计算机等外设,接收VGA或HDMI格式的图像输入,作为水印处理的背景图像。
【2】图像显示模块,提供图像输出的同步信号、当前扫描的位置信号X,Y给水印生成模块和水印嵌入模块,控制水印的生成和嵌入。提供图像输出接口,连接到显示屏或投影机,用于输出显示添加了水印的图像;
【3】水印生成模块,用于根据图像的位置X、Y和图像帧的序号I,生成不同的水印信号码C[X,Y,I];
【4】水印嵌入模块,根据所选择的水印图像块的扫描轨迹,以及水印图像块的形状,在背景图像的X,Y位置处的图像块中,嵌入水印信号C,也可在图像中嵌入特定的信息S,水印嵌入模块的输出为水印图像块W;
【5】水印检测模块,用于检测水印图像块W’中的水印C是否存在,并提取出所嵌入的信息S,并完成基于图像处理的手写笔姿态估计,提供给定位计算模块进行手写笔的位置定位和姿态定位。
【6】定位计算模块,用于根据水印W’的检测结果,提取出的信息S和图像扫描信息X,Y和I等,计算出手写笔的当前位置。
【7】书写控制模块,一般可以结合嵌入式系统来实现。与通信模块相连,接收手写笔采集的图像W’或IMU笔姿态信息,把采集到的图像W’,送到水印检测模块进行水印检测,根据水印检测结果完成手写笔的书写控制,实现在显示屏上进行不同笔迹的书写和图形图像绘制等白板操作。所生成的书写内容也可以通过通信模块发送到互联网或服务器进行分享和存储。
【8】通信模块,可以是无线模块或有线的模块,用于实现手写笔信息(如所采集的图像W’,IMU参数等)在手写笔与主控制设备之间的传输,同时实现主控制设备与互联网连接,采用Email的方式把书写完成的文字或图片等发送到服务器或用户的计算机,或者同步显示到远程计算机的屏幕上。
【9】扫描控制模块,其中包括像素点坐标模块、时间维度信息模块、同步信息模块,在水印定位时用于数字水印的扫描控制;
所述的像素点坐标模块用于控制水印的嵌入位置和种类;
所述的时间维度信息模块用于控制水印的嵌入时间间隔;
所述的同步信息模块用于提供同步信息,提供显示器或投影机的行,场同步,同时提供水印位置的基准。
【10】轨迹绘制模块,用于在显示屏上显示手写笔的轨迹,实现手写输入和划线等功能。
通过本发明提供的一种应用于显示屏幕或投影屏幕的设备定位方法,能够在大型显示屏幕或投影屏幕上实现设备定位的功能,具有定位分辨率高、对画质影响小等特点,在大尺寸、无触控介质的显示屏上直接实现手写输入功能,实现的可操作性强,成本相较于普通触控屏低,有很好的经济价值。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1一种应用于显示屏幕或投影屏幕的设备定位方法的图示。
图2一种应用于显示屏幕或投影屏幕的设备定位方法的流程图。
图3一种设备定位方法图示之一。
图4一种设备定位方法图示之二。
图5一种控制绘制图线轨迹的笔锋、粗细等特性方法的流程图。
图6一种水印信息嵌入方法的图示。
图7一种控制图线轨迹的笔锋、粗细等特性方法的流程图。
图8一种设备定位方法图示之三。
图9一种能检测数字水印图像块的手写笔。
图10一种应用于显示屏幕或投影屏幕的设备定位装置主控制设备框图。
图11一种应用于显示屏幕或投影屏幕的设备定位方法的仿真图示。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的新型手写输入装置,实现方式是空间域数字水印算法,实现方案如图9所示,系统分为手写笔和主控制设备,其中主控制设备可以通过ARM+FPGA芯片组合实现,ARM处理器部分实现软件控制程序、扫描控制、轨迹绘制等功能,FPGA部分实现水印生成、嵌入和检测、定位计算等功能;
1.本发明实施例提供的一种手写笔,如图9所示,包含以下模块:
【1】摄像模块1,用于采集显示屏上的图像;
【2】开关按钮2,用于控制手写笔定位程序的开、关;
【3】绘制按钮3,用于控制手写笔轨迹绘制程序的开、关;
【4】IMU单元4,用于采集笔的姿态;
【5】无线模块5,用于和主控制设备通信。
2.本发明实施例提供的一种主控制设备,如图10所示,包含以下模块:
【1】图像采集模块6,提供VGA或HDMI图像输入接口,用于连接计算机等外设,接收VGA或HDMI格式的图像输入,作为水印处理的背景图像。
【2】图像显示模块7,提供图像输出的同步信号、当前扫描的位置信号X,Y给水印生成模块和水印嵌入模块,控制水印的生成和嵌入。提供图像输出接口,连接到显示屏或投影机,用于输出显示添加了水印的图像。
【3】水印生成模块8,用于根据图像的位置X、Y和图像帧的序号I,生成不同的水印信号码C[X,Y,I]。
【4】水印嵌入模块9,根据所选择的水印图像块的扫描轨迹,以及水印图像块的形状,在背景图像的X,Y位置处的图像块中,嵌入水印信号C,也可在图像中嵌入特定的信息S,水印嵌入模块的输出为水印图像块W。
【5】水印检测模块10,用于检测水印图像块W’中的水印C是否存在,并提取出所嵌入的信息S,并完成基于图像处理的手写笔姿态估计,提供给定位计算模块进行手写笔的位置定位和姿态定位。
【6】定位计算模块11,用于根据水印W’的检测结果,提取出的信息S和图像扫描信息X,Y和I等,计算出手写笔的当前位置。
【7】书写控制模块12,一般可以结合嵌入式系统来实现。与通信模块相连,接收手写笔采集的图像W’或IMU笔姿态信息,把采集到的图像W’,送到水印检测模块进行水印检测,根据水印检测结果完成手写笔的书写控制,实现在显示屏上进行不同笔迹的书写和图形图像绘制等白板操作。所生成的书写内容也可以通过通信模块发送到互联网或服务器进行分享和存储。
【8】通信模块13,可以是无线模块或有线的模块,用于实现手写笔信息(如所采集的图像W’,IMU参数等)在手写笔与主控制设备之间的传输,同时实现主控制设备与互联网连接,采用Email的方式把书写完成的文字或图片等发送到服务器或用户的计算机,或者同步显示到远程计算机的屏幕上。
【9】扫描控制模块14,其中包括像素点坐标模块、时间维度信息模块、同步信息模块,在水印定位时用于数字水印的扫描控制;
所述的像素点坐标模块用于控制水印的嵌入位置和种类;
所述的时间维度信息模块用于控制水印的嵌入时间间隔;
所述的同步信息模块用于提供同步信息,提供显示器或投影机的行,场同步,同时提供水印位置的基准。
【10】轨迹绘制模块15,用于在显示屏上显示手写笔的轨迹,实现手写输入和划线等功能。
3.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,其特征在于,该定位方法包括以下步骤:
【1】在屏幕中显示背景图像IMG。
【2】如图1和图2所示,主控制设备在背景图像IMG的行位置X和列位置Y处嵌入一个固定的水印信息C,得到水印图像块W,该水印图像块的位置X,Y随着时间变化,比如从左向右,从上往下扫描,使得水印图像块扫描经过整个屏幕。同时,主控制设备记录水印图像块W在图像IMG的当前位置坐标X和Y。
【3】水印信息C所嵌入的图像块W的形状可以为方形、圆形或任意形状。
【4】当待定位的设备在屏幕上移动时,设备上的摄像头实时采集屏幕上的图像块W,得到图像块W’。
【5】待定位的设备对该图像块W’进行水印检测处理,把检测结果等信息发送到主控制设备,或者通过通信模块,把图像块W’和设备的其他信息如IMU参数等信息,发送到主控制设备进行水印检测处理。
【6】当水印检测成功时,说明前述带水印的图像块W被待定位的设备采集到,主控制设备结合所记录的图像块W的当前坐标X和Y,即可判断待定位的设备所处的屏幕位置为X,Y,从而完成设备在屏幕上的定位。
举例来说,可以采用空间域数字水印嵌入办法,先在背景图像IMG的低比特位中嵌入一个含水印信息的图像块W,如图11(b)所示。
(1)图11(a)中的低四位比特位清零,并嵌入了水印图像块W,图像块在图的中心位置,肉眼几乎不可见,嵌入的图像块W是带有63位M序列的矩形光标,M序列中的某一位为1时,则在对应像素点的低四位嵌入(1111)2,M序列中的某一位为0时,则在对应像素点的低四位嵌入(0000)2
(2)待定位的设备采集到图像块W’时,对该图像块W’进行边缘检测、Hough变换等图像处理。
(3)对采集到的图像块W’低四位的值进行判定,若低四位的值小于7,则判定嵌入的值为0;若大于等于7,则判定嵌入的值为1。
(4)将采集到的图像块W’中的正交码与主控制设备里存储的正交码作相关计算,若出现相关峰,则说明待定位的设备检测到了带水印的图像块W。
(5)此时主控制设备结合所记录的图像块W的当前坐标X和Y,即可判断待定位的设备所处的屏幕位置为X,Y,从而完成设备在屏幕上的定位。
仿真结果如图11(c)、(d)。图11(c)是加了噪声后的lena图像,所加噪声的方差为0.04的高斯白噪声,模拟定位设备采集图像的过程中图像所受的干扰。再对加噪声后的lena图像进行相关计算,计算方法是选取图像中某一位置的图像块,大小与所嵌的矩形光标大小相同,计算相关值,并对图中每一位置进行遍历,得到的二维相关值计算结果如图11(d)所示,可以看见在图像中心有非常明显的相关峰,与嵌入位置对应,并且相关峰的分辨率很高,因此从理论上证明了该方法是可行的。
4.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
【1】背景图像IMG可以是一个图像序列IMG[I]。
【2】水印信息C,可以根据图像的序列号变化,即水印C[I],从而嵌入的图像块为W[I]。
【3】水印检测时,可以采集得到图像序列W’[I],采用多个图像序列上的水印信息组合在一起来检测,实现设备的定位。
举例来说,图像序列IMG[I]可以是一段视频,背景图像IMG即为视频中的一帧图像。采用空间域或变换域数字水印算法,将水印信息C嵌入图像序列IMG[I]的不同位置,得到含水印的图像块W[I],并实现了水印图像块W[I]从左至右、从上至下的扫描。检测水印时,通过采集设备采集到水印图像块W’[I],对其实施逆变换,得到图像块中的水印信息C,即可根据水印信息C确定手写笔采集的图像序列IMG[I],从而实现定位。
5.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图3所示,水印图像块W根据图像的位置X,Y变化,也即水印图像块W[X,Y],水印随位置变化的方法可以是每个不同的X,Y位置,具有不同的水印。
【2】通过检测出不同的水印图像块W’[X,Y],可以对应到位置[X,Y],从而实现手写笔的定位。
举例来说,可以将图像分成一个个矩形图像块W[X,Y],在不同的图像块中嵌入不同的水印信息C,当手写笔停在某一位置时,采集到此处的水印图像块W’[X,Y],通过分析水印信息C的类型来判定水印图像块所处的位置,进而得到手写笔位置,实现定位。
6.如上所述的手写笔定位方法,其特征在于:
【1】水印图像块W中可以嵌入辅助信息S,进行定位,比如S可以是水印图像块的当前位置信息[X,Y],也即水印图像块Ws。
【2】通过检测采集到的水印图像块Ws’,并直接从中提取出F,从而得到水印图像块的位置信息[X,Y],从而实现手写笔的定位。
举例来说,水印信息C可以是当前位置的坐标值。
7.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图4所示,水印信息C可以是多个水印C1,C2,C3…Cn,嵌入生成水印图像块W,设备采集的水印图像块为W’。
【2】通过检测水印图像块W’中的不同的水印C1,C2…Cn进行组合定位,比如将一帧图像分为m列,n行,C1为随X变化的水印信息,C2为随Y变化的水印信息,如果从W’分别检测水印C1和C2,即可实现手写笔的X,Y的初步定位。然后,结合C3的检测,则实现更精确的定位。
举例来说,可以在每行中用空间域数字水印的办法嵌入行区域定位水印,水印可以在每一行中从左到右不停地扫描,接着用手写笔采集到的图像分析并确定手写笔所在行位置,再在每列中嵌入列区域定位水印,确定列位置。由行和列确定了定位区域后,在定位区域中嵌入光标水印,光标水印可以是矩形块、圆形块光标,或是带有正交码信息的数字水印。光标水印从左至右、从上至下扫描,当手写笔停在某处,采集到光标水印时,即可确定手写笔位置。
8.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图5所示,当对手写笔所采集的图像进行水印检测时,可以把手写笔采集的图像W’进行多个方向的逐级放大,以及多个角度的旋转后,再进行水印检测。
【2】选择水印检测效果最好的角度α、β、γ,即可得到手写笔与屏幕的角度Pα,Pβ,Pγ
【3】选择水印检测效果最好的放大倍数A,即可得到手写笔笔尖与屏幕的距离PD
【4】上述经过图像处理得到的手写笔参数,可以用于控制手写笔的各种特性,包括笔画粗细,笔锋等。
举例来说,假设图像块W嵌入的水印信息为一正交码M,在对手写笔所采集的图像W’进行水印检测时,对W’进行多个角度的旋转,再逐级放大,每次旋转和逐级放大时与主控制设备中存储的正交码值做相关计算,选择相关值最大时对应的旋转角度α、β、γ和放大倍数A,即可得到手写笔与屏幕的角度Pα,Pβ,Pγ和手写笔笔尖与屏幕的距离PD
9.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
手写笔上带有IMU(惯性传感器),可以实时获取手写笔的姿态信息。手写笔可以结合IMU获得的参数和图像处理得到的手写笔参数,来控制手写笔的特性。
举例来说,IMU一般由三轴加速度计、三轴角速度传感器、三轴磁力计和信号处理单元组成,通过磁力计和加速度传感器计算手写笔的静态角度,并利用角速度值滤波处理静态角度,从而计算出物体在空间中的姿态角。通过姿态角信息与实施例8、11所得的信息进行数据融合处理,可以得到更准确的手写笔的各种特性,包括笔锋、粗细等特性。
10.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图6所示,水印图像块W可以增加外围轮廓,轮廓形状可以为矩形、三角形、五边形等。
【2】当对手写笔所采集的图像进行水印检测时,可以对手写笔采集的图像W’进行图像处理,如边缘检测、Hough变换等,计算得到手写笔采集图像W’和水印图像块W之间的透视变换矩阵PR和缩放倍数B。
【3】上述经过图像处理得到的手写笔参数,可以用于控制手写笔的各种特性,包括笔画粗细,笔锋等。
11.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
所嵌入的水印C采用正交码,比如m序列,Walsh码、ZC码等。
优选地,可以在嵌入的水印C中加入校验码。
12.一种如上任一项所述的水印信息嵌入方法,水印信息C以m序列为例,其特征在于:
【1】嵌入的水印信息C可以由两部分组成,长度为L1的M序列m1和长度为L2的M序列m2
【2】背景图像IMG中,选取b*b大小的图像块B,b*b>=L1且4(b+1)>=L2
【3】在图像块B中,依次嵌入M序列m1的每一位,序列m1的嵌入顺序有两种方法,一种是按照从左到右、从上到下的顺序嵌入每一个像素点,另一种是先将序列m1按照一定规则置乱,再嵌入图像块B,如图6所示。m1嵌入像素点的位置为对应像素点低a位Wa…W1W0,a可以取3或4。若序列m1的某一位为0,则Wa…W1W0=0;若序列m1的某一位为1,则Wa…W1W0=1..11(a个1)。
【4】序列m1嵌入完成后,在图像块B外围嵌入序列m2,方法同步骤3,嵌入顺序则按照顺时针(或逆时针)方向的顺序嵌入,形成矩形方框,得到图像块W。如果序列m2长度小于图像块B的边框,可以将序列m2循环重复,直至嵌入形成矩形方框。
13.一种如上任一项所述的水印信息检测方法,水印信息C以m序列为例,其特征在于:
【1】定位设备采集到图像块W’,并对图像进行预处理。
【2】提取图像块W’像素点低a位的信息,若Wa…W1W0<2a-1,则对应的水印信息位Cx=0;若Wa…W1W0>=2a-1,则对应的水印信息位Cx=1,从而提取到水印信息C’。
【3】将提取的水印信息C’与本地存储的水印信息C做相关计算,先检测序列m2,从而确定矩形方框的位置和形变程度。进行校正后,再检测矩形方框内的序列m1,先进行反置乱,再做相关计算。如果出现尖锐的相关峰,则可以判定检测到水印信息C。
14.一种如上任一项所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图7所示,水印信息C可以增加外围轮廓,轮廓形状为矩形。
【2】当对手写笔所采集的图像进行水印检测时,对提取的水印信息C’的外围轮廓进行图像处理,如边缘检测、Hough变换等,计算得到提取的水印信息C’和水印信息C之间的透视变换矩阵PR和缩放倍数B。
【3】上述经过图像处理得到的手写笔参数,可以用于控制手写笔的各种特性,包括笔画粗细,笔锋等。
15.基于上述实施例,本发明提供了一种基于上述实施例所述的设备定位方法,以手写笔为例,其特征在于:
【1】如图8所示,水印信号C,嵌入到背景图像的X,Y处,得到水印图像块W,随着X,Y的变化,水印图像块W在全屏幕进行扫描。
【2】当手写笔检测到该水印C后,系统可以知道手写笔位于[X,Y]附近。
【3】主控制设备接着在以X,Y为中心的区域[X-Wx,X+Wx],[Y-Hy,Y+Hy]范围,用新的水印C2进行扫描。
【4】当手写笔检测到C2后,系统可以进一步确定手写笔的位置为[X2,Y2]
举例来说,先将水印信息C1用空间域数字水印的办法嵌入一个较大的图像块,按照从左至右、从上到下的顺序全屏幕扫描,手写笔检测到水印后,可以根据水印图像块W的位置,接着再用分辨率更高的新水印C2在C1确定的区域内按照从左至右、从上到下的顺序扫描,从而确定手写笔具体位置。新水印C2可以是采用了正交码编码和校验位的矩形块,用空间域数字水印的办法嵌入图像。

Claims (13)

1.一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于,包括以下步骤:
步骤一、在屏幕中显示背景图像IMG;
步骤二、主控制设备在背景图像IMG的行位置X和列位置Y处嵌入一个固定的水印信息C,得到水印图像块W,该水印图像块的位置(X,Y)随着时间变化,从左向右,从上往下扫描,使得水印图像块W扫描经过整个屏幕;同时,主控制设备记录水印图像块W在背景图像IMG的当前位置坐标X和Y;
步骤三、水印信息C所嵌入的水印图像块W的形状为方形或圆形;
步骤四、当待定位设备在屏幕上移动时,待定位设备上的摄像头实时采集屏幕上的水印图像块W,得到图像块W’;
步骤五、待定位设备对图像块W’进行水印检测处理,把检测结果信息发送到主控制设备;或者通过通信模块,把图像块W’和设备的IMU参数信息,发送到主控制设备进行水印检测处理;
步骤六、当水印检测成功时,说明前述水印图像块W被待定位设备采集到,主控制设备结合所记录的水印图像块W的当前坐标X和Y,即可判断待定位设备所处的屏幕位置为(X,Y),从而完成待定位设备在屏幕上的定位。
2.如权利要求1所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于,所述的主控制设备包括:
图像采集模块:提供VGA或HDMI图像输入接口,用于连接计算机外设,接收VGA或HDMI格式的图像输入,作为水印处理的背景图像;
图像显示模块:提供图像输出的同步信号、当前扫描的位置信号(X,Y)给水印生成模块和水印嵌入模块,控制水印的生成和嵌入;提供图像输出接口,连接到显示屏或投影机,用于输出显示添加了水印的图像;
水印生成模块:用于根据图像的位置(X,Y)和图像帧的序号I,生成不同的水印信号码C[X,Y,I];
水印嵌入模块:根据所选择的水印图像块的扫描轨迹,以及水印图像块的形状,在背景图像的(X,Y)位置处的图像块中,嵌入水印信号C,也可在图像中嵌入特定的信息S,水印嵌入模块的输出为水印图像块W;
水印检测模块:用于检测图像块W’中的水印C是否存在,并提取出所嵌入的信息S,并完成基于图像处理的待定位设备为手写笔的姿态估计,提供给定位计算模块进行手写笔的位置定位和姿态定位;
定位计算模块:用于根据图像块W’的检测结果,提取出的信息S和图像扫描信息(X,Y)和I,计算出手写笔的当前位置;
书写控制模块:结合嵌入式系统来实现;与通信模块相连,接收手写笔采集的图像块W’或IMU笔姿态信息,把采集到的图像块W’,送到水印检测模块进行水印检测,根据水印检测结果完成手写笔的书写控制,实现在显示屏上进行不同笔迹的书写和图形图像绘制的白板操作;所生成的书写内容通过通信模块发送到互联网或服务器进行分享和存储;
通信模块:是无线模块或有线的模块,用于实现手写笔信息,所采集的图像块W’和IMU参数,在手写笔与主控制设备之间的传输,同时实现主控制设备与互联网连接,即采用Email的方式把书写完成的文字或图片发送到服务器或用户的计算机,或者同步显示到远程计算机的屏幕上;
扫描控制模块:其中包括像素点坐标模块、时间维度信息模块、同步信息模块,在水印定位时用于数字水印的扫描控制;所述的像素点坐标模块用于控制水印的嵌入位置和种类;所述的时间维度信息模块用于控制水印的嵌入时间间隔;所述的同步信息模块用于提供同步信息,提供显示器或投影机的行场同步,同时提供水印位置的基准;
轨迹绘制模块:用于在显示屏上显示手写笔的轨迹,实现手写输入和划线功能。
3.如权利要求2所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于,其包括:所述的手写笔由以下模块组成,
摄像模块:用于采集显示屏上的图像;
开关按钮:用于控制手写笔定位程序的开、关;
绘制按钮:用于控制手写笔轨迹绘制程序的开、关;
IMU惯性传感器单元:用于采集笔的姿态,以实时获取手写笔的姿态信息;
无线模块:用于和主控制设备通信。
4.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
所述的背景图像IMG是一个图像序列IMG[I];
所述的水印信息C,是根据图像的序列号变化,即水印C[I],从而嵌入的图像块为W[I];
水印检测时,先采集得到图像序列W’[I],将采用的多个图像序列上的水印信息组合在一起来检测,实现手写笔的定位。
5.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
所述的水印图像块W根据图像的位置(X,Y)变化,也即水印图像块W[X,Y],水印随位置变化的方法是每个不同的(X,Y)位置,具有不同的水印;
通过手写笔检测出不同的图像块W’[X,Y],对应到位置[X,Y],从而实现手写笔的定位。
6.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:所述的水印图像块W中嵌入辅助信息S进行定位,S是水印图像块的当前位置信息[X,Y],即水印图像块Ws;
通过手写笔检测采集到的图像块Ws’,并直接从中提取出F,从而得到水印图像块的位置信息[X,Y],实现手写笔的定位。
7.如权利要求4所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:所述的水印信息C是多个水印C1,C2,C3…Cn,嵌入生成水印图像块W,待定位设备采集的图像块W’;
通过手写笔检测图像块W’中的不同的水印C1,C2…Cn进行组合定位,将一帧图像分为m列,n行,C1为随X变化的水印信息,C2为随Y变化的水印信息,当从图像块W’分别检测水印C1和C2,即可实现手写笔的(X,Y)的初步定位;然后,结合C3的检测,则实现更精确的定位。
8.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:当对手写笔所采集的图像进行水印检测时,把手写笔采集的图像块W’进行多个方向的逐级放大,以及多个角度的旋转后,再进行水印检测;
选择水印检测效果最好的角度α、β、γ,即可得到手写笔与屏幕的角度Pα,Pβ,Pγ
选择水印检测效果最好的放大倍数A,即可得到手写笔笔尖与屏幕的距离PD
上述经过图像处理得到的手写笔参数,能够用于控制手写笔的各种特性,包括笔画粗细和笔锋。
9.如权利要求4所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
所嵌入的水印C采用正交码m序列、Walsh码或ZC码,并且能够在嵌入的水印C中加入校验码。
10.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
嵌入水印图像块W的水印信息C由两部分组成,即长度为L1的M序列m1和长度为L2的M序列m2
背景图像IMG中,选取b*b大小的图像块B,b*b>=L1且4(b+1)>=L2
在图像块B中,依次嵌入M序列m1的每一位,序列m1的嵌入顺序有两种方法,一种是按照从左到右、从上到下的顺序嵌入每一个像素点,另一种是先将序列m1按照一定规则置乱,再嵌入图像块B,m1嵌入像素点的位置为对应像素点低a位Wa…W1W0,a取3或4;若序列m1的某一位为0,则Wa…W1W0=0;若序列m1的某一位为1,则Wa…W1W0=1..11,其中等号后有a个1;
序列m1嵌入完成后,在图像块B外围嵌入序列m2,方法同上,嵌入顺序则按照顺时针或逆时针方向的顺序嵌入,形成矩形方框,得到水印图像块W;如果序列m2长度小于图像块B的边框,将序列m2循环重复,直至嵌入形成矩形方框。
11.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
手写笔对图像块W’进行水印检测处理,具体方式为:
手写笔采集到图像块W’,并对图像进行预处理;
提取图像块W’像素点低a位的信息,若Wa…W1W0<2a-1,则对应的水印信息位Cx=0;若Wa…W1W0>=2a-1,则对应的水印信息位Cx=1,从而提取到水印信息C’;
将提取的水印信息C’与本地存储的水印信息C做相关计算,先检测序列m2,从而确定矩形方框的位置和形变程度;进行校正后,再检测矩形方框内的序列m1,先进行反置乱,再做相关计算;如果出现尖锐的相关峰,则可以判定检测到水印信息C。
12.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
水印信息C增加外围轮廓,轮廓形状为矩形;
当对手写笔所采集的图像进行水印检测时,对提取的水印信息C’的外围轮廓进行图像处理,计算得到提取的水印信息C’和水印信息C之间的透视变换矩阵PR和缩放倍数B;
上述经过图像处理得到的手写笔参数,用于控制手写笔的各种特性,包括笔画粗细和笔锋。
13.如权利要求3所述的一种应用于大型显示屏幕或投影屏幕的设备定位方法,其特征在于:
水印信号C,嵌入到背景图像的(X,Y)处,得到水印图像块W,随着(X,Y)的变化,水印图像块W在全屏幕进行扫描;
当手写笔检测到该水印C后,系统可以知道手写笔位于[X,Y]附近;
主控制设备接着在以(X,Y)为中心的区域[X-Wx,X+Wx],[Y-Hy,Y+Hy]范围,用新的水印C2进行扫描;
当手写笔检测到C2后,系统可以进一步确定手写笔的位置为[X2,Y2]。
CN201611259513.XA 2016-12-30 2016-12-30 一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置 Active CN108268157B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611259513.XA CN108268157B (zh) 2016-12-30 2016-12-30 一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611259513.XA CN108268157B (zh) 2016-12-30 2016-12-30 一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置

Publications (2)

Publication Number Publication Date
CN108268157A CN108268157A (zh) 2018-07-10
CN108268157B true CN108268157B (zh) 2024-03-15

Family

ID=62754717

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611259513.XA Active CN108268157B (zh) 2016-12-30 2016-12-30 一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置

Country Status (1)

Country Link
CN (1) CN108268157B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112043388B (zh) * 2020-08-14 2022-02-01 武汉大学 一种用于医疗遥操作的触觉人机交互装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1641683A (zh) * 2004-01-16 2005-07-20 微软公司 通过m阵列解码和快速图像匹配的笔划定位
CN102004584A (zh) * 2010-10-28 2011-04-06 广东威创视讯科技股份有限公司 有源笔定位显示方法及装置
CN102023759A (zh) * 2010-11-23 2011-04-20 广东威创视讯科技股份有限公司 一种有源笔书写定位方法
CN102207799A (zh) * 2011-07-06 2011-10-05 圆展科技股份有限公司 屏幕坐标定位方法及电子笔

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4385169B1 (ja) * 2008-11-25 2009-12-16 健治 吉田 手書き入出力システム、手書き入力シート、情報入力システム、情報入力補助シート

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1641683A (zh) * 2004-01-16 2005-07-20 微软公司 通过m阵列解码和快速图像匹配的笔划定位
CN102004584A (zh) * 2010-10-28 2011-04-06 广东威创视讯科技股份有限公司 有源笔定位显示方法及装置
CN102023759A (zh) * 2010-11-23 2011-04-20 广东威创视讯科技股份有限公司 一种有源笔书写定位方法
CN102207799A (zh) * 2011-07-06 2011-10-05 圆展科技股份有限公司 屏幕坐标定位方法及电子笔

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于摄像头的手写输入法;邓俊;;计算机系统应用(05);196-198 *

Also Published As

Publication number Publication date
CN108268157A (zh) 2018-07-10

Similar Documents

Publication Publication Date Title
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
CN106355153B (zh) 一种基于增强现实的虚拟对象显示方法、装置以及系统
US10360696B2 (en) Image processing apparatus, image processing method, and program
CN107251101B (zh) 针对使用具有参数的标记的增强现实的场景修改
CN100470452C (zh) 一种实现三维增强现实的方法及系统
JP5802997B2 (ja) 隠された画像のシグナリング
JP4768196B2 (ja) 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
CN103729074A (zh) 一种识别笔迹的装置、系统及方法
WO2015000286A1 (zh) 基于增强现实的三维互动学习系统及方法
KR101961758B1 (ko) 3차원 컨텐츠 제공 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
TW201346216A (zh) 虛擬尺
CN108027656B (zh) 输入设备、输入方法和程序
EP3175614A1 (en) Virtual changes to a real object
CN106780757B (zh) 一种增强现实的方法
CN108268157B (zh) 一种应用于大型显示屏幕或投影屏幕的设备定位方法及装置
JP2020091745A (ja) 画像撮像支援装置及び画像撮像支援方法
CN113470190A (zh) 场景显示方法及装置、设备、车辆、计算机可读存储介质
KR20140126529A (ko) 현실 객체의 물리적 동작-증강 현실 상호작용형 전자책 시스템 및 구현 방법
JP2005267257A (ja) 手書き情報入力システム
JP2005332177A (ja) 3次元情報処理装置、3次元情報処理方法、及び3次元情報処理プログラム
CN207557895U (zh) 一种应用于大型显示屏幕或投影屏幕的设备定位装置
KR101850134B1 (ko) 3차원 동작 모델 생성 방법 및 장치
CN106354516B (zh) 追踪设备的方法及装置
JP2011071746A (ja) 映像出力装置及び映像出力方法
US20230298292A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and information processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant