CN112565597A - 显示方法和装置 - Google Patents
显示方法和装置 Download PDFInfo
- Publication number
- CN112565597A CN112565597A CN202011350187.XA CN202011350187A CN112565597A CN 112565597 A CN112565597 A CN 112565597A CN 202011350187 A CN202011350187 A CN 202011350187A CN 112565597 A CN112565597 A CN 112565597A
- Authority
- CN
- China
- Prior art keywords
- position information
- target
- acquiring
- target object
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000004044 response Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 18
- 238000005516 engineering process Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000002265 prevention Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/46—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being of a radio-wave signal type
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种显示方法及装置,属于显示技术领域,以解决用户在寻找物品时,最终呈现给用户的是物品的平面坐标,或者距离数据,导致显示效果单一的问题。其中,所述显示方法包括:获取目标对象在拍摄环境中的第一位置信息;获取摄像头模组采集的所述拍摄环境对应的目标图像;在所述目标图像中识别所述第一位置信息;在所述目标图像中显示用于指示所述第一位置信息的目标标识。
Description
技术领域
本申请属于显示技术领域,具体涉及一种显示方法和装置。
背景技术
随着电子设备的广泛普及,人们的生活逐渐与电子设备融为一体。例如,人们的工作、生活、娱乐等都与电子设备息息相关。
常见地,用户会使用电子设备寻找物品。例如,用户在查找软件中,寻找穿戴设备。在现有技术中,用户在寻找物品时,最终呈现给用户的是物品的平面坐标,或者距离数据。
因此,用户在寻找物品时,最终呈现给用户的是物品的平面坐标,或者距离数据,导致显示效果单一。
发明内容
本申请实施例的目的是提供一种显示方法,能够解决用户在寻找物品时,最终呈现给用户的是物品的平面坐标,或者距离数据,导致显示效果单一的问题。
第一方面,本申请实施例提供了一种显示方法,应用于显示装置,所述显示装置包括摄像头模组,所述方法包括:获取目标对象在拍摄环境中的第一位置信息;获取所述摄像头模组采集的所述拍摄环境对应的目标图像;在所述目标图像中识别所述第一位置信息;在所述目标图像中显示用于指示所述第一位置信息的目标标识。
第二方面,本申请实施例提供了一种显示装置,所述装置包括摄像头模组,所述装置还包括:位置获取模块,用于获取目标对象在拍摄环境中的第一位置信息;图像获取模块,用于获取所述摄像头模组采集的所述拍摄环境对应的目标图像;位置识别模块,用于在所述目标图像中识别所述第一位置信息;位置显示模块,用于在所述目标图像中显示用于指示所述第一位置信息的目标标识。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序或指令,程序或指令被处理器执行时实现如第一方面的方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,可读存储介质上存储程序或指令,程序或指令被处理器执行时实现如第一方面的方法的步骤。
第五方面,本申请实施例提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现如第一方面的方法。
这样,在本申请的实施例中,用户在寻找人、宠物、物品等目标对象时,可利用定位技术获取目标对象在拍摄环境中的第一位置信息,同时,获取摄像头模组所采集的与拍摄环境对应的目标图像。从而,可在目标图像所对应的拍摄环境中识别出第一位置信息,并在目标图像显示用于指示第一位置信息的目标标识,进而使得用户可结合目标图像中的目标标识,与实际的拍摄环境,在拍摄环境中找到目标对象。相比于现有技术,本申请的实施例利用图像,将查找到的位置信息与实际拍摄环境相融合,不再以单一的平面坐标或是距离数据呈现查找结果,从而实现了将目标对象的虚拟位置投射到实际拍摄的画面中的显示效果,可帮助用户可视化地查找目标对象,进而使得显示效果生动、有趣,不再单一。
附图说明
图1是本申请实施例的显示方法的流程图;
图2~图5是本申请实施例的显示方法的示意图;
图6是本申请实施例的显示装置的平面结构示意图;
图7是本申请实施例的UWB定位的原理示意图;
图8是本申请实施例的显示装置的框图;
图9是本申请实施例的电子设备的硬件结构示意图之一。
图10是本申请实施例的电子设备的硬件结构示意图之二。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的显示方法进行详细地说明。
图1示出了本申请一个实施例的显示方法的流程图,本实施例中的显示方法应用于显示装置,该显示装置包括摄像头模组;对应地,该方法包括:
步骤S1:获取目标对象在拍摄环境中的第一位置信息。
可选地,目标对象可以是钥匙、穿戴设备、水杯、孩子、小狗等人或物。
可选地,目标对象还可以是某个建筑等地址。
可选地,第一位置信息可以是在拍摄环境中,基于全球定位系统(GlobalPositioning System,简称GPS)定位得到的位置信息;第一位置信息还可以是在拍摄环境中,基于一种无载波通信技术(Ultra Wideband,简称UWB)定位得到的位置信息。
其中,本实施例的目标对象需携带定位标签。
需要说明的是,这里的“定位标签”可被GPS所识别,或者可被UWB基站所识别。
例如,钥匙与携带定位标签的设备绑定,钥匙可作为本实施例中的目标对象。
本实施例的应用场景如,用户开启显示装置中的“查找”功能,输入需要查找的目标对象,如指定钥匙。
步骤S2:获取摄像头模组采集的拍摄环境对应的目标图像。
在该步骤中,在“查找”功能开启后,摄像头模组开始采集图像,显示装置显示拍摄预览界面,拍摄预览界面用于显示所采集的图像。
目标图像为目标对象所在的拍摄环境对应的图像。
步骤S3:在目标图像中识别第一位置信息。
可选地,利用增强现实(Augmented Reality,简称AR)技术,在目标图像中识别第一位置信息。
在该步骤中,可通过采集现实环境对应的图像,识别出第一位置信息对应现实环境中的哪个位置,哪个物品,如卫生间里、桌子上等。
步骤S4:在目标图像中显示用于指示第一位置信息的目标标识。
目标标识用于指示第一位置信息,即用于指示目标对象。
可选地,目标标识可以是图标,如箭头图标、位置图标、目标对象的示意图标等。
这样,在本申请的实施例中,用户在寻找人、宠物、物品等目标对象时,可利用定位技术获取目标对象在拍摄环境中的第一位置信息,同时,获取摄像头模组所采集的与拍摄环境对应的目标图像。从而,可在目标图像所对应的拍摄环境中识别出第一位置信息,并在目标图像显示用于指示第一位置信息的目标标识,进而使得用户可结合目标图像中的目标标识,与实际的拍摄环境,在拍摄环境中找到目标对象。相比于现有技术,本申请的实施例利用图像,将查找到的位置信息与实际拍摄环境相融合,不再以单一的平面坐标或是距离数据呈现查找结果,从而实现了将目标对象的虚拟位置投射到实际拍摄的画面中的显示效果,可帮助用户可视化地查找目标对象,进而使得显示效果生动、有趣,不再单一。
在本申请另一个实施例的显示方法的流程中,步骤S3,包括:
子步骤A1:获取显示装置所在的第二位置信息。
本实施例是基于显示装置去实现对象查找的。应用场景如,用户手持显示装置、或者用户在显示装置旁边。因此,在该步骤中,获取显示装置所在的第二位置信息,即获取用户所在的第二位置信息。
本实施例以UWB定位技术为例,进行详细说明。
参见图2,基于UWB定位功能,定位显示装置的第二位置信息为(x0,y0,z0)。
参见图3,对应地,基于UWB定位功能,定位目标对象的第一位置信息为(x1,y1,z1)。
子步骤A2:根据第一位置信息和第二位置信息,获取目标对象相对于显示装置的第三相对位置信息。
参见图4,在该步骤中,基于第一位置信息(x1,y1,z1)和第二位置信息(x0,y0,z0),可计算到目标对象相对于显示装置的矢量距离(x1-x0,y1-y0,z1-z0),即第三相对位置信息,如图4中的虚线箭头所示。
从而,在该步骤中,得到目标对象相对于用户的相对位置。
子步骤A3:根据第二位置信息,在目标图像中识别第三相对位置信息。
在该步骤中,将第三相对位置信息(x1-x0,y1-y0,z1-z0),导入目标图像,以显示出目标对象在目标图像中的虚拟位置。
可选地,可启用摄像头模组的AR模式,利用AR测距功能,以及显示装置内部的三轴陀螺仪测量的数据,将第三相对位置信息导入目标图像。
在本实施例中,以用户本身作为一个参考位置,确定目标对象相对用户的相对位置。进一步地,在当前显示的目标图像中,利用距离测量、角度测量等技术,识别出这一相对位置,并显示标记。可见,在本实施例中,最终显示在目标图像中的目标标识是以用户和AR实景为参照得来的,用户可按图索骥,根据可视化的标识找到目标对象。
参见图5,在本申请另一个实施例的显示方法中,目标标识还可通过虚线指示体现出矢量距离(x1-x0,y1-y0,z1-z0),虚线可用于引导用户,使得用户可以根据可视化的引导信息找到目标对象,从而进一步丰富显示效果。
在本申请另一个实施例的显示方法中,显示装置还包括UWB模组。
参见图6,显示装置包括摄像头模组1和UWB模组2。
其中,摄像头模组1用于采集图像,以及识别图像;UWB模组2用于定位。
可选地,摄像头模组1为AR摄像头模组。
可选地,UWB模组2包括芯片等。
需要说明的是,UWB,是一种新型的无线通信技术,和常见的近距离无线通讯技术(Near Field Communication,简称NFC)、无线保真(Wireless-Fidelity,简称WIFI)、蓝牙等同属于同一种射频技术。但与其它射频技术相比,UWB具有一个独特的优势,即其拥有高精度的空间感知能力,定位精度可达厘米级,因此可应用于短距离、设备间的精确定位。
参见图7,UWB具体的实现原理为:
将被测物品加入UWB标签,使得被测物品具有UWB定位功能。被测物品基于UWB功能,可发射信号到3个(或以上)位置不同、高度不一的UWB基站,通过测量到达不同基站所用的时间,即可得到发射点与接收点之间的距离。随后以基站为圆心,所测得距离为半径做圆,3圆交点即为被测物品所在的空间位置。
可选地,将被测物品与具有UWB定位功能的设备捆绑在一起,以使得被测物品具有UWB定位功能;或者,被测物品本身是具有UWB定位功能的设备。
对应地,步骤S1,包括:
子步骤B1:获取UWB模组定位的目标对象在拍摄环境中的第一位置信息。
步骤A1,包括:
子步骤B2:获取UWB模组定位的显示装置所在的第二位置信息。
进一步地,可将UWB模组和摄像头模组组合在一起,形成UWB摄像头模组,从而使得UWB摄像头模组可将UWB超宽频技术与AR虚拟现实技术相结合,以通过UWB查找对象,再通过AR技术将查找对象的空间位置展示出来,使用户通过可视化的方式查找到目标对象。
在本实施例中,当用户查找带有UWB标签的目标对象时,首先利用UWB模组的定位功能,由UWB标签与基站通信,获得目标对象的空间绝对位置,再获得目标对象的空间相对位置,然后可利用摄像头模组的AR模式,将目标对象的虚拟位置投射到实际拍摄的画面中。可见,本实施例将UWB的精准定位技术应用于小型的立体空间的查找场景中,既锁定到目标对象的空间位置,又呈现出高可视化的查找结果,丰富了查找场景中的显示效果。
在本申请另一个实施例的显示方法的流程中,步骤S1之前,还包括:
步骤C1:接收用户对目标对象的目标识别信息的第一输入。
第一输入包括用户在屏幕上进行的触摸输入、以及隔空输入,不限于点击、滑动等输入;第一输入还包括用户在设备上对实体按键进行的输入,不限于按动等输入。而且,第一输入包括一个或者多个输入,其中,多个输入可以是连续的,也可以是间断的。
应用场景如,用户在显示装置中打开UWB程序,输入待查找的目标对象的名称。
应用场景又如,用户在显示装置中打开UWB程序,输入待查找的目标对象的图片。
可选地,目标对象的目标识别信息包括目标对象的名称、图片等。
步骤C2:响应于第一输入,根据目标识别信息,获取目标对象的UWB识别信息。
对于每个携带UWB标签的对象,均对应有唯一的UWB识别信息,以用于UWB基站识别。因此,在该步骤中,获取UWB识别信息,以用于UWB基站识别目标对象。
可选地,用户可预先建立目标对象的目标识别信息与目标对象的UWB识别信息的对应关系,以在用户输入目标识别信息之后,可获取目标对象的UWB识别信息,以准确识别用户输入。
可选地,用户在步骤C1中,直接输入目标对象的UWB识别信息,即目标识别信息包括UWB识别信息。
可选地,对于一些目标对象的目标识别信息与目标对象的UWB识别信息,其对应关系为默认建立的,则用户可在步骤C1中,直接输入目标对象的目标识别信息。
需要说明的是,目标识别信息用于显示装置系统识别出目标对象,UWB识别信息用于UWB基站识别出目标对象。
对应地,步骤S1,包括:
子步骤C3:根据目标对象的UWB识别信息,获取目标对象在拍摄环境中的第一位置信息。
在本实施例中,基于UWB定位功能的实现原理,可通过输入目标对象的目标识别信息,以识别用户需要查找的目标对象,再获取与目标对象呈唯一对应关系的UWB识别信息,从而UWB基站根据UWB识别信息,对目标对象进行定位,进而在本实施例中获取目标对象的UWB位置信息,即第一位置信息。可见,基于本实施例提供的查找目标对象的实现场景,最终可呈现出可视化的查找结果,以丰富显示效果。
在本申请另一个实施例的显示方法的流程中,步骤S3,包括:
子步骤D1:在目标图像中识别至少一个拍摄对象。
在该步骤中,利用AR识图功能,识别出目标图像中的拍摄对象。
子步骤D2:根据第一位置信息,识别第一位置信息对应的目标拍摄对象。
在该步骤中,利用AR技术,在目标图像中找到第一位置信息,并识别出第一位置信息所对应的目标拍摄对象。
例如,识别出钥匙所在的位置,对应为客厅的沙发上。
对应地,步骤S4,包括:
子步骤D3:在目标图像中的目标拍摄对象上显示目标标识。
在该步骤中,可在识别出的目标拍摄对象上,显示目标标识。
不同于现有技术中,查找软件的数据库并不能覆盖家庭数据、户型数据等数据,本实施例可通过AR技术,识别出图像中所显现的拍摄对象,从而能够可视化地将目标对象的位置具体到某一个拍摄对象,进而提供了一种显示效果更佳的定位服务,以帮助用户掌握位置信息、指示方向,增强对空间的掌控感,给用户的工作生活带来很大的便利。
综上,本申请的实施例基于UWB的高精度定位,可以快速锁定到目标对象空间位置,结合AR虚拟现实技术,可将目标对象的位置可视化的呈现给用户。另外,除了物品查找,UWB结合与AR的技术方案同样适用于宠物防丢、贵重物品防盗等多种应用场景下。
需要说明的是,本申请实施例提供的显示方法,执行主体可以为显示装置,或者该显示装置中的用于执行显示方法的控制模块。本申请实施例中以显示装置执行显示方法为例,说明本申请实施例提供的显示方法的显示装置。
图8示出了本申请另一个实施例的显示装置的框图,包括:
摄像头模组10;
位置获取模块20,用于获取目标对象在拍摄环境中的第一位置信息;
图像获取模块30,用于获取摄像头模组10采集的拍摄环境对应的目标图像;
位置识别模块40,用于在目标图像中识别第一位置信息;
位置显示模块50,用于在目标图像中显示用于指示第一位置信息的目标标识。
这样,在本申请的实施例中,用户在寻找人、宠物、物品等目标对象时,可利用定位技术获取目标对象在拍摄环境中的第一位置信息,同时,获取摄像头模组10所采集的与拍摄环境对应的目标图像。从而,可在目标图像所对应的拍摄环境中识别出第一位置信息,并在目标图像显示用于指示第一位置信息的目标标识,进而使得用户可结合目标图像中的目标标识,与实际的拍摄环境,在拍摄环境中找到目标对象。相比于现有技术,本申请的实施例利用图像,将查找到的位置信息与实际拍摄环境相融合,不再以单一的平面坐标或是距离数据呈现查找结果,从而实现了将目标对象的虚拟位置投射到实际拍摄的画面中的显示效果,可帮助用户可视化地查找目标对象,进而使得显示效果生动、有趣,不再单一。
可选地,位置识别模块40,包括:
用户位置获取单元,用于获取显示装置所在的第二位置信息;
相对位置获取单元,用于根据第一位置信息和第二位置信息,获取目标对象相对于显示装置的第三相对位置信息;
相对位置识别单元,用于根据第二位置信息,在目标图像中识别第三相对位置信息。
可选地,装置还包括UWB模组;
位置获取模块10,包括:
第一获取单元,用于获取UWB模组定位的目标对象在拍摄环境中的第一位置信息;
用户位置获取单元,包括:
第二获取子单元,用于获取UWB模组定位的显示装置所在的第二位置信息。
可选地,装置,还包括:
第一输入接收模块,用于接收用户对目标对象的目标识别信息的第一输入;
第一输入响应模块,用于响应于第一输入,根据目标识别信息,获取目标对象的UWB识别信息;
位置获取模块10,包括:
第三获取单元,用于根据目标对象的UWB识别信息,获取目标对象在拍摄环境中的第一位置信息。
可选地,位置识别模块40,包括:
第一识别单元,用于在目标图像中识别至少一个拍摄对象;
第二识别单元,用于根据第一位置信息,识别第一位置信息对应的目标拍摄对象;
位置显示模块50,包括:
拍摄对象显示单元,用于在目标图像中的目标拍摄对象上显示目标标识。
本申请实施例中的显示装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personaldigital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(NetworkAttached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的显示装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的显示装置能够实现上述方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图9所示,本申请实施例还提供一种电子设备100,包括处理器102,存储器101,存储在存储器101上并可在所述处理器102上运行的程序或指令,该程序或指令被处理器102执行时实现上述任一种显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图10为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1000包括但不限于:射频单元1001、网络模块1002、音频输出单元1003、输入单元1004、传感器1005、显示单元1006、用户输入单元1007、接口单元1008、存储器1009、处理器1010、摄像头模组1011等部件。
本领域技术人员可以理解,电子设备1000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1010逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图10中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器1010,用于获取目标对象在拍摄环境中的第一位置信息;获取所述摄像头模组1011采集的所述拍摄环境对应的目标图像;在所述目标图像中识别所述第一位置信息;显示单元1006,用于在所述目标图像中显示用于指示所述第一位置信息的目标标识。
这样,在本申请的实施例中,用户在寻找人、宠物、物品等目标对象时,可利用定位技术获取目标对象在拍摄环境中的第一位置信息,同时,获取摄像头模组1011所采集的与拍摄环境对应的目标图像。从而,可在目标图像所对应的拍摄环境中识别出第一位置信息,并在目标图像显示用于指示第一位置信息的目标标识,进而使得用户可结合目标图像中的目标标识,与实际的拍摄环境,在拍摄环境中找到目标对象。相比于现有技术,本申请的实施例利用图像,将查找到的位置信息与实际拍摄环境相融合,不再以单一的平面坐标或是距离数据呈现查找结果,从而实现了将目标对象的虚拟位置投射到实际拍摄的画面中的显示效果,可帮助用户可视化地查找目标对象,进而使得显示效果生动、有趣,不再单一。
可选地,处理器1010,还用于获取电子设备1000所在的第二位置信息;根据所述第一位置信息和所述第二位置信息,获取所述目标对象相对于电子设备1000的第三相对位置信息;根据所述第二位置信息,在所述目标图像中识别所述第三相对位置信息。
可选地,电子设备1000还包括UWB模组;处理器1010,还用于获取所述UWB模组定位的所述目标对象在拍摄环境中的第一位置信息;获取所述UWB模组定位的电子设备1000所在的第二位置信息。
可选地,用户输入单元1007,用于接收用户对所述目标对象的目标识别信息的第一输入;处理器1010,还用于响应于所述第一输入,根据所述目标识别信息,获取所述目标对象的UWB识别信息;根据所述目标对象的UWB识别信息,获取所述目标对象在拍摄环境中的第一位置信息。
可选地,处理器1010,还用于在所述目标图像中识别至少一个拍摄对象;根据所述第一位置信息,识别所述第一位置信息对应的目标拍摄对象;显示单元1006,还用于在所述目标图像中的所述目标拍摄对象上显示所述目标标识。
综上,本申请的实施例基于UWB的高精度定位,可以快速锁定到目标对象空间位置,结合AR虚拟现实技术,可将目标对象的位置可视化的呈现给用户。另外,除了物品查找,UWB结合与AR的技术方案同样适用于宠物防丢、贵重物品防盗等多种应用场景下。
应理解的是,本申请实施例中,输入单元1004可以包括图形处理器(GraphicsProcessing Unit,GPU)10041和麦克风10042,图形处理器10041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1006可包括显示面板10061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板10061。用户输入单元1007包括触控面板10071以及其他输入设备10072。触控面板10071,也称为触摸屏。触控面板10071可包括触摸检测装置和触摸控制器两个部分。其他输入设备10072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1009可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器1010可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1010中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述任一种显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述任一种显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (10)
1.一种显示方法,应用于显示装置,所述显示装置包括摄像头模组,其特征在于,所述方法包括:
获取目标对象在拍摄环境中的第一位置信息;
获取所述摄像头模组采集的所述拍摄环境对应的目标图像;
在所述目标图像中识别所述第一位置信息;
在所述目标图像中显示用于指示所述第一位置信息的目标标识。
2.根据权利要求1所述的方法,其特征在于,所述在所述目标图像中识别所述第一位置信息,包括:
获取所述显示装置所在的第二位置信息;
根据所述第一位置信息和所述第二位置信息,获取所述目标对象相对于所述显示装置的第三相对位置信息;
根据所述第二位置信息,在所述目标图像中识别所述第三相对位置信息。
3.根据权利要求2所述的方法,其特征在于,所述显示装置还包括UWB模组;
所述获取目标对象在拍摄环境中的第一位置信息,包括:
获取所述UWB模组定位的所述目标对象在拍摄环境中的第一位置信息;
所述获取所述显示装置所在的第二位置信息,包括:
获取所述UWB模组定位的所述显示装置所在的第二位置信息。
4.根据权利要求3所述的方法,其特征在于,所述获取目标对象在拍摄环境中的第一位置信息之前,还包括:
接收用户对所述目标对象的目标识别信息的第一输入;
响应于所述第一输入,根据所述目标识别信息,获取所述目标对象的UWB识别信息;
所述获取所述目标对象在拍摄环境中的第一位置信息,包括:
根据所述目标对象的UWB识别信息,获取所述目标对象在拍摄环境中的第一位置信息。
5.根据权利要求1所述的方法,其特征在于,所述在所述目标图像中识别所述第一位置信息,包括:
在所述目标图像中识别至少一个拍摄对象;
根据所述第一位置信息,识别所述第一位置信息对应的目标拍摄对象;
所述在所述目标图像中显示用于指示所述第一位置信息的目标标识,包括:
在所述目标图像中的所述目标拍摄对象上显示所述目标标识。
6.一种显示装置,所述装置包括摄像头模组,其特征在于,所述装置还包括:
位置获取模块,用于获取目标对象在拍摄环境中的第一位置信息;
图像获取模块,用于获取所述摄像头模组采集的所述拍摄环境对应的目标图像;
位置识别模块,用于在所述目标图像中识别所述第一位置信息;
位置显示模块,用于在所述目标图像中显示用于指示所述第一位置信息的目标标识。
7.根据权利要求6所述的装置,其特征在于,所述位置识别模块,包括:
用户位置获取单元,用于获取所述显示装置所在的第二位置信息;
相对位置获取单元,用于根据所述第一位置信息和所述第二位置信息,获取所述目标对象相对于所述显示装置的第三相对位置信息;
相对位置识别单元,用于根据所述第二位置信息,在所述目标图像中识别所述第三相对位置信息。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括UWB模组;
所述位置获取模块,包括:
第一获取单元,用于获取所述UWB模组定位的所述目标对象在拍摄环境中的第一位置信息;
所述用户位置获取单元,包括:
第二获取子单元,用于获取所述UWB模组定位的所述显示装置所在的第二位置信息。
9.根据权利要求8所述的装置,其特征在于,所述装置,还包括:
第一输入接收模块,用于接收用户对所述目标对象的目标识别信息的第一输入;
第一输入响应模块,用于响应于所述第一输入,根据所述目标识别信息,获取所述目标对象的UWB识别信息;
所述位置获取模块,包括:
第三获取单元,用于根据所述目标对象的UWB识别信息,获取所述目标对象在拍摄环境中的第一位置信息。
10.根据权利要求6所述的装置,其特征在于,所述位置识别模块,包括:
第一识别单元,用于在所述目标图像中识别至少一个拍摄对象;
第二识别单元,用于根据所述第一位置信息,识别所述第一位置信息对应的目标拍摄对象;
所述位置显示模块,包括:
拍摄对象显示单元,用于在所述目标图像中的所述目标拍摄对象上显示所述目标标识。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011350187.XA CN112565597A (zh) | 2020-11-26 | 2020-11-26 | 显示方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011350187.XA CN112565597A (zh) | 2020-11-26 | 2020-11-26 | 显示方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112565597A true CN112565597A (zh) | 2021-03-26 |
Family
ID=75045793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011350187.XA Pending CN112565597A (zh) | 2020-11-26 | 2020-11-26 | 显示方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112565597A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113225505A (zh) * | 2021-04-19 | 2021-08-06 | 深圳市纽瑞芯科技有限公司 | 嵌入uwb定位基站的电视装置及uwb定位基站位置标定方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104976999A (zh) * | 2015-06-30 | 2015-10-14 | 北京奇虎科技有限公司 | 一种基于移动设备查找物品的方法和装置 |
CN106352884A (zh) * | 2016-08-24 | 2017-01-25 | 潘重光 | 提示方法及装置 |
CN109839105A (zh) * | 2017-11-29 | 2019-06-04 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的位置导航方法及系统 |
WO2020062267A1 (zh) * | 2018-09-30 | 2020-04-02 | 华为技术有限公司 | 一种信息提示方法及电子设备 |
CN111479090A (zh) * | 2020-04-15 | 2020-07-31 | Oppo广东移动通信有限公司 | 智能监控方法、装置、系统及存储介质 |
-
2020
- 2020-11-26 CN CN202011350187.XA patent/CN112565597A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104976999A (zh) * | 2015-06-30 | 2015-10-14 | 北京奇虎科技有限公司 | 一种基于移动设备查找物品的方法和装置 |
CN106352884A (zh) * | 2016-08-24 | 2017-01-25 | 潘重光 | 提示方法及装置 |
CN109839105A (zh) * | 2017-11-29 | 2019-06-04 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的位置导航方法及系统 |
WO2020062267A1 (zh) * | 2018-09-30 | 2020-04-02 | 华为技术有限公司 | 一种信息提示方法及电子设备 |
CN111479090A (zh) * | 2020-04-15 | 2020-07-31 | Oppo广东移动通信有限公司 | 智能监控方法、装置、系统及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113225505A (zh) * | 2021-04-19 | 2021-08-06 | 深圳市纽瑞芯科技有限公司 | 嵌入uwb定位基站的电视装置及uwb定位基站位置标定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN203276350U (zh) | 信息处理设备 | |
CN109947886B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US8850337B2 (en) | Information processing device, authoring method, and program | |
US9639988B2 (en) | Information processing apparatus and computer program product for processing a virtual object | |
US20110279478A1 (en) | Virtual Tagging Method and System | |
KR101533320B1 (ko) | 포인터가 불필요한 3차원 객체 정보 획득 장치 | |
CN104936283A (zh) | 室内定位方法、服务器和系统 | |
US20130329061A1 (en) | Method and apparatus for storing image data | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
EP2974509A1 (en) | Personal information communicator | |
WO2014135427A1 (en) | An apparatus and associated methods | |
CN111752658B (zh) | 管理功能教程的方法、装置、设备以及存储介质 | |
CN113989469A (zh) | Ar景点显示方法及装置、电子设备和存储介质 | |
KR101568741B1 (ko) | 모바일 증강현실 기반의 정보 제공 시스템 | |
CN112565597A (zh) | 显示方法和装置 | |
Shao et al. | Marble: Mobile augmented reality using a distributed ble beacon infrastructure | |
KR101317869B1 (ko) | 메쉬데이터 생성장치, 그 방법, 도우미 서비스 제공 서버 그리고 스마트 단말기 | |
CN111754564B (zh) | 视频展示方法、装置、设备及存储介质 | |
CN114489314A (zh) | 增强现实影像显示方法及相关装置 | |
CN112804481B (zh) | 监控点位置的确定方法、装置及计算机存储介质 | |
CN112539752B (zh) | 室内定位方法、室内定位装置 | |
CN107806862A (zh) | 航测外业测量方法及系统 | |
CN111539794A (zh) | 凭证信息的获取方法、装置、电子设备及存储介质 | |
CN108062786B (zh) | 以三维信息模型为基础的综合感知定位技术应用系统 | |
CN104144287A (zh) | 一种增强现实照相机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210326 |
|
RJ01 | Rejection of invention patent application after publication |