CN112788248A - 一种拍摄方法和装置 - Google Patents
一种拍摄方法和装置 Download PDFInfo
- Publication number
- CN112788248A CN112788248A CN202110311334.0A CN202110311334A CN112788248A CN 112788248 A CN112788248 A CN 112788248A CN 202110311334 A CN202110311334 A CN 202110311334A CN 112788248 A CN112788248 A CN 112788248A
- Authority
- CN
- China
- Prior art keywords
- shooting
- distance
- angle
- equipment
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/671—Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
本申请公开了一种拍摄方法和装置,其中方法包括:当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立超宽带(UWB)连接,采用UWB测距方式,实时测量与定位设备之间的拍摄距离和拍摄角度;基于当前测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距;基于所述拍摄参数和所述构图模型,生成预览画面并显示;当接收到拍摄指令时,将预览画面作为拍摄结果输出,并利用拍摄参数更新用户习惯拍摄参数集合。采用本申请,可以实现焦距的智能调整、提高拍摄参数设置的智能性和便捷性。
Description
技术领域
本发明涉及计算机技术,特别是涉及一种拍摄方法和装置。
背景技术
随着社会的发展,人们生活水平的提高,人们已经习惯使用拍摄的方式来记录生活的点点滴滴。现有的拍摄方案采用的焦距设置方法有两种,一种是基于系统参数自动调整,另一种是由用户手动调整。其中,自动调整的方式是针对静态物体拍摄的调整,手动调整耗时且操作不便,无法准确定位。
发明内容
有鉴于此,本发明的主要目的在于提供一种拍摄方法和装置,可以实现焦距的智能调整、提高拍摄参数设置的智能性和便捷性。
为了达到上述目的,本发明实施例提出的技术方案为:
一种拍摄方法,包括:
当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立UWB连接,并采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和拍摄角度;
基于当前测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;
基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距;
基于所述拍摄参数和所述构图模型,生成预览画面并显示;
当接收到拍摄指令时,将当前的预览画面作为拍摄结果输出,并利用所述拍摄参数更新所述用户习惯拍摄参数集合。
一种拍摄装置,包括:
连接定位单元,用于当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立UWB连接,并采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和拍摄角度;
用户习惯获取单元,用于基于当前测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;
拍摄参数设置单元,用于基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距;
预览单元,用于基于所述拍摄参数和所述构图模型,生成预览画面并显示;
拍摄单元,用于当接收到拍摄指令时,将当前的预览画面作为拍摄结果输出,并利用所述拍摄参数更新所述用户习惯拍摄参数集合。
一种拍摄设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上述任一项拍摄方法。
一种计算机可读存储介质,其中存储有计算机可读指令,该计算机可读指令用于执行如上述任一项拍摄方法。
综上所述,本发明提出的拍摄方法和装置,采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和角度,基于实时测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合,基于该用户习惯拍摄参数集合和所述拍摄距离,确定当前包括焦距在内的拍摄参数。如此,一方面可以利用UWB测距的准确性,提高拍摄距离的准确性,进而可以提高所采用的构图模型和拍摄焦距的准确性,并且基于与当前拍摄场景相匹配的用户习惯拍摄参数集合和当前的拍摄距离,设置拍摄参数,可以提高拍摄参数设置的智能化和便捷性;另一方面可以利用与当前拍摄场景相匹配的构图模型,提高预览画面的表现力,进而提高用户对预览画面的满意度。
附图说明
图1为本发明实施例的方法流程示意图;
图2为本发明实施例的拍摄设备与拍摄目标携带的定位设备建立UWB连接的示意图;
图3为本发明实施例的测量拍摄设备天线与定位设备之间距离的测量示意图;
图4为本发明实施例的定位设备的坐标示意图;
图5为本发明实施例的装置结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1为本发明实施例的拍摄方法流程示意图,如图1所示,该实施例主要包括:
步骤101、当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立UWB连接,并采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和拍摄角度。
本步骤中,为了确保对拍摄目标的准确拍摄,拍摄设备在拍摄之前需要与拍摄目标携带的定位设备进行设备认证连接(如图2所示)。相应的,为了建立上述UWB连接,拍摄设备需要具有UWB芯片,拍摄目标需要携带定位设备,该定位设备也需要具有UWB芯片。
另外,本步骤中,通过采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和角度,可以利用UWB测距的精准度优势,提高测量结果的准确性,进而可以提高拍摄参数设置的准确性。
具体地,所述拍摄设备可以是智能手机、智能相机等包含UWB芯片的含有拍照功能的设备。
所述定位设备可以为含有UWB芯片的智能设备,例如,含有UWB芯片的手机、手表、定位器等。
在一实施方式中,当所述拍摄设备处于照片拍摄模式时,可以采用下述方法测量与所述定位设备之间的拍摄距离和角度:
步骤a1、确定所述拍摄设备的每根UWB芯片天线与所述定位设备之间的距离;所述拍摄设备包括至少三根UWB芯片天线。
具体地,对于拍摄设备的每根UWB芯片天线,可以采用到达时间差测距方法,计算该天线与所述定位设备之间的距离。
如图3所示,时间T1表示拍摄设备的一根UWB芯片天线i发送数据包的时刻;时间T2表示拍摄目标的定位设备接收到数据包的时刻;时间T3表示拍摄目标的定位设备发送回复数据包的时刻;时间T4表示拍摄设备的所述天线i接收到回复数据包的时刻。此时,可以采用下述公式,计算天线i到拍摄目标的定位设备的距离di:
i表示拍摄设备的每根UWB芯片天线的编号。
步骤a2、基于每根所述UWB芯片天线在预设三维坐标系中的坐标和所述距离,确定所述定位设备的坐标P;其中,三维坐标系的原点为预设多边形的外心,所述多边形的顶点由所述拍摄设备的所有UWB芯片天线对应的坐标点组成。
为便于计算,三维坐标系的x轴和y轴位于所述多边形所在平面,z轴则垂直于该平面。
如图4所示,假设拍摄设备具有三根UWB芯片天线,连接三根天线对应的三个坐标点P1、P2、P3,可以得到所述多边形(即三角形),该三角形的外心为坐标原点O,此时,OP1=OP2=OP3。
已知坐标点P1、P2、P3的坐标P1(x1,y1,0)、P2(x2,y2,0)、P3(x3,y3,0),和三根UWB芯片天线分别与所述定位设备之间的距离d1、d2、d3,可以按照求解所述定位设备的坐标P(x,y,z)。
步骤a3、计算所述坐标原点与所述坐标P之间的连线与所述多边形所在平面的夹角,得到所述拍摄角度。
如图4所示,假设拍摄设备具有三根UWB芯片天线,则可以按照下述公式计算上述夹角:
步骤a4、基于所述坐标原点与所述坐标P之间的距离d,计算所述拍摄距离。
考虑到实际应用中,拍摄者在测量过程中会有一定的位移,例如,持有拍摄设备的手臂或身体发生前后移动。此情况下,为了提高后续基于拍摄距离确定焦距的准确性,在拍摄的过程中,可以对所测量的距离进行微调,得到用于确定焦距的所述拍摄距离。
在一种实施方式中,步骤a4中可以采用下述方法基于所述坐标原点与所述坐标P之间的距离d,计算所述拍摄距离:
判断所述拍摄设备当前是否在水平方向发生向前或向后的位移,如果是,则按照D=△d+d,计算所述拍摄距离D;否则,将所述距离d作为所述拍摄距离D。
其中,△d为所述位移,即步骤a1执行后拍摄设备发生的前向或后向位移。
这里的向前和向后是以持有拍摄设备的拍摄用户为参照,即拍摄用户的前方和后方。
当所述位移为向前的位移时,说明拍摄设备与拍摄目标之间的距离缩小,故此时△d小于0,当所述位移为向后的位移时,说明拍摄设备与拍摄目标之间的距离增加,故此时△d大于0。
进一步地,为了提高计算效率,在上述方法中可以基于用户的习惯拍摄位移,确定所述拍摄距离,即不需要每次检测到用户移动时都要计算拍摄设备当前的位移。具体地,在步骤a4的另一种实施方式中,可以采用下述方法基于所述坐标原点与所述坐标P之间的距离d,计算所述拍摄距离:
步骤w1、判断所述拍摄设备当前是否在水平方向发生向前或向后的位移,如果是,则执行步骤w2;否则,执行将所述距离d作为所述拍摄距离D。
步骤w2、判断当前是否已保存用户习惯拍摄位移,如果是,则按照D=Δd′+d,计算所述拍摄距离D,△d'为所述用户习惯拍摄位移;否则,按照D=Δd+d,计算所述拍摄距离D,并将所述△d保存为所述用户习惯拍摄位移△d'。
其中,△d为当前发生的所述位移,当所述位移为向前的位移时,△d小于0,当所述位移为向后的位移时,△d大于0。
在一实施方式中,为了提高步骤101中所确定的拍摄距离和拍摄角度的准确性,当所述拍摄设备处于视频拍摄模式时,可以采用下述方法测量与所述定位设备之间的拍摄距离和拍摄角度:
步骤b1、采用UWB测距方式,按照预设的测量周期,测量N次所述拍摄设备与所述定位设备之间的距离d和角度α。
这里,考虑到是处于视频录制过程,为了提高测量的准确性,需要连续测量多次,基于多次测量的结果,确定当前的拍摄距离和角度。
具体地,本领域技术人员可根据实际需要设置所述N和所述测量周期。例如,考虑到视频拍摄可以达到60帧每秒,一帧需要16.6毫秒。UWB一次测量时间在5~10毫秒之间,可以选择10帧为一组,检测10个UWB距离,即,要N设置为10,测量周期为16.6毫秒。较佳的,N的取值范围可以为:2≤N≤60,但不限于此。
步骤b1中测量所述距离d和角度α的方法具体采用下述步骤实现:
步骤x1、确定所述拍摄设备的每根UWB芯片天线与所述定位设备之间的距离;所述拍摄设备包括至少三根UWB芯片天线。
本步骤的具体实现同步骤a1,在此不再赘述。
步骤x2、基于每根所述UWB芯片天线在预设三维坐标系中的坐标和与所述定位设备之间的所述距离,确定所述定位设备的坐标P;其中,三维坐标系的原点为预设多边形的外心,所述多边形的顶点由所述拍摄设备的所有UWB芯片天线对应的坐标点组成。
本步骤的具体实现同步骤a2,在此不再赘述。
步骤x3、计算所述坐标原点与所述坐标P之间的连线与所述多边形所在平面的夹角,得到所述角度α。
本步骤的具体实现同步骤a3,在此不再赘述。
步骤x4、计算所述坐标原点与所述坐标P之间的距离,得到所述距离d。
步骤b2、基于当前N次测量得到的所述距离d和所述角度α,计算相应的平均距离和平均角度。
步骤b3、判断当前N次测量得到的每个所述距离d与所述平均距离之间差值的绝对值是否均小于预设的距离阈值T,如果是,则将所述平均距离作为所述拍摄距离,将所述平均角度作为所述拍摄角度;否则,返回步骤b1。
这里,如果检测到有一次测量的距离d与所述平均距离之间差值的绝对值大于等于所述距离阈值T,则说明差距变化较大,为了提高准确性,需要返回步骤b1重新测量。
所述距离阈值T可由本领域技术人员根据实际需要设置合适取值。例如,考虑到一个走的距离约为65厘米,可以将T设置为0.65米。
步骤102、基于当前测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合。
在一实施方式中,为提高所确定的构图模型的准确性,具体可以采用下述方法确定当前的构图模型:
步骤b1、所述拍摄设备基于当前测量的所述拍摄距离和所述角度,确定所述拍摄目标在预览画面的位置,并基于当前采集的场景画面,识别拍摄场景类型。
具体可以采用现有方法自动识别拍摄场景类型。
具体的拍摄场景类型可以为单人拍摄、多人合影、人景混合、人文建设等类型,但不限于此。
步骤b2、将与所述位置和所述拍摄场景类型相匹配的构图模型,作为当前的构图模型。
在实际应用中,本领域技术人员或用户可以根据需要,预先为每种拍摄场景类型设置拍摄目标在不同位置时所匹配的构图模型。这样,本步骤中,可以基于当前的拍摄场景类型和拍摄目标在画面中的位置,确定出相匹配的构图模型。
具体的构图模型可以包括七分构图、对角线构图、对称式构图、三角形构图、L型构图、中心构图、水平线构图和三分构图等,但不限于此。
进一步地,考虑到用户初始使用拍摄设备时设备中没有记录用户的拍照行为,此情况下,可以触发用户设置拍摄参数,并记录,以提高后续拍摄的智能性。具体地,可以采用下述方法实现这一目的:
在一实施方式中,如果步骤102中获取所述用户习惯拍摄参数集合失败,则拍摄设备触发用户设置当前的拍摄参数,并将所设置的拍摄参数,添加至与当前的构图模型相匹配的用户习惯拍摄参数集合。
步骤103、基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距。
本步骤中,将从所述用户习惯拍摄参数集合,选取与所述拍摄距离相匹配的拍摄参数,作为当前的拍摄参数。具体的拍摄参数为本领域技术人员所已知,如焦距、光圈、快门、感光度等。这样,基于当前获取的所述用户习惯拍摄参数集合和所述拍摄距离,设置拍摄参数,一方面,可以减少拍摄参数的手工设置,提高拍摄参数的智能性和便捷性,另一方面也可以不再受限于系统的固定设置,提高拍摄参数设置的灵活性和准确性。
步骤104、基于所述拍摄参数和所述构图模型,生成预览画面并显示。
在一实施方式中,为了提高预览画面的质量,本步骤在生成预览画面时,可以基于拍摄目标在画面中的比例,判断当前构图是否合理性,如果不合理(例如拍摄目标在画面中过大或过小),则可以通过对焦距的微调对预览画面进行优化,以提高预览画面的显示效果。具体可以采用下述步骤生成预览画面包括:
步骤c1、基于所述拍摄参数和所述构图模型,生成第一画面。
步骤c2、判断所述拍摄目标在所述第一画面中的比例是否在预设比例范围内,如果不是,则调整所述拍摄参数中的焦距,以使所述拍摄目标在画面中的比例在所述比例范围内。
具体地,可由用户或本领域技术人员根据实际需要设置拍摄目标在画面中的比例范围。
步骤c3、将所述调整得到的第二画面作为所述预览画面。
步骤105、当接收到拍摄指令时,将当前的预览画面作为拍摄结果输出,并利用所述拍摄参数更新所述用户习惯拍摄参数集合。
进一步地,在步骤104生成预览画面之后,用户可以根据当前所显示的预览画面的画面效果,通过对拍摄参数的调整,对预览画面进行优化。相应地,在一实施方式中,拍摄设备可以进一步地在检测到用户对当前的拍摄参数进行更新时,根据更新后的拍摄参数和当前的构图模型,重构预览画面并显示。
进一步地,在一实施方式中,为了提高预览画面质量,可以在发生变化时,触发重构预览画面,即当检测到所述距离或所述角度发生变化时,返回步骤102,通过步骤102至步骤104,重构预览画面。
在上述方法实施例中,采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和角度,基于实时测量的所述拍摄距离、所述角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合,基于该用户习惯拍摄参数集合和所述拍摄距离,确定当前包括焦距在内的拍摄参数。如此,一方面可以利用UWB测距的准确性,提高拍摄距离的准确性,进而可以提高所采用的构图模型和拍摄焦距的准确性,并且基于与当前拍摄场景相匹配的用户习惯拍摄参数集合和当前的拍摄距离,设置拍摄参数,可以减少对用户手动设置拍摄参数的依赖,提高拍摄参数设置的智能化和便捷性;另一方面可以利用与当前拍摄场景相匹配的构图模型,提高预览画面的表现力,进而提高用户对预览画面的满意度。
与上述方法实施例相对应,本发明实施例还提供了一种拍摄装置,如图5所示,该装置包括:
连接定位单元501,用于当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立UWB连接,并采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和角度;
用户习惯获取单元502,用于基于当前测量的所述拍摄距离、所述角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;
拍摄参数设置单元503,用于基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距;
预览单元504,用于基于所述拍摄参数和所述构图模型,生成预览画面并显示;
拍摄单元505,用于当接收到拍摄指令时,将当前的预览画面作为拍摄结果输出,并利用所述拍摄参数更新所述用户习惯拍摄参数集合。
基于上述方法实施例,本发明实施例还公开了一种拍摄设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述的拍摄方法。
其中,存储器具体可以实施为电可擦可编程只读存储器(EEPROM)、快闪存储器(Flash memory)、可编程程序只读存储器(PROM)等多种存储介质。处理器可以实施为包括一或多个中央处理器或一或多个现场可编程门阵列,其中现场可编程门阵列集成一或多个中央处理器核。具体地,中央处理器或中央处理器核可以实施为CPU或MCU。
需要说明的是,上述各流程和各结构图中不是所有的步骤和模块都是必须的,可以根据实际的需要忽略某些步骤或模块。各步骤的执行顺序不是固定的,可以根据需要进行调整。各模块的划分仅仅是为了便于描述采用的功能上的划分,实际实现时,一个模块可以分由多个模块实现,多个模块的功能也可以由同一个模块实现,这些模块可以位于同一个设备中,也可以位于不同的设备中。
各实施方式中的硬件模块可以以机械方式或电子方式实现。例如,一个硬件模块可以包括专门设计的永久性电路或逻辑器件(如专用处理器,如FPGA或ASIC)用于完成特定的操作。硬件模块也可以包括由软件临时配置的可编程逻辑器件或电路(如包括通用处理器或其它可编程处理器)用于执行特定操作。至于具体采用机械方式,或是采用专用的永久性电路,或是采用临时配置的电路(如由软件进行配置)来实现硬件模块,可以根据成本和时间上的考虑来决定。
本发明还提供了一种机器可读的存储介质,存储用于使一机器执行如本申请所述方法的指令。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施方式的功能的软件程序代码,且使该系统或者装置的计算机(或CPU或MPU)读出并执行存储在存储介质中的程序代码。此外,还可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作。还可以将从存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的CPU等来执行部分和全部实际操作,从而实现上述实施方式中任一实施方式的功能。
用于提供程序代码的存储介质实施方式包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD+RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机或云上下载程序代码。
在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中的只示意性地表示出了与本发明相关部分,而并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”并不表示将本发明相关部分的数量限制为“仅此一个”,并且“一个”不表示排除本发明相关部分的数量“多于一个”的情形。在本文中,“上”、“下”、“前”、“后”、“左”、“右”、“内”、“外”等仅用于表示相关部分之间的相对位置关系,而非限定这些相关部分的绝对位置。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (13)
1.一种拍摄方法,其特征在于,包括:
当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立超宽带UWB连接,并采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和拍摄角度;
基于当前测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;
基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距;
基于所述拍摄参数和所述构图模型,生成预览画面并显示;
当接收到拍摄指令时,将当前的预览画面作为拍摄结果输出,并利用所述拍摄参数更新所述用户习惯拍摄参数集合。
2.根据权利要求1所述的方法,其特征在于,当所述拍摄设备处于照片拍摄模式时,所述测量与所述定位设备之间的拍摄距离和拍摄角度包括:
确定所述拍摄设备的每根UWB芯片天线与所述定位设备之间的距离;所述拍摄设备包括至少三根UWB芯片天线;
基于每根所述UWB芯片天线在预设三维坐标系中的坐标和所述距离,确定所述定位设备的坐标P;其中,三维坐标系的原点为预设多边形的外心,所述多边形的顶点由所述拍摄设备的所有UWB芯片天线对应的坐标点组成;
计算所述坐标原点与所述坐标P之间的连线与所述多边形所在平面的夹角,得到所述拍摄角度;
基于所述坐标原点与所述坐标P之间的距离d,计算所述拍摄距离。
3.根据权利要求2所述的方法,其特征在于,基于所述坐标原点与所述坐标P之间的距离d,确定所述拍摄距离包括:
判断所述拍摄设备当前是否在水平方向发生向前或向后的位移,如果是,则按照D=△d+d,计算所述拍摄距离D;否则,将所述距离d作为所述拍摄距离D;
其中,△d为所述位移,当所述位移为向前的位移时,△d小于0,当所述位移为向后的位移时,△d大于0。
4.根据权利要求2所述的方法,其特征在于,基于所述坐标原点与所述坐标P之间的距离d,确定所述拍摄距离包括:
a1、判断所述拍摄设备当前是否在水平方向发生向前或向后的位移,如果是,则执行步骤a2;否则,执行将所述距离d作为所述拍摄距离D;
a2、判断当前是否已保存用户习惯拍摄位移,如果是,则按照D=Δd′+d,计算所述拍摄距离D,△d'为所述用户习惯拍摄位移;否则,按照D=Δd+d,计算所述拍摄距离D,并将所述△d保存为所述用户习惯拍摄位移△d';
其中,△d为当前发生的所述位移,当所述位移为向前的位移时,△d小于0,当所述位移为向后的位移时,△d大于0。
5.根据权利要求1所述的方法,其特征在于,当所述拍摄设备处于视频拍摄模式时,所述测量与所述定位设备之间的拍摄距离和拍摄角度包括:
b1、采用UWB测距方式,按照预设的测量周期,测量N次所述拍摄设备与所述定位设备之间的距离d和角度α;
b2、基于当前N次测量得到的所述距离d和所述角度α,计算相应的平均距离和平均角度;
b3、判断当前N次测量得到的每个所述距离d与所述平均距离之间差值的绝对值是否均小于预设的距离阈值T,如果是,则将所述平均距离作为所述拍摄距离,将所述平均角度作为所述拍摄角度;否则,返回步骤b1;
其中,步骤b1中测量所述距离d和角度α包括:
确定所述拍摄设备的每根UWB芯片天线与所述定位设备之间的距离;所述拍摄设备包括至少三根UWB芯片天线;
基于每根所述UWB芯片天线在预设三维坐标系中的坐标和与所述定位设备之间的所述距离,确定所述定位设备的坐标P;其中,三维坐标系的原点为预设多边形的外心,所述多边形的顶点由所述拍摄设备的所有UWB芯片天线对应的坐标点组成;
计算所述坐标原点与所述坐标P之间的连线与所述多边形所在平面的夹角,得到所述角度α;
计算所述坐标原点与所述坐标P之间的距离,得到所述距离d。
6.根据权利要求1所述的方法,其特征在于,所述确定当前的构图模型包括:
所述拍摄设备基于当前测量的所述拍摄距离和所述拍摄角度,确定所述拍摄目标在预览画面的位置;并基于当前采集的场景画面,识别拍摄场景类型;
将与所述位置和所述拍摄场景类型相匹配的构图模型,作为当前的构图模型。
7.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
当获取所述用户习惯拍摄参数集合失败时,触发用户设置拍摄参数,将所述设置的拍摄参数,添加至与所述构图模型相匹配的用户习惯拍摄参数集合。
8.根据权利要求1所述的方法,其特征在于,基于所述拍摄参数和所述构图模型,生成所述预览画面包括:
基于所述拍摄参数和所述构图模型生成第一画面;
判断所述拍摄目标在所述第一画面中的比例是否在预设比例范围内,如果不是,则调整所述拍摄参数中的焦距,以使所述拍摄目标在画面中的比例在所述比例范围内;
将所述调整得到的第二画面作为所述预览画面。
9.根据权利要求1所述的方法,其特征在于,在所述生成预览画面之后,所述方法进一步包括:
当检测到用户对当前的拍摄参数进行更新时,根据更新后的拍摄参数和当前的构图模型,重构预览画面并显示。
10.根据权利要求1至9所述的任一方法,其特征在于,所述方法进一步包括:
当检测到所述距离或所述角度发生变化时,所述拍摄设备基于当前测量的所述拍摄距离、所述角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;
基于当前获取的所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;
基于当前的所述拍摄参数和所述构图模型,生成预览画面并显示。
11.一种拍摄装置,其特征在于,包括:
连接定位单元,用于当拍摄设备处于拍摄模式时,与拍摄目标携带的定位设备建立UWB连接,并采用UWB测距方式,实时测量与所述定位设备之间的拍摄距离和拍摄角度;
用户习惯获取单元,用于基于当前测量的所述拍摄距离、所述拍摄角度和当前采集的场景画面,确定当前的构图模型,并获取与所述构图模型相匹配的用户习惯拍摄参数集合;
拍摄参数设置单元,用于基于所述用户习惯拍摄参数集合和所述拍摄距离,确定当前的拍摄参数;所述拍摄参数包括焦距;
预览单元,用于基于所述拍摄参数和所述构图模型,生成预览画面并显示;
拍摄单元,用于当接收到拍摄指令时,将当前的预览画面作为拍摄结果输出,并利用所述拍摄参数更新所述用户习惯拍摄参数集合。
12.一种拍摄设备,其特征在于,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如权利要求1至10中任一项所述的拍摄方法。
13.一种计算机可读存储介质,其特征在于,其中存储有计算机可读指令,该计算机可读指令用于执行如权利要求1至10中任一项所述的拍摄方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311334.0A CN112788248A (zh) | 2021-03-24 | 2021-03-24 | 一种拍摄方法和装置 |
CN202110670035.6A CN113347363B (zh) | 2021-03-24 | 2021-06-17 | 一种拍摄方法和装置 |
PCT/KR2022/001800 WO2022203189A1 (en) | 2021-03-24 | 2022-02-07 | A method and an electronic device for photographing |
US17/687,974 US11785335B2 (en) | 2021-03-04 | 2022-03-07 | Automatic adjusting photographing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311334.0A CN112788248A (zh) | 2021-03-24 | 2021-03-24 | 一种拍摄方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112788248A true CN112788248A (zh) | 2021-05-11 |
Family
ID=75762832
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110311334.0A Pending CN112788248A (zh) | 2021-03-04 | 2021-03-24 | 一种拍摄方法和装置 |
CN202110670035.6A Active CN113347363B (zh) | 2021-03-04 | 2021-06-17 | 一种拍摄方法和装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110670035.6A Active CN113347363B (zh) | 2021-03-04 | 2021-06-17 | 一种拍摄方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN112788248A (zh) |
WO (1) | WO2022203189A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113534047A (zh) * | 2021-07-09 | 2021-10-22 | 三星电子(中国)研发中心 | 设备定位方法和装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359312B (zh) * | 2022-03-17 | 2022-08-23 | 荣耀终端有限公司 | 图像处理方法及装置 |
CN116320716B (zh) * | 2023-05-25 | 2023-10-20 | 荣耀终端有限公司 | 图片采集方法、模型训练方法及相关装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102273027B1 (ko) * | 2014-06-09 | 2021-07-05 | 삼성전자주식회사 | 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치 |
US10581143B2 (en) * | 2016-06-08 | 2020-03-03 | Motorola Mobility Llc | Method and apparatus for detecting object position relative to antenna arrays of an electronic communication device |
CN108521860A (zh) * | 2017-06-22 | 2018-09-11 | 深圳市大疆创新科技有限公司 | 拍摄设备的控制方法、拍摄设备及系统 |
KR102038128B1 (ko) * | 2017-12-11 | 2019-10-29 | 백창현 | 객체센서를 이용한 구도 설정 방법 및 시스템 |
CN107920211A (zh) * | 2017-12-28 | 2018-04-17 | 深圳市金立通信设备有限公司 | 一种拍照方法、终端及计算机可读存储介质 |
CN108289169A (zh) * | 2018-01-09 | 2018-07-17 | 北京小米移动软件有限公司 | 拍摄方法、装置、电子设备及存储介质 |
CN108683847B (zh) * | 2018-05-14 | 2022-01-04 | Oppo广东移动通信有限公司 | 拍照方法、装置、终端及存储介质 |
JP2022511815A (ja) * | 2018-12-05 | 2022-02-01 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | オブジェクトターゲッティング |
KR102580345B1 (ko) * | 2019-07-01 | 2023-09-20 | 삼성전자주식회사 | 레인징을 수행하는 전자 장치 및 방법 |
CN111935393A (zh) * | 2020-06-28 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 拍摄方法、装置、电子设备和存储介质 |
-
2021
- 2021-03-24 CN CN202110311334.0A patent/CN112788248A/zh active Pending
- 2021-06-17 CN CN202110670035.6A patent/CN113347363B/zh active Active
-
2022
- 2022-02-07 WO PCT/KR2022/001800 patent/WO2022203189A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113534047A (zh) * | 2021-07-09 | 2021-10-22 | 三星电子(中国)研发中心 | 设备定位方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022203189A1 (en) | 2022-09-29 |
CN113347363A (zh) | 2021-09-03 |
CN113347363B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112788248A (zh) | 一种拍摄方法和装置 | |
US11436802B2 (en) | Object modeling and movement method and apparatus, and device | |
US20160178728A1 (en) | Indoor Positioning Terminal, Network, System and Method | |
US11100706B2 (en) | Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and generation method for generating three-dimensional model | |
JP2021192250A (ja) | 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム | |
WO2018142496A1 (ja) | 三次元計測装置 | |
CN111538032B (zh) | 基于相机和激光雷达独立制图轨迹的时间同步方法和装置 | |
JP7407428B2 (ja) | 三次元モデル生成方法及び三次元モデル生成装置 | |
JP2016527478A (ja) | 三次元撮影装置、三次元画像の作成方法、および、三次元撮影装置の設定方法 | |
US11785335B2 (en) | Automatic adjusting photographing method and apparatus | |
US20150002518A1 (en) | Image generating apparatus | |
CN112311965A (zh) | 虚拟拍摄方法、装置、系统及存储介质 | |
CN111105454A (zh) | 一种获取定位信息的方法、装置及介质 | |
JPWO2019230813A1 (ja) | 三次元再構成方法および三次元再構成装置 | |
CN108961423A (zh) | 虚拟信息处理方法、装置、设备及存储介质 | |
CN110493524A (zh) | 一种测光调整方法、装置、设备和存储介质 | |
JP2021106025A5 (zh) | ||
CN111190485B (zh) | 信息显示方法、装置、电子设备、及计算机可读存储介质 | |
CN113129422A (zh) | 一种三维模型构建方法、装置、存储介质和计算机设备 | |
JPWO2019211970A1 (ja) | 三次元再構成方法及び三次元再構成装置 | |
EP4040268A1 (en) | Object sharing method and apparatus | |
US11283970B2 (en) | Image processing method, image processing apparatus, electronic device, and computer readable storage medium | |
CN109087338B (zh) | 一种图像稀疏光流的提取方法和装置 | |
CN116449962B (zh) | 内部场景ar可视化方法、装置以及设备 | |
WO2021100681A1 (ja) | 三次元モデル生成方法及び三次元モデル生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210511 |