CN115273577B - 一种摄影教学的方法及系统 - Google Patents

一种摄影教学的方法及系统 Download PDF

Info

Publication number
CN115273577B
CN115273577B CN202211170225.2A CN202211170225A CN115273577B CN 115273577 B CN115273577 B CN 115273577B CN 202211170225 A CN202211170225 A CN 202211170225A CN 115273577 B CN115273577 B CN 115273577B
Authority
CN
China
Prior art keywords
teaching
score
shooting
image
evaluated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211170225.2A
Other languages
English (en)
Other versions
CN115273577A (zh
Inventor
郁从蕾
赵博宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lishui University
Original Assignee
Lishui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lishui University filed Critical Lishui University
Priority to CN202211170225.2A priority Critical patent/CN115273577B/zh
Publication of CN115273577A publication Critical patent/CN115273577A/zh
Application granted granted Critical
Publication of CN115273577B publication Critical patent/CN115273577B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Studio Devices (AREA)

Abstract

本说明书实施例提供一种摄影教学的方法及系统,由摄影教学装置执行,所述摄影教学装置包括:虚拟取景装置、拍摄参数控制仪、处理器和显示屏;所述方法包括:基于所述虚拟取景装置从至少一个场景图中,确定教学场景图;基于所述虚拟取景装置显示所述教学场景图,并将所述教学场景图发送给所述处理器;基于所述拍摄参数控制仪获取拍摄参数并发送给所述处理器;通过所述处理器,基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分中的至少一种;基于所述显示屏显示所述待评估成片和所述拍摄得分中的至少一种。

Description

一种摄影教学的方法及系统
技术领域
本说明书涉及摄影教学领域,特别涉及一种摄影教学的方法及系统。
背景技术
摄影教学课堂的位置选取随着拍摄对象的不同而有所不同。如果是进行室内拍摄教学则课堂选择在室内即可,但如果是进行户外风景拍摄教学,则需要教师和学生到户外拍摄。若没有外出条件的话则会限制户外摄影教学。
因此,有必要提供一种摄影教学的方法,便于教师和学生能在室内开展户外摄影教学活动。
发明内容
本说明书实施例之一提供一种摄影教学的方法。所述摄影教学的方法由摄影教学装置执行,所述摄影教学的方法包括:虚拟取景装置、拍摄参数控制仪、处理器和显示屏;所述方法包括:基于所述虚拟取景装置从至少一个场景图中,确定教学场景图;基于所述虚拟取景装置显示所述教学场景图,并将所述教学场景图发送给所述处理器;基于所述拍摄参数控制仪获取拍摄参数并发送给所述处理器;通过所述处理器,基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分中的至少一种;基于所述显示屏显示所述待评估成片和所述拍摄得分中的至少一种。
本说明书实施例之一提供一种摄影教学系统。所述系统包括摄影教学装置,所述摄影教学装置包括:虚拟取景装置、拍摄参数控制仪、处理器和显示屏;所述摄影教学装置被配置为执行以下操作:基于所述虚拟取景装置从至少一个场景图中,确定教学场景图;基于所述虚拟取景装置显示所述教学场景图,并将所述教学场景图发送给所述处理器;基于所述拍摄参数控制仪获取拍摄参数并发送给所述处理器;通过所述处理器,基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分中的至少一种;基于所述显示屏显示所述待评估成片和所述拍摄得分中的至少一种。
本说明书实施例之一提供一种计算机可读存储介质。所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机运行如上述实施例中任一项所述的摄影教学的方法。
本说明书实施例之一提供一种摄影教学装置,包括:虚拟取景装置,被配置为从至少一个场景图中,确定教学场景图,以及显示所述教学场景图,并将所述教学场景图发送给所述处理器;拍摄参数控制仪,被配置为获取拍摄参数并发送给所述处理器;处理器,被配置为基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分中的至少一种;以及显示屏,配置为显示所述待评估成片和所述拍摄得分中的至少一种。
附图说明
本说明书将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书一些实施例所示的摄影教学系统的应用场景图;
图2是根据本说明书一些实施例所示的摄影教学装置的示例性框架图;
图3是根据本说明书一些实施例所示的摄影教学方法的示例性流程图;
图4是根据本说明书一些实施例所示的确定教学场景的示例性流程图;
图5是根据本说明书一些实施例所示的确定拍摄得分的示例性流程图;
图6是根据本说明书一些实施例所示的第一模型和第二模型示意图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“系统”、“装置”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本说明书一些实施例所示的摄影教学系统的应用场景图。如图1所示,摄影教学系统的应用场景100可以包括处理设备110、网络120、存储设备130和摄影教学装置140。
在一些实施例中,应用场景100的一个或多个组件可以经由网络120(例如无线连接、有线连接或其组合),以实现彼此连接和/或通信。如图1所示,处理设备110可以通过网络120连接到存储设备130。又例如,处理设备110可以通过网络120连接到摄影教学装置140,以使处理设备110能对摄影教学装置140获取的信息进行分析处理。
处理设备110可以用于处理与应用场景100有关的信息和/或数据(网络120、存储设备130和摄影教学装置140的信息和/或数据),例如,场景图信息、教学场景图信息、拍摄参数信息、待评估成片信息和拍摄得分信息等。处理设备110可以处理从其他设备或系统组成部分中获得的数据、信息和/或处理结果,并基于这些数据、信息和/或处理结果执行程序指令,以执行本说明书中描述的一个或以上功能。
网络120可以连接应用场景100的各组成部分和/或连接应用场景100与外部资源部分。网络120使得各组成部分之间,以及与应用场景100之外其他部分之间可以进行通讯,促进数据和/或信息的交换。网络可以是局域网、广域网、互联网等,可以是多种网络结构的组合。
存储设备130可以用于存储数据和/或指令。在一些实施例中,存储设备130可以储存处理设备110用来执行或使用以完成本说明书中描述的示例性方法的数据和/或指令。在一些实施例中,存储设备130可以连接到网络120以与应用场景100的一个或以上组件(例如,处理设备110、摄影教学装置140)通信。
摄影教学装置140是指具有摄影教学功能的设备。在一些实施例中,摄影教学装置140可以包括但不限于虚拟取景装置141、拍摄参数控制仪142、处理器143和显示屏144。在一些实施例中,摄影教学装置140可以利用虚拟取景装置141确定教学场景图,并将教学场景图发送给处理器143进行处理。在一些实施例中,摄影教学装置140可以利用拍摄参数控制仪142获取拍摄参数并发送给处理器143确定待评估成片及拍摄得分中的至少一种。在一些实施例中,摄影教学装置140可以利用显示屏144显示待评估成片和拍摄得分中的至少一种。
摄影教学装置140可以通过网络120与处理设备110连接,以使摄影教学装置140的信息(例如,场景图信息、教学场景图信息、拍摄参数信息、待评估成片信息和拍摄得分信息等)能够传递至处理设备110进行处理。
应当注意应用场景仅仅是为了说明的目的而提供,并不意图限制本说明书的范围。对于本领域的普通技术人员来说,可以根据本说明书的描述,做出多种修改或变化。例如,应用场景还可以包括数据库。又例如,应用场景可以在其他设备上实现以实现类似或不同的功能。然而,变化和修改不会背离本说明书的范围。
图2是根据本说明书一些实施例所示的摄影教学装置的示例性框架图。如图2所示,摄影教学装置200包括虚拟取景装置210、拍摄参数控制仪220、处理器230和显示屏240。摄影教学装置200中的各个装置之间可以通过有线或无线的方式进行连接,以实现各装置的连接通信。
在一些实施例中,摄影教学装置200可以应用于摄影课堂教学。学生在室内通过摄影教学装置200进行摄影技巧的学习。例如,摄影教学装置200可以给出一张用于教学的图片(也称为教学场景图),学生基于教学图片调节拍摄参数并进行拍摄。在一些实施例中,拍摄过程可以虚拟的,例如,计算机成像。
虚拟取景装置210是指用于展示教学场景图的装置。例如,虚拟现实装置、增强现实装置。在一些实施例中,虚拟取景装置210可以用于显示教学场景图。
在一些实施例中,虚拟取景装置210可以包括VR眼镜。用户佩戴VR眼镜后,教学场景图可以展示在用户视线正前方。在一些实施例中,教学场景图可以为全景图。
利用VR眼镜向用户展示教学场景图可以模拟真实摄影过程,提高用户的直观感受,从而帮助用户更好的学习摄影技巧。
在一些实施例中,用户可以基于自身动作调整取景区域和拍摄角度。例如,用户可以通过转头、抬头、低头等动作来调整视线所能看见的全景图的区域,从而调整拍摄时的取景区域和拍摄角度。
基于用户动作调整取景区域和拍摄角度可以模拟真实摄影时的调节方式。
在一些实施例中,虚拟取景装置210还可以包括输入设备。
输入设备可以是能够获取用户输入的设备。用户可以在输入设备中输入与摄影教学有关的信息。例如,教学需求、教学目的、教学难度等。
拍摄参数控制仪220可以是用于调整拍摄参数的设备。在一些实施例中,用户可以通过拍摄参数控制仪220调整拍摄参数,例如,构图参数、成像参数。
处理器230可以用于确定最终成片及拍摄得分。在一些实施例中,处理器230可以基于教学场景图和拍摄参数,确定拍摄成片(例如,待评估成片)及拍摄成片的拍摄得分中的至少一种。
显示屏240可以用于显示待评估成片和拍摄得分中的至少一种。例如,显示用户调节拍摄参数后拍摄的照片,同时还可以显示拍摄得分。
需要注意的是,以上对于系统及其组成部分的描述,仅为描述方便,并不能把本说明书限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该系统的原理后,可能在不背离这一原理的情况下,对各个组成部分进行任意组合,或者构成子系统与其他组成部分连接。例如,各个组成部分可以共用一个存储设备,各个组成部分也可以分别具有各自的存储设备。诸如此类的变形,均在本说明书的保护范围之内。
图3是根据本说明书一些实施例所示的摄影教学方法的示例性流程图。如图3所示,流程300包括下述步骤。在一些实施例中,流程300可以由处理设备110和/或摄影教学装置200执行。
步骤310,基于虚拟取景装置从至少一个场景图中,确定教学场景图。
场景图可以是用于摄影教学的候选图片。例如,场景图可以包括风景图、人物图、动物图等中的一种或多种类型的图片。
教学场景图可以是从场景图确定的用于摄影教学的图片。例如,将场景图中的某一风景图作为教学场景图。
在一些实施例中,虚拟取景装置中可以包括至少一个场景图,处理设备从至少一个场景图中确定某一场景图作为教学场景图。在一些实施例中,处理设备可以根据用户的教学需求,从至少一个场景图中确定教学场景图。例如,处理设备可以根据教学目的或教学难度确定教学场景图。关于确定教学场景图的更多描述可以参见图4的相关描述。
步骤320,基于虚拟取景装置显示教学场景图,并将教学场景图发送给处理器。
在一些实施例中,教学场景图确定后,虚拟取景装置可以对该教学场景图进行显示,并将教学场景图发送给处理器。例如,用户佩戴VR眼镜时,用户视线范围内(如正前方)可以显示教学场景图,VR眼镜还能将教学场景图发送给摄影教学装置的处理器进行处理(如,图像处理、数据处理)。
步骤330,基于拍摄参数控制仪获取拍摄参数并发送给处理器。
拍摄参数是指拍摄教学场景图时使用的参数。拍摄参数可以包括构图参数和成像参数。
构图参数是指拍摄教学场景图时使用的画面参数。例如,构图参数可以包括构图方式(例如,黄金分割构图、对角线构图)、取景区域、拍摄角度等。在一些实施例中,构图参数可以基于虚拟取景装置和/或拍摄参数控制仪进行调整。例如,虚拟取景装置为VR眼镜时,可以根据用户低头、抬头、转头等动作调整取景区域和拍摄角度。
成像参数是指拍摄教学场景图时使用的对焦参数。例如,成像参数可以包括景深、光圈、快门速度、ISO感光度、焦距、曝光度等。在一些实施例中,成像参数可以在拍摄参数控制仪中进行调整。
在一些实施例中,处理设备可以基于拍摄参数控制仪获取拍摄参数,并将拍摄参数发送给处理器。例如,处理设备与拍摄参数控制仪通过网络连接,并从拍摄参数控制仪中获取拍摄参数,进一步将拍摄参数发送给处理器进行处理。
步骤340,通过处理器,基于教学场景图及拍摄参数,确定待评估成片及拍摄得分中的至少一种。
待评估成片是指基于拍摄参数拍摄教学场景图的照片。不同的待评估成片对应不同的拍摄参数。例如,处理器可以基于用户调节的不同拍摄参数生成不同效果的待评估成片。
拍摄得分是指待评估成片对应的效果分数。拍摄得分能够反映待评估成片的拍摄质量。
在一些实施例中,处理器可以基于拍摄参数对教学场景图进行拍摄,确定该拍摄参数所对应的待评估成片。可以理解的是,这里的拍摄过程可以是虚拟的(例如,计算机成像)。在一些实施例中,处理器还能对待评估成片进行质量评估,以得到待评估成片的拍摄得分。在一些实施例中,待评估成片的拍摄得分也可以由专业人员(如摄影老师)进行评判。关于确定拍摄得分的更多内容可以参见图5的相关描述。
步骤350,基于显示屏显示待评估成片和拍摄得分中的至少一种。
在一些实施例中,待评估成片和/或拍摄得分可以通过显示屏进行显示,以使用户能够直观的获悉自己设置的拍摄参数下的待评估成片的质量。
本说明书一个或多个实施例利用摄影教学装置能够实现室内的摄影教学,同时,专业人员还能根据待评估成片以及拍摄得分进行分析讲解,从而达到摄影教学的目的。
应当注意的是,上述有关流程300的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程300进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。
图4是根据本说明书一些实施例所示的确定教学场景的示例性流程图。如图4所示,流程400包括下述步骤。在一些实施例中,流程400可以由处理设备110和/或摄影教学装置200执行。
步骤410,基于输入设备获取用户的教学需求。
教学需求可以是摄影教学中的训练需求。例如,教学需求可以与教学目的对应。又例如,教学需求可以与教学难度对应。
教学目的是指摄影教学中想要训练提升的目标。例如,教学目的可以包括对焦调节的训练、构图能力的训练等。
教学难度是指摄影教学中的难易程度。教学难度可以分为不同等级。例如,如,教学难度分为1-5级,等级的数字越大,教学难度越高。
在一些实施例中,教学目的和教学难度可以是基于预设获取或由专业人员(例如,摄影老师)通过输入设备输入获取。
步骤420,基于教学需求,从至少一个场景图中,确定与教学需求对应的教学场景图。
在一些实施例中,每个场景图都可以具有对应的教学目的和教学难度信息,每个场景图对应的教学目的和教学难度信息可以基于多种方式确定,例如可以是预设的,也可以是由专业人员(例如,摄影老师)基于摄影经验确定的。
在一些实施例中,处理设备110可以基于图像识别模型对场景图处理,识别该场景图对应的教学难度或教学目的,并将识别结果作为标记与该场景图一起存储于虚拟取景装置中,以便后续调取。
图像识别模型是指用于进行图像识别的模型。例如,利用图像识别模型可以对场景图进行分析处理,识别场景图中的对象类型(例如,人、物)、对象数量、对象之间的位置关系等特征,进而根据这些特征确定该场景图对应的教学难度或教学目的。即图像识别模型的输入是场景图,输出是场景图对应的教学难度和/或教学目的。
在一些实施例中,图像识别模型可以通过训练获得。训练样本为人工标注了教学目的和教学难度的教学场景图,训练标签即人工标注的教学目的和教学难度。图像识别模型可以基于大量带有训练标签的场景图训练初始图像识别模型。例如,可以将带有标签的场景图输入到初始图像识别模型,得到初始图像识别模型的输出结果。通过训练更新初始图像识别模型的参数,直至训练的中间图像识别模型满足预设条件,获取训练好的图像识别模型。其中,预设条件可以是损失函数小于阈值、收敛,或训练周期达到阈值。
在一些实施例中,可以基于图像识别模型识别教学目的。例如,教学场景图中包含较少的物体,且物体之间存在纵深的层次关系,此时通过调节对焦和景深,可以让画面中部分区域清晰,部分区域模糊,训练用户的对焦能力。这种情况下,图像识别模型可以识别教学目的为对焦、景深的调节训练。又例如,教学场景图为全景图,且包含较多的物体,且物体之间存在同一平面的相对摆放位置,此时通过调整视线所能看见的全景图的区域,可以对取景区域、拍摄角度进行调节,训练用户构图能力。这种情况下,图像识别模型可以识别教学目的为构图能力的训练。
在一些实施例中,可以基于图像识别模型识别教学难度。例如,通过教学场景图中的物体总数量、不同对象类型的数量、层次关系复杂度(如一张教学场景图包含多少个层次)来确定教学难度。物体总数量、不同对象类型的数量、层次关系复杂度越大,教学场景图的教学难度越高。
在一些实施例中,在确定了教学需求后即可从至少一个场景图中,确定与教学需求对应的场景图作为教学场景图。例如,在教学需求为采用1级别难度模式训练用户的对焦能力时,处理设备110可以从现有的场景图中,找出教学难度及教学目的匹配的场景图作为教学场景图。
在一些实施例中,不同教学需求下,用户在进行拍摄时,拍摄参数控制仪中可调的参数设置不同。例如,在特定教学需求下,拍摄参数控制仪中仅有预设可调整的拍摄参数可调。
在一些实施例中,虚拟取景装置和/或处理设备可以基于教学需求获取对应的预设可调整的拍摄参数并发送给拍摄参数控制仪,以便于获取预设可调整的拍摄参数对应的实际调整值。
预设可调整的拍摄参数是指用户能够进行自主调节的拍摄参数。预设可调整的拍摄参数可以根据教学需求进行设定。拍摄参数中除预设可调整的拍摄参数外的其他参数可以是固定参数(即,不可调整的参数)。
在一些实施例中,教学需求不同,预设可调整的拍摄参数不同。例如,教学目的不同,预设可调整的拍摄参数不同,仅作为示例的,教学目的为对焦能力训练、教学难度的等级为1级时,用户能够进行自主调节的拍摄参数可以包括镜头焦距。
又如,教学目的为对焦能力训练、教学难度等级为5级时,用户能够进行自主调节的拍摄参数可以包括:镜头焦距、快门速度、镜头光圈、拍摄距离、ISO感光度。
再如,教学目的为构图能力训练、教学难度等级为1级时,用户能够进行自主调节的拍摄参数可以包括:较小自由度的取景区域、拍摄角度调整。
再如,教学目的为构图能力训练、教学难度等级为5级时,用户能够进行自主调节的拍摄参数可以包括:较大自由度的取景区域、拍摄角度调整。
在一些实施例中,教学难度等级不同时,用户可调整的拍摄参数也不同。例如,教学难度越高,用户可调整的拍摄参数越多,这样,用户要调整到最佳拍摄效果就越难;而低难度下,用户可调整的拍摄参数较少,其他参数都是固定的,因此,用户要调整到最佳的拍摄效果就比较简单。
需要说明的是,上述获取预设可调整的拍摄参数的实施例中,“对焦能力训练”和“构图能力训练”的可调整的拍摄参数是不相交的,这仅为举例。实际上,二者是可以互相重叠的,例如,对焦能力训练中,用户可调整的拍摄参数除了焦距等参数外,也可以包括取景区域、拍摄角度的调节,从而训练用户的综合能力。
在一些实施例中,拍摄参数控制仪还可以提醒用户调整预设调整的拍摄参数。拍摄参数控制仪可以基于用户的调整时间判断是否需要提醒用户。例如,用户从戴上VR眼镜开始,20分钟都还未完成调整,则拍摄参数控制仪可以提醒用户还需调整哪些拍摄参数。在一些实施例中,拍摄参数控制仪也可以提醒用户当前调整的拍摄参数下能够拿到的预估拍摄分数(例如,可以通过图6中的第一模型和第二模型来预测)。
应当注意的是,上述有关流程400的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程400进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。
图5是根据本说明书一些实施例所示的确定拍摄得分的示例性流程图。如图5所示,流程500包括下述步骤。在一些实施例中,流程500可以由处理设备110和/或摄影教学装置200执行。
步骤510,从成片库中获取教学场景图对应的候选成片。
成片库是指不同教学场景图在不同拍摄参数下预先拍摄好的成片构成的数据库。例如,成片库可以包括不同教学场景图在不同拍摄参数下预先拍摄好的所有成片。
候选成片是指成片库中基于与本次教学场景图相同的场景图得到的成片。在一些实施例中,候选成片可以包括同一教学场景图在不同参数下拍摄的所有成片。例如,对于同一教学场景图,不同用户调节的拍摄参数不同,此时,候选成片可以包括所有用户拍摄的成片。
在一些实施例中,处理设备可以从成片库中获取与本次拍摄过程中选取的教学场景图对应的候选成片。
步骤520,将满足预设条件的候选成片作为待评估成片。
预设条件可以是拍摄参数与本次拍摄参数最接近的成片条件。例如,预设条件可以包括拍摄参数距离不超过距离阈值。
拍摄参数距离是指待评估成片的拍摄参数与本次拍摄参数之间的距离。在一些实施例中,拍摄参数距离的计算方式为,把待评估成片的多个拍摄参数看成一个向量,以及候选成片对应的多个拍摄参数看成另一个向量,计算两个向量间的距离即可作为拍摄参数距离。
在一些实施例中,若成品库中不存在满足预设条件的候选成片,摄影教学装置可以基于图像生成模型来生成待评估成片。
例如,成品库中的成片对应的拍摄参数与本次教学场景图的拍摄参数的距离都大于距离阈值时,摄影教学装置可以基于图像生成模型来生成待评估成片。
图像生成模型可以是用于生成图像的模型。例如,图像生成模型可以根据本次拍摄参数生成待评估成片。图像生成模型可以通过训练得到。模型输入是教学场景图和拍摄参数,模型输出是最终成片(即待评估成片)。训练方式为生成对抗网络。
在一些实施例中,处理设备可以获取初始图像生成模型,并通过训练数据及其标签多轮迭代更新初始图像生成模型的参数,得到训练好的图像生成模型。其中,初始图像生成模型的参数可以通过多种方式获得。例如,初始图像生成模型的参数可以是随机初始化得到。
在一些实施例中,训练数据可以包括数据A、第二类数据,训练数据的标签可以代表第二数据的来源,又称为“来源标识”。第二类数据的来源标识为真实,例如,可以用1表示。其中,来源标识为真实的第二类数据可以是真实图像,真实图像可以是在教学场景图对应的实际场景下,在现实中,调节相机的拍摄参数,实际拍摄得到的图像。
在一些实施例中,每一轮迭代可以包括:
步骤S1:将数据A输入待优化的图像生成模型(如初始图像生成模型),生成第一类数据,第一类数据的来源标识为虚假,例如,可以用0表示。
步骤S2:基于第一类数据及其来源标识(如0)和第二类数据及其来源标识(如1)更新待优化图像判别模型,得到更新的图像判别模型。
步骤S3:基于为真实的来源标识(如标签为1)更新复合模型的参数,复合模型包括待优化图像生成模型和更新的图像判别模型,待优化图像生成模型的输出作为更新的图像判别模型的输入。更新复合模型参数的训练数据可以随机输入,例如,可以基于第一类数据和第二类数据以及真实的来源标识,更新复合模型的参数。更新复合模型参数时,待优化图像生成模型的参数被更新,得到更新图像生成模型;更新的图像判别模型的参数固定。
将本轮得到的更新图像生成模型作为下一轮的待优化图像生成模型,将更新的图像判别模型作为下一轮的待优化图像判别模型。其中,第一轮迭代时,待优化第一模型为初始图像生成模型,待优化图像判别模型可以是参数初始化的初始图像判别模型,也可以是初始图像判别模型的参数被更新后得到的模型。
通过步骤S3更新图像生成模型参数时,因为利用的是标签为真实的训练数据,使得参数更新后的图像生成模型尽量生成复合模型中图像判别模型判断结果为真实的数据。然而,复合模型中的图像判别模型也在通过每轮迭代在更新,通过步骤S2更新图像判别模型参数时,训练数据包含图像生成模型生成的数据。图像生成模型生成的数据的真实性与图像判别模型的判断结果准确性相互影响。图像判别模型判断结果越来越准确时,图像生成模型生成的数据也越来越真实。
因此,通过该训练方式可以使得训练的图像生成模型可以生成混淆图像判别模型判断结果的数据,即,生成的数据接近真实,即可以使得基于图像生成模型生成的待评估成片可以更加接近于真实的候选成片。
通过基于图像生成模型可以为摄影教学装置提供更加接近于真实的候选成片,从而使得摄影教学装置的待评估成片的获取和确定更加方便快捷。
在一些实施例中,基于教学场景图及拍摄参数,确定待评估成片及拍摄得分中的至少一种还包括:基于所述待评估成片、所述拍摄参数,确定所述拍摄得分。
在一些实施例中,可以由专业人员对待评估成片进行经验性的评估,从而确定拍摄得分。
在一些实施例中,也可以基于本次拍摄参数与标准拍摄参数的符合度来计算待评估成片的拍摄得分。
在一些实施例中,还可以通过拍摄参数间的距离来确定待评估成片的拍摄得分。拍摄得分与拍摄参数间的距离可以成负相关。
在一些实施例中,还可以基于第一模型和第二模型确定拍摄得分。关于通过第一模型和第二模型确定拍摄得分的更多描述可以参见图6及其相关描述。
应当注意的是,上述有关流程500的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程500进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。
图6是根据本说明书一些实施例所示的第一模型和第二模型示意图。
第一模型610可以用于确定图像(例如,待评估成片)的对焦得分。第二模型620可以用于确定图像的构图得分。进一步,摄影教学装置可以基于对焦得分和构图得分,确定拍摄得分。
在一些实施例中,摄影教学装置可以基于预设可调整的拍摄参数,确定图像的对焦得分和构图得分的权重。权重可以相关于对焦参数与构图参数的数量之比。例如,预设可调整的拍摄参数有:镜头焦距、快门速度、镜头光圈、取景区域、角度调整,前三个参数是用于对焦,后两个参数是用于构图,两类参数的数量之比为3:2,则可以确定对焦得分的权重可以是0.6,构图得分的权重是0.4。
在一些实施例中,第一模型610包括图像分割层611、若干对焦得分层612和融合层613。
图像分割层611可以对图像进行分割,以得到区域图像以及区域类型。例如,图像分割层611可以是yolo模型。图像分割层611的输入是最终成片(即,待评估成片),输出是区域图像和区域类型(例如,主体、背景)。
对焦得分层612可以对图像分割层输出的每个区域图像和区域类型进行处理,以确定每个区域图像的对焦得分。例如,对焦得分层612可以是DNN模型。对焦得分层612的输入是每个区域图像及其对应的区域类型。输出是每个区域图像的对焦得分。对焦得分层612中对焦得分层的数量可以是多个,一个对焦得分层对一个区域图像和区域类型进行处理,以确定对应区域图像的对焦得分。
在一些实施例中,可以基于不同的标准对不同类型的区域图像进行打分,例如,对于主体区域,标准可以是对焦清晰、明暗合适,细节丰富等;对于背景区域,标准可以是可以适当虚化,模糊细节。
融合层613可以融合各个对焦得分层输出的各个区域图像的对焦得分,确定最终的对焦得分。融合层613的输入是各个区域图像的对焦得分,输出是最终对焦得分。在一些实施例中,最终的对焦得分可以是各个区域图像的对焦得分之和。在一些实施例中,最终的对焦得分也可以是各个区域图像的对焦得分的加权求和。权重分配的原则是:主体区域可以比背景区域具有更大的权重、占比大的区域可以比占比小的区域具有更大的权重。
在一些实施例中,第二模型620包括图像分割层621、图像分类层622、嵌入层623、语义表示层624和评估层625。
图像分割层621可以对图像进行分割,以得到区域图像以及区域类型。其中,区域类型的分类结果可以是大类,例如,人、动物、树、汽车等。在一些实施例中,图像分割层621可以使用是yolo模型。图像分割层621的输入是待评估成片,输出是待评估成片中的区域图像以及区域类型。在一些实施例中,图像分割层621的输出还可以包括每个图像区域对应的长、宽以及在整个待评估成片的图像的相对位置。
图像分类层622可以对图像分割层输出的区域图像和区域类型处理,确定区域图像中的对象类型。例如,对于图像分割层611输出的区域类型的结果为“人”的区域图像,图像分类层622可以进一步识别“人”的类型,例如,男或女。在一些实施例中,图像分类层622可以是CNN模型。图像分类层622的输入是区域图像及其对应的区域类型,输出是对象类型。
嵌入层623可以处理图像分类层输出的各个对象对应的分类以及各个对象对应的位置信息。嵌入层623的输出是分类向量和位置向量。在一些实施例中,嵌入层623输出的分类向量和位置向量中的元素一一对应,代表对应的对象的分类和位置信息。
语义表示层624可以通过基于自注意力机制(例如,BERT)将嵌入层输出的分类向量和位置向量表示为一个语义向量。即语义表示层624的输入是分类向量和位置向量,输出是语义向量。
评估层625可以基于语义向量确定构图得分。例如,评估层625可以是NN模型。评估层625的输入是语义表示层输出的语义向量,输出是构图得分。
第二模型620通过图像分割层621和图像分类层622,结合各个对象对应的位置信息,可以形成构图的原始语义表示,然后基于自注意力机制形成语义向量并进行打分,可以更好地基于构图各部分之间的相互关系及含义对构图质量进行评估。
在一些实施例中,第一模型610和第二模型620可以联合训练,此时损失函数包含对焦得分损失项和构图得分损失项。对焦得分损失项和构图得分损失项分别具有初始的预设权重。
在一些实施例中,初始的预设权重可以基于经验进行预设,并在后续模型训练过程中基于训练效果进行动态调整。动态调整的过程可以为:若训练效果较差(如预测准确度低),则将绝对值大的权重调小,绝对值小的权重调大。这样调整的原因是:绝对值大的权重大,对应损失项对损失函数的影响也大,由于训练效果较差,则说明该影响可能是负影响,因此优先调小绝对值大的权重。
在一些实施例中,初始预设权重也可以基于每个教学场景图对应的教学需求确定。
例如,根据教学目的及教学难度,预设可调整的拍摄参数中包括3个对焦参数和2个构图参数,则对焦得分损失项和构图得分损失项的权重之比可以为3:2。
在一些实施例中,第一模型610和第二模型620可以分开训练,此时第一模型610中的图像分割层611和第二模型620的图像分割层621可以参数共享。此时第一模型610的损失函数包含对焦得分损失项,第二模型620的损失函数包含构图得分损失项。对焦得分损失项和构图得分损失项是相互独立的。
第一模型610的输入是待评估成片,输出是对焦得分,训练标签为专业人员对所述待评估成片给出的对焦得分。第一模型610可以基于大量带有训练标签的待评估成片训练初始第一模型610。例如,可以将带有标签的待评估成片输入到初始第一模型610,得到初始第一模型610的输出结果。通过训练更新初始第一模型610的参数,直至训练的中间第一模型610满足预设条件,获取训练好的第一模型610。其中,预设条件可以是对焦得分损失项小于阈值、收敛,或训练周期达到阈值。
第二模型620的输入是待评估成片,输出是构图得分,训练标签为专业人员对所述待评估成片给出的构图得分。第二模型620可以基于大量带有训练标签的待评估成片训练初始第二模型620。例如,可以将带有标签的待评估成片输入到初始第二模型620,得到初始第二模型620的输出结果。通过训练更新初始第二模型620的参数,直至训练的中间第二模型620满足预设条件,获取训练好的第二模型620。其中,预设条件可以是构图得分损失项小于阈值、收敛,或训练周期达到阈值。
第一模型610和第二模型620的分开训练可以提高模型输出对应得分的准确度,同时,图像分割层611和图像分割层621的参数共享还可以简化数据处理的过程。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本说明书引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本说明书作为参考。与本说明书内容不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。

Claims (8)

1.一种摄影教学的方法,由摄影教学装置执行,所述摄影教学装置包括:虚拟取景装置、拍摄参数控制仪、处理器和显示屏;
所述方法包括:
基于所述虚拟取景装置从至少一个场景图中,确定教学场景图;
基于所述虚拟取景装置显示所述教学场景图,并将所述教学场景图发送给所述处理器;
基于所述拍摄参数控制仪获取拍摄参数并发送给所述处理器;
通过所述处理器,基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分,包括:
基于所述待评估成片、所述拍摄参数,确定所述拍摄得分,所述拍摄得分基于第一模型确定的对焦得分和第二模型确定的构图得分加权得到,用于加权的权重基于预设可调整的拍摄参数确定;其中,
所述第一模型包括第一图像分割层、一个或多个对焦得分层和融合层,
所述第一图像分割层基于所述待评估成片,确定所述待评估成片中的区域图像和区域类型,所述区域图像与所述一个或多个对焦得分层对应;
对于所述一个或多个对焦得分层中的一个,所述对焦得分层基于对应的所述区域图像及其对应的所述区域类型,确定所述区域图像的对焦得分;
所述融合层基于每个所述区域图像的对焦得分,确定最终的对焦得分;
所述第二模型包括第二图像分割层、图像分类层、嵌入层、语义表示层和评估层,
所述第二图像分割层基于所述待评估成片,确定所述待评估成片中的区域图像以及区域类型;
所述图像分类层基于所述区域图像以及所述区域类型,确定所述区域图像中的对象类型;
所述嵌入层基于各个对象的所述对象类型以及所述各个对象对应的位置信息,确定分类向量和位置向量;
所述语义表示层基于自注意力机制将所述分类向量和所述位置向量表示为语义向量;
所述评估层基于所述语义向量确定所述构图得分;
所述第一模型和所述第二模型基于联合训练得到,所述联合训练的损失函数包括对焦得分损失项和构图得分损失项;所述对焦得分损失项和所述构图得分损失项的权重基于训练效果对初始的预设权重动态调整确定;
基于所述显示屏显示所述待评估成片和所述拍摄得分。
2.根据权利要求1所述的方法,所述虚拟取景装置还包括输入设备;
所述基于所述虚拟取景装置从至少一个场景图中,确定教学场景图包括:
基于所述输入设备获取用户的教学需求;
基于所述教学需求,从至少一个场景图中,确定与所述教学需求对应的教学场景图。
3.根据权利要求1所述的方法,所述基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分包括:
从成片库中获取所述教学场景图对应的候选成片;
将满足预设条件的所述候选成片作为所述待评估成片。
4.一种摄影教学系统,所述系统包括摄影教学装置,所述摄影教学装置包括:虚拟取景装置、拍摄参数控制仪、处理器和显示屏;
所述摄影教学装置被配置为执行以下操作:
基于所述虚拟取景装置从至少一个场景图中,确定教学场景图;
基于所述虚拟取景装置显示所述教学场景图,并将所述教学场景图发送给所述处理器;
基于所述拍摄参数控制仪获取拍摄参数并发送给所述处理器;
通过所述处理器,基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分,包括:
基于所述待评估成片、所述拍摄参数,确定所述拍摄得分,所述拍摄得分基于第一模型确定的对焦得分和第二模型确定的构图得分加权得到,用于加权的权重基于预设可调整的拍摄参数确定;其中,
所述第一模型包括第一图像分割层、一个或多个对焦得分层和融合层,
所述第一图像分割层基于所述待评估成片,确定所述待评估成片中的区域图像和区域类型,所述区域图像与所述一个或多个对焦得分层对应;
对于所述一个或多个对焦得分层中的一个,所述对焦得分层基于对应的所述区域图像及其对应的所述区域类型,确定所述区域图像的对焦得分;
所述融合层基于每个所述区域图像的对焦得分,确定最终的对焦得分;
所述第二模型包括第二图像分割层、图像分类层、嵌入层、语义表示层和评估层,
所述第二图像分割层基于所述待评估成片,确定所述待评估成片中的区域图像以及区域类型;
所述图像分类层基于所述区域图像以及所述区域类型,确定所述区域图像中的对象类型;
所述嵌入层基于各个对象的所述对象类型以及所述各个对象对应的位置信息,确定分类向量和位置向量;
所述语义表示层基于自注意力机制将所述分类向量和所述位置向量表示为语义向量;
所述评估层基于所述语义向量确定所述构图得分;
所述第一模型和所述第二模型基于联合训练得到,所述联合训练的损失函数包括对焦得分损失项和构图得分损失项;所述对焦得分损失项和所述构图得分损失项的权重基于训练效果对初始的预设权重动态调整确定;
基于所述显示屏显示所述待评估成片和所述拍摄得分。
5.根据权利要求4所述的系统,所述虚拟取景装置还包括输入设备;
所述摄影教学装置被配置为进一步执行以下操作:
基于所述输入设备获取用户的教学需求;
基于所述教学需求,从至少一个场景图中,确定与所述教学需求对应的教学场景图。
6.根据权利要求4所述的系统,所述摄影教学装置被配置为进一步执行以下操作:
从成片库中获取所述教学场景图对应的候选成片;
将满足预设条件的所述候选成片作为所述待评估成片。
7.一种计算机可读存储介质,其特征在于,所述存储介质存储计算机指令,当所述计算机指令被处理器执行时实现如权利要求1~3中任意一项所述的方法。
8.一种摄影教学装置,包括:
虚拟取景装置,被配置为从至少一个场景图中,确定教学场景图,以及显示所述教学场景图,并将所述教学场景图发送给处理器;
拍摄参数控制仪,被配置为获取拍摄参数并发送给所述处理器;
处理器,被配置为基于所述教学场景图及所述拍摄参数,确定待评估成片及拍摄得分,包括:
基于所述待评估成片、所述拍摄参数,确定所述拍摄得分,所述拍摄得分基于第一模型确定的对焦得分和第二模型确定的构图得分加权得到,用于加权的权重基于预设可调整的拍摄参数确定;其中,
所述第一模型包括第一图像分割层、一个或多个对焦得分层和融合层,
所述第一图像分割层基于所述待评估成片,确定所述待评估成片中的区域图像和区域类型,所述区域图像与所述一个或多个对焦得分层对应;
对于所述一个或多个对焦得分层中的一个,所述对焦得分层基于对应的所述区域图像及其对应的所述区域类型,确定所述区域图像的对焦得分;
所述融合层基于每个所述区域图像的对焦得分,确定最终的对焦得分;
所述第二模型包括第二图像分割层、图像分类层、嵌入层、语义表示层和评估层,
所述第二图像分割层基于所述待评估成片,确定所述待评估成片中的区域图像以及区域类型;
所述图像分类层基于所述区域图像以及所述区域类型,确定所述区域图像中的对象类型;
所述嵌入层基于各个对象的所述对象类型以及所述各个对象对应的位置信息,确定分类向量和位置向量;
所述语义表示层基于自注意力机制将所述分类向量和所述位置向量表示为语义向量;
所述评估层基于所述语义向量确定所述构图得分;
所述第一模型和所述第二模型基于联合训练得到,所述联合训练的损失函数包括对焦得分损失项和构图得分损失项;所述对焦得分损失项和所述构图得分损失项的权重基于训练效果对初始的预设权重动态调整确定;以及
显示屏,配置为显示所述待评估成片和所述拍摄得分。
CN202211170225.2A 2022-09-26 2022-09-26 一种摄影教学的方法及系统 Active CN115273577B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211170225.2A CN115273577B (zh) 2022-09-26 2022-09-26 一种摄影教学的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211170225.2A CN115273577B (zh) 2022-09-26 2022-09-26 一种摄影教学的方法及系统

Publications (2)

Publication Number Publication Date
CN115273577A CN115273577A (zh) 2022-11-01
CN115273577B true CN115273577B (zh) 2023-01-20

Family

ID=83757630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211170225.2A Active CN115273577B (zh) 2022-09-26 2022-09-26 一种摄影教学的方法及系统

Country Status (1)

Country Link
CN (1) CN115273577B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333587A (ja) * 2004-05-21 2005-12-02 Seiko Epson Corp 撮影装置およびこの制御方法
JP2014077820A (ja) * 2012-10-09 2014-05-01 Seiko Epson Corp 撮影装置、合焦状態表示方法、合焦状態表示プログラム
CN105100579A (zh) * 2014-05-09 2015-11-25 华为技术有限公司 一种图像数据的采集处理方法及相关装置
CN111696112A (zh) * 2020-06-15 2020-09-22 携程计算机技术(上海)有限公司 图像自动裁剪方法、系统、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971547B (zh) * 2014-05-30 2018-12-04 努比亚技术有限公司 基于移动终端的摄影仿真教学方法及系统
US10839502B2 (en) * 2019-04-17 2020-11-17 Shutterfly, Llc Photography session assistant
WO2022165809A1 (zh) * 2021-02-07 2022-08-11 华为技术有限公司 一种训练深度学习模型的方法和装置
CN113035003A (zh) * 2021-03-24 2021-06-25 兰州职业技术学院 一种虚拟仿真摄影学习系统
CN114998548B (zh) * 2022-05-31 2024-02-13 北京非十科技有限公司 一种图像重建的方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333587A (ja) * 2004-05-21 2005-12-02 Seiko Epson Corp 撮影装置およびこの制御方法
JP2014077820A (ja) * 2012-10-09 2014-05-01 Seiko Epson Corp 撮影装置、合焦状態表示方法、合焦状態表示プログラム
CN105100579A (zh) * 2014-05-09 2015-11-25 华为技术有限公司 一种图像数据的采集处理方法及相关装置
CN111696112A (zh) * 2020-06-15 2020-09-22 携程计算机技术(上海)有限公司 图像自动裁剪方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
CN115273577A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
CN110476405B (zh) 用于提供与拍摄有关的推荐信息的方法和系统
US7805066B2 (en) System for guided photography based on image capturing device rendered user recommendations according to embodiments
US10110868B2 (en) Image processing to determine center of balance in a digital image
CN105580051B (zh) 图像捕捉反馈
CN107749952B (zh) 一种基于深度学习的智能无人摄影方法和系统
CN108737717A (zh) 拍摄方法、装置、智能设备及存储介质
CN103971547B (zh) 基于移动终端的摄影仿真教学方法及系统
CN108259752A (zh) 一种拍摄方法及系统
CN112702521B (zh) 图像拍摄方法及装置、电子设备、计算机可读存储介质
US20170262052A1 (en) Composing and realizing a viewer's interaction with digital media
CN111008542A (zh) 对象专注度分析方法、装置、电子终端及存储介质
US11436470B2 (en) Generating simulated image training data
Vázquez et al. An assisted photography framework to help visually impaired users properly aim a camera
CN110868538A (zh) 推荐拍摄姿态的方法和电子设备
CN110012116A (zh) 一种智能伴学系统及装置
CN106031148A (zh) 成像设备,成像设备中自动对焦的方法以及对应计算机程序
US20110221922A1 (en) Shooting assist method, program product, recording medium, shooting device, and shooting system
CN108133189B (zh) 医院候诊信息显示方法
KR20160143995A (ko) 무선디지털기기를 통해 생성되는 고배율 이미지를 활용한 학습시스템 및 그 학습방법
CN115273577B (zh) 一种摄影教学的方法及系统
CN104680916B (zh) 一种摄影教学系统及方法
Yang et al. Deep learning based real-time facial mask detection and crowd monitoring
CN114387657A (zh) 一种基于人工智能的个人孤单值检测方法
Fang et al. Building a smart lecture-recording system using MK-CPN network for heterogeneous data sources
TWI505242B (zh) 數位教學系統及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant