CN107710736A - 辅助用户捕获图像或视频的方法和系统 - Google Patents
辅助用户捕获图像或视频的方法和系统 Download PDFInfo
- Publication number
- CN107710736A CN107710736A CN201680039592.5A CN201680039592A CN107710736A CN 107710736 A CN107710736 A CN 107710736A CN 201680039592 A CN201680039592 A CN 201680039592A CN 107710736 A CN107710736 A CN 107710736A
- Authority
- CN
- China
- Prior art keywords
- user
- video
- electronic equipment
- individual
- fov
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
本文公开了辅助用户捕获图像或视频的系统和方法的各个方面。根据实施例,电子设备中的一个或多个电路被配置为从用户接收第一多个输入值。该第一多个输入值包括在第一位置处的电子设备的一个或多个视场(FOV)中包围第一对象的第一多个边界点。此后,基于第一多个边界点来确定用于捕获图像或视频的第二位置和目标FOV。该图像或视频至少包括第一对象。进一步地,控制指示符的显示以引导用户到第二位置以在目标FOV中捕获图像或视频。
Description
技术领域
本公开的各个实施例涉及图像捕获。更具体地,本公开的各个实施例涉及对用户捕获图像或视频的基于设备的辅助。
背景技术
随着图像处理技术的进步和启用相机的电子设备的普及,包括业余摄影师和专业摄影师二者的摄影爱好者的数量已经显著增加。当专业摄影师挑选拍摄情景的图像或视频的场所时,他们可能非常小心。他们可以具有关于在他们的电子设备中可能可用的各种调整和设置的知识,该调整和设置使得用户能够捕获合适的镜头(shot)。进一步地,他们可以了解可以在所捕获的图像或视频上执行的各种后期处理操作以提高所捕获的图像或视频的质量。然而,业余摄影师可能对于摄影中涉及的细微之处不如专业摄影师了解和熟悉。因此,存在辅助这种新手或业余用户来捕获具有最优质量的图像或视频的需求。
通过所描述的系统与本公开的一些方面的比较,常规和传统方法的进一步限制和缺点对于本领域技术人员来说将变得显而易见,如在本申请的其余部分中并参照附图所阐述的那样。
发明内容
如在权利要求里更完整地阐述的,基本上如附图中的至少一个所示和/或结合附图中的至少一个所描述的辅助用户捕获图像或视频的方法和系统。
通过阅读以下对本公开的详细描述以及附图可以理解本公开的这些和其他特征和优点,贯穿附图,相同的附图标记指代相同的部件。
附图说明
图1示出了根据本公开的实施例的辅助用户捕获图像或视频的示例性环境。
图2是示出了根据本公开的实施例的示例性电子设备的框图。
图3示出了根据本公开实施例的用于选择包围感兴趣的情景的一个或多个对象的多个边界点的示例性场景。
图4示出了根据本公开的实施例的用于为感兴趣的情景中的至少一个动态对象以及一个或多个静态对象选择多个边界点的示例性场景。
图5示出了根据本公开的实施例的辅助用户通过使用电子设备来捕获图像或视频的第一示例性场景。
图6示出了根据本公开的实施例的辅助用户通过使用电子设备来捕获图像或视频的第二示例性场景。
图7示出了根据本公开的实施例的用于引导用户捕获感兴趣的情景的全景图像的示例性场景。
图8示出了根据本公开的实施例的用于引导用户捕获感兴趣的情景的阈值图像的示例性场景。
图9是示出了根据本公开的实施例的辅助用户捕获图像或视频的方法的流程图。
具体实施方式
在所公开的辅助用户捕获图像或视频的方法和系统中可以找到以下所描述的实施方式。本公开的示例性方面可以包括电子设备中能够实现的方法。该方法可以包括在第一位置处从用户接收第一多个输入值。所接收的第一多个输入值可以包括第一多个边界点,该第一多个边界点在第一位置处的电子设备的一个或多个视场(FOV)中包围第一对象。此后,基于所接收的第一多个边界点可以确定用以捕获图像或视频的第二位置和目标FOV。图像或视频可以至少包括第一对象。进一步地,可以控制指示符的显示以引导用户到第二位置以在目标FOV中捕获第一对象的图像或视频。
根据实施例,第一对象的至少一部分可以延伸超过第一位置处的电子设备的一个或多个FOV。可以基于用户定义的阈值来确定第二位置和目标FOV,以在目标FOV中捕获第一对象的一部分。
根据实施例,可以从电子设备的一个或多个传感器接收传感器数据以确定可以包围第一对象的第一多个边界点。基于一个或多个参数的确定可以确定第二位置和目标FOV。一个或多个参数的示例可以包括但不限于光的方向、一个或多个光源、光的强度、当在该一个或多个FOV中观看第一对象时电子设备的移动的角度、第一对象离第一位置处的电子设备的距离和/或图像质量阈值。
可以在第一位置处从用户接收第二多个输入值。所接收的第二多个输入值可以包括可以包围第二对象的第二多个边界点。根据实施例,全景图像模式可以被推荐用于第一对象和第二对象的捕获。根据实施例,可以确定第二位置和目标FOV以捕获包括第一对象和第二对象的图像或视频。第二位置和目标FOV的确定可以基于用于第一对象的第一多个边界点和用于第二对象的第二多个边界点。
根据实施例,可以指示在目标FOV中捕获第一对象和/或第二对象的一部分的阈值。根据实施例,第一对象和/或第二对象可以处于运动中。当第一对象和/或第二对象处于运动中时,可以捕获包括第一对象和第二对象的视频。
可以确定对于使用一个或多个设置参数以在所确定的第二位置处在目标FOV中捕获第一对象的图像或视频的推荐。一个或多个设置参数的示例可以包括但不限于光圈设置、国际标准化组织(ISO)感光度、自动曝光、自动对焦、自动白平衡和/或自动照明。
图1示出了根据本公开的实施例的辅助用户捕获图像或视频的示例性环境。参照图1,示出了示例性环境100。示例性环境100可以包括感兴趣的情景102、用户104以及电子设备106。示例性环境100可以进一步包括与用户104在不同时间点的地点相关联的位置,诸如第一位置108a、第二位置108b。示例性环境100可以进一步包括视场(FOV),诸如分别在第一位置108a和第二位置108b处的电子设备106的第一FOV 110b和第二FOV 110b。示例性环境100可以进一步包括可以分别由第一多个边界点114和第二多个边界点118包围的第一对象112和第二对象116。此外,示例性环境100示出了电子设备100的示例性用户接口(UI),诸如第一UI 120a和第二UI 120b。第一UI 120a可以显示第一UI 120a中的参考图像122。第二UI 120b可以包括第一部分124a和第二部分124b以显示诸如导航方向的指示符以向用户104提供引导。
感兴趣的情景102可以包括用户104可能有兴趣通过使用电子设备106来捕获为图像或视频的地理区域或景观。所捕获的图像或视频可以包括可以位于地理区域或景观内的一个或多个对象的呈现。一个或多个对象的示例可以包括但不限于:楼宇、人工建筑物、道路、水体、交通工具、人类主体和/或非人类主体。
用户104可以对应于可以捕获地理区域或景观中的一个或多个对象的图像或视频的人类主体。根据实施例,用户104可以在用户104位于地理区域附近或地理区域内的同时使用电子设备106捕获图像或视频。根据实施例,在用户104捕获图像或视频的同时,用户104可以经由第一UI 120a向电子设备106提供多个输入值。基于多个输入值,电子设备106可以经由第二UI 120b显示对用户104的推荐以在图像或视频的捕获中辅助用户104。
本领域普通技术人员将理解本公开的范围不应当局限于用户104为人类主体。根据实施例,用户104可以对应于自动化图像捕获设备,诸如但不限于图像捕获机器人、图像捕获无人机、蜘蛛相机和/或监视相机。在这种情况下,电子设备106的功能可以由自动化图像捕获设备执行。可替代地,自动化图像捕获设备可以通信地耦合到可以被配置为在图像或视频的捕获中辅助自动化图像捕获设备的另一电子设备或服务器。
电子设备106可以包括被配置为在图像或视频的捕获中辅助用户104的合适的逻辑、电路、接口和/或代码。根据实施例,电子设备106可以被配置为从用户104经由电子设备106的第一UI 120a接收多个输入值。进一步地,基于这多个输入值,电子设备106可以经由第二UI 120b显示对用户104的推荐以在图像或视频的捕获中辅助用户104。根据实施例,基于由电子设备106提供的推荐,用户104可以使用电子设备106以捕获图像或视频。电子设备106的示例可以包括但不限于智能手机、相机、平板电脑、膝上型电脑、可穿戴电子设备、智能玻璃、数字摄录机和/或其他这种启用相机的设备。
在操作中,用户104可以期望通过使用电子设备106从诸如第一位置108a的初始位置捕获第一对象112的图像或视频。第一位置108a可以对应于在第一对象112所位于的相同地理区域中的用户104的地点。在第一位置108a处的电子设备106的一个或多个FOV(诸如第一FOV 110a)内可以观看第一对象112。根据实施例,第一对象112的至少一部分可以延伸超过第一位置108a处的电子设备106的第一FOV 110a。电子设备106可以被配置为在第一位置108a处从用户104接收第一多个输入值。所接收的第一多个输入值可以包括诸如边界点114的第一多个边界点。第一多个边界点114可以包围第一对象112。根据实施例,电子设备106可以被配置为基于由电子设备106中的一个或多个传感器生成的传感器数据来确定第一多个边界点114。
根据实施例,电子设备106可以被配置为基于一个或多个参数的确定来确定诸如第二位置108b的目标位置以及诸如第二FOV 110b的目标FOV。一个或多个参数的示例包括但不限于光的方向、一个或多个光源、光的强度、当在第一FOV 110a中观看第一对象112时电子设备106的移动的角度、第一对象112离第一位置108a处的电子设备106的距离和/或预定图像质量阈值。从第二位置108b处以及在第二FOV 110b内捕获的至少第一对象112的图像或视频可以对应于可以由电子设备106捕获的最终图像或视频。第二位置108b和第二FOV110b的确定可以基于所接收的第一多个边界点114。根据实施例,基于在第二FOV 110b中捕获第一对象112的一部分的用户定义的阈值可以确定第二位置108b和第二FOV 110b。电子设备106可以进一步被配置为控制指示符的显示。该指示符可以引导用户104到第二位置108b以最优的方式在第二FOV 110b中捕获第一对象112的最终图像或视频。
根据实施例,电子设备106可以进一步被配置为在第一位置108a处经由第一UI120a从用户104接收第二多个输入值。第二多个输入值可以包括可以第二多个边界点,诸如可以包围第二对象116的边界点118。根据实施例,可以确定第二位置108b和第二FOV110b以捕获包括第一对象112和第二对象116二者的图像或视频。该确定可以基于所接收的用于第一对象112的第一多个边界点114,和所接收的用于第二对象116的第二多个边界点118。
例如,用户104可以使用电子设备106以在用户104的初始位置(诸如,第一位置108a)处捕获感兴趣的情景102的参考图像122。电子设备106可以经由第一UI 120a向用户104显示所捕获的参考图像122。进一步地,电子设备106可以经由第一UI 120a提示用户104提供用以在参考图像122中选择多个边界点的输入。用户104可以经由第一UI 120a提供第一多个输入值以选择可以包围第一对象112的第一多个边界点114。此外,用户104可以经由第一UI 120a提供另一个输入(诸如第二多个输入值)以选择可以包围第二对象116的第二多个边界点118。此后,基于多个边界点114和118,电子设备106可以确定目标位置(诸如,第二位置108b)以捕获包围第一对象112和第二对象116的最终图像或视频。电子设备106可以向用户104显示第二UI 120b以辅助用户104从第一位置108a找到第二位置108b。第二UI120b可以显示从第一位置108a到达第二位置108b的一个或多个路径的推荐。推荐的示例可以包括但不限于到达第二位置108b的视觉方向、文本方向和/或声音方向。例如,第二UI120b可以包括第一部分124a以显示从第一位置108a到达第二位置108b的视觉导航地图。进一步地,第二UI 120b可以包括第二部分124b以显示对应的文本导航方向,诸如“向后走2英尺”、“向左走5英尺”、“向后走3英尺”以及“向左走1英尺”。本领域普通技术人员将理解第一UI 120a和第二UI 120是为了说明目的而提供的,并且不应当被解释为限制本公开的范围。
根据实施例,电子设备106可以被配置为经由第一UI 120a向用户104指示阈值。阈值可以使得能够在第二FOV 110b中捕获可以包括第一对象112和/或第二对象116的一部分的图像或视频。根据实施例,第一对象112和/或第二对象116可以处于运动中。当第一对象112和/或第二对象116处于运动中时,电子设备106可以推荐包括第一对象112和第二对象116的视频的捕获。可替代地(或在上述之外),电子设备106可以推荐以电子设备106的全景图像模式的第一对象112和第二对象116的捕获。
根据实施例,电子设备106可以进一步被配置为确定对于使用一个或多个设置参数的推荐。所确定的设置参数可以用于在所确定的第二位置108b处在第二FOV 110b中捕获第一对象112的图像或视频。电子设备106可以经由电子设备106的第二UI 120b向用户104提供所确定的推荐。一个或多个设置参数的示例可以包括但不限于光圈设置、国际标准化组织(ISO)感光度、自动曝光、自动对焦、自动白平衡和/或自动照明。
图2是示出了根据本公开的实施例的示例性电子设备的框图。结合来自图1的元素解释图2。参照图2,示出了电子设备106。电子设备106可以包括诸如处理器202的一个或多个处理器、诸如收发器204的一个或多个收发器、诸如存储器206的一个或多个存储器、相机插件208、一个或多个传感器216以及显示设备218。相机插件208可以包括图像处理引擎210、推荐引擎212以及UI管理器214。根据实施例,电子设备106可以经由收发器204通过通信网络(图2中未示出)通信地耦合到一个或多个其他电子设备或服务器。可替代地,电子设备106可以不包括收发器204。在这种情况下,电子设备106可能不能够与一个或多个其他电子设备或服务器进行通信。
处理器202可以通信地耦合到收发器204、存储器206、相机插件208、一个或多个传感器216以及显示设备218。收发器204可以被配置为经由通信网络(未示出)与另一个电子设备或服务器(未示出)进行通信。
处理器202可以包括可以被配置为执行存储在存储器206中的一组指令的合适的逻辑、电路、接口和/或代码。基于本领域已知的许多处理器技术可以实现处理器202。处理器202的示例可以是基于X86的处理器、精简指令集计算(RISC)处理器、专用集成电路(ASIC)处理器、复杂指令集计算(CISC)处理器和/或其他处理器。
收发器204可以包括可以被配置为经由通信网络(未示出)与另一个电子设备或服务器(未示出)进行通信的合适的逻辑、电路、接口和/或代码。收发器204可以实现已知的技术以支持有线或无线通信。收发器204可以包括但不限于天线、射频(RF)收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编码器-解码器(CODEC)芯片组、订户身份模块(SIM)卡和/或本地缓冲器。
收发器204可以经由无线通信与诸如因特网、内联网和/或无线网络(诸如蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))的网络进行通信。无线通信可以使用多种通信标准、协议和技术中的任何通信标准、协议和技术,诸如全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、无线保真(Wi-Fi)(诸如IEEE 802.11a、IEEE 802.11b、IEEE802.11g和/或IEEE 802.11n)、因特网协议语音(VoIP)、Wi-MAX、用于电子邮件、即时消息和/或短消息服务(SMS)的协议。
存储器206可以包括可以被配置为存储具有可由处理器202执行的至少一个代码段的机器代码和/或计算机程序的合适的逻辑、电路和/或接口。存储器206可以进一步被配置为存储可以由电子设备106捕获的一个或多个图像或视频。根据实施例,存储器206可以包括分立的存储器分区。在这种情况下,诸如相机插件208的各种相机插件可以具有对相应的存储器分区的直接独占访问,阻拦安装在电子设备106上的其他应用或程序。存储器206的实现的示例可以包括但不限于随机存取存储器(RAM)、只读存储器(ROM)、硬盘驱动器(HDD)和/或安全数字(SD)卡。
相机插件208可以包括可以被配置为通过使用电子设备106来向用户104提供辅助以捕获一个或多个图像或视频的合适的逻辑、电路、接口和/或代码。根据实施例,相机插件208可以是处理器202的一部分。可替代地,相机插件208可以被实现为电子设备106中的单独的处理器或电路。根据实施例,相机插件208和处理器202可以被实现为执行相机插件208和处理器202的功能的集成处理器或处理器集群。根据实施例,相机插件208可以被实现为存储在存储器206中的计算机程序代码,该计算机程序代码在由处理器202执行时可以执行相机插件208的功能。
图像处理引擎210可以包括可以被配置成确定感兴趣的情景102的地理区域内的电子设备106的目标FOV的合适的逻辑、电路、接口和/或代码。进一步地,图像处理引擎210可以被配置为确定地理区域内的目标位置,这可以使得能够在所确定的FOV中捕获电子设备106的最终图像或视频。根据实施例,图像处理引擎210可以从一个或多个传感器216接收传感器数据。基于传感器数据,图像处理引擎210可以确定一个或多个参数。图像处理引擎210可以被配置为基于所确定的一个或多个参数来确定目标FOV和位置。
推荐引擎212可以包括可以被配置为基于目标FOV和/或目标位置来生成一个或多个推荐以捕获最终图像或视频的合适的逻辑、电路、接口和/或代码。推荐引擎212可以从一个或多个传感器216接收传感器数据,该传感器数据可以包括(可以与电子设备106的当前位置相同的)用户104的当前位置。此后,基于用户104的当前位置,推荐引擎212可以生成一个或多个推荐以辅助用户104找到由图像处理引擎210确定的目标位置。根据实施例,推荐引擎212可以生成一个或者多个设置参数的推荐以在目标位置处在目标FOV中捕获对象的图像或视频。本领域普通技术人员将理解,本公开的范围不应当局限于图像处理引擎210和推荐引擎212作为分开的实体的实现方式。根据实施例,图像处理引擎210和推荐引擎212可以被整合为单个实体。
UI管理器214可以包括可以被配置为管理呈现在电子设备106的显示设备218上的UI的合适的逻辑、电路、接口和/或代码。UI管理器214可以进一步被配置为经由电子设备106的输入设备(图2中未示出)接收和处理通过电子设备106的第一UI 120a接收的用户输入。根据实施例,输入设备可以通信地耦合到电子设备106(或者被包括在电子设备106内)。输入设备的示例可以包括但不限于小键盘、鼠标、操纵杆、跟踪板、启用语音的输入设备、启用触摸的输入设备和/或启用手势的输入设备。
根据实施例,UI管理器214可以被配置为经由电子设备106的UI向用户104呈现相机接口(在下文中,术语“UI”和“相机接口”可互换使用)。相机接口可以被配置为显示由推荐引擎212生成的用于最终图像或视频的捕获的一个或多个推荐。进一步地,相机接口可以被配置为使用户104能够基于该一个或多个推荐来捕获最终图像或视频。
一个或多个传感器216可以包括可以被配置成捕获感兴趣的情景102的一个或多个图像或视频的合适的逻辑、电路、接口和/或代码。根据实施例,一个或多个传感器216可以被配置为确定电子设备106相对于感兴趣的情景102的地理区域中的一个或多个对象的位置、方位和/或移动程度。进一步地,一个或多个传感器216可以被配置为基于电子设备106的所确定的位置、所确定的方位和/或所确定的移动程度中的一个或多个来确定传感器数据。一个或多个传感器216可以包括图像捕获传感器和/或光传感器。图像捕获传感器和/或光传感器的示例可以包括但不限于电荷耦合器件(CCD)传感器、互补金属氧化物半导体(CMOS)传感器和/或N型金属氧化物半导体(NMOS)传感器。此外,一个或多个传感器216还可以包括但不限于位置传感器(诸如地理定位传感器(GPS)),方位传感器(诸如陀螺仪和/或磁力计)和/或速度/运动传感器(诸如加速计)。
显示设备218可以包括可以被配置为呈现第一UI 120a和第二UI 120b的合适的逻辑、电路、接口和/或代码。根据实施例,显示设备218可以被实现为电子设备106的一部分。可替代地,显示设备218可以通信地耦合到电子设备106。显示设备218可以通过若干已知技术来实现,诸如但不限于基于阴极射线管(CRT)的显示、液晶显示(LCD)、基于发光二极管(LED)的显示、有机LED显示技术以及视网膜显示技术。此外,根据实施例,显示设备218可以接收来自用户104的输入。在这种情况下,显示设备218可以是使用户104能够提供输入的触摸屏。根据实施例,触摸屏可以对应于电阻式触摸屏、电容式触摸屏或热触摸屏中的至少一种。根据实施例,显示设备218可以通过虚拟小键盘、触控笔、基于手势的输入和/或基于触摸的输入来接收输入。在这种情况下,输入设备可以集成在显示设备218内。此外,电子设备106可以包括除了基于触摸屏的显示设备218以外的次要输入设备。
在操作中,用户104可能期望通过使用电子设备106从诸如第一位置108a的初始位置来捕获第一对象112的图像或视频。第一对象112可以在第一位置108a处的电子设备106的一个或多个FOV(诸如第一FOV 110a)内被观看。根据实施例,第一对象112的至少一部分可以延伸超过第一位置108a处的电子设备106的第一FOV110a。UI管理器214可以被配置为经由电子设备106的UI(例如,经由第一UI 120a)向用户104显示所捕获的参考图像或视频。进一步地,基于所捕获的参考图像或视频,UI管理器214可以提示用户104提供多个输入值。
根据实施例,图像处理引擎210可以被配置为经由电子设备106的第一UI 120a从用户104接收第一多个输入值。第一多个输入值可以包括在一个或多个参考图像或视频内的第一多个边界点114。第一多个边界点114可以包围第一位置108a处的电子设备106的一个或多个参考FOV(由图1中的第一FOV 110a描绘)中的第一对象112。根据实施例,图像处理引擎210可以被配置成确定第二位置(由图1中的第二位置108b描绘)和目标FOV(由图1中的第二FOV 110b描绘)。基于所接收的第一多个边界点114可以确定第二位置108b和第二FOV110b以捕获至少包括第一对象112的一个或多个最终图像或视频。
根据实施例,当捕获一个或多个参考图像或视频时,一个或多个传感器216可以生成传感器数据。图像处理引擎210可以从一个或多个传感器216接收传感器数据。传感器数据可以包括但不限于图像捕获传感器数据、位置传感器数据、方位传感器数据和/或速度/运动传感器数据。此后,图像处理引擎210可以基于传感器数据来确定一个或多个参数。一个或多个参数的示例可以包括但不限于光的方向、一个或多个光源、光的强度、当在第一FOV 110a中观看第一对象112时电子设备106的移动的角度、第一对象112离第一位置108a处的电子设备106的距离和/或图像质量阈值。根据实施例,第二位置108b和第二FOV 110b的确定可以进一步基于所确定的一个或多个参数。
根据实施例,图像处理引擎210可以被配置为基于一个或多个参数和/或传感器数据来确定包围第一对象112的第一多个边界点114。在这种情况下,图像处理引擎210可以不需要从用户104接收第一多个输入值。可替代地,UI管理器214可以呈现覆盖有由图像处理引擎210确定的第一多个边界点114的一个或多个参考图像或视频。可以经由电子设备106的第一UI 120a向用户104呈现覆盖有第一多个边界点114的一个或多个参考图像或视频。用户104可以经由第一UI 120a来确认或调整第一多个边界点114。
图像处理引擎210可以被配置为基于一个或多个参数和/或传感器数据来确定第一对象112是否完全地或部分地位于第一FOV 110a内。在第一对象112不完全位于第一FOV110a内的情况下,UI管理器214可以提示用户104提供与第一对象112的一部分的捕获相关联的阈值。图像处理引擎210可以基于用户定义的阈值来确定第二位置108b和第二FOV110b。例如,用户104经由第一UI 120a提供诸如“120%”的阈值。基于阈值,图像处理引擎210可以确定所捕获的图像或视频相对于背景情景的百分比。因此,基于阈值“120%”,第二FOV 110b包括多于背景情景的“20%”。
根据实施例,图像处理引擎210可以被配置为在第一位置108a处经由第一UI 120a从用户104接收第二多个输入值。所接收的第二多个输入值可以包括可以包围第二对象116的第二多个边界点118。根据实施例,图像处理引擎210可以被配置为确定第二位置108b和第二FOV 110b以捕获可以包括第一对象112和第二对象116二者的最终图像或视频。最终图像或视频的确定可以基于所接收的用于第一对象的第一多个边界点114,和所接收的用于第二对象116的第二多个边界点118。
根据实施例,图像处理引擎210可以被配置为确定阈值以在第二FOV 110b中捕获包括第一对象112和/或第二对象116的一部分的图像或视频。图像处理引擎210可以基于一个或多个参数和/或传感器数据来确定阈值。UI管理器214可以经由第一UI 120a向用户104呈现阈值。例如,针对第一对象112和第二对象116确定的阈值分别为“100%”和“120%”。这可以指示:在第二FOV 110b中捕获的最终图像或视频可以相对于背景情景包含第一对象112的“100%”以及第二对象116的“120%”。
根据实施例,第一对象112和/或第二对象116可以处于运动中。图像处理引擎210可以被配置为基于传感器数据和/或一个或多个参数来确定第一对象112和/或第二对象116是否处于运动中。图像处理引擎210和/或推荐引擎212可以随后生成适合于捕获第一对象112和/或第二对象116的一个或多个图像捕获模式的推荐。UI管理器214可以经由电子设备106的第二UI 120b向用户104呈现推荐的图像捕获模式。一个或多个图像捕获模式的示例可以包括但不限于全分辨率图像模式、阈值分辨率图像模式、全景图像模式和/或视频模式。根据实施例,当第一对象112和/或第二对象116处于运动中时,向用户104推荐的图像捕获模式可以对应于视频模式。
根据实施例,推荐引擎212可以被配置为生成一个或多个推荐以辅助用户104捕获感兴趣的情景102的地理区域中的一个或多个对象(诸如第一对象112)的图像或视频。根据实施例,推荐引擎212可以从一个或多个传感器216实时接收传感器数据。此后,基于传感器数据,推荐引擎212可以确定在地理区域内的诸如第一位置108a的用户104的当前位置(诸如电子设备106的当前位置)与第二位置108b之间的一个或多个路径。例如,推荐引擎212可以从图像处理引擎210接收第二位置108b的位置坐标。进一步地,推荐引擎212可以从诸如位置传感器的一个或多个传感器216接收用户104的当前位置(诸如电子设备106的当前位置)的位置坐标。此后,推荐引擎212可以基于两个位置的相应位置坐标来确定当前位置与第二位置108b之间的一个或多个路径。根据实施例,推荐引擎212可以被配置为基于所确定的一个或多个路径来控制指示符的显示(下文可互换地称为“引导指示符”)以引导用户104到第二位置108b。引导指示符可以使得能够在第二FOV 110b中捕获一个或多个对象(诸如第一对象112)的图像或视频。UI管理器214可以经由第二UI 120b向用户呈现由推荐引擎212控制的引导指示符。例如,用户104的当前位置与第二位置108b之间的路径可能需要用户104以如下方式移动:“向右3英尺”以及“向后6英尺”。引导指示符可以指引用户104相应地移动。一个或多个传感器216可以在用户104向第二位置108b移动时实时监测用户104(和电子设备106)的位置。在用户104向第二位置108b移动时,推荐引擎212可以基于所监测的用户104的位置来确定到第二位置108b的更新的路径。可以相应地更新引导指示符。例如,如果用户104已经从用户104的先前位置进行了“向右3英尺”以及“向后5英尺”移动,则引导指示符可以引导用户104进一步进行“向后1英尺”移动以到达第二位置108b。
根据实施例,推荐引擎212可以被配置为从图像处理引擎210接收地理区域中的一个或多个其他第二位置的位置坐标。一个或多个其他第二位置可以对应于在第二位置108b之外的其他最优位置,以捕获诸如第一对象112的一个或多个对象的图像或视频。根据实施例,推荐引擎212可以被配置为确定用户104的当前位置与一个或多个其他第二位置中的每一个之间的一个或多个路径。UI管理器214可以经由第二UI 120b向用户104呈现在当前位置与一个或多个其他第二位置中的每一个之间确定的一个或多个其他第二位置和/或一个或多个路径的推荐。UI管理器214可以提示用户104在一个或多个其他第二位置中的一个和/或第二位置108b之间进行选择。推荐引擎212可以基于由用户104选择的位置和用户104的当前位置来实时更新引导指示符。例如,捕获第一对象112的图像或视频的最佳位置(诸如第二位置108b)对于用户104可能是不可达的。在这种场景中,用户104可以选择推荐的其他第二位置中的一个以捕获第一对象112的图像或视频。引导指示符可以辅助用户104到达由用户104选择的另一个第二位置。
根据实施例,推荐引擎212可以进一步被配置为确定一个或多个设置参数以在所确定的第二位置108b处在第二FOV 110b中捕获一个或多个对象(诸如第一对象112)的图像或视频。推荐引擎212可以基于由图像处理引擎210确定的一个或多个参数和/或传感器数据来确定一个或多个设置参数。一个或多个设置参数可以用于配置来自一个或多个传感器216中的图像捕获传感器的一个或多个功能和/或操作方面。UI管理器214可以经由电子设备106的第二UI 120b提供所确定的一个或多个设置参数作为向用户104的推荐。用户104可以基于推荐的一个或多个设置参数经由第二UI 120b提供输入。诸如图像捕获传感器的一个或多个传感器216可以基于针对各个设置参数接收的用户输入来调整其设置参数的值。一个或多个设置参数的示例可以包括但不限于光圈设置、ISO感光度、自动曝光、自动对焦、自动白平衡和/或自动照明。本领域普通技术人员将理解,本公开的范围不应当局限于推荐引擎212对一个或多个设置参数的确定。根据实施例,在不偏离本公开的范围的情况下,图像处理引擎210可以被配置为确定该一个或多个设置参数。
本公开的各种实施例可以包含许多优点。如上面所讨论的,电子设备106可以确定可能适合于捕获第一对象112的图像或视频的第二位置108b和第二FOV 110b。在第二位置108b处捕获的第一对象112的图像或视频可以具有比在第一位置108a处捕获的第一对象112的图像或视频更好的质量。这可能是由于第二位置108b相比于第一位置108a更适合于基于一个或多个参数来捕获图像或视频。
进一步地,如所讨论的,电子设备106可以向用户104提供引导以从用户104的当前位置找到第二位置108b。用户104可以通过实时方向的使用到达第二位置108b。进一步地,在用户104不能找到第二位置108b的情况下,电子设备106可以向用户104提供针对第二位置的备用推荐用于第一对象112的图像或视频的捕获。此外,电子设备106可以向用户104提供一个或多个设置参数的推荐,用于电子设备106的图像捕获传感器的适当配置。
图3示出了根据本公开实施例的用于选择包围感兴趣的情景的一个或多个对象的多个边界点的示例性场景。结合来自图2的元素描述图3。参照图3,示出了场景图300。场景图300包括用户104、电子设备106、感兴趣的情景302、顶部边界点304a、左边界点304b、右边界点304c、底部边界点304d、顶部参考图像306a、左参考图像306b、右参考图像306c、底部参考图像306d、目标参考图像308、第一组边界点310以及第二组边界点312。
在操作中,电子设备106的UI管理器214可以经由第一UI120a提示用户104捕获包围感兴趣的情景302中的一个或多个感兴趣的对象的一个或多个参考图像。用户104可以使用电子设备106以捕获可以包括感兴趣的情景302中的一个或多个感兴趣的对象的顶部部分的顶部参考图像306a。类似地,用户104可以通过使用电子设备106捕获可以分别包括一个或多个感兴趣的对象的左部分和右部分的左参考图像306b和右参考图像306c。进一步地,用户104可以通过使用电子设备106捕获可以包括一个或多个感兴趣的对象的底部部分的底部参考图像306d。当捕获到顶部参考图像306a时,电子设备106的图像处理引擎210可以基于从电子设备106的一个或多个传感器216接收的传感数据来确定顶部边界点304a。进一步地,当分别捕获到参考图像306b、306c和306d时,图像处理引擎210可以基于从一个或多个传感器216接收的传感器数据来确定边界点304b、304c和304d。
例如,当电子设备106捕获到诸如306a至306d的参考图像中的每一个时,位置传感器可以确定电子设备106的X、Y和Z轴坐标。进一步地,当电子设备106捕获到诸如306a至306d的参考图像中的每一个时,方位传感器可以确定电子设备106的方位角度。图像处理引擎210可以应用一个或多个三角估计以确定一个或多个感兴趣的对象离电子设备106的距离。进一步地,图像处理引擎210可以基于一个或多个三角估计来确定感兴趣的情景302内的一个或多个感兴趣的对象的尺寸。
本领域普通技术人员将理解,本公开的范围不应当局限于诸如306a至306d的参考图像的捕获以确定诸如304a、304b、304c和304d的四个边界点。根据实施例,用户104可以使用电子设备106扫描感兴趣的情景302中的一个或多个感兴趣的对象的垂直范围和水平范围。例如,用户104可以移动电子设备106(从上到下,或反之亦然)以捕获一个或多个感兴趣的对象的垂直范围的连续图像或视频。类似地,用户104可以将电子设备106从左向右移动,或反之亦然,以捕获一个或多个感兴趣的对象的水平范围的连续图像或视频。图像处理引擎210可以基于一个或多个感兴趣的对象的垂直范围的连续图像或视频分别确定顶部边界点304a和底部边界点304d。进一步地,图像处理引擎210可以基于一个或多个感兴趣的对象的水平范围的连续图像或视频分别确定左边界点304b和右边界点304c。根据另一个实施例,用户104可以使用电子设备106以捕获一个或多个感兴趣的对象的一个或多个对角线范围的连续图像或视频。图像处理引擎210可以基于这种一个或多个对角线范围的连续图像或视频来确定诸如304a至304d的四个边界点。
根据实施例,图像处理引擎210可以通过组合可以被捕获以确定四个边界点304a至304d的图像来生成目标参考图像308。被组合以生成目标参考图像308的图像的示例可以包括但不限于:参考图像306a至306d;和/或包括对一个或多个感兴趣的对象的垂直范围、水平范围和/或一个或多个对角线范围的扫描的图像。图像处理引擎210可以基于四个边界点304a至304d和/或传感器数据来确定可以包围一个或多个感兴趣的对象的第一组边界点310。进一步地,UI管理器214可以经由电子设备106的第一UI 120a向用户104呈现覆盖在目标参考图像308上的第一组边界点310。根据实施例,用户104可以提供将第一组边界点310修改为第二组边界点312的输入。例如,用户104可以在电子设备106的触摸屏上捏合、缩放或平移以将第一组边界点310修改为第二组边界点312。根据实施例,图像处理引擎210可以确定可能适合于捕获包围第二组边界点312内的一个或多个对象的最终图像或视频的目标位置和目标FOV。
图4示出了根据本公开的实施例的用于为感兴趣的情景中的至少一个动态对象以及一个或多个静态对象选择多个边界点的示例性场景。结合来自图2的元素描述图4。参照图4,示出了场景图400。场景图400包括用户104、电子设备106、感兴趣的情景402、第一对象404a、第二对象404b、第三对象404c、第一多个边界点406a、第二多个边界点406b、第三多个边界点406c、方向矢量408、第一图像410以及第二图像412。
在操作中,用户104可以使用电子设备106来捕获感兴趣的情景402中的一个或多个感兴趣的对象的一个或多个参考图像或视频。例如,用户104可以捕获可以包含第一对象404a、第二对象404b和第三对象404c的一个或多个参考图像或视频。UI管理器214可以经由第一UI 120a提示用户104提供指示包围在一个或多个参考图像或视频中所捕获的一个或多个感兴趣的对象中的每一个的多个边界点的输入。用户104可以基于所捕获的一个或多个参考图像或视频来提供指示这多个边界点的输入。例如,用户104可以选择第一多个边界点406a作为包围第一对象404a的多个边界点。进一步地,用户104可以分别为第二对象404b和第三对象404c选择第二多个边界点406b和第三多个边界点406c。根据另一个实施例,图像处理引擎210可以基于传感器数据和/或一个或多个参数来确定包围一个或多个感兴趣的对象的多个边界点。在这种情况下,可以在没有用户输入的情况下执行多个边界点的选择。可替代地,用户104可以提供用以确认或修改由图像处理引擎210确定的多个边界点的输入。
根据实施例,一个或多个感兴趣的对象中的至少一个可以处于运动中,而其他感兴趣的对象可以是静止的。例如,第二对象404b可以对应于可能处于运动中的人类主体。第二对象404b可以沿诸如从右向左跨感兴趣的情景402的方向408移动。进一步地,第一对象404a和第三对象404c可以对应于静态的楼宇或人工产物(artefact)。根据实施例,图像处理引擎210可以基于多个边界点、传感器数据和/或一个或多个参数来确定可能适合于捕获包围一个或多个感兴趣的对象的图像或视频的目标位置和目标FOV。推荐引擎212可以生成经由第二UI 120b将向用户104显示的引导指示符以辅助用户104到达所确定的位置。
例如,引导指示符可以向用户104提供推荐以移动到特定位置来捕获可以包含第一对象404a、第二对象404b和第三对象404c的第一图像410。在用户104不能移动到该位置的场景中,引导指示符可以推荐另一个合适的位置来捕获第一图像410。进一步地,一个或多个传感器216可以实时监测一个或多个感兴趣的对象的位置变化并且更新传感器数据。可替代地,或在以上之外,用户104可以提供用以将对象识别为可能在感兴趣的情景402内运动的主要对象(例如,第二对象404b)的输入。根据实施例中,UI管理器214可以在感兴趣的对象(比如主要对象,诸如第二对象404b)移动时经由第二UI120b通知用户104。根据实施例,图像处理引擎210可以确定可能适合于捕获一个或多个感兴趣的对象的后续图像或视频的目标位置和相关联的FOV。
例如,在引导指示符的辅助下,用户104可能在第一时刻到达特定位置以捕获第一图像410。第一图像410可以包括至少一个动态对象,诸如第二对象404b。一个或多个传感器216可以检测第二对象404b的移动。此后,引导指示符可以辅助用户104找到可能适合于捕获第二对象404b的最终图像的目标位置。用户104可以在指示符的辅助下到达目标位置,以通过使用电子设备106来捕获诸如第二图像412的最终图像。显然,在第一图像410和第二图像412的捕获之间的时间间隔中,第二对象404b可以在感兴趣的情景402中向左(在408所示方向中)移动。
根据实施例,推荐引擎212可以经由第二UI 120b向用户104提供一个或多个图像捕获模式的推荐。根据实施例,当感兴趣的对象中的一个可能处于运动中并且其他感兴趣的对象(静态对象)可能未在单个图像中被完全捕获到时,推荐引擎212可以推荐视频模式或全景图像模式。用户104可以基于推荐来捕获包含诸如第一对象404a和第三对象404c的一个或多个静态对象以及诸如第二对象404b的至少一个动态对象的视频。例如,第一图像410和第二图像412可对应于所捕获的视频的后续帧。
根据实施例,推荐引擎212也可以推荐阈值图像模式,该模式可以使得能够捕获动态对象以及其他感兴趣的对象中的每一个的至少预定部分。在这种场景中,图像处理引擎210可以确定可能适合于以阈值图像模式捕获图像的位置和FOV。引导指示符可以辅助用户104找到这种位置。
图5示出了根据本公开的实施例的辅助用户通过使用电子设备来捕获图像或视频的第一示例性场景。结合来自图2的元素描述图5。参照图5,示出了场景图500。场景图500包括用户104、电子设备106、感兴趣的情景502、当前位置504a、目标位置504b、电子设备106的一个或多个FOV(由当前FOV 506a描绘)、电子设备106的目标FOV(由目标FOV 506b描绘)、第一对象508、包围第一对象508的第一多个边界点512以及光源512(诸如太阳)。
在操作中,当用户104位于当前位置504a时,用户104可以捕获第一对象508的一个或多个参考图像或视频。电子设备106的UI管理器214可以基于所捕获的一个或多个参考图像或视频,经由第一UI 120a提示用户104提供第一多个输入值。用户104可以经由电子设备106的第一UI 120a来提供第一多个输入值。根据实施例,由用户104提供的第一多个输入值可以包括包围当前FOV 506a内的第一对象508的第一多个边界点510的指示。
根据实施例,电子设备106的一个或多个传感器216可以被配置为确定传感器数据以及一个或多个参数。例如,来自一个或多个传感器216的光传感器可以确定从光源512发射的光的方向和强度。进一步地,光传感器可以确定感兴趣的情景502是否包括在光源512之外的其他光源。以类似的方式,光传感器可以确定从所有这些光源发射的光的方向和强度。此外,光传感器也可以确定感兴趣的情景502是否包括一个或多个阴影区域。因此,图像处理引擎210可以基于传感器数据以及由诸如光传感器的一个或多个传感器216确定的一个或多个参数来确定电子设备106的目标位置504b和目标FOV 506b。推荐引擎212可以控制在第二UI 120b上显示的引导指示符以辅助用户104找到目标位置504b,以在目标FOV 506b中捕获第一对象508的最终图像或视频。
例如,光源512可以是明亮的,并且由光源512发射的光的方向可以在当前FOV506a内。在这种情况下,图像处理引擎210可以将目标位置504b确定为受到来自光源512的较低强度的光的位置。进一步地,图像处理引擎210可以将目标FOV 506b确定为可以包含远离由光源512发射的光的方向的区域的FOV。在另一个场景中,光源512可能不是非常明亮的,并且感兴趣的情景502可能是暗光情景。在这种情况下,图像处理引擎210可以将第二位置504b确定为具有良好照明条件的位置。进一步地,图像处理引擎210可以生成使用闪光灯的推荐以有效地在第二位置504处捕获第一对象508的图像或视频。本领域普通技术人员将理解,FOV内的高强度光源和阴影区域的存在可能会由于捕获的图像或视频中的高动态范围和对比度而降低在该FOV中捕获的图像或视频的质量。另一方面,FOV内的低光照条件也可能会由于捕获的图像或视频中的低动态范围和对比度而降低在该FOV中捕获的视频的图像的质量。因此,由图像处理引擎210生成的用以在第二位置504b处捕获第一对象508的最终图像或视频的推荐可以辅助用户104在不适当的照明条件下捕获最优镜头。
图6示出了根据本公开的实施例的辅助用户通过使用电子设备来捕获图像或视频的第二示例性场景。结合来自图2的元素描述图6。参照图6,示出了场景图600。场景图600包括用户104,电子设备106、感兴趣的情景602、当前位置604a、目标位置604b、诸如电子设备106的当前FOV 606a和目标FOV 606b的电子设备106的一个或多个FOV、参考图像608、第一阈值图像610和第二阈值图像612。
在操作中,通过电子设备106的使用,用户104可以在当前位置604a处捕获参考图像608。根据实施例,在当前位置604a处可以在电子设备106的当前FOV 606a内捕获参考图像608。UI管理器214可以经由第一UI 120a提示用户104基于参考图像608提供与图像或视频的捕获有关的阈值。根据实施例,阈值可以对应于参考图像608中的背景与要捕获的图像或视频中的背景的比率。用户104随后可以经由第一UI 120a提供指示阈值的输入。
根据实施例,图像处理引擎210可以从一个或多个传感器216接收传感器数据。进一步地,图像处理引擎210可以基于传感器数据确定一个或多个参数。一个或多个参数的示例可以包括但不限于光的方向、一个或多个光源、光的强度、当在当前FOV 606a中观看对象时电子设备106的移动的角度、对象离当前位置604a处的电子设备106的距离和/或图像质量阈值。图像处理引擎210可以基于由用户104提供的一个或多个参数和阈值来确定目标位置604b和目标FOV606b。根据实施例,推荐引擎212可以控制显示在第二UI 120b上的引导指示符以辅助用户104找到目标位置604b,以在目标FOV 606b中捕获阈值图像或视频。
例如,参考图像608可以对应于诸如“100%”的阈值。另一方面,第一阈值图像610和第二阈值图像612可以分别对应于诸如“120%”和“150%”的阈值。因此,第一阈值图像610可以相对于参考图像608包括“20%”额外背景。类似地,第二阈值图像612可以相对于参考图像608包括“50%”额外背景。在用户104提供诸如“120%”的阈值的场景中,引导指示符可以将用户104引导到目标位置604b,该目标位置604b适合于在电子设备106的相关联的目标FOV 606b中捕获第一阈值图像610。类似地,如果用户104提供诸如“150%”的阈值,则用户104可以被引导到目标位置604b,该目标位置604b可以适合于在电子设备106的相关联的目标FOV 606b中捕获第二阈值图像612。
图7示出了根据本公开的实施例的用于引导用户捕获感兴趣的情景的全景图像的示例性场景。结合来自图2的元素描述图7。参照图7,示出了场景图700。场景图700包括用户104、电子设备106、感兴趣的情景702、第一对象704a、第二对象704b、第三对象704c、第一多个边界点706a、第二多个边界点706b、第三多个边界点706c、全景图像708和扫描方向710。
在操作中,用户104可以使用电子设备106来捕获感兴趣的情景702中的一个或多个感兴趣的对象的一个或多个参考图像或视频。UI管理器214可以经由第一UI 120a提示用户104提供指示包围一个或多个参考图像或视频中所捕获的一个或多个感兴趣的对象中的每一个的多个边界点的输入。用户104可以基于所捕获的一个或多个参考图像或视频来提供指示这多个边界点的输入。例如,用户104可以选择第一多个边界点706a作为包围第一对象704a的多个边界点。进一步地,用户104可以分别为第二对象704b和第三对象704c选择第二多个边界点706b和第三多个边界点706c。根据另一个实施例,图像处理引擎210可以基于传感器数据和/或一个或多个参数来确定包围一个或多个感兴趣的对象的多个边界点。在这种情况下,可以在没有任何用户输入的情况下执行多个边界点的选择。可替代地,用户104可以提供用以确认或修改由图像处理引擎210确定的多个边界点的输入。
根据实施例,图像处理引擎210可以基于传感器数据、一个或多个参数和/或每个感兴趣的对象的多个边界点(诸如706a、706b和706c)来确定一个或多个位置和相关联的目标FOV。该一个或多个位置可以适合于在相关联的目标FOV内捕获包含对象704a、704b和704c的图像或视频。进一步地,图像处理引擎210可以确定一个或多个感兴趣的对象中的每一个是否可以被包含在一个或多个位置处捕获的单个图像中。当单个图像可能不整体包括感兴趣的所有对象时,图像处理引擎210或推荐引擎212可以生成以全景图像模式捕获图像的推荐。UI管理器214可以经由第二UI 120b向用户104指示这种推荐。此后,用户104可以基于该推荐,通过使用电子设备106来捕获全景图像708。根据实施例,用户104可以通过从左到右(如由扫描方向710所指示的)捕获感兴趣的情景702的水平范围来捕获全景图像708,反之亦然。从全景图像708中的感兴趣的情景702捕获的水平范围可以包括诸如704a至704c的每个感兴趣的对象。
图8示出了根据本公开实施例的用于引导用户捕获感兴趣的情景的阈值图像的示例性场景。结合来自图2的元素描述图8。参照图8,示出了场景图800。场景图800包括用户104、电子设备106、感兴趣的情景802、第一对象804a、第二对象804b、第三对象804c、第一多个边界点806a、第二多个边界点806b、第三多个边界点806c和阈值图像708。
在操作中,用户104可以使用电子设备106来捕获感兴趣的情景802中的一个或多个感兴趣的对象的一个或多个参考图像或视频。UI管理器214可以经由第一UI 120a提示用户104提供指示包围一个或多个参考图像或视频中所捕获的一个或多个感兴趣的对象中的每一个的多个边界点的输入。用户104可以基于所捕获的一个或多个参考图像或视频来提供指示这多个边界点的输入。例如,用户104可以选择第一多个边界点806a作为包围第一对象804a的多个边界点。进一步地,用户104可以分别为第二对象804b和第三对象804c选择第二多个边界点806b和第三多个边界点806c。根据另一个实施例,图像处理引擎210可以基于传感器数据和/或一个或多个参数来确定包围一个或多个感兴趣的对象的多个边界点。在这种情况下,可以在没有任何用户输入的情况下执行多个边界点的选择。可替代地,用户104可以提供用以确认或修改由图像处理引擎210确定的多个边界点的输入。
根据实施例,图像处理引擎210可以基于传感器数据、一个或多个参数和/或每个感兴趣的对象的多个边界点(诸如806a、806b和806c)来确定一个或多个位置和相关联的目标FOV。该一个或多个位置可以适合于在相关联的目标FOV内捕获包含对象804a、804b和804c的图像或视频。进一步地,图像处理引擎210可以确定一个或多个感兴趣的对象中的每一个是否可以被完全包含在一个或多个位置处捕获的单个图像中。当单个图像可能不整体包封所有感兴趣的对象时,图像处理引擎210或推荐引擎212可以生成以阈值图像模式来捕获图像的推荐。UI管理器214可以经由第二UI 120b向用户104指示这种推荐。此后,用户104可以基于该推荐,通过使用电子设备106来捕获阈值图像808。
根据实施例,阈值图像808可以包括来自感兴趣的情景中的一个或多个感兴趣的对象的第一组对象的完整部分以及第二组对象的预定部分。例如,阈值图像808中的第一组对象可以包括第二对象804b和第三对象804c。进一步地,第二组对象可以包括第一对象808a。因此,在这种情况下,阈值图像808可以包括对象804b和804c的完整部分以及诸如对象804a的预定部分。根据实施例,用户104可以提供指示阈值的输入,该阈值可以对应于需要被包括在阈值图像808内的每个对象的最小部分。例如,用户104可以提供诸如“80%”的阈值。在这种情况下,阈值图像808可以包括每个感兴趣的对象的至少“80%”部分。根据另一个实施例,图像处理引擎210可以基于传感器数据和/或一个或多个参数来确定阈值。在实施例中,UI管理器214可以经由第一UI 120a向用户104呈现阈值。用户104可以基于用户104的偏好来确认或修改阈值。
本领域普通技术人员将理解,已经出于说明性目的提供了六个示例性场景300、400、500、600、700和800,并且这些示例性场景不应当被解释为限制本公开的范围。在不脱离本公开的范围的情况下,可以在具有一个或多个变化的各种其他场景中实现本公开。
图9是示出了根据本公开的实施例的辅助用户捕获图像或视频的方法的流程图。参照图9,示出了流程图900。结合图1和图2描述流程图900。该方法从步骤902开始并且前进到步骤904。
在步骤904,可以从用户104接收第一多个输入值。根据实施例,电子设备106的图像处理引擎210可以被配置为经由电子设备106的第一UI 120a接收第一多个输入值。根据实施例,第一多个输入值可以包括第一多个边界点114(图1)。在第一位置(由图1中的108a描绘)处的电子设备106的一个或多个FOV(由第一FOV110a描绘)中,第一多个边界点114可以包围第一对象112(图1)。
根据实施例,图像处理引擎210可以基于由电子设备106的一个或多个传感器216生成的传感器数据来确定第一多个边界点114。在这种场景中,可能不需要来自用户104的第一多个输入值,因此可以跳过步骤904。可替代地,UI管理器214可以经由第一UI 120a向用户104显示第一多个边界点114。用户104可以确认或修改第一多个边界点114。
在步骤906,可以基于传感器数据来确定一个或多个参数。根据实施例,图像处理引擎210可以被配置为从一个或多个传感器216接收传感器数据。传感器数据可以包括但不限于图像捕获传感器数据、位置传感器数据、方位传感器数据和/或速度/运动传感器数据。图像处理引擎210可以被配置成基于传感器数据确定一个或多个参数。一个或多个参数的示例可以包括但不限于光的方向、一个或多个光源、光的强度、当在第一FOV 110a中观看第一对象112时电子设备106的移动的角度、第一对象112离第一位置108a处的电子设备106的距离和/或图像质量阈值。
在步骤908,可以确定电子设备106的第二位置(由图1中的第二位置108b描绘)和目标FOV(由图1中的第二FOV 110b描绘)。根据实施例,图像处理引擎210可以被配置为基于该一个或多个参数、传感器数据和/或第一多个边界点114来确定电子设备106的第二位置108b和第二FOV 110b。根据实施例,第二位置108b可以是在第二FOV 110b内捕获包含至少第一对象112的图像或视频的合适的位置。本领域普通技术人员可以理解,在不脱离本公开的范围的情况下,图像处理引擎210可以确定多个第二位置和对于第一对象112的图像或视频的相关联的目标FOV。
在步骤910,可以控制指示符的显示以将用户104引导到第二位置108b。根据实施例,电子设备106的推荐引擎212可以被配置为从一个或多个传感器216实时接收传感器数据。传感器数据可以指示电子设备106的当前位置(与用户104的当前位置相同)。推荐引擎212可以生成从用户104的当前位置到达第二位置108b的一个或多个路径的推荐。UI管理器214可以基于生成的推荐,经由第二UI120b向用户104呈现由推荐引擎212控制的引导指示符。推荐引擎212可以基于用户104的实时移动更新经由引导指示符呈现的推荐。因此,引导指示符可以辅助用户104到达第二位置108b以捕获第二FOV 110b中的第一对象112的最终图像或视频。本领域普通技术人员将理解,当用户104可能不能到达第二位置108b时,引导指示符可以提供到另一个第二位置的一个或多个路径的推荐。
在步骤912,可以向用户104推荐一个或多个设置参数。根据实施例,推荐引擎212可以被配置为基于传感器数据推荐一个或多个设置参数。一个或多个设置参数可以用于对来自一个或多个传感器216中的图像捕获传感器的一个或多个功能和/或操作方面进行配置。UI管理器214可以经由电子设备106的第二UI 120b提供所确定的一个或多个设置参数作为对用户104的推荐。用户104可以基于所推荐的一个或多个设置参数经由第二UI 120b提供输入。诸如图像捕获传感器的一个或多个传感器216可以基于针对相应设置参数接收的用户输入来调整其设置参数的值。一个或多个设置参数的示例可以包括但不限于光圈设置、ISO感光度、自动曝光、自动对焦、自动白平衡和/或自动照明。本领域普通技术人员将理解,本公开的范围不应当局限于由推荐引擎212确定一个或多个设置参数。根据实施例,在不偏离本公开的范围的情况下,图像处理引擎210可以被配置为确定该一个或多个设置参数。控制前进到结束步骤914。
根据本公开的实施例,公开了一种辅助用户捕获图像或视频的系统。该系统可以包括可以被配置在第一位置处从用户接收多个输入值的电子设备。所接收的第一多个输入值可以包括在第一位置处的电子设备106的一个或多个FOV中包围第一对象的第一多个边界点。电子设备106可以进一步被配置为基于所接收的第一多个边界点来确定第二位置和目标FOV以捕获图像或视频。图像或视频可以至少包括第一对象。进一步地,电子设备106可以控制指示符的显示,以引导用户到第二位置以在目标FOV中捕获第一对象的图像或视频。
本公开的各个实施例可以提供具有存储在其上的机器代码和/或计算机程序的非暂态计算机可读介质和/或存储介质,该机器代码和/或计算机程序具有可由机器和/或计算机执行的至少一个代码段以辅助用户捕获图像或视频。电子设备106中的该至少一个代码段可以使得机器和/或计算机执行包括在第一位置处从用户接收第一多个输入值的步骤。所接收的第一多个输入值可以包括在第一位置处的电子设备106的一个或多个FOV中包围第一对象的第一多个边界点。此后,可以基于所接收的第一多个边界点来确定捕获图像或视频的第二位置和目标FOV。图像或视频可以至少包括第一对象。进一步地,可以控制指示符的显示以引导用户到第二位置以在目标FOV中捕获第一对象的图像或视频。
可以用硬件或者硬件和软件的组合来实现本公开。可以以集中的方式在至少一个计算机系统中实现本公开,或者以分布的方式实现本公开,在分布的方式中不同的元件可以跨若干互连的计算机系统分布。适于执行本文所描述的方法的计算机系统或其他装置可以是适合的。硬件和软件的组合可以是具有计算机程序的通用计算机系统,该计算机程序当被加载和执行时可以控制计算机系统使其执行本文所描述的方法。可以用包括也执行其他功能的集成电路的一部分的硬件来实现本公开。
本公开也可以被嵌入到计算机程序产品中,该计算机程序产品包括能够实现本文所描述的方法并且当被加载到计算机系统中时能够执行这些方法的所有特征。在本上下文中,计算机程序指以任何语言、代码或符号的一组指令的任何表达,该组指令旨在使具有信息处理能力的系统直接执行特定功能,或在以下操作中的任一或两者之后执行特定功能:a)转换为另一种语言、代码或符号;b)以不同的材料形式进行复制。
尽管参照某些实施例已经描述了本公开,但是本领域技术人员将理解,在不偏离本公开的范围的情况下,可以进行各种改变并且可以替换等同物。此外,在不偏离其范围的情况下,可以进行许多修改以使特定情况或材料适于本公开的教导。因此,本公开旨在不局限于所公开的特定实施例,而本公开将包括落入所附权利要求的范围内的所有实施例。
Claims (24)
1.一种用于辅助用户捕获图像或视频的系统,所述系统包括:
电子设备中的一个或多个电路,所述一个或多个电路被配置为:
在第一位置处从所述用户接收第一多个输入值,其中所述接收的第一多个输入值包括在所述第一位置处的所述电子设备的一个或多个视场(FOV)中包围第一对象的第一多个边界点;
基于所述接收的第一多个边界点来确定用以捕获至少包括所述第一对象的所述图像或所述视频的第二位置和目标FOV;
以及
控制指示符的显示以引导所述用户到所述第二位置以在所述目标FOV中捕获所述第一对象的所述图像或所述视频。
2.根据权利要求1所述的系统,其中所述第一对象的至少一部分延伸超过所述第一位置处的所述电子设备的所述一个或多个FOV。
3.根据权利要求1所述的系统,其中所述一个或多个电路进一步被配置为从所述电子设备的一个或多个传感器接收传感器数据用于包围所述第一对象的所述第一多个边界点的所述确定。
4.根据权利要求1所述的系统,其中所述一个或多个电路被配置为基于确定一个或多个参数来确定所述第二位置和所述目标FOV,其中所述一个或多个参数包括以下中的一个或多个:光的方向、一个或多个光源、光的强度、当在所述一个或多个FOV中观看所述第一对象时所述电子设备的移动的角度、所述第一对象离所述第一位置处的所述电子设备的距离和/或图像质量阈值。
5.根据权利要求1所述的系统,其中所述一个或多个电路进一步被配置为基于在所述目标FOV中捕获所述第一对象的一部分的用户定义的阈值来确定所述第二位置和所述目标FOV。
6.根据权利要求1所述的系统,其中所述一个或多个电路进一步被配置为在所述第一位置处从所述用户接收第二多个输入值,其中所述接收的第二多个输入值包括包围第二对象的第二多个边界点。
7.根据权利要求6所述的系统,其中所述一个或多个电路进一步被配置为确定用以捕获所述图像或所述视频的所述第二位置和所述目标FOV,所述图像或所述视频包括基于所述接收的第一多个边界点的所述第一对象和基于所述接收的第二多个边界点的所述第二对象。
8.根据权利要求6所述的系统,其中所述一个或多个电路进一步被配置为指示在所述目标FOV中捕获以下中的一个或两个的一部分的阈值:所述第一对象和所述第二对象。
9.根据权利要求6所述的系统,其中所述第一对象和/或所述第二对象处于运动中。
10.根据权利要求9所述的系统,其中所述一个或多个电路进一步被配置为当所述第一对象和/或所述第二对象处于运动中时捕获包括所述第一对象和所述第二对象的所述视频。
11.根据权利要求1所述的系统,其中所述一个或多个电路进一步被配置为提供对于使用用于在所述确定的第二位置处在所述目标FOV中捕获所述第一对象的所述图像或所述视频的一个或多个设置参数的推荐,其中所述一个或多个设置参数包括以下中的一个或多个:光圈设置、国际标准化组织(ISO)感光度、自动曝光、自动对焦、自动白平衡和/或自动照明。
12.一种用于辅助用户捕获图像或视频的方法,所述方法包括:
在电子设备中:
在第一位置处从所述用户接收第一多个输入值,其中所述接收的第一多个输入值包括在所述第一位置处的所述电子设备的一个或多个视场(FOV)中包围第一对象的第一多个边界点;
基于所述接收的第一多个边界点来确定用以捕获至少包括所述第一对象的所述图像或所述视频的第二位置和目标FOV;
以及
控制指示符的显示以引导所述用户到所述第二位置以在所述目标FOV中捕获所述第一对象的所述图像或所述视频。
13.根据权利要求12所述的方法,其中所述第一对象的至少一部分延伸超过所述第一位置处的所述电子设备的所述一个或多个FOV。
14.根据权利要求12所述的方法,进一步包括从所述电子设备的一个或多个传感器接收传感器数据用于包围所述第一对象的所述第一多个边界点的所述确定。
15.根据权利要求12所述的方法,进一步包括基于确定一个或多个参数来确定所述第二位置和所述目标FOV,其中所述一个或多个参数包括以下中的一个或多个:光的方向、一个或多个光源、光的强度、当在所述一个或多个FOV中观看所述第一对象时所述电子设备的移动的角度、所述第一对象离所述第一位置处的所述电子设备的距离和/或图像质量阈值。
16.根据权利要求12所述的方法,进一步包括基于在所述目标FOV中捕获所述第一对象的一部分的用户定义的阈值来确定所述第二位置和所述目标FOV。
17.根据权利要求12所述的方法,进一步包括在所述第一位置处从所述用户接收第二多个输入值,其中所述接收的第二多个输入值包括包围第二对象的第二多个边界点。
18.根据权利要求17所述的方法,进一步包括推荐全景图像模式以捕获所述第一对象和所述第二对象。
19.根据权利要求17所述的方法,进一步包括确定用以捕获所述图像或所述视频的所述第二位置和所述目标FOV,所述图像或所述视频包括基于所述接收的第一多个边界点的所述第一对象和基于所述接收的第二多个边界点的所述第二对象。
20.根据权利要求17所述的方法,进一步包括指示在所述目标FOV中捕获以下中的一个或两个的一部分的阈值:所述第一对象和所述第二对象。
21.根据权利要求17所述的方法,其中所述第一对象和/或所述第二对象处于运动中。
22.根据权利要求21所述的方法,进一步包括当所述第一对象和/或所述第二对象处于运动中时捕获包括所述第一对象和所述第二对象的所述视频。
23.根据权利要求12所述的方法,进一步包括提供对于使用用于在所述确定的第二位置处在所述目标FOV中捕获所述第一对象的所述图像或所述视频的一个或多个设置参数的推荐,其中所述一个或多个设置参数包括以下中的一个或多个:光圈设置、国际标准化组织(ISO)感光度、自动曝光、自动对焦、自动白平衡和/或自动照明。
24.一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质具有存储在其上的一组计算机可执行指令,所述一组计算机可执行指令用于使得电子设备执行包括以下操作的步骤:
在第一位置处从用户接收第一多个输入值,其中所述接收的第一多个输入值包括在所述第一位置处的所述电子设备的一个或多个视场(FOV)中包围第一对象的第一多个边界点;
基于所述接收的第一多个边界点来确定用以捕获至少包括所述第一对象的图像或视频的第二位置和目标FOV;以及
控制指示符的显示以引导所述用户到所述第二位置以在所述目标FOV中捕获所述第一对象的所述图像或所述视频。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/814,875 US9826145B2 (en) | 2015-07-31 | 2015-07-31 | Method and system to assist a user to capture an image or video |
US14/814,875 | 2015-07-31 | ||
PCT/US2016/044079 WO2017023620A1 (en) | 2015-07-31 | 2016-07-26 | Method and system to assist a user to capture an image or video |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107710736A true CN107710736A (zh) | 2018-02-16 |
CN107710736B CN107710736B (zh) | 2020-10-20 |
Family
ID=57883367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680039592.5A Active CN107710736B (zh) | 2015-07-31 | 2016-07-26 | 辅助用户捕获图像或视频的方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9826145B2 (zh) |
EP (1) | EP3304884A4 (zh) |
JP (1) | JP6587081B2 (zh) |
KR (1) | KR101989757B1 (zh) |
CN (1) | CN107710736B (zh) |
WO (1) | WO2017023620A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10462364B2 (en) * | 2016-10-25 | 2019-10-29 | Hewlett-Packard Development Company, L.P. | Electronic devices having multiple position cameras |
US10382673B2 (en) | 2017-01-11 | 2019-08-13 | Hover Inc. | Automated guide for image capturing for 3D model creation |
EP3496387A1 (en) * | 2017-12-05 | 2019-06-12 | Koninklijke Philips N.V. | Apparatus and method of image capture |
US10574881B2 (en) * | 2018-02-15 | 2020-02-25 | Adobe Inc. | Smart guide to capture digital images that align with a target image model |
EP3700189B1 (en) * | 2019-02-21 | 2023-02-01 | Vestel Elektronik Sanayi ve Ticaret A.S. | Mobile phone vertical capture mode |
US10984546B2 (en) * | 2019-02-28 | 2021-04-20 | Apple Inc. | Enabling automatic measurements |
US11670144B2 (en) | 2020-09-14 | 2023-06-06 | Apple Inc. | User interfaces for indicating distance |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100020221A1 (en) * | 2008-07-24 | 2010-01-28 | David John Tupman | Camera Interface in a Portable Handheld Electronic Device |
US20120120277A1 (en) * | 2010-11-16 | 2012-05-17 | Apple Inc. | Multi-point Touch Focus |
CN102957859A (zh) * | 2011-08-12 | 2013-03-06 | 索尼公司 | 图像拍摄装置和图像拍摄方法 |
CN103369220A (zh) * | 2012-04-02 | 2013-10-23 | 索尼公司 | 成像设备、成像设备的控制方法以及计算机程序 |
US20140222433A1 (en) * | 2011-09-19 | 2014-08-07 | Personetics Technologies Ltd. | System and Method for Evaluating Intent of a Human Partner to a Dialogue Between Human User and Computerized System |
US20140354768A1 (en) * | 2013-05-30 | 2014-12-04 | Microsoft Corporation | Socialized Mobile Photography |
CN104303130A (zh) * | 2012-05-07 | 2015-01-21 | 三星电子株式会社 | 具有增强现实机制的电子系统及其操作方法 |
US20150098000A1 (en) * | 2013-10-03 | 2015-04-09 | Futurewei Technologies, Inc. | System and Method for Dynamic Image Composition Guidance in Digital Camera |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPO918697A0 (en) | 1997-09-15 | 1997-10-09 | Canon Information Systems Research Australia Pty Ltd | Enhanced information gathering apparatus and method |
JP3700687B2 (ja) * | 2002-07-08 | 2005-09-28 | カシオ計算機株式会社 | カメラ装置及び被写体の撮影方法 |
JP4864502B2 (ja) * | 2006-03-23 | 2012-02-01 | 富士フイルム株式会社 | 撮像装置および撮像条件案内方法 |
JP2010268031A (ja) * | 2009-05-12 | 2010-11-25 | Olympus Corp | デジタルカメラ |
JP5131367B2 (ja) * | 2011-05-31 | 2013-01-30 | カシオ計算機株式会社 | 撮影装置及びプログラム |
CN104145474A (zh) | 2011-12-07 | 2014-11-12 | 英特尔公司 | 引导式图像拍摄 |
JP2013165366A (ja) * | 2012-02-10 | 2013-08-22 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2013214853A (ja) * | 2012-04-02 | 2013-10-17 | Jvc Kenwood Corp | 再生装置、記録再生装置、及び再生方法 |
US9131143B2 (en) * | 2012-07-20 | 2015-09-08 | Blackberry Limited | Dynamic region of interest adaptation and image capture device providing same |
JP2015056825A (ja) * | 2013-09-13 | 2015-03-23 | Necカシオモバイルコミュニケーションズ株式会社 | 撮像装置、その制御方法及びプログラム |
-
2015
- 2015-07-31 US US14/814,875 patent/US9826145B2/en active Active
-
2016
- 2016-07-26 CN CN201680039592.5A patent/CN107710736B/zh active Active
- 2016-07-26 WO PCT/US2016/044079 patent/WO2017023620A1/en active Application Filing
- 2016-07-26 KR KR1020187000600A patent/KR101989757B1/ko active IP Right Grant
- 2016-07-26 JP JP2018500332A patent/JP6587081B2/ja active Active
- 2016-07-26 EP EP16833535.4A patent/EP3304884A4/en not_active Ceased
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100020221A1 (en) * | 2008-07-24 | 2010-01-28 | David John Tupman | Camera Interface in a Portable Handheld Electronic Device |
US20120120277A1 (en) * | 2010-11-16 | 2012-05-17 | Apple Inc. | Multi-point Touch Focus |
CN102957859A (zh) * | 2011-08-12 | 2013-03-06 | 索尼公司 | 图像拍摄装置和图像拍摄方法 |
US20140222433A1 (en) * | 2011-09-19 | 2014-08-07 | Personetics Technologies Ltd. | System and Method for Evaluating Intent of a Human Partner to a Dialogue Between Human User and Computerized System |
CN103369220A (zh) * | 2012-04-02 | 2013-10-23 | 索尼公司 | 成像设备、成像设备的控制方法以及计算机程序 |
CN104303130A (zh) * | 2012-05-07 | 2015-01-21 | 三星电子株式会社 | 具有增强现实机制的电子系统及其操作方法 |
US20140354768A1 (en) * | 2013-05-30 | 2014-12-04 | Microsoft Corporation | Socialized Mobile Photography |
US20150098000A1 (en) * | 2013-10-03 | 2015-04-09 | Futurewei Technologies, Inc. | System and Method for Dynamic Image Composition Guidance in Digital Camera |
Also Published As
Publication number | Publication date |
---|---|
US20170034431A1 (en) | 2017-02-02 |
EP3304884A4 (en) | 2018-12-26 |
CN107710736B (zh) | 2020-10-20 |
WO2017023620A1 (en) | 2017-02-09 |
KR20180016534A (ko) | 2018-02-14 |
KR101989757B1 (ko) | 2019-06-14 |
EP3304884A1 (en) | 2018-04-11 |
JP2018530177A (ja) | 2018-10-11 |
JP6587081B2 (ja) | 2019-10-09 |
US9826145B2 (en) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11138796B2 (en) | Systems and methods for contextually augmented video creation and sharing | |
CN107710736A (zh) | 辅助用户捕获图像或视频的方法和系统 | |
KR102497683B1 (ko) | 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체 | |
JP5619885B2 (ja) | 情報表示装置、表示制御用集積回路、及び表示制御方法 | |
US11722647B2 (en) | Unmanned aerial vehicle imaging control method, unmanned aerial vehicle imaging method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle | |
US9973677B2 (en) | Refocusable images | |
US10514708B2 (en) | Method, apparatus and system for controlling unmanned aerial vehicle | |
US9742995B2 (en) | Receiver-controlled panoramic view video share | |
JP5532026B2 (ja) | 表示装置、表示方法及びプログラム | |
US10818057B2 (en) | Spherical content editing method and electronic device supporting same | |
US20160050349A1 (en) | Panoramic video | |
KR102337209B1 (ko) | 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체 | |
CN112492215B (zh) | 拍摄控制方法、装置和电子设备 | |
KR20180020043A (ko) | 다시점 영상 제어 방법 및 이를 지원하는 전자 장치 | |
US9800773B2 (en) | Digital camera apparatus with dynamically customized focus reticle and automatic focus reticle positioning | |
CN109981982A (zh) | 控制方法、装置以及系统 | |
US11445102B2 (en) | Information processing device and information processing method | |
TWI658435B (zh) | 畫面縫合方法及系統 | |
CN113050698A (zh) | 一种搜寻目标物的方法、装置、无人机设备及存储介质 | |
JP6335696B2 (ja) | 入力装置 | |
CN115760584A (zh) | 一种图像处理方法及相关设备 | |
JP2006140993A (ja) | 複数の画素位置によって定義されたフレームシーケンスの中の一つ以上の考慮対象領域を突き止めるための方法、フレームシーケンスの中の一つ以上の考慮対象領域を突き止めるための機器、複数の画素位置によって定義されたフレームシーケンスの中の一つ以上の考慮対象の領域を突き止めるための方法を実行するよう機器に指図するための命令プログラムを搬送する機器判読可能媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |