CN117641080A - 电子设备及其控制方法和存储介质 - Google Patents
电子设备及其控制方法和存储介质 Download PDFInfo
- Publication number
- CN117641080A CN117641080A CN202311067114.3A CN202311067114A CN117641080A CN 117641080 A CN117641080 A CN 117641080A CN 202311067114 A CN202311067114 A CN 202311067114A CN 117641080 A CN117641080 A CN 117641080A
- Authority
- CN
- China
- Prior art keywords
- image area
- image
- display
- control unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000003287 optical effect Effects 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 28
- 238000001514 detection method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 16
- 210000003811 finger Anatomy 0.000 description 13
- 238000013459 approach Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 210000003813 thumb Anatomy 0.000 description 7
- 238000003825 pressing Methods 0.000 description 6
- 101100507312 Invertebrate iridescent virus 6 EF1 gene Proteins 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 238000004898 kneading Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004380 ashing Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Structure And Mechanism Of Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及电子设备及其控制方法和存储介质。该电子设备包括:获取单元,其被配置为获取并排布置有通过使用第一光学系统所拍摄的第一图像区域和通过使用第二光学系统所拍摄的第二图像区域的图像;显示控制单元,其被配置为在显示器上显示所述第一图像区域和所述第二图像区域;以及接收单元,其被配置为从用户接收预定操作,其中,在从用户接收到所述预定操作的情况下,所述显示控制单元进行控制,使得显示通过放大所述第一图像区域的一部分所生成的放大图像区域来代替所述第二图像区域。
Description
技术领域
本发明涉及电子设备和该电子设备的控制方法。
背景技术
已知使用两个光学系统来获取具有视差的视角宽的图像并显示虚拟球体上所映射的图像以显示三维虚拟现实(VR)图像的技术。用于拍摄具有视差的图像的双镜头VR照相机具有面向相同方向的两个光学系统,并且可以通过一次摄像操作来获取具有视差的两个图像区域。
在一些双镜头VR照相机中,各个光学系统可以拍摄垂直和水平至少180°(半球:从图像的中心起在所有方向上90°)的宽范围的图像。用于显示VR图像的已知方法是:“单镜头VR显示”,其进行修改以在虚拟球体上映射VR图像并由此显示一个图像;以及“双镜头VR显示”,其并排显示用于左眼和用于右眼的VR图像区域。
在能够替换并使用单镜头和双镜头的照相机正在使用双镜头拍摄图像期间,该照相机通过并排布置由左眼光学系统和右眼光学系统拍摄的图像区域来进行双镜头显示,使得容易识别出使用双镜头来拍摄图像的状态。
日本特开2020-107270公开了一种电子设备,该电子设备显示两个鱼眼图像区域(提取范围和排除范围),并且如果利用夹持操作接收到用于放大图像区域中的任一个的指令,则显示放大图像区域。
在双镜头显示中,两个图像区域显示在一个画面上,因此,在使用用于通过触摸实时取景画面(例如,触摸AF、触摸AE)来选择被摄体的功能的情况下,选择期望的被摄体可能是困难的。即使可以单独放大并显示诸如提取范围和排除范围等的两个图像区域中的各个图像区域,用户也可能难以判断放大后的被摄体位于整个图像的哪个位置。
发明内容
本发明提供了可以在进行双镜头显示时显示适合于使用涉及被摄体选择的功能的图像的电子设备。
根据本发明的电子设备包括:获取单元,其被配置为获取并排布置有通过使用第一光学系统所拍摄的第一图像区域和通过使用第二光学系统所拍摄的第二图像区域的图像;显示控制单元,其被配置为在显示器上显示所述第一图像区域和所述第二图像区域;以及接收单元,其被配置为从用户接收预定操作,其中,在从用户接收到所述预定操作的情况下,所述显示控制单元进行控制,使得显示通过放大所述第一图像区域的一部分所生成的放大图像区域来代替所述第二图像区域。
通过参考附图对以下示例性实施例的描述,本发明的进一步的特征将变得明显。
附图说明
图1A和图1B是照相机的外观图;
图2是描绘照相机的配置的框图;
图3是描绘镜头单元的配置的示意图;
图4是例示双镜头显示的实时取景图像的图;
图5是例示根据实施例1的照相机的放大显示处理的流程图;
图6A至图6D是基准眼部图像区域和放大显示区域的显示示例;以及
图7是例示根据实施例2的照相机的放大显示处理的流程图。
具体实施例
实施例1
将参考附图描述本发明的实施例。在实施例1中,将描述电子设备是数字照相机(摄像设备)的情况作为示例。根据实施例1的数字照相机可以获取包括在横向方向上具有预定视差的左图像区域和右图像区域的一个图像(双镜头图像),并且在显示单元(显示器)上显示该图像。
<硬件配置>图1A和图1B是描绘根据实施例1的数字照相机(照相机)100的外观的示例的外观图。图1A是从正面侧观看的照相机100的立体图,并且图1B是从背面侧观看的照相机100的立体图。
照相机100在上面上包括:快门按钮101、电源开关102、模式选择开关103、主电子拨盘104、副电子拨盘105、运动图像按钮106和外取景器显示单元107。快门按钮101是用于指示摄像准备或者用于指示摄像的操作构件。电源开关102是用于切换照相机100的电源开启/关闭(ON/OFF)的操作构件。模式选择开关103是用于切换各种模式的操作构件。主电子拨盘104是用于改变快门速度和光圈等的设置值的转动型操作构件。副电子拨盘105是用于移动选择框(光标)和图像切换等的转动型操作构件。运动图像按钮106是用于指示运动图像拍摄(记录)的开始或停止的操作构件。外取景器显示单元107显示诸如快门速度和光圈等的各种设置模式。
照相机100在背面上包括:显示单元108、触摸面板109、方向键110、设置按钮111、AE锁定按钮112、放大按钮113、再现按钮114、菜单按钮115、目镜116、眼部接近检测单元118和触摸条119。显示单元108显示图像和各种信息。触摸面板109是用于检测对显示单元108的显示面(触摸操作面)的触摸操作的操作构件。方向键110是由可以分别在上/下/左/右方向上按压的键(四方向键)构成的操作构件。用户可以根据由方向键110按压的位置来进行操作。设置按钮111是为了确定所选择的项目而主要按压的操作构件。AE锁定按钮112是为了在摄像待机状态下锁定曝光状态而按压的操作构件。放大按钮113是用于在摄像模式下在实时取景显示(LV显示)中切换放大模式开启/关闭的操作构件。当放大模式开启时,通过操作主电子拨盘104来放大或缩小实时取景图像(LV图像)。放大按钮113还用于在再现模式下放大再现图像或增加放大率。再现按钮114是用于切换摄像模式和再现模式的操作构件。通过在摄像模式下按压再现按钮114,用户可以开始再现模式并且在显示单元108上显示图2中的记录介质227中所记录的图像中的最新图像。
菜单按钮115是为了在显示单元108上显示可以进行各种设置的菜单画面而按压的操作构件。使用显示单元108上所显示的菜单画面、方向键110和设置按钮111,用户可以直观地进行各种设置。目镜116是用户接触他们的眼部并且观看目镜取景器(锁定型取景器)117的部分。用户可以通过目镜116观看图2中的照相机100内部的电子取景器(EVF)217上所显示的图像。眼部接近检测单元118是用于检测用户的眼部是否正在接近目镜116(目镜取景器117)的传感器。
触摸条119是能够接收触摸操作的线形触摸操作构件(线触摸传感器)。触摸条119被布置在当用右手保持(用右手的小指、无名指和中指保持)把持单元120时可以用右手拇指触摸操作(可触摸)触摸条119的位置处,使得可以用右手食指按压快门按钮101。换句话说,在用户将他们的眼部接触目镜取景器117并观看目镜116时,在保持照相机100使得可以随时按压快门按钮101的状态(摄像姿势)下操作触摸条119。触摸条119可以接收对触摸条119的轻击操作(在预定时段内触摸并释放用户的手指而不移动触摸位置的操作)、以及向左或向右的滑动操作(在维持触摸状态的同时移动触摸位置的操作)等。触摸条119是与触摸面板109不同的操作构件,并且不包括显示功能。例如,触摸条119用作可以分配各种功能的多功能条(M-Fn条)。
照相机100还包括把持单元120、拇指搁置单元121、端子盖122、盖123和通信端子124等。把持单元120是已经形成为当用户保持照相机100时用户可以容易地用他们的右手把持的形状的把持单元。在通过用户用他们的小指、无名指和中指对把持单元120进行把持来保持照相机100的状态下,快门按钮101和主电子拨盘104被布置在右手食指可以操作的位置处。在相同的状态下,副电子拨盘105和触摸条119被布置在右手拇指可以操作的位置处。拇指搁置单元121(拇指待机位置)是布置在照相机100的背面侧的位于在不操作任何操作构件的情况下保持把持单元120的右手的拇指容易搁置的位置处的把持单元。拇指搁置单元121由橡胶材料等制成,以便增强保持力(把持感)。端子盖122保护诸如用于将照相机100连接到外部设备(外部装置)的连接线缆的连接器等的连接器。盖123覆盖用于储存记录介质227的槽,以保护记录介质227和槽。通信端子124是用于与可从照相机100拆卸的镜头单元(图2中的镜头单元200或图3中的镜头单元300)进行通信的端子。
<照相机内部的硬件配置>图2是描绘照相机100的配置的框图。用图1A或图1B中所使用的相同附图标记来表示与图1A或图1B相同的构成要素,并且除非必要可以省略对该构成要素的描述。在图2中,镜头单元200安装在照相机100中。
将首先描述镜头单元200。镜头单元200是可从照相机100拆卸的可更换镜头单元的类型。镜头单元200是单镜头单元(单目镜头单元),并且是通常使用的镜头单元的示例。镜头单元200包括光圈201、透镜202、光圈驱动电路203、自动聚焦(AF)驱动电路204、镜头系统控制电路205和通信端子206等。
光圈201被配置为使得开口直径是可调整的。透镜202由多个透镜构成。光圈驱动电路203控制光圈201的开口直径以调整光量。AF驱动电路204驱动透镜202以进行聚焦。镜头系统控制电路205基于来自后面提及的系统控制单元50的指令来控制光圈驱动电路203和AF驱动电路204等。镜头系统控制电路205经由光圈驱动电路203控制光圈201,并且通过经由AF驱动电路204改变透镜202的位置来进行聚焦。镜头系统控制电路205可以与照相机100进行通信。具体地,镜头系统控制电路205经由镜头单元200的通信端子206以及照相机100的通信端子124与照相机100进行通信。通信端子206是镜头单元200用于与照相机100侧进行通信的端子。
接下来将描述照相机100。照相机100包括快门210、摄像单元211、A/D转换器212、存储器控制单元213、图像处理单元214、存储器215、D/A转换器216、EVF 217、显示单元108和系统控制单元50。
快门210是可以基于从系统控制单元50接收到的指令来自由地控制摄像单元211的曝光时间的焦平面快门。摄像单元211是由用于将光学图像转换为电信号的CCD或CMOS元件等构成的摄像元件(图像传感器)。摄像单元211可以包括向系统控制单元50输出散焦量信息的摄像面相位差传感器。A/D转换器212将从摄像单元211输出的模拟信号转换为数字信号。图像处理单元214对来自A/D转换器212的数据或来自存储器控制单元213的数据进行预定处理(例如,像素插值、调整大小处理(例如缩小)、颜色转换处理)。图像处理单元214还使用拍摄图像数据来进行预定算术处理,并且系统控制单元50基于所获取的算术运算结果来进行曝光控制和距离测量控制。通过该处理,进行通过镜头(TTL)型AF处理、自动曝光(AE)处理和预闪光发光(EF)处理等。此外,图像处理单元214使用拍摄图像数据来进行预定算术处理,并且系统控制单元50基于所获取的算术运算结果来进行TTL型自动白平衡(AWB)处理。
将从A/D转换器212接收到的图像数据经由图像处理单元214和存储器控制单元213写入存储器215,或者在不使用图像处理单元214的情况下将从A/D转换器212接收到的图像数据经由存储器控制单元213写入存储器215。存储器215存储由摄像单元211获取并通过A/D转换器212转换为数字数据的图像数据、以及显示单元108和EVF 217上所要显示的图像数据。存储器215具有足以存储预定数量的静止图像以及预定持续时间的运动图像和声音的存储容量。存储器215还起到用于显示图像的存储器(视频存储器)的作用。
D/A转换器216将存储在存储器215中的显示用图像数据转换为模拟信号,并且将该模拟信号供给到显示单元108和EVF 217。因此,在显示单元108和EVF 217上经由D/A转换器216显示写入存储器215的显示用图像数据。显示单元108和EVF 217根据从D/A转换器216接收到的模拟信号来进行显示。例如,显示单元108和EVF 217是诸如LCD和有机EL等的显示器。由A/D转换器212进行A/D转换并存储在存储器215中的数字信号由D/A转换器216转换为模拟信号,并且顺次传送到显示单元108和EVF 217。显示单元108和EVF 217通过显示顺次传送的模拟信号来进行实时取景显示。
系统控制单元50是由至少一个处理器和/或至少一个电路构成的控制单元。换句话说,系统控制单元50可以是处理器或电路或者处理器和电路的组合。系统控制单元50控制照相机100整体。系统控制单元50通过执行非易失性存储器219中所存储的程序来实现后面提及的流程图的各个处理步骤。系统控制单元50还通过控制存储器215、D/A转换器216、显示单元108和EVF 217等来进行显示控制。
照相机100还包括系统存储器218、非易失性存储器219、系统计时器220、通信单元221、姿势检测单元222和眼部接近检测单元118。
RAM例如用于系统存储器218。在系统存储器218中,展开用于操作系统控制单元50的常数和变量以及从非易失性存储器219读取的程序等。非易失性存储器219是电可擦除/可记录存储器,并且EEPROM例如用于非易失性存储器219。在非易失性存储器219中,存储了用于系统控制单元50的操作的常数和程序等。这里“程序”是指用于执行后面提及的流程图的程序。系统计时器220是用于测量用于各种控制的时间并用于测量内部时钟的时间的计时器单元。通信单元221与无线地或者经由线缆连接的外部设备进行视频信号和音频信号的发送/接收。通信单元221还可连接到无线局域网(LAN)或因特网。此外,通信单元221可经由(蓝牙)或Bluetooth低功耗与外部设备进行通信。通信单元221可以发送摄像单元211所拍摄的图像(包括实时图像)和记录介质227中所记录的图像,并且可以从外部设备接收图像和各种其他信息。姿势检测单元222检测照相机100相对于重力方向的姿势(倾斜)。基于姿势检测单元222所检测到的姿势,可以检测照相机100在水平方向(左右方向)或垂直方向(上下方向;前后方向)上的倾斜角度。此外,基于姿势检测单元222所检测到的姿势,可以判断摄像单元211所拍摄的图像是由水平保持的照相机100拍摄的图像,还是由垂直保持的照相机100所拍摄的图像。系统控制单元50可以根据姿势检测单元222所检测到的姿势将朝向信息附加至摄像单元211所拍摄的图像的图像文件,或者可以根据所检测到的姿势来转动图像。姿势检测单元222还可以检测照相机100的运动(例如,平摇、俯仰、提升、保持静止)。对于姿势检测单元222,例如可以使用加速度传感器或陀螺仪传感器等。
眼部接近检测单元118可以检测某个物体接近目镜116(目镜取景器117)。对于眼部接近检测单元118,例如可以使用红外接近传感器。在物体正在接近的情况下,从眼部接近检测单元118的发射部发射的红外光被该物体反射,并且被红外接近传感器的接收部接收。眼部接近检测单元118可以通过接收到的红外光量来判断从目镜116到物体为止的距离。由此,眼部接近检测单元118进行用于检测物体接近目镜116的距离的眼部接近检测。眼部接近检测单元118是用于检测物体(眼部)接近(接触)目镜116以及物体(眼部)远离(释放)目镜116的眼部接近检测传感器。在从非眼部接触状态(非眼部接近状态)起检测到物体在距目镜116预定距离内接近目镜116的情况下,眼部接近检测单元118检测到眼部的接近。在从眼部接触状态(眼部接近状态)起、检测到接近的物体远离了大于预定距离的情况下,眼部接近检测单元118检测到眼部的远离。例如可以通过设置滞后来区分用于检测眼部接近的阈值和用于检测眼部远离的阈值。这里假设眼部接近状态是从检测到眼部接近到检测到眼部远离为止。还假设非眼部接近状态是从检测到眼部远离到检测到眼部接近为止。系统控制单元50根据眼部接近检测单元118所检测到的状态来切换显示单元108和EVF 217的显示(显示状态)/非显示(非显示状态)。具体地,在状态至少是摄像待机状态并且显示目的地切换设置是自动切换的情况下,在非眼部接近状态期间,系统控制单元50开启作为显示目的地的显示单元108的显示,并且关闭EVF 217的显示。在眼部接近期间,系统控制单元50开启EVF 217的显示,并且关闭显示单元108的显示。眼部接近检测单元118不限于红外接近传感器,并且如果可以检测到眼部接近的状态,则可以是其他传感器。
照相机100还包括外取景器显示单元107、外取景器显示单元驱动电路223、电源控制单元224、电源单元225、记录介质I/F 226和操作单元228等。
外取景器显示单元107由外取景器显示单元驱动电路223驱动,并且显示照相机100的各种设置值,诸如快门速度和光圈等。电源控制单元224由电池检测电路、DC-DC转换器和用于选择要通电的块的开关电路等构成,并且检测是否安装了电池、电池的类型、以及电池的剩余量。电源控制单元224还基于该检测结果和从系统控制单元50接收到的指令来控制DC-DC转换器,并且在所需时间段内将所需电压供给到包括记录介质227的各个单元。电源单元225由一次电池(例如,碱性电池、锂电池)、二次电池(例如,NiCd电池、NiMH电池、Li电池)和AC适配器等构成。记录介质I/F 226是与诸如存储卡和硬盘等的记录介质227的接口。记录介质227例如是用于记录拍摄图像的存储卡,并且由半导体存储器或磁盘等构成。记录介质227可以从照相机100拆卸,或者可以嵌入照相机100中。
操作单元228是用于接收来自用户的操作(用户操作)的输入单元,并且用于向系统控制单元50输入各种指令。操作单元228包括快门按钮101、电源开关102、模式选择开关103、触摸面板109和其他操作单元229。其他操作单元229是主电子拨盘104、副电子拨盘105、运动图像按钮106、方向键110、设置按钮111、AE锁定按钮112、放大按钮113、再现按钮114、菜单按钮115和触摸条119等。
快门按钮101包括第一快门开关230和第二快门开关231。第一快门开关230在快门按钮101的中间操作中(即在半按压状态下(摄像准备指令))接通,并且输出第一快门开关信号SW1。根据第一快门开关信号SW1,系统控制单元50开始诸如AF处理、AE处理、AWB处理和EF处理等的摄像准备处理。当完成快门按钮101的操作(即在全按压状态下(摄像指令))时,第二快门开关231接通,并且输出第二快门开关信号SW2。根据第二快门开关信号SW2,系统控制单元50开始一系列摄像处理(从读取来自摄像单元211的信号的步骤到生成包括拍摄图像的图像文件并将该图像文件写入记录介质227的步骤为止)。
模式选择开关103将系统控制单元50的操作模式切换到静止图像拍摄模式、运动图像拍摄模式和再现模式等中的一个。静止图像拍摄模式包括:自动摄像模式、自动场景判断模式、手动模式、光圈优先模式(Av模式)、快门速度优先模式(Tv模式)和程序AE模式(P模式)。静止图像拍摄模式还包括针对各个摄像场景进行摄像设置的各种场景模式、以及自定义模式。如果使用模式选择开关103,则用户可以直接将操作模式切换为上述摄像模式之一。用户可以首先使用模式选择开关103来选择摄像模式列表画面,然后使用操作单元228来选择摄像模式列表画面上所显示的多个模式中的一个模式。以相同的方式,运动图像拍摄模式可以包括多个模式。
触摸面板109是用于检测对显示单元108的显示面(触摸面板109的操作面)的各种触摸操作的触摸传感器。可以对触摸面板109和显示单元108进行集成。例如,触摸面板109被布置在显示单元108的显示面的上层上,使得光的透射率不干扰显示单元108的显示。然后,将触摸面板109的输入坐标与显示单元108的显示面上的显示坐标相对应。由此,可以提供如同用户可以直接操作显示单元108上所显示的画面一样的图形用户界面(GUI)。触摸面板109可以是诸如电阻膜类型、静电电容类型、表面声波类型、红外类型、电磁感应类型、图像识别类型和光电传感器类型等的各种类型中的任何一个类型。当触摸面板109实际被接触时,一些类型检测到触摸,而当手指或笔接近触摸面板109时,其他类型检测到触摸,但是可以使用任一类型。
系统控制单元50可以检测对触摸面板109的以下操作或其状态。
·未对触摸面板109进行触摸的手指或笔最初对触摸面板109进行触摸,即触摸的开始(在下文中被称为触及(Touch-Down));
·手指或笔正在对触摸面板109进行触摸(在下文中被称为触摸持续(Touch-On));
·在触摸状态下手指或笔正在触摸面板109上移动(在下文中被称为触摸移动(Touch-Move));
·对触摸面板109进行触摸的手指或笔与触摸面板109分开(释放),即触摸的结束(在下文中被称为触摸停止(Touch-Up))
·触摸面板109未被触摸(在下文中被称为未触摸(Touch-Off))
当检测到触及时,同时检测到触摸持续。除非触及后检测到触摸停止,否则继续检测到触摸持续。当还检测到触摸移动时,同时检测到触摸持续。即使检测到触摸持续,除非触摸位置正在移动,否则也不会检测到触摸移动。当检测到手指和笔的触摸停止时,检测到未触摸。
经由内部总线向系统控制单元50通知这些操作/状态和手指或笔正在对触摸面板109进行触摸的位置的坐标。基于所通知的信息,系统控制单元50判断对触摸面板109进行了哪个操作(触摸操作)。对于触摸移动,也可以基于位置坐标的变化,针对触摸面板109上的垂直分量和水平分量来分别判断在触摸面板109上移动的手指或笔的移动方向。在检测到触摸移动至少预定距离的情况下,系统控制单元50判断为进行了滑动操作。快速移动对触摸面板109进行触摸的指尖并从触摸面板109释放指尖的操作被称为“轻拂”。换句话说,轻拂是在触摸面板109上快速移动(拂动)指尖的操作。在检测到以预定速度进行触摸移动至少预定距离并且此后检测到触摸停止的情况下,判断为进行了轻拂(判断为在滑动操作之后立即发生轻拂)。同时触摸多个位置(例如,两个点)(多点触摸)并且使这些触摸位置移动得彼此接近的触摸操作被称为“捏合(Pinch-In)”,并且使这些位置移动得彼此远离的触摸操作被称为“捏分(Pinch-Out)”。捏合和捏分被统称为“捏操作”(或被简称为“捏”)。
<镜头单元的配置>图3是描绘镜头单元300的配置的示意图。图3指示镜头单元300安装在照相机100中的状态。通过安装镜头单元300,照相机100可以拍摄包括具有预定视差的两个图像区域的图像(静止图像或运动图像)。在图3所描绘的照相机100的配置中,用与图2相同的附图标记来表示与图2所描述的构成要素相同的构成要素,并且除非必要否则可以省略对该构成要素的描述。
镜头单元300是可从照相机100拆卸的可更换镜头单元的类型。镜头单元300是可以拍摄具有视差的右图像和左图像的双镜头单元。镜头单元300包括两个光学系统(摄像镜头),并且两个光学系统各自可以拍摄大约180°视角的范围中的图像。具体地,镜头单元300的两个光学系统各自可以分别拍摄横向方向(水平角度、方位角、横摆角)上180°和纵向方向(垂直角度、仰角、俯仰角)上180°的视场范围中的被摄体的图像。换句话说,两个光学系统各自可以分别拍摄前半球范围中的图像。
镜头单元300由以下构成:右眼光学系统301R,其包括多个透镜和反射镜等;左眼光学系统301L,其包括多个透镜和反射镜等;以及镜头系统控制电路303。右眼光学系统301R包括布置在被摄体侧的透镜302R,并且左眼光学系统301L包括布置在被摄体侧的透镜302L。透镜302R和透镜302L面向相同的方向,并且透镜302R和透镜302L的光轴大致平行。右眼光学系统301R和左眼光学系统301L各自具有鱼眼镜头,并且分别在摄像单元211上形成圆形光学图像。由右眼光学系统301R生成的光学图像(右图像)和由左眼光学系统301L生成的光学图像(左图像)形成在摄像单元211的摄像面上,并且摄像单元211获取包括这些光学图像的图像区域的一个图像。
镜头单元300是用于获取VR 180的图像的双镜头单元(VR 180镜头单元),其中VR180的图像是可以进行两个镜头立体观看的虚拟现实(VR)图像的格式之一。镜头单元300的右眼光学系统301R和左眼光学系统301L各自具有可以拍摄大约180°范围的鱼眼镜头。能够由右眼光学系统301R和左眼光学系统301L的各个镜头拍摄的范围可以比180°略微更窄,诸如160°等。镜头单元300可以在安装有镜头单元300的照相机的一个或两个摄像元件上形成由右眼光学系统301R生成的右图像和由左眼光学系统301L生成的左图像。在照相机100中,在一个摄像元件(图像传感器)上形成右图像和左图像,并且生成并排布置有与右图像相对应的右图像区域和与左图像相对应的左图像区域的一个图像(双镜头图像)。双镜头图像包括右图像区域、左图像区域和不与光学图像相对应的区域(诸如黑色区域等的非图像区域)。
将镜头单元300经由照相机100的镜头安装单元304和照相机安装单元305安装在照相机100中。由此,经由照相机100的通信端子124和镜头单元300的通信端子306,电连接照相机100的系统控制单元50以及镜头单元300的镜头系统控制电路303。
在图3中,由右眼光学系统301R生成的右图像和由左眼光学系统301L生成的左图像并排形成在照相机100的摄像单元211上。换句话说,通过右眼光学系统301R和左眼光学系统301L将两个光学图像分别形成在一个摄像元件(图像传感器)的两个区域上。摄像单元211将所形成的被摄体图像(光信号)转换为模拟电信号。通过使用像这样的镜头单元300(右眼光学系统301R和左眼光学系统301L),可以获取包括具有视差的两个图像区域的一个图像(双镜头图像)。所获取的图像被分割为左眼用图像和右眼用图像,并且这些图像被VR显示,从而用户可以观看大约180°范围中的立体VR图像。换句话说,用户可以观看利用VR180的立体图像。
这里,VR图像是稍后提及的可以被VR显示的图像。VR图像包括由全方位照相机拍摄的全方位图像、以及具有比可以在显示单元上一次全部显示的显示范围更宽的图像范围(有效图像范围)的全景图像。VR图像不限于静止图像,而是还包括运动图像和实时图像(由照相机近实时地拍摄的图像)。VR图像具有视场范围最大为360°水平方向和360°垂直方向的图像范围(有效图像范围)。即使视场范围在水平方向上小于360°并且在垂直方向上小于360°,VR图像还包括也具有比可以由标准照相机拍摄的视角宽的视角的图像或者具有比可以在显示单元上一次全部显示的显示范围更宽的图像范围的图像。照相机100使用上述镜头单元300所拍摄的图像是VR图像的类型。可以通过将显示装置(可以显示VR图像的显示装置)的显示模式设置为“VR视图”来对VR图像进行VR显示。如果具有360°视角的VR图像的范围的一部分被显示,并且用户水平地(在水平转动方向上)改变显示装置的姿势,则可以移动显示范围,并且可以观看在水平方向上无缝的全方位图像。
VR显示(VR视图)是用于根据VR图像中的显示装置的姿势来显示视场范围的图像、并且可以改变显示范围的显示方法(显示模式)。VR显示包括“单镜头VR显示(单镜头VR视图)”,其中该单镜头VR显示进行变换(失真校正)以在虚拟球体上映射VR图像,然后显示一个图像。VR显示还包括“双镜头VR显示(双镜头VR视图)”,其中该双镜头VR显示进行变换以将左眼用VR图像和右眼用VR图像分别映射在虚拟球体上,然后在左区域和右区域中并排显示这些图像。通过使用在左眼用VR图像和右眼用VR图像之间具有视差的左眼用VR图像和右眼用VR图像进行“双镜头VR显示”,可以立体地观看这些VR图像。在VR显示的任一情况下,当用户佩戴诸如头戴式显示器(HMD)等的显示装置时,显示根据用户面部的方向的视场范围的图像。例如,在某个时间点,假设显示以水平方向上0°(诸如北等的指定方位)并且以垂直方向上90°(与天顶成90°,即水平)为中心的视场范围中的VR图像。如果在该状态下显示装置的姿势前后反转(例如,将显示面从面向南改变为面向北),则该VR图像的显示范围被改变为以水平方向(诸如南等的相反方位)上180°且垂直方向上90°为中心的视场范围中的图像。换句话说,当佩戴HMD的用户将他们的面部从北转向南(转回)时,显示在HMD上的图像也从北处的图像改变为南处的图像。使用镜头单元300拍摄的VR图像是拍摄前方大约180°范围的VR 180(180°图像)的图像,并且不存在后方大约180°范围中的图像。当像这样的VR180的图像正被VR显示时,如果显示装置的姿势被改变到图像不存在的一侧,则显示空白区域。
通过像这样对VR图像进行VR显示,用户可以体验如同视觉上正在VR图像(VR空间)中一样的感觉(沉浸感)。用于显示VR图像的方法不限于用于改变显示装置的姿势的方法。例如,可以根据用户操作经由触摸面板和方向按钮等来移动(滚动)显示范围。此外,在VR显示中(在显示模式“VR视图”中),例如,除了通过改变姿势来改变显示范围之外,还可以通过触摸面板上的触摸移动、使用鼠标等的拖动操作、以及按压方向按钮来移动显示范围。安装在VR护目镜(头戴式适配器)上的智能电话是HMD的类型。
图4是例示双镜头显示的实时取景图像400的图。实时取景图像400包括与由右眼光学系统301R拍摄的实时取景图像相对应的实时取景图像区域401R和与由左眼光学系统301L拍摄的实时取景图像相对应的实时取景图像区域401L。实时取景图像区域401R和实时取景图像区域401L各自是圆形的,并且所拍摄的被摄体在朝向圆形的外边缘的方向上更大程度地失真。
由于双镜头显示指示两个光学系统正在拍摄两个广视角图像,因此用户可以容易地识别出用于VR 180的镜头单元已经安装在照相机100中并且在这种状态下正在拍摄VR图像。然而,在双镜头显示的情况下,两个图像区域显示在一个画面上,因此,与显示一个图像区域的情况相比,被摄体被显示得更小。这意味着双镜头显示不适于使用用户通过触摸实时取景画面(例如,触摸AF、触摸AE)来选择被摄体的功能。
在实施例1中,当照相机100在双镜头显示中接收到用户所进行的预定操作时,显示通过放大图像区域之一的一部分所生成的放大图像区域来代替其他图像区域。因此,照相机100可以显示适合于使用涉及被摄体选择的功能的图像。
预定操作例如是对被分配了用于显示放大图像区域的功能的操作构件的操作。预定操作还可以是对实时取景图像区域401R或者对实时取景图像区域401L的捏分操作。
接下来将参考图5描述照相机100放大并显示实时取景图像的处理。图5是例示根据实施例1的照相机100的放大显示处理的流程图。通过系统控制单元50将记录在非易失性存储器219中的程序展开在系统存储器218中并执行该程序来实现图5中的放大显示处理。当照相机100被设置为静止图像拍摄模式或运动图像拍摄模式时,开始图5中的放大显示处理,并且以预定时间间隔来重复执行图5中的放大显示处理,直到选择了除了静止图像拍摄模式和运动图像拍摄模式之外的模式为止。
在步骤S501中,系统控制单元50获取与安装在照相机100中的镜头单元的类型相关的信息,并且判断当前是否安装了双镜头单元300。在以下描述中,假定双镜头单元300是用于VR 180的镜头单元。
系统控制单元50经由通信端子124、206和306与安装在照相机100中的镜头单元进行通信,并且由此从镜头单元获取与镜头单元的类型相关的信息。如果在照相机100中当前安装了用于VR 180的镜头单元,则处理前进到步骤S502。如果在照相机100中未安装镜头单元或者如果在照相机100中当前安装了单镜头单元,则处理前进到S507。
在步骤S502中,系统控制单元50使基准眼部放大模式有效。基准眼部放大模式是如下模式:显示通过放大双镜头显示图像区域中的与基准眼部相对应的图像区域(在下文中也被称为“基准眼部图像区域”)的一部分所生成的放大图像区域来代替其他图像区域。在基准眼部图像区域中显示的基准眼部的实时取景图像是用于输入诸如AF处理和AE处理等的功能的图像,并且预先设置是右眼还是左眼被用作基准眼部。用户可以改变用作基准眼部的右眼或左眼的设置。基于观看拍摄图像的观看者的基准眼部来设置基准眼部。
具体地,为了使基准眼部放大模式有效,取消用于向放大按钮113分配用于切换基准眼部放大模式的开启/关闭的操作的菜单项的灰化显示。当基准眼部放大模式有效时,用户可以设置基准眼部放大模式。
在将用于切换放大模式的开启/关闭的操作分配给除了放大按钮113之外的按钮(功能分配按钮)的情况下,系统控制单元50进行控制,使得在基准眼部放大模式有效的状态下不开启放大模式。换句话说,系统控制单元50进行控制使得不同时开启基准眼部放大模式和放大模式。
在步骤S503中,系统控制单元50经由用于VR 180的镜头单元获取由摄像单元211拍摄的两个实时取景图像区域,并且在显示单元108上显示双镜头图像。双镜头图像是并排布置实时取景图像区域401R和实时取景图像区域401L的图像。
在步骤S504中,系统控制单元50(接收单元)判断用户是否进行了用于指示实时取景图像区域的放大显示的放大操作。放大操作对应于预定操作。具体地,放大操作是用于按压分配有用于切换基准眼部放大模式的开启/关闭的操作的放大按钮113的操作,或者是用于按压分配有用于切换基准眼部放大模式的开启/关闭的操作的其他功能分配按钮的操作。
放大操作可以是对触摸面板109进行的捏分操作。捏分操作可以是针对基准眼部图像区域的操作,或者是针对与不是基准眼部的眼部相对应的图像区域(在下文中也被称为“非基准眼部图像区域”)的操作。换句话说,在还检测到针对非基准眼部图像区域的捏分操作的情况下,系统控制单元50使处理前进到步骤S505,并且将通过放大基准眼部图像区域的一部分所生成的放大的区域与基准眼部图像区域一起显示。
如果检测到放大操作,则系统控制单元50判断为用户进行了用于放大实时取景图像区域的操作,并且使处理前进到步骤S505。如果未检测到放大操作,则系统控制单元50判断为用户未进行放大操作,并且结束图5中的放大显示处理。
在步骤S505中,系统控制单元50通过放大在步骤S503中获取的两个实时取景图像区域中的基准眼部图像区域的一部分来生成放大图像区域。在基准眼部图像区域上显示的实时取景图像是要输入诸如AF处理和AE处理等的各个功能的图像。在基准眼部图像区域中,通过用放大框包围来指示要成为放大显示的目标的区域的范围。
在步骤S506中,系统控制单元50将在步骤S503中获取的两个实时取景图像中的与基准眼部相对应的基准眼部图像区域以及在步骤S505中生成的放大图像区域并排显示。换句话说,系统控制单元50进行控制,使得显示放大图像区域来代替与基准眼部图像区域并排显示的非基准眼部图像区域。
当显示放大图像区域时,用户可以通过放大图像区域中的触摸操作来容易地选择被摄体。当显示放大图像区域时,用户可以通过基准眼部图像区域中的触摸操作来选择被摄体。
将参考图6A至图6D描述基准眼部图像区域和放大图像区域的显示示例。图6A是将根据显示单元108的形状从基准眼部图像区域601R剪切出的矩形放大图像区域601L与基准眼部图像区域601R并排显示的示例。实时取景图像600包括在步骤S503中获取的基准眼部图像区域601R和在步骤S505中生成的放大图像区域601L。放大图像区域601L是通过放大由显示在基准眼部图像区域601R中的放大框602包围的范围而生成的图像区域。
在基准眼部图像区域601R中,放大框602是用于指示在放大图像区域601L中显示的区域的框。在并排显示基准眼部图像区域601R和放大图像区域601L的情况下,放大框602被叠加显示在基准眼部图像区域601R上。
可以分别针对基准眼部图像区域601R和放大图像区域601L显示用于指示用于拍摄图像的光学系统(左眼光学系统或右眼光学系统)的项目(向导603R和向导603L)。如603R的情况那样,可以在与基准眼部图像区域601R相邻的位置处显示向导603R和向导603L,或者如向导603L的情况那样,可以在放大图像区域601L上叠加显示向导603R和向导603L。在图6A的示例中,通过右眼光学系统来拍摄基准眼部图像区域601R,因此向导603R指示“R”。放大图像区域601L是通过放大由右眼光学系统拍摄的基准眼部图像区域601R而生成的区域,因此向导603L指示“R”。
在显示基准眼部图像区域601R和放大图像区域601L的情况下,可以在任一图像区域中进行用于选择被摄体的诸如触摸AF和触摸AE等的触摸操作。
如果在并排显示基准眼部图像区域601R和放大图像区域601L的状态下对触摸面板109进行捏分或捏合操作,则系统控制单元50可以改变放大图像区域601L的放大率。当放大图像区域601L的放大率改变时,系统控制单元50改变放大框602的大小和位置以指示放大图像区域601L的摄像范围,并且显示基准眼部图像区域601R上所叠加的放大框602。捏分操作或捏合操作是对基准眼部图像区域601R的操作还是对放大图像区域601L的操作并不重要。
放大框602的形状和大小不限于图6A中的示例的形状和大小。放大框602的形状例如可以是用于包围与放大图像区域601L相对应的区域的椭圆。放大框602的大小可以根据放大图像区域601L的放大率而改变。
图6B是将通过放大由正方形放大框605包围的范围所生成的放大图像区域604L与基准眼部图像区域601R一起显示的示例。以具有与放大框605相同的形状的方式来生成放大图像区域604L。例如,如果显示放大图像区域604L来代替非基准眼部图像区域,则以黑色显示除基准眼部图像区域601R和放大图像区域604L之外的区域。
图6C是除了与图6A相同的显示之外、还在在屏显示(OSD)上显示各种信息的示例。OSD显示606包括与被摄体选择操作不相关的诸如F值、增益和快门速度等的信息,并且被叠加显示在基准眼部图像区域601R上。另一方面,OSD显示607包括与被摄体选择操作相关的诸如AF框、AE框和追踪框等的信息,并且被叠加显示在放大图像区域601L上。通过在放大图像区域601L上仅叠加与被摄体选择操作相关的OSD显示607,用户可以在从视场消除不必要的信息的状态下专注于被摄体选择操作。
图6D是当实时取景图像的显示区域纵长时在垂直方向上对齐显示放大图像区域601L和基准眼部图像区域601R的示例。在由照相机100拍摄的实时取景图像显示在诸如智能电话等的远程终端上的情况下,显示区域可以变得纵长。如果显示区域是纵长的,并且在水平方向上并排布置基准眼部图像区域601R和放大图像区域601L,则与在垂直方向上对齐布置这些区域的情况相比,各个区域被显示得更小,这使得用户难以选择被摄体。
因此,在具有纵长显示区域的照相机100或智能电话等中,如图6D中的实时取景图像608所指示的,优选在垂直方向上对齐显示基准眼部图像区域601R和放大图像区域601L。以这种方式,系统控制单元50基于显示单元108的长宽比来切换将基准眼部图像区域601R和放大图像区域601L在垂直方向上对齐显示还是在水平方向上并排显示。
在图5中的步骤S507中,系统控制单元50使基准眼部放大模式无效。具体地,为了使基准眼部放大模式无效,对用于将用于切换基准眼部放大模式的开启/关闭的操作分配给放大按钮113的菜单项进行灰化显示。当基准眼部放大模式无效时,控制为不设置基准眼部放大模式。
通过按压分配有用于显示放大图像区域的功能的诸如放大按钮113等的操作构件,来清除放大图像区域601L的显示。还通过清除向放大按钮113等的用于显示放大图像区域的功能的分配或者通过使基准眼部放大模式无效,来清除放大图像区域601L的显示。当放大图像区域601L的显示被清除时,系统控制单元50显示包括基准眼部图像区域和非基准眼部图像区域的双镜头图像。
在步骤S508中,系统控制单元50经由单镜头单元获取由摄像单元211拍摄的实时取景图像,并且在显示单元108上实时取景显示该实时取景图像。
在步骤S509中,系统控制单元50判断用户是否进行了用于指示实时取景图像的放大显示的放大操作。具体地,当安装了单镜头单元时的放大操作是按压放大按钮113的操作。放大操作还可以是对触摸面板109的捏分操作。如果检测到放大操作,则系统控制单元50判断为用户进行了用于放大实时取景图像区域的放大操作,并且使处理前进到步骤S510。如果未检测到放大操作,则系统控制单元50判断为用户未进行放大操作,并且结束图5中的放大显示处理。
在步骤S510中,系统控制单元50放大在步骤S508中获取的实时取景图像的一部分,并显示放大后的图像。
在实施例1中,当在双镜头显示期间接收到用户所进行的预定操作时,照相机100将基准眼部图像区域和通过放大基准眼部图像区域的一部分而生成的放大图像区域并排显示。然后,即使显示区域有限,用户也可以更容易地选择放大图像区域中的被摄体。此外,用于指示与放大图像区域相对应的区域的放大框被叠加显示在基准眼部图像区域上,从而用户能够容易地判断整个摄像范围中的放大图像区域所位于的位置。如上所述,照相机100可以进行适合于使用涉及被摄体选择的功能的图像显示。
实施例2
在实施例1中,当从用户接收到用于指示放大显示的放大操作时,照相机100并排显示基准眼部图像区域和放大图像区域。而在实施例2中,当诸如触摸AF或触摸AE等的涉及被摄体选择的功能有效时,照相机100并排显示基准眼部图像区域和放大图像区域。在实施例2中,预定操作是用于使涉及被摄体选择的功能有效的操作。参考图1A和图1B至图4所描述的照相机100的配置以及实时取景图像的显示示例等与实施例1相同,因此将省略其描述。
图7是例示根据实施例2的照相机100的放大显示处理的流程图。当照相机100被设置为静止图像拍摄模式或运动图像拍摄模式时,开始图7中的放大显示处理,并且以预定时间间隔重复执行图7中的放大显示处理,直到选择了除静止图像拍摄模式和运动图像拍摄模式之外的模式为止。处理步骤S701至S703与实施例1的处理步骤S501至S503相同。
在步骤S704中,系统控制单元50判断诸如触摸AF或触摸AE等的涉及被摄体选择的功能是否被设置为开启。如果涉及被摄体选择的功能被设置为开启,则处理前进到步骤S705,或者如果涉及被摄体选择的功能未被设置为开启,则图7中的处理结束。
处理步骤S705至S710与实施例1中的处理步骤S505至S510相同。当将涉及被摄体选择的功能设置为关闭时,清除放大图像区域的显示,并且系统控制单元50显示包括基准眼部图像区域和非基准眼部图像区域的双镜头图像。
在实施例2中,当诸如触摸AF和触摸AE等的涉及被摄体选择的功能被设置为开启时,照相机100并排显示基准眼部图像区域和放大图像区域。因此,一旦用户将涉及被摄体选择的功能设置为开启,就可以在不执行任何附加操作的情况下显示放大图像区域。
虽然已经参考本发明的优选实施例描述了本发明,但本发明不限于这些具体实施例,并且在不脱离本发明的精神的范围内的不同模式也被包括在本发明中。可以部分地组合上述实施例。
本发明还包括如下情况:将用于实现以上实施例的功能的软件程序直接从记录介质或经由线缆/无线通信供给到具有可以执行程序的计算机的系统或设备,并且由此执行程序。因此,为了使用计算机来实现本发明的功能处理,要供给到并安装在计算机上的程序代码也实现本发明。换句话说,用于实现本发明的功能处理的计算机程序也被包括在本发明中。在这种情况下,诸如对象代码、由解释程序执行的程序、以及要供给到OS的脚本数据等的程序的格式并不重要,只要程序代码具有上述程序的功能即可。
用于供给程序的记录介质例如可以是硬盘、磁记录介质(例如,磁带)、光/磁光记录介质或非易失性半导体存储器等。用于供给程序的方法例如可以是在计算机网络的服务器上存储用于实现本发明的计算机程序、并且所连接的客户端计算机下载计算机程序。
根据本公开,可以提供能够在进行双镜头显示时显示适合于使用涉及被摄体选择的功能的图像的电子设备。
其他实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
虽然已经参考示例性实施例描述了本发明,但是应当理解,本发明不限于所公开的示例性实施例。所附权利要求书的范围应符合最广泛的解释,以涵盖所有这样的修改以及等同的结构和功能。
Claims (11)
1.一种电子设备,包括:
获取单元,其被配置为获取并排布置有通过使用第一光学系统所拍摄的第一图像区域和通过使用第二光学系统所拍摄的第二图像区域的图像;
显示控制单元,其被配置为在显示器上显示所述第一图像区域和所述第二图像区域;以及
接收单元,其被配置为从用户接收预定操作,
其中,在从用户接收到所述预定操作的情况下,所述显示控制单元进行控制,使得显示通过放大所述第一图像区域的一部分所生成的放大图像区域来代替所述第二图像区域。
2.根据权利要求1所述的电子设备,其中,
在并排显示所述第一图像区域和所述放大图像区域的情况下,所述显示控制单元将用于指示所述放大图像区域中所显示的区域的框叠加在所述第一图像区域上。
3.根据权利要求1或2所述的电子设备,其中,
所述第一图像区域是通过使用与被设置为基准眼部的右眼或左眼相对应的光学系统所拍摄的图像区域。
4.根据权利要求1或2所述的电子设备,其中,
在显示所述放大图像区域来代替所述第二图像区域的情况下,所述显示控制单元进行控制,使得除所述第一图像区域和所述放大图像区域之外的区域变为黑色。
5.根据权利要求1或2所述的电子设备,其中,
在所述放大图像区域中,所述显示控制单元进行显示,使得叠加与被摄体选择操作相关的信息并且不叠加与所述被摄体选择操作不相关的信息。
6.根据权利要求1或2所述的电子设备,其中,
所述显示控制单元基于所述显示器的长宽比来选择所述第一图像区域和所述第二图像区域是在垂直方向上对齐显示还是在水平方向上并排显示。
7.根据权利要求1或2所述的电子设备,其中,
所述预定操作是对分配有用于显示所述放大图像区域的功能的操作构件的操作、对所述第一图像区域或所述第二图像区域的捏分操作、或者使涉及被摄体选择操作的功能有效的操作。
8.根据权利要求1或2所述的电子设备,其中,
在显示所述放大图像区域来代替所述第二图像区域的状态下接收到对所述第一图像区域或所述放大图像区域的捏合操作或捏分操作的情况下,所述显示控制单元基于所述捏合操作或所述捏分操作来改变所述放大图像区域的放大率。
9.根据权利要求1或2所述的电子设备,其中,
所述显示控制单元显示用于指示所述第一图像区域、所述第二图像区域和所述放大图像区域中的各个区域分别由所述第一光学系统拍摄还是由所述第二光学系统拍摄的项目。
10.一种用于电子设备的控制方法,包括:
获取步骤,用于获取并排布置有通过使用第一光学系统所拍摄的第一图像区域和通过使用第二光学系统所拍摄的第二图像区域的图像;
显示控制步骤,用于在显示器上显示所述第一图像区域和所述第二图像区域;
接收步骤,用于从用户接收预定操作;以及
控制步骤,用于在从用户接收到所述预定操作的情况下,进行控制使得显示通过放大所述第一图像区域的一部分所生成的放大图像区域来代替所述第二图像区域。
11.一种计算机可读存储介质,其存储有程序,所述程序用于使计算机执行根据权利要求10所述的用于电子设备的控制方法的各个步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022133643A JP2024030637A (ja) | 2022-08-24 | 2022-08-24 | 電子機器および電子機器の制御方法 |
JP2022-133643 | 2022-08-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117641080A true CN117641080A (zh) | 2024-03-01 |
Family
ID=89995381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311067114.3A Pending CN117641080A (zh) | 2022-08-24 | 2023-08-23 | 电子设备及其控制方法和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240073511A1 (zh) |
JP (1) | JP2024030637A (zh) |
CN (1) | CN117641080A (zh) |
-
2022
- 2022-08-24 JP JP2022133643A patent/JP2024030637A/ja active Pending
-
2023
- 2023-07-27 US US18/360,205 patent/US20240073511A1/en active Pending
- 2023-08-23 CN CN202311067114.3A patent/CN117641080A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2024030637A (ja) | 2024-03-07 |
US20240073511A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110691187B (zh) | 电子装置、电子装置的控制方法和计算机可读介质 | |
US11949977B2 (en) | Electronic equipment, method for controlling the same, and recording medium | |
US11849100B2 (en) | Information processing apparatus, control method, and non-transitory computer readable medium | |
CN117641080A (zh) | 电子设备及其控制方法和存储介质 | |
EP4307660A1 (en) | Information processing apparatus, information processing method, and program | |
US20230412931A1 (en) | Display control device, display control method, and non-transitory computer readable medium | |
US20230209177A1 (en) | Imaging apparatus | |
US11843894B2 (en) | Electronic apparatus, method of controlling the same, and storage medium | |
US20220398688A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20230281768A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
US20220385830A1 (en) | Electronic apparatus, control method, and non-transitory computer readable medium | |
US20220385883A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20230300453A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
US20220385829A1 (en) | Information processing apparatus, control method, and storage medium | |
US20220385877A1 (en) | Electronic equipment, control method therefor, and storage medium | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム | |
JP2023102947A (ja) | 情報処理装置、その制御方法およびプログラム | |
JP2024030580A (ja) | 電子機器および電子機器の制御方法 | |
JP2023181634A (ja) | 電子機器、電子機器の制御方法、プログラム | |
JP2022183844A (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
JP2021144121A (ja) | 表示制御装置およびその制御方法、プログラム、並びに記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |