CN112352418B - 摄像装置、摄像方法 - Google Patents
摄像装置、摄像方法 Download PDFInfo
- Publication number
- CN112352418B CN112352418B CN201980042597.7A CN201980042597A CN112352418B CN 112352418 B CN112352418 B CN 112352418B CN 201980042597 A CN201980042597 A CN 201980042597A CN 112352418 B CN112352418 B CN 112352418B
- Authority
- CN
- China
- Prior art keywords
- sensitivity
- index
- touch panel
- sliding operation
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000035945 sensitivity Effects 0.000 claims abstract description 238
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 238000012545 processing Methods 0.000 claims abstract description 60
- 238000001514 detection method Methods 0.000 claims description 10
- 238000003825 pressing Methods 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 8
- 208000008918 voyeurism Diseases 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 3
- 238000004378 air conditioning Methods 0.000 claims 7
- 238000012790 confirmation Methods 0.000 claims 5
- 230000000007 visual effect Effects 0.000 claims 5
- 238000010586 diagram Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 16
- 230000008859 change Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 244000144985 peep Species 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
- G03B17/20—Signals indicating condition of a camera member or suitability of light visible in viewfinder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Abstract
本发明提供一种能够使用设置于背面监视器的触摸屏准确且简便地将显示于取景器用监视器的指标的移动灵敏度控制为用户所希望的灵敏度的摄像装置、摄像方法及程序。摄像装置(10)具有:取景器,具备取景器用监视器(13);触摸屏(31),接收移动指标的滑动操作;及图像处理部(24)。图像处理部(24)具备:灵敏度设定部,通过检测滑动操作中对触摸屏的接触动作来设定通过滑动操作使指标粗略移动的第1灵敏度或使指标细微移动的第2灵敏度;及移动控制部,根据触摸屏上的滑动操作及通过灵敏度设定部设定的灵敏度移动指标。
Description
技术领域
本发明涉及一种摄像装置、摄像方法及程序,尤其涉及一种具备触摸屏的摄像装置的技术。
背景技术
近年来,有时在数码相机(摄像装置)机身的背面监视器设置触摸屏。用户能够通过利用手指触摸背面监视器来进行各种数码相机的操作。
例如,专利文献1中记载有如下技术,即,用户窥视取景器时,根据通过背面监视器的触摸屏检测出的用户手指的移动,使取景器监视器中的AF(自动聚焦,Auto Focus)目标框(聚焦区域)的显示位置移动。并且,专利文献1中,记载有根据用户手指移动的移动速度,变更AF目标框的移动中显示的移动速度的技术。具体而言,当用户手指的移动速度高于规定速度时,根据手指的移动方向使移动中显示以高速移动(加大每单位时间的移动中显示的位置的移动宽度),当用户手指的移动速度低于规定速度时,根据手指的移动方向使移动中显示以低速移动(减小每单位时间的移动中显示的位置的移动宽度)。
并且,例如专利文献2中记载有如下技术,即,用于在用户窥视取景器时,简便地进行AF目标框的长距离的移动。具体而言,专利文献2中记载的技术中,若进行双击操作(不包含触摸位置的移动的操作),则不在显示部显示AF目标框的移动过程,而是在进行了双击操作的位置显示AF目标框。
以往技术文献
专利文献
专利文献1:日本特开2012-203143号公报
专利文献2:日本特开2018-013745号公报
发明内容
发明要解决的技术课题
在此,与对背面监视器的触摸屏的触摸联动而使显示于取景器的指标移动时,希望以较快的速度移动指标或以较慢的速度移动指标,由此控制指标的移动速度。
例如,被摄体在取景器内沿上下左右快速移动时或将数码相机的朝向从水平位置切换为垂直位置(或从垂直位置切换为水平位置)时,希望与被摄体的移动及数码相机的位置的切换相应地,使聚焦区域快速且准确地移动。
并且,例如,为了在各种色温的混合光源的环境下快节奏地进行摄影,期望根据被摄体的位置使白平衡偏移的位置快速且准确地移动。
专利文献1中记载有根据用户手指移动的移动速度,改变AF目标框的移动中显示的移动速度的技术。但是,该专利文献1中记载的技术中,为了控制AF目标的移动速度的高低,用户必须准确地控制手指的移动速度,很难准确且简便地进行AF目标的移动速度的控制。
并且,专利文献2中未提及变更AF目标框的移动速度。
本发明是鉴于这种情况而完成的,其目的在于提供一种能够使用设置于背面监视器的触摸屏准确且简便地将显示于取景器用监视器的指标的移动灵敏度控制为用户所希望的灵敏度的摄像装置、摄像方法及程序。
用于解决技术课题的手段
作为用于实现上述目的的本发明的一方式的摄像装置具备:取景器,其显示实时取景图像及重叠显示于实时取景图像的指标,且显示根据所重叠显示的位置指示摄像条件或图像处理条件的指标;触摸屏,接收移动指标的滑动操作;灵敏度设定部,通过检测滑动操作中对触摸屏的接触动作来设定通过滑动操作使指标粗略移动的第1灵敏度或使指标细微移动的第2灵敏度;及移动控制部,根据触摸屏上的滑动操作及通过灵敏度设定部设定的灵敏度移动指标。
根据本方式,根据对触摸屏的接触动作设定第1灵敏度或第2灵敏度,并根据该设定的灵敏度,使指标沿着滑动操作移动。由此,用户通过改变对触摸屏的接触动作,能够准确且简便地以第1灵敏度或第2灵敏度移动指标。
优选触摸屏具有第1区域及第2区域,当在第1区域进行了接触动作时,灵敏度设定部设定为第1灵敏度,当在第2区域进行了接触动作时,灵敏度设定部设定为第2灵敏度。
根据本方式,用户在希望以第1灵敏度移动指标时,在第1区域进行接触动作,希望以第2灵敏度移动指标时,在第2区域进行接触动作。由此,用户通过选择进行接触动作的区域,能够准确且简便地以第1灵敏度或第2灵敏度移动指标。
优选摄像装置还具备:姿势传感器,检测摄像装置的姿势;及区域设定部,根据姿势传感器的检测结果设定第1区域及第2区域。
根据本方式,根据摄像装置的姿势设定第1区域及第2区域,因此用户能够容易根据摄像装置的姿势选择进行接触动作的区域。
优选触摸屏还具有作为不检测滑动操作的死区的第3区域。
根据本方式,将用户无意中接触触摸屏的区域设为作为不检测滑动操作的死区的第3区域,由此能够抑制用户无意的误操作,进行准确地指标移动控制。
优选当通过第1按压进行了接触动作时,灵敏度设定部设定为第1灵敏度,当通过第2按压进行了接触动作时,灵敏度设定部设定为第2灵敏度。
根据本方式,用户在希望以第1灵敏度移动指标时,通过第1按压进行接触动作,希望以第2灵敏度移动指标时,通过第2按压进行接触动作。由此,用户通过选择接触动作的按压,能够准确且简便地以第1灵敏度或第2灵敏度移动指标。
优选当以第1面积进行了接触动作时,灵敏度设定部设定为第1灵敏度,当以第2面积进行了接触动作时,灵敏度设定部设定为第2灵敏度。
根据本方式,用户在希望以第1灵敏度移动指标时,以第1接触面积进行接触动作,希望以第2灵敏度移动指标时,以第2接触面积进行接触动作。由此,用户通过选择接触动作的接触面积,能够准确且简便地以第1灵敏度或第2灵敏度移动指标。
优选当以第1手指根数进行了接触动作时,灵敏度设定部设定为第1灵敏度,当以第2手指根数进行了接触动作时,灵敏度设定部设定为第2灵敏度。
根据本方式,用户在希望以第1灵敏度移动指标时,以第1手指根数进行接触动作,希望以第2灵敏度移动指标时,以第2手指根数进行接触动作。由此,用户通过选择接触动作的手指根数,能够准确且简便地以第1灵敏度或第2灵敏度移动指标。
优选摄像装置还具备强制性地设定灵敏度的灵敏度强制设定部,触摸屏检测滑动操作的开始地点及结束地点,当开始地点与结束地点之间的距离为阈值以下时,灵敏度强制设定部强制性地切换第1灵敏度的接收设定和第2灵敏度的接收设定。
根据本方式,当开始地点与结束地点之间的距离为阈值以下时,灵敏度强制设定部强制性地切换第1灵敏度的接收设定和第2灵敏度的接收设定。由此,本方式中,在以用户无意的灵敏度进行了指标的移动时,能够简便地进行灵敏度的切换。
优选当第1灵敏度下的指标的移动中,开始地点与结束地点之间的距离为第1阈值以下时,灵敏度强制设定部切换为第2灵敏度,当第2灵敏度下的指标的移动中,开始地点与结束地点之间的距离为第2阈值以下时,灵敏度强制设定部强制性地切换为第1灵敏度。
根据本方式,根据指标的所设定的灵敏度,对开始地点与结束地点之间的距离设定规定的阈值,灵敏度强制设定部根据该阈值进行灵敏度的切换。由此,能够根据指标的移动灵敏度进行适当的灵敏度的切换。
优选指标表示聚焦区域的位置。
根据本方式,用户能够根据所希望的灵敏度移动聚焦区域的位置。
优选指标表示白平衡的校正量。
根据本方式,用户能够根据所希望的灵敏度变更白平衡的校正量。
作为本发明的另一方式的摄像方法为如下摄像装置的摄像方法,所述摄像装置具备:取景器,其显示实时取景图像及重叠显示于实时取景图像的指标,且显示根据所重叠显示的位置指示摄像条件或图像处理条件的指标;及触摸屏,接收移动指标的滑动操作,所述摄像装置的摄像方法包括:灵敏度设定步骤,通过检测滑动操作中对触摸屏的接触动作来设定通过滑动操作使指标粗略移动的第1灵敏度或使指标细微移动的第2灵敏度;及移动控制步骤,根据触摸屏上的滑动操作及通过灵敏度设定步骤设定的灵敏度移动指标。
作为本发明的另一方式的程序使计算机执行如下摄像装置的摄像工序,所述摄像装置具备:取景器,其显示实时取景图像及重叠显示于实时取景图像的指标,且显示根据所重叠显示的位置指示摄像条件或图像处理条件的指标;及触摸屏,接收移动指标的滑动操作,所述摄像装置的摄像工序包括:灵敏度设定步骤,通过检测滑动操作中对触摸屏的接触动作来设定通过滑动操作使指标粗略移动的第1灵敏度或使指标细微移动的第2灵敏度;及移动控制步骤,根据触摸屏上的滑动操作及通过灵敏度设定步骤设定的灵敏度移动指标。
发明效果
根据本发明,根据对触摸屏的接触动作设定第1灵敏度或第2灵敏度,并根据该设定的灵敏度沿着滑动操作移动指标,因此用户能够通过改变对触摸屏的接触动作,准确且简便地以第1灵敏度或第2灵敏度移动指标。
附图说明
图1是表示摄像装置的一例的立体图。
图2是表示摄像装置的一例的后视图。
图3是表示摄像装置的内部结构的实施方式的框图。
图4是表示CPU的主要功能结构例的框图。
图5是表示触摸屏的区域分割的一例的图。
图6是表示触摸屏上的滑动操作的图。
图7是表示取景器用监视器上的聚焦区域的移动的图。
图8是表示触摸屏上的滑动操作的图。
图9是表示取景器用监视器上的聚焦区域的移动的图。
图10是表示摄像装置的动作流程的流程图。
图11是表示设定于触摸屏的区域的图。
图12是表示CPU的主要功能结构例的框图。
图13是表示摄像装置处于垂直位置时的区域设定的例的图。
图14是表示摄像装置处于垂直位置时的区域设定的例的图。
图15是表示根据摄像装置的垂直位置及水平位置,设定粗略移动开始区域、细微移动开始区域及死区的区域的流程的流程图。
图16是表示CPU的主要功能结构例的框图。
图17是表示触摸屏上的滑动操作的图。
图18是表示取景器用监视器上的聚焦区域的移动的图。
图19是表示返回操作的检测及接收设定的变更的流程的流程图。
图20是表示在取景器用监视器显示有白平衡偏移图像的图。
具体实施方式
以下,根据附图对本发明所涉及的摄像装置、摄像方法及程序的优选实施方式进行说明。
[摄像装置]
图1及图2分别是表示摄像装置的一例(数码相机)的立体图及后视图。该摄像装置10为利用摄像元件接收通过透镜的光,转换为数字信号并作为静止图像或动态图像的图像数据记录在记录介质的数码相机。
如图1所示,摄像装置10中,在其正面配设有摄影透镜12、闪光灯1等,在上表面配设有快门按钮2、电源/模式开关3、模式转盘4等。另一方面,如图2所示,在相机背面配设有由液晶监视器(LCD:液晶显示器,Liquid Crystal Display)构成的背面监视器30、变焦按钮5、十字按钮6、菜单/确认(MENU/OK)按钮7、播放按钮8、返回(BACK)按钮9、取景器11、由液晶监视器构成的取景器用监视器13、眼睛传感器17等。
摄影透镜12由伸缩式变焦透镜构成,通过电源/模式开关3将相机的工作模式设定为摄影模式,由此从相机主体伸出。闪光灯1向主要被摄体照射闪光灯光。
快门按钮2由所谓的包括“半按”及“全按”构成的二级行程开关构成,作为摄影准备指示部而发挥作用,并且作为图像的记录指示部而发挥作用。
若作为摄影模式选择静止图像摄影模式且快门按钮2被“半按”,则摄像装置10进行执行AF(自动对焦,Autofocus)/AE(自动曝光,Auto Exposure)控制的摄影准备动作,若快门按钮2被“全按”,则摄像装置10进行静止图像的拍摄及记录。
并且,若作为摄影模式选择动态图像摄影模式且快门按钮2被“全按”,则摄像装置10开始动态图像的录像,若快门按钮2再次被“全按”,则摄像装置10停止录像而成为待机状态。
电源/模式开关3兼具作为开/关(ON/OFF)摄像装置10的电源的电源开关的功能和作为设定摄像装置10的模式的模式开关的功能,配设成在“关闭(OFF)位置”、“播放位置”及“摄影位置”之间滑动自如。摄像装置10使电源/模式开关3滑动来对位于“播放位置”或“摄影位置”,由此电源打开(ON),通过对位于“关闭位置”,电源关闭。并且,通过使电源/模式开关3滑动来对位于“播放位置”,设定为“播放模式”,通过对位于“摄影位置”,设定为“摄影模式”。
模式转盘4作为设定摄像装置10的摄影模式的模式切换部而发挥作用,通过该模式转盘4的设定位置,摄像装置10的摄影模式设定为各种模式。例如为进行静止图像摄影的“静止图像摄影模式”、进行动态图像摄影的“动态图像摄影模式”等。
背面监视器30及取景器用监视器13进行摄影模式时的实时取景图像的显示、播放模式时的静止图像或动态图像的显示,并且进行菜单画面的显示等,由此作为图形用户界面的一部分而发挥作用。并且,在背面监视器30一体设置有触摸屏31(图3)。
变焦按钮5作为指示变焦的变焦指示机构而发挥作用,且由指示向长焦侧变焦的长焦按钮5T及指示向广角侧变焦的广角按钮5W构成。摄像装置10在摄影模式时,通过该长焦按钮5T和广角按钮5W被操作,摄影透镜12的焦距发生变化。并且,播放模式时,通过该长焦按钮5T和广角按钮5W被操作,播放中的图像放大、缩小。
十字按钮6为输入上下左右这4个方向的指示的操作部,作为从菜单画面选择项目或指示从各菜单选择各种设定项目的按钮(光标移动操作机构)而发挥作用。左/右键作为播放模式时的帧传送(正向/反向传送)按钮而发挥作用。
菜单/确认按钮7为兼具作为菜单按钮的功能和作为确认按钮的功能的操作按钮,所述菜单按钮用于执行在背面显示器30的画面上显示菜单的指令,所述确认按钮发出选择内容的确定及执行等的指令。
播放按钮8为用于切换为将已摄影记录的静止图像或动态图像显示于背面显示器30的播放模式的按钮。
返回按钮9作为指示取消输入操作或返回前一个操作状态的按钮而发挥作用。
另外,对上述按钮/开关类设置了固有部件,但还能够通过操作触摸屏31来实现这些按钮/开关类的功能。
[摄像装置的内部结构]
图3是表示摄像装置10的内部结构的实施方式的框图。该摄像装置10将所拍摄的图像记录于存储卡54,整个装置的动作通过中央处理装置(CPU:Central ProcessingUnit)40总括控制。
在摄像装置10中设置有快门按钮2、电源/模式开关3、模式转盘4、长焦按钮5T、广角按钮5W、十字按钮6、菜单/确认按钮7、播放按钮8、返回按钮9等操作部38。来自该操作部38的信号输入至CPU40,CPU40根据输入信号控制摄像装置10的各回路,例如除了进行基于传感器驱动部32的摄像元件(图像传感器)16的驱动控制、基于快门驱动部33的机械快门(mechanical shutter)15的驱动控制、基于光圈驱动部34的光圈14的驱动控制及基于透镜驱动部36的摄影透镜12的驱动控制以外,还进行摄影动作控制、图像处理控制、图像数据的记录/播放控制、取景器用监视器13及背面监视器30的显示控制等。
若通过电源/模式开关3打开摄像装置10的电源,则从未图示的电源部向各块进行供电,开始摄像装置10的驱动。
透过摄影透镜12、光圈14、机械快门(mechanical shutter)15等的光束成像于作为CMOS(互补金属氧化物半导体,Complementary Metal-Oxide Semiconductor)型彩色图像传感器的摄像元件16。另外,摄像元件16并不限于CMOS型,也可以是XY地址型或CCD(电荷耦合元件,Charge Coupled Device)型彩色图像传感器。
摄像元件16中,二维排列有多个受光元件(光电二极管),成像于各光电二极管的受光面的被摄体像转换为与其入射光量相应的量的信号电压(或电荷),经由摄像元件16内的A/D(模拟/数字,Analog/Digital)转换器转换为数字信号并输出。
在动态图像或静止图像的摄影时从摄像元件16读出的图像信号(图像数据)经由图像输入控制器22临时存储于存储器(SDRAM(同步动态随机存取存储器,SynchronousDynamic Random Access Memory))48,或者读入到AF处理部42、AE检测部44等。
CPU40根据操作部38中的操作总括控制摄像装置10的各部,但在实时取景图像的摄影(显示)及动态图像的摄影(记录)中始终进行AF动作及AE动作。
AF处理部42为进行对比度AF处理或相位差AF处理的部分。进行对比度AF处理时,提取连续拍摄的图像中的AF区域内的图像的高频成分,并对该高频成分进行积分,由此计算表示对焦状态的AF评价值。CPU40根据通过AF处理部42计算出的AF评价值,使摄影透镜12内的聚焦透镜移动至AF评价值变得最大的透镜位置,由此进行AF控制(对比度AF)。
并且,摄像元件16具有相位差像素时,AF处理部42例如根据AF区域的一对多个相位差像素的各输出数据计算相位差数据(例如,一对相位差像素的各输出数据的差分绝对值的累计值),根据计算出的相位差数据计算基于摄影透镜12的焦点位置与摄像元件16的成像面的光轴方向的偏移量(散焦量)。CPU40根据通过AF处理部42计算出的散焦量,使摄影透镜12内的聚焦透镜移动至散焦量成为零的透镜位置,由此进行AF控制(相位差AF)。
AE检测部44对经由图像输入控制器22获取的图像数据(例如,整个画面的G像素的像素值)进行累计,或对在画面中央部和周边部施以不同加权的图像数据(G像素的像素值)进行累计,并将该累计值输出至CPU40。CPU40根据从AE检测部44输入的累计值计算被摄体的亮度(摄影Ev值(exposure value))。在摄影模式为静止图像摄影模式的情况下,若有快门按钮2的第1阶段的按下(半按),则CPU40再次进行前述AF控制,若有快门按钮2的全按,则计算被摄体的亮度(摄影Ev值),根据计算出的摄影Ev值,并根据程序图确定光圈14的F值及基于机械快门15的曝光时间(快门速度),进行静止图像的摄影(曝光控制)。
另一方面,在摄影模式为动态图像摄影模式的情况下,若有快门按钮2的全按,则CPU40开始动态图像的摄影及记录(录像)。另外,在动态图像摄影时,开放机械快门15,从摄像元件16连续读出图像数据(例如,作为帧速率,设为30帧/秒、60帧/秒)并连续进行相位差AF,并且计算被摄体的亮度,通过快门驱动部33控制快门速度(基于滚动快门的电荷积蓄时间)和/或通过光圈驱动部34控制光圈14。
CPU40根据来自变焦按钮5的变焦指令,经由透镜驱动部36使变焦透镜沿光轴方向进退动作,从而变更焦距。
并且,ROM47为存储有相机控制程序、摄像元件16的缺陷信息、图像处理等中使用的各种参数或表的ROM(只读存储器,Read Only Memory)或EEPROM(电可擦可编程只读存储器,Electrically Erasable Programmable Read-Only Memory)。
图像处理部24读出在动态图像或静止图像的摄影时经由图像输入控制器22获取并临时存储于存储器48的未处理的图像数据(RAW数据)。图像处理部24对所读出的RAW数据进行偏移处理、像素插值处理(相位差检测用像素、损伤像素等的插值处理)、白平衡校正、包含灵敏度校正的增益控制处理、γ校正处理、同步化处理(还称为“去马赛克处理”)、亮度及色差信号生成处理、轮廓增强处理及色彩校正等。
通过图像处理部24处理的图像数据且作为实时取景图像而处理的图像数据输入至VRAM(视频RAM随机存取存储器,Video RAM Random access memory)50。
VRAM50中包含分别记录表示1帧量的图像的图像数据的A区域及B区域。VRAM50中,表示1帧量的图像的图像数据在A区域和B区域交替改写。VRAM50的A区域及B区域中,从除图像数据被改写的一侧的区域以外的区域读出所写入的图像数据。
从VRAM50读出的图像数据在视频编码器28中被编码,并输出至设置于相机背面的取景器用监视器13及背面监视器30。由此,表示被摄体像的实时取景图像显示于取景器用监视器13及背面监视器30。另外,通过眼睛传感器17的检测控制实时取景图像向取景器用监视器13或背面监视器30的显示。通过眼睛传感器17检测到用户窥视取景器用监视器13时,在取景器用监视器13显示实时取景图像,检测到用户未窥视取景器用监视器13时,在背面监视器30显示实时取景图像。
眼睛传感器17为检测用户是否窥视取景器用监视器13的传感器。眼睛传感器17例如由红外线传感器构成。
触摸屏31与背面监视器30一体设置。触摸屏31检测用户手指120的接触作为来自用户的操作。在此,触摸屏31通过电阻膜方式或静电电容方式等各种方式检测接触。
触摸传感器输入部49根据来自触摸屏31的信号分析触摸屏31上的用户手指120的触摸位置或手指120的移动,并输出所分析的结果。
通过图像处理部24处理的图像数据且作为记录用静止图像或动态图像处理的图像数据(亮度数据(Y)及色差数据(Cb)、(Cr))再次存储于存储器48。
压缩/扩展处理部26对在静止图像或动态图像的记录时通过图像处理部24处理并存储于存储器48的亮度数据(Y)及色差数据(Cb)、(Cr)实施压缩处理。在静止图像的情况下,例如以JPEG(联合图像编码专家组,Joint Photographic coding Experts Group)形式进行压缩,在动态图像的情况下,例如以H.264形式进行压缩。通过压缩/扩展处理部26压缩的压缩图像数据经由介质控制器52记录于存储卡54。
并且,在播放模式时,压缩/扩展处理部26对经由介质控制器52从存储卡54获得的压缩图像数据实施扩展处理。介质控制器52进行对存储卡54的压缩图像数据的记录及读出等。
姿势传感器51为检测摄像装置10的姿势的传感器,例如由陀螺仪传感器构成。姿势传感器51根据用户的摄影姿势检测摄像装置10是水平位置还是垂直位置。并且,姿势传感器51在摄像装置10为垂直位置时,检测是取景器13相对于摄像方向位于右侧的垂直位置还是取景器13相对于摄像方向位于左侧的垂直位置。
<第1实施方式>
图4是表示本实施方式的CPU40的主要功能结构例的框图。
本实施方式的CPU40具有灵敏度设定部101及移动控制部103。
灵敏度设定部101设定移动指标时的灵敏度。灵敏度设定部101根据在触摸屏31接收的滑动操作设定所移动的指标的灵敏度。在此,灵敏度是指与在触摸屏31接收的滑动操作的移动距离相应的指标的移动距离。并且,指标为重叠显示于实时取景图像的标记等,能够根据所重叠显示的位置指示摄像条件或图像处理条件。例如根据指标表示聚焦区域。并且,例如根据指标表示白平衡偏移的偏移量。
灵敏度较高时(第1灵敏度),相对于滑动操作的移动距离,较长地设定指标的移动距离,指标的移动速度变快(粗略移动)。另一方面,灵敏度较低时(第2灵敏度),相对于滑动操作的移动距离,较短地设定指标的移动距离,指标的移动速度变慢(细微移动)。
移动控制部103根据触摸屏31上的滑动操作及通过灵敏度设定部101设定的灵敏度移动指标。具体而言,移动控制部103根据通过接触动作确定的灵敏度,与滑动操作联动而移动显示于取景器用监视器13的指标。当通过接触动作设定了第1灵敏度时,与之后的滑动操作联动而根据第1灵敏度移动指标。并且,当通过接触动作设定了第2灵敏度时,与之后的滑动操作联动而根据第2灵敏度移动指标。
针对对触摸屏31的接触动作的一例进行说明。本例中,在触摸屏31设置有区域,根据进行了接触动作的区域设定灵敏度。
图5是表示触摸屏31的区域分割的一例的图。
触摸屏31由粗略移动开始区域(第1区域)W1及细微移动开始区域(第2区域)W2构成。粗略移动开始区域W1及细微移动开始区域W2设置成将触摸屏31的短边L2二等分。
在粗略移动开始区域W1进行了接触动作时,根据粗略移动灵敏度移动指标。并且,在细微移动开始区域W2进行了接触动作时,根据细微移动灵敏度移动指标。接触动作是指滑动操作中最初对触摸屏31进行的触屏动作,滑动操作是指在对触摸屏31进行手指120的接触动作之后,手指120在与触摸屏31接触的状态下移动。灵敏度设定部101通过检测接触动作(最初对触摸屏31的触屏)来设定粗略移动灵敏度及细微移动灵敏度,因此即使在滑动操作过程中手指120接触到不同区域时,也根据最初设定的灵敏度进行固定,避免在指标的移动过程中发生灵敏度的变化。
<指标的粗略移动灵敏度>
图6及图7是表示根据粗略移动灵敏度移动指标的情况的例的图。
图6是表示触摸屏31上的滑动操作的图。并且,图7是与图6所示的滑动操作联动而表示取景器用监视器13上的聚焦区域F的移动的图。另外,图7中,显示有取景器用监视器13上的聚焦区域F的候选,但在实际的取景器用监视器13上有时不显示该聚焦区域F的候选。
如图6所示,用户使用手指120对触摸屏31进行滑动操作。具体而言,在粗略移动开始区域W1中进行手指120的接触动作。并且,手指120沿着箭头122进行滑动操作。与该滑动操作联动,如图7所示,在取景器用监视器13上,作为指标的一例的聚焦区域F的位置从F1沿着箭头124移动至F2。该聚焦区域F的移动根据粗略移动灵敏度进行。若能够如此以粗略移动灵敏度移动聚焦区域F,则即使在作为被摄体的猫126快速移动时,也能够根据其移动快速移动聚焦区域F的位置。
<指标的细微移动的移动>
图8及图9是表示指标根据细微移动灵敏度移动时的例的图。
图8是表示触摸屏31上的滑动操作的图。并且,图9是与图8所示的滑动操作联动而表示取景器用监视器13上的聚焦区域F的移动的图。
如图8所示,用户使用手指120对触摸屏31进行滑动操作。具体而言,在触摸屏31的细微移动开始区域W2中进行手指120的接触动作。并且,手指120沿着箭头122进行滑动操作。与该滑动操作联动,如图9所示,在取景器用监视器13上,聚焦区域F的位置从F3沿着箭头124移动至F4。该聚焦区域F的移动根据细微移动灵敏度进行。若如此根据细微移动灵敏度进行指标的移动,则在将聚焦区域F的位置准确地对准作为被摄体的猫126的脸部时,用户能够简便地对准聚焦区域F的位置。
接着,对使用摄像装置10的摄像方法(摄像工序)进行说明。
图10是表示摄像装置10的动作流程的流程图。
首先,通过摄像装置10的触摸屏31检测用户手指120的接触动作,经由触摸传感器输入部49检测触摸屏31上进行了接触动作的区域(步骤S10)。并且,灵敏度设定部101判定触摸屏31检测到接触动作的区域是粗略移动开始区域W1还是细微移动开始区域W2(步骤S11)。当在粗略移动开始区域W1检测到接触动作时,灵敏度设定部101将灵敏度设定为粗略移动(步骤S12:灵敏度设定步骤)。另一方面,当在细微移动开始区域W2检测到接触动作时,灵敏度设定部101将灵敏度设定为细微移动(步骤S13:灵敏度设定步骤)。之后,移动控制部103检测触摸屏上的滑动操作(步骤S14),根据所设定的灵敏度,与滑动操作联动而移动指标(步骤S15:移动控制步骤)。
上述实施方式中,执行各种处理的处理部(处理单元,processing unit)的硬件结构为如下示出的各种处理器(processor)。各种处理器中,包含执行软件(程序)来作为各种处理部而发挥作用的通用的处理器即CPU(中央处理单元,Central Processing Unit)、FPGA(现场可编程门阵列,Field Programmable Gate Array)等能够在制造之后变更电路结构的处理器即可编程逻辑器件(Programmable Logic Device:PLD)、具有ASIC(专用集成电路,Application Specific Integrated Circuit)等为了执行特定的处理而专门设计的电路结构的处理器即专用电路等。
1个处理部可以由这些各种处理器中的1个构成,也可以由相同种类或不同种类的2个以上的处理器(例如,多个FPGA、或者CPU与FPGA的组合)构成。并且,也可以由1个处理器构成多个处理部。作为由1个处理器构成多个处理部的例子,第1,有如客户机及服务器等计算机为代表,由1个以上的CPU和软件的组合构成1个处理器,该处理器作为多个处理部发挥作用的方式。第2,有如系统芯片(System On Chip:SoC)等为代表,使用通过1个IC(集成电路,Integrated Circuit)芯片实现包含多个处理部的整个系统的功能的处理器的方式。如此,各种处理部作为硬件结构利用上述各种处理器的1个以上来构成。
而且,作为这些各种处理器的硬件结构,更具体而言,是组合了半导体元件等电路元件的电路(circuitry)。
上述各结构及功能能够通过任意的硬件、软件或者两者的组合适当实现。例如,对使计算机执行上述处理步骤(处理步骤)的程序、记录有这种程序的计算机能够读取的记录介质(非暂时性记录介质)、或者能够安装这种程序的计算机也能够适用本发明。
<第2实施方式>
接着,对第2实施方式进行说明。本实施方式中,在触摸屏31,除了粗略移动开始区域W1及细微移动开始区域W2以外,还设置有死区(第3区域)W3。
图11是表示设定于触摸屏31的区域的图。另外,对在图5中已经进行说明的部分,标注相同符号并省略说明。
在触摸屏31设置有粗略移动开始区域W1、细微移动开始区域W2及死区W3。死区W3是不检测滑动操作的区域。通过设置死区W3,即使在用户无意中接触到触摸屏31时,也能够抑制指标错误地移动的情况。
图11中,表示适于用户通过右眼窥视取景器11的情况的死区W3的配置。图11中,将用户通过右眼窥视取景器11的情况下,脸部的一部分有可能接触的区域设为死区W3。由此,即使在用户通过右眼窥视取景器11的情况下,无意中脸部的一部分接触到触摸屏31时,也抑制指标错误地移动的情况。
<第3实施方式>
接着,对第3实施方式进行说明。本实施方式中,根据摄像装置10的姿势设定粗略移动开始区域W1、细微移动开始区域W2、死区W3。
图12是表示本实施方式的CPU40的主要功能结构例的框图。另外,对在图4中已经进行说明的部分,标注相同符号并省略说明。
区域设定部105根据姿势传感器51的检测结果,在触摸屏31上设定粗略移动开始区域W1及细微移动开始区域W2。具体而言,通过姿势传感器51检测摄像装置10是水平位置还是垂直位置,区域设定部105根据是水平位置还是垂直位置,改变粗略移动开始区域W1及细微移动开始区域W2的配置。并且,区域设定部105与改变粗略移动开始区域W1及细微移动开始区域W2的配置相应地,也改变死区W3的配置。
图13是表示摄像装置10处于垂直位置时的区域设定的例的图。
图13所示的例为摄像装置10处于垂直位置且取景器11朝向摄像方向存在于左侧的例。此时,以将触摸屏31的长边L1二等分的形式设定粗略移动开始区域W1和细微移动开始区域W2。通过如此设定粗略移动开始区域W1和细微移动开始区域W2,即使摄像装置10处于垂直位置,用户也能够容易在粗略移动开始区域W1及细微移动开始区域W2进行接触动作及滑动操作。
图14是表示摄像装置10处于垂直位置时的区域设定的例的图。
图14所示的例为摄像装置10处于垂直位置且取景器11朝向摄像方向存在于右侧的例。此时,以将触摸屏31的短边L2二等分,朝向摄像方向沿着左侧的长边L1将L2二等分的形式设定粗略移动开始区域W1和细微移动开始区域W2。并且,在将短边L2二等分的右侧(取景器侧)设定死区W3。通过如此设定粗略移动开始区域W1、细微移动开始区域W2及死区W3,即使摄像装置10处于垂直位置,用户也能够容易在粗略移动开始区域W1及细微移动开始区域W2进行滑动操作。并且,通过将死区W3设置于图示的位置,能够抑制用户窥视取景器11时脸部的一部分接触到触摸屏31而导致指标错误地移动的情况。
图15是表示根据摄像装置10的垂直位置及水平位置,设定粗略移动开始区域W1、细微移动开始区域W2及死区W3的区域的流程的流程图。
首先,通过姿势传感器51检测摄像装置10的位置(步骤S20)。并且,区域设定部105判定摄像装置10是否处于水平位置(步骤S21)。摄像装置10处于水平位置时,进行水平位置用的粗略移动开始区域W1和细微移动开始区域W2的区域设定(步骤S22)。作为水平位置用的区域设定的例,可举出图5及图11中示出的例。
另一方面,摄像装置10处于垂直位置而不是水平位置时,区域设定部105根据姿势传感器51的检测结果判定是否处于取景器11朝向摄像方向位于左侧的垂直位置(步骤S23)。当判定为取景器11位于左侧时,区域设定部105进行垂直位置(取景器11位于左侧)用的粗略移动开始区域W1和细微移动开始区域W2的区域设定(步骤S24)。另外,作为垂直位置(取景器11位于左侧)用的粗略移动开始区域W1和细微移动开始区域W2的区域设定的例,可举出图13中示出的例。并且,当判定为取景器11位于右侧时,区域设定部105进行垂直位置(取景器11位于右侧)用的粗略移动开始区域W1和细微移动开始区域W2的区域设定(步骤S25)。另外,作为垂直位置(取景器11位于右侧)用的粗略移动开始区域W1和细微移动开始区域W2的区域设定的例,可举出图14中示出的例。
如上所述,根据姿势传感器51的检测结果进行粗略移动开始区域W1、细微移动开始区域W2的区域设定及死区W3的区域设定,由此用户能够轻松地对触摸屏31进行滑动操作。
<第4实施方式>
接着,对第4实施方式进行说明。本实施方式中,在用户通过滑动操作进行了返回操作时,区域的设定被变更。
图16是表示本实施方式的CPU40的主要功能结构例的框图。另外,对在图4中已经进行说明的部分,标注相同符号并省略说明。
本实施方式的CPU40具备灵敏度设定部101、移动控制部103及灵敏度强制设定部107。另外,对在图4中已经进行说明的部分,标注相同符号并省略说明。
灵敏度强制设定部107强制性地设定灵敏度。在此,强制性地设定灵敏度是指,强制性地切换预先设定的粗略移动灵敏度和细微移动灵敏度的接收设定。例如,灵敏度强制设定部107通过替换粗略移动开始区域W1和细微移动开始区域W2,强制性地切换预先设定的粗略移动灵敏度和细微移动灵敏度的接收设定。接收设定的切换是指,例如替换粗略移动开始区域W1和细微移动开始区域W2的区域。
当滑动操作的开始地点(接触动作的地点)与滑动操作的结束地点之间的距离为阈值以下时,灵敏度强制设定部107强制性地切换第1灵敏度的接收设定和第2灵敏度的接收设定。这是因为当开始地点与结束地点之间的距离为阈值以下时,灵敏度强制设定部107判定为用户进行了返回操作。另外,通过触摸屏31检测滑动操作的开始地点及结束地点。
并且,灵敏度强制设定部107也可以根据灵敏度改变判定返回操作的阈值。例如,在指标以粗略移动灵敏度移动的情况下,当开始地点与结束地点之间的距离为第1阈值以下时,灵敏度强制设定部107切换为细微移动灵敏度。并且,例如,在指标以细微移动灵敏度移动的情况下,当开始地点与结束地点之间的距离为第2阈值以下时,灵敏度强制设定部107强制性地切换为粗略移动灵敏度。另外,第1阈值也可以设定为大于第2阈值。这是因为,在粗略移动灵敏度的情况下,指标通常移动较长距离,在细微移动灵敏度的情况下,通常移动较短的距离。
图17及图18是表示返回操作的例的图。图17是表示触摸屏31上的滑动操作的图。并且,图18是与图17所示的滑动操作联动而表示取景器用监视器13上的聚焦区域F的移动的图。另外,接触动作中的开始地点(开始坐标)T1在细微移动开始区域W2中开始,手指120沿着箭头122进行滑动操作,在结束地点(结束坐标)T2结束滑动操作。与该返回操作联动,如图18所示,在取景器用监视器13上,作为指标的一例的聚焦区域F的位置沿着箭头124移动。由于开始地点T1与结束地点T2之间的距离为阈值以下,因此灵敏度强制设定部107判定为进行了返回操作。并且,灵敏度强制设定部107变更图17所示的粗略移动开始区域W1和细微移动开始区域W2的区域。即,进行了返回操作之后,指标根据粗略移动灵敏度移动。
接着,对返回操作的检测及接收设定的变更的流程进行说明。
图19是表示返回操作的检测及接收设定的变更的流程的流程图。
首先,触摸屏31检测作为滑动操作的开始的接触动作(步骤S30)。若触摸屏31检测接触动作,则触摸屏31获取接触动作的开始坐标T1(步骤S31)。之后,触摸屏31检测滑动操作的结束(步骤S32)。并且,获取滑动操作的结束坐标T2(步骤S33)。
之后,灵敏度强制设定部107判定开始坐标T1是否位于粗略移动开始区域W1(步骤S34)。并且,当滑动操作的开始坐标T1位于粗略移动开始区域W1时,通过灵敏度强制设定部107判定开始坐标T1与结束坐标T2之间的距离是否为第1阈值以下(步骤S35)。当开始坐标T1与结束坐标T2的距离为第1阈值以下时,灵敏度强制设定部107以使开始坐标T1成为细微移动开始区域内的方式进行区域变更(步骤S36)。当开始坐标T1与结束坐标T2之间的距离大于第1阈值时,灵敏度强制设定部107不进行区域变更。
另一方面,当滑动操作的开始坐标T1位于粗略移动开始区域W1时,通过灵敏度强制设定部107判定开始坐标T1与结束坐标T2之间的距离是否为第2阈值以下(步骤S37)。当开始坐标T1与结束坐标T2之间的距离为第2阈值以下时,灵敏度强制设定部107以使滑动操作的开始坐标T1成为粗略移动开始区域内的方式进行区域变更(步骤S38)。当开始坐标T1与结束坐标T2之间的距离大于第2阈值时,灵敏度强制设定部107不进行区域变更。
如此,灵敏度强制设定部107使用阈值进行返回操作的判定,并强制性地变更灵敏度,因此用户能够简便地根据不同的灵敏度移动指标。
<其他>
以上说明中,对在触摸屏31的区域设置粗略移动开始区域W1和细微移动开始区域W2的例进行了说明。但是,灵敏度设定部101也能够通过其他方式设定粗略移动灵敏度和细微移动灵敏度。
灵敏度设定部101也可以通过接触动作的按压设定指标的移动灵敏度。当通过第1按压进行了接触动作时,灵敏度设定部101设定为第1灵敏度,当通过第2按压进行了接触动作时,灵敏度设定部设定为第2灵敏度。
并且,灵敏度设定部101也可以根据接触面积设定指标的移动灵敏度。当以第1面积进行了接触动作时,灵敏度设定部101设定为第1灵敏度,当以第2面积进行了接触动作时,灵敏度设定部设定为第2灵敏度。
并且,灵敏度设定部101也可以根据对触摸屏31接触的手指120的根数设定灵敏度。当以第1手指120的根数进行了接触动作时,灵敏度设定部101设定为第1灵敏度,当以第2手指120的根数进行了接触动作时,灵敏度设定部101设定为第2灵敏度。
并且,以上说明中,对指标为聚焦区域F的指标的情况进行了说明,但并不限定于此。指标只要是根据所重叠显示的位置指示摄像条件或图像处理条件的指标,则并无特别限定。例如,对表示白平衡的校正量的指标也可适用本发明。
图20是表示在显示于取景器用监视器13的实时取景图像重叠显示白平衡偏移图像的情况的图。
在实时取景图像重叠显示的白平衡偏移图像(WB偏移图像)131中,分别示出有红色轴(R)、蓝色轴(B)、绿色轴(G)及黄色轴(Y),通过移动指标S来调整白平衡偏移量。具体而言,通过移动指标S来调整白平衡偏移量,该白平衡偏移量反映在实时取景图像,因此用户能够进行所希望的白平衡调整。此时,在WB偏移图像中,按照用户的意愿以细微移动灵敏度及粗略移动灵敏度移动指标,由此能够在WB偏移图像上快速且准确地移动指标。
以上,对本发明的例子进行了说明,但本发明并不限定于上述实施方式,能够在不脱离本发明精神的范围内进行各种变形是理所当然的。
符号说明
1-闪光灯,2-快门按钮,3-电源/模式开关,4-模式转盘,5-变焦按钮,5T-远摄按钮,5W-广角按钮,6-十字按钮,7-菜单/确认(MENU/OK)按钮,8-播放按钮,9-返回(BACK)按钮,10-摄像装置,11-取景器,12-摄影透镜,13-取景器用监视器,14-光圈,15-机械快门,16-摄像元件,17-眼睛传感器,22-图像输入控制器,24-图像处理部,26-压缩/扩展处理部,28-视频编码器,30-背面监视器,31-触摸屏,32-传感器驱动部,33-快门驱动部,34-光圈驱动部,36-透镜驱动部,38-操作部,40-CPU,42-AF处理部,44-AE检测部,47-ROM,48-存储器,49-触摸传感器输入部,51-姿势传感器,52-介质控制器,54-存储卡,101-灵敏度设定部,103-移动控制部,105-区域设定部,107-灵敏度强制设定部,步骤S10-S15-摄像方法的工序,步骤S20-S25-区域设定的工序,步骤S30-S38-返回操作的检测及接收设定的变更的工序。
Claims (12)
1.一种摄像装置,其具备:
取景器,其显示实时取景图像及重叠显示于所述实时取景图像的指标,且根据重叠显示的位置对指示摄像条件或图像处理条件的所述指标进行显示;
触摸屏,接收移动所述指标的滑动操作,该触摸屏是在窥视所述取景器时能够进行触摸操作但无法对该操作进行视觉确认的结构;
灵敏度设定部,通过检测所述滑动操作中对所述触摸屏的接触动作来设定通过所述滑动操作使所述指标粗略移动的第1灵敏度或使所述指标细微移动的第2灵敏度;及
移动控制部,根据所述触摸屏上的所述滑动操作及通过所述灵敏度设定部设定的灵敏度移动所述指标,
所述触摸屏具有第1区域及第2区域,
当在所述第1区域进行了所述接触动作时,所述灵敏度设定部设定为所述第1灵敏度,当在所述第2区域进行了所述接触动作时,所述灵敏度设定部设定为所述第2灵敏度。
2.根据权利要求1所述的摄像装置,其还具备:
姿势传感器,检测摄像装置的姿势;及
区域设定部,根据所述姿势传感器的检测结果设定所述第1区域及所述第2区域。
3.根据权利要求1所述的摄像装置,其中,
所述触摸屏还具有作为不检测所述滑动操作的死区的第3区域。
4.一种摄像装置,其具备:
取景器,其显示实时取景图像及重叠显示于所述实时取景图像的指标,且根据重叠显示的位置对指示摄像条件或图像处理条件的所述指标进行显示;
触摸屏,接收移动所述指标的滑动操作,该触摸屏是在窥视所述取景器时能够进行触摸操作但无法对该操作进行视觉确认的结构;
灵敏度设定部,通过检测所述滑动操作中对所述触摸屏的接触动作来设定通过所述滑动操作使所述指标粗略移动的第1灵敏度或使所述指标细微移动的第2灵敏度;及
移动控制部,根据所述触摸屏上的所述滑动操作及通过所述灵敏度设定部设定的灵敏度移动所述指标,
当通过第1按压进行了所述接触动作时,所述灵敏度设定部设定为所述第1灵敏度,当通过第2按压进行了所述接触动作时,所述灵敏度设定部设定为所述第2灵敏度。
5.一种摄像装置,其具备:
取景器,其显示实时取景图像及重叠显示于所述实时取景图像的指标,且根据重叠显示的位置对指示摄像条件或图像处理条件的所述指标进行显示;
触摸屏,接收移动所述指标的滑动操作,该触摸屏是在窥视所述取景器时能够进行触摸操作但无法对该操作进行视觉确认的结构;
灵敏度设定部,通过检测所述滑动操作中对所述触摸屏的接触动作来设定通过所述滑动操作使所述指标粗略移动的第1灵敏度或使所述指标细微移动的第2灵敏度;及
移动控制部,根据所述触摸屏上的所述滑动操作及通过所述灵敏度设定部设定的灵敏度移动所述指标,
当以第1接触面积进行了所述接触动作时,所述灵敏度设定部设定为所述第1灵敏度,当以第2接触面积进行了所述接触动作时,所述灵敏度设定部设定为所述第2灵敏度。
6.一种摄像装置,其具备:
取景器,其显示实时取景图像及重叠显示于所述实时取景图像的指标,且根据重叠显示的位置对指示摄像条件或图像处理条件的所述指标进行显示;
触摸屏,接收移动所述指标的滑动操作,该触摸屏是在窥视所述取景器时能够进行触摸操作但无法对该操作进行视觉确认的结构;
灵敏度设定部,通过检测所述滑动操作中对所述触摸屏的接触动作来设定通过所述滑动操作使所述指标粗略移动的第1灵敏度或使所述指标细微移动的第2灵敏度;及
移动控制部,根据所述触摸屏上的所述滑动操作及通过所述灵敏度设定部设定的灵敏度移动所述指标,
当以第1手指根数进行了所述接触动作时,所述灵敏度设定部设定为所述第1灵敏度,当以第2手指根数进行了所述接触动作时,所述灵敏度设定部设定为所述第2灵敏度。
7.根据权利要求1至6中任一项所述的摄像装置,其具备:
灵敏度强制设定部,强制性地设定所述灵敏度,
所述触摸屏检测所述滑动操作的开始地点及结束地点,
当所述开始地点与所述结束地点之间的距离为阈值以下时,所述灵敏度强制设定部强制性地切换所述第1灵敏度的接收设定和所述第2灵敏度的接收设定。
8.根据权利要求7所述的摄像装置,其中,
在所述第1灵敏度下的所述指标的移动中,所述开始地点与所述结束地点之间的距离为第1阈值以下时,所述灵敏度强制设定部切换为所述第2灵敏度,在所述第2灵敏度下的所述指标的移动中,所述开始地点与所述结束地点之间的距离为第2阈值以下时,所述灵敏度强制设定部强制性地切换为所述第1灵敏度。
9.根据权利要求1至6中任一项所述的摄像装置,其中,
所述指标表示聚焦区域的位置。
10.根据权利要求1至6中任一项所述的摄像装置,其中,
所述指标表示白平衡的校正量。
11.一种摄像方法,其为如下摄像装置的摄像方法,所述摄像装置具备:取景器,其显示实时取景图像及重叠显示于所述实时取景图像的指标,且根据重叠显示的位置对指示摄像条件或图像处理条件的所述指标进行显示;及触摸屏,接收移动所述指标的滑动操作,该触摸屏是在窥视所述取景器时能够进行触摸操作但无法对该操作进行视觉确认的结构,所述摄像装置的摄像方法包括:
灵敏度设定步骤,通过检测所述滑动操作中对所述触摸屏的接触动作来设定通过所述滑动操作使所述指标粗略移动的第1灵敏度或使所述指标细微移动的第2灵敏度;及
移动控制步骤,根据所述触摸屏上的所述滑动操作及通过所述灵敏度设定步骤设定的灵敏度移动所述指标,
所述触摸屏具有第1区域及第2区域,
在所述灵敏度设定步骤中,当在所述第1区域进行了所述接触动作时,设定为所述第1灵敏度,当在所述第2区域进行了所述接触动作时,设定为所述第2灵敏度。
12.一种记录介质,
其为非临时性且计算机可读取的记录介质,当通过计算机读取到存储于所述记录介质的指令时,
使计算机执行如下摄像装置的摄像工序,所述摄像装置具备:取景器,其显示实时取景图像及重叠显示于所述实时取景图像的指标,且根据重叠显示的位置对指示摄像条件或图像处理条件的所述指标进行显示;及触摸屏,接收移动所述指标的滑动操作,该触摸屏是在窥视所述取景器时能够进行触摸操作但无法对该操作进行视觉确认的结构,所述摄像工序包括:
灵敏度设定步骤,通过检测所述滑动操作中对所述触摸屏的接触动作来设定通过所述滑动操作使所述指标粗略移动的第1灵敏度或使所述指标细微移动的第2灵敏度;及
移动控制步骤,根据所述触摸屏上的所述滑动操作及通过所述灵敏度设定步骤设定的灵敏度移动所述指标,
所述触摸屏具有第1区域及第2区域,
在所述灵敏度设定步骤中,当在所述第1区域进行了所述接触动作时,设定为所述第1灵敏度,当在所述第2区域进行了所述接触动作时,设定为所述第2灵敏度。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122043 | 2018-06-27 | ||
JP2018-122043 | 2018-06-27 | ||
PCT/JP2019/021101 WO2020003862A1 (ja) | 2018-06-27 | 2019-05-28 | 撮像装置、撮像方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112352418A CN112352418A (zh) | 2021-02-09 |
CN112352418B true CN112352418B (zh) | 2023-11-21 |
Family
ID=68985611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980042597.7A Active CN112352418B (zh) | 2018-06-27 | 2019-05-28 | 摄像装置、摄像方法 |
Country Status (4)
Country | Link |
---|---|
US (3) | US11216118B2 (zh) |
JP (2) | JP6880326B2 (zh) |
CN (1) | CN112352418B (zh) |
WO (1) | WO2020003862A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6880326B2 (ja) | 2018-06-27 | 2021-06-02 | 富士フイルム株式会社 | 撮像装置、撮像方法、及びプログラム |
WO2023053556A1 (ja) * | 2021-09-30 | 2023-04-06 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325051A (ja) * | 2006-06-02 | 2007-12-13 | Fujifilm Corp | 撮影装置および方法並びにプログラム |
JP2010160581A (ja) * | 2009-01-06 | 2010-07-22 | Olympus Imaging Corp | ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム |
CN102457661A (zh) * | 2010-10-18 | 2012-05-16 | 奥林巴斯映像株式会社 | 照相机 |
JP2012191570A (ja) * | 2011-03-14 | 2012-10-04 | Seiko Epson Corp | 撮影装置、その制御方法及びプログラム |
JP2012203143A (ja) * | 2011-03-24 | 2012-10-22 | Olympus Imaging Corp | 表示装置 |
CN103105979A (zh) * | 2011-07-19 | 2013-05-15 | 佳能株式会社 | 电子设备及其控制方法 |
CN103197770A (zh) * | 2013-04-01 | 2013-07-10 | 深圳数字电视国家工程实验室股份有限公司 | 一种电视遥控器模拟鼠标操作的方法及装置 |
CN103518173A (zh) * | 2011-10-13 | 2014-01-15 | 松下电器产业株式会社 | 信息输入装置和用于控制信息输入装置的方法 |
CN103716533A (zh) * | 2012-10-04 | 2014-04-09 | 佳能株式会社 | 摄像装置以及摄像装置的控制方法 |
JP2014067316A (ja) * | 2012-09-27 | 2014-04-17 | Canon Inc | 表示制御装置 |
CN105824361A (zh) * | 2016-03-11 | 2016-08-03 | 合肥联宝信息技术有限公司 | 一种笔记本电脑及控制鼠标的方法 |
CN106980438A (zh) * | 2017-03-20 | 2017-07-25 | 联想(北京)有限公司 | 光标控制方法、装置及系统 |
CN206805468U (zh) * | 2017-05-11 | 2017-12-26 | 安徽师范大学 | 一种头戴式智能鼠标 |
JP2018013745A (ja) * | 2016-07-23 | 2018-01-25 | キヤノン株式会社 | 電子機器およびその制御方法 |
CN107707955A (zh) * | 2017-08-30 | 2018-02-16 | 上海与德科技有限公司 | 一种显示器上的光标控制方法及智能设备 |
CN107797714A (zh) * | 2016-08-30 | 2018-03-13 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101490643B (zh) | 2006-06-16 | 2011-12-28 | 塞奎公司 | 通过在识别用于控制滚动功能的姿态的触摸板的预定位置中的触接来激活滚动的方法 |
US8766925B2 (en) * | 2008-02-28 | 2014-07-01 | New York University | Method and apparatus for providing input to a processor, and a sensor pad |
JP2014215885A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社東芝 | 情報処理装置、タッチパッドの感度調整方法およびプログラム |
JP6485831B2 (ja) * | 2014-04-17 | 2019-03-20 | オリンパス株式会社 | 内視鏡画像表示装置、内視鏡画像表示方法及び内視鏡画像表示プログラム |
US20160011720A1 (en) * | 2014-07-10 | 2016-01-14 | Thomas Christian Walther | Multi-Touch Interface for Blind Real-Time Interaction |
KR20170025706A (ko) * | 2015-08-31 | 2017-03-08 | 주식회사 하이딥 | 압력 감도 조절이 가능한 압력 검출기 및 이를 포함하는 터치 입력 장치 |
US20180324351A1 (en) | 2015-11-17 | 2018-11-08 | Sony Corporation | Control device, control method, and program |
JP2017174363A (ja) * | 2016-03-25 | 2017-09-28 | ヤマハ株式会社 | 設定装置及び方法 |
JP2018085570A (ja) * | 2016-11-21 | 2018-05-31 | キヤノン株式会社 | 撮像装置、撮像方法及びプログラム |
JP6757268B2 (ja) * | 2017-01-30 | 2020-09-16 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US20190034147A1 (en) * | 2017-07-31 | 2019-01-31 | Intel Corporation | Methods and apparatus to detect user-facing screens of multi-screen devices |
CN114879893B (zh) * | 2017-11-07 | 2023-04-25 | 华为技术有限公司 | 一种触摸控制方法及装置 |
JP6880326B2 (ja) * | 2018-06-27 | 2021-06-02 | 富士フイルム株式会社 | 撮像装置、撮像方法、及びプログラム |
JP7187190B2 (ja) * | 2018-06-29 | 2022-12-12 | キヤノン株式会社 | 電子機器、および電子機器の制御方法、プログラム、記憶媒体 |
-
2019
- 2019-05-28 JP JP2020527303A patent/JP6880326B2/ja active Active
- 2019-05-28 CN CN201980042597.7A patent/CN112352418B/zh active Active
- 2019-05-28 WO PCT/JP2019/021101 patent/WO2020003862A1/ja active Application Filing
-
2020
- 2020-11-30 US US17/106,490 patent/US11216118B2/en active Active
-
2021
- 2021-04-30 JP JP2021077003A patent/JP7152557B2/ja active Active
- 2021-10-18 US US17/504,040 patent/US11635856B2/en active Active
-
2023
- 2023-03-13 US US18/182,755 patent/US11954290B2/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325051A (ja) * | 2006-06-02 | 2007-12-13 | Fujifilm Corp | 撮影装置および方法並びにプログラム |
JP2010160581A (ja) * | 2009-01-06 | 2010-07-22 | Olympus Imaging Corp | ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム |
CN102457661A (zh) * | 2010-10-18 | 2012-05-16 | 奥林巴斯映像株式会社 | 照相机 |
JP2012191570A (ja) * | 2011-03-14 | 2012-10-04 | Seiko Epson Corp | 撮影装置、その制御方法及びプログラム |
JP2012203143A (ja) * | 2011-03-24 | 2012-10-22 | Olympus Imaging Corp | 表示装置 |
CN103105979A (zh) * | 2011-07-19 | 2013-05-15 | 佳能株式会社 | 电子设备及其控制方法 |
CN103518173A (zh) * | 2011-10-13 | 2014-01-15 | 松下电器产业株式会社 | 信息输入装置和用于控制信息输入装置的方法 |
JP2014067316A (ja) * | 2012-09-27 | 2014-04-17 | Canon Inc | 表示制御装置 |
CN103716533A (zh) * | 2012-10-04 | 2014-04-09 | 佳能株式会社 | 摄像装置以及摄像装置的控制方法 |
CN103197770A (zh) * | 2013-04-01 | 2013-07-10 | 深圳数字电视国家工程实验室股份有限公司 | 一种电视遥控器模拟鼠标操作的方法及装置 |
CN105824361A (zh) * | 2016-03-11 | 2016-08-03 | 合肥联宝信息技术有限公司 | 一种笔记本电脑及控制鼠标的方法 |
JP2018013745A (ja) * | 2016-07-23 | 2018-01-25 | キヤノン株式会社 | 電子機器およびその制御方法 |
CN107797714A (zh) * | 2016-08-30 | 2018-03-13 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
CN106980438A (zh) * | 2017-03-20 | 2017-07-25 | 联想(北京)有限公司 | 光标控制方法、装置及系统 |
CN206805468U (zh) * | 2017-05-11 | 2017-12-26 | 安徽师范大学 | 一种头戴式智能鼠标 |
CN107707955A (zh) * | 2017-08-30 | 2018-02-16 | 上海与德科技有限公司 | 一种显示器上的光标控制方法及智能设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112352418A (zh) | 2021-02-09 |
US20210081074A1 (en) | 2021-03-18 |
JP2021132383A (ja) | 2021-09-09 |
US11216118B2 (en) | 2022-01-04 |
US11635856B2 (en) | 2023-04-25 |
US11954290B2 (en) | 2024-04-09 |
JP6880326B2 (ja) | 2021-06-02 |
JPWO2020003862A1 (ja) | 2021-04-22 |
JP7152557B2 (ja) | 2022-10-12 |
US20220035480A1 (en) | 2022-02-03 |
US20230217096A1 (en) | 2023-07-06 |
WO2020003862A1 (ja) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10469737B2 (en) | Display control device and display control method | |
US10681258B2 (en) | Imaging capturing device and imaging capturing method | |
JP4582212B2 (ja) | 撮像装置及びプログラム | |
US9456129B2 (en) | Image processing device, imaging device, program, and image processing method | |
US9374520B2 (en) | Digital image processing apparatus and method of controlling the same | |
JP5473551B2 (ja) | オートフォーカスシステム | |
US11954290B2 (en) | Imaging apparatus, imaging method, and program | |
US10523869B2 (en) | Imaging apparatus and control method thereof | |
WO2020138497A1 (ja) | 電子機器、カメラおよびプログラム | |
WO2014129533A1 (ja) | 撮像装置及び制御プログラム並びに露出量制御方法 | |
JP4981955B2 (ja) | 撮像装置、及びその制御方法 | |
JP4785548B2 (ja) | 撮像装置、及びその制御方法 | |
US11871106B2 (en) | Imaging apparatus, imaging method, and program | |
US11689687B2 (en) | Video creation method | |
JP5225477B2 (ja) | 撮像装置、及びその制御方法 | |
US8243181B2 (en) | Digital image processing apparatus and method of controlling the same | |
JP2015072426A (ja) | 表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |