CN102316263A - 图像处理设备和图像处理方法 - Google Patents
图像处理设备和图像处理方法 Download PDFInfo
- Publication number
- CN102316263A CN102316263A CN2011101715915A CN201110171591A CN102316263A CN 102316263 A CN102316263 A CN 102316263A CN 2011101715915 A CN2011101715915 A CN 2011101715915A CN 201110171591 A CN201110171591 A CN 201110171591A CN 102316263 A CN102316263 A CN 102316263A
- Authority
- CN
- China
- Prior art keywords
- subject
- frame
- image
- detector
- setting section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2101/00—Still video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
Abstract
本发明提供一种设备和图像处理方法。该图像处理设备包括被摄对象框设定部分,所述被摄对象框设定部分通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;接受框设定部分,所述接受框设定部分按照图像的状况,设定范围比被摄对象框大的接受框;位置检测部分,所述位置检测部分检测用户指定的图像上的指定位置;和识别部分,所述识别部分根据由接受框设定部分设定的接受框,和由位置检测部分检测的指定位置,识别作为跟踪目标的被摄对象。
Description
技术领域
本公开涉及图像处理设备和图像处理方法,尤其涉及能够精确识别作为跟踪目标的被摄对象的图像处理设备和图像处理方法。
背景技术
过去,在数字静止照相机、数字摄像机等(下面合适的话称为数字照相机)中,装有跟踪诸如用户选择的某位人物的面部、或者除面部之外的对象之类的被摄对象的功能。从而,能够按照跟踪被摄对象的位置的状态,持续使数字照相机的各个参数(例如,焦点、亮度等)保持最佳。
作为一种供用户选择要利用数字照相机拍摄的被摄对象的方法,存在通过触摸显示在触摸面板上的被摄对象进行选择的方法,利用预先使被摄对象与视角相配的提示框进行选择的方法,等等。
例如,在未经审查的日本专利申请公开No.2006-101186中,公开一种成像设备,其中当用户想要跟踪除面部之外的被摄对象时,设定成能够检测所述被摄对象的专用模式,从而启动被摄对象跟踪功能。
发明内容
但是,在现有技术的数字照相机中,如果用户不能准确地指定作为跟踪目标的被摄对象,那么难以精确地识别用户意图跟踪的被摄对象。
理想的是能够精确地识别作为跟踪目标的被摄对象。
按照本公开的实施例的图像处理设备具备被摄对象框设定部分,所述被摄对象框设定部分通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;接受框设定部分,所述接受框设定部分按照图像的状况,设定范围比被摄对象框大的接受框;位置检测部分,所述位置检测部分检测用户指定的图像上的指定位置;和识别部分,所述识别部分根据由接受框设定部分设定的接受框,和由位置检测部分检测的指定位置,识别作为跟踪目标的被摄对象。
按照本公开的实施例的图像处理方法包括通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;按照图像的状况,设定范围比被摄对象框大的接受框;检测用户指定的图像上的指定位置;和根据接受框和指定位置,识别作为跟踪目标的被摄对象。
按照本公开的实施例,通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框,按照图像的状况,设定范围比被摄对象框大的接受框。随后,检测用户指定的图像上的指定位置,并根据接受框和指定位置,识别作为跟踪目标的被摄对象。
按照本公开的另一个实施例的图像处理设备具备被摄对象框设定部分,所述被摄对象框设定部分通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;接受框设定部分,所述接受框设定部分按照为利用适于某个图像的成像条件进行成像而设定的成像模式,设定范围比被摄对象框大的接受框;位置检测部分,所述位置检测部分检测用户指定的图像上的指定位置;和识别部分,所述识别部分根据由接受框设定部分设定的接受框,和由位置检测部分检测的指定位置,识别作为跟踪目标的被摄对象。
按照本公开的另一个实施例的图像处理方法包括通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;按照为利用适于某个图像的成像条件进行成像而设定的成像模式,设定范围比被摄对象框大的接受框;检测用户指定的图像上的指定位置;和根据接受框和指定位置,识别作为跟踪目标的被摄对象。
按照本公开的另一个实施例,通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框,按照为利用适于某个被摄对象的成像条件进行成像而设定的成像模式,设定范围比被摄对象框大的接受框。随后,检测用户指定的图像上的指定位置,根据接受框和指定位置,识别作为跟踪目标的被摄对象。
按照本公开的实施例,能够精确地识别作为跟踪目标的被摄对象。
附图说明
图1是图解说明按照本公开的一个实施例的数字照相机的结构例子的方框图;
图2是图解说明当成像模式是人物模式时的屏幕例子的示图;
图3是图解说明当成像模式是宠物模式时的屏幕例子的示图;
图4是图解说明当成像模式是宠物模式时的另一个屏幕例子的示图;
图5是图解说明与成像模式相应的触摸接受框的设定例子的示图;
图6是图解说明与被摄对象的大小相应的触摸接受框的设定例子的示图;
图7是图解说明与被摄对象的移动相应的触摸接受框的设定例子的示图;
图8是图解说明与被摄对象的移动相应的触摸接受框的设定例子的示图;
图9是图解说明跟踪被摄对象识别部分的结构例子的方框图;
图10是说明开始被摄对象跟踪的处理的流程图;
图11是说明触摸接受框设定处理的流程图;
图12是说明按照成像模式,识别跟踪被摄对象的例子的示图;
图13是图解说明按照本公开的一个实施例的计算机的结构例子的方框图。
具体实施方式
下面参考附图,详细说明本公开的具体实施例。
图1是图解说明按照本公开的一个实施例的数字照相机的结构例子的方框图。
在图1中,数字照相机11被构造成具备镜头12、成像部分13、显示部分14、外部I/F(接口)15和图像处理部分16。
镜头12由例如提供变焦功能等的一组多个透镜构成,来自被摄对象的光被集中,从而在成像部分13的成像元件的成像面上产生被摄对象的图像。例如,成像部分13由CCD(电荷耦合器件)、CMOS(互补金属氧化物半导体)传感器等构成,形成被摄对象的图像,并把通过成像获得的图像输出给图像处理部分16。
显示部分14由LCD(液晶显示器)、有机EL(电致发光)显示器等构成,显示在成像部分13中成像,并由在图像处理部分16中进行的成像处理输出的图像,即,其中被摄对象由被摄对象框围绕的图像。外部I/F 15由把从图像处理部分16输出的图像输出给例如外部显示器(未示出)的端子等构成。
图像处理部分16对成像部分13成像的图像进行图像处理,并把图像输出给显示部分14和外部I/F 15。图像处理部分16执行其中检测在图像中拍摄到的被摄对象(例如,面部),和在图像中合成围绕被摄对象的预定范围的被摄对象框的图像处理。另外,当用户选择任意被摄对象时,图像处理部分16执行跟踪该被摄对象的被摄对象跟踪处理,并执行当对作为跟踪目标的被摄对象(下面称为跟踪被摄对象)成像时,调整各种参数,以致每种参数都最佳的处理。
图像处理部分16被构造成具备图像存储器21、模式设定部分22、触摸检测部分23、被摄对象框设定处理部分24、跟踪被摄对象识别部分25、检测器切换部分26、和被摄对象跟踪处理部分27。
在图像存储器21中,依次供给由成像部分13成像的图像的数据,图像存储器21依次保存供给的图像的数据。
模式设定部分22设定在用户指定的成像模式中使用的各种参数。例如,数字照相机11具备各种成像模式,比如利用适宜于人物的图像的成像条件进行成像的人物模式,利用适宜于动物的图像的成像条件进行成像的宠物模式,等等。另外,在由被摄对象框设定处理部分24和跟踪被摄对象识别部分25进行的处理中,要参照在模式设定部分22中设定的成像模式。
触摸检测部分23根据来自触摸面板(未示出)的信号,检测当用户触摸显示部分14的屏幕时被触及的位置(指定位置),所述触摸面板被安装成与显示部分14的屏幕重叠。随后,触摸检测部分23把表示触摸位置的信息提供给跟踪被摄对象识别部分25。
被摄对象框设定处理部分24具有检测在图像中拍摄到的被摄对象的多个检测器,并执行被摄对象框设定处理,在被摄对象框设定处理中,设定围绕由检测器检测到的被摄对象的预定范围的被摄对象框的大小。例如,如图1中所示,被摄对象框设定处理部分24具有面部检测器28-1和动物检测器28-2,并对由面部检测器28-1检测到的人物的面部、由动物检测器28-2检测到的动物的面部等,设定被摄对象框。另外,在图像中合成并在显示部分14中显示由被摄对象框设定处理部分24设定的被摄对象框。
当从触摸检测部分23供给表示用户触及的触摸位置的信息时,跟踪被摄对象识别部分25根据由被摄对象框设定处理部分24设定的被摄对象框,识别跟踪被摄对象。例如,如果用户触及的触摸位置在被摄对象框的内侧,那么跟踪被摄对象识别部分25把在被摄对象框中设定的被摄对象识别成跟踪被摄对象。随后,在能够识别跟踪被摄对象的情况下,跟踪被摄对象识别部分25把指定跟踪被摄对象的信息提供给检测器切换部分26。
当从跟踪被摄对象识别部分25供给指定跟踪被摄对象的信息时,检测器切换部分26借助跟踪被摄对象识别部分25,识别在跟踪被摄对象的检测中被摄对象框设定处理部分24使用的检测器。随后,检测器切换部分26执行把指定跟踪被摄对象的信息提供给被摄对象跟踪处理部分27,和把在被摄对象跟踪处理中被摄对象跟踪处理部分27使用的检测器切换成在跟踪被摄对象的检测中使用的检测器的处理。
被摄对象跟踪处理部分27开始被摄对象跟踪处理,在被摄对象跟踪处理中,利用由检测器切换部分26切换的检测器,跟踪由指定跟踪被摄对象的信息指定的跟踪被摄对象。据此,被摄对象跟踪处理部分27能够利用适合于跟踪被摄对象的检测器,执行被摄对象跟踪处理。
另外,在指定跟踪被摄对象的信息中,例如,包括表示跟踪被摄对象的位置的信息、表示跟踪被摄对象的颜色和亮度的信息,等等。当下一张图像的数据被保存在图像存储器21中时,被摄对象跟踪处理部分27检测下一张图像中的、颜色和亮度与在前一张图像中指定的跟踪被摄对象的位置附近的预定区域中的跟踪被摄对象的颜色和亮度接近的区域,并指定跟踪目标。随后,被摄对象跟踪处理部分27根据用图像指定的跟踪被摄对象的位置及跟踪被摄对象的颜色和亮度,反复从顺序保存在图像存储器21中的图像中指定跟踪被摄对象。这样,执行被摄对象跟踪处理,并且被摄对象跟踪处理部分27调整各种参数,以致当跟踪被摄对象被成像时,每种参数都是最佳的。
这样,在数字照相机11中,通过用户触摸显示部分14的屏幕,识别成为跟踪目标的被摄对象,并执行跟踪被摄对象的被摄对象跟踪处理。
这里,例如,在对其中拍摄多个被摄对象的图像设定多个被摄对象框的情况下,当用户触及的触摸位置不在任一被摄对象框的内侧时,跟踪被摄对象识别部分25不能识别跟踪被摄对象。这种情况下,跟踪被摄对象识别部分25可参照由模式设定部分22设定的成像模式,识别跟踪被摄对象。
下面参考图2和3,说明跟踪被摄对象识别部分25参照成像模式,并识别跟踪被摄对象的处理。
图2中表示了显示部分14在人物模式被设定为成像模式时的屏幕P11-P13,图3中表示了显示部分14在宠物模式被设定为成像模式时的屏幕P14-P16。另外,在数字照相机11中,被摄对象框设定处理部分24中的面部检测器28-1通常工作。
如图2中所示,在显示部分14在成像模式为人物模式时的屏幕P11-P13中,显示表示人物的图标和“人物模式”。随后,当两个儿童和一条狗被成像为屏幕P11中所示的被摄对象时,被摄对象框设定处理部分24把被摄对象框设定到由面部检测器28-1检测的两个儿童的面部。据此,如屏幕P12所示,显示对两个儿童的面部设定的被摄对象框F11和被摄对象框F12。
这里,用户触摸显示部分14的屏幕的位置是被摄对象框F11的外侧附近,比如在屏幕P12中所示的手指标志的顶端,并在狗的附近。这种情况下,由于成像模式是人物模式,因此即使在被摄对象框F11的外侧,跟踪被摄对象识别部分25也推断用户希望作为跟踪目标的被摄对象是人物,从而,被设定被摄对象框F11的儿童的面部被识别为跟踪被摄对象。据此,如屏幕P13中所示,显示跟踪被摄对象的被摄对象框F11′。被识别为跟踪目标的前一被摄对象框F11的颜色,大小等被改变,并显示跟踪被摄对象的被摄对象框F11′。
另一方面,如图3中所示,在显示部分14在成像模式是宠物模式时的屏幕PF14-P16中,显示表示动物的图标和“宠物模式”。在屏幕P14中,显示结构和图2中的屏幕P11相同的图像,如屏幕P15中所示,用户触摸在被摄对象框F11的外侧附近并在狗的附近的位置(和图2的屏幕P12中的位置相同的位置)。
这种情况下,由于成像模式是宠物模式,因此即使在被摄对象框F11的外侧,跟踪被摄对象识别部分25也推断用户希望作为跟踪目标的被摄对象是动物,而不是儿童,从而狗被识别为跟踪被摄对象。据此,如屏幕P16中所示,显示跟踪被摄对象的被摄对象框F13′,被摄对象框F13′围绕狗的面部的预定区域。
这里,当成像模式是宠物模式时,面部检测器28-1和动物检测器28-2同时工作。这样,在数字照相机11中的多个检测器同时工作的情况下,能够显示关于各个检测器检测的被摄对象的被摄对象框。
即,如图4中所示,在显示屏幕14在宠物模式被设定为成像模式时的屏幕P15′中,能够按照和儿童的面部相同的方式,在狗的面部上也显示被摄对象框。
不过,为了使跟踪被摄对象识别部分25得以确定用户在显示屏幕14的屏幕上触摸的位置是被摄对象框的外侧附近,必须确定规定所述附近的区域。作为所述区域,除了相对于被摄对象框固定地设定具有恒定间隔的宽图框以外,例如,还可按照成像目标、成像模式等,设定间隔变化的图框。按照这种方式,下面把即使当用户触摸显示部分14的屏幕的位置在被摄对象框的外侧时,也会被用户触及的对设定在被摄对象框中的被摄对象来说合理的图框恰当地称为触摸接受框。
例如,在图5中,表示了显示部分14在人物模式被设定为成像模式时的屏幕P17,和显示部分14在宠物模式被设定为成像模式时的屏幕P18。
屏幕P17和P18是人物和狗被成像的情况,具有相同的结构。另外,在屏幕P17和P18中,关于人物的面部的被摄对象框F14和关于狗的面部的被摄对象框P15被设定为相同的位置。另外,在屏幕P17和P18中,用虚线表示关于被摄对象框F14的触摸接受框F16和关于被摄对象框F15的触摸接受框F17。这里,图解地表示了触摸接受框F16和F17,以便说明,然而触摸接受框F16和F17并不显示在显示部分14中。
如在屏幕P17中所示,当成像模式是人物模式时,由于成像中优先考虑的被摄对象是人物,因此其中存在人物(适合于该成像模式的被摄对象)的面部的被摄对象框F14的设定的触摸接受框F16被设定成大于其中存在狗的面部的被摄对象框F15的设定的触摸接受框F17。
另一方面,如屏幕P18中所示,当成像模式是宠物模式时,由于成像中优先考虑的被摄对象是动物,因此其中存在狗(适合于该成像模式的被摄对象)的面部的被摄对象框F15的设定的触摸接受框F17被设定成大于其中存在人物的面部的被摄对象框F14的设定的触摸接受框F16。
这样,通过设定具有与成像模式相应的大小的触摸接受框,即使用户的触摸与被摄对象分离,数字照相机11也能够估计用户的选择意图,从而把与所述意图一致的被摄对象识别成跟踪被摄对象。
另外,如屏幕P17中所示,就作为被摄对象的人物而论,触摸接受框F16相对于被摄对象框F14的间隔被设定成以致在下侧相对于被摄对象框F14的间隔大于在上侧、右侧和左侧相对于被摄对象框F14的间隔。这是因为例如在被摄对象为人物的情况下,通常拍摄在被摄对象框(面部框)的下侧的人物的身体。这样,通过把在触摸接受框F16的下侧相对于被摄对象框F14的间隔设定成较宽,当触摸在图像中拍摄的人物的身体时,也能够把该人物设定为跟踪被摄对象。
另外,如屏幕P17中所示,在被摄对象是动物的情况下,触摸接受框F17被设定成以致相对于被摄对象框F15具有相等的间隔。这样,在数字照相机11中,与被摄对象的种类相应的触摸接受框的大小,具体地说,与检测被摄对象的检测器的种类相应的触摸接受框的大小被预先设定。
此外,按照在图像中拍摄的被摄对象的大小,调整被摄对象框的大小,按照被摄对象框的大小,调整触摸接受框的大小。
即,如图6中所示,当被摄对象A被拍摄成比被摄对象B大时,对于被摄对象A设定的被摄对象框F18被设定成比对于被摄对象B设定的被摄对象框F20大。另外,对于被摄对象A设定的触摸接受框F19也被设定成比对于被摄对象B设定的触摸接受框F21大。
另外,触摸接受框F19被设定成以致在触摸接受框F19的下侧相对于被摄对象框F18的间隔(余量)大于在上侧、右侧和左侧的间隔,以便包括被摄对象B的身体。按照相同的方式,触摸接受框F21被设定成以致在下侧相对于被摄对象框F20的间隔较宽,以便包括被摄对象B的身体。
此外,例如可按照被摄对象的移动,按照被摄对象的状况(场景),调整触摸接受框相对于被摄对象框的间隔。
即,如图7中所示,当单独拍摄被摄对象A时,当检测到被摄对象B正从被摄对象A的左侧接近被摄对象A的移动时,在对于被摄对象A设定的触摸接受框F19的左侧(被摄对象B一侧)的间隔被调整,以致变窄。之后,当检测到被摄对象B和被摄对象A分离的移动时,触摸接受框F19被调整,以致恢复初始间隔。这里,尽管在图7中未表示出,不过当被摄对象B接近被摄对象A时,在同样对于被摄对象B设定的触摸接受框F21的被摄对象A侧的间隔被调整,以致变窄,当被摄对象B和被摄对象A分离时,所述间隔被调整,以致恢复初始间隔。
另外,例如,如图8中所示,当单独拍摄被摄对象A时,检测到被摄对象B从被摄对象A的左侧接近被摄对象A的移动,和被摄对象C从被摄对象A的右侧接近被摄对象A的移动。这种情况下,在对于被摄对象A设定的触摸接受框F19的两侧的间隔都被调整,以致变窄。之后,当检测到被摄对象B和被摄对象C与被摄对象A分离的移动时,触摸接受框F19被调整,以致恢复初始间隔。这里,按照被摄对象B和被摄对象C的移动,调整对于被摄对象B设定的触摸接受框F21,和对于被摄对象C设定的触摸接受框F23。
如参考图5-8所述,触摸接受框被设定成环绕比被摄对象框宽的范围,并由于成像模式和成像场景(被摄对象的大小,种类,移动等)而调整触摸接受框的大小。
下面,图9是图解说明设定触摸接受框的跟踪被摄对象识别部分25的结构例子的方框图。
在图9中,跟踪被摄对象识别部分25被配置成具备存储部分31,移动检测部分32,触摸接受框设定处理部分33,触摸确定部分34,和识别部分35。
在存储部分31中,被供给与被摄对象框设定处理部分24设定的被摄对象框相关的信息,与被摄对象框相关的信息在存储部分31中被保存预定时间。在与被摄对象框相关的信息中,包括表示被摄对象框的位置和大小的信息,和表示检测被摄对象的检测器的种类的信息。
移动检测部分32通过根据保存在存储部分31中的与被摄对象框相关的信息,确定在预定时间中被摄对象框的位置的变化,检测被摄对象的移动。
触摸接受框设定处理部分33根据由模式设定部分22设定的成像模式,和保存在存储部分31中的与被摄对象框相关的信息,设定关于被摄对象框的触摸接受框。另外,触摸接受框设定处理部分33根据由移动检测部分32检测的被摄对象框的移动,调整设定的触摸接受框的大小。
当从触摸检测部分23被供给表示用户触及的触摸位置的信息时,触摸确定部分34判定触摸位置是否在由触摸接受框设定处理部分33设定的触摸接受框的范围中。随后,在确定触摸位置在触摸接受框的范围中的情况下,触摸确定部分34判定设定有触摸接受框的被摄对象是跟踪被摄对象,并通知识别部分35。
这里,在确定触摸位置不在触摸接受框的范围中的情况下,触摸确定部分34操作对于被摄对象框设定处理部分24的其它检测器。例如,当只操作面部检测器28-1时,存在用户触摸不同于人物的被摄对象(比如动物)的情况。此时,确定触摸位置不在触摸接受框的范围中,不过通过利用被摄对象框设定处理部分24操作动物检测器28-2,能够检测用户触摸的动物,从而能够把该动物识别成跟踪被摄对象。
当有来自触摸确定部分34的跟踪被摄对象的通知时,识别部分35识别跟踪被摄对象,并输出指定跟踪被摄对象的信息。
下面,图10是说明数字照相机11开始被摄对象跟踪的处理的流程图。
例如,当数字照相机11被启动,并开始利用成像部分13的成像时,开始所述处理,在步骤S11中,被摄对象框设定处理部分24开始操作面部检测器28-1。随后,被摄对象框设定处理部分24开始被摄对象框设定处理,在被摄对象框设定处理中,对于从保存在图像存储器21中的图像中检测到的人物的面部,设定被摄对象框(面部框),处理进入步骤S12。
在步骤S12,触摸检测部分23根据来自显示部分14的触摸面板的信号,确定用户是否触摸显示部分14的屏幕。随后,所述处理等待,直到触摸检测部分23确定用户触摸了显示部分14的屏幕为止,当确定用户触摸了显示部分14的屏幕时,处理进入步骤S13。
在步骤S13,触摸检测部分23把表示用户触及的触摸位置的信息(坐标)输出给跟踪被摄对象识别部分25,跟踪被摄对象识别部分25获得触摸位置。
在步骤S13的处理之后,处理进入步骤S14,执行触摸接受框设定处理(参见后面说明的图11),相对于被摄对象框设定触摸接受框。在触摸接受框设定处理的处理之后,处理进入步骤S15。
在步骤S15,在跟踪被摄对象识别部分25中,触摸确定部分34根据在步骤S13中获得的触摸位置,确定触摸位置是否在触摸接受框的范围中。
当在步骤S15中确定触摸位置不在触摸接受框的范围中(在所述范围之外)时,处理进入步骤S16,触摸确定部分34确定被摄对象框设定处理部分24的所有检测器是否都在工作。
当在步骤S16中,确定并非被摄对象框设定处理部分24的所有检测器都在工作时,处理进入步骤S17。
在步骤S17,触摸确定部分34针对被摄对象框设定处理部分24请求除在工作的检测器之外的检测器工作。据此,被摄对象框设定处理部分24开始其它检测器的工作,处理返回步骤S14,之后按照相同的方式重复所述处理。即,利用已开始工作的检测器检测被摄对象,当新检测到被摄对象时,设定被摄对象框,相对于该被摄对象框新设定触摸接受框。
另一方面,当在步骤S16中确定被摄对象框设定处理部分24的所有检测器都在工作时,处理返回步骤S12,之后按照相同的方式重复所述处理。即,在这种情况下,对于用户的触摸,不能识别跟踪被摄对象,从而等待新的触摸的检测。这里,在这种情况下,可在显示部分14上显示不能识别跟踪被摄对象。
另一方面,当在步骤S15中,确定触摸位置在触摸接受框的范围中时,处理进入步骤S18。
在步骤S18,识别部分35把设定在触摸位置在其范围中的触摸接受框内的被摄对象,识别成跟踪被摄对象,并获得在对该被摄对象设定的被摄对象框中的颜色和亮度。随后,识别部分35把包括表示跟踪被摄对象的位置的信息、表示跟踪被摄对象的颜色和亮度的信息等,并且指定跟踪被摄对象的信息的信息提供给检测器切换部分26。
在步骤S18的处理之后,处理进入步骤S19,检测器切换部分26执行识别检测跟踪被摄对象的检测器,并切换对于被摄对象跟踪处理部分27的检测器,以便在被摄对象跟踪处理中使用该检测器的处理。另外,检测器切换部分26把指定跟踪被摄对象的信息提供给被摄对象跟踪处理部分27,处理进入步骤S20。
在步骤S20,被摄对象跟踪处理部分27利用在步骤S18中切换的检测器,根据指定跟踪被摄对象的信息,开始其中跟踪被摄对象被跟踪的被摄对象跟踪处理。在步骤S20的处理之后,处理返回步骤S12,等到用户触摸下一个被摄对象为止,之后按照相同方式重复所述处理。
如上所述,在数字照相机11中,当在触摸接受框的内侧的区域被触摸时,由于设定在触摸接受框中的被摄对象被识别为跟踪被摄对象,因此即使当用户的触摸位置在被摄对象框之外,也能够精确地识别被摄对象。
另外,在用户触摸的位置在触摸接受框的范围之外的情况下,通过使其它的检测器工作,即使当检测用户希望作为跟踪目标的被摄对象的检测器未工作时,也能够检测该被摄对象。因此,当设定作为跟踪目标的被摄对象时,能够提高用户的使用便利性。
即,在成像模式是人物模式,从而只有面部检测器28-1在工作的情况下,当用户触摸显示在显示部分14中的动物时,动物检测器28-2自动开始工作,从而动物被识别为跟踪目标。这样,用户不必为把成像模式改变成动物模式而操心,能够在动物作为跟踪被摄对象的情况下开始被摄对象跟踪处理。
另外,当按照这种方式使多个检测器工作,识别跟踪被摄对象,并开始被摄对象跟踪处理时,检测器切换部分26能够停止使用在跟踪被摄对象的检测中的检测器之外的检测器的工作。因此,能够减少在图像处理部分16中执行的处理,从而能够降低电力的使用。
下面,图11是说明图10的步骤S14的触摸接受框设定处理的流程图。
在步骤S31,触摸接受框设定处理部分33从存储部分31读出和获得与当触摸确定部分34获得触摸位置时,显示在显示部分14中的被摄对象框有关的信息。
在步骤S31的处理之后,处理进入步骤S32,触摸接受框设定处理部分33参考模式设定部分22,获得目前设定的成像模式,处理进入步骤S33。
在步骤S33,触摸接受框设定处理部分33根据在步骤S31中获得的与被摄对象框相关的信息,识别设定有被摄对象框的被摄对象的种类。随后,触摸接受框设定处理部分33根据识别的被摄对象的种类,和在步骤S32中获得的成像模式,按照预先登记的标准大小设定相对于被摄对象框的触摸接受框。
这里,在触摸接受框设定处理部分33中,预先登记相对于被摄对象框的大小的触摸接受框的标准大小。另外,如上参考图5所述,相对于被摄对象框的触摸接受框的大小随每种成像模式的被摄对象的种类的不同而不同,在触摸接受框设定处理部分33中,对于每种成像模式,登记相对于被摄对象框的触摸接受框的标准大小。
在步骤S33的处理之后,处理进入步骤S34,触摸接受框设定处理部分33参考移动检测部分32,获得被摄对象的移动,在步骤S35,确定是否必须调整被设定为标准大小的触摸接受框。
如上参考图7和8所述,当检测到被摄对象相互接近的移动时,触摸接受框被调整,以致在每个被摄对象的相对侧,触摸接受框相对于被摄对象框的间隔变窄。另外,当检测到相互邻近的被摄对象分开的移动时,触摸接受框被调整,以致变窄的间隔被加宽。因此,在按照这种方式检测到被摄对象的移动的情况下,触摸接受框设定处理部分33确定是否必须调整触摸接受框。
当在步骤S35中确定必须调整触摸接受框时,处理进入步骤S36,触摸接受框设定处理部分33按照被摄对象的移动,调整触摸接受框,然后处理结束。
另一方面,当在步骤S35中确定不必调整触摸接受框时,处理跳过步骤S36,从而结束。
如上所述,由于触摸接受框设定处理部分33按照成像模式,设定触摸接受框的大小,在每种成像模式下优先考虑和成像的被摄对象能够被优先识别为跟踪被摄对象。
另外,触摸接受框设定处理部分33按照成像场景(即,成像图像的状况),更具体地说,按照在图像中拍摄的被摄对象的特性(种类、大小等)被摄对象相对于彼此的移动等,调整触摸接受框。因此,能够优先把适于每种成像场景的被摄对象识别成跟踪被摄对象。
这样,由于适宜的触摸接受框是根据成像模式和成像场景设定的,因此能够精确地识别用户希望作为跟踪目标的被摄对象。
另外,在被摄对象移动的情况下,存在用户触摸的位置和拍摄被摄对象的位置不相符的情况,存在与用户的意图不同的被摄对象被识别为跟踪被摄对象,从而进行被摄对象跟踪处理的情况。就此来说,在数字照相机11中,由于触摸接受框的范围随被摄对象的移动而变化,因此能够避免与用户的意图不同的被摄对象被识别为跟踪被摄对象,不会使用户为选择正确的被摄对象而多次重复触摸。即,由于能够利用简单的操作,精确地选择被摄对象,因此能够降低用户的负担。
这里,数字照相机11可具备除上述人物模式和宠物模式外的成像模式,被摄对象框设定处理部分24和跟踪被摄对象识别部分25能够对于在每个成像模式的成像中优先考虑的被摄对象设定被摄对象框和触摸接受框。例如,数字照相机11具备以适于对儿童成像的成像条件进行成像的儿童优先模式,或者以适于对成人成像的成像条件进行成像的成人优先模式等。
图12中表示了显示部分14在儿童优先模式被设定为成像模式时的屏幕P19,和显示部分14在成人优先模式被设定为成像模式时的屏幕P20。
屏幕P19和P20具有其中拍摄两个儿童和一位成人的相同结构,对于儿童的面部,显示了被摄对象框F24和F25,对于成人的面部,显示了被摄对象框F26。就诸如这样的屏幕P19和P20来说,存在按照和屏幕P19和P20中所示的手指标志的顶端相同的方式,用户触摸显示部分14的屏幕的位置在被摄对象框F25和F26之间的情况。
这种情况下,如果成像模式是儿童优先模式,那么用被摄对象框F25设定的儿童被识别为跟踪被摄对象,如果成像模式是成人优先模式,那么用被摄对象框F26设定的成人被识别为跟踪被摄对象。这样,在数字照相机11中,即使当用户的触摸位置在被摄对象框F25和F26之间,通过参照成像模式,也能够估计用户的意图,从而能够精确地识别跟踪被摄对象。
另外,数字照相机11具备诸如水下模式,食物模式或花草模式之类的成像模式,对于适于每种成像模式的被摄对象设定被摄对象框,并调整触摸接受框。即,除图1中所示的面部检测器28-1和动物检测器28-2之外,被摄对象框设定处理部分24可配备鱼检测器,食物检测器或花草检测器等。作为动物检测器28-2,可以有狗面部检测器和猫面部检测器。另外,数字照相机11可以具备作为成像模式的风景模式或夜景模式等等。
这里,除了由操作数字照相机11的用户设定外,成像模式可以被自动设定,以便通过分析数字照相机11中的图像,按照成像状况进行最佳成像。
另外,在本实施例中,说明的是面部检测器28-1经常在工作,不过可以存在该检测器不按这种方式经常工作,在被用户触摸之前,被摄对象框不被显示在显示部分14上的状态。即,检测器的操作可以在存在用户的触摸时开始。
这里,在实施例中,通过用户触摸显示部分14的屏幕,选择要跟踪的被摄对象,不过,可以采用另外的手段,例如通过操纵操作键,选择被摄对象。另外,可以通过利用预先使被摄对象与视角相配的提示框,选择被摄对象。
这里,除诸如数字静止照相机,数字摄像机之类的数字照相机外,可以把本公开应用于具备成像功能的设备,比如移动电话设备,个人计算机等等。
上述一系列处理可用硬件执行,上述一系列处理可用软件执行。当用软件执行所述一系列处理时,构成所述软件的程序从程序记录介质被安装到具有专用内置硬件的计算机中,或者被安装到通过安装每种程序,能够执行每种功能的通用个人计算机中。
图13是图解说明利用程序,执行上述一系列处理的计算机的硬件的例证结构的方框图。
在该计算机中,CPU(中央处理器)101、只读存储器(ROM)102和随机存取存储器(RAM)103通过总线104相互连接。
在总线104中,还连接输入和输出接口105。在输入和输出接口105中,连接由键盘、鼠标、麦克风等构成的输入部分106,由显示器、扬声器等构成的输出部分107,由硬盘、非易失性存储器等构成的存储部分108,由网络接口等构成的通信部分109,和驱动磁盘、光盘、磁光盘或可拆卸介质111,比如半导体存储器等的驱动器110。
在如上所述构成的计算机中,CPU 101通过经输入和输出接口105和总线104,把保存在存储部分108中的程序载入RAM 103中,执行上述一系列处理。
计算机(CPU)101执行的程序被记录在磁盘(包括软盘),光盘(CD-ROM(压缩磁盘只读存储器),DVD(数字通用磁盘)等),磁光盘,或者由半导体存储器等构成的可拆卸介质111,比如套装介质中,或者是通过有线或无线传输介质,比如局域网、因特网或数字卫星广播提供的。
从而,通过把可拆卸介质111装入驱动器110中,能够经输入和输出接口105,把程序安装到存储部分108中。另外,能够借助有线或无线传输介质,利用通信部分109接收程序,并把程序安装在存储部分108中。另一方面,可预先把程序安装在ROM 102或存储介质108中。
这里,由计算机执行的程序可以是按照在说明书中描述的顺序,时序地执行处理的程序,或者可以是并行地,或者在必要的时候,比如当进行请求时,执行所述处理的程序。另外,可以利用一个CPU执行所述程序,或者可以利用多个CPU分布和处理所述程序。
本申请包含与在2010年7月2日向日本专利局提交的日本优先权专利申请JP 2010-151951中公开的主题相关的主题,该专利申请的整个内容在此引为参考。
本领域的技术人员应明白,根据设计要求和其它因素,可以产生各种修改、组合、子组合和变更,只要它们在所附的权利要求或其等同物的范围之内。
Claims (12)
1.一种图像处理设备,包括:
被摄对象框设定部分,所述被摄对象框设定部分通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;
接受框设定部分,所述接受框设定部分按照图像的状况,设定范围比所述被摄对象框大的接受框;
位置检测部分,所述位置检测部分检测图像上的由用户指定的指定位置;以及
识别部分,所述识别部分根据由所述接受框设定部分设定的接受框,和由所述位置检测部分检测到的指定位置,识别作为跟踪目标的被摄对象。
2.按照权利要求1所述的图像处理设备,
其中所述被摄对象框设定部分具有能够分别检测多个种类的被摄对象的多个被摄对象检测器,并且在不能利用所述识别部分来识别作为跟踪目标的被摄对象的情况下,启动除在工作的被摄对象检测器以外的被摄对象检测器的工作,从而检测其它种类的被摄对象。
3.按照权利要求2所述的图像处理设备,其中,所述被摄对象检测器包括面部检测器、动物检测器、鱼检测器、食物检测器、花草检测器中的一个或多个。
4.按照权利要求1所述的图像处理设备,
其中所述接受框设定部分按照在图像中拍摄的被摄对象的大小,设定所述接受框相对于所述被摄对象框的大小。
5.按照权利要求1所述的图像处理设备,
其中所述接受框设定部分按照在图像中拍摄的被摄对象的种类,设定所述接受框相对于所述被摄对象框的间隔。
6.按照权利要求1所述的图像处理设备,
其中所述接受框设定部分按照在图像中拍摄的被摄对象的移动,调整所述接受框相对于所述被摄对象框的间隔。
7.一种图像处理方法,包括:
通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;
按照图像的状况,设定范围比所述被摄对象框大的接受框;
检测图像上的由用户指定的指定位置;以及
根据所述接受框和所述指定位置,识别作为跟踪目标的被摄对象。
8.一种图像处理设备,包括:
被摄对象框设定部分,所述被摄对象框设定部分通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;
接受框设定部分,所述接受框设定部分按照为利用适于特定被摄对象的成像条件进行成像而设定的成像模式,设定范围比所述被摄对象框大的接受框;
位置检测部分,所述位置检测部分检测图像上的由用户指定的指定位置;以及
识别部分,所述识别部分根据由所述接受框设定部分设定的接受框,和由所述位置检测部分检测到的指定位置,识别作为跟踪目标的被摄对象。
9.根据权利要求8所述的图像处理设备,其中,所述成像模式包括儿童优先模式、成人优先模式、水下模式、食物模式、花草模式、风景模式以及夜景模式中的一个或多个。
10.按照权利要求8所述的图像处理设备,
其中所述被摄对象框设定部分具有能够分别检测多个种类的被摄对象的多个被摄对象检测器,并且在不能利用所述识别部分识别作为跟踪目标的被摄对象的情况下,启动除在工作的被摄对象检测器以外的被摄对象检测器的工作,从而检测其它种类的被摄对象。
11.按照权利要求8所述的图像处理设备,
其中当在图像中拍摄有多个种类的被摄对象时,所述接受框设定部分把适于当前设定的成像模式的被摄对象的接受框设定成大于不适于所述成像模式的被摄对象的接受框。
12.一种图像处理方法,包括:
通过操作检测在图像中拍摄的被摄对象的被摄对象检测器,设定围绕从图像中检测出的被摄对象的预定范围的被摄对象框;
按照为利用适于特定被摄对象的成像条件进行成像而设定的成像模式,设定范围比所述被摄对象框大的接受框;
检测图像上的由用户指定的指定位置;以及
根据所述接受框和所述指定位置,识别作为跟踪目标的被摄对象。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010151951A JP2012015889A (ja) | 2010-07-02 | 2010-07-02 | 画像処理装置および画像処理方法 |
JP2010-151951 | 2010-07-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102316263A true CN102316263A (zh) | 2012-01-11 |
CN102316263B CN102316263B (zh) | 2016-08-24 |
Family
ID=45002172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110171591.5A Expired - Fee Related CN102316263B (zh) | 2010-07-02 | 2011-06-24 | 图像处理设备和图像处理方法 |
Country Status (4)
Country | Link |
---|---|
US (3) | US8643740B2 (zh) |
EP (1) | EP2402884A3 (zh) |
JP (1) | JP2012015889A (zh) |
CN (1) | CN102316263B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104169795A (zh) * | 2012-03-16 | 2014-11-26 | 富士胶片株式会社 | 图像显示装置、将该图像显示装置作为取景器装置搭载的摄影装置以及图像显示方法 |
CN104704805A (zh) * | 2012-10-03 | 2015-06-10 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN105243676A (zh) * | 2013-03-13 | 2016-01-13 | 三星电子株式会社 | 提供复制图像的方法及其所用的超声设备 |
CN109981982A (zh) * | 2019-03-25 | 2019-07-05 | 联想(北京)有限公司 | 控制方法、装置以及系统 |
CN110225259A (zh) * | 2013-02-28 | 2019-09-10 | 株式会社尼康 | 电子设备、显示方法及图像处理方法 |
US11096668B2 (en) | 2013-03-13 | 2021-08-24 | Samsung Electronics Co., Ltd. | Method and ultrasound apparatus for displaying an object |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5485712B2 (ja) * | 2010-01-07 | 2014-05-07 | 株式会社ザクティ | 電子カメラ |
JP5136669B2 (ja) * | 2011-03-18 | 2013-02-06 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US10412235B2 (en) * | 2011-09-30 | 2019-09-10 | Hewlett-Packard Development Company, L.P. | Identification bit memory cells in data storage chip |
US20150092104A1 (en) * | 2012-04-26 | 2015-04-02 | Panasonic Intellectual Property Management Co., Ltd. | Strobe device and photography device provided with same |
CN103813075A (zh) * | 2012-11-07 | 2014-05-21 | 联想(北京)有限公司 | 一种提醒方法和电子设备 |
US10769362B2 (en) | 2013-08-02 | 2020-09-08 | Symbol Technologies, Llc | Method and apparatus for capturing and extracting content from documents on a mobile device |
US10140257B2 (en) | 2013-08-02 | 2018-11-27 | Symbol Technologies, Llc | Method and apparatus for capturing and processing content from context sensitive documents on a mobile device |
US10440252B2 (en) | 2013-09-24 | 2019-10-08 | Sony Corporation | Apparatus and imaging method for setting a target of an image |
JP6719899B2 (ja) * | 2015-12-16 | 2020-07-08 | キヤノン株式会社 | 撮像装置、その制御方法、および制御プログラム |
JP6702746B2 (ja) * | 2016-02-10 | 2020-06-03 | キヤノン株式会社 | 撮像装置、その制御方法、プログラム及び記憶媒体 |
WO2017169293A1 (ja) * | 2016-03-28 | 2017-10-05 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置 |
JP6942464B2 (ja) * | 2016-12-09 | 2021-09-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7113364B2 (ja) * | 2018-10-18 | 2022-08-05 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP2020136899A (ja) * | 2019-02-19 | 2020-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、電子機器、および撮像方法 |
TWI706335B (zh) * | 2019-10-17 | 2020-10-01 | 國立交通大學 | 物件特徵定位裝置及雷射與攝像整合系統 |
JP2022131706A (ja) | 2021-02-26 | 2022-09-07 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
CN112926479A (zh) * | 2021-03-08 | 2021-06-08 | 新疆爱华盈通信息技术有限公司 | 猫脸识别方法、系统、电子装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070266312A1 (en) * | 2006-05-12 | 2007-11-15 | Fujifilm Corporation | Method for displaying face detection frame, method for displaying character information, and image-taking device |
CN101237529A (zh) * | 2007-01-31 | 2008-08-06 | 富士胶片株式会社 | 成像设备与成像方法 |
CN101335837A (zh) * | 2007-06-28 | 2008-12-31 | 索尼株式会社 | 图像拍摄设备、摄影控制方法以及程序 |
US20100033579A1 (en) * | 2008-05-26 | 2010-02-11 | Sanyo Electric Co., Ltd. | Image Shooting Device And Image Playback Device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006101186A (ja) | 2004-09-29 | 2006-04-13 | Nikon Corp | カメラ |
JP5039786B2 (ja) * | 2007-07-23 | 2012-10-03 | パナソニック株式会社 | 撮像装置 |
JP2010151951A (ja) | 2008-12-24 | 2010-07-08 | Mitsubishi Electric Engineering Co Ltd | 特定方向画像表示システム |
-
2010
- 2010-07-02 JP JP2010151951A patent/JP2012015889A/ja not_active Withdrawn
-
2011
- 2011-05-17 US US13/109,281 patent/US8643740B2/en not_active Expired - Fee Related
- 2011-05-24 EP EP11167246.5A patent/EP2402884A3/en not_active Withdrawn
- 2011-06-24 CN CN201110171591.5A patent/CN102316263B/zh not_active Expired - Fee Related
-
2013
- 2013-10-02 US US14/043,964 patent/US8947553B2/en active Active
-
2014
- 2014-12-01 US US14/556,685 patent/US9311712B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070266312A1 (en) * | 2006-05-12 | 2007-11-15 | Fujifilm Corporation | Method for displaying face detection frame, method for displaying character information, and image-taking device |
CN101237529A (zh) * | 2007-01-31 | 2008-08-06 | 富士胶片株式会社 | 成像设备与成像方法 |
CN101335837A (zh) * | 2007-06-28 | 2008-12-31 | 索尼株式会社 | 图像拍摄设备、摄影控制方法以及程序 |
US20100033579A1 (en) * | 2008-05-26 | 2010-02-11 | Sanyo Electric Co., Ltd. | Image Shooting Device And Image Playback Device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104169795A (zh) * | 2012-03-16 | 2014-11-26 | 富士胶片株式会社 | 图像显示装置、将该图像显示装置作为取景器装置搭载的摄影装置以及图像显示方法 |
CN104169795B (zh) * | 2012-03-16 | 2016-05-18 | 富士胶片株式会社 | 图像显示装置、将该图像显示装置作为取景器装置搭载的摄影装置以及图像显示方法 |
CN104704805A (zh) * | 2012-10-03 | 2015-06-10 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN110225259A (zh) * | 2013-02-28 | 2019-09-10 | 株式会社尼康 | 电子设备、显示方法及图像处理方法 |
CN105243676A (zh) * | 2013-03-13 | 2016-01-13 | 三星电子株式会社 | 提供复制图像的方法及其所用的超声设备 |
US10631825B2 (en) | 2013-03-13 | 2020-04-28 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
US10849597B2 (en) | 2013-03-13 | 2020-12-01 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
US11096668B2 (en) | 2013-03-13 | 2021-08-24 | Samsung Electronics Co., Ltd. | Method and ultrasound apparatus for displaying an object |
CN109981982A (zh) * | 2019-03-25 | 2019-07-05 | 联想(北京)有限公司 | 控制方法、装置以及系统 |
CN109981982B (zh) * | 2019-03-25 | 2021-02-19 | 联想(北京)有限公司 | 控制方法、装置以及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2012015889A (ja) | 2012-01-19 |
EP2402884A3 (en) | 2017-03-29 |
CN102316263B (zh) | 2016-08-24 |
US20120002067A1 (en) | 2012-01-05 |
US20150085139A1 (en) | 2015-03-26 |
US20140029799A1 (en) | 2014-01-30 |
US8947553B2 (en) | 2015-02-03 |
EP2402884A2 (en) | 2012-01-04 |
US8643740B2 (en) | 2014-02-04 |
US9311712B2 (en) | 2016-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102316263A (zh) | 图像处理设备和图像处理方法 | |
CN101945217B (zh) | 拍摄设备和方法 | |
CN102547124B (zh) | 拍照处理方法、装置和移动设备 | |
CN100545733C (zh) | 成像设备、成像设备的控制方法以及计算机程序 | |
JP5553141B2 (ja) | 画像処理システム、画像処理装置、画像処理方法、およびプログラム | |
US8780229B2 (en) | Image photographing apparatus and method of controlling the same | |
US8441567B2 (en) | Digital photographing apparatus and method of controlling the same | |
CN104735355B (zh) | 一种智能终端的摄像方法及装置 | |
US20070058140A1 (en) | Projection image display apparatus and multi-projection system | |
US20120092529A1 (en) | Method for processing an image and an image photographing apparatus applying the same | |
CN110012209A (zh) | 全景图像生成方法、装置、存储介质及电子设备 | |
CN1753474A (zh) | 电子设备的控制装置及方法 | |
CN103975575B (zh) | 图像处理设备、图像处理方法和程序 | |
CN104919791A (zh) | 图像处理设备、图像处理方法以及程序 | |
US9262062B2 (en) | Method of providing thumbnail image and image photographing apparatus thereof | |
CN113645494B (zh) | 一种屏幕融合方法、显示设备、终端设备及服务器 | |
JP5956836B2 (ja) | 撮像装置および表示制御方法、プログラム | |
JP2022027841A (ja) | 電子機器、プログラムおよび記憶媒体 | |
CN103248807A (zh) | 图像处理设备,图像处理方法和程序 | |
JP5623247B2 (ja) | 撮像装置及びその制御方法 | |
JP2013098658A (ja) | コンテンツ管理装置、記録装置、操作装置、コンテンツ管理システムおよびそれらの制御方法 | |
JPH07322126A (ja) | 動きベクトル検出回路およびそれを用いた被写体追尾カメラ装置 | |
JPH09186923A (ja) | 撮像方法とその装置 | |
JP2012090197A (ja) | 画像配信システムおよび画像配信方法と画像配信プログラム | |
JP5832280B2 (ja) | 表示制御装置及びその制御方法、プログラム、並びに記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160824 Termination date: 20210624 |
|
CF01 | Termination of patent right due to non-payment of annual fee |