JP6270578B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6270578B2
JP6270578B2 JP2014063690A JP2014063690A JP6270578B2 JP 6270578 B2 JP6270578 B2 JP 6270578B2 JP 2014063690 A JP2014063690 A JP 2014063690A JP 2014063690 A JP2014063690 A JP 2014063690A JP 6270578 B2 JP6270578 B2 JP 6270578B2
Authority
JP
Japan
Prior art keywords
imaging
attributes
attribute
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014063690A
Other languages
Japanese (ja)
Other versions
JP2015186210A (en
Inventor
良介 辻
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014063690A priority Critical patent/JP6270578B2/en
Publication of JP2015186210A publication Critical patent/JP2015186210A/en
Application granted granted Critical
Publication of JP6270578B2 publication Critical patent/JP6270578B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、物体認識機能を備える撮像装置に関する。   The present invention relates to an imaging apparatus having an object recognition function.

画像から特定の被写体パターンを自動的に検出する画像処理技術は、通信会議やマン・マシン・インタフェース、セキュリティ、人間の顔を追跡するモニタシステム、画像圧縮等の多くの分野で使用されている。例えば、画像内の顔の位置を検出し、顔に焦点を合わせ、顔に最適な露出で撮影する撮像装置が提案されている(特許文献1参照)。また、顔に限らず、画像内の多種の物体を検出する技術として、局所領域の位置関係を確率モデルで表現し、人間の顔や自動車等の認識を学習によって行う技術が提案されている(非特許文献1参照)。   An image processing technique for automatically detecting a specific subject pattern from an image is used in many fields such as a teleconference, a man-machine interface, security, a monitor system for tracking a human face, and image compression. For example, there has been proposed an imaging apparatus that detects the position of a face in an image, focuses on the face, and captures an image with an optimal exposure to the face (see Patent Document 1). Further, as a technique for detecting various objects in an image, not limited to a face, a technique has been proposed in which a positional relationship of local regions is expressed by a probability model and recognition of a human face, a car, or the like is performed by learning ( Non-patent document 1).

このような技術によれば、画像内から様々な物体の属性(物体が何であるかを示す情報)とその領域を認識することができるため、認識された属性とその領域とに基づいて、適切な撮影制御や画像処理を行うことが可能になる。また、認識された領域毎に、その属性に応じたエッジ強調や彩度強調、階調補正等の撮影パラメータを設定することにより、各領域の撮影対象に対して適切な処理を行うことができ、これにより、高画質な画像を取得することが可能になる。   According to such a technique, it is possible to recognize various object attributes (information indicating what the object is) and its region from within the image, and accordingly, based on the recognized attribute and the region, Image capturing and image processing can be performed. In addition, by setting shooting parameters such as edge enhancement, saturation enhancement, and gradation correction according to the attributes of each recognized area, appropriate processing can be performed on the shooting target in each area. This makes it possible to acquire a high-quality image.

特開2005−318554号公報JP 2005-318554 A

柳井啓司、「一般物体認識の現状と今後」、情報処理学会論文誌:コンピュータビジョンとイメージメディア、Vol48, No.SIG16(CVIM19)、2007年11月Keiji Yanai, "Current Status and Future of General Object Recognition", Transactions of Information Processing Society of Japan: Computer Vision and Image Media, Vol48, No.SIG16 (CVIM19), November 2007

撮影画像内から複数の物体が認識された場合に、どの物体を主被写体として撮影制御や画像処理を行うかを決定する方法として、ユーザがタッチパネルを介して画像内の位置を指定する方法がある。しかし、指定された物体が複数の属性を持つという認識結果が得られているときがあり、この場合には、位置指定のみでは、指定位置を含むどの領域の属性を用いて撮影制御や画像処理を行えばよいかを判断することが困難な場合がある。例えば、木と、木を含む森と、森を含む山とが写っている画像において木の位置が指定された場合に、木、森、山という属性のうちのどの属性を用いればよいかの判断を撮像装置側で正確に行わせることは容易でない。   When a plurality of objects are recognized from a captured image, there is a method in which a user designates a position in an image via a touch panel as a method for determining which object is used as a main subject to perform shooting control or image processing. . However, there are times when a recognition result has been obtained that the specified object has multiple attributes. In this case, if only the position is specified, the attribute of which area including the specified position is used for shooting control and image processing. It may be difficult to determine whether or not For example, when the position of a tree is specified in an image that includes a tree, a forest that includes a tree, and a mountain that includes a forest, which attribute should be used: tree, forest, or mountain It is not easy to make the determination accurately on the imaging device side.

また、撮影画像内の領域毎に属性に応じた撮影パラメータを設定したいときに、複数の属性が重複する領域がある場合、一意に撮影パラメータを設定することは容易でない。例えば、前例の木と、木を含む森と、森を含む山とが写っている画像では、木の領域において、木と森と山の属性が重複するため、木、森、山のうちのどの属性に応じて撮影パラメータを設定すればよいかの判断を撮像装置側で正確に行わせることは容易でない。   In addition, when it is desired to set shooting parameters corresponding to attributes for each area in the captured image, if there are areas where a plurality of attributes overlap, it is not easy to set the shooting parameters uniquely. For example, in the image that shows the previous tree, the forest that contains the tree, and the mountain that contains the forest, the attributes of the tree, forest, and mountain overlap in the area of the tree. It is not easy for the imaging apparatus to accurately determine which attribute should be used to set the shooting parameter.

本発明は、撮影画像内の所定の物体の領域が複数の属性を持つと認識された場合に、容易にユーザによる属性の指定を可能にする技術を提供することを目的とする。また、本発明は、撮影画像内に複数の属性が重複する領域があると認識された場合に、各属性に対して適切な撮影パラメータでの撮影を行うことができる技術を提供することを目的とする。   An object of the present invention is to provide a technique that allows a user to easily specify an attribute when a region of a predetermined object in a captured image is recognized as having a plurality of attributes. Another object of the present invention is to provide a technique capable of performing shooting with appropriate shooting parameters for each attribute when it is recognized that there are regions where a plurality of attributes overlap in the shot image. And

本発明に係る撮像装置は、撮像手段と、前記撮像手段により得られた画像を表示する表示手段と、前記撮像手段により得られた画像内の物体の属性とその領域とを認識する認識手段と、前記認識手段が前記画像内の所定の領域が複数の属性を持つと認識した場合に、前記複数の属性の各属性とその領域とを切り替えて前記表示手段に表示させる制御手段と、前記表示手段に表示された属性の中からユーザが指定した属性を主被写体の属性として指定する指定手段と、前記指定手段により主被写体として指定された属性に基づいて撮影パラメータを前記属性に対応する領域に設定する設定手段とを備えることを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup means, a display means for displaying an image obtained by the image pickup means, a recognition means for recognizing an attribute and an area of an object in the image obtained by the image pickup means. Control means for switching each attribute of the plurality of attributes and the area to be displayed on the display means when the recognition means recognizes that the predetermined area in the image has a plurality of attributes; and the display Designation means for designating an attribute designated by the user as an attribute of the main subject among the attributes displayed on the means, and an imaging parameter in an area corresponding to the attribute based on the attribute designated as the main subject by the designation means And setting means for setting.

本発明に係る別の撮像装置は、撮像手段と、前記撮像手段により得られた画像内の物体の属性とその領域とを認識する認識手段と、前記認識手段により認識された属性とその領域とに基づいて撮影パラメータを設定する設定手段と、前記認識手段により認識された物体の属性とその領域に基づいて撮影パラメータを設定する設定手段と、前記撮像手段による撮影を指示する指示手段と、前記認識手段が前記撮像手段により得られた画像内に複数の属性が重複する領域があると認識した場合において前記指示手段による撮影指示があったときに、前記複数の属性のそれぞれに応じた撮影パラメータをその属性に対応する領域に適用した複数枚の撮影を行う制御手段とを備えること特徴とする。   Another imaging apparatus according to the present invention includes an imaging unit, a recognition unit for recognizing an attribute of an object in an image obtained by the imaging unit and a region thereof, an attribute recognized by the recognition unit, and the region thereof. Setting means for setting shooting parameters based on the above, setting means for setting shooting parameters based on the attribute and area of the object recognized by the recognition means, instruction means for instructing shooting by the imaging means, and When the recognizing unit recognizes that there is a region where a plurality of attributes overlap in the image obtained by the image capturing unit, the shooting parameter corresponding to each of the plurality of attributes is given when there is a shooting instruction by the instruction unit. And a control means for taking a plurality of images by applying to the area corresponding to the attribute.

本発明によれば、撮影画像内の所定の物体の領域が複数の属性を持つとの認識結果が得られた場合に、ユーザは容易に主被写体とする物体の属性を指定することができる。また、本発明によれば、複数の属性が重複する領域があるとの認識結果が得られた場合に、各属性に応じて適切な撮影パラメータが設定され、これにより、品質の高い画像を撮影することができる。   According to the present invention, when a recognition result is obtained that a predetermined object region in a captured image has a plurality of attributes, the user can easily specify the attribute of the object as the main subject. In addition, according to the present invention, when a recognition result indicating that there is a region where a plurality of attributes overlap is obtained, appropriate shooting parameters are set according to each attribute, thereby capturing a high-quality image. can do.

本発明の第1実施形態に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 図1の撮像装置での物体認識部による物体認識結果の例を示す図である。It is a figure which shows the example of the object recognition result by the object recognition part in the imaging device of FIG. 図1の撮像装置での物体認識部による物体認識結果の別の例を示す図である。It is a figure which shows another example of the object recognition result by the object recognition part in the imaging device of FIG. 図1の撮像装置において複数の属性の中からユーザが所望する属性を選定する処理のフローチャートである。2 is a flowchart of processing for selecting an attribute desired by a user from a plurality of attributes in the imaging apparatus of FIG. 1. 図1の撮像装置において複数の属性を指定時間で切り替え表示する例を示す図である。It is a figure which shows the example which switches and displays a some attribute in designated time in the imaging device of FIG. 本発明の第2実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which concerns on 2nd Embodiment of this invention. 図6の撮像装置での物体認識部による物体認識結果の例を示す図である。It is a figure which shows the example of the object recognition result by the object recognition part in the imaging device of FIG. 図6の撮像装置での物体認識部による物体認識結果の別の例を示す図である。It is a figure which shows another example of the object recognition result by the object recognition part in the imaging device of FIG. 複数の異なる属性の重複する領域がある場合に、図6の撮像装置により撮影される複数枚の撮影画像について設定される撮影パラメータを模式的に示す図である。FIG. 7 is a diagram schematically illustrating imaging parameters set for a plurality of captured images captured by the imaging apparatus of FIG. 6 when there are overlapping regions having a plurality of different attributes. 図6の撮像装置での、撮影パラメータを変更して複数枚の画像を撮影する処理のフローチャートである。FIG. 7 is a flowchart of processing for capturing a plurality of images by changing imaging parameters in the imaging apparatus of FIG. 6. 図6の撮像装置での、撮影枚数を削減して画像を撮影するための撮影パラメータの設定処理のフローチャートである。7 is a flowchart of shooting parameter setting processing for shooting an image by reducing the number of shots in the imaging apparatus of FIG. 6.

以下、本発明の実施形態について、添付図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

<第1実施形態>
図1は、本発明の第1実施形態に係る撮像装置100Aの概略構成を示すブロック図である。撮像装置100Aは、例えば、被写体像を撮影するデジタルカメラである。但し、本発明に係る撮像装置は、デジタルカメラに限定されるものではなく、撮影機能を有する電子機器は本発明に係る撮像装置の範疇に含まれる。例えば、撮像装置100Aは、カメラ機能付き携帯通信端末(携帯電話、スマートフォン等)、カメラ機能付き携帯型コンピュータ(タブレット端末)、カメラ機能付き携帯ゲーム機等であってもよい。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus 100A according to the first embodiment of the present invention. The imaging device 100A is, for example, a digital camera that captures a subject image. However, the imaging apparatus according to the present invention is not limited to a digital camera, and an electronic apparatus having a photographing function is included in the category of the imaging apparatus according to the present invention. For example, the imaging device 100A may be a mobile communication terminal with a camera function (such as a mobile phone or a smartphone), a portable computer with a camera function (tablet terminal), a portable game machine with a camera function, or the like.

撮像装置100は、撮像光学系101、撮像素子102、アナログ信号処理部103、A/D変換部104、制御部105、画像処理部106、記憶部107、表示部108、物体認識部109、撮影パラメータ設定部110及び物体指定部111とを有する。   The imaging apparatus 100 includes an imaging optical system 101, an imaging element 102, an analog signal processing unit 103, an A / D conversion unit 104, a control unit 105, an image processing unit 106, a storage unit 107, a display unit 108, an object recognition unit 109, and photographing. A parameter setting unit 110 and an object specifying unit 111;

撮像光学系101は、被写体からの反射光を集光し、撮像素子102に被写体像として結像させる。撮像素子102は、具体的には、光電変換により光学像である被写体像を電気信号に変換するCCDイメージセンサやCMOSイメージセンサ等である。撮像素子102は、結像した被写体像の光の強さに応じた電気信号を画素単位で出力する。撮像素子102から出力される映像信号である電気信号は、撮影した被写体像を示すアナログ信号である。そのため、撮像素子102から出力された映像信号は、アナログ信号処理部103に入力され、アナログ信号処理部103は、受信した映像信号に対して相関二重サンプリング(CDS)等の信号処理を施す。こうしてアナログ信号処理部103から出力された映像信号は、A/D変換部104においてデジタル信号(デジタル画像データ)に変換されて、制御部105及び画像処理部106へと送られる。   The imaging optical system 101 condenses the reflected light from the subject and forms it as a subject image on the imaging element 102. Specifically, the image sensor 102 is a CCD image sensor, a CMOS image sensor, or the like that converts a subject image, which is an optical image, into an electric signal by photoelectric conversion. The image sensor 102 outputs an electrical signal corresponding to the light intensity of the formed subject image in units of pixels. An electrical signal that is a video signal output from the image sensor 102 is an analog signal indicating a photographed subject image. Therefore, the video signal output from the image sensor 102 is input to the analog signal processing unit 103, and the analog signal processing unit 103 performs signal processing such as correlated double sampling (CDS) on the received video signal. The video signal output from the analog signal processing unit 103 is converted into a digital signal (digital image data) by the A / D conversion unit 104 and sent to the control unit 105 and the image processing unit 106.

制御部105は、例えば、マイクロコンピュータである。制御部105は、所定のプログラムを実行するCPUと、CPUが実行するプログラム等を格納するROMと、CPUがプログラムを実行するワークエリアとして機能すると共にCPUが算出したデータを一時的に記憶するRAMとを有する。制御部105は、ROMに記憶されたプログラムコードをRAMの作業領域に展開し、実行することで、撮像装置100Aの各部を制御することにより、撮像装置100Aの全体的な動作を制御する。   The control unit 105 is, for example, a microcomputer. The control unit 105 includes a CPU that executes a predetermined program, a ROM that stores a program executed by the CPU, and a RAM that functions as a work area where the CPU executes the program and temporarily stores data calculated by the CPU. And have. The control unit 105 expands and executes the program code stored in the ROM in the work area of the RAM, thereby controlling each unit of the imaging device 100A, thereby controlling the overall operation of the imaging device 100A.

また、制御部105は、A/D変換部104から出力された映像信号に基づいて、撮像光学系101が備える不図示の焦点制御機構及び露出制御機構を制御することにより、撮影時の焦点設定や露出設定等の撮影条件を制御する。なお、焦点制御機構は、撮像光学系101が備えるフォーカスレンズやズームレンズを光軸方向で駆動させるアクチュエータ等であり、露出制御機構は、絞りやシャッタを駆動させるアクチュエータ等である。制御部105は、物体認識部109による認識結果に基づいて撮影パラメータ設定部110で設定された撮影パラメータに従い、認識された物体の領域のコントラスト値を用いた焦点制御や認識された物体の領域の輝度値を用いた露出制御を行う。したがって、撮像装置100Aでは、撮影画像内の物体の領域やその属性を考慮した撮影処理を行うことができる。更に、制御部105は、撮像素子102の読み出し制御(例えば、撮像素子102からの映像信号の出力タイミングや出力画素の調整等)も行う。   In addition, the control unit 105 controls a focus control mechanism and an exposure control mechanism (not shown) included in the imaging optical system 101 based on the video signal output from the A / D conversion unit 104, thereby setting the focus at the time of shooting. And control shooting conditions such as exposure settings. The focus control mechanism is an actuator that drives a focus lens or a zoom lens included in the imaging optical system 101 in the optical axis direction, and the exposure control mechanism is an actuator that drives an aperture or a shutter. The control unit 105 performs focus control using the contrast value of the recognized object region or the recognized object region according to the imaging parameter set by the imaging parameter setting unit 110 based on the recognition result by the object recognition unit 109. Exposure control using luminance values is performed. Therefore, the imaging apparatus 100A can perform imaging processing in consideration of the area of the object in the captured image and its attributes. Further, the control unit 105 also performs readout control of the image sensor 102 (for example, output timing of video signals from the image sensor 102, adjustment of output pixels, etc.).

画像処理部106は、A/D変換部104から取得した映像信号(デジタル画像データ)に対して、ガンマ補正やホワイトバランス処理等の画像処理を施す。また、画像処理部106は、撮影パラメータ設定部110から供給される画像内の主要な物体に関する情報(具体的には、物体の属性とその領域)を用いて画像処理を行う機能を有する。   The image processing unit 106 performs image processing such as gamma correction and white balance processing on the video signal (digital image data) acquired from the A / D conversion unit 104. In addition, the image processing unit 106 has a function of performing image processing using information (specifically, object attributes and areas) related to main objects in the image supplied from the imaging parameter setting unit 110.

記憶部107は、画像処理部106から出力された映像信号を、例えば、ハードディスクやメモリカード(半導体メモリ)等の記憶媒体に記憶する。記憶媒体は、撮像装置100Aに内蔵されたものであってもよいし、撮像装置100Aに着脱自在なものあってもよく、更に、更にネットワークを介して通信可能に接続されたものであってもよい。表示部108は、例えば、LCDや有機ELディスプレイであり、画像処理部106から出力された映像信号を画像として表示する。本実施形態では、表示部108はタッチパネル機能を有するものとする。撮像装置100Aは、撮像素子102で時系列的に逐次撮影した画像を表示部108に逐次表示させることで、表示部108を電子ビューファインダ(EVF)として機能させることができる。また、表示部108は、物体認識部109によって認識された物体の画像内での領域や属性を表示する機能を有する。   The storage unit 107 stores the video signal output from the image processing unit 106 in a storage medium such as a hard disk or a memory card (semiconductor memory). The storage medium may be built in the imaging apparatus 100A, may be detachable from the imaging apparatus 100A, and may be further connected to be communicable via a network. Good. The display unit 108 is, for example, an LCD or an organic EL display, and displays the video signal output from the image processing unit 106 as an image. In the present embodiment, the display unit 108 has a touch panel function. The image capturing apparatus 100 </ b> A can cause the display unit 108 to function as an electronic viewfinder (EVF) by sequentially displaying images sequentially captured in time series by the image sensor 102 on the display unit 108. In addition, the display unit 108 has a function of displaying a region and an attribute in the image of the object recognized by the object recognition unit 109.

物体認識部109は、画像処理部106から出力された映像信号に基づき、映像(画像)内の物体の属性とその領域とを検出し、検出した属性とその領域とに関する情報を表示部108と撮影パラメータ設定部110へ出力する。このような属性とその領域に関する情報は、画像内に複数の物体が存在する場合には、その個数分だけ出力される。   Based on the video signal output from the image processing unit 106, the object recognition unit 109 detects the attribute of the object in the video (image) and its region, and displays information about the detected attribute and the region on the display unit 108. Output to the shooting parameter setting unit 110. If there are a plurality of objects in the image, the attribute and the information related to the area are output by the number of the objects.

物体認識部109での物体認識の方法としては、公知の技術を用いることができる。例えば、入力画像から特徴ベクトル等の特徴量を検出し、検出した特徴量を人や自動車、山、建物等の検出対象物体の特徴量を保持した認識辞書と比較する。この比較の結果として、類似度や評価値と称される尤度を検出することで、検出対象物体を検出する。なお、このような特徴量と認識辞書と用いる方法では、尤度が所定の閾値以上の場合に検出対象物体が検出されたとのみなし検出の判定を行うことができる。   As a method of object recognition by the object recognition unit 109, a known technique can be used. For example, a feature quantity such as a feature vector is detected from the input image, and the detected feature quantity is compared with a recognition dictionary holding a feature quantity of a detection target object such as a person, a car, a mountain, or a building. As a result of this comparison, a detection target object is detected by detecting a likelihood called similarity or an evaluation value. Note that in the method using the feature amount and the recognition dictionary, it is possible to determine whether or not the detection target object is detected when the likelihood is equal to or greater than a predetermined threshold.

撮影パラメータ設定部110は、物体認識部109による認識結果に基づいて、撮影パラメータを設定する。撮影パラメータ設定部110が設定したパラメータは制御部105に供給され、焦点状況や露出状況等の撮影条件の制御に利用される。また、撮影パラメータ設定部110が設定したパラメータは画像処理部106へ供給され、認識された物体の領域毎にその属性に適した画像処理等が行われる。例えば、「空」という属性で認識された領域に対しては、白飛びさせずに濃い青で色再現を行い、「建物」という属性で認識された領域に対しては、エッジを強調する等の画像処理を行うことが可能になる。   The shooting parameter setting unit 110 sets shooting parameters based on the recognition result by the object recognition unit 109. The parameters set by the shooting parameter setting unit 110 are supplied to the control unit 105 and used to control shooting conditions such as the focus state and the exposure state. The parameters set by the shooting parameter setting unit 110 are supplied to the image processing unit 106, and image processing and the like suitable for the attribute are performed for each recognized object region. For example, for areas recognized with the attribute “sky”, color reproduction is performed in dark blue without whitening, and edges are emphasized for areas recognized with the attribute “building”, etc. Image processing can be performed.

物体指定部111は、ユーザの操作に供される入力インタフェースであり、本実施形態では、具体的には、表示部108に設けられるタッチパネルである。但し、物体指定部111は、タッチパネルに限定されるものではなく、例えば、表示部108に表示されるアイコンやメニュー等を選択、決定する各種ボタンであってもよい。   The object designating unit 111 is an input interface provided for a user operation. In the present embodiment, specifically, the object designating unit 111 is a touch panel provided on the display unit 108. However, the object specifying unit 111 is not limited to the touch panel, and may be various buttons for selecting and determining an icon, a menu, or the like displayed on the display unit 108, for example.

ユーザ(撮影者)は、表示部108に表示された画像内の主被写体としたい物体にタッチすることで主被写体を選択することができる。すると、物体指定部111は、ユーザが指定したタッチした画像内での位置(以下「指定位置」という)に基づき、指定位置の近傍に存在する認識結果を探索する。そして、物体指定部111は、物体認識部109によって認識された物体の中から主被写体となる物体を選定する。撮影パラメータ設定部110は、主被写体として選定された物体の属性とその領域に基づいて撮影パラメータを設定する。   The user (photographer) can select the main subject by touching an object to be the main subject in the image displayed on the display unit 108. Then, the object specifying unit 111 searches for a recognition result existing in the vicinity of the specified position based on the position in the touched image specified by the user (hereinafter referred to as “specified position”). Then, the object specifying unit 111 selects an object to be a main subject from the objects recognized by the object recognition unit 109. The shooting parameter setting unit 110 sets shooting parameters based on the attribute of the object selected as the main subject and its area.

図2は、撮像装置100Aでの物体認識部109による認識結果の例を示す図である。図2(a)は、物体認識部109への入力画像を示している。図2(b)〜(d)は、物体認識部109による物体認識結果1〜3を示しており、黒塗りされた部分が認識された物体の領域である。   FIG. 2 is a diagram illustrating an example of a recognition result by the object recognition unit 109 in the imaging apparatus 100A. FIG. 2A shows an input image to the object recognition unit 109. FIGS. 2B to 2D show the object recognition results 1 to 3 by the object recognition unit 109, and are the areas of the object in which the black portions are recognized.

図2(b)は、画像上部の物体に「空」という属性とその領域が認識されたことを示している。また、図2(c)は、画像中央部から画像下部にかけての物体に「川」という属性とその領域が認識されたことを示している。図2(d)は、画像右側の物体に「建物」という属性とその領域がそれぞれ認識されたことを示している。このように1つの物体に1つの属性が認識された場合、ユーザが表示部108のタッチパネル内の主被写体としたい物体にタッチすると、物体指定部111は指定された位置情報に基づいて、主被写体となる物体の属性とその領域を選定することができる。   FIG. 2B shows that the attribute “sky” and its area are recognized on the object at the top of the image. FIG. 2C shows that the attribute “river” and its area are recognized in the object from the center of the image to the bottom of the image. FIG. 2D shows that the attribute “building” and its area are recognized on the object on the right side of the image. In this way, when one attribute is recognized for one object, when the user touches the object to be the main subject in the touch panel of the display unit 108, the object designating unit 111 determines the main subject based on the designated position information. It is possible to select the attribute of the object and its area.

しかし、画像内のある領域が複数の属性を持つとの認識結果が得られた場合には、物体指定部111は、ユーザによる指定位置の位置情報のみでは、主被写体となる物体の属性とその領域を選定することが難しくなる。その例について、図3を参照して説明する。   However, when a recognition result indicating that a certain area in the image has a plurality of attributes is obtained, the object designating unit 111 determines only the attribute information of the object that is the main subject and the position information of the designated position by the user. It becomes difficult to select an area. An example thereof will be described with reference to FIG.

図3は、撮像装置100Aでの物体認識部109による認識結果の別の例を示す図である。図3(a)は、物体認識部109への入力画像を示しており、図2(a)と同じである、図3(b)〜(d)は、物体認識部109による物体認識結果4〜6例を示しており、黒塗りされた部分が認識された物体の領域である。   FIG. 3 is a diagram illustrating another example of the recognition result by the object recognition unit 109 in the imaging apparatus 100A. 3A shows an input image to the object recognition unit 109. FIGS. 3B to 3D are the same as those in FIG. 2A. FIG. ˜6 examples are shown, and a blacked portion is a recognized object region.

図3(b)では、黒塗りされた物体に「木」という属性が認識され、図3(c)では、黒塗りされた物体に「森」という属性が認識され、図3(d)では黒塗りされた物体に「山」という属性が認識されている。そのため、特に図3(b)で黒塗りされた領域又はその近傍位置をユーザが主被写体たる物体として物体指定部111を介して指定した場合、物体認識部109は、ユーザが所望する物体の属性が「木」か「森」か「山」かを正確に判断することができない。   In FIG. 3B, the attribute “tree” is recognized in the black object, in FIG. 3C, the attribute “forest” is recognized in the black object, and in FIG. The attribute “mountain” is recognized on the black object. Therefore, in particular, when the user designates the blackened area in FIG. 3B or a position near the area through the object designating unit 111 as an object that is the main subject, the object recognizing unit 109 selects the object attribute desired by the user. Cannot accurately determine whether it is a “tree”, “forest” or “mountain”.

そこで、撮像装置100Aでは、ユーザによる指定位置に基づき、表示部108に表示する主被写体となり得る物体の属性を指定時間で、順次、切り替えるようにする。これにより、ユーザは、指定位置を含む領域に複数の属性がある場合でも、所望の属性が表示された時点で表示部108にタッチすることにより、容易に所望の物体を主被写体として指定することができる。以下、複数の属性から所望の属性を指定する処理について、図4のフローチャートを参照して説明する。   In view of this, in the imaging apparatus 100A, the attributes of the object that can be the main subject displayed on the display unit 108 are sequentially switched at the designated time based on the designated position by the user. Thus, even when there are a plurality of attributes in the area including the designated position, the user can easily designate the desired object as the main subject by touching the display unit 108 when the desired attribute is displayed. Can do. Hereinafter, processing for designating a desired attribute from a plurality of attributes will be described with reference to the flowchart of FIG.

図4は、撮像装置100Aでの、複数の属性の中からユーザが所望する属性を選定する処理のフローチャートである。図4に示す各処理は、制御部105のCPUがROMに格納されたプログラムをRAMに展開し、撮像装置100Aを構成する各部の動作を制御することによって実現される。   FIG. 4 is a flowchart of processing for selecting an attribute desired by the user from a plurality of attributes in the imaging apparatus 100A. Each process shown in FIG. 4 is realized by the CPU of the control unit 105 developing a program stored in the ROM on the RAM and controlling the operation of each unit constituting the imaging apparatus 100A.

ステップS401では、画像処理部106が、撮像素子102から出力される映像(画像)信号をA/D変換部104によりデジタル信号に変換して得られる撮像画像(デジタル画像データ)を取得する。続いて、ステップS402において、物体認識部109が、画像処理部106での処理後の画像データを入力画像として取得し、物体認識処理を行う。これにより、物体認識処理の結果として、入力画像内の物体の属性とその領域に関する情報が得られる。   In step S <b> 401, the image processing unit 106 acquires a captured image (digital image data) obtained by converting a video (image) signal output from the image sensor 102 into a digital signal by the A / D conversion unit 104. Subsequently, in step S402, the object recognition unit 109 acquires the image data processed by the image processing unit 106 as an input image, and performs object recognition processing. Thereby, as the result of the object recognition process, information on the attribute of the object in the input image and its area is obtained.

続くステップS403では、制御部105が、物体指定部111を介したユーザによる主被写体としての物体の指定があるか否かを判定する。制御部105は、物体指定がある場合(S403でYES)、処理をステップS404へ進め、物体指定がない場合(S403でNO)、処理をステップS409へ進める。   In subsequent step S <b> 403, the control unit 105 determines whether an object as a main subject is specified by the user via the object specifying unit 111. If there is an object designation (YES in S403), control unit 105 advances the process to step S404, and if there is no object designation (NO in S403), the process advances to step S409.

ステップS404では、制御部105が、ステップS403で指定された位置の位置情報に複数の属性があるか否かを判定する。制御部105は、複数の属性がある場合(S404でYES)、処理をステップS405へ進め、複数の属性がない場合(S404でNO)、処理をステップS406へ進める。ステップS405では、制御部105が、ステップS403で指定された位置の位置情報に基づいて、物体認識部109が認識した複数の属性を指定時間で表示部108に切り替え表示することにより、ユーザに主被写体となる物体の属性を選択させる。   In step S404, the control unit 105 determines whether there are a plurality of attributes in the position information of the position specified in step S403. If there are a plurality of attributes (YES in S404), control unit 105 advances the process to step S405. If there are no more attributes (NO in S404), control proceeds to step S406. In step S405, the control unit 105 switches and displays a plurality of attributes recognized by the object recognition unit 109 on the display unit 108 at a specified time based on the position information of the position specified in step S403, so that the user can Select the attribute of the object to be the subject.

図5(a)は、図3に示した認識結果として得られた複数の属性を指定時間で切り替え表示する例を示す図である。前述の通り、図3(a)の入力画像について、図3(b)に示す「木」の位置の位置情報からは、「木」、「森」及び「山」の属性が認識されている。そのため、主被写体となる物体の属性として「木」を選択する画面、「森」を選択する画面、「山」を選択する画面の各画面が、指定時間毎に順次切り替わる。所定の画面が表示されているときにユーザが表示部108の表示画面にタッチすると、その画面で示された属性が主被写体となる物体の属性として選択される。   FIG. 5A is a diagram showing an example of switching and displaying a plurality of attributes obtained as the recognition result shown in FIG. 3 at a specified time. As described above, with respect to the input image of FIG. 3A, the attributes of “tree”, “forest”, and “mountain” are recognized from the position information of the position of “tree” shown in FIG. . For this reason, the screen for selecting “tree”, the screen for selecting “forest”, and the screen for selecting “mountain” as the attributes of the object to be the main subject are sequentially switched every specified time. When the user touches the display screen of the display unit 108 while the predetermined screen is displayed, the attribute shown on the screen is selected as the attribute of the object that is the main subject.

ステップS406では、制御部105が、ステップS403での指定位置の位置情報に基づき、主被写体となる物体の属性を決定する。ステップS405,S406により主被写体とする物体の属性が決定されると、ステップS407において、撮影パラメータ設定部110は、主被写体として決定された物体の属性とその領域に基づいて、撮影パラメータを設定する。続くステップS408では、制御部105が撮影制御を行うと共に、画像処理部106が取得した映像信号に対する画像処理を行う。その後、ステップS409において、制御部105は、撮影モードが継続しているか否かを判定する。制御部105は、撮影モードが継続している場合(S409でYES)、処理をステップS401へ戻し、撮影モードが終了していれば(S409でNO)、本処理を終了させる。   In step S406, the control unit 105 determines the attribute of the object to be the main subject based on the position information of the designated position in step S403. When the attributes of the object as the main subject are determined in steps S405 and S406, in step S407, the shooting parameter setting unit 110 sets the shooting parameters based on the attributes of the object determined as the main subject and its area. . In subsequent step S408, the control unit 105 performs imaging control and performs image processing on the video signal acquired by the image processing unit 106. Thereafter, in step S409, the control unit 105 determines whether or not the shooting mode is continued. If the shooting mode is continued (YES in S409), the control unit 105 returns the process to step S401. If the shooting mode is ended (NO in S409), the control unit 105 ends this process.

ここで、ステップS404〜S405において、ユーザに主被写体となる物体を指定させて、主被写体となる物体の属性と領域を決定するのは、指定された物体の属性とその領域に基づいて撮影制御や画像処理の内容を変更するためである。よって、主被写体となる物体の選択結果が、撮影制御や画像処理に変化や影響を与えないのであれば、ユーザに主被写体とする物体の選択を行わせる必要はない。   Here, in steps S404 to S405, the user is allowed to specify the object to be the main subject, and the attribute and area of the object to be the main subject are determined. The shooting control is based on the attribute of the specified object and the area. This is for changing the contents of the image processing. Therefore, if the selection result of the object to be the main subject does not change or affect the shooting control or image processing, it is not necessary for the user to select the object to be the main subject.

つまり、主被写体となる物体の属性とその領域に基づいて設定される撮影パラメ−タが類似する(実質的に差異がない)複数の属性を同値の(1つの)属性として取り扱っても)問題はない。具体的には、図3の例において、「木」と「森,山」とでは、設定される撮影パラメータの差異は大きいが、「森」と「山」とでは、設定される撮影パラメータの差異が小さい。よって、この場合、「森」と「山」とを同じ属性として取り扱うグルーピングを行っても問題はない。   In other words, even if the attributes of the object that is the main subject and the shooting parameters set based on the area are similar (substantially no difference), a plurality of attributes are treated as equivalent (single) attributes. There is no. Specifically, in the example of FIG. 3, the difference between the shooting parameters set for “tree” and “forest, mountain” is large, but the shooting parameters set for “forest” and “mountain” are large. The difference is small. Therefore, in this case, there is no problem even if grouping that handles “forest” and “mountain” as the same attribute is performed.

図5(b)は、図3に示した認識結果として得られた複数の属性のうち、撮影パラメータの設定に影響を与えない属性をまとめて、指定時間で切り替え表示する例を示す図である。図5(b)には、「森」と「山」とを切り替え表示の対象とせず、「木」と「森,山」とで切り替え表示を行うことで、ユーザに主被写体となる物体の選択を行わせる例が示されている。これにより、ユーザに提示する物体の属性の候補を絞ることができるために、ユーザにとっては、主被写体となる物体の選択が容易となり、また、速やかに撮影動作に移ることができる。   FIG. 5B is a diagram illustrating an example in which attributes that do not affect the setting of the shooting parameter among the plurality of attributes obtained as the recognition result illustrated in FIG. 3 are collectively switched and displayed at a specified time. . In FIG. 5 (b), “forest” and “mountain” are not subject to switching display, but switching display between “tree” and “forest, mountain” is performed so that the object of the main subject to the user can be displayed. An example of making a selection is shown. Thereby, since the candidate of the attribute of the object shown to a user can be narrowed down, selection of the object used as a main subject becomes easy for a user, and it can move to photography operation promptly.

なお、本実施形態では、物体指定部111を介してユーザにより主被写体とする物体の属性と領域を選定させる構成を取っている。そのためには、主被写体とする物体の属性とその領域の候補を通知する必要があり、そこで、表示部108に撮影画像に重畳させて物体の属性とその領域を表示させている。このとき、複数の属性を有する物体の領域と複数の属性を有さない物体の領域とでは、異なる表示方法を取ることが好ましい。つまり、指定時間毎に属性を切り替えて表示する領域と、時間に関係なく属性を切り替えない領域とで、表示方法(例えば、領域に重畳する色や網掛けパターン、領域を示す枠の色や枠線のパターン)を異なるものとすることが好ましい。これによって、ユーザの操作性を向上させることができる。   In this embodiment, a configuration is adopted in which the user selects an attribute and a region of an object to be a main subject through the object specifying unit 111. For this purpose, it is necessary to notify the attribute of the object as the main subject and the candidate for the area, and the object attribute and the area are superimposed on the captured image on the display unit 108. At this time, it is preferable to use different display methods for an object area having a plurality of attributes and an object area not having a plurality of attributes. In other words, the display method (for example, the color to be superimposed on the area, the shading pattern, the color of the frame indicating the area, the frame of the frame, etc.) It is preferable that the line patterns are different. Thereby, user operability can be improved.

以上の説明の通り、第1実施形態によれば、所定の物体の領域が複数の属性を持つという認識結果が得られた場合でも、ユーザは、主被写体となる物体の属性を容易に指定することができる。   As described above, according to the first embodiment, even when a recognition result that a predetermined object region has a plurality of attributes is obtained, the user easily specifies the attribute of the object that is the main subject. be able to.

<第2実施形態>
図6は、本発明の第2実施形態に係る撮像装置100Bの概略構成を示すブロック図である。撮像装置100Bは、第1実施形態に係る撮像装置100Aと比較すると、撮影指示部112を備えている点と、物体指定部111を備えていない点とで相違する。撮像装置100Bが備える構成要素であって、撮像装置100Aが備える構成要素と同じものについて、同じ符号を付して、ここでの説明を省略する。
Second Embodiment
FIG. 6 is a block diagram showing a schematic configuration of an imaging apparatus 100B according to the second embodiment of the present invention. The imaging device 100B is different from the imaging device 100A according to the first embodiment in that the imaging instruction unit 112 is provided and the object specifying unit 111 is not provided. Components that are included in the imaging apparatus 100B and that are the same as those included in the imaging apparatus 100A are denoted by the same reference numerals, and description thereof is omitted here.

撮影指示部112は、具体的には、シャッタボタンと、第2実施形態の特徴である後述のブラケット撮影を行う際の撮影枚数等の撮影条件を設定するための操作ボタン等を含む。ユーザは、撮影指示部112を介して、撮影タイミングを制御部105へ指示する。なお、第1実施形態で説明した撮像装置100Aも、勿論、シャッタボタンを備えているが、撮像装置100Aの特徴部分ではないために、図1での図示を省略すると共に説明を省略している。   Specifically, the shooting instruction unit 112 includes a shutter button and operation buttons for setting shooting conditions such as the number of shots when performing bracket shooting, which will be described later, which is a feature of the second embodiment. The user instructs the control unit 105 of the shooting timing via the shooting instruction unit 112. Of course, the imaging apparatus 100A described in the first embodiment also includes a shutter button, but since it is not a characteristic part of the imaging apparatus 100A, the illustration in FIG. 1 is omitted and the description is omitted. .

撮像装置100Bでは、第1実施形態に係る撮像装置100Aと同様に、物体認識部109による認識結果に基づいて設定される撮影パラメータを用いて、制御部105による撮影制御と画像処理部106による画像処理が実施される。   In the imaging device 100B, similarly to the imaging device 100A according to the first embodiment, the imaging control by the control unit 105 and the image by the image processing unit 106 are performed using the imaging parameters set based on the recognition result by the object recognition unit 109. Processing is performed.

図7は、撮像装置100Bでの物体認識部109による認識結果の例を示す図である。図7(a)は、物体認識部109への入力画像を示しており、図7(b),(c)は、物体認識部109による物体認識結果7,8を示しており、太線で囲まれた部分が認識された物体の領域である。図7(b)は、画像上部の物体に「空」という属性とその領域が、図7(c)は、画像右側の物体に「建物」という属性とその領域がそれぞれ認識されたことを示している。   FIG. 7 is a diagram illustrating an example of a recognition result by the object recognition unit 109 in the imaging apparatus 100B. FIG. 7A shows an input image to the object recognition unit 109, and FIGS. 7B and 7C show object recognition results 7 and 8 by the object recognition unit 109, which are surrounded by bold lines. The recognized part is the recognized object region. FIG. 7B shows that the attribute “sky” and its area are recognized for the object at the top of the image, and FIG. 7C shows that the attribute “building” and its area are recognized for the object on the right side of the image. ing.

例えば、図7(b)のように「空」という属性で認識された領域に対しては、白飛びさせずに濃い青で色再現を行う。また、図7(c)のように「建物」という属性で認識された領域に対しては、エッジを強調する等の画像処理を行う。このように、各物体の領域毎にその属性に応じた撮影パラメータを設定することで、高画質な画像を撮影することができる。   For example, as shown in FIG. 7B, for a region recognized with the attribute of “sky”, color reproduction is performed in dark blue without whiteout. Further, as shown in FIG. 7C, image processing such as emphasizing an edge is performed on a region recognized with the attribute “building”. In this way, a high-quality image can be shot by setting shooting parameters corresponding to the attributes of each object region.

一方、物体認識部109による認識結果として、複数の属性が重複する領域が認識される場合がある。図8は、撮像装置100Bでの物体認識部109による認識結果の別の例を示す図である。図8(a)は、物体認識部109への入力画像を示しており、図7(a)と同じである。図8(b)〜(d)は、物体認識部109による物体認識結果8〜10を示しており、太線で囲まれた部分が認識された物体の領域である。図8(b)では、太線で囲まれた物体に「山」という属性とその領域が認識されている。図8(c)では、太線で囲まれた物体に「森」という属性とその領域が認識され、図8(d)では太線で囲まれた物体に「木」という属性とその領域が認識されている。よって、「木」という属性であると認識された領域は、「森」という属性であると認識された領域であると共に、「山」という属性であると認識された領域でもある。また、「森」という属性であると認識された領域は、「山」という属性であると認識された領域でもある。   On the other hand, as a recognition result by the object recognition unit 109, a region where a plurality of attributes overlap may be recognized. FIG. 8 is a diagram illustrating another example of the recognition result by the object recognition unit 109 in the imaging apparatus 100B. FIG. 8A shows an input image to the object recognition unit 109, which is the same as FIG. 7A. FIGS. 8B to 8D show the object recognition results 8 to 10 by the object recognition unit 109, and the area surrounded by the thick line is the area of the recognized object. In FIG. 8B, the attribute “mountain” and its area are recognized in the object surrounded by the bold line. In FIG. 8C, the attribute “forest” and its area are recognized for the object surrounded by the thick line, and in FIG. 8D, the attribute “tree” and its area are recognized for the object surrounded by the thick line. ing. Therefore, the area recognized as the attribute “tree” is the area recognized as the attribute “forest” and is also the area recognized as the attribute “mountain”. An area recognized as having the attribute “forest” is also an area recognized as having the attribute “mountain”.

物体認識部109による認識の結果、図7で示したように異なる属性が重複しない領域については、撮影パラメータ設定部110は、その領域の属性に応じた撮影パラメータを設定すればよい。しかし、図8に示したように異なる属性が重複した領域については、撮影パラメータ設定部110は、その領域に対してどの属性に応じた撮影パラメータを設定すればよいかがわからない。つまり、図8の例では、「木」、「森」、「山」のどの属性に応じて撮影パラメータを設定すればよいかがわからない。   As a result of recognition by the object recognizing unit 109, for a region where different attributes do not overlap as shown in FIG. 7, the shooting parameter setting unit 110 may set shooting parameters according to the attribute of the region. However, for an area where different attributes overlap as shown in FIG. 8, the imaging parameter setting unit 110 does not know which attribute should be set for the area. In other words, in the example of FIG. 8, it is not clear which attribute of “tree”, “forest”, and “mountain” should be set.

そこで、撮像装置100Bでは、物体認識部109により複数の属性が重複する領域があると認識された場合に、複数の属性のそれぞれに応じた撮影パラメータを適用した複数枚の撮影(所謂、ブラケット撮影に準ずる撮影)を自動で行う。図9は、複数の異なる属性が重複する領域がある場合に撮影される複数枚の撮影画像について設定される撮影パラメータを模式的に示す図である。   Therefore, in the imaging apparatus 100B, when the object recognition unit 109 recognizes that there are regions where a plurality of attributes overlap, a plurality of shootings (so-called bracket shooting) using shooting parameters corresponding to each of the plurality of attributes. Automatically). FIG. 9 is a diagram schematically illustrating shooting parameters set for a plurality of shot images shot when there are regions where a plurality of different attributes overlap.

図9(a)の撮影画像1は、「空」、「建物」及び「山」の各領域に、「空」、「建物」及び「山」の属性に適応する撮影パラメ−タが適用された画像を示している。同様に、図9(b)の撮影画像2は、「空」、「建物」及び「森」の各領域に、「空」、「建物」及び「森」の属性に適応する撮影パラメ−タが適用された画像を示している。図9(c)の撮影画像3は、「空」、「建物」及び「木」の各領域に、「空」、「建物」及び「木」の属性に適応する撮影パラメ−タが適用された画像を示している。   In the photographed image 1 of FIG. 9A, photographing parameters adapted to the attributes of “sky”, “building”, and “mountain” are applied to the “sky”, “building”, and “mountain” regions. The image is shown. Similarly, the photographed image 2 in FIG. 9B has photographing parameters that are adapted to the attributes of “sky”, “building”, and “forest” in the “sky”, “building”, and “forest” areas. Indicates an applied image. In the photographed image 3 of FIG. 9C, photographing parameters adapted to the attributes of “sky”, “building”, and “tree” are applied to the “sky”, “building”, and “tree” areas. The image is shown.

このとき、異なる属性の重複がない「空」の領域については、図9(a)〜(c)に同等の撮影パラメータが設定され、「建物」の領域についても、「空」の場合と同様にして撮影パラメータが設定される。一方、異なる属性に重複がある「山」、「森」及び「木」については、対応する各領域に「山」、「森」及び「木」の撮影パラメータがそれぞれ設定される。つまり、図9の例では、撮影パラメータを変えた3枚の撮影画像が撮影される。以下、このように複数の異なる属性が重複する領域がある場合に、撮影パラメータを変更して複数枚の画像を撮影する処理について、図10のフローチャートを参照して説明する。   At this time, the same shooting parameters are set in FIGS. 9A to 9C for the “empty” region where there is no overlapping of different attributes, and the “building” region is the same as in the case of “empty”. Thus, the shooting parameters are set. On the other hand, for “mountains”, “forests”, and “trees” having different attributes, the shooting parameters of “mountains”, “forests”, and “trees” are set in the corresponding areas. That is, in the example of FIG. 9, three captured images with different imaging parameters are captured. In the following, a process for shooting a plurality of images by changing shooting parameters when there are regions where a plurality of different attributes overlap will be described with reference to the flowchart of FIG.

図10は、撮像装置100Bでの、撮影パラメータを変更して複数枚の画像を撮影する処理のフローチャートである。図10に示す各処理は、制御部105のCPUがROMに格納されたプログラムをRAMに展開し、撮像装置100Aを構成する各部の動作を制御することによって実現される。   FIG. 10 is a flowchart of processing for capturing a plurality of images by changing the imaging parameters in the imaging apparatus 100B. Each process illustrated in FIG. 10 is realized by the CPU of the control unit 105 developing a program stored in the ROM on the RAM and controlling the operation of each unit configuring the imaging apparatus 100A.

ステップS1001,S1002の各処理は、図4を参照して説明したステップS401,402と同じであるため、ここでの説明を省略する。ステップS1003において、制御部105は、複数の属性が重複する領域があるか否かを判定する。制御部105は、複数の属性が重複する領域がある場合(S1003でYES)、処理をステップS1004へ進め、複数の属性が重複する領域がない場合(S1003でNO)、処理をステップS1009へ進める。   Since the processes in steps S1001 and S1002 are the same as steps S401 and 402 described with reference to FIG. 4, the description thereof is omitted here. In step S1003, the control unit 105 determines whether there is an area where a plurality of attributes overlap. If there is a region where a plurality of attributes overlap (YES in S1003), control unit 105 advances the process to step S1004. If there is no region where a plurality of attributes overlap (NO in S1003), control proceeds to step S1009. .

ステップS1004では、ある領域において重複する複数の属性の中からいずれか1つを撮影対象とする属性として選択する。続くステップS1005では、撮影パラメータ設定部110が、ステップS1004で選択された属性に基づく撮影パラメータと、属性に重複のない領域のその属性に基づく撮影パラメータとを、対応する各領域に設定する。ステップS1006では、制御部105が、ステップS1005で設定された撮影パラメータでの撮影処理を行う。ステップS1007において、記憶部107が、撮影された撮影画像を所定の記憶媒体に記憶する。   In step S1004, one of a plurality of overlapping attributes in a certain area is selected as an attribute to be imaged. In subsequent step S1005, shooting parameter setting unit 110 sets shooting parameters based on the attribute selected in step S1004 and shooting parameters based on the attribute of the region having no attribute overlap in each corresponding region. In step S1006, the control unit 105 performs shooting processing using the shooting parameters set in step S1005. In step S1007, the storage unit 107 stores the captured image in a predetermined storage medium.

続いて、ステップS1008において、制御部105は、複数の属性が重複する領域についての全ての属性での撮影が完了したか否かを判定する。制御部105は、撮影が完了していない場合(S1008でNO)、処理をステップS1004へ戻し、撮影が完了した場合(S1008でYES)、本撮影処理を終了させる。   Subsequently, in step S1008, the control unit 105 determines whether or not imaging with all attributes for a region where a plurality of attributes overlap is completed. If shooting has not been completed (NO in S1008), the control unit 105 returns the process to step S1004, and if shooting has been completed (YES in S1008), ends the shooting process.

ステップS1009では、撮影パラメータ設定部110が、認識された属性の組み合わせは1通りしかないため、各領域に対して一意に各属性に応じた撮影パラメータを設定する。ステップS1010,S1011の処理の内容は、ステップS1006,S1007と同じであるので、その説明を省略する。ステップS1011の処理の終了により、本撮影処理は終了となる。   In step S1009, since the shooting parameter setting unit 110 has only one recognized combination of attributes, the shooting parameter setting unit uniquely sets shooting parameters corresponding to the attributes. Since the contents of the processes in steps S1010 and S1011 are the same as those in steps S1006 and S1007, the description thereof is omitted. By the end of the process in step S1011, the main photographing process is ended.

以上の通り、第2実施形態によれば、撮影画像に複数の属性が重複する領域がある場合に、検出された各属性を撮影対象として、順次、撮影パラメータを最適化させて画像を撮影する。よって、ユーザは、主被写体を指定する等の判断と操作を行う必要がなく、簡単に高い品質の画像を取得することができる。   As described above, according to the second embodiment, when there are regions in which a plurality of attributes overlap in a captured image, images are captured by sequentially optimizing the shooting parameters for each detected attribute. . Therefore, the user does not need to perform determination and operation such as designating the main subject, and can easily obtain a high-quality image.

その一方で、図9及び図10を参照して説明した撮影方法では、撮影枚数が、重複した属性の数の分だけ多くなり、撮影画像の中には、撮影者が意図しない撮影条件で撮影された画像が増えてしまうおそれがある。また、複数の属性のうちに撮影パラメータが同等となる属性がある場合には、結果的に類似した複数の画像が撮影され、不要な画像を記憶してしまうことになる。   On the other hand, in the shooting method described with reference to FIGS. 9 and 10, the number of shots increases by the number of duplicate attributes, and some shot images are shot under shooting conditions not intended by the photographer. There is a risk of increased images. In addition, when there are attributes having the same shooting parameter among a plurality of attributes, a plurality of similar images are captured as a result, and unnecessary images are stored.

類似した撮影画像であれば、複数は必要とせず、1枚でよいと考えられる。そこで、複数の属性が重複する領域があり、それら複数の属性のうちに撮影パラメータの差異が小さいものがある場合には、それら複数の属性のうちの1つの属性の撮影パラメータで撮影を行い、撮影枚数を削減することとする。以下、複数の異なる属性が重複する領域がある場合に撮影枚数を削減して撮影を行う処理について、図11のフローチャートを参照して説明する。   If the images are similar, a plurality of images are not necessary and one image is considered to be sufficient. Therefore, when there are areas where a plurality of attributes overlap, and there are those with a small difference in shooting parameters among the plurality of attributes, shooting is performed with the shooting parameters of one attribute of the plurality of attributes, The number of shots will be reduced. Hereinafter, a process of performing shooting while reducing the number of shots when there are regions where a plurality of different attributes overlap will be described with reference to the flowchart of FIG.

図11は、撮像装置100Bでの、撮影枚数を削減して画像を撮影するための撮影パラメータの設定処理のフローチャートである。図11のフローチャートの処理は、図10に示した一連の撮影処理のうちステップS1004〜S1005の処理に置換して実行される処理となる。   FIG. 11 is a flowchart of shooting parameter setting processing for shooting an image by reducing the number of shots in the imaging apparatus 100B. The process of the flowchart of FIG. 11 is a process executed by replacing the process of steps S1004 to S1005 in the series of imaging processes shown in FIG.

ステップS1101において、撮影パラメータ設定部110は、複数の属性のそれぞれに基づく撮影パラメータを撮影候補パラメータとして生成する。続くステップS1102では、撮影パラメータ設定部110は、ステップS1101で生成された撮影候補パラメータ間の類似度を算出する。その後、ステップS1103において、撮影パラメータ設定部110は、類似度の高い撮影候補パラメータがあるか否かを判定する。なお、類似度が高いか否かの判定方法には特に制限はなく、例えば、単純に、撮影パラメータの差が所定値より小さいか否かで判定してもよい。撮影パラメータ設定部110は、類似度の高い撮影候補パラメータがある場合(S1103でYES)、処理をステップS1104へ進め、類似度の高い撮影候補パラメータがない場合(S1103でYES)、処理をステップS1105へ進める。   In step S1101, the shooting parameter setting unit 110 generates shooting parameters based on each of the plurality of attributes as shooting candidate parameters. In subsequent step S1102, the shooting parameter setting unit 110 calculates the similarity between the shooting candidate parameters generated in step S1101. Thereafter, in step S1103, the shooting parameter setting unit 110 determines whether there is a shooting candidate parameter with a high degree of similarity. Note that there is no particular limitation on a method for determining whether or not the degree of similarity is high. For example, the determination may be made simply based on whether or not the difference in imaging parameters is smaller than a predetermined value. If there is a shooting candidate parameter with a high degree of similarity (YES in S1103), the shooting parameter setting unit 110 advances the process to step S1104. If there is no shooting candidate parameter with a high degree of similarity (YES in S1103), the shooting parameter setting unit 110 advances the process to step S1105. Proceed to

ステップS1104では、撮影パラメータ設定部110は、類似度の高い撮影候補パラメータのうちの1つを撮影パラメータに設定する。このとき、類似度の高い他の撮影候補パラメータは破棄される。なお、ステップS1104では、類似した複数の撮影候補パラメータから1つの撮影パラメータを生成するようにしてもよい。ステップS1105では、撮影パラメータ設定部110は、ステップS1101で生成した撮影候補パラメータのうちの1つを撮影パラメータに設定する。なお、ステップS1101で生成した複数の撮影候補パラメータに類似度の高いものがない場合には、結果的には、ステップS1101で生成した複数の撮影候補パラメータのそれぞれの撮影パラメータを用いた撮影が行われることになる。ステップS1104,S1105により撮影パラメータが設定されると、本処理は終了となる。以上の処理により、類似した撮影パラメータによる不要な撮影を減らすことができる。   In step S1104, the shooting parameter setting unit 110 sets one of the shooting candidate parameters having a high similarity as the shooting parameter. At this time, other imaging candidate parameters with high similarity are discarded. In step S1104, one shooting parameter may be generated from a plurality of similar shooting candidate parameters. In step S1105, the shooting parameter setting unit 110 sets one of the shooting candidate parameters generated in step S1101 as a shooting parameter. If there is no high similarity among the plurality of shooting candidate parameters generated in step S1101, as a result, shooting is performed using the shooting parameters of the plurality of shooting candidate parameters generated in step S1101. It will be. When the shooting parameters are set in steps S1104 and S1105, this process ends. Through the above processing, unnecessary shooting with similar shooting parameters can be reduced.

図11のフローチャートの処理において、不要に撮影枚数を増加させないために、更に、1回の撮影指示に基づいて撮影する画像数の最大値(以下「最大撮影枚数」という)を設定することができるようにしてもよい。その場合、撮影指示部112において、撮影タイミングだけでなく最大撮影枚数を設定することができる構成とする。具体的には、複数の属性が重複している領域がある場合に、それら複数の属性の数が予め設定された閾値である最大撮影枚数以下であるか否かを、制御部105又は撮影パラメータ設定部110又は物体認識部109が判断する。   In the processing of the flowchart of FIG. 11, in order not to increase the number of shots unnecessarily, a maximum value of the number of images to be shot (hereinafter referred to as “maximum number of shots”) can be set based on one shooting instruction. You may do it. In this case, the shooting instruction unit 112 can set not only the shooting timing but also the maximum number of shots. Specifically, when there are areas where a plurality of attributes overlap, whether the number of the plurality of attributes is equal to or less than the maximum number of shots that is a preset threshold is determined by the control unit 105 or the shooting parameter. The setting unit 110 or the object recognition unit 109 determines.

複数の属性の数が最大撮影枚数以下であれば、各属性で撮影パラメータを順次設定し、撮影を行う。一方、複数の属性の数が最大撮影枚数を超えている場合には、実際に撮影を行う際の撮影パラメータの数を最大撮影枚数以下に絞り込む。この絞り込みの方法としては、複数の属性のそれぞれに基づいて決定される撮影パラメータの中から、分散値が大きくなるように、撮影パラメータを選択する方法が挙げられる。こうして、撮影枚数を少なく抑えることができる。   If the number of attributes is equal to or less than the maximum number of shots, shooting parameters are sequentially set for each attribute and shooting is performed. On the other hand, if the number of attributes exceeds the maximum number of shots, the number of shooting parameters for actual shooting is narrowed down to the maximum number of shots. As a narrowing-down method, there is a method of selecting a shooting parameter so that a variance value becomes larger from shooting parameters determined based on each of a plurality of attributes. In this way, the number of shots can be reduced.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
<Other embodiments>
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

例えば、上記本実施形態では、1台の撮像装置100A,100Bが、被写体像を取得して解析し、解析結果に基づいて物体(被写体)の属性決定や撮影パラメータ設定等を行って撮影を行う例を取り上げた。しかし、これに限られず、被写体像を取得するカメラ部と、被写体像を解析し、解析結果に基づいて物体の属性決定や撮影パラメータ設定等を行ってカメラ部を制御する制御部とが、通信可能な別装置であってもよい。例えば、カメラ部が撮影して生成した撮影情報(RAWデータ)をネットワーク等を介して制御部である外部の情報処理装置(例えば、パーソナルコンピュータ)に送信する。すると、情報処理装置は取得したRAWデータを解析してカメラ部での撮影条件を決定し、決定した撮影条件をネットワーク等を介してカメラ部へ送信し、カメラ部は受信した撮影条件で撮影を行う構成であってもよい。   For example, in the present embodiment, one imaging device 100A, 100B acquires and analyzes a subject image, and performs shooting by determining an attribute of an object (subject), setting shooting parameters, and the like based on the analysis result. An example was taken up. However, the present invention is not limited to this, and the camera unit that acquires the subject image and the control unit that analyzes the subject image and controls the camera unit by determining the attribute of the object and setting the shooting parameters based on the analysis result communicate with each other. Another possible device may be used. For example, shooting information (RAW data) generated by shooting by the camera unit is transmitted to an external information processing apparatus (for example, a personal computer) as a control unit via a network or the like. Then, the information processing apparatus analyzes the acquired RAW data to determine the shooting condition in the camera unit, transmits the determined shooting condition to the camera unit via a network or the like, and the camera unit performs shooting under the received shooting condition. The structure to perform may be sufficient.

本発明は以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

100A,100B 撮像装置
101 撮像光学系
102 撮像素子
103 アナログ信号処理部
104 A/D変換部
105 制御部
106 画像処理部
107 記憶部
108 表示部
109 物体認識部
110 撮影パラメータ設定部
111 物体指定部
112 撮影指示部
100A, 100B Imaging apparatus 101 Imaging optical system 102 Imaging element 103 Analog signal processing unit 104 A / D conversion unit 105 Control unit 106 Image processing unit 107 Storage unit 108 Display unit 109 Object recognition unit 110 Imaging parameter setting unit 111 Object specification unit 112 Shooting instruction section

Claims (13)

撮像手段と、
前記撮像手段により得られた画像を表示する表示手段と、
前記撮像手段により得られた画像内の物体の属性とその領域とを認識する認識手段と、
前記認識手段が前記画像内の所定の領域が複数の属性を持つと認識した場合に、前記複数の属性の各属性とその領域とを切り替えて前記表示手段に表示させる制御手段と、
前記表示手段に表示された属性の中からユーザが指定した属性を主被写体の属性として指定する指定手段と、
前記指定手段により主被写体として指定された属性に基づいて撮影パラメータを前記属性に対応する領域に設定する設定手段とを備えることを特徴とする撮像装置。
Imaging means;
Display means for displaying an image obtained by the imaging means;
Recognizing means for recognizing the attribute of the object and its area in the image obtained by the imaging means;
Control means for switching each attribute of the plurality of attributes and the area to be displayed on the display means when the recognition means recognizes that the predetermined area in the image has a plurality of attributes;
Designation means for designating an attribute designated by the user from among the attributes displayed on the display means as an attribute of the main subject;
An imaging apparatus comprising: setting means for setting a shooting parameter in an area corresponding to the attribute based on an attribute designated as a main subject by the designation means.
前記制御手段は、前記認識手段が認識した属性とその領域とを、前記撮像手段により得られた画像に重畳させて表示することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit displays the attribute recognized by the recognition unit and the region of the attribute superimposed on the image obtained by the imaging unit. 前記制御手段は、前記認識手段が前記画像内の所定の領域が複数の属性を持つと認識した場合に、前記複数の属性のうち、前記設定手段にて設定される撮影パラメータが類似する属性がある場合には、それらの属性を同値の属性として取り扱うグルーピングを行うことを特徴とする請求項1又は2に記載の撮像装置。   When the recognizing unit recognizes that the predetermined area in the image has a plurality of attributes, the control unit has attributes having similar imaging parameters set by the setting unit among the plurality of attributes. 3. The imaging apparatus according to claim 1, wherein in some cases, grouping is performed in which these attributes are treated as equivalent attributes. 4. 前記制御手段は、前記認識手段が前記画像内において複数の属性を有すると認識した物体の領域と、複数の属性を有さないと認識した物体の領域とを、前記表示手段において異なる表示方法で表示することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The control means displays the object area recognized as having the plurality of attributes in the image by the recognition means and the object area recognized as not having the plurality of attributes in the display means by different display methods. The image pickup apparatus according to claim 1, wherein the image pickup apparatus displays the image. 前記指定手段は、前記表示手段に設けられたタッチパネルに対する操作で指定された物体の属性を前記主被写体の属性として指定することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   5. The imaging according to claim 1, wherein the specifying unit specifies an attribute of an object specified by an operation on a touch panel provided in the display unit as an attribute of the main subject. apparatus. 撮像手段と、
前記撮像手段により得られた画像内の物体の属性とその領域とを認識する認識手段と、
前記認識手段により認識された属性とその領域とに基づいて撮影パラメータを設定する設定手段と、
前記撮像手段による撮影を指示する指示手段と、
前記認識手段が前記撮像手段により得られた画像内に複数の属性が重複する領域があると認識した場合において前記指示手段による撮影指示があったときに、前記複数の属性のそれぞれに応じた撮影パラメータをその属性に対応する領域に適用した複数枚の撮影を行う制御手段とを備えること特徴とする撮像装置。
Imaging means;
Recognizing means for recognizing the attribute of the object and its area in the image obtained by the imaging means;
Setting means for setting shooting parameters based on the attribute recognized by the recognition means and its area;
Instruction means for instructing photographing by the imaging means;
When the recognizing unit recognizes that there is a region in which a plurality of attributes overlap in the image obtained by the imaging unit, when there is a shooting instruction by the instruction unit, shooting according to each of the plurality of attributes An image pickup apparatus comprising: a control unit that takes a plurality of images by applying a parameter to a region corresponding to the attribute.
前記設定手段は、前記認識手段が前記画像内に認識した物体の属性とその領域ごとに撮影パラメータを設定することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the setting unit sets an imaging parameter for each attribute and area of the object recognized by the recognition unit in the image. 前記制御手段は、前記認識手段が前記画像内に複数の属性が重複する領域があると認識した場合において前記複数の属性のうちに撮影パラメータの差異が小さいものがある場合には、前記差異の小さい撮影パラメータのうちの1つの撮影パラメータで撮影を行うことを特徴とする請求項6又は7に記載の撮像装置。   When the recognition unit recognizes that there is a region where a plurality of attributes overlap in the image, and there is a small difference in shooting parameters among the plurality of attributes, the control unit The imaging apparatus according to claim 6 or 7, wherein the imaging is performed with one of the small imaging parameters. 前記制御手段は、前記認識手段が前記画像内に複数の属性が重複する領域があると認識した場合において前記複数の属性のうちに撮影パラメータの差異が小さいものがある場合には、前記差異の小さい撮影パラメータから生成される1つの撮影パラメータで撮影を行うことを特徴とする請求項6又は7に記載の撮像装置。   When the recognition unit recognizes that there is a region where a plurality of attributes overlap in the image, and there is a small difference in shooting parameters among the plurality of attributes, the control unit The imaging apparatus according to claim 6 or 7, wherein imaging is performed with one imaging parameter generated from a small imaging parameter. 前記認識手段が前記画像内に複数の属性が重複する領域があると認識した場合に、
前記指示手段は、前記撮像手段が撮影する最大撮影枚数を設定し、
前記設定手段は、前記複数の属性の数が前記最大撮影枚数よりも多い場合に、前記複数の属性のそれぞれに基づいて決定される撮影パラメータの中から分散値が大きくなるように撮影パラメータを選択して、前記撮像手段が撮影する画像数を前記最大撮影枚数以下に絞り込むことを特徴とする請求項6乃至9のいずれか1項に記載の撮像装置。
When the recognition means recognizes that there is a region where a plurality of attributes overlap in the image,
The instruction means sets a maximum number of images to be photographed by the imaging means,
The setting unit selects a shooting parameter so that a variance value becomes larger from shooting parameters determined based on each of the plurality of attributes when the number of the plurality of attributes is larger than the maximum number of shots. The image pickup apparatus according to claim 6, wherein the number of images taken by the image pickup unit is narrowed to the maximum number of shots or less.
撮像装置の制御方法であって、
撮像手段により得られた画像内の物体の属性とその領域とを認識する認識ステップと、
前記認識ステップで前記画像内の所定の領域が複数の属性を持つと認識された場合に、前記複数の属性の各属性とその領域とを切り替えて表示手段に表示する表示ステップと、
前記表示手段に表示された属性の中からユーザが指定した属性を主被写体の属性として指定する指定ステップと、
前記指定ステップで主被写体として指定された属性に基づく撮影パラメータを前記属性に対応する領域に設定する設定ステップと、
前記設定ステップで設定された撮影パラメータで前記撮像手段による撮影を行う撮影ステップとを有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
A recognition step for recognizing the attribute of the object and its region in the image obtained by the imaging means;
When the recognition step recognizes that a predetermined area in the image has a plurality of attributes, a display step of switching and displaying each attribute of the plurality of attributes and the area on the display means;
A designation step for designating an attribute designated by the user from among the attributes displayed on the display means as an attribute of the main subject;
A setting step for setting a shooting parameter based on the attribute specified as the main subject in the specifying step in an area corresponding to the attribute;
An imaging apparatus control method comprising: an imaging step of performing imaging by the imaging means with the imaging parameters set in the setting step.
撮像装置の制御方法であって、
撮像手段により得られた画像内の物体の属性とその領域とを認識する認識ステップと、
前記認識ステップで前記画像内に複数の属性が重複する領域があると認識された場合において撮影指示があったときに、前記複数の属性のそれぞれに応じた撮影パラメータをその属性に対応する領域に適用した複数枚の撮影を行う撮影ステップとを有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
A recognition step for recognizing the attribute of the object and its region in the image obtained by the imaging means;
When it is recognized in the recognition step that there is a region where a plurality of attributes overlap in the image, when a shooting instruction is given, a shooting parameter corresponding to each of the plurality of attributes is set to a region corresponding to the attribute. An imaging device control method comprising: an imaging step of performing imaging of a plurality of applied images.
請求項11又は12に記載の撮像装置の制御方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the control method for an imaging apparatus according to claim 11.
JP2014063690A 2014-03-26 2014-03-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Expired - Fee Related JP6270578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014063690A JP6270578B2 (en) 2014-03-26 2014-03-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063690A JP6270578B2 (en) 2014-03-26 2014-03-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015186210A JP2015186210A (en) 2015-10-22
JP6270578B2 true JP6270578B2 (en) 2018-01-31

Family

ID=54352270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063690A Expired - Fee Related JP6270578B2 (en) 2014-03-26 2014-03-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6270578B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190286912A1 (en) * 2018-03-13 2019-09-19 Mediatek Inc. Hierarchical Object Detection And Selection

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013050A (en) * 2018-07-20 2020-01-23 株式会社タムロン Photographing parameter adjustment device, lens unit including the same, photographing parameter adjustment system, and photographing parameter adjustment method
JP7152244B2 (en) * 2018-10-17 2022-10-12 オリンパス株式会社 LEARNING DEVICE, LEARNING METHOD AND PROGRAM
WO2024049178A1 (en) * 2022-09-02 2024-03-07 삼성전자주식회사 Electronic device and method for controlling display of at least one external object among one or more external objects

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218348B2 (en) * 2003-01-17 2009-02-04 オムロン株式会社 Imaging device
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2013172166A (en) * 2012-02-17 2013-09-02 Nikon Corp Image processing apparatus, imaging apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190286912A1 (en) * 2018-03-13 2019-09-19 Mediatek Inc. Hierarchical Object Detection And Selection
US10796157B2 (en) * 2018-03-13 2020-10-06 Mediatek Inc. Hierarchical object detection and selection

Also Published As

Publication number Publication date
JP2015186210A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
KR101594295B1 (en) Photographing apparatus and photographing method
JP6512810B2 (en) Image pickup apparatus, control method and program
US9756241B2 (en) Image capturing apparatus
US8786760B2 (en) Digital photographing apparatus and method using face recognition function
US9049363B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5293206B2 (en) Image search apparatus, image search method and program
US8441542B2 (en) Self-timer photographing apparatus and method involving checking the number of persons
JP2007295183A (en) Device, method, and program for reproducing image, and image sensing device
US9262062B2 (en) Method of providing thumbnail image and image photographing apparatus thereof
WO2017047012A1 (en) Imaging device and system including imaging device and server
JPWO2017037978A1 (en) DETECTING DEVICE, DETECTING METHOD, DETECTING PROGRAM, AND IMAGING DEVICE
JP6270578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
US10438372B2 (en) Arithmetic method, imaging apparatus, and storage medium
JP2011217103A (en) Compound eye photographing method and apparatus
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2021136555A (en) Image processing device and image processing method
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2011193066A (en) Image sensing device
KR101812656B1 (en) Digital photographing apparatus and control method thereof
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
CN103037160A (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2017130106A (en) Data processing apparatus, imaging apparatus and data processing method
JP6688086B2 (en) Imaging device, control method thereof, and program
JP6682792B2 (en) Imaging parameter setting change system, imaging device, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171226

R151 Written notification of patent or utility model registration

Ref document number: 6270578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees