JP7483352B2 - Photographing device, its control method, and program - Google Patents

Photographing device, its control method, and program Download PDF

Info

Publication number
JP7483352B2
JP7483352B2 JP2019208913A JP2019208913A JP7483352B2 JP 7483352 B2 JP7483352 B2 JP 7483352B2 JP 2019208913 A JP2019208913 A JP 2019208913A JP 2019208913 A JP2019208913 A JP 2019208913A JP 7483352 B2 JP7483352 B2 JP 7483352B2
Authority
JP
Japan
Prior art keywords
imaging device
objects
type
object detection
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019208913A
Other languages
Japanese (ja)
Other versions
JP2021082944A (en
Inventor
慶祐 緑川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019208913A priority Critical patent/JP7483352B2/en
Publication of JP2021082944A publication Critical patent/JP2021082944A/en
Application granted granted Critical
Publication of JP7483352B2 publication Critical patent/JP7483352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置及びその制御方法並びにプログラムに関し、特に主被写体領域を決定する撮像装置及びその制御方法並びにプログラムに関する。 The present invention relates to an imaging device and a control method and program thereof, and in particular to an imaging device that determines a main subject area and a control method and program thereof.

従来より、画像から被写体を検出しAUTO FOCUS(以下AF)などの撮像制御を行う撮像装置が存在する。また、AFなどの撮像制御を行う際の主被写体領域の決定を自動化し、ユーザの撮影をサポートする技術も知られている。 Conventionally, imaging devices have existed that detect a subject from an image and perform imaging control such as AUTO FOCUS (hereafter referred to as AF). In addition, technology is also known that automates the determination of the main subject area when performing imaging control such as AF, thereby supporting users in taking photographs.

例えば、複数ある主被写体候補の中から一つを主被写体として選択する手段として、画像中央から最も近い被写体を主被写体とする第一の手段と、所定の色を有する被写体を主被写体とする第二の手段とが設けられる撮像装置がある(例えば、特許文献1参照)。 For example, there is an imaging device that is provided with a first means for selecting one of multiple main subject candidates as the main subject, which selects the subject closest to the center of the image as the main subject, and a second means for selecting a subject having a specified color as the main subject (see, for example, Patent Document 1).

特開2002-77711号公報JP 2002-77711 A

しかしながら、特許文献1の第一の手段では、ユーザが撮影したい被写体が画像中央付近にない場合、ユーザの意図に反した被写体が主被写体として選択されてしまう。一方、特許文献1の第二の手段では事前に撮影したい被写体の色が特定される情報(被写体の種別或いはその色情報)を設定する必要がある。従って、ユーザは、画角内に複数の被写体が存在する場合、撮影したい被写体が画像中央付近となるよう撮像装置の向きを調整するか、その被写体の色が特定される情報を撮影前に追加設定しておく必要がある。このような撮影装置の向きの調整や情報の追加設定は、ユーザが画角内にある撮影したい被写体の撮影を直ちに行いたい場合の妨げとなる。 However, with the first method of Patent Document 1, if the subject that the user wants to photograph is not near the center of the image, a subject contrary to the user's intention will be selected as the main subject. On the other hand, with the second method of Patent Document 1, it is necessary to set information (subject type or color information) that identifies the color of the subject to be photographed in advance. Therefore, when there are multiple subjects within the angle of view, the user needs to adjust the orientation of the imaging device so that the subject to be photographed is near the center of the image, or to add information that identifies the color of the subject before shooting. Such adjustments to the orientation of the imaging device and additional settings of information can be an obstacle when the user wants to immediately photograph a subject that is within the angle of view.

本発明は上述した課題に鑑みてなされたものであり、ユーザの意図に沿って、画角内に存在する複数の被写体の中から主被写体を選択することができる撮像装置及びその制御方法並びにプログラムを提供することを目的とする。 The present invention has been made in consideration of the above-mentioned problems, and aims to provide an imaging device, a control method thereof, and a program that can select a main subject from among multiple subjects present within the angle of view in accordance with the user's intentions.

本発明の請求項1に係る撮像装置は、撮像装置であって、前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出手段と、前記撮像装置の動き種別を推定する動き種別推定手段と、前記物体検出手段により複数の物体が検出された場合、前記動き種別推定手段によって推定された前記撮像装置の動き種別、及び前記物体検出手段により検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、前記撮像装置の本体の位置姿勢変化を計測する計測手段とを備え、前記動き種別推定手段は、所定期間における前記計測手段の出力をもとに前記撮像装置の動き種別を推定し、前記物体検出手段が検出可能な物体の種別は、前記物体検出手段が検出可能な各物体について想定される動き方に応じた種別であり、前記動き種別推定手段は、前記所定期間における前記計測手段の出力をもとに、前記撮像装置の前記所定期間内の移動速度を算出し、前記優先度付与手段は、前記物体検出手段により検出された前記複数の物体の夫々に対して、前記算出された前記撮像装置の前記所定期間における移動速度と、前記複数の物体の夫々の種別毎に想定される動き方に応じて、前記撮像制御対象とする優先度を付与することを特徴とする。
本発明の請求項2に係る撮像装置は、撮像装置であって、前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出手段と、前記撮像装置の動き種別を推定する動き種別推定手段と、前記物体検出手段により複数の物体が検出された場合、前記動き種別推定手段によって推定された前記撮像装置の動き種別、及び前記物体検出手段により検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、前記撮像装置の本体の位置姿勢変化を計測する計測手段とを備え、前記動き種別推定手段は、所定期間における前記計測手段の出力をもとに前記撮像装置の動き種別を推定し、前記物体検出手段が検出可能な物体の種別は、前記物体について想定される加減速の度合いに応じた種別であり、前記動き種別推定手段は、前記所定期間における前記計測手段の出力をもとに、前記撮像装置の前記所定期間内の加減速の度合いを算出し、前記優先度付与手段は、前記物体検出手段により検出された前記複数の物体の夫々に対して、前記算出された前記撮像装置の前記所定期間における加減速の度合いと、前記複数の物体の夫々の種別毎に想定される加減速の度合いに応じて、前記撮像制御対象とする優先度を付与することを特徴とする。
本発明の請求項3に係る撮像装置は、撮像装置であって、前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出手段と、前記撮像装置の動き種別を推定する動き種別推定手段と、前記物体検出手段により複数の物体が検出された場合、前記動き種別推定手段によって推定された前記撮像装置の動き種別、及び前記物体検出手段により検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、前記撮像装置の本体の位置姿勢変化を計測する計測手段と、前記所定期間の前記計測手段の出力の周波数成分を解析する解析手段とを備え、前記動き種別推定手段は、所定期間における前記計測手段の出力と、前記解析手段により解析された周波数成分とに基づき、前記撮像装置の動き種別を推定することを特徴とする。
本発明の請求項6に係る撮像装置は、撮像装置であって、前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出手段と、前記複数の物体の種別を検出する種別検出手段と、前記撮像装置に対してユーザが指定した撮影設定を取得する取得手段と、前記物体検出手段により複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得手段により取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段とを備え、前記クラスは、前記物体検出手段が検出可能な物体の種別毎に定義される速度に基づき算出される前記撮像画像の上の移動速度であり、前記優先度付与手段は、前記物体検出手段により検出された前記複数の物体の夫々に対して算出された前記撮像画像の上の移動速度に応じて、前記撮像制御対象とする優先度を付与することを特徴とする。
本発明の請求項7に係る撮像装置は、撮像装置であって、前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出手段と、前記撮像装置に対してユーザが指定した撮影設定を取得する取得手段と、前記物体検出手段により複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得手段により取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、前記複数の物体の種別を検出する種別検出手段とを備え、前記クラスは、前記物体検出手段が検出可能な物体の種別毎に定義される速度に基づき算出される前記撮像画像の上の移動速度であり、前記優先度付与手段は、前記取得手段により前記撮影設定の1つがシャッター速度優先モードである場合、前記物体検出手段により検出された前記複数の物体の夫々に対して、前記取得手段により取得された前記撮影設定に含まれるシャッター速度と、前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して前記撮像制御対象とする優先度を付与することを特徴とする。
An imaging device according to a first aspect of the present invention is an imaging device comprising: object detection means for detecting an object included in an image captured by the imaging device and detecting a type of the detected object; motion type estimation means for estimating a motion type of the imaging device; priority assignment means for, when a plurality of objects are detected by the object detection means, assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the motion type of the imaging device estimated by the motion type estimation means and the respective types of the plurality of objects detected by the object detection means ; and measurement means for measuring a position and orientation change of a main body of the imaging device, wherein the motion type estimation means: The present invention is characterized in that a movement type of the imaging device is estimated based on an output of the measurement means during a predetermined period, the types of objects detectable by the object detection means are types corresponding to the expected movement of each object detectable by the object detection means, the movement type estimation means calculates a moving speed of the imaging device during the predetermined period based on the output of the measurement means during the predetermined period, and the priority assignment means assigns a priority to each of the plurality of objects detected by the object detection means as a target for imaging control, based on the calculated moving speed of the imaging device during the predetermined period and the expected movement of each of the plurality of objects .
An imaging device according to a second aspect of the present invention is an imaging device comprising: object detection means for detecting an object included in an image captured by the imaging device and detecting a type of the detected object; motion type estimation means for estimating a motion type of the imaging device; priority assignment means for, when a plurality of objects are detected by the object detection means, assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the motion type of the imaging device estimated by the motion type estimation means and the respective types of the plurality of objects detected by the object detection means; and measurement means for measuring a position and orientation change of a main body of the imaging device, wherein the motion type estimation means: The present invention is characterized in that a motion type of the imaging device is estimated based on an output of the measuring means during a predetermined period, the type of object that can be detected by the object detection means is a type corresponding to a degree of acceleration/deceleration expected for the object, the motion type estimation means calculates a degree of acceleration/deceleration of the imaging device during the predetermined period based on the output of the measuring means during the predetermined period, and the priority assignment means assigns a priority to each of the plurality of objects detected by the object detection means as a subject of imaging control based on the calculated degree of acceleration/deceleration of the imaging device during the predetermined period and the degree of acceleration/deceleration expected for each type of the plurality of objects.
An imaging device according to claim 3 of the present invention is an imaging device comprising: object detection means for detecting an object included in an image captured by the imaging device and detecting a type of the detected object; motion type estimation means for estimating a motion type of the imaging device; priority assignment means for, when a plurality of objects are detected by the object detection means, assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the motion type of the imaging device estimated by the motion type estimation means and the types of each of the plurality of objects detected by the object detection means; measurement means for measuring a change in position and orientation of a main body of the imaging device; and analysis means for analyzing frequency components of an output of the measurement means during the specified period, wherein the motion type estimation means estimates the motion type of the imaging device based on the output of the measurement means during the specified period and the frequency components analyzed by the analysis means.
An imaging device according to claim 6 of the present invention is an imaging device comprising: object detection means for detecting an object included in an image captured by the imaging device; type detection means for detecting the types of the plurality of objects; acquisition means for acquiring shooting settings specified by a user for the imaging device; and priority assignment means for, when a plurality of objects are detected by the object detection means, classifying each of the plurality of objects into one of a plurality of predefined classes, and assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the shooting settings acquired by the acquisition means and the class into which each of the plurality of objects is classified, wherein the class is a moving speed on the captured image calculated based on a speed defined for each type of object detectable by the object detection means, and the priority assignment means assigns a priority to each of the plurality of objects detected by the object detection means as a subject of imaging control in accordance with the moving speed on the captured image calculated for each of the plurality of objects.
An imaging device according to claim 7 of the present invention is an imaging device comprising: an object detection means for detecting an object included in an image captured by the imaging device; an acquisition means for acquiring shooting settings specified by a user for the imaging device; a priority assignment means for classifying each of the plurality of objects into one of a plurality of predefined classes when a plurality of objects are detected by the object detection means, and assigning a priority for making each of the plurality of objects a subject of imaging control to each of the plurality of objects according to the shooting settings acquired by the acquisition means and the class into which each of the plurality of objects is classified; and a type detection means for detecting a type of the plurality of objects, wherein the class is a moving speed on the captured image calculated based on a speed defined for each type of object detectable by the object detection means, and the priority assignment means, when one of the shooting settings is a shutter speed priority mode by the acquisition means, assigns a priority for making each of the plurality of objects a subject of imaging control to each of the plurality of objects detected by the object detection means according to the shutter speed included in the shooting settings acquired by the acquisition means and the class into which each of the plurality of objects is classified.

本発明の請求項11に係る撮像装置は、撮像装置であって、前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出手段と、前記撮像装置に対してユーザが指定した撮影設定を取得する取得手段と、前記物体検出手段により複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得手段により取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、前記複数の物体の種別及び前記撮像画像における前記物体の位置する領域を検出する種別領域検出手段とを備え、前記物体検出手段が検出可能な物体の種別毎に定義される速度は、前記物体検出手段が検出可能な物体の種別毎に定義される被写体サイズに対する相対速度であって、前記複数の物体の夫々について、前記種別領域検出手段により検出された種別の相対速度として定義される速度と、前記種別領域検出手段により検出された領域のサイズに基づいて、前記撮像画像の上の移動速度が算出されることを特徴とする。 An imaging device according to claim 11 of the present invention is an imaging device comprising: an object detection means for detecting an object included in an image captured by the imaging device; an acquisition means for acquiring shooting settings specified by a user for the imaging device; a priority assignment means for, when a plurality of objects are detected by the object detection means, classifying each of the plurality of objects into one of a plurality of predefined classes and assigning a priority to each of the plurality of objects as a subject of imaging control according to the shooting settings acquired by the acquisition means and the class into which each of the plurality of objects is classified; and a type area detection means for detecting the types of the plurality of objects and the area in which the object is located in the captured image, wherein the speed defined for each type of object detectable by the object detection means is a relative speed with respect to a subject size defined for each type of object detectable by the object detection means, and for each of the plurality of objects, a moving speed on the captured image is calculated based on a speed defined as the relative speed of the type detected by the type area detection means and the size of the area detected by the type area detection means.

本発明によれば、ユーザの意図に沿って、画角内に存在する複数の被写体の中から主被写体を選択することができる。 According to the present invention, a main subject can be selected from among multiple subjects present within the field of view in accordance with the user's intentions.

実施例1に係る撮像装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an imaging device according to a first embodiment. 実施例1に係る撮像制御処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of an imaging control process according to the first embodiment. 実施例1における撮像装置の動き種別の分類の例、検出可能な物体、及び撮像装置の動き種別毎に定義された各検出可能物体の撮像制御対象として付与される優先度の例である。10 illustrates an example of classification of motion types of the imaging device in the first embodiment, detectable objects, and examples of priorities given to each detectable object defined for each motion type of the imaging device as an imaging control target. 実施例1に係る撮像制御処理の適用例を示す図である。11A to 11C are diagrams illustrating an application example of an imaging control process according to the first embodiment. CNNの基本的な構成を示す図である。FIG. 1 is a diagram illustrating the basic configuration of a CNN. 特徴検出処理および特徴統合処理の詳細について示す図である。11A to 11C are diagrams showing details of feature detection processing and feature integration processing. 実施例2に係る撮像制御処理の手順を示すフローチャートである。10 is a flowchart showing a procedure of an imaging control process according to a second embodiment. 実施例2における、検出された物体に対し撮像素子上の座標系での速度を算出する一例の概略図である。13 is a schematic diagram of an example of calculating the velocity of a detected object in a coordinate system on an imaging element in the second embodiment. FIG. 実施例2における、検出された物体に対し、撮像画像上の速度を算出する一例の概略図である。13 is a schematic diagram of an example of calculating the velocity of a detected object on a captured image in the second embodiment. FIG. 実施例2における、絞り度合い及び各検出可能物体の種別に応じて決定される撮像制御対象としての優先度を示す例である。13 is an example showing a priority as an object to be subjected to imaging control, which is determined according to the degree of narrowing and the type of each detectable object in the second embodiment.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 The following describes in detail the embodiments of the present invention with reference to the attached drawings. Note that the following embodiments do not limit the scope of the present invention, and not all of the combinations of features described in the present embodiments are necessarily essential to the solution of the present invention.

(撮像装置の構成)
図1を参照して、本実施例における撮像装置の構成について説明する。
(Configuration of the imaging device)
The configuration of an image pickup apparatus according to this embodiment will be described with reference to FIG.

図1は、実施例1に係る撮像装置100の構成を示すブロック図である。 Figure 1 is a block diagram showing the configuration of an imaging device 100 according to the first embodiment.

尚、撮像装置100は、被写体を撮影して得られた動画や静止画のデータをテープや固体メモリ、光ディスクや磁気ディスクなどの各種メディアに記録可能なデジタルスチルカメラやビデオカメラなどであるが、これらに限定されるものではない。例えば、被写体を撮影して得られた動画や静止画のデータをクラウドストレージに転送することが可能なスマートフォンやタブレット等の撮像機能付きの携帯情報端末であってもよい。 The imaging device 100 may be a digital still camera or video camera capable of recording video and still image data obtained by photographing a subject on various media such as tape, solid-state memory, optical disk, and magnetic disk, but is not limited to these. For example, the imaging device 100 may be a mobile information terminal with an imaging function such as a smartphone or tablet capable of transferring video and still image data obtained by photographing a subject to cloud storage.

撮像装置100内の各部は、バス160を介して相互に通信可能に接続されている。また撮像装置100内の各部は、CPU151(中央演算処理装置)により制御される。 The various components within the imaging device 100 are connected to each other via a bus 160 so that they can communicate with each other. In addition, the various components within the imaging device 100 are controlled by a CPU 151 (central processing unit).

レンズユニット101は、固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、フォーカスレンズ131、ズームモータ112(ZM)、絞りモータ104(AM)およびフォーカスモータ132(FM)を有する。固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121およびフォーカスレンズ131の各レンズは撮影光学系を構成する。これらの各レンズは夫々複数枚のレンズにより構成されてもよい。また、レンズユニット101は着脱可能な交換レンズとして構成されてもよい。 The lens unit 101 has a fixed first group lens 102, a zoom lens 111, an aperture 103, a fixed third group lens 121, a focus lens 131, a zoom motor 112 (ZM), an aperture motor 104 (AM), and a focus motor 132 (FM). The fixed first group lens 102, the zoom lens 111, the aperture 103, the fixed third group lens 121, and the focus lens 131 constitute a photographing optical system. Each of these lenses may be composed of multiple lenses. The lens unit 101 may also be configured as a detachable interchangeable lens.

絞り制御部105は、CPU151の指令に従い、絞りモータ104を介して絞り103を駆動することにより、絞り103の開口径を調整して撮影時の光量調節を行う。 The aperture control unit 105 drives the aperture 103 via the aperture motor 104 in accordance with instructions from the CPU 151, thereby adjusting the aperture diameter of the aperture 103 and adjusting the amount of light during shooting.

ズーム制御部113は、ズームモータ112を介してズームレンズ111を駆動することにより、焦点距離(画角)を変更する。 The zoom control unit 113 changes the focal length (angle of view) by driving the zoom lens 111 via the zoom motor 112.

フォーカス制御部133は、レンズユニット101のピント方向のずれ量に基づいてフォーカスモータ132を駆動する駆動量を決定する。加えてフォーカス制御部133はフォーカスモータ132を介してフォーカスレンズ131を駆動することにより、焦点状態を制御する。フォーカス制御部133およびフォーカスモータ132によるフォーカスレンズ131の移動制御により、AF制御が実現される。尚、本実施例におけるレンズユニット101のピント方向のずれ量の算出方法は特に限定されないが、例えば、位相差AF方式やコントラストAF方式により算出される。 The focus control unit 133 determines the drive amount for driving the focus motor 132 based on the amount of deviation in the focus direction of the lens unit 101. In addition, the focus control unit 133 controls the focus state by driving the focus lens 131 via the focus motor 132. AF control is achieved by controlling the movement of the focus lens 131 by the focus control unit 133 and the focus motor 132. Note that the method for calculating the amount of deviation in the focus direction of the lens unit 101 in this embodiment is not particularly limited, but is calculated, for example, by a phase difference AF method or a contrast AF method.

レンズユニット101を介して撮像素子141上に結像する被写体像(撮像画像)は、撮像素子141により電気信号(画像信号)に変換され、撮像素子141から出力される。撮像素子141には、光電変換を行う光電変換素子が、横方向にM個、縦方向にN個、行列状に配置されている。撮像素子141から出力される画像信号は、撮像信号処理部142により撮像画像データとして整えられた後、撮像制御部143に出力される。 The subject image (captured image) formed on the image sensor 141 via the lens unit 101 is converted into an electrical signal (image signal) by the image sensor 141 and output from the image sensor 141. The image sensor 141 has photoelectric conversion elements that perform photoelectric conversion arranged in a matrix with M elements in the horizontal direction and N elements in the vertical direction. The image signal output from the image sensor 141 is prepared as captured image data by the image signal processing unit 142 and then output to the image capture control unit 143.

撮像制御部143は、撮像信号処理部142が出力した撮像画像データを一時的に蓄積するよう、RAM154(ランダム・アクセス・メモリ)を制御する。 The imaging control unit 143 controls the RAM 154 (random access memory) to temporarily store the captured image data output by the imaging signal processing unit 142.

RAM154は、撮像制御部143の制御により撮像画像データを一時的に蓄積すると、この撮像画像データを、画像圧縮解凍部153及び画像処理部152の双方に並行して送信する。また、後述する撮像制御処理(図2)においては、物体検出部162にも送信する。 When the RAM 154 temporarily stores the captured image data under the control of the imaging control unit 143, it transmits the captured image data in parallel to both the image compression/decompression unit 153 and the image processing unit 152. In addition, in the imaging control process (FIG. 2) described later, it also transmits the captured image data to the object detection unit 162.

また、RAM154は、リングバッファとして用いることもできる。この場合、所定期間内に撮像された複数の撮像画像データや、撮像画像データ毎に対応した物体検出部162の検出結果、位置姿勢変化取得部161から出力される撮像装置100の位置姿勢変化(角速度)等をRAM154においてバッファリングできる。 The RAM 154 can also be used as a ring buffer. In this case, the RAM 154 can buffer a plurality of captured image data captured within a predetermined period, the detection results of the object detection unit 162 corresponding to each captured image data, and the change in position and orientation (angular velocity) of the imaging device 100 output from the position and orientation change acquisition unit 161.

画像圧縮解凍部153は、RAM154から送信された撮像画像データを圧縮した後、画像記録媒体157に出力して記録させる。 The image compression/decompression unit 153 compresses the captured image data sent from the RAM 154, and then outputs it to the image recording medium 157 for recording.

画像処理部152は、RAM154から送信された撮像画像データを処理し、撮像画像データのサイズをモニタディスプレイ150に表示する上で最適なサイズに変更する。その後、画像処理部152は、サイズ変更後の撮像画像データを適宜モニタディスプレイ150に送る。また、画像処理部152は、RAM154から送信された撮像画像データを処理し、撮像画像データ同士の類似度算出等を行う。 The image processing unit 152 processes the captured image data sent from the RAM 154 and changes the size of the captured image data to an optimal size for display on the monitor display 150. The image processing unit 152 then sends the resized captured image data to the monitor display 150 as appropriate. The image processing unit 152 also processes the captured image data sent from the RAM 154 and performs operations such as calculating the similarity between the captured image data.

モニタディスプレイ150は、画像処理部152から送信された撮像画像データに基づきプレビュー画像表示やスルー画像表示を行う。またモニタディスプレイ150は、かかる表示を行う際、物体検出部162の物体検出結果を矩形などで重畳表示することもできる。 The monitor display 150 displays a preview image or a through image based on the captured image data sent from the image processing unit 152. When performing such display, the monitor display 150 can also superimpose the object detection results of the object detection unit 162 as a rectangle or the like.

操作スイッチ156は、モニタディスプレイ150と一体化されるタッチパネルや、レリーズボタン等の物理的なボタンなどを含む入力インターフェイスである。ユーザは、モニタディスプレイ150に表示される種々の機能アイコンをタッチパネルを用いて選択することなどにより、様々な指示を撮像装置100に対して行うことができる。 The operation switch 156 is an input interface that includes a touch panel integrated with the monitor display 150 and physical buttons such as a release button. The user can issue various instructions to the imaging device 100 by using the touch panel to select various function icons displayed on the monitor display 150.

CPU151は、操作スイッチ156を介したユーザ指示や、一時的にRAM154に蓄積された撮像画像データの大きさに基づき、撮像素子141の蓄積時間や撮像素子141から撮像信号処理部142へ出力を行う際のゲインの設定値を決定する。その後、CPU151は、決定した蓄積時間、ゲインの設定値を撮像制御部143に送信する。 The CPU 151 determines the accumulation time of the image sensor 141 and the gain setting value when outputting from the image sensor 141 to the image signal processing unit 142 based on a user instruction via the operation switch 156 and the size of the captured image data temporarily stored in the RAM 154. The CPU 151 then transmits the determined accumulation time and gain setting value to the image capture control unit 143.

撮像制御部143は、CPU151から送信された蓄積時間、ゲインの設定値に基づき、撮像素子141を制御する。 The imaging control unit 143 controls the imaging element 141 based on the accumulation time and gain setting values transmitted from the CPU 151.

物体検出部162では、RAM154から送信された撮像画像データに対して物体検出処理を行い、撮像画像に含まれる物体を検出すると共に、その種別及び撮像画像におけるその物体の位置する領域を検出する(種別検出手段・種別領域検出手段)。物体検出部162における物体検出処理は、CNN(CONVOLUTINAL NEURAL NETWORKS)による特徴抽出処理により実現する。物体検出部162の学習処理の詳細は後述する。CPU151は、後述する図2の撮像制御処理において、物体検出部162で検出された物体の夫々に対して優先度を付与する。 The object detection unit 162 performs object detection processing on the captured image data sent from the RAM 154 to detect objects contained in the captured image, as well as to detect the type of object and the area in the captured image in which the object is located (type detection means/type area detection means). The object detection processing in the object detection unit 162 is realized by feature extraction processing using CNN (CONVOLUTINAL NEURAL NETWORKS). The learning processing of the object detection unit 162 will be described in detail later. The CPU 151 assigns a priority to each of the objects detected by the object detection unit 162 in the imaging control processing of FIG. 2 described later.

フォーカス制御部133は、画角内の主被写体としたい物体が位置する領域(以下、主被写体領域という)に対するAF制御を実現する。 The focus control unit 133 realizes AF control for the area within the angle of view where the object to be the main subject is located (hereinafter referred to as the main subject area).

絞り制御部105は、主被写体領域の輝度値を用いた露出制御を行う。 The aperture control unit 105 performs exposure control using the brightness value of the main subject area.

画像処理部152は、主被写体領域の画像が最適となるようにガンマ補正、ホワイトバランス処理などを行う。 The image processing unit 152 performs gamma correction, white balance processing, etc. to optimize the image of the main subject area.

バッテリ159は、電源管理部158により適切に管理され、撮像装置100の全体に安定した電源供給を行う。 The battery 159 is appropriately managed by the power management unit 158 and provides a stable power supply to the entire imaging device 100.

フラッシュメモリ155は、撮像装置100の動作に必要な制御プログラムや、各部の動作に用いるパラメータ等を記録する。ユーザの操作により撮像装置100が起動すると(電源OFF状態から電源ON状態へ移行すると)、フラッシュメモリ155に格納された制御プログラム及びパラメータがRAM154の一部に読み込まれる。CPU151は、RAM154にロードされた制御プログラム及び定数に従って撮像装置100の動作を制御する。 Flash memory 155 records the control programs necessary for the operation of imaging device 100 and parameters used for the operation of each part. When imaging device 100 is started by a user's operation (when the power is switched from OFF to ON), the control programs and parameters stored in flash memory 155 are loaded into a part of RAM 154. CPU 151 controls the operation of imaging device 100 according to the control programs and constants loaded into RAM 154.

位置姿勢変化取得部161は、例えばジャイロや加速度センサ、電子コンパス等の位置姿勢センサにより構成され、撮像装置100の撮影シーンに対する位置姿勢変化を計測する。本実施例では撮像装置100のヨー方向、ピッチ方向の各軸周りの回転による位置姿勢変化(角速度)を計測し、RAM154にバッファリングして利用するが、本発明をこれに限定する意図はない。 The position and orientation change acquisition unit 161 is composed of a position and orientation sensor such as a gyro, acceleration sensor, or electronic compass, and measures the change in position and orientation of the imaging device 100 relative to the shooting scene. In this embodiment, the position and orientation change (angular velocity) caused by rotation around each axis in the yaw and pitch directions of the imaging device 100 is measured and buffered in the RAM 154 for use, but the present invention is not intended to be limited to this.

(全体処理フロー)
次に、図2のフローチャートを用いて、本実施例に係る撮像制御処理について説明する。本処理は、ユーザが操作スイッチ156であるレリーズボタンを半押しした際に開始する処理であり、CPU151がRAM154にロードされた制御プログラムに基づき実行する。
(Overall processing flow)
Next, the imaging control process according to this embodiment will be described with reference to the flowchart in Fig. 2. This process is started when the user half-presses the release button, which is the operation switch 156, and is executed by the CPU 151 based on a control program loaded into the RAM 154.

まずステップS201において、撮像制御部143からRAM154を介して、画像処理部152、物体検出部162を含む各部へ撮像画像データを供給する。ステップS201で画像処理部152に供給された撮像画像データは、画像処理部152におけるサイズ調整等の後、モニタディスプレイ150にスルー画像として表示される。 First, in step S201, the imaging control unit 143 supplies captured image data to each unit including the image processing unit 152 and the object detection unit 162 via the RAM 154. The captured image data supplied to the image processing unit 152 in step S201 is displayed as a through image on the monitor display 150 after size adjustment and the like in the image processing unit 152.

次にステップS202において、物体検出部162にステップS201で供給された撮像画像データに対して物体検出処理を行わせる。物体検出処理の詳細は後述するが、物体検出部162において予め学習された物体の種別と、検出された物体が位置する領域が撮像画像に含まれる各物体に対する検出結果として得られる。この際、検出された各物体は、モニタディスプレイ150に表示されるスルー画像上において主被写体候補として表示される。例えば、スルー画像上において、検出された各物体の周りに点線枠が表示される。 Next, in step S202, the object detection unit 162 performs object detection processing on the captured image data supplied in step S201. Details of the object detection processing will be described later, but the type of object previously learned by the object detection unit 162 and the area in which the detected object is located are obtained as detection results for each object included in the captured image. At this time, each detected object is displayed as a main subject candidate on the through image displayed on the monitor display 150. For example, a dotted frame is displayed around each detected object on the through image.

次にステップS203において、ステップS202において物体検出部162により2つ以上の物体が検出されたか否かを判定する。二つ以上の物体が検出されていればステップS204へ進み、検出されていなければステップS206へ進む。 Next, in step S203, it is determined whether or not two or more objects were detected by the object detection unit 162 in step S202. If two or more objects were detected, the process proceeds to step S204; if not, the process proceeds to step S206.

次にステップS204において、撮像装置100の動き種別の推定を行う(動き種別推定手段)。ここで撮像装置100の動き種別とは現在時刻までの所定期間内に、ユーザが被写体を追いかけることを意図して撮像装置100をどのように動かしたか(カメラワーク)を分類するための種別である。撮像装置100の動き種別の具体例、及びその推定方法については後述する。 Next, in step S204, the motion type of the imaging device 100 is estimated (motion type estimation means). Here, the motion type of the imaging device 100 is a type for classifying how the user moved the imaging device 100 (camera work) with the intention of tracking a subject within a predetermined period up to the current time. Specific examples of the motion types of the imaging device 100 and the estimation method thereof will be described later.

次にステップS205において、ステップS204で推定された撮像装置100の動き種別に応じて、ステップS202で検出された各物体に対して撮像制御対象とする優先度を付与する(優先度付与手段)。本実施例でいう撮像制御には、露出補正、AF、防振が含まれる。この際、付与された優先度が最も高い物体をモニタディスプレイ150に表示されたスルー画像上に強調表示させてもよい。これにより、ユーザは、画角内に存在する物体のうち、主被写体としたい物体に最も高い優先度が付与されたか否かを判断することができる。尚、強調表示とは、物体検出部162で検出された物体のうち、付与された優先度が最も高い物体がどれであるのかユーザが視認できる表示であれば特に限定されない。例えば、強調表示として、スルー画像上において、付与された優先度が最も高い物体の周りに黒枠を表示したり、付与された優先度が最も高い物体を指し示す矢印を表示するといった構成が例示できる。 Next, in step S205, a priority is assigned to each object detected in step S202 as a subject of imaging control according to the type of motion of the imaging device 100 estimated in step S204 (priority assignment means). The imaging control in this embodiment includes exposure compensation, AF, and vibration reduction. At this time, the object with the highest assigned priority may be highlighted on the through image displayed on the monitor display 150. This allows the user to determine whether the highest priority has been assigned to the object that the user wants to use as the main subject among the objects present within the angle of view. Note that the highlighting is not particularly limited as long as it is a display that allows the user to visually recognize which object has the highest assigned priority among the objects detected by the object detection unit 162. For example, examples of highlighting include a configuration in which a black frame is displayed around the object with the highest assigned priority on the through image, or an arrow pointing to the object with the highest assigned priority is displayed.

次にステップS206において、ユーザからの終了指示があったか否か判定を行う。終了指示があった場合、本処理を終了し、終了指示がなかった場合、ステップS201からの一連の処理を繰り返す。 Next, in step S206, it is determined whether or not an end command has been received from the user. If an end command has been received, this process ends, and if an end command has not been received, the series of processes from step S201 are repeated.

例えば、ユーザが操作スイッチ156であるレリーズボタンを全押しした場合、ユーザからの終了指示があったと判断する。この場合、ステップS205で最も高い優先度が付与された物体を主被写体に決定し、主被写体領域に対して、フォーカス制御部133によるAF制御や絞り制御部105による露出制御がなされた後、CPU151は撮影を開始する。 For example, if the user fully presses the release button, which is the operation switch 156, it is determined that an end command has been issued from the user. In this case, the object that was assigned the highest priority in step S205 is determined to be the main subject, and after AF control by the focus control unit 133 and exposure control by the aperture control unit 105 are performed on the main subject area, the CPU 151 starts shooting.

また、ユーザが操作スイッチ156であるタッチパネルを用いて、スルー画像上の主被写体候補の一つをタッチした場合も、ユーザからの終了指示があったと判断する。この場合、ステップS205で付与された優先度の高低に関係なく、ユーザがタッチした主被写体候補を主被写体に決定する。 In addition, if the user touches one of the main subject candidates on the through image using the touch panel of the operation switch 156, it is also determined that an end instruction has been given from the user. In this case, the main subject candidate touched by the user is determined to be the main subject, regardless of the priority level assigned in step S205.

次に、図4を用いて、本実施例に係る撮像制御処理の各種適用例を説明する。 Next, various application examples of the imaging control process according to this embodiment will be described with reference to FIG.

図2のステップS203において物体検出部162により複数の物体が検出されたと判定された場合、どの物体を撮像制御対象とするかを絞る必要がある。そこで本実施例では、予め種々の撮像装置100の動き種別を定義しておき、図2のステップS204において、撮像装置100のカメラワークがどの動き種別に該当しているかを推定する。さらに、図2のステップS205では推定された撮像装置100の動き種別から、検出された複数の物体の夫々に優先度を付与する。 If it is determined in step S203 of FIG. 2 that multiple objects have been detected by the object detection unit 162, it is necessary to narrow down which objects are to be subject to imaging control. Therefore, in this embodiment, various types of motion of the imaging device 100 are defined in advance, and in step S204 of FIG. 2, it is estimated which type of motion the camera work of the imaging device 100 corresponds to. Furthermore, in step S205 of FIG. 2, a priority is assigned to each of the multiple detected objects based on the estimated type of motion of the imaging device 100.

(実施例1の適用例1:滑らかに動く被写体)
以下、図4(A)を用いて、本実施例の適用例1について説明する。
(Application Example 1 of Example 1: Smoothly Moving Subject)
Hereinafter, application example 1 of this embodiment will be described with reference to FIG.

本適用例の場合、物体検出部162で検出している建物、犬、車の3つの主被写体候補の中で、ユーザは走行する自動車を撮影しようとしていることを、CPU151は図2の撮像制御処理により特定する。 In this application example, the CPU 151 determines through the imaging control process of FIG. 2 that the user is attempting to photograph a moving car among the three main subject candidates detected by the object detection unit 162: a building, a dog, and a car.

図4(A)に示すグラフの曲線は、本適用例における位置姿勢変化取得部161から得られる現在時刻までの所定期間における撮像装置100のヨー方向の位置姿勢変化である。このグラフの曲線から、ユーザは水平方向に動いている物体を追跡していること、故に静止物体はユーザが主被写体としたい物体ではないことが推察される。そこで、CPU151は、主被写体候補のうち、静止物体である建物に対し最も低い優先度を付与する。また、図4(A)のグラフに示すように、ユーザが撮像装置100に対して速度変化が小さいパンニングを行っている場合、残る主被写体候補のうち自動車に対し、ランダムに動く可能性の高い(加減速の度合いが大きい)犬に比べ、より高い優先度を付与する。尚、撮像装置100に対するパンニングの速度変化が小さいか否かの具体的判断については後述する。 The curve in the graph shown in FIG. 4A is the change in position and orientation in the yaw direction of the image capture device 100 during a predetermined period up to the current time, obtained from the position and orientation change acquisition unit 161 in this application example. From the curve in this graph, it can be inferred that the user is tracking an object moving in the horizontal direction, and therefore a stationary object is not an object that the user wants to use as the main subject. Therefore, the CPU 151 assigns the lowest priority to a stationary object, a building, among the main subject candidates. Also, as shown in the graph in FIG. 4A, when the user is panning the image capture device 100 with a small speed change, a higher priority is assigned to a car, among the remaining main subject candidates, than to a dog, which is likely to move randomly (has a large degree of acceleration and deceleration). Note that a specific determination of whether the speed change of the panning of the image capture device 100 is small will be described later.

ここで、カメラのパンニング中の画角内での位置の変化が最も小さい被写体を主被写体として選択する方法が知られている。この方法は、ユーザが主被写体を画角の中央に捉えようと思っている場合には有効である。 There is a known method for selecting the subject whose position changes the least within the angle of view while the camera is panning as the main subject. This method is effective when the user wants to capture the main subject in the center of the angle of view.

しかし、被写体の動きが早いことを強調したり、被写体が登場したことを強調したりするために、被写体の動く速度よりもやや遅れてカメラをパンニングさせ、被写体が画面を横切るように撮影する場合には有効でない。また通常、このような撮影の場合、ユーザは、被写体が安定した速度で動くことを予想し、カメラのパンニングの速度変化を小さくする。よって、本適用例のように、ユーザが、撮像装置100に対して速度変化が小さいパンニングを行っている場合、画角中に映り込んだランダムに動く可能性の高い犬を主被写体として選択してしまうと、ユーザの撮影意図が反映されなくなってしまう。 However, this is not effective when the camera is panned slightly slower than the speed of the subject's movement to emphasize the fast movement of the subject or the appearance of the subject, and the subject is photographed crossing the screen. Also, in such shooting, the user usually expects the subject to move at a stable speed and reduces the change in the panning speed of the camera. Therefore, as in this application example, when the user pans the imaging device 100 with small speed changes, if the user selects a dog that is likely to move randomly in the field of view as the main subject, the user's shooting intention will not be reflected.

そこで、本適用例では、物体検出部162で検出可能な物体と、その物体の動きの特性を示す情報を予め定義しておき、パンニングなどのカメラワークから、ユーザがどの被写体を主被写体にしようとしているかを判定する。 Therefore, in this application example, the objects that can be detected by the object detection unit 162 and information indicating the characteristics of the movement of the objects are defined in advance, and the camera determines which subject the user is intending to make the main subject based on camera work such as panning.

(実施例1の適用例2:急峻な加減速を行う被写体)
以下、図4(B)を用いて、本実施例の適用例2について説明する。
(Application Example 2 of Embodiment 1: Object undergoing rapid acceleration and deceleration)
Hereinafter, application example 2 of this embodiment will be described with reference to FIG.

本適用例の場合、物体検出部162で検出している建物、犬、車の3つの主被写体候補の中で、ユーザは走行する犬を撮影しようとしていることを、CPU151は図2の撮像制御処理により特定する。 In this application example, the CPU 151 determines through the imaging control process of FIG. 2 that the user is attempting to photograph a running dog among the three main subject candidates detected by the object detection unit 162: a building, a dog, and a car.

図4(B)に示すグラフの曲線は、本適用例における位置姿勢変化取得部161から得られる現在時刻までの所定期間における撮像装置100のヨー方向の位置姿勢変化である。このグラフの曲線から、図4(A)に示す適用例1と同様、ユーザは水平方向に動いている物体を追跡していること、故に静止物体はユーザが主被写体としたい物体ではないことが推察される。そこで、CPU151は、主被写体候補のうち、静止物体である建物に対し最も低い優先度を付与する。また、図4(B)のグラフに示すように、ユーザが撮像装置100に対して急峻な加減速を繰り返すパンニングを行っている場合、残る主被写体候補のうち犬に対し、自動車に比べてより高い優先度を付与する。自動車が急に逆方向に進行方向を変える可能性は低い(加減速の度合いが小さい)ためである。 The curve of the graph shown in FIG. 4B is the change in position and orientation in the yaw direction of the image capture device 100 during a predetermined period up to the current time, obtained from the position and orientation change acquisition unit 161 in this application example. From the curve of this graph, it can be inferred that the user is tracking an object moving in the horizontal direction, and therefore the stationary object is not the object that the user wants to use as the main subject, as in the application example 1 shown in FIG. 4A. Therefore, the CPU 151 assigns the lowest priority to a stationary object, which is a building, among the main subject candidates. Also, as shown in the graph of FIG. 4B, when the user is panning the image capture device 100, which repeatedly accelerates and decelerates sharply, a higher priority is assigned to the dog, among the remaining main subject candidates, than to the car. This is because the possibility that the car will suddenly change direction in the opposite direction is low (the degree of acceleration and deceleration is small).

(撮像装置の動き種別の分類と優先度の例)
本実施例における撮像装置100の動き種別と、物体検出部162により検出可能な物体(以下、検出可能物体という)の種別、及び推定可能な動き種別毎に定義された各検出可能物体の優先度を示す表を図3に例示する。撮像装置100の動き種別の推定の具体例に関しては別途後述する。
(Example of classification and priority of types of motion of imaging device)
3 shows an example of a table illustrating the types of motion of the image capture device 100 in this embodiment, the types of objects detectable by the object detection unit 162 (hereinafter referred to as detectable objects), and the priority of each detectable object defined for each estimable type of motion. A specific example of estimating the types of motion of the image capture device 100 will be described later.

本実施例では図3に示すように、5種類の動き種別に撮像装置100のカメラワークを分類する。また、物体検出部162は図3の各列に記された6種類の物体の種別を検出するものとする。但し、分類する撮像装置100の動き種別及び検出される物体の種別に限定はない。例えば、犬、猫、虫、子供等、地上でランダムに動く可能性の高い物体を、物体検出部162は一つの種別の物体として検出するようにしてもよい。すなわち、検出される物体の種別は、その物体について想定される動き方に応じた種別であればよい。 In this embodiment, as shown in FIG. 3, the camerawork of the imaging device 100 is classified into five types of movement. The object detection unit 162 detects the six types of object types shown in each column of FIG. 3. However, there are no limitations on the types of movement of the imaging device 100 to be classified and the types of objects to be detected. For example, the object detection unit 162 may detect objects that are likely to move randomly on the ground, such as dogs, cats, insects, and children, as one type of object. In other words, the type of object to be detected may be a type that corresponds to the expected movement of the object.

推定された撮像装置100の動き種別に対応して各物体に付与される優先度を、図3では対応する行の各セルに示している。本実施例では1から5の5段階の優先度を付与し、大きい値ほど、撮像制御対象とする優先度を高くする。 The priority assigned to each object corresponding to the estimated type of motion of the imaging device 100 is shown in each cell of the corresponding row in FIG. 3. In this embodiment, five levels of priority are assigned, from 1 to 5, and the higher the value, the higher the priority for imaging control.

なお、本実施例により付与される優先度は、他の基準で付与される優先度と組み合わせて用いることも可能である。例えば、本実施例により同程度の優先度が付与された二つの主被写体候補が存在する場合、さらに画角中央付近の主被写体候補により高い優先度を付与するようにしても良い。 The priority level assigned by this embodiment can also be used in combination with priority levels assigned by other criteria. For example, if there are two main subject candidates to which the same priority level is assigned by this embodiment, a higher priority level can be assigned to the main subject candidate closer to the center of the angle of view.

(撮像装置の動き種別の推定手段の説明)
次に、本実施例における撮像装置100の動き種別の推定方法について説明する。本実施例では、位置姿勢変化取得部161から出力される角速度(ヨー、ピッチ方向の2次元分)を一定間隔でサンプリングし、RAM154にバッファリングしておく。現在時刻までの所定の期間におけるサンプリングされた角速度の夫々に対してフーリエ変換を行うことで周波数成分を取得し、各周波数成分がどの程度大きいかに応じて、撮像装置100の動き種別を推定する。
(Explanation of Means for Estimating the Type of Motion of the Imaging Device)
Next, a method for estimating the type of motion of the image capture device 100 in this embodiment will be described. In this embodiment, the angular velocity (two-dimensional in the yaw and pitch directions) output from the position and orientation change acquisition unit 161 is sampled at regular intervals and buffered in the RAM 154. A Fourier transform is performed on each of the sampled angular velocities during a predetermined period up to the current time to obtain frequency components, and the type of motion of the image capture device 100 is estimated according to the magnitude of each frequency component.

例えば、図4(A)に示すグラフの曲線に示すように、ユーザが撮像装置100に対して速度変化が小さいパンニングを低速で行っている場合、撮像装置100の動き種別はパンニング低速(図3の動き種別1)と判定される。 For example, as shown by the curve in the graph in FIG. 4(A), when the user pans the image capture device 100 at a slow speed with a small change in speed, the motion type of the image capture device 100 is determined to be slow panning (motion type 1 in FIG. 3).

具体的には、本実施例では、まず、全てのサンプリングされたヨー方向の角速度の周波数成分を周波数解析し、その結果、3Hz未満の低周波成分が主であるか(全ての周波数成分の所定割合a以上を占めるか)判断する。 Specifically, in this embodiment, first, the frequency components of all sampled angular velocities in the yaw direction are frequency analyzed, and as a result, it is determined whether low-frequency components below 3 Hz are predominant (whether they account for a certain percentage a or more of all frequency components).

この周波数解析の結果、低周波数成分が主であると判断された場合は、パンニングの速度変化が小さいと判断する。次に、パンニングの速度が低速か高速かを判断する。パンニングの速度は例えば、上記所定の期間内にサンプリングされたヨー方向の角速度を平均することで算出する。算出されたパンニング速度が予め設定された閾値α以上の場合はパンニングの速度は高速と判断し、撮像装置100の動き種別を図3の動き種別2と判定する。一方、閾値α未満の場合はパンニングの速度は低速と判断し、撮像装置100の動き種別を図3の動き種別1と判定する。 If this frequency analysis determines that low frequency components are predominant, it is determined that the change in panning speed is small. Next, it is determined whether the panning speed is slow or fast. The panning speed is calculated, for example, by averaging the angular velocity in the yaw direction sampled within the above-mentioned specified period. If the calculated panning speed is equal to or greater than a preset threshold value α, the panning speed is determined to be fast, and the motion type of the imaging device 100 is determined to be motion type 2 in Figure 3. On the other hand, if it is less than the threshold value α, the panning speed is determined to be slow, and the motion type of the imaging device 100 is determined to be motion type 1 in Figure 3.

また、図4(B)に示すグラフの曲線に示すように、ユーザが撮像装置100に対して急峻な加減速を繰り返すパンニングを行っている場合、撮像装置100の動き種別はYaw方向の急峻な加減速(図3の動き種別3)と判定される。 Also, as shown by the curve in the graph in FIG. 4(B), when the user is panning the image capture device 100 with repeated rapid acceleration and deceleration, the motion type of the image capture device 100 is determined to be rapid acceleration and deceleration in the Yaw direction (motion type 3 in FIG. 3).

具体的には、本実施例では、上記周波数解析の結果、3Hz未満の低周波数成分が主でないと判断された場合、所定帯域、具体的には3Hz以上10Hz未満の周波数成分の割合が所定割合b以上であるか否かを判断する。この判断の結果、所定割合b以上である場合、パンニングの速度変化が大きいと判断する。ここで10Hzを閾値に設けているのはユーザによるカメラワークと手ブレとを区別をするためである。 Specifically, in this embodiment, if the result of the frequency analysis indicates that low frequency components below 3 Hz are not predominant, a determination is made as to whether the proportion of frequency components in a predetermined band, specifically between 3 Hz and 10 Hz, is equal to or greater than a predetermined proportion b. If the result of this determination is that the proportion is equal to or greater than the predetermined proportion b, it is determined that the change in panning speed is large. The reason why 10 Hz is set as the threshold here is to distinguish between camera work by the user and camera shake.

パンニングの速度変化が大きいと判断された場合、次に、ヨー方向のパンニングが急峻に加減速されているか、滑らかなに加減速されているかを判断する。具体的には、サンプリング間のヨー方向の角速度の周波数成分の変化率が予め設定された閾値β以上の場合はヨー方向のパンニングが急峻に加減速されていると判断し、撮像装置100の動き種別を図3の動き種別3と判定する。一方、閾値β未満の場合はヨー方向のパンニングが滑らかに加減速されていると判断し、撮像装置100の動き種別を図3の動き種別4と判定する。尚、所定割合aの値、所定割合bの値、閾値αの値、および、閾値βの値は、検出対象とする物体の動き方や、その速さに応じて、適宜設定することが可能である。 If it is determined that the change in the panning speed is large, it is then determined whether the panning in the yaw direction is accelerated or decelerated sharply or smoothly. Specifically, if the rate of change in the frequency component of the angular velocity in the yaw direction between samples is equal to or greater than a preset threshold value β, it is determined that the panning in the yaw direction is accelerated or decelerated sharply, and the motion type of the imaging device 100 is determined to be motion type 3 in FIG. 3. On the other hand, if it is less than the threshold value β, it is determined that the panning in the yaw direction is accelerated or decelerated smoothly, and the motion type of the imaging device 100 is determined to be motion type 4 in FIG. 3. The values of the predetermined ratio a, the predetermined ratio b, the threshold value α, and the threshold value β can be set appropriately depending on the manner of movement and speed of the object to be detected.

(物体検出部の説明)
本実施例では、物体検出部162をCNNで構成する。
(Description of Object Detection Unit)
In this embodiment, the object detection unit 162 is configured using a CNN.

図5は、入力された2次元の撮像画像(以下入力画像という)および位置マップから被写体を検出するCNNの基本的な構成を示す。処理の流れは、入力画像から矢印の方向に向かった処理が進む。CNNは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層を1のセットとし、2つの層のセットが階層的に構成されている。CNNでは、S層において前段階層で検出された特徴をもとに次の特徴を検出する。また、S層において検出した特徴をC層で統合し、その階層における検出結果として次の階層に出力する構成になっている。S層は特徴検出細胞面からなり、特徴検出細胞面毎に異なる特徴を検出する。また、C層は特徴統合細胞面からなり、前段の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合、特徴検出細胞面および特徴統合細胞面を総称して特徴面と称する。本実施例では、最終段階層である出力層ではC層は用いずS層のみで構成している。 Figure 5 shows the basic structure of a CNN that detects a subject from an input two-dimensional captured image (hereinafter referred to as an input image) and a position map. The process flow proceeds from the input image in the direction of the arrow. The CNN is structured hierarchically with two layers, a feature detection layer (S layer) and a feature integration layer (C layer), as one set. In the CNN, the S layer detects the next feature based on the features detected in the previous layer. In addition, the features detected in the S layer are integrated in the C layer and output to the next layer as the detection result in that layer. The S layer is composed of feature detection cell planes, and detects different features for each feature detection cell plane. In addition, the C layer is composed of feature integration cell planes, and pools the detection results of the previous feature detection cell planes. In the following, unless there is a need to distinguish them, the feature detection cell planes and the feature integration cell planes are collectively referred to as feature planes. In this embodiment, the output layer, which is the final layer, does not use the C layer and is composed only of the S layer.

図6は、特徴検出処理および特徴統合処理の詳細について示す図である。特徴検出処理は、特徴検出細胞面で行われる。特徴統合処理は、特徴統合細胞面で行われる。特徴検出細胞面は、複数の特徴検出ニューロンにより構成される。特徴検出ニューロンは、前段階層のC層に所定の構造で結合している。また、特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは同階層のS層に所定の構造で結合している。図6に示したL階層目S層のM番目細胞面内において、位置(1)の特徴検出ニューロンの出力値を(2)と表記する。各変数は、以下のように表される。 Figure 6 shows the details of the feature detection process and feature integration process. The feature detection process is performed on the feature detection cell plane. The feature integration process is performed on the feature integration cell plane. The feature detection cell plane is composed of multiple feature detection neurons. The feature detection neurons are connected to the C layer of the previous layer in a specified structure. The feature integration cell plane is also composed of multiple feature integration neurons, which are connected to the S layer of the same layer in a specified structure. In the Mth cell plane of the S layer of the Lth layer shown in Figure 6, the output value of the feature detection neuron at position (1) is denoted as (2). Each variable is expressed as follows:

Figure 0007483352000001
Figure 0007483352000001

また、L階層目C層のM番目細胞面内において、位置(1)の特徴統合ニューロンの出力値を(3)と表記する。この場合、夫々のニューロンの結合係数を(4)、(5)とすると、各出力値は以下の「数2」および「数3」のように表すことができる。 In addition, in the Mth cell plane of layer C of the Lth hierarchy, the output value of the feature integration neuron at position (1) is denoted as (3). In this case, if the coupling coefficients of the respective neurons are (4) and (5), then each output value can be expressed as the following "Equation 2" and "Equation 3".

Figure 0007483352000002
Figure 0007483352000002

Figure 0007483352000003
Figure 0007483352000003

数2のfは活性化関数であり、ロジスティック関数や双曲正接関数等のシグモイド関数であり、例えばtanh関数で実現され得る。L階層目S層のM番目細胞面における、位置(1)の特徴検出ニューロンの内部状態は、上記(6)で表される。数3は、活性化関数を用いず単純な線形和の式である。数3のように活性化関数を用いない場合は、ニューロンの内部状態(7)と出力値(3)とは等しい。また、数2の(8)、数3の(9)を夫々特徴検出ニューロン、特徴統合ニューロンの結合先出力値と称する。 In equation 2, f is an activation function, which is a sigmoid function such as a logistic function or a hyperbolic tangent function, and can be realized, for example, by a tanh function. The internal state of the feature detection neuron at position (1) on the Mth cell surface of layer S of the Lth hierarchy is expressed by the above equation (6). Equation 3 is a simple linear sum equation without using an activation function. When no activation function is used as in equation 3, the internal state (7) of the neuron is equal to the output value (3). Furthermore, (8) in equation 2 and (9) in equation 3 are referred to as the connection destination output value of the feature detection neuron and the feature integration neuron, respectively.

数2および数3における「ξ、ζ、u、v、n」について説明する。位置(1)は入力画像における位置座標に対応しており、例えば、出力値(2)が高い出力値である場合は、入力画像の画素位置(1)に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。また、nは、数2において、L-1階層目C層n番目細胞面を意味しており、統合先特徴番号と称する。基本的に、L-1階層目C層に存在する全ての細胞面についての積和演算が行われる。「(u,v)」は、結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲「(u,v)」において積和演算が行われる。このような有限な「(u,v)」の範囲を受容野と称する。以下、受容野の大きさを、受容野サイズと称し、受容野サイズは、結合している範囲の横画素数×縦画素数で表される。 The "ξ, ζ, u, v, n" in Equation 2 and Equation 3 will be explained. Position (1) corresponds to the position coordinate in the input image. For example, if the output value (2) is a high output value, it means that there is a high possibility that the feature to be detected in the Mth cell surface of the S layer of the Lth hierarchy exists at pixel position (1) of the input image. In addition, n means the nth cell surface of the C layer of the L-1th hierarchy in Equation 2, and is called the integration target feature number. Basically, a product-sum operation is performed for all cell surfaces that exist in the C layer of the L-1th hierarchy. "(u, v)" is the relative position coordinate of the coupling coefficient, and the product-sum operation is performed in a finite range "(u, v)" according to the size of the feature to be detected. Such a finite range of "(u, v)" is called the receptive field. Hereinafter, the size of the receptive field is called the receptive field size, and the receptive field size is expressed as the number of horizontal pixels x the number of vertical pixels in the combined range.

また、数2において、L=1つまり一番初めのS層では、(8)は、入力画像(10)または、入力位置マップ(11)となる。ニューロンや画素の分布は離散的であり、結合先特徴番号も離散的なので、「ξ、ζ、u、v、n」は連続な変数ではなく、離散的な値をとる。ここでは、「ξ、ζ」は非負整数、「n」は自然数、u、vは整数とし、何れも有限な範囲となる。 In addition, in equation 2, when L=1, that is, in the first S layer, (8) becomes the input image (10) or the input position map (11). Since the distribution of neurons and pixels is discrete, and the connection destination feature numbers are also discrete, "ξ, ζ, u, v, n" are not continuous variables, but take discrete values. Here, "ξ, ζ" are non-negative integers, "n" is a natural number, and u and v are integers, all of which are in a finite range.

数2の(4)は、所定の特徴を検出するための結合係数であり、該結合係数が適切な値に調整されることで、所定の特徴を検出することが可能になる。この結合係数の調整が学習(機械学習)であり、CNNの構築においては、各種のテストパターンを用いて、適切な出力値が得られるように、結合係数(2)が繰り返し修正される。これにより、結合係数の調整が行われる。 (4) in Equation 2 is the coupling coefficient for detecting a specific feature, and by adjusting this coupling coefficient to an appropriate value, it becomes possible to detect the specific feature. This adjustment of the coupling coefficient is learning (machine learning), and in building a CNN, the coupling coefficient (2) is repeatedly modified using various test patterns so that an appropriate output value is obtained. This is how the coupling coefficient is adjusted.

数3の(5)は、2次元のガウシアン関数を用いており、以下の「数4」のように表すことができる。 Equation 3 (5) uses a two-dimensional Gaussian function and can be expressed as Equation 4 below.

Figure 0007483352000004
Figure 0007483352000004

「(u,v)」は有限の範囲であるため、特徴検出ニューロンの説明と同様に、有限の範囲を受容野と称し、受容野の範囲の大きさを受容野サイズと称する。受容野サイズは、L階層目S層のM番目特徴のサイズに応じた値に設定されればよい。数式3の「σ」は特徴サイズ因子であり、受容野サイズに応じた定数に設定されればよい。例えば、受容野の最も外側の値がほぼ0とみなせるような値になるように設定されることが好ましい。 Since "(u, v)" is a finite range, as in the explanation of feature detection neurons, this finite range is referred to as the receptive field, and the size of the receptive field range is referred to as the receptive field size. The receptive field size may be set to a value according to the size of the Mth feature in the Sth layer of the Lth hierarchy. "σ" in Equation 3 is a feature size factor, and may be set to a constant according to the receptive field size. For example, it is preferable to set it so that the outermost value of the receptive field is a value that can be considered to be almost 0.

上述のような演算を各階層で行うことで、最終階層のS層において、被写体検出を行う。これにより、本実施例におけるCNNを用いた被写体検出が行われる。上述した例では、撮像画像を入力画像として、CNNを用いた被写体検出を行う例について説明した。CNNを用いた被写体検出としては、加速度センサの情報や奥行情報等のような情報が入力画像に追加されてもよい。 By performing the above-mentioned calculations at each layer, subject detection is performed at the final layer, the S layer. This allows subject detection using CNN in this embodiment to be performed. In the above example, an example of subject detection using CNN with a captured image as an input image has been described. For subject detection using CNN, information such as acceleration sensor information and depth information may be added to the input image.

(学習方法)
具体的な学習方法について説明する。本実施例では教師ありの学習により、各結合係数の調整を行う。教師ありの学習では、学習用のテストパターンを与えて実際にニューロンの出力値を求め、その出力値と教師信号(そのニューロンが出力すべき望ましい出力値)の関係から結合係数(4)の修正を行えば良い。本実施例の学習においては、最終段階層の特徴検出層は最小二乗法を用い、中間段階層の特徴検出層は誤差逆伝搬法を用いて結合係数の修正を行う。最小二乗法や、誤差逆伝搬法等の、結合係数の修正手法の詳細は、従来技術であるため省略する(S.Haykin,“Neural Networks A Comprehensive Foundation 2nd Edition”,Prentice Hall,pp.156-255,July 1998を参照)。
(How to learn)
A specific learning method will be described. In this embodiment, each coupling coefficient is adjusted by supervised learning. In supervised learning, a test pattern for learning is given to actually obtain the output value of a neuron, and the coupling coefficient (4) is corrected based on the relationship between the output value and a teacher signal (the desired output value that the neuron should output). In the learning of this embodiment, the feature detection layer of the final stage layer uses the least squares method, and the feature detection layer of the intermediate stage layer uses the backpropagation method to correct the coupling coefficient. Details of the coupling coefficient correction method such as the least squares method and the backpropagation method are omitted because they are conventional techniques (see S. Haykin, "Neural Networks A Comprehensive Foundation 2nd Edition", Prentice Hall, pp. 156-255, July 1998).

本実施例では、学習用のテストパターンとして、検出すべき特定パターンと、検出すべきでない特定パターンを多数用意する。各テストパターンは、入力画像および教師信号を1セットとする。 In this embodiment, many specific patterns that should be detected and those that should not be detected are prepared as test patterns for learning. Each test pattern is a set of an input image and a teacher signal.

活性化関数にtanh関数を用いる場合は、検出すべき特定パターンをテストパターンとして提示した時は、最終段階層の特徴検出細胞面の、特定パターンが存在する領域のニューロンに対し、出力が1となるように教師信号を与える。逆に、検出すべきでない特定パターンをテストパターンとして提示した時は、その特定パターンが存在する領域のニューロンに対し、出力が-1となるように教師信号を与える。 When using a tanh function as the activation function, when a specific pattern to be detected is presented as a test pattern, a teacher signal is given to the neurons in the area where the specific pattern exists on the feature detection cell surface of the final stage layer so that their output becomes 1. Conversely, when a specific pattern that should not be detected is presented as a test pattern, a teacher signal is given to the neurons in the area where the specific pattern exists so that their output becomes -1.

以上により、2次元の撮像画像から物体を検出するための学習済モデルとしてのCNNが構築される。実際の物体検出においては、学習により構築した結合係数(4)を用いて演算をおこない、最終段階層の特徴検出細胞面上のニューロン出力が、所定値以上であれば、そこに物体が存在すると判定する。 The above steps construct a CNN as a trained model for detecting objects from two-dimensional captured images. In actual object detection, calculations are performed using the combination coefficients (4) constructed by training, and if the neuron output on the feature detection cell surface of the final layer is equal to or greater than a predetermined value, it is determined that an object is present there.

以上説明したように本実施例によれば、撮像画像から物体が検出された場合、撮像装置100の動き種別をもとにユーザが主被写体としたい物体を推察し、撮像制御対象とする優先度を自動で付与することが可能な撮像装置100を提供できる。 As described above, according to this embodiment, when an object is detected from a captured image, it is possible to provide an imaging device 100 that can infer the object that the user wants to be the main subject based on the type of movement of the imaging device 100 and automatically assign a priority to the object as a target for imaging control.

以下、実施例2について説明する。尚、撮像装置100の構成については、距離算出部をさらに備える点を除き、実施例1と同一であるので、同一の構成については同一の符号を付し重複した説明は省略する。 The following describes Example 2. Note that the configuration of the imaging device 100 is the same as that of Example 1, except that it further includes a distance calculation unit, so the same components are given the same reference numerals and duplicated descriptions are omitted.

ここで、距離算出部は、バス160を介して相互に通信可能に接続され、CPU151により制御されるユニットであり、撮像画像中の任意の被写体に対して撮像装置100からの距離を算出する。距離の算出過程の例については後述する。生成された距離情報はRAM154に保存され、画像処理部152から参照される。 The distance calculation units are connected to each other via bus 160 so that they can communicate with each other, and are units controlled by CPU 151, and calculate the distance from imaging device 100 to any subject in the captured image. An example of the distance calculation process will be described later. The generated distance information is stored in RAM 154 and is referenced by image processing unit 152.

(全体処理フロー)
図7のフローチャートを用いて、本実施例における撮像制御処理について説明する。本処理も、図2の撮像制御処理と同様、ユーザが操作スイッチ156であるレリーズボタンを半押しした際に開始する処理であり、CPU151がRAM154にロードされた制御プログラムに基づき実行する。
(Overall processing flow)
The imaging control process in this embodiment will be described with reference to the flowchart in Fig. 7. Like the imaging control process in Fig. 2, this process is also started when the user half-presses the release button, which is the operation switch 156, and is executed by the CPU 151 based on a control program loaded into the RAM 154.

尚、図7におけるステップS701~S703,S706は夫々、図2のステップS201~S203,S206の処理と同一であるため、重複した説明は省略する。 Note that steps S701 to S703 and S706 in FIG. 7 are the same as steps S201 to S203 and S206 in FIG. 2, respectively, so duplicate explanations will be omitted.

まず、ステップS701~S703の処理を実行した後、ステップS704において、予めユーザが撮像装置100に対して指定した撮影設定を取得する。本実施例でいう撮影設定の内容は後述する。 First, the processes of steps S701 to S703 are executed, and then in step S704, the shooting settings previously specified by the user for the imaging device 100 are acquired. The contents of the shooting settings in this embodiment will be described later.

次にステップS705において、ステップS704で取得された撮影設定に応じて、検出された各物体に対して撮像制御対象とする優先度を付与する。本実施例でいう撮像制御には、実施例1と同様、枠の表示、露出補正、AF、防振が含まれる。この際、付与された優先度が最も高い物体を実施例1と同様にステップS701においてモニタディスプレイに表示されたスルー画像上に強調表示させてもよい。これにより、ユーザは、画角内に存在する物体のうち、主被写体としたい物体に最も高い優先度が付与されたか否かを判断することができる。尚、本実施例における強調表示は、実施例1と同様であるので重複した説明は省略する。 Next, in step S705, a priority is assigned to each detected object as a subject of imaging control according to the shooting settings acquired in step S704. As in the first embodiment, imaging control in this embodiment includes frame display, exposure compensation, AF, and vibration reduction. At this time, the object with the highest assigned priority may be highlighted on the through image displayed on the monitor display in step S701, as in the first embodiment. This allows the user to determine whether the highest priority has been assigned to the object that the user wishes to use as the main subject among the objects present within the angle of view. Note that the highlighting in this embodiment is the same as in the first embodiment, so a duplicated explanation will be omitted.

次にステップS706において、図2のステップS206と同様に、終了指示があるまでステップS701に戻り、ステップS701からの一連の処理を繰り返す。 Next, in step S706, similar to step S206 in FIG. 2, the process returns to step S701 and repeats the series of processes from step S701 until an end command is received.

(撮影設定について)
本実施例でいう撮影設定とは、ユーザが撮像装置100の挙動を制御するために指定した設定の少なくとも1つを指す。例えば、シャッター速度優先モード、絞り値優先モード、ストロボモードなどのユーザ指定される撮影モードが撮影設定には含まれる。また、ユーザがシャッター速度優先モードを指定した場合はその際に併せて指定されるシャッター速度も撮影設定に含まれる。また、ユーザが絞り値優先モードを指定した場合はその際に併せて指定される絞り値も撮影設定に含まれる。
(About shooting settings)
The shooting settings in this embodiment refer to at least one of the settings designated by the user to control the behavior of the imaging device 100. For example, the shooting settings include shooting modes designated by the user, such as shutter speed priority mode, aperture value priority mode, and strobe mode. If the user designates the shutter speed priority mode, the shooting settings also include the shutter speed designated at that time. If the user designates the aperture value priority mode, the shooting settings also include the aperture value designated at that time.

シャッター速度優先モードは露光時間(シャッター速度)をユーザが指定するモードを指し、絞り優先モードは絞り値をユーザが指定するモードを指す。また、ストロボモードは、外部装置であるストロボを用いた撮影を行うことをユーザが指定するモードを指す。尚、撮影設定には、シャッター速度と絞り値を同時にユーザが指定するモードも含まれる。また、絞り値優先モードにする場合、ユーザはISO感度も併せて指定する場合があるが、この場合はユーザ指定されたISO感度も撮影設定に含まれる。 Shutter speed priority mode refers to a mode in which the user specifies the exposure time (shutter speed), and aperture priority mode refers to a mode in which the user specifies the aperture value. Additionally, strobe mode refers to a mode in which the user specifies that shooting will be performed using a strobe, which is an external device. Note that the shooting settings also include a mode in which the user specifies both the shutter speed and the aperture value. Additionally, when using aperture value priority mode, the user may also specify the ISO sensitivity, in which case the ISO sensitivity specified by the user is also included in the shooting settings.

さらに、焦点距離の値や、ストロボやNDフィルタ等の外部装置を使用しているか否かなど、ユーザが撮像装置100を用いた撮影のために意図的に決定している内容も、本実施例でいう撮影設定に含まれる。 Furthermore, the shooting settings in this embodiment also include the contents that the user intentionally determines for shooting with the imaging device 100, such as the focal length value and whether or not external devices such as a strobe or ND filter are used.

次に、本実施例に係る撮像制御処理の各種適用例を説明する。 Next, various application examples of the imaging control process according to this embodiment will be described.

図7のステップS703において物体検出部162により複数の物体が検出されたと判定された場合、どの物体を撮像制御対象とするかを絞る必要がある。そこで本実施例では、予め種々の撮影設定に応じて物体検出部162により検出されるどの物体を撮像制御対象とするかの優先度を定義しておく。さらに、図7のステップS705では、ステップS704で取得された撮影設定に応じて、その定義した優先度に基づき、検出された複数の物体の夫々に優先度を付与する。 When it is determined in step S703 of FIG. 7 that multiple objects have been detected by the object detection unit 162, it is necessary to narrow down which objects are to be subject to imaging control. Therefore, in this embodiment, priorities are defined in advance for which objects detected by the object detection unit 162 are to be subject to imaging control in accordance with various shooting settings. Furthermore, in step S705 of FIG. 7, priorities are assigned to each of the multiple detected objects based on the defined priorities in accordance with the shooting settings acquired in step S704.

例えば、本実施例では、シャッター速度優先モードをユーザが指定しているとき、物体検出部162で複数の物体が検出されると、その中で図7のステップS705で最も高い優先度が付与された物体を主被写体に決定する。ユーザがシャッター速度優先モードを用いるユースケースとしては、2つの場合が想定される。1つは、動体の撮影の際に被写体のぶれを抑えることであり、もう1つは、光量の足りない条件下において自動でシャッター速度を決定するとシャッター速度が遅くなり手ブレの原因となるため、それを防ぐことである。そこで、撮影設定がシャッター速度優先モードであり、且つ光量が足りない条件下ではない場合、ユーザは動体を撮影したいという意図があると判定し、撮像制御対象の選択肢から静止物体を排除する。尚、本実施例では、測光センサ(不図示)による測光値が所定の閾値以上である場合、又はユーザが設定したシャッター速度が閾値1以上である場合(シャッター速度が閾値1と同速か、それよりも高速の場合)に、光量が足りない条件下ではないと判定される。 For example, in this embodiment, when the user specifies the shutter speed priority mode, if the object detection unit 162 detects multiple objects, the object that is assigned the highest priority in step S705 of FIG. 7 is determined to be the main subject. There are two possible use cases for the user to use the shutter speed priority mode. One is to suppress blurring of the subject when photographing a moving object, and the other is to prevent camera shake, which occurs when the shutter speed is automatically determined under conditions of insufficient light. Therefore, if the shooting setting is the shutter speed priority mode and the conditions are not insufficient, it is determined that the user intends to photograph a moving object, and still objects are excluded from the options for imaging control targets. In this embodiment, if the photometric value obtained by the photometric sensor (not shown) is equal to or greater than a predetermined threshold value, or if the shutter speed set by the user is equal to or greater than threshold value 1 (if the shutter speed is the same speed as threshold value 1 or faster), it is determined that the conditions are not insufficient.

(実施例2の適用例1)
以下、ユーザがシャッター速度優先モードを指定した場合であって、かつ光量が足りない条件下ではない場合に実行される、本実施例2の適用例1について説明する。
(Application Example 1 of Example 2)
Hereinafter, a first application example of the second embodiment will be described, which is executed when the user specifies the shutter speed priority mode and the condition is not one of insufficient light.

本適用例では、物体検出部162により検出が可能な各物体を分類するクラスとして、各物体について想定される動き方に応じたクラスである「静止物体」、「低速で動く物体」、「高速で動く物体」、の3クラスを予め定義しておく。物体検出部162により複数の物体が検出されると、検出された物体のうち、「静止物体」に分類された物体には最も低い優先度を付与する。さらにシャッター速度が閾値2(>閾値1)以上の場合は、「高速で動く物体」に分類された物体に対して最も高い優先度を付与する。また、シャッター速度が閾値2未満であった場合は「低速で動く物体」に分類された物体に対して最も高い優先度を付与する。 In this application example, three classes are predefined as classes for classifying each object detectable by the object detection unit 162 according to the expected movement of each object: "stationary object", "slowly moving object", and "fastly moving object". When multiple objects are detected by the object detection unit 162, the lowest priority is assigned to the detected objects classified as "stationary object". Furthermore, if the shutter speed is equal to or greater than threshold 2 (> threshold 1), the highest priority is assigned to the object classified as "fastly moving object". Furthermore, if the shutter speed is less than threshold 2, the highest priority is assigned to the object classified as "slowly moving object".

従来、ライブビュー画像から被写体を連続して検出することで、動体であるか否かを判定する技術が知られている。よって、ユーザによりシャッター速度優先モードが指定された場合、この技術を利用して、動きの早い被写体を判断し、これを主被写体として選択する方法が考えられる。 Conventionally, there is known a technique for determining whether a subject is moving by continuously detecting the subject from a live view image. Therefore, when the user specifies the shutter speed priority mode, it is conceivable to use this technique to determine which subjects are moving quickly and select them as the main subject.

しかしながら、早く動ける被写体が、常に早く動いているわけではない。例えば、猫、鳥、虫といった被写体は、撮影前はじっとしているが、撮影しようとした瞬間に素早く逃げてしまう場合もある。 However, subjects that can move quickly do not always move quickly. For example, subjects such as cats, birds, and insects may stay still before you take a picture, but may quickly run away the moment you try to take a picture.

ユーザはこのような場合、被写体がどのような速度で移動するかを予想したうえで、図7の撮像制御処理を実行する前に、シャッター優先モードを選択し、シャッター速度を設定する。そこで、本適用例では、ユーザが意図的にシャッター速度を設定している場合、ライブビュー画像に基づいて主被写体を選択せず、設定されたシャッター速度及びどの被写体がどの程度の速度で動く可能性がある物体であるかに基づき、主被写体を選択する。 In such a case, the user predicts the speed at which the subject will move, and then selects the shutter priority mode and sets the shutter speed before executing the imaging control process of FIG. 7. Therefore, in this application example, when the user intentionally sets the shutter speed, the main subject is not selected based on the live view image, but is selected based on the set shutter speed and the speed at which the subject is likely to move.

なお、本適用例において付与される優先度は、他の手段により与えられる別の優先度と組み合わせて用いることも可能である。例えば、本適用例において同程度の優先度が付与された二つの主被写体候補が存在する場合、画角中央により近い主被写体候補の優先度を高くしても良い。 The priority level assigned in this application example can also be used in combination with another priority level assigned by other means. For example, if there are two main subject candidates assigned the same priority level in this application example, the main subject candidate closer to the center of the angle of view can be given a higher priority.

(実施例2の適用例2)
以下、ユーザがシャッター速度優先モードを指定した場合であって、かつ光量が足りない条件下ではない場合に実行される、本実施例の適用例2について説明する。
(Application Example 2 of Example 2)
Hereinafter, a second application example of this embodiment will be described, which is executed when the user has designated the shutter speed priority mode and the condition is not one of insufficient light.

前述の本実施例の適用例1では、物体検出部162により検出が可能な各物体を分類するため、静止物体、低速で動く物体、高速で動く物体、の3クラスを予め定義していた。これに対し、本適用例は、より詳細なクラスとして撮像素子141(撮像画像)上での移動速度v’を用いる。 In the above-described application example 1 of this embodiment, three classes, namely, stationary objects, objects moving at a low speed, and objects moving at a high speed, were defined in advance to classify each object that can be detected by the object detection unit 162. In contrast, this application example uses the moving speed v' on the image sensor 141 (captured image) as a more detailed class.

具体的には、本適用例では、物体検出部162により検出が可能な各物体の種別毎に固有の速度vi(i=1,2,・・・,C)を定義しておく。ここで、Cは検出可能な物体の種別数である。本適用例では、速度vとして、物体検出部162により検出が可能な各物体がよく撮影されるシーンにおける実空間上の代表的な速度値を定義するが、各物体が動き得る最大の速度値を速度viとして定義しても良い。 Specifically, in this application example, a unique speed vi (i = 1, 2, ..., C) is defined for each type of object that can be detected by the object detection unit 162. Here, C is the number of types of detectable objects. In this application example, a representative speed value in real space in a scene where each object that can be detected by the object detection unit 162 is often photographed is defined as the speed vi , but the maximum speed value at which each object can move may also be defined as the speed vi.

CPU151は、物体検出部162で検出された各物体に対して、撮像装置100からの被写体距離Lを距離算出部から取得すると共に、ズーム制御部113からは焦点距離fを取得する。これらの値を用いて、CPU151は、物体検出部162で検出された各物体の速度vを、以下の「数5」のように撮像素子141上での移動速度v’にスケーリングする(図8参照)。 For each object detected by the object detection unit 162, the CPU 151 acquires the subject distance L from the imaging device 100 from the distance calculation unit, and also acquires the focal length f from the zoom control unit 113. Using these values, the CPU 151 scales the speed v i of each object detected by the object detection unit 162 to a moving speed v' on the imaging element 141 as shown in the following "Equation 5" (see FIG. 8).

Figure 0007483352000005
Figure 0007483352000005

本適用例では、被写体を撮影するために最適なシャッター速度はこの撮像素子141上の移動速度v’に凡そ比例すると想定し、その比例係数をAとおく。Aは撮像素子141の画素ピッチと許容されるブレの度合いによって決定され、後者に応じてユーザが独自に調整してもよい。ステップS704で取得された撮影設定に含まれるシャッター速度がSである場合、検出された物体のうち、SとAv’が近い物体に対してより高い優先度を付与する。 In this application example, it is assumed that the optimal shutter speed for photographing a subject is roughly proportional to the moving speed v' on the image sensor 141, and the proportionality coefficient is set to A. A is determined by the pixel pitch of the image sensor 141 and the allowable degree of blur, and may be adjusted independently by the user depending on the latter. If the shutter speed included in the shooting settings acquired in step S704 is S, a higher priority is assigned to detected objects whose S and Av' are close.

(実施例2の適用例3)
以下、ユーザがシャッター速度優先モードを指定した場合であって、かつ光量が足りない条件下ではない場合に実行される、本実施例の適用例3について説明する。
(Application Example 3 of Example 2)
Hereinafter, a third application example of this embodiment will be described, which is executed when the user has designated the shutter speed priority mode and the condition is not one of insufficient light.

本適用例では、前述の本実施例の適用例1より詳細なクラスとして撮像画像上での移動速度v”を用いる。 In this application example, the moving speed v" on the captured image is used as a more detailed class than in application example 1 of this embodiment described above.

具体的には、前述の本実施例の適用例2では、物体検出部162により検出が可能な各物体の種別毎に実世界上の固有の速度を定義しておいた。これに対し、本適用例は、物体検出部162により検出が可能な各物体の種別毎に被写体サイズに対する相対速度を定義しておく。 Specifically, in the above-mentioned application example 2 of this embodiment, a specific speed in the real world is defined for each type of object that can be detected by the object detection unit 162. In contrast, in this application example, a relative speed with respect to the subject size is defined for each type of object that can be detected by the object detection unit 162.

また、本適用例では、物体検出部162は検出結果として物体の種別と撮像画像におけるその物体の位置する領域の情報を出力する。この領域の情報は、より具体的には、バウンディングボックス(撮像画像における中心座標と幅、高さ)として出力される。また、本適用例では予め、物体検出部162により検出が可能な各物体の種別毎にその物体の位置する領域のサイズに対する相対速度を定義しておく。本適用例では、このサイズとして、バウンディングボックスに含まれる幅を用いるが、高さを用いるようにしてもよい。 In addition, in this application example, the object detection unit 162 outputs, as the detection result, information on the type of object and the area in the captured image in which the object is located. More specifically, this area information is output as a bounding box (center coordinates, width, and height in the captured image). In addition, in this application example, the relative speed of each object type that can be detected by the object detection unit 162 with respect to the size of the area in which the object is located is defined in advance. In this application example, the width included in the bounding box is used as this size, but the height may also be used.

CPU151は、物体検出部162で検出された各物体に対して、物体検出部162から出力されたバウンディングボックスに含まれる幅と相対速度を乗算し、撮像画像上を秒間何ピクセル動き得るかを示す移動速度v”を算出する。 For each object detected by the object detection unit 162, the CPU 151 multiplies the width included in the bounding box output from the object detection unit 162 by the relative speed, and calculates a moving speed v" that indicates how many pixels per second the object can move on the captured image.

例えば、物体検出部162が出力したある物体の幅をW、予め定義しておいたその物体の種別の相対速度をuとすると、撮像画像上の移動速度v”はWu[画素/秒]となる(図9参照)。本実施例では、被写体を撮影するために最適なシャッター速度は撮像画像上の移動速度v”に凡そ比例すると想定し、その比例係数Bとおく。Bは許容されるブレの度合いによって決定してもよいし、ユーザが独自に調整してもよいし、また位置姿勢変化取得部161から得られた角速度をもとにフレーミングの速さを算出し、それに応じて変動させてもよい。ステップS704で取得された撮影設定に含まれるシャッター速度がSである場合、検出された物体のうち、SとBv”が近い物体に対してより高い優先度を付与する。 For example, if the width of an object output by the object detection unit 162 is W and the predefined relative speed of the object type is u i , then the moving speed v" on the captured image is Wu i [pixels/second] (see FIG. 9 ). In this embodiment, it is assumed that the optimal shutter speed for photographing a subject is roughly proportional to the moving speed v" on the captured image, and its proportionality coefficient is B. B may be determined based on the allowable degree of blur, or may be adjusted by the user. Alternatively, B may be calculated based on the angular velocity obtained from the position and orientation change acquisition unit 161 and may be varied accordingly. If the shutter speed included in the shooting settings acquired in step S704 is S, a higher priority is assigned to detected objects whose S and Bv" are close to each other.

(ユーザにより絞り値が指定されている例)
以下、本実施例の適用例4について説明する。
(Example of aperture value specified by user)
Hereinafter, a fourth application example of this embodiment will be described.

本実施例の適用例1~3は、ユーザがシャッター速度優先モードを指定した場合の適用例であった。これに対し、本適用例は、ユーザが絞り値優先モードにおいて絞り値を指定した場合の適用例である。 Application examples 1 to 3 of this embodiment are application examples in which the user specifies the shutter speed priority mode. In contrast, this application example is an application example in which the user specifies the aperture value in the aperture value priority mode.

以下、ユーザが絞り値優先モードにおいて絞り値を指定した場合に、その値に応じて主被写体を決定する、本適用例について、図10を用いて説明する。 Below, we will use Figure 10 to explain this application example, in which when a user specifies an aperture value in aperture priority mode, the main subject is determined according to that value.

本適用例では、絞り103の絞り値(F値)を、予め定義した小、中、大の3つの絞り度合いに分類する。 In this application example, the aperture value (F-number) of the aperture 103 is classified into three predefined aperture levels: small, medium, and large.

CPU151は、ステップS704で取得された撮影設定に含まれるユーザが指定した絞り値がどの絞り度合いに属するかを判定し、図10に示す表に基づき、物体検出部162により検出された各物体に対し、その種別毎に優先度を付与する。 The CPU 151 determines which aperture level the user-specified aperture value included in the shooting settings acquired in step S704 belongs to, and assigns a priority to each object type detected by the object detection unit 162 based on the table shown in FIG. 10.

(ストロボの例)
以下、本実施例の適用例5について説明する。
(Example of a strobe)
Hereinafter, application example 5 of this embodiment will be described.

本実施例の適用例1~4では、ユーザが撮像装置100の本体に対して指定する撮影設定に応じて、どの物体を撮像制御対象とするかの優先度を決定した。これに対し、本適用例は、撮像装置100の外部装置であるストロボを撮影時に使用するモードであるストロボモードをユーザが指定した場合の適用例である。 In application examples 1 to 4 of this embodiment, the priority of which object is to be the subject of imaging control is determined according to the imaging settings specified by the user for the main body of the imaging device 100. In contrast, this application example is an application example in which the user specifies a strobe mode, which is a mode in which a strobe, which is an external device of the imaging device 100, is used during imaging.

以下、ユーザがストロボモードを指定している場合に、物体検出部162により検出されたどの物体を撮像制御対象とするかの優先度を決定する、本適用例について説明する。 The following describes an example of this application, in which, when the user has specified the strobe mode, the priority is determined as to which object detected by the object detection unit 162 is to be subject to imaging control.

ユーザが撮像装置100の撮影時にストロボを使用するユースケースの一つとして、速く動く被写体をぶれ無く撮影することを意図している場合が挙げられる。そこで本適用例では、ストロボモードの場合に物体検出部162により検出可能な各物体を分類するクラスとして、ストロボ撮影に適している度合いが高い画角内で「速く動く物体」と、「それ以外の物体」の2クラスを予め設けておく。 One use case in which a user uses a strobe when shooting with the imaging device 100 is when the user intends to shoot a fast-moving subject without blur. Therefore, in this application example, two classes are predefined for classifying objects detectable by the object detection unit 162 in strobe mode: "fast-moving objects" within an angle of view that is highly suitable for strobe shooting, and "other objects."

ステップS704で取得された撮影設定がストロボモードである場合であって、「速く動く物体」に分類された物体と、「それ以外の物体」に分類された物体が両方検出された場合、前者に対して後者より高い優先度を付与する。 If the shooting setting acquired in step S704 is strobe mode, and both an object classified as a "fast-moving object" and an object classified as an "other object" are detected, the former is given a higher priority than the latter.

尚、ステップS704で取得された撮影設定がストロボモードでない場合は、両者に同等の優先度を付与する。この場合は、本実施例の別の適用例、例えば、本実施例の適用例1のように、シャッター速度を参照して物体検出部162により検出された各物体に対してさらに優先度を付与する。 If the shooting setting acquired in step S704 is not the strobe mode, the same priority is assigned to both. In this case, as in another application example of this embodiment, for example, application example 1 of this embodiment, a further priority is assigned to each object detected by the object detection unit 162 with reference to the shutter speed.

(距離の生成)
次に、距離算出部が、物体検出部162により検出された各物体から撮像装置100までの距離(被写体距離)を算出する方法について説明する。
(Distance Generation)
Next, a method for the distance calculation section to calculate the distance (subject distance) from each object detected by the object detection section 162 to the imaging device 100 will be described.

本実施例ではまず、視差画像に基づいて距離マップを生成し、検出された各物体の座標に対応する距離マップの値をその物体の被写体距離とする。 In this embodiment, a distance map is first generated based on the parallax image, and the value of the distance map corresponding to the coordinates of each detected object is set as the subject distance of that object.

具体的には、距離マップの値は、水平方向に視差のついた一対の視差画像に相関演算処理を施して像ズレ量を検出し、その像ズレ量に所定の変換係数を乗ずることで算出される。また、像ズレ量の検出は、例えば特開2008-15754に開示されているように、一対の視差画像を小領域に分割した小ブロック毎に相関演算を行うことにより行われる。 Specifically, the distance map value is calculated by detecting the amount of image shift by performing correlation calculation processing on a pair of parallax images with horizontal parallax, and multiplying the amount of image shift by a predetermined conversion coefficient. In addition, the amount of image shift is detected by performing correlation calculation for each small block obtained by dividing a pair of parallax images into small regions, as disclosed in, for example, JP 2008-15754 A.

尚、距離マップは視差画像を用いずに生成してもよい。例えば、コントラスト評価値が極大となるフォーカスレンズ131の位置を距離マップの値として撮像素子141の画素毎に算出するようにしてもよい。また、距離マップの値は、撮像素子141の画素の全てに対して算出してもよいが、物体検出結果が存在する部分領域の画素に対してだけ算出してもよい。 The distance map may be generated without using a parallax image. For example, the position of the focus lens 131 where the contrast evaluation value is maximized may be calculated as the distance map value for each pixel of the image sensor 141. The distance map value may be calculated for all pixels of the image sensor 141, or may be calculated only for pixels in a partial area where an object detection result exists.

視差画像の取得方法にも制限は無いが、本実施例では、撮像素子141は、1つのマイクロレンズを共有する複数の光電変換素子からなる画素を複数備えており、撮像素子141を用いて視差画像を取得する。このときの撮像素子141の構成や光学原理は、特開2008-15754号公報などの公知の技術を適用できる。なお、撮像装置100をステレオカメラのような多眼カメラとして視差画像を取得してもよいし、任意の方法で撮影された視差画像のデータを記憶媒体や外部装置から取得してもよい。 There are no limitations on the method of acquiring the parallax image, but in this embodiment, the image sensor 141 has multiple pixels made up of multiple photoelectric conversion elements that share one microlens, and the parallax image is acquired using the image sensor 141. The configuration and optical principle of the image sensor 141 in this case can be based on known technology such as that disclosed in JP 2008-15754 A. Note that the image sensor 100 may be a multi-lens camera such as a stereo camera to acquire the parallax image, or data of the parallax image captured by any method may be acquired from a storage medium or an external device.

上述の実施例は本発明の理解を助けることを目的とした具体例に過ぎず、いかなる意味においても本発明を上述の実施例に限定する意図はない。特許請求の範囲に規定される範囲に含まれる全ての実施例は本発明に包含される。すなわち、本発明は、その要旨の範囲内で種々の変形及び変更が可能である。また、本発明は、上述の各実施例の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The above-mentioned embodiments are merely specific examples intended to aid in understanding the present invention, and are not intended to limit the present invention in any way to the above-mentioned embodiments. All embodiments falling within the scope of the claims are encompassed by the present invention. In other words, the present invention can be modified and changed in various ways within the scope of its gist. The present invention can also be realized by supplying a program that realizes one or more functions of each of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors of the computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.

100 撮像装置
103 絞り
104 絞りモータ
105 絞り制御部
111 ズームレンズ
112 ズームモータ
113 ズーム制御部
141 撮像素子
151 CPU
161 位置姿勢変化取得部
162 物体検出部
REFERENCE SIGNS LIST 100 Imaging device 103 Aperture 104 Aperture motor 105 Aperture control unit 111 Zoom lens 112 Zoom motor 113 Zoom control unit 141 Imaging element 151 CPU
161 Position and orientation change acquisition unit 162 Object detection unit

Claims (18)

撮像装置であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出手段と、
前記撮像装置の動き種別を推定する動き種別推定手段と、
前記物体検出手段により複数の物体が検出された場合、前記動き種別推定手段によって推定された前記撮像装置の動き種別、及び前記物体検出手段により検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と
前記撮像装置の本体の位置姿勢変化を計測する計測手段とを備え、
前記動き種別推定手段は、所定期間における前記計測手段の出力をもとに前記撮像装置の動き種別を推定し、
前記物体検出手段が検出可能な物体の種別は、前記物体検出手段が検出可能な各物体について想定される動き方に応じた種別であり、
前記動き種別推定手段は、前記所定期間における前記計測手段の出力をもとに、前記撮像装置の前記所定期間内の移動速度を算出し、
前記優先度付与手段は、前記物体検出手段により検出された前記複数の物体の夫々に対して、前記算出された前記撮像装置の前記所定期間における移動速度と、前記複数の物体の夫々の種別毎に想定される動き方に応じて、前記撮像制御対象とする優先度を付与することを特徴とする撮像装置。
1. An imaging device, comprising:
an object detection means for detecting an object included in an image captured by the imaging device and detecting a type of the detected object;
a motion type estimation means for estimating a motion type of the imaging device;
a priority assignment means for assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with a motion type of the imaging device estimated by the motion type estimation means and the types of each of the plurality of objects detected by the object detection means when the plurality of objects are detected by the object detection means ;
a measuring means for measuring a change in position and orientation of a main body of the imaging device,
the motion type estimation means estimates a motion type of the imaging device based on an output of the measurement means for a predetermined period of time;
the type of object detectable by the object detection means is a type corresponding to an expected manner of movement of each object detectable by the object detection means,
the motion type estimation means calculates a moving speed of the imaging device within the predetermined period based on an output of the measurement means during the predetermined period;
the priority assignment means assigns a priority to each of the plurality of objects detected by the object detection means as a subject of the imaging control in accordance with the calculated moving speed of the imaging device during the specified period and an expected manner of movement of each of the plurality of objects for each type .
撮像装置であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出手段と、
前記撮像装置の動き種別を推定する動き種別推定手段と、
前記物体検出手段により複数の物体が検出された場合、前記動き種別推定手段によって推定された前記撮像装置の動き種別、及び前記物体検出手段により検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と
前記撮像装置の本体の位置姿勢変化を計測する計測手段とを備え、
前記動き種別推定手段は、所定期間における前記計測手段の出力をもとに前記撮像装置の動き種別を推定し、
前記物体検出手段が検出可能な物体の種別は、前記物体について想定される加減速の度合いに応じた種別であり、
前記動き種別推定手段は、前記所定期間における前記計測手段の出力をもとに、前記撮像装置の前記所定期間内の加減速の度合いを算出し、
前記優先度付与手段は、前記物体検出手段により検出された前記複数の物体の夫々に対して、前記算出された前記撮像装置の前記所定期間における加減速の度合いと、前記複数の物体の夫々の種別毎に想定される加減速の度合いに応じて、前記撮像制御対象とする優先度を付与することを特徴とする撮像装置。
1. An imaging device, comprising:
an object detection means for detecting an object included in an image captured by the imaging device and detecting a type of the detected object;
a motion type estimation means for estimating a motion type of the imaging device;
a priority assignment means for assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with a motion type of the imaging device estimated by the motion type estimation means and the types of each of the plurality of objects detected by the object detection means when the plurality of objects are detected by the object detection means ;
a measuring means for measuring a change in position and orientation of a main body of the imaging device,
the motion type estimation means estimates a motion type of the imaging device based on an output of the measurement means for a predetermined period of time;
the type of object that can be detected by the object detection means is a type corresponding to a degree of acceleration/deceleration expected for the object,
the motion type estimation means calculates a degree of acceleration/deceleration of the imaging device within the predetermined period based on an output of the measurement means during the predetermined period;
the priority assignment means assigns a priority to each of the plurality of objects detected by the object detection means as a subject of the imaging control in accordance with the calculated degree of acceleration/deceleration of the imaging device during the specified period and the degree of acceleration/deceleration expected for each type of the plurality of objects .
撮像装置であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出手段と、
前記撮像装置の動き種別を推定する動き種別推定手段と、
前記物体検出手段により複数の物体が検出された場合、前記動き種別推定手段によって推定された前記撮像装置の動き種別、及び前記物体検出手段により検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と
前記撮像装置の本体の位置姿勢変化を計測する計測手段と、
前記所定期間の前記計測手段の出力の周波数成分を解析する解析手段とを備え、
前記動き種別推定手段は、所定期間における前記計測手段の出力と、前記解析手段により解析された周波数成分とに基づき、前記撮像装置の動き種別を推定することを特徴とする撮像装置。
1. An imaging device, comprising:
an object detection means for detecting an object included in an image captured by the imaging device and detecting a type of the detected object;
a motion type estimation means for estimating a motion type of the imaging device;
a priority assignment means for assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with a motion type of the imaging device estimated by the motion type estimation means and the types of each of the plurality of objects detected by the object detection means when the plurality of objects are detected by the object detection means ;
a measuring means for measuring a change in position and orientation of a main body of the imaging device;
an analysis means for analyzing a frequency component of the output of the measurement means for the predetermined period of time,
The motion type estimating means estimates a motion type of the imaging device based on an output of the measuring means for a predetermined period of time and frequency components analyzed by the analyzing means .
前記動き種別推定手段は、前記解析手段によって得られた所定帯域の周波数成分の割合に応じて前記撮像装置の加減速の度合いを算出することを特徴とする請求項3記載の撮像装置。 4. The image pickup apparatus according to claim 3 , wherein the motion type estimating means calculates a degree of acceleration or deceleration of the image pickup apparatus in accordance with a ratio of frequency components in a predetermined band obtained by the analyzing means. 前記所定帯域とは、3Hz以上10Hz未満であることを特徴とする請求項4記載の撮像装置。 5. The imaging device according to claim 4, wherein the predetermined frequency band is equal to or greater than 3 Hz and less than 10 Hz. 撮像装置であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出手段と、
前記複数の物体の種別を検出する種別検出手段と、
前記撮像装置に対してユーザが指定した撮影設定を取得する取得手段と、
前記物体検出手段により複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得手段により取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段とを備え
前記クラスは、前記物体検出手段が検出可能な物体の種別毎に定義される速度に基づき算出される前記撮像画像の上の移動速度であり、
前記優先度付与手段は、前記物体検出手段により検出された前記複数の物体の夫々に対して算出された前記撮像画像の上の移動速度に応じて、前記撮像制御対象とする優先度を付与することを特徴とする撮像装置。
1. An imaging device, comprising:
an object detection means for detecting an object included in an image captured by the imaging device;
A type detection means for detecting the types of the plurality of objects;
an acquisition means for acquiring a shooting setting designated by a user for the imaging device;
a priority assigning means for, when a plurality of objects are detected by the object detection means, classifying each of the plurality of objects into one of a plurality of predefined classes, and assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the photography setting acquired by the acquisition means and the class into which each of the plurality of objects is classified ,
the class is a moving speed on the captured image calculated based on a speed defined for each type of object that can be detected by the object detection means,
The priority assignment means assigns a priority to each of the plurality of objects detected by the object detection means for use in the imaging control in accordance with the calculated moving speed of each of the plurality of objects on the captured image .
撮像装置であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出手段と、
前記撮像装置に対してユーザが指定した撮影設定を取得する取得手段と、
前記物体検出手段により複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得手段により取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、
前記複数の物体の種別を検出する種別検出手段とを備え、
前記クラスは、前記物体検出手段が検出可能な物体の種別毎に定義される速度に基づき算出される前記撮像画像の上の移動速度であり、
前記優先度付与手段は、前記取得手段により前記撮影設定の1つがシャッター速度優先モードである場合、前記物体検出手段により検出された前記複数の物体の夫々に対して、前記取得手段により取得された前記撮影設定に含まれるシャッター速度と、前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して前記撮像制御対象とする優先度を付与することを特徴とする撮像装置。
1. An imaging device, comprising:
an object detection means for detecting an object included in an image captured by the imaging device;
an acquisition means for acquiring a shooting setting designated by a user for the imaging device;
a priority assigning means for classifying each of the plurality of objects into one of a plurality of predefined classes when a plurality of objects are detected by the object detection means, and assigning a priority for making each of the plurality of objects a subject of imaging control to each of the plurality of objects according to the photographing settings acquired by the acquisition means and the class into which each of the plurality of objects is classified;
a type detection means for detecting a type of the plurality of objects,
the class is a moving speed on the captured image calculated based on a speed defined for each type of object that can be detected by the object detection means,
The imaging device is characterized in that, when one of the shooting settings acquired by the acquisition means is a shutter speed priority mode, the priority assignment means assigns a priority to each of the multiple objects detected by the object detection means as a subject of the imaging control, depending on the shutter speed included in the shooting setting acquired by the acquisition means and the class into which each of the multiple objects is classified .
前記物体検出手段が検出可能な物体の種別毎に定義される速度は、前記物体検出手段が検出可能な物体の種別毎に定義される実空間上の移動速度であることを特徴とする請求項7に記載の撮像装置。 8. The imaging device according to claim 7, wherein the speed defined for each type of object detectable by the object detection means is a moving speed in real space defined for each type of object detectable by the object detection means. 前記複数の物体の夫々の、撮影時の焦点距離を取得する第1の取得手段を更に備え、 前記複数の物体の夫々について、その種別の実空間上の移動速度として定義される速度及び前記取得された焦点距離に基づいて、前記撮像画像の上の移動速度が算出されることを特徴とする請求項8に記載の撮像装置。 9. The imaging device according to claim 8, further comprising a first acquisition means for acquiring a focal length at the time of shooting of each of the plurality of objects, wherein for each of the plurality of objects, a moving speed in the captured image is calculated based on a speed defined as a moving speed in real space of the type of object and the acquired focal length. 前記複数の物体の夫々の、撮影時の撮像装置からの被写体距離を取得する第2の取得手段を更に備え、
前記複数の物体の夫々について、その種別の実空間上の移動速度として定義される速度及び前記取得された被写体距離に基づいて、前記撮像画像の上の移動速度が算出されることを特徴とする請求項7又は8に記載の撮像装置。
a second acquisition unit that acquires a subject distance from the image capture device at the time of photographing each of the plurality of objects;
9. The imaging device according to claim 7 or 8, wherein for each of the plurality of objects, a moving speed in the captured image is calculated based on a speed defined as a moving speed in real space of the type of object and the acquired subject distance.
撮像装置であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出手段と、
前記撮像装置に対してユーザが指定した撮影設定を取得する取得手段と、
前記物体検出手段により複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得手段により取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与手段と、
前記複数の物体の種別及び前記撮像画像における前記物体の位置する領域を検出する種別領域検出手段とを備え、
前記物体検出手段が検出可能な物体の種別毎に定義される速度は、前記物体検出手段が検出可能な物体の種別毎に定義される被写体サイズに対する相対速度であって、
前記複数の物体の夫々について、前記種別領域検出手段により検出された種別の相対速度として定義される速度と、前記種別領域検出手段により検出された領域のサイズに基づいて、前記撮像画像の上の移動速度が算出されることを特徴とする撮像装置。
1. An imaging device, comprising:
an object detection means for detecting an object included in an image captured by the imaging device;
an acquisition means for acquiring a shooting setting designated by a user for the imaging device;
a priority assigning means for classifying each of the plurality of objects into one of a plurality of predefined classes when a plurality of objects are detected by the object detection means, and assigning a priority for making each of the plurality of objects a subject of imaging control to each of the plurality of objects according to the photographing settings acquired by the acquisition means and the class into which each of the plurality of objects is classified;
a type area detection means for detecting the types of the plurality of objects and the areas in which the objects are located in the captured image,
The speed defined for each type of object detectable by the object detection means is a relative speed with respect to a subject size defined for each type of object detectable by the object detection means,
An imaging device characterized in that, for each of the plurality of objects, a moving speed on the captured image is calculated based on a speed defined as a relative speed of the type detected by the type area detection means and a size of the area detected by the type area detection means .
前記物体検出手段により検出された物体のうち、前記優先度付与手段により最も高い優先度が付与された物体を強調表示して前記撮像画像を表示する表示手段を更に備えることを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。 12. The imaging device according to claim 1, further comprising a display unit that displays the captured image in a highlighted manner an object that has been assigned the highest priority by the priority assignment unit among the objects detected by the object detection unit. 前記物体検出手段は、学習済モデルにより構成されることを特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。 The imaging device according to claim 1 , wherein the object detection means is configured using a trained model. 撮像装置の制御方法であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出ステップと、
前記撮像装置の動き種別を推定する動き種別推定ステップと、
前記物体検出ステップにより複数の物体が検出された場合、前記動き種別推定ステップによって推定された前記撮像装置の動き種別、及び前記物体検出ステップにより検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与ステップと
前記撮像装置の本体の位置姿勢変化を計測する計測ステップとを有し、
前記動き種別推定ステップは、所定期間における前記計測ステップの出力をもとに前記撮像装置の動き種別を推定し、
前記物体検出ステップにおいて検出可能な物体の種別は、前記物体検出ステップにおいて検出可能な各物体について想定される動き方に応じた種別であり、
前記動き種別推定ステップでは、前記所定期間における前記計測ステップの出力をもとに、前記撮像装置の前記所定期間内の移動速度を算出し、
前記優先度付与ステップでは、前記物体検出ステップにより検出された前記複数の物体の夫々に対して、前記算出された前記撮像装置の前記所定期間における移動速度と、前記複数の物体の夫々の種別毎に想定される動き方に応じて、前記撮像制御対象とする優先度を付与することを特徴とする制御方法。
A control method for an imaging device, comprising:
an object detection step of detecting an object included in an image captured by the imaging device and detecting a type of the detected object;
a motion type estimating step of estimating a motion type of the imaging device;
a priority assignment step of assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the type of motion of the imaging device estimated in the motion type estimation step and the types of each of the plurality of objects detected in the object detection step, when a plurality of objects are detected in the object detection step ;
a measuring step of measuring a change in position and orientation of a main body of the imaging device,
the motion type estimating step estimates a motion type of the imaging device based on an output of the measuring step during a predetermined period of time;
a type of object detectable in the object detection step according to an expected manner of movement of each object detectable in the object detection step;
the motion type estimating step calculates a moving speed of the imaging device within the predetermined period based on an output of the measuring step during the predetermined period;
a control method characterized in that in the priority assignment step, a priority for making each of the plurality of objects detected in the object detection step a subject of the imaging control is assigned to each of the plurality of objects detected in the object detection step in accordance with the calculated moving speed of the imaging device during the specified period and an expected manner of movement of each of the plurality of objects for each type .
撮像装置の制御方法であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出ステップと、
前記撮像装置の動き種別を推定する動き種別推定ステップと、
前記物体検出ステップにおいて複数の物体が検出された場合、前記動き種別推定ステップによって推定された前記撮像装置の動き種別、及び前記物体検出ステップにより検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与ステップと
前記撮像装置の本体の位置姿勢変化を計測する計測ステップとを有し、
前記動き種別推定ステップでは、所定期間における前記計測ステップの出力をもとに前記撮像装置の動き種別を推定し、
前記物体検出ステップにおいて検出可能な物体の種別は、前記物体について想定される加減速の度合いに応じた種別であり、
前記動き種別推定ステップでは、前記所定期間における前記計測ステップの出力をもとに、前記撮像装置の前記所定期間内の加減速の度合いを算出し、
前記優先度付与ステップでは、前記物体検出ステップにより検出された前記複数の物体の夫々に対して、前記算出された前記撮像装置の前記所定期間における加減速の度合いと、前記複数の物体の夫々の種別毎に想定される加減速の度合いに応じて、前記撮像制御対象とする優先度を付与することを特徴とする撮像装置の制御方法。
A control method for an imaging device, comprising:
an object detection step of detecting an object included in an image captured by the imaging device and detecting a type of the detected object;
a motion type estimating step of estimating a motion type of the imaging device;
a priority assignment step of assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the type of motion of the imaging device estimated in the motion type estimation step and the types of each of the plurality of objects detected in the object detection step, when a plurality of objects are detected in the object detection step ;
a measuring step of measuring a change in position and orientation of a main body of the imaging device,
the motion type estimation step estimates a motion type of the imaging device based on an output of the measurement step during a predetermined period of time;
a type of the object that can be detected in the object detection step is a type corresponding to a degree of acceleration/deceleration expected for the object,
the motion type estimating step calculates a degree of acceleration/deceleration of the imaging device within the predetermined period based on an output of the measuring step during the predetermined period;
a control method for an imaging device, characterized in that in the priority assignment step, a priority for making the object subject to imaging control is assigned to each of the plurality of objects detected in the object detection step, in accordance with the calculated degree of acceleration/deceleration of the imaging device during the specified period and the degree of acceleration/deceleration expected for each type of the plurality of objects .
撮像装置の制御方法であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出すると共に、前記検出された物体の種別を検出する物体検出ステップと、
前記撮像装置の動き種別を推定する動き種別推定ステップと、
前記物体検出ステップにより複数の物体が検出された場合、前記動き種別推定ステップによって推定された前記撮像装置の動き種別、及び前記物体検出ステップにより検出された前記複数の物体の夫々の種別に応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与ステップと
前記撮像装置の本体の位置姿勢変化を計測する計測ステップと、
前記所定期間の前記計測ステップの出力の周波数成分を解析する解析ステップとを有し、
前記動き種別推定ステップでは、所定期間における前記計測ステップの出力と、前記解析ステップにより解析された周波数成分とに基づき、前記撮像装置の動き種別を推定することを特徴とする撮像装置の制御方法。
A control method for an imaging device, comprising:
an object detection step of detecting an object included in an image captured by the imaging device and detecting a type of the detected object;
a motion type estimating step of estimating a motion type of the imaging device;
a priority assignment step of assigning a priority to each of the plurality of objects as a subject of imaging control in accordance with the type of motion of the imaging device estimated in the motion type estimation step and the types of each of the plurality of objects detected in the object detection step, when a plurality of objects are detected in the object detection step ;
a measuring step of measuring a change in position and orientation of a main body of the imaging device;
and an analysis step of analyzing a frequency component of the output of the measurement step for the predetermined period,
A method for controlling an imaging device , wherein the motion type estimating step estimates a motion type of the imaging device based on an output of the measuring step for a predetermined period and frequency components analyzed in the analyzing step .
撮像装置の制御方法であって、
前記撮像装置により撮像された撮像画像に含まれる物体を検出する物体検出ステップと、
前記複数の物体の種別を検出する種別検出ステップと、
前記撮像装置に対してユーザが指定した撮影設定を取得する取得ステップと、
前記物体検出ステップにより複数の物体が検出された場合、前記複数の物体の夫々を予め定義されている複数のクラスの1つに分類し、前記取得ステップにより取得された撮影設定、及び前記複数の物体の夫々が分類されたクラスに応じて、前記複数の物体の夫々に対して撮像制御対象とする優先度を付与する優先度付与ステップとを有し
前記クラスは、前記物体検出ステップが検出可能な物体の種別毎に定義される速度に基づき算出される前記撮像画像の上の移動速度であり、
前記優先度付与ステップでは、前記物体検出ステップにより検出された前記複数の物体の夫々に対して算出された前記撮像画像の上の移動速度に応じて、前記撮像制御対象とする優先度を付与することを特徴とする撮像装置の制御方法。
A control method for an imaging device, comprising:
an object detection step of detecting an object included in an image captured by the imaging device;
a type detection step of detecting types of the plurality of objects;
an acquisition step of acquiring a shooting setting designated by a user for the imaging device;
a priority assignment step of, when a plurality of objects are detected by the object detection step, classifying each of the plurality of objects into one of a plurality of predefined classes, and assigning a priority to each of the plurality of objects as a subject of imaging control according to the photography setting acquired by the acquisition step and the class into which each of the plurality of objects is classified ,
the class is a moving speed on the captured image calculated based on a speed defined for each type of object detectable in the object detection step,
a control method for an imaging device, characterized in that in the priority assignment step, a priority for making the object subject to imaging control is assigned to each of the plurality of objects detected in the object detection step in accordance with the calculated moving speed on the captured image .
請求項14乃至17のいずれか1項に記載の制御方法を実行することを特徴とするプログラム。 A program for executing the control method according to any one of claims 14 to 17 .
JP2019208913A 2019-11-19 2019-11-19 Photographing device, its control method, and program Active JP7483352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019208913A JP7483352B2 (en) 2019-11-19 2019-11-19 Photographing device, its control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019208913A JP7483352B2 (en) 2019-11-19 2019-11-19 Photographing device, its control method, and program

Publications (2)

Publication Number Publication Date
JP2021082944A JP2021082944A (en) 2021-05-27
JP7483352B2 true JP7483352B2 (en) 2024-05-15

Family

ID=75963325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019208913A Active JP7483352B2 (en) 2019-11-19 2019-11-19 Photographing device, its control method, and program

Country Status (1)

Country Link
JP (1) JP7483352B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009425A (en) 2008-06-27 2010-01-14 Canon Inc Image processor, image processing method, and computer program
WO2010113929A1 (en) 2009-03-31 2010-10-07 日本電気株式会社 Tracking judgment device, tracking judgment method, and tracking judgment program
JP2011120186A (en) 2009-12-07 2011-06-16 Advas Co Ltd Apparatus for video camera imaging
JP2012160780A (en) 2011-01-28 2012-08-23 Nikon Corp Imaging device, image processing device, and image processing program
JP2015034895A (en) 2013-08-09 2015-02-19 キヤノン株式会社 Imaging device and control method for the same
JP2015103852A (en) 2013-11-21 2015-06-04 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing apparatus control method, image processing apparatus control program, and storage medium
JP2015232620A (en) 2014-06-09 2015-12-24 キヤノン株式会社 Imaging device, control method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009425A (en) 2008-06-27 2010-01-14 Canon Inc Image processor, image processing method, and computer program
WO2010113929A1 (en) 2009-03-31 2010-10-07 日本電気株式会社 Tracking judgment device, tracking judgment method, and tracking judgment program
JP2011120186A (en) 2009-12-07 2011-06-16 Advas Co Ltd Apparatus for video camera imaging
JP2012160780A (en) 2011-01-28 2012-08-23 Nikon Corp Imaging device, image processing device, and image processing program
JP2015034895A (en) 2013-08-09 2015-02-19 キヤノン株式会社 Imaging device and control method for the same
JP2015103852A (en) 2013-11-21 2015-06-04 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing apparatus control method, image processing apparatus control program, and storage medium
JP2015232620A (en) 2014-06-09 2015-12-24 キヤノン株式会社 Imaging device, control method and program

Also Published As

Publication number Publication date
JP2021082944A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
CN107087107B (en) Image processing apparatus and method based on dual camera
CN1977526B (en) Image capture method and image capture device
US10701281B2 (en) Image processing apparatus, solid-state imaging device, and electronic apparatus
EP3627821B1 (en) Focusing method and apparatus for realizing clear human face, and computer device
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
CN110072078B (en) Monitoring camera, control method of monitoring camera, and storage medium
EP3163346B1 (en) Autofocusing a macro object by an imaging device
CN107018288A (en) Control device and picture pick-up device
EP3055986B1 (en) Imaging device and method for automatic focus in an imaging device as well as a corresponding computer program
CN112333379A (en) Image focusing method and device and image acquisition equipment
JP2019186911A (en) Image processing apparatus, image processing method, and imaging apparatus
US11575834B2 (en) Image stabilization apparatus, method of controlling same, and storage medium
JP7403995B2 (en) Information processing device, control method and program
CN106101567A (en) Shooting light-regulating method, device and mobile terminal
JP6325615B2 (en) Method and apparatus for setting camera focus.
CN112489077A (en) Target tracking method and device and computer system
JP6812387B2 (en) Image processing equipment and image processing methods, programs, storage media
JP7483352B2 (en) Photographing device, its control method, and program
US20210289119A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
US11375132B2 (en) Imaging apparatus, method of controlling the imaging apparatus, and program
JP6063680B2 (en) Image generation apparatus, image generation method, imaging apparatus, and imaging method
JP2017192114A5 (en)
JP2017038243A (en) Imaging apparatus
JP2021093694A (en) Information processing apparatus and method for controlling the same
JP2020126434A (en) Image processing device, control method thereof, program, and storage media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150