JP2018006992A - Imaging device and electronic component - Google Patents

Imaging device and electronic component Download PDF

Info

Publication number
JP2018006992A
JP2018006992A JP2016130967A JP2016130967A JP2018006992A JP 2018006992 A JP2018006992 A JP 2018006992A JP 2016130967 A JP2016130967 A JP 2016130967A JP 2016130967 A JP2016130967 A JP 2016130967A JP 2018006992 A JP2018006992 A JP 2018006992A
Authority
JP
Japan
Prior art keywords
imaging
subject
unit
imaging device
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016130967A
Other languages
Japanese (ja)
Other versions
JP6866581B2 (en
Inventor
岡崎 光宏
Mitsuhiro Okazaki
光宏 岡崎
康介 岡野
Kosuke Okano
康介 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016130967A priority Critical patent/JP6866581B2/en
Publication of JP2018006992A publication Critical patent/JP2018006992A/en
Application granted granted Critical
Publication of JP6866581B2 publication Critical patent/JP6866581B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of accurately detecting a travel speed of a subject in a real world (inertia coordinate system).SOLUTION: The imaging device comprises: an imaging part for imaging a subject image, and for outputting an imaging signal; a subject position detection part for detecting the position of a subject in an imaging screen from the imaging signal; an attitude detection part for detecting an attitude of the imaging device; a field angle acquisition part for acquiring a field angle of the imaging part; a distance detection part for detecting a distance to the subject; and a speed calculation part for calculating a travel speed of the subject on the basis of the position and the attitude and the field angle and the distance in several times of imaging.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および電子部品に関する。   The present invention relates to an imaging device and an electronic component.

動画像内の被写体の動きを検出して主要被写体を検出する技術が知られている(例えば、特許文献1)。特許文献1に記載の技術では、実世界(慣性座標系)における被写体の移動速度が検出できない。   A technique for detecting a main subject by detecting a motion of a subject in a moving image is known (for example, Patent Document 1). With the technique described in Patent Document 1, the moving speed of the subject in the real world (inertial coordinate system) cannot be detected.

特開2010−9425号公報JP 2010-9425 A

第1の態様によると、撮像装置は、被写体像を撮像し撮像信号を出力する撮像部と、前記撮像信号から撮像画面内における被写体の位置を検出する被写体位置検出部と、撮像装置の姿勢を検出する姿勢検出部と、前記撮像部の画角を取得する画角取得部と、前記被写体までの距離を検出する距離検出部と、複数回の撮像による前記位置と前記姿勢と前記画角と前記距離とにより、前記被写体の移動速度を演算する速度演算部と、を備える。
第2の態様によると、撮像装置は、被写体像を撮像し撮像信号を出力する撮像部と、前記撮像信号から撮像画面内における被写体の位置を検出する被写体位置検出部と、撮像装置の姿勢を検出する姿勢検出部と、前記撮像部の画角を取得する画角取得部と、複数回の撮像による前記位置と前記姿勢と前記画角とにより、複数の前記被写体から主要被写体を特定する主要被写体特定部と、を備える。
第3の態様によると、電子部品は、被写体像を撮像した撮像信号が入力される撮像信号入力部と、前記撮像信号から撮像画面内における被写体の位置を検出する被写体位置検出部と、撮像装置の姿勢を検出する姿勢検出部と、前記被写体像を撮像した際の画角を取得する画角取得部と、前記被写体までの距離を検出する距離検出部と、複数回の撮像による前記位置と前記姿勢と前記画角と前記距離とにより、前記被写体の移動速度を演算する速度演算部と、を備える。
第4の態様によると、電子部品は、被写体像を撮像した撮像信号が入力される撮像信号入力部と、前記撮像信号から撮影画面内における被写体の位置を検出する被写体位置検出部と、撮像装置の姿勢を検出する姿勢検出部と、前記被写体像を撮像した際の画角を取得する画角取得部と、複数回の撮像による前記位置と前記姿勢と前記画角とにより、複数の前記被写体から主要被写体を特定する主要被写体特定部と、を備える。
According to the first aspect, the imaging device includes an imaging unit that captures a subject image and outputs an imaging signal, a subject position detection unit that detects the position of the subject in the imaging screen from the imaging signal, and the attitude of the imaging device. A position detection unit for detecting, a field angle acquisition unit for acquiring a field angle of the imaging unit, a distance detection unit for detecting a distance to the subject, the position, the posture, and the field angle obtained by multiple imaging. A speed calculation unit that calculates the moving speed of the subject based on the distance.
According to the second aspect, the imaging device includes an imaging unit that captures a subject image and outputs an imaging signal, a subject position detection unit that detects the position of the subject in the imaging screen from the imaging signal, and the attitude of the imaging device. A main body that identifies a main subject from a plurality of the subjects by a posture detection unit to detect, a field angle acquisition unit that acquires a field angle of the imaging unit, and the position, the posture, and the field angle of a plurality of times of imaging. A subject specifying unit.
According to the third aspect, the electronic component includes an imaging signal input unit to which an imaging signal obtained by imaging a subject image is input, a subject position detection unit that detects the position of the subject in the imaging screen from the imaging signal, and an imaging device A posture detection unit that detects the posture of the subject, an angle-of-view acquisition unit that acquires an angle of view when the subject image is captured, a distance detection unit that detects a distance to the subject, and the position obtained by multiple imaging A speed calculator that calculates a moving speed of the subject based on the posture, the angle of view, and the distance.
According to the fourth aspect, the electronic component includes an imaging signal input unit that receives an imaging signal obtained by imaging a subject image, a subject position detection unit that detects the position of the subject in a shooting screen from the imaging signal, and an imaging device A plurality of the subjects by the posture detection unit that detects the posture of the image, the angle of view acquisition unit that acquires the angle of view when the subject image is captured, and the position, the posture, and the angle of view obtained by multiple imaging. A main subject specifying unit for specifying the main subject.

第1の実施の形態に係る撮像装置の構成を模式的に示すブロック図1 is a block diagram schematically showing the configuration of an imaging apparatus according to a first embodiment 座標系の定義を例示する図Diagram illustrating the definition of the coordinate system 時刻t0における撮像装置と候補被写体との位置関係を示す平面図The top view which shows the positional relationship of an imaging device and a candidate subject in the time t0. 時刻t1における撮像装置と候補被写体との位置関係を示す平面図The top view which shows the positional relationship of an imaging device and a candidate subject at the time t1 時刻t0、t1における撮像装置と候補被写体との位置関係を示す平面図A plan view showing the positional relationship between the imaging device and the candidate subject at times t0 and t1 時刻t0における撮像装置と候補被写体との位置関係を示す平面図The top view which shows the positional relationship of an imaging device and a candidate subject in the time t0. 時刻t0、t1における撮像装置と候補被写体との位置関係を模式的に示す図The figure which shows typically the positional relationship of an imaging device and a candidate subject in the time t0 and t1. 第2の実施の形態に係る撮像装置の構成を模式的に示すブロック図FIG. 2 is a block diagram schematically illustrating the configuration of an imaging apparatus according to a second embodiment. 時刻t1、t2の表示用画像を例示する図The figure which illustrates the display image of time t1 and t2 時刻t1、t2における撮像装置と候補被写体との位置関係を模式的に示す平面図The top view which shows typically the positional relationship of an imaging device and a candidate subject at the time t1 and t2. 顔A方向のベクトルの変化(差分ベクトル)を例示する図The figure which illustrates the change (difference vector) of the vector of the face A direction

(第1の実施の形態)
図1は、第1の実施の形態に係る撮像装置1の構成を模式的に示すブロック図である。撮像装置1は、カメラボディ2およびレンズ鏡筒3を有する。レンズ鏡筒3は、カメラボディ2に着脱可能な、いわゆる交換レンズである。なお、レンズ鏡筒3を交換可能にせず、カメラボディ2と一体に構成してもよい。
(First embodiment)
FIG. 1 is a block diagram schematically illustrating the configuration of the imaging apparatus 1 according to the first embodiment. The imaging device 1 has a camera body 2 and a lens barrel 3. The lens barrel 3 is a so-called interchangeable lens that can be attached to and detached from the camera body 2. Note that the lens barrel 3 may not be replaceable and may be configured integrally with the camera body 2.

レンズ鏡筒3は、撮像光学系30、ズームエンコーダ31、距離エンコーダ32、レンズ駆動部33、およびレンズ制御部34を有する。図1に例示したレンズ鏡筒3は、いわゆるズームレンズである。ユーザが不図示のズーム環を操作すると、不図示のズーム機構により撮像光学系30の焦点距離が変化する。   The lens barrel 3 includes an imaging optical system 30, a zoom encoder 31, a distance encoder 32, a lens driving unit 33, and a lens control unit 34. The lens barrel 3 illustrated in FIG. 1 is a so-called zoom lens. When the user operates a zoom ring (not shown), the focal length of the imaging optical system 30 is changed by a zoom mechanism (not shown).

ズームエンコーダ31は、不図示のズーム機構による撮像光学系30の焦点距離の変化に応じたズーム信号をレンズ制御部34に出力する。レンズ駆動部33は、撮像光学系30に含まれる不図示のフォーカスレンズを駆動することにより、撮像光学系30の焦点位置を変化させる。距離エンコーダ32は、撮像光学系30の撮影距離の変化(焦点位置)に応じた距離信号をレンズ制御部34に出力する。レンズ制御部34は、例えば不図示のCPUおよびその周辺回路により構成される。レンズ制御部34は、レンズ鏡筒3の各部を制御する。   The zoom encoder 31 outputs a zoom signal corresponding to a change in the focal length of the imaging optical system 30 by a zoom mechanism (not shown) to the lens control unit 34. The lens drive unit 33 changes the focal position of the imaging optical system 30 by driving a focus lens (not shown) included in the imaging optical system 30. The distance encoder 32 outputs a distance signal corresponding to a change in the photographing distance (focal position) of the imaging optical system 30 to the lens control unit 34. The lens control unit 34 includes, for example, a CPU (not shown) and its peripheral circuits. The lens control unit 34 controls each part of the lens barrel 3.

カメラボディ2は、撮像部21、姿勢・並進検出部22、距離検出部23、ボディ制御部24、および表示部25を有する。撮像部21は、例えばCCDやCMOSなどの撮像素子である。撮像部21は、被写体像を撮像し撮像信号をボディ制御部24に出力する。姿勢・並進検出部22は、撮像装置1の姿勢および並進運動を検出する。姿勢・並進検出部22は、三軸角速度センサ221、三軸加速度センサ222、三軸地磁気センサ223、および演算部224を有する。   The camera body 2 includes an imaging unit 21, a posture / translation detection unit 22, a distance detection unit 23, a body control unit 24, and a display unit 25. The imaging unit 21 is an imaging device such as a CCD or CMOS. The imaging unit 21 captures a subject image and outputs an imaging signal to the body control unit 24. The posture / translation detection unit 22 detects the posture and translational motion of the imaging apparatus 1. The posture / translation detection unit 22 includes a triaxial angular velocity sensor 221, a triaxial acceleration sensor 222, a triaxial geomagnetic sensor 223, and a calculation unit 224.

三軸角速度センサ221は、撮像装置1の角速度を検出する。三軸加速度センサ222は、撮像装置1の加速度を検出する。三軸地磁気センサ223は、いわゆる電子コンパスであり、地磁気を検出する。演算部224は、三軸角速度センサ221により検出された角速度の情報、三軸加速度センサ222により検出された加速度の情報、および三軸地磁気センサ223により検出された地磁気の情報を用いて、撮像装置1の姿勢および並進運動に関する情報を演算する。並進運動に関する情報とは、例えば、並進運動の速度や変位などである。演算部224は、演算した姿勢に関する情報および並進運動に関する情報を、ボディ制御部24に出力する。   The triaxial angular velocity sensor 221 detects the angular velocity of the imaging device 1. The triaxial acceleration sensor 222 detects the acceleration of the imaging device 1. The triaxial geomagnetic sensor 223 is a so-called electronic compass and detects geomagnetism. The calculation unit 224 uses the information on the angular velocity detected by the triaxial angular velocity sensor 221, the information on the acceleration detected by the triaxial acceleration sensor 222, and the information on the geomagnetism detected by the triaxial geomagnetic sensor 223. Information on the posture and translational motion of 1 is calculated. The information regarding the translational motion is, for example, the speed or displacement of the translational motion. The calculation unit 224 outputs information related to the calculated posture and information related to translational motion to the body control unit 24.

距離検出部23は、例えばToF(Time of Flight; 光飛行時間)法、あるいはLight Coding法などを用いる距離画像センサを有し、撮像装置1から被写体までの距離を検出する。距離検出部23は、撮像部21の各画素に対応する距離情報を出力する。なお、ここで「各画素に対応する距離情報」とは、必ずしも1画素ごとの距離情報を意味しない。例えば、2×2の計4画素ごとに1つの距離情報を出力してもよい。また、撮像部21と距離検出部23の撮像範囲は必ずしも同一でなくてもよい。少なくとも、撮像部21の各画素に対応する距離情報が出力できればよい。両者の撮像範囲が同一である場合は、撮像部21と距離検出部23の解像度は整数倍の関係であることが望ましい。距離検出部23の距離画像センサのフレームレートは、後述する表示用画像のフレームレートと同じ、または表示用画像のフレームレートの整数倍であることが望ましい。   The distance detection unit 23 includes a distance image sensor using, for example, a ToF (Time of Flight) method, a Light Coding method, or the like, and detects the distance from the imaging device 1 to the subject. The distance detection unit 23 outputs distance information corresponding to each pixel of the imaging unit 21. Here, “distance information corresponding to each pixel” does not necessarily mean distance information for each pixel. For example, one piece of distance information may be output for every 2 × 2 total of four pixels. In addition, the imaging ranges of the imaging unit 21 and the distance detection unit 23 are not necessarily the same. It is sufficient that distance information corresponding to each pixel of the imaging unit 21 can be output at least. When the both imaging ranges are the same, it is desirable that the resolutions of the imaging unit 21 and the distance detection unit 23 have an integer multiple relationship. The frame rate of the distance image sensor of the distance detection unit 23 is desirably the same as the frame rate of the display image described later or an integer multiple of the frame rate of the display image.

ボディ制御部24は、例えば不図示のCPUおよびその周辺回路により構成される。ボディ制御部24は、カメラボディ2の各部を制御する。表示部25は、例えば液晶パネル等の表示素子を用いた表示装置である。ボディ制御部24は、画角取得部241、被写体検出部242、速度演算部243、主要被写体特定部244、焦点調節部245、露出制御部246、およびホワイトバランス制御部247を機能的に有する。これらの各部は、ボディ制御部24が所定の制御プログラムを実行することによりソフトウェア的に実装される。なお、これらの各部を、同等の機能を有する電子回路により構成してもよい。   The body control unit 24 includes, for example, a CPU (not shown) and its peripheral circuits. The body control unit 24 controls each part of the camera body 2. The display unit 25 is a display device using a display element such as a liquid crystal panel. The body control unit 24 functionally includes an angle-of-view acquisition unit 241, a subject detection unit 242, a speed calculation unit 243, a main subject specification unit 244, a focus adjustment unit 245, an exposure control unit 246, and a white balance control unit 247. These units are implemented in software by the body control unit 24 executing a predetermined control program. In addition, you may comprise these each part with the electronic circuit which has an equivalent function.

画角取得部241は、レンズ制御部34から、撮像光学系30の焦点距離情報および撮影距離情報を受信し、撮像光学系30の画角を取得する。レンズ制御部34は、距離エンコーダ32の出力から撮影距離情報を生成する。レンズ制御部34は、ズームエンコーダ31の出力から焦点距離情報を生成する。   The angle of view acquisition unit 241 receives the focal length information and the shooting distance information of the imaging optical system 30 from the lens control unit 34 and acquires the angle of view of the imaging optical system 30. The lens control unit 34 generates shooting distance information from the output of the distance encoder 32. The lens control unit 34 generates focal length information from the output of the zoom encoder 31.

被写体検出部242は、撮像部21により出力された撮像信号から、撮影画面内における1つ以上の被写体(主要被写体の候補である候補被写体)の位置を検出する。被写体検出部242は、例えばテンプレートマッチング、顔検出、人体検出、フレーム間差分による動体検出等の方法により、候補被写体を検出する。   The subject detection unit 242 detects the position of one or more subjects (candidate subjects that are candidates for the main subject) in the shooting screen from the imaging signal output from the imaging unit 21. The subject detection unit 242 detects candidate subjects by methods such as template matching, face detection, human body detection, and moving object detection based on interframe differences.

速度演算部243は、複数回の撮像による候補被写体の位置と撮像装置1の姿勢および並進運動と撮像光学系30の画角と候補被写体の距離とから、候補被写体ごとの移動速度を演算する。詳細は後述するが、速度演算部243は、撮像画面内における移動速度や、撮像装置1との相対的な移動速度などではなく、慣性座標系における移動速度を演算する。例えばユーザがズーム環を操作して撮像光学系のズーム比を変えたり、撮像装置1自体を動かしたりした場合であっても、速度演算部243は候補被写体の実際の移動速度を演算する。   The speed calculation unit 243 calculates a moving speed for each candidate subject from the position of the candidate subject obtained by a plurality of times of imaging, the orientation and translational motion of the imaging device 1, the angle of view of the imaging optical system 30, and the distance of the candidate subject. Although details will be described later, the speed calculation unit 243 calculates the movement speed in the inertial coordinate system, not the movement speed in the imaging screen or the relative movement speed with the imaging apparatus 1. For example, even when the user operates the zoom ring to change the zoom ratio of the imaging optical system or moves the imaging device 1 itself, the speed calculation unit 243 calculates the actual moving speed of the candidate subject.

主要被写体特定部244は、候補被写体ごとの移動速度により、1つ以上の候補被写体から1つの候補被写体を主要被写体として特定する。焦点調節部245は、主要被写体特定部244により特定された主要被写体に対してピントが合うように、撮像光学系の自動焦点調節を行う。露出制御部246は、主要被写体特定部244により特定された主要被写体が適正露出で撮像されるように自動露出調整を行う。ホワイトバランス制御部247は、主要被写体特定部244により特定された主要被写体が適正なホワイトバランスで撮像されるように自動ホワイトバランス調整を行う。   The main subject specifying unit 244 specifies one candidate subject as a main subject from one or more candidate subjects based on the moving speed of each candidate subject. The focus adjustment unit 245 performs automatic focus adjustment of the imaging optical system so that the main subject specified by the main subject specifying unit 244 is in focus. The exposure control unit 246 performs automatic exposure adjustment so that the main subject specified by the main subject specifying unit 244 is imaged with appropriate exposure. The white balance control unit 247 performs automatic white balance adjustment so that the main subject specified by the main subject specifying unit 244 is imaged with an appropriate white balance.

(主要被写体の自動検出機能の説明)
本実施の形態に係る撮像装置1は、移動速度に基づく主要被写体の自動検出機能を有している。以下、主要被写体の自動検出機能について説明する。
(Explanation of main subject automatic detection function)
The imaging apparatus 1 according to the present embodiment has a main subject automatic detection function based on the moving speed. The main subject automatic detection function will be described below.

撮像装置1が電源オン状態のとき、撮像部21は、所定周期(例えば60分の1秒)ごとに繰り返し撮像を行い、撮像信号を出力する。ボディ制御部24は、この撮像信号に基づき表示用画像(いわゆるスルー画)を作成して表示部25に表示する。ユーザが所定の撮像操作(例えば不図示のレリーズスイッチの押下操作)を行うと、ボディ制御部24は撮像部21に撮像を行わせ、撮像部21から出力された撮像信号に基づき記憶用画像を作成して不図示の記憶媒体に記憶する。この記憶用画像の作成のための撮像を本撮像と称する。   When the imaging apparatus 1 is in a power-on state, the imaging unit 21 repeatedly performs imaging at a predetermined cycle (for example, 1/60 second) and outputs an imaging signal. The body control unit 24 creates a display image (a so-called through image) based on the imaging signal and displays it on the display unit 25. When the user performs a predetermined imaging operation (for example, a pressing operation of a release switch (not shown)), the body control unit 24 causes the imaging unit 21 to perform imaging, and an image for storage is generated based on the imaging signal output from the imaging unit 21. Create and store in a storage medium (not shown). This imaging for creating the storage image is called main imaging.

なお、表示用画像は、記憶用画像に比べて画素数が少ない画像であってもよい。例えば、表示部25の表示画素数と等しい画素数であってもよいし、表示部25の表示画素数を多少上回る程度の画素数であってもよい。このようにすることで、表示用画像の作成に要する演算量や消費電力量を削減することができる。また、表示用画像を作成する際、撮像部21は、いわゆる間引き読み出しを行った撮像信号を出力してもよい。つまり、撮像部21は、撮像部21が有する全ての撮像画素を用いるのではなく、その一部の撮像画素のみを用いて表示用画像のための撮像を行ってもよい。   The display image may be an image having a smaller number of pixels than the storage image. For example, the number of pixels equal to the number of display pixels of the display unit 25 may be used, or the number of pixels slightly higher than the number of display pixels of the display unit 25 may be used. By doing so, it is possible to reduce the amount of calculation and power consumption required for creating a display image. Further, when creating a display image, the imaging unit 21 may output an imaging signal obtained by performing so-called thinning readout. That is, the imaging unit 21 may perform imaging for a display image using only a part of the imaging pixels instead of using all the imaging pixels included in the imaging unit 21.

ユーザは、本撮像を行う前に、主要被写体の移動速度を予め指定しておく。例えば、不図示の操作部材を操作して、時速200キロメートル以上の被写体が主要被写体であることをボディ制御部24に入力しておく。被写体検出部242は、表示用画像の中から主要被写体の候補を検出する。速度演算部243は、表示用画像から検出された候補被写体の移動速度を後述する処理によって演算する。主要被写体特定部244は、ユーザにより指定された移動速度の候補被写体が存在すれば、その候補被写体が主要被写体であると特定する。   The user designates the moving speed of the main subject in advance before performing the main imaging. For example, an operation member (not shown) is operated to input to the body control unit 24 that a subject having a speed of 200 km / h or more is the main subject. The subject detection unit 242 detects main subject candidates from the display image. The speed calculation unit 243 calculates the moving speed of the candidate subject detected from the display image by a process described later. If there is a candidate subject with the moving speed specified by the user, the main subject specifying unit 244 specifies that the candidate subject is the main subject.

主要被写体特定部244によって主要被写体が特定されると、焦点調節部245による自動焦点調節と、露出制御部246による自動露出調整と、ホワイトバランス制御部247による自動ホワイトバランス調整と、がその主要被写体に対して行われる。これにより、主要被写体の本撮像に適した設定が、予め移動速度を指定する以外の操作を行うことなく、撮像装置1に自動的に設定されるので、ユーザはフレーミング等に集中することができる。   When the main subject is specified by the main subject specifying unit 244, automatic focus adjustment by the focus adjustment unit 245, automatic exposure adjustment by the exposure control unit 246, and automatic white balance adjustment by the white balance control unit 247 are the main subjects. To be done. Thereby, since the setting suitable for the main imaging of the main subject is automatically set in the imaging device 1 without performing an operation other than designating the moving speed in advance, the user can concentrate on framing and the like. .

以上に説明した主要被写体特定部244による主要被写体の特定動作は、動画撮像時にも行われる。動画撮像時には、表示用画像に対して行うと説明した処理を、動画の各フレームに対して行う。つまり、被写体検出部242、速度演算部243、および主要被写体特定部244は、動画の各フレームに対してリアルタイムに上述した処理を実行し、主要被写体特定部244により各フレームにおける主要被写体が特定される。そして、焦点調節部245による自動焦点調節と、露出制御部246による自動露出調整と、ホワイトバランス制御部247による自動ホワイトバランス調整と、がその主要被写体に対して行われる。これにより、主要被写体の動画撮像に適した設定が、予め移動速度を指定する以外の操作を行うことなく、撮像装置1に自動的に設定されるので、ユーザはフレーミング等に集中することができる。   The main subject specifying operation by the main subject specifying unit 244 described above is also performed during moving image capturing. At the time of moving image capturing, the processing described as being performed on the display image is performed on each frame of the moving image. That is, the subject detection unit 242, the speed calculation unit 243, and the main subject specifying unit 244 execute the above-described processing on each frame of the moving image in real time, and the main subject specifying unit 244 specifies the main subject in each frame. The Then, automatic focus adjustment by the focus adjustment unit 245, automatic exposure adjustment by the exposure control unit 246, and automatic white balance adjustment by the white balance control unit 247 are performed on the main subject. As a result, the setting suitable for moving image capturing of the main subject is automatically set in the imaging apparatus 1 without performing an operation other than specifying the moving speed in advance, so that the user can concentrate on framing and the like. .

(姿勢・並進検出部22の説明)
図2は、座標系の定義を例示する図である。以下の説明では、図2に定義した座標系を用いる。図2(b)に示すように、慣性座標系は東向きのE軸、北向きのN軸、上向きのU軸により定められる。その他、撮像装置1に注目した座標系として、図2(a)に示す、撮像装置1のX軸、Y軸、Z軸により定められる撮像装置座標系を用いる。
(Description of posture / translation detection unit 22)
FIG. 2 is a diagram illustrating the definition of the coordinate system. In the following description, the coordinate system defined in FIG. 2 is used. As shown in FIG. 2B, the inertial coordinate system is defined by an eastward E axis, a northward N axis, and an upward U axis. In addition, as a coordinate system focused on the imaging apparatus 1, an imaging apparatus coordinate system defined by the X axis, the Y axis, and the Z axis of the imaging apparatus 1 shown in FIG.

三軸角速度センサ221、三軸加速度センサ222、および三軸地磁気センサ223は、撮像装置1に固定されている。姿勢・並進検出部22の演算部224は、撮像装置1が静止しているときの三軸加速度センサ222および三軸地磁気センサ223の出力から、慣性座標系と撮像装置座標系の相対角度、すなわち撮像装置1の姿勢を演算する。演算部224は、撮像装置1の静止時の姿勢を、撮像装置1の初期姿勢とする。以下の説明において、撮像装置1の初期姿勢を、クォータニオンq0(q00,q01,q02,q03)で表す。   The triaxial angular velocity sensor 221, the triaxial acceleration sensor 222, and the triaxial geomagnetic sensor 223 are fixed to the imaging device 1. The calculation unit 224 of the posture / translation detection unit 22 determines the relative angle between the inertial coordinate system and the imaging device coordinate system based on the outputs of the triaxial acceleration sensor 222 and the triaxial geomagnetic sensor 223 when the imaging device 1 is stationary. The attitude of the imaging device 1 is calculated. The calculation unit 224 sets the posture of the imaging device 1 when it is stationary as the initial posture of the imaging device 1. In the following description, the initial posture of the imaging device 1 is represented by a quaternion q0 (q00, q01, q02, q03).

その後、演算部224は、撮像装置1の姿勢の変化を、三軸角速度センサ221の出力から追跡する。例えば、三軸角速度センサ221の出力から、回転した撮像装置1の姿勢をクォータニオンで表す。クォータニオンの時間微分は角速度ベクトル(ロール、ピッチ、ヨー)によって表すことができるので、初期姿勢q0を初期値として微分方程式を解き、各時刻のクォータニオンq(t)を求めることができる。これにより、姿勢・並進検出部22からボディ制御部24へ、常に最新の撮像装置1の姿勢情報が出力される。   Thereafter, the calculation unit 224 tracks the change in the attitude of the imaging device 1 from the output of the triaxial angular velocity sensor 221. For example, from the output of the triaxial angular velocity sensor 221, the rotated posture of the imaging device 1 is expressed by quaternions. Since the quaternion time derivative can be expressed by an angular velocity vector (roll, pitch, yaw), the differential equation can be solved with the initial posture q0 as an initial value to obtain the quaternion q (t) at each time. Thereby, the latest posture information of the imaging device 1 is always output from the posture / translation detection unit 22 to the body control unit 24.

なお、クォータニオンを求めるために必要な角速度のサンプリング周波数は、表示用画像のフレームレートより高いことが望ましい。また、角速度のサンプリング周波数は、フレームレートの整数倍であることがより望ましい(画像取得タイミングと等間隔にクォータニオンを求めることができるため)。例えば、表示用画像のフレームレートが30fpsの場合、角速度のサンプリング周波数は60Hzや120Hzであることが望ましい。   Note that the sampling frequency of the angular velocity necessary for obtaining the quaternion is preferably higher than the frame rate of the display image. Further, it is more desirable that the sampling frequency of the angular velocity is an integer multiple of the frame rate (because quaternions can be obtained at equal intervals to the image acquisition timing). For example, when the frame rate of the display image is 30 fps, the sampling frequency of the angular velocity is preferably 60 Hz or 120 Hz.

ボディ制御部24は、姿勢・並進検出部22により検出された撮像装置1の姿勢から、撮像装置1の光軸方向を慣性座標系で定義する。例えば時刻tの撮像装置1の光軸方向(X軸)の単位ベクトル(1,0,0)をクォータニオンq(t)で慣性座標系に変換すると、長さ1の光軸方向のベクトルが求められる。このベクトルは、撮像装置1を中心とした半径1の球面を定義すると、球面上の点に相当する。   The body control unit 24 defines the optical axis direction of the imaging device 1 in the inertial coordinate system based on the orientation of the imaging device 1 detected by the orientation / translation detection unit 22. For example, when a unit vector (1, 0, 0) in the optical axis direction (X axis) of the imaging device 1 at time t is converted into an inertial coordinate system by quaternion q (t), a vector in the optical axis direction of length 1 is obtained. It is done. This vector corresponds to a point on the spherical surface when a spherical surface having a radius of 1 centered on the imaging device 1 is defined.

なお、撮像装置1の慣性座標系に対する初期姿勢が既知である場合について説明したが、三軸加速度センサ222または三軸地磁気センサ223がなく、撮像装置1の初期姿勢が不明である場合には、光軸方向を、撮像装置1の初期方向を基準とした相対方向としてもよい。   In addition, although the case where the initial orientation with respect to the inertial coordinate system of the imaging device 1 is known has been described, when the triaxial acceleration sensor 222 or the triaxial geomagnetic sensor 223 is not provided and the initial orientation of the imaging device 1 is unknown, The optical axis direction may be a relative direction based on the initial direction of the imaging device 1.

演算部224は、以上で説明した撮像装置1の姿勢と三軸加速度センサ222の出力とから、更に、撮像装置1の並進運動を検出する。   The computing unit 224 further detects the translational motion of the imaging device 1 from the attitude of the imaging device 1 described above and the output of the triaxial acceleration sensor 222.

(速度演算部243の説明)
以下、速度演算部243により実行される、候補被写体の慣性座標系における移動速度を演算する処理について説明する。まず、撮像装置1の姿勢変化がヨー方向(Z軸方向)に限られ、かつ、候補被写体の動きが慣性座標系のEN方向(2次元平面上)に限られる場合について説明する。
(Description of the speed calculation unit 243)
Hereinafter, processing for calculating the moving speed of the candidate subject in the inertial coordinate system, which is executed by the speed calculation unit 243, will be described. First, a case will be described in which the posture change of the imaging device 1 is limited to the yaw direction (Z-axis direction) and the movement of the candidate subject is limited to the EN direction (on the two-dimensional plane) of the inertial coordinate system.

図3は、時刻t0における撮像装置1と候補被写体との位置関係を示す平面図である。図3において、移動速度を演算する対象となる候補被写体は自動車である。以下の説明では、この自動車を単に候補被写体と呼ぶ。図3の左上には、時刻t0に撮像された表示用画像を例示している。   FIG. 3 is a plan view showing the positional relationship between the imaging device 1 and the candidate subject at time t0. In FIG. 3, the candidate subject for which the moving speed is calculated is a car. In the following description, this car is simply called a candidate subject. In the upper left of FIG. 3, a display image captured at time t0 is illustrated.

図3において、表示用画像の長辺方向のサイズを2L、候補被写体の表示用画像内の水平方向の座標(例えば表示用画像の中央を0とし、左方向をマイナス、右方向をプラスとする座標)をYt0、撮像装置1のZ軸周りの半画角をθfとする。このとき、Yt0について次式(1)が成り立つ。撮像光学系30の光軸と、撮像部21から見た候補被写体の方向とが成す角θt0は、式(1)を変形した次式(2)により求められる。   In FIG. 3, the size of the display image in the long side direction is 2L, the horizontal coordinate in the display image of the candidate subject (for example, the center of the display image is 0, the left direction is negative, and the right direction is positive). The coordinate) is Yt0, and the half angle of view around the Z axis of the imaging apparatus 1 is θf. At this time, the following equation (1) holds for Yt0. An angle θt0 formed by the optical axis of the imaging optical system 30 and the direction of the candidate subject viewed from the imaging unit 21 is obtained by the following equation (2) obtained by modifying equation (1).

Figure 2018006992
Figure 2018006992

表示用画像の長辺方向のサイズは既知である(予め決められている)ので、Lは既知である。Yt0は被写体検出部242により検出される。θfは画角取得部241により取得される。速度演算部243は、これらの情報を上式(2)に当てはめ、θt0を演算する。   Since the size of the display image in the long side direction is known (predetermined), L is known. Yt0 is detected by the subject detection unit 242. θf is acquired by the view angle acquisition unit 241. The speed calculation unit 243 applies these pieces of information to the above equation (2) and calculates θt0.

速度演算部243は、被写体検出部242により検出された候補被写体の位置に対応する距離情報を、距離検出部23により出力された撮像部21の各画素に対応する距離情報から特定する。ここで特定した距離情報が、時刻t0における撮像装置1から候補被写体までの距離Dt0を示している。速度演算部243は、姿勢・並進検出部22により出力された、慣性座標系における撮像装置1の姿勢から、撮像光学系30の光軸と慣性座標系のE軸とが成す角θc0を演算する。   The speed calculation unit 243 specifies distance information corresponding to the position of the candidate subject detected by the subject detection unit 242 from distance information corresponding to each pixel of the imaging unit 21 output by the distance detection unit 23. The distance information specified here indicates the distance Dt0 from the imaging device 1 to the candidate subject at time t0. The speed calculation unit 243 calculates an angle θc0 formed by the optical axis of the imaging optical system 30 and the E axis of the inertial coordinate system from the attitude of the imaging device 1 in the inertial coordinate system output from the attitude / translation detection unit 22. .

図4は、時刻t0からt秒後の時刻t1における撮像装置1と候補被写体との位置関係を示す平面図である。図4の左上には、図3と同様、時刻t1に撮像された表示用画像を例示している。速度演算部243は、時刻t0の場合と同様に、次式(3)により、撮像光学系30の光軸と、撮像部21から見た候補被写体の方向とが成す角θt1を演算する。なお、次式(3)において、時刻t1における候補被写体の表示用画像内の水平方向の座標をYt1と表記している。   FIG. 4 is a plan view showing the positional relationship between the imaging device 1 and the candidate subject at time t1 t seconds after time t0. In the upper left of FIG. 4, a display image captured at time t1 is illustrated as in FIG. Similar to the case of time t0, the speed calculation unit 243 calculates an angle θt1 formed by the optical axis of the imaging optical system 30 and the direction of the candidate subject viewed from the imaging unit 21 by the following equation (3). In the following equation (3), the horizontal coordinate in the display image of the candidate subject at time t1 is expressed as Yt1.

Figure 2018006992
Figure 2018006992

速度演算部243は、時刻t0の場合と同様に、距離検出部23の出力に基づき時刻t1における撮像装置1から候補被写体までの距離Dt1を求める。速度演算部243は、時刻t0の場合と同様に、姿勢・並進検出部22の出力に基づき時刻t1における撮像光学系30の光軸と慣性座標系のE軸とが成す角θc1を演算する。速度演算部243は、更に、姿勢・並進検出部22により検出された撮像装置1の並進運動から、時刻t0から時刻t1までのt秒の間に為された撮像装置1の並進Vc・tを求める。   Similarly to the case of time t0, the speed calculation unit 243 obtains the distance Dt1 from the imaging device 1 to the candidate subject at time t1 based on the output of the distance detection unit 23. Similarly to the case of time t0, the speed calculation unit 243 calculates an angle θc1 formed by the optical axis of the imaging optical system 30 and the E axis of the inertial coordinate system at time t1 based on the output of the posture / translation detection unit 22. The speed calculation unit 243 further calculates the translation Vc · t of the imaging device 1 performed during t seconds from the time t0 to the time t1 from the translational motion of the imaging device 1 detected by the posture / translation detection unit 22. Ask.

図5は、時刻t0、t1における撮像装置1と候補被写体との位置関係を示す平面図である。時刻t0から時刻t1までのt秒の間に為された候補被写体の移動をVT・tとすると、この移動における候補被写体の移動速度VTは次式(4)により求められる。   FIG. 5 is a plan view showing the positional relationship between the imaging device 1 and the candidate subject at times t0 and t1. Assuming that the movement of the candidate subject made during t seconds from time t0 to time t1 is VT · t, the movement speed VT of the candidate subject in this movement is obtained by the following equation (4).

Figure 2018006992
Figure 2018006992

上式(4)において、VTE、VTN、VTUはそれぞれE軸方向、N軸方向、U軸方向における候補被写体の移動速度である。また、VCE、VCNはそれぞれE軸方向、N軸方向における撮像装置1の移動速度である。速度演算部243は、上式(4)を演算することにより、候補被写体の移動速度を演算する。   In the above equation (4), VTE, VTN, and VTU are the moving speeds of candidate subjects in the E-axis direction, N-axis direction, and U-axis direction, respectively. VCE and VCN are moving speeds of the imaging apparatus 1 in the E-axis direction and the N-axis direction, respectively. The speed calculation unit 243 calculates the moving speed of the candidate subject by calculating the above equation (4).

次に、撮像装置1の姿勢変化および候補被写体の動きを制限しない場合について説明する。図6は、時刻t0における撮像装置1と候補被写体との位置関係を示す平面図である。図6において、移動速度を演算する対象となる候補被写体は飛行機である。以下の説明では、この飛行機を単に候補被写体と呼ぶ。図6の左上には、時刻t0に撮像された表示用画像を例示している。   Next, a case where the posture change of the imaging apparatus 1 and the movement of the candidate subject are not limited will be described. FIG. 6 is a plan view showing the positional relationship between the imaging device 1 and the candidate subject at time t0. In FIG. 6, the candidate subject for which the moving speed is calculated is an airplane. In the following description, this airplane is simply called a candidate subject. In the upper left of FIG. 6, a display image captured at time t0 is illustrated.

図6において、表示用画像の長辺方向のサイズを2LY、表示用画像の短辺方向のサイズを2LZ、候補被写体の表示用画像内の座標(例えば表示用画像の中央を0とし、左方向および上方向をマイナス、右方向および下方向をプラスとする座標)を(Yt0,Zt0)、撮像装置1のZ軸周りの半画角をθf、撮像装置1のY軸周りの半画角をφfとする。このとき、Yt0について次式(5)が、Zt0について次式(6)が、それぞれ成り立つ。撮像光学系30の光軸と、撮像部21から見た候補被写体の方向とが成す角のZ軸周り成分θt0は、式(5)を変形した次式(7)により求められる。撮像光学系30の光軸と、撮像部21から見た候補被写体の方向とが成す角のY軸周り成分φt0は、式(6)を変形した次式(8)により求められる。   In FIG. 6, the size of the display image in the long side direction is 2LY, the size of the display image in the short side direction is 2LZ, the coordinates in the display image of the candidate subject (for example, the center of the display image is 0, and the left direction (Yt0, Zt0), the half angle of view around the Z axis of the imaging device 1 is θf, and the half angle of view around the Y axis of the imaging device 1 is Let φf. At this time, the following equation (5) holds for Yt0, and the following equation (6) holds for Zt0. A Z-axis rotation component θt0 of an angle formed by the optical axis of the imaging optical system 30 and the direction of the candidate subject viewed from the imaging unit 21 is obtained by the following equation (7) obtained by modifying the equation (5). A Y-axis rotation component φt0 of an angle formed by the optical axis of the imaging optical system 30 and the direction of the candidate subject viewed from the imaging unit 21 is obtained by the following equation (8) obtained by modifying equation (6).

Figure 2018006992
Figure 2018006992

表示用画像のサイズは既知である(予め決められている)ので、LYおよびLZは既知である。Yt0およびZt0は被写体検出部242により検出される。θfおよびφfは画角取得部241により取得される。速度演算部243は、これらの情報を上式(7)、(8)に当てはめ、θt0およびφt0を演算する。これにより、撮像装置座標系における撮像装置1から見た候補被写体の方向が特定される。   Since the size of the display image is known (predetermined), LY and LZ are known. Yt0 and Zt0 are detected by the subject detection unit 242. θf and φf are acquired by the field angle acquisition unit 241. The speed calculation unit 243 applies these pieces of information to the above equations (7) and (8), and calculates θt0 and φt0. Thereby, the direction of the candidate subject viewed from the imaging device 1 in the imaging device coordinate system is specified.

速度演算部243は、姿勢・並進検出部22により出力された慣性座標系における撮像装置1の姿勢と、撮像装置座標系における撮像装置1から見た候補被写体の方向とから、慣性座標系における撮像装置1→候補被写体のベクトルRTを演算する。   The speed calculation unit 243 performs imaging in the inertial coordinate system from the orientation of the imaging device 1 in the inertial coordinate system output by the orientation / translation detection unit 22 and the direction of the candidate subject viewed from the imaging device 1 in the imaging device coordinate system. Device 1 → Calculates a candidate subject vector RT.

慣性座標系から見た撮像装置1の姿勢がクォータニオンq0,q1,q2,q3により表される場合、慣性座標系から撮像装置座標系への方向余弦行列DCMは次式(9)により表される。   When the attitude of the imaging device 1 viewed from the inertial coordinate system is represented by quaternions q0, q1, q2, and q3, the direction cosine matrix DCM from the inertial coordinate system to the imaging device coordinate system is represented by the following equation (9). .

Figure 2018006992
Figure 2018006992

また、撮像装置座標系から見た被写体方向単位ベクトルNTCは、次式(10)により表される。   The subject direction unit vector NTC viewed from the imaging apparatus coordinate system is expressed by the following equation (10).

Figure 2018006992
Figure 2018006992

撮像装置座標系から慣性座標系への座標変換は、方向余弦行列DCMの転置行列DCMにより表現されるため、慣性座標系から見た被写体方向単位ベクトルNTは次式(11)により求められる。 Coordinate transformation from the imaging device coordinate system to inertial coordinate system, since it is expressed by the transposed matrix DCM T direction cosine matrix DCM, subject direction unit vector NT viewed from the inertial coordinate system is obtained by the following equation (11).

Figure 2018006992
Figure 2018006992

距離検出部23の出力から特定した被写体距離DTと、(11)式により求めた被写体方向単位ベクトルNTを掛け合わせると、慣性座標系から見た撮像装置1→被写体ベクトルRTが求まる。すなわち、慣性座標系から見た撮像装置1→被写体ベクトルRTは次式(12)により求められる。   By multiplying the subject distance DT identified from the output of the distance detection unit 23 and the subject direction unit vector NT obtained by the equation (11), the imaging device 1 → the subject vector RT as seen from the inertial coordinate system is obtained. That is, the imaging device 1 → the subject vector RT viewed from the inertial coordinate system is obtained by the following equation (12).

Figure 2018006992
Figure 2018006992

図7は、時刻t0、t1における撮像装置1と候補被写体との位置関係を模式的に示す図である。前述の通り、姿勢・並進検出部22は撮像装置1の並進運動、すなわち図7に図示した撮像装置1の並進ベクトルMC(t0→t1)を検出することができる。速度演算部243は、時刻t0および時刻t1においてそれぞれ速度演算部243により演算された撮像装置→被写体ベクトルRT、および、姿勢・並進検出部22により検出された並進ベクトルMC(t0→t1)から、次式(13)により慣性座標系における候補被写体の移動速度VTt1を演算する。   FIG. 7 is a diagram schematically illustrating the positional relationship between the imaging device 1 and the candidate subject at times t0 and t1. As described above, the posture / translation detection unit 22 can detect the translational motion of the imaging device 1, that is, the translation vector MC (t0 → t1) of the imaging device 1 illustrated in FIG. The speed calculation unit 243 obtains from the imaging device → subject vector RT calculated by the speed calculation unit 243 at time t0 and time t1, and the translation vector MC (t0 → t1) detected by the posture / translation detection unit 22, respectively. The moving speed VTt1 of the candidate subject in the inertial coordinate system is calculated by the following equation (13).

Figure 2018006992
Figure 2018006992

以上のように、速度演算部243は、候補被写体の動きや撮像装置1の動きに関わらず、各候補被写体の慣性座標系における移動速度を示す速度ベクトルを演算することができる。   As described above, the speed calculation unit 243 can calculate the speed vector indicating the movement speed of each candidate subject in the inertial coordinate system regardless of the movement of the candidate subject and the movement of the imaging apparatus 1.

上述した実施の形態によれば、次の作用効果が得られる。
(1)撮像部21は、被写体像を撮像し撮像信号を出力する。被写体検出部242は、撮像信号から撮像画面内における被写体の位置を検出する。姿勢・並進検出部22は、撮像装置1の姿勢を検出する。画角取得部241は、撮像部21の画角を取得する。距離検出部23は、被写体までの距離を検出する。速度演算部243は、複数回の撮像による位置と姿勢と画角と距離とにより、被写体の移動速度を演算する。このようにしたので、実世界(慣性座標系)における被写体の移動速度を正確に検出することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The imaging unit 21 captures a subject image and outputs an imaging signal. The subject detection unit 242 detects the position of the subject in the imaging screen from the imaging signal. The posture / translation detection unit 22 detects the posture of the imaging apparatus 1. The angle of view acquisition unit 241 acquires the angle of view of the imaging unit 21. The distance detection unit 23 detects the distance to the subject. The speed calculation unit 243 calculates the moving speed of the subject based on the position, posture, angle of view, and distance obtained by multiple imaging. Since it did in this way, the moving speed of the to-be-photographed object in the real world (inertial coordinate system) can be detected correctly.

(2)姿勢・並進検出部22は、撮像装置1の並進運動を検出する。速度演算部243は、複数回の撮像による位置と姿勢と画角と距離と並進運動とにより、被写体の移動速度を演算する。このようにしたので、撮像装置1が途中で並進した場合であっても、実世界(慣性座標系)における被写体の移動速度を正確に検出することができる。 (2) The posture / translation detection unit 22 detects the translational motion of the imaging device 1. The speed calculation unit 243 calculates the moving speed of the subject based on the position, posture, angle of view, distance, and translational motion obtained by a plurality of imaging operations. Since it did in this way, even if it is a case where the imaging device 1 translates on the way, the moving speed of the to-be-photographed object in the real world (inertial coordinate system) can be detected correctly.

(3)主要被写体特定部244は、被写体の移動速度により、複数の被写体から主要被写体を特定する。このようにしたので、主要被写体を精度よく特定することができる。 (3) The main subject specifying unit 244 specifies a main subject from a plurality of subjects based on the moving speed of the subject. Since it did in this way, a main subject can be specified accurately.

(4)速度演算部243は、姿勢および並進運動から算出された慣性座標系における撮像装置1の動きと、位置および距離から算出された撮像装置座標系における被写体の動き(すなわち、撮像装置1との相対的な被写体の動き、換言すると、撮像装置1から見た被写体の動き)と、により被写体の移動速度を演算する。このようにしたので、実世界(慣性座標系)における被写体の移動速度を正確に検出することができる。 (4) The speed calculation unit 243 includes the movement of the imaging device 1 in the inertial coordinate system calculated from the posture and the translational motion, and the movement of the subject in the imaging device coordinate system calculated from the position and the distance (that is, the imaging device 1 and The movement speed of the subject is calculated based on the relative movement of the subject, in other words, the movement of the subject viewed from the imaging device 1. Since it did in this way, the moving speed of the to-be-photographed object in the real world (inertial coordinate system) can be detected correctly.

(5)焦点調節部245は、特定された主要被写体に対して自動焦点調節を行う。露出制御部246は、特定された主要被写体に対して自動露出調整を行う。ホワイトバランス制御部247は、特定された主要被写体に対して自動ホワイトバランス調整を行う。このようにしたので、主要被写体の撮像を容易に行うことが可能な、操作性のよい撮像装置を提供することができる。 (5) The focus adjustment unit 245 performs automatic focus adjustment on the identified main subject. The exposure control unit 246 performs automatic exposure adjustment on the identified main subject. The white balance control unit 247 performs automatic white balance adjustment on the identified main subject. Since it did in this way, the imaging device with sufficient operativity which can image a main subject easily can be provided.

(6)姿勢・並進検出部22は、三軸角速度センサ221と、三軸地磁気センサ223とを有する。このようにしたので、撮像装置1の初期姿勢に依らず、実世界(慣性座標系)における被写体の移動速度を正確に検出することができる。 (6) The posture / translation detection unit 22 includes a triaxial angular velocity sensor 221 and a triaxial geomagnetic sensor 223. Since this is done, it is possible to accurately detect the moving speed of the subject in the real world (inertial coordinate system) regardless of the initial posture of the imaging apparatus 1.

(第2の実施の形態)
図8は、第2の実施の形態に係る撮像装置1001の構成を模式的に示すブロック図である。第1の実施の形態に係る撮像装置1は、被写体の移動速度に基づき主要被写体を特定していたが、撮像装置1001は移動速度ではなく被写体の方向に基づき主要被写体を特定する。以下、第2の実施の形態に係る撮像装置1001について説明するが、第1の実施の形態と同一の部位については第1の実施の形態と同一の符号を付して説明を省略する。
(Second Embodiment)
FIG. 8 is a block diagram schematically showing the configuration of the imaging apparatus 1001 according to the second embodiment. Although the imaging device 1 according to the first embodiment specifies the main subject based on the moving speed of the subject, the imaging device 1001 specifies the main subject based on the direction of the subject instead of the moving speed. Hereinafter, the imaging apparatus 1001 according to the second embodiment will be described, but the same parts as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment, and description thereof will be omitted.

撮像装置1001は、カメラボディ1002およびレンズ鏡筒3を有する。カメラボディ1002は、撮像部21、姿勢検出部1022、ボディ制御部1024、および表示部25を有する。姿勢検出部1022は、姿勢・並進検出部22の代替であり、撮像装置1の姿勢を検出する。姿勢検出部1022は、三軸角速度センサ221、三軸加速度センサ222、三軸地磁気センサ223、および演算部1224を有する。演算部1224は、三軸角速度センサ221により検出された角速度の情報、三軸加速度センサ222により検出された加速度の情報、および三軸地磁気センサ223により検出された地磁気の情報を用いて、撮像装置1の姿勢を演算する。演算部1224は、演算した姿勢に関する情報を、ボディ制御部1024に出力する。   The imaging device 1001 has a camera body 1002 and a lens barrel 3. The camera body 1002 includes an imaging unit 21, a posture detection unit 1022, a body control unit 1024, and a display unit 25. The posture detection unit 1022 is an alternative to the posture / translation detection unit 22 and detects the posture of the imaging apparatus 1. The posture detection unit 1022 includes a triaxial angular velocity sensor 221, a triaxial acceleration sensor 222, a triaxial geomagnetic sensor 223, and a calculation unit 1224. The calculation unit 1224 uses the angular velocity information detected by the triaxial angular velocity sensor 221, the acceleration information detected by the triaxial acceleration sensor 222, and the geomagnetic information detected by the triaxial geomagnetic sensor 223 to use the imaging device. The attitude of 1 is calculated. The calculation unit 1224 outputs information regarding the calculated posture to the body control unit 1024.

ボディ制御部1024は、例えば不図示のCPUおよびその周辺回路により構成される。ボディ制御部1024は、カメラボディ1002の各部を制御する。ボディ制御部1024は、画角取得部241、被写体検出部242、主要被写体特定部1244、焦点調節部245、露出制御部246、およびホワイトバランス制御部247を機能的に有する。これらの各部は、ボディ制御部1024が所定の制御プログラムを実行することによりソフトウェア的に実装される。なお、これらの各部を、同等の機能を有する電子回路により構成してもよい。   The body control unit 1024 includes, for example, a CPU (not shown) and its peripheral circuits. The body control unit 1024 controls each part of the camera body 1002. The body control unit 1024 functionally includes an angle-of-view acquisition unit 241, a subject detection unit 242, a main subject specification unit 1244, a focus adjustment unit 245, an exposure control unit 246, and a white balance control unit 247. Each of these units is implemented in software by the body control unit 1024 executing a predetermined control program. In addition, you may comprise these each part with the electronic circuit which has an equivalent function.

主要被写体特定部244は、複数回の撮像による候補被写体の位置と撮像装置1001の姿勢と撮像光学系30の画角とにより、1つ以上の候補被写体から1つの候補被写体を主要被写体として特定する。   The main subject specifying unit 244 specifies one candidate subject as a main subject from one or more candidate subjects, based on the position of the candidate subject obtained by a plurality of times of imaging, the attitude of the imaging apparatus 1001, and the angle of view of the imaging optical system 30. .

(主要被写体の自動検出機能の説明)
本実施の形態に係る撮像装置1001は、撮像装置1001の向きと候補被写体の方向との相関に基づく主要被写体の自動検出機能を有している。以下、主要被写体の自動検出機能について説明する。
(Explanation of main subject automatic detection function)
The imaging apparatus 1001 according to this embodiment has a main subject automatic detection function based on the correlation between the orientation of the imaging apparatus 1001 and the direction of the candidate subject. The main subject automatic detection function will be described below.

被写体検出部242は、表示用画像の中から、例えばテンプレートマッチング、顔検出、人体検出、フレーム間差分による動体検出等の方法により、候補被写体を検出する。以下の説明では、候補被写体は人物であり、被写体検出部242は人物の検出に顔検出を利用するものとする。主要被写体特定部1244は、以下に説明する処理によって、いずれかの候補被写体を主要被写体であると特定する。   The subject detection unit 242 detects candidate subjects from the display image by a method such as template matching, face detection, human body detection, or moving body detection based on interframe differences. In the following description, it is assumed that the candidate subject is a person and the subject detection unit 242 uses face detection to detect the person. The main subject specifying unit 1244 specifies one of the candidate subjects as the main subject by the process described below.

図9(a)は、時刻t1の表示用画像を例示する図であり、図9(b)は、時刻t2の表示用画像を例示する図である。図9では、表示用画像から、顔A、顔B、顔Cの計3人の顔が候補被写体として検出されている。以下の説明では、検出されている候補被写体の位置を表示画面上の一点を示す座標で表すことにする。顔A、顔B、顔Cの位置を、座標(xA,yA)、(xB,yB)、(xC,yC)と表記する。なお図3では、説明を簡単にするため、yA=yB=yC=0とした例を示している。   FIG. 9A is a diagram illustrating a display image at time t1, and FIG. 9B is a diagram illustrating a display image at time t2. In FIG. 9, a total of three faces, face A, face B, and face C, are detected as candidate subjects from the display image. In the following description, the position of the detected candidate subject is represented by coordinates indicating one point on the display screen. The positions of the face A, the face B, and the face C are expressed as coordinates (xA, yA), (xB, yB), and (xC, yC). FIG. 3 shows an example in which yA = yB = yC = 0 in order to simplify the description.

時刻t1から時刻t2にかけての、これら3人の顔の動きに注目する。撮像装置の位置から見て、顔Aは右に動き、顔Bは左に動き、顔Cは止まっているとする。またここで、時刻t1から時刻t2にかけて、撮像装置1001の光軸が右に動いているとする。光軸の角度変化が撮像装置1001の位置から見た顔Aの方向の角度変化よりも大きいので、図9に示す通り、表示用画像内では顔Aがわずかに左に動いている。また、顔Bと顔Cも、表示用画像内では左に動いている。   Pay attention to the movements of these three faces from time t1 to time t2. As seen from the position of the imaging device, face A moves to the right, face B moves to the left, and face C stops. Here, it is assumed that the optical axis of the imaging apparatus 1001 moves to the right from time t1 to time t2. Since the change in the angle of the optical axis is larger than the change in the direction of the face A viewed from the position of the imaging device 1001, the face A moves slightly to the left in the display image as shown in FIG. Further, the face B and the face C are also moved to the left in the display image.

表示用画像における顔の座標と表示用画像の画角情報とから、撮像装置1001から見た顔の方向がわかる。姿勢検出部1022により検出された撮像装置1001の姿勢から、撮像装置1001を原点とする慣性座標系での顔の方向がわかる。従って、撮像装置1001を原点とする球面座標での顔の方向を示す点が決定する。撮像装置1001を原点とする慣性座標系の単位球面(半径1)を定義すると、顔A、顔B、顔Cの方向は、単位球面上の点に置き換えることができる。   From the coordinates of the face in the display image and the angle of view information of the display image, the direction of the face viewed from the imaging device 1001 can be known. The orientation of the face in the inertial coordinate system with the imaging device 1001 as the origin can be determined from the orientation of the imaging device 1001 detected by the orientation detection unit 1022. Therefore, a point indicating the face direction in spherical coordinates with the imaging device 1001 as the origin is determined. When the unit spherical surface (radius 1) of the inertial coordinate system with the imaging device 1001 as the origin is defined, the directions of the face A, the face B, and the face C can be replaced with points on the unit spherical surface.

図10(a)は、時刻t1における撮像装置1001と候補被写体との位置関係を模式的に示す平面図であり、図10(b)は、時刻t2における撮像装置1001と候補被写体との位置関係を模式的に示す平面図である。図10(a)、(b)は、それぞれ、慣性座標系の単位球面を球の中心を通る水平面で切断した図であり、中心は撮像装置1001の位置である。   10A is a plan view schematically showing the positional relationship between the imaging device 1001 and the candidate subject at time t1, and FIG. 10B is the positional relationship between the imaging device 1001 and the candidate subject at time t2. It is a top view which shows typically. FIGS. 10A and 10B are diagrams in which the unit spherical surface of the inertial coordinate system is cut along a horizontal plane passing through the center of the sphere, and the center is the position of the imaging device 1001.

時刻t1から時刻t2にかけて、顔Cは止まっているので、顔Cを示すベクトルは変化していないが、光軸はN方向に変化し、画角を示す扇形もN方向にずれるので、表示用画像内では顔Cが左に動いて見える。   Since face C is stopped from time t1 to time t2, the vector indicating face C does not change, but the optical axis changes in the N direction, and the fan shape indicating the angle of view also shifts in the N direction. The face C appears to move to the left in the image.

図9、図10で説明したように、繰り返し複数回撮像された表示用画像と、その表示用画像を撮像したときの撮像装置1001の姿勢角とを用いて、顔A、顔B、顔Cの方向を単位球面上にプロットすることができる。同様に、撮像装置1001の光軸方向も慣性座標系の単位球面上にプロットすることができる。   As described with reference to FIGS. 9 and 10, the face A, the face B, and the face C are obtained by using the display image repeatedly captured a plurality of times and the attitude angle of the image capturing apparatus 1001 when the display image is captured. Can be plotted on the unit sphere. Similarly, the optical axis direction of the imaging device 1001 can be plotted on the unit spherical surface of the inertial coordinate system.

ユーザは、撮像装置1001を用いて撮像を行う際、撮像装置1001の光軸が主要被写体の方向を向くように、撮像装置1001の姿勢を変更する。主要被写体特定部1244は、表示用画像の撮像ごとに、検出された候補被写体(顔A、顔B、顔C)の方向および撮像装置1001の光軸の方向を、慣性座標系の単位球面上の点として演算する。これにより、表示用画像のフレームレートに対応する方向データが演算される。複数の方向データはそれぞれ球面上の折れ線グラフで示される。主要被写体特定部1244は、光軸方向の動きと相関のある動きを示す候補被写体(顔)を主要被写体と特定する。   When imaging using the imaging apparatus 1001, the user changes the orientation of the imaging apparatus 1001 so that the optical axis of the imaging apparatus 1001 faces the direction of the main subject. The main subject specifying unit 1244 displays the direction of the detected candidate subjects (face A, face B, face C) and the direction of the optical axis of the imaging device 1001 on the unit spherical surface of the inertial coordinate system every time the display image is captured. It is calculated as a point. Thereby, direction data corresponding to the frame rate of the display image is calculated. Each of the plurality of direction data is indicated by a line graph on the spherical surface. The main subject specifying unit 1244 specifies a candidate subject (face) showing a motion correlated with the motion in the optical axis direction as the main subject.

主要被写体特定部1244は、光軸方向の動きと候補被写体(顔)の方向の動きとの相関を調べるために、各点の球面上の変化を用いる。例えば、nフレーム目の表示用画像における顔Aの方向に相当する大きさ1のベクトルをVA(n)とする。このベクトルは原点から単位球面上の顔Aに相当する点までを表す。図11のように、フレーム番号nからn+1にかけての顔A方向のベクトルの変化(差分ベクトル)ΔVA(n+1)は、次式(14)により表される。   The main subject specifying unit 1244 uses the change on the spherical surface of each point in order to examine the correlation between the motion in the optical axis direction and the motion in the direction of the candidate subject (face). For example, a vector of size 1 corresponding to the direction of the face A in the n-th frame display image is VA (n). This vector represents from the origin to a point corresponding to the face A on the unit sphere. As shown in FIG. 11, the change (difference vector) ΔVA (n + 1) in the face A direction from frame number n to n + 1 is expressed by the following equation (14).

Figure 2018006992
Figure 2018006992

同様に、光軸方向に相当する大きさ1のベクトルをVO(n)とすると、フレーム番号nからn+1にかけての光軸方向のベクトルの変化(差分ベクトル)ΔVO(n+1)は、次式(15)により表される。   Similarly, assuming that a vector of size 1 corresponding to the optical axis direction is VO (n), a change (difference vector) ΔVO (n + 1) in the optical axis direction from frame number n to n + 1 is expressed by the following equation (15). ).

Figure 2018006992
Figure 2018006992

主要被写体特定部1244は、顔Aの方向の変化と光軸方向の変化との相関を調べるため、上記差分ベクトルの正規化内積を求める。例えば、顔Aの方向の差分ベクトルΔVA(n+1)と光軸方向の差分ベクトルΔVO(n+1)の正規化内積NIPA(n+1)を、次式(16)により演算する。   The main subject specifying unit 1244 obtains a normalized inner product of the difference vectors in order to examine the correlation between the change in the direction of the face A and the change in the optical axis direction. For example, the normalized inner product NIPA (n + 1) of the difference vector ΔVA (n + 1) in the face A direction and the difference vector ΔVO (n + 1) in the optical axis direction is calculated by the following equation (16).

Figure 2018006992
Figure 2018006992

ΔVAの方向とΔVOの方向とが一致している場合、正規化内積NIPAは1となり、一致していない場合は1より小さい値(最小値は−1)となる。   When the direction of ΔVA matches the direction of ΔVO, the normalized inner product NIPA is 1, and when they do not match, the value is smaller than 1 (the minimum value is −1).

主要被写体特定部1244は、顔Aの方向の差分ベクトルΔVAと光軸方向の差分ベクトルΔVOの正規化内積NIPAを求めるのと同様に、顔Bと光軸、顔Cと光軸についても差分ベクトルの正規化内積NIPB、NIPCを求める。顔Aが主要被写体であれば、顔Aの方向と光軸方向とは似た動きをする可能性が高いため、差分ベクトルの方向が近くなる。そのため、正規化内積NIPAの総和(SNIPA=ΣNPIA)を求めると、時間が経過するにしたがってSNIPB、SNIPCより高い値を示す。主要被写体特定部1244は、正規化内積NIPAの総和SNIPAがSNIPB、SNIPCより高い場合、顔Aを主要被写体として特定する。   In the same manner as the main subject specifying unit 1244 calculates the normalized inner product NIPA of the difference vector ΔVA in the face A direction and the difference vector ΔVO in the optical axis direction, the difference vector for the face B and the optical axis and the face C and the optical axis are also obtained. The normalized dot products NIPB and NIPC are obtained. If the face A is a main subject, the direction of the face A and the optical axis direction are likely to move in a similar manner, so the direction of the difference vector is close. Therefore, when the sum of normalized inner products NIPA (SNIPA = ΣNPIA) is obtained, values higher than SNIPB and SNIPC are shown as time passes. The main subject specifying unit 1244 specifies the face A as the main subject when the sum SNIPA of the normalized dot product NIPA is higher than SNIPB and SNIPC.

なお、以上の説明では相関の評価値として正規化内積を試用する例を示したが、それ以外の評価値を使用してもよい。例えば、次式(17)に示す内積IPA、次式(18)に示すベクトルの大きさの比を考慮した内積IPRA、次式(19)に示すベクトルの大きさの比を考慮した正規化内積NIPRAなどを、相関の評価値として試用することができる。   In the above description, an example of using a normalized inner product as a correlation evaluation value has been shown, but other evaluation values may be used. For example, the inner product IPA shown in the following equation (17), the inner product IPRA in consideration of the vector size ratio shown in the following equation (18), and the normalized inner product in consideration of the vector size ratio shown in the following equation (19) NIPRA or the like can be used as a correlation evaluation value.

Figure 2018006992
Figure 2018006992

上式(17)に示す内積IPAには、計算が容易であるという利点がある。上式(18)に示すベクトルの大きさの比を考慮した内積IPRAには、ベクトルの方向の類似度と大きさの類似度とを考慮できるという利点がある。上式(19)に示すベクトルの大きさの比を考慮した正規化内積NIPRAには、ベクトルの方向の類似度と大きさの類似度とを考慮でき、また±1の範囲の値が得られるので扱いやすいという利点がある。   The inner product IPA shown in the above equation (17) has an advantage of easy calculation. The inner product IPRA in consideration of the vector size ratio shown in the above equation (18) has an advantage that the similarity in the direction of the vector and the similarity in the size can be considered. In the normalized inner product NIPRA in consideration of the ratio of vector sizes shown in the above equation (19), the similarity in vector direction and the similarity in size can be considered, and a value in the range of ± 1 is obtained. So there is an advantage that it is easy to handle.

主要被写体特定部1244によって主要被写体が特定された後の処理は、第1の実施の形態と同様であるので、説明を省略する。なお、動画撮像時にも適用可能である点は、第1の実施の形態で説明した通りである。   The processing after the main subject is specified by the main subject specifying unit 1244 is the same as that in the first embodiment, and thus the description thereof is omitted. Note that the points applicable to the time of moving image capturing are as described in the first embodiment.

上述した実施の形態によれば、次の作用効果が得られる。
(1)撮像部21は、被写体像を撮像し撮像信号を出力する。被写体検出部242は、撮像信号から撮像画面内における被写体の位置を検出する。姿勢検出部1022は、撮像装置1001の姿勢を検出する。画角取得部241は、撮像部21の画角を取得する。主要被写体特定部1244は、複数回の撮像による位置と姿勢と画角とにより、複数の被写体から主要被写体を特定する。このようにしたので、主要被写体を精度よく特定することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The imaging unit 21 captures a subject image and outputs an imaging signal. The subject detection unit 242 detects the position of the subject in the imaging screen from the imaging signal. The posture detection unit 1022 detects the posture of the imaging device 1001. The angle of view acquisition unit 241 acquires the angle of view of the imaging unit 21. The main subject specifying unit 1244 specifies a main subject from a plurality of subjects based on a position, posture, and angle of view obtained by a plurality of imaging operations. Since it did in this way, a main subject can be specified accurately.

(2)主要被写体特定部1244は、位置と姿勢により特定された撮像装置1001の向きとの相関を演算することにより、主要被写体を特定する。このようにしたので、主要被写体を精度よく特定することができる。 (2) The main subject specifying unit 1244 specifies the main subject by calculating the correlation between the orientation of the imaging device 1001 specified by the position and orientation. Since it did in this way, a main subject can be specified accurately.

(3)焦点調節部245は、特定された主要被写体に対して自動焦点調節を行う。露出制御部246は、特定された主要被写体に対して自動露出調整を行う。ホワイトバランス制御部247は、特定された主要被写体に対して自動ホワイトバランス調整を行う。このようにしたので、主要被写体の撮像を容易に行うことが可能な、操作性のよい撮像装置を提供することができる。 (3) The focus adjustment unit 245 performs automatic focus adjustment on the identified main subject. The exposure control unit 246 performs automatic exposure adjustment on the identified main subject. The white balance control unit 247 performs automatic white balance adjustment on the identified main subject. Since it did in this way, the imaging device with sufficient operativity which can image a main subject easily can be provided.

(4)姿勢検出部1022は、三軸角速度センサ221と、三軸地磁気センサ223とを有する。このようにしたので、撮像装置1の初期姿勢に依らず、主要被写体を精度よく特定することができる。 (4) The posture detection unit 1022 includes a triaxial angular velocity sensor 221 and a triaxial geomagnetic sensor 223. Since this is done, the main subject can be accurately identified regardless of the initial posture of the imaging apparatus 1.

(変形例1)
ユーザがフレーミング中に撮像装置1を並進させないのであれば、姿勢・並進検出部22が並進運動を検出できなくてもよい。つまり、姿勢・並進検出部22が三軸加速度センサ222など並進運動を検出するために必要なセンサを備えていなくてもよい。
(Modification 1)
If the user does not translate the imaging device 1 during framing, the posture / translation detection unit 22 may not be able to detect translational motion. That is, the posture / translation detection unit 22 may not include a sensor necessary for detecting translational motion, such as the triaxial acceleration sensor 222.

(変形例2)
速度演算部243により演算された候補被写体の移動速度は、主要被写体の特定以外の目的に利用することも可能である。例えば、被写体の速度情報を記憶用画像(静止画および動画)のEXIF情報に記録しておけば、複数の記憶用画像から被写体の移動速度に基づく検索を行うことができる。
(Modification 2)
The moving speed of the candidate subject calculated by the speed calculating unit 243 can be used for purposes other than specifying the main subject. For example, if the speed information of the subject is recorded in the EXIF information of the storage image (still image and moving image), a search based on the moving speed of the subject can be performed from a plurality of storage images.

(変形例3)
第2の実施の形態において、評価値(正規化内積の総和など)に時間方向の重み付けをしてもよい。例えば、正規化内積の総和を求める際に、過去の積算値に係数ρ(1より小さい値)を乗じて、過去の値の影響を少なくしてもよい。あるいは、正規化内積の移動平均を求めてもよい。このように時間方向の重み付けをすることにより、変化に対する反応が速くなる。このようにすることで、ユーザによる主要被写体の変更にいち早く追従することができる。
(Modification 3)
In the second embodiment, the evaluation value (such as the sum of normalized inner products) may be weighted in the time direction. For example, when calculating the sum of normalized inner products, the past integrated value may be multiplied by a coefficient ρ (a value smaller than 1) to reduce the influence of the past value. Alternatively, a moving average of normalized inner products may be obtained. Thus, the weighting in the time direction speeds up the reaction to the change. In this way, it is possible to quickly follow the change of the main subject by the user.

(変形例4)
第2の実施の形態において、表示用画像における候補被写体の位置を主要被写体の特定に利用してもよい。例えば、主要被写体は画面中央付近に存在する可能性が高いので、そのことを主要被写体の特定に利用することができる。具体的には、正規化内積に対して、画面中央が最大値1になり、画面中央から離れるにしたがって0に近づく重み関数を乗じればよい。このように、表示用画像における候補被写体の位置を考慮することで、主要被写体をより精度よく特定することができる。
(Modification 4)
In the second embodiment, the position of the candidate subject in the display image may be used for specifying the main subject. For example, since there is a high possibility that the main subject exists near the center of the screen, it can be used to identify the main subject. Specifically, the normalized inner product may be multiplied by a weight function that has a maximum value of 1 at the center of the screen and approaches 0 as the distance from the center of the screen increases. In this way, the main subject can be identified with higher accuracy by considering the position of the candidate subject in the display image.

(変形例5)
第2の実施の形態において、撮像装置1001がいわゆる像ブレ補正機能を備えている場合、像ブレ補正の結果を主要被写体の特定に利用してもよい。例えば、表示用画像上において検出された顔の位置を画面上の座標で表す場合、像ブレ補正による像のシフト量を考慮して、レンズシフトが無かった場合の座標を求める。この補正を行うことにより、像ブレ補正による像のシフトの影響を受けずに、慣性座標系での顔の正確な位置を求めることができ、正確な主要被写体の特定が可能になる。
(Modification 5)
In the second embodiment, when the imaging apparatus 1001 has a so-called image blur correction function, the result of image blur correction may be used to identify the main subject. For example, when the position of the face detected on the display image is represented by coordinates on the screen, the coordinates when there is no lens shift are obtained in consideration of the image shift amount due to image blur correction. By performing this correction, it is possible to determine the exact position of the face in the inertial coordinate system without being affected by the image shift due to the image blur correction, and it is possible to accurately identify the main subject.

(変形例6)
上述した各実施の形態における主要被写体の特定機能や候補被写体の速度演算機能を、ICパッケージなどの電子部品として構成してもよい。この場合、撮像部21からの撮像信号が入力される撮像信号入力部を電子部品に設け、入力された撮像信号に対して上述した種々の処理を実行するようにすればよい。
(Modification 6)
The function for specifying the main subject and the speed calculation function for the candidate subject in each embodiment described above may be configured as an electronic component such as an IC package. In this case, an imaging signal input unit to which an imaging signal from the imaging unit 21 is input may be provided in the electronic component, and the various processes described above may be performed on the input imaging signal.

また、いわゆるスマートフォンやタブレット端末などの装置において、上述した各実施の形態における主要被写体の特定機能や候補被写体の速度演算機能を搭載することも可能である。   In addition, in a device such as a so-called smartphone or tablet terminal, the main subject specifying function and the candidate subject speed calculation function in each of the above-described embodiments can be mounted.

1、1001…撮像装置、2…カメラボディ、3…レンズ鏡筒、21…撮像部、22…姿勢・並進検出部、23…距離検出部、24、1024…ボディ制御部、30…撮像光学系、241…画角取得部、242…被写体検出部、243…速度演算部、244、1244…主要被写体特定部、245…焦点調節部、246…露出制御部、247…ホワイトバランス制御部、1022…姿勢検出部 DESCRIPTION OF SYMBOLS 1,1001 ... Imaging device, 2 ... Camera body, 3 ... Lens barrel, 21 ... Imaging part, 22 ... Attitude / translation detection part, 23 ... Distance detection part, 24, 1024 ... Body control part, 30 ... Imaging optical system 241 ... View angle acquisition unit 242 ... Subject detection unit 243 ... Speed calculation unit 244,1244 ... Main subject identification unit 245 ... Focus adjustment unit 246 ... Exposure control unit 247 ... White balance control unit 1022 ... Attitude detection unit

Claims (10)

被写体像を撮像し撮像信号を出力する撮像部と、
前記撮像信号から撮像画面内における被写体の位置を検出する被写体位置検出部と、
撮像装置の姿勢を検出する姿勢検出部と、
前記撮像部の画角を取得する画角取得部と、
前記被写体までの距離を検出する距離検出部と、
複数回の撮像による前記位置と前記姿勢と前記画角と前記距離とにより、前記被写体の移動速度を演算する速度演算部と、
を備える撮像装置。
An imaging unit that captures a subject image and outputs an imaging signal;
A subject position detector that detects the position of the subject in the imaging screen from the imaging signal;
An attitude detection unit for detecting the attitude of the imaging device;
An angle of view acquisition unit for acquiring an angle of view of the imaging unit;
A distance detector for detecting a distance to the subject;
A speed calculation unit that calculates the moving speed of the subject based on the position, the posture, the angle of view, and the distance obtained by imaging a plurality of times;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記撮像装置の並進運動を検出する並進運動検出部を更に備え、
前記速度演算部は、複数回の撮像による前記位置と前記姿勢と前記画角と前記距離と前記並進運動とにより、前記被写体の移動速度を演算する撮像装置。
The imaging device according to claim 1,
A translational motion detection unit for detecting translational motion of the imaging device;
The speed calculation unit is an imaging device that calculates a moving speed of the subject based on the position, the posture, the angle of view, the distance, and the translational motion by a plurality of times of imaging.
請求項2に記載の撮像装置において、
前記被写体の移動速度により、複数の前記被写体から主要被写体を特定する主要被写体特定部を更に備える撮像装置。
The imaging device according to claim 2,
An imaging apparatus further comprising a main subject specifying unit that specifies a main subject from a plurality of the subjects according to a moving speed of the subject.
請求項3に記載の撮像装置において、
前記速度演算部は、前記姿勢および前記並進運動から算出された慣性座標系における前記撮像装置の動きと、前記位置および前記距離から算出された撮像装置座標系における前記被写体の動きと、により前記被写体の移動速度を演算する撮像装置。
The imaging device according to claim 3.
The speed calculation unit is configured to detect the subject based on the movement of the imaging device in an inertial coordinate system calculated from the posture and the translational motion, and the movement of the subject in the imaging device coordinate system calculated from the position and the distance. Imaging device for calculating the moving speed of the camera.
被写体像を撮像し撮像信号を出力する撮像部と、
前記撮像信号から撮像画面内における被写体の位置を検出する被写体位置検出部と、
撮像装置の姿勢を検出する姿勢検出部と、
前記撮像部の画角を取得する画角取得部と、
複数回の撮像による前記位置と前記姿勢と前記画角とにより、複数の前記被写体から主要被写体を特定する主要被写体特定部と、
を備える撮像装置。
An imaging unit that captures a subject image and outputs an imaging signal;
A subject position detector that detects the position of the subject in the imaging screen from the imaging signal;
An attitude detection unit for detecting the attitude of the imaging device;
An angle of view acquisition unit for acquiring an angle of view of the imaging unit;
A main subject specifying unit for specifying a main subject from a plurality of the subjects based on the position, the posture, and the angle of view obtained by a plurality of times of imaging;
An imaging apparatus comprising:
請求項5に記載の撮像装置において、
前記主要被写体特定部は、前記位置と前記姿勢と前記画角から求めた複数の前記被写体の方向と前記姿勢により特定された前記撮像装置の向きとの相関を演算することにより前記主要被写体を特定する撮像装置。
The imaging apparatus according to claim 5,
The main subject specifying unit specifies the main subject by calculating a correlation between the direction of the plurality of subjects obtained from the position, the posture, and the angle of view, and the orientation of the imaging device specified by the posture. An imaging device.
請求項3から請求項6までのいずれか一項に記載の撮像装置において、
前記主要被写体に対して自動焦点調節と自動露出調整と自動ホワイトバランス調整との少なくとも1つを行う撮像装置。
In the imaging device according to any one of claims 3 to 6,
An imaging apparatus that performs at least one of automatic focus adjustment, automatic exposure adjustment, and automatic white balance adjustment on the main subject.
請求項1から請求項7までのいずれか一項に記載の撮像装置において、
前記姿勢検出部は、三軸の角速度センサと、三軸の加速度センサと、三軸の地磁気センサとの少なくとも一つを有する撮像装置。
In the imaging device according to any one of claims 1 to 7,
The posture detection unit is an imaging apparatus including at least one of a triaxial angular velocity sensor, a triaxial acceleration sensor, and a triaxial geomagnetic sensor.
被写体像を撮像した撮像信号が入力される撮像信号入力部と、
前記撮像信号から撮像画面内における被写体の位置を検出する被写体位置検出部と、
撮像装置の姿勢を検出する姿勢検出部と、
前記被写体像を撮像した際の画角を取得する画角取得部と、
前記被写体までの距離を検出する距離検出部と、
複数回の撮像による前記位置と前記姿勢と前記画角と前記距離とにより、前記被写体の移動速度を演算する速度演算部と、
を備える電子部品。
An imaging signal input unit to which an imaging signal obtained by imaging a subject image is input;
A subject position detector that detects the position of the subject in the imaging screen from the imaging signal;
An attitude detection unit for detecting the attitude of the imaging device;
An angle of view acquisition unit for acquiring an angle of view when the subject image is captured;
A distance detector for detecting a distance to the subject;
A speed calculation unit that calculates the moving speed of the subject based on the position, the posture, the angle of view, and the distance obtained by imaging a plurality of times;
With electronic components.
被写体像を撮像した撮像信号が入力される撮像信号入力部と、
前記撮像信号から撮影画面内における被写体の位置を検出する被写体位置検出部と、
撮像装置の姿勢を検出する姿勢検出部と、
前記被写体像を撮像した際の画角を取得する画角取得部と、
複数回の撮像による前記位置と前記姿勢と前記画角とにより、複数の前記被写体から主要被写体を特定する主要被写体特定部と、
を備える電子部品。
An imaging signal input unit to which an imaging signal obtained by imaging a subject image is input;
A subject position detector that detects the position of the subject in the shooting screen from the imaging signal;
An attitude detection unit for detecting the attitude of the imaging device;
An angle of view acquisition unit for acquiring an angle of view when the subject image is captured;
A main subject specifying unit for specifying a main subject from a plurality of the subjects based on the position, the posture, and the angle of view obtained by a plurality of times of imaging;
With electronic components.
JP2016130967A 2016-06-30 2016-06-30 Imaging equipment and electronic components Active JP6866581B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016130967A JP6866581B2 (en) 2016-06-30 2016-06-30 Imaging equipment and electronic components

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130967A JP6866581B2 (en) 2016-06-30 2016-06-30 Imaging equipment and electronic components

Publications (2)

Publication Number Publication Date
JP2018006992A true JP2018006992A (en) 2018-01-11
JP6866581B2 JP6866581B2 (en) 2021-04-28

Family

ID=60946552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130967A Active JP6866581B2 (en) 2016-06-30 2016-06-30 Imaging equipment and electronic components

Country Status (1)

Country Link
JP (1) JP6866581B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651384A (en) * 1990-12-07 1994-02-25 Olympus Optical Co Ltd Shaking prevention device for camera
JP2000222583A (en) * 1999-01-29 2000-08-11 Victor Co Of Japan Ltd Image processor
JP2001183383A (en) * 1999-12-28 2001-07-06 Casio Comput Co Ltd Imaging apparatus and method for calculating velocity of object to be imaged
JP2002027449A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Method and apparatus for identifying moving object
JP2006246354A (en) * 2005-03-07 2006-09-14 Casio Comput Co Ltd Imaging unit and imaging program
JP2006318064A (en) * 2005-05-10 2006-11-24 Secom Co Ltd Image sensor
JP2010114547A (en) * 2008-11-05 2010-05-20 Canon Inc Photographing system, and lens apparatus
JP2011233963A (en) * 2010-04-23 2011-11-17 Ricoh Co Ltd Imaging apparatus and tracking object detection method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651384A (en) * 1990-12-07 1994-02-25 Olympus Optical Co Ltd Shaking prevention device for camera
JP2000222583A (en) * 1999-01-29 2000-08-11 Victor Co Of Japan Ltd Image processor
JP2001183383A (en) * 1999-12-28 2001-07-06 Casio Comput Co Ltd Imaging apparatus and method for calculating velocity of object to be imaged
JP2002027449A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Method and apparatus for identifying moving object
JP2006246354A (en) * 2005-03-07 2006-09-14 Casio Comput Co Ltd Imaging unit and imaging program
JP2006318064A (en) * 2005-05-10 2006-11-24 Secom Co Ltd Image sensor
JP2010114547A (en) * 2008-11-05 2010-05-20 Canon Inc Photographing system, and lens apparatus
JP2011233963A (en) * 2010-04-23 2011-11-17 Ricoh Co Ltd Imaging apparatus and tracking object detection method

Also Published As

Publication number Publication date
JP6866581B2 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
CN106643699B (en) Space positioning device and positioning method in virtual reality system
JP5204785B2 (en) Image processing apparatus, photographing apparatus, reproduction apparatus, integrated circuit, and image processing method
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
US10165254B2 (en) Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium
JP6663040B2 (en) Depth information acquisition method and apparatus, and image acquisition device
CN111344644B (en) Techniques for motion-based automatic image capture
US8983235B2 (en) Pupil detection device and pupil detection method
CN107111885A (en) For the method for the position for determining portable set
CN107833237B (en) Method and apparatus for blurring virtual objects in video
JP6594180B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2004157850A (en) Motion detector
US10298858B2 (en) Methods to combine radiation-based temperature sensor and inertial sensor and/or camera output in a handheld/mobile device
TW201335888A (en) Augmented reality image processing device and method
JP2020086983A5 (en)
TWI501193B (en) Computer graphics using AR technology. Image processing systems and methods
JP2015036841A (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP6180158B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP2559939B2 (en) Three-dimensional information input device
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
CN104937608B (en) Road area detection
Zhang et al. Monocular camera and IMU integration for indoor position estimation
JP6866581B2 (en) Imaging equipment and electronic components
WO2020149147A1 (en) Information processing device, information processing method, and recording medium
JP2015138010A (en) Position detection system and method for photographing camera
US20170153438A1 (en) Microscope system and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6866581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250