JP2021111868A - Imaging device and control method thereof, program, and storage medium - Google Patents

Imaging device and control method thereof, program, and storage medium Download PDF

Info

Publication number
JP2021111868A
JP2021111868A JP2020002432A JP2020002432A JP2021111868A JP 2021111868 A JP2021111868 A JP 2021111868A JP 2020002432 A JP2020002432 A JP 2020002432A JP 2020002432 A JP2020002432 A JP 2020002432A JP 2021111868 A JP2021111868 A JP 2021111868A
Authority
JP
Japan
Prior art keywords
imaging
image
data
video data
image blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020002432A
Other languages
Japanese (ja)
Other versions
JP7471827B2 (en
Inventor
謙哉 深堀
Kenya Fukabori
謙哉 深堀
伸茂 若松
Nobushige Wakamatsu
伸茂 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020002432A priority Critical patent/JP7471827B2/en
Priority claimed from JP2020002432A external-priority patent/JP7471827B2/en
Publication of JP2021111868A publication Critical patent/JP2021111868A/en
Application granted granted Critical
Publication of JP7471827B2 publication Critical patent/JP7471827B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an imaging device capable of acquiring a user's favorite video without performing a special operation by a user.SOLUTION: An imaging device includes an imaging unit that captures a subject image, a detection unit that detects the shake of the imaging device, an image blur correction unit that corrects image blur on the imaging surface of the imaging unit due to the shake of the imaging device, an automatic photographing unit that causes the imaging unit to automatically take an image on the basis of the state of the imaging device, a recording unit that records video data automatically captured by the imaging unit and data in the image blur correction state by the image blur correction unit for the video data, and an automatic editing unit that automatically edits the video data on the basis of the image blur correction state data recorded by the recording unit.SELECTED DRAWING: Figure 5

Description

本発明は、撮像装置およびその制御方法に関する。 The present invention relates to an image pickup apparatus and a control method thereof.

ユーザーがシャッターを切るなどの意図したタイミングで撮影するのではなく、カメラが自動的に状況判断を行って、継続的に撮影を行う自動撮影カメラが知られている(特許文献1)。 自動撮影カメラは、ストラップ等でユーザーの身体に装着された状態で用いられ、ユーザーが日常生活で目にする光景を自動で映像として記録して、ユーザーの好みの映像を残すことができる。 There is known an automatic shooting camera in which the camera automatically determines the situation and continuously shoots, instead of shooting at an intended timing such as when the user releases the shutter (Patent Document 1). The automatic shooting camera is used in a state of being attached to the user's body with a strap or the like, and can automatically record the scene that the user sees in daily life as an image and leave the image of the user's preference.

しかし、このようなカメラは自動で撮影を行うため、ユーザーが装着した状態で用いられるような場合では、ユーザーが撮影中であることを気に掛けずに行動すると、自身の動作により大きな像ブレが発生する場合があった。そこで、特許文献2には、撮影した映像に対して、撮影中の像ブレ量に応じて、切り出し位置と切り出しサイズを変更することにより、像ブレ補正を行う方法が提案されている。 However, since such a camera shoots automatically, if the user wears it and acts without worrying about the fact that the user is shooting, the image blur will be larger due to his / her own movement. May occur. Therefore, Patent Document 2 proposes a method of correcting image blur by changing the cutout position and the cutout size according to the amount of image blur during shooting.

特開2019−106694号公報Japanese Unexamined Patent Publication No. 2019-106694 特開2014−207507号公報Japanese Unexamined Patent Publication No. 2014-207507

しかしながら、上述の特許文献1及び特許文献2に開示された従来技術では、カメラで可能な像ブレ補正の範囲を超えた像ブレが発生した際には、撮影された映像に像ブレが残り、ユーザーにとって好ましい映像が得られない場合があった。その場合には、映像の像ブレが残った部分のフレームを、ユーザーが撮影後に手動で編集して削除する必要があった。 However, in the prior art disclosed in Patent Documents 1 and 2 described above, when image blurring that exceeds the range of image blurring correction possible by the camera occurs, image blurring remains in the captured image. In some cases, a user-friendly image could not be obtained. In that case, the user had to manually edit and delete the frame of the part where the image blur of the image remained after shooting.

また、カメラがユーザーに装着された状態で撮影が行われるため、ユーザーが撮影中に移動すればカメラも移動してシーンや被写体が変化してしまう。そのため、一つの映像の中に複数のシーンや被写体が含まれることがあった。その場合は、それぞれのシーンや被写体ごとの映像とするためには、ユーザーが撮影後に手動で編集する必要があった。 In addition, since shooting is performed with the camera attached to the user, if the user moves during shooting, the camera also moves and the scene or subject changes. Therefore, one image may include a plurality of scenes and subjects. In that case, the user had to manually edit the image after shooting in order to create an image for each scene or subject.

本発明は上述した課題に鑑みてなされたものであり、その目的は、ユーザーが特別な操作を行うことなく、ユーザーの好みの映像を取得することが可能な撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an imaging device capable of acquiring a user's favorite image without performing a special operation.

本発明に係わる撮像装置は、撮像装置であって、被写体像を撮像する撮像手段と、
前記撮像装置の振れを検出する検出手段と、前記撮像装置の振れに起因する前記撮像手段の撮像面上での像ブレを補正する像ブレ補正手段と、前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影手段と、前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記像ブレ補正手段による像ブレ補正状態のデータとを記録する記録手段と、前記記録手段により記録された前記像ブレ補正状態のデータに基づいて、前記映像データを自動編集する自動編集手段と、を備えることを特徴とする。
The imaging device according to the present invention is an imaging device, which includes an imaging means for capturing a subject image and an imaging device.
Based on the state of the image pickup apparatus, the detection means for detecting the shake of the image pickup device, the image shake correction means for correcting the image shake on the image pickup surface of the image pickup means due to the shake of the image pickup device, and the state of the image pickup device. Recording that records an automatic photographing means that causes an imaging means to automatically take a picture, video data automatically taken by the imaging means, and image blur correction state data by the image blur correction means with respect to the video data. It is characterized by including means and an automatic editing means for automatically editing the video data based on the image blur correction state data recorded by the recording means.

また、本発明に係わる撮像装置は、撮像装置であって、被写体像を撮像する撮像手段と、前記撮像装置の振れを検出する検出手段と、前記撮像装置の振れに起因する前記撮像手段の撮像面上でのロール傾きを補正する傾き補正手段と、前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影手段と、前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記傾き補正手段による傾き補正状態のデータとを記録する記録手段と、前記記録手段により記録された前記傾き補正状態のデータに基づいて、前記映像データを自動編集する自動編集手段と、を備えることを特徴とする。 Further, the image pickup device according to the present invention is an image pickup device, which is an image pickup means for capturing a subject image, a detection means for detecting a shake of the image pickup device, and an image pickup of the image pickup means caused by the shake of the image pickup device. An inclination correction means for correcting the roll inclination on the surface, an automatic photographing means for causing the imaging means to automatically take an image based on the state of the imaging device, and an image automatically taken by the imaging means. Automatically edits the video data based on the recording means for recording the data and the data of the tilt correction state by the tilt correction means for the video data and the data of the tilt correction state recorded by the recording means. It is characterized by having an editing means.

また、本発明に係わる撮像装置は、撮像装置であって、被写体像を撮像する撮像手段と、前記撮像装置の振れを検出する検出手段と、前記撮像装置の振れに起因する前記撮像手段の撮像面上での像ブレを補正する像ブレ補正手段と、前記撮像装置の振れに起因する前記撮像手段の撮像面上でのロール傾きを補正する傾き補正手段と、前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影手段と、前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記像ブレ補正手段による像ブレ補正状態のデータと、前記映像データに対する前記傾き補正手段による傾き補正状態のデータとを記録する記録手段と、前記記録手段により記録された前記像ブレ補正状態のデータと、前記傾き補正状態のデータとに基づいて、前記映像データを自動編集する自動編集手段と、を備えることを特徴とする。 Further, the image pickup device according to the present invention is an image pickup device, which is an image pickup means for capturing a subject image, a detection means for detecting the shake of the image pickup device, and an image pickup of the image pickup means caused by the shake of the image pickup device. Based on the image blur correction means for correcting the image blur on the surface, the tilt correction means for correcting the roll tilt on the image pickup surface of the image pickup means due to the shake of the image pickup device, and the state of the image pickup device. An automatic photographing means for causing the imaging means to automatically shoot, video data automatically captured by the imaging means, image blur correction state data by the image blur correction means for the video data, and the above. Based on the recording means for recording the data of the tilt correction state by the tilt correction means for the video data, the data of the image blur correction state recorded by the recording means, and the data of the tilt correction state, the video. It is characterized by including an automatic editing means for automatically editing data.

本発明によれば、ユーザーが特別な操作を行うことなく、ユーザーの好みの映像を取得することが可能な撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an imaging device capable of acquiring a user's favorite image without performing a special operation by the user.

本発明の撮像装置の第1の実施形態であるカメラの外観を模式的に示す図。The figure which shows typically the appearance of the camera which is 1st Embodiment of the image pickup apparatus of this invention. 第1の実施形態のカメラの構成を示すブロック図。The block diagram which shows the structure of the camera of 1st Embodiment. 電子式ブレ補正を説明する図。The figure explaining the electronic blur correction. 第1制御部の動作を説明するフローチャート。The flowchart explaining the operation of the 1st control part. 自動編集処理を説明するフローチャート。A flowchart illustrating an automatic editing process. 自動編集におけるブレ補正範囲外のフレームの削除動作を説明する図。The figure explaining the deletion operation of the frame outside the blur correction range in automatic editing. 自動編集における傾き補正範囲外のフレームの削除動作を説明する図。The figure explaining the deletion operation of the frame outside the tilt correction range in automatic editing.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

(第1の実施形態)
<カメラの構成>
図1は、本発明の撮像装置の第1の実施形態であるカメラの外観を模式的に示す図である。図1(a)に示すカメラ101には、電源スイッチ、カメラ操作を行うことができる操作部材などが設けられている。被写体像の撮像を行う撮像光学系としての撮影レンズ群や撮像素子を一体的に含む鏡筒102は、カメラ101の固定部103に対して移動可能に取り付けられている。具体的には、鏡筒102は、固定部103に対して回転駆動できる機構であるチルト回転ユニット104とパン回転ユニット105とを介して固定部103に取り付けられている。
(First Embodiment)
<Camera configuration>
FIG. 1 is a diagram schematically showing the appearance of a camera according to a first embodiment of the imaging device of the present invention. The camera 101 shown in FIG. 1A is provided with a power switch, an operating member capable of operating the camera, and the like. A lens barrel 102 that integrally includes a photographing lens group and an image pickup element as an imaging optical system for imaging a subject image is movably attached to a fixed portion 103 of the camera 101. Specifically, the lens barrel 102 is attached to the fixed portion 103 via a tilt rotating unit 104 and a pan rotating unit 105, which are mechanisms that can be rotationally driven with respect to the fixed portion 103.

チルト回転ユニット104は、鏡筒102を図1(b)に示すピッチ方向に回転駆動することができるモーター駆動機構を備え、パン回転ユニット105は、鏡筒102を図1(b)に示すヨー方向に回転駆動することができるモーター駆動機構を備える。すなわちカメラ101は、鏡筒102を2軸方向に回転駆動する機構を有する。図1(b)に示す各軸は、固定部103の位置に対してそれぞれ定義されている。角速度計106及び加速度計107は、カメラ101の固定部103に配置されている。そして、角速度計106や加速度計107の出力信号に基づいて、カメラ101の振動を検出し、チルト回転ユニット104とパン回転ユニット105を回転駆動することにより、鏡筒102の振れを補正したり、傾きを補正したりすることができる。 The tilt rotation unit 104 includes a motor drive mechanism capable of rotationally driving the lens barrel 102 in the pitch direction shown in FIG. 1 (b), and the pan rotation unit 105 rotates the lens barrel 102 in the yaw shown in FIG. 1 (b). It is equipped with a motor drive mechanism that can be rotationally driven in a direction. That is, the camera 101 has a mechanism for rotationally driving the lens barrel 102 in the biaxial direction. Each axis shown in FIG. 1B is defined with respect to the position of the fixed portion 103. The angular velocity meter 106 and the accelerometer 107 are arranged in the fixed portion 103 of the camera 101. Then, based on the output signals of the angular velocity meter 106 and the accelerometer 107, the vibration of the camera 101 is detected, and the tilt rotation unit 104 and the pan rotation unit 105 are rotationally driven to correct the vibration of the lens barrel 102. The tilt can be corrected.

図2は本実施形態のカメラ101の全体構成を示すブロック図である。図2において、第1制御部224は、例えばCPU(MPU)、メモリ(DRAM、SRAM)などを備える。そして、不揮発性メモリ(EEPROM)217に記憶されたプログラムに従って、各種処理を実行してカメラ101の各ブロックを制御したり、各ブロック間でのデータ転送を制御したりする。不揮発性メモリ217は、電気的に消去・記録可能なメモリであり、上記のように第1制御部224の動作用の定数、プログラム等が記憶される。 FIG. 2 is a block diagram showing the overall configuration of the camera 101 of the present embodiment. In FIG. 2, the first control unit 224 includes, for example, a CPU (MPU), a memory (DRAM, SRAM), and the like. Then, according to the program stored in the non-volatile memory (EEPROM) 217, various processes are executed to control each block of the camera 101 and control the data transfer between the blocks. The non-volatile memory 217 is a memory that can be electrically erased and recorded, and stores constants, programs, and the like for the operation of the first control unit 224 as described above.

図2において、ズームユニット201は、変倍(結像された被写体像の拡大・縮小)を行うズームレンズを含む。ズーム駆動制御部202は、ズームユニット201を駆動制御するとともに、そのときの焦点距離を検出する。フォーカスユニット203は、ピント調整(焦点調節)を行うフォーカスレンズを含む。フォーカス駆動制御部204は、フォーカスユニット203を駆動制御する。 In FIG. 2, the zoom unit 201 includes a zoom lens that performs scaling (enlargement / reduction of an imaged subject image). The zoom drive control unit 202 drives and controls the zoom unit 201 and detects the focal length at that time. The focus unit 203 includes a focus lens that adjusts the focus (focus adjustment). The focus drive control unit 204 drives and controls the focus unit 203.

撮像部206は撮像素子を備え、各レンズ群を通して入射する光を受け、その光量に応じた電荷の情報をアナログ画像信号として映像処理部207に出力する。なお、ズームユニット201、フォーカスユニット203、撮像部206は、鏡筒102内に配置されている。 The image pickup unit 206 includes an image pickup element, receives light incident through each lens group, and outputs charge information corresponding to the amount of light to the image processing unit 207 as an analog image signal. The zoom unit 201, the focus unit 203, and the imaging unit 206 are arranged in the lens barrel 102.

鏡筒回転駆動部205は、チルト回転ユニット104、パン回転ユニット105を駆動し、鏡筒102をチルト方向とパン方向に回動させる。 The lens barrel rotation drive unit 205 drives the tilt rotation unit 104 and the pan rotation unit 105 to rotate the lens barrel 102 in the tilt direction and the pan direction.

映像処理部207はアナログ画像信号をA/D変換して得られたデジタル画像データに対して、歪曲補正、ホワイトバランス調整、色補間処理等の画像処理を適用し、適用後のデジタル映像データを出力する。映像処理部207から出力されたデジタル映像データは、映像記録部208で動画記録用フォーマットに変換され、メモリ216に記憶されたり後述する映像出力部218に送信されたりする。 The image processing unit 207 applies image processing such as distortion correction, white balance adjustment, and color interpolation processing to the digital image data obtained by A / D conversion of the analog image signal, and applies the applied digital image data to the digital image data. Output. The digital video data output from the video processing unit 207 is converted into a video recording format by the video recording unit 208, stored in the memory 216, or transmitted to the video output unit 218 described later.

装置傾き検出部209と装置揺れ検出部210は、例えばカメラ101の3軸方向の角速度を検出する角速度計(ジャイロセンサ)106や、装置の3軸方向の加速度を検出する加速度計(加速度センサ)107を備える。装置傾き検出部209と装置揺れ検出部210は、それらのセンサにより検出された信号に基づいて、カメラ101の回転角度やカメラ101のブレ量などを演算する。第1制御部224は、演算結果に基づいて鏡筒回転駆動部205を制御し、チルト回転ユニット104とパン回転ユニット105を駆動させて光学的にカメラ101の振れに起因する撮像面上の像ブレや傾きを補正する。また、第1制御部224は、演算結果に基づいて画像切り出し範囲を移動させることにより、像ブレ補正を行う電子式像ブレ補正も行う。演算結果に合わせてフレームごとに補正量を算出し、補正量に合わせて画像の一部を切り出す設定を行う。 The device tilt detection unit 209 and the device shake detection unit 210 include, for example, an angular velocity meter (gyro sensor) 106 that detects the angular velocity in the three-axis direction of the camera 101, and an accelerometer (accelerometer) that detects the acceleration in the three-axis direction of the device. 107 is provided. The device tilt detection unit 209 and the device shake detection unit 210 calculate the rotation angle of the camera 101, the amount of blurring of the camera 101, and the like based on the signals detected by the sensors. The first control unit 224 controls the lens barrel rotation drive unit 205 based on the calculation result, drives the tilt rotation unit 104 and the pan rotation unit 105, and optically causes an image on the imaging surface due to the shake of the camera 101. Correct blur and tilt. In addition, the first control unit 224 also performs electronic image blur correction that corrects image blur by moving the image cropping range based on the calculation result. The correction amount is calculated for each frame according to the calculation result, and a part of the image is cut out according to the correction amount.

ここで、図3を用いて、フレームごとに補正量に合わせて画像の一部を切り出すことで補正を行う電子式像ブレ補正制御について説明する。 Here, with reference to FIG. 3, an electronic image blur correction control for performing correction by cutting out a part of an image according to a correction amount for each frame will be described.

図3(a)は、第1制御部224で行われる電子式像ブレ補正で補正された画像を説明するための図である。傾き補正角度の演算結果からロール方向の回転補正を行うためのロール傾き補正量を算出する。画像301aは、映像処理部207に入力される撮影画像を示す。画像302aは、撮影画像301aに対し、ロール傾き補正量に基づいて回転処理を行った後の回転画像を示す。さらに電子式像ブレ補正では、回転画像302aから、撮影画像301aと同じアスペクト比の内接部分を出力画像303aとして切り出す処理が行われる。この切り出し処理を映像の毎フレームについて行うことにより、傾き方向の電子式像ブレ補正が実現される。 FIG. 3A is a diagram for explaining an image corrected by the electronic image blur correction performed by the first control unit 224. The roll tilt correction amount for performing rotation correction in the roll direction is calculated from the calculation result of the tilt correction angle. Image 301a shows a captured image input to the image processing unit 207. The image 302a shows a rotated image of the captured image 301a after the rotation process is performed based on the roll tilt correction amount. Further, in the electronic image blur correction, a process of cutting out an inscribed portion having the same aspect ratio as the captured image 301a as an output image 303a is performed from the rotated image 302a. By performing this cropping process for each frame of the video, electronic image blur correction in the tilt direction is realized.

また、図3(b)は、第1制御部224で行われる、画像の縦横方向(並進方向)の像ブレ補正を説明するための図である。並進方向の補正では、振れ角度とズーム位置情報に基づく焦点距離情報とから、ピッチ方向/ヨー方向の角度振れを補正するための画像シフト量が算出され、画像シフト量に合わせて画像の切り出し処理が行われる。画像301bは、映像処理部207に入力される撮影画像を示す。画像302bは、撮影画像301bから縦横の画像シフト量に合わせて切り出した画角に対応する画像である。この切り出し処理を映像の毎フレームについて行うことにより、並進方向の電子式像ブレ補正が実現される。 Further, FIG. 3B is a diagram for explaining image blur correction in the vertical and horizontal directions (translation direction) of the image performed by the first control unit 224. In the translation direction correction, the image shift amount for correcting the angular runout in the pitch direction / yaw direction is calculated from the focal length information based on the runout angle and the zoom position information, and the image is cut out according to the image shift amount. Is done. Image 301b shows a captured image input to the image processing unit 207. The image 302b is an image corresponding to the angle of view cut out from the captured image 301b according to the amount of vertical and horizontal image shift. By performing this cropping process for each frame of the video, electronic image blur correction in the translation direction is realized.

これらの光学的な補正と電子式の補正を組み合わせることにより、像ブレ補正と傾き補正を行う。 By combining these optical corrections and electronic corrections, image blur correction and tilt correction are performed.

音声入力部214は、カメラ101に設けられたマイクによりカメラ101の周辺の音声信号を取得し、デジタル音声信号に変換して音声処理部215に送信する。音声処理部215は、入力されたデジタル音声信号の適正化処理等の音声に関する処理を行う。そして、音声処理部215で処理された音声信号は、第1制御部224によりメモリ216に送信される。メモリ216は、映像処理部207、音声処理部215により得られた画像信号及び音声信号を一時的に記憶する。 The voice input unit 214 acquires a voice signal around the camera 101 by a microphone provided in the camera 101, converts it into a digital voice signal, and transmits it to the voice processing unit 215. The voice processing unit 215 performs voice-related processing such as optimization processing of the input digital voice signal. Then, the voice signal processed by the voice processing unit 215 is transmitted to the memory 216 by the first control unit 224. The memory 216 temporarily stores the image signal and the audio signal obtained by the video processing unit 207 and the audio processing unit 215.

自動編集処理部220は、一時的にメモリ216に記憶された映像信号及び音声信号、カメラ101の回転角度や振れ量を読み出して、映像の切り出し、分割、削除等を行い、再度メモリ216に記憶させる。 The automatic editing processing unit 220 reads out the video signal and audio signal temporarily stored in the memory 216, the rotation angle and the amount of deflection of the camera 101, cuts out, divides, deletes, etc. the video, and stores the video again in the memory 216. Let me.

映像処理部207及び音声処理部215は、メモリ216に一時的に記憶された画像信号や音声信号を読み出して画像信号の符号化、音声信号の符号化などを行い、圧縮画像信号、圧縮音声信号を生成する。第1制御部224は、これらの圧縮画像信号、圧縮音声信号を、記録再生部221に送信する。 The image processing unit 207 and the audio processing unit 215 read the image signal and the audio signal temporarily stored in the memory 216, encode the image signal, encode the audio signal, and the like, and perform the compressed image signal, the compressed audio signal, and the like. To generate. The first control unit 224 transmits these compressed image signals and compressed audio signals to the recording / reproducing unit 221.

記録再生部221は、記録媒体222に対して映像処理部207及び音声処理部215で生成された圧縮画像信号、圧縮音声信号、その他撮影に関する制御データ等を記録する。また、音声信号を圧縮符号化しない場合には、第1制御部224は、音声処理部215により生成された音声信号と映像処理部207により生成された圧縮画像信号とを、記録再生部221に送信し記録媒体222に記録させる。 The recording / playback unit 221 records the compressed image signal, the compressed audio signal, and other control data related to shooting on the recording medium 222, which are generated by the video processing unit 207 and the audio processing unit 215. When the audio signal is not compressed and encoded, the first control unit 224 transmits the audio signal generated by the audio processing unit 215 and the compressed image signal generated by the video processing unit 207 to the recording / playback unit 221. It is transmitted and recorded on the recording medium 222.

記録媒体222は、カメラ101に内蔵された記録媒体でも、取外し可能な記録媒体でもよく、カメラ101で生成した圧縮画像信号、圧縮音声信号、音声信号などの各種データを記録することができる。一般的には、記録媒体222には不揮発性メモリ217よりも大容量な媒体が使用される。例えば、記録媒体222は、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。 The recording medium 222 may be a recording medium built in the camera 101 or a removable recording medium, and can record various data such as a compressed image signal, a compressed audio signal, and an audio signal generated by the camera 101. Generally, a medium having a capacity larger than that of the non-volatile memory 217 is used as the recording medium 222. For example, the recording medium 222 includes all types of recording media such as hard disks, optical disks, magneto-optical disks, CD-Rs, DVD-Rs, magnetic tapes, non-volatile semiconductor memories, and flash memories.

記録再生部221は、記録媒体222に記録された圧縮画像信号、圧縮音声信号、音声信号、各種データ、プログラムを読み出す(再生する)。そして、第1制御部224は、読み出された圧縮画像信号、圧縮音声信号を、映像処理部207及び音声処理部215に送信する。映像処理部207及び音声処理部215は、圧縮画像信号、圧縮音声信号を一時的にメモリ216に記憶させ、所定の手順で復号し、復号した信号を映像出力部218、音声出力部219に送信する。 The recording / reproducing unit 221 reads (reproduces) the compressed image signal, the compressed audio signal, the audio signal, various data, and the program recorded on the recording medium 222. Then, the first control unit 224 transmits the read compressed image signal and compressed audio signal to the video processing unit 207 and the audio processing unit 215. The video processing unit 207 and the audio processing unit 215 temporarily store the compressed image signal and the compressed audio signal in the memory 216, decode them according to a predetermined procedure, and transmit the decoded signals to the video output unit 218 and the audio output unit 219. do.

音声入力部214には複数のマイクが配置されており、音声処理部215は複数のマイクが設置された平面に対する音の方向を検出することができ、後述する被写体の探索や自動撮影に用いられる。さらに、音声処理部215では、特定の音声コマンドを検出する。音声コマンドは事前に登録されたいくつかのコマンドの他、ユーザが特定音声をカメラに登録できる構成にしてもよい。また、撮像時の音シーン認識も行う。音シーン認識では、予め大量の音声データに基づいて機械学習により学習させたネットワークにより音シーンの判定を行う。例えば、「歓声が上がっている」、「拍手している」、「声を発している」などの特定シーンを検出するためのネットワークが音声処理部215に設定されており、特定音シーンや特定音声コマンドを検出する。音声処理部215が特定音シーンや特定音声コマンドを検出すると、第1制御部224や第2制御部212に、検出トリガー信号を出力する。 A plurality of microphones are arranged in the voice input unit 214, and the voice processing unit 215 can detect the direction of the sound with respect to the plane on which the plurality of microphones are installed, and is used for searching for a subject and automatic shooting described later. .. Further, the voice processing unit 215 detects a specific voice command. The voice command may be configured so that the user can register a specific voice in the camera in addition to some commands registered in advance. It also recognizes the sound scene at the time of imaging. In sound scene recognition, a sound scene is determined by a network learned by machine learning based on a large amount of voice data in advance. For example, a network for detecting a specific scene such as "cheering", "applause", or "speaking" is set in the voice processing unit 215, and the specific sound scene or specific scene is specified. Detect voice commands. When the voice processing unit 215 detects a specific sound scene or a specific voice command, it outputs a detection trigger signal to the first control unit 224 and the second control unit 212.

カメラ101のメインシステム全体を制御する第1制御部224とは別に、この第1制御部224の供給電源を制御する第2制御部212が設けられている。第1電源部211と第2電源部213は、第1制御部224と第2制御部212を動作させるための電力をそれぞれ供給する。カメラ101に設けられた電源ボタンの押下により、まず第1制御部224と第2制御部212の両方に電源が供給されるが、後述するように、第1制御部224は、第1電源部211へ自らの電源供給をOFFする制御も行う。第1制御部224が動作していない間も、第2制御部212は動作しており、装置傾き検出部209や装置揺れ検出部210や音声処理部215からの情報が入力される。第2制御部212は、各種入力情報に基づいて、第1制御部224を起動するか否かの判定を行い、起動することが判定されると、第1電源部211に第1制御部224へ電力を供給するように指示する。 In addition to the first control unit 224 that controls the entire main system of the camera 101, a second control unit 212 that controls the power supply of the first control unit 224 is provided. The first power supply unit 211 and the second power supply unit 213 supply electric power for operating the first control unit 224 and the second control unit 212, respectively. By pressing the power button provided on the camera 101, power is first supplied to both the first control unit 224 and the second control unit 212. As will be described later, the first control unit 224 is the first power supply unit. It also controls to turn off its own power supply to 211. Even while the first control unit 224 is not operating, the second control unit 212 is operating, and information from the device tilt detection unit 209, the device shake detection unit 210, and the voice processing unit 215 is input. The second control unit 212 determines whether or not to start the first control unit 224 based on various input information, and when it is determined to start, the first power supply unit 211 tells the first control unit 224. Instruct to supply power to.

音声出力部219は、例えば撮影時などにカメラ101に内蔵されたスピーカーから予め設定された音声パターンを出力する。LED制御部225は、例えば撮影時などに、カメラ101に設けられたLEDを、予め設定された点灯パターンや点滅パターンに基づいて点灯させる。映像出力部218は、例えば映像出力端子からなり、接続された外部ディスプレイ等に映像を表示させるために画像信号を出力する。また、音声出力部219、映像出力部218は、結合された1つの端子、例えばHDMI(登録商標:High−Definition Multimedia Interface)端子のような端子であってもよい。 The audio output unit 219 outputs a preset audio pattern from a speaker built in the camera 101, for example, at the time of shooting. The LED control unit 225 lights the LED provided in the camera 101 based on a preset lighting pattern or blinking pattern, for example, at the time of shooting. The video output unit 218 is composed of, for example, a video output terminal, and outputs an image signal in order to display the video on a connected external display or the like. Further, the audio output unit 219 and the video output unit 218 may be one combined terminal, for example, a terminal such as an HDMI (registered trademark: High-Definition Multimedia Interface) terminal.

通信部223は、カメラ101と外部装置との間で通信を行う部分であり、例えば、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、撮影開始や終了のコマンド、パン・チルト、ズーム駆動等の撮影にかかわる制御信号を受信して、外部装置の指示に基づいてカメラ101を駆動する。また、カメラ101と外部装置との間で、各種パラメータなどの情報を送信したり受信したりする。通信部223は、例えば、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、無線LAN通信モジュール、WirelessUSB(登録商標)、GPS受信機等の無線通信モジュールを備える。 The communication unit 223 is a part that communicates between the camera 101 and an external device, and transmits or receives data such as an audio signal, an image signal, a compressed audio signal, and a compressed image signal, for example. In addition, it receives commands related to shooting such as shooting start and end commands, pan / tilt, and zoom drive, and drives the camera 101 based on instructions from an external device. In addition, information such as various parameters is transmitted and received between the camera 101 and the external device. The communication unit 223 includes, for example, a wireless communication module such as an infrared communication module, a Bluetooth (registered trademark) communication module, a wireless LAN communication module, a WirelessUSB (registered trademark), and a GPS receiver.

図4は、本実施形態におけるカメラ101の第1制御部224が受け持つ動作の例を説明するフローチャートである。 FIG. 4 is a flowchart illustrating an example of the operation undertaken by the first control unit 224 of the camera 101 in the present embodiment.

S401では、映像処理部207に撮像部206で撮像された映像信号を映像処理させ、被写体認識用の画像を生成する。生成された画像に対して、人物や物体などの特定の被写体の認識が行われる。人物を認識する場合は、被写体の顔や人体を検出する。 In S401, the image processing unit 207 is made to process the image signal captured by the imaging unit 206 to generate an image for subject recognition. A specific subject such as a person or an object is recognized with respect to the generated image. When recognizing a person, the face or human body of the subject is detected.

顔検出処理では、人物の顔を判断するためのパターンが予め定められており、撮像された画像内に含まれる、このパターンに一致する箇所を人物の顔画像として検出することができる。また、被写体の顔としての確からしさを示す信頼度も同時に算出される。信頼度は、例えば画像内における顔領域の大きさや、顔パターンとの一致度等から算出される。 In the face detection process, a pattern for determining the face of a person is predetermined, and a portion of the captured image that matches this pattern can be detected as a face image of the person. At the same time, the reliability indicating the certainty of the subject's face is also calculated. The reliability is calculated from, for example, the size of the face area in the image, the degree of matching with the face pattern, and the like.

さらに、物体認識についても同様に、撮像された画像内に含まれる物体として犬のような動物の場合、予め登録された動物のパターンに一致するか否かを判断することで物体を認識することができる。特定物体認識の方法については、Convolutional Neural Networks(以下CNNと略記する)などを用いて予め検出したい被写体を学習しておき、顔認識や物体認識に対してCNNを適用してもよい。 Furthermore, regarding object recognition, similarly, in the case of an animal such as a dog as an object included in the captured image, the object is recognized by determining whether or not it matches the pattern of the pre-registered animal. Can be done. As for the method of specific object recognition, a subject to be detected may be learned in advance using Convolutional Neural Networks (hereinafter abbreviated as CNN) or the like, and CNN may be applied to face recognition or object recognition.

また、撮像された画像内の色相や彩度等のヒストグラムを使用する方法により、特徴被写体を抽出する方法などもある。この場合、撮影画角内に捉えられている被写体の画像を、その色相や彩度等のヒストグラムの分布に基づいて複数の区間に分け、区間ごとに撮像された画像を分類する処理が実行される。例えば、撮像された画像について複数の色成分のヒストグラムが作成され、その山型の分布範囲で区分けする。そして、同一の区間の組み合わせに属する領域により撮像された画像が分類され、被写体の画像領域が認識される。認識された被写体の画像領域ごとに評価値を算出することで、その評価値が最も高い被写体の画像領域を主被写体領域として判定することができる。 There is also a method of extracting a feature subject by a method of using a histogram of hue, saturation, etc. in the captured image. In this case, the image of the subject captured within the shooting angle of view is divided into a plurality of sections based on the distribution of the histogram such as the hue and saturation, and the process of classifying the captured images for each section is executed. NS. For example, a histogram of a plurality of color components is created for the captured image, and the image is divided by the mountain-shaped distribution range. Then, the images captured are classified according to the regions belonging to the combination of the same sections, and the image region of the subject is recognized. By calculating the evaluation value for each image area of the recognized subject, the image area of the subject having the highest evaluation value can be determined as the main subject area.

以上の方法で、撮像情報から各被写体情報を得ることができ、被写体の情報や撮影されるシーン情報などを判定することができる。 By the above method, each subject information can be obtained from the imaging information, and the subject information, the scene information to be photographed, and the like can be determined.

S402では、傾き補正量と像ブレ補正量の算出を行う、具体的には、まず、装置傾き検出部209と装置揺れ検出部210において取得した角速度および加速度情報に基づいてカメラ101の絶対角度の算出を行う。そして絶対角度を打ち消す角度方向に、チルト回転ユニット104およびパン回転ユニット105を動かす像ブレ補正角度を求め、傾き補正量と像ブレ補正量とする。 In S402, the tilt correction amount and the image blur correction amount are calculated. Specifically, first, the absolute angle of the camera 101 is determined based on the angular velocity and acceleration information acquired by the device tilt detection unit 209 and the device shake detection unit 210. Make a calculation. Then, the image blur correction angle for moving the tilt rotation unit 104 and the pan rotation unit 105 is obtained in the angle direction that cancels the absolute angle, and is used as the tilt correction amount and the image blur correction amount.

S403では、パン・チルト駆動を行う。S401で認識した被写体を追尾するためのパン・チルト駆動量と、S402で算出された像ブレ補正量に基づくパン・チルト駆動量を算出し、鏡筒回転駆動部205によってチルト回転ユニット104、パン回転ユニット105をそれぞれ駆動制御する。 In S403, pan / tilt drive is performed. The pan / tilt drive amount for tracking the subject recognized by S401 and the pan / tilt drive amount based on the image blur correction amount calculated in S402 are calculated, and the tilt rotation unit 104 and pan are calculated by the lens barrel rotation drive unit 205. The rotation unit 105 is driven and controlled, respectively.

S404では、ズームユニット201を制御してズーム駆動を行う。S401で認識した被写体の状態に応じてズームを駆動させる。例えば、被写体が人の顔である場合、画像上の顔が小さすぎて検出可能な最小サイズを下回ると、検出ができず、見失ってしまう恐れがある。そのような場合は、望遠側にズームすることにより、画像上の顔のサイズが大きくなるように制御する。一方で、画像上の顔が大きすぎる場合、カメラ自体の動きによって被写体が画角から外れやすくなってしまう。そのような場合は、広角側にズームすることにより、画面上の顔のサイズが小さくなるように制御する。このようにズーム制御を行うことにより、被写体を追跡するのに適した状態を保つことができる。 In S404, the zoom unit 201 is controlled to drive the zoom. The zoom is driven according to the state of the subject recognized by S401. For example, when the subject is a human face, if the face on the image is too small to be smaller than the minimum detectable size, it cannot be detected and may be lost. In such a case, by zooming to the telephoto side, the size of the face on the image is controlled to be large. On the other hand, if the face on the image is too large, the subject tends to deviate from the angle of view due to the movement of the camera itself. In such a case, the size of the face on the screen is controlled to be smaller by zooming to the wide-angle side. By performing the zoom control in this way, it is possible to maintain a state suitable for tracking the subject.

S405では、自動撮影を開始するか否かを判定する。ここでは、S401で行われた画像認識処理の被写体情報やシーン判定結果、音声コマンドや音シーンを用いて、撮影を行うか否かを判定する。例えば、S401のシーン判定結果で風景であった状態のところに、重要被写体認識により予め登録されたパターンの人物や動物が検出された際には、重要な被写体が画面内に存在するとして撮影を行う判定をする。また、人物が複数検出されているような状態のところで、歓声が上がっているような音シーンの判定が行われた場合には、何かしらの重要な出来事が発生したとして撮影を行う判定をする。この撮影を行う判断は、画像認識処理の重要被写体の出現率や、ユーザーの好みを学習して変更できるようにしてもよい。また、ユーザーが手動で重要な被写体を登録することにより、撮影を行う判断として用いてもよい。 In S405, it is determined whether or not to start automatic shooting. Here, it is determined whether or not to perform shooting by using the subject information, the scene determination result, the voice command, and the sound scene of the image recognition process performed in S401. For example, when a person or animal with a pattern registered in advance is detected by important subject recognition in a state where the scene is determined in S401 as a landscape, it is assumed that the important subject exists on the screen. Make a decision to do. In addition, when a sound scene in which cheers are raised is determined in a state where a plurality of people are detected, it is determined that shooting is performed assuming that some important event has occurred. The decision to perform this shooting may be made so that the appearance rate of an important subject in the image recognition process and the user's preference can be learned and changed. Further, the user may manually register an important subject and use it as a judgment for shooting.

S405で撮影を開始すると判定された場合には、S406に進み、これから撮影を行う際の傾き補正範囲と像ブレ補正範囲を決定する。傾き補正範囲と像ブレ補正範囲は、傾き補正や、像ブレ補正を行える最大範囲を、現在の装置の回転角度や、装置の振れ量、また撮影するモードによって変更することにより決定する。 If it is determined in S405 to start shooting, the process proceeds to S406 to determine the tilt correction range and the image blur correction range when shooting from now on. The tilt correction range and the image blur correction range are determined by changing the maximum range in which tilt correction and image blur correction can be performed according to the current rotation angle of the device, the amount of vibration of the device, and the shooting mode.

例えば、風景のような傾きが気になるシーンの場合は、傾き補正と像ブレ補正の制御のための可動範囲やプロセッサの処理能力の配分を傾き補正に多く配分することにより、傾き補正に重点を置き、像ブレ補正範囲を狭く設定する。また、人物を撮影していてブレが気になるような場合は、像ブレ補正に補正範囲を多く分配し、傾き補正範囲を狭く設定する。 For example, in the case of a scene such as a landscape where tilt is a concern, emphasis is placed on tilt correction by allocating a large amount of the movable range for controlling tilt correction and image blur correction and the processing power of the processor to tilt correction. And set the image blur correction range narrow. If you are shooting a person and you are worried about blurring, distribute a large amount of correction range to image blurring correction and set the tilt correction range narrower.

傾き補正範囲と像ブレ補正範囲が決定されたら、S407において自動撮影を開始する。その際に、フォーカス駆動制御部204によるオートフォーカス制御を行う。また、不図示の絞り制御部及び撮像素子ゲイン制御部、シャッター制御部を用いて、被写体が適切な明るさになるように露出制御を行う。さらに、撮影中はS406で決定した傾き補正範囲と像ブレ補正範囲に対する補正状態もメモリ216に記録する。撮影後には映像処理部207において、オートホワイトバランス処理、ノイズリダクション処理、ガンマ補正処理等、種々の映像処理を行い、映像を生成する。 When the tilt correction range and the image blur correction range are determined, automatic shooting is started in S407. At that time, the focus drive control unit 204 performs autofocus control. Further, exposure control is performed so that the subject has an appropriate brightness by using an aperture control unit (not shown), an image sensor gain control unit, and a shutter control unit. Further, during shooting, the tilt correction range and the correction state for the image blur correction range determined in S406 are also recorded in the memory 216. After shooting, the image processing unit 207 performs various image processes such as auto white balance processing, noise reduction processing, and gamma correction processing to generate an image.

S408では、S407で生成した映像と補正状態を使用して自動編集処理部220において自動編集処理を行う。自動編集処理では、映像中でブレ補正範囲や傾き補正範囲を超えたフレームのカットを行う。フレームのカットを行う際には、映像処理部207において処理された被写体情報やシーン判定情報、音声処理部215において処理された音データを使用して、フレームカットの位置を変更する。自動編集処理については、図5、図6を用いて詳細に説明する。 In S408, the automatic editing processing unit 220 performs automatic editing processing using the video generated in S407 and the correction state. In the automatic editing process, a frame that exceeds the blur correction range or the tilt correction range is cut in the video. When cutting the frame, the position of the frame cut is changed by using the subject information and the scene determination information processed by the video processing unit 207 and the sound data processed by the audio processing unit 215. The automatic editing process will be described in detail with reference to FIGS. 5 and 6.

図5は、本実施形態におけるカメラ101の自動編集処理部220が受け持つ動作の例を説明するフローチャートである。 FIG. 5 is a flowchart illustrating an example of an operation undertaken by the automatic editing processing unit 220 of the camera 101 in the present embodiment.

<像ブレ補正範囲外の場合の処理の説明>
S501では、映像処理部207によって生成された映像と、その映像の撮影時にメモリ216に記録された像ブレや傾きの補正状態(像ブレ補正状態、傾き補正状態)を確認し、S406で決定した補正範囲を超えたブレ補正範囲外の映像のフレームの範囲を検出する。ただし、ブレ補正範囲外を検出するときに、ブレ補正範囲外と補正範囲内を短時間で繰り返すような場合は、その期間をすべて補正範囲外として取り扱うような処理としてもよい。また、ブレ補正範囲外がごく短時間である場合には補正範囲内として取り扱うように、補正範囲の閾値を一時的に変更する処理としてもよい。
<Explanation of processing when outside the image blur correction range>
In S501, the image generated by the image processing unit 207 and the image blur and tilt correction states (image blur correction state, tilt correction state) recorded in the memory 216 at the time of shooting the image were confirmed, and the determination was made in S406. Detects the frame range of the image outside the blur correction range that exceeds the correction range. However, when detecting the outside of the blur correction range, if the outside of the blur correction range and the inside of the correction range are repeated in a short time, the process may be such that the entire period is treated as outside the correction range. Further, if the time outside the blur correction range is very short, the threshold value of the correction range may be temporarily changed so as to be treated as within the correction range.

S502では、映像中の重要被写体情報を検出する。例えば、シーン判定情報で同一シーンが続く期間や、同一の犬が重要被写体として検出されている期間などの、同一の重要被写体検出が続く期間を検出する。 In S502, important subject information in the image is detected. For example, the scene determination information detects a period during which the same important subject continues to be detected, such as a period during which the same scene continues or a period during which the same dog is detected as an important subject.

S503では、映像中の音データを検出する。例えば、音シーン判定結果を用いて、歓声が上がっている期間、拍手されている期間、声が発せられている期間などの同一音シーンが続く期間を検出する。 In S503, the sound data in the video is detected. For example, the sound scene determination result is used to detect a period during which the same sound scene continues, such as a period during which cheers are rising, a period during which applause is being performed, and a period during which a voice is being emitted.

S504では、S502の同一の重要被写体が続く期間と、S503の同一音シーンが続く期間を用いて、それぞれの期間がS501で検出された削除される対象フレームと重なるか否かを判定する。削除の対称となっているフレームと同一の期間が存在する場合は、そのフレームを削除の対象から除く。削除の対象から除く方法は図6を用いて説明する。 In S504, using the period in which the same important subject in S502 continues and the period in which the same sound scene in S503 continues, it is determined whether or not each period overlaps with the target frame to be deleted detected in S501. If there is a period that is the same as the frame that is symmetrical to be deleted, that frame is excluded from the deletion target. The method of excluding from the deletion target will be described with reference to FIG.

図6は映像A600とブレ量601と被写体検出期間602とS401で算出する顔検出信頼度604とを、時間経過を横軸として表した図である。 FIG. 6 is a diagram showing the image A600, the amount of blur 601, the subject detection period 602, and the face detection reliability 604 calculated in S401, with the passage of time as the horizontal axis.

映像A600は、人の顔を撮影していて、カメラが動かされて大きくブレたシーンを想定している。ブレ量601を参照すると、S406で決定した補正範囲閾値603を超えて削除対象となる大きいブレが発生している期間は、削除対象開始位置606から映像の最後の削除対象終了位置607までである。しかしながら、S502で検出した被写体検出期間602において、重要被写体としての顔検出が顔検出終了位置609まで検出されている(被写体検出状態)。また、顔検出信頼度604は顔認識閾値605より高ければ顔として認識できるが、顔検出信頼度低下位置608で信頼度が低下するため、以降は顔として検出は出来るがブレにより信頼度は低下して映像としては好ましくない状態となる。そのため、削除対象開始位置606から顔検出信頼度低下位置608まではブレが大きくとも顔として認識できる期間であるため、その期間は有用な映像であるとして、削除対象開始位置606から顔検出信頼度低下位置608までを削除対象から除く処理を行う。そのため、実際に削除対象となるのは顔検出信頼度低下位置608から映像の最後の削除対象終了位置607までの期間となる。 The image A600 assumes a scene in which a person's face is photographed and the camera is moved to cause a large blur. With reference to the blur amount 601, the period during which a large blur to be deleted exceeds the correction range threshold value 603 determined in S406 is from the deletion target start position 606 to the last deletion target end position 607 of the video. .. However, in the subject detection period 602 detected in S502, face detection as an important subject is detected up to the face detection end position 609 (subject detection state). Further, if the face detection reliability 604 is higher than the face recognition threshold 605, it can be recognized as a face, but since the reliability decreases at the face detection reliability decrease position 608, it can be detected as a face thereafter, but the reliability decreases due to blurring. As a result, the image becomes unfavorable. Therefore, since the period from the deletion target start position 606 to the face detection reliability reduction position 608 is a period in which the face can be recognized even if the blur is large, it is considered that the period is a useful image, and the face detection reliability is determined from the deletion target start position 606. The process of removing the lowered position up to 608 from the deletion target is performed. Therefore, the actual deletion target is the period from the face detection reliability reduction position 608 to the last deletion target end position 607 of the video.

この様な判定処理を行った後、S505では、S504および図6で判定した期間のフレームを削除して映像を再度保存する。 After performing such a determination process, in S505, the frames of the period determined in S504 and FIG. 6 are deleted, and the video is saved again.

上記のように、第1の実施形態においては、撮影された映像のブレ補正範囲を超えた部分を削除することにより、ユーザーの好みに合った映像を提供することが可能となる。 As described above, in the first embodiment, it is possible to provide an image that suits the user's preference by deleting the portion of the captured image that exceeds the blur correction range.

(第2の実施形態)
この第2実施形態では、カメラの構成及び全体動作は、第1の実施形態で説明した図1、図2、図4と同様であるため、説明を省略する。以下、第2の実施形態について、図5、図7を用いて、第1の実施形態と異なる部分について説明する。
(Second Embodiment)
In this second embodiment, the configuration and overall operation of the camera are the same as those in FIGS. 1, 2, and 4 described in the first embodiment, and thus the description thereof will be omitted. Hereinafter, the second embodiment will be described with reference to FIGS. 5 and 7 in a portion different from that of the first embodiment.

<傾き補正範囲外の場合の処理の説明>
本実施形態では、図5のS501において、映像処理部207によって生成された映像と、その映像の撮影時にメモリ216に記録されたブレや傾きの補正状態を確認し、S406で決定した傾き補正の補正範囲を超えた映像のフレームを検出する。第1の実施形態でのブレ補正と同じように、傾き補正の補正範囲外と補正範囲内を短時間で繰り返すような場合は、その期間をすべて補正範囲外として取り扱うような処理としてもよい。また、補正範囲外がごく短時間である場合には、補正範囲内として取り扱うように補正範囲の閾値を一時的に変更する処理としてもよい。
<Explanation of processing when outside the tilt correction range>
In the present embodiment, in S501 of FIG. 5, the image generated by the image processing unit 207 and the correction state of blur and inclination recorded in the memory 216 at the time of shooting the image are confirmed, and the inclination correction determined in S406 is performed. Detects video frames that exceed the correction range. Similar to the blur correction in the first embodiment, when the outside of the correction range of the tilt correction and the inside of the correction range are repeated in a short time, the process may be such that the entire period is treated as out of the correction range. Further, when the outside of the correction range is a very short time, the threshold value of the correction range may be temporarily changed so as to be treated as being within the correction range.

S502では、映像中の重要被写体情報を検出する。例えば、シーン判定情報で同一シーンが続く期間や、同一の犬が重要被写体として検出されている期間などの、同一の重要被写体検出が続く期間を検出する。 In S502, important subject information in the image is detected. For example, the scene determination information detects a period during which the same important subject continues to be detected, such as a period during which the same scene continues or a period during which the same dog is detected as an important subject.

S503では、映像中の音データを検出する。例えば、音シーン判定結果を用いて、歓声が上がっている期間、拍手されている期間、声が発せられている期間などの同一音シーンが続く期間を検出する。 In S503, the sound data in the video is detected. For example, the sound scene determination result is used to detect a period during which the same sound scene continues, such as a period during which cheers are rising, a period during which applause is being performed, and a period during which a voice is being emitted.

S504では、S502の同一の重要被写体が続く期間と、S503の同一音シーンが続く期間を用いて、それぞれの期間がS501で検出された削除される対象フレームと重なるか否かを判定する。削除の対称となっているフレームと同一の期間が存在する場合は、そのフレームを削除の対象から除く。削除の対象から除く方法は図7を用いて説明する。 In S504, using the period in which the same important subject in S502 continues and the period in which the same sound scene in S503 continues, it is determined whether or not each period overlaps with the target frame to be deleted detected in S501. If there is a period that is the same as the frame that is symmetrical to be deleted, that frame is excluded from the deletion target. The method of excluding from the deletion target will be described with reference to FIG.

図7は、映像B700と傾き量701と音シーン検出期間702と被写体検出期間703と重要被写体として検出した顔のサイズ710とを、時間経過を横軸として表した図である。映像B700は、人物を撮影していたが、その人物が遠くに離れていき、別の被写体の人物を撮影しようとカメラが動かされ大きく傾き、その後、人物が声を出しながら近づいてきたシーンを撮影した場合を想定している。 FIG. 7 is a diagram showing the image B 700, the tilt amount 701, the sound scene detection period 702, the subject detection period 703, and the face size 710 detected as an important subject, with the passage of time as the horizontal axis. In the video B700, a person was photographed, but the person moved away and the camera was moved to shoot a person of another subject and tilted greatly, and then the person approached while speaking out. It is assumed that the picture was taken.

傾き量701において、S406で決定した補正範囲閾値704を超えて削除対象となる大きい傾きが発生している期間は、削除開始位置705から削除終了位置706までである。しかしながら、S502で検出した被写体検出期間703において、被写体として検出された第1の顔の検出が顔検出終了位置707まで存在する。また、検出された第1の顔のサイズは、顔検出サイズ閾値710を下回ると、顔として認識はできるが、小さくて撮影に適さないサイズとなる。そのため、削除開始位置705から第1の顔の検出サイズ閾値位置713までは、傾きは大きいものの顔として認識出来ており、撮影に適したサイズである。そのため、削除開始位置705から第1の顔の検出サイズ閾値位置713までの間は、傾きが大きくとも有用な映像であるとして、削除開始位置を位置705から第1の顔の検出サイズ閾値位置713に変更する。 In the tilt amount 701, the period during which a large tilt to be deleted exceeds the correction range threshold value 704 determined in S406 is from the deletion start position 705 to the deletion end position 706. However, in the subject detection period 703 detected in S502, the detection of the first face detected as the subject exists up to the face detection end position 707. Further, when the detected first face size is less than the face detection size threshold value 710, it can be recognized as a face, but it is small and unsuitable for shooting. Therefore, from the deletion start position 705 to the detection size threshold position 713 of the first face, the face can be recognized as a face although the inclination is large, which is a size suitable for shooting. Therefore, the area between the deletion start position 705 and the first face detection size threshold position 713 is regarded as a useful image even if the inclination is large, and the deletion start position is set from the position 705 to the first face detection size threshold position 713. Change to.

また、被写体検出期間703において、第2の顔の検出が顔検出開始位置708で開始される。さらに声が発生された状態が音シーン検出期間702でも音シーン検出開始位置709として検出される。ただし、第2の顔の検出サイズはだんだんと大きくなっていくため、第2の顔の検出サイズ閾値位置714より後にならないと撮影に適した顔のサイズにならない。そのため、第2の顔の検出サイズ閾値位置714以降は撮影に適した顔のサイズで、かつ、声が発生された状態が検出された状態となり、有用な音シーンやシーンが含まれている映像であると判定される。そのため、削除終了位置を位置706から第2の顔の検出サイズ閾値位置714に変更する。 Further, in the subject detection period 703, the second face detection is started at the face detection start position 708. Further, the state in which the voice is generated is detected as the sound scene detection start position 709 even in the sound scene detection period 702. However, since the detection size of the second face gradually increases, the face size suitable for shooting cannot be obtained until after the detection size threshold position 714 of the second face. Therefore, after the second face detection size threshold position 714, the face size is suitable for shooting, and the state in which a voice is generated is detected, and a video containing useful sound scenes and scenes. Is determined to be. Therefore, the deletion end position is changed from the position 706 to the detection size threshold position 714 of the second face.

この様な判定処理を行った後、S505では、S504および図7で判定した期間のフレームを削除して、一つの映像をシーンごとに分けた複数の映像として再度保存する。 After performing such a determination process, in S505, the frames of the period determined in S504 and FIG. 7 are deleted, and one image is saved again as a plurality of images divided for each scene.

上記のように、第2の実施形態においては、撮影された映像の傾き補正範囲を超えた部分を削除することにより、ユーザーの好みに合った映像を提供することが可能となる。 As described above, in the second embodiment, it is possible to provide an image that suits the user's preference by deleting the portion that exceeds the inclination correction range of the captured image.

なお、本実施形態では、傾き補正の範囲を超えた場合について説明しているが、第1の実施形態で説明したブレ補正の範囲を超えた場合と傾き補正の範囲を超えた場合の両方を使用して判定してもよい。 Although the case where the tilt correction range is exceeded is described in the present embodiment, both the case where the tilt correction range is exceeded and the case where the tilt correction range is exceeded as described in the first embodiment are described. It may be used to determine.

以上説明したように、上記の第1及び第2の実施形態によれば、撮影した映像に補正しきれないブレや傾きが発生している場合でも、ユーザーが記録された映像を手動で編集する手間を軽減できる。また、補正しきれない像ブレや傾きが発生した前後でシーンや被写体が変わった際に、同一被写体や同一シーンのみを含む映像に分割することができる。 As described above, according to the first and second embodiments described above, the user manually edits the recorded video even if the captured video has uncorrectable blurring or tilting. You can reduce the trouble. Further, when a scene or a subject changes before and after an image blur or tilt that cannot be corrected, it can be divided into an image including the same subject or only the same scene.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:カメラ、104:チルト回転ユニット、105:パン回転ユニット、206:撮像部、207:映像処理部、209:装置傾き検出部、210:装置揺れ検出部、212:第2制御部、224:第1制御部 101: Camera, 104: Tilt rotation unit, 105: Pan rotation unit, 206: Imaging unit, 207: Video processing unit, 209: Device tilt detection unit, 210: Device shake detection unit, 212: Second control unit, 224: 1st control unit

Claims (20)

撮像装置であって、
被写体像を撮像する撮像手段と、
前記撮像装置の振れを検出する検出手段と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上での像ブレを補正する像ブレ補正手段と、
前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影手段と、
前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記像ブレ補正手段による像ブレ補正状態のデータとを記録する記録手段と、
前記記録手段により記録された前記像ブレ補正状態のデータに基づいて、前記映像データを自動編集する自動編集手段と、
を備えることを特徴とする撮像装置。
It is an image pickup device
An imaging means for capturing a subject image and
A detection means for detecting the runout of the image pickup apparatus and
An image blur correction means for correcting image blur on the image pickup surface of the image pickup means due to the shake of the image pickup apparatus, and an image blur correction means for correcting the image blur on the image pickup surface of the image pickup means.
An automatic photographing means for causing the imaging means to automatically take an image based on the state of the image pickup device, and
A recording means for recording video data automatically captured by the imaging means and data in an image blur correction state by the image blur correction means for the video data.
An automatic editing means that automatically edits the video data based on the image blur correction state data recorded by the recording means, and
An imaging device characterized by comprising.
前記像ブレ補正手段は、前記自動撮影手段による撮影の前に、前記検出手段により検出された前記撮像装置の振れの状態に基づいて、像ブレ補正範囲を決定することを特徴とする請求項1に記載の撮像装置。 Claim 1 is characterized in that the image blur correction means determines an image blur correction range based on a state of vibration of the image pickup apparatus detected by the detection means before shooting by the automatic photographing means. The imaging apparatus according to the above. 前記自動編集手段は、前記撮像手段で撮像された映像データの各フレームの像ブレ補正状態が前記像ブレ補正範囲を超えた場合は、該像ブレ補正範囲を超えたフレームを前記映像データから削除することを特徴とする請求項2に記載の撮像装置。 When the image blur correction state of each frame of the video data captured by the imaging means exceeds the image blur correction range, the automatic editing means deletes the frame exceeding the image blur correction range from the video data. The imaging device according to claim 2, wherein the image pickup apparatus is used. 前記記録手段は、前記撮像手段で撮像された映像データの撮像時の音データをさらに記録し、前記自動編集手段は、前記像ブレ補正状態のデータに加えて、前記音データに基づいて、前記映像データを自動編集することを特徴とする請求項3に記載の撮像装置。 The recording means further records sound data at the time of imaging of the video data captured by the imaging means, and the automatic editing means is based on the sound data in addition to the data in the image blur correction state. The imaging device according to claim 3, wherein the video data is automatically edited. 前記自動編集手段は、前記像ブレ補正状態のデータに基づいて決定した削除するフレームの位置を、前記音データに基づいて変更することを特徴とする請求項4に記載の撮像装置。 The imaging device according to claim 4, wherein the automatic editing means changes the position of the frame to be deleted, which is determined based on the data of the image blur correction state, based on the sound data. 前記撮像手段により撮像された映像データから被写体を検出する被写体検出手段をさらに備え、前記自動編集手段は、前記像ブレ補正状態のデータに加えて、前記被写体検出手段の被写体検出状態に基づいて、前記映像データを自動編集することを特徴とする請求項3に記載の撮像装置。 A subject detecting means for detecting a subject from the video data captured by the imaging means is further provided, and the automatic editing means is based on the subject detecting state of the subject detecting means in addition to the data of the image blur correction state. The imaging device according to claim 3, wherein the video data is automatically edited. 前記自動編集手段は、前記像ブレ補正状態のデータに基づいて決定した削除するフレームの位置を、前記被写体検出状態に基づいて変更することを特徴とする請求項6に記載の撮像装置。 The imaging device according to claim 6, wherein the automatic editing means changes the position of the frame to be deleted, which is determined based on the data of the image blur correction state, based on the subject detection state. 撮像装置であって、
被写体像を撮像する撮像手段と、
前記撮像装置の振れを検出する検出手段と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上でのロール傾きを補正する傾き補正手段と、
前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影手段と、
前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記傾き補正手段による傾き補正状態のデータとを記録する記録手段と、
前記記録手段により記録された前記傾き補正状態のデータに基づいて、前記映像データを自動編集する自動編集手段と、
を備えることを特徴とする撮像装置。
It is an image pickup device
An imaging means for capturing a subject image and
A detection means for detecting the runout of the image pickup apparatus and
An inclination correction means for correcting the roll inclination of the image pickup means on the image pickup surface due to the runout of the image pickup apparatus, and an inclination correction means.
An automatic photographing means for causing the imaging means to automatically take an image based on the state of the image pickup device, and
A recording means for recording video data automatically captured by the imaging means and data in a tilt correction state by the tilt correction means for the video data.
An automatic editing means that automatically edits the video data based on the tilt correction state data recorded by the recording means, and
An imaging device characterized by comprising.
前記傾き補正手段は、前記自動撮影手段による撮影の前に、前記検出手段により検出された前記撮像装置の振れの状態に基づいて、傾き補正範囲を決定することを特徴とする請求項8に記載の撮像装置。 The eighth aspect of the present invention is characterized in that the tilt correction means determines a tilt correction range based on a state of vibration of the imaging device detected by the detection means before shooting by the automatic photographing means. Imaging device. 前記自動編集手段は、前記撮像手段で撮像された映像データの各フレームの傾き補正状態が前記傾き補正範囲を超えた場合は、該傾き補正範囲を超えたフレームを前記映像データから削除することを特徴とする請求項9に記載の撮像装置。 When the tilt correction state of each frame of the video data captured by the imaging means exceeds the tilt correction range, the automatic editing means deletes the frame exceeding the tilt correction range from the video data. The imaging apparatus according to claim 9. 前記記録手段は、前記撮像手段で撮像された映像データの撮像時の音データをさらに記録し、前記自動編集手段は、前記傾き補正状態のデータに加えて、前記音データに基づいて、前記映像データを自動編集することを特徴とする請求項10に記載の撮像装置。 The recording means further records sound data at the time of imaging of the video data captured by the imaging means, and the automatic editing means further records the video based on the sound data in addition to the data in the tilt correction state. The imaging device according to claim 10, wherein the data is automatically edited. 前記自動編集手段は、前記傾き補正状態のデータに基づいて決定した削除するフレームの位置を、前記音データに基づいて変更することを特徴とする請求項11に記載の撮像装置。 The imaging device according to claim 11, wherein the automatic editing means changes the position of the frame to be deleted, which is determined based on the data of the tilt correction state, based on the sound data. 前記撮像手段により撮像された映像データから被写体を検出する被写体検出手段をさらに備え、前記自動編集手段は、前記傾き補正状態のデータに加えて、前記被写体検出手段の被写体検出状態に基づいて、前記映像データを自動編集することを特徴とする請求項10に記載の撮像装置。 The subject detecting means for detecting a subject from the video data captured by the imaging means is further provided, and the automatic editing means is based on the subject detection state of the subject detecting means in addition to the data of the tilt correction state. The imaging device according to claim 10, wherein the video data is automatically edited. 前記自動編集手段は、前記傾き補正状態のデータに基づいて決定した削除するフレームの位置を、前記被写体検出状態に基づいて変更することを特徴とする請求項13に記載の撮像装置。 The imaging device according to claim 13, wherein the automatic editing means changes the position of the frame to be deleted, which is determined based on the data of the tilt correction state, based on the subject detection state. 撮像装置であって、
被写体像を撮像する撮像手段と、
前記撮像装置の振れを検出する検出手段と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上での像ブレを補正する像ブレ補正手段と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上でのロール傾きを補正する傾き補正手段と、
前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影手段と、
前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記像ブレ補正手段による像ブレ補正状態のデータと、前記映像データに対する前記傾き補正手段による傾き補正状態のデータとを記録する記録手段と、
前記記録手段により記録された前記像ブレ補正状態のデータと、前記傾き補正状態のデータとに基づいて、前記映像データを自動編集する自動編集手段と、
を備えることを特徴とする撮像装置。
It is an image pickup device
An imaging means for capturing a subject image and
A detection means for detecting the runout of the image pickup apparatus and
An image blur correction means for correcting image blur on the image pickup surface of the image pickup means due to the shake of the image pickup apparatus, and an image blur correction means for correcting the image blur on the image pickup surface of the image pickup means.
An inclination correction means for correcting the roll inclination of the image pickup means on the image pickup surface due to the runout of the image pickup apparatus, and an inclination correction means.
An automatic photographing means for causing the imaging means to automatically take an image based on the state of the image pickup device, and
The video data automatically captured by the imaging means, the image blur correction state data of the image blur correction means for the video data, and the tilt correction state data of the tilt correction means for the video data are recorded. Recording means and
An automatic editing means for automatically editing the video data based on the image blur correction state data recorded by the recording means and the tilt correction state data.
An imaging device characterized by comprising.
被写体像を撮像する撮像手段を備える撮像装置を制御する方法であって、
前記撮像装置の振れを検出する検出工程と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上での像ブレを補正する像ブレ補正工程と、
前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影工程と、
前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記像ブレ補正工程による像ブレ補正状態のデータとを記録する記録工程と、
前記記録工程において記録された前記像ブレ補正状態のデータに基づいて、前記映像データを自動編集する自動編集工程と、
を有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging device including an imaging means for capturing a subject image.
A detection step for detecting the runout of the image pickup apparatus and
An image blur correction step for correcting image blur on the imaging surface of the imaging means due to the shake of the imaging device, and an image blur correction step.
An automatic imaging step of causing the imaging means to automatically perform imaging based on the state of the imaging device, and
A recording step of recording video data automatically captured by the imaging means and data of an image blur correction state of the video data by the image blur correction step.
An automatic editing step of automatically editing the video data based on the image blur correction state data recorded in the recording step, and
A method for controlling an imaging device, which comprises.
被写体像を撮像する撮像手段を備える撮像装置を制御する方法であって、
前記撮像装置の振れを検出する検出工程と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上でのロール傾きを補正する傾き補正工程と、
前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影工程と、
前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記傾き補正工程による傾き補正状態のデータとを記録する記録工程と、
前記記録工程において記録された前記傾き補正状態のデータに基づいて、前記映像データを自動編集する自動編集工程と、
を有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging device including an imaging means for capturing a subject image.
A detection step for detecting the runout of the image pickup apparatus and
A tilt correction step for correcting the roll tilt on the imaging surface of the imaging means due to the runout of the imaging device, and a tilt correction step.
An automatic imaging step of causing the imaging means to automatically perform imaging based on the state of the imaging device, and
A recording step of recording video data automatically captured by the imaging means and data of a tilt correction state of the video data by the tilt correction step.
An automatic editing step of automatically editing the video data based on the tilt correction state data recorded in the recording step, and
A method for controlling an imaging device, which comprises.
被写体像を撮像する撮像手段を備える撮像装置を制御する方法であって、
前記撮像装置の振れを検出する検出工程と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上での像ブレを補正する像ブレ補正工程と、
前記撮像装置の振れに起因する前記撮像手段の撮像面上でのロール傾きを補正する傾き補正工程と、
前記撮像装置の状態に基づいて、前記撮像手段に自動的に撮影を行わせる自動撮影工程と、
前記撮像手段により自動的に撮影された映像データと、該映像データに対する前記像ブレ補正工程による像ブレ補正状態のデータと、前記映像データに対する前記傾き補正工程による傾き補正状態のデータとを記録する記録工程と、
前記記録工程において記録された前記像ブレ補正状態のデータと、前記傾き補正状態のデータとに基づいて、前記映像データを自動編集する自動編集工程と、
を有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging device including an imaging means for capturing a subject image.
A detection step for detecting the runout of the image pickup apparatus and
An image blur correction step for correcting image blur on the imaging surface of the imaging means due to the shake of the imaging device, and an image blur correction step.
A tilt correction step for correcting the roll tilt on the imaging surface of the imaging means due to the runout of the imaging device, and a tilt correction step.
An automatic imaging step of causing the imaging means to automatically perform imaging based on the state of the imaging device, and
The video data automatically captured by the imaging means, the data of the image blur correction state of the video data by the image blur correction step, and the data of the tilt correction state of the video data by the tilt correction step are recorded. Recording process and
An automatic editing step of automatically editing the video data based on the image blur correction state data recorded in the recording step and the tilt correction state data.
A method for controlling an imaging device, which comprises.
請求項16乃至18のいずれか1項に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to any one of claims 16 to 18. 請求項16乃至18のいずれか1項に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing a computer to execute each step of the control method according to any one of claims 16 to 18.
JP2020002432A 2020-01-09 Imaging device, control method thereof, program, and storage medium Active JP7471827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002432A JP7471827B2 (en) 2020-01-09 Imaging device, control method thereof, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002432A JP7471827B2 (en) 2020-01-09 Imaging device, control method thereof, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2021111868A true JP2021111868A (en) 2021-08-02
JP7471827B2 JP7471827B2 (en) 2024-04-22

Family

ID=

Similar Documents

Publication Publication Date Title
US8411155B2 (en) Image pickup apparatus and lens barrel
JP4804398B2 (en) Imaging apparatus and imaging method
US8736691B2 (en) Image pickup apparatus to control an exposure time based on motion of a detected optical image
US20080204564A1 (en) Image pickup apparatus and lens barrel
KR20130017629A (en) Apparatus and method for processing image, and computer-readable storage medium
CN112040115B (en) Image processing apparatus, control method thereof, and storage medium
JP4853707B2 (en) Imaging apparatus and program thereof
KR101630304B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
US20110221914A1 (en) Electronic camera
JP7471827B2 (en) Imaging device, control method thereof, program, and storage medium
JP4379921B2 (en) Imaging apparatus and program thereof
JP4974829B2 (en) Imaging device
JP2021111868A (en) Imaging device and control method thereof, program, and storage medium
JP4553134B2 (en) Image generating apparatus and program thereof
JP4806470B2 (en) Imaging device
WO2021140879A1 (en) Imaging device, control method for imaging device, program
JP2006287828A (en) Moving picture imaging apparatus and program thereof
JP2021111960A (en) Imaging apparatus, control method of the same, and program
JP4872785B2 (en) Imaging apparatus, subject selection method, and subject selection program
JP4806471B2 (en) Imaging device
JP2009260413A (en) Image pickup apparatus and method for controlling image pickup apparatus
JP2006330042A (en) Imaging apparatus and program thereof
JP4487314B2 (en) Movie imaging apparatus and program thereof
JP5413621B2 (en) Imaging apparatus and program thereof
JP2023115728A (en) Imaging apparatus, control method of the same, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240311