JP2023119433A - System, apparatus, and control method - Google Patents

System, apparatus, and control method Download PDF

Info

Publication number
JP2023119433A
JP2023119433A JP2022022342A JP2022022342A JP2023119433A JP 2023119433 A JP2023119433 A JP 2023119433A JP 2022022342 A JP2022022342 A JP 2022022342A JP 2022022342 A JP2022022342 A JP 2022022342A JP 2023119433 A JP2023119433 A JP 2023119433A
Authority
JP
Japan
Prior art keywords
subject
imaging
sensor
exposure
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022022342A
Other languages
Japanese (ja)
Inventor
宏典 海田
Hironori Kaida
尚子 渡澤
Naoko Tozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022022342A priority Critical patent/JP2023119433A/en
Priority to US18/164,036 priority patent/US20230269488A1/en
Publication of JP2023119433A publication Critical patent/JP2023119433A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Accessories Of Cameras (AREA)

Abstract

To provide a system capable of automatically determining imaging settings of a camera according to a motion state of a subject by integrating the motion state of the subject with an analysis result of a camera and a sensing result of a mobile device.SOLUTION: A system includes: an imaging apparatus comprising imaging means configured to capture an image of a subject, subject motion detection means configured to detect motion of the subject using the image captured by the imaging means, and exposure control means configured to control exposure of the imaging means; and a sensor device comprising sensor means for acquiring information on the subject, and capable of being attached to the subject to be imaged, unlike the imaging means having transmission means for transmitting a sensing result of the sensor means to the imaging apparatus wirelessly. The imaging apparatus is configured to perform imaging while controlling exposure of the imaging means using the sensing result of the sensor means and a result of the subject motion detection means.SELECTED DRAWING: Figure 1

Description

本発明は、カメラの撮影を制御する技術に関し、特に、ウェアラブルデバイスを用いて撮影をするカメラのシステム並びに装置、制御方法に関する。 The present invention relates to a technique for controlling photography of a camera, and more particularly to a camera system, apparatus, and control method for photographing using a wearable device.

加速度センサや人感センサ等のセンシング結果によりカメラの撮影を制御する技術が知られている。 2. Description of the Related Art Techniques for controlling camera shooting based on sensing results from an acceleration sensor, a human sensor, or the like are known.

例えば、特許文献1では携帯可能な装置(ウェアラブルデバイス)の状況に応じて、離れたところにあるカメラのオート撮影を制御することが開示されている。 For example, Japanese Patent Application Laid-Open No. 2002-200000 discloses controlling automatic shooting of a remote camera according to the status of a portable device (wearable device).

特開2016-072673号公報JP 2016-072673 A

しかしながら、上述の特許文献に開示された従来技術では、センシング結果に基づいてオート撮影のタイミング制御を行うことが主であり、カメラに写る被写体の動き状態を含めてカメラの撮影設定を自動で行うところまで考慮されていない。そのため、撮影のタイミングは制御できても、被写体の動きが速い場合には撮影した被写体がブレてしまう可能性がある。そこで本発明の目的は、被写体の動き状態をカメラの解析結果と携帯可能な装置によるセンシング結果を連携させることで、被写体の動き状態に合わせたカメラの撮影設定を自動で決定することを可能にしたシステムを提供する。 However, in the prior art disclosed in the above-mentioned patent document, the timing control of automatic shooting is mainly performed based on the sensing result, and the shooting setting of the camera is automatically performed including the movement state of the subject captured by the camera. not taken into consideration so far. Therefore, even if the timing of photographing can be controlled, there is a possibility that the photographed subject will be blurred if the movement of the subject is fast. Therefore, the object of the present invention is to make it possible to automatically determine the camera shooting settings according to the movement state of the subject by linking the analysis result of the camera and the sensing result of the portable device regarding the movement state of the subject. provide a system that

上記目的を達成するために、本発明は、被写体を撮像する撮像手段と、前記撮像手段で撮像した画像を用いて被写体の動きを検出する被写体動き検出手段と、前記撮像手段の露出を制御する露出制御手段を持つ撮像装置と被写体の情報を取得するセンサ手段を備え、前記センサ手段のセンシング結果を前記撮像装置へ無線で送信する送信手段を持つ前記撮像手段とは異なり、撮影する被写体に装着可能なセンサ装置からなり、前記撮像装置は、前記センサ手段のセンシング結果と、前記被写体動き検出手段の結果を用いて前記撮像手段の露出を制御し撮像を行うことを特徴とするシステムを備えることを特徴とする。 To achieve the above object, the present invention provides imaging means for imaging a subject, subject motion detection means for detecting movement of the subject using the image captured by the imaging means, and exposure control of the imaging means. It is equipped with an imaging device having exposure control means and a sensor means for acquiring information on a subject, and is worn on the subject being photographed, unlike the imaging means having a transmission means for wirelessly transmitting sensing results of the sensor means to the imaging device. and the imaging device uses the sensing result of the sensor means and the result of the subject motion detection means to control the exposure of the imaging means and perform imaging. characterized by

本発明によれば、より好適に被写体の動きに考慮して、被写体ブレを減らせるカメラ制御を行うことを提供することができる。 According to the present invention, it is possible to provide camera control capable of reducing subject blur by taking into consideration the movement of the subject more preferably.

本発明の構成例を示す図A diagram showing a configuration example of the present invention 撮像システム100の外観としての一例を示す図A diagram showing an example of an appearance of the imaging system 100. 実施例1のカメラ101の動作を説明するフローチャートFlowchart for explaining the operation of the camera 101 of the first embodiment 実施例2のカメラ101の動作を説明するフローチャートFlowchart for explaining the operation of the camera 101 of the second embodiment ウェアラブルデバイス102の動作を説明するフローチャートFlowchart for explaining the operation of the wearable device 102 ブロックマッチングを説明する図Diagram explaining block matching 準備撮影画像の撮影条件を決定する動作を説明するフローチャートFlowchart for explaining the operation of determining shooting conditions for a preparatory shot image 被写体の動きを示した図A diagram showing the movement of the subject 動きベクトルの算出処理を示すフローチャートFlowchart showing motion vector calculation processing 被写体の動きベクトルの補正する図Diagram for correcting the motion vector of the subject 被写体の動きベクトルと被写体動きブレ量との関係を示した図Diagram showing the relationship between subject motion vector and subject motion blur amount デジタルゲインを掛けて露光量を補正する処理を説明する図Diagram for explaining the process of correcting the exposure amount by multiplying the digital gain 実施例2の本露光の処理の詳細を説明するフローチャートFlowchart for explaining the details of the main exposure process of the second embodiment 電子先幕シャッタの構成を説明する図Diagram for explaining the configuration of the electronic front curtain shutter 電子先幕シャッタの動作を説明する図Diagram explaining the operation of the electronic front curtain shutter 露光打ち切り制御を行う方法を説明する図Diagram for explaining how to perform exposure cut-off control 被写体が複数人の場合のイメージ図Image diagram when there are multiple subjects ウェアラブルデバイス102が複数の場合を説明するフローチャートFlowchart for explaining a case where there are a plurality of wearable devices 102 主要なウェアラブルデバイス102を決定するフローチャートFlowchart for determining primary wearable device 102 ウェアラブルデバイス102の優先順位を設定する設定画面例Example of setting screen for setting priority of wearable device 102 ウェアラブルデバイス102の優先度決め項目について説明する図FIG. 5 is a diagram for explaining priority determination items of the wearable device 102; ウェアラブルデバイス102の優先度順位の算出方法について説明する図FIG. 4 is a diagram for explaining a method of calculating the priority order of the wearable device 102;

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態は特許請求に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、そのすべてが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。本実施形態では、スマートフォンや、リストバンド型端末等のウェアラブルデバイスとカメラを連携させ、カメラの露光制御操作をオートで実現する。 Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the claimed invention. In addition, although multiple features are described in the embodiments, not all of them are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted. In this embodiment, a smart phone, a wearable device such as a wristband type terminal, and a camera are linked, and the exposure control operation of the camera is realized automatically.

これにより無人撮影や、自分撮りのようなユースケースでも、被写体の動きを所望のブレ以下に抑えるように露光制御を行うことを実現し、オートの利用シーンを広げるものである。 As a result, even in use cases such as unattended shooting and self-portraits, it is possible to perform exposure control so as to suppress the movement of the subject to a desired degree of blurring or less, thereby expanding the scenes in which auto can be used.

図1は本実施例で説明する撮像システム100の一例である。図1の撮像システム100は、カメラ101とウェアラブルデバイス102の二つの装置で実現する。ウェアラブルデバイス102の一例としては、スマートフォンやリストバンド型端末等が挙げられ、その形態については問わない。図2は、本発明の一実施の形態の外観を示す図である。図2(a)はカメラ101としてデジタルカメラ201と、ウェアラブルデバイス102としてスマートフォン202の二つを接続している撮像システム100を表している。 FIG. 1 is an example of an imaging system 100 described in this embodiment. The imaging system 100 in FIG. 1 is implemented by two devices, a camera 101 and a wearable device 102 . Examples of the wearable device 102 include a smart phone, a wristband type terminal, and the like, and the form thereof is not limited. FIG. 2 is a diagram showing the appearance of one embodiment of the present invention. FIG. 2A shows an imaging system 100 in which a digital camera 201 as a camera 101 and a smart phone 202 as a wearable device 102 are connected.

制御部112は、例えばCPUであり、カメラ101が備える各ブロックに対する制御プログラムを後述のROM113より読み出し、後述のRAM114に展開して実行する。これにより、制御部112は、カメラ101が備える各ブロックの動作を制御する。 The control unit 112 is, for example, a CPU, and reads a control program for each block included in the camera 101 from a ROM 113 (to be described later), develops it in a RAM 114 (to be described later), and executes it. Thereby, the control unit 112 controls the operation of each block included in the camera 101 .

ROM113は、電気的に消去・記録可能な不揮発性メモリであり、カメラ101が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 113 is an electrically erasable/recordable non-volatile memory, and stores an operation program for each block provided in the camera 101, as well as parameters required for the operation of each block.

RAM114は、書き換え可能な揮発性メモリであり、制御部112等が実行するプログラムの展開や、カメラ101が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 A RAM 114 is a rewritable volatile memory, and is used for developing programs executed by the control unit 112 and the like, temporarily storing data generated by operations of blocks included in the camera 101, and the like.

通信部115は、所定の無線通信規格に応じて通信を行う。例えば、無線通信規格として、IEEE802.11規格の所謂Wi-Fi、Bluetooth(登録商標)、およびNFCなどがあり、少なくとも1つをサポートしていればよい。 Communication unit 115 performs communication according to a predetermined wireless communication standard. For example, wireless communication standards include IEEE 802.11 standard Wi-Fi, Bluetooth (registered trademark), and NFC, and at least one of them should be supported.

光学系121は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像素子122の撮像面上に結像する。 The optical system 121 is composed of a lens group including a zoom lens and a focus lens, and forms a subject image on an imaging surface of an imaging device 122, which will be described later.

撮像素子122は、例えばCCDやCMOSセンサ等で構成される。撮像素子122の各画素は、光学系121により撮像素子122の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号を後述のA/D変換部123に出力する。 The imaging element 122 is configured by, for example, a CCD or CMOS sensor. Each pixel of the imaging device 122 photoelectrically converts an optical image formed on the imaging surface of the imaging device 122 by the optical system 121, and outputs the obtained analog image signal to the A/D conversion unit 123 described later.

A/D変換部123は、入力されたアナログ画像信号をデジタル画像データに変換し、A/D変換部123から出力されたデジタル画像データは、RAM114に一時的に記憶される。 The A/D converter 123 converts the input analog image signal into digital image data, and the digital image data output from the A/D converter 123 is temporarily stored in the RAM 114 .

画像処理部124は、RAM114に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部124は、記録された画像間の動きベクトルの算出や、被写体の検出なども行う。これらの詳細については後述する。 The image processing unit 124 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 114 . The image processing unit 124 also calculates a motion vector between recorded images and detects a subject. Details of these will be described later.

記録部125は、着脱可能なメモリカード等であり、画像処理部124で処理された画像データを、RAM114を介し、記録画像として記録する。 The recording unit 125 is a detachable memory card or the like, and records image data processed by the image processing unit 124 as a recorded image via the RAM 114 .

パルス発生部126は、非撮影状態から撮影状態に移行した際に、撮像素子122に走査クロック(水平駆動パルス)や所定の制御パルスを供給する。パルス発生部126で発生した走査クロックのうち、垂直走査用のクロックは、後述の垂直駆動変調部111に入力する。 The pulse generation unit 126 supplies a scan clock (horizontal driving pulse) and a predetermined control pulse to the imaging device 122 when the non-imaging state is shifted to the imaging state. Of the scanning clocks generated by the pulse generating section 126, the clock for vertical scanning is input to the vertical drive modulation section 111, which will be described later.

垂直駆動変調部111は、パルス発生部126で発生した走査クロック信号のうち、垂直走査用のクロックを所定のクロック周波数に変調し、撮像素子122に入力する。この垂直駆動変調部111によって、複数の画素からなる撮像素子122のライン毎に行われるリセット走査の走査パターンが決定される。この撮像素子122のライン毎のリセット走査により、電子先幕シャッタとしての機能を実現する。 The vertical drive modulation unit 111 modulates the vertical scanning clock among the scanning clock signals generated by the pulse generation unit 126 to a predetermined clock frequency, and inputs the modulated clock to the imaging device 122 . The vertical drive modulation unit 111 determines a scanning pattern for reset scanning performed for each line of the image sensor 122 consisting of a plurality of pixels. The line-by-line reset scanning of the image sensor 122 realizes the function of an electronic front curtain shutter.

ジャイロセンサ119は、角速度を検出する動き検知センサであり、カメラの振れの大きさを判別する。 The gyro sensor 119 is a motion detection sensor that detects angular velocity and determines the magnitude of camera shake.

メカシャッタ118は、物理的に光を遮る遮光機構を実現する開閉式のシャッタ機構で構成される(以降、メカシャッタ)。また、メカシャッタ118は、複数の遮光羽根で構成された後幕(以降、メカ後幕)として働く。制御部112は、メカ後幕の走行を開始させるタイミングを調整することで露光時間(シャッタースピード)を制御する。一方、電子先幕の機能は、所定のタイミングで撮像素子122の画素をライン毎に順次リセット走査することで実現する。 The mechanical shutter 118 is composed of an open/close shutter mechanism that physically shields light (hereinafter, mechanical shutter). Also, the mechanical shutter 118 functions as a rear curtain (hereinafter referred to as a mechanical rear curtain) composed of a plurality of light shielding blades. The control unit 112 controls the exposure time (shutter speed) by adjusting the timing for starting the movement of the mechanical rear curtain. On the other hand, the function of the electronic front curtain is realized by sequentially reset-scanning the pixels of the image sensor 122 line by line at a predetermined timing.

表示部127は、LCD等の表示デバイスであり、RAM114に記憶されている画像や記録部125に記録されている画像の表示、ユーザの指示を受け付けるための操作ユーザインターフェイスの表示等を行う。また、表示部127は、準備撮影中に構図合わせ等のために撮像素子122が撮像した画像を表示する。 The display unit 127 is a display device such as an LCD, and displays images stored in the RAM 114 and images recorded in the recording unit 125, and displays an operation user interface for accepting user instructions. In addition, the display unit 127 displays an image captured by the imaging device 122 for composition adjustment during preparatory shooting.

以上、カメラ101の構成について説明した。 The configuration of the camera 101 has been described above.

続いてウェアラブルデバイス102の構成について図1を用いて説明する。ウェアラブルデバイス102はタッチスクリーンディスプレイ141を備えており、液晶ディスプレイ142には文字、画像、およびアイコンなどが表示される。タッチスクリーン143はジェスチャー操作を検知することでできる。 Next, the configuration of the wearable device 102 will be explained using FIG. The wearable device 102 has a touch screen display 141, and a liquid crystal display 142 displays characters, images, icons, and the like. The touch screen 143 can be operated by detecting gesture operations.

インカメラ134は、レンズと光学像を電気信号に変換するCCD又はCMOSなどの撮像素子とを備えている。このインカメラ134はAF(オートフォーカス)、絞り、およびシャッタースピード調整機能などを備える小型のカメラモジュールである。そして、インカメラ134はタッチスクリーンディスプレイ141に対面する物体を撮像する。 The in-camera 134 includes a lens and an imaging device such as a CCD or CMOS that converts an optical image into an electrical signal. The in-camera 134 is a small camera module having AF (autofocus), aperture, and shutter speed adjustment functions. Then, the in-camera 134 images an object facing the touch screen display 141 .

照度センサ145はインカメラ134や、アウトカメラ135で集光する被写体の照度情報を取得し、撮影時の露光時間やISO感度の調整に用いる。 The illuminance sensor 145 acquires illuminance information of a subject focused by the in-camera 134 and the out-camera 135, and uses it to adjust the exposure time and ISO sensitivity during shooting.

制御部138は、例えばCPUであり、ウェアラブルデバイス102が備える各ブロックに対する制御プログラムを後述のROM151より読み出し、後述のRAM152に展開して実行する。これにより、制御部138は、ウェアラブルデバイス102が備える各ブロックの動作を制御する。制御部138はタッチスクリーン143、スイッチ144、インカメラ134、照度センサ145、アウトカメラ135、およびライト136などを制御してカメラ機能を提供する。 The control unit 138 is, for example, a CPU, and reads a control program for each block included in the wearable device 102 from the ROM 151 described later, develops it in the RAM 152 described later, and executes it. Thereby, the control unit 138 controls the operation of each block included in the wearable device 102 . The control unit 138 provides a camera function by controlling the touch screen 143, the switch 144, the in-camera 134, the illuminance sensor 145, the out-camera 135, the light 136, and the like.

ROM151は、電気的に消去・記録可能な不揮発性メモリであり、ウェアラブルデバイス102が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 151 is an electrically erasable/recordable non-volatile memory, and stores an operation program for each block included in the wearable device 102 as well as parameters required for the operation of each block.

RAM152は、書き換え可能な揮発性メモリであり、制御部112等が実行するプログラムの展開や、ウェアラブルデバイス102が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 The RAM 152 is a rewritable volatile memory, and is used for expansion of programs executed by the control unit 112 and the like, temporary storage of data generated by operation of each block included in the wearable device 102, and the like.

スピーカー139からは、スイッチ144において音出力オンの場合に、撮像の際のシャッタ音および警告音を出力する。 The speaker 139 outputs a shutter sound and a warning sound during imaging when the switch 144 is turned on for sound output.

コネクタ133はウェアラブルデバイス102と外部装置とを接続する際に用いられる。例えば、コネクタ133には、後述する電源モジュール132に備えられたバッテリーを充電するためのACアダプタが接続される。また、コネクタ133は、外部から接続される不揮発性メモリに対する画像データおよび音声データなどの入出力の際に用いられる。なお、コネクタ133はDockコネクタのような専用に設計された端子であってもよく、USB(Universal Serial Bus)のような汎用的な端子であってもよい。 The connector 133 is used when connecting the wearable device 102 and an external device. For example, the connector 133 is connected with an AC adapter for charging a battery provided in a power supply module 132, which will be described later. Also, the connector 133 is used when inputting/outputting image data, audio data, etc. to/from a non-volatile memory connected from the outside. Note that the connector 133 may be a specially designed terminal such as a dock connector, or a general-purpose terminal such as a USB (Universal Serial Bus).

アウトカメラ135は、インカメラ134と同様の小型のカメラモジュールである。アウトカメラ135はインカメラ134の反対側の被写体を撮像する。ライト136は発光モジュールであり、アウトカメラ135による撮像の際にはフラッシュとして機能する。 The out-camera 135 is a small camera module similar to the in-camera 134 . The out-camera 135 captures an object on the opposite side of the in-camera 134 . The light 136 is a light-emitting module and functions as a flash when the out-camera 135 takes an image.

通信モジュール131は、所定の無線通信規格に応じて通信を行う。例えば、無線通信規格として、IEEE802.11規格の所謂Wi-Fi、Bluetooth(登録商標)、およびNFCなどがあり、通信モジュール131は少なくとも1つをサポートしていればよい。具体的な通信としては、撮像によって得られた画像データの入出力およびウェアラブルデバイス102に対する機能追加プログラムモジュールのダウンロードが該当する。また、カメラ101へ後述するセンサ群(照度センサ145、加速度センサ146、ジャイロセンサ147、奥行きセンサ148)の情報を送信などの際に用いられる。 The communication module 131 performs communication according to a predetermined wireless communication standard. For example, wireless communication standards include IEEE 802.11 standard Wi-Fi, Bluetooth (registered trademark), and NFC, and the communication module 131 may support at least one of them. Specific communication includes input/output of image data obtained by imaging and downloading of function addition program modules to the wearable device 102 . It is also used for transmitting information of a group of sensors (illuminance sensor 145, acceleration sensor 146, gyro sensor 147, depth sensor 148) to the camera 101, which will be described later.

電源モジュール132は充電可能なバッテリーを備えており、ウェアラブルデバイス102全体に電源を供給する。電源モジュール132に備えられたバッテリーとして、例えば、リチウムイオン電池又はニッケル水素電池が用いられる。 The power module 132 includes a rechargeable battery to power the entire wearable device 102 . As the battery provided in the power supply module 132, for example, a lithium ion battery or a nickel metal hydride battery is used.

加速度センサ146は、ウェアラブルデバイス102に作用する加速度の方向と大きさを検知する。加速度センサ146はXYZ方向の3軸における検知が可能である。 Acceleration sensor 146 detects the direction and magnitude of acceleration acting on wearable device 102 . The acceleration sensor 146 is capable of detection in three axes of the XYZ directions.

ジャイロセンサ147はウェアラブルデバイス102の角度および角速度を検知する。 Gyro sensor 147 detects the angle and angular velocity of wearable device 102 .

奥行きセンサ148は、カメラから撮影する被写体までの距離を計測する。距離の計測する方式としては、赤外線や光や超音波などを物体に反射して跳ね返ってくるまでの時間を測定する方式や、複数台のカメラや画素を平行に並べ、視差画像から被写体の奥行情報を取得する方法がある。 A depth sensor 148 measures the distance from the camera to the subject being photographed. As a method for measuring distance, there is a method that measures the time it takes for infrared rays, light, ultrasonic waves, etc. to reflect off an object and bounce back. There are ways to get information.

図2は、撮像システム100の外観としての一例を示している。図2の(a)~(c)は、それぞれ撮像システム100として連携するカメラ101とウェアラブルデバイス102の組合せを表している。カメラ101と、ウェアラブルデバイス102間の接続は例えばBluetooth(商標登録)等で無線接続し、通信を行い撮像システム100と連携する。201は、カメラ101の一例としてデジタルカメラを示す。202は、ウェアラブルデバイス102の一例としてスマートフォンを示しており、このスマートフォンにはカメラ機能が搭載されている場合が多い。そのため、図2(c)のスマートフォン204に搭載するインカメラ134やアウトカメラ135のように、カメラ機能を使うことでウェアラブルデバイス102側ではなく、カメラ101側として使うことも可能である。また、ウェアラブルデバイス102は、スマートフォン以外にもリストバンド型端末203等の形態を使用することも可能である。 FIG. 2 shows an example of the appearance of the imaging system 100. As shown in FIG. (a) to (c) of FIG. 2 show combinations of a camera 101 and a wearable device 102 that cooperate as an imaging system 100, respectively. The camera 101 and the wearable device 102 are connected wirelessly, for example, by Bluetooth (registered trademark), and cooperate with the imaging system 100 through communication. 201 denotes a digital camera as an example of the camera 101 . Reference numeral 202 denotes a smart phone as an example of the wearable device 102, and the smart phone often has a camera function. Therefore, like the in-camera 134 and the out-camera 135 mounted on the smartphone 204 in FIG. 2C, it is possible to use the camera 101 side instead of the wearable device 102 side by using the camera function. In addition, the wearable device 102 can also use a form such as a wristband type terminal 203 other than a smart phone.

以上、撮像システム100の外観とシステム構成について説明を行った。 The appearance and system configuration of the imaging system 100 have been described above.

(第1の実施形態)
以下、図3と図5のフローチャートを参照して、本発明の第1の実施形態(実施例1)に係る、撮像システム100の処理について説明する。実施例1では、ウェアラブルデバイス102を撮影対象である被写体が装着し、カメラ101は外部に配置したリモートカメラの構成をとる。そして、ウェアラブルデバイス102を通して被写体動き情報をセンシングし、ウェアラブルデバイス102が取得した被写体動き情報を補助情報として、カメラ101の撮影条件を決定する。
(First embodiment)
Hereinafter, processing of the imaging system 100 according to the first embodiment (Example 1) of the present invention will be described with reference to the flowcharts of FIGS. 3 and 5. FIG. In the first embodiment, the wearable device 102 is worn by the subject to be photographed, and the camera 101 is configured as a remote camera arranged outside. Subject movement information is sensed through the wearable device 102, and the imaging conditions of the camera 101 are determined using the subject movement information acquired by the wearable device 102 as auxiliary information.

まずは、ウェアラブルデバイス102の動作について、図5を用いて処理について説明する。なお、以下の処理は、ROM151に記憶されたプログラムに従って、制御部138が装置の各部を制御することにより実現される。 First, the operation of the wearable device 102 will be described with reference to FIG. It should be noted that the following processing is realized by the control section 138 controlling each section of the apparatus according to the program stored in the ROM 151 .

ステップS501では、まずウェアラブルデバイス102の電源をユーザが入れる。そしてウェアラブルデバイス102は被写体動き情報を検出するためセンサ(加速度センサ146、ジャイロセンサ147、奥行きセンサ148等)からウェアラブルデバイス102のセンシング信号を受信するための待機動作を行う。 In step S501, the user first powers on the wearable device 102 . Then, the wearable device 102 performs a standby operation for receiving sensing signals of the wearable device 102 from sensors (acceleration sensor 146, gyro sensor 147, depth sensor 148, etc.) in order to detect subject movement information.

ステップS502において、カメラ101の通信部115は、ステップS501で取得したセンシング信号を一定の時間の間隔で取得する。例えば、センシング信号として、ウェアラブルデバイス102の加速度情報を取得する。加速度情報を取得するためには、加速度センサ146からの出力を所定時刻ごとに定期的に取得する。以上により、ウェアラブルデバイス102を装着した部位の被写体の加速度情報を得ることが可能となる。これは、加速度センサ146でなくとも、他の被写体の動き状態を検出できるセンサを使っても間接的にウェアラブルデバイス102装着部位の被写体の加速度情報を取得することも可能である。一例としては、奥行きセンサ148によるカメラ101からウェアラブルデバイス102までの距離変化を取得することで単位時間当たりに被写体の動き速度や加速度情報を算出することができる。 In step S502, the communication unit 115 of the camera 101 acquires the sensing signal acquired in step S501 at regular time intervals. For example, acceleration information of the wearable device 102 is obtained as the sensing signal. In order to acquire acceleration information, the output from the acceleration sensor 146 is periodically acquired at predetermined time intervals. As described above, it is possible to obtain the acceleration information of the subject at the site where the wearable device 102 is worn. Instead of using the acceleration sensor 146, it is also possible to indirectly acquire the acceleration information of the subject at the wearable device 102 attachment site by using a sensor capable of detecting the motion state of another subject. As an example, by obtaining a change in distance from the camera 101 to the wearable device 102 by the depth sensor 148, it is possible to calculate the motion speed and acceleration information of the subject per unit time.

ステップS503において、まずユーザは、ウェアラブルデバイス102を特定の位置、例えば動きの邪魔にならない手首などに装着する。ウェアラブルデバイス102は、被写体に装着されたことを触感センサ(不図示)などにより感知する。また、ウェアラブルデバイス102は、被写体の動きが分かる位置であれば自由に取り付けることも可能である。その場合、ウェアラブルデバイス102の装着部位の特定方法としては、装着しているデバイスをカメラ101側が取得した画像データから検出してもよい。また、事前にウェアラブルデバイス102の被写体に装着する部位を設定する方法や、事前に所定時間内における特定部位の加速度、速度の大きさなどを記録しておき、実際の動きを基に動いている被写体部位を特定する技術が知られている(特許第6325581号)。例えば、ステップS502でウェアラブルデバイス102の加速度センサ146から加速度情報を取得している。したがって、事前に装着部位ごとの所定時間当たりに記録した加速度変化と取得した加速度情報を照らし合わせてウェアラブルデバイス102の装着部位を特定することができる。 In step S503, the user first wears the wearable device 102 at a specific position, such as a wrist that does not interfere with movement. The wearable device 102 senses that it is worn by a subject using a tactile sensor (not shown) or the like. Also, the wearable device 102 can be attached freely as long as the movement of the subject is visible. In that case, as a method of specifying the mounting site of the wearable device 102, the mounted device may be detected from the image data acquired by the camera 101 side. In addition, a method of setting the part of the wearable device 102 to be attached to the subject in advance, and recording the acceleration and speed of the specific part within a predetermined time in advance, and moving based on the actual movement. A technique for specifying a subject part is known (Japanese Patent No. 6325581). For example, acceleration information is obtained from the acceleration sensor 146 of the wearable device 102 in step S502. Therefore, the wearing site of the wearable device 102 can be specified by comparing the acceleration change recorded per predetermined time for each wearing site in advance with the acquired acceleration information.

ステップS504において、ウェアラブルデバイス102の通信モジュールA131は、ステップS502で求めた加速度情報や、ウェアラブルデバイス102の装着部位情報を被写体動き情報としてカメラ101に送信する。 In step S504, the communication module A131 of the wearable device 102 transmits the acceleration information obtained in step S502 and the mounting site information of the wearable device 102 to the camera 101 as subject movement information.

以上が、ウェアラブルデバイス102の処理である。続いて、カメラ101の動作について図3のフローチャートを用いて説明する。なお、図3のフローチャートの処理は、撮像システム100のカメラ101にて、ROM113に記憶されたプログラムに従って、制御部112がカメラ101の各部を制御することで実現される。 The above is the processing of the wearable device 102 . Next, the operation of the camera 101 will be explained using the flowchart of FIG. The processing of the flowchart in FIG. 3 is realized by the control unit 112 controlling each unit of the camera 101 in accordance with the program stored in the ROM 113 in the camera 101 of the imaging system 100 .

ステップS301では、カメラ101の通信部115はウェアラブルデバイス102から送信された被写体動き情報を受信する。 In step S<b>301 , the communication unit 115 of the camera 101 receives subject movement information transmitted from the wearable device 102 .

ステップS302において、ユーザはカメラ101を用いて構図合わせなどの準備撮影を開始する。この準備撮影期間中は、カメラ101は連続的に画像を撮像し、記録した画像を表示部127に表示する。ユーザは表示された準備撮影画像を見ながら構図合わせなどを行う。なお、後述するステップS303、ステップS304及びステップS305の処理は準備撮影期間中に行う。 In step S302, the user uses the camera 101 to start preparatory photographing such as composition adjustment. During this preparatory shooting period, the camera 101 continuously captures images and displays the recorded images on the display unit 127 . The user adjusts the composition while viewing the displayed preparatory photographed image. It should be noted that the processes of steps S303, S304, and S305, which will be described later, are performed during the preparatory photographing period.

ステップS303において、カメラ101の制御部112は、構図内の被写体の動きベクトルを検出するために撮像する準備撮影画像の撮影条件を決定する。詳しくは後述するが、準備撮影を初期撮影条件で行なった際の構図内の被写体動き量と、ウェアラブルデバイス102の通信モジュールA131から送信された被写体動き情報を用いて、ウェアラブルデバイス102を装着している部位(被写体注目部位)の被写体ブレが少なくなるシャッタースピードを設定する。 In step S303, the control unit 112 of the camera 101 determines shooting conditions for a preparatory shot image to be shot in order to detect the motion vector of the subject in the composition. Although details will be described later, the wearable device 102 is worn using the amount of subject movement in the composition when preparatory photography is performed under the initial photography conditions and the subject movement information transmitted from the communication module A 131 of the wearable device 102. Sets the shutter speed that minimizes subject blur in the area where the subject is (subject's focus area).

ステップS304において、表示部127に構図内の被写体と、撮影設定条件(シャッタースピード、ISO感度、F値等)を表示する。 In step S304, the display unit 127 displays the subject in the composition and the shooting setting conditions (shutter speed, ISO sensitivity, F number, etc.).

ステップS305では、カメラ101の制御部112は、リモートレリーズが発動したかを判断する。リモートレリーズとは、ユーザがカメラと接続しているウェアラブルデバイス102を通して、カメラ101で露光を開始するタイミングシグナルを発信する制御である。リモートレリーズの発動は、ウェアラブルデバイス102を装着したユーザが所定のジェスチャーを行ったときの、ジャイロセンサ147の出力や、ウェアラブルデバイス102のレリーズボタン(不図示)を押すことで発生させることができる。もしくは、撮影者(ユーザ)が直接カメラ101のシャッターボタン(不図示)を押したかどうかを判定する。その場合にはユーザは表示部127に表示した被写体を見ながらシャッタータイミングに合わせてカメラ101のシャッターボタンを押す。カメラ101のシャッターボタンが押された場合には、ステップS306の本露光処理に進む。逆に、シャッタータイミングでない場合には、ステップS301にもどることで、再度撮影設定をやり直すことが可能である。 In step S305, the control unit 112 of the camera 101 determines whether remote release has been activated. Remote release is control for transmitting a timing signal for starting exposure with the camera 101 through the wearable device 102 connected to the camera by the user. Activation of the remote release can be generated by outputting the gyro sensor 147 or pressing a release button (not shown) of the wearable device 102 when the user wearing the wearable device 102 performs a predetermined gesture. Alternatively, it is determined whether or not the photographer (user) has directly pressed the shutter button (not shown) of the camera 101 . In that case, the user presses the shutter button of the camera 101 in time with the shutter timing while looking at the subject displayed on the display unit 127 . If the shutter button of the camera 101 has been pressed, the process proceeds to main exposure processing in step S306. Conversely, if it is not the shutter timing, it is possible to redo the shooting settings by returning to step S301.

ステップS306では、カメラ101の制御部112は、画像を撮影するために上記のステップの処理で行った撮影設定で露光処理を行い、撮影が完了した画像は、ROM113に記録する。 In step S<b>306 , the control unit 112 of the camera 101 performs exposure processing with the shooting settings made in the processing of the above steps in order to shoot an image, and records the completed image in the ROM 113 .

このように、準備撮影中において、ユーザは表示部127に表示される動きブレ報知画像を確認しながら、好みの動きブレになるまで本撮影の露光時間の設定を繰り返し、シャッターチャンス時にシャッターボタンを押下する。 In this way, during preparatory photography, the user repeatedly sets the exposure time for actual photography while confirming the motion blur notification image displayed on the display unit 127 until the desired motion blur is achieved, and presses the shutter button at a photo opportunity. Press.

ステップS305においてユーザによってカメラ102のシャッターボタンが押下されると、カメラ101は本撮影を行い、本撮影画像をROM113に記録する。 When the user presses the shutter button of the camera 102 in step S<b>305 , the camera 101 performs main photographing and records the main photographed image in the ROM 113 .

次に、本発明の特徴であるステップS303の処理について図7のフローチャートを参照して説明する。 Next, the processing of step S303, which is a feature of the present invention, will be described with reference to the flowchart of FIG.

図7のステップS701において、カメラ101の制御部112は、初期撮影条件を設定し、カメラ101が準備撮影画像を連続して撮像する。ここでいう初期撮影条件とは、主にフレームレート、シャッタースピードを示す。そして、AE(オートエクスポージャー)やAF(オートフォーカス)制御などの一般的なカメラで行うオート機能の制御に用いられる評価値を算出する処理に影響を与えない範囲で、最も高フレームレート、高速シャッタースピードの設定を行う。また、シャッタースピードを高速に設定した際にも、適正の露出条件で撮影ができるように、シャッタースピードに合わせて光学系121を制御する。例えば、光学系121のレンズの絞りや、カメラ101のISO感度設定を制御することで、適切な露出条件で撮影ができるように制御(露出制御)を行う。カメラ101では、以上のように設定された初期撮影条件で時系列的に連続する画像の撮影を行う。なお、撮影した画像は、移動被写体の蓄積ブレがほとんど無く、また、撮像した連続画像間での被写体の移動量がなるべく小さい条件で撮影されるのが望ましい。ただし、そのような条件はISO感度が上がりやすく、高感度でノイズの多い画像データが取得されることが多くなるなどの弊害もある。一方で、被写体の移動量が小さいので、速い被写体でも動きを捉えやすくなるという利点がある。 In step S701 of FIG. 7, the control unit 112 of the camera 101 sets initial imaging conditions, and the camera 101 continuously captures preparatory imaging images. The initial shooting conditions here mainly indicate the frame rate and shutter speed. And the highest frame rate and the highest shutter speed within the range that does not affect the processing of calculating the evaluation value used for controlling the automatic functions performed by general cameras such as AE (auto exposure) and AF (auto focus) control Set the speed. Also, the optical system 121 is controlled in accordance with the shutter speed so that even when the shutter speed is set to a high speed, shooting can be performed under appropriate exposure conditions. For example, by controlling the aperture of the lens of the optical system 121 and the ISO sensitivity setting of the camera 101, control (exposure control) is performed so that shooting can be performed under appropriate exposure conditions. The camera 101 shoots consecutive images in time series under the initial shooting conditions set as described above. It is desirable that the captured images are captured under conditions in which there is almost no accumulated blurring of the moving subject and the amount of movement of the subject between the captured consecutive images is as small as possible. However, under such conditions, the ISO sensitivity tends to increase, and there are also adverse effects such as the acquisition of high-sensitivity image data with a lot of noise. On the other hand, since the amount of movement of the subject is small, there is an advantage that even a fast subject can easily be captured.

ステップS702では、カメラ101の画像処理部124は、ステップS701で撮影した時系列的に連続する準備撮影画像から被写体の動きベクトルを算出する。 In step S702, the image processing unit 124 of the camera 101 calculates the motion vector of the subject from the time-series consecutive pre-shot images shot in step S701.

まず、図8を用いて準備撮影画像から算出される動きベクトルについて説明する。図8は、被写体の動きを示した図である。図8(a)は、左に走っている犬801と止まっている犬802のシーンを撮影している例である。動きベクトルとは、準備撮影画像の画像間における被写体の水平方向の移動量と垂直方向の移動量を表したものである。この動きベクトルの例を図8(b)に示す。 First, the motion vector calculated from the preparatory photographed image will be described with reference to FIG. FIG. 8 is a diagram showing the motion of the subject. FIG. 8A shows an example of photographing a scene of a dog 801 running to the left and a dog 802 standing still. A motion vector represents the amount of horizontal movement and the amount of vertical movement of a subject between pre-captured images. An example of this motion vector is shown in FIG. 8(b).

図8(b)は、図8(a)の準備撮影画像の動きベクトルの例を示す図である。図8(b)の例では、走っている犬801は左方向の動きベクトルとして検出し、それ以外の止まっている犬802や背景の柵は動きベクトル0として検出するため、動きベクトルを図示していない。 FIG. 8(b) is a diagram showing an example of motion vectors of the preparatory photographed image of FIG. 8(a). In the example of FIG. 8B, a running dog 801 is detected as a motion vector in the left direction, and a stationary dog 802 and a fence in the background are detected as motion vectors 0, so the motion vectors are illustrated. not

続いて動きベクトルの算出方法について、図9及び図6を参照して詳しく説明する。図9は、動きベクトルの算出処理を示すフローチャートである。以下のフローチャートではROM113に記憶されたプログラムに従って、制御部112がカメラ101の各部を制御することで実現される。なお、本発明では、動きベクトルの算出手法としてブロックマッチング法を例に挙げて説明するが、動きベクトルの算出手法はこの例に限定されず、例えば勾配法等でもよい。 Next, a motion vector calculation method will be described in detail with reference to FIGS. 9 and 6. FIG. FIG. 9 is a flowchart showing motion vector calculation processing. The following flowchart is realized by the control unit 112 controlling each unit of the camera 101 according to the program stored in the ROM 113 . In the present invention, the block matching method will be described as an example of the motion vector calculation method, but the motion vector calculation method is not limited to this example, and may be, for example, a gradient method.

図9のステップS901において、カメラ101の画像処理部124に時間的に隣接する2枚の準備撮影画像が入力される。そして、画像処理部124はM番目フレームの準備撮影画像を基準フレームに設定し、M+1番目フレームの準備撮影画像を参照フレームに設定する。 In step S901 of FIG. 9, two preparatory photographed images temporally adjacent to each other are input to the image processing unit 124 of the camera 101 . Then, the image processing unit 124 sets the preparatory photographed image of the Mth frame as the reference frame, and sets the preparatory photographed image of the M+1th frame as the reference frame.

ステップS902において、画像処理部124は、図6のように、基準フレーム601において、N×N画素の基準ブロック602を配置する。 In step S902, the image processing unit 124 arranges a reference block 602 of N×N pixels in a reference frame 601 as shown in FIG.

ステップS903において、画像処理部124は、図6のように、参照フレーム603に対し、基準フレーム601の基準ブロック602の中心座標と同座標604の周囲(N+n)×(N+n)画素を、探索範囲605として設定する。 In step S903, the image processing unit 124, as shown in FIG. 605.

ステップS904において、画像処理部124は、基準フレーム601の基準ブロック602と、参照フレーム603の探索範囲605内に存在する異なる座標のN×N画素の参照ブロック606との相関演算を行い、相関値を算出する。相関値は、基準ブロック602及び参照ブロック606の画素に対するフレーム間差分絶対値和に基づき算出する。つまり、フレーム間差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。なお、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図6の例では、参照ブロック606が最も相関が高いことを示しているとする。 In step S904, the image processing unit 124 performs a correlation operation between the reference block 602 of the reference frame 601 and the reference block 606 of N×N pixels at different coordinates existing within the search range 605 of the reference frame 603, and obtains the correlation value Calculate A correlation value is calculated based on the sum of inter-frame absolute differences for the pixels of the reference block 602 and the reference block 606 . That is, the coordinate with the smallest inter-frame difference absolute value sum is the coordinate with the highest correlation value. Note that the method of calculating the correlation value is not limited to the method of calculating the sum of the inter-frame absolute difference values, and may be a method of calculating the correlation value based on the inter-frame difference sum of squares or the normal cross-correlation value, for example. In the example of FIG. 6, it is assumed that reference block 606 exhibits the highest correlation.

ステップS905において、画像処理部124はステップS904で求めた最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。図6の例の場合、参照フレーム603の探索範囲605の中で、基準フレーム601の基準ブロック602の中心座標に対応した同座標604と、参照ブロック606の中心座標に基づき動きベクトルが求められる。つまり、同座標604から参照ブロック606の中心座標までの座標間距離と方向が動きベクトルとして求められる。 In step S905, the image processing unit 124 calculates a motion vector based on the reference block coordinates indicating the highest correlation value found in step S904. In the example of FIG. 6, a motion vector is obtained based on the coordinates 604 corresponding to the center coordinates of the reference block 602 of the reference frame 601 and the center coordinates of the reference block 606 in the search range 605 of the reference frame 603 . That is, the inter-coordinate distance and direction from the same coordinates 604 to the center coordinates of the reference block 606 are obtained as motion vectors.

ステップS906において、画像処理部124は、基準フレーム601の全画素について動きベクトルを算出したか否か判定する。画像処理部124は、ステップS906において全画素の動きベクトルを算出していないと判定した場合には、ステップS902に処理を戻す。そして、ステップS902では、動きベクトルが算出されていない画素を中心として前述した基準フレーム601にN×N画素の基準ブロック602が配置され、以下前述同様に、ステップS903からステップS905の処理が行われる。すなわち、画像処理部124は、図6の基準ブロック602を移動させながら、ステップS902からステップS905までの処理を繰り返して、基準フレーム601の全画素の動きベクトルを算出する。動きベクトルを算出する単位としては、画素単位でも画像を所定の分割数に分割した単位ごとに算出してもよい。以上の処理を撮像時間が近い準備撮影画像間で行うことで動きベクトルを算出する。 In step S<b>906 , the image processing unit 124 determines whether motion vectors have been calculated for all pixels of the reference frame 601 . If the image processing unit 124 determines in step S906 that motion vectors for all pixels have not been calculated, the process returns to step S902. Then, in step S902, a reference block 602 of N×N pixels is arranged in the reference frame 601 described above, centering on pixels for which motion vectors have not been calculated. . That is, the image processing unit 124 repeats the processing from step S902 to step S905 while moving the reference block 602 in FIG. 6 to calculate motion vectors of all pixels of the reference frame 601. As a unit for calculating a motion vector, it may be calculated in units of pixels or in units obtained by dividing an image into a predetermined number of divisions. A motion vector is calculated by performing the above processing between preparatory captured images whose imaging times are close to each other.

続いてステップS703は、ウェアラブルデバイス102から取得した被写体動き情報とカメラ101で求めた被写体の動きベクトルを用いて画像処理部124が被写体の主要部位に対応するベクトルを算出する。 Subsequently, in step S703, the image processing unit 124 uses the subject motion information obtained from the wearable device 102 and the subject motion vector obtained by the camera 101 to calculate a vector corresponding to the main part of the subject.

画像処理部124はウェアラブルデバイス102で求めた被写体動き情報を用いて、ユーザが被写体ブレを軽減したい被写体の主要部位に対応するベクトルを特定した後、更に該当する主要部位の被写体の動きベクトルの補正する処理を行う。図10を用いて具体的に説明する。 The image processing unit 124 uses the subject motion information obtained by the wearable device 102 to specify the vector corresponding to the main part of the subject for which the user wants to reduce the blurring of the subject, and then corrects the motion vector of the corresponding main part of the subject. process. A specific description will be given with reference to FIG.

まず、被写体の主要部位に対応するベクトルの特定を行うため、画像処理部124は候補となる被写体の動きベクトル群を見つける。これについて図10(a)を用いて説明する。図10(a)では、主要部位となる候補の被写体の動きベクトル群(1011、1012、1013、1014)を示した図である。主要部位情報は、ステップS504で送信された被写体動き情報のウェアラブルデバイス102の装着部位に該当する情報である。被写体の主要部位と被写体の動きベクトルとの対応は、被写体の動きベクトルを求める準備撮影画像の中から、画像処理部124が主要部位に対応する被写体の動きベクトルを選択することで実現する。準備撮影画像から主要部位を検出する方法としては、一般的な被写体認識技術などの手法を用いてよい。例えば、ウェアラブルデバイス102の装着部位が犬の頭の場合、画像処理部124は準備撮影画像中の被写体の動きベクトルが求まっている範囲の中で、ウェアラブルデバイス102が装着されている犬の頭を検出する。そして、画像処理部124は検出した犬の頭部領域から所定の距離内に存在する被写体の動きベクトル群(1011、1012、1013、1014)を選択し、更にその中から、最も動き量が大きい被写体の動きベクトル(1011)を検出し、これを主要部位の被写体の動きベクトルとする。 First, the image processing unit 124 finds a candidate motion vector group of the subject in order to specify the vector corresponding to the main part of the subject. This will be described with reference to FIG. 10(a). FIG. 10A is a diagram showing motion vector groups (1011, 1012, 1013, 1014) of subjects that are candidates for main parts. The main part information is information corresponding to the wearing part of the wearable device 102 of the subject movement information transmitted in step S504. The correspondence between the main part of the subject and the motion vector of the subject is realized by the image processing unit 124 selecting the motion vector of the subject corresponding to the main part from the preparatory photographed images for obtaining the motion vector of the subject. As a method for detecting the main part from the preparatory photographed image, a method such as a general subject recognition technique may be used. For example, when the wearing part of the wearable device 102 is the head of a dog, the image processing unit 124 selects the head of the dog on which the wearable device 102 is worn, within the range for which the motion vector of the subject in the preparatory photographed image is obtained. To detect. Then, the image processing unit 124 selects the motion vector group (1011, 1012, 1013, 1014) of the subject existing within a predetermined distance from the detected dog head region, and further selects the motion vector group (1011, 1012, 1013, 1014) from among them, The motion vector (1011) of the subject is detected and used as the motion vector of the subject of the main part.

続いて、該当する主要部位の被写体の動きベクトルの補正する処理について、図10の(b)、(c)を用いて詳しく説明を行う。主要部位の被写体の動きベクトルの補正とは、出力の更新レートが遅い動きベクトル算出処理に対して、出力の更新レートが速いウェアラブルデバイス102から送信する装着部位の加速度情報を用いて被写体の動きベクトルを補正することで被写体の動きベクトルの更新レートを疑似的に向上させ、被写体の動き変化に対応する被写体の動きベクトルを得る処理である。 Subsequently, processing for correcting the motion vector of the subject of the corresponding main part will be described in detail using FIGS. 10(b) and 10(c). The correction of the motion vector of the subject of the main part means that the motion vector of the subject is corrected using the acceleration information of the wearing part transmitted from the wearable device 102 with a high output update rate, in contrast to the motion vector calculation processing with a low output update rate. By correcting , the update rate of the motion vector of the subject is pseudo-improved, and the motion vector of the subject corresponding to the change in motion of the subject is obtained.

図10の(b)は、被写体の動きベクトルと被写体動き情報の取得タイミングを示した図である。 FIG. 10(b) is a diagram showing acquisition timings of subject motion vectors and subject motion information.

被写体の動きベクトルは時系列的に連続する2フレーム以上の準備撮影画像を用いて、被写体の動きベクトルに用いる準備撮影画像間の移動量を求めるものである。例えば、被写体の動きベクトル1031を求めるためには、少なくとも準備撮影画像1021と1022の2フレームをカメラ101が取得するまで求めることができない。また、次の被写体の動きベクトル1032を求めるためには、準備撮影画像1023を取得するまで算出することができない。この、被写体の動きベクトル1031から被写体の動きベクトル1032を算出するまでのブランク期間1041の間に被写体の動きが急に変わった場合には、被写体の動きベクトルの更新レートが遅いため、そのタイミングの被写体の動きが正しく検出できない。一方ウェアラブルデバイス102で検出される被写体動き情報としての加速度情報は、準備撮影画像に依存せず、デバイスの動きを直接検出することができるため、一般的に高速な検出が可能である(1051)。 The motion vector of the subject is obtained by using two or more frames of preparatory shot images that are continuous in time series, and the amount of movement between the preparatory shot images to be used as the motion vector of the subject. For example, the motion vector 1031 of the subject cannot be obtained until the camera 101 obtains at least two frames of preparatory shot images 1021 and 1022 . Further, the motion vector 1032 of the next subject cannot be calculated until the preparatory shot image 1023 is acquired. If the motion of the subject suddenly changes during the blank period 1041 from the motion vector 1031 of the subject to the calculation of the motion vector 1032 of the subject, the update rate of the motion vector of the subject is slow. Subject movement cannot be detected correctly. On the other hand, the acceleration information as subject movement information detected by the wearable device 102 does not depend on the preparatory photographed image, and the movement of the device can be directly detected, so generally high-speed detection is possible (1051). .

一般的なカメラ101であるデジタルカメラで取得できる準備撮影画像は高速でも120fps程度であるため、被写体の動きベクトルは120fps以下の更新レートとなる。一方、一般的なウェアラブルデバイス102であるスマートフォンに搭載されている加速度センサ146の出力更新レートは被写体の動きベクトルの出力更新レートの10~100倍以上である。 Since a pre-captured image that can be acquired by a digital camera, which is the general camera 101, is about 120 fps even at high speed, the motion vector of the subject has an update rate of 120 fps or less. On the other hand, the output update rate of the acceleration sensor 146 mounted on a smartphone, which is a general wearable device 102, is 10 to 100 times or more the output update rate of the motion vector of the subject.

そのため、ウェアラブルデバイス102で検出した加速度情報を用いて画像処理部124が被写体の動きベクトルを補正することでより、被写体の動きベクトルが更新されない期間においても精度が高い被写体の動きベクトルを求めることができる。また、被写体の動きベクトルは準備撮影画像に依存するので、低コントラストの被写体や、蓄積ブレやピンボケが発生している画像からでは被写体の動きベクトルが求まらない場合がある。すなわち、カメラ101のみでは被写体動き情報を取得できない場合があり、ベクトルの更新レートが遅くなる可能性がある。したがって、更新レートの早いウェアラブルデバイス102によるセンサ情報を用いて被写体の動きベクトルを補正して更新することは有効である。 Therefore, by correcting the motion vector of the subject by the image processing unit 124 using the acceleration information detected by the wearable device 102, it is possible to obtain a highly accurate motion vector of the subject even during a period when the motion vector of the subject is not updated. can. Further, since the motion vector of the subject depends on the preparatory photographed image, there are cases where the motion vector of the subject cannot be obtained from a low-contrast subject or an image in which accumulated blurring or out-of-focus occurs. That is, subject motion information may not be obtained by the camera 101 alone, and the vector update rate may be slow. Therefore, it is effective to correct and update the motion vector of the subject using sensor information from the wearable device 102 with a high update rate.

続いて、図10(c)を用いて、主要部位の動きベクトルの補正処理について説明する。図10(c)は、主要部位の被写体の動きベクトル1061、被写体の動きベクトルの更新前に被写体の動きが遅くなった時に補正した被写体の動きベクトル1062、被写体の動きが早くなった時に補正した被写体の動きベクトル1063を表している。 Subsequently, correction processing of motion vectors of main parts will be described with reference to FIG. 10(c). FIG. 10(c) shows a motion vector 1061 of the subject of the main parts, a motion vector 1062 of the subject corrected when the motion of the subject slows down before updating the motion vector of the subject, and a motion vector 1062 of the subject corrected when the motion of the subject speeds up. It represents the motion vector 1063 of the object.

なお、画像に対しての主要部位の動きベクトルは、角度と複数方向の大きさを持つため式1を用いてベクトルの大きさに変換する。一般的に画像に用いる動きベクトルは2次元座標上の方向性を持つため、式1を適用することで、スカラーとしてベクトルの大きさに変換できる。 Since the motion vector of the main part of the image has angles and magnitudes in multiple directions, it is converted into the magnitude of the vector using Equation (1). A motion vector generally used for an image has directionality on two-dimensional coordinates, so by applying Equation 1, it can be converted to a vector magnitude as a scalar.

Figure 2023119433000002
Figure 2023119433000002

被写体の動きベクトルの補正の方法は、被写体の動きベクトルが更新された時点までの主要部位の加速度変化に対応するゲイン処理を行うことで可能である。従って、ウェアラブルデバイス102が検出した主要部位の加速度情報を用いて、算出した加速度変化量をα(加速度が変化無しの場合は1)とすると、被写体の動きベクトルの補正は式2のように表すことができる。
補正後の被写体の動きベクトル=α×被写体の動きベクトル…式2
A method of correcting the motion vector of the subject is possible by performing gain processing corresponding to changes in acceleration of the main parts up to the time when the motion vector of the subject is updated. Therefore, if the amount of change in acceleration calculated using the acceleration information of the main part detected by the wearable device 102 is α (1 when the acceleration does not change), the correction of the motion vector of the subject is represented by Equation 2. be able to.
Subject motion vector after correction=α×Subject motion vector Equation 2

上記式1の式を用いて主要部位の被写体の動きベクトルを補正すると、加速度変化量αが1より小さい場合は1062となり、逆に加速度変化量αが1より大きい場合は1063のように補正前の被写体の動きベクトルから換算する。このような被写体の動きベクトルの補正を行い、リアルタイムの被写体の動きと極力時間差が発生しない様に主要部位のブレ量を求める。 When the motion vector of the main part of the subject is corrected using the above formula 1, it becomes 1062 when the acceleration change amount α is smaller than 1, and conversely, when the acceleration change amount α is larger than 1, it becomes 1063 before correction. converted from the motion vector of the subject. By correcting the motion vector of the subject in this manner, the blurring amount of the main part is obtained so as to minimize the time difference from the motion of the subject in real time.

続いてステップS704において、制御部101の指示の下、カメラ100の不図示のブレ量推定部が、上記ステップの処理で算出した主要部位の被写体の動きベクトルと、ユーザの設定するシャッタースピードにおいて被写体で発生する動きブレ量を推定する。この被写体動きブレ量は、被写体の動きベクトルを算出する準備撮影画像の撮像フレームレートと、ユーザがカメラ101に設定するシャッタースピードと、被写体の動きベクトルを用いて以下の式で算出する。
被写体動きブレ量=被写体の動きベクトル*
(フレームレート(fps)/シャッタースピード(s))…式3
Subsequently, in step S704, under the instruction of the control unit 101, the blur amount estimating unit (not shown) of the camera 100 moves the subject using the motion vector of the main part of the subject calculated in the processing of the above step and the shutter speed set by the user. Estimate the amount of motion blur that occurs in The subject motion blur amount is calculated by the following formula using the shooting frame rate of the pre-shot image for calculating the motion vector of the subject, the shutter speed set in the camera 101 by the user, and the motion vector of the subject.
Subject motion blur amount = Subject motion vector*
(Frame rate (fps)/Shutter speed (s)) Equation 3

上記式3に関して被写体の動きベクトルと、被写体動きブレ量の関係について図11を用いて説明する。図11は、被写体の動きベクトルと被写体動きブレ量との関係を示した図である。例えば、フレームレート60fpsで更新する準備撮影画像の前後フレームを用いて被写体の動きベクトルを算出するため、被写体の動きベクトル1101も更新フレームレートは60fpsとなる。一方、被写体動きブレ量は、露光中に被写体が動いたブレ量のため、ユーザが設定したシャッタースピードに対応する。例えばユーザがシャッタースピードを1/120秒に設定した場合、被写体の動きベクトルを求める準備撮影画像の前後フレーム間は、1/60秒となる。したがって、被写体の動きベクトル1101が10pixとすると、その半分の長さの5pixが被写体動きブレ量1102となる。 The relationship between the motion vector of the subject and the amount of motion blur of the subject with respect to Equation 3 will be described with reference to FIG. 11 . FIG. 11 is a diagram showing the relationship between the subject motion vector and the subject motion blur amount. For example, since the motion vector of the subject is calculated using the frames before and after the preparatory shot image updated at a frame rate of 60 fps, the update frame rate of the motion vector 1101 of the subject is also 60 fps. On the other hand, the subject motion blur amount corresponds to the shutter speed set by the user because it is the amount of blur caused by the subject moving during exposure. For example, when the user sets the shutter speed to 1/120 seconds, the interval between the frames before and after the preparatory photographed images for obtaining the motion vector of the subject is 1/60 seconds. Therefore, if the subject motion vector 1101 is 10 pix, the subject motion blur amount 1102 is 5 pix, which is half the length.

続いて、ステップS705においてカメラ101は、ステップS704で算出した被写体動きブレ量と許容動き量を比較し、許容動き量以下の被写体ブレ量になるように次に撮影する準備撮影画像のシャッタースピード変更し、準備撮影画像の撮影条件を変更する。許容動き量とは、所定のシャッタースピードで撮影した場合に動きブレとして目立たない程度に収まる動きブレ量である。許容動き量の大きさはCCDやCMOSセンサ等の撮像素子のサイズ、画素数、そして、表示するディスプレイの解像度によって決まる。例えば、撮像素子が、APS-Cで、画素数が20万画素、フルHD(1920×1080画素)のPCディスプレイにおける許容動き量を5pixel以下とする。許容動き量以下の動きブレ量になるようにカメラ101が準備撮影画像を撮像するには、以下の式4、式5を用いてシャッタースピードを決定する。
n=被写体動きブレ量/許容動き量・・・式4
Subsequently, in step S705, the camera 101 compares the subject motion blur amount calculated in step S704 with the allowable amount of motion, and changes the shutter speed of the preparation shot image to be shot next so that the amount of subject motion blur is equal to or less than the allowable amount of motion. to change the shooting conditions for the preparatory shot image. The allowable amount of motion is the amount of motion blur that can be kept to an inconspicuous extent as motion blur when photographing at a predetermined shutter speed. The size of the allowable amount of motion is determined by the size of an imaging device such as a CCD or CMOS sensor, the number of pixels, and the resolution of a display. For example, assume that the image pickup device is APS-C, the number of pixels is 200,000 pixels, and the allowable amount of movement is 5 pixels or less in a full HD (1920×1080 pixels) PC display. In order for the camera 101 to capture the preparatory shot image so that the amount of motion blur is equal to or less than the allowable amount of motion, the shutter speed is determined using Equations 4 and 5 below.
n=subject motion blur amount/allowable motion amount Equation 4

この時、式4によって求めたnが1よりも大きければ、現在設定しているシャッタースピードで撮影すると、被写体ブレが発生する可能性が高いことを示し、1以下であれば、被写体ブレが発生する可能性が低いシャッタースピードであることを意味する。そのため、被写体ブレの発生が少なくなる適切なシャッタースピードは、以下の式5を用いて算出する。
更新シャッタースピード(s)≦設定シャッタースピード(s)*1/n・・・式5
At this time, if n obtained by Equation 4 is greater than 1, it indicates that there is a high possibility that subject blurring will occur when shooting at the currently set shutter speed, and if it is less than 1, subject blurring will occur. This means that the shutter speed is less likely to Therefore, an appropriate shutter speed at which the occurrence of subject blurring is reduced is calculated using Equation 5 below.
Updated shutter speed (s) ≤ set shutter speed (s) * 1/n Expression 5

具体的な数値を用いて説明すると、図11の動きブレ量1102は5pixであり、許容動き量も5pixである。そのため、式4によりn=1となり、現在設定しているシャッタースピードは被写体ブレの影響が小さいことが分かる。そのため、式5により準備撮影画像の撮影条件(そのまま変更しない場合実際露光する撮影条件となる)としてのシャッタースピードは、1/120より速い露光時間を設定すればよい(今回の場合は1/120sから変更しない)。また、撮影に十分な光量がある場合には、ISO感度や、絞りとの兼ね合いでシャッタースピードを更に1/250より早く設定しても良い。 To explain using specific numerical values, the motion blur amount 1102 in FIG. 11 is 5 pix, and the allowable motion amount is also 5 pix. Therefore, n=1 from Equation 4, and it can be seen that the currently set shutter speed is less affected by subject blurring. Therefore, according to Equation 5, the shutter speed as the shooting condition for the preparation shot image (if not changed, the shooting condition for actual exposure) should be set to an exposure time faster than 1/120 (in this case, 1/120 s (does not change from ). Also, when there is a sufficient amount of light for photographing, the shutter speed may be set faster than 1/250 in consideration of the ISO sensitivity and aperture.

以上、準備撮影画像の撮影条件としてシャッタースピードを更新する例について説明した。なお、より被写体の動きベクトルを検出する精度を上げるために、準備撮影画像を撮影するフレームレートを上げ、被写体の動きベクトルを算出する更新レートを早くしても良い。更新レートを速くする条件は以下のようになる。 An example in which the shutter speed is updated as the shooting condition for the preparatory shot image has been described above. In order to increase the accuracy of detecting the motion vector of the subject, the frame rate for capturing the preparatory captured image may be increased and the update rate for calculating the motion vector of the subject may be increased. The conditions for increasing the update rate are as follows.

更新フレームレート(fps)≧設定フレームレート(fps)*n・・・式6
上記のフレームレートやシャッタースピードは、動き検出を行うために重要な撮影条件である。また、適正の明るさで撮像するために、フレームレートやシャッタースピードの変更に伴い、絞り値、ISO感度も変更し、露出値が変わらないように制御する。
Update frame rate (fps)≧Set frame rate (fps)*n Expression 6
The above frame rate and shutter speed are important shooting conditions for motion detection. In addition, in order to capture an image with proper brightness, the aperture value and ISO sensitivity are changed in accordance with the change of the frame rate and shutter speed, and control is performed so that the exposure value does not change.

ステップS303の詳細な処理について、図7のステップS701~ステップS705の処理を用いて準備撮影画像の撮影条件(そのまま変更しなければ本番撮影も同じ撮影条件のまま)を決定する処理について説明を行った。 Regarding the detailed processing of step S303, the processing of determining the shooting conditions of the pre-shot image using the processing of steps S701 to S705 in FIG. Ta.

以上、実施例1における撮像システム100の処理について説明を行った。具体的には、ウェアラブルデバイス102を通して被写体動き情報をセンシングする。そして、ウェアラブルデバイス102が取得した被写体動き情報を補助情報として、被写体の動きベクトルを更新し、カメラ101の撮影条件を決定する。本発明によると、ウェアラブルデバイス102と連携し、カメラ101で算出した被写体の動きベクトルの検出精度を高め、被写体ブレが少なくなるシャッタースピードを設定することが可能となる。これにより撮影者はカメラに触れることなく撮影者が望む被写体の動きを所望のブレ以下に抑えるようにシャッタースピードを設定し、撮影の露光調整を行うことを実現できる。本発明により、オート撮影の利用シーンを広げることが可能である。 The processing of the imaging system 100 according to the first embodiment has been described above. Specifically, subject motion information is sensed through the wearable device 102 . Then, the motion vector of the subject is updated using the subject motion information acquired by the wearable device 102 as auxiliary information, and the photographing conditions of the camera 101 are determined. According to the present invention, in cooperation with the wearable device 102, it is possible to increase the detection accuracy of the motion vector of the subject calculated by the camera 101 and set the shutter speed at which subject blurring is reduced. This enables the photographer to set the shutter speed and adjust the exposure for photography without touching the camera so that the movement of the subject desired by the photographer is suppressed to a desired blur or less. According to the present invention, it is possible to expand the use scene of automatic photographing.

実施例1において、動きブレ量を算出する場合に、被写体の動きベクトルをユーザの設定しているシャッタースピードに合わせて換算することで、動きブレ量を算出する方法に関して説明した。なお、動きブレ量の算出は、シャッタースピードに合わせて換算しなくても良い。たとえば、被写体の動きベクトルに対して、予め設定した閾値を比較して、閾値を超えた場合にシャッタースピードを現在の設定値よりも速い値に変更することで、簡易的に同様の処理が実現可能である。 In the first embodiment, the method of calculating the amount of motion blur by converting the motion vector of the subject in accordance with the shutter speed set by the user has been described. It should be noted that the calculation of the amount of motion blur does not have to be converted in accordance with the shutter speed. For example, by comparing the motion vector of the subject with a preset threshold value and changing the shutter speed to a value faster than the current setting value when the threshold value is exceeded, the same processing can be easily achieved. It is possible.

実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、準備撮影画像から求めた被写体の動きベクトルから最も動きが速い被写体の動きベクトルを選択しても良い。 In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Note that the motion vector of the subject with the fastest motion may be selected from the motion vectors of the subject obtained from the preparatory photographed images.

実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、カメラ101にウェアラブルデバイス102に搭載している加速度センサ146同様の加速度センサが搭載されている場合には、カメラ101に搭載されている加速度センサの動きとは別の被写体の動きベクトルを選択しても良い。カメラ101に搭載される加速度センサにはカメラ101を動かした本体の動き情報が得られるため、それと異なる動きベクトルを選択することで主要な動き被写体以外の動き情報を振るい落とすことが可能となる。 In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Note that if the camera 101 is equipped with an acceleration sensor similar to the acceleration sensor 146 that is installed in the wearable device 102, a motion vector of the subject that is different from the motion of the acceleration sensor installed in the camera 101 is selected. You can Since the acceleration sensor mounted on the camera 101 can obtain motion information of the main body that moves the camera 101, by selecting a motion vector different from the motion vector, motion information other than the main moving subject can be discarded.

実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、算出した被写体の動きベクトルのうち、カメラ101で撮影する際の画角の中央に写る範囲や、画像内でオートフォーカスの対象となっている領域付近の被写体の動きベクトルを選択しても良い。 In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Of the calculated motion vectors of the subject, it is also possible to select the motion vector of the subject in the center of the angle of view when shooting with the camera 101 or the vicinity of the autofocus target area in the image. good.

実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、準備撮影画像にウェアラブルデバイス102が映っている場合には、画像から直接ウェアラブルデバイス102の位置を検出しても良い。 In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Note that when the wearable device 102 is shown in the preparatory photographed image, the position of the wearable device 102 may be detected directly from the image.

また、主要部位の被写体の動きベクトルを選択する前に、準備撮影画像から求めた被写体の動きベクトルに対して、選別処理を行っても良い。例えば、被写体の動きベクトルを求める過程で行うテンプレートマッチングなどの演算では、相関値演算などを行う。その際相関値が予め定めた閾値よりも低くなったベクトルに対しては、信頼度が低い(信頼度が閾値以下)被写体の動きベクトルと判定する。これにより、相関値が閾値以上(信頼度が閾値以上)の、より精度が高い被写体の動きベクトルだけを抽出することが可能である。 Further, before selecting the motion vector of the subject of the main part, the motion vector of the subject obtained from the preparatory photographed image may be subjected to selection processing. For example, in calculations such as template matching performed in the process of obtaining the motion vector of the subject, correlation value calculations are performed. At this time, a vector whose correlation value is lower than a predetermined threshold value is determined to be a subject motion vector with low reliability (reliability equal to or lower than the threshold). As a result, it is possible to extract only the motion vector of the subject with a correlation value greater than or equal to the threshold value (reliability greater than or equal to the threshold value) and higher accuracy.

(第2の実施形態)
次に、本発明の第2の実施形態(実施例2)について図面を参照して詳細に説明する。実施例2では、本露光処理中の被写体動きブレ量を基に露光制御を行うことで、被写体の動きブレ量を軽減した画像を取得することができる。なお、実施例2の撮像システム100のウェアラブルデバイス102側の処理は、実施例1と同様のため説明を省略する。実施例2の特徴となるカメラ101の制御部112で行う動作を図13のフローチャートを用いて説明を行う。なお、以下の処理は、撮像システム100としてカメラ101は、ROM113に記憶されたプログラムに従って、制御部112が装置の各部を制御することで実現される。また、ウェアラブルデバイス102は、ROM151に記録されたプログラムに従って、制御部138が装置の各部を制御することによって実現される。実施例1と同じステップの処理については同符号を付与し、詳細な説明は省略する。
(Second embodiment)
Next, a second embodiment (Example 2) of the present invention will be described in detail with reference to the drawings. In the second embodiment, by performing exposure control based on the subject motion blur amount during the main exposure process, it is possible to obtain an image with a reduced motion blur amount of the subject. Note that processing on the wearable device 102 side of the imaging system 100 according to the second embodiment is the same as that according to the first embodiment, and a description thereof will be omitted. The operation performed by the control unit 112 of the camera 101, which characterizes the second embodiment, will be described with reference to the flowchart of FIG. Note that the following processing is realized by the control unit 112 controlling each unit of the camera 101 as the imaging system 100 according to the program stored in the ROM 113 . Also, the wearable device 102 is realized by the controller 138 controlling each part of the device according to the program recorded in the ROM 151 . The same steps as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

まず、図4を用いてカメラ101の撮影動作を説明する。図4のステップS301~ステップS305までの処理は、実施例1の図3のステップS301~ステップS305の処理と同じため説明を省略する。実施例2では、ステップS401の本露光の処理が実施例1と異なる。 First, the photographing operation of the camera 101 will be described with reference to FIG. The processing from step S301 to step S305 in FIG. 4 is the same as the processing from step S301 to step S305 in FIG. The second embodiment differs from the first embodiment in the main exposure process in step S401.

ステップS401では、カメラ101は、露光中の被写体の着目部位に対する動きブレ量に基づいて、露光の中断処理を行い被写体ブレの発生を抑えた撮影を行う。 In step S<b>401 , the camera 101 performs exposure interruption processing based on the amount of motion blurring with respect to the part of interest of the subject being exposed, and performs photography while suppressing the occurrence of subject blurring.

続いて、露光中の被写体の着目部位に対する動きブレ量に基づいて、カメラ101の制御部112が行うステップS401の本露光処理の制御について図13のフローチャートを用いて詳しく説明する。 Next, the control of the main exposure process in step S401 performed by the control unit 112 of the camera 101 based on the amount of motion blur for the part of interest of the subject being exposed will be described in detail with reference to the flowchart of FIG.

図13のステップS306は、実施例1のステップS306と同様にカメラ101は本露光処理を開始する。 In step S306 of FIG. 13, the camera 101 starts the main exposure process as in step S306 of the first embodiment.

具体的に本露光処理を行う際の電子先幕シャッタの構成と撮影動作について図14、図15を用いて詳細に説明する。 14 and 15, the configuration of the electronic front curtain shutter and the shooting operation when performing the main exposure process will be described in detail.

図14は、撮像素子122およびメカ後幕1403をレンズ側から光軸方向に沿ってみた様子を示す正面図である。撮影が開始された後の撮像素子122で行われるリセット走査及び、メカ後幕1403の走行が途中である時の状態を示している。矢印1401は、リセット走査の操作方向(電子先幕1407の走行方向)とメカ後幕1403の走行方向を示している。図1のメカシャッタ118で構成されるメカ後幕1403が、撮像素子122の一部の領域を遮光している状態が示されている。更にリセットライン1408は、撮像素子122で行われるリセット走査のライン(リセットライン)であり、画素の電荷蓄積量がゼロにリセットする動作として、電子先幕1407の端部に相当する。リセットライン1408とメカ後幕1403の端部1405との間のスリットによって形成される領域1406は、電子先幕1407とメカ後幕1403の走行にしたがって矢印1401の方向へ移動していくように制御する。リセットライン1408が通過してから、つまり画素が矢印1401の方向ヘライン毎に順次リセットされてから、メカ後幕1403によって遮光状態となるまでの時間が、画素の露光による電荷蓄積時間となる。このように、リセットライン1408が矢印1401の方向へ走行してライン毎の電荷蓄積が開始されるので、電荷蓄積の開始タイミングは撮像素子122のライン毎にも異なる。 FIG. 14 is a front view showing the imaging element 122 and the mechanical rear curtain 1403 as seen from the lens side along the optical axis direction. It shows a state in which the reset scanning performed by the image sensor 122 after the start of shooting and the running of the mechanical rear curtain 1403 are in progress. An arrow 1401 indicates the reset scanning operation direction (the running direction of the electronic front curtain 1407 ) and the running direction of the mechanical rear curtain 1403 . A state in which a mechanical rear curtain 1403 configured by the mechanical shutter 118 in FIG. Further, a reset line 1408 is a reset scanning line (reset line) performed by the image sensor 122, and corresponds to an end portion of the electronic front curtain 1407 as an operation of resetting the charge accumulation amount of the pixel to zero. A region 1406 formed by a slit between the reset line 1408 and the end portion 1405 of the mechanical rear curtain 1403 is controlled to move in the direction of the arrow 1401 as the electronic front curtain 1407 and the mechanical rear curtain 1403 run. do. The time from the passage of the reset line 1408, that is, the pixels being sequentially reset line by line in the direction of the arrow 1401, to the mechanical rear curtain 1403 blocking the light, is the charge accumulation time due to exposure of the pixels. In this manner, the reset line 1408 runs in the direction of the arrow 1401 to start charge accumulation for each line, so the start timing of charge accumulation differs for each line of the image sensor 122 as well.

図15を用いて電荷蓄積のタイミングを詳しく説明する。図15(a)は、電荷のリセットと読み出し開始の概念図、図15(b)は、ライン毎の電荷のリセットと読み出しのタイミング説明図となっている。図15(b)のライン1501~ライン1510は、ライン毎に電荷をリセット処理されるタイミングを表しており、最初に端部のライン1501が電荷を読み出した後、電荷をリセットする動作を行う。逆に、端部のライン1510が最後にリセットされるラインである。このように、ライン毎にリセットのタイミングを制御している。ライン毎にリセットのタイミングが異なるため、電荷の蓄積時間が各ラインで揃うように、電荷の読み出し時間もライン1511~ライン1520でライン毎に同じ露光時間になるように制御部112が制御する。 The timing of charge accumulation will be described in detail with reference to FIG. FIG. 15(a) is a conceptual diagram of charge reset and read start, and FIG. 15(b) is a timing explanatory diagram of charge reset and read for each line. Lines 1501 to 1510 in FIG. 15(b) represent the timing of charge reset processing for each line, and after the line 1501 at the end reads the charge first, the operation of resetting the charge is performed. Conversely, the end line 1510 is the last line to be reset. In this way, the reset timing is controlled for each line. Since the reset timing is different for each line, the control unit 112 controls the charge storage time to be the same for each line, and the charge readout time for lines 1511 to 1520 to be the same exposure time for each line.

図13のステップS1301において、制御部112は、図4のステップS303で検出した本露光直前のカメラ101の画像処理部124で算出した被写体の動きベクトルに対して補正を行う。被写体の動きベクトルの補正は露光中のウェアラブルデバイス102からの被写体動き情報に含まれる加速度センサ146の出力を基に行う。本露光が始まると、カメラ101は撮像素子122が複数存在しない限り、準備撮影画像を撮像することができなくなる。したがって、本露光中は被写体の動きベクトルを更新できない。そのため、ここでは本露光直前までに算出した着目部位における被写体の動きベクトルに対して推定を行う。推定には加速度センサ146の加速度情報を用いて、実施例1のステップS703の処理に相当する主要部位の被写体の動きベクトルの補正を行い、その後動きブレ量に変換する処理を行う。以上の処理により、カメラ101の本露光中においても動きブレ量を推定することが可能となる。 In step S1301 in FIG. 13, the control unit 112 corrects the subject motion vector calculated by the image processing unit 124 of the camera 101 immediately before the main exposure detected in step S303 in FIG. Correction of the motion vector of the subject is performed based on the output of the acceleration sensor 146 included in the subject motion information from the wearable device 102 during exposure. When the main exposure starts, unless the camera 101 has a plurality of image pickup elements 122, the preparatory photographed image cannot be photographed. Therefore, the motion vector of the subject cannot be updated during the main exposure. Therefore, here, the motion vector of the subject in the region of interest calculated until just before the main exposure is estimated. For the estimation, the acceleration information of the acceleration sensor 146 is used to correct the motion vector of the main part of the subject, which corresponds to the processing of step S703 in the first embodiment, and then the processing of converting it into the motion blur amount is performed. With the above processing, it is possible to estimate the motion blur amount even during the main exposure of the camera 101 .

ステップS1302において、カメラ101の制御部112は、ステップS1301で推定した動きブレ量が許容動き量を超えるかを判断する。許容動き量を超えた場合には、ステップS1303の処理に進む。逆に許容ブレ量を超えなかった場合にはステップS1304の処理に進む。 In step S1302, the control unit 112 of the camera 101 determines whether the amount of motion blur estimated in step S1301 exceeds the allowable amount of motion. If the allowable motion amount is exceeded, the process proceeds to step S1303. Conversely, if the allowable blur amount is not exceeded, the process proceeds to step S1304.

ステップS1304において、カメラ101の制御部112は、図4のステップS303で求める撮影条件を満たしているかを判断する。撮影条件とは主に、露光中の蓄積ブレに影響するかを判断する。これは、本露光前に設定したシャッタースピードに対応する露光時間を満たしたかどうかで判断が可能である。撮影条件を満たしている場合には、ステップS1305の処理に進み露光を終了する。 In step S1304, the control unit 112 of the camera 101 determines whether the shooting conditions obtained in step S303 of FIG. 4 are satisfied. The shooting conditions mainly determine whether or not they affect accumulated blurring during exposure. This can be determined by whether or not the exposure time corresponding to the shutter speed set before the main exposure is satisfied. If the shooting conditions are satisfied, the process advances to step S1305 to end the exposure.

ステップS1303で、カメラ101の制御部112は撮像素子122にこれ以上の露光が継続すると画像に被写体ブレが発生すると判断し、撮影条件に設定されている露光時間よりも早く、メカシャッタ118を閉じる。これにより、撮像素子122への入光が遮断される。続いてステップS1305の処理に進み露光を終了する。ステップS1303における露光打ち切り制御を行う方法については図16を用いて詳しく説明する。 In step S1303, the control unit 112 of the camera 101 determines that subject blurring will occur in the image if the image sensor 122 is exposed to more light, and closes the mechanical shutter 118 earlier than the exposure time set in the shooting conditions. This blocks the light from entering the image sensor 122 . Subsequently, the process advances to step S1305 to end the exposure. A method of performing exposure termination control in step S1303 will be described in detail with reference to FIG.

図16は、本露光処理中に被写体動きブレ量が許容動き量(許容閾値)を超えた場合に、カメラ101の制御部112がメカ後幕を制御し、露光中断を行う処理のタイミングチャートを示したものである。本露光中の画像に被写体ブレが発生しそうな状況になった場合にメカ後幕を制御し、露光時間の制御を行うことで、被写体ブレの軽減を実現する。 FIG. 16 is a timing chart of processing in which the control unit 112 of the camera 101 controls the mechanical rear curtain and interrupts exposure when the subject motion blur amount exceeds the allowable motion amount (allowable threshold value) during the main exposure processing. is shown. By controlling the mechanical rear curtain and controlling the exposure time when subject blurring is likely to occur in the image during main exposure, the blurring of the subject can be reduced.

図16のライン1501~ライン1510(図15(b)と撮影条件は同じ)は、リセットラインである。ライン1501のリセット処理を開始した後に外光が撮像素子122に届き、電荷の蓄積が開始される。露光中のカメラ101本体の動きによって画像に蓄積ブレが発生しない場合には、次のリセット処理のライン1511~ライン1520(図15(b)と撮影条件は同じ)まで電荷が蓄積される。今回は、露光中に被写体動きブレ量が許容動き量を超えた場合に電荷の蓄積を制御する方法を説明する。 Lines 1501 to 1510 in FIG. 16 (under the same imaging conditions as in FIG. 15B) are reset lines. After the reset processing of the line 1501 is started, external light reaches the image sensor 122 and charge accumulation is started. If no accumulation blurring occurs in the image due to the movement of the main body of the camera 101 during exposure, charges are accumulated until the next reset processing lines 1511 to 1520 (under the same photographing conditions as in FIG. 15B). This time, a method of controlling charge accumulation when the subject motion blur amount exceeds the allowable motion amount during exposure will be described.

制御部112は、図16の先頭リセットライン1501のリセット処理を実行し露光を開始する。この時、被写体動きブレ量が大きくなり、図16の1611のタイミングで被写体動きブレ量の許容閾値を超えることを検出すると、制御部112はメカ後幕を駆動し、撮像素子122に外光が届かないようにメカシャッタ118を閉じる。メカシャッタ118の働きにより、図16の1601~1610の間が実際の露光時間となる。つまり、1601~1610からライン1511~ライン1520の間の時間は露光されないため、撮像素子122に電荷が蓄積されない。したがって、被写体の動きによって発生する写体ブレを防ぐことができる。メカシャッタ118の制御で電荷の蓄積をストップしたが、メカシャッタ118が搭載されていないシャッタに関しては、パルス発生部126よりリセットパルスを発生させて電荷の蓄積を中断させることで同様の処理が可能である。 The control unit 112 executes reset processing of the head reset line 1501 in FIG. 16 and starts exposure. At this time, when it is detected that the subject motion blur amount exceeds the permissible threshold value at timing 1611 in FIG. Close the mechanical shutter 118 so that it does not reach. Due to the action of the mechanical shutter 118, the actual exposure time is between 1601 and 1610 in FIG. In other words, no charge is accumulated in the imaging device 122 during the period from 1601 to 1610 to lines 1511 to 1520 because no exposure is performed. Therefore, it is possible to prevent subject blur caused by the movement of the subject. Although the accumulation of electric charges is stopped by controlling the mechanical shutter 118, similar processing can be performed by causing the pulse generating section 126 to generate a reset pulse to interrupt the accumulation of electric charges for shutters not equipped with the mechanical shutter 118. .

続いて図13のステップS1306において制御部112は、設定した露光時間になったかどうかを判断する。まだ設定した露光時間よりも短いと判断した場合には、ステップS1307の処理に進む。 Subsequently, in step S1306 of FIG. 13, the control unit 112 determines whether or not the set exposure time has come. If it is determined that the exposure time is still shorter than the set exposure time, the process proceeds to step S1307.

ステップS1307で、制御部112は画像データ取得時に不足した露光時間に対し、画像データが本来の露光時間の明るさになるように差分の露光時間分をデジタルゲインとして、取得した画像データに掛ける信号処理を行う。なお、露光時間の差分から求めるデジタルゲインは、以下の式から求められる。 In step S1307, the control unit 112 multiplies the acquired image data by the difference exposure time as a digital gain so that the brightness of the image data becomes the brightness of the original exposure time for the insufficient exposure time when the image data is acquired. process. Note that the digital gain obtained from the difference in exposure time can be obtained from the following equation.

デジタルゲイン=撮像開始時に設定した露光時間/(撮像開始時に設定した露光時間-
露光開始からメカシャッタを切った時間)・・・式7
式7で算出したデジタルゲインを画像データに掛けることで、画像データの明るさを期待していた露光時間相当の明るさに補正する。より厳密にゲイン補正を行う場合には、画像データの水平ライン毎にデジタルゲインを算出し、画像データに水平ライン毎のデジタルゲインを掛けてもよい。
Digital gain = Exposure time set at the start of imaging / (Exposure time set at the start of imaging -
Time from the start of exposure until the mechanical shutter is released) Equation 7
By multiplying the image data by the digital gain calculated by Equation 7, the brightness of the image data is corrected to the brightness corresponding to the expected exposure time. When performing gain correction more strictly, the digital gain may be calculated for each horizontal line of the image data, and the image data may be multiplied by the digital gain for each horizontal line.

一方、設定した露光時間になった場合には、制御部112は、ライン毎の電荷の読み出しを行い、読み出しが終わったラインから電荷のリセット処理を行うことで、カメラ101の露光を終了し、画像データを取得する。 On the other hand, when the set exposure time is reached, the control unit 112 reads out the charge for each line, and performs charge reset processing from the line for which the readout is completed, thereby ending the exposure of the camera 101. Get image data.

続いて、画像処理部124が行うステップS1307にて不足した露光量に対する補正処理について図12を用いて詳しく説明する。一例として、図12の画像信号1201は目標露光量で撮像した際の画像信号、画像信号1202は途中で露光を中断したため、露光時間が不足し目標露光量に届かない画像信号を示す。図12は、横軸を被写体輝度とし、横軸の被写体輝度の際の画像信号レベルを縦軸で示している。例えば、画像信号1202は目標露光量となる1201に比べ、露光時間が半分で撮像した場合の画像信号となっている。カメラ101が撮像するときの露光量は、一般的にF値、ISO感度とシャッタースピード(露光時間)によって決まる。そのため、露光を途中で中断することで露光量は、露光時間が短くなった分だけ目標露光量と比べ不足する。露光時間が半分になった場合には、露光量は半分となる。よって、2倍のデジタルゲインをかけることで、画像信号1202は、画像信号1201と同じ露光量に調整することができ、本来の目標露光量を取得できる。以上の処理を撮像素子122のライン単位で補正していくことで、露光が中断された場合でも、本来の目標露光量の明るさで被写体を撮影することが可能となる。 Next, the correction processing for the insufficient exposure amount in step S1307 performed by the image processing unit 124 will be described in detail with reference to FIG. As an example, an image signal 1201 in FIG. 12 indicates an image signal when an image is captured with the target exposure amount, and an image signal 1202 indicates an image signal that does not reach the target exposure amount due to insufficient exposure time due to interrupted exposure. In FIG. 12, the horizontal axis represents subject brightness, and the vertical axis represents the image signal level at the subject brightness on the horizontal axis. For example, an image signal 1202 is an image signal obtained when an image is captured with an exposure time half that of 1201, which is the target exposure amount. The amount of exposure when the camera 101 takes an image is generally determined by the F number, ISO sensitivity and shutter speed (exposure time). Therefore, by interrupting the exposure halfway, the exposure amount becomes insufficient compared to the target exposure amount by the amount of the shortened exposure time. If the exposure time is halved, the exposure amount is halved. Therefore, by applying a double digital gain, the image signal 1202 can be adjusted to the same exposure amount as the image signal 1201, and the original target exposure amount can be obtained. By correcting the above processing for each line of the image pickup device 122, even when exposure is interrupted, it is possible to photograph the subject with the brightness of the original target exposure amount.

以上、実施例2の撮像システム100が、露光中に被写体のブレの大きさに基づいて露光を制御する方法について図13のフローチャートを用いて説明を行った。これらの処理により、露光中でシャッタースピードを変えることが難しい状況でも、露光時間を制御することで、被写体ブレを軽減した画像を取得することが可能となる。 The method in which the imaging system 100 of the second embodiment controls exposure based on the degree of blurring of the subject during exposure has been described above using the flowchart of FIG. 13 . With these processes, even in situations where it is difficult to change the shutter speed during exposure, it is possible to obtain an image with reduced subject blur by controlling the exposure time.

(第3の実施形態)
次に、本発明の第3の実施形態(実施例3)について図面を参照して詳細に説明する。実施例3では、撮影対象である複数人の被写体がウェアラブルデバイス102を装着し、カメラ101は外部に設定した構成をとる。複数人の被写体がウェアラブルデバイス102を装着しているシーン例を図17に示す。図17は、被写体A~被写体Fの6人の被写体が、1701~1708のウェアラブルデバイス102を装着している例を示している。被写体Aは1701、被写体Bは1702、1703、1704、被写体Cは1705、被写体Dは1706、被写体Eは1707、被写体Fは1708のウェアラブルデバイス102を装着している例である。これらウェアラブルデバイス102を通して各々の被写体の被写体動き情報をセンシングし、取得した被写体動き情報を補助情報として、カメラ101の撮影条件を決定する。なお、実施例3の撮像システム100のウェアラブルデバイス102側の処理は、実施例1と同様のため説明を省略する。実施例3の特徴となるカメラ101の制御部112で行う動作を図18のフローチャートを用いて説明を行う。なお、以下の処理は、撮像システム100としてカメラ101は、ROM113に記憶されたプログラムに従って、制御部112が装置の各部を制御することで実現される。また、ウェアラブルデバイス102は、ROM151に記録されたプログラムに従って、制御部138が装置の各部を制御することによって実現される。実施例1と同じステップの処理については同符号を付与し、詳細な説明は省略する。
(Third embodiment)
Next, a third embodiment (Example 3) of the present invention will be described in detail with reference to the drawings. In the third embodiment, a plurality of subjects to be photographed wear the wearable device 102 and the camera 101 is set outside. FIG. 17 shows an example of a scene in which wearable devices 102 are worn by multiple subjects. FIG. 17 shows an example in which six subjects A to F wear wearable devices 102 1701 to 1708 . Subject A wears 1701, subject B wears 1702, 1703, and 1704, subject C wears 1705, subject D wears 1706, subject E wears 1707, and subject F wears 1708 wearable devices 102 in this example. Subject motion information of each subject is sensed through the wearable device 102, and the photographing conditions of the camera 101 are determined using the acquired subject motion information as auxiliary information. Note that processing on the wearable device 102 side of the imaging system 100 according to the third embodiment is the same as that according to the first embodiment, and a description thereof will be omitted. The operation performed by the control unit 112 of the camera 101, which is the feature of the third embodiment, will be described with reference to the flowchart of FIG. Note that the following processing is realized by the control unit 112 controlling each unit of the camera 101 as the imaging system 100 according to the program stored in the ROM 113 . Also, the wearable device 102 is realized by the controller 138 controlling each part of the device according to the program recorded in the ROM 151 . The same steps as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

カメラ101の撮影動作については、実施例1の図3のステップS301~ステップS306の処理と同じため説明を省略する。実施例3の特徴であるステップS303の処理について図18のフローチャートを参照して説明するが、実施例1の図7のステップS701~ステップS705の処理と同じ処理をする部分については説明を省略する。 The photographing operation of the camera 101 is the same as the processing of steps S301 to S306 in FIG. 3 of the first embodiment, so the description is omitted. The processing of step S303, which is a feature of the third embodiment, will be described with reference to the flowchart of FIG. 18, but the description of the portions that perform the same processing as the processing of steps S701 to S705 of FIG. 7 of the first embodiment will be omitted. .

図18のステップS701において、カメラ101の制御部112は、初期撮影条件をカメラ101のROM113から読み出し、条件に従って準備撮影画像を連続して撮像する。 In step S701 of FIG. 18, the control unit 112 of the camera 101 reads out the initial shooting conditions from the ROM 113 of the camera 101, and successively takes preparatory shot images according to the conditions.

ステップS702では、ステップS701で撮影した時系列的に連続する準備撮影画像からカメラ101の画像処理部124が被写体の動きベクトルを算出する。 In step S702, the image processing unit 124 of the camera 101 calculates the motion vector of the subject from the time-series consecutive pre-shot images shot in step S701.

ステップS1801では、ステップS701で撮影した時系列的に連続する準備撮影画像からカメラ101の画像処理部124において被写体を検出する。被写体を検出する方法としては、一般的な被写体検出技術などの手法を用いる。例えば、顔・顔器官検出や頭部検出などが挙げられる。顔・顔器官検出や頭部検出は、撮影された画像から、パターン認識や機械学習に基づく手法により、人物の顔及び器官や頭部が存在する領域を検出する方法である。 In step S1801, the image processing unit 124 of the camera 101 detects a subject from the time-series continuous pre-shot images shot in step S701. As a method for detecting a subject, a method such as a general subject detection technique is used. Examples include face/facial organ detection and head detection. Face/facial organ detection and head detection are methods of detecting areas in which a person's face, organs, and head exist from a photographed image by a method based on pattern recognition or machine learning.

ステップS1802では、画像処理部124がステップS1801において検出された被写体が1人なのか複数人なのかを判定する。1人と判定された場合はステップS1804に進み、複数人と判定された場合は、ステップS1803に進む。 In step S1802, the image processing unit 124 determines whether the number of subjects detected in step S1801 is one or multiple. If one person is determined, the process advances to step S1804, and if multiple people are determined, the process advances to step S1803.

ステップS1803では、ステップS1802において検出された被写体が複数人であったため、ウェアラブルデバイス102を装着している人の中から、カメラ101の画像処理部124において主要被写体を検出する。主要被写体の検出方法としては、一般的な主要被写体検出の手法を用いてよい。例えば、準備撮影画像において、画角における被写体の占める面積が一番大きい人や、準備撮影画像の中心に一番近い人を主要被写体として検出する。もしくは、ユーザが予め主要被写体としてカメラ101のROM113に登録している人を主要被写体として検出する構成としてもよい。 In step S<b>1803 , since multiple subjects were detected in step S<b>1802 , the image processing unit 124 of the camera 101 detects the main subject among the persons wearing the wearable device 102 . As a main subject detection method, a general main subject detection method may be used. For example, in the preparatory photographed image, the person whose subject occupies the largest area in the angle of view or the person closest to the center of the preparatory photographed image is detected as the main subject. Alternatively, a configuration may be adopted in which a person registered in advance by the user in the ROM 113 of the camera 101 as the main subject is detected as the main subject.

ステップS1804では、カメラ101の制御部112はステップS1803で主要被写体と検出された人が装着しているウェアラブルデバイス102が1つなのか複数個なのかを判定する。1つと判定された場合はステップS1806に進み、複数個と判定された場合はステップS1805に進む。ウェアラブルデバイス102の個数の判定方法としては、予めユーザが各々の被写体が装着するウェアラブルデバイス102をカメラ101のROM113に登録してもよい。また、実施例1における図5のステップS503で説明したように、ステップS1801において検出された各々の被写体のどこの部位にウェアラブルデバイス102が装着されているかをカメラ101の画像処理部124において特定することにより、ウェアラブルデバイス102の個数を判定する方法でもよい。また、カメラ101の通信部115とウェアラブルデバイス102の通信モジュール131が通信を行うことで個数を判定する方法も可能である。 In step S1804, the control unit 112 of the camera 101 determines whether the number of wearable devices 102 worn by the person detected as the main subject in step S1803 is one or plural. If it is determined to be one, the process advances to step S1806, and if it is determined to be plural, the process advances to step S1805. As a method of determining the number of wearable devices 102 , the user may register in advance the wearable devices 102 worn by each subject in the ROM 113 of the camera 101 . In addition, as described in step S503 of FIG. 5 in the first embodiment, the image processing unit 124 of the camera 101 specifies on which part of each subject detected in step S1801 the wearable device 102 is attached. Therefore, a method of determining the number of wearable devices 102 may be used. Also, a method of determining the number by communication between the communication unit 115 of the camera 101 and the communication module 131 of the wearable device 102 is possible.

ステップS1805では、ステップS1802、ステップS1803を通して主要被写体と検出された人が装着しているウェアラブルデバイス102がステップS1804において複数個であると判定されたため、複数個のウェアラブルデバイス102の中で主要なウェアラブルデバイス102を検出する。主要なウェアラブルデバイス102の検出方法について図19のフローチャートを用いて詳細に説明する。 In step S1805, it is determined in step S1804 that there are a plurality of wearable devices 102 worn by the person detected as the main subject in steps S1802 and S1803. Detect device 102 . A method for detecting the wearable device 102 will be described in detail with reference to the flowchart of FIG. 19 .

ステップS1901において、カメラ101の制御部112は、ユーザにより予めウェアラブルデバイス102の優先度が設定されているか否かを判定する。優先度が設定されていると判定された場合は、ステップS1904に進み、優先度が設定されていないと判定された場合は、ステップS1902に進む。 In step S1901, the control unit 112 of the camera 101 determines whether the priority of the wearable device 102 has been set in advance by the user. If it is determined that the priority is set, the process advances to step S1904, and if it is determined that the priority is not set, the process advances to step S1902.

予めユーザによって優先度が設定されている例として、図20にカメラ101の表示部127のユーザが設定可能なウェアラブルデバイス102の優先順位の設定画面例を示す。表示部127は、表示部だけでなく、タッチパネルとしてユーザが設定値を入力することも可能な構成にしてもよい。図20において2000は、ウェアラブルデバイス102の優先順位を設定する設定画面例である。2001は被写体IDであり、図17のイメージ図の被写体A~被写体Fを示す。2002は、ウェアラブルデバイス102IDであり、図17のイメージ図の1701~1708のウェアラブルデバイス102を示す。2003は、ウェアラブルデバイス102の優先順位を示している。この設定画面例では、ユーザが被写体Bの1704のウェアラブルデバイス102の優先順位を1番高く設定している例である。 As an example in which the priority is set in advance by the user, FIG. 20 shows an example of a priority setting screen of the wearable device 102 that can be set by the user on the display unit 127 of the camera 101 . The display unit 127 may be configured not only as a display unit but also as a touch panel that allows the user to input setting values. In FIG. 20 , 2000 is an example of a setting screen for setting the priority of the wearable device 102 . A subject ID 2001 indicates subjects A to F in the image diagram of FIG. 2002 is the wearable device 102 ID, which indicates the wearable devices 102 of 1701 to 1708 in the image diagram of FIG. 2003 indicates the priority of the wearable device 102 . In this setting screen example, the user sets the wearable device 102 of subject B 1704 to have the highest priority.

ステップS1902において、カメラ101の制御部112は準備撮影画像の所定領域内に一定期間位置しているウェアラブルデバイス102を検出する。例えば、所定領域内として準備撮影画像の画角を100%とした場合に、準備撮影画像の中心座標を中心とした90%の矩形範囲内に任意に設定した閾値の時間以上存在しているウェアラブルデバイス102を検出する。 In step S1902, the control unit 112 of the camera 101 detects the wearable device 102 positioned within a predetermined area of the preparatory photographed image for a certain period of time. For example, when the angle of view of the preparatory photographed image is set to 100% as the predetermined area, the wearable that exists within a rectangular range of 90% centered on the central coordinates of the preparatory photographed image for a period of time equal to or longer than an arbitrarily set threshold. Detect device 102 .

ステップS1903において、カメラ101の制御部112はステップS1902で検出されたウェアラブルデバイス102の不図示の優先度算出部において、優先度を算出する。優先度の算出はユーザによって、優先度決めする項目が予め設定されており、その設定内容に従って優先度を算出する。設定画面例を図21に示す。2100は、ウェアラブルデバイス102の優先度決めの項目を設定する設定画面である。2101は、優先度決めの項目内容であり、例えば、「加速度の速さ順」、「装着部位(頭・胴体・手・足)の設定」、「画角内における顔の面積」、「画角内における装着部位の面積」、「画角中心とウェアラブルデバイス102との距離順」、「顔中心とウェアラブルデバイス102との距離順」、「顔検出信頼度」などの項目がある。「加速度の速さ順」とは、加速度の速さの順序が速いウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「装着部位」とは、頭・胴体・手・足の部位の中で、どの部位に装着しているウェアラブルデバイス102の優先度を高くするかを設定する項目である。「画角内における顔の面積」とは、画角内に存在する顔検出された顔の面積比率が大きい人が装着しているウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「画角内における装着部位の面積」とは、画角内に存在する頭・胴体・手・足の部位の面積比率が大きいウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「画角中心とウェアラブルデバイス102との距離順」とは、画角の中心座標と各装着されているウェアラブルデバイス102の中心座標の距離が短いウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「顔中心とウェアラブルデバイス102との距離順」とは、顔中心座標と各装着されているウェアラブルデバイス102の中心座標の距離が短いウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「顔検出信頼度」とは、顔検出の信頼度が高い人が装着しているウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。2102は、主要ウェアラブルデバイス102の優先度決めの基準とする項目であり、2101の項目内容に対し、ユーザが選択した項目にチェックが入っている。 In step S1903, the control unit 112 of the camera 101 calculates the priority in the priority calculation unit (not shown) of the wearable device 102 detected in step S1902. In the calculation of the priority, items for determining the priority are set in advance by the user, and the priority is calculated according to the setting contents. An example of the setting screen is shown in FIG. A setting screen 2100 is used to set items for determining the priority of the wearable device 102 . Item 2101 is the content of items for determining priority. There are items such as the area of the attachment site within the corner, the order of the distance between the center of the angle of view and the wearable device 102, the order of the distance between the center of the face and the wearable device 102, and the degree of face detection reliability. “Acceleration speed order” is an item to be set when it is desired to give a higher priority to the wearable device 102 having a higher acceleration speed order. “Wearing part” is an item for setting which part of the wearable device 102 to which the wearable device 102 is attached should have a higher priority among the parts of the head, body, hands, and feet. “Area of face within angle of view” is an item to be set when a wearable device 102 worn by a person having a large area ratio of a detected face within the angle of view is to be given higher priority. . “Area of attachment site within angle of view” is an item to be set when the wearable device 102 having a large area ratio of the head, body, hands, and feet within the angle of view is to be given higher priority. The “order of distance between the center of the angle of view and the wearable device 102” is set when the wearable device 102 having a short distance between the center coordinate of the angle of view and the center coordinate of each worn wearable device 102 is to be given higher priority. item. “Order of distance between face center and wearable device 102” is an item to be set when it is desired to give higher priority to wearable devices 102 having a short distance between face center coordinates and the center coordinates of each worn wearable device 102. . “Face detection reliability” is an item to be set when a wearable device 102 worn by a person whose face detection reliability is high is to be given a high priority. 2102 is an item used as a criterion for determining the priority of the main wearable device 102, and the item selected by the user for the item content of 2101 is checked.

優先度の算出方法について図22(a)を用いて説明する。例えば、図21で説明したように優先度決めの項目を設定した場合、設定した各々の項目に対してスコアを算出した後に、各々のスコアを加算した合計値を算出する。合計値のスコアが高いものから順にウェアラブルデバイス102の優先順とし、ステップS1901で説明した図20と同様に各々のウェアラブルデバイス102に対する優先順位を決定する。 A method of calculating the priority will be described with reference to FIG. For example, when items for determining priority are set as described with reference to FIG. 21, after calculating the score for each of the set items, the total value is calculated by adding each score. The wearable devices 102 are prioritized in descending order of total score, and the priority of each wearable device 102 is determined in the same manner as in FIG. 20 described in step S1901.

合計値のスコアの算出方法について図22(a)を用いて説明する。 A method for calculating the score of the total value will be described with reference to FIG.

図22(a)において、2201は、被写体IDであり、図17のイメージ図の被写体A~被写体Fを示す。2202は、ウェアラブルデバイス102IDであり、図17のイメージ図の1701~1708のウェアラブルデバイス102を示す。2203は、「加速度の速さ順」のスコア値であり、速さの順位が高いウェアラブルデバイス102ほどスコア値が高くなる。2204は、「装着部位」であり、図21では手を選択している為、手に装着したウェアラブルデバイス102のスコア値が高くなる。2205は、「画角中心とウェアラブルデバイス102との距離順」であり、画角中心とウェアラブルデバイス102の距離が近いほど、スコア値が高くなる。2206は、「顔検出信頼度順」であり、各々の被写体の顔検出の信頼度が高いほど、スコア値が高くなる。2207は、合計スコア値であり、2203~2206で算出したスコア値の合計値である。例えば、ステップS1803において、主要被写体が被写体Bと検出された場合を考える。被写体Bは、1702、1703、1704の3つのウェアラブルデバイス102を装着している。そして、優先度決めの項目として「装着部位」が手に設定されている場合、1703のウェアラブルデバイス102の合計スコア値が1番大きくなり、優先順位が1番高くなる。算出した合計スコア値を基に優先順位を付けた場合の優先順位の結果を図22(b)に示す。図22(b)において、2208は、被写体IDであり図17のイメージ図の被写体A~被写体Fを示す。2209は、ウェアラブルデバイス102IDであり、図17のイメージ図の1701~1708のウェアラブルデバイス102を示す。2210は、ウェアラブルデバイス102の優先順位を示している。 In FIG. 22(a), 2201 is a subject ID, which indicates subject A to subject F in the image diagram of FIG. 2202 is the wearable device 102 ID, which indicates the wearable device 102 of 1701 to 1708 in the image diagram of FIG. 2203 is a score value of "acceleration speed order", and the wearable device 102 with a higher speed rank has a higher score value. 2204 is a "wearing part", and since the hand is selected in FIG. 21, the score value of the wearable device 102 worn on the hand is high. 2205 is “order of distance between the center of the angle of view and the wearable device 102”, and the closer the distance between the center of the angle of view and the wearable device 102, the higher the score value. Reference numeral 2206 denotes “order of face detection reliability”, and the higher the reliability of face detection of each subject, the higher the score value. 2207 is the total score value, which is the sum of the score values calculated in 2203-2206. For example, consider the case where the main subject is detected as subject B in step S1803. A subject B wears three wearable devices 102 1702 , 1703 , and 1704 . Then, when the "wearing part" is set to the hand as an item for determining the priority, the total score value of the wearable device 102 of 1703 is the largest, and the priority is the highest. FIG. 22(b) shows the result of the priority when the priority is assigned based on the calculated total score value. In FIG. 22(b), 2208 is a subject ID, which indicates subject A to subject F in the image diagram of FIG. 2209 is the wearable device 102 ID, which indicates the wearable device 102 of 1701 to 1708 in the image diagram of FIG. 2210 indicates the priority of the wearable device 102 .

仮に、被写体Bが右手・左手の2つにウェアラブルデバイス102を付けていた場合は、「装着部位」のスコア値は共に同じ100になるので、その他の項目のスコア値が高い方ほど優先度が高くなる。 If subject B wears the wearable device 102 on both his right hand and his left hand, the score value of the "wearing site" will be the same 100, so the higher the score value of the other items, the higher the priority. get higher

ステップS1904において、カメラ101の制御部112は、ステップS1901もしくはステップS1903で算出された優先順位に応じて、優先順位が1番高いウェアラブルデバイス102を主要なウェアラブルデバイス102(主要センサ装置)と仮決定する。 In step S1904, the control unit 112 of the camera 101 tentatively determines the wearable device 102 with the highest priority as the main wearable device 102 (main sensor device) according to the priority calculated in step S1901 or step S1903. do.

ステップS1905において、カメラ101の制御部112は、ステップS1904で仮決定されたウェアラブルデバイス102が、準備撮影画像において所定領域内に一定期間位置しているか判定する。例えば、所定領域内として準備撮影画像の画角を100%とした場合に、準備撮影画像の中心座標を中心とした90%の矩形範囲内に任意に設定した閾値の時間以上存在していれば、ステップS1907に進む。存在していなければ、ステップS1906に進む。 In step S1905, the control unit 112 of the camera 101 determines whether the wearable device 102 tentatively determined in step S1904 is positioned within a predetermined region in the preparatory photographed image for a certain period of time. For example, when the angle of view of the preparatory photographed image is set to 100% as the predetermined area, if it exists within a rectangular range of 90% centered on the central coordinates of the preparatory photographed image for a period of time equal to or longer than an arbitrarily set threshold value. , the process proceeds to step S1907. If not, the process advances to step S1906.

ステップS1906において、カメラ101の制御部112は、ステップS1904で仮決定したウェアラブルデバイス102の次に優先度が高いウェアラブルデバイス102を主要なウェアラブルデバイス102と仮決定する。その後、ステップS1905へと進み、主要なウェアラブルデバイス102が決定されるステップS1907に進むまでこの判定を繰り返す。仮にこの判定を繰り返した後に、ステップS1901もしくはステップS1903で決定した優先順位のウェアラブルデバイス102のうち、いずれのウェアラブルデバイス102も準備撮影画像の所定領域内に一定期間位置していないと判定された場合は、カメラ101は、デフォルトとして予め設定していたウェアラブルデバイス102を次のステップS1907で主要ウェアラブルデバイス102として決定する。 In step S<b>1906 , the control unit 112 of the camera 101 tentatively determines the wearable device 102 with the next highest priority to the wearable device 102 tentatively determined in step S<b>1904 as the main wearable device 102 . After that, the process advances to step S1905 and repeats this determination until the process advances to step S1907 where the main wearable device 102 is determined. If, after repeating this determination, it is determined that none of the wearable devices 102 with priority determined in step S1901 or step S1903 is positioned within the predetermined region of the preparatory captured image for a certain period of time. , the camera 101 determines the wearable device 102 preset as the default as the main wearable device 102 in the next step S1907.

ステップS1907において、カメラ101の制御部112は、ステップS1904もしくは、ステップS1906で仮決めされたウェアラブルデバイス102を主要ウェアラブルデバイス102として検出する。 In step S<b>1907 , the control unit 112 of the camera 101 detects the wearable device 102 provisionally determined in step S<b>1904 or S<b>1906 as the main wearable device 102 .

続いて図18のステップS1806では、カメラ101の制御部112は、図19のフローの検出結果に基づき、次のステップでウェアラブルデバイス102の情報を取得するために、主要なウェアラブルデバイス102を決定する。 Subsequently, in step S1806 of FIG. 18, the control unit 112 of the camera 101 determines the main wearable device 102 based on the detection result of the flow of FIG. 19 in order to acquire the information of the wearable device 102 in the next step. .

ステップS703において、実施例1のステップS703と同様にカメラ101は、ステップS1806で決定した主要なウェアラブルデバイス102から取得した被写体動き情報とカメラ101で求めた被写体の動きベクトルを用いて被写体の主要部位に対応するベクトルを算出する。 In step S703, similarly to step S703 of the first embodiment, the camera 101 uses the subject motion information obtained from the main wearable device 102 determined in step S1806 and the subject motion vector obtained by the camera 101 to determine the main parts of the subject. Calculate the vector corresponding to .

ステップS704では、実施例1のステップS704と同様に、制御部101の指示の下、カメラ100の不図示のブレ量推定部は、上記ステップの処理で算出した主要部位の被写体の動きベクトルと、ユーザの設定するシャッタースピードにおいて被写体で発生する動きブレ量を推定する。 In step S704, as in step S704 of the first embodiment, under the instruction of the control unit 101, the blur amount estimation unit (not shown) of the camera 100 calculates the motion vector of the main part of the subject calculated in the processing of the above step, Estimates the amount of motion blur that occurs in the subject at the shutter speed set by the user.

ステップS705では、実施例1のステップS705と同様にカメラ101は、ステップS704で算出した被写体動きブレ量と許容動き量を比較し、許容動き量以下の被写体ブレ量になるように次に撮影する準備撮影画像のシャッタースピード変更し、準備撮影画像の撮影条件を変更する。 In step S705, as in step S705 of the first embodiment, the camera 101 compares the subject motion blur amount calculated in step S704 with the allowable motion amount, and performs next shooting so that the subject motion blur amount is equal to or less than the allowable motion amount. The shutter speed of the preparatory photographed image is changed, and the photographing conditions of the preparatory photographed image are changed.

以上、実施例3の撮像システム100の処理について説明を行った。具体的には、被写体が複数人のシーンにおいても、装着されている複数個のウェアラブルデバイス102から主要なウェアラブルデバイス102を決定し、主要なウェアラブルデバイス102を通して被写体動き情報をセンシングし、ウェアラブルデバイス102が取得した被写体動き情報を補助情報として、被写体の動きベクトルを更新し、カメラ101の撮影条件を決定し、被写体ブレを軽減した画像を取得することが可能となる。 The processing of the imaging system 100 according to the third embodiment has been described above. Specifically, even in a scene with a plurality of subjects, the main wearable device 102 is determined from the plurality of worn wearable devices 102, the subject movement information is sensed through the main wearable device 102, and the wearable device 102 Using the acquired object motion information as auxiliary information, it is possible to update the motion vector of the object, determine the shooting conditions of the camera 101, and acquire an image with reduced object blur.

なお、ウェアラブルデバイス102の優先度決めの項目として「加速度の速さ順」、「装着部位(頭・胴体・手・足)の設定」、「画角内における顔の面積」、「画角内における装着部位の面積」、「画角中心とウェアラブルデバイス102との距離順」、「顔中心とウェアラブルデバイス102との距離順」、「顔検出信頼度」の項目で説明したがこれに限るものではない。例えば、「カメラと被写体の距離」や「カメラとウェアラブルデバイス102の距離」が近いほどスコアを高く算出し、優先順位を高くする構成にしてもよい。 The items for determining the priority of the wearable device 102 are "acceleration speed order", "setting of wearing parts (head/body/hands/legs)", "area of face within angle of view", and "area of face within angle of view". area of the attachment site in the face”, “order of the distance between the center of the angle of view and the wearable device 102”, “order of the distance between the center of the face and the wearable device 102”, and “face detection reliability” are limited to these items. isn't it. For example, the shorter the "distance between the camera and the subject" or the "distance between the camera and the wearable device 102", the higher the score calculated and the higher the priority.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.

100 撮像システム
101 カメラ
121 光学系
122 撮像素子
123 A/D変換部
124 画像処理部
125 記録部
126 パルス発生部
127 表示部
118 メカシャッタ
119 ジャイロセンサ
111 垂直駆動変調部
112 制御部
113 ROM
114 RAM
115 通信部
102 ウェアラブルデバイス
132 電源モジュール
131 通信モジュール
133 コネクタ
134 インカメラ
135 アウトカメラ
136 ライト
137 システムメモリ
138 制御部
139 スピーカー
141 タッチスクリーンディスプレイ
142 液晶ディスプレイ
143 タッチスクリーン
144 スイッチ
145 照度センサ
147 ジャイロセンサ
148 奥行きセンサ
151 ROM
152 RAM
146 加速度センサ
REFERENCE SIGNS LIST 100 imaging system 101 camera 121 optical system 122 imaging device 123 A/D converter 124 image processor 125 recorder 126 pulse generator 127 display 118 mechanical shutter 119 gyro sensor 111 vertical drive modulator 112 controller 113 ROM
114 RAMs
115 Communication Department 102 Wearable Device 132 Power Module 131 Communication Module 133 Connector 135 Incamera 135 Out camera 136 Light 137 System Memory 138 Control Department 139 Speaker 141 Touch Screen Display 142 LCD Display 143 Touch Screen 144 Switch 145 illuminance sensor 147 Gyro Sensor 148 Depth Sensor 151 ROM
152 RAMs
146 acceleration sensor

Claims (15)

被写体を撮像する撮像手段と、
前記撮像手段が撮像した画像を用いて前記被写体の動きを検出する被写体動き検出手段と、
外部装置から送信されたセンシング結果を受信する受信手段と
前記撮像手段の露出を制御する露出制御手段と、を備えた撮像装置と
被写体の情報を取得するセンサ手段と、
前記センサ手段のセンシング結果を前記撮像装置に送信する送信手段と、を備えた
前記撮像手段とは異なる、撮影する被写体に装着するセンサ装置からなる撮像システムであって、
前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センサ手段のセンシング結果と、前記被写体動き検出手段の結果を用いて前記撮像手段の露出制御を行うことを特徴とする撮像システム。
imaging means for imaging a subject;
subject movement detection means for detecting movement of the subject using the image captured by the imaging means;
an imaging device comprising: a receiving means for receiving sensing results transmitted from an external device; and an exposure control means for controlling exposure of the imaging means; a sensor means for acquiring subject information;
an imaging system comprising a sensor device attached to a subject to be photographed, which is different from the imaging means and which transmits a sensing result of the sensor means to the imaging device,
The imaging system, wherein the imaging device receives a sensing result of the sensor means, and performs exposure control of the imaging means using the sensing result of the sensor means and the result of the subject movement detection means.
前記センサ手段のセンシング結果は、装着した被写体の動きに関する情報をセンシング結果として出力することを特徴とする請求項1に記載の撮像システム。 2. The imaging system according to claim 1, wherein the sensing result of said sensor means is output as the sensing result of information relating to the movement of the subject wearing the sensor. 前記センサ手段は、前記センサ装置を装着した部位の被写体の動き量、被写体の動きの変化量、被写体の位置の変化、のいずれかに基づく装着した被写体の動きに関する情報をセンシングすることを特徴とする請求項1または2に記載の撮像システム。 The sensor means senses information related to the movement of the subject wearing the sensor device based on any of the amount of movement of the subject at the site where the sensor device is worn, the amount of change in the movement of the subject, and the change in the position of the subject. 3. The imaging system according to claim 1 or 2. 前記センサ手段は、前記センサ装置を装着した部位情報を更に取得することを特徴とする請求項1乃至3のいずれか1項に記載の撮像システム。 4. The imaging system according to any one of claims 1 to 3, wherein said sensor means further acquires information on a part where said sensor device is attached. 前記被写体動き検出手段は、前記撮像手段で撮像した画像を用いて前記被写体の動きベクトルを算出し、
前記露出制御手段は前記動きベクトルを用いて、前記撮像装置の露出の制御を行うことを特徴とする請求項1乃至4のいずれか1項に記載の撮像システム。
the subject motion detection means calculates a motion vector of the subject using the image captured by the imaging means;
5. The imaging system according to claim 1, wherein said exposure control means controls exposure of said imaging device using said motion vector.
前記被写体動き検出手段は前記センサ手段のセンシング結果を用いて前記動きベクトルを選択し、
前記露出制御手段は前記選択した動きベクトルを用いて、前記撮像装置の露出制御を行うことを特徴とする請求項5に記載の撮像システム。
the subject motion detection means selects the motion vector using the sensing result of the sensor means;
6. The imaging system according to claim 5, wherein said exposure control means controls exposure of said imaging device using said selected motion vector.
前記動きベクトルの精度について信頼度を算出する算出手段を有し、
前記露出制御手段は前記信頼度が閾値以上の動きベクトルを用いて、前記撮像装置の露出制御を行うことを特徴とする請求項5または6に記載の撮像システム。
a calculating means for calculating reliability of the accuracy of the motion vector;
7. The imaging system according to claim 5, wherein said exposure control means performs exposure control of said imaging device using a motion vector whose reliability is equal to or greater than a threshold.
前記センサ手段のセンシング結果を基に前記動きベクトルを補正する補正手段を有し、
前記露出制御手段は前記補正手段が補正した前記動きベクトルを用いて、前記撮像装置の露出制御を行うことを特徴とする請求項5乃至7のいずれか1項に記載の撮像システム。
a correction means for correcting the motion vector based on the sensing result of the sensor means;
8. The imaging system according to claim 5, wherein said exposure control means controls exposure of said imaging device using said motion vector corrected by said correction means.
前記被写体動き検出手段の動きベクトルの算出と、前記露出制御手段で設定する露光時間に基づいて、撮影した際の画像のブレ量を推定するブレ量推定手段を備え、
前記露出制御手段は前記ブレ量推定手段の結果に基づいて、前記撮像装置の露出制御を行うことを特徴とする請求項5乃至8のいずれか1項に記載の撮像システム。
Blur amount estimating means for estimating the blur amount of an image when photographed based on the calculation of the motion vector of the subject motion detecting means and the exposure time set by the exposure control means,
9. The imaging system according to any one of claims 5 to 8, wherein said exposure control means controls exposure of said imaging device based on the result of said blur amount estimation means.
前記センサ手段の出力の更新は、前記被写体動き検出手段の出力の更新よりも速いことを特徴とする請求項1乃至9のいずれか1項に記載の撮像システム。 10. The imaging system according to any one of claims 1 to 9, wherein the update of the output of said sensor means is faster than the update of the output of said subject motion detection means. 前記露出制御手段は、前記撮像手段で露光を開始した後に、電荷の蓄積量を制御することを特徴とする請求項1乃至10のいずれか1項に記載の撮像システム。 11. The imaging system according to any one of claims 1 to 10, wherein said exposure control means controls the amount of charge accumulation after said imaging means starts exposure. 前記撮像装置は、前記センサ装置が複数ある場合に、複数のセンサ装置から主要なセンサ装置を決定する決定手段を有し、
前記露出制御手段は、前記主要センサ装置のセンシング結果と、前記被写体動き検出手段の結果を用いて前記撮像装置の露出を制御することを特徴とする請求項1乃至請求項11のいずれか1項に記載の撮像システム。
The imaging device has a determining means for determining a main sensor device from among the plurality of sensor devices when there are a plurality of the sensor devices,
12. The exposure control means controls the exposure of the imaging device using the sensing result of the main sensor device and the result of the subject movement detection means. The imaging system according to .
前記決定手段は、前記センサ装置が主要なセンサ装置であることを示す優先度を算出する優先度算出手段を備え、
前記優先度算出手段は、センサ装置の加速度が大きい、画像の中心からの距離が近い、カメラからの距離が近い、センサ装置を装着している被写体の面積が大きい、センサ装置を装着している部位の面積が大きいほど優先度を高く算出することを特徴とする請求項12に記載の撮像システム。
The determination means comprises priority calculation means for calculating a priority indicating that the sensor device is a primary sensor device,
The priority calculation means determines that the acceleration of the sensor device is large, the distance from the center of the image is short, the distance from the camera is short, the area of the subject wearing the sensor device is large, and the subject is wearing the sensor device. 13. The imaging system according to claim 12, wherein the larger the area of the part, the higher the priority calculated.
被写体を撮像する撮像ステップと、
前記撮像ステップにて撮像した画像を用いて前記被写体の動きを検出する被写体動き検出ステップと、
外部装置から送信されたセンシング結果を受信する受信ステップと
前記撮像手段の露出を制御する露出制御ステップと、を備えた撮像装置の制御ステップと、
被写体の情報を取得するセンシングステップと、
前記センサ手段のセンシング結果を前記撮像装置に送信する送信ステップと、を備えた
前記撮像装置とは異なる、撮影する被写体に装着するセンサ装置の制御ステップからなる撮像システムの制御方法であって、
前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センシングステップのセンシング結果と、前記被写体動き検出ステップの結果を用いて前記撮像手段の露出制御ステップを実行することを特徴とする撮像システムの制御方法。
an imaging step of imaging a subject;
a subject movement detection step of detecting movement of the subject using the image captured in the image capturing step;
an imaging device control step comprising a receiving step of receiving a sensing result transmitted from an external device and an exposure control step of controlling exposure of the imaging means;
a sensing step for acquiring subject information;
A control method for an imaging system comprising a step of controlling a sensor device attached to a subject to be photographed, which is different from the imaging device, and a transmission step of transmitting the sensing result of the sensor means to the imaging device,
The imaging system, wherein the imaging device receives a sensing result of the sensor means, and executes an exposure control step of the imaging means using the sensing result of the sensing step and the result of the subject movement detection step. control method.
コンピュータを、請求項1乃至13のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the imaging apparatus according to any one of claims 1 to 13.
JP2022022342A 2022-02-16 2022-02-16 System, apparatus, and control method Pending JP2023119433A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022022342A JP2023119433A (en) 2022-02-16 2022-02-16 System, apparatus, and control method
US18/164,036 US20230269488A1 (en) 2022-02-16 2023-02-03 Imaging system, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022022342A JP2023119433A (en) 2022-02-16 2022-02-16 System, apparatus, and control method

Publications (1)

Publication Number Publication Date
JP2023119433A true JP2023119433A (en) 2023-08-28

Family

ID=87574882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022022342A Pending JP2023119433A (en) 2022-02-16 2022-02-16 System, apparatus, and control method

Country Status (2)

Country Link
US (1) US20230269488A1 (en)
JP (1) JP2023119433A (en)

Also Published As

Publication number Publication date
US20230269488A1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
US9479692B2 (en) Image capturing apparatus and method for controlling the same
JP6512810B2 (en) Image pickup apparatus, control method and program
KR101537948B1 (en) Photographing method and apparatus using pose estimation of face
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP6391304B2 (en) Imaging apparatus, control method, and program
WO2019082831A1 (en) Image capturing device, method for controlling image capturing device, and program
RU2635873C2 (en) Method and device for displaying framing information
JP6429915B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US20160088219A1 (en) Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
JP2018033013A (en) Control device, imaging apparatus, control method, program, and memory medium
JP6758950B2 (en) Imaging device, its control method and program
US20200177814A1 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP2001255451A (en) Automatic focusing device, digital camera and portable information input device
JP2023119433A (en) System, apparatus, and control method
JP2008301161A (en) Image processing device, digital camera, and image processing method
US20240147078A1 (en) Photographing system having exposure control with sensing result, photographing device, and controlling method
JP2010050746A (en) Imaging apparatus and control method thereof
JP2020072392A (en) Imaging apparatus, control method of imaging apparatus, and program
JP2019083518A (en) Imaging device, control method thereof, and program
JP2019216398A (en) Imaging apparatus and control method therefor, and program
JP2015037219A (en) Imaging apparatus, imaging method, and program
US11553136B2 (en) Subject tracking device, subject tracking method, and storage medium
JP7475846B2 (en) Information processing device, imaging device, information processing method, and imaging device control method
JP6949803B2 (en) Imaging device, its control method, program and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213