JP2023119433A - System, apparatus, and control method - Google Patents
System, apparatus, and control method Download PDFInfo
- Publication number
- JP2023119433A JP2023119433A JP2022022342A JP2022022342A JP2023119433A JP 2023119433 A JP2023119433 A JP 2023119433A JP 2022022342 A JP2022022342 A JP 2022022342A JP 2022022342 A JP2022022342 A JP 2022022342A JP 2023119433 A JP2023119433 A JP 2023119433A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- imaging
- sensor
- exposure
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 67
- 230000033001 locomotion Effects 0.000 claims abstract description 251
- 238000003384 imaging method Methods 0.000 claims abstract description 106
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 230000005540 biological transmission Effects 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 134
- 230000001133 acceleration Effects 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 14
- 238000009825 accumulation Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 80
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 8
- 230000035945 sensitivity Effects 0.000 description 7
- 210000004247 hand Anatomy 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910052987 metal hydride Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- PXHVJJICTQNCMI-UHFFFAOYSA-N nickel Substances [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 1
- -1 nickel metal hydride Chemical class 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Accessories Of Cameras (AREA)
Abstract
Description
本発明は、カメラの撮影を制御する技術に関し、特に、ウェアラブルデバイスを用いて撮影をするカメラのシステム並びに装置、制御方法に関する。 The present invention relates to a technique for controlling photography of a camera, and more particularly to a camera system, apparatus, and control method for photographing using a wearable device.
加速度センサや人感センサ等のセンシング結果によりカメラの撮影を制御する技術が知られている。 2. Description of the Related Art Techniques for controlling camera shooting based on sensing results from an acceleration sensor, a human sensor, or the like are known.
例えば、特許文献1では携帯可能な装置(ウェアラブルデバイス)の状況に応じて、離れたところにあるカメラのオート撮影を制御することが開示されている。 For example, Japanese Patent Application Laid-Open No. 2002-200000 discloses controlling automatic shooting of a remote camera according to the status of a portable device (wearable device).
しかしながら、上述の特許文献に開示された従来技術では、センシング結果に基づいてオート撮影のタイミング制御を行うことが主であり、カメラに写る被写体の動き状態を含めてカメラの撮影設定を自動で行うところまで考慮されていない。そのため、撮影のタイミングは制御できても、被写体の動きが速い場合には撮影した被写体がブレてしまう可能性がある。そこで本発明の目的は、被写体の動き状態をカメラの解析結果と携帯可能な装置によるセンシング結果を連携させることで、被写体の動き状態に合わせたカメラの撮影設定を自動で決定することを可能にしたシステムを提供する。 However, in the prior art disclosed in the above-mentioned patent document, the timing control of automatic shooting is mainly performed based on the sensing result, and the shooting setting of the camera is automatically performed including the movement state of the subject captured by the camera. not taken into consideration so far. Therefore, even if the timing of photographing can be controlled, there is a possibility that the photographed subject will be blurred if the movement of the subject is fast. Therefore, the object of the present invention is to make it possible to automatically determine the camera shooting settings according to the movement state of the subject by linking the analysis result of the camera and the sensing result of the portable device regarding the movement state of the subject. provide a system that
上記目的を達成するために、本発明は、被写体を撮像する撮像手段と、前記撮像手段で撮像した画像を用いて被写体の動きを検出する被写体動き検出手段と、前記撮像手段の露出を制御する露出制御手段を持つ撮像装置と被写体の情報を取得するセンサ手段を備え、前記センサ手段のセンシング結果を前記撮像装置へ無線で送信する送信手段を持つ前記撮像手段とは異なり、撮影する被写体に装着可能なセンサ装置からなり、前記撮像装置は、前記センサ手段のセンシング結果と、前記被写体動き検出手段の結果を用いて前記撮像手段の露出を制御し撮像を行うことを特徴とするシステムを備えることを特徴とする。 To achieve the above object, the present invention provides imaging means for imaging a subject, subject motion detection means for detecting movement of the subject using the image captured by the imaging means, and exposure control of the imaging means. It is equipped with an imaging device having exposure control means and a sensor means for acquiring information on a subject, and is worn on the subject being photographed, unlike the imaging means having a transmission means for wirelessly transmitting sensing results of the sensor means to the imaging device. and the imaging device uses the sensing result of the sensor means and the result of the subject motion detection means to control the exposure of the imaging means and perform imaging. characterized by
本発明によれば、より好適に被写体の動きに考慮して、被写体ブレを減らせるカメラ制御を行うことを提供することができる。 According to the present invention, it is possible to provide camera control capable of reducing subject blur by taking into consideration the movement of the subject more preferably.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態は特許請求に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、そのすべてが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。本実施形態では、スマートフォンや、リストバンド型端末等のウェアラブルデバイスとカメラを連携させ、カメラの露光制御操作をオートで実現する。 Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the claimed invention. In addition, although multiple features are described in the embodiments, not all of them are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted. In this embodiment, a smart phone, a wearable device such as a wristband type terminal, and a camera are linked, and the exposure control operation of the camera is realized automatically.
これにより無人撮影や、自分撮りのようなユースケースでも、被写体の動きを所望のブレ以下に抑えるように露光制御を行うことを実現し、オートの利用シーンを広げるものである。 As a result, even in use cases such as unattended shooting and self-portraits, it is possible to perform exposure control so as to suppress the movement of the subject to a desired degree of blurring or less, thereby expanding the scenes in which auto can be used.
図1は本実施例で説明する撮像システム100の一例である。図1の撮像システム100は、カメラ101とウェアラブルデバイス102の二つの装置で実現する。ウェアラブルデバイス102の一例としては、スマートフォンやリストバンド型端末等が挙げられ、その形態については問わない。図2は、本発明の一実施の形態の外観を示す図である。図2(a)はカメラ101としてデジタルカメラ201と、ウェアラブルデバイス102としてスマートフォン202の二つを接続している撮像システム100を表している。
FIG. 1 is an example of an
制御部112は、例えばCPUであり、カメラ101が備える各ブロックに対する制御プログラムを後述のROM113より読み出し、後述のRAM114に展開して実行する。これにより、制御部112は、カメラ101が備える各ブロックの動作を制御する。
The
ROM113は、電気的に消去・記録可能な不揮発性メモリであり、カメラ101が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。
The
RAM114は、書き換え可能な揮発性メモリであり、制御部112等が実行するプログラムの展開や、カメラ101が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。
A
通信部115は、所定の無線通信規格に応じて通信を行う。例えば、無線通信規格として、IEEE802.11規格の所謂Wi-Fi、Bluetooth(登録商標)、およびNFCなどがあり、少なくとも1つをサポートしていればよい。
光学系121は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像素子122の撮像面上に結像する。
The
撮像素子122は、例えばCCDやCMOSセンサ等で構成される。撮像素子122の各画素は、光学系121により撮像素子122の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号を後述のA/D変換部123に出力する。
The
A/D変換部123は、入力されたアナログ画像信号をデジタル画像データに変換し、A/D変換部123から出力されたデジタル画像データは、RAM114に一時的に記憶される。
The A/
画像処理部124は、RAM114に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部124は、記録された画像間の動きベクトルの算出や、被写体の検出なども行う。これらの詳細については後述する。
The
記録部125は、着脱可能なメモリカード等であり、画像処理部124で処理された画像データを、RAM114を介し、記録画像として記録する。
The
パルス発生部126は、非撮影状態から撮影状態に移行した際に、撮像素子122に走査クロック(水平駆動パルス)や所定の制御パルスを供給する。パルス発生部126で発生した走査クロックのうち、垂直走査用のクロックは、後述の垂直駆動変調部111に入力する。
The
垂直駆動変調部111は、パルス発生部126で発生した走査クロック信号のうち、垂直走査用のクロックを所定のクロック周波数に変調し、撮像素子122に入力する。この垂直駆動変調部111によって、複数の画素からなる撮像素子122のライン毎に行われるリセット走査の走査パターンが決定される。この撮像素子122のライン毎のリセット走査により、電子先幕シャッタとしての機能を実現する。
The vertical
ジャイロセンサ119は、角速度を検出する動き検知センサであり、カメラの振れの大きさを判別する。
The
メカシャッタ118は、物理的に光を遮る遮光機構を実現する開閉式のシャッタ機構で構成される(以降、メカシャッタ)。また、メカシャッタ118は、複数の遮光羽根で構成された後幕(以降、メカ後幕)として働く。制御部112は、メカ後幕の走行を開始させるタイミングを調整することで露光時間(シャッタースピード)を制御する。一方、電子先幕の機能は、所定のタイミングで撮像素子122の画素をライン毎に順次リセット走査することで実現する。
The
表示部127は、LCD等の表示デバイスであり、RAM114に記憶されている画像や記録部125に記録されている画像の表示、ユーザの指示を受け付けるための操作ユーザインターフェイスの表示等を行う。また、表示部127は、準備撮影中に構図合わせ等のために撮像素子122が撮像した画像を表示する。
The
以上、カメラ101の構成について説明した。
The configuration of the
続いてウェアラブルデバイス102の構成について図1を用いて説明する。ウェアラブルデバイス102はタッチスクリーンディスプレイ141を備えており、液晶ディスプレイ142には文字、画像、およびアイコンなどが表示される。タッチスクリーン143はジェスチャー操作を検知することでできる。
Next, the configuration of the
インカメラ134は、レンズと光学像を電気信号に変換するCCD又はCMOSなどの撮像素子とを備えている。このインカメラ134はAF(オートフォーカス)、絞り、およびシャッタースピード調整機能などを備える小型のカメラモジュールである。そして、インカメラ134はタッチスクリーンディスプレイ141に対面する物体を撮像する。
The in-
照度センサ145はインカメラ134や、アウトカメラ135で集光する被写体の照度情報を取得し、撮影時の露光時間やISO感度の調整に用いる。
The
制御部138は、例えばCPUであり、ウェアラブルデバイス102が備える各ブロックに対する制御プログラムを後述のROM151より読み出し、後述のRAM152に展開して実行する。これにより、制御部138は、ウェアラブルデバイス102が備える各ブロックの動作を制御する。制御部138はタッチスクリーン143、スイッチ144、インカメラ134、照度センサ145、アウトカメラ135、およびライト136などを制御してカメラ機能を提供する。
The
ROM151は、電気的に消去・記録可能な不揮発性メモリであり、ウェアラブルデバイス102が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。
The
RAM152は、書き換え可能な揮発性メモリであり、制御部112等が実行するプログラムの展開や、ウェアラブルデバイス102が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。
The
スピーカー139からは、スイッチ144において音出力オンの場合に、撮像の際のシャッタ音および警告音を出力する。
The
コネクタ133はウェアラブルデバイス102と外部装置とを接続する際に用いられる。例えば、コネクタ133には、後述する電源モジュール132に備えられたバッテリーを充電するためのACアダプタが接続される。また、コネクタ133は、外部から接続される不揮発性メモリに対する画像データおよび音声データなどの入出力の際に用いられる。なお、コネクタ133はDockコネクタのような専用に設計された端子であってもよく、USB(Universal Serial Bus)のような汎用的な端子であってもよい。
The
アウトカメラ135は、インカメラ134と同様の小型のカメラモジュールである。アウトカメラ135はインカメラ134の反対側の被写体を撮像する。ライト136は発光モジュールであり、アウトカメラ135による撮像の際にはフラッシュとして機能する。
The out-
通信モジュール131は、所定の無線通信規格に応じて通信を行う。例えば、無線通信規格として、IEEE802.11規格の所謂Wi-Fi、Bluetooth(登録商標)、およびNFCなどがあり、通信モジュール131は少なくとも1つをサポートしていればよい。具体的な通信としては、撮像によって得られた画像データの入出力およびウェアラブルデバイス102に対する機能追加プログラムモジュールのダウンロードが該当する。また、カメラ101へ後述するセンサ群(照度センサ145、加速度センサ146、ジャイロセンサ147、奥行きセンサ148)の情報を送信などの際に用いられる。
The
電源モジュール132は充電可能なバッテリーを備えており、ウェアラブルデバイス102全体に電源を供給する。電源モジュール132に備えられたバッテリーとして、例えば、リチウムイオン電池又はニッケル水素電池が用いられる。
The
加速度センサ146は、ウェアラブルデバイス102に作用する加速度の方向と大きさを検知する。加速度センサ146はXYZ方向の3軸における検知が可能である。
ジャイロセンサ147はウェアラブルデバイス102の角度および角速度を検知する。
奥行きセンサ148は、カメラから撮影する被写体までの距離を計測する。距離の計測する方式としては、赤外線や光や超音波などを物体に反射して跳ね返ってくるまでの時間を測定する方式や、複数台のカメラや画素を平行に並べ、視差画像から被写体の奥行情報を取得する方法がある。
A
図2は、撮像システム100の外観としての一例を示している。図2の(a)~(c)は、それぞれ撮像システム100として連携するカメラ101とウェアラブルデバイス102の組合せを表している。カメラ101と、ウェアラブルデバイス102間の接続は例えばBluetooth(商標登録)等で無線接続し、通信を行い撮像システム100と連携する。201は、カメラ101の一例としてデジタルカメラを示す。202は、ウェアラブルデバイス102の一例としてスマートフォンを示しており、このスマートフォンにはカメラ機能が搭載されている場合が多い。そのため、図2(c)のスマートフォン204に搭載するインカメラ134やアウトカメラ135のように、カメラ機能を使うことでウェアラブルデバイス102側ではなく、カメラ101側として使うことも可能である。また、ウェアラブルデバイス102は、スマートフォン以外にもリストバンド型端末203等の形態を使用することも可能である。
FIG. 2 shows an example of the appearance of the
以上、撮像システム100の外観とシステム構成について説明を行った。
The appearance and system configuration of the
(第1の実施形態)
以下、図3と図5のフローチャートを参照して、本発明の第1の実施形態(実施例1)に係る、撮像システム100の処理について説明する。実施例1では、ウェアラブルデバイス102を撮影対象である被写体が装着し、カメラ101は外部に配置したリモートカメラの構成をとる。そして、ウェアラブルデバイス102を通して被写体動き情報をセンシングし、ウェアラブルデバイス102が取得した被写体動き情報を補助情報として、カメラ101の撮影条件を決定する。
(First embodiment)
Hereinafter, processing of the
まずは、ウェアラブルデバイス102の動作について、図5を用いて処理について説明する。なお、以下の処理は、ROM151に記憶されたプログラムに従って、制御部138が装置の各部を制御することにより実現される。
First, the operation of the
ステップS501では、まずウェアラブルデバイス102の電源をユーザが入れる。そしてウェアラブルデバイス102は被写体動き情報を検出するためセンサ(加速度センサ146、ジャイロセンサ147、奥行きセンサ148等)からウェアラブルデバイス102のセンシング信号を受信するための待機動作を行う。
In step S501, the user first powers on the
ステップS502において、カメラ101の通信部115は、ステップS501で取得したセンシング信号を一定の時間の間隔で取得する。例えば、センシング信号として、ウェアラブルデバイス102の加速度情報を取得する。加速度情報を取得するためには、加速度センサ146からの出力を所定時刻ごとに定期的に取得する。以上により、ウェアラブルデバイス102を装着した部位の被写体の加速度情報を得ることが可能となる。これは、加速度センサ146でなくとも、他の被写体の動き状態を検出できるセンサを使っても間接的にウェアラブルデバイス102装着部位の被写体の加速度情報を取得することも可能である。一例としては、奥行きセンサ148によるカメラ101からウェアラブルデバイス102までの距離変化を取得することで単位時間当たりに被写体の動き速度や加速度情報を算出することができる。
In step S502, the
ステップS503において、まずユーザは、ウェアラブルデバイス102を特定の位置、例えば動きの邪魔にならない手首などに装着する。ウェアラブルデバイス102は、被写体に装着されたことを触感センサ(不図示)などにより感知する。また、ウェアラブルデバイス102は、被写体の動きが分かる位置であれば自由に取り付けることも可能である。その場合、ウェアラブルデバイス102の装着部位の特定方法としては、装着しているデバイスをカメラ101側が取得した画像データから検出してもよい。また、事前にウェアラブルデバイス102の被写体に装着する部位を設定する方法や、事前に所定時間内における特定部位の加速度、速度の大きさなどを記録しておき、実際の動きを基に動いている被写体部位を特定する技術が知られている(特許第6325581号)。例えば、ステップS502でウェアラブルデバイス102の加速度センサ146から加速度情報を取得している。したがって、事前に装着部位ごとの所定時間当たりに記録した加速度変化と取得した加速度情報を照らし合わせてウェアラブルデバイス102の装着部位を特定することができる。
In step S503, the user first wears the
ステップS504において、ウェアラブルデバイス102の通信モジュールA131は、ステップS502で求めた加速度情報や、ウェアラブルデバイス102の装着部位情報を被写体動き情報としてカメラ101に送信する。
In step S504, the communication module A131 of the
以上が、ウェアラブルデバイス102の処理である。続いて、カメラ101の動作について図3のフローチャートを用いて説明する。なお、図3のフローチャートの処理は、撮像システム100のカメラ101にて、ROM113に記憶されたプログラムに従って、制御部112がカメラ101の各部を制御することで実現される。
The above is the processing of the
ステップS301では、カメラ101の通信部115はウェアラブルデバイス102から送信された被写体動き情報を受信する。
In step S<b>301 , the
ステップS302において、ユーザはカメラ101を用いて構図合わせなどの準備撮影を開始する。この準備撮影期間中は、カメラ101は連続的に画像を撮像し、記録した画像を表示部127に表示する。ユーザは表示された準備撮影画像を見ながら構図合わせなどを行う。なお、後述するステップS303、ステップS304及びステップS305の処理は準備撮影期間中に行う。
In step S302, the user uses the
ステップS303において、カメラ101の制御部112は、構図内の被写体の動きベクトルを検出するために撮像する準備撮影画像の撮影条件を決定する。詳しくは後述するが、準備撮影を初期撮影条件で行なった際の構図内の被写体動き量と、ウェアラブルデバイス102の通信モジュールA131から送信された被写体動き情報を用いて、ウェアラブルデバイス102を装着している部位(被写体注目部位)の被写体ブレが少なくなるシャッタースピードを設定する。
In step S303, the
ステップS304において、表示部127に構図内の被写体と、撮影設定条件(シャッタースピード、ISO感度、F値等)を表示する。
In step S304, the
ステップS305では、カメラ101の制御部112は、リモートレリーズが発動したかを判断する。リモートレリーズとは、ユーザがカメラと接続しているウェアラブルデバイス102を通して、カメラ101で露光を開始するタイミングシグナルを発信する制御である。リモートレリーズの発動は、ウェアラブルデバイス102を装着したユーザが所定のジェスチャーを行ったときの、ジャイロセンサ147の出力や、ウェアラブルデバイス102のレリーズボタン(不図示)を押すことで発生させることができる。もしくは、撮影者(ユーザ)が直接カメラ101のシャッターボタン(不図示)を押したかどうかを判定する。その場合にはユーザは表示部127に表示した被写体を見ながらシャッタータイミングに合わせてカメラ101のシャッターボタンを押す。カメラ101のシャッターボタンが押された場合には、ステップS306の本露光処理に進む。逆に、シャッタータイミングでない場合には、ステップS301にもどることで、再度撮影設定をやり直すことが可能である。
In step S305, the
ステップS306では、カメラ101の制御部112は、画像を撮影するために上記のステップの処理で行った撮影設定で露光処理を行い、撮影が完了した画像は、ROM113に記録する。
In step S<b>306 , the
このように、準備撮影中において、ユーザは表示部127に表示される動きブレ報知画像を確認しながら、好みの動きブレになるまで本撮影の露光時間の設定を繰り返し、シャッターチャンス時にシャッターボタンを押下する。
In this way, during preparatory photography, the user repeatedly sets the exposure time for actual photography while confirming the motion blur notification image displayed on the
ステップS305においてユーザによってカメラ102のシャッターボタンが押下されると、カメラ101は本撮影を行い、本撮影画像をROM113に記録する。
When the user presses the shutter button of the
次に、本発明の特徴であるステップS303の処理について図7のフローチャートを参照して説明する。 Next, the processing of step S303, which is a feature of the present invention, will be described with reference to the flowchart of FIG.
図7のステップS701において、カメラ101の制御部112は、初期撮影条件を設定し、カメラ101が準備撮影画像を連続して撮像する。ここでいう初期撮影条件とは、主にフレームレート、シャッタースピードを示す。そして、AE(オートエクスポージャー)やAF(オートフォーカス)制御などの一般的なカメラで行うオート機能の制御に用いられる評価値を算出する処理に影響を与えない範囲で、最も高フレームレート、高速シャッタースピードの設定を行う。また、シャッタースピードを高速に設定した際にも、適正の露出条件で撮影ができるように、シャッタースピードに合わせて光学系121を制御する。例えば、光学系121のレンズの絞りや、カメラ101のISO感度設定を制御することで、適切な露出条件で撮影ができるように制御(露出制御)を行う。カメラ101では、以上のように設定された初期撮影条件で時系列的に連続する画像の撮影を行う。なお、撮影した画像は、移動被写体の蓄積ブレがほとんど無く、また、撮像した連続画像間での被写体の移動量がなるべく小さい条件で撮影されるのが望ましい。ただし、そのような条件はISO感度が上がりやすく、高感度でノイズの多い画像データが取得されることが多くなるなどの弊害もある。一方で、被写体の移動量が小さいので、速い被写体でも動きを捉えやすくなるという利点がある。
In step S701 of FIG. 7, the
ステップS702では、カメラ101の画像処理部124は、ステップS701で撮影した時系列的に連続する準備撮影画像から被写体の動きベクトルを算出する。
In step S702, the
まず、図8を用いて準備撮影画像から算出される動きベクトルについて説明する。図8は、被写体の動きを示した図である。図8(a)は、左に走っている犬801と止まっている犬802のシーンを撮影している例である。動きベクトルとは、準備撮影画像の画像間における被写体の水平方向の移動量と垂直方向の移動量を表したものである。この動きベクトルの例を図8(b)に示す。
First, the motion vector calculated from the preparatory photographed image will be described with reference to FIG. FIG. 8 is a diagram showing the motion of the subject. FIG. 8A shows an example of photographing a scene of a
図8(b)は、図8(a)の準備撮影画像の動きベクトルの例を示す図である。図8(b)の例では、走っている犬801は左方向の動きベクトルとして検出し、それ以外の止まっている犬802や背景の柵は動きベクトル0として検出するため、動きベクトルを図示していない。
FIG. 8(b) is a diagram showing an example of motion vectors of the preparatory photographed image of FIG. 8(a). In the example of FIG. 8B, a running
続いて動きベクトルの算出方法について、図9及び図6を参照して詳しく説明する。図9は、動きベクトルの算出処理を示すフローチャートである。以下のフローチャートではROM113に記憶されたプログラムに従って、制御部112がカメラ101の各部を制御することで実現される。なお、本発明では、動きベクトルの算出手法としてブロックマッチング法を例に挙げて説明するが、動きベクトルの算出手法はこの例に限定されず、例えば勾配法等でもよい。
Next, a motion vector calculation method will be described in detail with reference to FIGS. 9 and 6. FIG. FIG. 9 is a flowchart showing motion vector calculation processing. The following flowchart is realized by the
図9のステップS901において、カメラ101の画像処理部124に時間的に隣接する2枚の準備撮影画像が入力される。そして、画像処理部124はM番目フレームの準備撮影画像を基準フレームに設定し、M+1番目フレームの準備撮影画像を参照フレームに設定する。
In step S901 of FIG. 9, two preparatory photographed images temporally adjacent to each other are input to the
ステップS902において、画像処理部124は、図6のように、基準フレーム601において、N×N画素の基準ブロック602を配置する。
In step S902, the
ステップS903において、画像処理部124は、図6のように、参照フレーム603に対し、基準フレーム601の基準ブロック602の中心座標と同座標604の周囲(N+n)×(N+n)画素を、探索範囲605として設定する。
In step S903, the
ステップS904において、画像処理部124は、基準フレーム601の基準ブロック602と、参照フレーム603の探索範囲605内に存在する異なる座標のN×N画素の参照ブロック606との相関演算を行い、相関値を算出する。相関値は、基準ブロック602及び参照ブロック606の画素に対するフレーム間差分絶対値和に基づき算出する。つまり、フレーム間差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。なお、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図6の例では、参照ブロック606が最も相関が高いことを示しているとする。
In step S904, the
ステップS905において、画像処理部124はステップS904で求めた最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。図6の例の場合、参照フレーム603の探索範囲605の中で、基準フレーム601の基準ブロック602の中心座標に対応した同座標604と、参照ブロック606の中心座標に基づき動きベクトルが求められる。つまり、同座標604から参照ブロック606の中心座標までの座標間距離と方向が動きベクトルとして求められる。
In step S905, the
ステップS906において、画像処理部124は、基準フレーム601の全画素について動きベクトルを算出したか否か判定する。画像処理部124は、ステップS906において全画素の動きベクトルを算出していないと判定した場合には、ステップS902に処理を戻す。そして、ステップS902では、動きベクトルが算出されていない画素を中心として前述した基準フレーム601にN×N画素の基準ブロック602が配置され、以下前述同様に、ステップS903からステップS905の処理が行われる。すなわち、画像処理部124は、図6の基準ブロック602を移動させながら、ステップS902からステップS905までの処理を繰り返して、基準フレーム601の全画素の動きベクトルを算出する。動きベクトルを算出する単位としては、画素単位でも画像を所定の分割数に分割した単位ごとに算出してもよい。以上の処理を撮像時間が近い準備撮影画像間で行うことで動きベクトルを算出する。
In step S<b>906 , the
続いてステップS703は、ウェアラブルデバイス102から取得した被写体動き情報とカメラ101で求めた被写体の動きベクトルを用いて画像処理部124が被写体の主要部位に対応するベクトルを算出する。
Subsequently, in step S703, the
画像処理部124はウェアラブルデバイス102で求めた被写体動き情報を用いて、ユーザが被写体ブレを軽減したい被写体の主要部位に対応するベクトルを特定した後、更に該当する主要部位の被写体の動きベクトルの補正する処理を行う。図10を用いて具体的に説明する。
The
まず、被写体の主要部位に対応するベクトルの特定を行うため、画像処理部124は候補となる被写体の動きベクトル群を見つける。これについて図10(a)を用いて説明する。図10(a)では、主要部位となる候補の被写体の動きベクトル群(1011、1012、1013、1014)を示した図である。主要部位情報は、ステップS504で送信された被写体動き情報のウェアラブルデバイス102の装着部位に該当する情報である。被写体の主要部位と被写体の動きベクトルとの対応は、被写体の動きベクトルを求める準備撮影画像の中から、画像処理部124が主要部位に対応する被写体の動きベクトルを選択することで実現する。準備撮影画像から主要部位を検出する方法としては、一般的な被写体認識技術などの手法を用いてよい。例えば、ウェアラブルデバイス102の装着部位が犬の頭の場合、画像処理部124は準備撮影画像中の被写体の動きベクトルが求まっている範囲の中で、ウェアラブルデバイス102が装着されている犬の頭を検出する。そして、画像処理部124は検出した犬の頭部領域から所定の距離内に存在する被写体の動きベクトル群(1011、1012、1013、1014)を選択し、更にその中から、最も動き量が大きい被写体の動きベクトル(1011)を検出し、これを主要部位の被写体の動きベクトルとする。
First, the
続いて、該当する主要部位の被写体の動きベクトルの補正する処理について、図10の(b)、(c)を用いて詳しく説明を行う。主要部位の被写体の動きベクトルの補正とは、出力の更新レートが遅い動きベクトル算出処理に対して、出力の更新レートが速いウェアラブルデバイス102から送信する装着部位の加速度情報を用いて被写体の動きベクトルを補正することで被写体の動きベクトルの更新レートを疑似的に向上させ、被写体の動き変化に対応する被写体の動きベクトルを得る処理である。
Subsequently, processing for correcting the motion vector of the subject of the corresponding main part will be described in detail using FIGS. 10(b) and 10(c). The correction of the motion vector of the subject of the main part means that the motion vector of the subject is corrected using the acceleration information of the wearing part transmitted from the
図10の(b)は、被写体の動きベクトルと被写体動き情報の取得タイミングを示した図である。 FIG. 10(b) is a diagram showing acquisition timings of subject motion vectors and subject motion information.
被写体の動きベクトルは時系列的に連続する2フレーム以上の準備撮影画像を用いて、被写体の動きベクトルに用いる準備撮影画像間の移動量を求めるものである。例えば、被写体の動きベクトル1031を求めるためには、少なくとも準備撮影画像1021と1022の2フレームをカメラ101が取得するまで求めることができない。また、次の被写体の動きベクトル1032を求めるためには、準備撮影画像1023を取得するまで算出することができない。この、被写体の動きベクトル1031から被写体の動きベクトル1032を算出するまでのブランク期間1041の間に被写体の動きが急に変わった場合には、被写体の動きベクトルの更新レートが遅いため、そのタイミングの被写体の動きが正しく検出できない。一方ウェアラブルデバイス102で検出される被写体動き情報としての加速度情報は、準備撮影画像に依存せず、デバイスの動きを直接検出することができるため、一般的に高速な検出が可能である(1051)。
The motion vector of the subject is obtained by using two or more frames of preparatory shot images that are continuous in time series, and the amount of movement between the preparatory shot images to be used as the motion vector of the subject. For example, the
一般的なカメラ101であるデジタルカメラで取得できる準備撮影画像は高速でも120fps程度であるため、被写体の動きベクトルは120fps以下の更新レートとなる。一方、一般的なウェアラブルデバイス102であるスマートフォンに搭載されている加速度センサ146の出力更新レートは被写体の動きベクトルの出力更新レートの10~100倍以上である。
Since a pre-captured image that can be acquired by a digital camera, which is the
そのため、ウェアラブルデバイス102で検出した加速度情報を用いて画像処理部124が被写体の動きベクトルを補正することでより、被写体の動きベクトルが更新されない期間においても精度が高い被写体の動きベクトルを求めることができる。また、被写体の動きベクトルは準備撮影画像に依存するので、低コントラストの被写体や、蓄積ブレやピンボケが発生している画像からでは被写体の動きベクトルが求まらない場合がある。すなわち、カメラ101のみでは被写体動き情報を取得できない場合があり、ベクトルの更新レートが遅くなる可能性がある。したがって、更新レートの早いウェアラブルデバイス102によるセンサ情報を用いて被写体の動きベクトルを補正して更新することは有効である。
Therefore, by correcting the motion vector of the subject by the
続いて、図10(c)を用いて、主要部位の動きベクトルの補正処理について説明する。図10(c)は、主要部位の被写体の動きベクトル1061、被写体の動きベクトルの更新前に被写体の動きが遅くなった時に補正した被写体の動きベクトル1062、被写体の動きが早くなった時に補正した被写体の動きベクトル1063を表している。
Subsequently, correction processing of motion vectors of main parts will be described with reference to FIG. 10(c). FIG. 10(c) shows a
なお、画像に対しての主要部位の動きベクトルは、角度と複数方向の大きさを持つため式1を用いてベクトルの大きさに変換する。一般的に画像に用いる動きベクトルは2次元座標上の方向性を持つため、式1を適用することで、スカラーとしてベクトルの大きさに変換できる。
Since the motion vector of the main part of the image has angles and magnitudes in multiple directions, it is converted into the magnitude of the vector using Equation (1). A motion vector generally used for an image has directionality on two-dimensional coordinates, so by applying
被写体の動きベクトルの補正の方法は、被写体の動きベクトルが更新された時点までの主要部位の加速度変化に対応するゲイン処理を行うことで可能である。従って、ウェアラブルデバイス102が検出した主要部位の加速度情報を用いて、算出した加速度変化量をα(加速度が変化無しの場合は1)とすると、被写体の動きベクトルの補正は式2のように表すことができる。
補正後の被写体の動きベクトル=α×被写体の動きベクトル…式2
A method of correcting the motion vector of the subject is possible by performing gain processing corresponding to changes in acceleration of the main parts up to the time when the motion vector of the subject is updated. Therefore, if the amount of change in acceleration calculated using the acceleration information of the main part detected by the
Subject motion vector after correction=α×Subject
上記式1の式を用いて主要部位の被写体の動きベクトルを補正すると、加速度変化量αが1より小さい場合は1062となり、逆に加速度変化量αが1より大きい場合は1063のように補正前の被写体の動きベクトルから換算する。このような被写体の動きベクトルの補正を行い、リアルタイムの被写体の動きと極力時間差が発生しない様に主要部位のブレ量を求める。
When the motion vector of the main part of the subject is corrected using the
続いてステップS704において、制御部101の指示の下、カメラ100の不図示のブレ量推定部が、上記ステップの処理で算出した主要部位の被写体の動きベクトルと、ユーザの設定するシャッタースピードにおいて被写体で発生する動きブレ量を推定する。この被写体動きブレ量は、被写体の動きベクトルを算出する準備撮影画像の撮像フレームレートと、ユーザがカメラ101に設定するシャッタースピードと、被写体の動きベクトルを用いて以下の式で算出する。
被写体動きブレ量=被写体の動きベクトル*
(フレームレート(fps)/シャッタースピード(s))…式3
Subsequently, in step S704, under the instruction of the
Subject motion blur amount = Subject motion vector*
(Frame rate (fps)/Shutter speed (s))
上記式3に関して被写体の動きベクトルと、被写体動きブレ量の関係について図11を用いて説明する。図11は、被写体の動きベクトルと被写体動きブレ量との関係を示した図である。例えば、フレームレート60fpsで更新する準備撮影画像の前後フレームを用いて被写体の動きベクトルを算出するため、被写体の動きベクトル1101も更新フレームレートは60fpsとなる。一方、被写体動きブレ量は、露光中に被写体が動いたブレ量のため、ユーザが設定したシャッタースピードに対応する。例えばユーザがシャッタースピードを1/120秒に設定した場合、被写体の動きベクトルを求める準備撮影画像の前後フレーム間は、1/60秒となる。したがって、被写体の動きベクトル1101が10pixとすると、その半分の長さの5pixが被写体動きブレ量1102となる。
The relationship between the motion vector of the subject and the amount of motion blur of the subject with respect to
続いて、ステップS705においてカメラ101は、ステップS704で算出した被写体動きブレ量と許容動き量を比較し、許容動き量以下の被写体ブレ量になるように次に撮影する準備撮影画像のシャッタースピード変更し、準備撮影画像の撮影条件を変更する。許容動き量とは、所定のシャッタースピードで撮影した場合に動きブレとして目立たない程度に収まる動きブレ量である。許容動き量の大きさはCCDやCMOSセンサ等の撮像素子のサイズ、画素数、そして、表示するディスプレイの解像度によって決まる。例えば、撮像素子が、APS-Cで、画素数が20万画素、フルHD(1920×1080画素)のPCディスプレイにおける許容動き量を5pixel以下とする。許容動き量以下の動きブレ量になるようにカメラ101が準備撮影画像を撮像するには、以下の式4、式5を用いてシャッタースピードを決定する。
n=被写体動きブレ量/許容動き量・・・式4
Subsequently, in step S705, the
n=subject motion blur amount/allowable
この時、式4によって求めたnが1よりも大きければ、現在設定しているシャッタースピードで撮影すると、被写体ブレが発生する可能性が高いことを示し、1以下であれば、被写体ブレが発生する可能性が低いシャッタースピードであることを意味する。そのため、被写体ブレの発生が少なくなる適切なシャッタースピードは、以下の式5を用いて算出する。
更新シャッタースピード(s)≦設定シャッタースピード(s)*1/n・・・式5
At this time, if n obtained by
Updated shutter speed (s) ≤ set shutter speed (s) * 1/
具体的な数値を用いて説明すると、図11の動きブレ量1102は5pixであり、許容動き量も5pixである。そのため、式4によりn=1となり、現在設定しているシャッタースピードは被写体ブレの影響が小さいことが分かる。そのため、式5により準備撮影画像の撮影条件(そのまま変更しない場合実際露光する撮影条件となる)としてのシャッタースピードは、1/120より速い露光時間を設定すればよい(今回の場合は1/120sから変更しない)。また、撮影に十分な光量がある場合には、ISO感度や、絞りとの兼ね合いでシャッタースピードを更に1/250より早く設定しても良い。
To explain using specific numerical values, the
以上、準備撮影画像の撮影条件としてシャッタースピードを更新する例について説明した。なお、より被写体の動きベクトルを検出する精度を上げるために、準備撮影画像を撮影するフレームレートを上げ、被写体の動きベクトルを算出する更新レートを早くしても良い。更新レートを速くする条件は以下のようになる。 An example in which the shutter speed is updated as the shooting condition for the preparatory shot image has been described above. In order to increase the accuracy of detecting the motion vector of the subject, the frame rate for capturing the preparatory captured image may be increased and the update rate for calculating the motion vector of the subject may be increased. The conditions for increasing the update rate are as follows.
更新フレームレート(fps)≧設定フレームレート(fps)*n・・・式6
上記のフレームレートやシャッタースピードは、動き検出を行うために重要な撮影条件である。また、適正の明るさで撮像するために、フレームレートやシャッタースピードの変更に伴い、絞り値、ISO感度も変更し、露出値が変わらないように制御する。
Update frame rate (fps)≧Set frame rate (fps)*
The above frame rate and shutter speed are important shooting conditions for motion detection. In addition, in order to capture an image with proper brightness, the aperture value and ISO sensitivity are changed in accordance with the change of the frame rate and shutter speed, and control is performed so that the exposure value does not change.
ステップS303の詳細な処理について、図7のステップS701~ステップS705の処理を用いて準備撮影画像の撮影条件(そのまま変更しなければ本番撮影も同じ撮影条件のまま)を決定する処理について説明を行った。 Regarding the detailed processing of step S303, the processing of determining the shooting conditions of the pre-shot image using the processing of steps S701 to S705 in FIG. Ta.
以上、実施例1における撮像システム100の処理について説明を行った。具体的には、ウェアラブルデバイス102を通して被写体動き情報をセンシングする。そして、ウェアラブルデバイス102が取得した被写体動き情報を補助情報として、被写体の動きベクトルを更新し、カメラ101の撮影条件を決定する。本発明によると、ウェアラブルデバイス102と連携し、カメラ101で算出した被写体の動きベクトルの検出精度を高め、被写体ブレが少なくなるシャッタースピードを設定することが可能となる。これにより撮影者はカメラに触れることなく撮影者が望む被写体の動きを所望のブレ以下に抑えるようにシャッタースピードを設定し、撮影の露光調整を行うことを実現できる。本発明により、オート撮影の利用シーンを広げることが可能である。
The processing of the
実施例1において、動きブレ量を算出する場合に、被写体の動きベクトルをユーザの設定しているシャッタースピードに合わせて換算することで、動きブレ量を算出する方法に関して説明した。なお、動きブレ量の算出は、シャッタースピードに合わせて換算しなくても良い。たとえば、被写体の動きベクトルに対して、予め設定した閾値を比較して、閾値を超えた場合にシャッタースピードを現在の設定値よりも速い値に変更することで、簡易的に同様の処理が実現可能である。 In the first embodiment, the method of calculating the amount of motion blur by converting the motion vector of the subject in accordance with the shutter speed set by the user has been described. It should be noted that the calculation of the amount of motion blur does not have to be converted in accordance with the shutter speed. For example, by comparing the motion vector of the subject with a preset threshold value and changing the shutter speed to a value faster than the current setting value when the threshold value is exceeded, the same processing can be easily achieved. It is possible.
実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、準備撮影画像から求めた被写体の動きベクトルから最も動きが速い被写体の動きベクトルを選択しても良い。 In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Note that the motion vector of the subject with the fastest motion may be selected from the motion vectors of the subject obtained from the preparatory photographed images.
実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、カメラ101にウェアラブルデバイス102に搭載している加速度センサ146同様の加速度センサが搭載されている場合には、カメラ101に搭載されている加速度センサの動きとは別の被写体の動きベクトルを選択しても良い。カメラ101に搭載される加速度センサにはカメラ101を動かした本体の動き情報が得られるため、それと異なる動きベクトルを選択することで主要な動き被写体以外の動き情報を振るい落とすことが可能となる。
In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Note that if the
実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、算出した被写体の動きベクトルのうち、カメラ101で撮影する際の画角の中央に写る範囲や、画像内でオートフォーカスの対象となっている領域付近の被写体の動きベクトルを選択しても良い。
In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Of the calculated motion vectors of the subject, it is also possible to select the motion vector of the subject in the center of the angle of view when shooting with the
実施例1では、被写体の主要部位を特定し、主要部位における被写体の動きベクトルを選択する方法を説明した。なお、準備撮影画像にウェアラブルデバイス102が映っている場合には、画像から直接ウェアラブルデバイス102の位置を検出しても良い。
In the first embodiment, the method of identifying the main parts of the subject and selecting the motion vector of the subject in the main parts has been described. Note that when the
また、主要部位の被写体の動きベクトルを選択する前に、準備撮影画像から求めた被写体の動きベクトルに対して、選別処理を行っても良い。例えば、被写体の動きベクトルを求める過程で行うテンプレートマッチングなどの演算では、相関値演算などを行う。その際相関値が予め定めた閾値よりも低くなったベクトルに対しては、信頼度が低い(信頼度が閾値以下)被写体の動きベクトルと判定する。これにより、相関値が閾値以上(信頼度が閾値以上)の、より精度が高い被写体の動きベクトルだけを抽出することが可能である。 Further, before selecting the motion vector of the subject of the main part, the motion vector of the subject obtained from the preparatory photographed image may be subjected to selection processing. For example, in calculations such as template matching performed in the process of obtaining the motion vector of the subject, correlation value calculations are performed. At this time, a vector whose correlation value is lower than a predetermined threshold value is determined to be a subject motion vector with low reliability (reliability equal to or lower than the threshold). As a result, it is possible to extract only the motion vector of the subject with a correlation value greater than or equal to the threshold value (reliability greater than or equal to the threshold value) and higher accuracy.
(第2の実施形態)
次に、本発明の第2の実施形態(実施例2)について図面を参照して詳細に説明する。実施例2では、本露光処理中の被写体動きブレ量を基に露光制御を行うことで、被写体の動きブレ量を軽減した画像を取得することができる。なお、実施例2の撮像システム100のウェアラブルデバイス102側の処理は、実施例1と同様のため説明を省略する。実施例2の特徴となるカメラ101の制御部112で行う動作を図13のフローチャートを用いて説明を行う。なお、以下の処理は、撮像システム100としてカメラ101は、ROM113に記憶されたプログラムに従って、制御部112が装置の各部を制御することで実現される。また、ウェアラブルデバイス102は、ROM151に記録されたプログラムに従って、制御部138が装置の各部を制御することによって実現される。実施例1と同じステップの処理については同符号を付与し、詳細な説明は省略する。
(Second embodiment)
Next, a second embodiment (Example 2) of the present invention will be described in detail with reference to the drawings. In the second embodiment, by performing exposure control based on the subject motion blur amount during the main exposure process, it is possible to obtain an image with a reduced motion blur amount of the subject. Note that processing on the
まず、図4を用いてカメラ101の撮影動作を説明する。図4のステップS301~ステップS305までの処理は、実施例1の図3のステップS301~ステップS305の処理と同じため説明を省略する。実施例2では、ステップS401の本露光の処理が実施例1と異なる。
First, the photographing operation of the
ステップS401では、カメラ101は、露光中の被写体の着目部位に対する動きブレ量に基づいて、露光の中断処理を行い被写体ブレの発生を抑えた撮影を行う。
In step S<b>401 , the
続いて、露光中の被写体の着目部位に対する動きブレ量に基づいて、カメラ101の制御部112が行うステップS401の本露光処理の制御について図13のフローチャートを用いて詳しく説明する。
Next, the control of the main exposure process in step S401 performed by the
図13のステップS306は、実施例1のステップS306と同様にカメラ101は本露光処理を開始する。
In step S306 of FIG. 13, the
具体的に本露光処理を行う際の電子先幕シャッタの構成と撮影動作について図14、図15を用いて詳細に説明する。 14 and 15, the configuration of the electronic front curtain shutter and the shooting operation when performing the main exposure process will be described in detail.
図14は、撮像素子122およびメカ後幕1403をレンズ側から光軸方向に沿ってみた様子を示す正面図である。撮影が開始された後の撮像素子122で行われるリセット走査及び、メカ後幕1403の走行が途中である時の状態を示している。矢印1401は、リセット走査の操作方向(電子先幕1407の走行方向)とメカ後幕1403の走行方向を示している。図1のメカシャッタ118で構成されるメカ後幕1403が、撮像素子122の一部の領域を遮光している状態が示されている。更にリセットライン1408は、撮像素子122で行われるリセット走査のライン(リセットライン)であり、画素の電荷蓄積量がゼロにリセットする動作として、電子先幕1407の端部に相当する。リセットライン1408とメカ後幕1403の端部1405との間のスリットによって形成される領域1406は、電子先幕1407とメカ後幕1403の走行にしたがって矢印1401の方向へ移動していくように制御する。リセットライン1408が通過してから、つまり画素が矢印1401の方向ヘライン毎に順次リセットされてから、メカ後幕1403によって遮光状態となるまでの時間が、画素の露光による電荷蓄積時間となる。このように、リセットライン1408が矢印1401の方向へ走行してライン毎の電荷蓄積が開始されるので、電荷蓄積の開始タイミングは撮像素子122のライン毎にも異なる。
FIG. 14 is a front view showing the
図15を用いて電荷蓄積のタイミングを詳しく説明する。図15(a)は、電荷のリセットと読み出し開始の概念図、図15(b)は、ライン毎の電荷のリセットと読み出しのタイミング説明図となっている。図15(b)のライン1501~ライン1510は、ライン毎に電荷をリセット処理されるタイミングを表しており、最初に端部のライン1501が電荷を読み出した後、電荷をリセットする動作を行う。逆に、端部のライン1510が最後にリセットされるラインである。このように、ライン毎にリセットのタイミングを制御している。ライン毎にリセットのタイミングが異なるため、電荷の蓄積時間が各ラインで揃うように、電荷の読み出し時間もライン1511~ライン1520でライン毎に同じ露光時間になるように制御部112が制御する。
The timing of charge accumulation will be described in detail with reference to FIG. FIG. 15(a) is a conceptual diagram of charge reset and read start, and FIG. 15(b) is a timing explanatory diagram of charge reset and read for each line.
図13のステップS1301において、制御部112は、図4のステップS303で検出した本露光直前のカメラ101の画像処理部124で算出した被写体の動きベクトルに対して補正を行う。被写体の動きベクトルの補正は露光中のウェアラブルデバイス102からの被写体動き情報に含まれる加速度センサ146の出力を基に行う。本露光が始まると、カメラ101は撮像素子122が複数存在しない限り、準備撮影画像を撮像することができなくなる。したがって、本露光中は被写体の動きベクトルを更新できない。そのため、ここでは本露光直前までに算出した着目部位における被写体の動きベクトルに対して推定を行う。推定には加速度センサ146の加速度情報を用いて、実施例1のステップS703の処理に相当する主要部位の被写体の動きベクトルの補正を行い、その後動きブレ量に変換する処理を行う。以上の処理により、カメラ101の本露光中においても動きブレ量を推定することが可能となる。
In step S1301 in FIG. 13, the
ステップS1302において、カメラ101の制御部112は、ステップS1301で推定した動きブレ量が許容動き量を超えるかを判断する。許容動き量を超えた場合には、ステップS1303の処理に進む。逆に許容ブレ量を超えなかった場合にはステップS1304の処理に進む。
In step S1302, the
ステップS1304において、カメラ101の制御部112は、図4のステップS303で求める撮影条件を満たしているかを判断する。撮影条件とは主に、露光中の蓄積ブレに影響するかを判断する。これは、本露光前に設定したシャッタースピードに対応する露光時間を満たしたかどうかで判断が可能である。撮影条件を満たしている場合には、ステップS1305の処理に進み露光を終了する。
In step S1304, the
ステップS1303で、カメラ101の制御部112は撮像素子122にこれ以上の露光が継続すると画像に被写体ブレが発生すると判断し、撮影条件に設定されている露光時間よりも早く、メカシャッタ118を閉じる。これにより、撮像素子122への入光が遮断される。続いてステップS1305の処理に進み露光を終了する。ステップS1303における露光打ち切り制御を行う方法については図16を用いて詳しく説明する。
In step S1303, the
図16は、本露光処理中に被写体動きブレ量が許容動き量(許容閾値)を超えた場合に、カメラ101の制御部112がメカ後幕を制御し、露光中断を行う処理のタイミングチャートを示したものである。本露光中の画像に被写体ブレが発生しそうな状況になった場合にメカ後幕を制御し、露光時間の制御を行うことで、被写体ブレの軽減を実現する。
FIG. 16 is a timing chart of processing in which the
図16のライン1501~ライン1510(図15(b)と撮影条件は同じ)は、リセットラインである。ライン1501のリセット処理を開始した後に外光が撮像素子122に届き、電荷の蓄積が開始される。露光中のカメラ101本体の動きによって画像に蓄積ブレが発生しない場合には、次のリセット処理のライン1511~ライン1520(図15(b)と撮影条件は同じ)まで電荷が蓄積される。今回は、露光中に被写体動きブレ量が許容動き量を超えた場合に電荷の蓄積を制御する方法を説明する。
制御部112は、図16の先頭リセットライン1501のリセット処理を実行し露光を開始する。この時、被写体動きブレ量が大きくなり、図16の1611のタイミングで被写体動きブレ量の許容閾値を超えることを検出すると、制御部112はメカ後幕を駆動し、撮像素子122に外光が届かないようにメカシャッタ118を閉じる。メカシャッタ118の働きにより、図16の1601~1610の間が実際の露光時間となる。つまり、1601~1610からライン1511~ライン1520の間の時間は露光されないため、撮像素子122に電荷が蓄積されない。したがって、被写体の動きによって発生する写体ブレを防ぐことができる。メカシャッタ118の制御で電荷の蓄積をストップしたが、メカシャッタ118が搭載されていないシャッタに関しては、パルス発生部126よりリセットパルスを発生させて電荷の蓄積を中断させることで同様の処理が可能である。
The
続いて図13のステップS1306において制御部112は、設定した露光時間になったかどうかを判断する。まだ設定した露光時間よりも短いと判断した場合には、ステップS1307の処理に進む。
Subsequently, in step S1306 of FIG. 13, the
ステップS1307で、制御部112は画像データ取得時に不足した露光時間に対し、画像データが本来の露光時間の明るさになるように差分の露光時間分をデジタルゲインとして、取得した画像データに掛ける信号処理を行う。なお、露光時間の差分から求めるデジタルゲインは、以下の式から求められる。
In step S1307, the
デジタルゲイン=撮像開始時に設定した露光時間/(撮像開始時に設定した露光時間-
露光開始からメカシャッタを切った時間)・・・式7
式7で算出したデジタルゲインを画像データに掛けることで、画像データの明るさを期待していた露光時間相当の明るさに補正する。より厳密にゲイン補正を行う場合には、画像データの水平ライン毎にデジタルゲインを算出し、画像データに水平ライン毎のデジタルゲインを掛けてもよい。
Digital gain = Exposure time set at the start of imaging / (Exposure time set at the start of imaging -
Time from the start of exposure until the mechanical shutter is released)
By multiplying the image data by the digital gain calculated by
一方、設定した露光時間になった場合には、制御部112は、ライン毎の電荷の読み出しを行い、読み出しが終わったラインから電荷のリセット処理を行うことで、カメラ101の露光を終了し、画像データを取得する。
On the other hand, when the set exposure time is reached, the
続いて、画像処理部124が行うステップS1307にて不足した露光量に対する補正処理について図12を用いて詳しく説明する。一例として、図12の画像信号1201は目標露光量で撮像した際の画像信号、画像信号1202は途中で露光を中断したため、露光時間が不足し目標露光量に届かない画像信号を示す。図12は、横軸を被写体輝度とし、横軸の被写体輝度の際の画像信号レベルを縦軸で示している。例えば、画像信号1202は目標露光量となる1201に比べ、露光時間が半分で撮像した場合の画像信号となっている。カメラ101が撮像するときの露光量は、一般的にF値、ISO感度とシャッタースピード(露光時間)によって決まる。そのため、露光を途中で中断することで露光量は、露光時間が短くなった分だけ目標露光量と比べ不足する。露光時間が半分になった場合には、露光量は半分となる。よって、2倍のデジタルゲインをかけることで、画像信号1202は、画像信号1201と同じ露光量に調整することができ、本来の目標露光量を取得できる。以上の処理を撮像素子122のライン単位で補正していくことで、露光が中断された場合でも、本来の目標露光量の明るさで被写体を撮影することが可能となる。
Next, the correction processing for the insufficient exposure amount in step S1307 performed by the
以上、実施例2の撮像システム100が、露光中に被写体のブレの大きさに基づいて露光を制御する方法について図13のフローチャートを用いて説明を行った。これらの処理により、露光中でシャッタースピードを変えることが難しい状況でも、露光時間を制御することで、被写体ブレを軽減した画像を取得することが可能となる。
The method in which the
(第3の実施形態)
次に、本発明の第3の実施形態(実施例3)について図面を参照して詳細に説明する。実施例3では、撮影対象である複数人の被写体がウェアラブルデバイス102を装着し、カメラ101は外部に設定した構成をとる。複数人の被写体がウェアラブルデバイス102を装着しているシーン例を図17に示す。図17は、被写体A~被写体Fの6人の被写体が、1701~1708のウェアラブルデバイス102を装着している例を示している。被写体Aは1701、被写体Bは1702、1703、1704、被写体Cは1705、被写体Dは1706、被写体Eは1707、被写体Fは1708のウェアラブルデバイス102を装着している例である。これらウェアラブルデバイス102を通して各々の被写体の被写体動き情報をセンシングし、取得した被写体動き情報を補助情報として、カメラ101の撮影条件を決定する。なお、実施例3の撮像システム100のウェアラブルデバイス102側の処理は、実施例1と同様のため説明を省略する。実施例3の特徴となるカメラ101の制御部112で行う動作を図18のフローチャートを用いて説明を行う。なお、以下の処理は、撮像システム100としてカメラ101は、ROM113に記憶されたプログラムに従って、制御部112が装置の各部を制御することで実現される。また、ウェアラブルデバイス102は、ROM151に記録されたプログラムに従って、制御部138が装置の各部を制御することによって実現される。実施例1と同じステップの処理については同符号を付与し、詳細な説明は省略する。
(Third embodiment)
Next, a third embodiment (Example 3) of the present invention will be described in detail with reference to the drawings. In the third embodiment, a plurality of subjects to be photographed wear the
カメラ101の撮影動作については、実施例1の図3のステップS301~ステップS306の処理と同じため説明を省略する。実施例3の特徴であるステップS303の処理について図18のフローチャートを参照して説明するが、実施例1の図7のステップS701~ステップS705の処理と同じ処理をする部分については説明を省略する。
The photographing operation of the
図18のステップS701において、カメラ101の制御部112は、初期撮影条件をカメラ101のROM113から読み出し、条件に従って準備撮影画像を連続して撮像する。
In step S701 of FIG. 18, the
ステップS702では、ステップS701で撮影した時系列的に連続する準備撮影画像からカメラ101の画像処理部124が被写体の動きベクトルを算出する。
In step S702, the
ステップS1801では、ステップS701で撮影した時系列的に連続する準備撮影画像からカメラ101の画像処理部124において被写体を検出する。被写体を検出する方法としては、一般的な被写体検出技術などの手法を用いる。例えば、顔・顔器官検出や頭部検出などが挙げられる。顔・顔器官検出や頭部検出は、撮影された画像から、パターン認識や機械学習に基づく手法により、人物の顔及び器官や頭部が存在する領域を検出する方法である。
In step S1801, the
ステップS1802では、画像処理部124がステップS1801において検出された被写体が1人なのか複数人なのかを判定する。1人と判定された場合はステップS1804に進み、複数人と判定された場合は、ステップS1803に進む。
In step S1802, the
ステップS1803では、ステップS1802において検出された被写体が複数人であったため、ウェアラブルデバイス102を装着している人の中から、カメラ101の画像処理部124において主要被写体を検出する。主要被写体の検出方法としては、一般的な主要被写体検出の手法を用いてよい。例えば、準備撮影画像において、画角における被写体の占める面積が一番大きい人や、準備撮影画像の中心に一番近い人を主要被写体として検出する。もしくは、ユーザが予め主要被写体としてカメラ101のROM113に登録している人を主要被写体として検出する構成としてもよい。
In step S<b>1803 , since multiple subjects were detected in step S<b>1802 , the
ステップS1804では、カメラ101の制御部112はステップS1803で主要被写体と検出された人が装着しているウェアラブルデバイス102が1つなのか複数個なのかを判定する。1つと判定された場合はステップS1806に進み、複数個と判定された場合はステップS1805に進む。ウェアラブルデバイス102の個数の判定方法としては、予めユーザが各々の被写体が装着するウェアラブルデバイス102をカメラ101のROM113に登録してもよい。また、実施例1における図5のステップS503で説明したように、ステップS1801において検出された各々の被写体のどこの部位にウェアラブルデバイス102が装着されているかをカメラ101の画像処理部124において特定することにより、ウェアラブルデバイス102の個数を判定する方法でもよい。また、カメラ101の通信部115とウェアラブルデバイス102の通信モジュール131が通信を行うことで個数を判定する方法も可能である。
In step S1804, the
ステップS1805では、ステップS1802、ステップS1803を通して主要被写体と検出された人が装着しているウェアラブルデバイス102がステップS1804において複数個であると判定されたため、複数個のウェアラブルデバイス102の中で主要なウェアラブルデバイス102を検出する。主要なウェアラブルデバイス102の検出方法について図19のフローチャートを用いて詳細に説明する。
In step S1805, it is determined in step S1804 that there are a plurality of
ステップS1901において、カメラ101の制御部112は、ユーザにより予めウェアラブルデバイス102の優先度が設定されているか否かを判定する。優先度が設定されていると判定された場合は、ステップS1904に進み、優先度が設定されていないと判定された場合は、ステップS1902に進む。
In step S1901, the
予めユーザによって優先度が設定されている例として、図20にカメラ101の表示部127のユーザが設定可能なウェアラブルデバイス102の優先順位の設定画面例を示す。表示部127は、表示部だけでなく、タッチパネルとしてユーザが設定値を入力することも可能な構成にしてもよい。図20において2000は、ウェアラブルデバイス102の優先順位を設定する設定画面例である。2001は被写体IDであり、図17のイメージ図の被写体A~被写体Fを示す。2002は、ウェアラブルデバイス102IDであり、図17のイメージ図の1701~1708のウェアラブルデバイス102を示す。2003は、ウェアラブルデバイス102の優先順位を示している。この設定画面例では、ユーザが被写体Bの1704のウェアラブルデバイス102の優先順位を1番高く設定している例である。
As an example in which the priority is set in advance by the user, FIG. 20 shows an example of a priority setting screen of the
ステップS1902において、カメラ101の制御部112は準備撮影画像の所定領域内に一定期間位置しているウェアラブルデバイス102を検出する。例えば、所定領域内として準備撮影画像の画角を100%とした場合に、準備撮影画像の中心座標を中心とした90%の矩形範囲内に任意に設定した閾値の時間以上存在しているウェアラブルデバイス102を検出する。
In step S1902, the
ステップS1903において、カメラ101の制御部112はステップS1902で検出されたウェアラブルデバイス102の不図示の優先度算出部において、優先度を算出する。優先度の算出はユーザによって、優先度決めする項目が予め設定されており、その設定内容に従って優先度を算出する。設定画面例を図21に示す。2100は、ウェアラブルデバイス102の優先度決めの項目を設定する設定画面である。2101は、優先度決めの項目内容であり、例えば、「加速度の速さ順」、「装着部位(頭・胴体・手・足)の設定」、「画角内における顔の面積」、「画角内における装着部位の面積」、「画角中心とウェアラブルデバイス102との距離順」、「顔中心とウェアラブルデバイス102との距離順」、「顔検出信頼度」などの項目がある。「加速度の速さ順」とは、加速度の速さの順序が速いウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「装着部位」とは、頭・胴体・手・足の部位の中で、どの部位に装着しているウェアラブルデバイス102の優先度を高くするかを設定する項目である。「画角内における顔の面積」とは、画角内に存在する顔検出された顔の面積比率が大きい人が装着しているウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「画角内における装着部位の面積」とは、画角内に存在する頭・胴体・手・足の部位の面積比率が大きいウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「画角中心とウェアラブルデバイス102との距離順」とは、画角の中心座標と各装着されているウェアラブルデバイス102の中心座標の距離が短いウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「顔中心とウェアラブルデバイス102との距離順」とは、顔中心座標と各装着されているウェアラブルデバイス102の中心座標の距離が短いウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。「顔検出信頼度」とは、顔検出の信頼度が高い人が装着しているウェアラブルデバイス102の優先度を高くしたい場合に設定する項目である。2102は、主要ウェアラブルデバイス102の優先度決めの基準とする項目であり、2101の項目内容に対し、ユーザが選択した項目にチェックが入っている。
In step S1903, the
優先度の算出方法について図22(a)を用いて説明する。例えば、図21で説明したように優先度決めの項目を設定した場合、設定した各々の項目に対してスコアを算出した後に、各々のスコアを加算した合計値を算出する。合計値のスコアが高いものから順にウェアラブルデバイス102の優先順とし、ステップS1901で説明した図20と同様に各々のウェアラブルデバイス102に対する優先順位を決定する。
A method of calculating the priority will be described with reference to FIG. For example, when items for determining priority are set as described with reference to FIG. 21, after calculating the score for each of the set items, the total value is calculated by adding each score. The
合計値のスコアの算出方法について図22(a)を用いて説明する。 A method for calculating the score of the total value will be described with reference to FIG.
図22(a)において、2201は、被写体IDであり、図17のイメージ図の被写体A~被写体Fを示す。2202は、ウェアラブルデバイス102IDであり、図17のイメージ図の1701~1708のウェアラブルデバイス102を示す。2203は、「加速度の速さ順」のスコア値であり、速さの順位が高いウェアラブルデバイス102ほどスコア値が高くなる。2204は、「装着部位」であり、図21では手を選択している為、手に装着したウェアラブルデバイス102のスコア値が高くなる。2205は、「画角中心とウェアラブルデバイス102との距離順」であり、画角中心とウェアラブルデバイス102の距離が近いほど、スコア値が高くなる。2206は、「顔検出信頼度順」であり、各々の被写体の顔検出の信頼度が高いほど、スコア値が高くなる。2207は、合計スコア値であり、2203~2206で算出したスコア値の合計値である。例えば、ステップS1803において、主要被写体が被写体Bと検出された場合を考える。被写体Bは、1702、1703、1704の3つのウェアラブルデバイス102を装着している。そして、優先度決めの項目として「装着部位」が手に設定されている場合、1703のウェアラブルデバイス102の合計スコア値が1番大きくなり、優先順位が1番高くなる。算出した合計スコア値を基に優先順位を付けた場合の優先順位の結果を図22(b)に示す。図22(b)において、2208は、被写体IDであり図17のイメージ図の被写体A~被写体Fを示す。2209は、ウェアラブルデバイス102IDであり、図17のイメージ図の1701~1708のウェアラブルデバイス102を示す。2210は、ウェアラブルデバイス102の優先順位を示している。
In FIG. 22(a), 2201 is a subject ID, which indicates subject A to subject F in the image diagram of FIG. 2202 is the
仮に、被写体Bが右手・左手の2つにウェアラブルデバイス102を付けていた場合は、「装着部位」のスコア値は共に同じ100になるので、その他の項目のスコア値が高い方ほど優先度が高くなる。
If subject B wears the
ステップS1904において、カメラ101の制御部112は、ステップS1901もしくはステップS1903で算出された優先順位に応じて、優先順位が1番高いウェアラブルデバイス102を主要なウェアラブルデバイス102(主要センサ装置)と仮決定する。
In step S1904, the
ステップS1905において、カメラ101の制御部112は、ステップS1904で仮決定されたウェアラブルデバイス102が、準備撮影画像において所定領域内に一定期間位置しているか判定する。例えば、所定領域内として準備撮影画像の画角を100%とした場合に、準備撮影画像の中心座標を中心とした90%の矩形範囲内に任意に設定した閾値の時間以上存在していれば、ステップS1907に進む。存在していなければ、ステップS1906に進む。
In step S1905, the
ステップS1906において、カメラ101の制御部112は、ステップS1904で仮決定したウェアラブルデバイス102の次に優先度が高いウェアラブルデバイス102を主要なウェアラブルデバイス102と仮決定する。その後、ステップS1905へと進み、主要なウェアラブルデバイス102が決定されるステップS1907に進むまでこの判定を繰り返す。仮にこの判定を繰り返した後に、ステップS1901もしくはステップS1903で決定した優先順位のウェアラブルデバイス102のうち、いずれのウェアラブルデバイス102も準備撮影画像の所定領域内に一定期間位置していないと判定された場合は、カメラ101は、デフォルトとして予め設定していたウェアラブルデバイス102を次のステップS1907で主要ウェアラブルデバイス102として決定する。
In step S<b>1906 , the
ステップS1907において、カメラ101の制御部112は、ステップS1904もしくは、ステップS1906で仮決めされたウェアラブルデバイス102を主要ウェアラブルデバイス102として検出する。
In step S<b>1907 , the
続いて図18のステップS1806では、カメラ101の制御部112は、図19のフローの検出結果に基づき、次のステップでウェアラブルデバイス102の情報を取得するために、主要なウェアラブルデバイス102を決定する。
Subsequently, in step S1806 of FIG. 18, the
ステップS703において、実施例1のステップS703と同様にカメラ101は、ステップS1806で決定した主要なウェアラブルデバイス102から取得した被写体動き情報とカメラ101で求めた被写体の動きベクトルを用いて被写体の主要部位に対応するベクトルを算出する。
In step S703, similarly to step S703 of the first embodiment, the
ステップS704では、実施例1のステップS704と同様に、制御部101の指示の下、カメラ100の不図示のブレ量推定部は、上記ステップの処理で算出した主要部位の被写体の動きベクトルと、ユーザの設定するシャッタースピードにおいて被写体で発生する動きブレ量を推定する。
In step S704, as in step S704 of the first embodiment, under the instruction of the
ステップS705では、実施例1のステップS705と同様にカメラ101は、ステップS704で算出した被写体動きブレ量と許容動き量を比較し、許容動き量以下の被写体ブレ量になるように次に撮影する準備撮影画像のシャッタースピード変更し、準備撮影画像の撮影条件を変更する。
In step S705, as in step S705 of the first embodiment, the
以上、実施例3の撮像システム100の処理について説明を行った。具体的には、被写体が複数人のシーンにおいても、装着されている複数個のウェアラブルデバイス102から主要なウェアラブルデバイス102を決定し、主要なウェアラブルデバイス102を通して被写体動き情報をセンシングし、ウェアラブルデバイス102が取得した被写体動き情報を補助情報として、被写体の動きベクトルを更新し、カメラ101の撮影条件を決定し、被写体ブレを軽減した画像を取得することが可能となる。
The processing of the
なお、ウェアラブルデバイス102の優先度決めの項目として「加速度の速さ順」、「装着部位(頭・胴体・手・足)の設定」、「画角内における顔の面積」、「画角内における装着部位の面積」、「画角中心とウェアラブルデバイス102との距離順」、「顔中心とウェアラブルデバイス102との距離順」、「顔検出信頼度」の項目で説明したがこれに限るものではない。例えば、「カメラと被写体の距離」や「カメラとウェアラブルデバイス102の距離」が近いほどスコアを高く算出し、優先順位を高くする構成にしてもよい。
The items for determining the priority of the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.
100 撮像システム
101 カメラ
121 光学系
122 撮像素子
123 A/D変換部
124 画像処理部
125 記録部
126 パルス発生部
127 表示部
118 メカシャッタ
119 ジャイロセンサ
111 垂直駆動変調部
112 制御部
113 ROM
114 RAM
115 通信部
102 ウェアラブルデバイス
132 電源モジュール
131 通信モジュール
133 コネクタ
134 インカメラ
135 アウトカメラ
136 ライト
137 システムメモリ
138 制御部
139 スピーカー
141 タッチスクリーンディスプレイ
142 液晶ディスプレイ
143 タッチスクリーン
144 スイッチ
145 照度センサ
147 ジャイロセンサ
148 奥行きセンサ
151 ROM
152 RAM
146 加速度センサ
REFERENCE SIGNS
114 RAMs
115
152 RAMs
146 acceleration sensor
Claims (15)
前記撮像手段が撮像した画像を用いて前記被写体の動きを検出する被写体動き検出手段と、
外部装置から送信されたセンシング結果を受信する受信手段と
前記撮像手段の露出を制御する露出制御手段と、を備えた撮像装置と
被写体の情報を取得するセンサ手段と、
前記センサ手段のセンシング結果を前記撮像装置に送信する送信手段と、を備えた
前記撮像手段とは異なる、撮影する被写体に装着するセンサ装置からなる撮像システムであって、
前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センサ手段のセンシング結果と、前記被写体動き検出手段の結果を用いて前記撮像手段の露出制御を行うことを特徴とする撮像システム。 imaging means for imaging a subject;
subject movement detection means for detecting movement of the subject using the image captured by the imaging means;
an imaging device comprising: a receiving means for receiving sensing results transmitted from an external device; and an exposure control means for controlling exposure of the imaging means; a sensor means for acquiring subject information;
an imaging system comprising a sensor device attached to a subject to be photographed, which is different from the imaging means and which transmits a sensing result of the sensor means to the imaging device,
The imaging system, wherein the imaging device receives a sensing result of the sensor means, and performs exposure control of the imaging means using the sensing result of the sensor means and the result of the subject movement detection means.
前記露出制御手段は前記動きベクトルを用いて、前記撮像装置の露出の制御を行うことを特徴とする請求項1乃至4のいずれか1項に記載の撮像システム。 the subject motion detection means calculates a motion vector of the subject using the image captured by the imaging means;
5. The imaging system according to claim 1, wherein said exposure control means controls exposure of said imaging device using said motion vector.
前記露出制御手段は前記選択した動きベクトルを用いて、前記撮像装置の露出制御を行うことを特徴とする請求項5に記載の撮像システム。 the subject motion detection means selects the motion vector using the sensing result of the sensor means;
6. The imaging system according to claim 5, wherein said exposure control means controls exposure of said imaging device using said selected motion vector.
前記露出制御手段は前記信頼度が閾値以上の動きベクトルを用いて、前記撮像装置の露出制御を行うことを特徴とする請求項5または6に記載の撮像システム。 a calculating means for calculating reliability of the accuracy of the motion vector;
7. The imaging system according to claim 5, wherein said exposure control means performs exposure control of said imaging device using a motion vector whose reliability is equal to or greater than a threshold.
前記露出制御手段は前記補正手段が補正した前記動きベクトルを用いて、前記撮像装置の露出制御を行うことを特徴とする請求項5乃至7のいずれか1項に記載の撮像システム。 a correction means for correcting the motion vector based on the sensing result of the sensor means;
8. The imaging system according to claim 5, wherein said exposure control means controls exposure of said imaging device using said motion vector corrected by said correction means.
前記露出制御手段は前記ブレ量推定手段の結果に基づいて、前記撮像装置の露出制御を行うことを特徴とする請求項5乃至8のいずれか1項に記載の撮像システム。 Blur amount estimating means for estimating the blur amount of an image when photographed based on the calculation of the motion vector of the subject motion detecting means and the exposure time set by the exposure control means,
9. The imaging system according to any one of claims 5 to 8, wherein said exposure control means controls exposure of said imaging device based on the result of said blur amount estimation means.
前記露出制御手段は、前記主要センサ装置のセンシング結果と、前記被写体動き検出手段の結果を用いて前記撮像装置の露出を制御することを特徴とする請求項1乃至請求項11のいずれか1項に記載の撮像システム。 The imaging device has a determining means for determining a main sensor device from among the plurality of sensor devices when there are a plurality of the sensor devices,
12. The exposure control means controls the exposure of the imaging device using the sensing result of the main sensor device and the result of the subject movement detection means. The imaging system according to .
前記優先度算出手段は、センサ装置の加速度が大きい、画像の中心からの距離が近い、カメラからの距離が近い、センサ装置を装着している被写体の面積が大きい、センサ装置を装着している部位の面積が大きいほど優先度を高く算出することを特徴とする請求項12に記載の撮像システム。 The determination means comprises priority calculation means for calculating a priority indicating that the sensor device is a primary sensor device,
The priority calculation means determines that the acceleration of the sensor device is large, the distance from the center of the image is short, the distance from the camera is short, the area of the subject wearing the sensor device is large, and the subject is wearing the sensor device. 13. The imaging system according to claim 12, wherein the larger the area of the part, the higher the priority calculated.
前記撮像ステップにて撮像した画像を用いて前記被写体の動きを検出する被写体動き検出ステップと、
外部装置から送信されたセンシング結果を受信する受信ステップと
前記撮像手段の露出を制御する露出制御ステップと、を備えた撮像装置の制御ステップと、
被写体の情報を取得するセンシングステップと、
前記センサ手段のセンシング結果を前記撮像装置に送信する送信ステップと、を備えた
前記撮像装置とは異なる、撮影する被写体に装着するセンサ装置の制御ステップからなる撮像システムの制御方法であって、
前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センシングステップのセンシング結果と、前記被写体動き検出ステップの結果を用いて前記撮像手段の露出制御ステップを実行することを特徴とする撮像システムの制御方法。 an imaging step of imaging a subject;
a subject movement detection step of detecting movement of the subject using the image captured in the image capturing step;
an imaging device control step comprising a receiving step of receiving a sensing result transmitted from an external device and an exposure control step of controlling exposure of the imaging means;
a sensing step for acquiring subject information;
A control method for an imaging system comprising a step of controlling a sensor device attached to a subject to be photographed, which is different from the imaging device, and a transmission step of transmitting the sensing result of the sensor means to the imaging device,
The imaging system, wherein the imaging device receives a sensing result of the sensor means, and executes an exposure control step of the imaging means using the sensing result of the sensing step and the result of the subject movement detection step. control method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022022342A JP2023119433A (en) | 2022-02-16 | 2022-02-16 | System, apparatus, and control method |
US18/164,036 US20230269488A1 (en) | 2022-02-16 | 2023-02-03 | Imaging system, control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022022342A JP2023119433A (en) | 2022-02-16 | 2022-02-16 | System, apparatus, and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023119433A true JP2023119433A (en) | 2023-08-28 |
Family
ID=87574882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022022342A Pending JP2023119433A (en) | 2022-02-16 | 2022-02-16 | System, apparatus, and control method |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230269488A1 (en) |
JP (1) | JP2023119433A (en) |
-
2022
- 2022-02-16 JP JP2022022342A patent/JP2023119433A/en active Pending
-
2023
- 2023-02-03 US US18/164,036 patent/US20230269488A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230269488A1 (en) | 2023-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9479692B2 (en) | Image capturing apparatus and method for controlling the same | |
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
KR101537948B1 (en) | Photographing method and apparatus using pose estimation of face | |
US10708503B2 (en) | Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium | |
KR20150078275A (en) | Digital Photographing Apparatus And Method For Capturing a Moving Subject | |
JP6391304B2 (en) | Imaging apparatus, control method, and program | |
WO2019082831A1 (en) | Image capturing device, method for controlling image capturing device, and program | |
RU2635873C2 (en) | Method and device for displaying framing information | |
JP6429915B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
US20160088219A1 (en) | Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium | |
JP2018033013A (en) | Control device, imaging apparatus, control method, program, and memory medium | |
JP6758950B2 (en) | Imaging device, its control method and program | |
US20200177814A1 (en) | Image capturing apparatus and method of controlling image capturing apparatus | |
JP2001255451A (en) | Automatic focusing device, digital camera and portable information input device | |
JP2023119433A (en) | System, apparatus, and control method | |
JP2008301161A (en) | Image processing device, digital camera, and image processing method | |
US20240147078A1 (en) | Photographing system having exposure control with sensing result, photographing device, and controlling method | |
JP2010050746A (en) | Imaging apparatus and control method thereof | |
JP2020072392A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
JP2019083518A (en) | Imaging device, control method thereof, and program | |
JP2019216398A (en) | Imaging apparatus and control method therefor, and program | |
JP2015037219A (en) | Imaging apparatus, imaging method, and program | |
US11553136B2 (en) | Subject tracking device, subject tracking method, and storage medium | |
JP7475846B2 (en) | Information processing device, imaging device, information processing method, and imaging device control method | |
JP6949803B2 (en) | Imaging device, its control method, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |