JP2017224905A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2017224905A
JP2017224905A JP2016117509A JP2016117509A JP2017224905A JP 2017224905 A JP2017224905 A JP 2017224905A JP 2016117509 A JP2016117509 A JP 2016117509A JP 2016117509 A JP2016117509 A JP 2016117509A JP 2017224905 A JP2017224905 A JP 2017224905A
Authority
JP
Japan
Prior art keywords
acquisition mode
image acquisition
image
time
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016117509A
Other languages
Japanese (ja)
Inventor
知彦 高山
Tomohiko Takayama
知彦 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016117509A priority Critical patent/JP2017224905A/en
Publication of JP2017224905A publication Critical patent/JP2017224905A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus generating a WDR image where the impact of motion blur is reduced.SOLUTION: An imaging apparatus includes: imaging means for imaging a subject; image acquisition mode changeover means for changing over a time division image acquisition mode where a long time exposure frame and a short time exposure frame are acquired sequentially, and a space division image acquisition mode for acquiring a frame where a long time exposure pixel and a short time exposure pixel are mixed; and wide dynamic range processing means executing wide dynamic range processing for an image group acquired by the time division image acquisition mode, or an image group acquired by the space division image acquisition mode. In the imaging apparatus, a detection method of information used for changing over from the time division image acquisition mode to the space division image acquisition mode, is different from a detection method of information used for changing over from the space division image acquisition mode to the time division image acquisition mode.SELECTED DRAWING: Figure 8

Description

本発明は、撮像装置、撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

従来の撮像装置において、撮像装置のダイナミックレンジを超える撮影シーンでは、輝度の高い被写体の画像が白飛びする、もしくは、輝度の低い被写体の画像が黒つぶれする、などの課題があった。   In a conventional imaging device, in a shooting scene that exceeds the dynamic range of the imaging device, there has been a problem that an image of a subject with high brightness is blown out or an image of a subject with low brightness is blacked out.

そこで、露光時間の長い画像と露光時間の短い画像の2枚の画像を合成して、擬似的にダイナミックレンジの大きな画像を生成するWDR(Wide Dynamic Range、ワイドダイナミックレンジ)技術が提案されている。WDR技術により、ダイナミックレンジが大きいシーンの撮影であっても、白飛びや黒つぶれを低減した画像を提示できる。   Therefore, a WDR (Wide Dynamic Range) technique has been proposed in which two images, an image with a long exposure time and an image with a short exposure time, are combined to generate an image with a pseudo dynamic range. . The WDR technology can present an image with reduced whiteout and underexposure even when shooting a scene with a large dynamic range.

一方、撮像装置、もしくは、被写体に動きがある場合にWDR処理を実施すると、露光時間の異なる2枚の画像それぞれで、撮像装置と被写体の相対的な動きによる動きブレの影響が発生し、合成画像の画質が劣化する可能性がある、という課題があった。   On the other hand, if WDR processing is performed when there is motion in the imaging device or the subject, motion blur due to relative motion between the imaging device and the subject occurs in each of the two images with different exposure times, and synthesis is performed. There was a problem that the image quality of the image may deteriorate.

本課題を解決する技術として、撮像装置、もしくは、被写体の動き量に応じて、複数枚の異なる露光時間の画像を用いたWDR処理(フレーム間WDR)と同一フレームの異なる露光時間の画像を用いたWDR処理(フレーム内WDR)を選択する技術が提案されている(特許文献1)。   As a technique for solving this problem, an image capturing apparatus or an image having a different exposure time in the same frame is used for WDR processing (inter-frame WDR) using a plurality of images having different exposure times according to the amount of movement of a subject. A technique for selecting a WDR process (intra-frame WDR) has been proposed (Patent Document 1).

同様に、撮像装置、もしくは、被写体の動きに応じて、フレーム間WDR、フレーム内WDRを選択できる技術が提案されている(特許文献2)。   Similarly, a technique has been proposed in which an inter-frame WDR and an intra-frame WDR can be selected in accordance with the movement of an imaging device or subject (Patent Document 2).

特開2014−146850号公報JP 2014-146850 A 特開2010−239277号公報JP 2010-239277 A

特許文献1、及び、特許文献2で示された技術により、WDR処理の動きブレの影響を低減することができる。   With the techniques disclosed in Patent Document 1 and Patent Document 2, it is possible to reduce the influence of motion blur in WDR processing.

しかしながら、特許文献1、及び、特許文献2に示された技術は、フレーム間WDRの画像取得モード(領域ごとに異なる露光時間を有する単一のフレームを取得するモード)とフレーム内WDRの画像取得モード(複数枚の異なる露光時間のフレームを取得するモード)の取得画像の違いによる動き量の検出精度の違いを考慮していない。   However, the techniques disclosed in Patent Document 1 and Patent Document 2 are based on the inter-frame WDR image acquisition mode (a mode for acquiring a single frame having a different exposure time for each region) and intra-frame WDR image acquisition. The difference in motion amount detection accuracy due to the difference in acquired images in the mode (a mode in which a plurality of frames having different exposure times is acquired) is not taken into consideration.

本発明は、上記従来の課題を鑑み、WDR処理を行うための画像取得モードの違いを考慮して、フレーム内WDRとフレーム間WDRのそれぞれの画像取得モードに応じた撮像装置、もしくは、被写体の動きに相当する情報の検出を行う撮像装置を提供することを目的とする。   In view of the above-described conventional problems, the present invention takes into consideration the difference in image acquisition modes for performing WDR processing, and an imaging device or an object corresponding to each image acquisition mode of intra-frame WDR and inter-frame WDR. An object of the present invention is to provide an imaging device that detects information corresponding to movement.

上記の目的を達成するために、本発明に係る撮像装置は、
被写体を撮像する撮像手段と、長時間露光のフレームと短時間露光のフレームを順次取得する時分割画像取得モードと長時間露光の画素と短時間露光の画素が混在するフレームを取得する空間分割画像取得モードとを切り換える画像取得モード切り替え手段と、時分割画像取得モードで取得した画像群、もしくは、空間分割画像取得モードで取得した画像群に対してワイドダイナミックレンジ処理を実行するワイドダイナミックレンジ処理手段と、を備えた撮像装置において、時分割画像取得モードから空間分割画像取得モードへの切り替えと空間分割画像取得モードから時分割画像取得モードへの切り替えに用いる情報の検出方法が異なることを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention includes:
Imaging means for imaging a subject, time-division image acquisition mode for sequentially acquiring a long-exposure frame and a short-exposure frame, and a spatially-divided image for acquiring a frame in which long-exposure pixels and short-exposure pixels are mixed Image acquisition mode switching means for switching between acquisition modes, and wide dynamic range processing means for performing wide dynamic range processing on an image group acquired in time-division image acquisition mode or an image group acquired in space-division image acquisition mode And a method of detecting information used for switching from the time division image acquisition mode to the space division image acquisition mode and from the space division image acquisition mode to the time division image acquisition mode are different. To do.

本発明に係る撮像システムは、
本発明に係る撮像装置と、前記撮像装置で取得された画像を処理する情報処理装置と、を有することを特徴とする。
An imaging system according to the present invention includes:
An image pickup apparatus according to the present invention and an information processing apparatus that processes an image acquired by the image pickup apparatus are provided.

本発明によれば、動きブレの影響を低減したWDR画像を生成する撮像装置を提供することができる。特に、画像取得モードそれぞれで異なる動き情報を用いることで、動きが大きい場合であっても安定して動き情報を取得することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which produces | generates the WDR image which reduced the influence of motion blur can be provided. In particular, by using different motion information for each image acquisition mode, it is possible to stably acquire motion information even when the motion is large.

撮像システムの装置構成の全体図Overall view of the system configuration of the imaging system 撮像装置の機能ブロック図Functional block diagram of imaging device 時分割画像取得モードでのWDR処理を説明する模式図Schematic diagram illustrating WDR processing in time-division image acquisition mode 空間分割画像取得モードでのWDR処理を説明する模式図Schematic diagram illustrating WDR processing in the space-divided image acquisition mode 基本的なWDR処理フローを説明するフローチャートFlow chart explaining basic WDR processing flow 時分割画像取得モードから空間分割画像取得モードへの切り替えを説明する模式図Schematic diagram explaining switching from time-division image acquisition mode to space-division image acquisition mode 空間分割画像取得モードから時分割画像取得モードへの切り替えを説明する模式図Schematic diagram explaining switching from space division image acquisition mode to time division image acquisition mode 動き量、もしくは、ブレ量による画像取得モードの切り替えを説明するフローチャートFlow chart explaining switching of image acquisition mode based on movement amount or blur amount 動き量、もしくは、ブレ量と解像感の関係を説明する模式図Schematic diagram explaining the amount of movement or the relationship between blur and resolution

以下、図面を参照しながら本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(撮像システムの装置構成)
本発明の撮像システムの構成を、図1を用いて説明する。
(Device configuration of the imaging system)
The configuration of the imaging system of the present invention will be described with reference to FIG.

撮像システムは、撮像装置(監視カメラ、または、ネットワークカメラ)101、情報処理装置102、表示装置103から構成される。撮像装置101と情報処理装置102との間は、汎用I/Fのケーブル104、ネットワーク105、汎用I/Fのケーブル106で接続される。情報処理装置102と表示装置103との間は、汎用のI/Fのケーブル107で接続される。   The imaging system includes an imaging device (monitoring camera or network camera) 101, an information processing device 102, and a display device 103. The imaging apparatus 101 and the information processing apparatus 102 are connected by a general-purpose I / F cable 104, a network 105, and a general-purpose I / F cable 106. The information processing apparatus 102 and the display apparatus 103 are connected by a general-purpose I / F cable 107.

撮像装置101は、パン・チルト・ズーム・ローテーション・フォーカス機能などを有する監視カメラ、または、ネットワークカメラである。撮像装置101は、所定画角の動画像を撮像し、動画像データを含む各種データを汎用I/Fのケーブル104、ネットワーク105、汎用I/Fのケーブル106を介して情報処理装置102に配信する。各種データには、パン角、チルト角、ローテーション角や、ズーム倍率、フォーカス位置、露出、ホワイトバランスなどの撮像設定などが含まれる。   The imaging device 101 is a surveillance camera having a pan / tilt / zoom / rotation / focus function, or a network camera. The imaging apparatus 101 captures a moving image having a predetermined angle of view, and distributes various data including moving image data to the information processing apparatus 102 via the general-purpose I / F cable 104, the network 105, and the general-purpose I / F cable 106. To do. Various data includes imaging settings such as pan angle, tilt angle, rotation angle, zoom magnification, focus position, exposure, and white balance.

情報処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部、各種I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。撮像装置101から配信される動画像データや各種データを取得し、表示装置103にそれらの情報を表示する。また、撮像装置101に対して、パン角、チルト角、ローテーション角や、ズーム倍率、フォーカス位置、露出、ホワイトバランスなどの撮像設定などを制御する制御コマンドを送信して、撮像装置101の動作を制御する。   The information processing apparatus 102 includes a general-purpose computer or workstation including hardware resources such as a CPU (Central Processing Unit), a RAM, a storage device, an operation unit, and various I / Fs. The moving image data and various data distributed from the imaging device 101 are acquired, and the information is displayed on the display device 103. Also, control commands for controlling imaging settings such as pan angle, tilt angle, rotation angle, zoom magnification, focus position, exposure, white balance, and the like are transmitted to the imaging apparatus 101 to operate the imaging apparatus 101. Control.

表示装置103は、情報処理装置102が処理した結果である動画像データや各種データを表示するディスプレイであり、液晶ディスプレイなどが用いられる。   The display device 103 is a display that displays moving image data and various types of data as a result of processing by the information processing device 102, and a liquid crystal display or the like is used.

汎用I/Fのケーブル104、106は、例えばGigabitEthernet(登録商標)などの通信規格を満足するツイストペアケーブル、光ファイバーケーブルなどの、所謂、LAN(Local Area Network)ケーブルである。なお、汎用I/Fのケーブル104、106は有線LANに限らず、無線LANで構成しても良い。   The general-purpose I / F cables 104 and 106 are so-called LAN (Local Area Network) cables such as twisted pair cables and optical fiber cables that satisfy communication standards such as Gigabit Ethernet (registered trademark). Note that the general-purpose I / F cables 104 and 106 are not limited to a wired LAN but may be a wireless LAN.

ネットワーク105は、ルータ、スイッチ、ケーブルなどで構成されるLAN(Local Area Network)やWAN(Wide Area Network)である。   The network 105 is a LAN (Local Area Network) or a WAN (Wide Area Network) configured by routers, switches, cables, and the like.

本発明の撮像システムは、撮像装置101をサーバ、情報処理装置102をクライアントとしたクライアントサーバシステムを構成できる。撮像装置101は複数の情報処理装置102と接続でき、複数の情報処理装置102が撮像装置101の動画像データを取得できる。また、撮像装置101の制御権の受け渡しを管理することで、複数の情報処理装置102が撮像装置101を制御できる。   The imaging system of the present invention can constitute a client server system in which the imaging apparatus 101 is a server and the information processing apparatus 102 is a client. The imaging apparatus 101 can be connected to a plurality of information processing apparatuses 102, and the plurality of information processing apparatuses 102 can acquire moving image data of the imaging apparatus 101. In addition, by managing the transfer of the control right of the imaging apparatus 101, a plurality of information processing apparatuses 102 can control the imaging apparatus 101.

図1の例では、撮像装置101、情報処理装置102と表示装置103の3つの装置により撮像システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、ノートPCやタブレット型端末のように表示装置と一体化した情報処理装置を用いても良い。また、情報処理装置の機能を撮像装置に組み込んでも良い。   In the example of FIG. 1, the imaging system is configured by three devices, that is, the imaging device 101, the information processing device 102, and the display device 103, but the configuration of the present invention is not limited to this configuration. For example, an information processing device integrated with a display device such as a notebook PC or a tablet terminal may be used. Further, the function of the information processing apparatus may be incorporated in the imaging apparatus.

(撮像装置の機能構成)
図2は撮像装置101の機能ブロック図である。
(Functional configuration of imaging device)
FIG. 2 is a functional block diagram of the imaging apparatus 101.

撮像装置101は、概略、レンズユニット201、画像処理ユニット202、メイン制御部203から構成される。   The imaging apparatus 101 is roughly configured by a lens unit 201, an image processing unit 202, and a main control unit 203.

レンズユニット201は、概略、撮像ユニット204、撮像レンズ205から構成される。   The lens unit 201 generally includes an imaging unit 204 and an imaging lens 205.

撮像ユニット204は、撮像センサとアナログフロントエンド(AFE)から構成される。撮像センサは2次元の光学像を光電変換によって電気的な物理量へ変える2次元のイメージセンサであり、例えば、CCDやCMOSデバイスが用いられる。撮像センサからは、光の強度に応じた電圧値をもつ電気信号が出力される。撮像画像データとしてカラー画像データが所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いれば良い。AFEは、撮像センサの動作を制御する回路、及び、撮像センサから出力されたアナログ信号をデジタル信号へ変換する回路である。   The imaging unit 204 includes an imaging sensor and an analog front end (AFE). The imaging sensor is a two-dimensional image sensor that changes a two-dimensional optical image into an electrical physical quantity by photoelectric conversion. For example, a CCD or a CMOS device is used. An electrical signal having a voltage value corresponding to the intensity of light is output from the imaging sensor. When color image data is desired as the captured image data, for example, a single-plate image sensor to which a Bayer array color filter is attached may be used. The AFE is a circuit that controls the operation of the image sensor and a circuit that converts an analog signal output from the image sensor into a digital signal.

AFEは、H/Vドライバ、CDS(Correlated Double Sampling)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサを駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する相関2重サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の画像処理ユニット202で現像処理される。タイミングジェネレータは、撮像センサのタイミングおよび後段の画像処理ユニット202のタイミングを調整する信号を生成する。撮像センサとしてCCDを用いる場合、上記AFEは必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFEの機能をセンサに内包できる。   The AFE includes an H / V driver, a CDS (Correlated Double Sampling), an amplifier, an AD converter, and a timing generator. The H / V driver converts a vertical synchronization signal and a horizontal synchronization signal for driving the image sensor into potentials necessary for driving the sensor. CDS is a correlated double sampling circuit that removes fixed pattern noise. The amplifier is an analog amplifier that adjusts the gain of an analog signal from which noise has been removed by CDS. The AD converter converts an analog signal into a digital signal. When the output at the final stage of the imaging apparatus is 8 bits, the AD converter converts the analog signal into digital data quantized from about 10 bits to about 16 bits and outputs it in consideration of subsequent processing. The converted sensor output data is called RAW data. The RAW data is developed by the subsequent image processing unit 202. The timing generator generates a signal for adjusting the timing of the image sensor and the timing of the image processing unit 202 at the subsequent stage. When a CCD is used as an image sensor, the AFE is indispensable, but in the case of a CMOS image sensor capable of digital output, the function of the AFE can be included in the sensor.

撮像レンズ205は、複数のレンズ群により構成される。ズーム機能やフォーカス機能を実現する場合には、群ごとにレンズが移動するモータ機構などの駆動部が追加される。   The imaging lens 205 includes a plurality of lens groups. When realizing a zoom function or a focus function, a drive unit such as a motor mechanism that moves a lens for each group is added.

画像処理ユニット202は、現像処理ユニット206、WDR処理ユニット207、通信ユニット208から構成される。   The image processing unit 202 includes a development processing unit 206, a WDR processing unit 207, and a communication unit 208.

現像処理ユニット206は、黒補正部、デモザイキング処理部、ホワイトバランス調整部、フィルタ処理部、ガンマ補正部などから構成される。なお、黒補正部、デモザイキング処理部、ホワイトバランス調整部、フィルタ処理部、ガンマ補正部は不図示である。黒補正部は、RAWデータの各画素の値から、バックグラウンド(遮光時に得られた黒補正データ)を減算する処理を行う。デモザイキング処理部は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部は、RAWデータにおける周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。また、デモザイキング処理部は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサがカラーフィルタを有しておらず、単色の画像データが得られている場合、デモザイキング処理は不要となり、欠陥画素の補正処理を実行する。ホワイトバランス調整部は、撮像環境の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。フィルタ処理部は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。ガンマ補正部は、画像に一般的な表示デバイスの階調表現特性の逆特性を付加する処理や、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行する。   The development processing unit 206 includes a black correction unit, a demosaicing processing unit, a white balance adjustment unit, a filter processing unit, a gamma correction unit, and the like. The black correction unit, demosaicing processing unit, white balance adjustment unit, filter processing unit, and gamma correction unit are not shown. The black correction unit performs a process of subtracting the background (black correction data obtained at the time of light shielding) from the value of each pixel of the RAW data. The demosaicing processing unit performs processing for generating image data of each color of RGB from the RAW data in the Bayer array. The demosaicing processing unit calculates the value of each RGB color of the target pixel by interpolating the values of peripheral pixels (including pixels of the same color and other colors) in the RAW data. The demosaicing processing unit also executes defective pixel correction processing (interpolation processing). Note that when the image sensor does not have a color filter and single-color image data is obtained, the demosaicing process is not necessary, and the defective pixel correction process is executed. The white balance adjustment unit performs a process of reproducing a desired white color by adjusting the gain of each RGB color according to the color temperature of the imaging environment. The filter processing unit is a digital filter that realizes suppression of high-frequency components included in an image, noise removal, and resolution enhancement. The gamma correction unit performs processing to add the inverse characteristics of the gradation expression characteristics of general display devices to images, and gradation conversion that matches human visual characteristics by gradation compression and dark area processing in high-luminance areas. .

WDR処理ユニット207は、画像回復処理部、画像合成部から構成される。なお、画像回復処理部、画像合成部は不図示である。本撮像装置101でWDR処理を実行する場合には、画像取得のモードとして、時分割画像取得モード、もしくは、空間分割画像取得モードが実行される。WDR処理ユニット207では、それぞれの画像取得モードに応じたWDR処理を実行する。時分割画像取得モードでは、短時間露光画像のフレームデータと長時間露光画像のフレームデータが順々に入力される。WDR処理ユニット207の画像合成部では、それらの2フレーム分のフレームデータを合成してWDR画像を生成する処理を実行する。(時分割画像取得モードでは、画像回復処理は実行されない。)空間分割画像取得モードでは、単一フレーム内に短時間露光領域と長時間露光領域を有するフレームデータが入力される。まず、WDR処理ユニット207の画像回復処理部では、単一フレーム内の短時間露光領域を用いて補間処理により短時間露光フレームデータを生成し、同様に、単一フレーム内の長時間露光領域を用いて補間処理により長時間露光フレームデータを生成する。そして、画像合成部では、画像合成部では、それらの2フレーム分のフレームデータを合成してWDR画像を生成する処理を実行する。時分割画像取得モードでのWDR処理、及び、空間分割画像取得モードでのWDR処理については、それぞれ、図3、図4で説明する。   The WDR processing unit 207 includes an image restoration processing unit and an image composition unit. The image restoration processing unit and the image composition unit are not shown. When the WDR process is executed by the imaging apparatus 101, a time division image acquisition mode or a space division image acquisition mode is executed as an image acquisition mode. The WDR processing unit 207 executes WDR processing corresponding to each image acquisition mode. In the time-division image acquisition mode, the frame data of the short exposure image and the frame data of the long exposure image are sequentially input. The image synthesizing unit of the WDR processing unit 207 executes a process of synthesizing these two frames of frame data to generate a WDR image. (In the time-division image acquisition mode, image restoration processing is not executed.) In the space-division image acquisition mode, frame data having a short exposure area and a long exposure area in a single frame is input. First, the image restoration processing unit of the WDR processing unit 207 generates short-time exposure frame data by interpolation processing using the short-time exposure area in the single frame, and similarly, the long-time exposure area in the single frame is generated. Long-time exposure frame data is generated by interpolation processing. In the image composition unit, the image composition unit executes a process of generating a WDR image by combining the frame data for the two frames. The WDR processing in the time division image acquisition mode and the WDR processing in the space division image acquisition mode will be described with reference to FIGS. 3 and 4, respectively.

通信ユニット208は、圧縮処理部、通信I/Fから構成される。現像処理ユニット206によって生成された画像データに圧縮処理を行い、圧縮処理された画像データをネットワーク105を介して情報処理装置102に送信する。圧縮処理部は、2次元画像データの伝送の効率化および保存する際の容量削減が目的で行われる圧縮の符号化処理を実行する。動画像の圧縮手法として、H.264やH.265などの規格化された符号化方式が広く一般に知られている。また、静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。通信I/Fは、圧縮処理された画像データをネットワーク105を介して情報処理装置102に送信するためのインターフェースである。   The communication unit 208 includes a compression processing unit and a communication I / F. The image data generated by the development processing unit 206 is compressed, and the compressed image data is transmitted to the information processing apparatus 102 via the network 105. The compression processing unit executes a compression encoding process performed for the purpose of improving the efficiency of transmission of two-dimensional image data and reducing the capacity for storage. As a moving image compression method, H.264 is used. H.264 and H.264. Standardized encoding schemes such as H.265 are widely known. Further, as a still image compression technique, standardized encoding methods such as JPEG (Joint Photographic Experts Group) and JPEG 2000 and JPEG XR improved and evolved from JPEG are widely known. The communication I / F is an interface for transmitting the compressed image data to the information processing apparatus 102 via the network 105.

メイン制御部203は、情報処理装置102から送信される各種制御コマンドを通信ユニット208を介して取得し、取得した制御コマンドを解析する。解析結果に応じて、制御コマンドを撮像ユニット204、現像処理ユニット206、WDR処理ユニット207に送信する。また、撮像ユニット204、現像処理ユニット206、WDR処理ユニット207から制御コマンドに対する応答コマンドを受信し、受信した応答コマンドを通信ユニット208を介して情報処理装置102に送信する。メイン制御部203で制御する内容には、画像取得モードの切り替え制御も含まれる。画像取得モードの切り替え制御については図6から図9で説明する。   The main control unit 203 acquires various control commands transmitted from the information processing apparatus 102 via the communication unit 208, and analyzes the acquired control commands. A control command is transmitted to the imaging unit 204, the development processing unit 206, and the WDR processing unit 207 according to the analysis result. In addition, a response command to the control command is received from the imaging unit 204, the development processing unit 206, and the WDR processing unit 207, and the received response command is transmitted to the information processing apparatus 102 via the communication unit 208. The contents controlled by the main control unit 203 include image acquisition mode switching control. Image acquisition mode switching control will be described with reference to FIGS.

(時分割画像取得モード)
図3は時分割画像取得モードでのWDR処理を説明する模式図である。
(Time-division image acquisition mode)
FIG. 3 is a schematic diagram illustrating WDR processing in the time-division image acquisition mode.

時分割画像取得モードでは、短時間露光画像のフレームデータと長時間露光画像のフレームデータを順次撮像する。それらの2フレーム分のフレームデータを合成してWDR画像を生成する処理を実行する。   In the time division image acquisition mode, the frame data of the short exposure image and the frame data of the long exposure image are sequentially captured. A process of generating a WDR image by combining the frame data of these two frames is executed.

時分割画像取得モードでは、画像撮像レートと比べてWDR画像出力レートは低速となるが、合成処理前の元画像データの情報量が多いため、空間分割画像取得モードでのWDR処理と比較して高画質なWDR画像が生成できるという特徴がある。   In the time-division image acquisition mode, the WDR image output rate is lower than the image capture rate. There is a feature that a high-quality WDR image can be generated.

(空間分割画像取得モード)
図4は空間分割画像取得モードでのWDR処理を説明する模式図である。
(Space division image acquisition mode)
FIG. 4 is a schematic diagram for explaining the WDR processing in the space division image acquisition mode.

空間分割画像取得モードでは、単一フレーム内に短時間露光領域と長時間露光領域を有するフレームデータを順次撮像する。そして、単一フレーム内の短時間露光領域を用いて補間処理により短時間露光フレームデータを生成し、同様に、単一フレーム内の長時間露光領域を用いて補間処理により長時間露光フレームデータを生成する。それらの2フレーム分のフレームデータを合成してWDR画像を生成する処理を実行する。   In the space division image acquisition mode, frame data having a short exposure area and a long exposure area in a single frame are sequentially captured. Then, short-time exposure frame data is generated by interpolation processing using the short-time exposure area in a single frame, and similarly long-time exposure frame data is generated by interpolation processing using the long-time exposure area in a single frame. Generate. A process of generating a WDR image by combining the frame data of these two frames is executed.

単一フレーム内の短時間露光領域と長時間露光領域とは、例えば、偶数ラインが長時間露光領域に対応し、奇数ラインが短時間露光領域に対応する。短時間露光領域と長時間露光領域の分割方法に限定はなく、市松模様の領域分割でも良い。   In the short exposure area and the long exposure area in a single frame, for example, even lines correspond to long exposure areas and odd lines correspond to short exposure areas. There is no limitation on the method of dividing the short-time exposure region and the long-time exposure region, and checkered region division may be used.

空間分割画像取得モードでは、合成処理前の元画像データの情報量が少ないため、時分割画像取得モードでのWDR処理と比較してWDR画像の画質が劣化する可能性がある。一方、画像撮像レートとWDR画像出力レートは同一にでき、時分割画像取得モードでのWDR処理と比較して高速撮像ができる。   In the space division image acquisition mode, since the amount of information of the original image data before the synthesis process is small, the image quality of the WDR image may be deteriorated as compared with the WDR process in the time division image acquisition mode. On the other hand, the image capturing rate and the WDR image output rate can be made the same, and high-speed imaging can be performed as compared with the WDR processing in the time division image acquisition mode.

図3、図4では、合成処理を実行する元画像データを、短時間露光画像と長時間露光画像の2フレーム分のフレームデータとして説明したが、それに限定されず、露光時間が異なる複数フレーム分のフレームデータを用いることができる。また、合成処理を実行する元画像データは、ゲインの異なる複数フレーム分のフレームデータ、絞り状態の異なる複数フレーム分のフレームデータなど、明るさの異なる複数フレーム分のフレームデータを用いることができる。   In FIG. 3 and FIG. 4, the original image data for executing the composition processing has been described as frame data for two frames of a short-time exposure image and a long-time exposure image. Frame data can be used. The original image data to be subjected to the synthesis process can use frame data for a plurality of frames having different brightnesses, such as frame data for a plurality of frames having different gains and frame data for a plurality of frames having different aperture states.

(WDR処理フロー)
図5は基本的なWDR処理フローを説明するフローチャートである。
(WDR processing flow)
FIG. 5 is a flowchart for explaining a basic WDR processing flow.

図5(a)は時分割画像取得モードでのWDR処理フローを説明するフローチャートである。   FIG. 5A is a flowchart for explaining the WDR processing flow in the time-division image acquisition mode.

ステップS501では、画像取得モードを設定する。メイン制御部203が撮像ユニット204、現像処理ユニット206、WDR処理ユニット207に制御コマンドを送信して、時分割画像取得モードで画像データを取得するためのパラメータ設定を各ユニットで実行する。撮像ユニット204は短時間露光画像データと長時間露光画像データを順次取得する動作設定となり、現像処理ユニット206は各画像データに適した現像処理を実行する設定となる。   In step S501, an image acquisition mode is set. The main control unit 203 transmits control commands to the imaging unit 204, the development processing unit 206, and the WDR processing unit 207, and executes parameter setting for acquiring image data in the time-division image acquisition mode in each unit. The imaging unit 204 has an operation setting for sequentially acquiring the short-exposure image data and the long-exposure image data, and the development processing unit 206 has a setting for executing a development process suitable for each image data.

ステップS502では、WDR処理ユニット207が短時間露光画像データを取得する。   In step S502, the WDR processing unit 207 acquires short-time exposure image data.

ステップS503では、WDR処理ユニット207が長時間露光画像データを取得する。
ステップS504では、WDR処理ユニット207の画像合成部にて、短時間露光画像データと長時間露光画像データの合成処理を実行し、WDR画像を生成する。
In step S503, the WDR processing unit 207 acquires long-time exposure image data.
In step S504, the image composition unit of the WDR processing unit 207 executes a composition process of the short exposure image data and the long exposure image data to generate a WDR image.

ステップS505では、WDR処理ユニット207で生成したWDR画像を通信ユニット208へ送信する。   In step S505, the WDR image generated by the WDR processing unit 207 is transmitted to the communication unit 208.

ステップS506では、WDR処理を終了するか否かを判断し、終了する場合には本フローを終了する。終了しない場合には、S502に戻って処理フローを継続する。   In step S506, it is determined whether or not to end the WDR process. If not, the process returns to S502 and the process flow is continued.

図5(b)は空間分割画像取得モードでのWDR処理フローを説明するフローチャートである。   FIG. 5B is a flowchart for explaining the WDR processing flow in the space division image acquisition mode.

ステップS507では、画像取得モードを設定する。S501と同様の処理内容のため説明を省略する。   In step S507, an image acquisition mode is set. Description of the processing contents similar to S501 will be omitted.

ステップS508では、WDR処理ユニット207が露光時間混在画像データを取得する。露光時間混在画像データとは、単一フレーム内に短時間露光領域と長時間露光領域を有するフレームデータであり、図4の空間分割画像(1)、空間分割画像(2)、空間分割画像(3)がそれに該当する。   In step S508, the WDR processing unit 207 acquires exposure time mixed image data. The exposure time mixed image data is frame data having a short-time exposure region and a long-time exposure region in a single frame. The space-division image (1), the space-division image (2), and the space-division image ( This applies to 3).

ステップS509では、WDR処理ユニット207の画像回復部にて、単一フレーム内の短時間露光領域を用いて補間処理により短時間露光フレームデータを生成する。同様に、単一フレーム内の長時間露光領域を用いて補間処理により長時間露光フレームデータを生成する。   In step S509, the image recovery unit of the WDR processing unit 207 generates short-time exposure frame data by interpolation processing using the short-time exposure region in a single frame. Similarly, long exposure frame data is generated by interpolation processing using a long exposure region in a single frame.

ステップS510では、WDR処理ユニット207の画像合成部にて、S509で生成した短時間露光画像データと長時間露光画像データの合成処理を実行し、WDR画像を生成する。   In step S510, the image composition unit of the WDR processing unit 207 executes the composition process of the short-exposure image data and long-exposure image data generated in S509 to generate a WDR image.

ステップS511では、WDR処理ユニット207で生成したWDR画像を通信ユニット208へ送信する。   In step S511, the WDR image generated by the WDR processing unit 207 is transmitted to the communication unit 208.

ステップS512では、WDR処理を終了するか否かを判断し、終了する場合には本フローを終了する。終了しない場合には、S508に戻って処理フローを継続する。   In step S512, it is determined whether or not to end the WDR process. If not, the process returns to S508 to continue the processing flow.

(画像取得モード切り替え)
図6は時分割画像取得モードから空間分割画像取得モードへの切り替えを説明する模式図である。
(Change image acquisition mode)
FIG. 6 is a schematic diagram for explaining switching from the time division image acquisition mode to the space division image acquisition mode.

時分割画像取得モードでは、短時間露光画像のフレームデータと長時間露光画像のフレームデータを順次撮像する。空間分割画像取得モードへの画像取得モード切り替えの時点で、単一フレーム内に短時間露光領域と長時間露光領域を有するフレームデータの順次撮像に切り替わる。画像取得モード切り替えのきっかけとする被写体動き情報の検出には、2枚の短時間露光画像データを用いる。図6では、短時間露光画像(1)と短時間露光画像(2)を用いて動き量から被写体動き情報を検出することになる。動き量による画像取得モードの切り替えフローは、図8で説明する。   In the time division image acquisition mode, the frame data of the short exposure image and the frame data of the long exposure image are sequentially captured. At the time of switching the image acquisition mode to the space division image acquisition mode, switching to sequential imaging of frame data having a short exposure area and a long exposure area within a single frame is performed. Two pieces of short-time exposure image data are used to detect subject movement information that triggers switching of the image acquisition mode. In FIG. 6, subject motion information is detected from the amount of motion using the short exposure image (1) and the short exposure image (2). The switching flow of the image acquisition mode based on the amount of movement will be described with reference to FIG.

(画像取得モード切り替え)
図7は空間分割画像取得モードから時分割画像取得モードへの切り替えを説明する模式図である。
(Change image acquisition mode)
FIG. 7 is a schematic diagram illustrating switching from the space division image acquisition mode to the time division image acquisition mode.

空間分割画像取得モードでは、単一フレーム内に短時間露光領域と長時間露光領域を有するフレームデータを順次撮像する。時分割画像取得モードへの画像取得モード切り替えの時点で、短時間露光画像のフレームデータと長時間露光画像のフレームデータの順次撮像に切り替わる。画像取得モード切り替えのきっかけとする被写体動き情報の検出には、短時間露光画像データを用いる。短時間露光画像(1)や短時間露光画像(2)を用いてブレ量から被写体動き情報を検出することになる。ブレ量による画像取得モードの切り替えフローは、図8で説明する。   In the space division image acquisition mode, frame data having a short exposure area and a long exposure area in a single frame are sequentially captured. At the time of switching the image acquisition mode to the time-division image acquisition mode, switching to sequential imaging of the frame data of the short exposure image and the frame data of the long exposure image is performed. Short-exposure image data is used to detect subject movement information that triggers switching of the image acquisition mode. The subject movement information is detected from the blur amount using the short exposure image (1) and the short exposure image (2). The flow for switching the image acquisition mode based on the shake amount will be described with reference to FIG.

(発明のポイント)
本発明のポイントは、画像取得モードの切り替え判断に用いる被写体動き情報の検出に、時分割画像取得モードでは動き量を用い、空間分割画像取得モードではブレ量を用いる点である。被写体、もしくは、撮像装置の変化量が大きくなると、ブレ量(動きボケ量)が増加してエッジが不明瞭になり物体認識が難しくなる、且つ、フレーム内の移動距離が長くなり同一物体のマッチング処理の負荷が増える、という課題が想定される。これらを解決するために、本発明では、被写体、もしくは、撮像装置の変化量が小さい時には被写体動き情報の検出に動き量(動きベクトル)を用い、変化量が大きい時には被写体動き情報の検出にブレ量(動きボケ)を用いる。なお、本発明では、被写体動き情報という用語を用いるが、これは、被写体、もしくは、撮像装置の相対的な変化量に相当する情報という意味である。
(Point of invention)
The point of the present invention is that the amount of motion is used in the time-division image acquisition mode and the amount of blur is used in the space-division image acquisition mode for detection of subject motion information used for switching determination of the image acquisition mode. If the amount of change in the subject or imaging device increases, the amount of blurring (motion blur) increases, the edges become unclear and object recognition becomes difficult, and the movement distance in the frame becomes longer and matching of the same object The problem that the processing load increases is assumed. In order to solve these problems, the present invention uses a motion amount (motion vector) to detect subject motion information when the amount of change of the subject or the imaging device is small, and blurs to detect subject motion information when the amount of change is large. Use quantity (motion blur). In the present invention, the term “subject movement information” is used, which means information corresponding to the relative change amount of the subject or the imaging apparatus.

(画像取得モード切り替えのフロー)
図8は動き量、もしくは、ブレ量による画像取得モードの切り替えを説明するフローチャートである。
(Image acquisition mode switching flow)
FIG. 8 is a flowchart for explaining switching of the image acquisition mode based on the motion amount or the shake amount.

図8(a)は時分割画像取得モードでの動き量による画像取得モードの切り替えを説明するフローチャートである。   FIG. 8A is a flowchart illustrating switching of the image acquisition mode based on the amount of motion in the time-division image acquisition mode.

ステップS801では、連続する2枚の短時間露光画像データを取得する。当該画像データは、図6に示す短時間露光画像(1)と短時間露光画像(2)に相当する。   In step S801, two continuous short-time exposure image data are acquired. The image data corresponds to the short exposure image (1) and the short exposure image (2) shown in FIG.

ステップS802では、2枚の短時間露光画像データを用いて動き量から被写体動き情報を検出する。2枚の画像データ間の局所的な動きベクトルを抽出し、それらの動きベクトルを用いて大域的な動き情報を算出する。動きベクトルの抽出には、微小区間では輝度勾配が一定であることを利用した勾配法や、フレーム間での小領域の類似度を探索するブロックマッチング法が適用できる。   In step S802, subject motion information is detected from the motion amount using the two short-exposure image data. A local motion vector between two pieces of image data is extracted, and global motion information is calculated using these motion vectors. For the extraction of the motion vector, a gradient method using the fact that the luminance gradient is constant in a minute section or a block matching method for searching for the similarity of small areas between frames can be applied.

ステップS803では、S802で検出した動き情報がしきい値を越えたか否かを判断する。動き情報のしきい値は、図9で説明する。動き情報が動き変化量が大きいほうにしきい値を超えた場合にはS804に進み、しきい値を超えていない場合にはS801に戻って処理を繰り返す。   In step S803, it is determined whether the motion information detected in S802 has exceeded a threshold value. The threshold value of the motion information will be described with reference to FIG. If the motion information exceeds the threshold value with the larger motion change amount, the process proceeds to S804. If the motion information does not exceed the threshold value, the process returns to S801 and the process is repeated.

ステップS804では、空間分割画像取得モードに切り替え、処理を終了する。図6で説明した時分割画像取得モードから空間分割画像取得モードへの切り替えに対応する。   In step S804, the mode is switched to the space division image acquisition mode, and the process ends. This corresponds to switching from the time-division image acquisition mode described in FIG. 6 to the space-division image acquisition mode.

図8(b)は空間分割画像取得モードでのブレ量による画像取得モードの切り替えを説明するフローチャートである。   FIG. 8B is a flowchart for explaining switching of the image acquisition mode according to the blur amount in the space division image acquisition mode.

ステップS805では、短時間露光画像データを取得する。当該画像データは、図7に示す短時間露光画像(2)に相当する。   In step S805, short-exposure image data is acquired. The image data corresponds to the short exposure image (2) shown in FIG.

ステップS806では、短時間露光画像データを用いてブレ量から被写体動き情報を検出する。画像データ内の局所的なブレカーネル(モーション・ブラー・カーネル)のパラメータ値を抽出し、それらを用いて大域的な動き情報を算出する。   In step S806, subject motion information is detected from the blur amount using the short-time exposure image data. The parameter value of the local blur kernel (motion blur kernel) in the image data is extracted, and global motion information is calculated using them.

ステップS807では、S806で検出した動き情報がしきい値を越えたか否かを判断する。動き情報のしきい値は、図9で説明する。動き情報が動き変化量が小さいほうにしきい値を超えた場合にはS808に進み、しきい値を超えていない場合にはS805に戻って処理を繰り返す。   In step S807, it is determined whether the motion information detected in S806 has exceeded a threshold value. The threshold value of the motion information will be described with reference to FIG. If the motion information exceeds the threshold value for the smaller amount of motion change, the process proceeds to S808. If the motion information does not exceed the threshold value, the process returns to S805 and the process is repeated.

ステップS808では、時分割画像取得モードに切り替え、処理を終了する。図7で説明した空間分割画像取得モードから時分割画像取得モードへの切り替えに対応する。   In step S808, the mode is switched to the time-division image acquisition mode, and the process ends. This corresponds to switching from the space division image acquisition mode described in FIG. 7 to the time division image acquisition mode.

ここで,図8のS806におけるブレカーネル(モーション・ブラー・カーネル)による動き情報の抽出手法について補足する。被写体、もしくは、撮像装置の動きによって生じるボケは以下の式で表現できる。   Here, a supplementary description will be given of the motion information extraction method using the blur kernel (motion blur kernel) in S806 of FIG. The blur caused by the movement of the subject or the imaging apparatus can be expressed by the following expression.

f(x、y)は原画像、g(x、y)は劣化画像、h(x、y)はPSF(Point Spread Function、点拡がり関数)、*は畳み込み演算である。被写体、もしくは、撮像装置の動きが複雑な場合にはPSF形状も複雑な形状となるが、短時間露光画像の場合には動きを単純な等速直線運動に近似できる。このときPSF形状は、動きの大きさと動きの方向の2つのパラメータで決定できる。等速直線運動のPSFは、h(x、y)のフーリエ変換をH(x’、y’)、動きの大きさをaとすると、 f (x, y) is an original image, g (x, y) is a degraded image, h (x, y) is a PSF (Point Spread Function), and * is a convolution operation. When the movement of the subject or the imaging apparatus is complicated, the PSF shape also becomes a complicated shape. However, in the case of a short-time exposure image, the movement can be approximated to a simple constant velocity linear motion. At this time, the PSF shape can be determined by two parameters of the magnitude of motion and the direction of motion. The constant-velocity linear motion PSF has a Fourier transform of h (x, y) as H (x ′, y ′) and the magnitude of the motion as a.

と表現できる。動きの方向は、h(x、y)を回転させて表現すれば良い。本発明では、この動きの大きさを推定することになる。単純な方法としては、まず、幾つかのPSF(h(x、y))を仮定して、デコンボリューション処理により、それぞれの原画像f(x、y)を推定する。デコンボリューション処理は、フーリエ空間上での単純な逆フィルタの他、ウィーナフィルタ、ルーシー・リチャードソン法など汎用の手法が適用できる。次に、評価関数として原画像f(x、y)の画像コントラストを示す指標を用意して、画像コントラストが最大となる(画像としてモーション・ブラーが少ないと想定される)PSF(h(x、y))を選択すれば良い。このPSF(h(x、y))の動きの大きさを表すパラメータを抽出すれば良い。 Can be expressed. The direction of movement may be expressed by rotating h (x, y). In the present invention, the magnitude of this motion is estimated. As a simple method, first, assuming several PSFs (h (x, y)), each original image f (x, y) is estimated by deconvolution processing. For the deconvolution processing, a general-purpose method such as a Wiener filter or the Lucy-Richardson method can be applied in addition to a simple inverse filter in Fourier space. Next, an index indicating the image contrast of the original image f (x, y) is prepared as an evaluation function, and the image contrast is maximized (it is assumed that the motion blur is small as the image) PSF (h (x, y y)) may be selected. What is necessary is just to extract the parameter showing the magnitude | size of a motion of this PSF (h (x, y)).

図7、及び図8では、被写体動き情報の検出に短時間露光画像データのブレ量を用いる例を説明したが、長時間露光画像データのブレ量を用いても良い。また、被写体動き情報検出の精度向上のために、単一の画像データではなく短時間露光画像データと長時間露光画像データのブレ量を用いても良い。   7 and 8, the example in which the blur amount of the short-exposure image data is used to detect the subject motion information has been described, but the blur amount of the long-exposure image data may be used. Further, in order to improve the accuracy of detecting the subject motion information, the blur amount of the short exposure image data and the long exposure image data may be used instead of a single image data.

(被写体動き情報と解像感の関係)
図9は動き変化量(被写体動き情報)と解像感の関係を説明する模式図である。横軸は動き変化量(被写体動き情報)であり、縦軸は解像感である。画像取得モードの違いによる動き変化量(被写体動き情報)と解像感の関係を示している。
(Relationship between subject movement information and resolution)
FIG. 9 is a schematic diagram for explaining the relationship between the movement change amount (subject movement information) and the resolution. The horizontal axis is the movement change amount (subject movement information), and the vertical axis is the sense of resolution. The relationship between the amount of change in motion (subject motion information) and the sense of resolution due to the difference in image acquisition mode is shown.

実線は空間分割画像取得モードでのWDR画像であり、点線は時分割画像取得モードでのWDR画像である。動き変化量が小さいとき、すなわち、動き量、もしくは、ブレ量が小さいときには、空間分割画像取得モードでのWDR画像と比較して時分割画像取得モードでのWDR画像のほうが解像感が高いことを示している。同様に、動き変化量が大きいとき、すなわち、動き量、もしくは、ブレ量が大きいときには、時分割画像取得モードでのWDR画像と比較して空間分割画像取得モードでのWDR画像のほうが解像感が高いことを示している。   A solid line is a WDR image in the space division image acquisition mode, and a dotted line is a WDR image in the time division image acquisition mode. When the amount of motion change is small, that is, when the amount of motion or blur is small, the WDR image in the time-division image acquisition mode has higher resolution than the WDR image in the space-division image acquisition mode. Is shown. Similarly, when the amount of change in motion is large, that is, when the amount of motion or blur is large, the resolution of the WDR image in the space division image acquisition mode is better than that of the WDR image in the time division image acquisition mode. Is high.

画像取得モードの切り替えしきい値は、解像感の高いWDR画像が得られるように設定する。動き変化量(被写体動き情報)のしきい値の設定は、時分割画像取得によるWDR画像と空間分割画像取得によるWDR画像の解像感を比較して実験的に決定すれば良い。WDR画像の解像感は、画像コントラストで判断すれば良い。画像コントラストは画像データから算出するが、その算出にはどのようなアルゴリズムを用いてよい。例えば、コントラストや正規化自乗強度和などのアルゴリズム、自己相関や正規化分散などの統計アルゴリズム、Brenner微分、Vollath−5などの微分アルゴリズム、エントロピーなどのヒストグラムを利用するアルゴリズムを用いることができる。   The threshold value for switching the image acquisition mode is set so that a WDR image with a high resolution can be obtained. The threshold value of the motion change amount (subject motion information) may be determined experimentally by comparing the resolution of the WDR image obtained by time-division image acquisition and the WDR image obtained by space-division image acquisition. The resolution of the WDR image may be determined by the image contrast. The image contrast is calculated from the image data, and any algorithm may be used for the calculation. For example, algorithms such as contrast and normalized square intensity sum, statistical algorithms such as autocorrelation and normalized variance, differential algorithms such as Brenner differentiation and Volath-5, and algorithms using histograms such as entropy can be used.

図9では、動き量から検出した動き変化量と解像感の関係、及び、ブレ量から検出した動き変化量と解像感の関係を同一の模式図で説明したが、これらが同一である必要はない。すなわち、画像取得モードの切り替えしきい値を、時分割画像取得モードから空間分割画像取得モードへの切り替えと空間分割画像取得モードから時分割画像取得モードへの切り替えとで異ならせて、画像取得モード切り替えにヒステリシス特性を持たせても良い。   In FIG. 9, the relationship between the motion change amount detected from the motion amount and the resolution, and the relationship between the motion change amount detected from the blur amount and the resolution are described in the same schematic diagram, but these are the same. There is no need. That is, the image acquisition mode switching threshold is different between the switching from the time division image acquisition mode to the space division image acquisition mode and the switching from the space division image acquisition mode to the time division image acquisition mode. The switching may have a hysteresis characteristic.

以上の図1から図9で説明した実施の形態により、動きブレの影響を低減したWDR画像を生成する撮像装置を提供することができる。   The embodiment described with reference to FIGS. 1 to 9 can provide an imaging apparatus that generates a WDR image in which the influence of motion blur is reduced.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 撮像装置、102 情報処理装置、103 表示装置、
104 汎用I/Fのケーブル、105 ネットワーク、
106 汎用I/Fのケーブル、107 用のI/Fのケーブル、
201 レンズユニット、202 画像処理ユニット、203 メイン制御部、
204 撮像ユニット、205 撮像レンズ、206 現像処理ユニット、
207 WDR処理ユニット、208 通信ユニット
101 imaging device, 102 information processing device, 103 display device,
104 General-purpose I / F cable, 105 network,
106 General-purpose I / F cable, 107 I / F cable,
201 lens unit, 202 image processing unit, 203 main control unit,
204 imaging unit, 205 imaging lens, 206 development processing unit,
207 WDR processing unit, 208 communication unit

Claims (7)

被写体を撮像する撮像手段と、
長時間露光のフレームと短時間露光のフレームを順次取得する時分割画像取得モードと長時間露光の画素と短時間露光の画素が混在するフレームを取得する空間分割画像取得モードとを切り換える画像取得モード切り替え手段と、
時分割画像取得モードで取得した画像群、もしくは、空間分割画像取得モードで取得した画像群に対してワイドダイナミックレンジ処理を実行するワイドダイナミックレンジ処理手段と、
を備えた撮像装置において、
時分割画像取得モードから空間分割画像取得モードへの切り替えと空間分割画像取得モードから時分割画像取得モードへの切り替えに用いる情報の検出方法が異なることを特徴とする撮像装置。
Imaging means for imaging a subject;
Image acquisition mode that switches between time-division image acquisition mode that acquires long-exposure frames and short-exposure frames sequentially, and space-division image acquisition mode that acquires frames in which long-exposure pixels and short-exposure pixels are mixed Switching means;
Wide dynamic range processing means for performing wide dynamic range processing on the image group acquired in the time division image acquisition mode or the image group acquired in the space division image acquisition mode;
In an imaging apparatus comprising:
An image pickup apparatus characterized in that a method for detecting information used for switching from a time-division image acquisition mode to a space-division image acquisition mode and a method for switching from the space-division image acquisition mode to the time-division image acquisition mode are different.
前記時分割画像取得モードにおいて検出する前記情報は複数の短時間露光画像から算出した動き量から検出することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the information detected in the time-division image acquisition mode is detected from a motion amount calculated from a plurality of short-time exposure images. 前記空間分割画像取得モードにおいて検出する前記情報は短時間露光画像と長時間露光画像から算出したブレ量から検出することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the information detected in the space division image acquisition mode is detected from a blur amount calculated from a short-time exposure image and a long-time exposure image. 時分割画像取得モードから空間分割画像取得モードへの画像取得モードの切り替えには、画像データ間の動き量から検出した前記情報を用い、空間分割画像取得モードから時分割画像取得モードへの画像取得モードの切り替えにはブレ量から検出した前記情報を用いる
ことを特徴とする請求項1乃至請求項3の何れか一項に記載の撮像装置。
To switch the image acquisition mode from the time division image acquisition mode to the space division image acquisition mode, the information detected from the amount of motion between the image data is used, and the image acquisition from the space division image acquisition mode to the time division image acquisition mode is performed. The imaging apparatus according to any one of claims 1 to 3, wherein the information detected from a blur amount is used for switching the mode.
前記画像取得モード切り替え手段において、画像取得モードの切り替えしきい値とする前記情報をワイドダイナミックレンジ画像の解像感から決定することを特徴とする請求項1乃至請求項4の何れか一項に記載の撮像装置。 5. The image acquisition mode switching means determines the information used as a threshold value for switching an image acquisition mode based on a resolution of a wide dynamic range image. 6. The imaging device described. 前記ワイドダイナミックレンジ画像の解像感は画像コントラストであることを特徴とする請求項5に記載の撮像装置。 The imaging apparatus according to claim 5, wherein the resolution of the wide dynamic range image is an image contrast. 請求項1乃至請求項6の何れか一項に記載の撮像装置と、前記撮像装置で取得された画像を処理する情報処理装置と、を有することを特徴とする撮像システム。 An imaging system comprising: the imaging apparatus according to claim 1; and an information processing apparatus that processes an image acquired by the imaging apparatus.
JP2016117509A 2016-06-14 2016-06-14 Imaging apparatus and imaging method Pending JP2017224905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016117509A JP2017224905A (en) 2016-06-14 2016-06-14 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016117509A JP2017224905A (en) 2016-06-14 2016-06-14 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2017224905A true JP2017224905A (en) 2017-12-21

Family

ID=60687259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016117509A Pending JP2017224905A (en) 2016-06-14 2016-06-14 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2017224905A (en)

Similar Documents

Publication Publication Date Title
KR101391432B1 (en) Apparatus and method for obtaining images and apparatus and method for processing images
US9832382B2 (en) Imaging apparatus and imaging method for outputting image based on motion
JP6672081B2 (en) Imaging device
JP6714078B2 (en) Image processing apparatus, image processing method, and image processing program
KR20150145725A (en) Method and apparatus for dynamic range expansion of ldr video sequence
JP2014021928A (en) Image processor, image processing method and program
JP2010220207A (en) Image processing apparatus and image processing program
JP2015204488A (en) Motion detection apparatus and motion detection method
US10621703B2 (en) Image processing apparatus, image processing method, and program
JP2011171842A (en) Image processor and image processing program
JP5980618B2 (en) Image processing apparatus and image processing method
JP2012134745A (en) Image signal processing device
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2017224905A (en) Imaging apparatus and imaging method
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP6173027B2 (en) Image processing apparatus and image processing method
JP2007266787A (en) Imaging apparatus provided with process for making excessive-noise pixel usable
JP2014236226A (en) Image processing device and image processing method
JP7263018B2 (en) Image processing device, image processing method and program
US11019348B2 (en) Image processing apparatus and image processing method
JP2019075621A (en) Imaging apparatus, control method of imaging apparatus
US9013606B2 (en) Image processing apparatus and control method thereof
US8406558B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2018148260A (en) Image processing apparatus, control method of image processing apparatus, and program
JP2022119630A (en) Image processing device, image processing method, imaging apparatus, and control method of them