JP2011087203A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2011087203A JP2011087203A JP2009239966A JP2009239966A JP2011087203A JP 2011087203 A JP2011087203 A JP 2011087203A JP 2009239966 A JP2009239966 A JP 2009239966A JP 2009239966 A JP2009239966 A JP 2009239966A JP 2011087203 A JP2011087203 A JP 2011087203A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distortion
- images
- captured image
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 68
- 230000003287 optical effect Effects 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims description 89
- 239000013598 vector Substances 0.000 claims description 74
- 238000012937 correction Methods 0.000 claims description 63
- 230000009466 transformation Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 abstract description 30
- 238000000034 method Methods 0.000 description 40
- 238000010606 normalization Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 230000005236 sound signal Effects 0.000 description 9
- 238000005096 rolling process Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000003321 amplification Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 238000003825 pressing Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
本発明は、デジタルビデオカメラ、デジタルスチルカメラ等の撮像装置に関し、特にフォーカルプレーン歪みを除去する技術に関する。 The present invention relates to an imaging apparatus such as a digital video camera or a digital still camera, and more particularly to a technique for removing focal plane distortion.
固体撮像素子に用いられる電子シャッタは、撮像面の全受光画素が共通タイミングで露光されるグローバルシャッタと、異なる水平ライン間で露光タイミングが異なるローリングシャッタに大別される。ローリングシャッタは、画素単位で受光画素の出力信号を読み出すことのできるXYアドレス型の固体撮像素子、例えば、CMOSイメージセンサで利用される。 Electronic shutters used in solid-state imaging devices are roughly classified into a global shutter in which all light receiving pixels on the imaging surface are exposed at a common timing, and a rolling shutter in which exposure timing is different between different horizontal lines. The rolling shutter is used in an XY address type solid-state imaging device, for example, a CMOS image sensor, which can read out an output signal of a light receiving pixel in pixel units.
ローリングシャッタを採用した撮像装置では、撮影者の手ブレ等の影響によって撮影時に固体撮像素子に位置的変化が生じると、原理上、撮影画像にフォーカルプレーン歪みが発生することが知られている。但し、撮影画像に対して適切な画像処理を行えば、フォーカルプレーン歪みを低減することが可能である。 In an imaging apparatus employing a rolling shutter, it is known that, in principle, focal plane distortion occurs in a captured image when a positional change occurs in a solid-state imaging device during imaging due to the influence of a camera shake of a photographer. However, the focal plane distortion can be reduced by performing appropriate image processing on the captured image.
例えば、下記特許文献1には、各フレームの歪み量をフレーム間の動きベクトルから求める方法が提案されている。この方法では、時間的に隣接する第1及び第2フレーム間の動きベクトルから第2フレームの歪み量(フォーカルプレーン歪みの量)を検出し、検出歪み量を用いてフォーカルプレーン歪みを除去しようとしている。
For example,
しかしながら、この方法は、第1フレームにフォーカルプレーン歪みが含まれていないという前提の下でのみ有効に機能するものである。実際には、第1フレームにも、第2フレームと同程度のフォーカルプレーン歪みが含まれていることが想定される、或いは、第1フレームに含まれるフォーカルプレーン歪みの量が不明である。従って、特許文献1の方法では、安定的にフォーカルプレーン歪みを除去することが困難である。
However, this method works effectively only on the assumption that the first frame does not include focal plane distortion. Actually, it is assumed that the first frame includes the same focal plane distortion as the second frame, or the amount of the focal plane distortion included in the first frame is unknown. Therefore, with the method of
そこで本発明は、フォーカルプレーン歪みの安定的な低減に寄与する撮像装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide an imaging apparatus that contributes to stable reduction of focal plane distortion.
本発明に係る撮像装置は、複数の水平ラインに含まれる第1及び第2水平ライン間で露光タイミングを異ならせつつ画像撮影を行う撮像素子と、前記第1及び第2水平ライン間の露光タイミング差が比較的短い露光による画像信号を前記撮像素子から読み出すことで第1画像を取得する一方、前記露光タイミング差が比較的長い露光による画像信号を前記撮像素子から読み出すことで第2画像を取得する画像取得部と、前記第1及び第2画像の画像信号に基づいて前記第1及び第2画像間のオプティカルフローを導出する動き検出部と、前記オプティカルフローに基づいて前記第2画像を補正する補正部と、を備えたことを特徴とする。 An image pickup apparatus according to the present invention includes an image pickup device that takes an image while changing exposure timing between first and second horizontal lines included in a plurality of horizontal lines, and exposure timing between the first and second horizontal lines. A first image is obtained by reading out an image signal from the image sensor with an exposure with a relatively short difference, while a second image is obtained by reading out an image signal with an exposure with a relatively long exposure timing difference from the image sensor. An image acquisition unit for performing an operation, a motion detection unit for deriving an optical flow between the first and second images based on the image signals of the first and second images, and correcting the second image based on the optical flow And a correction unit.
第1画像は、第2画像と比較して上記露光タイミング差が短い状態で撮影されるため、第1画像に含まれるフォーカルプレーン歪みは比較的小さい。従って、第1及び第2画像間のオプティカルフローを導出することで、第2画像に含まれるフォーカルプレーン歪みを正確に見積もることができ、該オプティカルフローを用いて第2画像を補正すれば、第2画像のフォーカルプレーン歪みを適切に低減することが可能となる。 Since the first image is shot in a state where the exposure timing difference is shorter than that of the second image, the focal plane distortion included in the first image is relatively small. Accordingly, by deriving the optical flow between the first and second images, it is possible to accurately estimate the focal plane distortion included in the second image, and if the second image is corrected using the optical flow, It is possible to appropriately reduce the focal plane distortion of the two images.
尚、上記の第1及び第2水平ラインは、撮像素子上で互いに隣接しあう2本の水平ラインであっても良いし、撮像素子上で互いに隣接しあわない2本の水平ラインであっても良い。 The first and second horizontal lines may be two horizontal lines adjacent to each other on the image sensor, or two horizontal lines that are not adjacent to each other on the image sensor. Also good.
即ち例えば、前記補正部は、前記第1及び第2水平ライン間で露光タイミングが異なることによって前記第2画像に生じた歪みを、前記オプティカルフローに基づいて補正することができる。 That is, for example, the correction unit can correct distortion generated in the second image due to different exposure timings between the first and second horizontal lines based on the optical flow.
具体的には例えば、前記動き検出部は、前記第1及び第2画像の画像信号に基づき、前記オプティカルフローを形成する複数の動きベクトルを導出し、前記補正部は、前記第2画像に生じた前記歪みを各動きベクトルに基づいて補正する。 Specifically, for example, the motion detection unit derives a plurality of motion vectors forming the optical flow based on the image signals of the first and second images, and the correction unit is generated in the second image. The distortion is corrected based on each motion vector.
より具体的には例えば、前記補正部は、各動きベクトルに基づく幾何学的変換を前記第2画像に施すことで前記歪みを補正する。 More specifically, for example, the correction unit corrects the distortion by applying a geometric transformation based on each motion vector to the second image.
また例えば、前記画像取得部は、前記第1及び第2画像の交互撮影を繰り返し実行し、当該撮像装置は、前記補正部の補正によって得た各第2画像に基づく各補正画像を所定の記録フレームレートにて記録媒体に記録し、1枚の第1画像を得るために必要な時間と1枚の第2画像を得るために必要な時間との合計は、前記記録フレームレートの逆数以下に設定される。 Further, for example, the image acquisition unit repeatedly executes the alternate shooting of the first and second images, and the imaging device records each correction image based on each second image obtained by the correction of the correction unit in a predetermined recording manner. Recording on the recording medium at the frame rate, the sum of the time required to obtain one first image and the time required to obtain one second image is equal to or less than the reciprocal of the recording frame rate. Is set.
これにより、所定の記録フレームレートに従いつつ、記録動画像のフォーカルプレーン歪みを安定的に低減することができる。 Thereby, the focal plane distortion of the recorded moving image can be stably reduced while following a predetermined recording frame rate.
本発明によれば、フォーカルプレーン歪みの安定的な低減に寄与する撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an imaging apparatus that contributes to stable reduction of focal plane distortion.
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.
図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号11〜28によって参照される各部位を有する。撮像装置1は、デジタルビデオカメラであり、動画像及び静止画像を撮影可能となっていると共に動画像撮影中に静止画像を同時に撮影することも可能となっている。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。尚、表示部27及び/又はスピーカ28は撮像装置1の外部装置(不図示)に設けられたものである、と解釈するようにしても良い。
FIG. 1 is an overall block diagram of an
撮像部11は、撮像素子を用いて被写体の撮影を行う。図2は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、固体撮像素子である撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、撮像部11の画角を調節するためのズームレンズ30及び焦点を合わせるためのフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。CPU23からの制御信号に基づき、光学系35内におけるズームレンズ30及びフォーカスレンズ31の位置並びに絞り32の開度が制御されることによって、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量が制御される。
The
撮像素子33は、水平及び垂直方向に複数の受光画素が配列されることによって形成される。撮像素子33の各受光画素は、光学系35及び絞り32を介して入射した被写体の光学像を光電変換し、該光電変換によって得られた電気信号をAFE12(Analog Front End)に出力する。
The
AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU(Central Processing Unit)23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して必要な画像処理を施し、画像処理後の画像についての映像信号を生成する。マイク14は、撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。
The
圧縮処理部16は、映像信号処理部13からの映像信号及び音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。内部メモリ17は、DRAM(Dynamic Random Access Memory)などから成り、各種のデータを一時的に保存する。記録媒体としての外部メモリ18は、半導体メモリや磁気ディスクなどの不揮発性メモリであり、圧縮処理部16による圧縮後の映像信号及び音声信号を記録する。
The
伸張処理部19は、外部メモリ18から読み出された圧縮された映像信号及び音声信号を伸張する。伸張処理部19による伸張後の映像信号又は映像信号処理部13からの映像信号は、表示処理部20を介して、液晶ディスプレイ等から成る表示部27に送られて画像として表示される。また、伸張処理部19による伸張後の音声信号は、音声出力回路21を介してスピーカ28に送られて音として出力される。
The
TG(タイミングジェネレータ)22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。TG22は、更に、CPU23の制御の下、撮像素子33の駆動パルスを生成して撮像素子33に供給する。CPU23は、撮像装置1内の各部位の動作を統括的に制御する。操作部26は、動画像の撮影及び記録の開始/終了を指示するための録画ボタン26a、静止画像の撮影及び記録を指示するためのシャッタボタン26b、並びに、ズーム倍率を指定するためのズームボタン26c等を有し、ユーザによる各種操作を受け付ける。操作部26に対する操作内容はCPU23に伝達される。
The TG (timing generator) 22 generates a timing control signal for controlling the timing of each operation in the
撮像素子33は、電子シャッタ機能を備えており、所謂ローリングシャッタによって各受光画素の露光を実施する。撮像素子33には、複数の受光画素によって形成される撮像面が設けられており、撮像面上に定義された複数の水平ライン及び複数の垂直ラインに沿って受光画素が二次元配列されている。ローリングシャッタでは、撮像面の各受光画素が露光されるタイミングが水平ラインごとに異なる。つまり、撮像面における異なる水平ライン間で受光画素の露光タイミングが異なる。
The
図3及び図4を参照しつつ、撮像素子33のローリングシャッタについて説明を補足する。図3に示す如く、撮像面において、垂直ラインに沿った方向(即ち撮像面の垂直方向)が上下方向であり、撮像面の有効画素領域の最上端に配置された水平ラインが第1水平ラインであって且つ撮像面の有効画素領域の最下端に配置された水平ラインが第M水平ラインであるとする(Mは、2以上の整数であり、一般的には数100から数1000である)。そうすると、図4に示す如く、或る1つの注目フレームについて、第(i+1)水平ライン上の受光画素における露光の開始時刻は、第i水平ライン上の受光画素における露光の開始時刻よりもΔt秒だけ遅い(Δt>0且つiは整数)。1つのフレームにおいて、第i水平ライン上の受光画素の露光が行われる時間の長さは第(i+1)水平ライン上の受光画素のそれと同じであると共に、Δtはiの値に依存せず一定である。各受光画素の露光の終了後に、各受光画素の出力信号を読み出すことができ、読み出された出力信号はAFE12に送られる。
A supplementary description of the rolling shutter of the
Δt及びΔtの整数倍を、異なる水平ライン間における露光タイミング差という。Δtは、隣接水平ライン間における露光タイミング差である。 An integer multiple of Δt and Δt is called an exposure timing difference between different horizontal lines. Δt is an exposure timing difference between adjacent horizontal lines.
尚、第1〜第M水平ラインの内、露光タイミングが互いに同じとなる複数の水平ラインが存在していても構わない。例えば、2本の水平ラインごとに露光タイミングが異なっていても構わない。この場合、第2水平ラインの露光タイミングと第3水平ラインの露光タイミングが異なるものの、第1及び第2水平ラインの露光タイミングが同じであって且つ第3及び第4水平ラインの露光タイミングが同じとなる。また、1つの水平ラインにおいても各受光画素の露光タイミングは順次ずれるが、1つの水平ライン上の異なる受光画素間の露光タイミング差は、異なる水平ライン間のそれよりも十分小さいため、1つの水平ライン上における各受光画素の露光タイミングを同じとみなすことができる。 Of the first to Mth horizontal lines, there may be a plurality of horizontal lines having the same exposure timing. For example, the exposure timing may be different for every two horizontal lines. In this case, although the exposure timing of the second horizontal line and the exposure timing of the third horizontal line are different, the exposure timing of the first and second horizontal lines is the same and the exposure timing of the third and fourth horizontal lines is the same. It becomes. Further, although the exposure timing of each light receiving pixel is sequentially shifted in one horizontal line, the difference in exposure timing between different light receiving pixels on one horizontal line is sufficiently smaller than that between different horizontal lines, so The exposure timing of each light receiving pixel on the line can be regarded as the same.
撮像素子33は、例えば、XYアドレス型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。CMOSを形成可能な半導体基板上に、複数の受光画素から成る撮像面、垂直走査回路、水平走査回路及び画素信号出力回路等を形成することによって、CMOSイメージセンサが形成される。但し、撮像素子33がローリングシャッタによって各受光画素の露光を実施するものであるならば、撮像素子33は、XYアドレス走査型のCMOSイメージセンサでなくても構わない。
The
背景技術の説明でも述べたように、ローリングシャッタにて撮影された画像には、フォーカルプレーン歪み(以下、FP歪みという)が発生する。FP歪みは、Δtが0よりも大きいことに起因して生じ、Δtが大きいほどFP歪みは増加する傾向にある。撮像装置1には、このFP歪みを適切に除去する機能が備えられている。
As described in the description of the background art, focal plane distortion (hereinafter referred to as FP distortion) occurs in an image captured by a rolling shutter. The FP distortion occurs due to Δt being larger than 0, and the FP distortion tends to increase as Δt increases. The
図5に、この機能を担う主たる部位のブロック図を示す。画像取得部51は、図1の映像信号処理部13、TG22及びCPU23によって形成される。歪み検出部52は、CPU23によって或いは映像信号処理部13及びCPU23によって形成される。歪み補正部53は、映像信号処理部13に設けられる。歪み検出部52には、動き検出部54が内包されている。後述するように、歪み検出部52の検出対象であるFP歪み量は動き検出部54の検出対象である動きベクトルから直接的に導かれるため、歪み検出部52は動き検出部54そのものである、と考えることも可能である。
FIG. 5 shows a block diagram of main parts responsible for this function. The
撮像素子33を用いた撮影のフレームレート(以下、撮影フレームレートという)は可変となっており、画像取得部51は、撮影フレームレートの制御を行うと共に、撮像素子33の各受光画素の露光タイミングの制御及び各受光画素の出力信号を読み出すタイミングの制御を行う。これらの制御の下、撮像素子33の各受光画素の出力信号は、画像信号として画像取得部51に与えられる。但し、各受光画素の出力信号に必要な信号処理を施して得た画像信号が画像取得部51に与えられるものとする。ここにおける信号処理には、AFE12における信号増幅が含まれる。画像取得部51において、所謂デモザイキング処理を用い、画像信号の信号形式をRAWデータ形式からYUV形式に変換することができる。YUV形式の画像信号は、輝度信号と色差信号から形成される。但し、この変換は、画像取得部51の前段部位又は後段部位にて行われても良い。本明細書において、画像信号と映像信号は同義である。
The shooting frame rate (hereinafter referred to as shooting frame rate) using the
画像取得部51は、複数の撮影条件にて撮像素子33に撮影を行わせる。複数の撮影条件には、高速撮影条件と通常撮影条件とが含まれる。高速撮影条件では、露光タイミング差Δtが比較的短いΔtSに設定され、通常撮影条件では、露光タイミング差Δtが比較的長いΔtLに設定される。また、高速撮影条件では、各受光画素の露光時間が比較的短い露光時間TSであって、通常撮影条件では、各受光画素の露光時間が比較的長い露光時間TLであるとする。従って、不等式「0<ΔtS<ΔtL」且つ「0<TS<TL」が成立する。受光画素の露光時間とは、受光画素が信号電荷を蓄積するための時間を指す。尚、上述の想定とは異なるが、露光時間TSと露光時間TLは同じであっても構わない。
The
高速撮影条件の下で撮像素子33により撮影された画像を高速撮影画像と呼び、通常撮影条件の下で撮像素子33により撮影された画像を通常撮影画像と呼ぶ。高速撮影画像の画像信号と通常撮影画像の画像信号が、順次、画像取得部51に入力されるように、画像取得部51は撮影フレームレート等を制御する。
An image photographed by the
図6に、動画像撮影時に撮影される画像列と該画像列の撮影タイミングを示す。本例では、外部メモリ18に記録される動画像のフレームレート(以下、記録フレームレートという)が30fps(frame per second)に設定されていることを想定する。 FIG. 6 shows an image sequence captured at the time of moving image shooting and the shooting timing of the image sequence. In this example, it is assumed that the frame rate of moving images recorded in the external memory 18 (hereinafter referred to as recording frame rate) is set to 30 fps (frame per second).
図1の録画ボタン26aの押下操作によって動画像の撮影及び記録が開始されると、画像取得部51は、高速撮影画像と通常撮影画像の撮影が交互に行われるように撮像素子33を制御する。次々と撮影される高速撮影画像の内、第i番目に撮影される高速撮影画像をIS[i]によって表し、次々と撮影される通常撮影画像の内、第i番目に撮影される通常撮影画像をIL[i]によって表す。そうすると、IS[1]、IL[1]、IS[2]、IL[2]、・・・、の順番で撮影が行われる。尚、本明細書では、記述の簡略化上、記号を記載することによって該記号に対応する画像等の名称を略記することがある。例えば、高速撮影画像IS[i]を単に画像IS[i]と略記することがあり、通常撮影画像IL[i]を単に画像IL[i]と略記することがある。
When shooting and recording of a moving image is started by pressing the
300fpsにて動画像撮影を行う時における、撮像素子33の駆動条件を300fps駆動条件と呼び、33fpsにて動画像撮影を行う時における、撮像素子33の駆動条件を33fps駆動条件と呼ぶ。
The driving condition of the
高速撮影画像の次に通常撮影画像が撮影されるため、高速撮影画像列IS[1]、IS[2]、IS[3]・・・から成る動画像の撮影フレームレートは実際には300fpsではないが、1枚1枚の高速撮影画像は、300fps駆動条件にて撮影される。従って、1枚の高速撮影画像の取得に必要な時間は、300fps相当のそれ、即ち約3.3ms(ミリ秒)である。 Since a normal photographed image is photographed next to the high-speed photographed image, the photographing frame rate of the moving image composed of the high-speed photographed image sequence I S [1], I S [2], I S [3]. Is not 300 fps, but one high-speed photographed image is photographed under a 300 fps drive condition. Therefore, the time required to acquire one high-speed captured image is equivalent to 300 fps, that is, about 3.3 ms (milliseconds).
通常撮影画像の次に高速撮影画像が撮影されるため、通常撮影画像列IL[1]、IL[2]、IL[3]・・・から成る動画像の撮影フレームレートは実際には33fpsではないが、1枚1枚の通常撮影画像は、33fps駆動条件にて撮影される。従って、1枚の通常撮影画像の取得に必要な時間は、33fps相当のそれ、即ち約30msである。 Since a high-speed photographed image is photographed next to the normal photographed image, the photographing frame rate of the moving image composed of the normal photographed image sequence I L [1], I L [2], I L [3]. Is not 33 fps, but one normal shot image is shot under a 33 fps drive condition. Therefore, the time required to acquire one normal photographed image is that corresponding to 33 fps, that is, about 30 ms.
このように、1枚の高速撮影画像の取得に必要な時間と1枚の通常撮影画像の取得に必要な時間との合計時間は、記録フレームレートの逆数(約33.3ms)以下に設定される。本例では、該合計時間が記録フレームレートの逆数と略同じとなっているが、該合計時間を記録フレームレートの逆数よりも随分小さくすることも可能ではある。 As described above, the total time of the time required to acquire one high-speed captured image and the time required to acquire one normal captured image is set to be equal to or less than the reciprocal of the recording frame rate (about 33.3 ms). The In this example, the total time is substantially the same as the reciprocal of the recording frame rate, but the total time can be made much smaller than the reciprocal of the recording frame rate.
図6は、直立した人物を被写体とする動画像の撮影中において、撮像素子33が横方向に位置変化したことを想定しており、この結果、露光タイミング差Δtが大きい各通常撮影画像に大きなFP歪みが発生している。一方で、高速撮影画像に対する露光タイミング差Δtは十分に小さいため、各高速撮影画像に含まれるFP歪みは無視できる程度に小さい。
FIG. 6 assumes that the position of the
時間的に隣接する画像IS[i]及びIL[i]は、共通の被写体を撮影したものである。高速撮影画像IS[i]の画角と通常撮影画像IL[i]の画角は等しく、図7に示すように、撮像面の有効画素領域に属する共通エリア210内の受光画素の出力信号から画像IS[i]及びIL[i]が生成される。従って、共通エリア210の左上隅、右上隅、左下隅及び右下隅に配置された受光画素の出力信号から、夫々、高速撮影画像IS[i]の左上隅、右上隅、左下隅及び右下隅に配置された画素の画像信号が形成されると共に、通常撮影画像IL[i]の左上隅、右上隅、左下隅及び右下隅に配置された画素の画像信号が形成される。
The temporally adjacent images I S [i] and I L [i] are obtained by photographing a common subject. The angle of view of the high-speed photographed image I S [i] and the angle of view of the normal photographed image I L [i] are equal, and as shown in FIG. 7, the output of the light receiving pixels in the
但し、共通エリア210内の全受光画素の出力信号を個別に読み出すことで通常撮影画像IL[i]が得られるのに対し、高速撮影画像用の読み出し時間が短いことに起因して、高速撮影画像IS[i]の生成の際には、共通エリア210内の一部の受光画素が間引かれる(即ち、所謂間引き読出しが行われる)、或いは、共通エリア210内の複数の受光画素の出力信号の加算信号を1つの受光画素の出力信号とみなした上で受光画素の出力信号の読み出しが成される(即ち、所謂加算読み出しが行われる)。このため、高速撮影画像IS[i]の画像サイズは、通常撮影画像IL[i]の画像サイズよりも小さい。本例では、図7に示す如く、任意の整数iに対して、高速撮影画像IS[i]の水平及び垂直方向の画素数が夫々448及び336であって、通常撮影画像IL[i]の水平及び垂直方向の画素数が夫々1280及び720であるものとする。以下、或る画像の水平及び垂直方向の画素数が夫々NX及びNYであることを、画像サイズが(NX×NY)であると表現する。尚、上述の想定とは異なるが、高速撮影画像IS[i]の画像サイズと通常撮影画像IL[i]の画像サイズが同じであっても構わない。
However, while the normal captured image I L [i] is obtained by individually reading the output signals of all the light receiving pixels in the
また、高速撮影画像IS[i]の明るさと通常撮影画像IL[i]の明るさが同程度となるように、両画像の露光時間の比(TS:TL)に基づき、高速撮影画像IS[i]の画像信号の生成時におけるAFE12の信号増幅度は、通常撮影画像IL[i]のそれのよりも大きくされる。但し、AFE12の信号増幅度を画像IS[i]及びIL[i]間で同じとしておき、歪み検出部52において高速撮影画像IS[i]の各画素の輝度レベルを増大させることで、高速撮影画像IS[i]と通常撮影画像IL[i]の明るさを合わせるようにしても良い。
Further, based on the exposure time ratio (T S : T L ) of both images so that the brightness of the high-speed captured image I S [i] and the brightness of the normal captured image I L [i] are comparable. The signal amplification degree of the
画像処理部51に与えられた各高速撮影画像の画像信号及び各通常撮影画像の画像信号は、歪み検出部52及び動き検出部54に与えられる。歪み検出部52又は動き検出部54は、まず、高速撮影画像の画像サイズと通常撮影画像の画像サイズを同じにするためのサイズ正規化を実行する。通常撮影画像の画像サイズを低減することによってサイズ正規化を実現しても良いが、本例では、高速撮影画像の画像サイズを増大させる画像サイズ拡大処理をサイズ正規化として実行する。即ち、サイズ正規化としての画像サイズ拡大処理では、サイズ正規化後の高速撮影画像の画像サイズが(1280×720)になるように、画像処理部51から与えられた高速撮影画像の画像サイズを増大させる。サイズ正規化後の高速撮影画像IS[i]を、IS’[i]にて表す。画像サイズ拡大処理は、画素の補間等を利用した公知の幾何学的変換によって実現される。
The image signal of each high-speed captured image and the image signal of each normal captured image provided to the
歪み検出部52又は動き検出部54は、サイズ正規化後の高速撮影画像を複数の検出用ブロックにて分割すると共に、それと同じ分割条件にて、通常撮影画像を複数の検出用ブロックにて分割する。図8(a)の画像220はサイズ正規化後の高速撮影画像を表し、図8(b)の画像230は通常撮影画像を表している。画像220に対して、画像220の水平方向に平行な境界線を(n−1)本設定することで画像220をn個の検出用ブロックに切り分ける(nは2以上の整数)。同様に、画像230に対して、画像230の水平方向に平行な境界線を(n−1)本設定することで画像230をn個の検出用ブロックに切り分ける。画像220に設けられたn個の検出用ブロックをBL[1]〜BL[n]にて表し、画像230に設けられたn個の検出用ブロックもBL[1]〜BL[n]にて表す。各検出用ブロックは、複数の画素から形成されている。
The
画像220上の検出用ブロックBL[j]と画像230上の検出用ブロックBL[j]には、共通の水平ラインが属している(jは整数)。従って、被写体及び撮像素子33の位置が固定されていると仮定したならば、理想的には、画像220上の検出用ブロックBL[j]内の画像と画像230上の検出用ブロックBL[j]内の画像は同じとなる。各検出用ブロックに属する水平ラインの本数は1本でもいいし、複数本でも良い。仮に例えば、3本の水平ラインごとに検出用ブロックを設定する場合には、画像220及び230上の各検出用ブロックBL[1]は画像220及び230上の第1〜第3水平ラインを内包し、画像220及び230上の各検出用ブロックBL[2]は画像220及び230上の第4〜第6水平ラインを内包することになる。
A common horizontal line belongs to the detection block BL [j] on the
動き検出部54は、公知のブロックマッチング、代表点マッチング又は勾配法等を用い、画像220及び230の画像信号に基づいて画像220及び230間のオプティカルフローを導出する。オプティカルフローは動きベクトルの束である。検出用ブロックごとに1つの動きベクトルが求められるように画像220及び230間のオプティカルフローは導出される。検出用ブロックBL[j]についての画像220及び230間の動きベクトルは、検出用ブロックBL[j]内の被写体の、画像220及び230間の動きの向き及び大きさを表すベクトルである。ここで、被写体の動きを、画像220を基準にして考える。従って例えば、画像220の検出用ブロックBL[j]内の注目被写体の位置に対して、画像230の検出用ブロックBL[j]内の該注目被写体の位置が右側に位置している時、検出用ブロックBL[j]の動きベクトルの向きは右向きになる。
The
図9に、高速撮影画像IS’[1]及び通常撮影画像IL[1]に対して求められたオプティカルフローを示す。このようなオプティカルフローは、高速撮影画像IS’[2]及び通常撮影画像IL[2]に対して、高速撮影画像IS’[3]及び通常撮影画像IL[3]に対して、・・・、次々と導出される。 FIG. 9 shows optical flows obtained for the high-speed captured image I S ′ [1] and the normal captured image I L [1]. Such an optical flow is performed for the high-speed captured image I S '[2] and the normal captured image I L [2], and for the high-speed captured image I S ' [3] and the normal captured image I L [3]. ... are derived one after another.
歪み検出部52は、高速撮影画像IS’[i]及び通常撮影画像IL[i]に対して求められた、検出用ブロックBL[j]についての動きベクトルを、通常撮影画像IL[i]の検出用ブロックBL[j]におけるFP歪み量として取り扱う。FP歪み量とは、通常撮影画像に存在しているFP歪みを表す量である。FP歪み量は、動きベクトルと同様、向きと大きさを持つ量である。
The
歪み補正部53は、歪み検出部52にて求められたFP歪み量に基づいて、画像取得部51からの各通常撮影画像の画像信号を補正することにより、各通常撮影画像のFP歪みを除去する。このFP歪みの除去を介して、歪み補正部53にて生成される画像を補正画像といい、通常撮影画像IL[i]に基づく補正画像をIC[i]にて表す。尚、ここにおける除去とは、FP歪みの完全なる除去又は一部の除去を意味し、低減とも読み替えられる。
The
歪み補正部53は、通常撮影画像IL[i]の各画素の位置を通常撮影画像IL[i]のFP歪み量の向きと反対向きにFP歪み量の大きさだけ平行移動させる幾何学的変換を実行する。この幾何学的変換は、検出用ブロックごとに行われる。これにより、通常撮影画像IL[i]に含まれるFP歪みが除去される。そして、この幾何学的変換の結果画像(即ち、この幾何学的変換後の通常撮影画像IL[i])から補正画像IC[i]を生成する。図10は、この幾何学的変換の様子を含む、補正画像の生成概念図である。
例えば、通常撮影画像IL[i]の検出用ブロックBL[j]について、FP歪み量の向きが右向きであって且つFP歪み量の大きさが5画素分である場合、通常撮影画像IL[i]の検出用ブロックBL[j]内の画像は、FP歪みによって右向きに5画素分だけ理想的な位置からずれている。従って、この場合、歪み補正部53は、通常撮影画像IL[i]の検出用ブロックBL[j]に属する各画素の位置を、左向きに5画素分だけ平行移動させる幾何学的変換を行う。図10において、通常撮影画像IL[i]内の矢印は、この幾何学的変換の様子を示している。このような幾何学的変換を通常撮影画像IL[i]の全検出用ブロックに対して行うことで、FP歪みが除去された変換画像ICA[i]を得る。
For example, regarding the detection block BL [j] of the normal captured image I L [i], when the direction of the FP distortion amount is rightward and the magnitude of the FP distortion amount is 5 pixels, the normal captured image I L The image in the detection block BL [j] of [i] is shifted from the ideal position by 5 pixels to the right due to FP distortion. Therefore, in this case, the
歪み補正部53は、変換画像ICA[i]に所定の画像サイズを有する矩形領域を設定して、変換画像ICA[i]から該矩形領域内の画像を抽出し、抽出画像を補正画像IC[i]として生成する。補正画像IC[i]の画像サイズが(1280×720)であるべきならば、上記抽出画像の画像サイズを(1280×720)に増大させる画像サイズ拡大処理を行い、該画像サイズ拡大処理後の抽出画像を補正画像IC[i]として生成する。
補正画像の生成は、高速撮影画像と通常撮影画像の組ごとに次々と実行される。即ち、画像IS[1]及びIL[1]に基づくFP歪み量を用いて画像IL[1]から補正画像IC[1]が生成され、画像IS[2]及びIL[2]に基づくFP歪み量を用いて画像IL[2]から補正画像IC[2]が生成される。補正画像IC[3]等についても同様である。各補正画像は、記録フレームレート30fpsの動画像の各フレームとして、外部メモリ18に記録される。
The generation of the corrected image is sequentially executed for each set of the high-speed captured image and the normal captured image. That is, the corrected image I C [1] is generated from the image I L [1] using the FP distortion amount based on the images I S [1] and I L [1], and the images I S [2] and I L [ 2] is used to generate the corrected image I C [2] from the image I L [2]. The same applies to the corrected image I C [3] and the like. Each corrected image is recorded in the
上述したように、高速撮影画像に対する露光タイミング差Δtは十分に小さいため、各高速撮影画像に含まれるFP歪みは無視できる程度に小さい。しかしながら、通常撮影画像と同じ画像サイズの画像を高速撮影条件にて得ようとすると消費電力が大きくなる、或いは、消費電力を抑制しつつ高速撮影しようとすると撮像素子33から読み出すことのできる画像の画像サイズは通常よりも小さくなる(図7参照)。従って、高速撮影条件のみにて動画像撮影を行うことは望ましくない。これらを考慮し、上述の如く、高速撮影画像と通常撮影画像を交互に取得し、高速撮影画像を基準にして高速撮影画像と通常撮影画像の差異を評価することで通常撮影画像のFP歪み量を検出する。これにより、通常撮影画像のFP歪みが正確に検出され、検出されたFP歪み量を用いて通常撮影画像を補正することによりFP歪みを高精度に除去することが可能となる。
As described above, since the exposure timing difference Δt with respect to the high-speed captured image is sufficiently small, the FP distortion included in each high-speed captured image is small enough to be ignored. However, if an image having the same image size as the normal captured image is obtained under high-speed shooting conditions, the power consumption increases, or if high-speed shooting is performed while suppressing power consumption, an image that can be read from the
尚、上述の例では、通常撮影画像IL[i]の画像サイズが(1280×720)であることを想定したため、補正画像IC[i]の画像サイズが(1280×720)であるべきならば変換画像ICA[i]から抽出した画像に対して画像サイズ拡大処理が必要となるが(図10参照)、この画像サイズ拡大処理が不要となるように、通常撮影画像の画像サイズを元々(1280×720)よりも大きくしておいても良い。即ち例えば、補正画像IC[i]の画像サイズが(1280×720)と定められている場合、撮像素子33の画素数が十分に大きいという条件の下で、(1600×1200)の画像サイズを有する通常撮影画像を取得するようにしておく。そうすれば、異常に大きなFP歪みが発生しない限り、通常撮影画像に基づく変換画像から、(1280×720)の画像サイズを有する補正画像を直接抽出することができる。
In the above example, since it is assumed that the image size of the normal captured image I L [i] is (1280 × 720), the image size of the corrected image I C [i] should be (1280 × 720). Then, an image size enlargement process is required for the image extracted from the converted image I CA [i] (see FIG. 10), but the image size of the normal photographed image is set so that this image size enlargement process is unnecessary. It may be larger than the original (1280 × 720). That is, for example, when the image size of the corrected image I C [i] is determined to be (1280 × 720), the image size of (1600 × 1200) under the condition that the number of pixels of the
また、画像IS[1]及びIL[1]に基づくFP歪み量を、通常撮影画像IL[1]以外の通常撮影画像(例えば、IL[2])に含まれているFP歪みの量であるとみなし、画像IS[1]及びIL[1]に基づくFP歪み量を用いて、通常撮影画像IL[1]以外の通常撮影画像(例えば、IL[2])のFP歪みを除去することも可能である。 In addition, the FP distortion amount based on the images I S [1] and I L [1] includes the FP distortion included in the normal captured image (for example, I L [2]) other than the normal captured image I L [1]. And using the FP distortion amount based on the images I S [1] and I L [1], a normal captured image other than the normal captured image I L [1] (for example, I L [2]) It is also possible to remove the FP distortion.
上述の動作を基本動作と呼ぶ。以下、基本動作を元にした複数の実施例を説明する。後述の各実施例において、特に述べない事項に関しては、矛盾が生じない限り、上述の基本動作の説明が適用される。また、矛盾なき限り、或る実施例に記載した事項と他の実施例に記載した事項を組み合わせて実施することも可能である。 The above operation is called a basic operation. Hereinafter, a plurality of embodiments based on basic operations will be described. In each of the embodiments described later, the description of the basic operation described above is applied to items that are not particularly described unless a contradiction arises. Moreover, as long as there is no contradiction, it is also possible to implement combining the matter described in a certain Example, and the matter described in the other Example.
<<第1実施例>>
第1実施例を説明する。第1実施例では、上述の動画像の撮影及び記録の動作の流れを説明する。図11は、この動作の流れを示すフローチャートである。
<< First Example >>
A first embodiment will be described. In the first embodiment, the flow of the above-described moving image shooting and recording operations will be described. FIG. 11 is a flowchart showing the flow of this operation.
図1の録画ボタン26aの押下操作によって動画像の撮影及び記録の開始が指示されると、まず、ステップS11の処理が実行される。ステップS11において、図5の画像取得部51は、300fps駆動条件にて撮像素子33を駆動させることにより1フレーム分の高速撮影画像の画像信号を取得する。得られた高速撮影画像の画像信号は、内部メモリ17に一時的に保存される。続くステップS12において、図5の画像取得部51は、33fps駆動条件にて撮像素子33を駆動させることにより1フレーム分の通常撮影画像の画像信号を取得する。得られた通常撮影画像の画像信号は、内部メモリ17に一時的に保存される。
When the start of recording and recording of a moving image is instructed by pressing the
その後、ステップS13において、歪み検出部52又は動き検出部54は、ステップS11にて得られた高速撮影画像の画像サイズをステップS12にて得られた通常撮影画像の画像サイズに合わせるためのサイズ正規化を実行し、更にステップS14において、歪み検出部52は、動き検出部54を用いて、サイズ正規化後の高速撮影画像と通常撮影画像からFP歪み量を算出する。上述したように、FP歪み量は検出用ブロックごとに算出される。続くステップS15において、歪み補正部53は、ステップS14にて算出されたFP歪み量に基づき通常撮影画像を補正することによりFP歪みが除去された補正画像を生成する。ステップS16において、CPU23の制御の下、生成された補正画像の画像信号は外部メモリ18に記録される。
Thereafter, in step S13, the
上述のステップS11〜S16の処理が順次行われた後、ステップS17に至る。ステップS17において、画像取得部51は、TG22から垂直同期信号Vsyncが出力されたか否かを確認し、垂直同期信号Vsyncの出力が確認されるまで撮像素子33の駆動を待機する。ここにおける垂直同期信号Vsyncは、1/30秒の周期にて発生する、30fps用の垂直同期信号Vsyncである。垂直同期信号Vsyncの出力が確認されたならば、ステップS17からステップS18に移行し、画像取得部51は、録画ボタン26aに対する再度の押下操作によって動画像の撮影及び記録の終了が指示されているか否かを確認する。その終了が指示されている場合には、図11の動作を終了するが、その終了が指示されていない場合にはステップS11に戻り、ステップS11以降の各処理が再び実行される。
After the processes of steps S11 to S16 described above are sequentially performed, the process proceeds to step S17. In step S <b> 17, the
<<第2実施例>>
第2実施例を説明する。上述してきたFP歪みの除去方法は、静止画像の撮影にも適用できる。即ち、図1のシャッタボタン26bの押下操作による静止画像の撮影指示が成されたとき、画像取得部51は、高速撮影条件による撮像素子33の駆動と通常撮影条件による撮像素子33の駆動を連続的に1回だけ実行すると良い。これにより、図12に示す如く、連続撮影された1枚の高速撮影画像311と1枚の通常撮影画像312が得られる。ここで得られた高速撮影画像311と通常撮影画像312は、図6の高速撮影画像IS[1]と通常撮影画像IL[1]に相当する。従って、高速撮影画像311及び通常撮影画像312を高速撮影画像IS[1]及び通常撮影画像IL[1]として取り扱って歪み検出部52及び歪み補正部53を用いることにより、通常撮影画像312のFP歪みが除去された補正画像を得ることができる。
<< Second Example >>
A second embodiment will be described. The FP distortion removal method described above can also be applied to still image shooting. That is, when a still image shooting instruction is issued by pressing the
更に、上述してきたFP歪みの除去方法は、静止画像の連続撮影にも適用できる。ユーザは、操作部26に対して所定の連写操作を行うことで、静止画像の連続撮影を指示することができる。
Furthermore, the FP distortion removal method described above can also be applied to continuous shooting of still images. The user can instruct continuous shooting of still images by performing a predetermined continuous shooting operation on the
例えば、上記連写操作により3枚の静止画像を連続撮影することが指示された場合、画像取得部51は、高速撮影条件による撮像素子33の駆動を1回実行した後、通常撮影条件による撮像素子33の駆動を連続的に3回実行すると良い。これにより、図13に示す如く、連続撮影された1枚の高速撮影画像321と3枚の通常撮影画像322〜324が得られる。
For example, when it is instructed to continuously shoot three still images by the continuous shooting operation, the
歪み検出部52は、高速撮影画像IS[i]及び通常撮影画像IL[i]から通常撮影画像IL[i]に対するFP歪み量を検出用ブロックごとに導出する方法と同様の方法にて、画像321及び322から画像322に対するFP歪み量を検出用ブロックごとに導出し、画像321及び323から画像323に対するFP歪み量を検出用ブロックごとに導出し、画像321及び324から画像324に対するFP歪み量を検出用ブロックごとに導出することができる。そして、歪み補正部53は、通常撮影画像IL[i]に対する検出用ブロックごとのFP歪み量に基づき通常撮影画像IL[i]から補正画像IC[i]を生成する方法と同様の方法にて、画像322に対する検出用ブロックごとのFP歪み量に基づき画像322からFP歪みを除去した補正画像を生成し、画像323に対する検出用ブロックごとのFP歪み量に基づき画像323からFP歪みを除去した補正画像を生成し、画像324に対する検出用ブロックごとのFP歪み量に基づき画像324からFP歪みを除去した補正画像を生成することができる。
また例えば、上記連写操作により3枚の静止画像を連続撮影することが指示された場合、画像取得部51は、高速撮影条件による撮像素子33の駆動と通常撮影条件による撮像素子33の駆動を1回ずつ実行する処理を、連続的に3回繰り返すようにしても良い。これにより、図14に示す如く、高速撮影画像331、通常撮影画像332、高速撮影画像333、通常撮影画像334、高速撮影画像335及び通常撮影画像336が、この順番で連続的に撮影されることになる。ここで得られた画像331、332、333、334、335及び336を、夫々、画像IS[1]、IL[1]、IS[2]、IL[2]、IS[3]及びIL[3]として取り扱って歪み検出部52及び歪み補正部53を用いることにより、通常撮影画像332、334及び336のFP歪みが除去された3枚の補正画像を得ることができる。
Further, for example, when it is instructed to continuously shoot three still images by the continuous shooting operation, the
尚、図6及び図12〜図14を参照して説明した例を含む上述の各動作例では、通常撮影画像のFP歪み量の導出用に取得される高速撮影画像が、当該通常撮影画像の前に撮影されているが、高速撮影画像と通常撮影画像の撮影順序は不問である。即ち例えば、図6の例において、画像IL[1]、IS[1]、IL[2]、IS[2]、・・・の順番で撮影を行うようにしてもよいし、図12の例において、画像312の次に画像311を撮影するようにしても良い。
In each of the above-described operation examples including the examples described with reference to FIGS. 6 and 12 to 14, the high-speed captured image acquired for derivation of the FP distortion amount of the normal captured image is the normal captured image. Although it was shot before, the shooting order of the high-speed shot image and the normal shot image is not limited. That is, for example, in the example of FIG. 6, shooting may be performed in the order of images I L [1], I S [1], I L [2], I S [2],. In the example of FIG. 12, the
<<第3実施例>>
第3実施例を説明する。上述の各動作例では、動画像又は静止画像の撮影時にリアルタイムで補正画像を生成することを想定しているが、補正画像の生成タイミングは任意である。即ち例えば、図6に示す例の場合、撮影した画像IS[1]、IL[1]、IS[2]、IL[2]、・・・、IS[m]及びIL[m]の画像信号を、一旦外部メモリ18に記録しておき(mは2以上の整数)、その後、必要に応じ、任意のタイミングにおいて、画像IS[1]、IL[1]、IS[2]、IL[2]、・・・、IS[m]及びIL[m]から補正画像IC[1]〜IL[m]を生成するようにしても良い。
<< Third Example >>
A third embodiment will be described. In each of the above-described operation examples, it is assumed that a correction image is generated in real time when a moving image or a still image is captured, but the generation timing of the correction image is arbitrary. That is, for example, in the example shown in FIG. 6, the captured images I S [1], I L [1], I S [2], I L [2],..., I S [m] and I L The image signal of [m] is temporarily recorded in the external memory 18 (m is an integer of 2 or more), and then at any timing as necessary, the images I S [1], I L [1], The corrected images I C [1] to I L [m] may be generated from I S [2], I L [2],..., I S [m], and I L [m].
撮像装置1と異なる電子機器(不図示)に、歪み検出部52及び歪み補正部53を設けておくようにしても良い。電子機器には、テレビ受信機のような表示装置、パーソナルコンピュータ、携帯電話機などが含まれ、撮像装置も電子機器の一種である。撮像装置1の画像取得部51を用いて得られた高速撮影画像及び通常撮影画像の画像信号を、外部メモリ18を介して又は通信によって上記電子機器に伝達するようにすれば、当該電子機器内の歪み検出部52及び歪み補正部53において、高速撮影画像及び通常撮影画像から補正画像を生成することが可能である。
The
<<第4実施例>>
第4実施例を説明する。上述の例では、画像220を水平方向のみに沿って分割することで複数の検出用ブロックを設定しているが(図8(a))、画像220を水平及び垂直方向に沿って分割することで複数の検出用ブロックを設定するようにしても良い(画像230についても同様)。
<< 4th Example >>
A fourth embodiment will be described. In the above example, a plurality of detection blocks are set by dividing the
即ち例えば、図15に示す如く、画像220の全画像領域を水平及び垂直方向に沿って切り分けることで、画像220を(nA×nB)個の検出用ブロックに分割するようにしても良い(nA及びnBは2以上の整数)。画像230に対する検出用ブロックも、画像220と同様に設定される。この場合においても、上述してきたように、動き検出部54及び歪み検出部52において検出用ブロックごとに高速撮影画像及び通常撮影画像間の動きベクトル及びFP歪み量が算出され、歪み補正部53においてFP歪み量に基づく通常撮影画像の補正が検出用ブロックごとに行われることに変わりはない。
That is, for example, as shown in FIG. 15, the
<<第5実施例>>
第5実施例を説明する。上述の基本動作では、直立した人物を被写体とする動画像の撮影中において、撮像素子33が画像の水平方向に対応する横方向に位置変化したことが想定されており、この結果として発生した水平方向のFP歪みを除去しているが、第5実施例及び後述の第6実施例では、直立した人物を被写体とする動画像の撮影中において、撮像素子33が画像の垂直方向に対応する縦方向に位置変化したことを想定する。
<< 5th Example >>
A fifth embodiment will be described. In the basic operation described above, it is assumed that the position of the
縦方向の位置変化には、上方向の位置変化と下方向の位置変化が存在するが、第5実施例では、直立した人物を被写体とする動画像の撮影中において、撮像素子33が上方向に位置変化した場合を考える。図16は、第5実施例に係る高速撮影画像列及び通常撮影画像列と、それらの撮影タイミングを示す図である。画像410及び430は、夫々、第5実施例における高速撮影画像IS[1]及びIS[2]であり、画像420及び440は、夫々、第5実施例における通常撮影画像IL[1]及びIL[2]である。第5実施例に係る高速撮影画像及び通常撮影画像の生成方法は、基本動作のそれと同じである。従って、高速撮影画像410及び430の夫々の画像サイズは(448×336)であって、通常撮影画像420及び440の夫々の画像サイズは(1280×720)である。
In the vertical position change, there are an upward position change and a downward position change. In the fifth embodiment, the
基本動作と同様、歪み検出部52又は動き検出部54は、高速撮影画像410及び430の夫々の画像サイズを通常撮影画像420及び440の夫々の画像サイズと同じにするためのサイズ正規化を実行する。通常撮影画像の画像サイズを低減することによってサイズ正規化を実現しても良いが、基本動作と同様、高速撮影画像の画像サイズを増大させる画像サイズ拡大処理をサイズ正規化として実行することを想定する。即ち、サイズ正規化としての画像サイズ拡大処理では、サイズ正規化後の高速撮影画像の画像サイズが(1280×720)になるように、画像処理部51から与えられた高速撮影画像410及び430の画像サイズを増大させる。サイズ正規化後の高速撮影画像410及び430を、夫々、410’及び430’にて表す。図17に、サイズ正規化後の高速撮影画像410’を、通常撮影画像420と共に示す。
Similar to the basic operation, the
動き検出部54は、画像410’及び420の画像信号に基づき、画像410’及び420間のオプティカルフローを導出する。具体的には例えば、以下のように処理すれば良い。
The
画像410’から第1〜第Nの特徴点を抽出して、画像410’と画像420との間で画像マッチング(例えばブロックマッチング)を行うことにより、画像410’上の第1〜第Nの特徴点に対応する、画像420上におけるN個の特徴点を検出する(Nは2以上の整数)。但し、画像410’上において、第1〜第Nの特徴点は、互いに垂直位置が異なるものとする。即ち、第1〜第Nの特徴点が属する水平ラインは互いに異なる。図8(a)の画像220に対してn個の検出用ブロックBL[1]〜BL[n]を設定したのと同様に、画像410’に対しても検出用ブロックBL[1]〜BL[n]を設定し、画像410’上の各検出用ブロックから1つずつ特徴点を抽出するようにしてもよい(この場合、n=Nとなる)。
By extracting the first to Nth feature points from the
特徴点は、周囲の点と区別できる、追跡の容易な点であることが望ましい。このような特徴点は、水平及び垂直方向における濃淡変化量が大きくなる画素を検出する、周知の特徴点抽出器(不図示)を用いて自動的に抽出することができる。特徴点抽出器とは、例えば、Harrisのコーナ検出器、SUSANのコーナ検出器である。そして、画像410’上の特徴点ごとに、画像410’上の特徴点の位置から画像420上の対応特徴点の位置へと向かうベクトルを特徴点動きベクトルとして求める。
The feature point is preferably a point that can be distinguished from the surrounding points and can be easily traced. Such feature points can be automatically extracted by using a well-known feature point extractor (not shown) that detects pixels in which the amount of change in shading in the horizontal and vertical directions increases. The feature point extractor is, for example, a Harris corner detector or a SUSAN corner detector. Then, for each feature point on the image 410 ', a vector from the position of the feature point on the image 410' to the position of the corresponding feature point on the
図18には、画像410’から抽出された3つの特徴点411〜413が示されていると共に、特徴点411〜413に対応する画像420上の特徴点421〜423が示されている。理想的には、画像410’上の特徴点411〜413に位置する画素の画像信号は、夫々、画像420上の特徴点421〜423に位置する画素の画像信号と一致する。ベクトルVEC1は、画像410’上の特徴点411の位置から画像420上の対応特徴点421の位置へと向かう特徴点動きベクトルであり、ベクトルVEC2は、画像410’上の特徴点412の位置から画像420上の対応特徴点422の位置へと向かう特徴点動きベクトルであり、ベクトルVEC3は、画像410’上の特徴点413の位置から画像420上の対応特徴点423の位置へと向かう特徴点動きベクトルである。動き検出部54によって、N個の特徴点の夫々に対する特徴点動きベクトルが求められる。第5実施例において求められるオプティカルフローは、動きベクトルの一種である特徴点動きベクトルの束である。第5実施例及び後述する第6実施例では、撮像素子33が上方向に位置変化したことを想定しているため、各特徴点動きベクトルの向きは、通常撮影画像の垂直方向及び高速撮影画像の垂直方向と平行である。
FIG. 18 shows three
尚、上述の例では、画像410’から特徴点を抽出した後、画像410’上の特徴点に対応する特徴点を画像420から検出するようにしているが、逆に、画像420から特徴点を抽出した後、画像420上の特徴点に対応する特徴点を画像画像410’から検出し、これによって特徴点動きベクトルを求めるようにしても良い。また、基本動作におけるオプティカルフロー導出を、上述の同様の特徴点探索によって実現することもできる。
In the above example, feature points corresponding to the feature points on the
動き検出部54は、複数の特徴点動きベクトルから形成されるオプティカルフローを、画像430’及び440に対しても求め、画像440の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても順次求めてゆく。
The
歪み検出部52は、高速撮影画像410’及び通常撮影画像420に対して求められた特徴点動きベクトルを、通常撮影画像420に対するFP歪み量として取り扱う。高速撮影画像430’及び通常撮影画像440についても同様である。FP歪み量とは、通常撮影画像に存在しているFP歪みを表す量である。FP歪み量は、動きベクトル及び特徴点動きベクトルと同様、向きと大きさを持つ量である。
The
歪み補正部53は、歪み検出部52にて求められたFP歪み量に基づいて、画像取得部51からの各通常撮影画像の画像信号を補正することにより、各通常撮影画像のFP歪みを除去する。通常撮影画像420及び440のFP歪みを除去して得られる画像を夫々補正画像420C及び440Cと呼ぶ。
The
FP歪み量に基づき通常撮影画像420から補正画像420Cを生成する方法例を説明する。
An example of a method for generating the corrected
歪み補正部53は、FP歪み量としての特徴点動きベクトルの逆ベクトルを歪み補正ベクトルとして設定する。特徴点動きベクトルの逆ベクトルとは、特徴点動きベクトルと向きが反対であって且つ特徴点動きベクトルと大きさが同じベクトルを指す。歪み補正ベクトルは、まず、特徴点が属する水平ラインごとに設定される。即ち、図19に示す如く、特徴点421、422及び423が属する、通常撮影画像420上の水平ライン451、452及び453に対して、夫々、特徴点動きベクトルVEC1、VEC2及びVEC3の逆ベクトルである歪み補正ベクトルVEC1’、VEC2’及びVEC3’が設定される。特徴点421〜423以外の他の特徴点が属する水平ラインに対しても歪み補正ベクトルが設定される。
The
図19の通常撮影画像420内に示される水平ライン450は、撮像素子33の第1水平ラインに対応する、通常撮影画像420上の水平ラインであり、通常撮影画像420において最も上方側に位置する水平ラインである。水平ライン450についての歪み補正ベクトルVECTOP’の大きさはゼロとされる。今、説明の便宜上、通常撮影画像420上において、第uの特徴点は第(u+1)の特徴点よりも上方側に位置するものとし(uは整数)、特徴点421〜423が夫々第1〜第3の特徴点であることを想定する。
A
歪み補正部53は、第1〜第Nの特徴点に対する特徴点動きベクトルに基づき、第1〜第Nの特徴点が属する各水平ラインに対して歪み補正ベクトルを設定した後、補間を用いて水平ラインごとの歪み補正ベクトルを導出する。補間の方法として、線形補間に代表される任意の補間の方法を用いることができる。ここでは、線形補間を用いることを想定する。そうすると、水平ライン450及び451間の中間に位置する水平ラインに対する歪み補正ベクトルは、歪み補正ベクトルVECTOP’ 及びVEC1’の平均ベクトルとされ、水平ライン451及び452間の中間に位置する水平ラインに対する歪み補正ベクトルは、歪み補正ベクトルVEC1’ 及びVEC2’の平均ベクトルとされる。同様に、第3の特徴点423の属する水平ライン453及び第4の特徴点の属する水平ライン間の中間に位置する水平ラインについての歪み補正ベクトルは、歪み補正ベクトルVEC3’と、第4の特徴点の属する水平ラインについての歪み補正ベクトルとの平均ベクトルとされる。このように、第uの特徴点の属する水平ラインと第(u+1)の特徴点の属する水平ラインとの間に位置する水平ラインの歪み補正ベクトルは、第uの特徴点の属する水平ラインについての歪み補正ベクトルと、第(u+1)の特徴点の属する水平ラインについての歪み補正ベクトルとを用いた線形補間によって導出される。
The
通常撮影画像420の各水平ラインについての歪み補正ベクトルを導出した後、歪み補正部53は、通常撮影画像420の水平ライン及び水平ライン上の各画素を、水平ラインごとに、歪み補正ベクトルの向きに沿って歪み補正ベクトルの大きさだけ平行移動させる幾何学的変換を実行する。図19の右側に、上記幾何学的変換を水平ライン451〜453に施すことによって得られた水平ライン451’〜 453’を、水平ライン451〜453と共に共通の画像空間上に示す。
After deriving the distortion correction vector for each horizontal line of the normal captured
歪み補正ベクトルに従う上記幾何学的変換を通常撮影画像420に施して得られる画像が、補正画像420Cである。図20に、得られた補正画像420Cを示す。第5実施例の想定化における上記幾何学的変換は、画像サイズを垂直方向に拡大させるスケール変換に相当する。例えば、通常撮影画像420上の水平ライン451及び452間に存在する水平ラインが5本である場合において、水平ライン451及び452間の距離が上記幾何学的変換によって2倍に拡大されたならば、補正画像420C上の水平ライン451’及び 452’間には10本の水平ラインが挿入され、その10本の水平ライン上の各画素の画像信号が補正画像420Cの画像信号として、通常撮影画像420の画像信号に基づく補間(必要に応じて画像信号の再標本化)を介して導出される。
Image obtained by performing the geometric transformation according to the distortion correction vector to the normal
通常撮影画像420に対する補正動作を説明したが、補正画像の生成は、高速撮影画像と通常撮影画像の組ごとに次々と実行される。即ち、画像410及び420に基づくFP歪み量を用いて画像420から補正画像420Cが生成され、画像430及び440に基づくFP歪み量を用いて画像440から補正画像440Cが生成される。画像440の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても同様である。各補正画像は、記録フレームレート30fpsの動画像の各フレームとして、外部メモリ18に記録される。
Although the correction operation for the normal captured
第5実施例によれば、垂直方向における通常撮影画像のFP歪みが正確に検出され、検出されたFP歪み量を用いて通常撮影画像を補正することにより垂直方向のFP歪みを高精度に除去することが可能となる。 According to the fifth embodiment, the FP distortion of the normal photographed image in the vertical direction is accurately detected, and the FP distortion in the vertical direction is accurately removed by correcting the normal photographed image using the detected FP distortion amount. It becomes possible to do.
<<第6実施例>>
第6実施例を説明する。第6実施例では、第5実施例の想定とは逆に、直立した人物を被写体とする動画像の撮影中において、撮像素子33が下方向に位置変化した場合を考える。通常撮影画像から補正画像を生成する際に用いるスケール変換の内容が異なるだけで、第6実施例の動作は第5実施例のそれと同様である。
<< Sixth Example >>
A sixth embodiment will be described. In the sixth embodiment, contrary to the assumption of the fifth embodiment, a case is considered in which the position of the
図21は、第6実施例に係る高速撮影画像列及び通常撮影画像列と、それらの撮影タイミングを示す図である。画像510及び530は、夫々、第6実施例における高速撮影画像IS[1]及びIS[2]であり、画像520及び540は、夫々、第6実施例における通常撮影画像IL[1]及びIL[2]である。第6実施例に係る高速撮影画像及び通常撮影画像の生成方法は、基本動作のそれと同じである。従って、高速撮影画像510及び530の夫々の画像サイズは(448×336)であって、通常撮影画像520及び540の夫々の画像サイズは(1280×720)である。
FIG. 21 is a diagram illustrating a high-speed captured image sequence and a normal captured image sequence according to the sixth embodiment, and their imaging timing.
基本動作と同様、歪み検出部52又は動き検出部54は、高速撮影画像510及び530の夫々の画像サイズを通常撮影画像520及び540の夫々の画像サイズと同じにするためのサイズ正規化を実行する。通常撮影画像の画像サイズを低減することによってサイズ正規化を実現しても良いが、基本動作と同様、高速撮影画像の画像サイズを増大させる画像サイズ拡大処理をサイズ正規化として実行することを想定する。即ち、サイズ正規化としての画像サイズ拡大処理では、サイズ正規化後の高速撮影画像の画像サイズが(1280×720)になるように、画像処理部51から与えられた高速撮影画像510及び530の画像サイズを増大させる。サイズ正規化後の高速撮影画像510及び530を、夫々、510’及び530’にて表す。図22に、サイズ正規化後の高速撮影画像510’を、通常撮影画像520と共に示す。
Similar to the basic operation, the
動き検出部54は、画像510’及び520の画像信号に基づき、複数の特徴点動きベクトルから成る、画像510’及び520間のオプティカルフローを導出する。ここにおけるオプティカルフローの導出方法は、第5実施例に示したものと同じである。動き検出部54は、複数の特徴点動きベクトルから形成されるオプティカルフローを、画像530’及び540に対しても求め、画像540の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても順次求めてゆく。
The
歪み検出部52は、高速撮影画像510’及び通常撮影画像520に対して求められた特徴点動きベクトルを、通常撮影画像520に対するFP歪み量として取り扱う。高速撮影画像530’及び通常撮影画像540についても同様である。
The
歪み補正部53は、歪み検出部52にて求められたFP歪み量に基づいて、画像取得部51からの各通常撮影画像の画像信号を補正することにより、各通常撮影画像のFP歪みを除去する。通常撮影画像520及び540のFP歪みを除去して得られる画像を夫々補正画像520C及び540Cと呼ぶ。
The
歪み補正部53は、第5実施例で述べた方法と同様の方法にて、通常撮影画像520のFP歪み量(特徴点動きベクトル)から通常撮影画像520の水平ラインごとの歪み補正ベクトルを導出し、通常撮影画像520の水平ライン及び水平ライン上の各画素を、水平ラインごとに、歪み補正ベクトルの向きに沿って歪み補正ベクトルの大きさだけ平行移動させる幾何学的変換を実行することで補正画像520Cを生成する。
The
図23に、得られた補正画像520Cを示す。第6実施例の想定化における上記幾何学的変換は、画像サイズを垂直方向に縮小させるスケール変換に相当する。例えば、通常撮影画像520上の第1及び第2注目水平ライン間に存在する水平ラインが10本である場合において、第1及び第2注目水平ライン間の距離が上記幾何学的変換によって1/2倍に縮小されたならば、第1及び第2注目水平ラインに対応する、補正画像520C上の2本の水平ライン間には5本の水平ラインのみが挿入される。つまり、上記10本の水平ラインの内の半分が、スケール変換の過程で間引かれる。
FIG. 23 shows the obtained corrected
通常撮影画像520に対する補正動作を説明したが、補正画像の生成は、高速撮影画像と通常撮影画像の組ごとに次々と実行される。即ち、画像510及び520に基づくFP歪み量を用いて画像520から補正画像520Cが生成され、画像530及び540に基づくFP歪み量を用いて画像540から補正画像540Cが生成される。画像540の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても同様である。各補正画像は、記録フレームレート30fpsの動画像の各フレームとして、外部メモリ18に記録される。
Although the correction operation for the normal captured
<<変形等>>
上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 3 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
水平方向のFP歪みの除去方法と垂直方向のFP歪みの除去方法を別個に説明したが、通常撮影画像に水平及び垂直方向のFP歪みが含まれているなら、両者を同時に除去することも可能である。即ち、基本動作と上述の第5及び第6実施例を組み合わせて実施することで、通常撮影画像に含まれうる水平及び垂直方向のFP歪みを同時に除去するようにしても良い。
[Note 1]
Although the method for removing horizontal FP distortion and the method for removing vertical FP distortion have been described separately, if the normal photographed image contains horizontal and vertical FP distortion, both can be removed simultaneously. It is. That is, by performing the basic operation in combination with the fifth and sixth embodiments described above, the FP distortion in the horizontal and vertical directions that may be included in the normal photographed image may be simultaneously removed.
[注釈2]
高速撮影画像の生成時には、図7の共通エリア210内の一部の受光画素が間引かれる一方で、通常撮影画像の生成時には、共通エリア210内の全受光画素の出力信号が個別に読み出されると上述したが、通常撮影画像の生成時においても受光画素の間引きが行われても構わない。従って例えば、撮像素子33の共通エリア210に属する幾つかの水平ライン上の受光画素は、高速撮影画像の生成時だけでなく通常撮影画像の生成時においても間引かれることがある。但し、間引きの対象となる水平ラインは、通常撮影画像の生成時と高速撮影画像の生成時との間で異なりうる。
[Note 2]
At the time of generating a high-speed captured image, a part of the light receiving pixels in the
[注釈3]
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい
[Note 3]
The
1 撮像装置
11 撮像部
33 撮像素子
51 画像取得部
52 歪み検出部
53 歪み補正部
54 動き検出部
DESCRIPTION OF
Claims (5)
前記第1及び第2水平ライン間の露光タイミング差が比較的短い露光による画像信号を前記撮像素子から読み出すことで第1画像を取得する一方、前記露光タイミング差が比較的長い露光による画像信号を前記撮像素子から読み出すことで第2画像を取得する画像取得部と、
前記第1及び第2画像の画像信号に基づいて前記第1及び第2画像間のオプティカルフローを導出する動き検出部と、
前記オプティカルフローに基づいて前記第2画像を補正する補正部と、を備えた
ことを特徴とする撮像装置。 An image sensor that captures an image while varying the exposure timing between the first and second horizontal lines included in the plurality of horizontal lines;
A first image is obtained by reading out an image signal obtained by exposure with a relatively short exposure timing difference between the first and second horizontal lines from the image sensor, and an image signal obtained by exposure with a relatively long exposure timing difference. An image acquisition unit that acquires a second image by reading from the image sensor;
A motion detector for deriving an optical flow between the first and second images based on image signals of the first and second images;
An imaging apparatus comprising: a correction unit that corrects the second image based on the optical flow.
ことを特徴とする請求項1に記載の撮像装置。 2. The correction unit according to claim 1, wherein the correction unit corrects distortion generated in the second image due to an exposure timing being different between the first and second horizontal lines based on the optical flow. Imaging device.
前記補正部は、前記第2画像に生じた前記歪みを各動きベクトルに基づいて補正する
ことを特徴とする請求項2に記載の撮像装置。 The motion detection unit derives a plurality of motion vectors forming the optical flow based on the image signals of the first and second images;
The imaging apparatus according to claim 2, wherein the correction unit corrects the distortion generated in the second image based on each motion vector.
ことを特徴とする請求項3に記載の撮像装置。 The imaging apparatus according to claim 3, wherein the correction unit corrects the distortion by performing geometric transformation on the second image based on each motion vector.
当該撮像装置は、前記補正部の補正によって得た各第2画像に基づく各補正画像を所定の記録フレームレートにて記録媒体に記録し、
1枚の第1画像を得るために必要な時間と1枚の第2画像を得るために必要な時間との合計は、前記記録フレームレートの逆数以下に設定される
ことを特徴とする請求項1〜請求項5の何れかに記載の撮像装置。 The image acquisition unit repeatedly executes alternate shooting of the first and second images,
The imaging apparatus records each corrected image based on each second image obtained by the correction of the correction unit on a recording medium at a predetermined recording frame rate,
The total of the time required to obtain one first image and the time required to obtain one second image is set to be equal to or less than the reciprocal of the recording frame rate. The imaging device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009239966A JP2011087203A (en) | 2009-10-19 | 2009-10-19 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009239966A JP2011087203A (en) | 2009-10-19 | 2009-10-19 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011087203A true JP2011087203A (en) | 2011-04-28 |
Family
ID=44079816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009239966A Pending JP2011087203A (en) | 2009-10-19 | 2009-10-19 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011087203A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101550536B1 (en) | 2014-04-07 | 2015-09-08 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Method and apparatus for reducing motion blur in video sensor systems |
WO2019065468A1 (en) * | 2017-09-27 | 2019-04-04 | 京セラ株式会社 | Image capture device and moving body |
CN113347356A (en) * | 2021-05-31 | 2021-09-03 | 维沃移动通信(杭州)有限公司 | Shooting method, shooting device, electronic equipment and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009089037A (en) * | 2007-09-28 | 2009-04-23 | Fujifilm Corp | Photographing controller, photographing control method, photographing control program and photographing device |
JP2009182527A (en) * | 2008-01-29 | 2009-08-13 | Morpho Inc | Method and apparatus for capturing image |
-
2009
- 2009-10-19 JP JP2009239966A patent/JP2011087203A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009089037A (en) * | 2007-09-28 | 2009-04-23 | Fujifilm Corp | Photographing controller, photographing control method, photographing control program and photographing device |
JP2009182527A (en) * | 2008-01-29 | 2009-08-13 | Morpho Inc | Method and apparatus for capturing image |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101550536B1 (en) | 2014-04-07 | 2015-09-08 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Method and apparatus for reducing motion blur in video sensor systems |
WO2015156546A1 (en) * | 2014-04-07 | 2015-10-15 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Method and apparatus for reducing motion blur of video sensor |
WO2019065468A1 (en) * | 2017-09-27 | 2019-04-04 | 京セラ株式会社 | Image capture device and moving body |
JP2019062479A (en) * | 2017-09-27 | 2019-04-18 | 京セラ株式会社 | Imaging apparatus and movable body |
CN113347356A (en) * | 2021-05-31 | 2021-09-03 | 维沃移动通信(杭州)有限公司 | Shooting method, shooting device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5683851B2 (en) | Imaging apparatus and image processing apparatus | |
JP2010268441A (en) | Image processor, imaging device, and image reproducing device | |
JP5578442B2 (en) | Imaging apparatus, image composition method, and program | |
JP2013046259A (en) | Video apparatus, control method, and program | |
JP2007215091A (en) | Imaging apparatus and program therefor | |
JP2013165485A (en) | Image processing apparatus, image capturing apparatus, and computer program | |
JP2014082533A (en) | Image processing apparatus, image processing method and program | |
JP2013165483A (en) | Image processing apparatus, image capturing apparatus, and computer program | |
JP2008139683A (en) | Imaging apparatus and autofocus control method | |
JP2012119761A (en) | Electronic apparatus, image processing method and program | |
KR20160044945A (en) | Image photographing appratus | |
JP5013852B2 (en) | Angle of view correction apparatus and method, and imaging apparatus | |
US8681235B2 (en) | Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus | |
JP6261397B2 (en) | Imaging apparatus and control method thereof | |
JP2018148512A (en) | Imaging device, control method of imaging device, and program | |
JP2013165488A (en) | Image processing apparatus, image capturing apparatus, and program | |
JP2017011504A (en) | Imaging device, image processing method and program | |
JP6557499B2 (en) | FOCUS DETECTION DEVICE, ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM | |
JP2011066827A (en) | Image processing apparatus, image processing method and program | |
JP5959194B2 (en) | Imaging device | |
JP2011087203A (en) | Imaging apparatus | |
JP2011114486A (en) | Imaging device | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP6278729B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2013135408A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120828 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130404 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130924 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131217 |