JP2018137592A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2018137592A
JP2018137592A JP2017030430A JP2017030430A JP2018137592A JP 2018137592 A JP2018137592 A JP 2018137592A JP 2017030430 A JP2017030430 A JP 2017030430A JP 2017030430 A JP2017030430 A JP 2017030430A JP 2018137592 A JP2018137592 A JP 2018137592A
Authority
JP
Japan
Prior art keywords
image
imaging
exposure timing
image sensor
correction control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017030430A
Other languages
Japanese (ja)
Other versions
JP6819352B2 (en
Inventor
健司 岩本
Kenji Iwamoto
健司 岩本
大輔 北條
Daisuke Hojo
大輔 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017030430A priority Critical patent/JP6819352B2/en
Publication of JP2018137592A publication Critical patent/JP2018137592A/en
Application granted granted Critical
Publication of JP6819352B2 publication Critical patent/JP6819352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Structure And Mechanism Of Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus, an imaging method, and a program capable of guaranteeing the quality of a joint while suppressing increase in costs.SOLUTION: The imaging apparatus according to this invention, which generates one image by joining images captured by respective image pick-up devices corresponding to plural optical systems, comprises a correction control part. The correction control part controls the image pick-up devices so as to correct deviation of the exposure timing of the respective image pick-up devices.SELECTED DRAWING: Figure 7

Description

本発明は、撮像装置、撮像方法およびプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program.

例えば全天球画像に代表されるような、複数の撮像素子(イメージセンサ)の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する撮像装置が知られている。このような撮像装置において、つなぎ目の品質を高めるため、走査方向を揃えて露光タイミングを合わせる技術が知られている(例えば特許文献1参照)。   For example, there is known an imaging apparatus that generates one image by connecting images captured by each of a plurality of imaging elements (image sensors), as represented by an omnidirectional image. In such an imaging apparatus, a technique is known in which the exposure timing is adjusted by aligning the scanning direction in order to improve the quality of the joint (for example, see Patent Document 1).

しかしながら、例えば物理的に走査方向を揃えるためには、異なる複数の撮像素子基板(撮像素子が実装された基板)を用意することが考えられるが、この場合、コストが増大するという問題がある。コストを抑えるために1種類の基板(複数の撮像素子が実装された1つの基板)を用いる場合は、撮像素子からの読み出し方向(ライン単位の画像を読み出す方向)を逆方向に動作させて、走査方向を揃えることも可能であるが、この場合、撮像素子間における読み出しのタイミングが数ライン分ずれてしまう可能性がある。つまり、従来においては、コストの増大を抑えつつ、つなぎ目の品質を担保することができないという問題がある。   However, for example, in order to physically align the scanning direction, it may be possible to prepare a plurality of different image pickup device substrates (substrates on which the image pickup devices are mounted). However, in this case, there is a problem that costs increase. When using one type of substrate (one substrate on which a plurality of image sensors are mounted) in order to reduce costs, the reading direction from the image sensor (direction for reading an image in line units) is operated in the reverse direction, Although it is possible to align the scanning direction, in this case, there is a possibility that the readout timing between the image sensors is shifted by several lines. That is, in the related art, there is a problem that the quality of the joint cannot be secured while suppressing an increase in cost.

本発明は、上記に鑑みてなされたものであり、コストの増大を抑えつつ、つなぎ目の品質を担保することを目的とする。   This invention is made | formed in view of the above, and it aims at ensuring the quality of a joint, suppressing the increase in cost.

上述した課題を解決し、目的を達成するために、本発明は、複数の光学系に対応する複数の撮像素子の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する撮像装置において、各前記撮像素子の露光タイミングのずれを補正するように、前記撮像素子を制御する補正制御部を備える撮像装置である。   In order to solve the above-described problems and achieve the object, the present invention provides an image pickup apparatus that generates a single image by connecting images picked up by a plurality of image pickup elements corresponding to a plurality of optical systems. The imaging apparatus includes a correction control unit that controls the imaging element so as to correct a deviation in exposure timing of each imaging element.

本発明によれば、コストの増大を抑えつつ、つなぎ目の品質を担保することができる。   According to the present invention, it is possible to ensure the quality of joints while suppressing an increase in cost.

図1は、実施形態の撮像装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of the imaging apparatus according to the embodiment. 図2は、実施形態の撮像ユニットの詳細な構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a detailed configuration of the imaging unit according to the embodiment. 図3は、撮像素子の配置と走査方向について説明するための図である。FIG. 3 is a diagram for explaining the arrangement of the image sensor and the scanning direction. 図4は、露光タイミングがずれることによる画像の影響を説明するための図である。FIG. 4 is a diagram for explaining the influence of an image due to a shift in exposure timing. 図5は、2つの撮像画像から1つの全天球画像へのつなぎ方を簡易的に説明するための図である。FIG. 5 is a diagram for simply explaining how to connect two captured images to one omnidirectional image. 図6は、露光タイミングのずれについて説明するための図である。FIG. 6 is a diagram for explaining a shift in exposure timing. 図7は、実施形態の撮像装置が有する機能の一例を示す図である。FIG. 7 is a diagram illustrating an example of functions of the imaging apparatus according to the embodiment. 図8は、露光タイミングのずれを補正するための方法を説明するための図である。FIG. 8 is a diagram for explaining a method for correcting a deviation in exposure timing. 図9は、ずれ量の分だけ水平同期信号の入力を遅らせる例を示す図である。FIG. 9 is a diagram illustrating an example in which the input of the horizontal synchronization signal is delayed by the amount of deviation.

以下、添付図面を参照しながら、本発明に係る撮像装置、撮像方法およびプログラムの実施形態を詳細に説明する。以下の実施形態では、2つの半球画像を繋ぎ合わせた全天球画像を生成する撮像装置を例に挙げて説明するが、これに限られるものではない。要するに、撮像装置は、複数の光学系に対応する複数の撮像素子の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する撮像装置であればよい。なお、全天球画像とは水平角度360度、垂直角度180度の全視野に渡って撮像された画像である。   Hereinafter, embodiments of an imaging apparatus, an imaging method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. In the following embodiment, an imaging device that generates an omnidirectional image obtained by connecting two hemispherical images will be described as an example, but the present invention is not limited to this. In short, the imaging device may be an imaging device that generates one image by connecting images captured by each of a plurality of imaging elements corresponding to a plurality of optical systems. Note that the omnidirectional image is an image captured over the entire visual field at a horizontal angle of 360 degrees and a vertical angle of 180 degrees.

図1は、本実施形態の撮像装置1(全天球画像を生成する撮像装置1)のハードウェア構成の一例を示す図である。以下では、魚眼レンズを構成する光学系10b,10cと撮像素子13,14をまとめて撮像ユニット10と称することにする。光学系10bは撮像素子13に対応し、光学系10cは撮像素子14に対応している。図1においては、撮像素子13,14は、光学系10b,10cによる光学像を電気信号の画像データに変換して出力するCMOSセンサやCCDセンサなどの画像センサ、該画像センサの水平/垂直同期信号や画素クロックなどを生成するタイミング生成回路、当該撮像素子の動作に必要な種々のコマンド、パラメータなどが設定されるレジスタ群などを有している。これら2つの撮像素子13,14の同期信号はそれぞれ同期され、同じタイミングで撮像できるようにする必要がある。そのための方法に関しては後述する。   FIG. 1 is a diagram illustrating an example of a hardware configuration of an imaging apparatus 1 (an imaging apparatus 1 that generates an omnidirectional image) according to the present embodiment. Hereinafter, the optical systems 10b and 10c and the imaging elements 13 and 14 constituting the fisheye lens will be collectively referred to as the imaging unit 10. The optical system 10 b corresponds to the image sensor 13, and the optical system 10 c corresponds to the image sensor 14. In FIG. 1, image sensors 13 and 14 convert an optical image obtained by the optical systems 10 b and 10 c into image data of an electrical signal and output the image sensor, such as a CMOS sensor or a CCD sensor, and horizontal / vertical synchronization of the image sensor. It includes a timing generation circuit that generates a signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set. It is necessary to synchronize the synchronization signals of these two image sensors 13 and 14 so that images can be captured at the same timing. A method for this will be described later.

撮像ユニット10の撮像素子13,14の各々は、パラレルI/Fバスを介して画像処理ユニット20と接続されている。また、撮像ユニット10の撮像素子13、14の各々は、別途、シリアルI/Fバス(I2Cバス等)を介して撮像制御ユニット30と接続されている。画像処理ユニット20及び撮像制御ユニット30は、バス100を介してCPU40と接続される。 さらに、バス100には、ROM50、SRAM60、DRAM70、操作部80、外部I/F回路90などが接続される。画像処理ユニット20は、撮像素子13,14から出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して全天球画像を生成する。   Each of the imaging elements 13 and 14 of the imaging unit 10 is connected to the image processing unit 20 via a parallel I / F bus. In addition, each of the imaging elements 13 and 14 of the imaging unit 10 is separately connected to the imaging control unit 30 via a serial I / F bus (I2C bus or the like). The image processing unit 20 and the imaging control unit 30 are connected to the CPU 40 via the bus 100. Further, ROM 50, SRAM 60, DRAM 70, operation unit 80, external I / F circuit 90, and the like are connected to bus 100. The image processing unit 20 takes in the image data output from the image sensors 13 and 14 through the parallel I / F bus, performs predetermined processing on each image data, and then combines these image data. Generate an omnidirectional image.

撮像制御ユニット30は、一般に撮像制御ユニット30自身をマスタデバイス、撮像素子13,14をスレーブデバイスとして、I2Cバスを利用して、撮像素子13,14のレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU40から受け取る。また、該撮像制御ユニット30は、同じくI2Cバスを利用して、撮像素子13,14のレジスタ群のステータス・データ等を取り込み、CPU40に送る。さらに、撮像制御ユニット30は、操作部80のシャッタボタンが押下されたタイミングで、撮像素子13,14に画像データの出力を指示する。本実施形態では、CPU40と撮像制御ユニット30とが協働して、各撮像素子13,14の露光タイミング(画像を読み出すタイミング)のずれを補正するように、撮像素子13または14を制御する機能(補正制御部)を実現する。この機能は、CPU40が所定のプログラムを実行して撮像制御ユニットを動作させることにより実現される。   In general, the imaging control unit 30 sets a command or the like in a register group of the imaging elements 13 and 14 using the I2C bus with the imaging control unit 30 itself as a master device and the imaging elements 13 and 14 as slave devices. Necessary commands and the like are received from the CPU 40. The imaging control unit 30 also uses the I2C bus to capture the status data of the register groups of the imaging elements 13 and 14 and send them to the CPU 40. Further, the imaging control unit 30 instructs the imaging elements 13 and 14 to output image data at the timing when the shutter button of the operation unit 80 is pressed. In the present embodiment, the CPU 40 and the imaging control unit 30 cooperate to control the imaging element 13 or 14 so as to correct a shift in exposure timing (timing for reading an image) of the imaging elements 13 and 14. (Correction control unit) is realized. This function is realized by the CPU 40 executing a predetermined program to operate the imaging control unit.

全天球画像を生成する撮像装置1の種類によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。その場合は、撮像素子13,14からの画像データ出力は、所定のフレームレート(フレーム/分)にて連続して行われる。CPU40は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM50は、CPU40のための種々のプログラムを記憶している。SRAM60及びDRAM70はワークメモリであり、CPU40で実行するプログラムや処理途中のデータ等を記憶する。ここで、DRAM70は、画像処理ユニット20での処理途中の画像データや処理済みの全天球画像のデータを記憶するのにも利用される。   Depending on the type of the imaging device 1 that generates an omnidirectional image, it may have a preview display function by a display or a function corresponding to a moving image display. In this case, image data output from the image sensors 13 and 14 is continuously performed at a predetermined frame rate (frame / min). The CPU 40 controls the overall operation of the imaging apparatus 1 and executes necessary processes. The ROM 50 stores various programs for the CPU 40. The SRAM 60 and the DRAM 70 are work memories, and store programs executed by the CPU 40, data being processed, and the like. Here, the DRAM 70 is also used to store image data being processed by the image processing unit 20 and processed spherical image data.

操作部80は、種々の操作ボタンや電源スイッチ、シャッタボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。外部I/F回路90は、外付けメモリ(SDカード、フラッシュメモリ等)やパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、外部I/F回路90としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM70に記憶された全天球画像は、該外部I/F回路90を介して外付けメモリに蓄積され、必要に応じて、ネットワークI/Fとなる外部I/F回路90を介してパーソナルコンピュータや、スマートフォン等に転送される。   The operation unit 80 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various shooting modes and shooting conditions by operating the operation buttons. The external I / F circuit 90 is a general term for an interface circuit (USB I / F, etc.) with an external memory (SD card, flash memory, etc.) and a personal computer. Further, the external I / F circuit 90 may be a network interface regardless of wireless or wired. The spherical image stored in the DRAM 70 is stored in an external memory via the external I / F circuit 90, and a personal computer via the external I / F circuit 90 serving as a network I / F if necessary. Or transferred to a smartphone or the like.

図2は、撮像ユニット10の詳細な構成の一例を示す図である。図2に示すように、本実施形態の撮像ユニット10は、光学系10bと、カバーガラスCGbと、撮像素子13と、光学系10cと、カバーガラスCGcと、撮像素子14と、を備えている。 光学系10b、10cは、共に魚眼レンズを構成するために、等距離射影方式が採用されている。 光学系10bは、前群となるレンズ群(第1レンズ群)と、絞り4bと、後群となるレンズ群(第2レンズ群)と、を備えている。光学系10cは、前群となるレンズ群(第1レンズ群)と、絞り4cと、後群となるレンズ群(第2レンズ群)と、を備えている。   FIG. 2 is a diagram illustrating an example of a detailed configuration of the imaging unit 10. As shown in FIG. 2, the imaging unit 10 of the present embodiment includes an optical system 10b, a cover glass CGb, an imaging element 13, an optical system 10c, a cover glass CGc, and an imaging element 14. . The optical systems 10b and 10c employ an equidistant projection method in order to form a fisheye lens. The optical system 10b includes a front lens group (first lens group), an aperture 4b, and a rear lens group (second lens group). The optical system 10c includes a front lens group (first lens group), a stop 4c, and a rear lens group (second lens group).

光学系10bの前群となるレンズ群は、光学系10bの物体側に配置されている。このレンズ群は、全体として負の屈折力で、180度を超える広画角の光線を取り込む。このレンズ群は、物体側から像側に向かって、レンズL1b、レンズL2b、直角プリズムPSbの順に直列に並んで構成されている。直角プリズムPSbは、斜面部にアルミニウムのコーティングにより反射膜が形成されたミラー面MSbを有する。 直角プリズムPSbは、ミラー面MSbによって、前群となるレンズ群からの光線を後群となるレンズ群に向かって内部反射させる。すなわち、光学系10bの光軸OA2bは、直角プリズムPSbのミラー面MSbにおいて90度屈曲され、後群となるレンズ群を通り撮像素子13へ向かうことになる。   The lens group that is the front group of the optical system 10b is disposed on the object side of the optical system 10b. This lens group takes in light rays having a wide field angle exceeding 180 degrees with negative refractive power as a whole. This lens group is configured by arranging a lens L1b, a lens L2b, and a right-angle prism PSb in series in this order from the object side to the image side. The right-angle prism PSb has a mirror surface MSb in which a reflective film is formed on the inclined surface by an aluminum coating. The right-angle prism PSb causes the mirror surface MSb to internally reflect the light beam from the front lens group toward the rear lens group. That is, the optical axis OA2b of the optical system 10b is bent by 90 degrees on the mirror surface MSb of the right-angle prism PSb, and goes toward the image sensor 13 through the rear lens group.

光学系10bの後群となるレンズ群は、光学系10bの像側に配置されている。 このレンズ群は、全体として正の屈折力で、主に撮像画像の収差を補正する。 このレンズ群は、物体側から像側に向かって、レンズL3b、レンズL4b、レンズL5b、レンズL6b、レンズL7bの順に直列に並んで構成されている。   The lens group that is the rear group of the optical system 10b is disposed on the image side of the optical system 10b. This lens group mainly corrects the aberration of the captured image with a positive refractive power as a whole. This lens group is composed of a lens L3b, a lens L4b, a lens L5b, a lens L6b, and a lens L7b arranged in series in this order from the object side to the image side.

光学系10cの前群となるレンズ群は、光学系10cの物体側に配置されている。 このレンズ群は、全体として負の屈折力で、180度を超える広画角の光線を取り込む。 このレンズ群は、物体側から像側に向かって、レンズL1c、レンズL2c、直角プリズムPScの順に直列に並んで構成されている。   The lens group that is the front group of the optical system 10c is disposed on the object side of the optical system 10c. This lens group takes in light rays having a wide field angle exceeding 180 degrees with negative refractive power as a whole. This lens group is configured by arranging a lens L1c, a lens L2c, and a right-angle prism PSc in series in this order from the object side to the image side.

直角プリズムPScは、斜面部にアルミニウムのコーティングにより反射膜が形成されたミラー面MScを有する。 直角プリズムPScは、ミラー面MScによって、前群となるレンズ群からの光線を後群となるレンズ群に向かって内部反射させる。 すなわち、光学系10cの光軸OA2cは、直角プリズムPScのミラー面MScにおいて90度屈曲され、後群となるレンズ群を通り撮像素子14へ向かうことになる。   The right-angle prism PSc has a mirror surface MSc in which a reflective film is formed on the inclined surface by an aluminum coating. The right-angle prism PSc causes the mirror surface MSc to internally reflect light rays from the front lens group toward the rear lens group. That is, the optical axis OA2c of the optical system 10c is bent by 90 degrees on the mirror surface MSc of the right-angle prism PSc, and goes to the image sensor 14 through the lens group as the rear group.

光学系10cの後群となるレンズ群は、光学系10cの像側に配置されている。このレンズ群は、全体として正の屈折力で、主に撮像画像の収差を補正する。このレンズ群は、物体側から像側に向かって、レンズL3c、レンズL4c、レンズL5c、レンズL6c、レンズL7cの順に直列に並んで構成されている。   The lens group that is the rear group of the optical system 10c is disposed on the image side of the optical system 10c. This lens group mainly corrects the aberration of the captured image with a positive refractive power as a whole. This lens group is composed of a lens L3c, a lens L4c, a lens L5c, a lens L6c, and a lens L7c arranged in series in this order from the object side to the image side.

また、光学系10bの直角プリズムPSbのミラー面MSbが形成された外面と、光学系10cの直角プリズムPScのミラー面MScが形成された外面とは、それぞれ接着固定されている。すなわち、撮像システムが2つ組み合わされた構成を有するので、撮像ユニット10の全体の小型化を実現し、手持ち可能なシステムを実現することができる。また、光学系10bおよび光学系10cの最大画角は、それぞれ190度以上となっているので、これらが図2のように組み合わされ、上下左右360度の画像を撮像する全天球型の撮像ユニット10を構成することができる。   Further, the outer surface of the right-angle prism PSb of the optical system 10b on which the mirror surface MSb is formed and the outer surface of the right-angle prism PSc of the optical system 10c on which the mirror surface MSc is formed are bonded and fixed. That is, since it has a configuration in which two imaging systems are combined, the entire imaging unit 10 can be reduced in size and a hand-held system can be realized. Further, since the maximum angles of view of the optical system 10b and the optical system 10c are each 190 degrees or more, they are combined as shown in FIG. The unit 10 can be configured.

図3は、撮像素子の配置と走査方向について説明するための図である。図3の(A)は、図2の構成を簡略して記載したイメージ図である。全天球画像を生成する撮像装置1は、光学系10b,10cの間隔が狭い方が、撮像が不可能な領域(撮像不可領域6)を低減することが可能である。一般的にカメラに用いられるCMOSイメージセンサに代表される撮像素子は、3:2や4:3横長の形状を持つものが多い。上記光学系10b,10cの間隔を狭めるためには、図3の(B)のように撮像素子13,14を縦置きにする方が有利である。また、一般的に、CMOSイメージセンサのカラムADCは長辺側に設けられていることが多いため、走査の方向は図3の(B)に示す131a,131bのように水平方向となる。図3の(B)のように撮像素子13,14の走査方向131a,131bが揃っている場合、レンズ光学系とプリズムのミラーを光が通っているため、空間上の走査方向132a,132bは図3の(B)に示す方向となる。詳しくは後述するが、図3の(B)のように空間上の走査方向を揃え、かつ、2つの撮像素子13,14の各々からの画像(ライン単位の画像)の読み出しが同期していれば、2つの撮像素子13,14の各々により撮像された画像をつなぐ接点部分の露光タイミングが一致することにより、動体にたいしてもつなぎ目の品質を向上させることが出来るようになる。光学系にメカシャッタが搭載されていれば、静止画においてはこのような露光タイミングの影響はほぼなくなるが、メカシャッタがなく撮像素子でのローリングシャッタを用いることもある。またメカシャッタの有無によらずに動画撮影時にはローリングシャッタを用いる。   FIG. 3 is a diagram for explaining the arrangement of the image sensor and the scanning direction. FIG. 3A is an image diagram illustrating the configuration of FIG. 2 in a simplified manner. The imaging device 1 that generates an omnidirectional image can reduce a region where imaging is impossible (an imaging impossible region 6) when the distance between the optical systems 10b and 10c is narrower. In general, an image pickup device represented by a CMOS image sensor used in a camera has a 3: 2 or 4: 3 horizontally long shape. In order to narrow the interval between the optical systems 10b and 10c, it is advantageous to place the image sensors 13 and 14 vertically as shown in FIG. In general, since the column ADC of the CMOS image sensor is often provided on the long side, the scanning direction is horizontal as indicated by 131a and 131b in FIG. When the scanning directions 131a and 131b of the image sensors 13 and 14 are aligned as shown in FIG. 3B, the light passes through the lens optical system and the mirror of the prism, so the scanning directions 132a and 132b in space are The direction is as shown in FIG. Although details will be described later, as shown in FIG. 3B, the scanning direction in the space is aligned, and the reading of images (line unit images) from each of the two image sensors 13 and 14 is synchronized. For example, since the exposure timings of the contact portions connecting the images picked up by the two image pickup devices 13 and 14 coincide with each other, the quality of the joint for the moving object can be improved. If a mechanical shutter is mounted in the optical system, the influence of such exposure timing is almost eliminated in a still image, but there is a case where there is no mechanical shutter and a rolling shutter in an image sensor is used. A rolling shutter is used for moving image shooting regardless of the presence or absence of a mechanical shutter.

一方、撮像素子13,14を実装している基板については、1種類の基板を用いた場合、センサ(撮像素子13,14)からメインの基板への接続の制約から、図3の(C)のように水平方向に回転させて向かい合わせにする必要が生じる。そうすると、図3の(C)に示すように、空間上の走査方向132a,132b’が揃わなくなる。そのため、例えば撮像素子13,14の実装の向きをそれぞれ反対にして、走査方向を揃えることも可能だが、その場合は基板を2種類作成する必要があり、コストと品質の面で不利になる。一方、撮像素子13,14の機能として、読み出し方向を反転させる機能がある。ただし、この機能を用いた場合、撮像素子間における読み出しのタイミングが数ライン分ずれてしまう可能性がある。   On the other hand, with respect to the substrate on which the image pickup devices 13 and 14 are mounted, when one type of substrate is used, due to restrictions on connection from the sensor (image pickup devices 13 and 14) to the main substrate, FIG. Thus, it is necessary to rotate them in the horizontal direction so that they face each other. Then, as shown in FIG. 3C, the scanning directions 132a and 132b 'in space are not aligned. Therefore, for example, the mounting directions of the image sensors 13 and 14 can be reversed to align the scanning direction, but in this case, it is necessary to create two types of substrates, which is disadvantageous in terms of cost and quality. On the other hand, the imaging elements 13 and 14 have a function of inverting the readout direction. However, when this function is used, there is a possibility that the readout timing between the image sensors is shifted by several lines.

次に、露光タイミングがずれることによる画像の影響を説明する。本実施形態では、各撮像素子13,14は、ライン単位(行単位)で露光および画像の読み出しを行うローリングシャッタ方式を利用する形態である。図4の(A)は、撮像する被写体を示す図である。図4の(A)においては、全天球画像のつなぎ目7を跨ぐように被写体8と被写体9が存在し、被写体8は矢印の方向に動いており、被写体9は静止していると仮定する。   Next, the influence of the image due to the shift of the exposure timing will be described. In the present embodiment, each of the image sensors 13 and 14 uses a rolling shutter system in which exposure and image reading are performed in line units (row units). FIG. 4A shows a subject to be imaged. In FIG. 4A, it is assumed that the subject 8 and the subject 9 exist so as to straddle the joint 7 of the omnidirectional image, the subject 8 is moving in the direction of the arrow, and the subject 9 is stationary. .

図4の(B)は、露光タイミングが合っている場合の、図4の(A)を撮像した画像を示す図である。撮像素子13の走査130と撮像素子14の走査140は方向・タイミングともに一致しているとする。その際に撮像された被写体10と11は、問題無く繋ぐことができる。説明の便宜上、つなぎ目7と走査方向を示しているが、実際の画像には写らない。   FIG. 4B is a diagram illustrating an image obtained by capturing FIG. 4A when the exposure timing is correct. It is assumed that the scan 130 of the image sensor 13 and the scan 140 of the image sensor 14 are coincident in both direction and timing. The subjects 10 and 11 imaged at that time can be connected without any problem. For convenience of explanation, the joint 7 and the scanning direction are shown, but they are not shown in the actual image.

図4の(C)は、露光タイミングがずれた場合の、図4の(A)を撮像した画像を示す図である。撮像素子13の走査130と撮像素子14の走査140’は方向が一致しているもののタイミングがずれている。その際に撮像された被写体11は静止しているので露光タイミングによらず問題無く繋ぐことが可能だが、動いている被写体10は時間差が生じてしまうため、図のようにずれてしまい、正確に繋ぐことができない。   FIG. 4C is a diagram illustrating an image obtained by capturing FIG. 4A when the exposure timing is shifted. Although the scanning 130 of the image sensor 13 and the scan 140 ′ of the image sensor 14 are in the same direction, the timing is shifted. Since the imaged subject 11 is stationary at that time, it can be connected without any problem regardless of the exposure timing. However, since the moving subject 10 causes a time difference, it shifts as shown in the figure, and is accurate. I can't connect.

次に、図5を用いて、2つの撮像画像から1つの全天球画像へのつなぎ方を簡易的に説明する。図5において、撮影画像141上の実線と撮影画像150上の実線は魚眼レンズのイメージサークルを示し図2に示す光学系10b,10cの各々では190度以上の画角をもつ。実際は180度同士の画像を合わせることによって、全天球画像160を生成するので、図5においては使用する領域を点線で示す。   Next, how to connect two captured images to one omnidirectional image will be briefly described with reference to FIG. In FIG. 5, the solid line on the photographed image 141 and the solid line on the photographed image 150 indicate the image circle of the fisheye lens, and each of the optical systems 10b and 10c shown in FIG. Actually, since the omnidirectional image 160 is generated by combining the images of 180 degrees, the region to be used is indicated by a dotted line in FIG.

図5の例では、撮影画像141を中央に配し、撮影画像150を半分ずつ左右につないで全天球画像160とする場合を想定する。その際、つなぎ目上の点Pa1〜Pa4、Pb1〜Pb4が、つなぎ合わせ時にPa1とPb2、Pa2とPb1、Pa3とPb4、Pa4とPb3のそれぞれが繋がる全天球画像160が生成されるとして、以降の説明を続ける。   In the example of FIG. 5, it is assumed that the captured image 141 is arranged in the center, and the captured image 150 is connected to the left and right to form the omnidirectional image 160. At that time, it is assumed that the omnidirectional image 160 in which the points Pa1 to Pa4 and Pb1 to Pb4 on the joint are connected to Pa1 and Pb2, Pa2 and Pb1, Pa3 and Pb4, and Pa4 and Pb3 at the time of joining is generated. Continue to explain.

次に、図6を用いて、露光タイミング(ライン単位の画像を読み出すタイミング)のずれについて説明する。図6の(A)は、2つの撮像素子13,14が同期され、タイミングずれがない理想的な状態の読み出しをイメージした図を示す(図5で説明した画像を前提とする)。以下の説明では、撮像素子13,14を互いに区別しない場合は、単に「撮像素子」と称する。上述したように、ここでは撮像素子は、ローリングシャッタ方式を採用しており、矢印方向の上から下に向かって1ラインずつ読み出す(ライン単位で露光して画像を読み出す)と仮定する。   Next, a shift in exposure timing (timing for reading an image in line units) will be described with reference to FIG. FIG. 6A shows a diagram in which the two image pickup devices 13 and 14 are synchronized and an image in an ideal state with no timing shift is imagined (assuming the image described in FIG. 5). In the following description, when the imaging devices 13 and 14 are not distinguished from each other, they are simply referred to as “imaging devices”. As described above, here, it is assumed that the image pickup element adopts a rolling shutter system and reads out line by line from the top to the bottom of the arrow direction (exposes an image by reading line by line).

撮像画像141上の点Pa1と点Pa2を読み出す時間をta1、点Pa3と点Pa4を読み出す時間をta2とする。同様に、撮像画像150上の点Pb1と点Pb2を読み出す時間をtb1、点Pb3と点Pb4を読み出す時間をtb2とする。図6の(A)は、ずれがない理想的な状態なのでta1=tb1、ta2=tb2となり、図5で説明したように、つながる点同士は露光タイミングが一致する。   The time for reading the points Pa1 and Pa2 on the captured image 141 is ta1, and the time for reading the points Pa3 and Pa4 is ta2. Similarly, the time for reading the points Pb1 and Pb2 on the captured image 150 is tb1, and the time for reading the points Pb3 and Pb4 is tb2. Since (A) in FIG. 6 is an ideal state with no deviation, ta1 = tb1 and ta2 = tb2, and as described with reference to FIG. 5, the connection timings coincide with each other.

図6の(B)は、撮像素子の同期ずれや反転読み出しによるタイミングずれのため、撮像画像150の読み出し時間が変わった場合を示している。この場合ta1とtb1は異なり、ta2とtb2も異なるので、つながる点同士は露光タイミングがずれてしまい、図4の(C)で説明した状態になってしまう。   FIG. 6B illustrates a case where the readout time of the captured image 150 has changed due to a synchronization error of the image sensor or a timing error due to inversion reading. In this case, since ta1 and tb1 are different, and ta2 and tb2 are also different, the exposure timing is shifted between connected points, and the state described with reference to FIG.

図6の(C)は、メカ的な制約でイメージサークルが中心に来なかった場合や、組み付けの誤差によりイメージサークルがずれた場合の撮影画像を示す。この場合も、ta1とtb1は異なり、ta2とtb2も異なるので、つながる点同士は露光タイミングがずれてしまい、図4の(C)で説明した状態になってしまう。このような意図しないイメージサークルの位置ずれは調整工程によりソフト的に補正することができるが、露光タイミングのずれは補正されない。   FIG. 6C shows a photographed image when the image circle does not come to the center due to mechanical restrictions or when the image circle is shifted due to an assembly error. Also in this case, since ta1 and tb1 are different, and ta2 and tb2 are also different, the exposure timing is shifted between the connected points, and the state described with reference to FIG. Such unintended misalignment of the image circle can be corrected by software in the adjustment process, but the exposure timing shift is not corrected.

そこで、本実施形態の撮像装置1は、各撮像素子の露光タイミングのずれを補正するように、撮像素子を制御する機能(補正制御部)を有する。上述したように、この機能は、CPU40と撮像制御ユニット30の協働により実現される。また、上述したように、各撮像素子は、ライン単位で露光および画像の読み出しを行うローリングシャッタ方式を利用することを前提とし、各撮像素子の走査方向(ラインごとの光を走査する方向)は同じ方向であることを前提とする。   Therefore, the imaging apparatus 1 according to the present embodiment has a function (correction control unit) that controls the imaging element so as to correct a shift in exposure timing of each imaging element. As described above, this function is realized by the cooperation of the CPU 40 and the imaging control unit 30. Further, as described above, it is assumed that each image sensor uses a rolling shutter system that performs exposure and image reading in units of lines, and the scanning direction of each image sensor (direction in which light is scanned for each line) is Assuming they are in the same direction.

図7は、本実施形態の撮像装置1が有する機能のうち本発明に関する機能を示す図である。説明の便宜上、ここでは、本発明に関する機能のみを例示するが、撮像装置1が有する機能はこれに限られるものではない。図7に示すように、撮像装置1は、ずれ量記憶部201と、補正制御部202と、を有する。   FIG. 7 is a diagram illustrating functions related to the present invention among the functions of the imaging apparatus 1 of the present embodiment. For convenience of explanation, only functions related to the present invention are illustrated here, but the functions of the imaging apparatus 1 are not limited thereto. As illustrated in FIG. 7, the imaging device 1 includes a deviation amount storage unit 201 and a correction control unit 202.

ずれ量記憶部201は、撮像素子13の露光タイミングと、撮像素子14の露光タイミングとのずれ量を予め記憶しておく。このずれ量は、調整工程で個体ごとに把握可能である。   The shift amount storage unit 201 stores in advance a shift amount between the exposure timing of the image sensor 13 and the exposure timing of the image sensor 14. This deviation amount can be grasped for each individual in the adjustment process.

補正制御部202は、ずれ量記憶部201に予め記憶されたずれ量を補正するように、撮像素子を制御する。本実施形態では、補正制御部202は、露光タイミングが早い方の撮像素子(この例では撮像素子13,14の何れか)に対しては、ずれ量の分(露光タイミングのずれ分)だけクロップして読み出す。   The correction control unit 202 controls the image sensor so as to correct the deviation amount stored in advance in the deviation amount storage unit 201. In the present embodiment, the correction control unit 202 crops the image sensor whose exposure timing is earlier (in this example, one of the image sensors 13 and 14) by the amount of deviation (the amount of deviation of the exposure timing). And read.

図8の(A)は、図6の(C)の状態に対応している。図8の(B)は、補正制御部202が、撮像画像150を撮像する撮像素子(露光タイミングが早い方の撮像素子)に対しては、露光タイミングのずれ分だけ、クロップして読み出す(ライン単位で露光して画像を読み出す)ことにより、読み出し時間を揃える(ta1=tb1、ta2=tb2とする)ことが可能であることを示している。   FIG. 8A corresponds to the state of FIG. In FIG. 8B, the correction control unit 202 crops and reads out an image pickup element (an image pickup element with an earlier exposure timing) for picking up the picked-up image 150 by an exposure timing shift (line). It is shown that it is possible to make the readout time uniform (ta1 = tb1, ta2 = tb2) by exposing the image in units and reading out the image.

なお、ずれ量の補正方法としては上記に限らず、様々な補正方法を採用することができる。例えば補正制御部202は、露光タイミングが早い方の撮像素子に対しては、ずれ量の分だけ、ブランクのラインを読み出してもよいし、ダミーのラインを読み出してもよい。図8の(C)は、補正制御部202が、撮像画像150を撮像する撮像素子(露光タイミングが早い方の撮像素子)に対しては、露光タイミングのずれ分だけブランクのラインまたはダミーのラインを読み出すことにより、読み出し時間を揃える(ta1=tb1、ta2=tb2とする)ことが可能であることを示している。   Note that the correction method of the shift amount is not limited to the above, and various correction methods can be employed. For example, the correction control unit 202 may read a blank line or a dummy line by an amount corresponding to the shift amount with respect to an image sensor having an earlier exposure timing. FIG. 8C shows a blank line or a dummy line corresponding to the deviation of the exposure timing for the image sensor (the image sensor with the earlier exposure timing) for which the correction control unit 202 captures the captured image 150. It is shown that it is possible to make the reading times uniform (ta1 = tb1, ta2 = tb2).

さらに、例えば補正制御部202は、露光タイミングが早い方の撮像素子に対しては、ずれ量の分だけ、ライン単位で画像を読み出すための水平同期信号の入力を遅らせてもよい。例えば図9に示すように、ライン単位で撮像画像141の画像を読み出すための水平同期信号170に対して、ライン単位で撮像画像150の画像を読み出すための水平同期信号180(露光タイミングが早い方の撮像素子に入力する水平同期信号180)を補正時間190(補正ライン数に相当する時間ta1−tb1)だけ遅らせることにより、読み出し時間を揃える(ta1=tb1、ta2=tb2とする)ことが可能になる。   Further, for example, the correction control unit 202 may delay the input of the horizontal synchronization signal for reading out the image in units of lines for the image sensor having the earlier exposure timing by the amount of deviation. For example, as shown in FIG. 9, a horizontal synchronization signal 180 for reading the image of the captured image 150 in units of lines (the one with the earlier exposure timing) is compared to the horizontal synchronization signal 170 for reading the image of the captured image 141 in units of lines. By delaying the horizontal synchronization signal 180) input to the image pickup device by the correction time 190 (time ta1-tb1 corresponding to the number of correction lines), it is possible to make the readout time uniform (ta1 = tb1, ta2 = tb2). become.

以上に説明したように、本実施形態では、それぞれの走査方向を揃えた各撮像素子の露光タイミングのずれを補正するように撮像素子を制御することにより、各撮像素子により撮像された撮像画像を繋ぎ合わせて1つの画像を生成する際に、コストの増大を抑えつつ(複数の撮像基板を設ける必要が無いため)、撮像画像間のつなぎ目の品質を担保することができる。   As described above, in the present embodiment, the captured image captured by each image sensor is controlled by controlling the image sensor so as to correct the deviation of the exposure timing of each image sensor in which the respective scanning directions are aligned. When connecting and generating one image, it is possible to ensure the quality of a joint between captured images while suppressing an increase in cost (since it is not necessary to provide a plurality of imaging substrates).

以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   Although the embodiments according to the present invention have been described above, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment.

また、上述した実施形態の撮像装置1で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   The program executed by the imaging apparatus 1 of the above-described embodiment is an installable or executable file, which is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), It may be configured to be recorded on a computer-readable recording medium such as a USB (Universal Serial Bus), or provided or distributed via a network such as the Internet. Various programs may be provided by being incorporated in advance in a ROM or the like.

1 撮像装置
10 撮像ユニット
10b 光学系
10c 光学系
13 撮像素子
14 撮像素子
20 画像処理ユニット
30 撮像制御ユニット
40 CPU
50 ROM
60 SRAM
70 DRAM
80 操作部
90 外部I/F回路
100 バス
201 ずれ量記憶部
202 補正制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Imaging unit 10b Optical system 10c Optical system 13 Imaging element 14 Imaging element 20 Image processing unit 30 Imaging control unit 40 CPU
50 ROM
60 SRAM
70 DRAM
80 Operation unit 90 External I / F circuit 100 Bus 201 Deviation amount storage unit 202 Correction control unit

特開2015−61125号公報Japanese Patent Laying-Open No. 2015-61125

Claims (8)

複数の光学系に対応する複数の撮像素子の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する撮像装置において、
各前記撮像素子の露光タイミングのずれを補正するように、前記撮像素子を制御する補正制御部を備える、
撮像装置。
In an imaging apparatus that generates one image by joining images captured by each of a plurality of imaging elements corresponding to a plurality of optical systems,
A correction control unit for controlling the image sensor so as to correct a shift in exposure timing of each image sensor;
Imaging device.
各前記撮像素子は、ライン単位で露光および画像の読み出しを行うローリングシャッタ方式を利用する、
請求項1に記載の撮像装置。
Each of the imaging elements uses a rolling shutter system that performs exposure and readout of an image in units of lines.
The imaging device according to claim 1.
前記補正制御部は、
前記露光タイミングが早い方の前記撮像素子に対しては、前記露光タイミングのずれ分だけ、クロップして読み出す、
請求項2に記載の撮像装置。
The correction control unit
For the image sensor with the earlier exposure timing, the amount of deviation of the exposure timing is cropped and read.
The imaging device according to claim 2.
前記補正制御部は、
前記露光タイミングが早い方の前記撮像素子に対しては、前記露光タイミングのずれ分だけ、ブランクのラインを読み出す、
請求項2に記載の撮像装置。
The correction control unit
For the image sensor with the earlier exposure timing, a blank line is read by the amount of deviation of the exposure timing.
The imaging device according to claim 2.
前記補正制御部は、
前記露光タイミングが早い方の前記撮像素子に対しては、前記露光タイミングのずれ分だけ、ダミーのラインを読み出す、
請求項2に記載の撮像装置。
The correction control unit
For the image sensor with the earlier exposure timing, a dummy line is read out by the amount of deviation of the exposure timing.
The imaging device according to claim 2.
前記補正制御部は、
前記露光タイミングが早い方の前記撮像素子に対しては、前記露光タイミングのずれ分だけ、ライン単位で画像を読み出すための水平同期信号の入力を遅らせる、
請求項2に記載の撮像装置。
The correction control unit
For the image sensor with the earlier exposure timing, the input of a horizontal synchronization signal for reading an image in line units is delayed by the amount of deviation of the exposure timing.
The imaging device according to claim 2.
複数の光学系に対応する複数の撮像素子の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する撮像装置による撮像方法であって、
各前記撮像素子の露光タイミングのずれを補正するように、前記撮像素子を制御する補正制御ステップを有する、
撮像方法。
An image pickup method by an image pickup apparatus that generates a single image by joining images picked up by a plurality of image pickup elements corresponding to a plurality of optical systems,
A correction control step for controlling the image sensor so as to correct a shift in exposure timing of each image sensor;
Imaging method.
複数の光学系に対応する複数の撮像素子の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する撮像装置に、
各前記撮像素子の露光タイミングのずれを補正するように、前記撮像素子を制御する補正制御ステップを実行させるためのプログラム。
To an imaging device that generates one image by joining images captured by each of a plurality of imaging elements corresponding to a plurality of optical systems,
A program for executing a correction control step for controlling the image sensor so as to correct a deviation in exposure timing of each image sensor.
JP2017030430A 2017-02-21 2017-02-21 Imaging equipment, imaging methods and programs Active JP6819352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017030430A JP6819352B2 (en) 2017-02-21 2017-02-21 Imaging equipment, imaging methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017030430A JP6819352B2 (en) 2017-02-21 2017-02-21 Imaging equipment, imaging methods and programs

Publications (2)

Publication Number Publication Date
JP2018137592A true JP2018137592A (en) 2018-08-30
JP6819352B2 JP6819352B2 (en) 2021-01-27

Family

ID=63365793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017030430A Active JP6819352B2 (en) 2017-02-21 2017-02-21 Imaging equipment, imaging methods and programs

Country Status (1)

Country Link
JP (1) JP6819352B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020149629A1 (en) * 2019-01-18 2020-07-23 삼성전자 주식회사 Image capturiing device and operation method therefor
WO2020174978A1 (en) * 2019-02-27 2020-09-03 富士フイルム株式会社 Imaging device, method for processing image data of imaging device, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136253A (en) * 2008-12-08 2010-06-17 Canon Inc Imaging apparatus and control method thereof
JP2011035532A (en) * 2009-07-30 2011-02-17 Sony Corp Solid-state imaging device, and camera system
JP2013214952A (en) * 2012-03-08 2013-10-17 Ricoh Co Ltd Imaging device
JP2014216803A (en) * 2013-04-25 2014-11-17 株式会社富士通アドバンストエンジニアリング Image processing apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136253A (en) * 2008-12-08 2010-06-17 Canon Inc Imaging apparatus and control method thereof
JP2011035532A (en) * 2009-07-30 2011-02-17 Sony Corp Solid-state imaging device, and camera system
JP2013214952A (en) * 2012-03-08 2013-10-17 Ricoh Co Ltd Imaging device
JP2014216803A (en) * 2013-04-25 2014-11-17 株式会社富士通アドバンストエンジニアリング Image processing apparatus and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020149629A1 (en) * 2019-01-18 2020-07-23 삼성전자 주식회사 Image capturiing device and operation method therefor
KR20200090022A (en) * 2019-01-18 2020-07-28 삼성전자주식회사 Image photographing device and operating method thereof
KR102687670B1 (en) * 2019-01-18 2024-07-24 삼성전자주식회사 Image photographing device and operating method thereof
WO2020174978A1 (en) * 2019-02-27 2020-09-03 富士フイルム株式会社 Imaging device, method for processing image data of imaging device, and program
US11711595B2 (en) 2019-02-27 2023-07-25 Fujifilm Corporation Imaging apparatus, image data processing method of imaging apparatus, and program

Also Published As

Publication number Publication date
JP6819352B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
US11146729B2 (en) Camera and lens apparatus having an image blur correction function
JP5652157B2 (en) Imaging apparatus, image processing method, and computer program
US10038849B2 (en) Imaging device with controlled timing of images to be synthesized based on shake residual
KR20150111197A (en) Depth camera device, 3d image display system having the same and control methods thereof
KR20070030137A (en) Projecting apparatus and method and recording medium recording the projecting method
JP6351231B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
JP6500238B2 (en) Imaging device, imaging method and imaging program
JP2013165483A (en) Image processing apparatus, image capturing apparatus, and computer program
JP2015049402A (en) Defocus-amount detection device, and control method of the same, and imaging device
JP2012231262A (en) Imaging apparatus, blur correction method, control program, and recording medium for recording control program
JP6819352B2 (en) Imaging equipment, imaging methods and programs
JP2010028764A (en) Imaging apparatus, image processing method, and program
KR20180023644A (en) Image sensor and camera module including the same
JP2010273335A (en) Shake correcting apparatus and imaging apparatus having the same
JP2018148512A (en) Imaging device, control method of imaging device, and program
JP2012080204A (en) Image processing device and method, and program
JP2012133185A (en) Imaging apparatus
JP2004208089A (en) Projector, imaging device, and program for trapezoid correction
US9111484B2 (en) Electronic device for scene evaluation and image projection onto non-planar screens
JP6111430B2 (en) Imaging device
JP2011146815A (en) Deviation correcting device, three-dimensional digital camera with the same, deviation correcting method and deviation correcting program
JP2004040432A (en) Imaging apparatus
KR101521109B1 (en) Accelerated processing method of frame using CMOS image sensor and frame accelarating system
JP2012198807A (en) Image processing device, image processing method, image processing program, and image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6819352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151