JP5086270B2 - Imaging system with adjustable optics - Google Patents

Imaging system with adjustable optics Download PDF

Info

Publication number
JP5086270B2
JP5086270B2 JP2008540635A JP2008540635A JP5086270B2 JP 5086270 B2 JP5086270 B2 JP 5086270B2 JP 2008540635 A JP2008540635 A JP 2008540635A JP 2008540635 A JP2008540635 A JP 2008540635A JP 5086270 B2 JP5086270 B2 JP 5086270B2
Authority
JP
Japan
Prior art keywords
image
measurement
exposure time
imaging
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008540635A
Other languages
Japanese (ja)
Other versions
JP2009516448A (en
Inventor
カレボ,オッシ
カッコリ,ハンヌ
クンナリ,ミカ
オリラ,ミッコ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2009516448A publication Critical patent/JP2009516448A/en
Application granted granted Critical
Publication of JP5086270B2 publication Critical patent/JP5086270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)

Description

本発明は、一般に、撮像の分野に関し、特に、調節可能な光学系を有する撮像システムを用いた撮像に関する。   The present invention relates generally to the field of imaging, and in particular, to imaging using an imaging system having an adjustable optical system.

この数年で、デジタルカメラのようなデジタル撮像システムは、撮像技術において注目に値する役割を果たしてきた。デジタルカメラは、一つ以上のビルトインプロセッサによって特徴付けられ、画像をデジタル形式で記録する。デジタルカメラの電子的な性質により、デジタルカメラ(又はデジタルカメラモジュール)を他の電子装置に簡単に統合することができ、他の電子装置のうちの移動体通信装置(移動体端末)は、今日では一般的な例である。マスタ装置(すなわち、カメラモジュールが統合された装置)に応じて、カメラモジュールは、マスタ装置の他の複数の素子及びシステムと通信を行うことができる。例えば、カメラ付電話機において、カメラモジュールは、典型的には、一つ以上のプロセッサと通信を行い、デジタルカメラの場合、マスタ装置は、他のタイプの専用の信号処理素子を備えることができる。   Over the past few years, digital imaging systems such as digital cameras have played a notable role in imaging technology. A digital camera is characterized by one or more built-in processors and records images in digital form. Due to the electronic nature of digital cameras, digital cameras (or digital camera modules) can be easily integrated into other electronic devices, and mobile communication devices (mobile terminals) among other electronic devices are today Then it is a general example. Depending on the master device (ie, the device in which the camera module is integrated), the camera module can communicate with multiple other elements and systems of the master device. For example, in a camera phone, the camera module typically communicates with one or more processors, and in the case of a digital camera, the master device can include other types of dedicated signal processing elements.

デジタル撮像システムに関連する調節可能な光学系は、取得すべき画像の特性を調節するためにオートフォーカシングのような電子的に制御された画像フォーカシング機能や光学的なズーム機能を使用できることに関する。これらの動作は撮像装置においてますます重要になってきている。オートフォーカシング及びズーミングを、移動するレンズ部品を有する従来のレンズ光学系によって行うことができ、今日では、調節可能な形状を有するレンズ又は屈折力に影響を及ぼす他の調節可能な手段に基づく光学系を用いて行うことができる。   Adjustable optics associated with digital imaging systems relate to the ability to use electronically controlled image focusing functions such as autofocusing and optical zoom functions to adjust the characteristics of the image to be acquired. These operations are becoming increasingly important in imaging devices. Autofocusing and zooming can be performed by conventional lens optics with moving lens components, and nowadays optics based on lenses with adjustable shape or other adjustable means affecting refractive power Can be used.

撮像システムは、シーンの画像を形成するために光を収束するレンズ系を備える。光は、光を電気的に記録する半導体装置上に収束される。この半導体装置を、典型的には、例えば、CMOS(相補性金属酸化膜半導体)センサ又はCCD(電荷結合素子)センサとすることができる。CMOSセンサ又はCCDセンサは、主に、光を電荷に変換する感光画素の集合から構成され、電荷は、更にデジタル画像データに変換される。CMOSセンサ又はCCDセンサにおいて、ビニングと称される技術を用いることができる。ビニングは、撮像システムの有効感度を増大するとともに画像中の画素数を減少するために隣接画素の電荷を組み合わせる。   The imaging system includes a lens system that focuses light to form an image of a scene. The light is focused on a semiconductor device that electrically records the light. This semiconductor device can typically be, for example, a CMOS (complementary metal oxide semiconductor) sensor or a CCD (charge coupled device) sensor. A CMOS sensor or CCD sensor is mainly composed of a set of photosensitive pixels that convert light into electric charges, and the electric charges are further converted into digital image data. A technique called binning can be used in a CMOS sensor or a CCD sensor. Binning combines the charge of neighboring pixels to increase the effective sensitivity of the imaging system and reduce the number of pixels in the image.

撮像システムは、シャッタ手段も備える。主要なタイプのシャッタは、グローバルシャッタ及びローリングシャッタである。現在、ローリングシャッタはCMOSセンサとともに用いられ、グローバルシャッタはCCDセンサとともに用いられているが、これらグローバルシャッタ及びローリングシャッタを異なる方法で用いることもできる。シャッタ手段は、イメージセンサの露出を制限するために用いられる。シャッタ動作は、少なくともリセットや、露出や、読出しのような動作からなるが、開閉のような動作も生じうる。グローバルシャッタとローリングシャッタとの両方のシャッタ手段を、電子的又は機械的に実現することができるが、機械的な実現において、可変開口又はニュートラルデンシティ(ND)フィルタを用いることもできる。ローリングシャッタは、実質的にラインごとに画像を露出する特徴によって知られており、グローバルシャッタは、実質的に同時に画像中の全ての画素を露出することを目的とする。   The imaging system also includes shutter means. The main types of shutters are global shutters and rolling shutters. Currently, rolling shutters are used with CMOS sensors and global shutters are used with CCD sensors, but these global shutters and rolling shutters can be used in different ways. The shutter means is used to limit the exposure of the image sensor. The shutter operation includes at least operations such as reset, exposure, and reading, but operations such as opening and closing can also occur. Both global shutter and rolling shutter shutter means can be realized electronically or mechanically, but variable aperture or neutral density (ND) filters can also be used in the mechanical realization. A rolling shutter is known for its feature of exposing an image substantially line by line, and a global shutter is intended to expose all pixels in the image substantially simultaneously.

撮像システムは、典型的には画像の一つ以上の領域から現在のフォーカス値を測定する焦点検出器も備え、その結果は、撮像システムに含まれる制御機能において用いられる。焦点の測定は、典型的には、画像の隣接するエリア間のコントラストに基づき、したがって、制御機能は、画像のコントラストを最大にすることによって画像の最適な焦点を見つけることを試みる。   The imaging system also typically includes a focus detector that measures the current focus value from one or more regions of the image, and the result is used in a control function included in the imaging system. The focus measurement is typically based on the contrast between adjacent areas of the image, so the control function attempts to find the optimal focus of the image by maximizing the contrast of the image.

撮像システムは、画素の光露出の現在のレベルを測定する露出検出器も備え、その結果は、制御機能においても用いられる。制御機能は、露出の現在のレベルを利用し、露出の現在のレベルと、ターゲット露出レベルとを比較する。この比較に基づいて、露出時間、アナログ利得、デジタル利得、開口及びNDフィルタを制御する。制御機能は、ユーザインタフェースから受信した情報も利用する。例えば、ユーザが画像をズームすることを所望する場合、制御機能は、レンズ位置を変更し始める。レンズ系を移動するときに光学系ドライバが用いられ、光学系ドライバは、典型的にはI2C(Inter-Integrated Circuit)コマンドにより又はパルス幅変調(PWM)信号を用いることにより制御される。   The imaging system also includes an exposure detector that measures the current level of light exposure of the pixel, and the result is also used in the control function. The control function utilizes the current level of exposure and compares the current level of exposure with the target exposure level. Based on this comparison, the exposure time, analog gain, digital gain, aperture and ND filter are controlled. The control function also uses information received from the user interface. For example, if the user desires to zoom the image, the control function begins to change the lens position. An optical system driver is used when moving the lens system, and the optical system driver is typically controlled by an I2C (Inter-Integrated Circuit) command or by using a pulse width modulation (PWM) signal.

撮像システムは、入力装置(例えば、ズーム、シーン選択及びシャッタ制御用の制御ボタン)を備え又は入力装置に接続することができる。撮像システムにおいて典型的にはフラッシュも用いられる。焦点検出器、露出検出器、制御機能及び実際の画像処理を含む全ての画像処理を、カメラモジュール、カメラプロセッサ、アプリケーションエンジン、ベースバンドエンジン又はこれらの任意の組合せにおいて行うことができる。処理を、ソフトウェア処理ブロック又はハードウェア処理ブロックを用いることによって実現することもできる。画像処理の少なくとも検出器機能及び制御機能はリアルタイムで動作する必要がある。   The imaging system can include or be connected to an input device (eg, control buttons for zooming, scene selection and shutter control). A flash is also typically used in an imaging system. All image processing, including focus detectors, exposure detectors, control functions and actual image processing can be performed in a camera module, camera processor, application engine, baseband engine, or any combination thereof. Processing can also be realized by using software processing blocks or hardware processing blocks. At least the detector and control functions of image processing need to operate in real time.

本明細書中、撮像は、スチル撮像、ビデオ撮像又はファインダ撮像をいう。スチル撮像は、動きのないことによって特徴付けられる視覚情報を生成する。スチル画像は、撮影直後にメモリに記憶される。ビデオ撮像は、時間とともに変化する動きのある視覚表示を生成する。ビデオ撮像において、連続して示すときに動きの印象を与えるために一連の視覚表示が取り出される。ファインダ撮像は、ファインダディスプレイに画像を提供する。デジタル撮像システムのファインダは、典型的には、ユーザが取得するシーンのプレビューを提供する統合されたカラーディスプレイである。ディスプレイ上で見られるファインダ画像は、典型的には、イメージセンサでスケールダウンした後にイメージセンサから取り出され、又は、プロセッサにおいてファインダディスプレイに表示された元の解像度から取得される。典型的には、ファインダ画像を記憶する必要がない。好適には、良好なリアルタイムの感覚及び応答をユーザに与えるために、ファインダ画像を、最小の遅延で即座にファインダディスプレイ上で更新すべきである。   In this specification, imaging refers to still imaging, video imaging, or finder imaging. Still imaging produces visual information characterized by no movement. The still image is stored in the memory immediately after shooting. Video imaging produces a visual display that moves with time. In video imaging, a series of visual displays are taken to give an impression of movement when shown continuously. Viewfinder imaging provides an image on the viewfinder display. The viewfinder of a digital imaging system is typically an integrated color display that provides a preview of the scene that the user acquires. The viewfinder image seen on the display is typically retrieved from the image sensor after being scaled down by the image sensor, or obtained from the original resolution displayed on the viewfinder display in the processor. Typically, there is no need to store a finder image. Preferably, the finder image should be immediately updated on the finder display with minimal delay to give the user a good real-time feel and response.

撮像中の焦点合わせを、自動(オートフォーカス)又はユーザインタラクションを伴うマニュアルで行うことができる。さらに、オートフォーカス(AF)機能を、シングルショットオートフォーカス又は連続的なオートフォーカスを用いることによって実現することができる。典型的には、静止画像を取得するときにシングルショットオートフォーカスが適用され、ビデオ撮像において連続オートフォーカスが適用される。   Focusing during imaging can be performed automatically (autofocus) or manually with user interaction. Furthermore, an autofocus (AF) function can be realized by using single shot autofocus or continuous autofocus. Typically, single shot autofocus is applied when acquiring a still image, and continuous autofocus is applied in video imaging.

典型的には、レンズが一定増分を用いてレンズの範囲を移動するようにシングルショットオートフォーカスが実現され、焦点検出値が記録される。走査が終了したとき、レンズを、コントラストが最大であると見出された位置に移動する。シングルショットオートフォーカスを、例えば、撮影ボタンを途中まで押すことによって行うことができる。したがって、撮影ボタンを押し続けるとき、撮像光学系は既に適切に調整され、したがって、良好なユーザ感覚を与えた直後に画像を取得することができる。フォーカシングシステムのパフォーマンスを、最適な焦点を見つけるのに要する時間及び焦点を合わせた画像の精度によって特徴付けることができる。   Typically, single shot autofocus is realized and the focus detection value is recorded so that the lens moves through the range of the lens using a fixed increment. When the scan is finished, the lens is moved to the position where the contrast is found to be maximum. Single shot autofocus can be performed, for example, by pressing the shooting button halfway. Therefore, when the shooting button is kept pressed, the imaging optical system is already properly adjusted, so that an image can be acquired immediately after giving a good user feeling. The performance of the focusing system can be characterized by the time required to find the optimal focus and the accuracy of the focused image.

連続オートフォーカシングにおいて、焦点検出値は、実質的に連続して取得した画像から決定され、フォーカシングを、焦点検出値が撮像光学系の調整の必要を表すときには常に撮像光学系を調節することによって向上する。典型的には、特にビデオ撮像において、取得した画像が、ファインダディスプレイにもリアルタイムで表示される。連続オートフォーカスの利点は、光学系を連続的に焦点合わせし続けることであり、したがって、ファインダ画像もその間ずっと焦点が合わされた状態となる。ビデオ記録において、これは、明らかに必要であるが、静止画像を記録するときにも、これは非常に有用であり、単一の静止画像を、迅速なシングルショットフォーカシング手順を用いて基本的な連続フォーカシングをファインチューニングすることによって遅延なく又は短い遅延の後に取得することができる。   In continuous autofocusing, focus detection values are determined from images acquired substantially continuously, and focusing is improved by adjusting the imaging optics whenever the focus detection values indicate the need to adjust the imaging optics To do. Typically, the acquired image is also displayed in real time on the viewfinder display, particularly in video imaging. The advantage of continuous autofocus is that the optical system continues to focus continuously, so the viewfinder image remains in focus throughout that time. In video recording this is clearly necessary, but it is also very useful when recording still images, and a single still image can be converted into a basic using a fast single shot focusing procedure. It can be obtained without delay or after a short delay by fine tuning the continuous focusing.

これまで説明したように、静止画像に対するフォーカシング、ビデオ撮像に対するフォーカシング及びファインダディスプレイに対するフォーカシングは、幾分異なる要求を有する。ローリングシャッタタイプの露出制御を用いるかグローバルシャッタタイプの露出制御を用いるかに応じて、露出中のオートフォーカス(又はズーミング)の際のレンズ移動によって、異なるタイプのアーティファクトが生じる。特に、ローリングシャッタを用いるとき、(光学的な画像情報がイメージセンサによって集められないときの)画像間のブランキング時間は、通常非常に短く、したがって、画像にアーティファクトが生じることなくブランキング時間中にレンズを移動するのに利用できる十分な時間がない。最近の高解像度センサを用いるときにも、カメラモジュールと画像処理チェーンの次のパーツとの間のインタフェースのバンド幅の制限のために、ファインダ画像を通常サブサンプリングし、ビニングし及びダウンスケールする必要があり、したがって、オートフォーカス検出の品質は、ファインダ画像の解像度の制限のために画像処理チェーンの後方のパーツにおいて制限される。   As explained so far, focusing on still images, focusing on video imaging and focusing on viewfinder displays have somewhat different requirements. Depending on whether rolling shutter type exposure control or global shutter type exposure control is used, different types of artifacts are caused by lens movement during autofocus (or zooming) during exposure. In particular, when using a rolling shutter, the blanking time between images (when no optical image information is collected by the image sensor) is usually very short, and therefore during the blanking time without artifacts in the image. There is not enough time available to move the lens. Even when using modern high-resolution sensors, the viewfinder image usually needs to be subsampled, binned and downscaled due to bandwidth limitations of the interface between the camera module and the next part of the image processing chain. Thus, the quality of autofocus detection is limited in the rear parts of the image processing chain due to the resolution of the viewfinder image.

大抵のタイムクリティカルアプリケーションにおいて、ローリングシャッタが用いられる場合、オートフォーカス検出情報を、検出領域からの画像情報が焦点検出器で利用できるときになるとすぐに専用のハードウェア又はソフトウェアによって計算することができる。換言すれば、オートフォーカシングは、サブサンプルされ、ビニングされ又はダウンスケールされたファインダ画像に基づく必要がないが、オートフォーカシングは、選択された部分の全解像度を用いて画像の選択された部分で実行されることがある。典型的には、焦点検出の領域は、画像領域の中間に位置する。この場合、次のフレームに対するレンズ移動の決定を、現在の画像の全てのラインが十分に露出され及び送信される前に利用することができる。その場合、オートフォーカス処理が画像の中央部分に対して行われた直後にレンズを移動する場合、現在の画像の最後のラインが移動中のレンズによって露出され、それによって生じたアーティファクトが、取得され又は観察される画像中で簡単に見られることがある。   In most time critical applications, when a rolling shutter is used, the autofocus detection information can be calculated by dedicated hardware or software as soon as image information from the detection area is available at the focus detector. . In other words, autofocusing need not be based on a subsampled, binned or downscaled viewfinder image, but autofocusing is performed on the selected portion of the image using the full resolution of the selected portion. May be. Typically, the focus detection region is located in the middle of the image region. In this case, the lens movement decision for the next frame can be utilized before all lines of the current image are fully exposed and transmitted. In that case, if the lens is moved immediately after the autofocus process has been performed on the central part of the image, the last line of the current image is exposed by the moving lens and the resulting artifacts are acquired. Or it may be easily seen in the observed image.

レンズ移動が終わる前に次の画像フレームの露出を開始する場合、同種のアーティファクトが生じうる。この状況は、集束レンズの移動と光学ズームレンズの移動の両方によって生じうる。この場合、ローリングシャッタによって、画像の最初のラインが破損し、グローバルシャッタによって、画像全体が破損する。ズームレンズを、イメージセンサが露出されないとき、すなわち、画像フレーム間でしか移動することができない。コマンドのタイミングが非常に重要である。専用のハードウェアが用いられる場合にも、レンズが実際に移動する前に遅延が生じうる。   The same kind of artifacts can occur if exposure of the next image frame is started before the lens movement is finished. This situation can be caused by both the movement of the focusing lens and the movement of the optical zoom lens. In this case, the first line of the image is damaged by the rolling shutter, and the entire image is damaged by the global shutter. The zoom lens can only be moved when the image sensor is not exposed, that is, between image frames. Command timing is very important. Even when dedicated hardware is used, there may be a delay before the lens actually moves.

特にシングルショットオートフォーカスを用いた画像のフォーカシングは、非常に長い時間を要し、急速に変化する状況において、カメラシステムが最終的な準備ができて画像をフォーカシングするときに、取得しようとするシーンが既に利用できなくなることがある。そのような状況は、例えば、スポーツ又は他の活動を撮像するときに典型的であり、この場合、シーンは、迅速に動くオブジェクト及び急速に変化する状況を含む。   In particular, image focusing using single shot autofocus takes a very long time and in a rapidly changing situation, the scene to be acquired when the camera system is finally ready to focus the image May no longer be available. Such situations are typical, for example, when imaging a sport or other activity, where the scene includes rapidly moving objects and rapidly changing situations.

調節可能な光学系を有するローリングシャッタの使用の実現を、関連技術から見つけることができる。例えば、レンズ移動のコマンドを、取得する画像の影響を考慮することなくレンズ移動の決定を行った直後に与えることができる。これらの場合、典型的には、画像の最後のラインが破損し始める。他の例において、レンズ移動のコマンドは、全体画像を取得した後にのみ与えられる。この場合、レンズ移動の開始は、画像全体を取得するまで十分に遅延され、ブランキングの長さ及び露出時間に応じて、レンズは、ブランキング期間中に移動される。しかしながら、ブランキング期間がしばしば短いために、次の画像の最初のラインが破損し始める。その理由は、レンズの移動が非常に長く継続するからである。   Realization of the use of a rolling shutter with adjustable optics can be found from the related art. For example, the lens movement command can be given immediately after the lens movement is determined without considering the influence of the acquired image. In these cases, the last line of the image typically begins to break. In another example, the lens movement command is given only after the entire image is acquired. In this case, the start of lens movement is sufficiently delayed until the entire image is acquired, and the lens is moved during the blanking period, depending on the blanking length and exposure time. However, because the blanking period is often short, the first line of the next image begins to break. The reason is that the movement of the lens continues for a very long time.

オートフォーカス検出は、オートフォーカス検出値をフレームごとに測定することによって従来行われている。このタイプの検出は、フォーカス検出を行う際に画像全体のフレーム又はサブサンプリングされた画像フレームをAD変換する必要があることを要求する。適切なフォーカス検出又は適切な画像観察の時間がないために、しばしば一部のフレームがスキップされ始める。これによって、収束時間が更に長くなる。ビデオ画像を用いると、フレームは通常スキップされないが、露出及びレンズ移動によって生じるアーティファクトが、記録されたビデオシーケンスから見えることがある。   Autofocus detection is conventionally performed by measuring an autofocus detection value for each frame. This type of detection requires that the entire image frame or subsampled image frame must be AD converted when performing focus detection. Often some frames begin to be skipped due to lack of proper focus detection or proper image viewing time. This further increases the convergence time. With video images, frames are usually not skipped, but artifacts caused by exposure and lens movement may be visible from the recorded video sequence.

従来技術の欠点を克服するために、フォーカシング又はズーミング目的でレンズを移動する必要があるときに取得画像を損傷することなく画像を適切に露出するソリューションを見つける必要がある。   To overcome the shortcomings of the prior art, there is a need to find a solution that properly exposes the image without damaging the acquired image when the lens needs to be moved for focusing or zooming purposes.

出願人の理解によれば、フォーカシング又はズーミングの際の撮像光学系の調節のタイミングを取るときにイメージセンサ状態の知識がまだ十分に利用されていない。本発明の目的は、光学系の調節に利用できる時間を最大にするとともに取得した画像に生じるアーティファクトを最小にするソリューションを提供することである。また、本発明の目的は、応答時間を最小にして向上したユーザ経験を与えることである。   According to the applicant's understanding, knowledge of the state of the image sensor is not yet fully utilized when timing the adjustment of the imaging optical system during focusing or zooming. It is an object of the present invention to provide a solution that maximizes the time available to adjust the optical system and minimizes artifacts that occur in acquired images. It is also an object of the present invention to provide an improved user experience with minimal response time.

本発明の目的は、取得した画像に生じるアーティファクトを最小にするとともに光学系の調節動作を行いながら画像を適切に露出するソリューションを提供することである。   It is an object of the present invention to provide a solution that properly exposes an image while minimizing artifacts that occur in the acquired image and adjusting the optical system.

本発明の他の目的は、画像フォーカシングプロセスにおける応答時間を最小にする種々の方法を提供することである。   Another object of the present invention is to provide various methods for minimizing response time in the image focusing process.

これらの目的は、少なくとも一つが測定画像として用いられるとともに少なくとも一つが最終画像として用いられる少なくとも二つの画像を備えた画像シーケンスを取得し、測定画像露出時間及び最終画像露出時間を決定し、測定画像露出時間と最終画像露出時間との間の非露出時間を決定し、前記非露出時間中に撮像光学系の調節を許容する撮像方法、撮像装置、撮像モジュール及びコンピュータプログラムプロダクトによって達成することができる。   These objectives are to obtain an image sequence comprising at least two images, at least one of which is used as a measurement image and at least one of which is used as a final image, to determine a measurement image exposure time and a final image exposure time, It can be achieved by an imaging method, an imaging device, an imaging module and a computer program product that determines a non-exposure time between an exposure time and a final image exposure time and allows adjustment of an imaging optical system during the non-exposure time .

これらの目的を、請求項32,33,34,36,37,38の特徴部分に記載したように非露出時間を決定する方法、モジュール及びコンピュータプログラムプロダクトによって達成することもできる。   These objects can also be achieved by a method, module and computer program product for determining the non-exposure time as described in the characterizing part of claims 32, 33, 34, 36, 37, 38.

本発明の第1例は、光学系の調節に対するいわゆるタイミングソリューションである。この例において、適切なタイミングがオートフォーカス検出値によって決定される。このタイミングは、どの程度フォーカス及び/又はズーム光学系を調整する必要があるかを表す。   The first example of the present invention is a so-called timing solution for adjusting the optical system. In this example, an appropriate timing is determined by the autofocus detection value. This timing represents how much the focus and / or zoom optical system needs to be adjusted.

本発明の第1例は、フォーカス又はズーム光学系を調節できる正確な時点を規定するので、画像のアーティファクトを回避することができる。所定の状況に対するフレームブランキング時間が小さい場合、本発明は、ブランキング時間を超える光学系制御のタイミングマージンをもたらす。   Since the first example of the present invention defines an exact point in time when the focus or zoom optical system can be adjusted, image artifacts can be avoided. If the frame blanking time for a given situation is small, the present invention provides a timing margin for optical system control that exceeds the blanking time.

上記第1例は、制御ループのレイテンシーを最小にするとともに、リアルタイムパフォーマンスを向上する。その理由は、オートフォーカスの統計値計算を前フレームで終了するとともに光学的な調整が次のフレーム前に容易に適用されることが保証されるからである。   The first example minimizes control loop latency and improves real-time performance. The reason is that the autofocus statistic calculation is completed in the previous frame and it is guaranteed that the optical adjustment is easily applied before the next frame.

オートフォーカス/ズームハードウェアに対する設定時間、すなわち、光学系の移動を開始した後に光学系の位置を最終的に固定するのに必要な合計時間は、ブランキング時間と同一範囲にある。したがって、関心のある画素を露出する前に設定時間を十分長くできることは重要である。設定時間を長くすることによって、オートフォーカス/ズームアクチュエータコントローラの起動電流を小さくすることができ、これは、制限された容量の電池しか利用できない携帯アプリケーションにおいて特に有利である。全部の非露出時間を光学系の調節に用いることができるとき、アクチュエータを極めて高速にする必要がなく、このことは、更に少ない電力を光学系の調整に用いることができることを意味する。   The set time for the autofocus / zoom hardware, that is, the total time required to finally fix the position of the optical system after starting the movement of the optical system is in the same range as the blanking time. Therefore, it is important that the set time can be sufficiently long before exposing the pixel of interest. By increasing the set time, the starting current of the autofocus / zoom actuator controller can be reduced, which is particularly advantageous in portable applications where only limited capacity batteries are available. When the entire non-exposure time can be used for adjusting the optical system, the actuator does not have to be very fast, which means that less power can be used for adjusting the optical system.

本発明の第2例は、1フレーム内で複数の光学系の位置からオートフォーカスを検出する。これを、検出領域の画素が露出されないときであるが全体の画像フレームを露出する間に光学系を調節することによって行うことができる。検出領域は、画像中の関心のある領域であり、焦点検出に用いられる。   The second example of the present invention detects autofocus from the positions of a plurality of optical systems within one frame. This can be done by adjusting the optical system while exposing the entire image frame, even when the pixels in the detection area are not exposed. The detection region is a region of interest in the image and is used for focus detection.

この第2例によって、焦点を見つける時間を更に短くすることができる。さらに、連続的な焦点を常に必要としないので、消費電力を更に小さくすることもできる。本例は、有用性を向上することもできる。   With this second example, the time for finding the focal point can be further shortened. Furthermore, since a continuous focus is not always required, the power consumption can be further reduced. This example can also improve the usefulness.

本発明の第3例は、ブランキング時間又は露出時間及びレンズ移動時間を制御する。   The third example of the present invention controls blanking time or exposure time and lens moving time.

本例は、破損されないビデオ画像及びファインダ画像を提供し、その画像を、当該光及び制御条件における最大繰り返し周波数で提供することもできる。しかしながら、最大イメージ周波数が所望されない場合、固定されたイメージ周波数による光学系の調節が可能となり、光学系の調節(多い、少ない、全く)に関係なく最大の露出時間を保証する。同様に、露出時間が短い場合、ズーミングを加速することができ、又は、光学系を低速で調節するときに一時的なピーク効果を減少することができる。第3例は、柔軟性のある自動的な夜/昼モードも可能にし、これによって、イメージ周波数を、露出時間に従うが露出時間を超えない範囲で低減することができる。   This example also provides an unbroken video image and viewfinder image that can be provided at the maximum repetition frequency in the light and control conditions. However, if the maximum image frequency is not desired, the optical system can be adjusted by a fixed image frequency, ensuring maximum exposure time regardless of the optical system adjustment (more, less, or no). Similarly, if the exposure time is short, zooming can be accelerated, or the temporary peak effect can be reduced when adjusting the optical system at low speed. The third example also allows for a flexible automatic night / day mode, whereby the image frequency can be reduced in a range that follows the exposure time but does not exceed the exposure time.

この明細書の一部に組み込まれるとともにこの明細書の一部を構成する添付図面は、本発明に関連する例を示し、この明細書とともに、本発明の目的、利点及び原理を説明する。   The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate examples relating to the present invention, and together with the description, explain the objects, advantages and principles of the invention.

本発明は、調節可能な光学系を有する撮像システムに関する。撮像システムを、デジタルスチルカメラ、デジタルビデオカメラ、静止画撮影、ビデオ撮影若しくはその両方を行うことができる移動体端末、又は撮像を行うことができる他の任意の電子装置とすることができる。撮像システムは、移動させることができる調節可能な光学系(例えば、オートフォーカスレンズ又は光学ズームレンズ)と、センサ(例えば、CCDセンサ又はCMOSセンサ)とを備える。撮像システムは、イメージセンサに関連するとともにカメラモジュール、個別の処理回路、モバイルデバイスのアプリケーションエンジン又はこれらの組合せに配置することができる画像処理手段を更に備える。処理動作は、少なくとも画像の形成と、画像の加工と、照明(EC)、ホワイトバランス(WB)、鮮明さ(F)等のリアルタイム制御からなる。リアルタイム処理を自動的に実現することができ、ユーザからの動作を必要としない。撮像システムは、入力装置も備え又は入力装置に接続され、これによって、カメラの動作を制御できる。これらの動作を、例えば、ズーム制御、オブジェクト選択、モード選択、及び画像の取得又はビデオ撮影を行うランチャーとすることができる。以下の説明でレンズを言及するとき、例えば、通常のレンズ、液体レンズ又はそれと同様なものを備えた光学系を意味する。したがって、「レンズ移動」又は「レンズの移動」を明細書中で記載した場合、当業者は、移動が通常のレンズの実際の操作であることを理解するが、例えば、液体レンズを用いるときは、移動は、他の調節操作であり、これによって、光をイメージセンサに投影することができ、かつ、画像の輪郭を描くことができる。   The present invention relates to an imaging system having an adjustable optical system. The imaging system can be a digital still camera, a digital video camera, a mobile terminal capable of taking still pictures, taking video, or both, or any other electronic device capable of taking pictures. The imaging system includes an adjustable optical system (eg, autofocus lens or optical zoom lens) that can be moved and a sensor (eg, CCD sensor or CMOS sensor). The imaging system further comprises image processing means associated with the image sensor and which can be located in a camera module, a separate processing circuit, a mobile device application engine, or a combination thereof. The processing operation includes at least image formation, image processing, and real-time control such as illumination (EC), white balance (WB), and sharpness (F). Real-time processing can be realized automatically, and no user action is required. The imaging system also includes or is connected to an input device, which can control the operation of the camera. These operations can be, for example, a launcher that performs zoom control, object selection, mode selection, and image acquisition or video shooting. When a lens is referred to in the following description, it means an optical system including, for example, a normal lens, a liquid lens, or the like. Thus, when “lens movement” or “lens movement” is described in the specification, one skilled in the art will understand that movement is the actual operation of a normal lens, but for example when using a liquid lens Movement is another adjustment operation, whereby light can be projected onto the image sensor and the image can be outlined.

さらに、発明の背景で説明したように、撮像システムは、グローバルシャッタやローリングシャッタのようなシャッタ手段も備える。以下の説明において、特定の用語を用いるが、かかる用語は、明瞭のために用いることを意図したものである。これらの用語は、発明の範囲を不必要に規定し又は限定することを意図したものではなく、特徴又は本発明に対するよりよい概念を形成することを意図したものである。   Furthermore, as described in the background of the invention, the imaging system also includes shutter means such as a global shutter and a rolling shutter. In the following description, certain terms are used, but such terms are intended to be used for clarity. These terms are not intended to unnecessarily define or limit the scope of the invention, but are intended to form features or a better concept for the invention.

図1は、少なくとも二つのフレームF1,F2を備えた「画像シーケンス」の例を示す。フレームの一方を測定画像F1とし、他方を最終画像F2とする。測定画像を、例えば収束時間又は露出時間を測定するのに用いることができる。測定エリアM1を、測定画像F1に対して規定することができ、測定エリアM1は測定に用いられる。最終画像を、センサから取得された未加工の画像とすることができる。したがって、デジタル画像処理又は他のアルゴリズムを、実際に記憶する前にそのような最終画像に対して行うことができる。1画像フレーム内に複数の測定画像が存在してもよい。測定画像は、典型的には最終画像より小さく、測定画像は記憶されない。しかしながら、画像シーケンスがビデオ画像シーケンスであるとき、典型的には、測定画像も最終画像と称され、記憶される。   FIG. 1 shows an example of an “image sequence” comprising at least two frames F1, F2. One of the frames is a measurement image F1, and the other is a final image F2. The measurement image can be used, for example, to measure convergence time or exposure time. A measurement area M1 can be defined for the measurement image F1, and the measurement area M1 is used for measurement. The final image can be a raw image acquired from a sensor. Thus, digital image processing or other algorithms can be performed on such final images prior to actual storage. There may be a plurality of measurement images in one image frame. The measurement image is typically smaller than the final image and no measurement image is stored. However, when the image sequence is a video image sequence, typically the measured image is also referred to as the final image and stored.

「ブランキング時間」は、フレーム/ライン若しくは画素リセット又は他の任意のセンサアーキテクチャに起因する理由又はユーザが規定した制御によりセンサが有意義な画像データを記録することができない時間に関する。「ブランキング時間」は、必ずしも画像が露出されない時間に対応せず、画素がセンサから前に送り出されないときに対応する。ブランキング時間を、図1において二つのフレームF1,F2間に示す。ローリングシャッタにおいて、光を継続的に受光するが、実際の読出し前において、画素及びラインは露出時間の前にリセットされる。センサの画素が露出されない時間は、垂直ブランキング期間内である。センサを、ブランキング期間中にそれぞれ露出することができる(例えば、少なくとも次のラインをラインブランキング中に露出する。)。ブランキング時間は、画像フレーム間、ライン間及び画素間に生じる。   “Blanking time” refers to the reason that a sensor cannot record meaningful image data due to a frame / line or pixel reset or any other sensor architecture or user defined control. The “blanking time” does not necessarily correspond to the time when the image is not exposed, and corresponds to the time when the pixel is not sent forward from the sensor. The blanking time is shown between the two frames F1 and F2 in FIG. The rolling shutter continuously receives light, but before actual reading, the pixels and lines are reset before the exposure time. The time during which the sensor pixels are not exposed is within the vertical blanking period. Each sensor can be exposed during the blanking period (eg, at least the next line is exposed during line blanking). Blanking time occurs between image frames, lines, and pixels.

両方の画像は、図1に示すようにそれ自体の露出時間を有する。最終画像F2の露出は、ブランキング時間に部分的に重なる。しかしながら、測定画像F1の露出を、最終画像F2とは全く異なるように行うことができる。測定画像F1の露出は、測定エリアM1の読出し前に開始する。図1からわかるように、最終画像F2の露出は、最終画像F2に続くブランキング時間まで続かない。   Both images have their own exposure time as shown in FIG. The exposure of the final image F2 partially overlaps the blanking time. However, the measurement image F1 can be exposed completely different from the final image F2. Exposure of the measurement image F1 starts before the measurement area M1 is read. As can be seen from FIG. 1, the exposure of the final image F2 does not last until the blanking time following the final image F2.

フレームF1とフレームF2との間の「非露出時間」は、ブランキング時間の開始からの時間の長さを規定し、その間、露出が少なくとも次の画素、ライン又は画像に対して行われず、レンズを移動することができる。図1において、非露出時間は、測定画像F1の露出が終了したときから開始する。非露出時間を、レンズ移動に必要な時間に応じて延長することができる。ビデオの場合、非露出時間を、ファインダ画像又は測定画像と同程度に延長することができない。   The “non-exposure time” between frame F1 and frame F2 defines the length of time from the start of the blanking time, during which no exposure is performed on at least the next pixel, line or image and the lens Can be moved. In FIG. 1, the non-exposure time starts when the exposure of the measurement image F1 ends. The non-exposure time can be extended depending on the time required for lens movement. In the case of video, the non-exposure time cannot be extended to the same extent as the viewfinder image or measurement image.

非露出時間の延長を、チャネルレートを増大することによって実現することができ、これによって、画像の読出しが更に迅速になる。そのような実現において、画像が更に迅速に読み出されるので、レンズ移動に用いることができるブランキング時間が更に長くなる。従来技術がチャネルレートの増大に反する教示を行っていることに注意されたい。この理由は、コストのためであり、チャネルレートを増大するとEMC雑音が生じるからである。しかしながら、より少ないプロセス及び差動シリアルインタフェースを用いることによって、この種の増大が可能である。   Extending the non-exposure time can be realized by increasing the channel rate, which makes the image readout even faster. In such an implementation, since the image is read out more quickly, the blanking time that can be used for lens movement is further increased. Note that the prior art teaches against the increase in channel rate. This is because of cost, and increasing the channel rate results in EMC noise. However, this type of increase is possible by using fewer processes and a differential serial interface.

ファインダ画像の場合において、収束及び測定は、より小さい画像を対象とし、したがって、画像は、サブサンプリングされ、ビニングされ又はダウンロードされ、画像のサイズが小さくなる。画像が小さくなるに従って読出しを速くすることができ、これによって、残りの非露出時間が更に長くなる。静止画像の場合、測定画像は、実際の最終画像より小さく、したがって、自動的に非露出時間が残る。   In the case of a viewfinder image, convergence and measurement are targeted at smaller images, so the image is subsampled, binned or downloaded, reducing the size of the image. The readout can be faster as the image gets smaller, which further increases the remaining non-exposure time. In the case of a still image, the measured image is smaller than the actual final image, thus automatically leaving unexposed time.

基本的な方法は、一連の画像フレーム又は一連の画像セクション、例えば、ラインから構成された画像シーケンスを取得するステップを備える。画像シーケンスの少なくとも一部を、レンズを制御するのに用いる。ブランキング時間は、画像間、ライン間又は画素間の画像シーケンスに規定される。さらに、非露出時間が規定される。レンズは、非露出時間中に移動を終了し、非露出時間は、ブランキング時間の少なくとも一部を備えることができる。ソリューションの目的は、露出の際にレンズ移動(オートフォーカス、ズーム)を行うことではない。したがって、露出が行われないレンズ移動の期間、すなわち、非露出時間が規定される。非露出時間を、基本的には連続的な画像間及び露出間の時間間隔として規定することができる。   The basic method comprises obtaining an image sequence composed of a series of image frames or series of image sections, eg lines. At least a portion of the image sequence is used to control the lens. The blanking time is defined in an image sequence between images, lines or pixels. Furthermore, the non-exposure time is defined. The lens finishes moving during the non-exposure time, and the non-exposure time can comprise at least a portion of the blanking time. The purpose of the solution is not to move the lens (autofocus, zoom) during exposure. Accordingly, a period of lens movement where exposure is not performed, that is, a non-exposure time is defined. Non-exposure time can basically be defined as the time interval between successive images and between exposures.

撮像システムは、非露出時間中に動作を可能にする手段を備える。これらの動作は、例えば、露出時間の規定及び情報が取り出される画像の位置の規定を含む。非露出時間中に加えて、撮像システムは、画素セルの動作及び以前に行われた動作を知る必要がある。さらに、上記手段は、各動作に対する全ての遅延、例えば、種々のレンズ移動量によってどの程度の遅延が得られるのかを知るように配置される。さらに、上記手段は、収束が行われたか収束が誤って行われているかを知ることができる。   The imaging system comprises means for enabling operation during non-exposure times. These operations include, for example, defining the exposure time and defining the position of the image from which information is retrieved. In addition to the non-exposure time, the imaging system needs to know the operation of the pixel cell and the previously performed operation. Further, the above means are arranged so as to know all delays for each operation, for example, how much delay is obtained by various lens movement amounts. Further, the above means can know whether the convergence is performed or the convergence is performed erroneously.

以下の説明は、本発明の種々の例を開示する。   The following description discloses various examples of the present invention.

1)レンズ移動のタイミングソリュージョン
図2は、レンズ移動の適切なタイミングを達成するソリュージョンを示す。画素データが露出されるとともにセンサ100から送信される(1)。プロセッサ110は、測定画像である画像データを受信し、例えば、オートフォーカス検出が行われるオートフォーカス論理112を有する。検出ブロック112がオートフォーカス統計を計算し、又は、オートフォーカス統計が、イメージングセンサで既に計算されているとともに(例えば、I2Cを通じて若しくはイメージフレーム内で)CPU113に送信される。計算後、オートフォーカス統計の情報が制御CPU113に提供される(3)。制御CPU113は、オートフォーカス統計を読み出し、必要な非露出時間、すなわち、どの程度オートフォーカス及び/又はズームレンズを変更する必要があるかについての必要な決定を行う。制御CPU113は、レンズ移動が必要であると決定すると、ユーザインタフェースから受信した情報も用いることができる。本例において、センサ100から画像データを受信する受信器論理111のラインカウンタを用いることができる。制御CPU113は、オートフォーカス統計を計算した後に受信器111のラインカウンタレジスタを読み出し(5)、イメージセンサの画素数、送信クロック周波数及びズームハードウェアのあり得る遅延を知ることによって、レンズを移動することができるか否か決定することができる。一例において、1600×1200センサからの画像フレームを、20フレーム/秒(f/s)のレートで受信する。50ブランキングライン/フレームである場合、送信時間は40マイクロ秒/ラインとなる。1020のライン数を受信したときにレンズ調節の決定の準備ができている場合、画像のエンドに180ライン(1200−1020)が残ったままであり、画像送信を完了するのに7.2マイクロ秒を要する。これは、ズームハードウェアの遅延が1ミリ秒である場合を意味し、これによって、遅延は、25ライン(1000マイクロ秒/40マイクロ秒)の時間を要し、ズームハードウェア(114,115)にコマンドを与える(6,7)前に、1175のライン数(1200−25)を受信するまで待機する必要があり、その結果、ズーム光学系は、現在の画像の完了後にしか移動し始めない。
1) Lens Movement Timing Solution FIG. 2 shows a solution for achieving proper timing of lens movement. Pixel data is exposed and transmitted from the sensor 100 (1). The processor 110 receives image data that is a measurement image, and includes, for example, autofocus logic 112 that performs autofocus detection. The detection block 112 calculates autofocus statistics, or the autofocus statistics are already calculated at the imaging sensor and are sent to the CPU 113 (eg, through I2C or in an image frame). After the calculation, information of autofocus statistics is provided to the control CPU 113 (3). The control CPU 113 reads the autofocus statistics and makes the necessary determination as to the required non-exposure time, i.e. how much the autofocus and / or zoom lens needs to be changed. When the control CPU 113 determines that lens movement is necessary, it can also use information received from the user interface. In this example, a line counter of receiver logic 111 that receives image data from sensor 100 can be used. The control CPU 113 reads the line counter register of the receiver 111 after calculating the autofocus statistics (5) and moves the lens by knowing the number of pixels of the image sensor, the transmission clock frequency and the possible delay of the zoom hardware. You can decide whether you can. In one example, image frames from a 1600 × 1200 sensor are received at a rate of 20 frames / second (f / s). In the case of 50 blanking lines / frame, the transmission time is 40 microseconds / line. If the lens adjustment is ready when 1020 lines are received, 180 lines (1200-1020) remain at the end of the image and 7.2 microseconds to complete the image transmission. Cost. This means that the delay of the zoom hardware is 1 millisecond, whereby the delay takes 25 lines (1000 microseconds / 40 microseconds) and the zoom hardware (114, 115) Before giving (6,7) a command to wait until a 1175 line number (1200-25) is received, so that the zoom optics only starts moving after the current image is complete. .

レンズの移動が現在の画像の露出に影響を及ぼさないことを保証できるようになるまで、レンズドライバ114に対するコマンド(6)が与えられない。制御CPU113は、露出値及びブランキング期間も制御し、その結果、レンズの移動によって次の画像フレームが破損されない。現在又は次の画像フレームが必要とされないとき、制御CPU113は、例えば、できるだけ迅速にシングルショットフォーカスを行うことを試みるときに次の焦点検出領域がレンズ移動によっては損しないよう注意する。グローバルシャッタを用いる場合、レンズ移動をできるだけ迅速に開始するためにグローバルシャッタのタイミングを知る必要がある。   The command (6) for the lens driver 114 is not given until it can be assured that the lens movement does not affect the exposure of the current image. The control CPU 113 also controls the exposure value and the blanking period. As a result, the next image frame is not damaged by the movement of the lens. When the current or next image frame is not needed, the control CPU 113 takes care that the next focus detection area is not damaged by lens movement, for example when trying to perform single shot focus as quickly as possible. When using the global shutter, it is necessary to know the timing of the global shutter in order to start the lens movement as quickly as possible.

図3は、測定画像フレーム内のオートフォーカスロケーションを示す。オートフォーカスロケーションを測定領域と考えることができ、センサアレイ100において参照番号101〜108を付して示す。3ライン露出時間を用いた(CMOS)センサの最初の5ラインに関連する(ローリングシャッタを用いた)一つの露出例を、以下の表1に示す。   FIG. 3 shows the autofocus location within the measurement image frame. The autofocus location can be considered as a measurement region, and is denoted by reference numerals 101 to 108 in the sensor array 100. One exposure example (using a rolling shutter) associated with the first 5 lines of a (CMOS) sensor using a 3-line exposure time is shown in Table 1 below.

Figure 0005086270
Figure 0005086270

本例を説明するために、表のステップ4を考察する。ステップ4において、第1ライン(ライン1)が読み出され、次の2行(行2,3)が露出され、第4ライン(ライン4)がリセットされる。この後、第5ライン(ライン5)がステップ8で読み出されるまで次のステップが続く。以前のステップ1〜3は露出動作を開始し、これは、典型的には垂直ブランキング期間中に生じる。ステップ1〜4におけるライン1の動作を追跡する場合、当該ラインが、先ずリセットされ、その後2ライン中に露出され、最後に読み出されることがわかる。それに対して、リセットを追跡する場合、ステップ5の間にリセットがライン5に存在するようになるまで、リセットがステップ1においてライン1から1ライン前に進むことがわかる。本例において、次のライン又はブランキング時間を示さず、ブランキング時間は露出時間より長いと仮定され、これによって、現在の画像の最後のラインが読み出されるまでライン1を次の画像に対してリセットする必要がない。   To illustrate this example, consider step 4 in the table. In step 4, the first line (line 1) is read, the next two rows (rows 2 and 3) are exposed, and the fourth line (line 4) is reset. This is followed by the next step until the fifth line (line 5) is read in step 8. The previous steps 1-3 start the exposure operation, which typically occurs during the vertical blanking period. When tracking the operation of line 1 in steps 1-4, it can be seen that the line is first reset, then exposed during two lines, and finally read. In contrast, when tracking a reset, it can be seen that the reset proceeds one line forward in step 1 from line 1 until a reset is present on line 5 during step 5. In this example, the next line or blanking time is not shown, and it is assumed that the blanking time is longer than the exposure time, so that line 1 is relative to the next image until the last line of the current image is read out. There is no need to reset.

本例において、ラインカウンタを、イメージングセンサの状態を評価する受信器論理111に関連して説明する。さらに、ラインカウンタを、時間測定に用いることもできる。本例は、露出時間が非常に短く、かつ、レンズ移動が非常に迅速である状況において作動する。短い露出時間は、露出時間が垂直ブランキング時間より短いことを意味し、これによって、レンズ移動の時間がブランキング時間内となる。典型的には、短い露出時間を、例えば、50/(20*(1200+50))秒=1/500秒=2ミリ秒より小さくすることができ、この場合、50をブランキングラインの量(本例では最大露出時間)とし、20を、1秒間に読み出されたフレームの量とする(2Mpix画像は1200ラインを備える。)。したがって、露出時間がこれより短い場合、ブランキング期間内にレンズを移動するのに十分な時間が存在する。その理由は、十分な時間が存在いしない場合には次の画像の最初のラインが現在の画像の最後のラインが読み出される前に露出されるからである。ブランキングラインの量が例えば2倍である場合、ブランキング時間は正確には2倍にはならない。その理由は、(100/(20*(1200+100))秒=1/260秒≒3.85秒となるからである。同時に、センサ画素の読出しも速度を増す。その理由は、速度を増さない場合にはセンサから20フレーム/秒を有することができないからである。典型的には、ローリングシャッタによって生じた画像の歪みが許容されうるようにするために、少なくとも15フレーム/秒が必要とされる。静的なブランキング時間をできるだけ増大することもできる。その理由は、画像の実際の読出しが短時間で行われるからであり、したがって、画像の歪みが減少する。また、露出及びレンズ移動に更に多くの時間が与えられる。ブランキング時間を短く維持するとともに2倍の量のフレームをセンサから取得することもできるが、実際には、レンズの移動が撮像に影響を及ぼし、最大露出時間も減少する。他の状況において、後に説明する例(3.ブランキング時間を利用することによるレンズの移動及び画像の露出)を使用すべきであり、この場合、ブランキング時間は、静的(3.1)又は動的(3.2)に増加する。   In this example, the line counter is described in relation to receiver logic 111 that evaluates the state of the imaging sensor. Furthermore, a line counter can be used for time measurement. This example works in situations where the exposure time is very short and the lens movement is very quick. A short exposure time means that the exposure time is shorter than the vertical blanking time, so that the lens movement time is within the blanking time. Typically, a short exposure time can be less than, for example, 50 / (20 * (1200 + 50)) seconds = 1/500 seconds = 2 milliseconds, where 50 is the amount of blanking lines (books In the example, the maximum exposure time) and 20 is the amount of frames read out per second (a 2 Mpix image comprises 1200 lines). Therefore, if the exposure time is shorter than this, there is sufficient time to move the lens within the blanking period. The reason is that if there is not enough time, the first line of the next image is exposed before the last line of the current image is read. If the amount of blanking lines is doubled, for example, the blanking time is not exactly doubled. The reason is that (100 / (20 * (1200 + 100)) seconds = 1/260 seconds≈3.85 seconds, and at the same time, the readout of the sensor pixels also increases, because the speed is increased. Otherwise it may not have 20 frames / second from the sensor, typically at least 15 frames / second is required to allow the image distortion caused by the rolling shutter to be tolerated. The static blanking time can also be increased as much as possible because the actual readout of the image takes place in a short time, thus reducing image distortion, and exposure and lens. More time is allowed for the move, while keeping the blanking time short and twice as many frames can be acquired from the sensor, in practice, In other situations, the example described later (3. Lens movement and image exposure by using blanking time) should be used. Yes, in this case, the blanking time increases either static (3.1) or dynamic (3.2).

表1は、例えば1200の可視の画像ライン及び50のブランキングラインを有するセンサの最初の5ラインの例を示す。第1ラインの読出しをステップ4で開始し、ステップ1〜3はブランキング時間中に行われる。露出時間は3ライン中であり、センサが1200ライン及び50ブランキングラインを有する例及びラインの読出しが40マイクロ秒で行われる例に露出時間を関連させることによって、120マイクロ秒の露出時間となる。したがって、レンズの移動(=非露出時間)に対して47ラインが残り、これは、47*40=1.88ミリ秒を意味する。本例におけるセンサの全体のブランキング時間は、50*40マイクロ秒=2ミリ秒となる。   Table 1 shows an example of the first five lines of a sensor having, for example, 1200 visible image lines and 50 blanking lines. Reading the first line starts at step 4 and steps 1-3 are performed during the blanking time. The exposure time is 3 lines, and the exposure time is 120 microseconds by associating the exposure time with the example where the sensor has 1200 lines and 50 blanking lines and where the line readout takes place at 40 microseconds. . Therefore, 47 lines remain for lens movement (= non-exposure time), which means 47 * 40 = 1.88 milliseconds. The overall blanking time of the sensor in this example is 50 * 40 microseconds = 2 milliseconds.

2)高速フォーカス検出ソリューション
図4は、オートフォーカスシステムの例を示す。オートフォーカスシステムは、センサ300と、フォーカス検出モジュール312と、オートフォーカス制御モジュール314と、光学系ドライバ315と、光学系316とを少なくとも備える。基本的な方法は、レンズをレンズ範囲を通じて移動するとともにコントラスト値を記録し、レンズを最適なコントラストの位置に移動する。本発明の本例によって、関連技術を用いて焦点を迅速に見つけることができる。本発明の概念は、一つ以上のフレーム内で一つ以上のレンズ位置から焦点を測定することであり、したがって、焦点の探索が更に短くなる。本例を以下の方法によって説明する。これらの方法において、レンズの位置を一定量増大する必要がなく、オートフォーカス制御が、測定のための新たなレンズ位置の選択を行う。
2) Fast focus detection solution FIG. 4 shows an example of an autofocus system. The autofocus system includes at least a sensor 300, a focus detection module 312, an autofocus control module 314, an optical system driver 315, and an optical system 316. The basic method is to move the lens through the lens range, record the contrast value, and move the lens to the optimal contrast position. This example of the present invention allows a focus to be found quickly using related techniques. The concept of the present invention is to measure the focus from one or more lens positions within one or more frames, thus further reducing the focus search. This example will be described by the following method. In these methods, there is no need to increase the lens position by a certain amount, and autofocus control selects a new lens position for measurement.

2.1 1フレーム内の一つのレンズ位置の測定
図5は、一つのレンズ位置を1フレーム読出し時間Tf内で測定する例を示す。画像フレームの測定領域Mからコントラストが検出される。レンズ位置の測定値は、測定領域Mのサブ領域から高周波成分(及び/又は帯域通過成分)を収集することによって取得される。測定されたサブ領域のセットのみを評価段階で用いることもできる。測定領域Mの最後のラインの読出しと(図5に示さない)次のフレームN+1の測定領域Mの最初のラインの露出の開始との間のレンズ移動時間TLENS中に、レンズを位置Pnと位置Pn+1との間で移動する。レンズをこれら時間窓外で移動させる場合、測定領域のラインは、混合データを取得し、測定領域は、もはや一つのレンズ位置のみに対応しない。位置Pn+1は、次のフレームN+1で測定される。
2.1 Measurement of one lens position in one frame FIG. 5 shows an example in which one lens position is measured within one frame readout time Tf . Contrast is detected from the measurement area M of the image frame. The measurement value of the lens position is obtained by collecting high-frequency components (and / or band-pass components) from the sub-region of the measurement region M. Only a set of measured sub-regions can be used in the evaluation stage. Reading of the last line of the measurement area M and the (not shown in FIG. 5) on the lens moving time in T LENS between the start of exposure of the first line of the measurement area M in the next frame N + 1, the position of the lens P n And the position P n + 1 . If the lens is moved outside these time windows, the measurement area lines acquire mixed data and the measurement area no longer corresponds to only one lens position. The position P n + 1 is measured in the next frame N + 1.

レンズ移動に割り当てられた時間、すなわち、非露出時間は、   The time allocated for lens movement, i.e. the non-exposure time, is

Figure 0005086270
となる。この場合、Texpは露出時間を表す。
Figure 0005086270
It becomes. In this case, T exp represents the exposure time.

2.2 1フレーム内のN個のレンズ位置の測定
図6において、露出された1フレーム内で二つのレンズ位置を測定する。画像フレームIの領域M1及びM2からコントラストが検出される。測定値は、高周波成分(及び/又は帯域通過成分)をサブ領域から収集することによって取得される。測定されたサブ領域のセットのみを評価段階で用いることもできる。領域M1の第1ラインの露出は、ラインLreadの読出し時に開始される。これは、領域M1の第1ラインがラインLreadの読出し露出を開始することを意味する。画像フレームNの領域M1の最後のラインの読出しと領域M2の最初のラインの露出の開始との間の時間TLensM1-M2中に、レンズを位置Pnと位置Pn+1との間で移動させる。画像フレームNの領域M2の最後のラインの読出しと次のフレームN+1の領域M1の最初のラインの露出の開始との間の時間TLensM2-M1(画像中に示さず。)中に、レンズを位置Pn+1と位置Pn+2との間で移動させる。レンズをこれら時間窓外で移動させる場合、測定領域のラインは、混合データを取得し、測定領域は、もはや一つのレンズ位置のみに対応しない。位置Pn+1及びPn+2は、次のフレームで測定される。露出時間Texpは、典型的には1フレームで一定であるが、当業者は、露出時間Texpが1フレームで変化しうることを理解する。
2.2 Measurement of N lens positions in one frame In FIG. 6, two lens positions are measured in one exposed frame. Contrast is detected from the regions M1 and M2 of the image frame I. Measurements are obtained by collecting high frequency components (and / or bandpass components) from the sub-regions. Only a set of measured sub-regions can be used in the evaluation stage. The exposure of the first line in the region M1 is started when the line L read is read. This means that the first line of the region M1 starts reading exposure of the line L read . During the time T LensM1-M2 between the reading of the last line of region M1 of image frame N and the start of exposure of the first line of region M2, the lens is moved between position P n and position P n + 1. Move. During the time T LensM2-M1 (not shown in the image) between the reading of the last line of region M2 of image frame N and the start of exposure of the first line of region M1 of next frame N + 1. Move between position P n + 1 and position P n + 2 . If the lens is moved outside these time windows, the measurement area lines acquire mixed data and the measurement area no longer corresponds to only one lens position. The positions P n + 1 and P n + 2 are measured in the next frame. The exposure time T exp is typically constant in one frame, but those skilled in the art understand that the exposure time T exp can vary in one frame.

Figure 0005086270
Figure 0005086270

Figure 0005086270
Figure 0005086270

図7は、レンズ移動範囲の走査後の結果を示す。図7は、図6に関連し、二つの個別の測定領域に関連する曲線を示し、この場合、一方の測定領域が他方の測定領域より多くの情報を有する。曲線を組み合わせることによってピーク焦点位置を推定することができる。   FIG. 7 shows the result after scanning the lens movement range. FIG. 7 relates to FIG. 6 and shows curves associated with two separate measurement areas, where one measurement area has more information than the other measurement area. The peak focus position can be estimated by combining the curves.

露出時間Texpは、1フレーム内で測定を行うことができる回数を規定するのに用いられる。レンズ特性値、例えば、MTF/PSF(変調伝達関数/点像分布関数)を、焦点の決定を評価するときに利用することができる。 The exposure time T exp is used to define the number of times a measurement can be performed within one frame. Lens characteristic values, such as MTF / PSF (modulation transfer function / point spread function), can be utilized when evaluating focus determination.

例2.2は、二つの測定領域を説明するが、当業者は、二つの数に限定されないことを理解する。同様に、上記例において、レンズ位置が連続的であるが、レンズ位置が異なることもできる。レンズ間の距離は、常に同一である必要がない。領域のサイズ及び位置は、露出時間及びレンズ移動に必要な時間に応じて変化することができる。   Although Example 2.2 illustrates two measurement regions, those skilled in the art will understand that it is not limited to two numbers. Similarly, in the above example, the lens position is continuous, but the lens position may be different. The distance between the lenses need not always be the same. The size and position of the region can vary depending on the exposure time and the time required for lens movement.

2.3 1フレーム(又は2フレーム)内の連続的な瞬時
本例(図8参照)は、例2.1と同様であるが、本例において、レンズは、特定のレンズ位置で停止する。領域Mのサブ領域は、全レンズ移動範囲の部分区間からのデータを有する。フォーカス値の解釈はこれを考慮する必要がある。露出時間もこれらの計算内で考慮する必要がある。本例は、書類や名刺のような平坦なオブジェクトの画像を取り出すときに有用である。
2.3 Continuous Instantaneous within 1 Frame (or 2 Frames) This example (see FIG. 8) is similar to Example 2.1, but in this example the lens stops at a specific lens position. The sub-region of the region M has data from a partial section of the entire lens movement range. This must be taken into account when interpreting the focus value. The exposure time must also be considered in these calculations. This example is useful when extracting an image of a flat object such as a document or a business card.

本例において、レンズを一定速度で移動させることができるが、レンズを、可変速度及び奇跡、例えば、フレーム中の複数サイクルの範囲で移動させることができる。他の実現において、レンズを第1フレーム間で最小から最大まで移動させることができ、レンズを第2フレーム間で最大から最小まで移動させることができる。このようにして、二つの曲線を形成することができ、その結果、画像の異なる部分の異なるコントラスト領域の影響を減少することができる。焦点の決定を評価するときにレンズ特性値(例えば、MTF/PSF)を利用することもできる。   In this example, the lens can be moved at a constant speed, but the lens can be moved at variable speeds and miracles, eg, in the range of multiple cycles in the frame. In other implementations, the lens can be moved from minimum to maximum between first frames and the lens can be moved from maximum to minimum between second frames. In this way, two curves can be formed and as a result the influence of different contrast areas in different parts of the image can be reduced. Lens characteristic values (e.g., MTF / PSF) can also be utilized when evaluating focus determination.

2.4 グローバルシャッタを用いた高速フォーカシング
既に説明したように、従来、グローバルシャッタがCCDセンサとともに用いられている。しかしながら、CMOSセンサがグローバルリセット及びグローバルシャッタを有することもできる。図9は、オートフォーカスの計測にクロップ画像810が用いられるとともにフル画像800をファインダ画像として用いることができる例を示す。第1タイミングチャート801は、フレームレート及び収束速度が通常ADC(アナログ−デジタル変換)速度によって制限される通常動作モードを有する。当然、露出時間が非常に長い場合、露出時間が制限要因になりうる。第2タイミングチャート802は、収束速度を最大にするがファインダ画像が全く取得されない系を示す。この場合、収束速度は、レンズ移動、リセット及び露出時間によって制限される。第3タイミングチャート803は、高速フォーカシングを達成することができるがプレビュー画像を理想的なフレームレートで示すことができる例を示す。クロップが行われるとき、クロップ領域ウィンドウの外側の全ての変化を無視することができ、AD変換が行われない。
2.4 High-speed focusing using a global shutter As described above, a global shutter is conventionally used together with a CCD sensor. However, the CMOS sensor can also have a global reset and a global shutter. FIG. 9 shows an example in which the crop image 810 is used for autofocus measurement and the full image 800 can be used as a finder image. The first timing chart 801 has a normal operation mode in which the frame rate and the convergence speed are normally limited by an ADC (analog-digital conversion) speed. Of course, if the exposure time is very long, the exposure time can be a limiting factor. The second timing chart 802 shows a system in which the convergence speed is maximized but no finder image is acquired. In this case, the convergence speed is limited by lens movement, reset and exposure time. A third timing chart 803 shows an example in which high-speed focusing can be achieved but a preview image can be shown at an ideal frame rate. When cropping is performed, all changes outside the crop area window can be ignored and no AD conversion is performed.

高速焦点検出ソリューションは、焦点を見つけるのに必要な時間となる重要な利点を有する。例えば、Xが必要な測定量に対応する場合、例2.1により、時間を、(露出時間を制限することによって)Xフレームまで短縮することができ、例2.2により、時間をX/Nまで短縮することができ、例2.3により、時間を1フレームによって短縮することができ、例2.4により、時間を、測定用のフレームレートを増大することによって短縮することができる。例2.3は消費電力も低減する。その理由は、連続的な収束を必要としないからである。   A fast focus detection solution has the important advantage of being the time required to find a focus. For example, if X corresponds to the required measurement, the time can be reduced to X frames (by limiting the exposure time) according to Example 2.1, and the time can be reduced to X / N can be reduced to N, time can be reduced by one frame according to Example 2.3, and time can be reduced according to Example 2.4 by increasing the frame rate for measurement. Example 2.3 also reduces power consumption. The reason is that continuous convergence is not required.

3)ブランキング時間を利用することによるレンズの移動及び画像の露出
本例は、ブランキング期間が制御され(動的に変化するブランキング期間)又は露出時間及びレンズ移動時間が制御される(静的なブランキング期間)方法を説明する。動的に変化するブランキング期間を用いるとき、画像情報を損なうことなく既知の露出時間及びレンズ移動時間内で最大画像フレームレートを達成することができる。レンズ移動を用いて又はレンズ移動を用いることなく最大画像フレームレート内で自動的な昼夜の光のシーン変動を用いることができる。動的に変化するブランキング期間を用いるとき、フレームレートは一定でない。しかしながら、静的なブランキング期間によって一定のフレームレートが可能になる。
3) Lens movement and image exposure by using blanking time In this example, the blanking period is controlled (dynamically changing blanking period) or the exposure time and lens moving time are controlled (static). A typical blanking period) method will be described. When using a dynamically varying blanking period, the maximum image frame rate can be achieved within a known exposure time and lens travel time without compromising image information. Automatic day and night light scene variations within the maximum image frame rate can be used with or without lens movement. When using a dynamically changing blanking period, the frame rate is not constant. However, a static blanking period allows a constant frame rate.

両方のブランキング時間のシナリオでローリングシャッタ及びグローバルシャッタを用いることができる。グローバルシャッタを用いることによって、全体画像がセンサから送信されなくてもシャッタを閉じた直後にレンズ移動を開始することができる。イメージセンサのシステムクロックを変更することなく両方のブランキングソリューションを実現できることを覚えておくことも重要である。これは大きな利点である。その理由は、そのような状況において位相同期ループ(PLL)をセットアップするときに画像フレームをスキップし又は悪い品質の画像フレームを送信する必要がないからである。   Rolling shutters and global shutters can be used in both blanking time scenarios. By using the global shutter, the lens movement can be started immediately after the shutter is closed even if the entire image is not transmitted from the sensor. It is also important to remember that both blanking solutions can be implemented without changing the image sensor system clock. This is a great advantage. The reason is that it is not necessary to skip image frames or transmit bad quality image frames when setting up a phase locked loop (PLL) in such situations.

3.1 静的なブランキング期間
本例の一つの実現(図10)において、所望のイメージ周波数は、バスを使用したレートに基づく最大ブランキング時間によって達成され、その後、露出時間は、レンズを移動させる方法に応じて規定されたブランキング時間の制限内でレンズの移動を可能にするよう最大に制限される。露出時間を、短縮された露出時間をアナログ又はデジタル利得に置換するように制限することができる。参照符号96a,96bは、完全な可視画像フレームの非露出時間を表し、それに対して、参照符号97a,97bは、AF統計ブロックの非露出時間を表す。図10において、フレームブランキング92a,92b,92c、ラインブランキング91a,91b及び埋め込み/補助データ94a,94b,94c,94dを示す。ラインの読出しは、参照符号98によって参照され、この場合、露出時間を参照符号95によって参照するとともに、可視データを参照符号99によって参照する。
3.1 Static Blanking Period In one implementation of this example (FIG. 10), the desired image frequency is achieved by a maximum blanking time based on the rate using the bus, after which the exposure time is The lens is maximally limited to allow movement of the lens within a blanking time limit defined according to the method of movement. The exposure time can be limited to replace the shortened exposure time with analog or digital gain. Reference numerals 96a and 96b represent the non-exposure time of the complete visible image frame, while reference numerals 97a and 97b represent the non-exposure time of the AF statistics block. FIG. 10 shows frame blanking 92a, 92b, 92c, line blanking 91a, 91b, and embedded / auxiliary data 94a, 94b, 94c, 94d. The readout of the line is referenced by reference numeral 98, where the exposure time is referenced by reference numeral 95 and the visible data is referenced by reference numeral 99.

このシステムにより、ラインの総数を一定に設定することによってイメージ周波数が一定に維持されると仮定される。しかしながら、利得を増大し、したがって、ダイナミックエリアを減少する以外に画像を損なうことなく、バスのレートの制限内及び読出し速度の制限内で、制限された露出に対する十分な時間及びレンズ移動に必要な十分な制限時間がある。   This system assumes that the image frequency is kept constant by setting the total number of lines constant. However, it is necessary for sufficient time and lens movement for limited exposure, within the bus rate limit and readout speed limit, without increasing the gain and thus compromising the image other than reducing the dynamic area. There is enough time limit.

静的なブランキング期間が用いられる場合、露出時間及びレンズ移動時間は、画像中にアーティフェクトなく画像を取得できるよう制限される。これは、ブランキング期間をできるだけ長くする必要があることを意味し、これは、必要なフレームレート内でインタフェースによって可能になる。さらに、長い露出時間及び長いレンズ移動時間が要求される場合、一方又は両方を制限する必要がある。これは、例えばアナログ利得によって露出時間を補償する必要があることを意味し、ズーミングの速度が減少する。   When a static blanking period is used, the exposure time and lens movement time are limited so that an image can be acquired without artifacts in the image. This means that the blanking period needs to be as long as possible, which is made possible by the interface within the required frame rate. Furthermore, if long exposure times and long lens travel times are required, one or both must be limited. This means that the exposure time needs to be compensated by analog gain, for example, and the zooming speed is reduced.

3.2 動的なブランキング期間
ローリングシャッタに対する現在の例の他の実現において、レンズ移動及び次の画像の最初のラインの露出に必要なフレームブランキング時間102a,102b,102cが各画像に対して用いられ、その露出量は、露出時間105a,105bによって規定される。したがって、フレームブランキング時間102a,102b,102cは、画像に従って変動し、完全な画像に対して十分な非露出時間を有するために、対応する露出時間105a,105bより大きくなる必要がある。この例を図11に示す。
3.2 Dynamic Blanking Period In another implementation of the current example for a rolling shutter, the frame blanking times 102a, 102b, 102c required for lens movement and exposure of the first line of the next image are for each image. The exposure amount is defined by the exposure times 105a and 105b. Thus, the frame blanking times 102a, 102b, 102c vary according to the image and need to be greater than the corresponding exposure times 105a, 105b in order to have sufficient non-exposure time for a complete image. An example of this is shown in FIG.

レンズ移動を、以前の画像(フレームN−1)の最後の可視ラインが露出された直後に開始することができる。したがって、レンズ移動の制御を、レンズがどの方向に移動することになっているか(ズーム制御又はオートフォーカス制御)及びレンズ移動を開始するのに必要な遅延が最後の可視画素(ライン)の露出から残されているときを知ってから開始することができる。さらに、レンズを所定の位置に配置した後、最初の画素(ライン)の露出を、当該ラインの画素をリセットすることによって開始することができる。次の画像(フレームN+1)に対して行われるレンズ移動及びそれに必要な時間(106a,107a,106b,107b)は、どの動作−ズーミング制御又はオートフォーカス制御−が行われるか並びにレンズ移動の量及び方向を知る場合には現在の画像(フレームN)を露出する前に既に知られている。ファインダ画像の場合、フォーカシングのみが重要であり、したがって、レンズ移動の時間(107a,107b)は、静止画像又はビデオ画像のレンズ移動の時間(106a,106b)とは異なる。ズーム制御はユーザによるものであり、レンズが極めて頻繁に連続的に前後に移動しないようにするために連続的なオートフォーカス制御に十分なヒステリシスが存在す必要がある。さらに、次の画像(フレームN+1)の露出(105b)が既に知られており、これによって、現在の画像(フレームN)のブランキング領域(102b)の必要なブランキングラインの量を計算するのが容易になる。   The lens movement can be started immediately after the last visible line of the previous image (frame N-1) is exposed. Therefore, the control of lens movement is controlled in which direction the lens is supposed to move (zoom control or autofocus control) and the delay required to start the lens movement from the exposure of the last visible pixel (line). You can start by knowing when you are left. Furthermore, after placing the lens in place, the exposure of the first pixel (line) can be initiated by resetting the pixels in that line. The lens movement to be performed on the next image (frame N + 1) and the time required (106a, 107a, 106b, 107b) indicate which operation-zooming control or autofocus control-is performed, and the amount of lens movement and If the direction is known, it is already known before exposing the current image (frame N). In the case of a finder image, only focusing is important, so the lens movement time (107a, 107b) is different from the lens movement time (106a, 106b) of a still image or video image. Zoom control is by the user, and there must be sufficient hysteresis in continuous autofocus control to prevent the lens from moving back and forth very frequently. Furthermore, the exposure (105b) of the next image (frame N + 1) is already known, thereby calculating the amount of blanking lines required in the blanking region (102b) of the current image (frame N). Becomes easier.

本例において、センサの読出し速度は変化せず、したがって、センサのシステムクロックに影響を及ぼす必要がなく、送信されるとともに画像中に存在する可視ライン及びブランキングラインの量にしか影響が及ぼされない。ラインブランキング領域(101a,101b)のブランキング画素は、表示される画像すなわち可視画像109a,109bに含まれない画素である。他の不可視画像領域、例えば、垂直ブランキング、補助/組込みデータ、ダミー画素、暗画素、黒画素及び製造者特有のデータが存在してもよい。可視ラインの量の変化は、画像をデジタル的にズームするときに通常行われる画像クロップに対応する。   In this example, the sensor readout rate does not change, so it does not need to affect the sensor's system clock and only affects the amount of visible and blanking lines that are transmitted and present in the image. . Blanking pixels in the line blanking region (101a, 101b) are pixels that are not included in the displayed image, that is, the visible images 109a, 109b. There may be other invisible image areas such as vertical blanking, auxiliary / embedded data, dummy pixels, dark pixels, black pixels and manufacturer specific data. The change in the amount of visible line corresponds to the image cropping normally performed when the image is digitally zoomed.

図11は、ブランキングラインを挿入することによるフレームブランキングの変更を示すが、少なくともSMIA(Standard Mobile Imaging Architecture)仕様のセンサにより、画素をラインの端に挿入することによってラインブランキングを変更することもできる(101a,101b)。SMIAセンサは、本来、システムクロックを変更することなくイメージ周波数を一定に制御するように意図されている。同様に、これらセンサは、画像限界に亘る画像のレート又は連続的な露出を読み出す必要なく長い露出時間を実現するよう設計される。本例の制御構造を用いることによって、できるだけ大きな画像レートを達成することができる。さらに、レンズ移動が画像のあらゆる段階で示されない。したがって、このシステムは、画像を損なうことなく所望のときにレンズを移動できるよう画像を露出することによる所望の露出時間でできるだけ大きなイメージ周波数を提供する。更に適切なファインダフレーム更新を全く必要とせずブランキング領域を動的に増大できることにも注意されたい。例えば、現在のフレームの開始から次のフレームの開始までが1,2,...,n/60秒となるようにブランキングラインを追加する。   FIG. 11 shows the change of frame blanking by inserting a blanking line. At least the sensor of the standard mobile imaging architecture (SMIA) specification changes the line blanking by inserting a pixel at the end of the line. (101a, 101b). The SMIA sensor is originally intended to control the image frequency constant without changing the system clock. Similarly, these sensors are designed to achieve long exposure times without having to read the image rate or continuous exposure over the image limit. By using the control structure of this example, as large an image rate as possible can be achieved. Furthermore, lens movement is not shown at every stage of the image. Thus, this system provides as high an image frequency as possible with the desired exposure time by exposing the image so that the lens can be moved when desired without damaging the image. Note also that the blanking area can be increased dynamically without requiring any appropriate finder frame updates. For example, from the start of the current frame to the start of the next frame is 1, 2,. . . , N / 60 seconds to add a blanking line.

3.3 概要
図10及び11は、静的なブランキング期間ソリューション及び動的なブランキング期間ソリューションをそれぞれ示す。図10及び11の両方において、レンズ移動の時間、露出時間及びフォーカシングデータエリアを記載する。図10と図11との間の最も大きな差は、図10において、ブランキング期間が等しいとともにレンズ移動の時間(96a,97a,96b,97b)が必要な露出時間(95a,95b)に基づいて変動する(逆もまた同様)。図11において、レンズ移動の時間(106a,107a,106b,107b)及び露出時間(105a,105b)が既知であり、ブランキング期間がこれらの時間に基づいて変動する。
3.3 Overview FIGS. 10 and 11 illustrate a static blanking period solution and a dynamic blanking period solution, respectively. In both FIGS. 10 and 11, the lens movement time, exposure time and focusing data area are described. The largest difference between FIG. 10 and FIG. 11 is based on the exposure time (95a, 95b) in FIG. 10 where the blanking period is equal and the lens movement time (96a, 97a, 96b, 97b) is required. Fluctuates (and vice versa). In FIG. 11, the lens movement time (106a, 107a, 106b, 107b) and the exposure time (105a, 105b) are known, and the blanking period varies based on these times.

上記プロセス(3.1,3.2)がグローバルシャッタを用いて以下のように行われる。画像の露出がグローバルシャッタによって閉じられ、その後、レンズ移動を開始することができる。レンズ移動は、当該画像のセンサからの読出しがどれだけ続くかに関係なく開始される。同様に、画素のグローバルリセット(すなわち、グローバルシャッタの開放)、したがって、新しい画像の露出は、レンズを正確な位置に移動するとともに以前の可視画像をセンサから読み出し、読出し後にグローバルシャッタを開放した直後に開始される。この場合、非露出時間は、シャッタを閉じた後にセンサが読み出される時間であり、次の画像の最初に使用されるライン前のブランキング時間がリセットされる(典型的には、グローバルリセット)。非露出時間中、センサは、最後の画像において目に見える画素又は測定に用いられる画素に対する光を受光しない。   The above processes (3.1, 3.2) are performed as follows using a global shutter. Image exposure is closed by the global shutter, after which lens movement can begin. The lens movement is initiated regardless of how long the image reading from the sensor continues. Similarly, a global reset of the pixel (ie, opening of the global shutter), and hence the exposure of a new image, moves the lens to the correct position and reads the previous visible image from the sensor and immediately after opening the global shutter To begin. In this case, the non-exposure time is the time when the sensor is read after closing the shutter, and the blanking time before the line used at the beginning of the next image is reset (typically a global reset). During the non-exposure time, the sensor does not receive light for pixels that are visible in the last image or used for measurement.

最大イメージ周波数を対象にするプロセス(3.2)を用いるか否かに関係なく、レンズ移動に用いることができる時間が長くなるに従って、露出時間が短くなる。このために、光学的なズーム/オートフォーカスレンズは、通常より迅速に又は通常より少ない一時的な容量で同一経路を移動する。   Regardless of whether or not the process (3.2) targeting the maximum image frequency is used, the exposure time decreases as the time available for lens movement increases. For this reason, the optical zoom / autofocus lens moves on the same path more quickly than usual or with a temporary capacity less than usual.

ある状況において、ファインダ画像の一時的な破損を防止することが所望されない。その理由は、そのような画像が後の使用のために記憶されないからである。したがって、できるだけ迅速で長い露出時間のオートフォーカスを、フォーカス制御に属しない画素/画素ラインの露出中のレンズ移動により両方のプロセス(3.1,3.2)に対して達成することができる。この移動は、ファインダ画像で見えるが、最終画像及び格納された静止画像には見えない。ビデオ画像に対しても、できるだけ迅速に最初のオートフォーカス制御を実現するのが好ましく、したがって、統計に用いられる領域が損なわれない限り画像が破損されない。   In certain situations, it is not desirable to prevent temporary damage to the viewfinder image. The reason is that such images are not stored for later use. Thus, autofocus with the fastest and longest exposure time possible can be achieved for both processes (3.1, 3.2) by lens movement during exposure of pixels / pixel lines not belonging to focus control. This movement is visible in the viewfinder image, but not in the final image and the stored still image. Even for video images, it is preferable to implement the initial autofocus control as quickly as possible, so that the image is not corrupted unless the area used for statistics is compromised.

制限値に従った読出し速度でほぼ毎回露出時間を制御することができるので、レンズを制御する必要がほとんどない。したがって、最大イメージ周波数を対象とした実行(3.2)において、ブランキング時間をしばしば零(又はセンサリミット)にセットすることができる。さらに、最大イメージ周波数を対象とした実現は、(レンズ移動を用いて又はレンズ移動を用いることなく)夜/昼モードの自動制御において良好に行われ、これによって、ブランキングが照明状態に応じて増大するが、ファインダ画像は、必要以上に遅くならない。   Since the exposure time can be controlled almost every time at the readout speed according to the limit value, there is almost no need to control the lens. Therefore, the blanking time can often be set to zero (or sensor limit) in the run (3.2) for the maximum image frequency. Furthermore, the realization for the maximum image frequency is well performed in the automatic control of the night / day mode (with or without lens movement), so that blanking depends on the lighting conditions. Although it increases, the viewfinder image does not become slower than necessary.

このような実現によって、損傷のない画像が得られ、所望の場合には、当該照明状態及び制御状態で最大イメージ周波数の画像が得られる。さらに、最大イメージ周波数を対象としない場合、一定のイメージ周波数のレンズ移動を行うことができ、レンズ移動方法に従って最大露出アイテムを確保することができる。同様に、露出時間が短い場合、レンズ移動が遅くなるときにズーミングを迅速にし又は一時的なピーク効果を減少することができる。   Such an implementation provides an undamaged image and, if desired, an image with a maximum image frequency in the illumination and control states. Further, when the maximum image frequency is not targeted, the lens can be moved at a fixed image frequency, and the maximum exposure item can be secured according to the lens moving method. Similarly, if the exposure time is short, zooming can be accelerated or the temporary peak effect can be reduced when lens movement is slow.

実現
上記例を、移動体装置、デジタルカメラ、ウェブカメラ等の電子装置の一部である撮像システムの制御CPU上で実現することができる。更に迅速かつ更に正確なタイミングを有するようにするために、専用のハードウェアの実現がイメージセンサ又は受信器ブロックにおいて必要となりうる。図12は、電子装置のあり得る形態を示す。図12の装置1200は、送信器1221及び受信器1222を有する通信手段1220を備え又はそのような通信手段1220に接続される。送信器1281及び受信器1282を有する他の通信手段1280が存在してもよい。第1の通信手段1220を、遠隔通信に適合させることができ、他の通信手段1280を、ブルートゥース(登録商標)システム、WLANシステム(無線ローカルエリアネットワーク)又はローカル使用に適するとともに他の装置と通信を行う他のシステムのような種類の狭域通信手段とすることができる。図12の例による装置1200は、視覚的な情報及びイメージデータを表示するディスプレイ1240も備える。さらに、装置1200は、データを入力するキーパッド1250のようなインタラクション手段を備えることができる。さらに、ディスプレイがタッチスクリーンディスプレイであるか否かに関係なく、装置1200は、キーパッド1250の代わりにスタイラスペンを有することができる。装置1200は、イヤホン1261やマイクロホン1262のようなオーディオ手段1260を備え、オーディオ情報を符号化する(必要な場合には復号を行う)コーデックを選択的に備える。装置1200は、撮像システム1210を備え又は撮像システム1210に接続される。装置1200において機能を制御するとともにアプリケーションを実行するために制御ユニット1230を装置1200に組み込むことができる。制御ユニット1230は、一つ以上のプロセッサ(CPU,DSP)を備えることができる。さらに、装置1200は、例えば、データ、アプリケーション及びコンピュータプログラムコードを記憶するメモリ1270を備える。当業者は、撮像システムがシステムの効率を適切に向上する任意の数の性能及び機能を組み込むこともできることを理解する。
Implementation The above example can be implemented on the control CPU of an imaging system that is part of an electronic device such as a mobile device, digital camera, web camera or the like. In order to have faster and more accurate timing, dedicated hardware implementations may be required in the image sensor or receiver block. FIG. 12 shows a possible form of the electronic device. The apparatus 1200 of FIG. 12 comprises or is connected to a communication means 1220 having a transmitter 1221 and a receiver 1222. There may be other communication means 1280 having a transmitter 1281 and a receiver 1282. The first communication means 1220 can be adapted for remote communication, and the other communication means 1280 can be adapted for Bluetooth system, WLAN system (wireless local area network) or other devices and communicating with other devices. It can be a narrow-band communication means of the kind like other systems that perform. The apparatus 1200 according to the example of FIG. 12 also includes a display 1240 that displays visual information and image data. Further, the device 1200 can comprise interaction means such as a keypad 1250 for entering data. Further, regardless of whether the display is a touch screen display, the device 1200 can have a stylus pen instead of the keypad 1250. The apparatus 1200 includes audio means 1260 such as an earphone 1261 and a microphone 1262, and selectively includes a codec that encodes (decodes if necessary) audio information. The apparatus 1200 includes or is connected to the imaging system 1210. A control unit 1230 can be incorporated into the device 1200 to control functions and execute applications in the device 1200. The control unit 1230 can include one or more processors (CPU, DSP). Further, the apparatus 1200 comprises a memory 1270 that stores data, applications and computer program code, for example. Those skilled in the art will appreciate that the imaging system can also incorporate any number of capabilities and functions that appropriately improve the efficiency of the system.

上記詳細な説明は、理解の明瞭のためにのみ与えられたものであり、必ずしも請求の範囲を限定するためのものではない。   The foregoing detailed description has been given for clarity of understanding only and is not necessarily intended to limit the scope of the claims.

画像シーケンスの例を示す。An example of an image sequence is shown. 光学系の調節に対するタイミングソリューションの例を示す。An example of a timing solution for optical system adjustment is shown. オートフォーカス窓を備えた画像フレームの例を示す。An example of an image frame provided with an autofocus window is shown. オートフォーカスシステムの例を示す。An example of an autofocus system is shown. フレーム期間中の一つの光学系の位置及び調節の例を示す。An example of the position and adjustment of one optical system during a frame period is shown. 1フレーム内でN個の光学系の位置の測定の例を示す。An example of measuring the positions of N optical systems within one frame is shown. 光学系の位置の関数としての焦点測定の例を示す。An example of focus measurement as a function of optical system position is shown. 1フレーム中の全焦点走査の例を示す。An example of omnifocal scanning in one frame is shown. グローバルシャッタによる焦点走査の例を示す。An example of focus scanning using a global shutter will be described. 静的なブランキング期間ソリューションの例を示す。An example of a static blanking period solution is shown. 動的なブランキング期間ソリューションの例を示す。An example of a dynamic blanking period solution is shown. 本発明による装置の例を示す。2 shows an example of a device according to the invention.

Claims (29)

少なくとも一つが測定画像として用いられるとともに少なくとも一つが最終画像として用いられる少なくとも二つの画像を備えた画像シーケンスを取得する撮像方法において、
測定画像露出時間及び最終画像露出時間及び前記測定画像露出時間と前記最終画像露出時間との間の非露出時間を決定するステップと、
前記非露出時間中に撮像光学系の調節を許容するステップと、を含む、撮像方法であって、
前記非露出時間を、前記測定画像のサイズの制御、前記測定画像のサブサンプリング、
前記画像シーケンスの読出しに用いられるチャネルレートの変更、前記測定画像露出時間と前記最終画像露出時間の一方又は両方の制御のうちの一つ又はその組合せによって調節する、撮像方法。
In an imaging method for obtaining an image sequence comprising at least two images, wherein at least one is used as a measurement image and at least one is used as a final image ,
Determining a measurement image exposure time and a final image exposure time and a non-exposure time between the measurement image exposure time and the final image exposure time;
Allowing adjustment of the imaging optical system during the non-exposure time, comprising:
The non-exposure time, control of the size of the measurement image, sub-sampling of the measurement image,
An imaging method , wherein adjustment is performed by one or a combination of control of one or both of the measurement image exposure time and the final image exposure time, or a change in a channel rate used for reading the image sequence .
前記画像シーケンスの小さい画像を前記測定画像として使用し、大きい画像を前記最終画像として使用する請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein a small image of the image sequence is used as the measurement image, and a large image is used as the final image. ビデオ画像又はファインダ画像の場合に前記測定画像を前記最終画像として使用する請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein the measurement image is used as the final image in the case of a video image or a finder image. 少なくとも前記最終画像を記憶する請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein at least the final image is stored. 前記測定画像を測定画像フレームと画像フレームの測定エリアのうちの一方とする請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein the measurement image is one of a measurement image frame and a measurement area of the image frame. オートフォーカス統計を前記測定画像から計算する請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein autofocus statistics are calculated from the measurement image. 前記非露出時間を、前記オートフォーカス統計、イメージセンサの画素量を含む情報及びズームハードウェアにおける送信クロック周波数のあり得る遅延によって決定する請求項6に記載の撮像方法。The imaging method according to claim 6 , wherein the non-exposure time is determined by the autofocus statistics, information including a pixel amount of an image sensor, and a possible delay of a transmission clock frequency in zoom hardware. 少なくとも一つの測定領域を少なくとも測定画像において規定して、オートフォーカスを、前記少なくとも一つの測定領域において少なくとも一つのレンズ位置から測定する請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein at least one measurement region is defined in at least a measurement image, and autofocus is measured from at least one lens position in the at least one measurement region. フォーカス測定値を、前記少なくとも一つの測定領域のサブ領域から高周波成分及び通過帯域周波数成分を収集することによって取得する請求項8に記載の撮像方法。The imaging method according to claim 8 , wherein the focus measurement value is acquired by collecting a high-frequency component and a passband frequency component from a sub-region of the at least one measurement region. 前記撮像光学系を、同一画像における第1の測定領域の最後のラインの読出しと第2の測定領域の最初のラインの露出との間、第1の画像の第1の測定領域の露出と第2の画像の第2の測定領域の露出との間、又は常に撮像中に調節する請求項9に記載の撮像方法。The imaging optical system may be configured such that the exposure of the first measurement area of the first image and the first measurement area between the readout of the last line of the first measurement area and the exposure of the first line of the second measurement area in the same image. The imaging method according to claim 9 , wherein the adjustment is performed during imaging or always during exposure of the second measurement region of the two images. 前記非露出時間を決定するときにブランキング時間を利用する、請求項1に記載の撮像方法。  The imaging method according to claim 1, wherein blanking time is used when determining the non-exposure time. 前記撮像光学の調節の際に前記非露出時間を規定するために最大ブランキング時間を用いる請求項11に記載の撮像方法。The imaging method according to claim 11 , wherein a maximum blanking time is used to define the non-exposure time when adjusting the imaging optics. 前記非露出時間を規定するために前記ブランキング時間を露出時間に従って制御する請求項11に記載の撮像方法。The imaging method according to claim 11 , wherein the blanking time is controlled according to an exposure time in order to define the non-exposure time. 前記画像シーケンスを、静止画像、ビデオ画像、ファインダ画像又はこれらの組合せによって形成した請求項1に記載の撮像方法。The imaging method according to claim 1 , wherein the image sequence is formed by a still image, a video image, a viewfinder image, or a combination thereof. 少なくとも一つの測定画像及び少なくとも一つの最終画像を備えた画像シーケンスを取得する方法において、撮像光学系の調節に用いられる非露出時間を決定するために、
a)前記測定画像からオートフォーカス統計を計算するとともに前記最終画像に対して用いられる非露出時間を前記オートフォーカス統計によって決定するオプションと、
b)少なくとも2つの測定領域を少なくとも測定画像において規定するとともに、前記測定領域において少なくとも一つのレンズ位置からオートフォーカスを測定し、前記測定領域の最後のラインの読出しと次の測定領域の最初のラインの露出の開始との間で非露出時間を規定するオプションと、
c)前記画像シーケンス中に生じる少なくとも一つのブランキング時間を規定するとともに、前記ブランキング時間内で前記撮像光学系の調節を制御し又は前記ブランキング時間を制御することによって前記非露出時間を規定するオプションと
のうちの少なくとも一つを備えた方法であって、
前記非露出時間を、前記測定画像のサイズの制御、前記測定画像のサブサンプリング、
前記画像シーケンスの読出しに用いられるチャネルレートの変更、前記測定画像露出時間と前記最終画像露出時間の一方又は両方の制御のうちの一つ又はその組合せによって調節する、方法。
In a method for obtaining an image sequence comprising at least one measured image and at least one final image, in order to determine the non-exposure time used for adjusting the imaging optics
a) an option to calculate autofocus statistics from the measured image and to determine the non-exposure time used for the final image by the autofocus statistics;
b) defining at least two measurement areas in at least the measurement image, measuring autofocus from at least one lens position in the measurement area, reading out the last line of the measurement area and the first line of the next measurement area An option to define a non-exposure time between the start of exposure and
c) defining at least one blanking time occurring during the image sequence, and controlling the adjustment of the imaging optical system within the blanking time or defining the non-exposure time by controlling the blanking time A method with at least one of the following options :
The non-exposure time, control of the size of the measurement image, sub-sampling of the measurement image,
Adjusting the channel rate used to read the image sequence by adjusting one or a combination of one or both of the measurement image exposure time and / or the final image exposure time control .
前記オプションb)に対して、前記撮像光学系を、連続的な画像において一つの画像の前記測定領域の最後のラインの読出しと前記測定画像の最初のラインの露出の開始との間、一つの画像の一つの測定領域の露出と同一画像の次の測定領域の露出との間の時間中、又は常に撮像中に調節する請求項15に記載の撮像方法。For the option b), the imaging optics is one in a continuous image between the readout of the last line of the measurement area of one image and the start of exposure of the first line of the measurement image. 16. The imaging method according to claim 15 , wherein the adjustment is performed during the time between the exposure of one measurement area of the image and the exposure of the next measurement area of the same image, or always during imaging. 調節可能な撮像光学系と、少なくとも一つを測定画像とするとともに少なくとも一つを最終画像とした少なくとも二つの画像を備えた画像シーケンスとしてプロセッサに供給される光を収集するように構成された少なくとも一つのイメージセンサと、
画像の露出を制御するように構成された露出制御手段とを備える撮像装置において
測定画像露出時間及び最終画像露出時間及び前記測定画像露出時間と前記最終画像露出時間との間の非露出時間を決定し、
前記非露出時間中に撮像光学系の調節を許容するように構成された撮像装置であって
前記非露出時間を、前記測定画像のサイズの制御、前記測定画像のサブサンプリング、
前記画像シーケンスの読出しに用いられるチャネルレートの変更、前記測定画像露出時間と前記最終画像露出時間の一方又は両方の制御のうちの一つ又はその組合せによって調節する、撮像装置。
Adjustable imaging optics and at least configured to collect light supplied to the processor as an image sequence comprising at least two images, at least one of which is a measurement image and at least one of which is a final image One image sensor,
In an imaging apparatus comprising exposure control means configured to control exposure of an image ,
Determining a measurement image exposure time and a final image exposure time and a non-exposure time between the measurement image exposure time and the final image exposure time;
An imaging device configured to allow adjustment of an imaging optical system during the non-exposure time,
The non-exposure time, control of the size of the measurement image, sub-sampling of the measurement image,
An imaging apparatus that adjusts by one or a combination of a change in a channel rate used for reading out the image sequence, a control of one or both of the measurement image exposure time and the final image exposure time .
前記画像シーケンスの小さい画像を前記測定画像として使用し、大きい画像を前記最終画像として使用することができる請求項17に記載の撮像装置。The imaging device according to claim 17 , wherein a small image of the image sequence can be used as the measurement image, and a large image can be used as the final image. ビデオ画像又はファインダ画像の場合に前記測定画像を前記最終画像として使用する請求項17に記載の撮像装置。The imaging apparatus according to claim 17 , wherein the measurement image is used as the final image in the case of a video image or a finder image. 前記最終画像を記憶することができる請求項17に記載の撮像装置。The imaging device according to claim 17 , wherein the final image can be stored. オートフォーカス統計を前記測定画像から計算することができる請求項17に記載の撮像装置。The imaging apparatus according to claim 17 , wherein autofocus statistics can be calculated from the measurement image. 前記非露出時間を、前記オートフォーカス統計、イメージセンサの画素量を含む情報及びズームハードウェアにおける送信クロック周波数のあり得る遅延によって決定することができる請求項21に記載の撮像装置。The imaging apparatus according to claim 21 , wherein the non-exposure time can be determined by the autofocus statistics, information including a pixel amount of an image sensor, and a possible delay of a transmission clock frequency in zoom hardware. 少なくとも一つの測定領域を少なくとも測定画像において規定するとともに、オートフォーカスを、前記少なくとも一つの測定領域において少なくとも一つのレンズ位置から測定することが更にできる請求項17に記載の撮像装置。 18. The imaging device according to claim 17 , wherein at least one measurement region is defined in at least a measurement image, and autofocus can be further measured from at least one lens position in the at least one measurement region. 前記非露出時間を規定するために最大ブランキング時間を用いることができる請求項17に記載の撮像装置。The imaging device according to claim 17 , wherein a maximum blanking time can be used to define the non-exposure time. 前記非露出時間を規定するためにブランキング時間を露出時間に従って制御することができる請求項17に記載の撮像装置。The imaging device according to claim 17 , wherein the blanking time can be controlled according to the exposure time in order to define the non-exposure time. 前記画像シーケンスを、静止画像、ビデオ画像、ファインダ画像又はこれらの組合せによって形成する請求項17に記載の撮像装置。The imaging apparatus according to claim 17 , wherein the image sequence is formed by a still image, a video image, a finder image, or a combination thereof. シャッタ手段がローリングシャッタ又はグローバルシャッタである請求項17に記載の撮像装置。The imaging apparatus according to claim 17 , wherein the shutter unit is a rolling shutter or a global shutter. 非露出時間を決定するために請求項1から16のうちのいずれか1項による方法を実施することができる撮像モジュール。An imaging module capable of performing the method according to any one of claims 1 to 16 to determine the non-exposure time. 請求項1から16のうちの1項に記載された方法を実施するためにコンピュータによって実行されるコンピュータプログラム。A computer program executed by a computer to carry out the method according to one of claims 1 to 16 .
JP2008540635A 2005-11-15 2005-11-15 Imaging system with adjustable optics Expired - Fee Related JP5086270B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FI2005/050409 WO2007057498A1 (en) 2005-11-15 2005-11-15 Imaging system with adjustable optics

Publications (2)

Publication Number Publication Date
JP2009516448A JP2009516448A (en) 2009-04-16
JP5086270B2 true JP5086270B2 (en) 2012-11-28

Family

ID=38048319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008540635A Expired - Fee Related JP5086270B2 (en) 2005-11-15 2005-11-15 Imaging system with adjustable optics

Country Status (5)

Country Link
EP (1) EP1949671A4 (en)
JP (1) JP5086270B2 (en)
KR (1) KR20100023056A (en)
CN (1) CN101326814A (en)
WO (1) WO2007057498A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101682696B (en) * 2007-06-04 2012-04-18 夏普株式会社 Portable terminal, control method for portable terminal
JP5171433B2 (en) 2008-01-22 2013-03-27 キヤノン株式会社 Imaging device and lens device
JP5400406B2 (en) 2009-02-06 2014-01-29 キヤノン株式会社 Imaging device
US8542287B2 (en) 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
JP5471004B2 (en) * 2009-04-22 2014-04-16 カシオ計算機株式会社 Focus adjustment apparatus, focus adjustment method, and program
JP5491677B2 (en) * 2011-03-31 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus control method thereof
EP2592821A1 (en) * 2011-11-10 2013-05-15 Research In Motion Limited Camera autofocus apparatus and associated method
WO2014001844A1 (en) 2012-06-27 2014-01-03 Nokia Corporation Imaging and sensing during an auto-focus procedure
WO2014078735A1 (en) * 2012-11-16 2014-05-22 Molecular Devices, Llc System and method of acquiring images with a rolling shutter camera while asynchronously sequencing microscope devices
US9462188B2 (en) * 2014-10-31 2016-10-04 Qualcomm Incorporated Time extension for image frame processing
CN111355895B (en) * 2018-12-05 2021-07-16 北京图森智途科技有限公司 Image exposure and gain adjustment method, imaging device and vehicle
CN111818272B (en) * 2020-06-30 2021-09-03 浙江大华技术股份有限公司 Method for eliminating image flicker, electronic device and storage medium
DE102022133188A1 (en) 2022-12-14 2024-06-20 Connaught Electronics Ltd. Adjusting the focus of a vehicle camera for different areas of interest
DE102022133187A1 (en) 2022-12-14 2024-06-20 Connaught Electronics Ltd. Focus adjustment of a vehicle camera

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0834551B2 (en) * 1988-07-19 1996-03-29 松下電器産業株式会社 Automatic focus adjustment device
JPH04133015A (en) * 1990-09-26 1992-05-07 Nikon Corp Control method for automatic focusing device
JPH04229783A (en) * 1990-12-27 1992-08-19 Sony Corp Video camera
US5563658A (en) * 1994-12-16 1996-10-08 Eastman Kodak Company Electronic camera with rapid automatic focus of an image upon an image sensor
US5668597A (en) * 1994-12-30 1997-09-16 Eastman Kodak Company Electronic camera with rapid automatic focus of an image upon a progressive scan image sensor
US6683651B1 (en) * 1999-10-28 2004-01-27 Hewlett-Packard Development Company, L.P. Method of automatically adjusting focus in a shutterless digital camera
JP2001177771A (en) * 1999-12-16 2001-06-29 Toshiba Corp Solid-state image sensing device
JP2001296470A (en) * 2000-04-14 2001-10-26 Hitachi Ltd Electronic still camera
US20040165090A1 (en) * 2003-02-13 2004-08-26 Alex Ning Auto-focus (AF) lens and process
JP4548045B2 (en) * 2004-08-25 2010-09-22 コニカミノルタオプト株式会社 Automatic focus adjustment device

Also Published As

Publication number Publication date
KR20100023056A (en) 2010-03-03
CN101326814A (en) 2008-12-17
WO2007057498A1 (en) 2007-05-24
EP1949671A1 (en) 2008-07-30
EP1949671A4 (en) 2008-11-05
JP2009516448A (en) 2009-04-16

Similar Documents

Publication Publication Date Title
JP5086270B2 (en) Imaging system with adjustable optics
JP5395678B2 (en) Distance map generation type multi-lens camera
JP4546565B2 (en) Digital image processing
JP5802520B2 (en) Imaging device
JP3873994B2 (en) Imaging apparatus and image acquisition method
US7667763B2 (en) Image pickup equipment and method
JP2002094862A (en) Image pickup apparatus
JP2013515442A (en) Generation of high dynamic range image using still image and preview image
JP4533735B2 (en) Stereo imaging device
US10812704B2 (en) Focus detection device, method and storage medium, for controlling image sensor operations
JP5064926B2 (en) Imaging apparatus and control method thereof
JP2009027750A (en) Contour enhancement control method and apparatus, camera aperture control method, and camera
JP5302058B2 (en) Imaging apparatus and imaging method
JP2007057974A (en) Photographing device
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2006148550A (en) Image processor and imaging device
JP2009017427A (en) Imaging device
US20190068875A1 (en) Imaging device, imaging device control method, and interchangeable lens
KR20100115574A (en) Digital camera and controlling method thereof
US7881595B2 (en) Image stabilization device and method
JP6622945B2 (en) Image processing apparatus, image processing method, and program
US20150085172A1 (en) Image capturing apparatus and control method thereof
JP5750262B2 (en) Imaging apparatus and imaging method
JP2004145022A (en) Digital camera
KR20080057345A (en) Imaging system with adjustable optics

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100921

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees