JP2016149765A - 位相検出ピクセルを利用して深さマップを生成するための映像生成装置 - Google Patents

位相検出ピクセルを利用して深さマップを生成するための映像生成装置 Download PDF

Info

Publication number
JP2016149765A
JP2016149765A JP2016017442A JP2016017442A JP2016149765A JP 2016149765 A JP2016149765 A JP 2016149765A JP 2016017442 A JP2016017442 A JP 2016017442A JP 2016017442 A JP2016017442 A JP 2016017442A JP 2016149765 A JP2016149765 A JP 2016149765A
Authority
JP
Japan
Prior art keywords
phase difference
lens
depth map
phase
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016017442A
Other languages
English (en)
Other versions
JP6731738B2 (ja
Inventor
泰 植 王
Tae-Shick Wang
泰 植 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016149765A publication Critical patent/JP2016149765A/ja
Application granted granted Critical
Publication of JP6731738B2 publication Critical patent/JP6731738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

【課題】互いに異なる位置で算出できるレンズを通じて様々な深さデータが生成でき、追加のセンサ又は装置無しで少ない面積又は体積を占め、効率的に深さマップを生成することができる映像生成装置を提供する。【解決手段】本発明は、深さマップを生成する映像生成装置を提供する。映像生成装置は、レンズが第1位置にある時、位相検出ピクセルによって生成された第1位相信号及びレンズが第2位置にある時、位相検出ピクセルによって生成された第2位相信号の各々に基づいて第1及び第2位相差が算出される位相差の算出部、及び第1及び第2位相差の各々に基づいて位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成する深さマップの生成部を含む。本発明によれば、映像生成装置によって占められる面積又は体積が減少し、より高い信頼性を有する深さマップが生成される。【選択図】 図7

Description

本発明は、映像技術に係り、さらに具体的には深さマップ(Depth Map)を生成するための装置に関する。
近来、多様な類型の映像技術が利用されている。多様な種類の電子装置が広く利用されており、大部分の電子装置は、映像を表示するか、或いは生成するために映像処理を遂行する。このために、大部分の電子装置は、表示装置、映像撮影装置、映像生成装置、映像処理装置等を含む。
特に、深さマップは、近来利用されている映像技術の中の1つである。深さマップは、客体と映像生成装置(例えば、イメージセンサを含むカメラ)との間の距離に関する情報を含む。深さマップは、3次元の映像を生成するために利用される。3次元映像は、映画、ビデオゲーム等をさらに興味深くするために利用される。
深さマップを生成するために、多様な類型の装置及び方法が利用されている。例として、深さマップは、特定の波形を有する光を客体に照射(Emission)した後、反射された光の波形を観察する方法、客体に照射された光が返ってくるのに掛かる時間を測定する方法、2つ以上のカメラを通じてステレオ(Stereo)情報を取得する方法等のような多様な方法によって取得される。しかし、深さマップを得るための大部分の方法は、追加のセンサ(Sensor)又は装置を要求するか、或いは映像整合(Image Registration)のような追加の映像処理を必要とする。
したがって、高い処理性能を有する電子装置に対する要求が増加するにも拘らず、電子装置の大きさは段々と減少しているため、深さマップを取得するための大部分の方法は、近来利用されている電子装置に採用することが難しい。即ち、小面積又は体積を占める装置又は回路を利用することによって、深さマップを取得するための方法が必要である。
米国特許第8,855,479号 米国特許第8,922,703号 特許第5,615,756号 特開2012−124553
小面積又は体積を占め、効率的に深さマップを生成することができる映像生成装置が提供される。本発明の実施形態によれば、追加のセンサ又は装置無しで深さマップを生成することができる。本発明の実施形態で、互に異なる位置に移動できるレンズを通じて様々な深さデータを生成することができる。
本発明の一実施形態による映像生成装置は、客体に対応する映像信号を生成するように構成される複数のイメージセンサピクセル、及び映像の間の位相差を算出するために利用される第1及び第2位相信号を生成するように構成される複数の位相検出ピクセルを含むイメージセンサ、レンズと客体との間の距離を調節するためにレンズの位置を調節するように構成されるレンズ駆動部、レンズが第1位置にある時、生成された第1位相信号に基づいて第1位相差を算出し、レンズが第1位置と異なる第2位置にある時、生成された第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部、及び第1及び第2位相差の各々に基づいて複数の位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部を含むことができる。
本発明の一実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含むことができる。
本発明の一実施形態で、レンズがレンズ駆動部の制御にしたがって第1位置から第2位置に移動することによって、第1位相差は、第2位相差より先に算出されることができる。本発明の一実施形態で、位相差の予測部は、レンズが第2位置に移動される前、又は移動する時、第2位相差として算出される値を予測するように構成されることができる。
本発明の一実施形態で、位相差の予測部によって予測された値と位相差の算出部によって算出された第2位相差の間の差が基準値より大きい場合、深さマップの生成部は、その差を参照して深さマップを生成するように構成されることができる。
本発明の一実施形態で、複数の位相検出ピクセルの各々は、複数のイメージセンサピクセルの中で2つのイメージセンサピクセルに対応するように構成されることができる。
本発明の一実施形態で、複数の位相検出ピクセルは、複数のイメージセンサピクセルと重畳されないように複数のイメージセンサピクセルの位置と異なる位置に配置されることができる。
本発明の一実施形態による映像生成装置は、映像信号を処理することによって、客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含むことができる。
本発明の一実施形態で、空間周波数の算出部は、レンズが第1位置にある時、第1空間周波数の情報を生成し、レンズが第2位置にある時、第2空間周波数の情報を生成するように構成されることができる。
本発明の一実施形態で、空間周波数の算出部は、第1及び第2空間周波数の情報に基づいて、レンズが第1位置から第2位置に移動される時、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得するようにさらに構成されことができる。本発明の一実施形態で、深さマップの生成部は、空間周波数の値が変わった方向及び量の中で少なくとも1つを参照して深さマップを生成するように構成されることができる。
本発明の一実施形態で、イメージセンサ、レンズ駆動部、位相差の算出部、及び深さマップの生成部は、1つのイメージセンサチップに具現されることができる。
本発明の他の実施形態による映像生成装置は、イメージセンサに含まれる複数の位相検出ピクセルによって生成された第1及び第2位相信号を提供され、客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、生成された第1位相信号に基づいて第1位相差を算出し、 レンズが第1位置と異なる第2位置にある時、生成された第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部、第1及び第2位相差の中で少なくとも1つに基づいて客体に対する焦点を合わせるためのレンズの焦点位置を算出し、レンズを焦点の位置に移動させるためにレンズの駆動信号を生成するように構成されるレンズ位置の制御部、及び第1及び第2位相差の各々に基づいて複数の位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部を含むことができる。
本発明の他の実施形態で、第1位置及び第2位置の中で1つは、焦点の位置に対応することができる。
本発明の他の実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部、及びイメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号を処理することによって、客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含むことができる。
本発明の他の実施形態による映像生成装置は、位相差の予測部によって予測された値、位相差の算出部によって算出された第2位相差、及びレンズが第1位置から第2位置に移動する時、空間周波数の値が変わった方向の中で少なくとも1つに基づいて、第1位相差に関する第1信頼度水準及び第2位相差に関する第2信頼度水準を算出すように構成される信頼度水準の算出部をさらに含むことができる。
本発明の他の実施形態で、深さマップの生成部は、第1及び第2深さデータに第1及び第2信頼度水準を反映することによって、深さマップを生成するように構成されることができる。
本発明の他の実施形態による映像生成装置は、イメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号に基づいて生成された客体映像、及び深さマップに対して映像整合を遂行することによって深さマップの解像度を変更させるように構成される深さマップの後処理部をさらに含む。
本発明の他の実施形態で、位相差の算出部、レンズ位置の制御部、及び深さマップの生成部は、アプリケーションプロセッサを含む演算処理装置で具現されることができる。
本発明のその他の実施形態にしたがって深さマップを生成するように構成される映像生成装置は、客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、複数の位相検出ピクセルによって生成された第1位相信号及びレンズが第1位置と異なる第2位置にある時、複数の位相検出ピクセルによって生成された第2位相信号の各々に基づいて第1及び第2位相差を算出すように構成される位相差の算出部、及び第1及び第2位相差の各々に基づいて複数の位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部を含むことができる。
本発明のその他の実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含むことができる。本発明のその他の実施形態で、位相差の予測部によって予測された値が位相差の算出部によって算出された第2位相差と異なる場合、位相差の算出部は、レンズが第1及び第2位置と異なる第3位置にある時、複数の位相検出ピクセルによって生成された第3位相信号に基づいて第3位相差を算出するようにさらに構成され、深さマップの生成部は、第3位相差に基づいて複数の位相検出ピクセルと客体との間の距離に関する第3深さデータを生成し、第1乃至第3深さデータに基づいて深さマップを生成するようにさらに構成されることができる。
本発明のその他の実施形態による映像生成装置は、レンズが第1位置にある時、複数のイメージセンサピクセルによって生成された第1映像信号を処理することによって、客体を撮影した第1映像と関連された第1空間周波数の情報を生成し、レンズが第2位置にある時、複数のイメージセンサピクセルによって生成された第2映像信号を処理することによって、客体を撮影した第2映像と関連された第2空間周波数の情報を生成し、第1及び第2空間周波数の情報に基づいて空間周波数の値が変わった方向を獲得するように構成される空間周波数の算出部、及び空間周波数の値が変わった方向に基づいて、第1位相差に関する第1信頼度水準及び第2位相差に関する第2信頼度水準を算出するように構成される信頼度水準の算出部をさらに含むことができる。本発明のその他の実施形態で、深さマップの生成部は、第1及び第2深さデータに第1及び第2信頼度水準を反映することによって、深さマップを生成するように構成されることができる。
本発明の実施形態によれば、映像生成装置によって占められる面積又は体積が減少することができる。さらに、本発明の実施形態によれば、様々な深さデータを参照して誤差を補正することによって、より高い信頼性を有する深さマップを生成することができる。
本発明の実施形態による映像生成装置を含む映像生成システムの構成を示すブロック図。 本発明の実施形態にしたがって位相検出ピクセルを含むイメージセンサの構成を示す概念図。 本発明の実施形態にしたがって位相検出ピクセルを含むイメージセンサの構成を示す概念図。 本発明の実施形態にしたがって位相検出ピクセルを含むイメージセンサの構成を示す概念図。 位相検出ピクセルが利用される過程を示す概念図。 位相検出ピクセルが利用される過程を示す概念図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 図7の映像生成装置の動作を説明するフローチャート。 図7の映像生成装置の動作を説明する概念図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置の構成を示すブロック図。 本発明の実施形態による映像生成装置を含む電子システムの構成及びそのインターフェイスを示すブロック図。
前述した特性及び以下の詳細な説明は、すべてが本発明の説明及び理解を助けるための例示的な事項である。即ち、本発明はこのような実施形態に限定されず、他の形態に具体化することができる。次の実施形態は、単なる本発明を完全に開示するための例示であり、本発明が属する技術分野の通常の技術者に本発明を伝達するための説明である。したがって、本発明の構成要素を具現するための方法が様々である場合には、これらの方法の中で特定なこと、又はこれと同一性があるものの中のいずれでも本発明の具現が可能であることを明確に理解する必要がある。
本明細書で所定の構成が特定の要素を含むと言及されている場合又は所定の過程が特定の段階を含むと言及された場合は、その他の要素又はその他の段階をさらに含むことを意味する。即ち、本明細書で使用される用語は、特定の実施形態を説明するためのものであり、本発明の概念を限定するためのものではない。さらに、発明の理解を助けるために説明した例示は、それの相補的な実施形態も含む。
本明細書で使用される用語は、本発明が属する技術分野の通常の技術者が一般的に理解する意味を有する。普遍的に使用される用語は、本明細書の脈絡にしたがって一貫的な意味として解釈されなければならない。また本明細書で使用される用語は、その意味が明確に定義された場合を除いて、あまりにも理想的であるか、或いは形式的な意味として解釈されてはならない。以下、添付された図面を通じて本発明の実施形態を説明する。
図1は、本発明の実施形態による映像生成装置を含む映像生成システムの構成を示すブロック図である。図1を参照すれば、映像生成システム1000は、客体1100、及び映像生成装置1300を含む。客体1100は、撮影の対象である。映像生成装置1300の動作によって、客体1100に関する映像IMGが生成される。
実施形態として、映像生成装置1300は、レンズ1310、イメージセンサチップ1330(Image Sensor Chip)、及び映像信号の処理器1350を含む。但し、映像生成装置1300は、図1に示さない他の構成要素をさらに含んでもよい。図1に示した映像生成装置1300は、本発明の理解を助けるための単なる例示である。映像生成装置1300は、客体1100に関する映像IMGを生成する。
ここで使用されるプロセッサなる用語は、所望の演算、例えば、プログラムに含まれるコードおよび/又は命令として表われる演算を遂行する物理的に構成された回路を備えた、例えば、ハードウェアで実現されるデータ処理装置であってあってもよい。
上述のハードウェアで実現されるデータ処理装置の一例としては、マイクロプロセッサ、中央演算ユニット(CPU)、プロセッサコア、マルチコアプロセッサ、マルチプロセッサ、特定用途向け集積回路(ASIC)、現場でのプログラム可能なゲートアレイ(FPGA)などが挙げられるが、これに限定されるものではない。プログラムコードを実行するプロセッサとは、プログラム化されたプロセッサであって、特定目的のコンピュータである。
レンズ1310は、1つ以上の光源から放出された後、客体1100によって反射された光を受信する。実施形態として、映像生成装置1300は、1つ以上のレンズを含む。レンズ1310を通過した光は、イメージセンサチップ1330に提供される。
イメージセンサチップ1330は、レンズ1310から提供された光に基づいて1つ以上の映像信号を生成する。映像信号は、客体1100に関する映像IMGを生成するために利用される情報を含む。映像信号に基づいて、客体1100に関する映像IMGが生成される。映像信号は、映像信号の処理器1350に提供される。
例として、イメージセンサチップ1330は、イメージセンサピクセルを含む。イメージセンサピクセルは、1つ以上の光通過フィルタ(Light Pass Filter)及び1つ以上の光感知センサ(Photo−Sensitive Sensor)を含む。例として、光通過フィルタの各々は、赤色光、緑色光、及び青色光の中で1つを通過させることができるが、本発明は、この例に限定されない。光感知センサは、光通過フィルタを通過した光の特性(例えば、強さ)に対応する電気特性(例えば、電圧)を有する電気信号(即ち、映像信号)を生成する。例として、1つ以上の光通過フィルタ及び1つ以上の光感知センサは、ピクセル(Pixel)単位に配置される。例として、1つの映像信号が各ピクセルに対応して生成される。
但し、本発明は、この例に限定されない。光通過フィルタの構成、光通過フィルタ及び光感知センサの配置、及び映像信号の生成は、必要によって多様な方式で具現されてもよい。また、例として、イメージセンサチップ1330は、赤外光(Infrared Light)の通過フィルタ、赤外光センサ等のような多様な構成要素をさらに含んでもよい。
さらに、本発明の実施形態で、イメージセンサチップ1330は、位相検出ピクセルをさらに含む。位相検出ピクセルは、位相差の自動焦点合わせ(Phase Difference Auto−focusing)を遂行するために利用される。位相検出ピクセルは、位相信号を生成する。位相信号は、映像の間の位相差が算出されるために利用される。本発明の実施形態で、位相差は、客体に対する焦点合わせ、及び客体とイメージセンサとの間の距離の測定に利用される。位相検出ピクセルは、図2乃至図6に対する説明と共にさらに言及される。
映像信号の処理器1350は、イメージセンサチップ1330によって生成された映像信号及び位相信号を受信する。映像信号の処理器1350は、映像信号を処理するための演算を遂行する。客体1100に関する映像IMGは、映像信号に基づいて生成される。しかし、映像信号は、客体1100に関する映像IMGを生成するのに適切ではない。適切な映像IMGを生成するために、映像信号の処理器1350は、映像信号の処理を遂行する。
例として、映像信号の処理器1350は、不良ピクセルの補正(Bad Pixel Correction)、ディモザイク(Demosaic)、ノイズ除去(Noise Reduction)、レンズシェーディングの補正(Lens Shading Correction)、ガンマ補正(Gamma Correction)、エッジエンハンスメント(Edge Enhancement)等のような映像信号の処理を遂行する。但し、本発明は、この例に限定されない。映像信号の処理器1350は、他の映像信号の処理をさらに遂行することができる。
映像信号の処理器1350は、位相信号を処理することによって、客体1100に対する焦点を合わせる。さらに、本発明の実施形態で、映像信号の処理器1350は、位相信号を処理することによって、深さマップDM(Depth Map)を生成する。深さマップは、客体1100とイメージセンサとの間の距離に関する情報を示す映像である。位相信号の処理、焦点合わせ、及び深さマップの生成が映像信号の処理器1350によって遂行されることを説明した。しかし、後でさらに言及するが、位相信号の処理、焦点合わせ、及び深さマップの生成の中で少なくとも1つは、イメージセンサチップ1330によって、遂行してもよい。
映像信号の処理器1350は、ハードウェアで具現される。例として、映像信号の処理器1350は、映像信号の処理を遂行するためのアナログ回路又は論理回路を含む。または、映像信号の処理器1350は、演算処理装置に具現することができる。例として、映像信号の処理器1350は、アプリケーションプロセッサ(Application Processor)を含む演算処理装置に具現することができる。演算処理装置は、ROM(Read−only Memory)に格納された命令語コード(Instruction Code)又はRAM(Random Access Memory)にロードされたプログラムコードを実行することによって、映像信号の処理を遂行する。但し、この例は、本発明を限定するものではない。
実施形態として、図1に示したように、映像信号の処理器1350は、イメージセンサチップ1330と共に同一の装置に含まれる。この実施形態で、例として、映像生成装置1300は、デジタルカメラ、スマートフォン、タブレット、ウェアラブル(Wearable)装置等のようにイメージセンサチップ1330、及び映像信号の処理器1350を含む携帯用の電子装置で具現することができる。
他の実施形態として、図1に示したことと異なり、映像信号の処理器1350を含む装置は、イメージセンサチップ1330を含む装置と別個に提供されてもよい。この実施形態で、例として、イメージセンサチップ1330を含む装置は、単純に撮影装置であってもよく、映像信号の処理器1350を含む装置は、1つ以上のプロセッサを含むコンピューティング装置であってもよい。即ち、本発明の実施形態は、多様な方式で具現することができ、図1に示した構成に限定されない。
実施形態として、図1に示したように、映像信号の処理器1350は、イメージセンサチップ1330と別個に提供される映像信号の処理回路、映像信号の処理チップ、又は映像信号の処理装置であってもよい。この実施形態で、映像生成装置1300が携帯用の電子装置である場合、イメージセンサチップ1330は、映像信号の処理器1350と別個に提供され、映像信号の処理器1350は、アプリケーションプロセッサに含まれる。
他の実施形態として図1に示したものと異なり、映像信号の処理器1350の一部又はすべては、イメージセンサチップ1330に含まれてもよい。この実施形態で、イメージセンサチップ1330は、映像信号を生成することは勿論、映像信号の処理を遂行することができる。即ち、本発明の実施形態は、多様な構成で具現することができ、図1に示した構成に限定されない。図1は、本発明の理解を助けるための例示的な構成を示す。
下記で言及する本発明の実施形態による“映像生成装置”の構成要素は、イメージセンサチップ1330又は映像信号の処理器1350に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。又は“映像生成装置”の構成要素は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供されてもよい。本発明の実施形態は、多様な構成で具現することができる。本発明の実施形態による構成は、図7乃至図17に対する説明と共に言及される。
図2乃至図4の各々は、本発明の実施形態にしたがった位相検出ピクセルを含むイメージセンサの構成を示す概念図である。本発明の実施形態にしたがった位相検出ピクセルを含むイメージセンサ1331は、図1のイメージセンサチップ1330に含まれる。
図2を参照すれば、イメージセンサ1331は、ピクセルアレイPAを含む。ピクセルアレイPAは、ピクセル単位PXで形成される。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差を算出するために利用される位相信号を生成する。複数のイメージセンサピクセル及び複数の位相検出ピクセルは、ピクセル単位PXに配置される。複数のイメージセンサピクセル及び複数の位相検出ピクセルの配置は、図3及び図4を参照して説明される。
実施形態として、複数の位相検出ピクセルの各々は、複数のイメージセンサピクセルの中で2つのイメージセンサピクセルに対応するように構成される。図2及び図3を共に参照すれば、複数のイメージセンサピクセルの各々は、1つのピクセル単位PXに対応する。さらに、複数の位相検出ピクセルPPX1、PPXnの各々は、2つのピクセル単位に対応する。即ち、例として、2つのイメージセンサピクセルは、1つの位相検出ピクセルPPX1として利用される。この実施形態で、1つのピクセル単位PXは、イメージセンサピクセルのみではなく、位相検出ピクセルとして利用される。
上記の実施形態で、すべてのイメージセンサピクセルが位相検出ピクセルとして利用されてもよい。または、複数のイメージセンサピクセルの一部は、位相検出ピクセルで利用されなくともよい。例として、複数のイメージセンサピクセルの個数がp個である場合、複数の位相検出ピクセルの個数は、p/2個以下である(即ち、n≦(p/2))。
他の実施形態として、複数の位相検出ピクセルは、複数のイメージセンサピクセルと重畳されないように配置してもよい。図4を参照すれば、白い四角形は、イメージセンサピクセルIPXを示し、陰影で示された四角形は、位相検出ピクセルPPXを示す。即ち、複数の位相検出ピクセルは、複数のイメージセンサピクセルの位置と異なる位置に配置される。この実施形態で、位相検出ピクセルは、イメージセンサピクセルとして利用されないこともあり得る。例として、位相検出ピクセルは、白色の光センサを含むことができるが、本発明は、この例に限定されない。
上記の実施形態で、ピクセルアレイPAに含まれるピクセルの中で一部は、イメージセンサピクセルとして利用される。さらに、イメージセンサピクセルとして利用されないピクセルは、位相検出ピクセルとして利用することができる。必要によって、ピクセルアレイPAに含まれるすべてのピクセルが位相検出ピクセルとして利用されてもよい。
本発明の実施形態で、位相検出ピクセルの構成、個数、配置、及び位置は、必要によって多様に変更又は修正することができる。図2乃至図4は、複数の位相検出ピクセルを含むイメージセンサ1331の例示的な構成を示しているだけであり、本発明を限定するためのものではない。イメージセンサ1331は、図2乃至図4に示したものと異なって具現してもよい。
図5及び図6の各々は、位相検出ピクセルが利用される過程を示す概念図である。例として、映像生成装置1300(図1参照)に含まれるレンズ1310は、移動できるように構成される。具体的に、レンズ1310は、客体1100からの距離が増加する方向又は減少する方向に移動する。したがって、レンズ1310と客体1100との間の距離が調節される。レンズ1310の位置によって客体1100に対する焦点が合うか、或いはぼやける。
先ず、図5を参照する。第1番目の場合(CASE1)を参照すれば、レンズ1310と客体1100との間の距離が相対的に近い。第1番目の場合(CASE1)で、レンズ1310は、焦点の位置(In−focus Position)から外れている。焦点の位置は、客体1100に対する焦点を合わせるためのレンズ1310の位置で決まる。レンズ1310が焦点の位置から外れて存在するので、イメージセンサチップ1330(図1参照)に含まれるイメージセンサ1331に結ばれた映像の間に位相差D1が発生する。したがって、第1番目の場合(CASE1)で、客体1100に対する焦点がぼやける(Defocused)。
第2番目の場合(CASE2)を参照すれば、レンズ1310が焦点の位置に置かれている。レンズ1310が焦点の位置に置かれる場合、イメージセンサ1331に結ばれた映像の間の位相差が0である。したがって、第2番目の場合(CASE2)で、客体1100に対する焦点が合う(Focused)。
第3番目の場合(CASE3)を参照すれば、レンズ1310と客体1100との間の距離が相対的に遠い。第3番目の場合(CASE3)で、レンズ1310は、焦点の位置から外れている。レンズ1310が焦点の位置から外れて存在するので、イメージセンサ1331に結ばれた映像の間に位相差D3が発生する。したがって、第3番目の場合(CASE3)で、客体1100に対する焦点がぼやける。
イメージセンサ1331に含まれる複数の位相検出ピクセルは、客体に対する焦点を合わせるために利用される。上記で言及したように、複数の位相検出ピクセルは、位相信号を生成する。位相信号は、イメージセンサ1331に結ばれた映像の位置に関する情報を含む。したがって、位相信号は、映像の間の位相差を算出するために利用される。算出された位相差に基づいて、レンズ1310の焦点位置が算出される。例として、位相差を0にするレンズ1310の位置が焦点位置である。
本発明の実施形態で、複数の位相検出ピクセルは、客体に対する焦点を合わせるだけではなく、客体1100とイメージセンサ1331との間の距離の測定にも利用される。例として、客体1100とイメージセンサ1331との間の距離を測定するために、イメージセンサ1331に結ばれた映像の間の位相差、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報が参照される。
例として、特定の焦点位置、特定の位相差等のような特定の条件に対応する客体1100とイメージセンサ1331との間の距離に関する情報を予め準備することができる。映像生成装置1300は、特定の条件及び予め準備された客体1100とイメージセンサ1331との間の距離に関する情報を(例として、ルック−アップテーブル(Look−up Table)として)格納する。進歩性のある少なくとも1つの実施例としては、ルックアップテーブルは映像生成装置中のメモリ内に格納してもよい。ルックアップテーブルは、例えば、特定の条件と予め準備された情報との間の対応関係を示すものである。映像生成装置1300は、焦点の位置、位相差等のような条件を算出し、格納された情報を参照して算出された条件に対応する客体1100とイメージセンサ1331との間の距離を獲得する。
他の例として、映像生成装置1300は、位相差、レンズ1310とイメージセンサ1331との間の距離等のような条件を算出する。映像生成装置1300は、算出された条件に対して数学的な演算(例えば、辺の長さ及び辺の間の角を利用する三角関数演算等)を遂行する。したがって、映像生成装置1300は、客体1100とイメージセンサ1331との間の距離を算出する。
上記の例によれば、客体1100とイメージセンサ1331との間の絶対距離が算出される。一方、追加の情報が十分に準備されない場合、位相差に基づいて客体1100とイメージセンサ1331との間の相対距離を算出することができる。客体1100とイメージセンサ1331との間の距離に関する情報を示す深さマップは、絶対距離又は相対距離に基づいて生成される。
但し、上記の例は、本発明の理解を助けるためのものであり、本発明を限定するためのものではない。客体1100とイメージセンサ1331との間の距離は、多様な処理によって算出される。特に、イメージセンサ1331に結ばれた映像の間の位相差、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報が利用される場合、さらに正確な絶対距離が算出される。
次に、図6が参照される。客体1100とイメージセンサ1331との間の距離が算出されれば、映像生成装置1300は、深さマップを生成する。上記で言及したように、イメージセンサ1331のピクセルアレイPAは、複数の位相検出ピクセルPPXを含む。本発明の実施形態で、複数の位相検出ピクセルPPXによって、客体1100のすべての部分に関する深さマップが生成される。即ち、本発明の実施形態で、客体1100のいずれか一地点又は部分とイメージセンサ1331との間の距離が算出されるのではなく、客体1100のすべて部分とイメージセンサ1331との間の距離が算出される。したがって、映像生成装置1300は、客体1100のすべての部分に関する深さマップを生成する。
但し、図6は、本発明の理解を助けるための例示的な概念図であり、本発明を限定するためのものではない。上記で言及したように、位相検出ピクセルは、多様な形態で具現することができる。位相検出ピクセルの構成、個数、配置、及び位置は、必要によって多様に変更又は修正することができる。
図7は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図8は、図7の映像生成装置の動作を説明するフローチャートである。図9は、図7の映像生成装置の動作を説明する概念図である。
進歩性のある少なくとも1つの実施例として、映像生成装置100は、映像生成装置100(又はその構成要素)によって遂行されるとして説明したいくつかの又は全ての演算を実行するために特別に構成された1以上の回路(例えば、ハードウエア)により実現されるか、又は含むことができる。また、映像生成装置100は、メモリを備えるか又はメモリによって実現出来る。さらに、メモリ中に格納されたコンピュータ読出し可能コード(例えば、ソフトウェア)を実行する1以上のプロセッサでも実現でき、プロセッサには、映像生成装置100(又はその構成要素)によって遂行されるとして説明された、いくつかの又は全ての演算に対応する命令を備えることができる。
進歩性のある少なくとも1つの実施例として、映像生成装置100は、例えば、上述したハードウェアとコンピュータ読出し可能なコードを実行するプロセッサとの組合せとして実現することもできる。
図7を参照すれば、映像生成装置100は、位相差の算出部103及び深さマップの生成部104を含む。映像生成装置100は、本発明の実施形態にしたがって深さマップDMを生成する。本発明の実施形態を説明するために、図7乃至図9を共に参照する。
S110段階で、レンズ1310が第1位置に移動する。上述したように、レンズ1310は、客体1100からの距離が増加する方向又は減少する方向に移動することができる。したがって、レンズ1310と客体1100との間の距離が調節される。時刻‘t1’で、レンズ1310は、レンズ位置の制御信号に応答して第1位置に移動する。例として、第1位置は、固定された位置であってもよい。または、第1位置は、必要によって調節可能な位置であってもよい。第1位置は、多様に選択又は決定することができる。
S120段階で、第1位相信号PS1が生成される。レンズ1310が第1位置にある時、客体1100が撮影される。イメージセンサ1331は、レンズ1310を通じて客体1100から反射された光を受信する。イメージセンサ1331に含まれる複数の位相検出ピクセルは、第1位相信号PS1を生成する。第1位相信号PS1は、レンズ1310が第1位置にある時、イメージセンサ1331に結ばれた映像の位置に関する情報を含む。
S130段階で、第1位相差PD1が算出される。位相差の算出部103は、イメージセンサ1331から第1位相信号PS1を受信する。位相差の算出部103は、第1位相信号PS1に基づいて第1位相差PD1を算出する。第1位相差PD1は、レンズ1310が第1位置にある時、イメージセンサ1331に結ばれた映像に関する位相差である。
S140段階で、第1深さデータDD1が生成される。第1深さデータDD1は、イメージセンサ1331の複数の位相検出ピクセルと客体1100との間の距離に関するデータである。深さマップの生成部104は、位相差の算出部103から第1位相差PD1を受信する。深さマップの生成部104は、第1位相差PD1に基づいて第1深さデータDD1を生成する。例として、深さマップの生成部104は、第1位相差PD1のみではなく、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報をさらに参照して第1深さデータDD1を生成する。
例として、深さマップDMは、第1深さデータDD1のみに基づいて生成される。しかし、客体1100が撮影される環境にしたがって、第1深さデータDD1が不正確な距離データを含む可能性がある。第1深さデータDD1が不正確な距離データを含む場合、深さマップDMが正確に生成されない。したがって、本発明の実施形態で、より高い信頼性を有する深さマップDMを生成するために、他の深さデータがさらに生成される。
S150段階で、レンズ1310が第2位置に移動する。第2位置は、第1位置と異なる位置である。時刻‘t2’で、レンズ1310は、レンズ位置の制御信号に応答して第2位置に移動する。例として、第2位置は、固定された位置であってもよい。または、第2位置は、必要によって調節可能である位置であってもよい。第2位置は、多様に選択又は決定することができる。
実施形態として、第1位置及び第2位置の中で1つは、焦点の位置に対応する。この実施形態によれば、レンズ1310の焦点位置に関する情報が深さデータの生成と共に獲得される。しかし、本発明は、この実施形態に限定されない。第1位置及び第2位置の各々は、焦点の位置ではない任意の位置であってもよい。
図9を参照すれば、レンズ1310が第1位置から第2位置に移動される場合、レンズ1310とイメージセンサ1331との間の距離が近くなる。しかし、本発明は、図9によって限定されない。必要によって、レンズ1310が第1位置から第2位置に移動する場合、レンズ1310とイメージセンサ1331との間の距離が遠くなる。図9は、本発明の理解を助けるための例示である。
S160段階で、第2位相信号PS2が生成される。レンズ1310が第2位置にある時、客体1100が撮影される。イメージセンサ1331は、レンズ1310を通じて客体1100から反射された光を受信する。イメージセンサ1331に含まれる複数の位相検出ピクセルは、第2位相信号PS2を生成する。第2位相信号PS2は、レンズ1310が第2位置にある時、イメージセンサ1331に結ばれた映像の位置に関する情報を含む。
S170段階で、第2位相差PD2が算出される。位相差の算出部103は、イメージセンサ1331から第2位相信号PS2を受信する。位相差の算出部103は、第2位相信号PS2に基づいて第2位相差PD2を算出する。第2位相差PD2は、レンズ1310が第2位置にある時、イメージセンサ1331に結ばれた映像に関する位相差である。
S180段階で、第2深さデータDD2が生成される。第2深さデータDD2は、イメージセンサ1331の複数の位相検出ピクセルと客体1100との間の距離に関するデータである。深さマップの生成部104は、位相差の算出部103から第2位相差PD2を受信する。深さマップの生成部104は、第2位相差PD2に基づいて第2深さデータDD2を生成する。例として、深さマップの生成部104は、第2位相差PD2のみではなく、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報をさらに参照して第2深さデータDD2を生成することができる。
S190段階で、深さマップDMが生成される。深さマップDMは、第1深さデータDD1及び第2深さデータDD2に基づいて生成される。深さマップの生成部104は、第1深さデータDD1及び第2深さデータDD2に基づいて深さマップDMを生成する。
上記で言及したように、第1深さデータDD1が不正確な距離データを含む可能性がある。したがって、本発明の実施形態で、深さマップの生成部104は、第2深さデータDD2をさらに生成する。様々な深さデータDD1、DD2が参照される場合、第1深さデータDD1又は第2深さデータDD2に含まれる不正確な距離データ(即ち、誤差)が補正される。本発明の実施形態による映像生成装置100は、様々な深さデータDD1、DD2を参照してより高い信頼性を有する深さマップDMを生成することができる。第1深さデータDD1及び第2深さデータDD2を参照して深さマップDMを生成する処理は、図13乃至図17に対する説明と共にさらに言及される。
図7乃至図9に対する説明で、レンズ1310が第1位置及び第2位置に移動し、2つの深さデータDD1、DD2が生成されることに言及した。しかし、必要によって、深さマップDMをさらに正確に生成するために、3つ以上のレンズ位置及び3つ以上の深さデータを利用してもよい。図7乃至図9は、本発明の理解を助けるための例示であり、本発明を限定するためのものではない。
さらに、図7乃至図9に対する説明で、レンズ1310が第1位置にある時、遂行される処理が完了した後、レンズ1310が第2位置に移動すると言及した。しかし、本発明の実施形態による処理の遂行の順序は、映像生成装置100の設計によって変更又は修正してもよい。
例として、レンズ1310は、第1位相信号PS1、第1位相差PD1、又は第1深さデータDD1が生成される間、又は生成される前に第2位置に移動することができる。例として、位相差の算出部103は、第1位相差PD1及び第2位相差PD2を同時に算出するか、第1位相差PD1より第2位相差PD2を先に算出することができる。例として、深さマップの生成部104は、第1深さデータDD1及び第2深さデータDD2を同時に生成するか、或いは第1深さデータDD1より第2深さデータDD2を先ず生成することができる。
本発明の実施形態で、映像生成装置100は、様々な深さデータDD1、DD2に基づいて深さマップDMを生成することで十分である。図7乃至図9に対する説明で言及された処理順序は、必要によって多様に変更又は修正してもよい。本発明は、図7乃至図9に対する説明によって限定されない。
本発明の実施形態による映像生成装置100は、ToF(Time−of−Flight)センサ、赤外光センサ、ステレオ(Stereo)カメラ等のような追加の装置を要求しない。したがって、本発明の実施形態による映像生成装置100は、少ない面積又は体積を占めながらも深さマップDMを生成することができる。さらに、本発明の実施形態によれば、様々な深さデータDD1、DD2を参照して誤差を補正することによって、より高い信頼性を有する深さマップDMを生成することができる。
図10は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図10を参照すれば、映像生成装置2300は、レンズ2310、イメージセンサチップ2330、及び映像信号の処理器2350を含む。さらに、イメージセンサチップ2330は、イメージセンサ2331、レンズ駆動部2332、位相差の算出部2333、及び深さマップの生成部2334を含む。
レンズ2310の構成及び機能は、図1乃至図9に対する説明で言及したレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ2310の構成及び機能に関する重複される説明は省略する。レンズ2310を通過した光は、イメージセンサチップ2330のイメージセンサ2331に提供される。
イメージセンサ2331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差が算出されるために利用される第1位相信号PS1及び第2位相信号PS2を生成する。第1位相信号PS1は、レンズ2310が第1位置にある時、生成され、第2位相信号PS2は、レンズ2310が第2位置にある時、生成される。
イメージセンサ2331の構成及び機能は、図1乃至図9に対する説明で言及されたイメージセンサ1331の構成及び機能を含む。説明を簡単にするため、イメージセンサ2331の構成及び機能に関する重複される説明は省略する。
レンズ駆動部2332は、レンズ位置の制御信号LNを生成する。レンズ位置の制御信号LNは、レンズ2310の位置を調節するために利用される信号である。レンズ位置の制御信号LNに応答して、レンズ2310は、客体からの距離が増加する方向又は減少する方向に移動する。したがって、レンズ2310と客体との間の距離を調節することができる。例として、レンズ駆動部2332は、映像信号の処理器2350から提供されたレンズの駆動信号LDに基づいてレンズ位置の制御信号LNを生成する。しかし、図10に示したものと異なり、レンズ駆動部2332は、レンズの駆動信号LD無しで自らレンズ2310の位置を制御するための演算を遂行することによって、レンズ位置の制御信号LNを生成することができる。
位相差の算出部2333は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部2334は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部2333及び深さマップの生成部234の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部2333及び深さマップの生成部2334の構成及び機能に関する重複する説明は省略する。
例として、必要によって、映像信号の処理器2350は、深さマップの生成部2334によって生成された深さマップDMに対して映像信号の処理を遂行することができる。したがって、映像信号の処理器2350は、さらに適切に処理された深さマップDM’を生成することができる。しかし、図10に示したものと異なり、映像信号の処理無しで、深さマップの生成部2334によって生成された深さマップDMが映像生成装置2300から直接的に出力される。
例として、映像信号の処理器2350は、レンズ駆動部2332を制御するためのレンズの駆動信号LDを生成することができる。しかし、図10に示したものと異なり、レンズ駆動部2332無しで、映像信号の処理器2350が直接的にレンズ2310の位置を制御することができる。即ち、図10は、本発明の理解を助けるための例示的な構成を示し、本発明を限定するためのものではない。本発明の実施形態は、図10に示したものと異なる構成で具現することができる。
映像信号の処理器2350の構成及び機能は、図1の映像信号の処理器1350の構成及び機能を含む。説明を簡単にするため、映像信号の処理器2350の構成及び機能に関する重複する説明は省略する。
図10に示した実施形態によれば、位相差の算出部2333及び深さマップの生成部2334は、イメージセンサチップ2330で具現される。実施形態として、イメージセンサ2331、レンズ駆動部2332、位相差の算出部2333、及び深さマップの生成部2334は、1つのイメージセンサチップ2330で具現される。
但し、本発明は、図10によって限定されない。映像生成装置2300は、図10に示さない他の構成要素をさらに含むか、或いは図10に示した構成要素の中で1つ以上を含まなくともよい。図10は、映像生成装置2300の例示的な構成を示す。
図11は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図11を参照すれば、映像生成装置3300は、レンズ3310、イメージセンサチップ3330、及び映像信号の処理器3350を含む。さらに、映像信号の処理器3350は、位相差の算出部3353、深さマップの生成部3354、及びレンズ位置の制御部3355を含む。
レンズ3310の構成及び機能は、図1乃至図9に対する説明で言及されたレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ3310の構成及び機能に関する重複する説明は省略する。レンズ3310を通過した光は、イメージセンサチップ3330に提供される。
イメージセンサチップ3330は、イメージセンサ1331(図2乃至図6参照)を含んでもよい。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含むことができる。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差を算出するために利用される第1位相信号PS1及び第2位相信号PS2を生成する。第1位相信号PS1は、レンズ3310が第1位置にある時、生成され、第2位相信号PS2は、レンズ3310が第2位置にある時、生成される。イメージセンサ1331の構成及び機能は、図1乃至図9に対する説明で言及した。
位相差の算出部3353は、イメージセンサチップ3330から第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部3353は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部3354は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部3353及び深さマップの生成部3354の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部3353及び深さマップの生成部3354の構成及び機能に関する重複する説明は省略する。
レンズの位置制御部3355は、レンズの駆動信号LDを生成する。レンズの駆動信号LDは、レンズ3310を移動させるために利用される信号である。レンズの駆動信号LDに応答して、レンズ3310は、客体からの距離が増加する方向又は減少する方向に移動される。したがって、レンズ3310と客体との間の距離を調節することができる。しかし、図11に示したのと異なり、レンズの位置制御部3355は、レンズ3310の位置を直接的に制御しなくともよい。例として、レンズの位置制御部3355は、他の構成要素(例えば、図10のレンズ駆動部2332)を制御することによって、レンズ3310の位置を間接的に制御する。
例として、レンズの位置制御部3355は、レンズ3310の焦点位置を算出する。上記で言及したように、焦点の位置は、客体に対する焦点を合わせるためのレンズ3310の位置である。レンズの位置制御部3355は、第1位相差PD1及び第2位相差PD2の中で少なくとも1つに基づいて焦点の位置を算出する。例として、レンズの位置制御部3355は、位相差を0にするレンズ3310の位置が焦点の位置として算出する。レンズ3310が焦点の位置に移動する必要がある場合、レンズの位置制御部3355は、レンズ3310を焦点の位置に移動させるためのレンズの駆動信号LDを生成する。
但し、上記で言及したのと異なり、焦点の位置は、イメージセンサチップ3330で算出してもよい。イメージセンサチップ3330が他のレンズ位置の制御部を含む場合、イメージセンサチップ3330は、算出された焦点の位置にレンズ3310を移動させるためにレンズの駆動信号を生成する。本発明の実施形態は、図11に示したものと異なる構成に変更又は修正されてもよい。
例として、図11に示したことと異なり、必要によって、映像信号の処理器3350は、深さマップの生成部3354によって生成された深さマップDMに対して多様な種類の映像信号の処理を遂行することができる。したがって、さらに適切に処理された深さマップDMが生成される。即ち、図11は、本発明の理解を助けるための例示的な構成を示し、本発明を制限するためのものではない。本発明の実施形態は、図11に示したのと異なる構成で具現されてもよい。
図11に示した実施形態によれば、位相差の算出部3353及び深さマップの生成部3354は、映像信号の処理器3350で具現される。例として、映像信号の処理器3350は、アプリケーションプロセッサを含む演算処理装置として具現される。実施形態として、位相差の算出部3353、深さマップの生成部3354、及びレンズの位置制御部3355は、アプリケーションプロセッサを含む演算処理装置として具現される。
但し、本発明は、図11の構成に限定されない。映像生成装置3300は、図11に示さない他の構成要素をさらに含むか、或いは図11に示した構成要素の中で1つ以上を含まなくともよい。図11は、映像生成装置3300の例示的な構成を示す。
図12は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図12を参照すれば、映像生成装置4300は、レンズ4310、イメージセンサチップ4330、映像信号の処理器4350、位相差の算出部4373、及び深さマップの生成部4374を含む。
レンズ4310の構成及び機能は、図1乃至図9に対する説明で言及したレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ4310の構成及び機能に関する重複する説明は省略する。レンズ4310を通過した光は、イメージセンサチップ4330に提供される。
イメージセンサチップ4330は、イメージセンサ1331(図2乃至図6参照)を含む。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差が算出されるために利用される第1位相信号PS1及び第2位相信号PS2を生成する。第1位相信号PS1は、レンズ4310が第1位置にある時、生成され、第2位相信号PS2は、レンズ4310が第2位置にある時、生成される。イメージセンサ1331の構成及び機能は、図1乃至図9に対する説明で言及した。
映像信号の処理器4350は、客体に関する適切な映像を生成するために映像信号の処理を遂行する。映像信号の処理器4350の構成及び機能は、図1の映像信号の処理器1350の構成及び機能を含む。説明を簡単にするため、映像信号の処理器4350の構成及び機能に関する重複する説明は省略する。
位相差の算出部4373は、イメージセンサチップ4330から第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部4373は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部4374は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部4373及び深さマップの生成部4374の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部4373及び深さマップの生成部4374の構成及び機能に関する重複する説明は省略する。
例として、必要によって、映像信号の処理器4350は、深さマップの生成部4374によって生成された深さマップDMに対して映像信号の処理を遂行してもよい。したがって、映像信号の処理器4350は、さらに適切に処理された深さマップDM’を生成することができる。しかし、図12に示したのと異なり、映像信号の処理無しで、深さマップの生成部4374によって生成された深さマップDMが映像生成装置4300から直接的に出力される。
図12に示した実施形態によれば、位相差の算出部4373及び深さマップの生成部4374は、イメージセンサチップ4330及び映像信号の処理器4350と別個に提供されてもよい。または、図10乃至図12に示したのと異なり、位相差の算出部103及び深さマップの生成部104は、イメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。即ち、本発明の実施形態による位相差の算出部103及び深さマップの生成部104は、多様な構成で具現することができる。
本発明は、図12によって限定されない。映像生成装置4300は、図12に示さない他の構成要素をさらに含むか、或いは図12に示した構成要素の中で1つ以上を含まなくともよい。図12は、映像生成装置4300の例示的な構成を示す。
上記で言及したように、本発明の実施形態による映像生成装置は、客体を撮影することと同時に深さマップを生成することができる。他の例として、本発明の実施形態による映像生成装置は、DMA(Direct Memory Access)動作を通じてメモリ装置又は格納装置に直接的にアクセスすることができる。メモリ装置又は格納装置は、予め生成された位相情報を格納する。この例で、映像生成装置は、メモリ装置又は格納装置に格納された位相情報に基づいて深さマップを生成する。この例で、映像生成装置は、レンズ、及びイメージセンサチップの一部機能を含まなくともよい。本発明の実施形態は、多様な構成で変更又は修正することができる。
図13は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図13を参照すれば、映像生成装置200は、位相差の算出部203、深さマップの生成部204、及び位相差の予測部206を含む。
位相差の算出部203、深さマップの生成部204、及び位相差の予測部206は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。または、位相差の算出部203、深さマップの生成部204、及び位相差の予測部206は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供されてもよい。
位相差の算出部203は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部203は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部203及び深さマップの生成部204の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部203及び深さマップの生成部204の構成及び機能に関する重複する説明は省略する。
位相差の予測部206は、第1位相差PD1に基づいて、第2位相差PD2として算出される値を予測する。位相差の予測部206は、予測された値PVを深さマップの生成部204に提供する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2と共に、予測された値PVを参照して深さマップDMを生成する。
第1位相差PD1は、レンズ1310(図1参照)が第1位置にある時、算出される。第1位相差PD1に基づいて、レンズ1310の焦点位置、客体とイメージセンサ1331(図2乃至図6参照)との間の距離、レンズ1310とイメージセンサ1331との間の距離等のような撮影の環境が獲得される。撮影の環境が獲得されれば、レンズ1310が第2位置に移動した時、第2位相差PD2として算出される値が予測される。
例として、レンズ1310が第1位置から第2位置に移動することによって、第1位相差PD1は、第2位相差PD2より先に算出される。位相差の予測部206は、レンズ1310が第2位置に移動する前に予め第2位相差PD2として算出される値を予測する。または、位相差の予測部206は、レンズ1310が第2位置に移動する時、第2位相差PD2として算出される値を予測することもできる。但し、この例は、本発明の理解を助けるためのものであり、本発明を制限するためのものではない。
幾つかの場合、位相差の予測部206によって予測された値PVは、位相差の算出部203によって算出された第2位相差PD2と異なることがあり得る。例として、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む場合、予測された値PVが第2位相差PD2と異なることがあり得る。したがって、予測された値PVが第2位相差PD2と異なる場合、誤差が補正される必要がある。
実施形態として、予測された値PVと第2位相差PD2との間の差が基準値より大きい場合、誤差を補正するための処理が遂行される。基準値は、固定された値又は調節可能である値である。基準値は、必要によって異なって選択することができる。他の実施形態として、予測された値PVが第2位相差PD2と異なる場合、誤差を補正するための処理を遂行することができる。
誤差を補正するための処理は、多様な方法で遂行することができる。実施形態として、誤差を補正するために、深さマップの生成部204は、予測された値PVと第2位相差PD2との間の差を参照して深さマップDMを生成する。例として、深さマップの生成部204は、予測された値PVと第2位相差PD2の平均に基づいて深さマップDMを生成することができる。
他の例として、深さマップの生成部204は、位相差がさらに正確に算出されるようにするレンズ1310の位置に関する情報を収集することができる。例として、深さマップの生成部204は、反復される撮影の中で周期的に又は特定の条件が満たされる時点ごとに情報を収集する。深さマップの生成部204は、収集された情報に基づいて第1位相差PD1及び第2位相差PD2の各々の信頼度を判別する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2の中でより高い信頼度を有する位相差により高い加重値を割当し、第1位相差PD1と第2位相差PD2の加重平均を算出する。深さマップの生成部204は、算出された加重平均に基づいて深さマップDMを生成する。
他の実施形態として、誤差を補正するために、位相差の算出部203は、他の位相差をさらに算出する。例として、レンズ1310は、第1位置及び第2位置と異なる第3位置に移動させる。レンズ1310が第3位置にある時、イメージセンサ1331の複数の位相検出ピクセルは、第3位相信号を生成する。位相差の算出部203は、第3位相信号に基づいて第3位相差を算出する。深さマップの生成部204は、第1位相差PD1、第2位相差PD2、及び第3位相差に基づいて深さマップDMを生成する。
第3位相差がさらに算出された場合、第1位相差PD1及び第2位相差PD2の中でどの位相差がより高い信頼度を有するか否かが判別される。例として、第3位相差が第2位相差PD2より第1位相差PD1にさらに類似である場合、第1位相差PD1は、第2位相差PD2より高い信頼度を有すると看做される。この例で、深さマップの生成部204は、第1位相差PD1及び第3位相差により高い加重値を割当て、第1位相差PD1、第2位相差PD2、及び第3位相差の加重平均を算出する。深さマップの生成部204は、算出された加重平均に基づいて深さマップDMを生成する。必要によって、位相差の算出部203は、第3位相差の外に他の位相差をさらに算出することができる。
但し、上記で言及した実施形態は、本発明の理解を助けるための例示である。誤差を補正するための条件及び処理は、多様に変更又は修正することができる。本発明は、上記で言及した実施形態に限定されない。
図14は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図14を参照すれば、映像生成装置300は、位相差の算出部303、深さマップの生成部304、及び空間周波数(Spatial Frequency)の算出部307を含む。
位相差の算出部303、深さマップの生成部304、及び空間周波数の算出部307は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現するか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現することができる。または、位相差の算出部303、深さマップの生成部304、及び空間周波数の算出部307は、イメージセンサチップ1330及び映像信号の処理器1350に別個に提供することができる。
位相差の算出部303は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部303は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2が算出される。深さマップの生成部304は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部303及び深さマップの生成部304の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部303及び深さマップの生成部304の構成及び機能に関する重複する説明は省略する。
実施形態として、空間周波数の算出部307は、映像信号ISを受信する。映像信号ISは、イメージセンサ1331(図2乃至図6参照)に含まれる複数のイメージセンサピクセルによって、生成される。上記で言及したように、映像信号ISは、客体に関する映像を生成するために利用される。空間周波数の算出部307は、映像信号ISを処理することによって、客体を撮影した映像と関連する空間周波数の情報を生成する。
映像の空間周波数は、その映像を生成するために撮影された客体に対して焦点が合ったか否かと関連する。客体に対する焦点がぼやけた時に撮影された映像の空間周波数の成分は、低い周波数領域に集中的に分布する。一方、客体に対する焦点が合った時に撮影された映像の空間周波数の成分は、低い周波数領域から高い周波数領域まで均一に分布する。
実施形態として、空間周波数の算出部307は、レンズ1310(図1参照)が第1位置にある時、第1空間周波数の情報を生成する。空間周波数の算出部307は、レンズ1310が第2位置にある時、第2空間周波数の情報を生成する。レンズ1310の位置が第1位置から第2位置に変更されることによって、第1空間周波数の情報は、第2空間周波数の情報と異なる。
空間周波数の算出部307は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、レンズ1310が第1位置から第2位置に移動する時、空間周波数の値が変わった方向(即ち、高い周波数領域の空間周波数の成分の増加又は減少)を獲得する。空間周波数の算出部307は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、レンズ1310が第1位置から第2位置に移動する時、空間周波数の値が変わった量を獲得する。空間周波数の算出部307は、第1空間周波数の情報、第2空間周波数の情報、空間周波数の値が変わった方向、空間周波数の値が変わった量等を含む空間周波数の情報SFを深さマップの生成部304に提供する。
深さマップの生成部304は、第1位相差PD1及び第2位相差PD2と共に、空間周波数の情報SFを参照して深さマップDMを生成する。特に、深さマップの生成部304は、空間周波数の値が変わった方向及び量の中で少なくとも1つを参照する。空間周波数は、第1位相差PD1及び第2位相差PD2の各々の信頼度を判別するために利用される。空間周波数の利用は、図15及び図16に関する説明でさらに言及する。
図15は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図15を参照すれば、映像生成装置400は、位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408を含む。
位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現することができる。または、位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
位相差の算出部403は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部403は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部404は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部403及び深さマップの生成部404の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部403及び深さマップの生成部404の構成及び機能に関する重複する説明は省略する。
空間周波数の算出部407は、イメージセンサ1331(図5参照)の複数のイメージセンサピクセルによって、生成された映像信号ISを受信する。空間周波数の算出部407は、映像信号ISを処理することによって、空間周波数の情報SFを生成する。空間周波数の算出部407は、空間周波数の情報SFを深さマップの生成部404に提供する。
例として、空間周波数の算出部407は、レンズ1310(図1参照)が第1位置にある時、生成された第1映像信号を処理することによって、客体を撮影した第1映像と関連した第1空間周波数の情報を生成する。空間周波数の算出部407は、レンズ1310が第2位置にある時、生成された第2映像信号を処理することによって、客体を撮影した第2映像と関連した第2空間周波数の情報を生成する。空間周波数の算出部407は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得する。
空間周波数の算出部407の構成及び機能は、図14に関する説明で言及した空間周波数の算出部307の構成及び機能を含む。説明を簡単にするため、空間周波数の算出部407の構成及び機能に関する重複する説明は省略する。
信頼度水準の算出部408は、第1位相差PD1に関する第1信頼度水準を算出する。信頼度水準の算出部408は、第2位相差PD2に関する第2信頼度水準を算出する。上記で言及したように、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む。信頼度水準の算出部408は、第1位相差PD1及び第2位相差PD2に含まれる誤差に関する信頼度水準RLを算出する。例として、誤差の大きさが小さいほど、信頼度水準が高くなる。
実施形態として、信頼度水準の算出部408は、空間周波数の値が変わった方向に基づいて信頼度水準RLを算出する。例として、レンズ1310が第1位置から第2位置に移動することによって、レンズ1310の位置が焦点の位置に近くなれば、高い周波数領域の空間周波数の成分が増加する。しかし、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む場合、レンズ1310の位置が焦点の位置に近くになったにも拘らず、高い周波数領域の空間周波数の成分が減少するように見える。この場合、第1位相差PD1又は第2位相差PD2は、低い信頼度水準を有する。
例として、信頼度水準の算出部408は、位相差がさらに正確に算出されるようにするレンズ1310の位置に関する情報を収集する。例として、信頼度水準の算出部408は、反複される撮影の中で周期的に又は特定の条件が満たされる時点ごとに情報を収集する。信頼度水準の算出部408は、収集された情報に基づいて第1位相差PD1及び第2位相差PD2の中で低い信頼度水準を有する位相差を選択する。
他の例として、レンズ1310が第1位置及び第2位置と異なる第3位置にある時、第3位相差がさらに生成される。信頼度水準の算出部408は、第1位相差PD1、第2位相差PD2、及び第3位相差を比較することによって、低い信頼度水準を有する位相差を選択する。さらに、信頼度水準の算出部408は、選択されない位相差に対して高い信頼度水準を算出することができる。
実施形態として、深さマップの生成部404は、第1位相差PD1に基づいて生成された第1深さデータ及び第2位相差PD2に基づいて生成された第2深さデータに第1信頼度水準及び第2信頼度水準を反映することによって、深さマップDMを生成する。例として、深さマップの生成部404は、より高い信頼度水準を有する位相差により高い加重値を割当し、加重平均を算出する。深さマップの生成部404は、算出された加重平均に基づいて深さマップDMを生成する。
図16は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図16を参照すれば、映像生成装置500は、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508を含む。
位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散して具現することができる。または、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
位相差の算出部503は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部503は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部504は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部503及び深さマップの生成部504の構成及び機能は、各々の図7乃至図9に対する説明で言及された位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部503及び深さマップの生成部504の構成及び機能に関する重複する説明は省略する。
位相差の予測部506は、第1位相差PD1に基づいて、第2位相差PD2として算出される値を予測する。位相差の予測部506は、予測された値PVを深さマップの生成部504に提供する。位相差の予測部506の構成及び機能は、図13の位相差の予測部206の構成及び機能を含む。説明を簡単にするため、位相差の予測部506の構成及び機能に関する重複する説明は省略する。
空間周波数の算出部507は、映像信号ISを受信する。映像信号ISは、イメージセンサ1331(図2乃至図6参照)に含まれる複数のイメージセンサピクセルによって、生成される。空間周波数の算出部507は、映像信号ISを処理することによって、客体を撮影した映像と関連された空間周波数の情報SFを生成する。空間周波数の算出部507の構成及び機能は、図14の空間周波数の算出部307の構成及び機能又は図15の空間周波数の算出部407の構成及び機能を含む。説明を簡単にするため、空間周波数の算出部507の構成及び機能に関する重複する説明は省略する。
信頼度の算出部508は、第1位相差PD1に関する第1信頼度水準を算出する。信頼度水準の算出部508は、第2位相差PD2に関する第2信頼度水準を算出する。実施形態として、信頼度の算出部508は、位相差の予測部506によって予測された値PV、第1位相差PD1、第2位相差PD2、空間周波数の情報SFの中で少なくとも1つに基づいて信頼度水準RLを算出する。信頼度の算出部508の構成及び機能は、図15の信頼度の算出部408の構成及び機能を含む。説明を簡単にするため、信頼度の算出部508の構成及び機能に関する重複する説明は省略する。
レンズ1310(図1参照)の移動方向と空間周波数の変化との間に一貫性(Consistency)があるべきである。さらに、第1位相差PD1及び第2位相差PD2が誤差を含まず、位相差の予測部506によって予測された値PVと第2位相差PD2が同一であることが望ましい。レンズ1310の移動方向と空間周波数の変化との間に一貫性が無いか、或いは予測された値PVが第2位相差PD2と異なる場合、信頼度水準の算出部508は、非一貫性及び誤差を参照して信頼度水準RLを算出する。
深さマップの生成部504は、第1位相差PD1及び第2位相差PD2と共に、信頼度水準RLに基づいて深さマップDMを生成する。実施形態として、深さマップの生成部504は、第1位相差PD1に基づいて生成された第1深さデータ及び第2位相差PD2に基づいて生成された第2深さデータに第1信頼度水準及び第2信頼度水準を反映することによって、深さマップDMを生成する。この実施形態は、図15に対する説明と共に言及した。
位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508の各々は、アナログ回路、論理回路等のハードウェアで具現することができる。または、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508の機能は、ソフトウェアによって具現することができる。
本発明の実施形態による映像生成装置は、少ない面積又は体積を占める。さらに、本発明の実施形態によれば、様々な深さデータを参照して誤差を補正することによって、より高い信頼性を有する深さマップを生成することができる。
図17は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図17を参照すれば、映像生成装置600は、位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609を含む。
位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散して具現することができる。または、位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
位相差の算出部603は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部603は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部604は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部603及び深さマップの生成部604の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部603及び深さマップの生成部604の構成及び機能に関する重複する説明は省略する。
深さマップの後処理部609は、深さマップDMの解像度を変更させる。実施形態として、深さマップの後処理部609は、客体映像及び深さマップDMに対して映像整合を遂行する。客体映像は、イメージセンサ1331(図2乃至図6参照)に含まれる複数のイメージセンサピクセルによって生成された映像信号に基づいて生成された映像である。深さマップの後処理部609は、映像整合を遂行することによって、変更された解像度を有する深さマップDM’を生成する。
例として、図4に示したように、複数の位相検出ピクセルが複数のイメージセンサピクセルと重畳されないように構成される場合、深さマップDMは、客体映像のものより低い解像度を有する。深さマップの後処理部609は、客体映像を参照して、深さデータが獲得されない映像領域に対応する深さデータを推定する。例として、深さマップの後処理部609は、客体映像に含まれるエッジ(Edge)成分を取出し、エッジ成分と深さマップDMに対して映像整合を遂行することによって、深さデータが獲得されない映像領域に対応する深さデータを推定する。
上の例で、深さマップの後処理部609は、深さマップDM及び推定された深さデータに基づいて、変更された解像度を有する深さマップDM’を生成する。例として、深さマップDMの解像度を高めることによって、深さマップDM’は、客体映像のことと同一の解像度を有する。
しかし、本発明は、上記の例に限定されない。深さマップの後処理部609は、深さマップDMの解像度を多様に変更させることができる。深さマップDM’は、客体映像のものと異なる解像度を有する。深さマップDMの解像度は、高くなるか、或いは低くなる。さらに、図3に示したように、1つのピクセル単位がイメージセンサピクセルのみではなく、位相検出ピクセルとして利用される場合にも、深さマップDMの解像度を変更させるために深さマップの後処理部609を利用することができる。
例として、深さマップの後処理部609は、特定の条件が満たされば、動作するように構成される。この例で、映像生成装置600は、深さマップの後処理部609が動作するか否かを判別するために利用される判別ロジック又は回路をさらに含む。他の例として、映像生成装置600は、追加の制御信号ライン又はユーザーインターフェイスをさらに含む。映像生成装置600は、追加の制御信号ライン又はユーザーインターフェイスを通じて深さマップの後処理部609を動作させるための命令を受信する。
図18は、本発明の実施形態による映像生成装置を含む電子システムの構成及びそれのインターフェイスを示すブロック図である。電子システム5000は、MIPI(Mobile Industry Processor Interface)連合(Alliance)によって提案されたインターフェイスを利用するか、或いは支援することができるデータ処理装置に具現されることができる。例として、電子システム5000は、携帯用の通信端末機、PDA(Personal Digital Assistant)、PMP(Portable Media Player)、スマートフォン、又はウェアラブル装置等のような電子装置に具現することができる。
電子システム5000は、アプリケーションプロセッサ5100、ディスプレイ5220、及びイメージセンサ5230を含む。アプリケーションプロセッサ5100は、DigRFマスター5110、DSI(Display Serial Interface)ホスト5120、CSI(Camera Serial Interface)ホスト5130、物理階層5140、及び映像信号の処理器5150を含む。
DSIホスト5120は、DSIによってディスプレイ5220のDSI装置5225と通信する。例として、DSIホスト5120には光シリアライザSERが具現される。例として、DSI装置5225には光デシリアライザDESが具現される。
CSIホスト5130は、CSIによってイメージセンサ5230のCSI装置5235と通信する。例として、CSIホスト5130には光デシリアライザDESが具現される。例として、CSI装置5235には光シリアライザSERが具現される。映像信号の処理器5150は、メモリ(例えば、ウォーキングメモリ5250又はアプリケーションプロセッサ5100に内装されたメモリ)及びバスを通じてCSIホスト5130と通信する。
映像信号の処理器5150及びイメージセンサ5230の中で少なくとも1つは、図7乃至図17に対する説明で言及した本発明の実施形態の中で少なくとも1つにしたがって構成される。例として、図10で説明したように、イメージセンサ5230は、レンズを2つ以上の位置の各々に移動させ、複数の位相検出ピクセルを利用して様々な深さデータを生成し、様々な深さデータに基づいて深さマップを生成する。例として、図11で説明したように、映像信号の処理器5150は、レンズを2つ以上の位置の各々に移動させるためにレンズの駆動信号を生成し、複数の位相検出ピクセルを利用して生成された様々な深さデータに基づいて深さマップを生成する。本発明の実施形態に関する詳細な説明は省略する。
電子システム5000は、アプリケーションプロセッサ5100と通信するRF(Radio Frequency)チップ5240をさらに含む。RFチップ5240は、物理階層5242、DigRFスレーブ5244、及びアンテナ5246を含む。例として、RFチップ5240の物理階層5242とアプリケーションプロセッサ5100の物理階層5140とは、MIPI連合によって提案されたDigRFインターフェイスによって互いにデータを交換する。
電子システム5000は、ウォーキングメモリ5250(Working Memory)及び埋め込み型(Embedded)/カードストレージ5255をさらに含む。ウォーキングメモリ5250及び埋め込み型/カードストレージ5255は、アプリケーションプロセッサ5100から提供されたデータを格納する。さらに、ウォーキングメモリ5250及び埋め込み型/カードストレージ5255は、格納されたデータをアプリケーションプロセッサ5100に提供する。
ウォーキングメモリ5250は、アプリケーションプロセッサ5100によって処理された又は処理されるデータを一時的に格納する。ウォーキングメモリ5250は、SRAM(Static Random Access Memory)、DRAM(Dynamic RAM)、SDRAM(Synchronous DRAM)等のような揮発性メモリ、又はフラッシュ(Flash)メモリ、PRAM(Phase−change RAM)、MRAM(Magneto−resistive RAM)、ReRAM(Resistive RAM)、FRAM(登録商標)(Ferro−electric RAM)等のような不揮発性メモリを含む。埋め込み型/カードストレージ5255は、電源供給の可否と関わらず、データを格納する。
電子システム5000は、Wimax5260(World Interoperability for Microwave Access)、WLAN5262(Wireless Local Area Network)、UWB5264(Ultra Wideband)等のような通信モジュールを通じて外部システムと通信する。電子システム5000は、音声情報を処理するためのスピーカ5270及びマイク5275をさらに含む。さらに、電子システム5000は、位置情報を処理するためのGPS(Global Positioning System)装置5280をさらに含む。電子システム5000は、周辺装置との連結を管理するためのブリッジ(Bridge)チップ5290をさらに含む。
各々の概念図に示した構成は、単なる概念的な観点で理解しなければならない。本発明の理解を助けるために、概念図に示した構成要素の各々の形態、構造、大きさ等は、誇張又は縮小されて表現されている。実際に具現される構成は、各々の概念図に示したことと異なる物理的な形状を有する。各々の概念図は、構成要素の物理的な形状を制限するためのものではない。
各々のブロック図に示した装置構成は、発明の理解を助けるためのものである。各々のブロックは、機能によってさらに小さい単位のブロックに形成される。または複数のブロックは、機能によってさらに大きい単位のブロックを形成することができる。即ち、本発明の技術思想は、ブロック図として図示された構成によって限定されない。
以上で本発明に対する実施形態を中心に本発明を説明した。但し、本発明が属する技術分野の特徴上、本発明が解決しようとする目的は、本発明の要旨を含みながらも上記の実施形態と異なる形態に達成される。したがって、上記の実施形態は、限定的なものではなく、説明の側面で理解しなければならない。即ち、本発明の要旨を含みながら、本発明のような目的を達成できる技術思想は、本発明の技術思想に含まれることと解釈されなければならない。
したがって、本発明の本質的な特性を逸脱しない範囲内で修正又は変形された技術思想は、本発明が請求する保護範囲に含まれるものである。また、本発明の保護範囲は、上記の実施形態に限定されるものではない。
100 映像生成装置
103 位相差の算出部
104 深さマップの生成部
200 映像生成装置
203 位相差の算出部
204 深さマップの生成部
206 位相差の予測部
300 映像生成装置
303 位相差の算出部
304 深さマップの生成部
307 空間周波数の算出部
400 映像生成装置
403 位相差の算出部
404 深さマップの生成部
407 空間周波数の算出部
408 信頼度水準の算出部
500 映像生成装置
503 位相差の算出部
504 深さマップの生成部
506 位相差の予測部
507 空間周波数の算出部
508 信頼度水準の算出部
600 映像生成装置
603 位相差の算出部
604 深さマップの生成部
609 深さマップの後処理部
1000 映像生成システム
1100 客体
1300 映像生成装置
1310 レンズ
1330 イメージセンサチップ
1331 イメージセンサ
1350 映像信号の処理器
2300 映像生成装置
2310 レンズ
2330 イメージセンサチップ
2331 イメージセンサ
2332 レンズ駆動部
2333 位相差の算出部
2334 深さマップの生成部
2350 映像信号の処理器
3300 映像生成装置
3310 レンズ
3330 イメージセンサチップ
3350 映像信号の処理器
3353 位相差の算出部
3354 深さマップの生成部
3355 レンズの位置制御部
4300 映像生成装置
4310 レンズ
4330 イメージセンサチップ
4350 映像信号の処理器
4373 位相差の算出部
4374 深さマップの生成部
5000 電子システム
5100 アプリケーションプロセッサ
5110 DigRFマスター
5120 DSIホスト
5130 CSIホスト
5140 物理階層
5150 映像信号の処理器
5220 ディスプレイ
5225 DSI装置
5230 イメージセンサ
5235 CSI装置
5240 RFチップ
5242 物理階層
5244 DigRFスレーブ
5246 アンテナ
5250 ウォーキングメモリ
5255 埋め込み型/カードストレージ
5260 Wimax
5262 WLAN
5264 UWB
5270 スピーカ
5275 マイク
5280 GPS
5290 ブリッジチップ

Claims (24)

  1. 客体に対応する映像信号を生成するように構成される複数のイメージセンサピクセル、及び映像の間の位相差が算出されるために利用される第1及び第2位相信号を生成するように構成される複数の位相検出ピクセルを含むイメージセンサと、
    レンズと前記客体との間の距離を調節するために前記レンズの位置を調節するように構成されるレンズ駆動部と、
    前記レンズが第1位置にある時、生成された前記第1位相信号に基づいて第1位相差を算出し、前記レンズが前記第1位置と異なる第2位置にある時、生成された前記第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部と、
    前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部と、を含む映像生成装置。
  2. 前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含む請求項1に記載の映像生成装置。
  3. 前記レンズが前記レンズ駆動部の制御によって前記第1位置から前記第2位置に移動することによって、前記第1位相差は、前記第2位相差より先に算出され、
    前記位相差の予測部は、前記レンズが前記第2位置に移動する前、又は移動する時、前記第2位相差として算出される値を予測するように構成される請求項2に記載の映像生成装置。
  4. 前記位相差の予測部によって予測された値と前記位相差の算出部によって算出された前記第2位相差との間の差が基準値より大きい場合、前記深さマップの生成部は、前記差を参照して前記深さマップを生成するように構成される請求項2に記載の映像生成装置。
  5. 前記複数の位相検出ピクセルの各々は、前記複数のイメージセンサピクセルの中で2つのイメージセンサピクセルに対応するように構成される請求項1に記載の映像生成装置。
  6. 前記複数の位相検出ピクセルは、前記複数のイメージセンサピクセルと重畳されないように前記複数のイメージセンサピクセルの位置と異なる位置に配置される請求項1に記載の映像生成装置。
  7. 前記映像信号を処理することによって、前記客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含む請求項1に記載の映像生成装置。
  8. 前記空間周波数の算出部は、前記レンズが前記第1位置にある時、第1空間周波数の情報を生成し、前記レンズが前記第2位置にある時、第2空間周波数の情報を生成するように構成される請求項7に記載の映像生成装置。
  9. 前記空間周波数の算出部は、前記第1及び第2空間周波数の情報に基づいて、前記レンズが前記第1位置から前記第2位置に移動する時、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得するようにさらに構成され、
    前記深さマップの生成部は、前記空間周波数の値が変わった方向及び量の中で少なくとも1つを参照して前記深さマップを生成するように構成される請求項8に記載の映像生成装置。
  10. 前記イメージセンサ、前記レンズ駆動部、前記位相差の算出部、及び前記深さマップの生成部は、1つのイメージセンサチップに具現される請求項1に記載の映像生成装置。
  11. イメージセンサに含まれる複数の位相検出ピクセルによって生成された第1及び第2位相信号を受信し、客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、生成された前記第1位相信号に基づいて第1位相差を算出し、前記レンズが前記第1位置と異なる第2位置にある時、生成された前記第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部と、
    前記第1及び第2位相差の中で少なくとも1つに基づいて前記客体に対する焦点を合わせるための前記レンズの焦点位置を算出し、前記レンズを前記焦点の位置に移動させるためにレンズの駆動信号を生成するように構成されるレンズ位置の制御部と、
    前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部と、を含む映像生成装置。
  12. 前記第1位置及び前記第2位置の中で1つは、前記焦点の位置に対応する請求項11に記載の映像生成装置。
  13. 前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部と、
    前記イメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号を処理することによって、前記客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部と、をさらに含む請求項11に記載の映像生成装置。
  14. 前記位相差の予測部によって予測された値、前記位相差の算出部によって算出された前記第2位相差、及び前記レンズが前記第1位置から前記第2位置に移動する時、空間周波数の値が変わった方向の中で少なくとも1つに基づいて、前記第1位相差に関する第1信頼度水準及び前記第2位相差に関する第2信頼度水準が算出されるように構成される信頼度水準の算出部をさらに含む請求項13に記載の映像生成装置。
  15. 前記深さマップの生成部は、前記第1及び第2深さデータに前記第1及び第2信頼度水準を反映することによって、前記深さマップを生成するように構成される請求項14に記載の映像生成装置。
  16. 前記イメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号に基づいて生成された客体映像、及び前記深さマップに対して映像整合を遂行することによって、前記深さマップの解像度を変更させるように構成される深さマップの後処理部をさらに含む請求項11に記載の映像生成装置。
  17. 前記位相差の算出部、前記レンズ位置の制御部、及び前記深さマップの生成部は、アプリケーションプロセッサを含む演算処理装置に具現される請求項11に記載の映像生成装置。
  18. 深さマップを生成するように構成される映像生成装置において、
    客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、複数の位相検出ピクセルによって生成された第1位相信号及び前記レンズが前記第1位置と異なる第2位置にある時、前記複数の位相検出ピクセルによって生成された第2位相信号の各々に基づいて第1及び第2位相差が算出されるように構成される位相差の算出部と、
    前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて前記深さマップを生成するように構成される深さマップの生成部と、を含む映像生成装置。
  19. 前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含み、
    前記位相差の予測部によって予測された値が前記位相差の算出部によって算出された前記第2位相差と異なる場合、
    前記位相差の算出部は、前記レンズが前記第1及び第2位置と異なる第3位置にある時、前記複数の位相検出ピクセルによって生成された第3位相信号に基づいて第3位相差が算出されるようにさらに構成され、
    前記深さマップの生成部は、前記第3位相差に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第3深さデータを生成し、前記第1乃至第3深さデータに基づいて前記深さマップを生成するようにさらに構成される請求項18に記載の映像生成装置。<}100{>前記深さマップの生成部は、前記第3位相差に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第3深さデータを生成し、前記第1乃至第3深さデータに基づいて前記深さマップを生成するようにさらに構成される請求項18に記載の映像生成装置。
  20. 前記レンズが前記第1位置にある時、複数のイメージセンサピクセルによって生成された第1映像信号を処理することによって、前記客体を撮影した第1映像と関連された第1空間周波数の情報を生成し、前記レンズが前記第2位置にある時、前記複数のイメージセンサピクセルによって生成された第2映像信号を処理することによって、前記客体を撮影した第2映像と関連された第2空間周波数の情報を生成し、前記第1及び第2空間周波数の情報に基づいて空間周波数の値が変わった方向を獲得するように構成される空間周波数の算出部と、
    前記空間周波数の値が変わった方向に基づいて、前記第1位相差に関する第1信頼度水準及び前記第2位相差に関する第2信頼度水準が算出されるように構成される信頼度水準の算出部と、をさらに含み、
    前記深さマップの生成部は、前記第1及び第2深さデータに前記第1及び第2信頼度水準を反映することによって、前記深さマップを生成するように構成される請求項18に記載の映像生成装置。
  21. 客体に対応する映像信号を生成するように構成される複数のイメージセンサピクセル、及び第1及び第2位相信号を生成するように構成される複数の位相検出ピクセルを含むイメージセンサと、
    前記イメージセンサの位置を基準に移動するように構成されるレンズと、
    コンピュータに読み出される命令語を格納するメモリと、
    前記命令語を実行するように構成される1つ以上のプロセッサと、を含み、
    前記1つ以上のプロセッサは、前記命令語を実行して、
    前記レンズが前記イメージセンサに対して第1位置にある時、生成される前記第1位相信号に基づいて第1位相差を決定し、
    前記レンズが前記イメージセンサに対して第2位置にある時、生成される前記第2位相信号に基づいて第2位相差を決定し、
    前記第1及び第2位相差に基づいて各々の第1及び第2深さデータを生成し、
    前記第1及び第2深さデータに基づいて深さマップを生成するように構成され、
    前記第1及び第2深さデータの各々は、前記複数の位相検出ピクセルと前記客体との間の距離を示す映像生成装置。
  22. 前記イメージセンサに対する前記レンズの位置を選択的に調節するように構成されるレンズ駆動部をさらに含む請求項21に記載の映像生成装置。
  23. 前記1つ以上のプロセッサは、前記第1位相差に基づいて前記第2位相差の値を予測するようにさらに構成される請求項22に記載の映像生成装置。
  24. 前記1つ以上のプロセッサは、
    前記レンズ駆動部の制御によって前記レンズが前記第1位置から前記第2位置に移動することによって、前記第2位相差が算出される前に、前記第1位相差を算出し、
    前記レンズ駆動部の制御によって前記レンズが前記第2位置に移動する前、又は移動する間に、前記第2位相差の値を予測するように構成される請求項23に記載の映像生成装置。
JP2016017442A 2015-02-13 2016-02-01 位相検出ピクセルを利用して深さマップを生成するための映像生成装置 Active JP6731738B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150022298A KR102272254B1 (ko) 2015-02-13 2015-02-13 위상 검출 픽셀을 이용하여 깊이 맵을 생성하기 위한 영상 생성 장치
KR10-2015-0022298 2015-02-13

Publications (2)

Publication Number Publication Date
JP2016149765A true JP2016149765A (ja) 2016-08-18
JP6731738B2 JP6731738B2 (ja) 2020-07-29

Family

ID=56551790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016017442A Active JP6731738B2 (ja) 2015-02-13 2016-02-01 位相検出ピクセルを利用して深さマップを生成するための映像生成装置

Country Status (5)

Country Link
US (1) US10337861B2 (ja)
JP (1) JP6731738B2 (ja)
KR (1) KR102272254B1 (ja)
CN (1) CN105898281B (ja)
DE (1) DE102016100031A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018056515A1 (ko) * 2016-09-22 2018-03-29 엘지전자 주식회사 차량용 카메라 장치 및 방법
WO2018164411A1 (ko) * 2017-03-07 2018-09-13 삼성전자 주식회사 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148864B2 (en) * 2015-07-02 2018-12-04 Pixart Imaging Inc. Imaging device having phase detection pixels and regular pixels, and operating method thereof
CN108352393B (zh) 2015-07-23 2022-09-16 光程研创股份有限公司 高效宽光谱传感器
EP3370259B1 (en) 2015-08-04 2020-03-11 Artilux Inc. Germanium-silicon light sensing apparatus
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
RU2679011C1 (ru) 2015-09-16 2019-02-05 Кэнон Кабусики Кайся Датчик изображения и устройство захвата изображения
GB2598525B (en) 2015-09-16 2022-06-01 Canon Kk Image sensor and image capturing apparatus
JP6664177B2 (ja) * 2015-09-28 2020-03-13 キヤノン株式会社 焦点検出装置、予測方法、プログラム及び記憶媒体
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
JP6786253B2 (ja) * 2016-04-15 2020-11-18 キヤノン株式会社 撮像システム、情報処理装置、撮像システムの制御方法、情報処理装置の制御方法、及びプログラム
EP3518532B1 (en) * 2016-09-23 2021-08-25 Nippon Telegraph and Telephone Corporation Image generating device, image generating method, data structure, and program
CN106996938A (zh) * 2017-03-07 2017-08-01 天津大学 超宽带微波目标检测的fpga成像系统
US10419664B2 (en) * 2017-12-28 2019-09-17 Semiconductor Components Industries, Llc Image sensors with phase detection pixels and a variable aperture
US10410374B2 (en) * 2017-12-28 2019-09-10 Semiconductor Components Industries, Llc Image sensors with calibrated phase detection pixels
WO2019165220A1 (en) 2018-02-23 2019-08-29 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
US10595007B2 (en) * 2018-03-21 2020-03-17 Himax Imaging Limited Structured-light method and system of dynamically generating a depth map
WO2019199691A1 (en) 2018-04-08 2019-10-17 Artilux, Inc. Photo-detecting apparatus
KR102185320B1 (ko) * 2018-04-20 2020-12-01 알바이오텍 주식회사 사용자의 운동 자세 분석을 위한 이미지 생성 장치
CN108648222B (zh) * 2018-04-27 2021-08-17 华中科技大学 结构光深度数据空间分辨率的提升方法及装置
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
US10410368B1 (en) * 2018-09-27 2019-09-10 Qualcomm Incorporated Hybrid depth processing
KR102561533B1 (ko) * 2018-09-28 2023-07-31 엘지이노텍 주식회사 카메라 장치
JP7036227B2 (ja) * 2018-11-19 2022-03-15 日本電気株式会社 画像処理方法および画像処理装置
US11367390B2 (en) * 2018-12-24 2022-06-21 Novatek Microelectronics Corp. Display apparatus and method for noise reduction
US11544873B2 (en) * 2019-03-05 2023-01-03 Artilux, Inc. High resolution 3D image processing apparatus and method thereof
KR102648089B1 (ko) * 2019-03-26 2024-03-19 삼성전자주식회사 이미징 장치 및 이미지 센서
CN112862880A (zh) * 2019-11-12 2021-05-28 Oppo广东移动通信有限公司 深度信息获取方法、装置、电子设备和存储介质
KR20210108082A (ko) * 2020-02-25 2021-09-02 삼성전자주식회사 위상 차를 이용하는 라이브니스 검출 방법 및 장치
US11694480B2 (en) * 2020-07-27 2023-07-04 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122297A1 (en) * 2007-11-14 2009-05-14 Stanley Electric Co., Ltd. Range image generating apparatus
JP2011237585A (ja) * 2010-05-10 2011-11-24 Canon Inc 撮像装置及びその制御方法
JP2012058665A (ja) * 2010-09-13 2012-03-22 Sony Corp 顕微鏡制御装置及び処理範囲決定方法
JP2012124555A (ja) * 2010-12-06 2012-06-28 Canon Inc 撮像装置
JP2012124791A (ja) * 2010-12-10 2012-06-28 Sony Corp 撮像素子および撮像装置
CN103181156A (zh) * 2011-07-12 2013-06-26 三星电子株式会社 模糊处理装置及方法
US20130242111A1 (en) * 2011-07-12 2013-09-19 Samsung Electronics Co., Ltd. Device and method for blur processing
JP2014029353A (ja) * 2012-07-31 2014-02-13 Sony Corp 焦点調整装置および焦点調整方法
JP2014179939A (ja) * 2013-03-15 2014-09-25 Sony Corp 信号処理装置および信号処理方法
JP2015015704A (ja) * 2013-06-07 2015-01-22 キヤノン株式会社 測距装置、撮像装置及び測距装置の制御方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090080876A1 (en) 2007-09-25 2009-03-26 Mikhail Brusnitsyn Method For Distance Estimation Using AutoFocus Image Sensors And An Image Capture Device Employing The Same
JP5146295B2 (ja) 2008-12-15 2013-02-20 ソニー株式会社 撮像装置および合焦制御方法
JP5178553B2 (ja) 2009-01-27 2013-04-10 オリンパス株式会社 撮像装置
JP5424679B2 (ja) 2009-03-18 2014-02-26 キヤノン株式会社 撮像装置及び信号処理装置
JP5361598B2 (ja) 2009-07-30 2013-12-04 キヤノン株式会社 焦点調節装置及び方法、及び撮像装置
JP5493010B2 (ja) * 2010-11-30 2014-05-14 富士フイルム株式会社 撮像装置及びその合焦位置検出方法
JP2012124553A (ja) 2010-12-06 2012-06-28 Canon Inc 撮影システムおよびレンズ装置
JP2012173531A (ja) 2011-02-22 2012-09-10 Sony Corp 撮像装置、およびフォーカス制御方法、並びにプログラム
JP5615756B2 (ja) 2011-03-31 2014-10-29 富士フイルム株式会社 撮像装置及び撮像プログラム
JP2012230258A (ja) 2011-04-26 2012-11-22 Canon Inc 撮像装置及びその制御方法
JP6029309B2 (ja) * 2011-06-22 2016-11-24 キヤノン株式会社 焦点検出装置
GB2492848A (en) * 2011-07-15 2013-01-16 Softkinetic Sensors Nv Optical distance measurement
JP5800187B2 (ja) 2011-08-16 2015-10-28 リコーイメージング株式会社 撮像装置および距離情報取得方法
US20140036861A1 (en) * 2012-08-03 2014-02-06 Institute For Information Industry High-power base station and low-power base station for use in hererogeneous network and transmission methods thereof
JP6239862B2 (ja) 2013-05-20 2017-11-29 キヤノン株式会社 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
KR102082703B1 (ko) * 2013-06-13 2020-02-28 엘지전자 주식회사 깊이 영상 획득 장치 및 방법
US10230934B2 (en) * 2013-06-14 2019-03-12 Microsoft Tehcnology Licensing, Llc Depth map correction using lookup tables
JP2015033103A (ja) 2013-08-07 2015-02-16 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20150022298A (ko) 2013-08-22 2015-03-04 주식회사 온세텔레콤 자동 콜 다이얼링을 이용한 결제 확인 시스템 및 방법
ITTO20130784A1 (it) * 2013-09-30 2015-03-31 Sisvel Technology Srl Method and device for edge shape enforcement for visual enhancement of depth image based rendering
US9823352B2 (en) * 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122297A1 (en) * 2007-11-14 2009-05-14 Stanley Electric Co., Ltd. Range image generating apparatus
JP2009124398A (ja) * 2007-11-14 2009-06-04 Stanley Electric Co Ltd 距離画像生成装置
JP2011237585A (ja) * 2010-05-10 2011-11-24 Canon Inc 撮像装置及びその制御方法
JP2012058665A (ja) * 2010-09-13 2012-03-22 Sony Corp 顕微鏡制御装置及び処理範囲決定方法
JP2012124555A (ja) * 2010-12-06 2012-06-28 Canon Inc 撮像装置
JP2012124791A (ja) * 2010-12-10 2012-06-28 Sony Corp 撮像素子および撮像装置
CN103181156A (zh) * 2011-07-12 2013-06-26 三星电子株式会社 模糊处理装置及方法
US20130242111A1 (en) * 2011-07-12 2013-09-19 Samsung Electronics Co., Ltd. Device and method for blur processing
JP2014528059A (ja) * 2011-07-12 2014-10-23 サムスン エレクトロニクス カンパニー リミテッド ブラー処理装置及び方法
JP2014029353A (ja) * 2012-07-31 2014-02-13 Sony Corp 焦点調整装置および焦点調整方法
JP2014179939A (ja) * 2013-03-15 2014-09-25 Sony Corp 信号処理装置および信号処理方法
JP2015015704A (ja) * 2013-06-07 2015-01-22 キヤノン株式会社 測距装置、撮像装置及び測距装置の制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018056515A1 (ko) * 2016-09-22 2018-03-29 엘지전자 주식회사 차량용 카메라 장치 및 방법
WO2018164411A1 (ko) * 2017-03-07 2018-09-13 삼성전자 주식회사 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법
KR20180102331A (ko) * 2017-03-07 2018-09-17 삼성전자주식회사 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법
US11196945B2 (en) 2017-03-07 2021-12-07 Samsung Electronics Co., Ltd Electronic device including camera module and method for controlling electronic device
KR102392751B1 (ko) * 2017-03-07 2022-04-29 삼성전자 주식회사 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법

Also Published As

Publication number Publication date
DE102016100031A1 (de) 2016-08-18
KR20160099948A (ko) 2016-08-23
US10337861B2 (en) 2019-07-02
JP6731738B2 (ja) 2020-07-29
KR102272254B1 (ko) 2021-07-06
CN105898281A (zh) 2016-08-24
US20160239974A1 (en) 2016-08-18
CN105898281B (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
JP6731738B2 (ja) 位相検出ピクセルを利用して深さマップを生成するための映像生成装置
US10326981B2 (en) Generating 3D images using multi-resolution camera set
CN109151301B (zh) 包括相机模块的电子装置
CN109792478B (zh) 基于焦点目标信息调整焦点的装置和方法
CN108702437B (zh) 计算深度图的方法、系统、设备和存储介质
US9900584B2 (en) Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters
JP5980294B2 (ja) データ処理装置、撮像装置、およびデータ処理方法
US10558881B2 (en) Parallax minimization stitching method and apparatus using control points in overlapping region
US9729857B2 (en) High resolution depth map computation using multiresolution camera clusters for 3D image generation
BR102012030034A2 (pt) Sistema e método para gerar um mapa de profundidade bruto
CN112930677B (zh) 用于在第一镜头和第二镜头之间切换的方法和电子设备
JP2014098898A (ja) 多重解像度Depth−From−Defocusベースのオートフォーカス
TWI557688B (zh) 利用散焦方形影像執行景深估測的系統與方法
JP2017527042A (ja) 深度マップの改善
US11699218B2 (en) Method controlling image sensor parameters
CN109661815A (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
WO2017117743A1 (zh) 处理图像的方法和设备
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
JP5927265B2 (ja) 画像処理装置及びプログラム
US9621780B2 (en) Method and system of curve fitting for common focus measures
WO2016194576A1 (ja) 情報処理装置および方法
KR20220122317A (ko) 오토 줌 및 오토 포커스를 수행하는 이미지 시그널 프로세서, 이미지 시그널 프로세서의 이미지 프로세싱 방법 및 이미지 프로세싱 시스템
US20220224813A1 (en) Method of Controlling a Portable Device and a Portable Device
WO2022213311A1 (en) Camera autofocus using depth sensor
JP2016162376A (ja) 画像処理装置、撮像装置、および画像処理方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161222

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6731738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250