JP2016149765A - 位相検出ピクセルを利用して深さマップを生成するための映像生成装置 - Google Patents
位相検出ピクセルを利用して深さマップを生成するための映像生成装置 Download PDFInfo
- Publication number
- JP2016149765A JP2016149765A JP2016017442A JP2016017442A JP2016149765A JP 2016149765 A JP2016149765 A JP 2016149765A JP 2016017442 A JP2016017442 A JP 2016017442A JP 2016017442 A JP2016017442 A JP 2016017442A JP 2016149765 A JP2016149765 A JP 2016149765A
- Authority
- JP
- Japan
- Prior art keywords
- phase difference
- lens
- depth map
- phase
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/32—Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/229—Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Measurement Of Optical Distance (AREA)
- Focusing (AREA)
Abstract
Description
特に、深さマップは、近来利用されている映像技術の中の1つである。深さマップは、客体と映像生成装置(例えば、イメージセンサを含むカメラ)との間の距離に関する情報を含む。深さマップは、3次元の映像を生成するために利用される。3次元映像は、映画、ビデオゲーム等をさらに興味深くするために利用される。
したがって、高い処理性能を有する電子装置に対する要求が増加するにも拘らず、電子装置の大きさは段々と減少しているため、深さマップを取得するための大部分の方法は、近来利用されている電子装置に採用することが難しい。即ち、小面積又は体積を占める装置又は回路を利用することによって、深さマップを取得するための方法が必要である。
本発明の一実施形態で、レンズがレンズ駆動部の制御にしたがって第1位置から第2位置に移動することによって、第1位相差は、第2位相差より先に算出されることができる。本発明の一実施形態で、位相差の予測部は、レンズが第2位置に移動される前、又は移動する時、第2位相差として算出される値を予測するように構成されることができる。
本発明の一実施形態で、位相差の予測部によって予測された値と位相差の算出部によって算出された第2位相差の間の差が基準値より大きい場合、深さマップの生成部は、その差を参照して深さマップを生成するように構成されることができる。
本発明の一実施形態で、複数の位相検出ピクセルは、複数のイメージセンサピクセルと重畳されないように複数のイメージセンサピクセルの位置と異なる位置に配置されることができる。
本発明の一実施形態による映像生成装置は、映像信号を処理することによって、客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含むことができる。
本発明の一実施形態で、空間周波数の算出部は、第1及び第2空間周波数の情報に基づいて、レンズが第1位置から第2位置に移動される時、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得するようにさらに構成されことができる。本発明の一実施形態で、深さマップの生成部は、空間周波数の値が変わった方向及び量の中で少なくとも1つを参照して深さマップを生成するように構成されることができる。
本発明の一実施形態で、イメージセンサ、レンズ駆動部、位相差の算出部、及び深さマップの生成部は、1つのイメージセンサチップに具現されることができる。
本発明の他の実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部、及びイメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号を処理することによって、客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含むことができる。
本発明の他の実施形態で、深さマップの生成部は、第1及び第2深さデータに第1及び第2信頼度水準を反映することによって、深さマップを生成するように構成されることができる。
本発明の他の実施形態で、位相差の算出部、レンズ位置の制御部、及び深さマップの生成部は、アプリケーションプロセッサを含む演算処理装置で具現されることができる。
本明細書で使用される用語は、本発明が属する技術分野の通常の技術者が一般的に理解する意味を有する。普遍的に使用される用語は、本明細書の脈絡にしたがって一貫的な意味として解釈されなければならない。また本明細書で使用される用語は、その意味が明確に定義された場合を除いて、あまりにも理想的であるか、或いは形式的な意味として解釈されてはならない。以下、添付された図面を通じて本発明の実施形態を説明する。
実施形態として、映像生成装置1300は、レンズ1310、イメージセンサチップ1330(Image Sensor Chip)、及び映像信号の処理器1350を含む。但し、映像生成装置1300は、図1に示さない他の構成要素をさらに含んでもよい。図1に示した映像生成装置1300は、本発明の理解を助けるための単なる例示である。映像生成装置1300は、客体1100に関する映像IMGを生成する。
上述のハードウェアで実現されるデータ処理装置の一例としては、マイクロプロセッサ、中央演算ユニット(CPU)、プロセッサコア、マルチコアプロセッサ、マルチプロセッサ、特定用途向け集積回路(ASIC)、現場でのプログラム可能なゲートアレイ(FPGA)などが挙げられるが、これに限定されるものではない。プログラムコードを実行するプロセッサとは、プログラム化されたプロセッサであって、特定目的のコンピュータである。
イメージセンサチップ1330は、レンズ1310から提供された光に基づいて1つ以上の映像信号を生成する。映像信号は、客体1100に関する映像IMGを生成するために利用される情報を含む。映像信号に基づいて、客体1100に関する映像IMGが生成される。映像信号は、映像信号の処理器1350に提供される。
但し、本発明は、この例に限定されない。光通過フィルタの構成、光通過フィルタ及び光感知センサの配置、及び映像信号の生成は、必要によって多様な方式で具現されてもよい。また、例として、イメージセンサチップ1330は、赤外光(Infrared Light)の通過フィルタ、赤外光センサ等のような多様な構成要素をさらに含んでもよい。
図2を参照すれば、イメージセンサ1331は、ピクセルアレイPAを含む。ピクセルアレイPAは、ピクセル単位PXで形成される。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差を算出するために利用される位相信号を生成する。複数のイメージセンサピクセル及び複数の位相検出ピクセルは、ピクセル単位PXに配置される。複数のイメージセンサピクセル及び複数の位相検出ピクセルの配置は、図3及び図4を参照して説明される。
上記の実施形態で、すべてのイメージセンサピクセルが位相検出ピクセルとして利用されてもよい。または、複数のイメージセンサピクセルの一部は、位相検出ピクセルで利用されなくともよい。例として、複数のイメージセンサピクセルの個数がp個である場合、複数の位相検出ピクセルの個数は、p/2個以下である(即ち、n≦(p/2))。
上記の実施形態で、ピクセルアレイPAに含まれるピクセルの中で一部は、イメージセンサピクセルとして利用される。さらに、イメージセンサピクセルとして利用されないピクセルは、位相検出ピクセルとして利用することができる。必要によって、ピクセルアレイPAに含まれるすべてのピクセルが位相検出ピクセルとして利用されてもよい。
第3番目の場合(CASE3)を参照すれば、レンズ1310と客体1100との間の距離が相対的に遠い。第3番目の場合(CASE3)で、レンズ1310は、焦点の位置から外れている。レンズ1310が焦点の位置から外れて存在するので、イメージセンサ1331に結ばれた映像の間に位相差D3が発生する。したがって、第3番目の場合(CASE3)で、客体1100に対する焦点がぼやける。
但し、図6は、本発明の理解を助けるための例示的な概念図であり、本発明を限定するためのものではない。上記で言及したように、位相検出ピクセルは、多様な形態で具現することができる。位相検出ピクセルの構成、個数、配置、及び位置は、必要によって多様に変更又は修正することができる。
進歩性のある少なくとも1つの実施例として、映像生成装置100は、映像生成装置100(又はその構成要素)によって遂行されるとして説明したいくつかの又は全ての演算を実行するために特別に構成された1以上の回路(例えば、ハードウエア)により実現されるか、又は含むことができる。また、映像生成装置100は、メモリを備えるか又はメモリによって実現出来る。さらに、メモリ中に格納されたコンピュータ読出し可能コード(例えば、ソフトウェア)を実行する1以上のプロセッサでも実現でき、プロセッサには、映像生成装置100(又はその構成要素)によって遂行されるとして説明された、いくつかの又は全ての演算に対応する命令を備えることができる。
進歩性のある少なくとも1つの実施例として、映像生成装置100は、例えば、上述したハードウェアとコンピュータ読出し可能なコードを実行するプロセッサとの組合せとして実現することもできる。
S110段階で、レンズ1310が第1位置に移動する。上述したように、レンズ1310は、客体1100からの距離が増加する方向又は減少する方向に移動することができる。したがって、レンズ1310と客体1100との間の距離が調節される。時刻‘t1’で、レンズ1310は、レンズ位置の制御信号に応答して第1位置に移動する。例として、第1位置は、固定された位置であってもよい。または、第1位置は、必要によって調節可能な位置であってもよい。第1位置は、多様に選択又は決定することができる。
S130段階で、第1位相差PD1が算出される。位相差の算出部103は、イメージセンサ1331から第1位相信号PS1を受信する。位相差の算出部103は、第1位相信号PS1に基づいて第1位相差PD1を算出する。第1位相差PD1は、レンズ1310が第1位置にある時、イメージセンサ1331に結ばれた映像に関する位相差である。
S150段階で、レンズ1310が第2位置に移動する。第2位置は、第1位置と異なる位置である。時刻‘t2’で、レンズ1310は、レンズ位置の制御信号に応答して第2位置に移動する。例として、第2位置は、固定された位置であってもよい。または、第2位置は、必要によって調節可能である位置であってもよい。第2位置は、多様に選択又は決定することができる。
図9を参照すれば、レンズ1310が第1位置から第2位置に移動される場合、レンズ1310とイメージセンサ1331との間の距離が近くなる。しかし、本発明は、図9によって限定されない。必要によって、レンズ1310が第1位置から第2位置に移動する場合、レンズ1310とイメージセンサ1331との間の距離が遠くなる。図9は、本発明の理解を助けるための例示である。
S170段階で、第2位相差PD2が算出される。位相差の算出部103は、イメージセンサ1331から第2位相信号PS2を受信する。位相差の算出部103は、第2位相信号PS2に基づいて第2位相差PD2を算出する。第2位相差PD2は、レンズ1310が第2位置にある時、イメージセンサ1331に結ばれた映像に関する位相差である。
S190段階で、深さマップDMが生成される。深さマップDMは、第1深さデータDD1及び第2深さデータDD2に基づいて生成される。深さマップの生成部104は、第1深さデータDD1及び第2深さデータDD2に基づいて深さマップDMを生成する。
さらに、図7乃至図9に対する説明で、レンズ1310が第1位置にある時、遂行される処理が完了した後、レンズ1310が第2位置に移動すると言及した。しかし、本発明の実施形態による処理の遂行の順序は、映像生成装置100の設計によって変更又は修正してもよい。
レンズ2310の構成及び機能は、図1乃至図9に対する説明で言及したレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ2310の構成及び機能に関する重複される説明は省略する。レンズ2310を通過した光は、イメージセンサチップ2330のイメージセンサ2331に提供される。
イメージセンサ2331の構成及び機能は、図1乃至図9に対する説明で言及されたイメージセンサ1331の構成及び機能を含む。説明を簡単にするため、イメージセンサ2331の構成及び機能に関する重複される説明は省略する。
位相差の算出部2333及び深さマップの生成部234の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部2333及び深さマップの生成部2334の構成及び機能に関する重複する説明は省略する。
映像信号の処理器2350の構成及び機能は、図1の映像信号の処理器1350の構成及び機能を含む。説明を簡単にするため、映像信号の処理器2350の構成及び機能に関する重複する説明は省略する。
但し、本発明は、図10によって限定されない。映像生成装置2300は、図10に示さない他の構成要素をさらに含むか、或いは図10に示した構成要素の中で1つ以上を含まなくともよい。図10は、映像生成装置2300の例示的な構成を示す。
レンズ3310の構成及び機能は、図1乃至図9に対する説明で言及されたレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ3310の構成及び機能に関する重複する説明は省略する。レンズ3310を通過した光は、イメージセンサチップ3330に提供される。
位相差の算出部3353及び深さマップの生成部3354の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部3353及び深さマップの生成部3354の構成及び機能に関する重複する説明は省略する。
但し、上記で言及したのと異なり、焦点の位置は、イメージセンサチップ3330で算出してもよい。イメージセンサチップ3330が他のレンズ位置の制御部を含む場合、イメージセンサチップ3330は、算出された焦点の位置にレンズ3310を移動させるためにレンズの駆動信号を生成する。本発明の実施形態は、図11に示したものと異なる構成に変更又は修正されてもよい。
但し、本発明は、図11の構成に限定されない。映像生成装置3300は、図11に示さない他の構成要素をさらに含むか、或いは図11に示した構成要素の中で1つ以上を含まなくともよい。図11は、映像生成装置3300の例示的な構成を示す。
レンズ4310の構成及び機能は、図1乃至図9に対する説明で言及したレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ4310の構成及び機能に関する重複する説明は省略する。レンズ4310を通過した光は、イメージセンサチップ4330に提供される。
映像信号の処理器4350は、客体に関する適切な映像を生成するために映像信号の処理を遂行する。映像信号の処理器4350の構成及び機能は、図1の映像信号の処理器1350の構成及び機能を含む。説明を簡単にするため、映像信号の処理器4350の構成及び機能に関する重複する説明は省略する。
位相差の算出部4373及び深さマップの生成部4374の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部4373及び深さマップの生成部4374の構成及び機能に関する重複する説明は省略する。
本発明は、図12によって限定されない。映像生成装置4300は、図12に示さない他の構成要素をさらに含むか、或いは図12に示した構成要素の中で1つ以上を含まなくともよい。図12は、映像生成装置4300の例示的な構成を示す。
位相差の算出部203、深さマップの生成部204、及び位相差の予測部206は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。または、位相差の算出部203、深さマップの生成部204、及び位相差の予測部206は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供されてもよい。
位相差の算出部203及び深さマップの生成部204の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部203及び深さマップの生成部204の構成及び機能に関する重複する説明は省略する。
位相差の予測部206は、第1位相差PD1に基づいて、第2位相差PD2として算出される値を予測する。位相差の予測部206は、予測された値PVを深さマップの生成部204に提供する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2と共に、予測された値PVを参照して深さマップDMを生成する。
例として、レンズ1310が第1位置から第2位置に移動することによって、第1位相差PD1は、第2位相差PD2より先に算出される。位相差の予測部206は、レンズ1310が第2位置に移動する前に予め第2位相差PD2として算出される値を予測する。または、位相差の予測部206は、レンズ1310が第2位置に移動する時、第2位相差PD2として算出される値を予測することもできる。但し、この例は、本発明の理解を助けるためのものであり、本発明を制限するためのものではない。
誤差を補正するための処理は、多様な方法で遂行することができる。実施形態として、誤差を補正するために、深さマップの生成部204は、予測された値PVと第2位相差PD2との間の差を参照して深さマップDMを生成する。例として、深さマップの生成部204は、予測された値PVと第2位相差PD2の平均に基づいて深さマップDMを生成することができる。
但し、上記で言及した実施形態は、本発明の理解を助けるための例示である。誤差を補正するための条件及び処理は、多様に変更又は修正することができる。本発明は、上記で言及した実施形態に限定されない。
位相差の算出部303、深さマップの生成部304、及び空間周波数の算出部307は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現するか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現することができる。または、位相差の算出部303、深さマップの生成部304、及び空間周波数の算出部307は、イメージセンサチップ1330及び映像信号の処理器1350に別個に提供することができる。
位相差の算出部303及び深さマップの生成部304の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部303及び深さマップの生成部304の構成及び機能に関する重複する説明は省略する。
映像の空間周波数は、その映像を生成するために撮影された客体に対して焦点が合ったか否かと関連する。客体に対する焦点がぼやけた時に撮影された映像の空間周波数の成分は、低い周波数領域に集中的に分布する。一方、客体に対する焦点が合った時に撮影された映像の空間周波数の成分は、低い周波数領域から高い周波数領域まで均一に分布する。
空間周波数の算出部307は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、レンズ1310が第1位置から第2位置に移動する時、空間周波数の値が変わった方向(即ち、高い周波数領域の空間周波数の成分の増加又は減少)を獲得する。空間周波数の算出部307は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、レンズ1310が第1位置から第2位置に移動する時、空間周波数の値が変わった量を獲得する。空間周波数の算出部307は、第1空間周波数の情報、第2空間周波数の情報、空間周波数の値が変わった方向、空間周波数の値が変わった量等を含む空間周波数の情報SFを深さマップの生成部304に提供する。
位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現することができる。または、位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
位相差の算出部403及び深さマップの生成部404の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部403及び深さマップの生成部404の構成及び機能に関する重複する説明は省略する。
例として、空間周波数の算出部407は、レンズ1310(図1参照)が第1位置にある時、生成された第1映像信号を処理することによって、客体を撮影した第1映像と関連した第1空間周波数の情報を生成する。空間周波数の算出部407は、レンズ1310が第2位置にある時、生成された第2映像信号を処理することによって、客体を撮影した第2映像と関連した第2空間周波数の情報を生成する。空間周波数の算出部407は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得する。
信頼度水準の算出部408は、第1位相差PD1に関する第1信頼度水準を算出する。信頼度水準の算出部408は、第2位相差PD2に関する第2信頼度水準を算出する。上記で言及したように、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む。信頼度水準の算出部408は、第1位相差PD1及び第2位相差PD2に含まれる誤差に関する信頼度水準RLを算出する。例として、誤差の大きさが小さいほど、信頼度水準が高くなる。
他の例として、レンズ1310が第1位置及び第2位置と異なる第3位置にある時、第3位相差がさらに生成される。信頼度水準の算出部408は、第1位相差PD1、第2位相差PD2、及び第3位相差を比較することによって、低い信頼度水準を有する位相差を選択する。さらに、信頼度水準の算出部408は、選択されない位相差に対して高い信頼度水準を算出することができる。
位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散して具現することができる。または、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
位相差の算出部503及び深さマップの生成部504の構成及び機能は、各々の図7乃至図9に対する説明で言及された位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部503及び深さマップの生成部504の構成及び機能に関する重複する説明は省略する。
位相差の予測部506は、第1位相差PD1に基づいて、第2位相差PD2として算出される値を予測する。位相差の予測部506は、予測された値PVを深さマップの生成部504に提供する。位相差の予測部506の構成及び機能は、図13の位相差の予測部206の構成及び機能を含む。説明を簡単にするため、位相差の予測部506の構成及び機能に関する重複する説明は省略する。
位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508の各々は、アナログ回路、論理回路等のハードウェアで具現することができる。または、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508の機能は、ソフトウェアによって具現することができる。
図17は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図17を参照すれば、映像生成装置600は、位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609を含む。
位相差の算出部603及び深さマップの生成部604の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部603及び深さマップの生成部604の構成及び機能に関する重複する説明は省略する。
上の例で、深さマップの後処理部609は、深さマップDM及び推定された深さデータに基づいて、変更された解像度を有する深さマップDM’を生成する。例として、深さマップDMの解像度を高めることによって、深さマップDM’は、客体映像のことと同一の解像度を有する。
CSIホスト5130は、CSIによってイメージセンサ5230のCSI装置5235と通信する。例として、CSIホスト5130には光デシリアライザDESが具現される。例として、CSI装置5235には光シリアライザSERが具現される。映像信号の処理器5150は、メモリ(例えば、ウォーキングメモリ5250又はアプリケーションプロセッサ5100に内装されたメモリ)及びバスを通じてCSIホスト5130と通信する。
各々のブロック図に示した装置構成は、発明の理解を助けるためのものである。各々のブロックは、機能によってさらに小さい単位のブロックに形成される。または複数のブロックは、機能によってさらに大きい単位のブロックを形成することができる。即ち、本発明の技術思想は、ブロック図として図示された構成によって限定されない。
したがって、本発明の本質的な特性を逸脱しない範囲内で修正又は変形された技術思想は、本発明が請求する保護範囲に含まれるものである。また、本発明の保護範囲は、上記の実施形態に限定されるものではない。
103 位相差の算出部
104 深さマップの生成部
200 映像生成装置
203 位相差の算出部
204 深さマップの生成部
206 位相差の予測部
300 映像生成装置
303 位相差の算出部
304 深さマップの生成部
307 空間周波数の算出部
400 映像生成装置
403 位相差の算出部
404 深さマップの生成部
407 空間周波数の算出部
408 信頼度水準の算出部
500 映像生成装置
503 位相差の算出部
504 深さマップの生成部
506 位相差の予測部
507 空間周波数の算出部
508 信頼度水準の算出部
600 映像生成装置
603 位相差の算出部
604 深さマップの生成部
609 深さマップの後処理部
1000 映像生成システム
1100 客体
1300 映像生成装置
1310 レンズ
1330 イメージセンサチップ
1331 イメージセンサ
1350 映像信号の処理器
2300 映像生成装置
2310 レンズ
2330 イメージセンサチップ
2331 イメージセンサ
2332 レンズ駆動部
2333 位相差の算出部
2334 深さマップの生成部
2350 映像信号の処理器
3300 映像生成装置
3310 レンズ
3330 イメージセンサチップ
3350 映像信号の処理器
3353 位相差の算出部
3354 深さマップの生成部
3355 レンズの位置制御部
4300 映像生成装置
4310 レンズ
4330 イメージセンサチップ
4350 映像信号の処理器
4373 位相差の算出部
4374 深さマップの生成部
5000 電子システム
5100 アプリケーションプロセッサ
5110 DigRFマスター
5120 DSIホスト
5130 CSIホスト
5140 物理階層
5150 映像信号の処理器
5220 ディスプレイ
5225 DSI装置
5230 イメージセンサ
5235 CSI装置
5240 RFチップ
5242 物理階層
5244 DigRFスレーブ
5246 アンテナ
5250 ウォーキングメモリ
5255 埋め込み型/カードストレージ
5260 Wimax
5262 WLAN
5264 UWB
5270 スピーカ
5275 マイク
5280 GPS
5290 ブリッジチップ
Claims (24)
- 客体に対応する映像信号を生成するように構成される複数のイメージセンサピクセル、及び映像の間の位相差が算出されるために利用される第1及び第2位相信号を生成するように構成される複数の位相検出ピクセルを含むイメージセンサと、
レンズと前記客体との間の距離を調節するために前記レンズの位置を調節するように構成されるレンズ駆動部と、
前記レンズが第1位置にある時、生成された前記第1位相信号に基づいて第1位相差を算出し、前記レンズが前記第1位置と異なる第2位置にある時、生成された前記第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部と、
前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部と、を含む映像生成装置。 - 前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含む請求項1に記載の映像生成装置。
- 前記レンズが前記レンズ駆動部の制御によって前記第1位置から前記第2位置に移動することによって、前記第1位相差は、前記第2位相差より先に算出され、
前記位相差の予測部は、前記レンズが前記第2位置に移動する前、又は移動する時、前記第2位相差として算出される値を予測するように構成される請求項2に記載の映像生成装置。 - 前記位相差の予測部によって予測された値と前記位相差の算出部によって算出された前記第2位相差との間の差が基準値より大きい場合、前記深さマップの生成部は、前記差を参照して前記深さマップを生成するように構成される請求項2に記載の映像生成装置。
- 前記複数の位相検出ピクセルの各々は、前記複数のイメージセンサピクセルの中で2つのイメージセンサピクセルに対応するように構成される請求項1に記載の映像生成装置。
- 前記複数の位相検出ピクセルは、前記複数のイメージセンサピクセルと重畳されないように前記複数のイメージセンサピクセルの位置と異なる位置に配置される請求項1に記載の映像生成装置。
- 前記映像信号を処理することによって、前記客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含む請求項1に記載の映像生成装置。
- 前記空間周波数の算出部は、前記レンズが前記第1位置にある時、第1空間周波数の情報を生成し、前記レンズが前記第2位置にある時、第2空間周波数の情報を生成するように構成される請求項7に記載の映像生成装置。
- 前記空間周波数の算出部は、前記第1及び第2空間周波数の情報に基づいて、前記レンズが前記第1位置から前記第2位置に移動する時、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得するようにさらに構成され、
前記深さマップの生成部は、前記空間周波数の値が変わった方向及び量の中で少なくとも1つを参照して前記深さマップを生成するように構成される請求項8に記載の映像生成装置。 - 前記イメージセンサ、前記レンズ駆動部、前記位相差の算出部、及び前記深さマップの生成部は、1つのイメージセンサチップに具現される請求項1に記載の映像生成装置。
- イメージセンサに含まれる複数の位相検出ピクセルによって生成された第1及び第2位相信号を受信し、客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、生成された前記第1位相信号に基づいて第1位相差を算出し、前記レンズが前記第1位置と異なる第2位置にある時、生成された前記第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部と、
前記第1及び第2位相差の中で少なくとも1つに基づいて前記客体に対する焦点を合わせるための前記レンズの焦点位置を算出し、前記レンズを前記焦点の位置に移動させるためにレンズの駆動信号を生成するように構成されるレンズ位置の制御部と、
前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部と、を含む映像生成装置。 - 前記第1位置及び前記第2位置の中で1つは、前記焦点の位置に対応する請求項11に記載の映像生成装置。
- 前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部と、
前記イメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号を処理することによって、前記客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部と、をさらに含む請求項11に記載の映像生成装置。 - 前記位相差の予測部によって予測された値、前記位相差の算出部によって算出された前記第2位相差、及び前記レンズが前記第1位置から前記第2位置に移動する時、空間周波数の値が変わった方向の中で少なくとも1つに基づいて、前記第1位相差に関する第1信頼度水準及び前記第2位相差に関する第2信頼度水準が算出されるように構成される信頼度水準の算出部をさらに含む請求項13に記載の映像生成装置。
- 前記深さマップの生成部は、前記第1及び第2深さデータに前記第1及び第2信頼度水準を反映することによって、前記深さマップを生成するように構成される請求項14に記載の映像生成装置。
- 前記イメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号に基づいて生成された客体映像、及び前記深さマップに対して映像整合を遂行することによって、前記深さマップの解像度を変更させるように構成される深さマップの後処理部をさらに含む請求項11に記載の映像生成装置。
- 前記位相差の算出部、前記レンズ位置の制御部、及び前記深さマップの生成部は、アプリケーションプロセッサを含む演算処理装置に具現される請求項11に記載の映像生成装置。
- 深さマップを生成するように構成される映像生成装置において、
客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、複数の位相検出ピクセルによって生成された第1位相信号及び前記レンズが前記第1位置と異なる第2位置にある時、前記複数の位相検出ピクセルによって生成された第2位相信号の各々に基づいて第1及び第2位相差が算出されるように構成される位相差の算出部と、
前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて前記深さマップを生成するように構成される深さマップの生成部と、を含む映像生成装置。 - 前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含み、
前記位相差の予測部によって予測された値が前記位相差の算出部によって算出された前記第2位相差と異なる場合、
前記位相差の算出部は、前記レンズが前記第1及び第2位置と異なる第3位置にある時、前記複数の位相検出ピクセルによって生成された第3位相信号に基づいて第3位相差が算出されるようにさらに構成され、
前記深さマップの生成部は、前記第3位相差に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第3深さデータを生成し、前記第1乃至第3深さデータに基づいて前記深さマップを生成するようにさらに構成される請求項18に記載の映像生成装置。<}100{>前記深さマップの生成部は、前記第3位相差に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第3深さデータを生成し、前記第1乃至第3深さデータに基づいて前記深さマップを生成するようにさらに構成される請求項18に記載の映像生成装置。 - 前記レンズが前記第1位置にある時、複数のイメージセンサピクセルによって生成された第1映像信号を処理することによって、前記客体を撮影した第1映像と関連された第1空間周波数の情報を生成し、前記レンズが前記第2位置にある時、前記複数のイメージセンサピクセルによって生成された第2映像信号を処理することによって、前記客体を撮影した第2映像と関連された第2空間周波数の情報を生成し、前記第1及び第2空間周波数の情報に基づいて空間周波数の値が変わった方向を獲得するように構成される空間周波数の算出部と、
前記空間周波数の値が変わった方向に基づいて、前記第1位相差に関する第1信頼度水準及び前記第2位相差に関する第2信頼度水準が算出されるように構成される信頼度水準の算出部と、をさらに含み、
前記深さマップの生成部は、前記第1及び第2深さデータに前記第1及び第2信頼度水準を反映することによって、前記深さマップを生成するように構成される請求項18に記載の映像生成装置。 - 客体に対応する映像信号を生成するように構成される複数のイメージセンサピクセル、及び第1及び第2位相信号を生成するように構成される複数の位相検出ピクセルを含むイメージセンサと、
前記イメージセンサの位置を基準に移動するように構成されるレンズと、
コンピュータに読み出される命令語を格納するメモリと、
前記命令語を実行するように構成される1つ以上のプロセッサと、を含み、
前記1つ以上のプロセッサは、前記命令語を実行して、
前記レンズが前記イメージセンサに対して第1位置にある時、生成される前記第1位相信号に基づいて第1位相差を決定し、
前記レンズが前記イメージセンサに対して第2位置にある時、生成される前記第2位相信号に基づいて第2位相差を決定し、
前記第1及び第2位相差に基づいて各々の第1及び第2深さデータを生成し、
前記第1及び第2深さデータに基づいて深さマップを生成するように構成され、
前記第1及び第2深さデータの各々は、前記複数の位相検出ピクセルと前記客体との間の距離を示す映像生成装置。 - 前記イメージセンサに対する前記レンズの位置を選択的に調節するように構成されるレンズ駆動部をさらに含む請求項21に記載の映像生成装置。
- 前記1つ以上のプロセッサは、前記第1位相差に基づいて前記第2位相差の値を予測するようにさらに構成される請求項22に記載の映像生成装置。
- 前記1つ以上のプロセッサは、
前記レンズ駆動部の制御によって前記レンズが前記第1位置から前記第2位置に移動することによって、前記第2位相差が算出される前に、前記第1位相差を算出し、
前記レンズ駆動部の制御によって前記レンズが前記第2位置に移動する前、又は移動する間に、前記第2位相差の値を予測するように構成される請求項23に記載の映像生成装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150022298A KR102272254B1 (ko) | 2015-02-13 | 2015-02-13 | 위상 검출 픽셀을 이용하여 깊이 맵을 생성하기 위한 영상 생성 장치 |
KR10-2015-0022298 | 2015-02-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016149765A true JP2016149765A (ja) | 2016-08-18 |
JP6731738B2 JP6731738B2 (ja) | 2020-07-29 |
Family
ID=56551790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016017442A Active JP6731738B2 (ja) | 2015-02-13 | 2016-02-01 | 位相検出ピクセルを利用して深さマップを生成するための映像生成装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10337861B2 (ja) |
JP (1) | JP6731738B2 (ja) |
KR (1) | KR102272254B1 (ja) |
CN (1) | CN105898281B (ja) |
DE (1) | DE102016100031A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018056515A1 (ko) * | 2016-09-22 | 2018-03-29 | 엘지전자 주식회사 | 차량용 카메라 장치 및 방법 |
WO2018164411A1 (ko) * | 2017-03-07 | 2018-09-13 | 삼성전자 주식회사 | 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10148864B2 (en) * | 2015-07-02 | 2018-12-04 | Pixart Imaging Inc. | Imaging device having phase detection pixels and regular pixels, and operating method thereof |
CN108352393B (zh) | 2015-07-23 | 2022-09-16 | 光程研创股份有限公司 | 高效宽光谱传感器 |
EP3370259B1 (en) | 2015-08-04 | 2020-03-11 | Artilux Inc. | Germanium-silicon light sensing apparatus |
US10861888B2 (en) | 2015-08-04 | 2020-12-08 | Artilux, Inc. | Silicon germanium imager with photodiode in trench |
US10707260B2 (en) | 2015-08-04 | 2020-07-07 | Artilux, Inc. | Circuit for operating a multi-gate VIS/IR photodiode |
US10761599B2 (en) | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
US9893112B2 (en) | 2015-08-27 | 2018-02-13 | Artilux Corporation | Wide spectrum optical sensor |
RU2679011C1 (ru) | 2015-09-16 | 2019-02-05 | Кэнон Кабусики Кайся | Датчик изображения и устройство захвата изображения |
GB2598525B (en) | 2015-09-16 | 2022-06-01 | Canon Kk | Image sensor and image capturing apparatus |
JP6664177B2 (ja) * | 2015-09-28 | 2020-03-13 | キヤノン株式会社 | 焦点検出装置、予測方法、プログラム及び記憶媒体 |
US10739443B2 (en) | 2015-11-06 | 2020-08-11 | Artilux, Inc. | High-speed light sensing apparatus II |
US10254389B2 (en) | 2015-11-06 | 2019-04-09 | Artilux Corporation | High-speed light sensing apparatus |
US10418407B2 (en) | 2015-11-06 | 2019-09-17 | Artilux, Inc. | High-speed light sensing apparatus III |
US10886309B2 (en) | 2015-11-06 | 2021-01-05 | Artilux, Inc. | High-speed light sensing apparatus II |
US10741598B2 (en) | 2015-11-06 | 2020-08-11 | Atrilux, Inc. | High-speed light sensing apparatus II |
JP6786253B2 (ja) * | 2016-04-15 | 2020-11-18 | キヤノン株式会社 | 撮像システム、情報処理装置、撮像システムの制御方法、情報処理装置の制御方法、及びプログラム |
EP3518532B1 (en) * | 2016-09-23 | 2021-08-25 | Nippon Telegraph and Telephone Corporation | Image generating device, image generating method, data structure, and program |
CN106996938A (zh) * | 2017-03-07 | 2017-08-01 | 天津大学 | 超宽带微波目标检测的fpga成像系统 |
US10419664B2 (en) * | 2017-12-28 | 2019-09-17 | Semiconductor Components Industries, Llc | Image sensors with phase detection pixels and a variable aperture |
US10410374B2 (en) * | 2017-12-28 | 2019-09-10 | Semiconductor Components Industries, Llc | Image sensors with calibrated phase detection pixels |
WO2019165220A1 (en) | 2018-02-23 | 2019-08-29 | Artilux, Inc. | Photo-detecting apparatus and photo-detecting method thereof |
US11105928B2 (en) | 2018-02-23 | 2021-08-31 | Artilux, Inc. | Light-sensing apparatus and light-sensing method thereof |
US10595007B2 (en) * | 2018-03-21 | 2020-03-17 | Himax Imaging Limited | Structured-light method and system of dynamically generating a depth map |
WO2019199691A1 (en) | 2018-04-08 | 2019-10-17 | Artilux, Inc. | Photo-detecting apparatus |
KR102185320B1 (ko) * | 2018-04-20 | 2020-12-01 | 알바이오텍 주식회사 | 사용자의 운동 자세 분석을 위한 이미지 생성 장치 |
CN108648222B (zh) * | 2018-04-27 | 2021-08-17 | 华中科技大学 | 结构光深度数据空间分辨率的提升方法及装置 |
US10854770B2 (en) | 2018-05-07 | 2020-12-01 | Artilux, Inc. | Avalanche photo-transistor |
US10969877B2 (en) | 2018-05-08 | 2021-04-06 | Artilux, Inc. | Display apparatus |
US10410368B1 (en) * | 2018-09-27 | 2019-09-10 | Qualcomm Incorporated | Hybrid depth processing |
KR102561533B1 (ko) * | 2018-09-28 | 2023-07-31 | 엘지이노텍 주식회사 | 카메라 장치 |
JP7036227B2 (ja) * | 2018-11-19 | 2022-03-15 | 日本電気株式会社 | 画像処理方法および画像処理装置 |
US11367390B2 (en) * | 2018-12-24 | 2022-06-21 | Novatek Microelectronics Corp. | Display apparatus and method for noise reduction |
US11544873B2 (en) * | 2019-03-05 | 2023-01-03 | Artilux, Inc. | High resolution 3D image processing apparatus and method thereof |
KR102648089B1 (ko) * | 2019-03-26 | 2024-03-19 | 삼성전자주식회사 | 이미징 장치 및 이미지 센서 |
CN112862880A (zh) * | 2019-11-12 | 2021-05-28 | Oppo广东移动通信有限公司 | 深度信息获取方法、装置、电子设备和存储介质 |
KR20210108082A (ko) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | 위상 차를 이용하는 라이브니스 검출 방법 및 장치 |
US11694480B2 (en) * | 2020-07-27 | 2023-07-04 | Samsung Electronics Co., Ltd. | Method and apparatus with liveness detection |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090122297A1 (en) * | 2007-11-14 | 2009-05-14 | Stanley Electric Co., Ltd. | Range image generating apparatus |
JP2011237585A (ja) * | 2010-05-10 | 2011-11-24 | Canon Inc | 撮像装置及びその制御方法 |
JP2012058665A (ja) * | 2010-09-13 | 2012-03-22 | Sony Corp | 顕微鏡制御装置及び処理範囲決定方法 |
JP2012124555A (ja) * | 2010-12-06 | 2012-06-28 | Canon Inc | 撮像装置 |
JP2012124791A (ja) * | 2010-12-10 | 2012-06-28 | Sony Corp | 撮像素子および撮像装置 |
CN103181156A (zh) * | 2011-07-12 | 2013-06-26 | 三星电子株式会社 | 模糊处理装置及方法 |
US20130242111A1 (en) * | 2011-07-12 | 2013-09-19 | Samsung Electronics Co., Ltd. | Device and method for blur processing |
JP2014029353A (ja) * | 2012-07-31 | 2014-02-13 | Sony Corp | 焦点調整装置および焦点調整方法 |
JP2014179939A (ja) * | 2013-03-15 | 2014-09-25 | Sony Corp | 信号処理装置および信号処理方法 |
JP2015015704A (ja) * | 2013-06-07 | 2015-01-22 | キヤノン株式会社 | 測距装置、撮像装置及び測距装置の制御方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090080876A1 (en) | 2007-09-25 | 2009-03-26 | Mikhail Brusnitsyn | Method For Distance Estimation Using AutoFocus Image Sensors And An Image Capture Device Employing The Same |
JP5146295B2 (ja) | 2008-12-15 | 2013-02-20 | ソニー株式会社 | 撮像装置および合焦制御方法 |
JP5178553B2 (ja) | 2009-01-27 | 2013-04-10 | オリンパス株式会社 | 撮像装置 |
JP5424679B2 (ja) | 2009-03-18 | 2014-02-26 | キヤノン株式会社 | 撮像装置及び信号処理装置 |
JP5361598B2 (ja) | 2009-07-30 | 2013-12-04 | キヤノン株式会社 | 焦点調節装置及び方法、及び撮像装置 |
JP5493010B2 (ja) * | 2010-11-30 | 2014-05-14 | 富士フイルム株式会社 | 撮像装置及びその合焦位置検出方法 |
JP2012124553A (ja) | 2010-12-06 | 2012-06-28 | Canon Inc | 撮影システムおよびレンズ装置 |
JP2012173531A (ja) | 2011-02-22 | 2012-09-10 | Sony Corp | 撮像装置、およびフォーカス制御方法、並びにプログラム |
JP5615756B2 (ja) | 2011-03-31 | 2014-10-29 | 富士フイルム株式会社 | 撮像装置及び撮像プログラム |
JP2012230258A (ja) | 2011-04-26 | 2012-11-22 | Canon Inc | 撮像装置及びその制御方法 |
JP6029309B2 (ja) * | 2011-06-22 | 2016-11-24 | キヤノン株式会社 | 焦点検出装置 |
GB2492848A (en) * | 2011-07-15 | 2013-01-16 | Softkinetic Sensors Nv | Optical distance measurement |
JP5800187B2 (ja) | 2011-08-16 | 2015-10-28 | リコーイメージング株式会社 | 撮像装置および距離情報取得方法 |
US20140036861A1 (en) * | 2012-08-03 | 2014-02-06 | Institute For Information Industry | High-power base station and low-power base station for use in hererogeneous network and transmission methods thereof |
JP6239862B2 (ja) | 2013-05-20 | 2017-11-29 | キヤノン株式会社 | 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置 |
KR102082703B1 (ko) * | 2013-06-13 | 2020-02-28 | 엘지전자 주식회사 | 깊이 영상 획득 장치 및 방법 |
US10230934B2 (en) * | 2013-06-14 | 2019-03-12 | Microsoft Tehcnology Licensing, Llc | Depth map correction using lookup tables |
JP2015033103A (ja) | 2013-08-07 | 2015-02-16 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR20150022298A (ko) | 2013-08-22 | 2015-03-04 | 주식회사 온세텔레콤 | 자동 콜 다이얼링을 이용한 결제 확인 시스템 및 방법 |
ITTO20130784A1 (it) * | 2013-09-30 | 2015-03-31 | Sisvel Technology Srl | Method and device for edge shape enforcement for visual enhancement of depth image based rendering |
US9823352B2 (en) * | 2014-10-31 | 2017-11-21 | Rockwell Automation Safety Ag | Absolute distance measurement for time-of-flight sensors |
-
2015
- 2015-02-13 KR KR1020150022298A patent/KR102272254B1/ko active IP Right Grant
- 2015-12-09 US US14/963,753 patent/US10337861B2/en active Active
-
2016
- 2016-01-04 DE DE102016100031.0A patent/DE102016100031A1/de active Pending
- 2016-02-01 JP JP2016017442A patent/JP6731738B2/ja active Active
- 2016-02-02 CN CN201610074226.5A patent/CN105898281B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090122297A1 (en) * | 2007-11-14 | 2009-05-14 | Stanley Electric Co., Ltd. | Range image generating apparatus |
JP2009124398A (ja) * | 2007-11-14 | 2009-06-04 | Stanley Electric Co Ltd | 距離画像生成装置 |
JP2011237585A (ja) * | 2010-05-10 | 2011-11-24 | Canon Inc | 撮像装置及びその制御方法 |
JP2012058665A (ja) * | 2010-09-13 | 2012-03-22 | Sony Corp | 顕微鏡制御装置及び処理範囲決定方法 |
JP2012124555A (ja) * | 2010-12-06 | 2012-06-28 | Canon Inc | 撮像装置 |
JP2012124791A (ja) * | 2010-12-10 | 2012-06-28 | Sony Corp | 撮像素子および撮像装置 |
CN103181156A (zh) * | 2011-07-12 | 2013-06-26 | 三星电子株式会社 | 模糊处理装置及方法 |
US20130242111A1 (en) * | 2011-07-12 | 2013-09-19 | Samsung Electronics Co., Ltd. | Device and method for blur processing |
JP2014528059A (ja) * | 2011-07-12 | 2014-10-23 | サムスン エレクトロニクス カンパニー リミテッド | ブラー処理装置及び方法 |
JP2014029353A (ja) * | 2012-07-31 | 2014-02-13 | Sony Corp | 焦点調整装置および焦点調整方法 |
JP2014179939A (ja) * | 2013-03-15 | 2014-09-25 | Sony Corp | 信号処理装置および信号処理方法 |
JP2015015704A (ja) * | 2013-06-07 | 2015-01-22 | キヤノン株式会社 | 測距装置、撮像装置及び測距装置の制御方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018056515A1 (ko) * | 2016-09-22 | 2018-03-29 | 엘지전자 주식회사 | 차량용 카메라 장치 및 방법 |
WO2018164411A1 (ko) * | 2017-03-07 | 2018-09-13 | 삼성전자 주식회사 | 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법 |
KR20180102331A (ko) * | 2017-03-07 | 2018-09-17 | 삼성전자주식회사 | 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법 |
US11196945B2 (en) | 2017-03-07 | 2021-12-07 | Samsung Electronics Co., Ltd | Electronic device including camera module and method for controlling electronic device |
KR102392751B1 (ko) * | 2017-03-07 | 2022-04-29 | 삼성전자 주식회사 | 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
DE102016100031A1 (de) | 2016-08-18 |
KR20160099948A (ko) | 2016-08-23 |
US10337861B2 (en) | 2019-07-02 |
JP6731738B2 (ja) | 2020-07-29 |
KR102272254B1 (ko) | 2021-07-06 |
CN105898281A (zh) | 2016-08-24 |
US20160239974A1 (en) | 2016-08-18 |
CN105898281B (zh) | 2019-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6731738B2 (ja) | 位相検出ピクセルを利用して深さマップを生成するための映像生成装置 | |
US10326981B2 (en) | Generating 3D images using multi-resolution camera set | |
CN109151301B (zh) | 包括相机模块的电子装置 | |
CN109792478B (zh) | 基于焦点目标信息调整焦点的装置和方法 | |
CN108702437B (zh) | 计算深度图的方法、系统、设备和存储介质 | |
US9900584B2 (en) | Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters | |
JP5980294B2 (ja) | データ処理装置、撮像装置、およびデータ処理方法 | |
US10558881B2 (en) | Parallax minimization stitching method and apparatus using control points in overlapping region | |
US9729857B2 (en) | High resolution depth map computation using multiresolution camera clusters for 3D image generation | |
BR102012030034A2 (pt) | Sistema e método para gerar um mapa de profundidade bruto | |
CN112930677B (zh) | 用于在第一镜头和第二镜头之间切换的方法和电子设备 | |
JP2014098898A (ja) | 多重解像度Depth−From−Defocusベースのオートフォーカス | |
TWI557688B (zh) | 利用散焦方形影像執行景深估測的系統與方法 | |
JP2017527042A (ja) | 深度マップの改善 | |
US11699218B2 (en) | Method controlling image sensor parameters | |
CN109661815A (zh) | 存在相机阵列的显著强度变化的情况下的鲁棒视差估计 | |
WO2017117743A1 (zh) | 处理图像的方法和设备 | |
US10339665B2 (en) | Positional shift amount calculation apparatus and imaging apparatus | |
JP5927265B2 (ja) | 画像処理装置及びプログラム | |
US9621780B2 (en) | Method and system of curve fitting for common focus measures | |
WO2016194576A1 (ja) | 情報処理装置および方法 | |
KR20220122317A (ko) | 오토 줌 및 오토 포커스를 수행하는 이미지 시그널 프로세서, 이미지 시그널 프로세서의 이미지 프로세싱 방법 및 이미지 프로세싱 시스템 | |
US20220224813A1 (en) | Method of Controlling a Portable Device and a Portable Device | |
WO2022213311A1 (en) | Camera autofocus using depth sensor | |
JP2016162376A (ja) | 画像処理装置、撮像装置、および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20161222 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6731738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |