JP7498703B2 - Method for acquiring depth information and camera module - Google Patents

Method for acquiring depth information and camera module Download PDF

Info

Publication number
JP7498703B2
JP7498703B2 JP2021517366A JP2021517366A JP7498703B2 JP 7498703 B2 JP7498703 B2 JP 7498703B2 JP 2021517366 A JP2021517366 A JP 2021517366A JP 2021517366 A JP2021517366 A JP 2021517366A JP 7498703 B2 JP7498703 B2 JP 7498703B2
Authority
JP
Japan
Prior art keywords
phase
light
pixel
period
camera module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021517366A
Other languages
Japanese (ja)
Other versions
JP2022502652A (en
Inventor
キム,ウンソン
キム,ヒョンジン
パク,ジュウン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Innotek Co Ltd
Original Assignee
LG Innotek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Innotek Co Ltd filed Critical LG Innotek Co Ltd
Publication of JP2022502652A publication Critical patent/JP2022502652A/en
Application granted granted Critical
Publication of JP7498703B2 publication Critical patent/JP7498703B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本開示は、深さ情報を取得する方法及びカメラモジュールに関する。 The present disclosure relates to a method and a camera module for obtaining depth information.

光を出力してオブジェクトに反射させることで情報を取得する装置が様々な分野で利用されている。例えば、3Dカメラから距離測定手法に至るまで、光を出力して情報を取得する技術は様々な方式で利用されている。 Devices that emit light and reflect it off an object to obtain information are used in a variety of fields. For example, from 3D cameras to distance measurement methods, technology that emits light to obtain information is used in a variety of ways.

例えば、TOF(Time of Flight)は、光が出力された時点とオブジェクトに反射して戻ってきた受信光の受信時点の間の時間差を測定して距離を測定する原理を示す用語であって、TOF技術は、実現方法が簡単であるため、航空、造船、土木、カメラ、測量など様々な分野で利用されている。 For example, TOF (Time of Flight) is a term that refers to the principle of measuring distance by measuring the time difference between when light is emitted and when the light is reflected off an object and returned. TOF technology is easy to implement and is therefore used in a variety of fields, including aviation, shipbuilding, civil engineering, cameras, and surveying.

また、これと関連してハードウェア対比良い性能を有するカメラに対するニーズが増加している。 In connection with this, there is an increasing need for cameras with better hardware performance.

本開示は、一つ以上の実施例により深さ情報を取得する方法及びカメラモジュールを提供することができる。一実施例により、深さ情報を取得できるカメラモジュールにおいて第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する方法が開示される。カメラモジュールは、第1受信ピクセル及び第2受信ピクセルにおいて第1周期及び第2周期の間取得した光を利用して、オブジェクトに対する深さイメージを取得することができる。解決しようとする技術的課題は、前記のような技術的課題で限定されず、通常の技術者に自明な範囲内で多様な技術的課題がさらに含まれることができる。 The present disclosure may provide a method and a camera module for acquiring depth information according to one or more embodiments. According to one embodiment, a method for acquiring a depth image of an object using light acquired during a first period and a second period in a camera module capable of acquiring depth information is disclosed. The camera module may acquire a depth image of an object using light acquired during a first period and a second period in a first receiving pixel and a second receiving pixel. The technical problem to be solved is not limited to the above technical problem, and may further include various technical problems within a scope obvious to a person skilled in the art.

第1側面に係るカメラモジュールは、光をオブジェクトに出力する光源;前記オブジェクトから反射した光を受信ピクセルを介して受信するレシーバー;及び前記光源が出力した光と前記レシーバーが受信した光の位相差を利用して前記オブジェクトに対する深さ情報を取得するプロセッサ;を含み、前記受信ピクセルは、第1受信ピクセル及び第2受信ピクセルを含み、前記第1受信ピクセルは、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、前記第2受信ピクセルは、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信して、前記プロセッサは、前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得することができる。 The camera module according to the first aspect includes a light source that outputs light to an object; a receiver that receives light reflected from the object through a receiving pixel; and a processor that acquires depth information for the object using a phase difference between the light output by the light source and the light received by the receiver; the receiving pixels include a first receiving pixel and a second receiving pixel, the first receiving pixel receives light at a first phase point of a first period and a second phase point of a second period, respectively, and the second receiving pixel receives light at a third phase point of the first period and a fourth phase point of the second period, respectively, and the processor can acquire a depth image for the object using the information acquired during the first period and the second period.

さらに、前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なってもよい。 Furthermore, the first to fourth phase points may be different from each other and correspond to any of 0°, 90°, 180°, and 270°.

さらに、前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接することができる。 Furthermore, the first receiving pixel and the second receiving pixel can be adjacent to each other.

さらに、プロセッサは、前記第1受信ピクセルでの前記第3位相時点に対する情報を前記第1受信ピクセルと隣接したピクセルが、前記第3位相時点で取得した情報で補間することができる。 Furthermore, the processor may interpolate information for the first receiving pixel at the third phase point with information acquired at the third phase point by pixels adjacent to the first receiving pixel.

前記第3位相時点に対する情報は、前記第3位相時点に受信された光に対しての電荷量情報を含むことができる。 The information for the third phase point may include charge amount information for the light received at the third phase point.

さらに、前記プロセッサは、超解像手法(super resolution)を適用して解像度を高めることができる。 Additionally, the processor can apply super resolution techniques to increase resolution.

さらに、前記レシーバーは、前記受信ピクセルを区画して取得された第1ブロックと第2ブロックを含み、前記プロセッサは、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して前記深さ情報を取得することができる。 Furthermore, the receiver includes a first block and a second block obtained by dividing the receiving pixel, and the processor can obtain the depth information by using both the light received through the first block and the light received through the second block.

さらに、前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうちの一つのピクセルが重なってもよい。 Furthermore, two pixels included in the first block and one of two pixels included in the second block may overlap.

第2側面に係る深さ情報取得方法は、光をオブジェクトに出力するステップ;第1周期の第1位相時点に第1受信ピクセルを利用して光を受信して、第1周期の第3位相時点に第2受信ピクセルを利用して光を受信するステップ;第2周期の第2位相時点に第1受信ピクセルを利用して光を受信して、第2周期の第4位相時点に第2受信ピクセルを利用して光を受信するステップ;及び前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得するステップ;を含むことができる。 The depth information acquisition method according to the second aspect may include the steps of: outputting light to an object; receiving light using a first receiving pixel at a first phase point of a first period and receiving light using a second receiving pixel at a third phase point of the first period; receiving light using a first receiving pixel at a second phase point of a second period and receiving light using a second receiving pixel at a fourth phase point of the second period; and acquiring a depth image for the object using information acquired during the first period and the second period.

さらに、前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なってもよい。 Furthermore, the first to fourth phase points may be different from each other and correspond to any of 0°, 90°, 180°, and 270°.

さらに、前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接することができる。 Furthermore, the first receiving pixel and the second receiving pixel can be adjacent to each other.

さらに、前記第1受信ピクセルが、前記第1周期の間取得した光を利用して取得した深さ情報を前記第1受信ピクセルと斜めに隣接した一つ以上のピクセルが、前記第1周期の間取得した光に対しての情報を利用して補間するステップをさらに含むことができる。 The method may further include a step of interpolating depth information acquired by the first receiving pixel using light acquired during the first period with information on light acquired during the first period by one or more pixels diagonally adjacent to the first receiving pixel.

第3側面は、第2側面に係る方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することができる。 The third aspect can provide a computer-readable recording medium having a program recorded thereon for causing a computer to execute the method according to the second aspect.

本開示は一つ以上の実施例により深さ情報を取得する方法及びカメラモジュールを提供することができる。一実施例により、深さ情報を取得できるカメラモジュールにおいて第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する方法が開示される。 The present disclosure may provide a method and a camera module for acquiring depth information according to one or more embodiments. According to one embodiment, a method for acquiring a depth image of an object using light acquired during a first period and a second period in a camera module capable of acquiring depth information is disclosed.

一実施例に係るカメラモジュールの構成及び動作を示すブロック図である。1 is a block diagram showing a configuration and operation of a camera module according to an embodiment; 一実施例に係るカメラモジュールの断面図を図示する。1 illustrates a cross-sectional view of a camera module according to one embodiment. 一実施例に係るカメラモジュールが第1ピクセル及び第2ピクセルが第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する一例を図示する。1 illustrates an example in which a camera module according to an embodiment acquires a depth image for an object using light acquired by a first pixel and a second pixel during a first period and a second period. 図3に係るカメラモジュールの動作を時間の流れにより説明するタイミング図である。4 is a timing chart for explaining the operation of the camera module shown in FIG. 3 over time. 一実施例により第1周期の間第1ピクセルにphase0°の位相信号が印加されて、第2ピクセルにphase180°の位相信号が印加されて、第2周期の間第1ピクセルにphase90°の位相信号が印加されて、第2ピクセルにphase270°の位相信号が印加される一例を示す図面である。11 is a diagram showing an example in which a phase signal of phase 0° is applied to a first pixel during a first period and a phase signal of phase 180° is applied to a second pixel, and a phase signal of phase 90° is applied to the first pixel during a second period and a phase signal of phase 270° is applied to the second pixel according to one embodiment. 図5に係るカメラモジュールの動作を時間の流れにより説明するタイミング図である。6 is a timing chart for explaining the operation of the camera module in FIG. 5 over time. 一実施例により第1周期の間第1ピクセルにphase0°の位相信号が印加されて、第2ピクセルにphase90°の位相信号が印加されて、第2周期の間第1ピクセルにphase270°の位相信号が印加されて、第2ピクセルにphase180°の位相信号が印加される一例を示す図面である。11 is a diagram showing an example in which a phase signal of phase 0° is applied to a first pixel during a first period, a phase signal of phase 90° is applied to a second pixel, and a phase signal of phase 270° is applied to the first pixel during a second period, and a phase signal of phase 180° is applied to the second pixel according to one embodiment. 図7に係るカメラモジュールの動作を時間の流れにより説明するタイミング図である。8 is a timing chart for explaining the operation of the camera module in FIG. 7 over time. 一実施例により第1ピクセル及び第2ピクセルが横に隣接する一例を示す図面である。4 is a diagram illustrating an example in which a first pixel and a second pixel are horizontally adjacent to each other, according to an embodiment. 一実施例により第1ピクセル及び第3ピクセルが横に隣接して、第2ピクセル及び第4ピクセルが横に隣接して、カメラモジュールが動作する一例を示す図面である。1 is a diagram illustrating an example in which a camera module operates with a first pixel and a third pixel horizontally adjacent to each other and a second pixel and a fourth pixel horizontally adjacent to each other, according to an embodiment. カメラモジュールが、超解像度(Super resolution)手法を利用してイメージの解像度を高める方法を示す図面である。1 is a diagram showing a method in which a camera module increases the resolution of an image using a super resolution technique. 一実施例により超解像度手法により解像度が高まる一例を説明するための図面である。1 is a diagram illustrating an example of how resolution is increased by a super-resolution method according to an embodiment; 一実施例により補間を行って解像度を高める一例を説明するための図面である。1 is a diagram illustrating an example of increasing resolution by performing interpolation according to an embodiment; 一実施例によりオブジェクトに対する深さ情報を取得する方法を示すフローチャートである。1 is a flow chart illustrating a method for obtaining depth information for an object according to one embodiment.

以下、添付された図面を参照して本発明の好ましい実施例を詳細に説明する。 The preferred embodiment of the present invention will now be described in detail with reference to the attached drawings.

ただし、本発明の技術思想は、説明される一部実施例に限定されず各々異なる様々な形態で具現されることができて、本発明の技術思想範囲内でなら、実施例間その構成要素中一つ以上を選択的に結合または置き換えて使うことができる。 However, the technical concept of the present invention is not limited to the embodiments described and may be embodied in various different forms, and one or more of the components of the embodiments may be selectively combined or substituted within the scope of the technical concept of the present invention.

さらに、本発明の実施例で使われる用語(技術及び科学的用語を含む)は、明白に特に定義されて記述されない限り、この発明が属する技術分野で通常の知識を有する者に通常理解できる意味と解釈され、予め定義された用語と共に通常使われる用語は、関連技術の文脈上の意味を考慮してその意味を解釈することができるはずである。 Furthermore, terms (including technical and scientific terms) used in the embodiments of the present invention shall be interpreted as having a meaning that is commonly understood by a person of ordinary skill in the art to which the present invention belongs, unless expressly defined and described otherwise, and terms commonly used in conjunction with predefined terms should be interpreted in light of the contextual meaning of the relevant art.

さらに、本発明の実施例で使われた用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。 Furthermore, the terms used in the embodiments of the present invention are intended to describe the embodiments and are not intended to limit the present invention.

本明細書で、単数型は文面で特に言及しない限り複数型も含むことができ、“A及び(と)B、C中少なくとも一つ(または一個以上)”と記載される場合、A、B、Cで組み合わせできるすべての組み合わせ中一つ以上を含むことができる。 In this specification, the singular can include the plural unless otherwise specified in the context, and when it says "A and/or at least one of B and C," it can include one or more of all possible combinations of A, B, and C.

さらに、本発明の実施例の構成要素を説明するにあたり、第1、第2、A、B、(a)、(b)等の用語を使うことができる。このような用語は、その構成要素を別の構成要素と区別するためのものであって、その用語によって該当構成要素の本質や順番または順序などで限定されない。 Furthermore, in describing components of the embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. Such terms are used to distinguish the components from other components, and are not intended to limit the nature, order, or sequence of the components.

なお、ある構成要素が別の構成要素に‘連結’、‘結合’、または‘接続’されると記載された場合、その構成要素はその別の構成要素に直接的に‘連結’、‘結合’、または‘接続’される場合だけでなく、その構成要素とその別の構成要素の間にあるさらに別の構成要素によって‘連結’、‘結合’、または‘接続’される場合も含むことができる。 When a component is described as being 'coupled', 'bonded' or 'connected' to another component, this includes not only the case where the component is directly 'coupled', 'bonded' or 'connected' to the other component, but also the case where the component is 'coupled', 'bonded' or 'connected' to the other component via yet another component between the component and the other component.

さらに、各構成要素の“上(の上)”または“下(の下)”に形成または配置されると記載される場合、“上(の上)”または“下(の下)”は、二つの構成要素が互いに直接接触する場合だけでなく、一つ以上のさらに別の構成要素が二つの構成要素の間に形成または配置される場合も含む。さらに、“上(の上)”または“下(下)”と表される場合、一つの構成要素を基準に上側方向だけでなく下側方向の意味も含まれることができる。 Furthermore, when described as being formed or disposed "above" or "below" each component, "above" or "below" includes not only the case where two components are in direct contact with each other, but also the case where one or more additional components are formed or disposed between the two components. Furthermore, when described as "above" or "below", it can include not only the upper direction but also the lower direction based on one component.

さらに、以下で記載される数値は、誤差に係る合理的な範囲内の数値と解釈されることができる。例えば、“1”と記載された数値が、“1.01”と解釈されることができる。 Furthermore, the numerical values described below can be interpreted as being within a reasonable range of error. For example, a numerical value described as "1" can be interpreted as "1.01."

以下では、図面を参照して本発明の実施例を詳細に説明する。以下で‘光’とは‘光信号’を含む概念と理解され、‘信号’とは‘光信号’を含む概念と理解されて、混用されて使われることができる。 Below, an embodiment of the present invention will be described in detail with reference to the drawings. Hereinafter, 'light' is understood as a concept including 'optical signal', and 'signal' is understood as a concept including 'optical signal', and the terms may be used interchangeably.

図1は、一実施例に係るカメラモジュール100の構成及び動作を示すブロック図である。 Figure 1 is a block diagram showing the configuration and operation of a camera module 100 according to one embodiment.

図1に示したように、カメラモジュール100は、光源1100、プロセッサ1000及びレシーバー120を含むことができる。 As shown in FIG. 1, the camera module 100 may include a light source 1100, a processor 1000, and a receiver 120.

しかし、図1に図示された構成要素外に他の汎用的な構成要素がカメラモジュール100にさらに含まれる可能性があることを関連技術分野で通常の知識を有する者なら理解できる。例えば、カメラモジュール100は、光源から出力された光が透過するディフューザー、光源1100に含まれる光変調器(図示せず)またはプロセッサ1000と連結されるメモリ(図示せず)等をさらに含むことができる。用語“メモリ”は、電子情報を格納可能な任意の電子コンポーネントを含むように広く解釈されることができる。用語メモリは、ランダムアクセスメモリ(RAM)、読み取り―専用メモリ(ROM)、非揮発性ランダムアクセスメモリ(NVRAM)、プログラム可能な読み取り-専用メモリ(PROM)、消去-プログラム可能な読み取り専用メモリ(EPROM)、電気的に消去可能なPROM(EEPROM)、フラッシュメモリ、磁気または光学データ格納装置、レジスター、などのようなプロセッサ-読み取り可能な媒体の多様な類型を指し示すこともできる。 However, a person of ordinary skill in the art will understand that the camera module 100 may further include other general components in addition to the components illustrated in FIG. 1. For example, the camera module 100 may further include a diffuser through which light output from the light source passes, a light modulator (not shown) included in the light source 1100, or a memory (not shown) coupled to the processor 1000. The term "memory" may be broadly interpreted to include any electronic component capable of storing electronic information. The term memory may also refer to various types of processor-readable media such as random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erasable programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, magnetic or optical data storage devices, registers, and the like.

プロセッサ1000が、メモリから情報を読み取る/メモリに情報を記録できるなら、メモリはプロセッサと電子通信状態にあるといえる。プロセッサ1000に集積されたメモリは、プロセッサと電子通信状態にある。 If the processor 1000 can read information from/write information to the memory, the memory is said to be in electronic communication with the processor. Memory integrated into the processor 1000 is in electronic communication with the processor.

さらに、メモリは、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDまたはXDメモリなど)、ラム(RAM,Random Access Memory) SRAM(Static Random Access Memory)、ロム(ROM,Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリ、磁気ディスク、光ディスク中少なくとも一つのタイプの格納媒体を含むことができる。 Furthermore, memory can be of a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (such as SD or XD memory), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), etc. It can include at least one type of storage medium: memory, magnetic memory, magnetic disk, or optical disk.

または、別の実施例に係る場合、図1に図示された構成要素のうち一部構成要素は、省略される可能性があることを関連技術分野で通常の知識を有する者なら理解できる。 Alternatively, a person having ordinary skill in the relevant art would understand that in other embodiments, some of the components illustrated in FIG. 1 may be omitted.

一実施例に係る光源1100は、光を出力することができる。光源1100から出力される光は、既設定された範囲内の波長であってもよい。 The light source 1100 according to one embodiment may output light. The light output from the light source 1100 may have a wavelength within a preset range.

光源1100は、例えば、赤外線波長を有する光、安全のために人間の目には見えない約850nmの近赤外線(NIR)波長を有する光を放出させることができる発光ダイオード(LED)またはレーザーダイオード(LD)であってもよいが、波長の帯域と光源の種類は制限を受けない。例えば、光源1100から出力する光の波長は、可視光線領域に含まれることもできて、紫外線領域に含まれることもできる。 The light source 1100 may be, for example, a light emitting diode (LED) or a laser diode (LD) capable of emitting light having an infrared wavelength or light having a near infrared (NIR) wavelength of about 850 nm that is invisible to the human eye for safety, but the wavelength band and type of light source are not limited. For example, the wavelength of the light output from the light source 1100 may be included in the visible light range or the ultraviolet light range.

プロセッサ1000から受信された制御信号により光源1100は、例えば大きさ(amplitude)変調または位相(phase)変調を行って光を出力することができる。 Depending on the control signal received from the processor 1000, the light source 1100 can output light by performing, for example, amplitude modulation or phase modulation.

プロセッサ1000の制御信号により光源1100からオブジェクト130に出力される光は、既設定周期を有する周期的な連続関数の形態を有することができる。例えば、光はサイン波、ランプ波、四角波、パルス波などのように特別に定義された波形を有することもできるが、定義されなかった通常の形態の波形を有することもできる。 The light output from the light source 1100 to the object 130 in response to the control signal from the processor 1000 may have the form of a periodic continuous function having a preset period. For example, the light may have a specifically defined waveform such as a sine wave, a ramp wave, a square wave, a pulse wave, etc., but may also have a waveform of an undefined, general form.

レシーバー120は、オブジェクト130で反射した光を受信することができる。レシーバー120が受信する受信光を介してカメラモジュール100は、様々な情報を取得することができる。 The receiver 120 can receive light reflected by the object 130. The camera module 100 can obtain various information through the light received by the receiver 120.

一実施例に係るカメラモジュール100は、受信光を介して、オブジェクト130に対する情報を取得することができる。例えば、プロセッサ1000は、オブジェクト130の形状、大きさ、色、深さなどオブジェクトに対する様々な情報を取得することができる。 The camera module 100 according to one embodiment can obtain information about the object 130 through the received light. For example, the processor 1000 can obtain various information about the object, such as the shape, size, color, and depth of the object 130.

レシーバー120は、レシーバー120に流入する様々な光のうち光源1100から出力された光が、オブジェクト130に反射して取得される受信光を区別することができる。例えば、光源1100が750nm~950nm範囲の光を出力する場合、レシーバー120は、フィルタリングを介して750nm~950nm範囲の光を選別的に取得することができる。さらに、レシーバー120は、光に対応する受信光を選別的に取得することによって、オブジェクト130に対する正確な情報を取得することができる。 The receiver 120 can distinguish between received light, which is acquired when light output from the light source 1100 is reflected by the object 130 among various light entering the receiver 120. For example, if the light source 1100 outputs light in the 750 nm to 950 nm range, the receiver 120 can selectively acquire light in the 750 nm to 950 nm range through filtering. Furthermore, the receiver 120 can acquire accurate information about the object 130 by selectively acquiring the received light corresponding to the light.

一実施例に係るカメラモジュール100は、ToF機能を利用して深さ情報を抽出することができるため、本開示でToFカメラモジュールまたはToFモジュールと混用されて理解される。 The camera module 100 according to one embodiment can extract depth information using a ToF function, and is therefore understood to be interchangeable with a ToF camera module or a ToF module in this disclosure.

光源1100は、出力する光を生成してオブジェクト130に照射することができる。この時、光源1100は、パルス波(pulse wave)の形態や持続波(continuous wave)の形態で光を生成して出力することができる。持続波は、サイン波(sinusoid wave)や四角波(squared wave)の形態であってもよい。光をパルス波や持続波形態で生成することによって、カメラモジュール100は、光源1100から出力された光とオブジェクトから反射した後、カメラモジュール100が受信した光間の位相差を決めることができる。 The light source 1100 may generate light to be output and irradiate it on the object 130. At this time, the light source 1100 may generate and output light in the form of a pulse wave or a continuous wave. The continuous wave may be in the form of a sine wave or a square wave. By generating light in the form of a pulse wave or a continuous wave, the camera module 100 may determine a phase difference between the light output from the light source 1100 and the light reflected from the object and received by the camera module 100.

光源1100は、生成された光を既設定露出周期の間オブジェクト130に照射することができる。露出周期とは、一つのフレーム周期を意味する。複数のフレームを生成する場合、設定された露出周期が繰り返されることができる。例えば、カメラモジュール100が、20FPSでオブジェクトを撮影する場合、露出周期は1/20[sec]となる。そして、100個のフレームを生成する場合、露出周期は100回繰り返されることになる。 The light source 1100 can irradiate the generated light to the object 130 for a preset exposure period. The exposure period means one frame period. When generating multiple frames, the set exposure period can be repeated. For example, when the camera module 100 captures an object at 20 FPS, the exposure period is 1/20 [sec]. And, when generating 100 frames, the exposure period is repeated 100 times.

光源1100は、互いに異なる周波数を有する複数の光を生成することができる。光源1100は、各々異なる周波数を有する複数の光を順次繰り返し生成することができる。または、光源1100は、互いに異なる周波数を有する複数の光を同時に生成することもできる。 The light source 1100 can generate multiple lights having different frequencies. The light source 1100 can sequentially generate multiple lights having different frequencies. Alternatively, the light source 1100 can simultaneously generate multiple lights having different frequencies.

一実施例に係る光源1100は、出力ピクセルを介して光をオブジェクト1100に出力することができる。光源1100は、出力ピクセルを含むことができ、出力ピクセルの各々は、互いに独立に光を出力することができる。例えば、出力ピクセルは、互いに異なる強さの光が出力できて、互いに異なる周波数の光が出力できて、互いに異なる位相の光が出力できて、互いに異なるディレイタイムを有する光を出力することができる。各出力ピクセルは、発光ダイオードを含むことができる。 The light source 1100 according to one embodiment may output light to the object 1100 through output pixels. The light source 1100 may include output pixels, each of which may output light independently of one another. For example, the output pixels may output light of different intensities, may output light of different frequencies, may output light of different phases, and may output light having different delay times. Each output pixel may include a light emitting diode.

一実施例に係るレシーバー120は、受信ピクセルを介して光を受信することができる。レシーバー120は、光源1100から出力された光が、オブジェクト130に反射して取得される反射光を受信することができる。レシーバー120は、受信ピクセルを含むことができ、受信ピクセルの各々は、互いに独立に光を受信することができる。例えば、受信ピクセルは、互いに異なるタイミングで光を受信できて、互いに異なるフィルタリング方式で光を受信することができる。 The receiver 120 according to one embodiment may receive light through a receiving pixel. The receiver 120 may receive reflected light obtained when light output from the light source 1100 is reflected by the object 130. The receiver 120 may include receiving pixels, each of which may receive light independently of the other. For example, the receiving pixels may receive light at different times and in different filtering methods.

一実施例に係るレシーバー120は、レンズ(図示せず)及びイメージセンサーを含むことができる。レンズは、オブジェクト130から反射した光を集光してイメージセンサー(図示せず)に伝達することができる。イメージセンサーは、光を受信して、受信した光に対応する電気信号を生成することができる。 The receiver 120 according to one embodiment may include a lens (not shown) and an image sensor. The lens may collect light reflected from the object 130 and transmit the light to the image sensor (not shown). The image sensor may receive the light and generate an electrical signal corresponding to the received light.

一実施例によると、光源1100は、時間の流れにより異なる周波数の光を出力することができる。例えば、光源1100は、露出周期の初半分の間は、周波数f1の光を出力して、残りの半分の露出周期の間は、周波数f2の光を出力することができる。 According to one embodiment, the light source 1100 can output light of different frequencies over time. For example, the light source 1100 can output light of frequency f1 during the first half of an exposure period and output light of frequency f2 during the second half of the exposure period.

一実施例によると、光源1100に含まれた複数の発光ダイオードのうち一部発光ダイオードは、周波数f1の光を出力して、残りの発光ダイオードは、周波数f2の光を出力することができる。 According to one embodiment, some of the multiple light emitting diodes included in the light source 1100 may output light of frequency f1, and the remaining light emitting diodes may output light of frequency f2.

光源1100に含まれた複数の発光ダイオードを制御するため、光源1100は、光変調器を含むことができる。 To control the multiple light emitting diodes included in the light source 1100, the light source 1100 may include an optical modulator.

光源1100は、光を生成することができる。光源1100が生成する光は、波長が770乃至3000nmである赤外線であってもよく、波長が380乃至770nmである可視光線であってもよい。光源1100は、発光ダイオード(Light Emitting Diode,LED)を利用することができ、複数の発光ダイオードが、一定のパターンにより配列された形態を有することができる。光源1100は、有機発光ダイオード(Organic light emitting diode,OLED)やレーザーダイオード(Laser diode,LD)を含むこともできる。または、光源1100は、VCSEL(Vertical Cavity Surface Emitting Laser)でもある。VCSELは、電気信号を光に変えるレーザーダイオード中一つであり、約800乃至1000nmである波長、例えば約850nmまたは約940nm波長を使うことができる。 The light source 1100 may generate light. The light generated by the light source 1100 may be infrared light having a wavelength of 770 to 3000 nm, or may be visible light having a wavelength of 380 to 770 nm. The light source 1100 may use a light emitting diode (LED), and may have a shape in which a plurality of light emitting diodes are arranged in a certain pattern. The light source 1100 may include an organic light emitting diode (OLED) or a laser diode (LD). Alternatively, the light source 1100 may be a VCSEL (Vertical Cavity Surface Emitting Laser). A VCSEL is a type of laser diode that converts electrical signals into light, and can use wavelengths of about 800 to 1000 nm, for example, about 850 nm or about 940 nm.

光源1100は、一定時間間隔で点滅(on/off)を繰り返してパルス波形態や持続波形態の光を生成することができる。一定時間間隔は、光の周波数であってもよい。光源の点滅は、光変調器によって制御されることができる。 The light source 1100 can generate light in the form of a pulse wave or a continuous wave by repeatedly blinking (on/off) at regular time intervals. The regular time interval may be the frequency of the light. The blinking of the light source can be controlled by an optical modulator.

光変調器は、光源1100の点滅を制御して光源1100が持続波やパルス波形態の光を生成するように制御することができる。光変調器は、周波数変調(frequency modulation)やパルス変調(pulse modulation)等を介して光源1100が、持続波やパルス波形態の光を生成するように制御することができる。 The optical modulator can control the on/off of the light source 1100 so that the light source 1100 generates light in the form of a continuous wave or a pulse wave. The optical modulator can control the light source 1100 to generate light in the form of a continuous wave or a pulse wave through frequency modulation, pulse modulation, etc.

一実施例に係るプロセッサ1000は、光源1100が出力した光とレシーバー120が受信した光の位相差を利用して、オブジェクト130に対する深さ情報を取得することができる。レシーバー120は、互いに異なる位相差を有する複数の参照信号(reference signal)を利用して、各参照信号に対応する電気信号を生成することができる。参照信号の周波数は、光源1100から出力された光の周波数と同じに決定されることができる。従って、光源1100が複数の周波数で光を生成する場合、レシーバー120は各周波数に対応する複数の参照信号を利用して電気信号を生成することができる。電気信号は、各参照信号に対応する電荷量や電圧に関する情報を含むことができる。 The processor 1000 according to one embodiment may obtain depth information for the object 130 using a phase difference between the light output by the light source 1100 and the light received by the receiver 120. The receiver 120 may generate an electrical signal corresponding to each reference signal using a plurality of reference signals having different phase differences. The frequency of the reference signal may be determined to be the same as the frequency of the light output from the light source 1100. Thus, when the light source 1100 generates light at a plurality of frequencies, the receiver 120 may generate an electrical signal using a plurality of reference signals corresponding to each frequency. The electrical signal may include information regarding the charge amount or voltage corresponding to each reference signal.

一実施例に係る参照信号は、四つ(C1乃至C4)であってもよい。各参照信号(C1乃至C4)は、光源1100が出力した光と同じ周波数を有するが、互いに90度位相差を有することができる。四つの参照信号中一つ(C1)は、光源1100が出力した光と同じ位相を有することができる。オブジェクト130から反射して取得された光は、光源1100が出力した光がオブジェクト130から反射して帰ってくる距離程度位相が遅れる。 In one embodiment, there may be four reference signals (C1 to C4). Each reference signal (C1 to C4) has the same frequency as the light output by the light source 1100, but may have a phase difference of 90 degrees from each other. One of the four reference signals (C1) may have the same phase as the light output by the light source 1100. The light reflected from the object 130 is delayed in phase by the distance the light output by the light source 1100 reflects back from the object 130.

レシーバー120は、受信された光と各参照信号を各々ミキシング(mixing)してQ1乃至Q4信号を各参照信号別に生成することができる。レシーバー120は、複数のピクセルがグリッド形態で配列された構造から構成されたイメージセンサーを含むことができる。イメージセンサーは、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーであってもよく、CCD(Charge Coupled Device)イメージセンサーであってもよい。さらに、イメージセンサーは、オブジェクトから反射する赤外線光を受信して時間または位相差を利用して距離を測定するToFセンサーを含むことができる。 The receiver 120 may generate signals Q1 to Q4 for each reference signal by mixing the received light with each reference signal. The receiver 120 may include an image sensor having a structure in which a plurality of pixels are arranged in a grid shape. The image sensor may be a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor. In addition, the image sensor may include a ToF sensor that receives infrared light reflected from an object and measures the distance using a time or phase difference.

具体的に、プロセッサ1000は、電気信号の電荷量情報を利用して出力光と入力光との間の位相差を計算することができる。 Specifically, the processor 1000 can calculate the phase difference between the output light and the input light using the charge amount information of the electrical signal.

上述した通り、光源1100から出力される光の周波数ごとに四つの電気信号が生成されることができる。従って、プロセッサ1000は、下の数学式1を利用して光源1100から出力される光とレシーバー120が受信する光との間の位相差(td)を決めることができる。

Figure 0007498703000001
As described above, four electrical signals may be generated for each frequency of light output from the light source 1100. Therefore, the processor 1000 may determine the phase difference (td) between the light output from the light source 1100 and the light received by the receiver 120 using Equation 1 below.
Figure 0007498703000001

ここで、Q1乃至Q4は、四つの電気信号の各々の電荷充電量であってもよい。Q1は、光源1100から出力される光と同じ位相の基準信号に対応する電気信号の電荷量で、Q2は、光源1100から出力される光より位相が180度遅い基準信号に対応する電気信号の電荷量で、Q3は、光源1100から出力される光より位相が90度遅い基準信号に対応する電気信号の電荷量で、Q4は、光源1100から出力される光より位相が270度遅い基準信号に対応する電気信号の電荷量であってもよい。 Here, Q1 to Q4 may be the charge amount of each of the four electrical signals. Q1 may be the charge amount of the electrical signal corresponding to a reference signal having the same phase as the light output from the light source 1100, Q2 may be the charge amount of the electrical signal corresponding to a reference signal having a phase 180 degrees slower than the light output from the light source 1100, Q3 may be the charge amount of the electrical signal corresponding to a reference signal having a phase 90 degrees slower than the light output from the light source 1100, and Q4 may be the charge amount of the electrical signal corresponding to a reference signal having a phase 270 degrees slower than the light output from the light source 1100.

そうすると、プロセッサ1000は、光源1100から出力される光とレシーバー120が受信する光の位相差を利用して、オブジェクト130とカメラモジュール100との間の距離を決めることができる。この時、一実施例に係るプロセッサ1000は、数学式2を利用してオブジェクト130とカメラモジュール100との間の距離(d)を決めることができる。

Figure 0007498703000002
Then, the processor 1000 can determine the distance between the object 130 and the camera module 100 using a phase difference between the light output from the light source 1100 and the light received by the receiver 120. In this case, the processor 1000 according to an embodiment can determine the distance (d) between the object 130 and the camera module 100 using Equation 2.
Figure 0007498703000002

ここで、cは光の速度で、fは出力光の周波数である。 where c is the speed of light and f is the frequency of the output light.

一実施例によると、カメラモジュール100からToF IRイメージ及び深さ(depth)イメージを取得することができる。 According to one embodiment, ToF IR images and depth images can be acquired from the camera module 100.

一実施例に係るプロセッサ1000は、光源1100が光を出力した時点とレシーバー120が光を受信した時点の差を利用して、オブジェクト130に対する深さ情報を取得することができる。光源1100は、レーザーや赤外線などの光をオブジェクト130に出力して、反射して戻ってくる光を受信して時間差を計算することによって深さ情報を取得することができる。 The processor 1000 according to one embodiment can obtain depth information for the object 130 by using the difference between the time when the light source 1100 outputs light and the time when the receiver 120 receives the light. The light source 1100 can obtain depth information by outputting light such as a laser or infrared light to the object 130, receiving the reflected light, and calculating the time difference.

図2は、一実施例に係るカメラモジュール100の断面図を図示する。 Figure 2 illustrates a cross-sectional view of a camera module 100 according to one embodiment.

図2を参照すると、カメラモジュール100は、レンズアセンブリー200、イメージセンサー250及び印刷回路基板260を含む。図1のプロセッサ1000等は、印刷回路基板260内で具現されることができる。図示されなかったが、図1の光源1100は、印刷回路基板260上でイメージセンサー250の側面に配置されるか、カメラモジュール100の外部、例えばカメラモジュール100の側面に配置されるが、これに制限されない。 Referring to FIG. 2, the camera module 100 includes a lens assembly 200, an image sensor 250, and a printed circuit board 260. The processor 1000 of FIG. 1, etc., can be embodied in the printed circuit board 260. Although not shown, the light source 1100 of FIG. 1 can be disposed on the side of the image sensor 250 on the printed circuit board 260, or disposed outside the camera module 100, for example, on the side of the camera module 100, but is not limited thereto.

レンズアセンブリー200は、レンズ230、レンズバレル210、レンズホルダー221、222及びIRフィルター240を含むことができる。 The lens assembly 200 may include a lens 230, a lens barrel 210, lens holders 221, 222, and an IR filter 240.

レンズ230は、複数枚で構成され、1枚で構成されてもよい。レンズ230が複数枚で構成される場合、各レンズは、中心軸を基準に整列して光学系を形成することができる。ここで、中心軸は、光学系の光軸(Optical axis)と同じであってもよい。 Lens 230 may be composed of multiple lenses or may be composed of a single lens. When lens 230 is composed of multiple lenses, each lens may be aligned based on a central axis to form an optical system. Here, the central axis may be the same as the optical axis of the optical system.

レンズバレル210は、レンズホルダー221、222と結合されて、内部にレンズを収容できる空間が設けられてもよい。レンズバレル210は、一つまたは複数のレンズと回転結合できるが、これは例示的なものであり、接着剤(例えば、エポキシ(epoxy)等の接着用樹脂)を利用した方式など他の方式で結合することができる。 The lens barrel 210 may be coupled to the lens holders 221 and 222 to provide a space inside in which a lens can be accommodated. The lens barrel 210 may be rotationally coupled to one or more lenses, but this is merely an example and the lens may be coupled in other ways, such as by using an adhesive (e.g., an adhesive resin such as epoxy).

レンズホルダー221、222は、レンズバレル210と結合されて、レンズバレル210を支持して、イメージセンサー250が搭載された印刷回路基板260に結合することができる。レンズホルダー221、222によってレンズバレル210の下部にIRフィルター240が付着することができる空間が形成されることができる。レンズホルダー221、222の内周面には螺旋状パターンが形成されることができて、これと同様に外周面に螺旋状パターンが形成されたレンズバレル210と回転結合することができる。しかし、これは例示的なものであり、レンズホルダー221、222とレンズバレル210は、接着剤を介して結合されてもよく、レンズホルダー221、222とレンズバレル210が一体型で形成されてもよい。 The lens holders 221 and 222 are coupled to the lens barrel 210 to support the lens barrel 210 and can be coupled to the printed circuit board 260 on which the image sensor 250 is mounted. The lens holders 221 and 222 can form a space in which the IR filter 240 can be attached to the lower part of the lens barrel 210. A spiral pattern can be formed on the inner peripheral surface of the lens holders 221 and 222, and the lens holders 221 and 222 can be rotatably coupled to the lens barrel 210, which has a similar spiral pattern formed on its outer peripheral surface. However, this is merely an example, and the lens holders 221 and 222 and the lens barrel 210 can be coupled to each other via an adhesive, or the lens holders 221 and 222 and the lens barrel 210 can be formed as an integral unit.

レンズホルダー221、222は、レンズバレル210と結合する上部ホルダー221及びイメージセンサー250が搭載された印刷回路基板260と結合する下部ホルダー222に区分され、上部ホルダー221及び下部ホルダー222は、一体型で形成されてもよく、互いに分離した構造で形成された後締結または結合されてもよく、互いに分離して離隔した構造を有してもよい。この時、上部ホルダー221の直径は、下部ホルダー222の直径より小さく形成されるが、これに制限されない。 The lens holders 221 and 222 are divided into an upper holder 221 that is coupled to the lens barrel 210 and a lower holder 222 that is coupled to a printed circuit board 260 on which the image sensor 250 is mounted. The upper holder 221 and the lower holder 222 may be formed as an integral unit, or may be formed as separate structures and then fastened or coupled to each other, or may have separate and spaced structures. In this case, the diameter of the upper holder 221 is formed to be smaller than the diameter of the lower holder 222, but is not limited thereto.

前記の例示は一実施例に過ぎず、レンズ230は、カメラモジュール100に入射される光を集光してイメージセンサー250に伝達できる他の構造で構成されてもよい。 The above example is merely an embodiment, and the lens 230 may be configured with other structures capable of collecting light incident on the camera module 100 and transmitting it to the image sensor 250.

イメージセンサー250は、レンズ230を介して集光された光を利用して電気信号を生成することができる。 The image sensor 250 can generate an electrical signal using the light focused through the lens 230.

イメージセンサー250は、光源1100の点滅周期と同期化されて入力される光を検出することができる。具体的に、イメージセンサー250は、光源1100から出力された光と同相(in phase)及び異相(out phase)で各々光を検出することができる。つまり、イメージセンサー250は、光源1100がついている時間に光を吸収するステップと光源1100が消えている時間に光を吸収するステップを繰り返し行うことができる。 The image sensor 250 can detect light input in synchronization with the blinking cycle of the light source 1100. Specifically, the image sensor 250 can detect light in phase and out phase with the light output from the light source 1100. That is, the image sensor 250 can repeatedly perform a step of absorbing light when the light source 1100 is on and a step of absorbing light when the light source 1100 is off.

イメージセンサー250は、互いに異なる位相差を有する複数の参照信号(reference signal)を利用して、各参照信号に対応する電気信号を生成することができる。参照信号の周波数は、光源1100から出力された光の周波数と同じに決定されることができる。従って、光源1100が、複数の周波数で光を生成する場合、イメージセンサー250は、各周波数に対応する複数の参照信号を利用して電気信号を生成することができる。電気信号は、各参照信号に対応する電荷量や電圧に関する情報を含むことができる。 The image sensor 250 can generate an electrical signal corresponding to each reference signal using a plurality of reference signals having different phase differences. The frequency of the reference signal can be determined to be the same as the frequency of the light output from the light source 1100. Therefore, when the light source 1100 generates light at a plurality of frequencies, the image sensor 250 can generate an electrical signal using a plurality of reference signals corresponding to each frequency. The electrical signal can include information regarding the amount of charge or voltage corresponding to each reference signal.

図3は、一実施例に係るカメラモジュール100が、第1ピクセル310及び第2ピクセル320が第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する一例を図示する。第1ピクセル310及び第2ピクセル320は、受信ピクセルであってもよい。 FIG. 3 illustrates an example in which the camera module 100 according to an embodiment acquires a depth image of an object using light acquired by the first pixel 310 and the second pixel 320 during the first and second periods. The first pixel 310 and the second pixel 320 may be receiving pixels.

図3を参照すると、カメラモジュールは、第1深さイメージ(1)、第2深さイメージ(2)、第3深さイメージ(3)を順次取得することができる。具体的に、カメラモジュール100は、phase0°に対する位相イメージ、phase90°に対する位相イメージ、phase180°に対する位相イメージ、及びphase270°に対する位相イメージを一番目の第1周期及び第2周期に取得して、第1深さイメージ(1)を取得して、phase0°に対する位相イメージ、phase90°に対する位相イメージ、phase180°に対する位相イメージ及びphase270°に対する位相イメージを二番目の第1周期及び第2周期に取得して第2深さイメージ(2)を取得して、phase0°に対する位相イメージ、phase90°に対する位相イメージ、phase180°に対する位相イメージ及びphase270°に対する位相イメージを三番目の第1周期及び第2周期に取得して第3深さイメージ(3)を取得することができる。 Referring to FIG. 3, the camera module can sequentially acquire a first depth image (1), a second depth image (2), and a third depth image (3). Specifically, the camera module 100 may acquire a phase image for phase 0°, a phase image for phase 90°, a phase image for phase 180°, and a phase image for phase 270° in a first first period and a second period to acquire a first depth image (1), acquire a phase image for phase 0°, a phase image for phase 90°, a phase image for phase 180°, and a phase image for phase 270° in a second first period and a second period to acquire a second depth image (2), and acquire a phase image for phase 0°, a phase image for phase 90°, a phase image for phase 180°, and a phase image for phase 270° in a third first period and a second period to acquire a third depth image (3).

具体的に、ブロック300に含まれた第1ピクセル310は、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase180°に対する位相イメージを取得することができる。ブロック300に含まれた第2ピクセル320は、第1周期の間phase90°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。しかし、図3に開示された実施例で限定されず、第1ピクセル310または第2ピクセル320が、第1周期または第2周期でどのような位相イメージを取得するかは、予め決まった設定に応じて決定されることができる。 Specifically, the first pixel 310 included in the block 300 may acquire a phase image for phase 0° during the first period and acquire a phase image for phase 180° during the second period. The second pixel 320 included in the block 300 may acquire a phase image for phase 90° during the first period and acquire a phase image for phase 270° during the second period. However, the embodiment disclosed in FIG. 3 is not limited to this, and the phase image that the first pixel 310 or the second pixel 320 acquires during the first period or the second period may be determined according to a predetermined setting.

ピクセルが1回開放された後閉じられる時まで受信した信号の強度が微弱であるため、一実施例に係るカメラモジュール100は、同じ過程を数回繰り返して深さイメージを取得することができる。例えば、ブロック300は、位相イメージを取得する過程を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)して深さイメージを取得することができる。 Because the strength of the signal received from when the pixel is opened once until it is closed is weak, the camera module 100 according to one embodiment may repeat the same process several times to acquire a depth image. For example, the block 300 may repeat the process of acquiring a phase image several times, for example, 100 times or more, to integrate or accumulate the signal to acquire a depth image.

図3を参照すると、各周期(T)の間ブロック300に含まれたピクセル別に異なる位相信号が印加されてもよい。例えば、ブロック300は、第1ピクセル310及び第2ピクセル320を含むことができ、第1ピクセル310には第1周期の間phase0°に対する位相信号が印加されて、第2周期の間phase180°に対する位相信号が印加されることができる。ブロック300に含まれた第2ピクセル320には第1周期の間phase90°に対する位相信号が印加されて、第2周期の間phase270°に対する位相信号が印加されるが、これに制限されない。 Referring to FIG. 3, different phase signals may be applied to the pixels included in the block 300 during each period (T). For example, the block 300 may include a first pixel 310 and a second pixel 320, and a phase signal for phase 0° may be applied to the first pixel 310 during the first period, and a phase signal for phase 180° may be applied to the first pixel 310 during the second period. A phase signal for phase 90° may be applied to the second pixel 320 included in the block 300 during the first period, and a phase signal for phase 270° may be applied to the second pixel 320 during the second period, but is not limited thereto.

一周期(T)の間、各ピクセルが受信した信号の強度が微弱であるため、同じ過程が数回繰り返される。カメラモジュール100は、ピクセル別で異なる位相信号が印加される周期(T)を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)することができる。カメラモジュール100は、第1周期に第1ピクセル310からphase0°に対する情報をリードアウト(read out)して、第2ピクセル320からphase90°に対する情報をリードアウトすることができる。さらに、第1カメラモジュール100は、2周期に第1ピクセル310からphase180°に対する情報をリードアウトして、第2ピクセル320からphase270°に対する情報をリードアウトすることができる。なお、第1深さイメージ(1)は、第1ピクセル310から得たphase0°に対する情報及びphase180°に対する情報、第2ピクセル320から得たphase90°に対する情報及びphase270°に対する情報を利用して取得されることができる。 During one period (T), the intensity of the signal received by each pixel is weak, so the same process is repeated several times. The camera module 100 can repeat the period (T) in which a different phase signal is applied to each pixel several times, for example, 100 times or more, to integrate or accumulate the signal. The camera module 100 can read out information for phase 0° from the first pixel 310 in the first period and read out information for phase 90° from the second pixel 320. Furthermore, the first camera module 100 can read out information for phase 180° from the first pixel 310 in two periods and read out information for phase 270° from the second pixel 320. In addition, the first depth image (1) can be obtained using information for phase 0° and information for phase 180° obtained from the first pixel 310, and information for phase 90° and information for phase 270° obtained from the second pixel 320.

このように、各周期(T)の間一つのブロック30に含まれたピクセル別に異なる位相信号が印加されて、各ピクセルから得た各位相に対する情報を利用して深さイメージを抽出する場合、深さイメージを取得するまで所要する時間が減少することができる。 In this way, when a different phase signal is applied to each pixel included in one block 30 during each period (T) and the depth image is extracted using information on each phase obtained from each pixel, the time required to obtain the depth image can be reduced.

各周期(T)の間隣り合うピクセルには、互いに異なる位相信号が印加され、各周期(T)の間第1ピクセルにphase0°の位相信号またはphase180°の位相信号が印加される区間、及び第2ピクセルにphase90°の位相信号またはphase270°の位相信号が印加される区間中少なくとも二つの少なくとも一部は互いに重なる。これにより、phase0°の位相信号が印加される区間、phase90°の位相信号が印加される区間、phase180°の位相信号が印加される区間、及びphase270°の位相信号が印加される区間が重ならない場合に比べて、一つの深さイメージを取得するため所要する時間を減らすことができる。 During each period (T), different phase signals are applied to adjacent pixels, and during each period (T), at least two of the sections in which a phase 0° phase signal or a phase 180° phase signal is applied to the first pixel and the sections in which a phase 90° phase signal or a phase 270° phase signal is applied to the second pixel overlap with each other. This reduces the time required to obtain one depth image compared to when the sections in which a phase 0° phase signal is applied, a phase 90° phase signal is applied, a phase 180° phase signal is applied, and a phase 270° phase signal are not applied.

図4は、図3に係るカメラモジュール100の動作を時間の流れにより説明するタイミング図である。第1ピクセル310及び第2ピクセル320は、受信ピクセルであってもよい。 Figure 4 is a timing diagram illustrating the operation of the camera module 100 in Figure 3 over time. The first pixel 310 and the second pixel 320 may be receiving pixels.

第1ピクセル310は、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、第2ピクセル320は、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信することができる。 The first pixel 310 can receive light at a first phase point in the first period and a second phase point in the second period, and the second pixel 320 can receive light at a third phase point in the first period and a fourth phase point in the second period.

図4を参照すると、第1周期で第1ピクセル310は、0゜程度遅延して光を受信するので、第1ピクセル310は、phase0°の位相信号を受信することができる。 Referring to FIG. 4, in the first period, the first pixel 310 receives light with a delay of about 0°, so the first pixel 310 can receive a phase signal of phase 0°.

第1周期で第2ピクセル320は、90゜程度遅延して光を受信するので、第2ピクセル320は、phase90°の位相信号を受信することができる。 In the first period, the second pixel 320 receives light with a delay of about 90°, so the second pixel 320 can receive a phase signal with a phase of 90°.

第2周期で第1ピクセル310は、180゜程度遅延して光を受信するので、第1ピクセル310は、phase180°の位相信号を受信することができる。 In the second period, the first pixel 310 receives light with a delay of about 180°, so the first pixel 310 can receive a phase signal with a phase of 180°.

第2周期で第2ピクセル320は、270゜程度遅延して光を受信するので、第2ピクセル320は、phase270°の位相信号を受信することができる。 In the second period, the second pixel 320 receives light with a delay of about 270°, so the second pixel 320 can receive a phase signal of phase 270°.

しかし、図4に開示された実施例に制限されず、第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる任意の組み合わせであってもよい。 However, without being limited to the embodiment disclosed in FIG. 4, the first to fourth phase points may be any combination different from each other corresponding to any of 0°, 90°, 180°, and 270°.

第1ピクセル310と第2ピクセル320は、互いに隣接することができる。図4に示したように第1ピクセル310と第2ピクセル320が、縦に隣接することができるが、これに制限されない。例えば、第1ピクセル310と第2ピクセル320は、横に隣接することができる。または、第1ピクセル310と第2ピクセル320は、斜めに隣接することができる。 The first pixel 310 and the second pixel 320 may be adjacent to each other. As shown in FIG. 4, the first pixel 310 and the second pixel 320 may be adjacent vertically, but is not limited thereto. For example, the first pixel 310 and the second pixel 320 may be adjacent horizontally. Or, the first pixel 310 and the second pixel 320 may be adjacent diagonally.

図5は、一実施例により第1周期の間第1ピクセル310にphase0°の位相信号が印加されて、第2ピクセル320にphase180°の位相信号が印加されて、第2周期の間第1ピクセル310にphase90°の位相信号が印加されて、第2ピクセル320にphase270°の位相信号が印加される一例を示す図面である。第1ピクセル310、第2ピクセル320、第3ピクセル330、第4ピクセル340は、受信ピクセルであってもよい。 Figure 5 is a diagram showing an example in which a phase 0° signal is applied to the first pixel 310 during a first period and a phase 180° signal is applied to the second pixel 320 during a second period, and a phase 90° signal is applied to the first pixel 310 and a phase 270° signal is applied to the second pixel 320 during a second period according to one embodiment. The first pixel 310, the second pixel 320, the third pixel 330, and the fourth pixel 340 may be receiving pixels.

具体的に、ブロック300に含まれた第1ピクセル310は、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase90°に対する位相イメージを取得することができる。ブロック300に含まれた第2ピクセル320は、第1周期の間phase180°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。しかし、図5に開示された実施例で限定されず、第1ピクセル310または第2ピクセル320が、第1周期または第2周期でどのような位相イメージを取得するかは、予め決まった設定に応じて決定されることができる。ピクセルが1回開放された後閉じられる時まで受信した信号の強度が微弱であるため、一実施例に係るカメラモジュール100は、同じ過程を数回繰り返して深さイメージを取得することができる。例えば、ブロック300は、位相イメージを取得する過程を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)して深さイメージを取得することができる。 Specifically, the first pixel 310 included in the block 300 may acquire a phase image for phase 0° during the first period and acquire a phase image for phase 90° during the second period. The second pixel 320 included in the block 300 may acquire a phase image for phase 180° during the first period and acquire a phase image for phase 270° during the second period. However, without being limited to the embodiment disclosed in FIG. 5, the first pixel 310 or the second pixel 320 may acquire a phase image in the first period or the second period according to a predetermined setting. Since the strength of the signal received from the pixel is weak until it is closed after being opened once, the camera module 100 according to one embodiment may repeat the same process several times to acquire a depth image. For example, block 300 can repeat the process of acquiring a phase image several times, for example, 100 times or more, to integrate or accumulate the signals to acquire a depth image.

第3ピクセル330は、第1ピクセル310に対応して、第4ピクセル340は、第2ピクセル320に対応することができる。例えば、第3ピクセル330は、第1ピクセル310と共に、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase90°に対する位相イメージを取得することができる。さらに、この場合、第4ピクセル340は、第2ピクセル320と共に、第1周期の間phase180°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。 The third pixel 330 may correspond to the first pixel 310, and the fourth pixel 340 may correspond to the second pixel 320. For example, the third pixel 330 may acquire a phase image for phase 0° during the first period together with the first pixel 310, and acquire a phase image for phase 90° during the second period. Furthermore, in this case, the fourth pixel 340 may acquire a phase image for phase 180° during the first period together with the second pixel 320, and acquire a phase image for phase 270° during the second period.

図6は、図5に係るカメラモジュール100の動作を時間の流れにより説明するタイミング図である。 Figure 6 is a timing diagram that explains the operation of the camera module 100 shown in Figure 5 over time.

図6を参照すると、第1周期で第1ピクセル310は、0゜程度遅延して光を受信するので、第1ピクセル310は、phase0°の位相信号を受信することができる。 Referring to FIG. 6, in the first period, the first pixel 310 receives light with a delay of about 0°, so the first pixel 310 can receive a phase signal of phase 0°.

第1周期で第2ピクセル320は、180゜程度遅延して光を受信するので、第2ピクセル320は、phase180°の位相信号を受信することができる。 In the first period, the second pixel 320 receives light with a delay of about 180°, so the second pixel 320 can receive a phase signal with a phase of 180°.

第1周期で第3ピクセル330は、0゜程度遅延して光を受信するので、第3ピクセル330は、phase0°の位相信号を受信することができる。 In the first period, the third pixel 330 receives light with a delay of about 0°, so the third pixel 330 can receive a phase signal of phase 0°.

第1周期で第4ピクセル340は、180゜程度遅延して光を受信するので、第4ピクセル340は、phase180°の位相信号を受信することができる。 In the first period, the fourth pixel 340 receives light with a delay of about 180°, so the fourth pixel 340 can receive a phase signal with a phase of 180°.

第2周期で第1ピクセル310は、90゜程度遅延して光を受信するので、第1ピクセル310は、phase90°の位相信号を受信することができる。 In the second period, the first pixel 310 receives light with a delay of about 90°, so the first pixel 310 can receive a phase signal with a phase of 90°.

第2周期で第2ピクセル320は、270゜程度遅延して光を受信するので、第2ピクセル320は、phase270°の位相信号を受信することができる。 In the second period, the second pixel 320 receives light with a delay of about 270°, so the second pixel 320 can receive a phase signal of phase 270°.

第2周期で第3ピクセル330は、90゜程度遅延して光を受信するので、第3ピクセル330は、phase90°の位相信号を受信することができる。 In the second period, the third pixel 330 receives light with a delay of about 90°, so the third pixel 330 can receive a phase signal with a phase of 90°.

第2周期で第4ピクセル340は、270゜程度遅延して光を受信するので、第4ピクセル340は、phase270°の位相信号を受信することができる。 In the second period, the fourth pixel 340 receives light with a delay of about 270°, so the fourth pixel 340 can receive a phase signal of phase 270°.

図7は、一実施例により第1周期の間第1ピクセル310にphase0°の位相信号が印加されて、第2ピクセル320にphase90°の位相信号が印加されて、第2周期の間第1ピクセル310にphase270°の位相信号が印加されて、第2ピクセル320にphase180°の位相信号が印加される一例を示す図面である。 Figure 7 shows an example in which a phase 0° signal is applied to the first pixel 310 during a first period and a phase 90° signal is applied to the second pixel 320, and a phase 270° signal is applied to the first pixel 310 during a second period and a phase 180° signal is applied to the second pixel 320, according to one embodiment.

具体的に、ブロック300に含まれた第1ピクセル310は、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。ブロック300に含まれた第2ピクセル320は、第1周期の間phase90°に対する位相イメージを取得して、第2周期の間phase180°に対する位相イメージを取得することができる。しかし、図7に開示された実施例で限定されず、第1ピクセル310または第2ピクセル320が、第1周期または第2周期でどのような位相イメージを取得するかは、予め決まった設定に応じて決定されることができる。 Specifically, the first pixel 310 included in the block 300 may acquire a phase image for phase 0° during the first period and acquire a phase image for phase 270° during the second period. The second pixel 320 included in the block 300 may acquire a phase image for phase 90° during the first period and acquire a phase image for phase 180° during the second period. However, the embodiment disclosed in FIG. 7 is not limited to this, and the phase image that the first pixel 310 or the second pixel 320 acquires during the first period or the second period may be determined according to a predetermined setting.

ピクセルが1回開放された後閉じられる時まで受信した信号の強度が微弱であるため、一実施例に係るカメラモジュール100は、同じ過程を数回繰り返して深さイメージを取得することができる。例えば、ブロック300は、位相イメージを取得する過程を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)して深さイメージを取得することができる。 Since the strength of the signal received from when the pixel is opened once until it is closed is weak, the camera module 100 according to one embodiment may repeat the same process several times to acquire a depth image. For example, the block 300 may repeat the process of acquiring a phase image several times, for example, 100 times or more, to integrate or accumulate the signal to acquire a depth image.

図8は、図7に係るカメラモジュール100の動作を時間の流れにより説明するタイミング図である。 Figure 8 is a timing diagram that explains the operation of the camera module 100 shown in Figure 7 over time.

図8を参照すると、第1周期で第1ピクセル310は、0゜程度遅延して光を受信するので、第1ピクセル310は、phase0°の位相信号を受信することができる。 Referring to FIG. 8, in the first period, the first pixel 310 receives light with a delay of about 0°, so the first pixel 310 can receive a phase signal of phase 0°.

第1周期で第2ピクセル320は、90゜程度遅延して光を受信するので、第2ピクセル320は、phase90°の位相信号を受信することができる。 In the first period, the second pixel 320 receives light with a delay of about 90°, so the second pixel 320 can receive a phase signal with a phase of 90°.

第2周期で第1ピクセル310は、270゜程度遅延して光を受信するので、第1ピクセル310は、phase270°の位相信号を受信することができる。 In the second period, the first pixel 310 receives light with a delay of about 270°, so the first pixel 310 can receive a phase signal of phase 270°.

第2周期で第2ピクセル320は、180゜程度遅延して光を受信するので、第2ピクセル320は、phase180°の位相信号を受信することができる。 In the second period, the second pixel 320 receives light with a delay of about 180°, so the second pixel 320 can receive a phase signal with a phase of 180°.

図9は、一実施例により第1ピクセル310及び第2ピクセル320が横に隣接する一例を示す図面である。 Figure 9 shows an example in which a first pixel 310 and a second pixel 320 are horizontally adjacent in one embodiment.

図9に示したように第1ピクセル310及び第2ピクセル320の相対的位置は多様に決定されることができる。第1ピクセル310及び第2ピクセルが受信する位相信号に対する具体的な内容は図3を参照することができる。 As shown in FIG. 9, the relative positions of the first pixel 310 and the second pixel 320 can be determined in various ways. For specific details regarding the phase signals received by the first pixel 310 and the second pixel, refer to FIG. 3.

図10は、一実施例により第1ピクセル310及び第3ピクセル330が横に隣接して、第2ピクセル320及び第4ピクセル340が横に隣接して、カメラモジュール100が動作する一例を示す図面である。 FIG. 10 is a diagram showing an example in which the camera module 100 operates with the first pixel 310 and the third pixel 330 horizontally adjacent, and the second pixel 320 and the fourth pixel 340 horizontally adjacent, according to one embodiment.

図10を参照すると、図5の場合とは異なって、第1ピクセル310及び第3ピクセル330が横に隣接して、第2ピクセル320及び第4ピクセル340が横に隣接する。つまり、同じ方式で動作するピクセルが横に隣接することによって、プロセッサ1000は、ライン単位でピクセルを制御することができる。同じ横ラインのピクセルが同じ方式で動作するので、プロセッサ1000は、ライン単位でピクセルを制御できて、それにより回路の複雑度が減少することができる。さらに、ブロック300内に動作方式が異なる二つのピクセル310、320が含まれるのは図5の場合と同じである。 Referring to FIG. 10, unlike the case of FIG. 5, the first pixel 310 and the third pixel 330 are horizontally adjacent, and the second pixel 320 and the fourth pixel 340 are horizontally adjacent. That is, since pixels operating in the same manner are horizontally adjacent, the processor 1000 can control the pixels on a line-by-line basis. Since pixels in the same horizontal line operate in the same manner, the processor 1000 can control the pixels on a line-by-line basis, thereby reducing the complexity of the circuit. Furthermore, as in the case of FIG. 5, the block 300 includes two pixels 310, 320 with different operating methods.

図10では、横ラインのピクセルが同じ動作を行う場合に対して図示したが、これに制限されない。例えば、縦ラインのピクセルが同じ動作を行うようにレシーバー120内のピクセルが設定されることができる。 Although FIG. 10 illustrates a case where pixels in a horizontal line perform the same operation, this is not limited to this. For example, pixels in the receiver 120 can be configured so that pixels in a vertical line perform the same operation.

図11は、カメラモジュール100が超解像度(Super resolution)手法を利用してイメージの解像度を高める方法を示す図面である。 Figure 11 is a diagram showing how the camera module 100 uses a super resolution technique to increase the resolution of an image.

一方、カメラモジュール100は、一実施例により深さイメージの解像度を高めるために、超解像度(Super Resolution,SR)手法を利用することができる。SR手法は、複数の低解像イメージから高解像イメージを得る方法を幅広く指し示すことができる。 Meanwhile, in one embodiment, the camera module 100 can use a Super Resolution (SR) technique to increase the resolution of the depth image. The SR technique can broadly refer to a method of obtaining a high-resolution image from multiple low-resolution images.

具体的に、プロセッサ1000は、ブロック単位で一つの深さ情報を取得することができる。仮にピクセル単位で一つの深さ情報を取得できるなら、25個のピクセルから25個の深さ情報を取得することができる。しかし、ブロック単位で一つの深さ情報を取得できるなら、取得できる情報が減少する。二つのピクセルの情報をまとめて一つの深さ情報を取得できるので、原則的に取得できる情報が1/2に減少することができる。例えば、プロセッサ1000は、第1ブロック1110及び第2ブロック1120から二つの深さ情報を取得することができる。 Specifically, the processor 1000 can acquire one piece of depth information per block. If one piece of depth information could be acquired per pixel, 25 pieces of depth information could be acquired from 25 pixels. However, if one piece of depth information could be acquired per block, the amount of information that can be acquired is reduced. Since one piece of depth information can be acquired by combining information on two pixels, the amount of information that can be acquired can be reduced by half in principle. For example, the processor 1000 can acquire two pieces of depth information from the first block 1110 and the second block 1120.

しかし、二つのピクセルから取得される情報をまとめて一つの深さ情報を取得する際に、利用されるピクセルを重複的に利用する場合、より多くの情報を取得することができる。例えば、プロセッサ1000は、第1ブロック1110及び第2ブロック1120だけでなく、第3ブロック1130をさらに利用することができる。さらに、場合により隣接しい二つのピクセルを介して一つの深さ情報を取得することもできる。 However, when combining information obtained from two pixels to obtain one piece of depth information, more information can be obtained if the pixels used are used redundantly. For example, the processor 1000 can use not only the first block 1110 and the second block 1120, but also the third block 1130. Furthermore, in some cases, one piece of depth information can be obtained through two adjacent pixels.

図11では、一実施例により、ブロックに含まれたピクセルの数が二つで、重なるブロック間重なるピクセルの数が一つである場合について説明したが、これに制限されない。 In FIG. 11, in one embodiment, a case is described in which the number of pixels included in a block is two and the number of overlapping pixels between overlapping blocks is one, but this is not limited thereto.

図12は、一実施例により超解像度手法により解像度が高まる一例を説明するための図面である。 Figure 12 is a diagram illustrating an example of how resolution is increased using a super-resolution technique in one embodiment.

第1解像度図面1210を参照すると、ピクセル単位で情報を取得する場合、ピクセル数に対応する解像度を取得することができる。しかし、ブロック単位で情報を取得する場合、一つのピクセルを一度だけ利用する時、ブロックに含まれたピクセルの数程度解像度が減少することができる。例えば、第1解像度図面1210に比べて第2解像度図面1220の解像度は1/2に減少した。しかし、上述したようなSR手法を利用する場合、相当部分解像度を増加させることができ、追加的なアルゴリズムを介して第3解像度図面1230で表現された解像度よりもさらに高い解像度も実現が可能である。 Referring to the first resolution drawing 1210, when information is obtained in pixel units, a resolution corresponding to the number of pixels can be obtained. However, when information is obtained in block units, when one pixel is used only once, the resolution can be reduced by the number of pixels contained in the block. For example, the resolution of the second resolution drawing 1220 is reduced by half compared to the first resolution drawing 1210. However, when the SR method as described above is used, the resolution can be increased by a significant amount, and even a higher resolution than that represented in the third resolution drawing 1230 can be achieved through an additional algorithm.

図13は、一実施例により補間を行って解像度を高める一例を説明するための図面である。 Figure 13 is a diagram illustrating an example of increasing resolution by performing interpolation according to one embodiment.

第1周期の間受信ピクセルが受信した光の位相が、第1周期図面1350に開示されて、第2周期の間受信ピクセルが受信した光の位相が、第2周期図面1360に開示される。第1ピクセル1310及び第2ピクセル1320は、受信ピクセルであってもよい。 The phase of light received by the receiving pixel during the first period is shown in the first period drawing 1350, and the phase of light received by the receiving pixel during the second period is shown in the second period drawing 1360. The first pixel 1310 and the second pixel 1320 may be receiving pixels.

第1周期1350で、一実施例に係るプロセッサ1000は、第1ピクセル1310でのphase90°位相信号(90°位相時点に対する情報)を第1ピクセル1310と隣接するピクセル1311、1312、1313、1320が取得したphase90°位相信号(90°位相時点に対する情報)を補間して取得することができる。第1ピクセル1310では、phase0°位相信号とphase180°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase90°位相信号が取得されない。しかし、プロセッサ1000は、第1ピクセル1310でのphase90°位相信号を隣接ピクセルが取得した位相信号を補間して取得することができる。 In the first period 1350, the processor 1000 according to one embodiment may obtain a phase 90° phase signal (information for a 90° phase point) at the first pixel 1310 by interpolating the phase 90° phase signals (information for a 90° phase point) obtained by the first pixel 1310 and the adjacent pixels 1311, 1312, 1313, and 1320. The first pixel 1310 may only obtain a phase 0° phase signal and a phase 180° phase signal in the first period and the second period, respectively, and may not obtain a phase 90° phase signal. However, the processor 1000 may obtain a phase 90° phase signal at the first pixel 1310 by interpolating the phase signals obtained by the adjacent pixels.

第1周期1350で、一実施例に係るプロセッサ1000は、第2ピクセル1320でのphase0°位相信号(0°位相時点に対する情報)を第2ピクセル1320と隣接するピクセル1321、1322、1123、1310が取得したphase0°位相信号(0°位相時点に対する情報)を補間して取得することができる。第2ピクセル1320では、phase90°位相信号とphase270°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase0°位相信号が取得されない。しかし、プロセッサ1000は、第2ピクセル1320でのphase0°位相信号を隣接するピクセルが取得した位相信号を補間して取得することができる。 In the first period 1350, the processor 1000 according to one embodiment may obtain a phase 0° phase signal (information for the 0° phase time point) at the second pixel 1320 by interpolating the phase 0° phase signals (information for the 0° phase time point) obtained by the second pixel 1320 and the adjacent pixels 1321, 1322, 1123, and 1310. The second pixel 1320 may only obtain a phase 90° phase signal and a phase 270° phase signal in the first period and the second period, respectively, and may not obtain a phase 0° phase signal. However, the processor 1000 may obtain a phase 0° phase signal at the second pixel 1320 by interpolating the phase signals obtained by the adjacent pixels.

第2周期1360で、一実施例に係るプロセッサ1000は、第1ピクセル1310でのphase270°位相信号(270°位相時点に対する情報)を第1ピクセル1310と隣接するピクセル1311、1312、1313、1320が取得したphase270°位相信号270°位相時点に対する情報)を補間して取得することができる。第1ピクセル1310では、phase0°位相信号とphase180°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase270°位相信号が取得されない。しかし、プロセッサ1000は、第1ピクセル1310でのphase270°位相信号を隣接するピクセルが取得した位相信号を補間して取得することができる。 In the second period 1360, the processor 1000 according to one embodiment may obtain a phase 270° phase signal (information for the 270° phase time point) at the first pixel 1310 by interpolating the phase 270° phase signals (information for the 270° phase time point) obtained by the first pixel 1310 and the adjacent pixels 1311, 1312, 1313, and 1320. The first pixel 1310 may only obtain a phase 0° phase signal and a phase 180° phase signal in the first period and the second period, respectively, and may not obtain a phase 270° phase signal. However, the processor 1000 may obtain a phase 270° phase signal at the first pixel 1310 by interpolating the phase signals obtained by the adjacent pixels.

第2周期1360で、一実施例に係るプロセッサ1000は、第2ピクセル1320でのphase180°位相信号(180°位相時点に対する情報)を第2ピクセル1320と隣接するピクセル1321、1322、1123、1310が取得したphase180°位相信号(180°位相時点に対する情報)を補間して取得することができる。第2ピクセル1320では、phase90°位相信号とphase270°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase180°位相信号が取得されない。しかし、プロセッサ1000は、第2ピクセル1320でのphase180°位相信号を隣接するピクセルが取得した位相信号を補間して取得することができる。 In the second period 1360, the processor 1000 according to one embodiment may obtain a phase 180° phase signal (information for a 180° phase point) at the second pixel 1320 by interpolating the phase 180° phase signals (information for a 180° phase point) obtained by the second pixel 1320 and the adjacent pixels 1321, 1322, 1123, and 1310. The second pixel 1320 may only obtain a phase 90° phase signal and a phase 270° phase signal in the first period and the second period, respectively, and may not obtain a phase 180° phase signal. However, the processor 1000 may obtain a phase 180° phase signal at the second pixel 1320 by interpolating the phase signals obtained by the adjacent pixels.

図14は、一実施例によりオブジェクトに対する深さ情報を取得する方法を示すフローチャートである。図14は、上述された図1乃至図13の内容を参照して理解できる。 Figure 14 is a flow chart illustrating a method for obtaining depth information for an object according to one embodiment. Figure 14 can be understood with reference to the contents of Figures 1 to 13 described above.

ステップS1310で、一実施例に係るカメラモジュール100は、出力ピクセルを介して光をオブジェクトに出力する。一実施例によると、各出力ピクセルは、各受信ピクセルに対応することができる。 In step S1310, the camera module 100 according to one embodiment outputs light to the object through output pixels. According to one embodiment, each output pixel may correspond to each receiving pixel.

ステップS1320で、一実施例に係るカメラモジュール100は、第1周期の第1位相時点に第1受信ピクセルを利用して光を受信して、第1周期の第3位相時点に第2受信ピクセルを利用して光を受信する。例えば、第1周期で第1ピクセルは、phase0°の位相信号を受信して、第2ピクセルは、phase90°の位相信号を受信することができる。 In step S1320, the camera module 100 according to one embodiment receives light using a first receiving pixel at a first phase point of a first period, and receives light using a second receiving pixel at a third phase point of the first period. For example, in the first period, the first pixel may receive a phase signal of phase 0°, and the second pixel may receive a phase signal of phase 90°.

ステップS1330で、一実施例に係るカメラモジュール100は、第2周期の第2位相時点に第1受信ピクセルを利用して光を受信して、第2周期の第4位相時点に第2受信ピクセルを利用して光を受信する。例えば、第2周期で第1ピクセルはphase180°の位相信号を受信して、第2ピクセルは、phase270°の位相信号を受信することができる。第1ピクセル及び第2ピクセルは、受信ピクセルであってもよい。 In step S1330, the camera module 100 according to one embodiment receives light using a first receiving pixel at a second phase point of the second period, and receives light using a second receiving pixel at a fourth phase point of the second period. For example, in the second period, the first pixel may receive a phase signal of phase 180°, and the second pixel may receive a phase signal of phase 270°. The first pixel and the second pixel may be receiving pixels.

しかし、本実施例に制限されず、第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる任意の組み合わせであってもよい。 However, without being limited to this embodiment, the first to fourth phase points may be any combination different from each other corresponding to any of 0°, 90°, 180°, and 270°.

ステップS1340で、一実施例に係るカメラモジュール100は、第1周期及び第2周期の間取得された情報を利用してオブジェクトに対する深さイメージを取得する。プロセッサ1000は、二つの周期の間取得された情報だけで一つの深さイメージを取得することができる。 In step S1340, the camera module 100 according to one embodiment acquires a depth image for the object using information acquired during the first and second periods. The processor 1000 can acquire one depth image using only the information acquired during the two periods.

また、図13に図示されなかったが、第1受信ピクセルでの第3位相時点に対する情報を第1受信ピクセルと隣接するピクセルが第3位相時点で取得した情報で補間するステップがさらに含まれることができる。 In addition, although not shown in FIG. 13, a step of interpolating information for the third phase point at the first receiving pixel with information acquired at the third phase point by pixels adjacent to the first receiving pixel may be further included.

一方、上述した方法は、コンピュータで実行できるプログラムで作成可能で、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用デジタルコンピュータで具現されることができる。さらに、上述した方法で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に様々な手段を介して記録されることができる。前記コンピュータで読み取り可能な記録媒体は、マグネチック格納媒体(例えば、ロム、ラム、USB、フロッピーディスク、ハードディスクなど)、光学的読み取り媒体(例えば、CD-ROM、ティブイディなど)のような格納媒体を含む。 Meanwhile, the above-mentioned method can be created as a computer-executable program and can be implemented in a general-purpose digital computer that runs the program using a computer-readable recording medium. Furthermore, the data structure used in the above-mentioned method can be recorded in a computer-readable recording medium through various means. The computer-readable recording medium includes storage media such as magnetic storage media (e.g., ROM, RAM, USB, floppy disk, hard disk, etc.) and optically readable media (e.g., CD-ROM, BD, etc.).

以上添付図面を参照して本発明の実施例を説明したが、本発明が属する技術分野で通常の知識を有する者は、本発明がその技術的思想や必須の特徴を変更せず他の具体的な形態で実施されることができることを理解できるはずである。従って、以上で記述した実施例は。すべての面で例示的なものであり、限定的ではないものと理解しなければならない。 Although the embodiments of the present invention have been described above with reference to the attached drawings, those having ordinary skill in the art to which the present invention pertains should understand that the present invention can be embodied in other specific forms without changing its technical concept or essential features. Therefore, the embodiments described above should be understood to be illustrative in all respects and not limiting.

Claims (18)

オブジェクトに光を出力する光源;
前記オブジェクトから反射した光を受信ピクセルを介して受信するレシーバー;及び
前記光源が出力した光と前記レシーバーが受信した光の位相差を利用して前記オブジェクトに対する深さ情報を取得するプロセッサ;を含み、
前記受信ピクセルは、第1受信ピクセル及び第2受信ピクセルを含み、
前記第1受信ピクセルは、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、
前記第2受信ピクセルは、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信して、
前記プロセッサは、前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得し、
前記レシーバーは、前記受信ピクセルを区画して取得された第1ブロックと第2ブロックを含み、
前記プロセッサは、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して前記深さ情報を取得し、
前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうち一つのピクセルが重なる、カメラモジュール。
A light source that emits light onto an object;
a receiver that receives light reflected from the object through a receiving pixel; and a processor that obtains depth information for the object using a phase difference between the light output from the light source and the light received by the receiver;
the receiving pixels include a first receiving pixel and a second receiving pixel;
The first receiving pixel receives light at a first phase time point of a first period and a second phase time point of a second period,
The second receiving pixel receives light at a third phase time point of the first period and a fourth phase time point of the second period,
the processor obtains a depth image for the object using information obtained during the first period and the second period;
The receiver includes a first block and a second block obtained by dividing the received pixel,
The processor obtains the depth information by using both the light received through the first block and the light received through the second block;
A camera module, wherein two pixels included in the first block and one of two pixels included in the second block overlap.
前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる、請求項1に記載のカメラモジュール。 The camera module of claim 1, wherein the first to fourth phase points are different from each other and correspond to any of 0°, 90°, 180°, and 270°. 前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接する、請求項1又は2に記載のカメラモジュール。 The camera module according to claim 1 or 2, wherein the first receiving pixel and the second receiving pixel are adjacent to each other. 前記プロセッサは、前記第1受信ピクセルでの前記第3位相時点に対する情報を前記第1受信ピクセルと隣接するピクセルが前記第3位相時点で取得した情報で補間する、請求項1ないし3のいずれか1項に記載のカメラモジュール。 The camera module according to any one of claims 1 to 3, wherein the processor interpolates information at the first receiving pixel for the third phase time point with information acquired at the third phase time point by pixels adjacent to the first receiving pixel. 前記第3位相時点に対する情報は、前記第3位相時点に受信された光に対しての電荷量情報を含む、請求項1ないし4のいずれか1項に記載のカメラモジュール。 A camera module according to any one of claims 1 to 4, wherein the information for the third phase time point includes charge amount information for the light received at the third phase time point. 前記プロセッサは、超解像手法(super resolution)を適用して解像度を高める、請求項1ないし5のいずれか1項に記載のカメラモジュール。 A camera module according to any one of claims 1 to 5, wherein the processor applies a super resolution technique to increase the resolution. 前記光源は前記プロセッサから受信された制御信号により大きさ(amplitude)変調または位相(phase)変調を行って前記光を出力する、請求項1ないし6のいずれか1項に記載のカメラモジュール。 The camera module according to any one of claims 1 to 6, wherein the light source outputs the light by performing amplitude modulation or phase modulation according to a control signal received from the processor. 前記光源から出力される光はプロセッサの制御信号により既設定周期を有する周期的な連続関数の形態を有する、請求項1ないし6のいずれか1項に記載のカメラモジュール。 A camera module according to any one of claims 1 to 6, wherein the light output from the light source has the form of a periodic continuous function having a preset period according to a control signal from a processor. 前記光源は複数の出力ピクセルを含み、複数の出力ピクセルの各々は互いに独立に光を出力する、請求項1ないし8のいずれか1項に記載のカメラモジュール。 A camera module according to any one of claims 1 to 8, wherein the light source includes a plurality of output pixels, each of which outputs light independently of the others. 前記複数の出力ピクセルは、互いに異なる強さの光、互いに異なる周波数の光、互いに異なる位相の光または、互いに異なるディレイタイムを有する光を出力する、請求項9に記載のカメラモジュール。 The camera module according to claim 9, wherein the plurality of output pixels output light of different intensities, different frequencies, different phases, or different delay times. オブジェクトに光を出力する光源;
前記オブジェクトから反射した光を受信ピクセルを介して受信する、レシーバーに含まれるイメージセンサー;
プロセッサを含む印刷回路基板;及び
レンズを含み、前記印刷回路基板と結合されるレンズバレルを含み、
前記プロセッサは前記光源が出力した光と前記イメージセンサーが受信した光の位相差を利用して前記オブジェクトに対する深さ情報を獲得し、
前記受信ピクセルは、第1受信ピクセル及び第2受信ピクセルを含み、
前記第1受信ピクセルは、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、
前記第2受信ピクセルは、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信して、
前記プロセッサは、前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得し、
前記レシーバーは、前記受信ピクセルを区画して取得された第1ブロックと第2ブロックを含み、
前記プロセッサは、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して前記深さ情報を取得し、
前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうち一つのピクセルが重なる、カメラモジュール。
A light source that emits light onto an object;
an image sensor included in the receiver that receives light reflected from the object via receiving pixels;
a printed circuit board including a processor; and a lens barrel including a lens and coupled to the printed circuit board;
the processor obtains depth information for the object using a phase difference between the light output from the light source and the light received by the image sensor;
the receiving pixels include a first receiving pixel and a second receiving pixel;
The first receiving pixel receives light at a first phase time point of a first period and a second phase time point of a second period,
The second receiving pixel receives light at a third phase time point of the first period and a fourth phase time point of the second period,
the processor obtains a depth image for the object using information obtained during the first period and the second period;
The receiver includes a first block and a second block obtained by dividing the received pixel,
The processor obtains the depth information by using both the light received through the first block and the light received through the second block;
A camera module, wherein two pixels included in the first block and one of two pixels included in the second block overlap.
前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる、請求項11に記載のカメラモジュール。 The camera module according to claim 11, wherein the first to fourth phase points are different from each other and correspond to any one of 0°, 90°, 180°, and 270°. 前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接する、請求項11又は12に記載のカメラモジュール。 The camera module according to claim 11 or 12, wherein the first receiving pixel and the second receiving pixel are adjacent to each other. 前記プロセッサは、前記第1受信ピクセルでの前記第3位相時点に対する情報を前記第1受信ピクセルと隣接するピクセルが前記第3位相時点で取得した情報で補間する、請求項11ないし13のいずれか1項に記載のカメラモジュール。 The camera module according to any one of claims 11 to 13, wherein the processor interpolates information at the first receiving pixel for the third phase time point with information acquired at the third phase time point by pixels adjacent to the first receiving pixel. 光をオブジェクトに出力するステップ;
第1周期の第1位相時点に受信ピクセル内の第1受信ピクセルを利用して光を受信して、第1周期の第3位相時点に前記受信ピクセル内の第2受信ピクセルを利用して光を受信するステップ;
第2周期の第2位相時点に第1受信ピクセルを利用して光を受信して、第2周期の第4位相時点に第2受信ピクセルを利用して光を受信するステップ;及び
前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得するステップ;
前記受信ピクセルを区画して取得された第1ブロックと第2ブロックにおいて、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して深さ情報を取得するステップ;を含み、
前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうち一つのピクセルが重なる、
深さ情報取得方法。
outputting light onto an object;
receiving light using a first receiving pixel among the receiving pixels at a first phase time point of a first period, and receiving light using a second receiving pixel among the receiving pixels at a third phase time point of the first period;
receiving light using a first receiving pixel at a second phase time point of a second period and receiving light using a second receiving pixel at a fourth phase time point of the second period; and obtaining a depth image for the object using information obtained during the first period and the second period;
obtaining depth information by using both the light received through the first block and the light received through the second block in a first block and a second block obtained by dividing the receiving pixel;
Two pixels included in the first block and one of two pixels included in the second block overlap each other;
How to obtain depth information.
前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる、請求項15に記載の深さ情報取得方法。 The depth information acquisition method according to claim 15, wherein the first to fourth phase points are different from each other and correspond to any one of 0°, 90°, 180°, and 270°. 前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接する、請求項15又は16に記載の深さ情報獲得方法。 The depth information acquisition method according to claim 15 or 16, wherein the first receiving pixel and the second receiving pixel are adjacent to each other. 前記第1受信ピクセルでの前記第3位相時点に対する情報を前記第1受信ピクセルと隣接するピクセルが前記第3位相時点で取得した情報で補間するステップを含む、請求項15乃至17のいずれか1項に記載の深さ情報獲得方法 The depth information acquisition method according to any one of claims 15 to 17, comprising a step of interpolating information for the third phase time point at the first receiving pixel with information acquired at the third phase time point by pixels adjacent to the first receiving pixel.
JP2021517366A 2018-10-05 2019-10-07 Method for acquiring depth information and camera module Active JP7498703B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2018-0119341 2018-10-05
KR1020180119341A KR102562360B1 (en) 2018-10-05 2018-10-05 Method and camera module for acquiring depth information
PCT/KR2019/013133 WO2020071883A1 (en) 2018-10-05 2019-10-07 Method for obtaining depth information, and camera module

Publications (2)

Publication Number Publication Date
JP2022502652A JP2022502652A (en) 2022-01-11
JP7498703B2 true JP7498703B2 (en) 2024-06-12

Family

ID=70054440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517366A Active JP7498703B2 (en) 2018-10-05 2019-10-07 Method for acquiring depth information and camera module

Country Status (6)

Country Link
US (1) US20210373163A1 (en)
EP (1) EP3863283A4 (en)
JP (1) JP7498703B2 (en)
KR (1) KR102562360B1 (en)
CN (1) CN112806000B (en)
WO (1) WO2020071883A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113625303A (en) * 2021-08-05 2021-11-09 思特威(上海)电子科技股份有限公司 Pixel array signal acquisition method, time-of-flight sensor, terminal and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009079987A (en) 2007-09-26 2009-04-16 Fujifilm Corp Method and device for measuring distance
US20160198147A1 (en) 2015-01-06 2016-07-07 Gregory Waligorski Correction of depth images from t-o-f 3d camera with electronic-rolling-shutter for light modulation changes taking place during light integration
JP2018513366A (en) 2015-03-31 2018-05-24 グーグル エルエルシー Method and apparatus for increasing the frame rate of time-of-flight measurement
JP2018522203A (en) 2015-07-20 2018-08-09 グーグル エルエルシー Method and apparatus for increasing the resolution of time-of-flight pixel arrays

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623726B1 (en) * 2005-11-30 2009-11-24 Adobe Systems, Incorporated Method and apparatus for using a virtual camera to dynamically refocus a digital image
KR101887099B1 (en) * 2010-12-29 2018-08-09 삼성전자주식회사 image processing system and image processing method
KR101788032B1 (en) * 2011-03-24 2017-10-19 삼성전자주식회사 Depth sensor, depth information error compensation method thereof, and signal processing system having the depth sensor
KR101828814B1 (en) * 2011-07-07 2018-02-13 삼성전자주식회사 Depth image conversion apparatus and method thereof
KR101929557B1 (en) * 2011-07-12 2018-12-17 삼성전자주식회사 Method and apparatus for processing blur
KR102007275B1 (en) * 2012-12-27 2019-08-05 삼성전자주식회사 Depth pixel of three-dimensional image sensor and three-dimensional image sensor including the same
KR102040152B1 (en) * 2013-04-08 2019-12-05 삼성전자주식회사 An 3D image apparatus and method for generating a depth image in the 3D image apparatus
US10268885B2 (en) * 2013-04-15 2019-04-23 Microsoft Technology Licensing, Llc Extracting true color from a color and infrared sensor
KR102136850B1 (en) * 2013-11-12 2020-07-22 삼성전자 주식회사 A depth sensor, and a method of operating the same
US9655190B2 (en) * 2014-01-06 2017-05-16 Philips Lighting Holding B.V. Ripple based light emitting diode driving
EP2894492B1 (en) * 2014-01-13 2020-10-28 Sony Depthsensing Solutions SA/NV A method for driving a time-of-flight system
US10062180B2 (en) * 2014-04-22 2018-08-28 Microsoft Technology Licensing, Llc Depth sensor calibration and per-pixel correction
JPWO2017085916A1 (en) * 2015-11-16 2018-09-06 パナソニックIpマネジメント株式会社 Imaging device and solid-state imaging device used therefor
EP3193190B1 (en) * 2016-01-15 2023-04-12 Sony Depthsensing Solutions N.V. A detector device with majority current and a circuitry for controlling the current
US9921359B2 (en) * 2016-07-26 2018-03-20 Harvatek Corporation Light source module
US10189400B2 (en) * 2016-08-08 2019-01-29 Ford Global Technologies, Llc Mobile device tracking for control of vehicle subsystems
JP6862255B2 (en) * 2017-04-12 2021-04-21 キヤノン株式会社 Imaging device, imaging method and imaging program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009079987A (en) 2007-09-26 2009-04-16 Fujifilm Corp Method and device for measuring distance
US20160198147A1 (en) 2015-01-06 2016-07-07 Gregory Waligorski Correction of depth images from t-o-f 3d camera with electronic-rolling-shutter for light modulation changes taking place during light integration
JP2018513366A (en) 2015-03-31 2018-05-24 グーグル エルエルシー Method and apparatus for increasing the frame rate of time-of-flight measurement
JP2018522203A (en) 2015-07-20 2018-08-09 グーグル エルエルシー Method and apparatus for increasing the resolution of time-of-flight pixel arrays

Also Published As

Publication number Publication date
CN112806000B (en) 2023-12-12
KR102562360B1 (en) 2023-08-02
JP2022502652A (en) 2022-01-11
EP3863283A1 (en) 2021-08-11
WO2020071883A1 (en) 2020-04-09
US20210373163A1 (en) 2021-12-02
EP3863283A4 (en) 2022-07-06
KR20200039418A (en) 2020-04-16
CN112806000A (en) 2021-05-14

Similar Documents

Publication Publication Date Title
KR102486385B1 (en) Apparatus and method of sensing depth information
KR101854188B1 (en) 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus
KR102056904B1 (en) 3D image acquisition apparatus and method of driving the same
KR102112298B1 (en) Method and apparatus for generating color image and depth image
KR102194233B1 (en) Apparatus and method for generating a depth image
KR102368597B1 (en) Image photographing apparatus and method of controlling thereof
US10958885B2 (en) Filtering imaging system including a light source to output an optical signal modulated with a code
JP6467516B2 (en) Projector device with distance image acquisition device and projection method
KR102194237B1 (en) Method and apparatus for generating depth image
CN101430796A (en) Image generating method and apparatus
CN104620260B (en) The method and apparatus for being used at least one light-pulse generator of vehicle for identification
KR102610830B1 (en) Method and device for acquiring distance information
JP7498703B2 (en) Method for acquiring depth information and camera module
CN112823512B (en) Method for acquiring depth information and camera module
WO2019160656A1 (en) Short-wave infrared and 3d topographic imager
CN112585961A (en) Camera with a camera module
US20220057508A1 (en) Method and camera module for acquiring depth information
KR20200049152A (en) Camera device
KR20150010230A (en) Method and apparatus for generating color image and depth image of an object using singular filter
CN114207474A (en) Unwrapped phase of time-of-flight modulated light
KR20210007336A (en) Method and camera for acquiring image
JP2016134732A (en) Imaging device and imaging method
CN114868037A (en) Information processing device, imaging device, information processing method, and program
US10904449B2 (en) Intrinsic color camera
You et al. MOEMS-based time-of-flight camera for 3D video capturing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240531

R150 Certificate of patent or registration of utility model

Ref document number: 7498703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150