JP7498703B2 - Method for acquiring depth information and camera module - Google Patents
Method for acquiring depth information and camera module Download PDFInfo
- Publication number
- JP7498703B2 JP7498703B2 JP2021517366A JP2021517366A JP7498703B2 JP 7498703 B2 JP7498703 B2 JP 7498703B2 JP 2021517366 A JP2021517366 A JP 2021517366A JP 2021517366 A JP2021517366 A JP 2021517366A JP 7498703 B2 JP7498703 B2 JP 7498703B2
- Authority
- JP
- Japan
- Prior art keywords
- phase
- light
- pixel
- period
- camera module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 230000000737 periodic effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 11
- 230000004397 blinking Effects 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004593 Epoxy Substances 0.000 description 1
- 239000004840 adhesive resin Substances 0.000 description 1
- 229920006223 adhesive resin Polymers 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本開示は、深さ情報を取得する方法及びカメラモジュールに関する。 The present disclosure relates to a method and a camera module for obtaining depth information.
光を出力してオブジェクトに反射させることで情報を取得する装置が様々な分野で利用されている。例えば、3Dカメラから距離測定手法に至るまで、光を出力して情報を取得する技術は様々な方式で利用されている。 Devices that emit light and reflect it off an object to obtain information are used in a variety of fields. For example, from 3D cameras to distance measurement methods, technology that emits light to obtain information is used in a variety of ways.
例えば、TOF(Time of Flight)は、光が出力された時点とオブジェクトに反射して戻ってきた受信光の受信時点の間の時間差を測定して距離を測定する原理を示す用語であって、TOF技術は、実現方法が簡単であるため、航空、造船、土木、カメラ、測量など様々な分野で利用されている。 For example, TOF (Time of Flight) is a term that refers to the principle of measuring distance by measuring the time difference between when light is emitted and when the light is reflected off an object and returned. TOF technology is easy to implement and is therefore used in a variety of fields, including aviation, shipbuilding, civil engineering, cameras, and surveying.
また、これと関連してハードウェア対比良い性能を有するカメラに対するニーズが増加している。 In connection with this, there is an increasing need for cameras with better hardware performance.
本開示は、一つ以上の実施例により深さ情報を取得する方法及びカメラモジュールを提供することができる。一実施例により、深さ情報を取得できるカメラモジュールにおいて第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する方法が開示される。カメラモジュールは、第1受信ピクセル及び第2受信ピクセルにおいて第1周期及び第2周期の間取得した光を利用して、オブジェクトに対する深さイメージを取得することができる。解決しようとする技術的課題は、前記のような技術的課題で限定されず、通常の技術者に自明な範囲内で多様な技術的課題がさらに含まれることができる。 The present disclosure may provide a method and a camera module for acquiring depth information according to one or more embodiments. According to one embodiment, a method for acquiring a depth image of an object using light acquired during a first period and a second period in a camera module capable of acquiring depth information is disclosed. The camera module may acquire a depth image of an object using light acquired during a first period and a second period in a first receiving pixel and a second receiving pixel. The technical problem to be solved is not limited to the above technical problem, and may further include various technical problems within a scope obvious to a person skilled in the art.
第1側面に係るカメラモジュールは、光をオブジェクトに出力する光源;前記オブジェクトから反射した光を受信ピクセルを介して受信するレシーバー;及び前記光源が出力した光と前記レシーバーが受信した光の位相差を利用して前記オブジェクトに対する深さ情報を取得するプロセッサ;を含み、前記受信ピクセルは、第1受信ピクセル及び第2受信ピクセルを含み、前記第1受信ピクセルは、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、前記第2受信ピクセルは、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信して、前記プロセッサは、前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得することができる。 The camera module according to the first aspect includes a light source that outputs light to an object; a receiver that receives light reflected from the object through a receiving pixel; and a processor that acquires depth information for the object using a phase difference between the light output by the light source and the light received by the receiver; the receiving pixels include a first receiving pixel and a second receiving pixel, the first receiving pixel receives light at a first phase point of a first period and a second phase point of a second period, respectively, and the second receiving pixel receives light at a third phase point of the first period and a fourth phase point of the second period, respectively, and the processor can acquire a depth image for the object using the information acquired during the first period and the second period.
さらに、前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なってもよい。 Furthermore, the first to fourth phase points may be different from each other and correspond to any of 0°, 90°, 180°, and 270°.
さらに、前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接することができる。 Furthermore, the first receiving pixel and the second receiving pixel can be adjacent to each other.
さらに、プロセッサは、前記第1受信ピクセルでの前記第3位相時点に対する情報を前記第1受信ピクセルと隣接したピクセルが、前記第3位相時点で取得した情報で補間することができる。 Furthermore, the processor may interpolate information for the first receiving pixel at the third phase point with information acquired at the third phase point by pixels adjacent to the first receiving pixel.
前記第3位相時点に対する情報は、前記第3位相時点に受信された光に対しての電荷量情報を含むことができる。 The information for the third phase point may include charge amount information for the light received at the third phase point.
さらに、前記プロセッサは、超解像手法(super resolution)を適用して解像度を高めることができる。 Additionally, the processor can apply super resolution techniques to increase resolution.
さらに、前記レシーバーは、前記受信ピクセルを区画して取得された第1ブロックと第2ブロックを含み、前記プロセッサは、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して前記深さ情報を取得することができる。 Furthermore, the receiver includes a first block and a second block obtained by dividing the receiving pixel, and the processor can obtain the depth information by using both the light received through the first block and the light received through the second block.
さらに、前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうちの一つのピクセルが重なってもよい。 Furthermore, two pixels included in the first block and one of two pixels included in the second block may overlap.
第2側面に係る深さ情報取得方法は、光をオブジェクトに出力するステップ;第1周期の第1位相時点に第1受信ピクセルを利用して光を受信して、第1周期の第3位相時点に第2受信ピクセルを利用して光を受信するステップ;第2周期の第2位相時点に第1受信ピクセルを利用して光を受信して、第2周期の第4位相時点に第2受信ピクセルを利用して光を受信するステップ;及び前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得するステップ;を含むことができる。 The depth information acquisition method according to the second aspect may include the steps of: outputting light to an object; receiving light using a first receiving pixel at a first phase point of a first period and receiving light using a second receiving pixel at a third phase point of the first period; receiving light using a first receiving pixel at a second phase point of a second period and receiving light using a second receiving pixel at a fourth phase point of the second period; and acquiring a depth image for the object using information acquired during the first period and the second period.
さらに、前記第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なってもよい。 Furthermore, the first to fourth phase points may be different from each other and correspond to any of 0°, 90°, 180°, and 270°.
さらに、前記第1受信ピクセル及び前記第2受信ピクセルは、互いに隣接することができる。 Furthermore, the first receiving pixel and the second receiving pixel can be adjacent to each other.
さらに、前記第1受信ピクセルが、前記第1周期の間取得した光を利用して取得した深さ情報を前記第1受信ピクセルと斜めに隣接した一つ以上のピクセルが、前記第1周期の間取得した光に対しての情報を利用して補間するステップをさらに含むことができる。 The method may further include a step of interpolating depth information acquired by the first receiving pixel using light acquired during the first period with information on light acquired during the first period by one or more pixels diagonally adjacent to the first receiving pixel.
第3側面は、第2側面に係る方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することができる。 The third aspect can provide a computer-readable recording medium having a program recorded thereon for causing a computer to execute the method according to the second aspect.
本開示は一つ以上の実施例により深さ情報を取得する方法及びカメラモジュールを提供することができる。一実施例により、深さ情報を取得できるカメラモジュールにおいて第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する方法が開示される。 The present disclosure may provide a method and a camera module for acquiring depth information according to one or more embodiments. According to one embodiment, a method for acquiring a depth image of an object using light acquired during a first period and a second period in a camera module capable of acquiring depth information is disclosed.
以下、添付された図面を参照して本発明の好ましい実施例を詳細に説明する。 The preferred embodiment of the present invention will now be described in detail with reference to the attached drawings.
ただし、本発明の技術思想は、説明される一部実施例に限定されず各々異なる様々な形態で具現されることができて、本発明の技術思想範囲内でなら、実施例間その構成要素中一つ以上を選択的に結合または置き換えて使うことができる。 However, the technical concept of the present invention is not limited to the embodiments described and may be embodied in various different forms, and one or more of the components of the embodiments may be selectively combined or substituted within the scope of the technical concept of the present invention.
さらに、本発明の実施例で使われる用語(技術及び科学的用語を含む)は、明白に特に定義されて記述されない限り、この発明が属する技術分野で通常の知識を有する者に通常理解できる意味と解釈され、予め定義された用語と共に通常使われる用語は、関連技術の文脈上の意味を考慮してその意味を解釈することができるはずである。 Furthermore, terms (including technical and scientific terms) used in the embodiments of the present invention shall be interpreted as having a meaning that is commonly understood by a person of ordinary skill in the art to which the present invention belongs, unless expressly defined and described otherwise, and terms commonly used in conjunction with predefined terms should be interpreted in light of the contextual meaning of the relevant art.
さらに、本発明の実施例で使われた用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。 Furthermore, the terms used in the embodiments of the present invention are intended to describe the embodiments and are not intended to limit the present invention.
本明細書で、単数型は文面で特に言及しない限り複数型も含むことができ、“A及び(と)B、C中少なくとも一つ(または一個以上)”と記載される場合、A、B、Cで組み合わせできるすべての組み合わせ中一つ以上を含むことができる。 In this specification, the singular can include the plural unless otherwise specified in the context, and when it says "A and/or at least one of B and C," it can include one or more of all possible combinations of A, B, and C.
さらに、本発明の実施例の構成要素を説明するにあたり、第1、第2、A、B、(a)、(b)等の用語を使うことができる。このような用語は、その構成要素を別の構成要素と区別するためのものであって、その用語によって該当構成要素の本質や順番または順序などで限定されない。 Furthermore, in describing components of the embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. Such terms are used to distinguish the components from other components, and are not intended to limit the nature, order, or sequence of the components.
なお、ある構成要素が別の構成要素に‘連結’、‘結合’、または‘接続’されると記載された場合、その構成要素はその別の構成要素に直接的に‘連結’、‘結合’、または‘接続’される場合だけでなく、その構成要素とその別の構成要素の間にあるさらに別の構成要素によって‘連結’、‘結合’、または‘接続’される場合も含むことができる。 When a component is described as being 'coupled', 'bonded' or 'connected' to another component, this includes not only the case where the component is directly 'coupled', 'bonded' or 'connected' to the other component, but also the case where the component is 'coupled', 'bonded' or 'connected' to the other component via yet another component between the component and the other component.
さらに、各構成要素の“上(の上)”または“下(の下)”に形成または配置されると記載される場合、“上(の上)”または“下(の下)”は、二つの構成要素が互いに直接接触する場合だけでなく、一つ以上のさらに別の構成要素が二つの構成要素の間に形成または配置される場合も含む。さらに、“上(の上)”または“下(下)”と表される場合、一つの構成要素を基準に上側方向だけでなく下側方向の意味も含まれることができる。 Furthermore, when described as being formed or disposed "above" or "below" each component, "above" or "below" includes not only the case where two components are in direct contact with each other, but also the case where one or more additional components are formed or disposed between the two components. Furthermore, when described as "above" or "below", it can include not only the upper direction but also the lower direction based on one component.
さらに、以下で記載される数値は、誤差に係る合理的な範囲内の数値と解釈されることができる。例えば、“1”と記載された数値が、“1.01”と解釈されることができる。 Furthermore, the numerical values described below can be interpreted as being within a reasonable range of error. For example, a numerical value described as "1" can be interpreted as "1.01."
以下では、図面を参照して本発明の実施例を詳細に説明する。以下で‘光’とは‘光信号’を含む概念と理解され、‘信号’とは‘光信号’を含む概念と理解されて、混用されて使われることができる。 Below, an embodiment of the present invention will be described in detail with reference to the drawings. Hereinafter, 'light' is understood as a concept including 'optical signal', and 'signal' is understood as a concept including 'optical signal', and the terms may be used interchangeably.
図1は、一実施例に係るカメラモジュール100の構成及び動作を示すブロック図である。
Figure 1 is a block diagram showing the configuration and operation of a
図1に示したように、カメラモジュール100は、光源1100、プロセッサ1000及びレシーバー120を含むことができる。
As shown in FIG. 1, the
しかし、図1に図示された構成要素外に他の汎用的な構成要素がカメラモジュール100にさらに含まれる可能性があることを関連技術分野で通常の知識を有する者なら理解できる。例えば、カメラモジュール100は、光源から出力された光が透過するディフューザー、光源1100に含まれる光変調器(図示せず)またはプロセッサ1000と連結されるメモリ(図示せず)等をさらに含むことができる。用語“メモリ”は、電子情報を格納可能な任意の電子コンポーネントを含むように広く解釈されることができる。用語メモリは、ランダムアクセスメモリ(RAM)、読み取り―専用メモリ(ROM)、非揮発性ランダムアクセスメモリ(NVRAM)、プログラム可能な読み取り-専用メモリ(PROM)、消去-プログラム可能な読み取り専用メモリ(EPROM)、電気的に消去可能なPROM(EEPROM)、フラッシュメモリ、磁気または光学データ格納装置、レジスター、などのようなプロセッサ-読み取り可能な媒体の多様な類型を指し示すこともできる。
However, a person of ordinary skill in the art will understand that the
プロセッサ1000が、メモリから情報を読み取る/メモリに情報を記録できるなら、メモリはプロセッサと電子通信状態にあるといえる。プロセッサ1000に集積されたメモリは、プロセッサと電子通信状態にある。
If the
さらに、メモリは、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDまたはXDメモリなど)、ラム(RAM,Random Access Memory) SRAM(Static Random Access Memory)、ロム(ROM,Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリ、磁気ディスク、光ディスク中少なくとも一つのタイプの格納媒体を含むことができる。 Furthermore, memory can be of a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (such as SD or XD memory), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), etc. It can include at least one type of storage medium: memory, magnetic memory, magnetic disk, or optical disk.
または、別の実施例に係る場合、図1に図示された構成要素のうち一部構成要素は、省略される可能性があることを関連技術分野で通常の知識を有する者なら理解できる。 Alternatively, a person having ordinary skill in the relevant art would understand that in other embodiments, some of the components illustrated in FIG. 1 may be omitted.
一実施例に係る光源1100は、光を出力することができる。光源1100から出力される光は、既設定された範囲内の波長であってもよい。
The
光源1100は、例えば、赤外線波長を有する光、安全のために人間の目には見えない約850nmの近赤外線(NIR)波長を有する光を放出させることができる発光ダイオード(LED)またはレーザーダイオード(LD)であってもよいが、波長の帯域と光源の種類は制限を受けない。例えば、光源1100から出力する光の波長は、可視光線領域に含まれることもできて、紫外線領域に含まれることもできる。
The
プロセッサ1000から受信された制御信号により光源1100は、例えば大きさ(amplitude)変調または位相(phase)変調を行って光を出力することができる。
Depending on the control signal received from the
プロセッサ1000の制御信号により光源1100からオブジェクト130に出力される光は、既設定周期を有する周期的な連続関数の形態を有することができる。例えば、光はサイン波、ランプ波、四角波、パルス波などのように特別に定義された波形を有することもできるが、定義されなかった通常の形態の波形を有することもできる。
The light output from the
レシーバー120は、オブジェクト130で反射した光を受信することができる。レシーバー120が受信する受信光を介してカメラモジュール100は、様々な情報を取得することができる。
The
一実施例に係るカメラモジュール100は、受信光を介して、オブジェクト130に対する情報を取得することができる。例えば、プロセッサ1000は、オブジェクト130の形状、大きさ、色、深さなどオブジェクトに対する様々な情報を取得することができる。
The
レシーバー120は、レシーバー120に流入する様々な光のうち光源1100から出力された光が、オブジェクト130に反射して取得される受信光を区別することができる。例えば、光源1100が750nm~950nm範囲の光を出力する場合、レシーバー120は、フィルタリングを介して750nm~950nm範囲の光を選別的に取得することができる。さらに、レシーバー120は、光に対応する受信光を選別的に取得することによって、オブジェクト130に対する正確な情報を取得することができる。
The
一実施例に係るカメラモジュール100は、ToF機能を利用して深さ情報を抽出することができるため、本開示でToFカメラモジュールまたはToFモジュールと混用されて理解される。
The
光源1100は、出力する光を生成してオブジェクト130に照射することができる。この時、光源1100は、パルス波(pulse wave)の形態や持続波(continuous wave)の形態で光を生成して出力することができる。持続波は、サイン波(sinusoid wave)や四角波(squared wave)の形態であってもよい。光をパルス波や持続波形態で生成することによって、カメラモジュール100は、光源1100から出力された光とオブジェクトから反射した後、カメラモジュール100が受信した光間の位相差を決めることができる。
The
光源1100は、生成された光を既設定露出周期の間オブジェクト130に照射することができる。露出周期とは、一つのフレーム周期を意味する。複数のフレームを生成する場合、設定された露出周期が繰り返されることができる。例えば、カメラモジュール100が、20FPSでオブジェクトを撮影する場合、露出周期は1/20[sec]となる。そして、100個のフレームを生成する場合、露出周期は100回繰り返されることになる。
The
光源1100は、互いに異なる周波数を有する複数の光を生成することができる。光源1100は、各々異なる周波数を有する複数の光を順次繰り返し生成することができる。または、光源1100は、互いに異なる周波数を有する複数の光を同時に生成することもできる。
The
一実施例に係る光源1100は、出力ピクセルを介して光をオブジェクト1100に出力することができる。光源1100は、出力ピクセルを含むことができ、出力ピクセルの各々は、互いに独立に光を出力することができる。例えば、出力ピクセルは、互いに異なる強さの光が出力できて、互いに異なる周波数の光が出力できて、互いに異なる位相の光が出力できて、互いに異なるディレイタイムを有する光を出力することができる。各出力ピクセルは、発光ダイオードを含むことができる。
The
一実施例に係るレシーバー120は、受信ピクセルを介して光を受信することができる。レシーバー120は、光源1100から出力された光が、オブジェクト130に反射して取得される反射光を受信することができる。レシーバー120は、受信ピクセルを含むことができ、受信ピクセルの各々は、互いに独立に光を受信することができる。例えば、受信ピクセルは、互いに異なるタイミングで光を受信できて、互いに異なるフィルタリング方式で光を受信することができる。
The
一実施例に係るレシーバー120は、レンズ(図示せず)及びイメージセンサーを含むことができる。レンズは、オブジェクト130から反射した光を集光してイメージセンサー(図示せず)に伝達することができる。イメージセンサーは、光を受信して、受信した光に対応する電気信号を生成することができる。
The
一実施例によると、光源1100は、時間の流れにより異なる周波数の光を出力することができる。例えば、光源1100は、露出周期の初半分の間は、周波数f1の光を出力して、残りの半分の露出周期の間は、周波数f2の光を出力することができる。
According to one embodiment, the
一実施例によると、光源1100に含まれた複数の発光ダイオードのうち一部発光ダイオードは、周波数f1の光を出力して、残りの発光ダイオードは、周波数f2の光を出力することができる。
According to one embodiment, some of the multiple light emitting diodes included in the
光源1100に含まれた複数の発光ダイオードを制御するため、光源1100は、光変調器を含むことができる。
To control the multiple light emitting diodes included in the
光源1100は、光を生成することができる。光源1100が生成する光は、波長が770乃至3000nmである赤外線であってもよく、波長が380乃至770nmである可視光線であってもよい。光源1100は、発光ダイオード(Light Emitting Diode,LED)を利用することができ、複数の発光ダイオードが、一定のパターンにより配列された形態を有することができる。光源1100は、有機発光ダイオード(Organic light emitting diode,OLED)やレーザーダイオード(Laser diode,LD)を含むこともできる。または、光源1100は、VCSEL(Vertical Cavity Surface Emitting Laser)でもある。VCSELは、電気信号を光に変えるレーザーダイオード中一つであり、約800乃至1000nmである波長、例えば約850nmまたは約940nm波長を使うことができる。
The
光源1100は、一定時間間隔で点滅(on/off)を繰り返してパルス波形態や持続波形態の光を生成することができる。一定時間間隔は、光の周波数であってもよい。光源の点滅は、光変調器によって制御されることができる。
The
光変調器は、光源1100の点滅を制御して光源1100が持続波やパルス波形態の光を生成するように制御することができる。光変調器は、周波数変調(frequency modulation)やパルス変調(pulse modulation)等を介して光源1100が、持続波やパルス波形態の光を生成するように制御することができる。
The optical modulator can control the on/off of the
一実施例に係るプロセッサ1000は、光源1100が出力した光とレシーバー120が受信した光の位相差を利用して、オブジェクト130に対する深さ情報を取得することができる。レシーバー120は、互いに異なる位相差を有する複数の参照信号(reference signal)を利用して、各参照信号に対応する電気信号を生成することができる。参照信号の周波数は、光源1100から出力された光の周波数と同じに決定されることができる。従って、光源1100が複数の周波数で光を生成する場合、レシーバー120は各周波数に対応する複数の参照信号を利用して電気信号を生成することができる。電気信号は、各参照信号に対応する電荷量や電圧に関する情報を含むことができる。
The
一実施例に係る参照信号は、四つ(C1乃至C4)であってもよい。各参照信号(C1乃至C4)は、光源1100が出力した光と同じ周波数を有するが、互いに90度位相差を有することができる。四つの参照信号中一つ(C1)は、光源1100が出力した光と同じ位相を有することができる。オブジェクト130から反射して取得された光は、光源1100が出力した光がオブジェクト130から反射して帰ってくる距離程度位相が遅れる。
In one embodiment, there may be four reference signals (C1 to C4). Each reference signal (C1 to C4) has the same frequency as the light output by the
レシーバー120は、受信された光と各参照信号を各々ミキシング(mixing)してQ1乃至Q4信号を各参照信号別に生成することができる。レシーバー120は、複数のピクセルがグリッド形態で配列された構造から構成されたイメージセンサーを含むことができる。イメージセンサーは、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーであってもよく、CCD(Charge Coupled Device)イメージセンサーであってもよい。さらに、イメージセンサーは、オブジェクトから反射する赤外線光を受信して時間または位相差を利用して距離を測定するToFセンサーを含むことができる。
The
具体的に、プロセッサ1000は、電気信号の電荷量情報を利用して出力光と入力光との間の位相差を計算することができる。
Specifically, the
上述した通り、光源1100から出力される光の周波数ごとに四つの電気信号が生成されることができる。従って、プロセッサ1000は、下の数学式1を利用して光源1100から出力される光とレシーバー120が受信する光との間の位相差(td)を決めることができる。
ここで、Q1乃至Q4は、四つの電気信号の各々の電荷充電量であってもよい。Q1は、光源1100から出力される光と同じ位相の基準信号に対応する電気信号の電荷量で、Q2は、光源1100から出力される光より位相が180度遅い基準信号に対応する電気信号の電荷量で、Q3は、光源1100から出力される光より位相が90度遅い基準信号に対応する電気信号の電荷量で、Q4は、光源1100から出力される光より位相が270度遅い基準信号に対応する電気信号の電荷量であってもよい。
Here, Q1 to Q4 may be the charge amount of each of the four electrical signals. Q1 may be the charge amount of the electrical signal corresponding to a reference signal having the same phase as the light output from the
そうすると、プロセッサ1000は、光源1100から出力される光とレシーバー120が受信する光の位相差を利用して、オブジェクト130とカメラモジュール100との間の距離を決めることができる。この時、一実施例に係るプロセッサ1000は、数学式2を利用してオブジェクト130とカメラモジュール100との間の距離(d)を決めることができる。
ここで、cは光の速度で、fは出力光の周波数である。 where c is the speed of light and f is the frequency of the output light.
一実施例によると、カメラモジュール100からToF IRイメージ及び深さ(depth)イメージを取得することができる。
According to one embodiment, ToF IR images and depth images can be acquired from the
一実施例に係るプロセッサ1000は、光源1100が光を出力した時点とレシーバー120が光を受信した時点の差を利用して、オブジェクト130に対する深さ情報を取得することができる。光源1100は、レーザーや赤外線などの光をオブジェクト130に出力して、反射して戻ってくる光を受信して時間差を計算することによって深さ情報を取得することができる。
The
図2は、一実施例に係るカメラモジュール100の断面図を図示する。
Figure 2 illustrates a cross-sectional view of a
図2を参照すると、カメラモジュール100は、レンズアセンブリー200、イメージセンサー250及び印刷回路基板260を含む。図1のプロセッサ1000等は、印刷回路基板260内で具現されることができる。図示されなかったが、図1の光源1100は、印刷回路基板260上でイメージセンサー250の側面に配置されるか、カメラモジュール100の外部、例えばカメラモジュール100の側面に配置されるが、これに制限されない。
Referring to FIG. 2, the
レンズアセンブリー200は、レンズ230、レンズバレル210、レンズホルダー221、222及びIRフィルター240を含むことができる。
The
レンズ230は、複数枚で構成され、1枚で構成されてもよい。レンズ230が複数枚で構成される場合、各レンズは、中心軸を基準に整列して光学系を形成することができる。ここで、中心軸は、光学系の光軸(Optical axis)と同じであってもよい。
レンズバレル210は、レンズホルダー221、222と結合されて、内部にレンズを収容できる空間が設けられてもよい。レンズバレル210は、一つまたは複数のレンズと回転結合できるが、これは例示的なものであり、接着剤(例えば、エポキシ(epoxy)等の接着用樹脂)を利用した方式など他の方式で結合することができる。
The
レンズホルダー221、222は、レンズバレル210と結合されて、レンズバレル210を支持して、イメージセンサー250が搭載された印刷回路基板260に結合することができる。レンズホルダー221、222によってレンズバレル210の下部にIRフィルター240が付着することができる空間が形成されることができる。レンズホルダー221、222の内周面には螺旋状パターンが形成されることができて、これと同様に外周面に螺旋状パターンが形成されたレンズバレル210と回転結合することができる。しかし、これは例示的なものであり、レンズホルダー221、222とレンズバレル210は、接着剤を介して結合されてもよく、レンズホルダー221、222とレンズバレル210が一体型で形成されてもよい。
The
レンズホルダー221、222は、レンズバレル210と結合する上部ホルダー221及びイメージセンサー250が搭載された印刷回路基板260と結合する下部ホルダー222に区分され、上部ホルダー221及び下部ホルダー222は、一体型で形成されてもよく、互いに分離した構造で形成された後締結または結合されてもよく、互いに分離して離隔した構造を有してもよい。この時、上部ホルダー221の直径は、下部ホルダー222の直径より小さく形成されるが、これに制限されない。
The
前記の例示は一実施例に過ぎず、レンズ230は、カメラモジュール100に入射される光を集光してイメージセンサー250に伝達できる他の構造で構成されてもよい。
The above example is merely an embodiment, and the
イメージセンサー250は、レンズ230を介して集光された光を利用して電気信号を生成することができる。
The
イメージセンサー250は、光源1100の点滅周期と同期化されて入力される光を検出することができる。具体的に、イメージセンサー250は、光源1100から出力された光と同相(in phase)及び異相(out phase)で各々光を検出することができる。つまり、イメージセンサー250は、光源1100がついている時間に光を吸収するステップと光源1100が消えている時間に光を吸収するステップを繰り返し行うことができる。
The
イメージセンサー250は、互いに異なる位相差を有する複数の参照信号(reference signal)を利用して、各参照信号に対応する電気信号を生成することができる。参照信号の周波数は、光源1100から出力された光の周波数と同じに決定されることができる。従って、光源1100が、複数の周波数で光を生成する場合、イメージセンサー250は、各周波数に対応する複数の参照信号を利用して電気信号を生成することができる。電気信号は、各参照信号に対応する電荷量や電圧に関する情報を含むことができる。
The
図3は、一実施例に係るカメラモジュール100が、第1ピクセル310及び第2ピクセル320が第1周期及び第2周期の間取得した光を利用してオブジェクトに対する深さイメージを取得する一例を図示する。第1ピクセル310及び第2ピクセル320は、受信ピクセルであってもよい。
FIG. 3 illustrates an example in which the
図3を参照すると、カメラモジュールは、第1深さイメージ(1)、第2深さイメージ(2)、第3深さイメージ(3)を順次取得することができる。具体的に、カメラモジュール100は、phase0°に対する位相イメージ、phase90°に対する位相イメージ、phase180°に対する位相イメージ、及びphase270°に対する位相イメージを一番目の第1周期及び第2周期に取得して、第1深さイメージ(1)を取得して、phase0°に対する位相イメージ、phase90°に対する位相イメージ、phase180°に対する位相イメージ及びphase270°に対する位相イメージを二番目の第1周期及び第2周期に取得して第2深さイメージ(2)を取得して、phase0°に対する位相イメージ、phase90°に対する位相イメージ、phase180°に対する位相イメージ及びphase270°に対する位相イメージを三番目の第1周期及び第2周期に取得して第3深さイメージ(3)を取得することができる。
Referring to FIG. 3, the camera module can sequentially acquire a first depth image (1), a second depth image (2), and a third depth image (3). Specifically, the
具体的に、ブロック300に含まれた第1ピクセル310は、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase180°に対する位相イメージを取得することができる。ブロック300に含まれた第2ピクセル320は、第1周期の間phase90°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。しかし、図3に開示された実施例で限定されず、第1ピクセル310または第2ピクセル320が、第1周期または第2周期でどのような位相イメージを取得するかは、予め決まった設定に応じて決定されることができる。
Specifically, the
ピクセルが1回開放された後閉じられる時まで受信した信号の強度が微弱であるため、一実施例に係るカメラモジュール100は、同じ過程を数回繰り返して深さイメージを取得することができる。例えば、ブロック300は、位相イメージを取得する過程を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)して深さイメージを取得することができる。
Because the strength of the signal received from when the pixel is opened once until it is closed is weak, the
図3を参照すると、各周期(T)の間ブロック300に含まれたピクセル別に異なる位相信号が印加されてもよい。例えば、ブロック300は、第1ピクセル310及び第2ピクセル320を含むことができ、第1ピクセル310には第1周期の間phase0°に対する位相信号が印加されて、第2周期の間phase180°に対する位相信号が印加されることができる。ブロック300に含まれた第2ピクセル320には第1周期の間phase90°に対する位相信号が印加されて、第2周期の間phase270°に対する位相信号が印加されるが、これに制限されない。
Referring to FIG. 3, different phase signals may be applied to the pixels included in the
一周期(T)の間、各ピクセルが受信した信号の強度が微弱であるため、同じ過程が数回繰り返される。カメラモジュール100は、ピクセル別で異なる位相信号が印加される周期(T)を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)することができる。カメラモジュール100は、第1周期に第1ピクセル310からphase0°に対する情報をリードアウト(read out)して、第2ピクセル320からphase90°に対する情報をリードアウトすることができる。さらに、第1カメラモジュール100は、2周期に第1ピクセル310からphase180°に対する情報をリードアウトして、第2ピクセル320からphase270°に対する情報をリードアウトすることができる。なお、第1深さイメージ(1)は、第1ピクセル310から得たphase0°に対する情報及びphase180°に対する情報、第2ピクセル320から得たphase90°に対する情報及びphase270°に対する情報を利用して取得されることができる。
During one period (T), the intensity of the signal received by each pixel is weak, so the same process is repeated several times. The
このように、各周期(T)の間一つのブロック30に含まれたピクセル別に異なる位相信号が印加されて、各ピクセルから得た各位相に対する情報を利用して深さイメージを抽出する場合、深さイメージを取得するまで所要する時間が減少することができる。 In this way, when a different phase signal is applied to each pixel included in one block 30 during each period (T) and the depth image is extracted using information on each phase obtained from each pixel, the time required to obtain the depth image can be reduced.
各周期(T)の間隣り合うピクセルには、互いに異なる位相信号が印加され、各周期(T)の間第1ピクセルにphase0°の位相信号またはphase180°の位相信号が印加される区間、及び第2ピクセルにphase90°の位相信号またはphase270°の位相信号が印加される区間中少なくとも二つの少なくとも一部は互いに重なる。これにより、phase0°の位相信号が印加される区間、phase90°の位相信号が印加される区間、phase180°の位相信号が印加される区間、及びphase270°の位相信号が印加される区間が重ならない場合に比べて、一つの深さイメージを取得するため所要する時間を減らすことができる。
During each period (T), different phase signals are applied to adjacent pixels, and during each period (T), at least two of the sections in which a
図4は、図3に係るカメラモジュール100の動作を時間の流れにより説明するタイミング図である。第1ピクセル310及び第2ピクセル320は、受信ピクセルであってもよい。
Figure 4 is a timing diagram illustrating the operation of the
第1ピクセル310は、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、第2ピクセル320は、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信することができる。
The
図4を参照すると、第1周期で第1ピクセル310は、0゜程度遅延して光を受信するので、第1ピクセル310は、phase0°の位相信号を受信することができる。
Referring to FIG. 4, in the first period, the
第1周期で第2ピクセル320は、90゜程度遅延して光を受信するので、第2ピクセル320は、phase90°の位相信号を受信することができる。
In the first period, the
第2周期で第1ピクセル310は、180゜程度遅延して光を受信するので、第1ピクセル310は、phase180°の位相信号を受信することができる。
In the second period, the
第2周期で第2ピクセル320は、270゜程度遅延して光を受信するので、第2ピクセル320は、phase270°の位相信号を受信することができる。
In the second period, the
しかし、図4に開示された実施例に制限されず、第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる任意の組み合わせであってもよい。 However, without being limited to the embodiment disclosed in FIG. 4, the first to fourth phase points may be any combination different from each other corresponding to any of 0°, 90°, 180°, and 270°.
第1ピクセル310と第2ピクセル320は、互いに隣接することができる。図4に示したように第1ピクセル310と第2ピクセル320が、縦に隣接することができるが、これに制限されない。例えば、第1ピクセル310と第2ピクセル320は、横に隣接することができる。または、第1ピクセル310と第2ピクセル320は、斜めに隣接することができる。
The
図5は、一実施例により第1周期の間第1ピクセル310にphase0°の位相信号が印加されて、第2ピクセル320にphase180°の位相信号が印加されて、第2周期の間第1ピクセル310にphase90°の位相信号が印加されて、第2ピクセル320にphase270°の位相信号が印加される一例を示す図面である。第1ピクセル310、第2ピクセル320、第3ピクセル330、第4ピクセル340は、受信ピクセルであってもよい。
Figure 5 is a diagram showing an example in which a
具体的に、ブロック300に含まれた第1ピクセル310は、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase90°に対する位相イメージを取得することができる。ブロック300に含まれた第2ピクセル320は、第1周期の間phase180°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。しかし、図5に開示された実施例で限定されず、第1ピクセル310または第2ピクセル320が、第1周期または第2周期でどのような位相イメージを取得するかは、予め決まった設定に応じて決定されることができる。ピクセルが1回開放された後閉じられる時まで受信した信号の強度が微弱であるため、一実施例に係るカメラモジュール100は、同じ過程を数回繰り返して深さイメージを取得することができる。例えば、ブロック300は、位相イメージを取得する過程を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)して深さイメージを取得することができる。
Specifically, the
第3ピクセル330は、第1ピクセル310に対応して、第4ピクセル340は、第2ピクセル320に対応することができる。例えば、第3ピクセル330は、第1ピクセル310と共に、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase90°に対する位相イメージを取得することができる。さらに、この場合、第4ピクセル340は、第2ピクセル320と共に、第1周期の間phase180°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。
The
図6は、図5に係るカメラモジュール100の動作を時間の流れにより説明するタイミング図である。
Figure 6 is a timing diagram that explains the operation of the
図6を参照すると、第1周期で第1ピクセル310は、0゜程度遅延して光を受信するので、第1ピクセル310は、phase0°の位相信号を受信することができる。
Referring to FIG. 6, in the first period, the
第1周期で第2ピクセル320は、180゜程度遅延して光を受信するので、第2ピクセル320は、phase180°の位相信号を受信することができる。
In the first period, the
第1周期で第3ピクセル330は、0゜程度遅延して光を受信するので、第3ピクセル330は、phase0°の位相信号を受信することができる。
In the first period, the
第1周期で第4ピクセル340は、180゜程度遅延して光を受信するので、第4ピクセル340は、phase180°の位相信号を受信することができる。
In the first period, the
第2周期で第1ピクセル310は、90゜程度遅延して光を受信するので、第1ピクセル310は、phase90°の位相信号を受信することができる。
In the second period, the
第2周期で第2ピクセル320は、270゜程度遅延して光を受信するので、第2ピクセル320は、phase270°の位相信号を受信することができる。
In the second period, the
第2周期で第3ピクセル330は、90゜程度遅延して光を受信するので、第3ピクセル330は、phase90°の位相信号を受信することができる。
In the second period, the
第2周期で第4ピクセル340は、270゜程度遅延して光を受信するので、第4ピクセル340は、phase270°の位相信号を受信することができる。
In the second period, the
図7は、一実施例により第1周期の間第1ピクセル310にphase0°の位相信号が印加されて、第2ピクセル320にphase90°の位相信号が印加されて、第2周期の間第1ピクセル310にphase270°の位相信号が印加されて、第2ピクセル320にphase180°の位相信号が印加される一例を示す図面である。
Figure 7 shows an example in which a
具体的に、ブロック300に含まれた第1ピクセル310は、第1周期の間phase0°に対する位相イメージを取得して、第2周期の間phase270°に対する位相イメージを取得することができる。ブロック300に含まれた第2ピクセル320は、第1周期の間phase90°に対する位相イメージを取得して、第2周期の間phase180°に対する位相イメージを取得することができる。しかし、図7に開示された実施例で限定されず、第1ピクセル310または第2ピクセル320が、第1周期または第2周期でどのような位相イメージを取得するかは、予め決まった設定に応じて決定されることができる。
Specifically, the
ピクセルが1回開放された後閉じられる時まで受信した信号の強度が微弱であるため、一実施例に係るカメラモジュール100は、同じ過程を数回繰り返して深さイメージを取得することができる。例えば、ブロック300は、位相イメージを取得する過程を数回、例えば100回以上繰り返して信号を重複(integration)または蓄積(accumulation)して深さイメージを取得することができる。
Since the strength of the signal received from when the pixel is opened once until it is closed is weak, the
図8は、図7に係るカメラモジュール100の動作を時間の流れにより説明するタイミング図である。
Figure 8 is a timing diagram that explains the operation of the
図8を参照すると、第1周期で第1ピクセル310は、0゜程度遅延して光を受信するので、第1ピクセル310は、phase0°の位相信号を受信することができる。
Referring to FIG. 8, in the first period, the
第1周期で第2ピクセル320は、90゜程度遅延して光を受信するので、第2ピクセル320は、phase90°の位相信号を受信することができる。
In the first period, the
第2周期で第1ピクセル310は、270゜程度遅延して光を受信するので、第1ピクセル310は、phase270°の位相信号を受信することができる。
In the second period, the
第2周期で第2ピクセル320は、180゜程度遅延して光を受信するので、第2ピクセル320は、phase180°の位相信号を受信することができる。
In the second period, the
図9は、一実施例により第1ピクセル310及び第2ピクセル320が横に隣接する一例を示す図面である。
Figure 9 shows an example in which a
図9に示したように第1ピクセル310及び第2ピクセル320の相対的位置は多様に決定されることができる。第1ピクセル310及び第2ピクセルが受信する位相信号に対する具体的な内容は図3を参照することができる。
As shown in FIG. 9, the relative positions of the
図10は、一実施例により第1ピクセル310及び第3ピクセル330が横に隣接して、第2ピクセル320及び第4ピクセル340が横に隣接して、カメラモジュール100が動作する一例を示す図面である。
FIG. 10 is a diagram showing an example in which the
図10を参照すると、図5の場合とは異なって、第1ピクセル310及び第3ピクセル330が横に隣接して、第2ピクセル320及び第4ピクセル340が横に隣接する。つまり、同じ方式で動作するピクセルが横に隣接することによって、プロセッサ1000は、ライン単位でピクセルを制御することができる。同じ横ラインのピクセルが同じ方式で動作するので、プロセッサ1000は、ライン単位でピクセルを制御できて、それにより回路の複雑度が減少することができる。さらに、ブロック300内に動作方式が異なる二つのピクセル310、320が含まれるのは図5の場合と同じである。
Referring to FIG. 10, unlike the case of FIG. 5, the
図10では、横ラインのピクセルが同じ動作を行う場合に対して図示したが、これに制限されない。例えば、縦ラインのピクセルが同じ動作を行うようにレシーバー120内のピクセルが設定されることができる。
Although FIG. 10 illustrates a case where pixels in a horizontal line perform the same operation, this is not limited to this. For example, pixels in the
図11は、カメラモジュール100が超解像度(Super resolution)手法を利用してイメージの解像度を高める方法を示す図面である。
Figure 11 is a diagram showing how the
一方、カメラモジュール100は、一実施例により深さイメージの解像度を高めるために、超解像度(Super Resolution,SR)手法を利用することができる。SR手法は、複数の低解像イメージから高解像イメージを得る方法を幅広く指し示すことができる。
Meanwhile, in one embodiment, the
具体的に、プロセッサ1000は、ブロック単位で一つの深さ情報を取得することができる。仮にピクセル単位で一つの深さ情報を取得できるなら、25個のピクセルから25個の深さ情報を取得することができる。しかし、ブロック単位で一つの深さ情報を取得できるなら、取得できる情報が減少する。二つのピクセルの情報をまとめて一つの深さ情報を取得できるので、原則的に取得できる情報が1/2に減少することができる。例えば、プロセッサ1000は、第1ブロック1110及び第2ブロック1120から二つの深さ情報を取得することができる。
Specifically, the
しかし、二つのピクセルから取得される情報をまとめて一つの深さ情報を取得する際に、利用されるピクセルを重複的に利用する場合、より多くの情報を取得することができる。例えば、プロセッサ1000は、第1ブロック1110及び第2ブロック1120だけでなく、第3ブロック1130をさらに利用することができる。さらに、場合により隣接しい二つのピクセルを介して一つの深さ情報を取得することもできる。
However, when combining information obtained from two pixels to obtain one piece of depth information, more information can be obtained if the pixels used are used redundantly. For example, the
図11では、一実施例により、ブロックに含まれたピクセルの数が二つで、重なるブロック間重なるピクセルの数が一つである場合について説明したが、これに制限されない。 In FIG. 11, in one embodiment, a case is described in which the number of pixels included in a block is two and the number of overlapping pixels between overlapping blocks is one, but this is not limited thereto.
図12は、一実施例により超解像度手法により解像度が高まる一例を説明するための図面である。 Figure 12 is a diagram illustrating an example of how resolution is increased using a super-resolution technique in one embodiment.
第1解像度図面1210を参照すると、ピクセル単位で情報を取得する場合、ピクセル数に対応する解像度を取得することができる。しかし、ブロック単位で情報を取得する場合、一つのピクセルを一度だけ利用する時、ブロックに含まれたピクセルの数程度解像度が減少することができる。例えば、第1解像度図面1210に比べて第2解像度図面1220の解像度は1/2に減少した。しかし、上述したようなSR手法を利用する場合、相当部分解像度を増加させることができ、追加的なアルゴリズムを介して第3解像度図面1230で表現された解像度よりもさらに高い解像度も実現が可能である。 Referring to the first resolution drawing 1210, when information is obtained in pixel units, a resolution corresponding to the number of pixels can be obtained. However, when information is obtained in block units, when one pixel is used only once, the resolution can be reduced by the number of pixels contained in the block. For example, the resolution of the second resolution drawing 1220 is reduced by half compared to the first resolution drawing 1210. However, when the SR method as described above is used, the resolution can be increased by a significant amount, and even a higher resolution than that represented in the third resolution drawing 1230 can be achieved through an additional algorithm.
図13は、一実施例により補間を行って解像度を高める一例を説明するための図面である。 Figure 13 is a diagram illustrating an example of increasing resolution by performing interpolation according to one embodiment.
第1周期の間受信ピクセルが受信した光の位相が、第1周期図面1350に開示されて、第2周期の間受信ピクセルが受信した光の位相が、第2周期図面1360に開示される。第1ピクセル1310及び第2ピクセル1320は、受信ピクセルであってもよい。
The phase of light received by the receiving pixel during the first period is shown in the first period drawing 1350, and the phase of light received by the receiving pixel during the second period is shown in the second period drawing 1360. The
第1周期1350で、一実施例に係るプロセッサ1000は、第1ピクセル1310でのphase90°位相信号(90°位相時点に対する情報)を第1ピクセル1310と隣接するピクセル1311、1312、1313、1320が取得したphase90°位相信号(90°位相時点に対する情報)を補間して取得することができる。第1ピクセル1310では、phase0°位相信号とphase180°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase90°位相信号が取得されない。しかし、プロセッサ1000は、第1ピクセル1310でのphase90°位相信号を隣接ピクセルが取得した位相信号を補間して取得することができる。
In the
第1周期1350で、一実施例に係るプロセッサ1000は、第2ピクセル1320でのphase0°位相信号(0°位相時点に対する情報)を第2ピクセル1320と隣接するピクセル1321、1322、1123、1310が取得したphase0°位相信号(0°位相時点に対する情報)を補間して取得することができる。第2ピクセル1320では、phase90°位相信号とphase270°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase0°位相信号が取得されない。しかし、プロセッサ1000は、第2ピクセル1320でのphase0°位相信号を隣接するピクセルが取得した位相信号を補間して取得することができる。
In the
第2周期1360で、一実施例に係るプロセッサ1000は、第1ピクセル1310でのphase270°位相信号(270°位相時点に対する情報)を第1ピクセル1310と隣接するピクセル1311、1312、1313、1320が取得したphase270°位相信号270°位相時点に対する情報)を補間して取得することができる。第1ピクセル1310では、phase0°位相信号とphase180°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase270°位相信号が取得されない。しかし、プロセッサ1000は、第1ピクセル1310でのphase270°位相信号を隣接するピクセルが取得した位相信号を補間して取得することができる。
In the
第2周期1360で、一実施例に係るプロセッサ1000は、第2ピクセル1320でのphase180°位相信号(180°位相時点に対する情報)を第2ピクセル1320と隣接するピクセル1321、1322、1123、1310が取得したphase180°位相信号(180°位相時点に対する情報)を補間して取得することができる。第2ピクセル1320では、phase90°位相信号とphase270°位相信号を各々第1周期及び第2周期に取得できるだけであって、phase180°位相信号が取得されない。しかし、プロセッサ1000は、第2ピクセル1320でのphase180°位相信号を隣接するピクセルが取得した位相信号を補間して取得することができる。
In the
図14は、一実施例によりオブジェクトに対する深さ情報を取得する方法を示すフローチャートである。図14は、上述された図1乃至図13の内容を参照して理解できる。 Figure 14 is a flow chart illustrating a method for obtaining depth information for an object according to one embodiment. Figure 14 can be understood with reference to the contents of Figures 1 to 13 described above.
ステップS1310で、一実施例に係るカメラモジュール100は、出力ピクセルを介して光をオブジェクトに出力する。一実施例によると、各出力ピクセルは、各受信ピクセルに対応することができる。
In step S1310, the
ステップS1320で、一実施例に係るカメラモジュール100は、第1周期の第1位相時点に第1受信ピクセルを利用して光を受信して、第1周期の第3位相時点に第2受信ピクセルを利用して光を受信する。例えば、第1周期で第1ピクセルは、phase0°の位相信号を受信して、第2ピクセルは、phase90°の位相信号を受信することができる。
In step S1320, the
ステップS1330で、一実施例に係るカメラモジュール100は、第2周期の第2位相時点に第1受信ピクセルを利用して光を受信して、第2周期の第4位相時点に第2受信ピクセルを利用して光を受信する。例えば、第2周期で第1ピクセルはphase180°の位相信号を受信して、第2ピクセルは、phase270°の位相信号を受信することができる。第1ピクセル及び第2ピクセルは、受信ピクセルであってもよい。
In step S1330, the
しかし、本実施例に制限されず、第1位相時点乃至第4位相時点は、0°、90°、180°及び270°のうちいずれかに対応して互いに異なる任意の組み合わせであってもよい。 However, without being limited to this embodiment, the first to fourth phase points may be any combination different from each other corresponding to any of 0°, 90°, 180°, and 270°.
ステップS1340で、一実施例に係るカメラモジュール100は、第1周期及び第2周期の間取得された情報を利用してオブジェクトに対する深さイメージを取得する。プロセッサ1000は、二つの周期の間取得された情報だけで一つの深さイメージを取得することができる。
In step S1340, the
また、図13に図示されなかったが、第1受信ピクセルでの第3位相時点に対する情報を第1受信ピクセルと隣接するピクセルが第3位相時点で取得した情報で補間するステップがさらに含まれることができる。 In addition, although not shown in FIG. 13, a step of interpolating information for the third phase point at the first receiving pixel with information acquired at the third phase point by pixels adjacent to the first receiving pixel may be further included.
一方、上述した方法は、コンピュータで実行できるプログラムで作成可能で、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用デジタルコンピュータで具現されることができる。さらに、上述した方法で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に様々な手段を介して記録されることができる。前記コンピュータで読み取り可能な記録媒体は、マグネチック格納媒体(例えば、ロム、ラム、USB、フロッピーディスク、ハードディスクなど)、光学的読み取り媒体(例えば、CD-ROM、ティブイディなど)のような格納媒体を含む。 Meanwhile, the above-mentioned method can be created as a computer-executable program and can be implemented in a general-purpose digital computer that runs the program using a computer-readable recording medium. Furthermore, the data structure used in the above-mentioned method can be recorded in a computer-readable recording medium through various means. The computer-readable recording medium includes storage media such as magnetic storage media (e.g., ROM, RAM, USB, floppy disk, hard disk, etc.) and optically readable media (e.g., CD-ROM, BD, etc.).
以上添付図面を参照して本発明の実施例を説明したが、本発明が属する技術分野で通常の知識を有する者は、本発明がその技術的思想や必須の特徴を変更せず他の具体的な形態で実施されることができることを理解できるはずである。従って、以上で記述した実施例は。すべての面で例示的なものであり、限定的ではないものと理解しなければならない。 Although the embodiments of the present invention have been described above with reference to the attached drawings, those having ordinary skill in the art to which the present invention pertains should understand that the present invention can be embodied in other specific forms without changing its technical concept or essential features. Therefore, the embodiments described above should be understood to be illustrative in all respects and not limiting.
Claims (18)
前記オブジェクトから反射した光を受信ピクセルを介して受信するレシーバー;及び
前記光源が出力した光と前記レシーバーが受信した光の位相差を利用して前記オブジェクトに対する深さ情報を取得するプロセッサ;を含み、
前記受信ピクセルは、第1受信ピクセル及び第2受信ピクセルを含み、
前記第1受信ピクセルは、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、
前記第2受信ピクセルは、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信して、
前記プロセッサは、前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得し、
前記レシーバーは、前記受信ピクセルを区画して取得された第1ブロックと第2ブロックを含み、
前記プロセッサは、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して前記深さ情報を取得し、
前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうち一つのピクセルが重なる、カメラモジュール。 A light source that emits light onto an object;
a receiver that receives light reflected from the object through a receiving pixel; and a processor that obtains depth information for the object using a phase difference between the light output from the light source and the light received by the receiver;
the receiving pixels include a first receiving pixel and a second receiving pixel;
The first receiving pixel receives light at a first phase time point of a first period and a second phase time point of a second period,
The second receiving pixel receives light at a third phase time point of the first period and a fourth phase time point of the second period,
the processor obtains a depth image for the object using information obtained during the first period and the second period;
The receiver includes a first block and a second block obtained by dividing the received pixel,
The processor obtains the depth information by using both the light received through the first block and the light received through the second block;
A camera module, wherein two pixels included in the first block and one of two pixels included in the second block overlap.
前記オブジェクトから反射した光を受信ピクセルを介して受信する、レシーバーに含まれるイメージセンサー;
プロセッサを含む印刷回路基板;及び
レンズを含み、前記印刷回路基板と結合されるレンズバレルを含み、
前記プロセッサは前記光源が出力した光と前記イメージセンサーが受信した光の位相差を利用して前記オブジェクトに対する深さ情報を獲得し、
前記受信ピクセルは、第1受信ピクセル及び第2受信ピクセルを含み、
前記第1受信ピクセルは、第1周期の第1位相時点及び第2周期の第2位相時点に各々光を受信して、
前記第2受信ピクセルは、第1周期の第3位相時点及び第2周期の第4位相時点に各々光を受信して、
前記プロセッサは、前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得し、
前記レシーバーは、前記受信ピクセルを区画して取得された第1ブロックと第2ブロックを含み、
前記プロセッサは、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して前記深さ情報を取得し、
前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうち一つのピクセルが重なる、カメラモジュール。 A light source that emits light onto an object;
an image sensor included in the receiver that receives light reflected from the object via receiving pixels;
a printed circuit board including a processor; and a lens barrel including a lens and coupled to the printed circuit board;
the processor obtains depth information for the object using a phase difference between the light output from the light source and the light received by the image sensor;
the receiving pixels include a first receiving pixel and a second receiving pixel;
The first receiving pixel receives light at a first phase time point of a first period and a second phase time point of a second period,
The second receiving pixel receives light at a third phase time point of the first period and a fourth phase time point of the second period,
the processor obtains a depth image for the object using information obtained during the first period and the second period;
The receiver includes a first block and a second block obtained by dividing the received pixel,
The processor obtains the depth information by using both the light received through the first block and the light received through the second block;
A camera module, wherein two pixels included in the first block and one of two pixels included in the second block overlap.
第1周期の第1位相時点に受信ピクセル内の第1受信ピクセルを利用して光を受信して、第1周期の第3位相時点に前記受信ピクセル内の第2受信ピクセルを利用して光を受信するステップ;
第2周期の第2位相時点に第1受信ピクセルを利用して光を受信して、第2周期の第4位相時点に第2受信ピクセルを利用して光を受信するステップ;及び
前記第1周期及び前記第2周期の間取得された情報を利用して前記オブジェクトに対する深さイメージを取得するステップ;
前記受信ピクセルを区画して取得された第1ブロックと第2ブロックにおいて、前記第1ブロックを介して受信された光と前記第2ブロックを介して受信された光を共に利用して深さ情報を取得するステップ;を含み、
前記第1ブロックに含まれた二つのピクセルと前記第2ブロックに含まれた二つのピクセルのうち一つのピクセルが重なる、
深さ情報取得方法。 outputting light onto an object;
receiving light using a first receiving pixel among the receiving pixels at a first phase time point of a first period, and receiving light using a second receiving pixel among the receiving pixels at a third phase time point of the first period;
receiving light using a first receiving pixel at a second phase time point of a second period and receiving light using a second receiving pixel at a fourth phase time point of the second period; and obtaining a depth image for the object using information obtained during the first period and the second period;
obtaining depth information by using both the light received through the first block and the light received through the second block in a first block and a second block obtained by dividing the receiving pixel;
Two pixels included in the first block and one of two pixels included in the second block overlap each other;
How to obtain depth information.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0119341 | 2018-10-05 | ||
KR1020180119341A KR102562360B1 (en) | 2018-10-05 | 2018-10-05 | Method and camera module for acquiring depth information |
PCT/KR2019/013133 WO2020071883A1 (en) | 2018-10-05 | 2019-10-07 | Method for obtaining depth information, and camera module |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022502652A JP2022502652A (en) | 2022-01-11 |
JP7498703B2 true JP7498703B2 (en) | 2024-06-12 |
Family
ID=70054440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021517366A Active JP7498703B2 (en) | 2018-10-05 | 2019-10-07 | Method for acquiring depth information and camera module |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210373163A1 (en) |
EP (1) | EP3863283A4 (en) |
JP (1) | JP7498703B2 (en) |
KR (1) | KR102562360B1 (en) |
CN (1) | CN112806000B (en) |
WO (1) | WO2020071883A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113625303A (en) * | 2021-08-05 | 2021-11-09 | 思特威(上海)电子科技股份有限公司 | Pixel array signal acquisition method, time-of-flight sensor, terminal and medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009079987A (en) | 2007-09-26 | 2009-04-16 | Fujifilm Corp | Method and device for measuring distance |
US20160198147A1 (en) | 2015-01-06 | 2016-07-07 | Gregory Waligorski | Correction of depth images from t-o-f 3d camera with electronic-rolling-shutter for light modulation changes taking place during light integration |
JP2018513366A (en) | 2015-03-31 | 2018-05-24 | グーグル エルエルシー | Method and apparatus for increasing the frame rate of time-of-flight measurement |
JP2018522203A (en) | 2015-07-20 | 2018-08-09 | グーグル エルエルシー | Method and apparatus for increasing the resolution of time-of-flight pixel arrays |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7623726B1 (en) * | 2005-11-30 | 2009-11-24 | Adobe Systems, Incorporated | Method and apparatus for using a virtual camera to dynamically refocus a digital image |
KR101887099B1 (en) * | 2010-12-29 | 2018-08-09 | 삼성전자주식회사 | image processing system and image processing method |
KR101788032B1 (en) * | 2011-03-24 | 2017-10-19 | 삼성전자주식회사 | Depth sensor, depth information error compensation method thereof, and signal processing system having the depth sensor |
KR101828814B1 (en) * | 2011-07-07 | 2018-02-13 | 삼성전자주식회사 | Depth image conversion apparatus and method thereof |
KR101929557B1 (en) * | 2011-07-12 | 2018-12-17 | 삼성전자주식회사 | Method and apparatus for processing blur |
KR102007275B1 (en) * | 2012-12-27 | 2019-08-05 | 삼성전자주식회사 | Depth pixel of three-dimensional image sensor and three-dimensional image sensor including the same |
KR102040152B1 (en) * | 2013-04-08 | 2019-12-05 | 삼성전자주식회사 | An 3D image apparatus and method for generating a depth image in the 3D image apparatus |
US10268885B2 (en) * | 2013-04-15 | 2019-04-23 | Microsoft Technology Licensing, Llc | Extracting true color from a color and infrared sensor |
KR102136850B1 (en) * | 2013-11-12 | 2020-07-22 | 삼성전자 주식회사 | A depth sensor, and a method of operating the same |
US9655190B2 (en) * | 2014-01-06 | 2017-05-16 | Philips Lighting Holding B.V. | Ripple based light emitting diode driving |
EP2894492B1 (en) * | 2014-01-13 | 2020-10-28 | Sony Depthsensing Solutions SA/NV | A method for driving a time-of-flight system |
US10062180B2 (en) * | 2014-04-22 | 2018-08-28 | Microsoft Technology Licensing, Llc | Depth sensor calibration and per-pixel correction |
JPWO2017085916A1 (en) * | 2015-11-16 | 2018-09-06 | パナソニックIpマネジメント株式会社 | Imaging device and solid-state imaging device used therefor |
EP3193190B1 (en) * | 2016-01-15 | 2023-04-12 | Sony Depthsensing Solutions N.V. | A detector device with majority current and a circuitry for controlling the current |
US9921359B2 (en) * | 2016-07-26 | 2018-03-20 | Harvatek Corporation | Light source module |
US10189400B2 (en) * | 2016-08-08 | 2019-01-29 | Ford Global Technologies, Llc | Mobile device tracking for control of vehicle subsystems |
JP6862255B2 (en) * | 2017-04-12 | 2021-04-21 | キヤノン株式会社 | Imaging device, imaging method and imaging program |
-
2018
- 2018-10-05 KR KR1020180119341A patent/KR102562360B1/en active IP Right Grant
-
2019
- 2019-10-07 US US17/277,157 patent/US20210373163A1/en active Pending
- 2019-10-07 CN CN201980065857.2A patent/CN112806000B/en active Active
- 2019-10-07 EP EP19868600.8A patent/EP3863283A4/en active Pending
- 2019-10-07 JP JP2021517366A patent/JP7498703B2/en active Active
- 2019-10-07 WO PCT/KR2019/013133 patent/WO2020071883A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009079987A (en) | 2007-09-26 | 2009-04-16 | Fujifilm Corp | Method and device for measuring distance |
US20160198147A1 (en) | 2015-01-06 | 2016-07-07 | Gregory Waligorski | Correction of depth images from t-o-f 3d camera with electronic-rolling-shutter for light modulation changes taking place during light integration |
JP2018513366A (en) | 2015-03-31 | 2018-05-24 | グーグル エルエルシー | Method and apparatus for increasing the frame rate of time-of-flight measurement |
JP2018522203A (en) | 2015-07-20 | 2018-08-09 | グーグル エルエルシー | Method and apparatus for increasing the resolution of time-of-flight pixel arrays |
Also Published As
Publication number | Publication date |
---|---|
CN112806000B (en) | 2023-12-12 |
KR102562360B1 (en) | 2023-08-02 |
JP2022502652A (en) | 2022-01-11 |
EP3863283A1 (en) | 2021-08-11 |
WO2020071883A1 (en) | 2020-04-09 |
US20210373163A1 (en) | 2021-12-02 |
EP3863283A4 (en) | 2022-07-06 |
KR20200039418A (en) | 2020-04-16 |
CN112806000A (en) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102486385B1 (en) | Apparatus and method of sensing depth information | |
KR101854188B1 (en) | 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus | |
KR102056904B1 (en) | 3D image acquisition apparatus and method of driving the same | |
KR102112298B1 (en) | Method and apparatus for generating color image and depth image | |
KR102194233B1 (en) | Apparatus and method for generating a depth image | |
KR102368597B1 (en) | Image photographing apparatus and method of controlling thereof | |
US10958885B2 (en) | Filtering imaging system including a light source to output an optical signal modulated with a code | |
JP6467516B2 (en) | Projector device with distance image acquisition device and projection method | |
KR102194237B1 (en) | Method and apparatus for generating depth image | |
CN101430796A (en) | Image generating method and apparatus | |
CN104620260B (en) | The method and apparatus for being used at least one light-pulse generator of vehicle for identification | |
KR102610830B1 (en) | Method and device for acquiring distance information | |
JP7498703B2 (en) | Method for acquiring depth information and camera module | |
CN112823512B (en) | Method for acquiring depth information and camera module | |
WO2019160656A1 (en) | Short-wave infrared and 3d topographic imager | |
CN112585961A (en) | Camera with a camera module | |
US20220057508A1 (en) | Method and camera module for acquiring depth information | |
KR20200049152A (en) | Camera device | |
KR20150010230A (en) | Method and apparatus for generating color image and depth image of an object using singular filter | |
CN114207474A (en) | Unwrapped phase of time-of-flight modulated light | |
KR20210007336A (en) | Method and camera for acquiring image | |
JP2016134732A (en) | Imaging device and imaging method | |
CN114868037A (en) | Information processing device, imaging device, information processing method, and program | |
US10904449B2 (en) | Intrinsic color camera | |
You et al. | MOEMS-based time-of-flight camera for 3D video capturing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210406 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7498703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |