JP7346594B2 - User equipment and strabismus correction method - Google Patents

User equipment and strabismus correction method Download PDF

Info

Publication number
JP7346594B2
JP7346594B2 JP2021568633A JP2021568633A JP7346594B2 JP 7346594 B2 JP7346594 B2 JP 7346594B2 JP 2021568633 A JP2021568633 A JP 2021568633A JP 2021568633 A JP2021568633 A JP 2021568633A JP 7346594 B2 JP7346594 B2 JP 7346594B2
Authority
JP
Japan
Prior art keywords
image
depth
focused
estimating
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021568633A
Other languages
Japanese (ja)
Other versions
JP2022533975A (en
Inventor
洪偉 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2022533975A publication Critical patent/JP2022533975A/en
Application granted granted Critical
Publication of JP7346594B2 publication Critical patent/JP7346594B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本開示は、画像処理技術の分野に関し、より具体的には、ユーザ機器(UE)及び斜視補正方法に関する。 The present disclosure relates to the field of image processing technology, and more specifically to user equipment (UE) and strabismus correction methods.

図1を参照すると、現在の技術では、ユーザが携帯電話などのユーザ機器1を用いて輪郭が鮮明な斜め配向平面(oriented plane surface)の写真を撮る場合、ユーザ機器1は、斜め配向平面の画像を歪みの無い形状に補正する。しかしながら、斜め配向平面の輪郭が不鮮明である場合、又は一部のみが撮影領域2内にある場合、又は斜め配向平面が撮影領域2の幅よりも大きい横幅を有する場合、ユーザは、被写体全体の透視歪み(perspective distortion)の無い単一の合焦画像を得ることができない。 Referring to FIG. 1, in the current technology, when a user uses a user equipment 1, such as a mobile phone, to take a picture of an oriented plane surface with sharp contours, the user equipment 1 Correct the image to a shape without distortion. However, if the outline of the obliquely oriented plane is unclear, or only a part of it is within the imaging area 2, or if the obliquely oriented plane has a width larger than the width of the imaging area 2, the user can A single focused image without perspective distortion cannot be obtained.

米国特許第6449004号は、斜視補正(oblique view correction)機能を備えた電子カメラを開示している。被写体の光像を光電的に撮影して画像データを生成する撮像素子を備えた電子カメラを開示している。傾斜角情報提供装置が、撮像素子の感知面と被写体の正面との間の傾斜角に関する情報を提供する。距離測定器が、被写体までの距離を測定する。補正器が、提供された傾斜角情報と測定された距離に基づいて補正して、画像データを生成することによって、正面が撮像素子の感知面に平行な平面にある擬似被写体像を生成する。 US Pat. No. 6,449,004 discloses an electronic camera with oblique view correction functionality. An electronic camera is disclosed that includes an image sensor that photoelectrically captures an optical image of a subject to generate image data. The tilt angle information providing device provides information regarding the tilt angle between the sensing surface of the image sensor and the front of the subject. A distance measuring device measures the distance to the subject. A corrector corrects the provided tilt angle information and the measured distance to generate image data, thereby generating a pseudo subject image whose front is in a plane parallel to the sensing surface of the image sensor.

米国特許第7365301号は、3次元形状検出装置、画像撮影装置及び3次元形状検出プログラムを開示している。パターン光を投影する投影手段と、パターン光が投影された被写体のパターン光投影画像を撮影する画像撮影手段と、パターン光投影画像から抽出されたパターン光の軌跡に基づいて被写体の3次元形状を算出する3次元形状算出手段とを含む3次元形状検出装置を開示している。 US Pat. No. 7,365,301 discloses a three-dimensional shape detection device, an image capturing device, and a three-dimensional shape detection program. a projection means for projecting pattern light; an image photographing means for photographing a pattern light projection image of the subject onto which the pattern light is projected; and a three-dimensional shape of the subject based on the locus of the pattern light extracted from the pattern light projection image. A three-dimensional shape detection device including a three-dimensional shape calculation means for calculating the three-dimensional shape is disclosed.

米国特許第7711259号は、撮像部の被写界深度を増加させる方法及び装置を開示している。撮像部が、それぞれ異なる焦点位置で複数の画像を撮影し、これらの画像を1枚の画像に合成して鮮鋭化することを開示している。別の実施形態において、画像撮影中に焦点位置が変化しながら単一画像を撮影し、得られた画像が鮮鋭化される。 US Pat. No. 7,711,259 discloses a method and apparatus for increasing the depth of field of an imager. It is disclosed that an imaging unit photographs a plurality of images at different focal positions, and combines these images into one image for sharpening. In another embodiment, a single image is captured while the focus position changes during image capture, and the resulting image is sharpened.

ヨーロッパ特許出願第0908847号は、画像合成装置及び画像合成方法を開示している。画像合成装置が、記憶された画像情報を用いて、選択された画像の位置関係を設定するための座標変換パラメータを生成し、生成された座標変換パラメータを任意の画像の基準位置として変更し、得られた座標変換パラメータを画像合成情報として提供し、画像合成情報に従って画像を合成することを開示している。 European Patent Application No. 0908847 discloses an image composition device and method. The image synthesis device generates coordinate transformation parameters for setting the positional relationship of the selected images using the stored image information, and changes the generated coordinate transformation parameters as a reference position of an arbitrary image, It is disclosed that the obtained coordinate transformation parameters are provided as image synthesis information and images are synthesized according to the image synthesis information.

視野が被写体よりも狭いカメラによって透視歪みの無い単一画像を得る技術が存在しない。 There is no technique for obtaining a single image without perspective distortion using a camera whose field of view is narrower than the subject.

ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供することがまだ必要である。 There is still a need to provide user equipment (UE) and strabismus correction methods that allow a user to obtain a single image without perspective distortion.

本開示の目的は、ユーザが透視歪み(perspective distortion)の無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提案することである。 The purpose of the present disclosure is to propose a user equipment (UE) and strabismus correction method that allows a user to obtain a single image without perspective distortion.

本開示の第1の態様では、ユーザ機器(UE)は、画像感知モジュールと、前記画像感知モジュールに接続されたプロセッサとを含む。前記プロセッサは、前記画像感知モジュールを制御してカラー画像、赤外線(IR)画像及び深度画像を撮影し、前記深度画像から平面パラメータを推定し、前記深度画像から焦点距離データを算出し、前記画像感知モジュールを制御して前記焦点距離データから焦点距離において部分合焦画像(部分的に焦点の合った画像:partially focused image)を撮影し、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像(全体合焦画像、全体的に焦点の合った画像:wholly focused image)に合成する。 In a first aspect of the disclosure, a user equipment (UE) includes an image sensing module and a processor connected to the image sensing module. The processor controls the image sensing module to take a color image, an infrared (IR) image, and a depth image, estimates a plane parameter from the depth image, calculates focal length data from the depth image, and captures a color image, an infrared (IR) image, and a depth image; controlling a sensing module to capture a partially focused image at a focal length from the focal length data; cropping focused image data from the partially focused image; The in-focus image data is synthesized into a completely focused image (wholly focused image).

本開示の実施形態において、前記プロセッサは、前記完全合焦画像を非透視画像(non-perspective image)に調整する。 In embodiments of the present disclosure, the processor adjusts the fully focused image to a non-perspective image.

本開示の実施形態において、前記完全合焦画像を非透視画像に調整する方法は、前記深度画像から算出された透視座標軸(perspective coordinate axes)において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸(real world coordinate axes)において非透視画像を形成するステップとを含む。 In an embodiment of the present disclosure, the method for adjusting the fully focused image to a non-perspective image includes estimating coordinate data of four corners of the fully focused image on perspective coordinate axes calculated from the depth image. and dragging the fully focused image to form a non-perspective image in real world coordinate axes.

本開示の実施形態において、前記プロセッサは、いくつかの前記非透視画像を単一画像に合成する。 In an embodiment of the present disclosure, the processor combines several of the non-fluoroscopic images into a single image.

本開示の実施形態において、前記UEは、表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠(trimming candidate frame)を設定する。 In an embodiment of the present disclosure, the UE further includes a display module, and the processor sets a trimming candidate frame on the single image displayed on the display module.

本開示の実施形態において、前記深度画像から平面パラメータを推定する方法は、前記深度画像から平面の法線ベクトルを推定するステップを含む。 In an embodiment of the present disclosure, the method for estimating plane parameters from the depth image includes estimating a normal vector of a plane from the depth image.

本開示の実施形態において、前記UEは、慣性計測ユニット(IMU)を更に含む。前記深度画像から平面パラメータを推定する方法は、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。 In embodiments of the present disclosure, the UE further includes an inertial measurement unit (IMU). The method for estimating plane parameters from the depth image further includes estimating perspective vertical coordinate axes and perspective horizontal coordinate axes from data of the IMU.

本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、焦点距離に対応する被写界深度(depth of field)の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。 In an embodiment of the present disclosure, the method for calculating focal length data from the depth image includes the steps of: calculating focal length data from the depth image such that depth of field regions corresponding to focal lengths overlap to cover the entire color image; including determining several focal lengths.

本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、被写界深度の各領域がテクスチャ(texture)を有するか否かを判定するステップを更に含む。 In an embodiment of the present disclosure, the method for calculating focal length data from the depth image further includes determining whether each region of depth of field has texture.

本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。 In an embodiment of the present disclosure, the image sensing module includes a camera module that senses a color image and a depth sensing module that senses a depth image.

本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。 In embodiments of the present disclosure, the image sensing module further includes an image processor that controls the camera module and the depth sensing module.

本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れ(hand shock)を補正する(補償する:compensate)。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータ(motion data)を提供する。 In embodiments of the present disclosure, the camera module includes a lens module, an image sensor, an image sensor driver, a focusing and optical image stabilization (OIS) driver, a focusing and OIS actuator, and a gyro sensor. . The image sensor driver controls the image sensor to capture an image. The focus and OIS driver controls the focus and OIS actuator to focus the lens module and move the lens module to compensate for human hand shock. The gyro sensor provides motion data to the focus and OIS driver.

本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。 In an embodiment of the present disclosure, the depth sensing module includes a projector, a lens, a range sensor, and a range sensor driver. The range sensor driver controls the projector to project dot matrix pulsed light, and controls the range sensor to capture a reflected dot matrix image focused by the lens.

本開示の実施形態において、前記UEは、プログラム、画像データ、平面パラメータ及び変換行列(translation matrix)を記録するメモリを更に含む。 In embodiments of the present disclosure, the UE further includes a memory for storing programs, image data, plane parameters, and translation matrices.

本開示の実施形態において、前記深度画像は、点群データを含む。 In an embodiment of the present disclosure, the depth image includes point cloud data.

本開示の実施形態において、前記UEは、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを更に含む。 In an embodiment of the present disclosure, the UE includes an input module that accepts human instructions, a codec that compresses and decompresses multimedia data, a speaker and a microphone connected to the codec, and a wireless communication module that sends and receives messages. , a Global Navigation Satellite System (GNSS) module that provides positioning information.

本開示の第2の態様では、斜視補正方法は、画像感知モジュールによってカラー画像、赤外線(IR)画像、深度画像を撮影するステップと、前記深度画像から平面パラメータを推定するステップと、前記深度画像から焦点距離データを算出するステップと、前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。 In a second aspect of the present disclosure, a strabismus correction method includes the steps of: capturing a color image, an infrared (IR) image, and a depth image by an image sensing module; estimating a plane parameter from the depth image; and estimating a plane parameter from the depth image. calculating focal length data from the focal length data; capturing partially focused images at these focal lengths from the focal length data by the image sensing module; and cropping focused image data from the partially focused images; compositing the focused image data into a fully focused image.

本開示の実施形態において、前記斜視補正方法は、前記完全合焦画像を非透視画像に調整するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes adjusting the perfectly focused image to a non-fluoroscopic image.

本開示の実施形態において、前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含む。 In an embodiment of the present disclosure, the step of adjusting the perfectly focused image to a non-perspective image includes the step of estimating coordinate data of four corners of the fully focused image in the perspective coordinate axis calculated from the depth image; and dragging the focused image to form a non-perspective image in real world coordinate axes.

本開示の実施形態において、前記斜視補正方法は、いくつかの前記非透視画像を単一画像に合成するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes combining several of the non-perspective images into a single image.

本開示の実施形態において、前記斜視補正方法は、表示モジュールに表示された前記単一画像にトリミング候補枠を設定するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes the step of setting a cropping candidate frame in the single image displayed on a display module.

本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含む。 In an embodiment of the present disclosure, estimating plane parameters from the depth image includes estimating a normal vector of the plane from the depth image.

本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。 In embodiments of the present disclosure, estimating plane parameters from the depth image further includes estimating perspective vertical coordinate axes and perspective horizontal coordinate axes from data of an IMU.

本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。 In an embodiment of the present disclosure, the step of calculating focal length data from the depth image includes calculating focal length data from several focal lengths such that regions of depth of field corresponding to the focal lengths overlap and cover the entire color image. including the step of determining.

本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、被写界深度の各領域がテクスチャを有するか否かを判定するステップを更に含む。 In embodiments of the present disclosure, calculating focal length data from the depth image further includes determining whether each region of depth of field has texture.

本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。 In an embodiment of the present disclosure, the image sensing module includes a camera module that senses a color image and a depth sensing module that senses a depth image.

本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。 In embodiments of the present disclosure, the image sensing module further includes an image processor that controls the camera module and the depth sensing module.

本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れを補償する。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータを提供する。 In embodiments of the present disclosure, the camera module includes a lens module, an image sensor, an image sensor driver, a focusing and optical image stabilization (OIS) driver, a focusing and OIS actuator, and a gyro sensor. . The image sensor driver controls the image sensor to capture an image. The focus and OIS driver controls the focus and OIS actuator to focus the lens module and move the lens module to compensate for human hand shake. The gyro sensor provides motion data to the focus and OIS driver.

本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。 In an embodiment of the present disclosure, the depth sensing module includes a projector, a lens, a range sensor, and a range sensor driver. The range sensor driver controls the projector to project dot matrix pulsed light, and controls the range sensor to capture a reflected dot matrix image focused by the lens.

本開示の実施形態において、前記斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリを提供するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes providing a memory for storing a program, image data, plane parameters, and a transformation matrix.

本開示の実施形態において、前記深度画像は、点群データを含む。 In an embodiment of the present disclosure, the depth image includes point cloud data.

本開示の実施形態において、前記斜視補正方法は、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを提供するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method includes an input module that receives instructions from a human, a codec that compresses and decompresses multimedia data, a speaker and a microphone connected to the codec, and wireless communication that sends and receives messages. and a Global Navigation Satellite System (GNSS) module that provides positioning information.

したがって、本発明の実施形態は、ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供する。 Accordingly, embodiments of the present invention provide a user equipment (UE) and strabismus correction method that allows a user to obtain a single image without perspective distortion.

本開示の実施形態又は従来技術をより明確に説明するために、実施形態で説明される以下の図面について簡単に紹介する。図面が本開示のいくつかの実施形態に過ぎず、当業者であれば、前提を定めることなく、これらの図に基づいて他の図を得ることができることは明らかである。 BRIEF DESCRIPTION OF THE DRAWINGS In order to more clearly describe embodiments of the present disclosure or the prior art, the following drawings that are illustrated in the embodiments will be briefly introduced. It is clear that the drawings are only some embodiments of the disclosure and that a person skilled in the art can derive other drawings based on these drawings without making assumptions.

従来技術のユーザ機器の概略適用図である。1 is a schematic application diagram of a user equipment of the prior art; FIG. 本開示の実施形態に係るユーザ機器(UE)の概略図である。1 is a schematic diagram of a user equipment (UE) according to an embodiment of the present disclosure; FIG. 本開示の実施形態に係る斜視補正方法を示すフローチャートである。3 is a flowchart illustrating a strabismus correction method according to an embodiment of the present disclosure. 本開示の実施形態に係る深度画像から平面パラメータを推定するステップを示すフローチャートである。5 is a flowchart illustrating steps for estimating plane parameters from a depth image according to an embodiment of the present disclosure. 本開示の実施形態に係る深度画像から焦点距離データを算出するステップを示すフローチャートである。5 is a flowchart illustrating steps for calculating focal length data from a depth image according to an embodiment of the present disclosure. 本開示の実施形態に係る完全合焦画像を非透視画像に調整するステップを示すフローチャートである。3 is a flowchart illustrating steps for adjusting a fully focused image to a non-fluoroscopic image according to an embodiment of the present disclosure. 本開示の実施形態に係るカラー画像、赤外線(IR)画像及び深度画像を撮影するステップの概略図である。1 is a schematic diagram of capturing color images, infrared (IR) images, and depth images according to embodiments of the present disclosure; FIG. 本開示の実施形態に係る深度画像から平面パラメータを推定するステップの概略図である。3 is a schematic diagram of estimating plane parameters from a depth image according to an embodiment of the present disclosure; FIG. 本開示の実施形態に係る深度画像から焦点距離データを算出するステップの概略図である。3 is a schematic diagram of calculating focal length data from a depth image according to an embodiment of the present disclosure; FIG. 本開示の実施形態に係る焦点位置、焦点距離、被写界深度(DOF)及びDOFの領域の関係を説明する概略図である。FIG. 2 is a schematic diagram illustrating the relationship between a focal position, a focal length, a depth of field (DOF), and a region of the DOF according to an embodiment of the present disclosure. 本開示の実施形態に係る焦点距離データから焦点距離において部分合焦画像を撮影するステップの概略図である。FIG. 3 is a schematic diagram of capturing a partially focused image at a focal length from focal length data according to an embodiment of the present disclosure; 本開示の実施形態に係る部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップの概略図である。2 is a schematic diagram of the steps of cropping focused image data from a partially focused image and combining the focused image data into a fully focused image according to an embodiment of the present disclosure; FIG. 本開示の実施形態に係る完全合焦画像を非透視画像に調整するステップの概略図である。FIG. 3 is a schematic diagram of adjusting a fully focused image to a non-transparent image according to an embodiment of the present disclosure. 本開示の実施形態に係るいくつかの非透視画像を単一画像に合成するステップの概略図である。FIG. 3 is a schematic diagram of combining several non-fluoroscopic images into a single image according to an embodiment of the present disclosure. 本開示の実施形態に係る表示モジュールに表示された単一画像にトリミング候補枠を設定するステップの概略図である。FIG. 3 is a schematic diagram of setting a cropping candidate frame on a single image displayed on a display module according to an embodiment of the present disclosure.

以下の添付図面を参照して、本開示の実施形態を技術的事項、構造的特徴、達成される目的及び効果とともに詳細に説明する。具体的には、本開示の実施形態における用語は、特定の実施形態の目的を説明するためのものに過ぎず、本開示を限定するものではない。 Embodiments of the present disclosure will be described in detail with technical matters, structural features, objectives and effects achieved, with reference to the accompanying drawings below. In particular, the terms used in the embodiments of the present disclosure are only used to describe the purpose of the particular embodiment, and are not intended to limit the present disclosure.

図2及び図3を参照すると、いくつかの実施形態において、ユーザ機器(UE)100は、画像感知モジュール10と、画像感知モジュール10に接続されたプロセッサ20とを含む。プロセッサ20は、画像感知モジュール10を制御してカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、深度画像D_Iから平面パラメータを推定し、深度画像D_Iから焦点距離データを算出し、画像感知モジュール10を制御して焦点距離データからこれらの焦点距離において部分合焦画像PF_Iを撮影し、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。 Referring to FIGS. 2 and 3, in some embodiments, user equipment (UE) 100 includes an image sensing module 10 and a processor 20 coupled to image sensing module 10. The processor 20 controls the image sensing module 10 to capture a color image C_I, an infrared (IR) image IR_I, and a depth image D_I, estimate plane parameters from the depth image D_I, and calculate focal length data from the depth image D_I. , controls the image sensing module 10 to capture partially focused images PF_I at these focal lengths from the focal length data, cuts out focused image data from the partially focused images PF_I, and converts these focused image data into fully focused images. Combine with image WF_I.

詳細には、図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。 In detail, referring to FIG. 7, the processor 20 of the UE 100 controls the image sensing module 10 to capture, for example, a color image C_I, an infrared (IR) image IR_I, and a depth image D_I of the left side of the subject, and A color image C_I', an infrared (IR) image IR_I', and a depth image D_I' on the right side of the image are taken.

いくつかの実施形態において、図4及び図8を参照すると、深度画像D_Iから平面パラメータを推定する方法は、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。 In some embodiments, with reference to FIGS. 4 and 8, a method of estimating plane parameters from a depth image D_I includes estimating a plane normal vector N_V from a depth image D_I.

詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。 Specifically, referring to FIG. 8, the UE 100 estimates a plane normal vector N_V from the depth image D_I, and estimates a plane normal vector N_V' from the depth image D_I'.

いくつかの実施形態において、図2、図4及び図8を参照すると、UEは、慣性計測ユニット(IMU)40を更に含む。深度画像D_Iから平面パラメータを推定する方法は、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。 In some embodiments, referring to FIGS. 2, 4, and 8, the UE further includes an inertial measurement unit (IMU) 40. The method for estimating plane parameters from the depth image D_I further includes the step of estimating a perspective vertical coordinate axis PV_CA and a perspective horizontal coordinate axis PH_CA from data of the IMU 40.

詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。 Specifically, referring to FIG. 8, the UE 100 estimates the perspective vertical coordinate axis PV_CA and the perspective horizontal coordinate axis PH_CA of the depth image D_I from the data of the IMU 40, and estimates the perspective vertical coordinate axis PV_CA' and the perspective horizontal coordinate axis PV_CA' of the depth image D_I' from the data of the IMU 40. Estimate the horizontal coordinate axis PH_CA'.

いくつかの実施形態において、図5及び図9を参照すると、深度画像D_Iから焦点距離データを算出する方法は、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。 In some embodiments, with reference to FIGS. 5 and 9, a method for calculating focal length data from a depth image D_I includes a method for calculating focal length data from a depth image D_I such that depth of field regions DF_A1 to DF_A4 corresponding to focal lengths FD_1 to FD_4 overlap and color It includes determining several focal lengths FD_1 to FD_4 to cover the entire image C_I.

詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域(intersection area)は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。 Specifically, referring to FIGS. 9 and 10, the focal position F_1 of the UE 100 has a focal length FD_1 and a depth of field DF_1. The intersection area of the depth of field DF_1 on the subject is the depth of field area DF_A1. The depth of field area DF_A1 can be calculated from the data of the depth image D_I. On the other hand, the focal position F_2 of the UE 100 has a focal length FD_2 and a depth of field DF_2. The intersection area of depth of field DF_2 on the subject is depth of field area DF_A2. The focal position F_3 of the UE 100 has a focal length FD_3 and a depth of field DF_3. The intersection area of depth of field DF_3 on the subject is depth of field area DF_A3. The focal position F_4 of the UE 100 has a focal length FD_4 and a depth of field DF_4. The intersection area of depth of field DF_4 on the subject is depth of field area DF_A4.

詳細には、図5、図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。 Specifically, referring to FIGS. 5, 9, and 10, the UE 100 performs the following operations so that the depth of field regions DF_A1 to DF_A4 corresponding to the focal positions F_1 to F_4 overlap to cover the entire color image C_I. Determine several focal positions F_1 to F_4. The UE 100 determines several focal positions F_1' to F_4' so that the depth of field regions DF_A1' to DF_A4' corresponding to the focal positions F_1 to F_4 overlap and cover the entire color image C_I'. .

いくつかの実施形態において、図5を参照すると、深度画像D_Iから焦点距離データを算出する方法は、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。 In some embodiments, referring to FIG. 5, the method of calculating focal length data from a depth image D_I further includes determining whether each of the depth of field regions DF_A1-DF_A4 has a texture. .

詳細には、図3、図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。 In particular, with reference to FIGS. 3, 11 and 12, the processor 20 controls the image sensing module 10 to capture a partially focused image PF_I2 at a focal length FD_2 from the focal length data; A partially focused image PF_I3 is captured at a focal length FD_3, focused image data is cut from the partially focused image PF_I2, focused image data is cut from the partially focused image PF_I3, and these focused image data are converted into a completely focused image. Combine into WF_I. The processor 20 controls the image sensing module 10 to capture a partially focused image PF_I2', capture a partially focused image PF_I3', cut out focused image data from the partially focused image PF_I2', and perform a partially focused image PF_I2'. Focused image data is cut out from image PF_I3', and these focused image data are combined into a completely focused image WF_I'.

いくつかの実施形態において、図3を参照すると、プロセッサ20は、完全合焦画像WF_Iを非透視画像NP_Iに調整する。いくつかの実施形態において、図3、図6及び図13を参照すると、完全合焦画像WF_Iを非透視画像NP_Iに調整する方法は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを含む。 In some embodiments, referring to FIG. 3, processor 20 adjusts the fully focused image WF_I to a non-transparent image NP_I. In some embodiments, with reference to FIGS. 3, 6, and 13, a method for adjusting a fully focused image WF_I to a non-perspective image NP_I includes adjusting a fully focused image WF_I to a non-perspective image NP_I in a perspective coordinate axis P_CA calculated from a depth image D_I. The method includes a step of estimating the coordinate data of the four corners C1 to C4 of WF_I, and a step of dragging the fully focused image WF_I to form a non-perspective image NP_I in the real world coordinate axis R_CA.

詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。 Specifically, the UE 100 estimates the coordinate data of the four corners C1 to C4 of the fully focused image WF_I in the perspective coordinate axis P_CA calculated from the depth image D_I, and then drags the fully focused image WF_I to the real world coordinate axis R_CA. A non-transparent image NP_I is formed. In detail, the UE 100 provides a transformation matrix from the perspective coordinate axis P_CA to the real world coordinate axis R_CA. The fully focused image WF_I is transformed into a non-perspective image NP_I by multiplying the data of the fully focused image WF_I by a transformation matrix. On the other hand, the UE 100 estimates the coordinate data of the four corners C1' to C4' of the fully focused image WF_I' in the perspective coordinate axis P_CA' calculated from the depth image D_I', and then drags the fully focused image WF_I' to execute the coordinate data. A non-perspective image NP_I' is formed on the world coordinate axis R_CA.

いくつかの実施形態において、図14を参照すると、プロセッサ20は、いくつかの非透視画像NP_Iを単一画像S_Iに合成する。 In some embodiments, referring to FIG. 14, processor 20 combines several non-perspective images NP_I into a single image S_I.

詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。 In detail, the processor 20 combines the non-transparent images NP_I, NP_I' into a single image S_I.

いくつかの実施形態において、図15を参照すると、UE100は、表示モジュール30を更に含み、プロセッサ20は、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定する。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。 In some embodiments, referring to FIG. 15, the UE 100 further includes a display module 30, and the processor 20 sets a cropping candidate frame TC_F to the single image S_I displayed on the display module 30. In some embodiments, referring to FIG. 2, the image sensing module 10 includes a camera module 11 that senses a color image C_I and a depth sensing module 12 that senses a depth image D_I. In some embodiments, referring to FIG. 2, image sensing module 10 further includes an image processor 13 that controls camera module 11 and depth sensing module 12. In some embodiments, referring to FIG. 2, the camera module 11 includes a lens module 111, an image sensor 112, an image sensor driver 113, a focusing and optical image stabilization (OIS) driver 114, and a focusing and optical image stabilization (OIS) driver 114. , an OIS actuator 115 , and a gyro sensor 116 . The image sensor driver 113 controls the image sensor 112 to capture an image. A focus and OIS driver 114 controls a focus and OIS actuator 115 to focus the lens module 111 and move the lens module 111 to compensate for human hand shake. Gyro sensor 116 provides motion data to focus and OIS driver 114.

いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。いくつかの実施形態において、図2を参照すると、UE100は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、UE100は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを更に含む。 In some embodiments, referring to FIG. 2, depth sensing module 12 includes a projector 124, a lens 121, a range sensor 122, and a range sensor driver 123. The range sensor driver 123 controls the projector 124 to project dot matrix pulsed light, and controls the range sensor 122 to capture a reflected dot matrix image focused by the lens 121. In some embodiments, referring to FIG. 2, UE 100 further includes memory 50 for storing programs, image data, plane parameters, and transformation matrices. In some embodiments, depth image D_I includes point cloud data. In some embodiments, referring to FIG. 2, the UE 100 includes an input module 60 for accepting human instructions, a codec 70 for compressing and decompressing multimedia data, and a speaker 80 and a microphone 90 connected to the codec 70. , a wireless communication module 91 for transmitting and receiving messages, and a Global Navigation Satellite System (GNSS) module 92 for providing positioning information.

また、図3を参照すると、いくつかの実施形態において、斜視補正方法は、ブロックS100で、画像感知モジュール10によってカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影するステップと、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップと、ブロックS300で、深度画像D_Iから焦点距離データを算出するステップと、ブロックS400で、画像感知モジュール10によって、焦点距離データからこれらの焦点距離FD_1~FD_4において部分合焦画像PF_Iを撮影するステップと、ブロックS500で、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成するステップとを含む。 Also referring to FIG. 3, in some embodiments, the strabismus correction method includes, in block S100, capturing a color image C_I, an infrared (IR) image IR_I, and a depth image D_I by the image sensing module 10; S200, estimating plane parameters from the depth image D_I; block S300, calculating focal length data from the depth image D_I; and block S400, calculating these focal lengths from the focal length data by the image sensing module 10. A step of photographing a partially focused image PF_I in FD_1 to FD_4, and a step of cutting out focused image data from the partially focused image PF_I and combining these focused image data into a completely focused image WF_I in block S500. include.

詳細には、図2及び図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。 In detail, referring to FIGS. 2 and 7, the processor 20 of the UE 100 controls the image sensing module 10 to capture, for example, a color image C_I, an infrared (IR) image IR_I, and a depth image D_I of the left side of the subject. Then, a color image C_I', an infrared (IR) image IR_I', and a depth image D_I' of the right side of the subject are photographed.

いくつかの実施形態において、図4及び図8を参照すると、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップは、ブロックS210で、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。 In some embodiments, with reference to FIGS. 4 and 8, estimating plane parameters from the depth image D_I in block S200 includes estimating the plane normal vector N_V from the depth image D_I in block S210. including.

詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。 Specifically, referring to FIG. 8, the UE 100 estimates a plane normal vector N_V from the depth image D_I, and estimates a plane normal vector N_V' from the depth image D_I'.

いくつかの実施形態において、図2、4及び8を参照すると、ブロックS200で、深度画像から平面パラメータを推定するステップは、ブロックS220で、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。 In some embodiments, with reference to FIGS. 2, 4, and 8, estimating plane parameters from the depth image in block S200 includes determining a perspective vertical coordinate axis PV_CA and a perspective horizontal coordinate axis PH_CA from data of IMU 40 in block S220. The method further includes the step of estimating.

詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。 Specifically, referring to FIG. 8, the UE 100 estimates the perspective vertical coordinate axis PV_CA and the perspective horizontal coordinate axis PH_CA of the depth image D_I from the data of the IMU 40, and estimates the perspective vertical coordinate axis PV_CA' and the perspective horizontal coordinate axis PV_CA' of the depth image D_I' from the data of the IMU 40. Estimate the horizontal coordinate axis PH_CA'.

いくつかの実施形態において、図5及び図9を参照すると、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS310で、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。 In some embodiments, with reference to FIGS. 5 and 9, in block S300, calculating focal length data from the depth image includes, in block S310, calculating a region of depth of field corresponding to focal lengths FD_1 to FD_4. It includes determining several focal lengths FD_1 to FD_4 such that DF_A1 to DF_A4 overlap to cover the entire color image C_I.

詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。 Specifically, referring to FIGS. 9 and 10, the focal position F_1 of the UE 100 has a focal length FD_1 and a depth of field DF_1. The intersection area of depth of field DF_1 on the subject is depth of field area DF_A1. The depth of field area DF_A1 can be calculated from the data of the depth image D_I. On the other hand, the focal position F_2 of the UE 100 has a focal length FD_2 and a depth of field DF_2. The intersection area of depth of field DF_2 on the subject is depth of field area DF_A2. The focal position F_3 of the UE 100 has a focal length FD_3 and a depth of field DF_3. The intersection area of depth of field DF_3 on the subject is depth of field area DF_A3. The focal position F_4 of the UE 100 has a focal length FD_4 and a depth of field DF_4. The intersection area of depth of field DF_4 on the subject is depth of field area DF_A4.

詳細には、図5、図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1’~F_4’に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。 Specifically, referring to FIGS. 5, 9, and 10, the UE 100 performs the following operations so that the depth of field regions DF_A1 to DF_A4 corresponding to the focal positions F_1 to F_4 overlap to cover the entire color image C_I. Determine several focal positions F_1 to F_4. The UE 100 sets several focal positions F_1' to F_4' so that the depth of field regions DF_A1' to DF_A4' corresponding to the focal positions F_1' to F_4' overlap and cover the entire color image C_I'. decide.

いくつかの実施形態において、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS320で、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。 In some embodiments, calculating focal length data from the depth image in block S300 further comprises determining whether each of the depth of field regions DF_A1-DF_A4 has a texture in block S320. include.

詳細には、図3、図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。 In particular, with reference to FIGS. 3, 11 and 12, the processor 20 controls the image sensing module 10 to capture a partially focused image PF_I2 at a focal length FD_2 from the focal length data; A partially focused image PF_I3 is captured at a focal length FD_3, focused image data is cut from the partially focused image PF_I2, focused image data is cut from the partially focused image PF_I3, and these focused image data are converted into a completely focused image. Combine into WF_I. The processor 20 controls the image sensing module 10 to capture a partially focused image PF_I2', capture a partially focused image PF_I3', cut out focused image data from the partially focused image PF_I2', and perform a partially focused image PF_I2'. Focused image data is cut out from image PF_I3', and these focused image data are combined into a completely focused image WF_I'.

いくつかの実施形態において、図3を参照すると、斜視補正方法は、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップを更に含む。いくつかの実施形態において、図3、図6及び図13を参照すると、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップは、ブロックS610で、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、ブロックS620で、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを更に含む。 In some embodiments, referring to FIG. 3, the strabismus correction method further includes adjusting the fully focused image WF_I to a non-perspective image NP_I at block S600. In some embodiments, with reference to FIGS. 3, 6, and 13, adjusting the fully focused image WF_I to a non-perspective image NP_I in block S600 includes adjusting the fully focused image WF_I to a non-perspective image NP_I in block S610. estimating the coordinate data of the four corners C1 to C4 of the fully focused image WF_I on the perspective coordinate axis P_CA, and forming a non-perspective image NP_I on the real world coordinate axis R_CA by dragging the fully focused image WF_I in block S620. further including.

詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。いくつかの実施形態において、図14を参照すると、斜視補正方法は、ブロックS700で、いくつかの非透視画像NP_Iを単一画像S_Iに合成するステップを更に含む。 Specifically, the UE 100 estimates the coordinate data of the four corners C1 to C4 of the fully focused image WF_I in the perspective coordinate axis P_CA calculated from the depth image D_I, and then drags the fully focused image WF_I to the real world coordinate axis R_CA. A non-transparent image NP_I is formed. In detail, the UE 100 provides a transformation matrix from the perspective coordinate axis P_CA to the real world coordinate axis R_CA. The fully focused image WF_I is converted to a non-perspective image NP_I by multiplying the data of the fully focused image WF_I by a transformation matrix. On the other hand, the UE 100 estimates the coordinate data of the four corners C1' to C4' of the fully focused image WF_I' in the perspective coordinate axis P_CA' calculated from the depth image D_I', and then drags the fully focused image WF_I' to execute the coordinate data. A non-perspective image NP_I' is formed on the world coordinate axis R_CA. In some embodiments, referring to FIG. 14, the strabismus correction method further includes combining several non-perspective images NP_I into a single image S_I at block S700.

詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。 In detail, the processor 20 combines the non-transparent images NP_I, NP_I' into a single image S_I.

いくつかの実施形態において、図15を参照すると、斜視補正方法は、ブロックS800で、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定するステップを更に含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。 In some embodiments, referring to FIG. 15, the strabismus correction method further includes setting a cropping candidate frame TC_F in the single image S_I displayed on the display module 30 in block S800. In some embodiments, referring to FIG. 2, the image sensing module 10 includes a camera module 11 that senses a color image C_I and a depth sensing module 12 that senses a depth image D_I. In some embodiments, referring to FIG. 2, image sensing module 10 further includes an image processor 13 that controls camera module 11 and depth sensing module 12.

いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。 In some embodiments, referring to FIG. 2, the camera module 11 includes a lens module 111, an image sensor 112, an image sensor driver 113, a focusing and optical image stabilization (OIS) driver 114, and a focusing and optical image stabilization (OIS) driver 114. , an OIS actuator 115 , and a gyro sensor 116 . The image sensor driver 113 controls the image sensor 112 to capture an image. A focus and OIS driver 114 controls a focus and OIS actuator 115 to focus the lens module 111 and move the lens module 111 to compensate for human hand shake. Gyro sensor 116 provides motion data to focus and OIS driver 114. In some embodiments, referring to FIG. 2, depth sensing module 12 includes a projector 124, a lens 121, a range sensor 122, and a range sensor driver 123. The range sensor driver 123 controls the projector 124 to project dot matrix pulsed light, and controls the range sensor 122 to capture a reflected dot matrix image focused by the lens 121.

いくつかの実施形態において、図2を参照すると、斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を提供するステップを更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、斜視補正方法は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを提供するステップを更に含む。 In some embodiments, referring to FIG. 2, the strabismus correction method further includes providing a memory 50 for storing programs, image data, plane parameters, and transformation matrices. In some embodiments, depth image D_I includes point cloud data. In some embodiments, referring to FIG. 2, the strabismus correction method includes an input module 60 for accepting human instructions, a codec 70 for compressing and decompressing multimedia data, and a speaker 80 and a microphone connected to the codec 70. 90, a wireless communication module 91 for transmitting and receiving messages, and a Global Navigation Satellite System (GNSS) module 92 for providing positioning information.

斜視補正方法の利点は、以下の2点を含む。
1.透視歪みの無い単一の完全合焦画像を提供する。
2.カメラの撮影領域の幅よりも大きい横幅を有する被写体の単一画像を提供する。
The advantages of the strabismus correction method include the following two points.
1. Provides a single perfectly focused image with no perspective distortion.
2. To provide a single image of a subject having a horizontal width larger than the width of a photographing area of a camera.

本開示の実施形態において、UE及び斜視補正方法を提供する。透視歪みの無い単一の合焦画像を提供するために、UEの画像センサ通信方法は、画像感知モジュールによってカラー画像、赤外線画像及び深度画像を撮影するステップと、深度画像から平面パラメータを推定するステップと、深度画像から焦点距離データを算出するステップと、画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。 In embodiments of the present disclosure, a UE and strabismus correction method are provided. In order to provide a single focused image without perspective distortion, the image sensor communication method of the UE includes the steps of capturing a color image, an infrared image and a depth image by an image sensing module, and estimating plane parameters from the depth image. calculating focal length data from the depth image; capturing partially focused images at these focal lengths from the focal length data by an image sensing module; and cropping focused image data from the partially focused image. , combining these focused image data into a fully focused image.

本開示の実施形態で説明及び開示されるユニット、アルゴリズム及びステップのそれぞれは、電子ハードウェア、又はコンピュータのソフトウェアと電子ハードウェアとの組み合わせを使用して実現されることが当業者に理解される。機能がハードウェアによって実行されるかソフトウェアによって実行されるかは、技術案の適用条件と設計要件に依存する。当業者は、異なる方法を使用して、特定の用途ごとに機能を実現することができるが、そのような実現は、本開示の範囲を超えてはならない。上述したシステム、装置及びユニットの動作プロセスが基本的に同じであるので、上述した実施形態におけるシステム、装置及びユニットの動作プロセスを参照することができることは、当業者に理解される。説明の便宜及び簡潔にするために、これらの動作プロセスについては詳しく説明しない。本開示の実施形態における開示されたシステム、装置及び方法は、他の方法によって実現できることが理解される。上述した実施形態は例示である。ユニットの分割は、単に論理的機能に基づくものであり、他の分割は実現可能である。複数のユニット又はコンポーネントは、他のシステムに組み合わされてもよく、統合されてもよい。一部の特徴が省略されてもよく、スキップされてもよい。一方、表示又は議論された相互結合、直接結合又は通信結合は、電気的、機械的又は他の種類の形態による間接的又は通信的であるかどうかにかかわらず、いくつかのポート、装置又はユニットを介して動作する。分離コンポーネントとして説明したユニットは、物理的に分離していてもよく、分離していなくてもよい。表示用のユニットは、物理的なユニットであってもなくてもよく、すなわち、1箇所に配置されていてもよく、複数のネットワークユニットに分散してもよい。実施形態の目的に従って一部又は全部のユニットを使用する。更に、各実施形態における各機能ユニットが1つの処理ユニットに統合されてもよく、物理的に独立してもよく、2つ以上のユニットが1つの処理ユニットに統合されてもよい。ソフトウェア機能ユニットが実現され、製品として使用及び販売される場合、コンピュータの読み取り可能な記憶媒体に記憶することができる。この理解に基づいて、本開示が提案する技術案は、本質的に又は部分的にソフトウェア製品の形態として実現することができる。或いは、従来技術に有益な技術案の一部を、ソフトウェア製品の形態として実現することができる。コンピュータのソフトウェア製品は、本開示の実施形態に開示されるステップの全部又は一部を演算装置(パーソナルコンピュータ、サーバー又はネットワークデバイスなど)に実行させる複数の命令を含む記憶媒体に、格納される。記憶媒体は、プログラムコードを記憶可能なUSBディスク、モバイルハードディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フロッピーディスク又は他の種類の媒体を含む。 It will be understood by those skilled in the art that each of the units, algorithms and steps described and disclosed in the embodiments of the present disclosure may be implemented using electronic hardware or a combination of computer software and electronic hardware. . Whether a function is performed by hardware or software depends on the application conditions and design requirements of the technical proposal. Those skilled in the art may use different methods to implement the functionality for each particular application, but such implementation shall not go beyond the scope of this disclosure. It will be understood by those skilled in the art that reference can be made to the operating processes of the systems, devices and units in the embodiments described above, since the operating processes of the systems, devices and units described above are basically the same. For convenience and brevity, these operational processes will not be described in detail. It is understood that the disclosed systems, apparatus, and methods in embodiments of the present disclosure can be implemented in other ways. The embodiments described above are exemplary. The division of units is based solely on logical function; other divisions are possible. Multiple units or components may be combined or integrated into other systems. Some features may be omitted or skipped. On the other hand, mutual, direct or communicative couplings shown or discussed may include several ports, devices or units, whether indirect or communicative in the form of electrical, mechanical or other types. Works through. Units described as separate components may or may not be physically separate. The display unit may or may not be a physical unit, that is, it may be located at one location or may be distributed over multiple network units. Some or all units may be used according to the purpose of the embodiment. Furthermore, each functional unit in each embodiment may be integrated into one processing unit, may be physically independent, or two or more units may be integrated into one processing unit. When a software functional unit is implemented, used and sold as a product, it can be stored on a computer readable storage medium. Based on this understanding, the technical solution proposed by this disclosure can be realized essentially or partially in the form of a software product. Alternatively, some of the technical solutions useful in the prior art can be implemented in the form of software products. A computer software product is stored on a storage medium that includes a plurality of instructions that cause a computing device (such as a personal computer, server, or network device) to perform all or some of the steps disclosed in embodiments of the present disclosure. The storage medium includes a USB disk, mobile hard disk, read only memory (ROM), random access memory (RAM), floppy disk, or other types of media that can store program codes.

本開示は、最も実用的かつ好ましい実施形態と考えられるものに関連して説明された。しかし、本開示は、開示された実施形態に限定されるものではなく、添付の特許請求の範囲の最も広い解釈の範囲から逸脱することなくなされた様々なアレンジをカバーすることを意図していることが理解される。 This disclosure has been described in connection with what is considered to be the most practical and preferred embodiment. However, the present disclosure is not limited to the disclosed embodiments, but is intended to cover various arrangements that may be made without departing from the scope of the broadest interpretation of the appended claims. That is understood.

Claims (12)

画像感知モジュールと、
前記画像感知モジュールに接続されたプロセッサとを含むユーザ機器であって、
前記プロセッサは、
前記画像感知モジュールを制御して互いに対応するいくつかのカラー画像、赤外線(IR)画像及び深度画像を異なる撮影角度で撮影し、
前記深度画像から平面パラメータを推定し、
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出し、
前記画像感知モジュールを制御して前記焦点距離データからこれらの焦点距離において部分合焦画像を撮影し、
前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成し、
前記完全合焦画像を非透視画像に調整し、
異なる撮影角度でのいくつかの前記非透視画像を単一画像に合成することを特徴とする、ユーザ機器。
an image sensing module;
a processor connected to the image sensing module, the user equipment comprising:
The processor includes:
controlling the image sensing module to take a number of mutually corresponding color images, infrared (IR) images and depth images at different photographing angles ;
estimating plane parameters from the depth image;
calculating focal length data from the same depth image in estimating plane parameters from the depth image ;
controlling the image sensing module to take partially focused images at these focal lengths from the focal length data;
Cutting out focused image data from the partially focused image and composing these focused image data into a fully focused image ;
adjusting the fully focused image to a non-fluoroscopic image;
User equipment, characterized in that it combines several said non-fluoroscopic images at different shooting angles into a single image .
前記完全合焦画像を非透視画像に調整することは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定することと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成することとを含むことを特徴とする、請求項に記載のユーザ機器。 Adjusting the perfectly focused image to a non-fluorescent image includes estimating the coordinate data of the four corners of the perfectly focused image in the perspective coordinate axis calculated from the depth image, and dragging the perfectly focused image. and forming a non-perspective image in real-world coordinate axes . 記ユーザ機器は、表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠を設定することを特徴とする、請求項に記載のユーザ機器。 The user equipment according to claim 1 , wherein the user equipment further includes a display module, and wherein the processor sets a cropping candidate frame on the single image displayed on the display module. 前記深度画像から平面パラメータを推定することは、前記深度画像から平面の法線ベクトルを推定することを含み、
前記ユーザ機器は、慣性計測ユニット(IMU)を更に含み、前記深度画像から平面パラメータを推定することは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定することを更に含むことを特徴とする、請求項1に記載のユーザ機器。
Estimating plane parameters from the depth image includes estimating a normal vector of the plane from the depth image,
The user equipment further includes an inertial measurement unit (IMU), and estimating plane parameters from the depth image further includes estimating a perspective vertical coordinate axis and a perspective horizontal coordinate axis from data of the IMU. , a user equipment according to claim 1.
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出することは、焦点距離に対応する被写界深度の領域が重なって前記深度画像に対応する前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定することを含み、
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出することは、前記カラー画像における前記被写界深度の各領域が被写体のテクスチャを有するか否かを判定することを更に含むことを特徴とする、請求項1に記載のユーザ機器。
Calculating focal length data from the same depth image in estimating plane parameters from the depth image means that the depth of field regions corresponding to the focal lengths of the color image corresponding to the depth image overlap. including determining several focal lengths to cover the entire
Calculating focal length data from the same depth image in estimating plane parameters from the depth image determines whether each region of the depth of field in the color image has a texture of a subject . User equipment according to claim 1, further comprising:
画像感知モジュールによって互いに対応するいくつかのカラー画像、赤外線(IR)画像及び深度画像を異なる撮影角度で撮影するステップと、
前記深度画像から平面パラメータを推定するステップと、
前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップと、
前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、
前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップと
前記完全合焦画像を非透視画像に調整するステップと、
異なる撮影角度でのいくつかの前記非透視画像を単一画像に合成するステップを含むことを特徴とする、斜視補正方法。
capturing several color images, infrared (IR) images and depth images corresponding to each other at different shooting angles by the image sensing module;
estimating plane parameters from the depth image;
calculating focal length data from the same depth image in the step of estimating plane parameters from the depth image ;
taking partially focused images at these focal lengths from the focal length data by the image sensing module;
cutting out focused image data from the partially focused image and combining the focused image data into a fully focused image ;
adjusting the fully focused image to a non-fluorescent image;
A method for correcting strabismus, comprising the step of combining several of the non-fluoroscopic images taken at different photographing angles into a single image .
前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含むことを特徴とする、請求項に記載の斜視補正方法。 The step of adjusting the perfectly focused image to a non-perspective image includes the steps of estimating coordinate data of the four corners of the fully focused image in the perspective coordinate axis calculated from the depth image, and dragging the fully focused image. 7. The strabismus correction method according to claim 6 , further comprising the step of forming a non-perspective image in real-world coordinate axes. 表示モジュールに表示された単一画像にトリミング候補枠を設定するステップを更に含むことを特徴とする、請求項に記載の斜視補正方法。 7. The strabismus correction method according to claim 6 , further comprising the step of setting a cropping candidate frame in the single image displayed on the display module. 前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含むことを特徴とする、請求項に記載の斜視補正方法。 7. The strabismus correction method according to claim 6 , wherein the step of estimating plane parameters from the depth image includes the step of estimating a normal vector of a plane from the depth image. 前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含むことを特徴とする、請求項に記載の斜視補正方法。 7. The strabismus correction method according to claim 6 , wherein the step of estimating plane parameters from the depth image further includes the step of estimating perspective vertical coordinate axes and perspective horizontal coordinate axes from IMU data. 前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記深度画像に対応する前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含むことを特徴とする、請求項に記載の斜視補正方法。 In the step of estimating plane parameters from the depth image, the step of calculating focal length data from the same depth image includes the step of calculating the focal length data from the same depth image, in which the depth of field regions corresponding to the focal lengths of the color image corresponding to the depth image overlap. Strabismus correction method according to claim 6 , characterized in that it includes the step of determining several focal lengths so as to cover the whole. 前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップは、前記カラー画像における被写界深度の各領域が被写体のテクスチャを有するか否かを判定するステップを更に含むことを特徴とする、請求項11に記載の斜視補正方法。 In the step of estimating plane parameters from the depth image, the step of calculating focal length data from the same depth image is a step of determining whether each region of the depth of field in the color image has the texture of the subject . The strabismus correction method according to claim 11 , further comprising:
JP2021568633A 2019-05-24 2019-05-24 User equipment and strabismus correction method Active JP7346594B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/088417 WO2020237441A1 (en) 2019-05-24 2019-05-24 User equipment and method of oblique view correction

Publications (2)

Publication Number Publication Date
JP2022533975A JP2022533975A (en) 2022-07-27
JP7346594B2 true JP7346594B2 (en) 2023-09-19

Family

ID=73553409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021568633A Active JP7346594B2 (en) 2019-05-24 2019-05-24 User equipment and strabismus correction method

Country Status (3)

Country Link
JP (1) JP7346594B2 (en)
CN (1) CN113826376B (en)
WO (1) WO2020237441A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000236434A (en) 1999-02-12 2000-08-29 Fuji Xerox Co Ltd Image forming device
JP2011216958A (en) 2010-03-31 2011-10-27 Casio Computer Co Ltd Imaging apparatus and program
JP2017223648A (en) 2016-03-16 2017-12-21 アナログ ディヴァイスィズ インク Reducing power consumption for time-of-flight depth imaging

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3043034B2 (en) * 1990-07-26 2000-05-22 オリンパス光学工業株式会社 Image input / output device
JP3601272B2 (en) * 1997-11-10 2004-12-15 富士ゼロックス株式会社 Imaging device
JP4524717B2 (en) * 2008-06-13 2010-08-18 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
CN102216941B (en) * 2008-08-19 2015-08-12 数字标记公司 For the method and system of contents processing
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
CN103262524B (en) * 2011-06-09 2018-01-05 郑苍隆 Automatic focusedimage system
BR112014013737B1 (en) * 2011-12-09 2022-02-08 Neurovision Imaging, Inc METHOD TO COMBINE A PLURALITY OF EYE IMAGES INTO A MULTIFOCAL PLENOPTIC IMAGE
US9241111B1 (en) * 2013-05-30 2016-01-19 Amazon Technologies, Inc. Array of cameras with various focal distances
CN103824303A (en) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 Image perspective distortion adjusting method and device based on position and direction of photographed object
CN106033614B (en) * 2015-03-20 2019-01-04 南京理工大学 A kind of mobile camera motion object detection method under strong parallax
CN104867113B (en) * 2015-03-31 2017-11-17 酷派软件技术(深圳)有限公司 The method and system of perspective image distortion correction
JP6522434B2 (en) * 2015-06-08 2019-05-29 オリンパス株式会社 Imaging device, image processing device, control method of imaging device, and image processing program
US9661298B2 (en) * 2015-08-06 2017-05-23 Intel Corporation Depth image enhancement for hardware generated depth images
CN106412426B (en) * 2016-09-24 2019-08-20 上海大学 Total focus camera and method
CN107301665B (en) * 2017-05-03 2020-03-31 中国科学院计算技术研究所 Depth camera with variable-focus optical camera and control method thereof
CN108833887B (en) * 2018-04-28 2021-05-18 Oppo广东移动通信有限公司 Data processing method and device, electronic equipment and computer readable storage medium
CN109448045B (en) * 2018-10-23 2021-02-12 南京华捷艾米软件科技有限公司 SLAM-based planar polygon measurement method and machine-readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000236434A (en) 1999-02-12 2000-08-29 Fuji Xerox Co Ltd Image forming device
JP2011216958A (en) 2010-03-31 2011-10-27 Casio Computer Co Ltd Imaging apparatus and program
JP2017223648A (en) 2016-03-16 2017-12-21 アナログ ディヴァイスィズ インク Reducing power consumption for time-of-flight depth imaging

Also Published As

Publication number Publication date
WO2020237441A1 (en) 2020-12-03
CN113826376B (en) 2023-08-15
JP2022533975A (en) 2022-07-27
CN113826376A (en) 2021-12-21

Similar Documents

Publication Publication Date Title
JP7291244B2 (en) Projector Keystone Correction Method, Apparatus, System and Readable Storage Medium
KR101624450B1 (en) Image processing device, image processing method, and storage medium
JP4216824B2 (en) 3D model generation apparatus, 3D model generation method, and 3D model generation program
JP6436783B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP5510238B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2001346226A (en) Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program
JP5230013B2 (en) Imaging device
JP2012174116A (en) Object display device, object display method and object display program
JP2011139368A (en) Control apparatus and control method for capturing device
KR101694651B1 (en) Distortion compensation apparatus and method for wide-angle imaging lens using three-dimensional position estimate
JP7378219B2 (en) Imaging device, image processing device, control method, and program
JP2000283720A (en) Method and device for inputting three-dimensional data
US10154241B2 (en) Depth map based perspective correction in digital photos
JP7346594B2 (en) User equipment and strabismus correction method
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JPH09305796A (en) Image information processor
WO2015198478A1 (en) Image distortion correction apparatus, information processing apparatus and image distortion correction method
US20190268519A1 (en) A bundle adjustment system
CN113747011A (en) Auxiliary shooting method and device, electronic equipment and medium
JP2009239392A (en) Compound eye photographing apparatus, control method therefor, and program
JPH09231370A (en) Picture information input device
JP5590680B2 (en) Image composition apparatus, image composition method, and image composition program
JP2002058046A (en) Imaging system and three-dimensional camera
JP6433154B2 (en) Image processing apparatus and imaging apparatus
JP6292785B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150