JP7346594B2 - User equipment and strabismus correction method - Google Patents
User equipment and strabismus correction method Download PDFInfo
- Publication number
- JP7346594B2 JP7346594B2 JP2021568633A JP2021568633A JP7346594B2 JP 7346594 B2 JP7346594 B2 JP 7346594B2 JP 2021568633 A JP2021568633 A JP 2021568633A JP 2021568633 A JP2021568633 A JP 2021568633A JP 7346594 B2 JP7346594 B2 JP 7346594B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- focused
- estimating
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/685—Vibration or motion blur correction performed by mechanical compensation
- H04N23/687—Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
本開示は、画像処理技術の分野に関し、より具体的には、ユーザ機器(UE)及び斜視補正方法に関する。 The present disclosure relates to the field of image processing technology, and more specifically to user equipment (UE) and strabismus correction methods.
図1を参照すると、現在の技術では、ユーザが携帯電話などのユーザ機器1を用いて輪郭が鮮明な斜め配向平面(oriented plane surface)の写真を撮る場合、ユーザ機器1は、斜め配向平面の画像を歪みの無い形状に補正する。しかしながら、斜め配向平面の輪郭が不鮮明である場合、又は一部のみが撮影領域2内にある場合、又は斜め配向平面が撮影領域2の幅よりも大きい横幅を有する場合、ユーザは、被写体全体の透視歪み(perspective distortion)の無い単一の合焦画像を得ることができない。
Referring to FIG. 1, in the current technology, when a user uses a
米国特許第6449004号は、斜視補正(oblique view correction)機能を備えた電子カメラを開示している。被写体の光像を光電的に撮影して画像データを生成する撮像素子を備えた電子カメラを開示している。傾斜角情報提供装置が、撮像素子の感知面と被写体の正面との間の傾斜角に関する情報を提供する。距離測定器が、被写体までの距離を測定する。補正器が、提供された傾斜角情報と測定された距離に基づいて補正して、画像データを生成することによって、正面が撮像素子の感知面に平行な平面にある擬似被写体像を生成する。 US Pat. No. 6,449,004 discloses an electronic camera with oblique view correction functionality. An electronic camera is disclosed that includes an image sensor that photoelectrically captures an optical image of a subject to generate image data. The tilt angle information providing device provides information regarding the tilt angle between the sensing surface of the image sensor and the front of the subject. A distance measuring device measures the distance to the subject. A corrector corrects the provided tilt angle information and the measured distance to generate image data, thereby generating a pseudo subject image whose front is in a plane parallel to the sensing surface of the image sensor.
米国特許第7365301号は、3次元形状検出装置、画像撮影装置及び3次元形状検出プログラムを開示している。パターン光を投影する投影手段と、パターン光が投影された被写体のパターン光投影画像を撮影する画像撮影手段と、パターン光投影画像から抽出されたパターン光の軌跡に基づいて被写体の3次元形状を算出する3次元形状算出手段とを含む3次元形状検出装置を開示している。 US Pat. No. 7,365,301 discloses a three-dimensional shape detection device, an image capturing device, and a three-dimensional shape detection program. a projection means for projecting pattern light; an image photographing means for photographing a pattern light projection image of the subject onto which the pattern light is projected; and a three-dimensional shape of the subject based on the locus of the pattern light extracted from the pattern light projection image. A three-dimensional shape detection device including a three-dimensional shape calculation means for calculating the three-dimensional shape is disclosed.
米国特許第7711259号は、撮像部の被写界深度を増加させる方法及び装置を開示している。撮像部が、それぞれ異なる焦点位置で複数の画像を撮影し、これらの画像を1枚の画像に合成して鮮鋭化することを開示している。別の実施形態において、画像撮影中に焦点位置が変化しながら単一画像を撮影し、得られた画像が鮮鋭化される。 US Pat. No. 7,711,259 discloses a method and apparatus for increasing the depth of field of an imager. It is disclosed that an imaging unit photographs a plurality of images at different focal positions, and combines these images into one image for sharpening. In another embodiment, a single image is captured while the focus position changes during image capture, and the resulting image is sharpened.
ヨーロッパ特許出願第0908847号は、画像合成装置及び画像合成方法を開示している。画像合成装置が、記憶された画像情報を用いて、選択された画像の位置関係を設定するための座標変換パラメータを生成し、生成された座標変換パラメータを任意の画像の基準位置として変更し、得られた座標変換パラメータを画像合成情報として提供し、画像合成情報に従って画像を合成することを開示している。 European Patent Application No. 0908847 discloses an image composition device and method. The image synthesis device generates coordinate transformation parameters for setting the positional relationship of the selected images using the stored image information, and changes the generated coordinate transformation parameters as a reference position of an arbitrary image, It is disclosed that the obtained coordinate transformation parameters are provided as image synthesis information and images are synthesized according to the image synthesis information.
視野が被写体よりも狭いカメラによって透視歪みの無い単一画像を得る技術が存在しない。 There is no technique for obtaining a single image without perspective distortion using a camera whose field of view is narrower than the subject.
ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供することがまだ必要である。 There is still a need to provide user equipment (UE) and strabismus correction methods that allow a user to obtain a single image without perspective distortion.
本開示の目的は、ユーザが透視歪み(perspective distortion)の無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提案することである。 The purpose of the present disclosure is to propose a user equipment (UE) and strabismus correction method that allows a user to obtain a single image without perspective distortion.
本開示の第1の態様では、ユーザ機器(UE)は、画像感知モジュールと、前記画像感知モジュールに接続されたプロセッサとを含む。前記プロセッサは、前記画像感知モジュールを制御してカラー画像、赤外線(IR)画像及び深度画像を撮影し、前記深度画像から平面パラメータを推定し、前記深度画像から焦点距離データを算出し、前記画像感知モジュールを制御して前記焦点距離データから焦点距離において部分合焦画像(部分的に焦点の合った画像:partially focused image)を撮影し、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像(全体合焦画像、全体的に焦点の合った画像:wholly focused image)に合成する。 In a first aspect of the disclosure, a user equipment (UE) includes an image sensing module and a processor connected to the image sensing module. The processor controls the image sensing module to take a color image, an infrared (IR) image, and a depth image, estimates a plane parameter from the depth image, calculates focal length data from the depth image, and captures a color image, an infrared (IR) image, and a depth image; controlling a sensing module to capture a partially focused image at a focal length from the focal length data; cropping focused image data from the partially focused image; The in-focus image data is synthesized into a completely focused image (wholly focused image).
本開示の実施形態において、前記プロセッサは、前記完全合焦画像を非透視画像(non-perspective image)に調整する。 In embodiments of the present disclosure, the processor adjusts the fully focused image to a non-perspective image.
本開示の実施形態において、前記完全合焦画像を非透視画像に調整する方法は、前記深度画像から算出された透視座標軸(perspective coordinate axes)において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸(real world coordinate axes)において非透視画像を形成するステップとを含む。 In an embodiment of the present disclosure, the method for adjusting the fully focused image to a non-perspective image includes estimating coordinate data of four corners of the fully focused image on perspective coordinate axes calculated from the depth image. and dragging the fully focused image to form a non-perspective image in real world coordinate axes.
本開示の実施形態において、前記プロセッサは、いくつかの前記非透視画像を単一画像に合成する。 In an embodiment of the present disclosure, the processor combines several of the non-fluoroscopic images into a single image.
本開示の実施形態において、前記UEは、表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠(trimming candidate frame)を設定する。 In an embodiment of the present disclosure, the UE further includes a display module, and the processor sets a trimming candidate frame on the single image displayed on the display module.
本開示の実施形態において、前記深度画像から平面パラメータを推定する方法は、前記深度画像から平面の法線ベクトルを推定するステップを含む。 In an embodiment of the present disclosure, the method for estimating plane parameters from the depth image includes estimating a normal vector of a plane from the depth image.
本開示の実施形態において、前記UEは、慣性計測ユニット(IMU)を更に含む。前記深度画像から平面パラメータを推定する方法は、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。 In embodiments of the present disclosure, the UE further includes an inertial measurement unit (IMU). The method for estimating plane parameters from the depth image further includes estimating perspective vertical coordinate axes and perspective horizontal coordinate axes from data of the IMU.
本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、焦点距離に対応する被写界深度(depth of field)の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。 In an embodiment of the present disclosure, the method for calculating focal length data from the depth image includes the steps of: calculating focal length data from the depth image such that depth of field regions corresponding to focal lengths overlap to cover the entire color image; including determining several focal lengths.
本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、被写界深度の各領域がテクスチャ(texture)を有するか否かを判定するステップを更に含む。 In an embodiment of the present disclosure, the method for calculating focal length data from the depth image further includes determining whether each region of depth of field has texture.
本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。 In an embodiment of the present disclosure, the image sensing module includes a camera module that senses a color image and a depth sensing module that senses a depth image.
本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。 In embodiments of the present disclosure, the image sensing module further includes an image processor that controls the camera module and the depth sensing module.
本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れ(hand shock)を補正する(補償する:compensate)。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータ(motion data)を提供する。 In embodiments of the present disclosure, the camera module includes a lens module, an image sensor, an image sensor driver, a focusing and optical image stabilization (OIS) driver, a focusing and OIS actuator, and a gyro sensor. . The image sensor driver controls the image sensor to capture an image. The focus and OIS driver controls the focus and OIS actuator to focus the lens module and move the lens module to compensate for human hand shock. The gyro sensor provides motion data to the focus and OIS driver.
本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。 In an embodiment of the present disclosure, the depth sensing module includes a projector, a lens, a range sensor, and a range sensor driver. The range sensor driver controls the projector to project dot matrix pulsed light, and controls the range sensor to capture a reflected dot matrix image focused by the lens.
本開示の実施形態において、前記UEは、プログラム、画像データ、平面パラメータ及び変換行列(translation matrix)を記録するメモリを更に含む。 In embodiments of the present disclosure, the UE further includes a memory for storing programs, image data, plane parameters, and translation matrices.
本開示の実施形態において、前記深度画像は、点群データを含む。 In an embodiment of the present disclosure, the depth image includes point cloud data.
本開示の実施形態において、前記UEは、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを更に含む。 In an embodiment of the present disclosure, the UE includes an input module that accepts human instructions, a codec that compresses and decompresses multimedia data, a speaker and a microphone connected to the codec, and a wireless communication module that sends and receives messages. , a Global Navigation Satellite System (GNSS) module that provides positioning information.
本開示の第2の態様では、斜視補正方法は、画像感知モジュールによってカラー画像、赤外線(IR)画像、深度画像を撮影するステップと、前記深度画像から平面パラメータを推定するステップと、前記深度画像から焦点距離データを算出するステップと、前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。 In a second aspect of the present disclosure, a strabismus correction method includes the steps of: capturing a color image, an infrared (IR) image, and a depth image by an image sensing module; estimating a plane parameter from the depth image; and estimating a plane parameter from the depth image. calculating focal length data from the focal length data; capturing partially focused images at these focal lengths from the focal length data by the image sensing module; and cropping focused image data from the partially focused images; compositing the focused image data into a fully focused image.
本開示の実施形態において、前記斜視補正方法は、前記完全合焦画像を非透視画像に調整するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes adjusting the perfectly focused image to a non-fluoroscopic image.
本開示の実施形態において、前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含む。 In an embodiment of the present disclosure, the step of adjusting the perfectly focused image to a non-perspective image includes the step of estimating coordinate data of four corners of the fully focused image in the perspective coordinate axis calculated from the depth image; and dragging the focused image to form a non-perspective image in real world coordinate axes.
本開示の実施形態において、前記斜視補正方法は、いくつかの前記非透視画像を単一画像に合成するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes combining several of the non-perspective images into a single image.
本開示の実施形態において、前記斜視補正方法は、表示モジュールに表示された前記単一画像にトリミング候補枠を設定するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes the step of setting a cropping candidate frame in the single image displayed on a display module.
本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含む。 In an embodiment of the present disclosure, estimating plane parameters from the depth image includes estimating a normal vector of the plane from the depth image.
本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。 In embodiments of the present disclosure, estimating plane parameters from the depth image further includes estimating perspective vertical coordinate axes and perspective horizontal coordinate axes from data of an IMU.
本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。 In an embodiment of the present disclosure, the step of calculating focal length data from the depth image includes calculating focal length data from several focal lengths such that regions of depth of field corresponding to the focal lengths overlap and cover the entire color image. including the step of determining.
本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、被写界深度の各領域がテクスチャを有するか否かを判定するステップを更に含む。 In embodiments of the present disclosure, calculating focal length data from the depth image further includes determining whether each region of depth of field has texture.
本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。 In an embodiment of the present disclosure, the image sensing module includes a camera module that senses a color image and a depth sensing module that senses a depth image.
本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。 In embodiments of the present disclosure, the image sensing module further includes an image processor that controls the camera module and the depth sensing module.
本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れを補償する。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータを提供する。 In embodiments of the present disclosure, the camera module includes a lens module, an image sensor, an image sensor driver, a focusing and optical image stabilization (OIS) driver, a focusing and OIS actuator, and a gyro sensor. . The image sensor driver controls the image sensor to capture an image. The focus and OIS driver controls the focus and OIS actuator to focus the lens module and move the lens module to compensate for human hand shake. The gyro sensor provides motion data to the focus and OIS driver.
本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。 In an embodiment of the present disclosure, the depth sensing module includes a projector, a lens, a range sensor, and a range sensor driver. The range sensor driver controls the projector to project dot matrix pulsed light, and controls the range sensor to capture a reflected dot matrix image focused by the lens.
本開示の実施形態において、前記斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリを提供するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method further includes providing a memory for storing a program, image data, plane parameters, and a transformation matrix.
本開示の実施形態において、前記深度画像は、点群データを含む。 In an embodiment of the present disclosure, the depth image includes point cloud data.
本開示の実施形態において、前記斜視補正方法は、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを提供するステップを更に含む。 In an embodiment of the present disclosure, the strabismus correction method includes an input module that receives instructions from a human, a codec that compresses and decompresses multimedia data, a speaker and a microphone connected to the codec, and wireless communication that sends and receives messages. and a Global Navigation Satellite System (GNSS) module that provides positioning information.
したがって、本発明の実施形態は、ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供する。 Accordingly, embodiments of the present invention provide a user equipment (UE) and strabismus correction method that allows a user to obtain a single image without perspective distortion.
本開示の実施形態又は従来技術をより明確に説明するために、実施形態で説明される以下の図面について簡単に紹介する。図面が本開示のいくつかの実施形態に過ぎず、当業者であれば、前提を定めることなく、これらの図に基づいて他の図を得ることができることは明らかである。 BRIEF DESCRIPTION OF THE DRAWINGS In order to more clearly describe embodiments of the present disclosure or the prior art, the following drawings that are illustrated in the embodiments will be briefly introduced. It is clear that the drawings are only some embodiments of the disclosure and that a person skilled in the art can derive other drawings based on these drawings without making assumptions.
以下の添付図面を参照して、本開示の実施形態を技術的事項、構造的特徴、達成される目的及び効果とともに詳細に説明する。具体的には、本開示の実施形態における用語は、特定の実施形態の目的を説明するためのものに過ぎず、本開示を限定するものではない。 Embodiments of the present disclosure will be described in detail with technical matters, structural features, objectives and effects achieved, with reference to the accompanying drawings below. In particular, the terms used in the embodiments of the present disclosure are only used to describe the purpose of the particular embodiment, and are not intended to limit the present disclosure.
図2及び図3を参照すると、いくつかの実施形態において、ユーザ機器(UE)100は、画像感知モジュール10と、画像感知モジュール10に接続されたプロセッサ20とを含む。プロセッサ20は、画像感知モジュール10を制御してカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、深度画像D_Iから平面パラメータを推定し、深度画像D_Iから焦点距離データを算出し、画像感知モジュール10を制御して焦点距離データからこれらの焦点距離において部分合焦画像PF_Iを撮影し、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。
Referring to FIGS. 2 and 3, in some embodiments, user equipment (UE) 100 includes an image sensing module 10 and a
詳細には、図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。
In detail, referring to FIG. 7, the
いくつかの実施形態において、図4及び図8を参照すると、深度画像D_Iから平面パラメータを推定する方法は、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。 In some embodiments, with reference to FIGS. 4 and 8, a method of estimating plane parameters from a depth image D_I includes estimating a plane normal vector N_V from a depth image D_I.
詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。
Specifically, referring to FIG. 8, the
いくつかの実施形態において、図2、図4及び図8を参照すると、UEは、慣性計測ユニット(IMU)40を更に含む。深度画像D_Iから平面パラメータを推定する方法は、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。
In some embodiments, referring to FIGS. 2, 4, and 8, the UE further includes an inertial measurement unit (IMU) 40. The method for estimating plane parameters from the depth image D_I further includes the step of estimating a perspective vertical coordinate axis PV_CA and a perspective horizontal coordinate axis PH_CA from data of the
詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。
Specifically, referring to FIG. 8, the
いくつかの実施形態において、図5及び図9を参照すると、深度画像D_Iから焦点距離データを算出する方法は、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。 In some embodiments, with reference to FIGS. 5 and 9, a method for calculating focal length data from a depth image D_I includes a method for calculating focal length data from a depth image D_I such that depth of field regions DF_A1 to DF_A4 corresponding to focal lengths FD_1 to FD_4 overlap and color It includes determining several focal lengths FD_1 to FD_4 to cover the entire image C_I.
詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域(intersection area)は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。
Specifically, referring to FIGS. 9 and 10, the focal position F_1 of the
詳細には、図5、図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。
Specifically, referring to FIGS. 5, 9, and 10, the
いくつかの実施形態において、図5を参照すると、深度画像D_Iから焦点距離データを算出する方法は、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。 In some embodiments, referring to FIG. 5, the method of calculating focal length data from a depth image D_I further includes determining whether each of the depth of field regions DF_A1-DF_A4 has a texture. .
詳細には、図3、図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。
In particular, with reference to FIGS. 3, 11 and 12, the
いくつかの実施形態において、図3を参照すると、プロセッサ20は、完全合焦画像WF_Iを非透視画像NP_Iに調整する。いくつかの実施形態において、図3、図6及び図13を参照すると、完全合焦画像WF_Iを非透視画像NP_Iに調整する方法は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを含む。
In some embodiments, referring to FIG. 3,
詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。
Specifically, the
いくつかの実施形態において、図14を参照すると、プロセッサ20は、いくつかの非透視画像NP_Iを単一画像S_Iに合成する。
In some embodiments, referring to FIG. 14,
詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。
In detail, the
いくつかの実施形態において、図15を参照すると、UE100は、表示モジュール30を更に含み、プロセッサ20は、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定する。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。
In some embodiments, referring to FIG. 15, the
いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。いくつかの実施形態において、図2を参照すると、UE100は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、UE100は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを更に含む。
In some embodiments, referring to FIG. 2,
また、図3を参照すると、いくつかの実施形態において、斜視補正方法は、ブロックS100で、画像感知モジュール10によってカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影するステップと、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップと、ブロックS300で、深度画像D_Iから焦点距離データを算出するステップと、ブロックS400で、画像感知モジュール10によって、焦点距離データからこれらの焦点距離FD_1~FD_4において部分合焦画像PF_Iを撮影するステップと、ブロックS500で、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成するステップとを含む。 Also referring to FIG. 3, in some embodiments, the strabismus correction method includes, in block S100, capturing a color image C_I, an infrared (IR) image IR_I, and a depth image D_I by the image sensing module 10; S200, estimating plane parameters from the depth image D_I; block S300, calculating focal length data from the depth image D_I; and block S400, calculating these focal lengths from the focal length data by the image sensing module 10. A step of photographing a partially focused image PF_I in FD_1 to FD_4, and a step of cutting out focused image data from the partially focused image PF_I and combining these focused image data into a completely focused image WF_I in block S500. include.
詳細には、図2及び図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。
In detail, referring to FIGS. 2 and 7, the
いくつかの実施形態において、図4及び図8を参照すると、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップは、ブロックS210で、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。 In some embodiments, with reference to FIGS. 4 and 8, estimating plane parameters from the depth image D_I in block S200 includes estimating the plane normal vector N_V from the depth image D_I in block S210. including.
詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。
Specifically, referring to FIG. 8, the
いくつかの実施形態において、図2、4及び8を参照すると、ブロックS200で、深度画像から平面パラメータを推定するステップは、ブロックS220で、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。
In some embodiments, with reference to FIGS. 2, 4, and 8, estimating plane parameters from the depth image in block S200 includes determining a perspective vertical coordinate axis PV_CA and a perspective horizontal coordinate axis PH_CA from data of
詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。
Specifically, referring to FIG. 8, the
いくつかの実施形態において、図5及び図9を参照すると、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS310で、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。 In some embodiments, with reference to FIGS. 5 and 9, in block S300, calculating focal length data from the depth image includes, in block S310, calculating a region of depth of field corresponding to focal lengths FD_1 to FD_4. It includes determining several focal lengths FD_1 to FD_4 such that DF_A1 to DF_A4 overlap to cover the entire color image C_I.
詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。
Specifically, referring to FIGS. 9 and 10, the focal position F_1 of the
詳細には、図5、図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1’~F_4’に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。
Specifically, referring to FIGS. 5, 9, and 10, the
いくつかの実施形態において、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS320で、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。 In some embodiments, calculating focal length data from the depth image in block S300 further comprises determining whether each of the depth of field regions DF_A1-DF_A4 has a texture in block S320. include.
詳細には、図3、図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。
In particular, with reference to FIGS. 3, 11 and 12, the
いくつかの実施形態において、図3を参照すると、斜視補正方法は、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップを更に含む。いくつかの実施形態において、図3、図6及び図13を参照すると、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップは、ブロックS610で、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、ブロックS620で、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを更に含む。 In some embodiments, referring to FIG. 3, the strabismus correction method further includes adjusting the fully focused image WF_I to a non-perspective image NP_I at block S600. In some embodiments, with reference to FIGS. 3, 6, and 13, adjusting the fully focused image WF_I to a non-perspective image NP_I in block S600 includes adjusting the fully focused image WF_I to a non-perspective image NP_I in block S610. estimating the coordinate data of the four corners C1 to C4 of the fully focused image WF_I on the perspective coordinate axis P_CA, and forming a non-perspective image NP_I on the real world coordinate axis R_CA by dragging the fully focused image WF_I in block S620. further including.
詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。いくつかの実施形態において、図14を参照すると、斜視補正方法は、ブロックS700で、いくつかの非透視画像NP_Iを単一画像S_Iに合成するステップを更に含む。
Specifically, the
詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。
In detail, the
いくつかの実施形態において、図15を参照すると、斜視補正方法は、ブロックS800で、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定するステップを更に含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。
In some embodiments, referring to FIG. 15, the strabismus correction method further includes setting a cropping candidate frame TC_F in the single image S_I displayed on the
いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。
In some embodiments, referring to FIG. 2, the
いくつかの実施形態において、図2を参照すると、斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を提供するステップを更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、斜視補正方法は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを提供するステップを更に含む。
In some embodiments, referring to FIG. 2, the strabismus correction method further includes providing a
斜視補正方法の利点は、以下の2点を含む。
1.透視歪みの無い単一の完全合焦画像を提供する。
2.カメラの撮影領域の幅よりも大きい横幅を有する被写体の単一画像を提供する。
The advantages of the strabismus correction method include the following two points.
1. Provides a single perfectly focused image with no perspective distortion.
2. To provide a single image of a subject having a horizontal width larger than the width of a photographing area of a camera.
本開示の実施形態において、UE及び斜視補正方法を提供する。透視歪みの無い単一の合焦画像を提供するために、UEの画像センサ通信方法は、画像感知モジュールによってカラー画像、赤外線画像及び深度画像を撮影するステップと、深度画像から平面パラメータを推定するステップと、深度画像から焦点距離データを算出するステップと、画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。 In embodiments of the present disclosure, a UE and strabismus correction method are provided. In order to provide a single focused image without perspective distortion, the image sensor communication method of the UE includes the steps of capturing a color image, an infrared image and a depth image by an image sensing module, and estimating plane parameters from the depth image. calculating focal length data from the depth image; capturing partially focused images at these focal lengths from the focal length data by an image sensing module; and cropping focused image data from the partially focused image. , combining these focused image data into a fully focused image.
本開示の実施形態で説明及び開示されるユニット、アルゴリズム及びステップのそれぞれは、電子ハードウェア、又はコンピュータのソフトウェアと電子ハードウェアとの組み合わせを使用して実現されることが当業者に理解される。機能がハードウェアによって実行されるかソフトウェアによって実行されるかは、技術案の適用条件と設計要件に依存する。当業者は、異なる方法を使用して、特定の用途ごとに機能を実現することができるが、そのような実現は、本開示の範囲を超えてはならない。上述したシステム、装置及びユニットの動作プロセスが基本的に同じであるので、上述した実施形態におけるシステム、装置及びユニットの動作プロセスを参照することができることは、当業者に理解される。説明の便宜及び簡潔にするために、これらの動作プロセスについては詳しく説明しない。本開示の実施形態における開示されたシステム、装置及び方法は、他の方法によって実現できることが理解される。上述した実施形態は例示である。ユニットの分割は、単に論理的機能に基づくものであり、他の分割は実現可能である。複数のユニット又はコンポーネントは、他のシステムに組み合わされてもよく、統合されてもよい。一部の特徴が省略されてもよく、スキップされてもよい。一方、表示又は議論された相互結合、直接結合又は通信結合は、電気的、機械的又は他の種類の形態による間接的又は通信的であるかどうかにかかわらず、いくつかのポート、装置又はユニットを介して動作する。分離コンポーネントとして説明したユニットは、物理的に分離していてもよく、分離していなくてもよい。表示用のユニットは、物理的なユニットであってもなくてもよく、すなわち、1箇所に配置されていてもよく、複数のネットワークユニットに分散してもよい。実施形態の目的に従って一部又は全部のユニットを使用する。更に、各実施形態における各機能ユニットが1つの処理ユニットに統合されてもよく、物理的に独立してもよく、2つ以上のユニットが1つの処理ユニットに統合されてもよい。ソフトウェア機能ユニットが実現され、製品として使用及び販売される場合、コンピュータの読み取り可能な記憶媒体に記憶することができる。この理解に基づいて、本開示が提案する技術案は、本質的に又は部分的にソフトウェア製品の形態として実現することができる。或いは、従来技術に有益な技術案の一部を、ソフトウェア製品の形態として実現することができる。コンピュータのソフトウェア製品は、本開示の実施形態に開示されるステップの全部又は一部を演算装置(パーソナルコンピュータ、サーバー又はネットワークデバイスなど)に実行させる複数の命令を含む記憶媒体に、格納される。記憶媒体は、プログラムコードを記憶可能なUSBディスク、モバイルハードディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フロッピーディスク又は他の種類の媒体を含む。 It will be understood by those skilled in the art that each of the units, algorithms and steps described and disclosed in the embodiments of the present disclosure may be implemented using electronic hardware or a combination of computer software and electronic hardware. . Whether a function is performed by hardware or software depends on the application conditions and design requirements of the technical proposal. Those skilled in the art may use different methods to implement the functionality for each particular application, but such implementation shall not go beyond the scope of this disclosure. It will be understood by those skilled in the art that reference can be made to the operating processes of the systems, devices and units in the embodiments described above, since the operating processes of the systems, devices and units described above are basically the same. For convenience and brevity, these operational processes will not be described in detail. It is understood that the disclosed systems, apparatus, and methods in embodiments of the present disclosure can be implemented in other ways. The embodiments described above are exemplary. The division of units is based solely on logical function; other divisions are possible. Multiple units or components may be combined or integrated into other systems. Some features may be omitted or skipped. On the other hand, mutual, direct or communicative couplings shown or discussed may include several ports, devices or units, whether indirect or communicative in the form of electrical, mechanical or other types. Works through. Units described as separate components may or may not be physically separate. The display unit may or may not be a physical unit, that is, it may be located at one location or may be distributed over multiple network units. Some or all units may be used according to the purpose of the embodiment. Furthermore, each functional unit in each embodiment may be integrated into one processing unit, may be physically independent, or two or more units may be integrated into one processing unit. When a software functional unit is implemented, used and sold as a product, it can be stored on a computer readable storage medium. Based on this understanding, the technical solution proposed by this disclosure can be realized essentially or partially in the form of a software product. Alternatively, some of the technical solutions useful in the prior art can be implemented in the form of software products. A computer software product is stored on a storage medium that includes a plurality of instructions that cause a computing device (such as a personal computer, server, or network device) to perform all or some of the steps disclosed in embodiments of the present disclosure. The storage medium includes a USB disk, mobile hard disk, read only memory (ROM), random access memory (RAM), floppy disk, or other types of media that can store program codes.
本開示は、最も実用的かつ好ましい実施形態と考えられるものに関連して説明された。しかし、本開示は、開示された実施形態に限定されるものではなく、添付の特許請求の範囲の最も広い解釈の範囲から逸脱することなくなされた様々なアレンジをカバーすることを意図していることが理解される。 This disclosure has been described in connection with what is considered to be the most practical and preferred embodiment. However, the present disclosure is not limited to the disclosed embodiments, but is intended to cover various arrangements that may be made without departing from the scope of the broadest interpretation of the appended claims. That is understood.
Claims (12)
前記画像感知モジュールに接続されたプロセッサとを含むユーザ機器であって、
前記プロセッサは、
前記画像感知モジュールを制御して互いに対応するいくつかのカラー画像、赤外線(IR)画像及び深度画像を異なる撮影角度で撮影し、
前記深度画像から平面パラメータを推定し、
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出し、
前記画像感知モジュールを制御して前記焦点距離データからこれらの焦点距離において部分合焦画像を撮影し、
前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成し、
前記完全合焦画像を非透視画像に調整し、
異なる撮影角度でのいくつかの前記非透視画像を単一画像に合成することを特徴とする、ユーザ機器。 an image sensing module;
a processor connected to the image sensing module, the user equipment comprising:
The processor includes:
controlling the image sensing module to take a number of mutually corresponding color images, infrared (IR) images and depth images at different photographing angles ;
estimating plane parameters from the depth image;
calculating focal length data from the same depth image in estimating plane parameters from the depth image ;
controlling the image sensing module to take partially focused images at these focal lengths from the focal length data;
Cutting out focused image data from the partially focused image and composing these focused image data into a fully focused image ;
adjusting the fully focused image to a non-fluoroscopic image;
User equipment, characterized in that it combines several said non-fluoroscopic images at different shooting angles into a single image .
前記ユーザ機器は、慣性計測ユニット(IMU)を更に含み、前記深度画像から平面パラメータを推定することは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定することを更に含むことを特徴とする、請求項1に記載のユーザ機器。 Estimating plane parameters from the depth image includes estimating a normal vector of the plane from the depth image,
The user equipment further includes an inertial measurement unit (IMU), and estimating plane parameters from the depth image further includes estimating a perspective vertical coordinate axis and a perspective horizontal coordinate axis from data of the IMU. , a user equipment according to claim 1.
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出することは、前記カラー画像における前記被写界深度の各領域が被写体のテクスチャを有するか否かを判定することを更に含むことを特徴とする、請求項1に記載のユーザ機器。 Calculating focal length data from the same depth image in estimating plane parameters from the depth image means that the depth of field regions corresponding to the focal lengths of the color image corresponding to the depth image overlap. including determining several focal lengths to cover the entire
Calculating focal length data from the same depth image in estimating plane parameters from the depth image determines whether each region of the depth of field in the color image has a texture of a subject . User equipment according to claim 1, further comprising:
前記深度画像から平面パラメータを推定するステップと、
前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップと、
前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、
前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップと、
前記完全合焦画像を非透視画像に調整するステップと、
異なる撮影角度でのいくつかの前記非透視画像を単一画像に合成するステップを含むことを特徴とする、斜視補正方法。 capturing several color images, infrared (IR) images and depth images corresponding to each other at different shooting angles by the image sensing module;
estimating plane parameters from the depth image;
calculating focal length data from the same depth image in the step of estimating plane parameters from the depth image ;
taking partially focused images at these focal lengths from the focal length data by the image sensing module;
cutting out focused image data from the partially focused image and combining the focused image data into a fully focused image ;
adjusting the fully focused image to a non-fluorescent image;
A method for correcting strabismus, comprising the step of combining several of the non-fluoroscopic images taken at different photographing angles into a single image .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/088417 WO2020237441A1 (en) | 2019-05-24 | 2019-05-24 | User equipment and method of oblique view correction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022533975A JP2022533975A (en) | 2022-07-27 |
JP7346594B2 true JP7346594B2 (en) | 2023-09-19 |
Family
ID=73553409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021568633A Active JP7346594B2 (en) | 2019-05-24 | 2019-05-24 | User equipment and strabismus correction method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7346594B2 (en) |
CN (1) | CN113826376B (en) |
WO (1) | WO2020237441A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000236434A (en) | 1999-02-12 | 2000-08-29 | Fuji Xerox Co Ltd | Image forming device |
JP2011216958A (en) | 2010-03-31 | 2011-10-27 | Casio Computer Co Ltd | Imaging apparatus and program |
JP2017223648A (en) | 2016-03-16 | 2017-12-21 | アナログ ディヴァイスィズ インク | Reducing power consumption for time-of-flight depth imaging |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3043034B2 (en) * | 1990-07-26 | 2000-05-22 | オリンパス光学工業株式会社 | Image input / output device |
JP3601272B2 (en) * | 1997-11-10 | 2004-12-15 | 富士ゼロックス株式会社 | Imaging device |
JP4524717B2 (en) * | 2008-06-13 | 2010-08-18 | 富士フイルム株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
CN102216941B (en) * | 2008-08-19 | 2015-08-12 | 数字标记公司 | For the method and system of contents processing |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
CN103262524B (en) * | 2011-06-09 | 2018-01-05 | 郑苍隆 | Automatic focusedimage system |
BR112014013737B1 (en) * | 2011-12-09 | 2022-02-08 | Neurovision Imaging, Inc | METHOD TO COMBINE A PLURALITY OF EYE IMAGES INTO A MULTIFOCAL PLENOPTIC IMAGE |
US9241111B1 (en) * | 2013-05-30 | 2016-01-19 | Amazon Technologies, Inc. | Array of cameras with various focal distances |
CN103824303A (en) * | 2014-03-14 | 2014-05-28 | 格科微电子(上海)有限公司 | Image perspective distortion adjusting method and device based on position and direction of photographed object |
CN106033614B (en) * | 2015-03-20 | 2019-01-04 | 南京理工大学 | A kind of mobile camera motion object detection method under strong parallax |
CN104867113B (en) * | 2015-03-31 | 2017-11-17 | 酷派软件技术(深圳)有限公司 | The method and system of perspective image distortion correction |
JP6522434B2 (en) * | 2015-06-08 | 2019-05-29 | オリンパス株式会社 | Imaging device, image processing device, control method of imaging device, and image processing program |
US9661298B2 (en) * | 2015-08-06 | 2017-05-23 | Intel Corporation | Depth image enhancement for hardware generated depth images |
CN106412426B (en) * | 2016-09-24 | 2019-08-20 | 上海大学 | Total focus camera and method |
CN107301665B (en) * | 2017-05-03 | 2020-03-31 | 中国科学院计算技术研究所 | Depth camera with variable-focus optical camera and control method thereof |
CN108833887B (en) * | 2018-04-28 | 2021-05-18 | Oppo广东移动通信有限公司 | Data processing method and device, electronic equipment and computer readable storage medium |
CN109448045B (en) * | 2018-10-23 | 2021-02-12 | 南京华捷艾米软件科技有限公司 | SLAM-based planar polygon measurement method and machine-readable storage medium |
-
2019
- 2019-05-24 WO PCT/CN2019/088417 patent/WO2020237441A1/en active Application Filing
- 2019-05-24 CN CN201980096453.XA patent/CN113826376B/en active Active
- 2019-05-24 JP JP2021568633A patent/JP7346594B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000236434A (en) | 1999-02-12 | 2000-08-29 | Fuji Xerox Co Ltd | Image forming device |
JP2011216958A (en) | 2010-03-31 | 2011-10-27 | Casio Computer Co Ltd | Imaging apparatus and program |
JP2017223648A (en) | 2016-03-16 | 2017-12-21 | アナログ ディヴァイスィズ インク | Reducing power consumption for time-of-flight depth imaging |
Also Published As
Publication number | Publication date |
---|---|
WO2020237441A1 (en) | 2020-12-03 |
CN113826376B (en) | 2023-08-15 |
JP2022533975A (en) | 2022-07-27 |
CN113826376A (en) | 2021-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7291244B2 (en) | Projector Keystone Correction Method, Apparatus, System and Readable Storage Medium | |
KR101624450B1 (en) | Image processing device, image processing method, and storage medium | |
JP4216824B2 (en) | 3D model generation apparatus, 3D model generation method, and 3D model generation program | |
JP6436783B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP5510238B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2001346226A (en) | Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program | |
JP5230013B2 (en) | Imaging device | |
JP2012174116A (en) | Object display device, object display method and object display program | |
JP2011139368A (en) | Control apparatus and control method for capturing device | |
KR101694651B1 (en) | Distortion compensation apparatus and method for wide-angle imaging lens using three-dimensional position estimate | |
JP7378219B2 (en) | Imaging device, image processing device, control method, and program | |
JP2000283720A (en) | Method and device for inputting three-dimensional data | |
US10154241B2 (en) | Depth map based perspective correction in digital photos | |
JP7346594B2 (en) | User equipment and strabismus correction method | |
JP2005063041A (en) | Three-dimensional modeling apparatus, method, and program | |
JPH09305796A (en) | Image information processor | |
WO2015198478A1 (en) | Image distortion correction apparatus, information processing apparatus and image distortion correction method | |
US20190268519A1 (en) | A bundle adjustment system | |
CN113747011A (en) | Auxiliary shooting method and device, electronic equipment and medium | |
JP2009239392A (en) | Compound eye photographing apparatus, control method therefor, and program | |
JPH09231370A (en) | Picture information input device | |
JP5590680B2 (en) | Image composition apparatus, image composition method, and image composition program | |
JP2002058046A (en) | Imaging system and three-dimensional camera | |
JP6433154B2 (en) | Image processing apparatus and imaging apparatus | |
JP6292785B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7346594 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |