JP2022533975A - ユーザ機器及び斜視補正方法 - Google Patents

ユーザ機器及び斜視補正方法 Download PDF

Info

Publication number
JP2022533975A
JP2022533975A JP2021568633A JP2021568633A JP2022533975A JP 2022533975 A JP2022533975 A JP 2022533975A JP 2021568633 A JP2021568633 A JP 2021568633A JP 2021568633 A JP2021568633 A JP 2021568633A JP 2022533975 A JP2022533975 A JP 2022533975A
Authority
JP
Japan
Prior art keywords
image
depth
data
module
user equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021568633A
Other languages
English (en)
Other versions
JP7346594B2 (ja
Inventor
洪偉 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2022533975A publication Critical patent/JP2022533975A/ja
Application granted granted Critical
Publication of JP7346594B2 publication Critical patent/JP7346594B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】本開示は、ユーザ機器(UE)及び斜視補正方法を提供する。【解決手段】前記斜視補正方法は、画像感知モジュールによってカラー画像、赤外線画像及び深度画像を撮影するステップと、前記深度画像から平面パラメータを推定するステップと、前記深度画像から焦点距離データを算出するステップと、前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、前記部分合焦画像から合焦画像データを切り取り、各合焦画像データを完全合焦画像に合成するステップとを含む。【選択図】図2

Description

本開示は、画像処理技術の分野に関し、より具体的には、ユーザ機器(UE)及び斜視補正方法に関する。
図1を参照すると、現在の技術では、ユーザが携帯電話などのユーザ機器1を用いて輪郭が鮮明な斜め配向平面(oriented plane surface)の写真を撮る場合、ユーザ機器1は、斜め配向平面の画像を歪みの無い形状に補正する。しかしながら、斜め配向平面の輪郭が不鮮明である場合、又は一部のみが撮影領域2内にある場合、又は斜め配向平面が撮影領域2の幅よりも大きい横幅を有する場合、ユーザは、被写体全体の透視歪み(perspective distortion)の無い単一の合焦画像を得ることができない。
米国特許第6449004号は、斜視補正(oblique view correction)機能を備えた電子カメラを開示している。被写体の光像を光電的に撮影して画像データを生成する撮像素子を備えた電子カメラを開示している。傾斜角情報提供装置が、撮像素子の感知面と被写体の正面との間の傾斜角に関する情報を提供する。距離測定器が、被写体までの距離を測定する。補正器が、提供された傾斜角情報と測定された距離に基づいて補正して、画像データを生成することによって、正面が撮像素子の感知面に平行な平面にある擬似被写体像を生成する。
米国特許第7365301号は、3次元形状検出装置、画像撮影装置及び3次元形状検出プログラムを開示している。パターン光を投影する投影手段と、パターン光が投影された被写体のパターン光投影画像を撮影する画像撮影手段と、パターン光投影画像から抽出されたパターン光の軌跡に基づいて被写体の3次元形状を算出する3次元形状算出手段とを含む3次元形状検出装置を開示している。
米国特許第7711259号は、撮像部の被写界深度を増加させる方法及び装置を開示している。撮像部が、それぞれ異なる焦点位置で複数の画像を撮影し、これらの画像を1枚の画像に合成して鮮鋭化することを開示している。別の実施形態において、画像撮影中に焦点位置が変化しながら単一画像を撮影し、得られた画像が鮮鋭化される。
ヨーロッパ特許出願第0908847号は、画像合成装置及び画像合成方法を開示している。画像合成装置が、記憶された画像情報を用いて、選択された画像の位置関係を設定するための座標変換パラメータを生成し、生成された座標変換パラメータを任意の画像の基準位置として変更し、得られた座標変換パラメータを画像合成情報として提供し、画像合成情報に従って画像を合成することを開示している。
視野が被写体よりも狭いカメラによって透視歪みの無い単一画像を得る技術が存在しない。
ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供することがまだ必要である。
本開示の目的は、ユーザが透視歪み(perspective distortion)の無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提案することである。
本開示の第1の態様では、ユーザ機器(UE)は、画像感知モジュールと、前記画像感知モジュールに接続されたプロセッサとを含む。前記プロセッサは、前記画像感知モジュールを制御してカラー画像、赤外線(IR)画像及び深度画像を撮影し、前記深度画像から平面パラメータを推定し、前記深度画像から焦点距離データを算出し、前記画像感知モジュールを制御して前記焦点距離データから焦点距離において部分合焦画像(部分的に焦点の合った画像:partially focused image)を撮影し、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像(全体合焦画像、全体的に焦点の合った画像:wholly focused image)に合成する。
本開示の実施形態において、前記プロセッサは、前記完全合焦画像を非透視画像(non-perspective image)に調整する。
本開示の実施形態において、前記完全合焦画像を非透視画像に調整する方法は、前記深度画像から算出された透視座標軸(perspective coordinate axes)において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸(real world coordinate axes)において非透視画像を形成するステップとを含む。
本開示の実施形態において、前記プロセッサは、いくつかの前記非透視画像を単一画像に合成する。
本開示の実施形態において、前記UEは、表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠(trimming candidate frame)を設定する。
本開示の実施形態において、前記深度画像から平面パラメータを推定する方法は、前記深度画像から平面の法線ベクトルを推定するステップを含む。
本開示の実施形態において、前記UEは、慣性計測ユニット(IMU)を更に含む。前記深度画像から平面パラメータを推定する方法は、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。
本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、焦点距離に対応する被写界深度(depth of field)の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。
本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、被写界深度の各領域がテクスチャ(texture)を有するか否かを判定するステップを更に含む。
本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。
本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。
本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れ(hand shock)を補正する(補償する:compensate)。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータ(motion data)を提供する。
本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。
本開示の実施形態において、前記UEは、プログラム、画像データ、平面パラメータ及び変換行列(translation matrix)を記録するメモリを更に含む。
本開示の実施形態において、前記深度画像は、点群データを含む。
本開示の実施形態において、前記UEは、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを更に含む。
本開示の第2の態様では、斜視補正方法は、画像感知モジュールによってカラー画像、赤外線(IR)画像、深度画像を撮影するステップと、前記深度画像から平面パラメータを推定するステップと、前記深度画像から焦点距離データを算出するステップと、前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。
本開示の実施形態において、前記斜視補正方法は、前記完全合焦画像を非透視画像に調整するステップを更に含む。
本開示の実施形態において、前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含む。
本開示の実施形態において、前記斜視補正方法は、いくつかの前記非透視画像を単一画像に合成するステップを更に含む。
本開示の実施形態において、前記斜視補正方法は、表示モジュールに表示された前記単一画像にトリミング候補枠を設定するステップを更に含む。
本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含む。
本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。
本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。
本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、被写界深度の各領域がテクスチャを有するか否かを判定するステップを更に含む。
本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。
本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。
本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れを補償する。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータを提供する。
本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。
本開示の実施形態において、前記斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリを提供するステップを更に含む。
本開示の実施形態において、前記深度画像は、点群データを含む。
本開示の実施形態において、前記斜視補正方法は、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを提供するステップを更に含む。
したがって、本発明の実施形態は、ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供する。
本開示の実施形態又は従来技術をより明確に説明するために、実施形態で説明される以下の図面について簡単に紹介する。図面が本開示のいくつかの実施形態に過ぎず、当業者であれば、前提を定めることなく、これらの図に基づいて他の図を得ることができることは明らかである。
従来技術のユーザ機器の概略適用図である。 本開示の実施形態に係るユーザ機器(UE)の概略図である。 本開示の実施形態に係る斜視補正方法を示すフローチャートである。 本開示の実施形態に係る深度画像から平面パラメータを推定するステップを示すフローチャートである。 本開示の実施形態に係る深度画像から焦点距離データを算出するステップを示すフローチャートである。 本開示の実施形態に係る完全合焦画像を非透視画像に調整するステップを示すフローチャートである。 本開示の実施形態に係るカラー画像、赤外線(IR)画像及び深度画像を撮影するステップの概略図である。 本開示の実施形態に係る深度画像から平面パラメータを推定するステップの概略図である。 本開示の実施形態に係る深度画像から焦点距離データを算出するステップの概略図である。 本開示の実施形態に係る焦点位置、焦点距離、被写界深度(DOF)及びDOFの領域の関係を説明する概略図である。 本開示の実施形態に係る焦点距離データから焦点距離において部分合焦画像を撮影するステップの概略図である。 本開示の実施形態に係る部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップの概略図である。 本開示の実施形態に係る完全合焦画像を非透視画像に調整するステップの概略図である。 本開示の実施形態に係るいくつかの非透視画像を単一画像に合成するステップの概略図である。 本開示の実施形態に係る表示モジュールに表示された単一画像にトリミング候補枠を設定するステップの概略図である。
以下の添付図面を参照して、本開示の実施形態を技術的事項、構造的特徴、達成される目的及び効果とともに詳細に説明する。具体的には、本開示の実施形態における用語は、特定の実施形態の目的を説明するためのものに過ぎず、本開示を限定するものではない。
図2及び図3を参照すると、いくつかの実施形態において、ユーザ機器(UE)100は、画像感知モジュール10と、画像感知モジュール10に接続されたプロセッサ20とを含む。プロセッサ20は、画像感知モジュール10を制御してカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、深度画像D_Iから平面パラメータを推定し、深度画像D_Iから焦点距離データを算出し、画像感知モジュール10を制御して焦点距離データからこれらの焦点距離において部分合焦画像PF_Iを撮影し、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。
詳細には、図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。
いくつかの実施形態において、図4及び図8を参照すると、深度画像D_Iから平面パラメータを推定する方法は、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。
詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。
いくつかの実施形態において、図2、図4及び図8を参照すると、UEは、慣性計測ユニット(IMU)40を更に含む。深度画像D_Iから平面パラメータを推定する方法は、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。
詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。
いくつかの実施形態において、図5及び図9を参照すると、深度画像D_Iから焦点距離データを算出する方法は、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。
詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域(intersection area)は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。
詳細には、図5、図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。
いくつかの実施形態において、図5を参照すると、深度画像D_Iから焦点距離データを算出する方法は、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。
詳細には、図3、図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。
いくつかの実施形態において、図3を参照すると、プロセッサ20は、完全合焦画像WF_Iを非透視画像NP_Iに調整する。いくつかの実施形態において、図3、図6及び図13を参照すると、完全合焦画像WF_Iを非透視画像NP_Iに調整する方法は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを含む。
詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。
いくつかの実施形態において、図14を参照すると、プロセッサ20は、いくつかの非透視画像NP_Iを単一画像S_Iに合成する。
詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。
いくつかの実施形態において、図15を参照すると、UE100は、表示モジュール30を更に含み、プロセッサ20は、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定する。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。
いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。いくつかの実施形態において、図2を参照すると、UE100は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、UE100は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを更に含む。
また、図3を参照すると、いくつかの実施形態において、斜視補正方法は、ブロックS100で、画像感知モジュール10によってカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影するステップと、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップと、ブロックS300で、深度画像D_Iから焦点距離データを算出するステップと、ブロックS400で、画像感知モジュール10によって、焦点距離データからこれらの焦点距離FD_1~FD_4において部分合焦画像PF_Iを撮影するステップと、ブロックS500で、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成するステップとを含む。
詳細には、図2及び図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。
いくつかの実施形態において、図4及び図8を参照すると、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップは、ブロックS210で、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。
詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。
いくつかの実施形態において、図2、4及び8を参照すると、ブロックS200で、深度画像から平面パラメータを推定するステップは、ブロックS220で、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。
詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。
いくつかの実施形態において、図5及び図9を参照すると、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS310で、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。
詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。
詳細には、図5、図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1’~F_4’に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。
いくつかの実施形態において、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS320で、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。
詳細には、図3、図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。
いくつかの実施形態において、図3を参照すると、斜視補正方法は、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップを更に含む。いくつかの実施形態において、図3、図6及び図13を参照すると、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップは、ブロックS610で、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、ブロックS620で、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを更に含む。
詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。いくつかの実施形態において、図14を参照すると、斜視補正方法は、ブロックS700で、いくつかの非透視画像NP_Iを単一画像S_Iに合成するステップを更に含む。
詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。
いくつかの実施形態において、図15を参照すると、斜視補正方法は、ブロックS800で、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定するステップを更に含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。
いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。
いくつかの実施形態において、図2を参照すると、斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を提供するステップを更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、斜視補正方法は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを提供するステップを更に含む。
斜視補正方法の利点は、以下の2点を含む。
1.透視歪みの無い単一の完全合焦画像を提供する。
2.カメラの撮影領域の幅よりも大きい横幅を有する被写体の単一画像を提供する。
本開示の実施形態において、UE及び斜視補正方法を提供する。透視歪みの無い単一の合焦画像を提供するために、UEの画像センサ通信方法は、画像感知モジュールによってカラー画像、赤外線画像及び深度画像を撮影するステップと、深度画像から平面パラメータを推定するステップと、深度画像から焦点距離データを算出するステップと、画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。
本開示の実施形態で説明及び開示されるユニット、アルゴリズム及びステップのそれぞれは、電子ハードウェア、又はコンピュータのソフトウェアと電子ハードウェアとの組み合わせを使用して実現されることが当業者に理解される。機能がハードウェアによって実行されるかソフトウェアによって実行されるかは、技術案の適用条件と設計要件に依存する。当業者は、異なる方法を使用して、特定の用途ごとに機能を実現することができるが、そのような実現は、本開示の範囲を超えてはならない。上述したシステム、装置及びユニットの動作プロセスが基本的に同じであるので、上述した実施形態におけるシステム、装置及びユニットの動作プロセスを参照することができることは、当業者に理解される。説明の便宜及び簡潔にするために、これらの動作プロセスについては詳しく説明しない。本開示の実施形態における開示されたシステム、装置及び方法は、他の方法によって実現できることが理解される。上述した実施形態は例示である。ユニットの分割は、単に論理的機能に基づくものであり、他の分割は実現可能である。複数のユニット又はコンポーネントは、他のシステムに組み合わされてもよく、統合されてもよい。一部の特徴が省略されてもよく、スキップされてもよい。一方、表示又は議論された相互結合、直接結合又は通信結合は、電気的、機械的又は他の種類の形態による間接的又は通信的であるかどうかにかかわらず、いくつかのポート、装置又はユニットを介して動作する。分離コンポーネントとして説明したユニットは、物理的に分離していてもよく、分離していなくてもよい。表示用のユニットは、物理的なユニットであってもなくてもよく、すなわち、1箇所に配置されていてもよく、複数のネットワークユニットに分散してもよい。実施形態の目的に従って一部又は全部のユニットを使用する。更に、各実施形態における各機能ユニットが1つの処理ユニットに統合されてもよく、物理的に独立してもよく、2つ以上のユニットが1つの処理ユニットに統合されてもよい。ソフトウェア機能ユニットが実現され、製品として使用及び販売される場合、コンピュータの読み取り可能な記憶媒体に記憶することができる。この理解に基づいて、本開示が提案する技術案は、本質的に又は部分的にソフトウェア製品の形態として実現することができる。或いは、従来技術に有益な技術案の一部を、ソフトウェア製品の形態として実現することができる。コンピュータのソフトウェア製品は、本開示の実施形態に開示されるステップの全部又は一部を演算装置(パーソナルコンピュータ、サーバー又はネットワークデバイスなど)に実行させる複数の命令を含む記憶媒体に、格納される。記憶媒体は、プログラムコードを記憶可能なUSBディスク、モバイルハードディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フロッピーディスク又は他の種類の媒体を含む。
本開示は、最も実用的かつ好ましい実施形態と考えられるものに関連して説明された。しかし、本開示は、開示された実施形態に限定されるものではなく、添付の特許請求の範囲の最も広い解釈の範囲から逸脱することなくなされた様々なアレンジをカバーすることを意図していることが理解される。

Claims (32)

  1. 画像感知モジュールと、
    前記画像感知モジュールに接続されたプロセッサとを含むユーザ機器であって、
    前記プロセッサは、
    前記画像感知モジュールを制御してカラー画像、赤外線(IR)画像及び深度画像を撮影し、
    前記深度画像から平面パラメータを推定し、
    前記深度画像から焦点距離データを算出し、
    前記画像感知モジュールを制御して前記焦点距離データからこれらの焦点距離において部分合焦画像を撮影し、
    前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成することを特徴とする、ユーザ機器。
  2. 前記プロセッサは、前記完全合焦画像を非透視画像に調整することを特徴とする、請求項1に記載のユーザ機器。
  3. 前記完全合焦画像を非透視画像に調整することは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定することと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成することとを含むことを特徴とする、請求項2に記載のユーザ機器。
  4. 前記プロセッサは、いくつかの前記非透視画像を単一画像に合成することを特徴とする、請求項2に記載のユーザ機器。
  5. 表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠を設定することを特徴とする、請求項4に記載のユーザ機器。
  6. 前記深度画像から平面パラメータを推定することは、前記深度画像から平面の法線ベクトルを推定することを含むことを特徴とする、請求項1に記載のユーザ機器。
  7. 慣性計測ユニット(IMU)を更に含み、前記深度画像から平面パラメータを推定することは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定することを更に含むことを特徴とする、請求項6に記載のユーザ機器。
  8. 前記深度画像から焦点距離データを算出することは、焦点距離に対応する被写界深度の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定することを含むことを特徴とする、請求項1に記載のユーザ機器。
  9. 前記深度画像から焦点距離データを算出することは、前記被写界深度の各領域がテクスチャを有するか否かを判定することを更に含むことを特徴とする、請求項8に記載のユーザ機器。
  10. 前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含むことを特徴とする、請求項1~9のいずれか1項に記載のユーザ機器。
  11. 前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含むことを特徴とする、請求項10に記載のユーザ機器。
  12. 前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含み、前記画像センサドライバは、前記画像センサを制御して画像を撮影し、前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れを補償し、前記ジャイロセンサは、前記合焦及びOISドライバに動きデータを提供することを特徴とする、請求項10に記載のユーザ機器。
  13. 前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含み、前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影することを特徴とする、請求項10に記載のユーザ機器。
  14. プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリを更に含むことを特徴とする、請求項1~13のいずれか1項に記載のユーザ機器。
  15. 前記深度画像は、点群データを含むことを特徴とする、請求項1~14のいずれか1項に記載のユーザ機器。
  16. 人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを更に含むことを特徴とする、請求項1~15のいずれか1項に記載のユーザ機器。
  17. 画像感知モジュールによってカラー画像、赤外線(IR)画像及び深度画像を撮影するステップと、
    前記深度画像から平面パラメータを推定するステップと、
    前記深度画像から焦点距離データを算出するステップと、
    前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、
    前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含むことを特徴とする、斜視補正方法。
  18. 前記完全合焦画像を非透視画像に調整するステップを更に含むことを特徴とする、請求項17に記載の斜視補正方法。
  19. 前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含むことを特徴とする、請求項18に記載の斜視補正方法。
  20. いくつかの前記非透視画像を単一画像に合成するステップを更に含むことを特徴とする、請求項18に記載の斜視補正方法。
  21. 表示モジュールに表示された単一画像にトリミング候補枠を設定するステップを更に含むことを特徴とする、請求項18に記載の斜視補正方法。
  22. 前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含むことを特徴とする、請求項17に記載の斜視補正方法。
  23. 前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含むことを特徴とする、請求項17に記載の斜視補正方法。
  24. 前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含むことを特徴とする、請求項17に記載の斜視補正方法。
  25. 前記深度画像から焦点距離データを算出するステップは、被写界深度の各領域がテクスチャを有するか否かを判定するステップを更に含むことを特徴とする、請求項24に記載の斜視補正方法。
  26. 前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含むことを特徴とする、請求項17~25のいずれか1項に記載の斜視補正方法。
  27. 前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含むことを特徴とする、請求項26に記載の斜視補正方法。
  28. 前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含み、前記画像センサドライバは、前記画像センサを制御して画像を撮影し、前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れを補償し、前記ジャイロセンサは、前記合焦及びOISドライバに動きデータを提供することを特徴とする、請求項26に記載の斜視補正方法。
  29. 前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含み、前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影することを特徴とする、請求項26に記載の斜視補正方法。
  30. プログラム、画像データ、前記平面パラメータ及び変換行列を記録するメモリを提供するステップを更に含むことを特徴とする、請求項17~29のいずれか1項に記載の斜視補正方法。
  31. 前記深度画像は、点群データを含むことを特徴とする、請求項17~30のいずれか1項に記載の斜視補正方法。
  32. 人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを提供するステップを更に含むことを特徴とする、請求項17~31のいずれか1項に記載の斜視補正方法。
JP2021568633A 2019-05-24 2019-05-24 ユーザ機器及び斜視補正方法 Active JP7346594B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/088417 WO2020237441A1 (en) 2019-05-24 2019-05-24 User equipment and method of oblique view correction

Publications (2)

Publication Number Publication Date
JP2022533975A true JP2022533975A (ja) 2022-07-27
JP7346594B2 JP7346594B2 (ja) 2023-09-19

Family

ID=73553409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021568633A Active JP7346594B2 (ja) 2019-05-24 2019-05-24 ユーザ機器及び斜視補正方法

Country Status (3)

Country Link
JP (1) JP7346594B2 (ja)
CN (1) CN113826376B (ja)
WO (1) WO2020237441A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0483478A (ja) * 1990-07-26 1992-03-17 Olympus Optical Co Ltd 画像入出力装置
JPH11144036A (ja) * 1997-11-10 1999-05-28 Fuji Xerox Co Ltd 画像撮像装置
JP2000236434A (ja) * 1999-02-12 2000-08-29 Fuji Xerox Co Ltd 画像形成装置
JP2011216958A (ja) * 2010-03-31 2011-10-27 Casio Computer Co Ltd 撮像装置、及びプログラム
JP2017223648A (ja) * 2016-03-16 2017-12-21 アナログ ディヴァイスィズ インク 飛行時間型深度イメージングの際の消費電力の低減

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4524717B2 (ja) * 2008-06-13 2010-08-18 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
EP2313847A4 (en) * 2008-08-19 2015-12-09 Digimarc Corp METHODS AND SYSTEMS FOR PROCESSING CONTENT
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
CN103262524B (zh) * 2011-06-09 2018-01-05 郑苍隆 自动聚焦图像系统
CA2858198C (en) * 2011-12-09 2020-06-30 Steven Verdooner Method for combining a plurality of eye images into a plenoptic multifocal image
US9241111B1 (en) * 2013-05-30 2016-01-19 Amazon Technologies, Inc. Array of cameras with various focal distances
CN103824303A (zh) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 基于被摄物的位置、方向调整图像透视畸变的方法和装置
CN106033614B (zh) * 2015-03-20 2019-01-04 南京理工大学 一种强视差下的移动相机运动目标检测方法
CN104867113B (zh) * 2015-03-31 2017-11-17 酷派软件技术(深圳)有限公司 图像透视畸变校正的方法及系统
JP6522434B2 (ja) * 2015-06-08 2019-05-29 オリンパス株式会社 撮像装置、画像処理装置、撮像装置の制御方法、及び画像処理プログラム
US9661298B2 (en) * 2015-08-06 2017-05-23 Intel Corporation Depth image enhancement for hardware generated depth images
CN106412426B (zh) * 2016-09-24 2019-08-20 上海大学 全聚焦摄影装置及方法
CN107301665B (zh) * 2017-05-03 2020-03-31 中国科学院计算技术研究所 具有可变焦光学摄像头的深度摄像头及其控制方法
CN108833887B (zh) * 2018-04-28 2021-05-18 Oppo广东移动通信有限公司 数据处理方法、装置、电子设备及计算机可读存储介质
CN109448045B (zh) * 2018-10-23 2021-02-12 南京华捷艾米软件科技有限公司 基于slam的平面多边形物体测量方法及机器可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0483478A (ja) * 1990-07-26 1992-03-17 Olympus Optical Co Ltd 画像入出力装置
JPH11144036A (ja) * 1997-11-10 1999-05-28 Fuji Xerox Co Ltd 画像撮像装置
JP2000236434A (ja) * 1999-02-12 2000-08-29 Fuji Xerox Co Ltd 画像形成装置
JP2011216958A (ja) * 2010-03-31 2011-10-27 Casio Computer Co Ltd 撮像装置、及びプログラム
JP2017223648A (ja) * 2016-03-16 2017-12-21 アナログ ディヴァイスィズ インク 飛行時間型深度イメージングの際の消費電力の低減

Also Published As

Publication number Publication date
JP7346594B2 (ja) 2023-09-19
CN113826376B (zh) 2023-08-15
WO2020237441A1 (en) 2020-12-03
CN113826376A (zh) 2021-12-21

Similar Documents

Publication Publication Date Title
JP7291244B2 (ja) プロジェクタの台形補正方法、装置、システム及び読み取り可能な記憶媒体
US11778403B2 (en) Personalized HRTFs via optical capture
KR102126241B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 장치용 프로그램, 기록 매체, 및 화상 표시 장치
KR101915729B1 (ko) 360도 전방향 뷰 영상 생성 장치 및 방법
JP5510238B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP5230013B2 (ja) 撮像装置
JP2011139368A (ja) 撮像装置の制御装置および制御方法
KR101694651B1 (ko) 3차원 위치 추정을 이용한 광각 렌즈 영상의 왜곡 보정 장치 및 그 방법
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
US10154241B2 (en) Depth map based perspective correction in digital photos
CN107820071A (zh) 移动终端及其立体成像方法、装置及计算机可读存储介质
JP2014215755A (ja) 画像処理システム、画像処理装置及び画像処理方法
WO2021182153A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JPWO2018189880A1 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP2005063041A (ja) 3次元モデリング装置、方法、及びプログラム
JP7346594B2 (ja) ユーザ機器及び斜視補正方法
JPH09305796A (ja) 画像情報処理装置
WO2015198478A1 (ja) 画像歪み補正装置、情報処理装置および画像歪み補正方法
CN113747011B (zh) 一种辅助拍摄方法、装置、电子设备及介质
KR20220053983A (ko) 공간영상 촬영을 위한 유도정보 제공 장치 및 방법
JPH09231369A (ja) 画像情報入力装置
JP6930011B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
KR102415754B1 (ko) 가상 공간에서 영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
JP2013009082A (ja) 映像合成装置、映像合成方法、および映像合成プログラム
JP2017130890A (ja) 画像処理装置およびその制御方法ならびにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150