JP7361414B2 - 歪曲映像を補正する方法及び装置 - Google Patents

歪曲映像を補正する方法及び装置 Download PDF

Info

Publication number
JP7361414B2
JP7361414B2 JP2021564326A JP2021564326A JP7361414B2 JP 7361414 B2 JP7361414 B2 JP 7361414B2 JP 2021564326 A JP2021564326 A JP 2021564326A JP 2021564326 A JP2021564326 A JP 2021564326A JP 7361414 B2 JP7361414 B2 JP 7361414B2
Authority
JP
Japan
Prior art keywords
optical axis
point
target
focal length
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021564326A
Other languages
English (en)
Other versions
JP2022534659A (ja
Inventor
フン オク,ヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nextchip Co Ltd
Original Assignee
Nextchip Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nextchip Co Ltd filed Critical Nextchip Co Ltd
Publication of JP2022534659A publication Critical patent/JP2022534659A/ja
Application granted granted Critical
Publication of JP7361414B2 publication Critical patent/JP7361414B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)

Description

以下の実施形態は、歪曲された映像を補正するための方法及び装置に関し、より詳しくは、レンズを用いて歪曲された映像を補正するための方法及び装置に関する。
レンズ歪曲定数とピンホール(pin-hole)モデルを活用した光軸算出方法は、自律走行自動車及びその他の映像認識において必須であり、最も敏感な部分の1つの光軸パラメータを探す方法に関する。従来における光軸を算出する方法は、物理的な補助システム(例えば、ジグ)を使用したり、又は、歪曲された映像の楕円曲線の交差点を探して光軸を算出する。前者はその物理的なシステムが高い側面と埋め込みステムに内蔵されないという短所があり、レンズとパターンが正確に直交しなければならないため、これに対する不確実性が存在し、物理的なジグが必要であるという短所がある。
一実施形態は、カメラ又はレンズの光軸を算出する方法及び装置を提供することにある。
他の一実施形態は、カメラ又はレンズの光軸に基づいて歪曲映像を補正する方法及び装置を提供することにある。
一側面に係る、歪曲映像を補正する方法は、参照パターンを撮影することで生成されたターゲット映像を受信するステップと、前記ターゲット映像内のパターンを検出するステップと、前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップと、前記基準線及び前記ターゲット点に基づいて、ターゲット映像を生成したカメラの光軸及び焦点距離を算出するステップと、前記算出された光軸及び前記焦点距離に基づいて前記ターゲット映像を補正するステップとを含む。
前記ターゲット映像内のパターンを検出するステップは、前記ターゲット映像内の1つ以上の特徴点を検出するステップと、前記検出された特徴点に基づいて前記パターンを検出するステップとを含むことができる。
前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップは、前記特徴点に基づいて第1特徴点セットを生成するステップと、前記第1特徴点セット内の特徴点のうち最外郭に位置する2つの特徴点に基づいて前記基準線を設定するステップと、前記第1特徴点セット内のいずれか1つを前記ターゲット点として設定するステップとを含むことができる。
前記基準線及び前記ターゲット点に基づいて前記カメラの光軸及び前記焦点距離を算出するステップは、テイラー級数に表現されるレンズの歪曲モデルを生成するステップと、前記歪曲モデルに基づいて前記光軸及び前記焦点距離を算出するステップとを含むことができる。
前記歪曲モデルに基づいて、前記光軸及び前記焦点距離を算出するステップは、前記レンズに予め設定されたR値及びR値に基づいて前記光軸及び前記焦点距離を算出するステップとを含み、前記R値は、前記レンズによる歪曲がない場合、1つの点が映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示し、前記R値は、前記レンズによる歪曲がある場合、前記1つの点が前記映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示すことができる。
前記基準線及び前記ターゲット点に基づいて前記カメラの光軸及び前記焦点距離を算出するステップは、レンズの参照歪曲モデルをロードするステップと、前記レンズに予め設定されたR値及びR値を用いて参照歪曲モデルを調整するステップ(前記R値は、前記レンズによる歪曲がない場合、1つの点が映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示し、前記R値は、前記レンズによる歪曲がある場合、前記1つの点が前記映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示す)と、前記調整された参照歪曲モデルに基づいて、前記ターゲット点の位置を変換するターゲット関数を生成するステップと、参照光軸及び参照焦点距離に基づいて、前記ターゲット関数を用いて前記基準線及び前記ターゲット点の位置を変換するステップと、位置の変換された前記ターゲット点と前記基準線との間の距離を算出するステップと、前記算出された距離が予め設定された閾値未満である場合、前記参照光軸及び前記参照焦点距離を前記光軸及び前記焦点距離として決定するステップとを含む。
前記基準線及び前記ターゲット点に基づいて前記カメラの光軸及び前記焦点距離を算出するステップは、前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップをさらに含むことができる。
前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップは、レーベンバーグ・マーカート法(Levenberg-Marquard)アルゴリズムを用いて前記参照光軸及び前記参照焦点距離を調整するステップを含むことができる。
他の一側面によると、歪曲映像を補正する方法を行う電子装置は、歪曲映像を補正するプログラムが記録されたメモリと、前記プログラムを行うプロセッサとを含み、前記プログラムは、参照パターンを撮影することで生成されたターゲット映像を受信するステップと、前記ターゲット映像内のパターンを検出するステップと、前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップと、前記基準線及び前記ターゲット点に基づいて、ターゲット映像を生成したカメラの光軸及び焦点距離を算出するステップと、前記算出された光軸及び前記焦点距離に基づいて、前記ターゲット映像を補正するステップとを含む。
前記電子装置は、前記ターゲット映像を生成するカメラをさらに含むことができる。
前記ターゲット映像内のパターンを検出するステップは、前記ターゲット映像内の1つ以上の特徴点を検出するステップと、前記検出された特徴点に基づいて前記パターンを検出するステップとを含む。
前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップは、前記特徴点に基づいて第1特徴点セットを生成するステップと、前記第1特徴点セット内の特徴点のうち、最外郭に位置する2つの特徴点に基づいて前記基準線を設定するステップと、前記第1特徴点セット内のいずれか1つを前記ターゲット点として設定するステップとを含む。
前記基準線及び前記ターゲット点に基づいて、前記カメラの光軸及び前記焦点距離を算出するステップは、レンズの参照歪曲モデルをロードするステップと、前記レンズに予め設定されたR値及びR値を用いて参照歪曲モデルを調整するステップ(前記R値は、前記レンズによる歪曲がない場合、1つの点が映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示し、前記R値は、前記レンズによる歪曲がある場合、前記1つの点が前記映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示す)と、前記調整された参照歪曲モデルに基づいて、前記ターゲット点の位置を変換するターゲット関数を生成するステップと、参照光軸及び参照焦点距離に基づいて、前記ターゲット関数を用いて前記基準線及び前記ターゲット点の位置を変換するステップと、位置の変換された前記ターゲット点と前記基準線との間の距離を算出するステップと、前記算出された距離が予め設定された閾値未満である場合、前記参照光軸及び前記参照焦点距離を前記光軸及び前記焦点距離として決定するステップとを含む。
前記基準線及び前記ターゲット点に基づいて、前記カメラの光軸及び前記焦点距離を算出するステップは、前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップをさらに含むことができる。
前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップは、レーベンバーグ・マーカート法アルゴリズムを用いて前記参照光軸及び前記参照焦点距離を調整するステップを含むことができる。
前記電子装置は車両に含まれることができる。
カメラ又はレンズの光軸を算出する方法及び装置を提供することができる。
カメラ又はレンズの光軸に基づいて、歪曲映像を補正する方法及び装置を提供することができる。
一例に係るカメラのレンズの種類に応じて生成された映像を示す。 一実施形態に係る歪曲映像を補正する電子装置の構成図である。 一実施形態に係る歪曲映像を補正する方法のフローチャートである。 一例に係る歪曲映像内のパターン及びパターンに基づいて設定される基準線及びターゲット点を示す。 一例に係る光軸及び焦点距離を算出する方法のフローチャートである。 一例に係るターゲット関数を用いて位置が変換された基準線及びターゲット点を示す。
以下、添付の図面を参照して実施形態を詳細に説明する。しかし、実施形態には多様な変更が加えられることができ、特許出願の権利範囲がこの実施形態により制限されたり限定されることはない。実施形態に対するすべての変更、均等物ないし代替物が権利範囲に含まれるものとして理解されなければならない。
本明細書で用いる用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品、又はこれらを組み合わせたものが存在することを示すものであって、一つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれらを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、図面を参照して説明する際に、図面符号に拘わらず同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が本発明の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1は、一例に係るカメラのレンズの種類に応じて生成された映像を示す。
カメラ110を用いて場面120(例えば、パターン)を撮影する場合、カメラ110のレンズの種類に応じて生成される映像が互いに異なってもよい。例えば、ピンホール(pin-hole)レンズを用いて生成されたピンホール映像130は、場面120を歪曲せずに示すことができる。異なる例として、魚眼レンズのような広角レンズを用いて生成された魚眼レンズ映像140は、場面140を歪曲して示す。
車両用カメラとして多く用いられる広角カメラのレンズ(例えば、魚眼レンズ)を用いて映像を撮影する場合に撮影された映像には、レンズの中心を基準にして近い箇所を経由する光線よりも遠い箇所を経由する光線がさらに多く曲がるという現像により発生する放射歪曲(バレル歪曲)と、カメラの製造過程でレンズと映像平面が平行をなすことができないため発生する接線歪曲が示される。このようなレンズを用いて撮影した映像は、以下で歪曲映像又は補正が必要なターゲット映像のように命名する。
このような超広角レンズを使用するカメラは、レンズに応じて発生する歪曲を補正するためにFOV(Field ofView)モデルを用いてもよいが、このようなFOVモデルを使用する場合、歪曲中心の設定にエラーが発生し得る。FOVは、視野としてカメラレンズを付着して見られる映像を撮影した場合、その撮影した映像の領域(サイズ)を示すものである。
しかし、FOVモデルによる歪曲補正の場合、レンズの光軸を別途に推定又は算出しないため、映像の中心点とレンズの光軸との間の誤差が大きくなる場合、歪曲補正の正確度が低下することがある。
以下で、図2~図6を参照してレンズの光軸を算出し、算出された光軸に基づいて歪曲映像を補正する方法について詳説する。
図2は、一実施形態に係る歪曲映像を補正する電子装置の構成図である。
歪曲映像を補正する電子装置200は、通信部210、プロセッサ220、及びメモリ230を含む。一実施形態によれば、電子装置200は、車両に含まれてもよい。例えば、車両は、自律走行車両及びADAS(Advanced Driver Assistance Systems)を支援する車両であってもよい。
通信部210は、プロセッサ220及びメモリ230と接続してデータを送受信する。通信部210は、外部の他の装置と接続してデータを送受信する。以下、「A」を送受信するという表現は「Aを示す情報又はデータ」を送受信することを示す。
通信部210は、電子装置200内の回路網として実現されてもよい。例えば、通信部210は、内部バス及び外部バスを含んでもよい。異なる例として、通信部210は、電子装置200と外部装置を接続する要素であってもよい。外部の他の装置は、車両の電子装置であってもよい。通信部210は、インターフェースであってもよい。通信部210は、外部装置からデータを受信し、プロセッサ220及びメモリ230にデータを送信することができる。
プロセッサ220は、通信部210が受信したデータ及びメモリ230に格納されたデータを処理する。「プロセッサ」は、目的とする動作を実行させるための物理的な構造を有する回路を有するハードウェアで具現されたデータ処理装置であり得る。例えば、目的とする動作は、プログラムに含まれたコード(code)又は命令(instructions)を含んでもよい。例えば、ハードウェアで具現されたデータ処理装置は、マイクロプロセッサ(microprocessor)、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチ-コアプロセッサ(multi-core processor)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)を含んでもよい。
プロセッサ220は、メモリ(例えば、メモリ230)に格納されたコンピュータで読出し可能なコード(例えば、ソフトウェア)及びプロセッサ220によって誘発された命令を実行する。
メモリ230は、通信部210が受信したデータ及びプロセッサ220が処理したデータを格納する。例えば、メモリ230は、プログラム(又は、アプリケーション、ソフトウェア)を格納する。格納されるプログラムは、レンズの光軸を算出し、光軸に基づいて歪曲映像を補正するようにコーディングされ、プロセッサ220により実行可能なシンタックス(syntax)の集合であり得る。
一態様によれば、メモリ230は、1つ以上の揮発性メモリ、不揮発性メモリ及びRAM(Random Access Memory)、フラッシュメモリ、ハードディスクドライブ及び光学ディスクドライブを含んでもよい。
メモリ230は、電子装置200を動作させる命令語セット(例えば、ソフトウェア)を格納する。電子装置200を動作させる命令語セットは、プロセッサ220によって実行される。
図示していないが、電子装置200は、映像を生成するカメラをさらに含んでもよい。カメラは、広角レンズを用いて場面を撮影することで映像を生成する。生成された映像は、歪曲映像であってもよい。
通信部210、プロセッサ220、及びメモリ230に対して、以下で図3~図6を参照して詳細に説明される。
図3は、一実施形態に係る歪曲映像を補正する方法のフローチャートである。
以下のステップ310~350は、図2を参照して上述した電子装置200によって実行される。
ステップ310において、電子装置200は、ターゲット映像を受信する。例えば、電子装置200は、カメラからターゲット映像を受信する。ユーザは、カメラを用いて参照パターンが示される場面を撮影する。参照パターンは、均一な模様を有するチェッカーパターン(checker pattern)であってもよい。
ステップ320において、電子装置200は、ターゲット映像内のパターンを検出する。カメラのレンズに応じて参照パターンが歪曲されてターゲット映像内に示されてもよい。
例えば、電子装置200は、ターゲット映像内の1つ以上の特徴点を検出し、検出された特徴点に基づいてパターンを検出してもよい。パターンを検出する方法について、以下で図4を参照して詳説する。特徴点は、ターゲット映像内の座標で検出されることができる。
ステップ330において、電子装置200は、検出されたパターンに基づいてターゲット映像内に基準線及び少なくとも1つのターゲット点を設定する。例えば、電子装置200は、検出された特徴点に基づいて第1特徴点セットを生成し、第1特徴点セット内の特徴点のうち、最外郭に位置する2つの特徴点に基づいて基準線を設定し、第1特徴点セット内のいずれか1つをターゲット点として設定してもよい。基準線及びターゲット点を設定する方法について、以下で図4を参照して詳説する。
ステップ340において、電子装置200は、基準線及びターゲット点に基づいてカメラの光軸及び焦点距離を算出する。例えば、電子装置200は、テイラー級数に表現されるレンズの歪曲モデルを生成し、歪曲モデルに基づいて光軸及び前記焦点距離を算出してもよい。レンズに予め設定されたR値及びR値に基づいて光軸及び焦点距離が算出されてもよい。R値は、レンズによる歪曲がない場合、1つの点が映像平面に投影されるときに光軸と投影された点の間の距離を示す。R値は、レンズによる歪曲がある場合、1つの点が映像平面に投影されるときに光軸と投影された点との間の距離を示す。
電子装置200は、基準線及びターゲット点に基づいてカメラの光軸及び焦点距離を算出する方法について、以下で図5及び図6を参照して詳説する。
ステップ350において、電子装置200は、算出された光軸及び焦点距離に基づいてターゲット映像を補正する。例えば、補正されたターゲット映像は、ピンホールレンズに応じて撮影された映像に類似してもよい。
図4は、一例に係る歪曲映像内のパターン及びパターンに基づいて設定される基準線及びターゲット点を示す。
一態様によれば、電子装置200は、ターゲット映像140内の複数の特徴点を検出する。例えば、格子状の頂点が特徴点として検出されてもよい。例えば、特徴点411~415が検出された場合、特徴点411~415を含む格子がパターン410として検出されることができる。
他の一側面によれば、電子装置200は、ターゲット映像140内で列方向又は行方向に配置されている格子をパターンとして検出する。例えば、パターン410及びパターン410内の特徴点411~415が検出される。パターン410に含まれる特徴点411~415は、第1特徴点セットのように命名される。複数のパターンが列方向又は行方向として検出されるが、簡潔な説明のために1つのパターン410に対する処理過程について以下のように説明する。
特徴点411~415のうち最外郭に位置する2つの特徴点411及び415に基づいて基準線420が設定されてもよい。基準線420は、歪曲映像内で特徴点411及び415を直線に接続された線であってもよい。特徴点412、413、及び414のいずれか1つがターゲット点として設定される。例えば、特徴点413がターゲット点として設定されることができる。
図5は、一例に係る光軸及び焦点距離を算出する方法のフローチャートである。
一側面に係る、図3を参照して上述したステップ340は、下記のステップ510~570を含む。
ステップ510において、電子装置200は、レンズの参照歪曲モデルをロードする。参照歪曲モデルは、テイラー級数に表現されてもよい。参照歪曲モデルは、以下の数式(1)のように表現される。
Figure 0007361414000001
数式(1)において、R及びRは予め設定されてもよい。例えば、R及びRはレンズの製造社から伝達された値であってもよい。
ステップ520において、電子装置200は、R及びRを用いて参照歪曲モデルを調整する。電子装置200は、多項式回帰(polynomial regression)を用いて多項式の係数C~Cを算出する。参照歪曲モデルは、6次以上に多項式で示されてもよい。参照歪曲モデルの調整は、多項式の係数を算出したものである。
ステップ530において、電子装置200は、調整された参照歪曲モデルに基づいてターゲット関数を生成する。参考歪曲モデルは、光軸及び映像平面のいずれか1つの点の間の距離を基盤としているため、映像座標に基づく変換関数が求められる。ターゲット関数は、歪曲映像内の点の位置を、歪曲されていない映像に変換する関数である。ターゲット関数(undist(x、y))の(x、y)は歪曲されていない映像内の座標を意味する。xは、以下の数式(2)のように表現され、yは、以下の数式(3)のように表現される。
Figure 0007361414000002
Figure 0007361414000003
数式(2)、数式(3)において、Fは、予め設定されたり調整される焦点距離(参照焦点距離)であり、Pはピクセルピーチ(即ち、いずれかのピクセルが意味する物理的なセンサ上で有する大きさ)に関する値であり、Cは、光軸によって決定される歪曲映像のx軸中心座標であり、Cは、光軸によって決定される歪曲映像のy軸中心座標であり、Iは、歪曲映像内のターゲット点(I)のx軸座標であり、Iは、歪曲映像内のターゲット点(I)のy軸座標である。
ステップ540において、電子装置200は、参照光軸及び参照焦点距離に基づいてターゲット関数を用いて基準線及びターゲット点の位置を変換する。歪曲映像内のターゲット点(I)の座標がターゲット関数を介して歪曲されていない映像内の座標に変換されてもよい。
ステップ550において、電子装置200は、位置が変換されたターゲット点と基準線との間の距離を算出する。距離はターゲット点から基準線への直交距離であってもよい。前記の距離は、残差であってもよい。ターゲット点と基準線との間の距離について、以下で図6を参照して詳説する。
ステップ560において、電子装置200は、算出された距離が閾値未満であるか否かを判断する。算出された距離が閾値未満である場合、算出に用いられた参照光軸及び参照焦点距離が最終的な光軸及び焦点距離として決定されることができる。
ステップ570において、算出された距離が閾値以上である場合、参照光軸及び参照焦点距離を調整する。算出された距離が減少するように参照光軸及び参照焦点距離が調整されてもよい。例えば、レーベンバーグ・マーカート法(Levenberg-Marquard)アルゴリズムを用いて、参照光軸及び参照焦点距離が調整されてもよい。即ち、数式(2)、数式(3)のF、C、及びCの値が調整されることができる。
調整されたF、C、及びCを用いてステップ540が再実行される。
図6は、一例に係るターゲット関数を用いて位置が変換された基準線及びターゲット点を示す。
ターゲット関数によって位置が変換された歪曲映像内に検出された特徴点411~415が基準線420上に位置するよう、光軸及び焦点距離を算出することができる。
例えば、ターゲット関数によって基準線420及び特徴点411~415が基準線620及び特徴点611~615に変換されてもよい。光軸及び焦点距離のうち少なくとも1つが適切に設定又は算出されない場合、特徴点611~615の一部の特徴点612~614が基準線620上に位置しない場合がある。
この場合、光軸及び焦点距離のうち少なくとも1つが調整される。調整を繰り返すことにより光軸及び焦点距離が適切に調整されることができる。光軸及び焦点距離が適切に調整された場合、基準線640上に特徴点631~635が配置され得る。
実施形態に係る方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。上記で説明したハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
200:電子装置
210:通信部
220:プロセッサ
230:メモリ

Claims (13)

  1. 参照パターンを撮影することで生成されたターゲット映像を受信するステップと、
    前記ターゲット映像内のパターンを検出するステップと、
    前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップと、
    前記基準線及び前記ターゲット点に基づいて、ターゲット映像を生成したカメラの光軸及び焦点距離を算出するステップと、
    前記算出された光軸及び前記焦点距離に基づいて前記ターゲット映像を補正するステップと、を含み、
    前記ターゲット映像内のパターンを検出するステップは、
    前記ターゲット映像内の1つ以上の特徴点を検出するステップと、
    前記検出された特徴点に基づいて前記パターンを検出するステップと、を含み、
    前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップは、
    前記特徴点に基づいて第1特徴点セットを生成するステップと、
    前記第1特徴点セット内の特徴点のうち最外郭に位置する2つの特徴点に基づいて前記基準線を設定するステップと、
    前記第1特徴点セット内のいずれか1つを前記ターゲット点として設定するステップと、を含む、歪曲映像補正方法。
  2. 前記基準線及び前記ターゲット点に基づいて前記カメラの光軸及び前記焦点距離を算出するステップは、
    テイラー級数に表現されるレンズの歪曲モデルを生成するステップと、
    前記歪曲モデルに基づいて前記光軸及び前記焦点距離を算出するステップと、
    を含む、請求項1に記載の歪曲映像補正方法。
  3. 前記歪曲モデルに基づいて、前記光軸及び前記焦点距離を算出するステップは、
    前記レンズに予め設定されたR値及びR値に基づいて前記光軸及び前記焦点距離を算出するステップと、
    を含み、
    前記R値は、前記レンズによる歪曲がない場合、1つの点が映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示し、
    前記R値は、前記レンズによる歪曲がある場合、前記1つの点が前記映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示す、請求項2に記載の歪曲映像補正方法。
  4. 前記基準線及び前記ターゲット点に基づいて前記カメラの光軸及び前記焦点距離を算出するステップは、
    レンズの参照歪曲モデルをロードするステップと、
    前記レンズに予め設定されたR値及びR値を用いて参照歪曲モデルを調整するステップ(前記R値は、前記レンズによる歪曲がない場合、1つの点が映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示し、前記R値は、前記レンズによる歪曲がある場合、前記1つの点が前記映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示す)と、
    前記調整された参照歪曲モデルに基づいて、前記ターゲット点の位置を変換するターゲット関数を生成するステップと、
    参照光軸及び参照焦点距離に基づいて、前記ターゲット関数を用いて前記基準線及び前記ターゲット点の位置を変換するステップと、
    位置の変換された前記ターゲット点と前記基準線との間の距離を算出するステップと、
    前記算出された距離が予め設定された閾値未満である場合、前記参照光軸及び前記参照焦点距離を前記光軸及び前記焦点距離として決定するステップと、
    を含む、請求項1に記載の歪曲映像補正方法。
  5. 前記基準線及び前記ターゲット点に基づいて前記カメラの光軸及び前記焦点距離を算出するステップは、前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップをさらに含む、請求項4に記載の歪曲映像補正方法。
  6. 前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップは、レーベンバーグ・マーカート法(Levenberg-Marquard)アルゴリズムを用いて前記参照光軸及び前記参照焦点距離を調整するステップを含む、請求項5に記載の歪曲映像補正方法。
  7. 歪曲映像を補正する方法を行う電子装置は、
    歪曲映像を補正するプログラムが記録されたメモリと、
    前記プログラムを行うプロセッサと、
    を含み、
    前記プログラムは、
    参照パターンを撮影することで生成されたターゲット映像を受信するステップと、
    前記ターゲット映像内のパターンを検出するステップと、
    前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップと、
    前記基準線及び前記ターゲット点に基づいて、ターゲット映像を生成したカメラの光軸及び焦点距離を算出するステップと、
    前記算出された光軸及び前記焦点距離に基づいて、前記ターゲット映像を補正するステップと、を含み、
    前記基準線及び前記ターゲット点に基づいて、前記カメラの光軸及び前記焦点距離を算出するステップは、
    レンズの参照歪曲モデルをロードするステップと、
    前記レンズに予め設定されたR値及びR値を用いて参照歪曲モデルを調整するステップ(前記R値は、前記レンズによる歪曲がない場合、1つの点が映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示し、前記R値は、前記レンズによる歪曲がある場合、前記1つの点が前記映像平面に投影されるとき、前記光軸と前記投影された点との間の距離を示す)と、
    前記調整された参照歪曲モデルに基づいて、前記ターゲット点の位置を変換するターゲット関数を生成するステップと、
    参照光軸及び参照焦点距離に基づいて、前記ターゲット関数を用いて前記基準線及び前記ターゲット点の位置を変換するステップと、
    位置の変換された前記ターゲット点と前記基準線との間の距離を算出するステップと、
    前記算出された距離が予め設定された閾値未満である場合、前記参照光軸及び前記参照焦点距離を前記光軸及び前記焦点距離として決定するステップと、
    を含む電子装置。
  8. 前記ターゲット映像を生成するカメラをさらに含む、請求項に記載の電子装置。
  9. 前記ターゲット映像内のパターンを検出するステップは、
    前記ターゲット映像内の1つ以上の特徴点を検出するステップと、
    前記検出された特徴点に基づいて前記パターンを検出するステップと、
    を含む、請求項に記載の電子装置。
  10. 前記パターンに基づいて、前記ターゲット映像内に基準線及び少なくとも1つのターゲット点を設定するステップは、
    前記特徴点に基づいて第1特徴点セットを生成するステップと、
    前記第1特徴点セット内の特徴点のうち、最外郭に位置する2つの特徴点に基づいて前記基準線を設定するステップと、
    前記第1特徴点セット内のいずれか1つを前記ターゲット点として設定するステップと、
    を含む、請求項に記載の電子装置。
  11. 前記基準線及び前記ターゲット点に基づいて、前記カメラの光軸及び前記焦点距離を算出するステップは、前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップをさらに含む、請求項に記載の電子装置。
  12. 前記算出された距離が予め設定された閾値以上である場合、前記参照光軸及び前記参照焦点距離を調整するステップは、レーベンバーグ・マーカート法アルゴリズムを用いて前記参照光軸及び前記参照焦点距離を調整するステップを含む、請求項11に記載の電子装置。
  13. 前記電子装置は車両に含まれる、請求項に記載の電子装置。
JP2021564326A 2019-06-13 2020-01-15 歪曲映像を補正する方法及び装置 Active JP7361414B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2019-0069720 2019-06-13
KR1020190069720A KR102167828B1 (ko) 2019-06-13 2019-06-13 왜곡 영상을 보정하는 방법 및 장치
PCT/KR2020/000709 WO2020251129A1 (ko) 2019-06-13 2020-01-15 왜곡 영상을 보정하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2022534659A JP2022534659A (ja) 2022-08-03
JP7361414B2 true JP7361414B2 (ja) 2023-10-16

Family

ID=73025281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021564326A Active JP7361414B2 (ja) 2019-06-13 2020-01-15 歪曲映像を補正する方法及び装置

Country Status (3)

Country Link
JP (1) JP7361414B2 (ja)
KR (1) KR102167828B1 (ja)
WO (1) WO2020251129A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059270A (ja) 2004-08-23 2006-03-02 Medeikku Engineering:Kk 画像の歪み補正方法
JP2007122160A (ja) 2005-10-25 2007-05-17 Nikki Plantec Kk モデリング装置およびカメラパラメータの計算方法
JP2015049651A (ja) 2013-08-30 2015-03-16 日立建機株式会社 作業機械の周囲監視装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053506B1 (ko) * 2009-12-16 2011-08-03 (주) 에투시스템 어안 렌즈를 구비하는 카메라 모듈에 의해 획득된 영상의 왜곡 보정을 위한 파라미터 조정 방법
WO2012044218A1 (en) * 2010-10-01 2012-04-05 Saab Ab A method and an apparatus for image-based navigation
KR101249791B1 (ko) * 2011-05-23 2013-04-03 아진산업(주) 차량 어라운드 뷰 영상 생성 방법
KR20120134962A (ko) * 2011-06-04 2012-12-12 제노젠(주) 패턴시트 상의 좌표패턴으로부터 좌표를 인식하는 방법
KR101482645B1 (ko) * 2013-06-28 2015-01-16 (주) 세인 Fov왜곡 보정 모델에 2d패턴을 적용한 왜곡중심 보정 방법
JP6473769B2 (ja) * 2017-02-24 2019-02-20 国立大学法人東京工業大学 補正量演算装置、補正装置及び補正量演算方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059270A (ja) 2004-08-23 2006-03-02 Medeikku Engineering:Kk 画像の歪み補正方法
JP2007122160A (ja) 2005-10-25 2007-05-17 Nikki Plantec Kk モデリング装置およびカメラパラメータの計算方法
JP2015049651A (ja) 2013-08-30 2015-03-16 日立建機株式会社 作業機械の周囲監視装置

Also Published As

Publication number Publication date
KR102167828B1 (ko) 2020-10-20
JP2022534659A (ja) 2022-08-03
WO2020251129A1 (ko) 2020-12-17

Similar Documents

Publication Publication Date Title
US10636130B2 (en) Image processing device
KR102545667B1 (ko) 인공 신경망을 이용한 이미지 처리 방법 및 이를 지원하는 전자 장치
KR102236222B1 (ko) 중첩영역의 제어점들을 이용한 시차 최소화 스티칭 장치 및 방법
KR102194711B1 (ko) 카메라 모듈 손떨림 보정 장치 및 이의 게인 조정 방법
JP2012141945A (ja) 画像処理方法及びそのための装置
US10839479B2 (en) Imaging apparatus, image processing apparatus, image processing method, and medium
US20170142384A1 (en) Image processing apparatus, image processing method, image projection system, and storage medium
CN113834640B (zh) 热成像模组光心偏差确定方法、光心对齐方法及装置
KR20160040330A (ko) 어안 렌즈로부터 획득한 왜곡 영상을 동심원 형태의 표준 패턴을 이용하여 보정하는 방법
JP6381422B2 (ja) 距離検出装置、撮像装置、および距離検出方法
TW202147820A (zh) 車載鏡頭的自動校正方法以及車載鏡頭裝置
JP7361414B2 (ja) 歪曲映像を補正する方法及び装置
JP6272112B2 (ja) 距離検出装置、撮像装置、距離検出方法及び視差量検出装置
KR101938067B1 (ko) Sift 플로우를 이용한 광각영상의 스테레오 정합 방법 및 장치
CN111353945B (zh) 鱼眼图像校正方法、装置及存储介质
JP7111183B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラム
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
US9596403B2 (en) Distance detecting device, imaging apparatus, distance detecting method and parallax-amount detecting device
JP2017194591A (ja) 距離測定装置、撮像装置、および距離測定方法
KR20200033601A (ko) 영상 처리 장치 및 방법
KR102277828B1 (ko) 복수의 카메라들을 캘리브레이션하는 방법 및 장치
JP6680335B2 (ja) ステレオカメラ、車両、算出方法及びプログラム
JP6674127B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
Song et al. Region adaptive correction method for radial distortion of fish-eye image
CN112399172B (zh) 校准多个摄像机的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R150 Certificate of patent or registration of utility model

Ref document number: 7361414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150