JP2022050854A - 奥行きに関連する画像を処理するシステム及び方法 - Google Patents
奥行きに関連する画像を処理するシステム及び方法 Download PDFInfo
- Publication number
- JP2022050854A JP2022050854A JP2020157009A JP2020157009A JP2022050854A JP 2022050854 A JP2022050854 A JP 2022050854A JP 2020157009 A JP2020157009 A JP 2020157009A JP 2020157009 A JP2020157009 A JP 2020157009A JP 2022050854 A JP2022050854 A JP 2022050854A
- Authority
- JP
- Japan
- Prior art keywords
- image
- channel
- data packet
- processing circuit
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
【課題】データを処理する効率が向上した、奥行きに関連する画像を処理するシステム及び方法を提供する。【解決手段】システムによる方法において、第1の画像センサが第1の画像を生成し、第2の画像センサが第2の画像を生成し、第1の画像処理回路が、第1の画像と第2の画像とにおいて識別された1以上のオブジェクトに対応する奥行きデータを生成し、第1の画像処理回路が、第1の画像、第2の画像、奥行きデータのうちの2つを含む第1のデータパケットを生成し、第2の画像処理回路が第1のデータパケットを受け取り、第2の画像処理回路が第1の画像と第2の画像とに対しステレオマッチングを実行する。【選択図】図3
Description
本発明は、画像処理技術に関するものであり、特に、奥行きに関連する画像を処理するシステム及び方法に関するものである。
奥行き情報は、オブジェクト検出、3次元オブジェクション生成、又は他の実装に用いられうる。従来のアプローチにおいて、特定のプロセッサ(デジタル信号処理装置(DSP)又は中央処理装置(CPU))が、奥行き情報を生成するためのソフトウェア演算を用いることにより、画像に基づく奥行き計算を実行しうる。しかし、(スマートフォン、タブレット、手持ち型搭載ディスプレイ等といった)小型のデバイスでは、(デスクトップコンピュータ、ラップトップ、サーバ等といった)他のコンピューティングデバイスと比較し好ましい性能を有さない可能性があり、小型デバイスのソフトウェア演算は奥行き計算に十分な効率を提供しない可能性がある。
ソフトウェア上の奥行き計算は効率的でない可能性がある。従って、本発明は、ハードウェア演算で奥行き関連計算を処理する特定の回路を提供するための、奥行きに関連する画像を処理するシステム及び方法を対象とする。
例示的な実施形態の1つにおいて、奥行きに関連する画像を処理するシステムは、第1の画像センサと、第2の画像センサと、第1の画像処理回路と、第2の画像処理回路とを含むが、これに限定されない。第1の画像センサは、第1の画像を生成するために用いられる。第2の画像は、第2の画像を生成するために用いられる。第1の画像処理回路は、第1の画像センサと第2の画像センサとに連接される。第1の画像処理回路は、第1の画像と第2の画像とにおいて識別された1以上のオブジェクトに対応する奥行きデータを生成し、第1の画像、第2の画像、奥行きデータのうちの2つを含む第1のデータパケットを生成するよう構成される。第2の画像処理回路は、第1の画像処理回路に連接される。第2の画像処理回路は、第1のデータパケットを受け取り、第1の画像と第2の画像とに対しステレオマッチングを実行する。
例示的な実施形態の1つにおいて、奥行きに関連する画像を処理する方法は、次のステップを含むが、これに限定されない。第1の画像センサが第1の画像を生成する。第2の画像センサが第2の画像を生成する。第1の画像処理回路が、第1の画像と第2の画像とにおいて識別された1以上のオブジェクトに対応する奥行きデータを生成する。第1の画像処理回路が、第1の画像、第2の画像、奥行きデータのうちの2つを含む第1のデータパケットを生成する。第2の画像処理回路が第1のデータパケットを受け取る。第2の画像処理回路が、第1の画像と第2の画像とに対しステレオマッチングを実行する。
上記を鑑み、奥行きに関連する画像を処理するシステム及び方法によれば、第1の画像処理回路は奥行きデータを生成するための奥行き計算を処理することができる。更に、インターフェイスの制限のため、第1の画像、第2の画像、奥行きデータのうちの2つのデータのみが第2の画像処理回路に同時に送信されることができる。従って、奥行き関連計算の効率が向上する。
ただし、この概要は本発明の全ての様態と実施形態を含むものではなく、如何なる方法でも限定又は制限を意図するものではないことを理解されたい。そして、ここで開示される発明は、その明らかな改善と改変を含むと当業者により理解される。
本発明の更なる理解のため添付図面が含まれ、本明細書に包含され、本明細書の一部を構成する。図面は本発明の実施形態を表し、明細書と共に、本発明の原理を説明する役割を果たす。
本発明の好ましい実施形態の詳細を述べる。実施例は添付の図面に表される。可能な限り、図面と明細書において同一の符号が同一又は類似の部材に対し用いられる。
図1は、本発明の例示的な実施形態の1つによる奥行きに関連する画像を処理するシステム100を表すブロック図である。図1を参照し、システム100は、第1の画像センサ111と、第2の画像センサ113と、第1の画像処理回路120と、第2の画像処理回路130と、第3の処理回路140と、第4の処理回路150と、中央処理装置(CPU)160とを含むが、これに限定されない。
第1の画像センサ111と第2の画像センサ113は、赤外線(IR)センサ、カラー画像センサ、赤-緑-青(RGB)センサ、RGB-IRセンサ、又はデプスカメラであってよい。1つの実施形態において、第1の画像センサ111と第2の画像センサ113は、それぞれ左目と右目に対応する。
1つの実施形態において、システム100は、第3の画像センサ115を更に含む。第3の画像センサ115は、IRセンサ、カラー画像センサ、RGBセンサ、RGB-IRセンサ、又はデプスカメラであってよい。
IRセンサとRGB-IRセンサのため、システム100は、IR関連センサが赤外線光を検出できるよう、赤外線光源(図示せず)を更に含んでよい。
第1の画像処理回路120は、画像信号処理装置(ISP)、画像チップ、又は画像関連プロセッサであることができる。第1の画像処理回路120は、第1の画像センサ111と、第2の画像センサ113と、第3の画像センサ115とに連接される。。
図2は、本発明の例示的な実施形態の1つによる第1の画像処理回路120を表すブロック図である。図2を参照し、第1の画像処理回路120は、画像抽出回路121と、奥行き計算回路122とを含むが、これに限定されない。1つの実施形態において、画像抽出回路121は、第1の画像センサ111と第2の画像センサ113とにより生成された画像M1とM2の赤、緑、青の画素に対応するカラー部分を抽出するよう構成される。更に、画像抽出回路121は、第1の画像センサ111、第2の画像センサ113M2、及び/又は第3の画像センサ115により生成された画像M1のIR画素に対応する赤外線部分を抽出するよう構成される。ここでは、第1の画像センサ111、第2の画像センサ113、及び/又は第3の画像センサ115がRGB-IRセンサであると仮定する。ただし、いくつかの実施形態において、IRセンサ、カラー画像センサ、RGBセンサ、又はデプスカメラのため、画像抽出回路121は省略されてよい。
奥行き計算回路122は、画像解析回路123と、オブジェクト抽出回路124と、オブジェクト奥行き計算回路125と、重畳オブジェクト奥行き計算回路126と、マルチプレクサ127とを含むが、これに限定されない。
1つの実施形態において、画像解析回路123は、画質を向上させるために、第1の画像センサ111と第2の画像センサ113により生成された画像M1とM2の画素値を調整するか否かを判定するよう構成される。例えば、原画像が暗すぎる場合、画像解析回路123は、後続のオブジェクト抽出動作のために画質を向上させるよう、原画像の露出値を増加させてよい。いくつかの実施形態において、画素値は、彩度、コントラスト、又は他の画像関連パラメータに関連しうる。
オブジェクト抽出回路124は、画像解析回路123に連接される。1つの実施形態において、オブジェクト抽出回路124は、第1の画像センサ111と第2の画像センサ113とにより生成された原画像から現実世界における1以上のオブジェクトを識別するよう構成される。例えば、オブジェクト抽出回路124は、原画像から特徴を抽出し、該特徴を所定のオブジェクトの特徴と比較する。
オブジェクト奥行き計算回路125は、オブジェクト抽出回路124に連接される。1つの実施形態において、オブジェクト奥行き計算回路125は、三角測量法を用いて、第1と第2の画像センサ111と113との間の距離と、第1と第2の画像センサ111と113の両方の原画像において1以上のオブジェクトが位置する場所の間の画素距離に基づき、1以上のオブジェクトの第1の奥行きを算出するよう構成される。
重畳オブジェクト奥行き計算回路126は、オブジェクト奥行き計算回路125に連接される。1つの実施形態において、重畳オブジェクト奥行き計算回路126は、1以上のオブジェクトの2つの重畳オブジェクトの第2の奥行きを算出し、第1の奥行きと第2の奥行きとを含む奥行きデータDを出力するよう構成される。
いくつかの実施形態において、奥行き計算はハードウェア演算により実行され、第1の画像処理回路120はデプスハードウェアエンジンと見なすことができる。
マルチプレクサ127は、重畳オブジェクト奥行き計算回路126に連接される。1つの実施形態において、マルチプレクサ127は、制御信号に応じて、第1の画像センサ111と第2の画像センサ113により生成された原画像M1とM2のうちの1つと、奥行きデータDとを出力するよう構成される。制御信号は、第2の画像処理回路130又は他の回路の要件に基づき生成されてよく、本実施形態はこれに限定されない。
第2の画像処理回路130は、視覚処理装置(VPU)、視覚タスク用の人工知能(AI)アクセラレータ、又は他の画像関連プロセッサであることができる。第2の画像処理回路130は、第1の画像処理回路120と連接される。1つの実施形態において、第2の画像処理回路130は、画像に対しステレオマッチングを実行するよう構成される。ステレオマッチング処理は、デジタル画像から奥行き情報又は3次元情報を抽出するために用いられる。例えば、第2の画像処理回路130は、第1の画像センサ111と第2の画像センサ113からの2つの画像M1とM2とを比較してよく、奥行き情報又は3次元情報は差異に基づき取得されることができる。もう1つの例において、第2の画像処理回路130は、第1の画像センサ111と第2の画像センサ113からの2つの画像M1とM2に基づき、特定の形状又はパターン(例えば、ハンドジェスチャー)を有する1以上の抽出されたオブジェクトを判定するよう構成される。
第3の画像処理回路140は、ISP、画像チップ、又は他の画像関連プロセッサであることができる。第3の画像処理回路140は、第2の画像処理回路130に連接される。1つの実施形態において、第3の画像処理回路140は、オブジェクト認識と奥行き計算のために画質を向上させるため。第2の画像処理回路130から出力された画像に対し、自動ホワイトバランス及び露出値補正を実行するよう構成される。いくつかの実施形態において、第3の画像処理回路140は、彩度、コントラスト、又は他の画像関連パラメータを補正してよい。更にいくつかの実施形態において、第1、第2、第3の画像処理回路120、130、140のうちの2以上は、単一のチップ又はデジタル回路に統合されてよい。
第4の画像処理回路150は、デジタル信号処理装置(DSP)、画像チップ、又は他の画像関連プロセッサであることができる。第4の画像処理回路150は、第3の画像処理回路140に連接される。1つの実施形態において、第4の画像処理回路150は、立体画像を生成するため、第1の画像処理回路120により生成された奥行き情報に基づき、第2又は第3の画像処理回路130又は140から出力された画像を立体画像変換するよう構成される。例えば、立体画像は、2次元表面上に投影された3次元オブジェクトを含む。いくつかの実施形態において、第4の画像処理回路150は省略されてよい。
CPU160は、マイクロプロセッサ、マイクロコントローラ、画像処理装置(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートアレイ(FPGA)であることができる。CPU160の機能は、独立した電子デバイス又は集積回路(IC)により実装されてもよく、CPU160の動作はソフトウェアにより実装されてもよい。CPU160は、第3の画像処理回路140又は第4の画像処理回路150に連接される。1つの実施形態において、CPU160は、第1、第2、第3、及び/又は第4の画像処理回路120、130、140、150から出力された画像、及び/又は対応する奥行きデータに基づき、手の動きの検出と追跡、空間走査、オブジェクト走査、拡張現実(AR)シースルー、6自由度(DoF)、及び自己位置推定と地図作成の同時実行(SLAM)のための応用に関する演算結果を生成するよう構成される。
システム100は、第1、第2、第3、又は第4の画像処理回路120、130、140、150、又はCPU160にて用いられる、又はこれらから出力されたデータを格納するため、1以上のメモリ(図示せず)を含んでよい。
本発明の1以上の実施形態において提供される動作処理をより理解し易くするよう、システム100の動作処理を詳述するため、いくつかの実施形態を以下に例示する。システム100内のデバイスとモジュールは、ここで提供される奥行きに関連する画像を処理する方法を説明するための、下記の実施形態において適用される。方法の各ステップは実際の実装状況に応じて調整でき、ここで説明されるものに限定されるべきではない。
図3は、本発明の例示的な実施形態の1つによる奥行きに関連する画像を処理する方法を表すフロー図である。図3を参照し、第1の画像センサ111が第1の画像を生成してよい(ステップS310)。第1の画像センサ111の類別に関して、第1の画像は、IR画像、カラー画像、又はカラー赤外線画像であることができる。更に、第2の画像センサ113が第2の画像を生成してよい(ステップS320)。第2の画像センサ113の類別に関して、第2の画像も、IR画像、カラー画像、又はカラー赤外線画像であることができる。1つの実施形態において、第1と第2の画像センサ111と113は、人間の両眼視に基づき、情景における2つの異なる視野を取得するために水平方向にずらされている。
1つの実施形態において、第3の画像センサ115が第3の画像を生成してよい。いくつかの実施形態において、第1の画像は赤外線画像であり、第2の画像はもう1つの赤外線画像であり、第3の画像はカラー画像である。更にいくつかの実施形態において、第1の画像はカラー画像であり、第2の画像はもう1つのカラー画像であり、第3の画像は赤外線画像である。
第1の画像処理回路120は、第1の画像と第2の画像とにおいて識別された1以上のオブジェクトに対応する奥行きデータを生成してよい(ステップS330)。奥行き計算回路122の動作において言及したように、第1の画像と第2の画像とにおいて識別された、1以上の非重畳オブジェクトの第1の奥行き、及び/又は、1以上の重畳オブジェクトの第2の奥行きは、奥行きデータを形成するために生成される。いくつかの実施形態において、奥行き計算回路122は、第1の画像と第2の画像と第3の画像とにおいて識別された1以上のオブジェクトに対応する奥行きデータを生成してよい。
第1の画像処理回路120は、第1の画像、第2の画像、奥行きデータのうちの2つを含む第1のデータパケットを生成してよい(ステップS340)。1つの実施形態において、第1の画像、第2の画像、奥行きデータのうちの2つのデータが、第1のデータパケットを生成するため組み合わされる。データパケットのフォーマットは、画像処理回路120の伝送インターフェイスに基づき定義される。もう1つの実施形態において、第1の画像、第2の画像、奥行きデータ、ダミーデータのうちの2つのデータが、第1のデータパケットを生成するために組み合わされる。ダミーデータは、特定の値又はランダム値を含んでよい。
更にもう1つの実施形態において、第1の画像処理回路120は、第1のデータパケットとは異なる、第1の画像、第2の画像、奥行きデータ、ダミーデータのうちの他の2つを含む、第2のデータパケットを生成してよい。
例えば、図4Aは、本発明の例示的な実施形態の1つによる画像処理を表すブロック図である。図4Aを参照し、第1の画像センサ111はRGBセンサ111-1であり、第2の画像センサ113はRGBセンサ113-1である。同一の時点で、RGBセンサ111-1がカラー画像C1を生成し、RGBセンサ113-1がもう1つのカラー画像C2を生成する。次いで、第1の画像処理回路120は、カラー画像C1とC2との両方におけるオブジェクトに基づき、奥行きデータDを生成する。更に、第1の画像処理回路120は、カラー画像C1とC2とを第1のデータパケットに組み合わせ、奥行きデータDとダミーデータDYとを第2のデータパケットに組み合わせる。データ構造は次であることができる:
図4Bは、本発明の例示的な実施形態の1つによる画像処理を表すブロック図である。図4Bを参照し、第1の画像センサ111はIRセンサ111-2であり、第2の画像センサ113はIRセンサ113-2であり、第3の画像センサ115はRGBセンサ115-1である。同一の時点で、IRセンサ111-2が赤外線画像IR1を生成し、IRセンサ113-2がもう1つの赤外線画像IR2を生成し、RGBセンサ115-2がカラー画像C3を生成する。次いで、第1の画像処理回路120は、赤外線画像IR1とIR2及びカラー画像C3の全てにおいて識別されたオブジェクトに基づき、奥行きデータDを生成する。更に、第1の画像処理回路120は、赤外線画像IR1とIR2を第1のデータパケットに組み合わせ、奥行きデータDとカラー画像C3を第2のデータパケットに組み合わせる。データ構造は次であることができる:
図4Cは、本発明の例示的な実施形態の1つによる画像処理を表すブロック図である。図4Cを参照し、第1の画像センサ111はRGB-IRセンサ111-3であり、第2の画像センサ113はRGB-IRセンサ113-3である。同一の時点で、RGB-IRセンサ111-3がカラー赤外線画像CIR1を生成し、RGB-IRセンサ113-3がもう1つのカラー赤外線画像CIR2を生成する。次いで、第1の画像処理回路120は、カラー赤外線画像CIR1とCIR2との両方におけるオブジェクトに基づき、奥行きデータDを生成する。更に、第1の画像処理回路120は、カラー赤外線画像CIR1とCIR2とを第1のデータパケットに組み合わせ、奥行きデータDとダミーデータDYとを第2のデータパケットに組み合わせる。データ構造は次であることができる:
1つの実施形態において、第1の画像センサ111の第1の画像は第1のカラー赤外線画像であり、第2の画像センサ113の第2の画像は第2のカラー赤外線画像である。例えば、図4Dは、本発明の例示的な実施形態の1つによる画像処理を表すブロック図である。図4Dを参照し、第1の画像センサ111はRGB-IRセンサ111-3であり、第2の画像センサ113はRGB-IRセンサ113-3である。画像抽出回路121は、第1の画像センサ111と第2の画像センサ113とにより生成された第1と第2のカラー赤外線画像CIR1とCIR2の赤、緑、青の画素に対応するカラー部分C4とC5を抽出し、第1の画像センサ111と第2の画像センサ113とにより生成された第1と第2のカラー赤外線画像CIR1とCIR2のIR画素に対応する赤外線部分IR3とIR4を抽出し、ここで、赤外線部分の画像画素はグレースケール値に基づき定義される。奥行き計算回路122は、第1のカラー赤外線画像と第2のカラー赤外線画像CIR1とCIR2のカラー部分C4とC5において識別された1以上のオブジェクトに対応する第1の奥行きデータD1を生成し、第1のカラー赤外線画像と第2のカラー赤外線画像CIR1とCIR2の赤外線部分IR3とIR4において識別された1以上のオブジェクトに対応する第2の奥行きデータD2を生成してよく、ここで、奥行きデータDは第1と第2の奥行きデータD1とD2とを含む。
更に、第1の画像処理回路120は、第1のカラー赤外線画像CIR1と第2のカラー赤外線画像CIR2のカラー部分C4とC5、第1のカラー赤外線画像CIR1と第2のカラー赤外線画像CIR2の赤外線部分IR3とIR4、第1の奥行きデータD1、第2の奥行きデータD2のうちの2つを含む第1のデータパケットを生成し、カラー部分C4とC5、赤外線部分IR3とIR4、第1の奥行きデータD1、第2の奥行きデータD2のうちの、第1のデータパケットとは異なる別の2つを含む第3のデータパケットを生成し、カラー部分C4とC5、赤外線部分IR3とIR4、第1の奥行きデータD1、第2の奥行きデータD2のうちの、第1のデータパケット及び第2のデータパケットとは異なる別の2つを含む第4のデータパケットを生成してよい。
例えば、第1の画像処理回路120は、第1のカラー赤外線画像CIR1と第2のカラー赤外線画像CIR2のカラー部分C4とC5とを第1のデータパケットに組み合わせ、第1のカラー赤外線画像CIR1と第2のカラー赤外線画像CIR2の赤外線部分IR3とIR4とを第3のデータパケットに組み合わせ、第1の奥行きデータD1と第2の奥行きデータD2とを第4のデータパケットに組み合わせる。データ構造は次であることができる:
第2の画像処理回路130は、第1の画像処理回路120から第1のデータパケットを受け取ってよい(ステップS350)。具体的には、第1の画像処理回路120は第1の伝送インターフェイスを提供し、第2の画像処理回路130は第1の伝送インターフェイスと接続する第2の伝送インターフェイスを提供する。第1と第2の伝送インターフェイスは、カメラシリアルインターフェイス(CSI)-3、CSI-2、別のモバイルインダストリープロセッサインターフェイス(MIPI)、または他の伝送インターフェイスであることができる。第1と第2の伝送インターフェイスは、データを伝送するための複数のデータ線を提供する。
1つの実施形態において、第1の伝送インターフェイスは、第1のチャネル上で第1のデータパケットを第2の伝送インターフェイスへ送信し、第1のデータパケットは、第1のチャネルのみに対応する第1のチャネル識別子を更に含む。第1のチャネルは、第1と第2の伝送インターフェイスのファームウェア又はソフトウェアにより識別される論理チャネルである。ただし、第1のデータパケットはやはり物理的なデータ線上で送信される。
もう1つの実施形態において、第1の伝送インターフェイスは、第1のチャネルとは異なる第2のチャネル上で第2のデータパケットを第2の伝送インターフェイスへ送信し、第2のデータパケットは、第2のチャネルのみに対応する第2のチャネル識別子を更に含む。第1のチャネルと第2のチャネルは、第2の伝送インターフェイスにおける異なるメモリブロックに対応する。第2の伝送インターフェイスは、データパケットがどちらのチャネルに属するかを知るため、チャネル識別子を識別してよい。例えば、第1のチャネル識別子は「00」であり、第2のチャネル識別子は「01」である。次いで、第2の画像処理回路130は、対応するメモリブロックにデータパケットを格納してよい。
いくつかの実施形態において、第1のチャネルは物理チャネル/経路であり、第2のチャネルは仮想チャネル/経路である。ここでは、伝送インターフェイスが2つの伝送インターフェイス間のデータ線を介して複数の論理チャネルを提供すると仮定する。2以上の種類のデータパケットが存在する場合、第1の伝送インターフェイスは、異なるデータパケットを異なる論理チャネルに配置してよい。物理チャネルと呼ばれる1つの論理チャネルのみが存在してよく、他の論理チャネルは仮想チャネルと呼ばれる。図5は、本発明の例示的な実施形態の1つによるデータ伝送を表すブロック図である。図5を参照し、第1の伝送インターフェイスTI1と第2の伝送インターフェイスTI2との間には、物理チャネルPCHと仮想チャネルVCH1とVCH2といった、複数のチャネルが存在する。
図4Aを例とし、カラー画像C1とC2を含む第1のデータパケットは物理チャネルPCH上で送信され、ダミーデータDYと奥行きデータDとを含む第2のデータパケットは仮想チャネルVCH1上で送信される。
もう1つの実施形態において、上述した第1、第3、第4のデータパケットという、3つの異なるデータパケットが存在する。第1の伝送インターフェイスは、第3のチャネル上で第1のデータパケットを第2の伝送インターフェイスへ送信し、第4のチャネル上で第3のデータパケットを第2の伝送インターフェイスへ送信し、第5のチャネル上で第4のデータパケットを第2の伝送インターフェイスへ送信してよい。第1のデータパケットは第3のチャネルのみに対応する第3のチャネル識別子を更に含み、第3のデータパケットは第4のチャネルのみに対応する第4のチャネル識別子を更に含み、第4のデータパケットは第5のチャネルのみに対応する第5のチャネル識別子を更に含む。例えば、第3のチャネル識別子は「01」であり、第4のチャネル識別子は「10」であり、第5のチャネル識別子は「11」である。同様に、第3、第4、第5のチャネルは、第2の伝送インターフェイスにおける異なるメモリブロックに対応する。次いで、第2の画像処理回路130は、対応するメモリブロックから所望のデータを取得してよい。
いくつかの実施形態において、第3のチャネルは物理チャネルであり、第4のチャネルは仮想チャネルであり、第5のチャネルはもう1つの仮想チャネルである。図4Dと図5を例とし、カラー部分C4とC5とを含む第1のデータパケットは物理チャネルPCH上で送信され、赤外線部分IR3とIR4とを含む第3のデータパケットは仮想チャネルVCH1上で送信され、第1の奥行きデータD1と第2の奥行きデータD2とを含む第4のデータパケットはもう1つの仮想チャネルVCH2上で送信される。
同一のデータパケット内のデータは、特定の応用に提供されてよいことに注意されたい。図4Dを例とし、カラー部分C4とC5を含む第1のデータパケットは、ARシースルー応用に適用されるRGBサイドバイサイドとして知られ、赤外線部分IR3とIR4を含む第3のデータパケットは、SLAM、手の動作の検出と追跡、6DoF応用に適用されるIRサイドバイサイドとして知られる。このため、データを処理する効率が向上しうる。
第2の画像処理回路130は、第1の画像と第2の画像とに対しステレオマッチングを実行してよい(ステップS360)。具体的には、第2の画像処理回路130は、奥行きデータに関連するマッチング画像を生成するため、ステレオマッチングアルゴリズムに基づき、第1の画像と、第2の画像と、奥行きデータとを組み合わせてよい。図4Aを例とし、第2の画像処理回路130は、カラーマッチング画像RGBD1を生成するため、カラー画像C1とC2とにステレオマッチングを実行し、ここで、カラーマッチング画像RGBD1の画像画素は、赤、緑、青の画素により定義される。
図4Bを例とし、第2の画像処理回路130は、グレースケールマッチング画像を生成するため、赤外線画像IR1とIR2とに対しステレオマッチングを実行し、カラーマッチング画像RGBD2を生成するため、グレースケールマッチング画像とカラー画像C3とに対しカラーマッチングを実行し、ここで、カラーマッチング画像RGBD1の画像画素は、赤、緑、青の画素、及びIR/グレースケール画素により定義される。
図4Cを例とし、第2の画像処理回路130は、それぞれ第1の画像センサ111と第2の画像センサ113との視野角に基づくカラーマッチング画像RGBD3とRGBD4とを生成するため、カラー赤外線画像CIR1とCIR2とに対しステレオマッチングを実行する。
図4Dを例とし、第2の画像処理回路130は、グレースケールマッチング画像を生成するため、赤外線部分IR3とIR4とに対しステレオマッチングを実行し、カラーマッチング画像RGBD5とRGBD6とを生成するため、グレースケールマッチング画像とカラー画像C3とC4とに対しカラーマッチングを実行する。
1つの実施形態において、第4の画像処理回路150は、奥行きデータに基づき、カラーマッチング画像を立体画像に変換する。
もう1つの実施形態において、CPU160は、立体画像及び対応する奥行きデータに基づき、手の動きの検出と追跡、空間走査、オブジェクト走査、ARシースルー、6DoF、SLAMのための応用に関する演算結果を生成してよい。
システム100のアーキテクチャにおいて、本発明は、先ず、先行技術におけるデジタル信号処理装置のソフトウェア計算を置き換えるため、第1の画像処理回路120(即ち、デプスハードウェアエンジン)を用いて画像M1とM2に対応する奥行きデータを算出する。その後、第2の画像処理回路130と第3の画像処理回路140の動作で、より好ましい画質を有する画像M1とM2と、対応するより高い精度を有する奥行きデータを得ることができる。このため、(手の動きの検出と追跡、空間走査、オブジェクト走査、ARシースルー、SLAMといった)応用を処理するCPU160の精度と効率を向上させることができる。
まとめると、上記の例示的な実施形態は、奥行きに関連する画像を処理する方法及びシステムを描写している。実施形態は、先ず、先行技術におけるデジタル信号処理装置のソフトウェア計算を置き換えるため、画像処理回路を用いて画像センサの原画像に対応する奥行きデータを算出する。更に、より好ましい画質を有する画像と、対応するより高い精度を有する奥行きデータを得ることができる。従って、より好ましいユーザエクスペリエンスを達成するよう、1以上の応用を処理するCPUの精度と効率を向上することができる。
当業者にとって、本発明の範囲又は精神から逸脱することなく、本発明の構造に様々な改変と変形を行うことができることは明らかであろう。上記を鑑み、本発明は、以下の特許請求の範囲及びそれらの均等物の範囲内にあるという条件で、本発明の改変及び変形を網羅することを意図している。
画像を処理するための方法及びシステムは、奥行き関連計算に応用することができる。
100:システム
111:第1の画像センサ
113:第2の画像センサ
115:第3の画像センサ
120:第1の画像処理回路
130:第2の画像処理回路
140:第3の画像処理回路
150:第4の画像処理回路
160:中央処理装置
M1、M2:画像
121:画像抽出回路
122:奥行き計算回路
123:画像解析回路
124:オブジェクト抽出回路
125:オブジェクト奥行き計算回路
126:重畳オブジェクト奥行き計算回路
D、D1、D2:奥行きデータ
127:マルチプレクサ
S310~S360:ステップ
111-1、113-1、115-1:RGBセンサ
C1~C5:カラー画像
DY:ダミーデータ
RGBD1~RGBD6:カラー赤外線画像
111-2、113-2:IRセンサ
111-3、113-3:RGBIRセンサ
CIR1、CIR2:カラー赤外線画像
IR1、IR2:赤外線画像
IR3、IR4:赤外線部分
TI1、TI2:伝送インターフェイス
PCH:物理チャネル
VCH1、VCH2:仮想チャネル
111:第1の画像センサ
113:第2の画像センサ
115:第3の画像センサ
120:第1の画像処理回路
130:第2の画像処理回路
140:第3の画像処理回路
150:第4の画像処理回路
160:中央処理装置
M1、M2:画像
121:画像抽出回路
122:奥行き計算回路
123:画像解析回路
124:オブジェクト抽出回路
125:オブジェクト奥行き計算回路
126:重畳オブジェクト奥行き計算回路
D、D1、D2:奥行きデータ
127:マルチプレクサ
S310~S360:ステップ
111-1、113-1、115-1:RGBセンサ
C1~C5:カラー画像
DY:ダミーデータ
RGBD1~RGBD6:カラー赤外線画像
111-2、113-2:IRセンサ
111-3、113-3:RGBIRセンサ
CIR1、CIR2:カラー赤外線画像
IR1、IR2:赤外線画像
IR3、IR4:赤外線部分
TI1、TI2:伝送インターフェイス
PCH:物理チャネル
VCH1、VCH2:仮想チャネル
Claims (10)
- 第1の画像を生成する、第1の画像センサと、
第2の画像を生成する、第2の画像センサと、
前記第1の画像センサと前記第2の画像センサに連接され、
前記第1の画像と前記第2の画像とにおいて識別された少なくとも1つのオブジェクトに対応する奥行きデータを生成することと、
前記第1の画像、前記第2の画像、前記奥行きデータのうちの2つを含む、第1のデータパケットを生成することと
を行うよう構成される、第1の画像処理回路と、
前記第1の画像処理回路に連接され、
前記第1のデータパケットを受け取ることと、
前記第1の画像と前記第2の画像とに対しステレオマッチングを実行することと
を行うよう構成される、第2の画像処理回路と
を含む、
奥行きに関連する画像を処理するシステム。 - 第1の画像センサにより、第1の画像を生成することと、
第2の画像センサにより、第2の画像を生成することと、
第1の画像処理回路により、前記第1の画像と前記第2の画像とにおいて識別された少なくとも1つのオブジェクトに対応する奥行きデータを生成することと、
前記第1の画像処理回路により、前記第1の画像、前記第2の画像、前記奥行きデータのうちの2つを含む第1のデータパケットを生成することと、
第2の画像処理回路により、前記第1のデータパケットを受け取ることと、
前記第2の画像処理回路により、前記第1の画像と前記第2の画像とに対しステレオマッチングを実行することと
を含む、
奥行きに関連する画像を処理する方法。 - 前記第1の画像処理回路が、第1の伝送インターフェイスを更に提供し、
前記第2の画像処理回路が、前記第1の伝送インターフェイスと接続される第2の伝送インターフェイスを更に提供し、
前記第1の伝送インターフェイスが、第1のチャネル上で前記第1のデータパケットを前記第2の画像処理回路へ送信し、前記第1のデータパケットが、前記第1のチャネルのみに対応する第1のチャネル識別子を更に含む、
請求項1に記載のシステム、
又は、
前記第1のデータパケットを受け取るステップが、
前記第1の画像処理回路により、第1の伝送インターフェイスを提供することと、
前記第2の画像処理回路により、前記第1の伝送インターフェイスと接続する第2の伝送インターフェイスを提供することと、
前記第1の伝送インターフェイスにより、第1のチャネル上で前記第1のデータパケットを前記第2の伝送インターフェイスへ送信することであって、前記第1のデータパケットが、前記第1のチャネルのみに対応する第1のチャネル識別子を更に含むことと
を含む、
請求項2に記載の方法。 - 前記第1の画像処理回路が、前記第1の画像、前記第2の画像、前記奥行きデータ、ダミーデータのうちの、前記第1のデータパケットとは異なる別の2つを含む第2のデータパケットを生成することと、
前記第1の伝送インターフェイスが、第2のチャネル上で前記第2のデータパケットを前記第2の伝送インターフェイスへ送信し、前記第2のデータパケットが、前記第2のチャネルのみに対応する第2のチャネル識別子を更に含むことと
を行うよう更に構成される、
請求項3に記載のシステム、
又は、
前記第1の画像処理回路により、前記第1の画像、前記第2の画像、前記奥行きデータ、ダミーデータのうちの、前記第1のデータパケットとは異なる別の2つを含む第2のデータパケットを生成することと、
前記第1の伝送インターフェイスにより、第2のチャネル上で前記第2のデータパケットを前記第2の伝送インターフェイスへ送信することであって、前記第2のデータパケットが前記第2のチャネルのみに対応する第2のチャネル識別子を更に含むことと
を更に含む、
請求項3に記載の方法。 - 前記第1のチャネルが物理チャネルであり、前記第2のチャネルが仮想チャネルであり、前記第1のチャネルと前記第2のチャネルが、前記第2の伝送インターフェイスにおける異なるメモリブロックに対応する、
請求項4に記載のシステム、又は、請求項4に記載の方法。 - 前記第2の画像処理回路が、前記奥行きデータに関連するマッチング画像を生成するため、前記第1の画像と、前記第2の画像と、前記奥行きデータとを組み合わせるよう更に構成される、
請求項1に記載のシステム、
又は、
ステレオマッチングを実行するステップが、前記奥行きデータに関連するマッチング画像を生成するため、前記第1の画像と、前記第2の画像と、前記奥行きデータとを組み合わせることを含む、
請求項2に記載の方法。 - 前記第1の画像が第1のカラー赤外線画像であり、前記第2の画像が第2のカラー赤外線画像であり、前記奥行きデータが第1の奥行きデータと第2の奥行きデータとを含み、
前記第1の画像処理回路が、
前記第1のカラー赤外線画像と前記第2のカラー赤外線画像とのカラー部分において識別された前記少なくとも1つのオブジェクトに対応する前記第1の奥行きデータを生成することと、
前記第1のカラー赤外線画像と前記第2のカラー赤外線画像との赤外線部分において識別された前記少なくとも1つのオブジェクトに対応する前記第2の奥行きデータを生成することと、
前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記カラー部分、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記赤外線部分、前記第1の奥行きデータ、前記第2の奥行きデータのうちの2つを含む、前記第1のデータパケットを生成することと、
前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記カラー部分、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記赤外線部分、前記第1の奥行きデータ、前記第2の奥行きデータのうちの、前記第1のデータパケットとは異なる別の2つを含む、第3のデータパケットを生成することと、
前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記カラー部分、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記赤外線部分、前記第1の奥行きデータ、前記第2の奥行きデータのうちの、前記第1のデータパケット及び前記第3のデータパケットとは異なる他の2つを含む、第4のデータパケットを生成することと
を行うよう更に構成される、
請求項1に記載のシステム、
又は、
前記第1の画像が第1のカラー赤外線画像であり、前記第2の画像が第2のカラー赤外線画像であり、前記奥行きデータが第1の奥行きデータと第2の奥行きデータとを含み、
前記第1の画像処理回路により、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像とのカラー部分において識別された前記少なくとも1つのオブジェクトに対応する前記第1の奥行きデータを生成することと、
前記第1の画像処理回路により、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像との赤外線部分において識別された前記少なくとも1つのオブジェクトに対応する前記第2の奥行きデータを生成することと、
前記第1の画像処理回路により、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記カラー部分、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記赤外線部分、前記第1の奥行きデータ、前記第2の奥行きデータのうちの2つを含む、第1のデータパケットを生成することと、
前記第1の画像処理回路により、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記カラー部分、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記赤外線部分、前記第1の奥行きデータ、前記第2の奥行きデータのうちの、前記第1のデータパケットとは異なる別の2つを含む、第3のデータパケットを生成することと、
前記第1の画像処理回路により、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記カラー部分、前記第1のカラー赤外線画像と前記第2のカラー赤外線画像の前記赤外線部分、前記第1の奥行きデータ、前記第2の奥行きデータのうちの、前記第1のデータパケット及び前記第3のデータパケットとは異なる他の2つを含む、第4のデータパケットを生成することと
を含む、
請求項2に記載の方法。 - 前記第1の画像処理回路が、第1の伝送インターフェイスを更に提供し、
前記第2の画像処理回路が、前記第1の伝送インターフェイスと接続する第2の伝送インターフェイスを更に提供し、
前記第1の伝送インターフェイスが、第3のチャネル上で前記第1のデータパケットを前記第2の伝送インターフェイスへ送信し、第4のチャネル上で前記第3のデータパケットを前記第2の伝送インターフェイスへ送信し、第5のチャネル上で前記第4のデータパケットを前記第2の伝送インターフェイスへ送信し、
前記第1のデータパケットが前記第3のチャネルのみに対応する第3のチャネル識別子を更に含み、前記第3のデータパケットが前記第4のチャネルのみに対応する第4のチャネル識別子を更に含み、前記第4のデータパケットが前記第5のチャネルのみに対応する第5のチャネル識別子を更に含む、
請求項7に記載のシステム、
又は、
前記第1のデータパケットを受け取るステップが、
前記第1の画像処理回路により、第1の伝送インターフェイスを提供することと、
前記第2の画像処理回路により、前記第1の伝送インターフェイスと接続する第2の伝送インターフェイスを提供することと、
前記第1の伝送インターフェイスにより、第3のチャネル上で前記第1のデータパケットを前記第2の伝送インターフェイスへ送信することであって、前記第1のデータパケットが前記第3のチャネルのみに対応する第3のチャネル識別子を更に含むことと、
前記第1の伝送インターフェイスにより、第4のチャネル上で前記第3のデータパケットを前記第2の伝送インターフェイスへ送信することであって、前記第3のデータパケットが前記第4のチャネルのみに対応する第4のチャネル識別子を更に含むことと、
前記第1の伝送インターフェイスにより、第5のチャネル上で前記第4のデータパケットを前記第2の伝送インターフェイスへ送信することであって、前記第4のデータパケットが前記第5のチャネルのみに対応する第5のチャネル識別子を更に含むことと
を含む、
請求項7に記載の方法。 - 前記第3のチャネルが物理チャネルであり、前記第4のチャネルが仮想チャネルであり、前記第5のチャネルがもう1つの仮想チャネルであり、前記第3のチャネルと前記第4のチャネルと前記第5のチャネルが、前記第2の伝送インターフェイスにおける異なるメモリブロックに対応する、
請求項8に記載のシステム、又は、請求項8に記載の方法。 - 前記第1の画像処理回路に連接され、第3の画像を生成する、第3の画像センサを更に含み、前記第1の画像が赤外線画像であり、前記第2の画像がもう1つの赤外線画像であり、前記第3の画像がカラー画像であり、
前記第1の画像処理回路が、前記第1の画像と、前記第2の画像と、前記第3の画像とにおいて識別された少前記なくとも1つのオブジェクトに対応する前記奥行きデータを生成するよう更に構成される、
請求項1に記載のシステム、
又は、
第3の画像センサにより、第3の画像を生成することを更に含み、前記第1の画像が赤外線画像であり、前記第2の画像がもう1つの赤外線画像であり、前記第3の画像がカラー画像であり、
前記奥行きデータを生成するステップが、前記第1の画像処理回路により、前記第1の画像と、前記第2の画像と、前記第3の画像とにおいて識別された前記少なくとも1つのオブジェクトに対応する前記奥行きデータを生成することを含む、
請求項2に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020157009A JP2022050854A (ja) | 2020-09-18 | 2020-09-18 | 奥行きに関連する画像を処理するシステム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020157009A JP2022050854A (ja) | 2020-09-18 | 2020-09-18 | 奥行きに関連する画像を処理するシステム及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022050854A true JP2022050854A (ja) | 2022-03-31 |
Family
ID=80854721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020157009A Pending JP2022050854A (ja) | 2020-09-18 | 2020-09-18 | 奥行きに関連する画像を処理するシステム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022050854A (ja) |
-
2020
- 2020-09-18 JP JP2020157009A patent/JP2022050854A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
US20230377183A1 (en) | Depth-Aware Photo Editing | |
CN108230384B (zh) | 图像深度计算方法、装置、存储介质和电子设备 | |
CN109509248B (zh) | 一种基于神经网络的光子映射渲染方法和系统 | |
US10602077B2 (en) | Image processing method and system for eye-gaze correction | |
JP7499280B2 (ja) | 人物の単眼深度推定のための方法およびシステム | |
US20200410705A1 (en) | System and method for processing image related to depth | |
US11039118B2 (en) | Interactive image processing system using infrared cameras | |
JP2022050854A (ja) | 奥行きに関連する画像を処理するシステム及び方法 | |
GB2585197A (en) | Method and system for obtaining depth data | |
EP3972244A1 (en) | System and method for processing image related to depth | |
CN112750157B (zh) | 一种深度图像生成方法及装置 | |
Chang et al. | Real-time Hybrid Stereo Vision System for HD Resolution Disparity Map. | |
TW202213276A (zh) | 用於處理與深度相關的影像的系統和方法 | |
US10885671B2 (en) | Method, apparatus, and non-transitory computer-readable medium for interactive image processing using depth engine and digital signal processor | |
TWI696981B (zh) | 使用紅外線攝影機的互動影像處理系統 | |
TWI696980B (zh) | 使用深度引擎和數位訊號處理器的互動影像處理方法、裝置及媒體 | |
TWI696149B (zh) | 使用深度引擎的互動影像處理方法、裝置及媒體 | |
EP3731175A1 (en) | Interactive image processing system using infrared cameras | |
KR20190072742A (ko) | 캘리브레이션된 멀티 카메라 입력 기반 실시간 초다시점 중간시점 영상 합성 방법 및 시스템 | |
CN116051647B (zh) | 一种相机标定方法和电子设备 | |
US20230316640A1 (en) | Image processing apparatus, image processing method, and storage medium | |
EP3731184A1 (en) | Method, apparatus, medium for interactive image processing using depth engine and digital signal processor | |
EP3731183A1 (en) | Method, apparatus, medium for interactive image processing using depth engine | |
US20200336655A1 (en) | Method, Apparatus, Medium for Interactive Image Processing Using Depth Engine |