JP7303930B1 - 画像処理方法、装置、電子機器および読み取り可能な記憶媒体 - Google Patents
画像処理方法、装置、電子機器および読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP7303930B1 JP7303930B1 JP2022119381A JP2022119381A JP7303930B1 JP 7303930 B1 JP7303930 B1 JP 7303930B1 JP 2022119381 A JP2022119381 A JP 2022119381A JP 2022119381 A JP2022119381 A JP 2022119381A JP 7303930 B1 JP7303930 B1 JP 7303930B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth image
- rare
- depth
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000013507 mapping Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims description 44
- 230000004927 fusion Effects 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 9
- 230000004931 aggregating effect Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 238000012856 packing Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 abstract description 4
- 238000004220 aggregation Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000280 densification Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
【課題】本発明は、画像処理方法、装置、電子機器および読み取り可能な記憶媒体を提供する。【解決手段】本発明に係る方法は、散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得すること、RGBカメラにより収集され、第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得すること、赤外線画像と、希少深度画像と、、第1の画像と、第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得すること、フレーム系列に基づいて、目標深度画像を取得することを含む。本発明は、画像処理方法、装置、電子機器および読み取り可能記憶媒体を提供する。【選択図】図1
Description
本発明は、画像処理技術分野に関し、特に画像処理方法、装置、電子機器および読み取り可能な記憶媒体に関する。
インテリジェントデバイスの発展に伴い、スマートフォンの映像はだんだん従来の平面イメージングから三次元空間映像に広がっていて、深度計算も三次元空間感知の最も核心的な部分として広く注目されている。飛行時間(Time Of Flight,TOF)技術は、光子飛行時間を計算することで物理空間における絶対深度を取得し、三次元空間映像に信頼的な深度情報を提供するものである。近年、様々なTOF方案が次々と現れ、例えば、連続パルス変調間接飛行時間(indirect Time Of Flight,iTOF)、短パルスiTOF、長パルスiTOFなどが挙げられるが、レーザデバイスと深度処理アルゴリズムの高消費電力に加えて、従来の伝統な映像アルゴリズムにより空間映像機能を実現する際、システム全体の電力消費は大きな課題に直面している。いかにiTOFの深度計算効率を向上して消費電力を低減するかは、緊急の解決を要する問題となっている。
現在のiTOF技術はいずれも、レーザビームが赤外線パルス信号を発光し、受信側が受信した赤外線エネルギーを計算することで深度情報を計算するものである。iTOF方案の全体な消費電力は、レーザデイバス自体によるものと、深度後処理アルゴリズムによるものとの2部分に分けられ、iTOF深度計算方案が完了した時に、全体な消費電力は1w近くになり、伝統な映像と組み合わせて三次元空間映像機能を実現する際、エンド側システム全体の電力消費は大きな課題に直面している。TOF深度性能に対して高い要求がある幾つかのシーン(例えば、室外ポートレート、3D再構築など)において、レーザ発光パワーの向上や、高計算力のニューラルネットワークアルゴリズムの反復最適化のエンド側への加えにより高品質の深度画像を得る必要があり、高消費電力もより深刻となる。
本発明の少なくとも一つの実施例は、iTOFの深度計算効率の向上および消費電力の低減が可能な画像処理方法、装置、電子機器および読み取り可能な記憶媒体を提供する。
上述した技術的課題を解決するために、本発明は、以下のようになされたものである。
第一の面では、本発明の実施例は、
散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得すること、
RGBカメラにより収集され、前記第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得すること、
前記赤外線画像と、前記希少深度画像と、前記第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得すること、
前記フレーム系列に基づいて、目標深度画像を取得すること、を含む画像処理方法を提供する。
散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得すること、
RGBカメラにより収集され、前記第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得すること、
前記赤外線画像と、前記希少深度画像と、前記第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得すること、
前記フレーム系列に基づいて、目標深度画像を取得すること、を含む画像処理方法を提供する。
第二の面では、本発明の実施例は、
散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得するための第1処理モジュール、
RGBカメラにより収集され、前記第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得するための第2処理モジュール、
前記赤外線画像と、前記希少深度画像と、前記第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得するための第3処理モジュール、
前記フレーム系列に基づいて、目標深度画像を取得するための第4処理モジュール、を含む画像処理装置を提供する。
散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得するための第1処理モジュール、
RGBカメラにより収集され、前記第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得するための第2処理モジュール、
前記赤外線画像と、前記希少深度画像と、前記第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得するための第3処理モジュール、
前記フレーム系列に基づいて、目標深度画像を取得するための第4処理モジュール、を含む画像処理装置を提供する。
第三の面では、本発明の実施例は、
プロセッサと、メモリと、前記メモリに記憶されて前記プロセッサで動作可能なプログラムまたはコマンドとを含み、
前記プログラムまたはコマンドが前記プロセッサにより実行されたときに、上述した第一の面に記載の画像処理方法のステップが実現される、電子機器を提供する。
プロセッサと、メモリと、前記メモリに記憶されて前記プロセッサで動作可能なプログラムまたはコマンドとを含み、
前記プログラムまたはコマンドが前記プロセッサにより実行されたときに、上述した第一の面に記載の画像処理方法のステップが実現される、電子機器を提供する。
第四の面では、本発明の実施例は、
プログラムまたはコマンドが記憶されており、
前記プログラムまたはコマンドがプロセッサにより実行されたときに、上述した第一の面に記載の画像処理方法のステップが実現される、読み取り可能記憶媒体を提供する。
プログラムまたはコマンドが記憶されており、
前記プログラムまたはコマンドがプロセッサにより実行されたときに、上述した第一の面に記載の画像処理方法のステップが実現される、読み取り可能記憶媒体を提供する。
従来技術と比べて、本発明の実施例が提供するが画像処理方法、装置、電子機器及び読み取り可能な記憶媒体では、まず、ハードウェア単体の消費電力が低い散点iTOFセンサーにより収集された第1のRAWデータを用いて、赤外線画像と希少深度画像とを取得し、RGBカメラにより収集された、第1のRAWデータとフレーム同期する第2のRAWデータを用いて、第1のYUV画像または第1深度画像である第1の画像を取得する。その後、赤外線画像と、希少深度画像と、第1の画像と、第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得する。このように、希少深度画像とYUV画像との間の画素位置マッピング関係を用いてデータ集約を実現し、iTOFの深度計算効率を向上することができる。最後に、フレーム系列に基づいて、目標深度画像を取得する。こうすることで、消費電力を節約できるだけでなく、iTOFの深度計算効率を向上することもできる。
以下は、本出願の実施例に係る図面に合せて、本出願の実施例に係る技術案を明確且つ完全に記述し、記述されている実施例が本出願の実施例の一部であり、全てではないことは明らかである。本出願に係る実施例に基づいて、当業者が創造的な労働を払わない前提で得られた他の実施例の全てはいずれも、本出願の保護する範囲に属する。
本出願の明細書および特許請求の範囲における「第1」、「第2」などの用語は、類似のオブジェクトを区別するために用いられるものであり、特定の順序または前後順序を記述するためのものではない。このように用いられるデータは、本出願の実施例がここで図示または記述されているこれらの順序以外の順序で実施され得るように、適切な場合において互いに置き換え可能であり、そして、「第1」、「第2」などで区別されるオブジェクトは、通常同類のものであり、オブジェクトの数を限定するものではなく、例えば、第1のオブジェクトは、一つでもよく、複数でもよいと理解されるべきだ。また、明細書および請求項における「及び/又は」は、接続されるオブジェクトのうちの少なくとも一つを表しており、「/」という記号は、一般的に、前後の関連オブジェクトが「または」の関係にあることを表している。
図1に示すように、本発明の実施例は画像処理方法を提供し、当該方法は、具体的に以下のステップを含むことができる。
ステップ101:散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得する。
なお、RAWデータは、CMOSまたはCCD画像センサーが、捕捉された光源信号をデジタル信号に変換するオリジナルデータである。RAWデータは、デジタルカメラセンサーのオリジナル情報を記録するとともに、カメラの撮影により発生した幾つかのメタデータ(Metadata、例えばISOの設定、シャッター速度、絞り値、ホワイトバランス等)を記録するファイルである。
散点iTOFセンサーの消費電力が低く、散点iTOFセンサーを用いて第1のRAWデータを収集する目的は、スマートフォンの電力消費を低減させるためである。ここで、散点iTOFセンサーは、ドットiTOFセンサーとも呼ばれる。
選択的には、ステップ101は、具体的に以下のステップを含むことができる。
ステップ1011:raw2depthアルゴリズムにより、第1のRAWデータに対して計算を行い、赤外線画像と希少深度画像とを取得し、赤外線画像の解像度と希少深度画像の解像度がいずれも散点iTOFセンサーの解像度と同じである。
ステップ102:RGBカメラにより収集され、第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得する。
散点iTOFセンサーとRGBカメラがそれぞれ独立したカメラIDに属し、RGBカメラがメインデバイスとされ、散点iTOFセンサーのフレーム長を動的に調整するという方式により、メインデバイスのフレームアウトに追い付かせることで、第1のRAWデータと第2のRAWデータのフレームヘッダタイムの揃えを確保する、すなわちフレーム同期を保つ。
選択的には、フレーム同期ノードを構築し、第1のRAWデータと第2のRAWデータの対応のフレームを揃わせ、t_1とt_2との時間差を計算し、t_1が第2のRAWデータにおける各フレームのRAW画像のフレームアウト時間を表し、t_2が第1のRAWデータにおける各フレームのRAW画像のフレームアウト時間を表す。t_2がt_1よりも小さく、かつ、t_1とt_2との差が第1所定閾値よりも大きい(すなわち、t_2が明らかにt_1より遅い)と検出したと、RGBカメラのフレームアウト時間に追い付くように、散点iTOFセンサーの露光時間を短く調整し、フレーム長を短く調整する。t_2がt_1よりも大きく、かつ、t_2とt_1との差が第2所定閾値よりも大きい(すなわち、t_2が明らかにt_1より早い)と検出したと、RGBカメラのフレームアウトを待つように、散点iTOFセンサーの露光時間を長く調整し、フレーム長を長く調整する。最後に、フレーム同期が保たれた第1のRAWデータと第2のRAWデータとを保存する。具体的には、同期済みのTOFフレームとRGBフレームをそれぞれRaw_TOFとRaw_RGBとして保存する。また、第1のRAWデータにおける各フレームのRAW画像に対応するフレームアウト時間を時間情報として保存する。各フレームのRAW画像に対応するフレームアウト時間は具体的にフレームヘッダタイムスタンプであることができる。
選択的には、RGBカメラの数が一つである場合、第1の画像は第1のYUV画像であり、RGBカメラの数が二つである場合、第1の画像は第1深度画像である。
相応に、一つの選択的な実施形態として、ステップ102は、具体的に以下のステップを含むことができる。
ステップ1021a:RGBカメラの数が一つである場合、第2のRAWデータに対して画像信号処理(Image Signal Process,ISP)変換を行い、第1のYUV画像を取得する。
別の選択的な実施形態として、ステップ102は、具体的に以下のステップを含むことができる。
ステップ1021b:RGBカメラの数が二つである場合、二つのRGBカメラにより収集された第2のRAWデータの各々に対してISP変換を行い、第2のYUV画像と第3のYUV画像とを取得し、第2のYUV画像と第3のYUV画像とに基づいて、第1深度画像を取得する。
ステップ103:赤外線画像と、希少深度画像と、第1の画像と、第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得する。
なお、第1のRAWデータが第2のRAWデータとフレーム同期するため、時間情報が第1のRAWデータにおける各フレームのRAW画像に対応するフレームアウト時間を含むか、時間情報が第2のRAWデータにおける各フレームのRAW画像に対応するフレームアウト時間を含む。
なお、第1マッピング関係は、散点iTOFセンサに対応するメモリチップ内に予め記憶され、例えば、散点iTOFセンサに対応する電気的消去可能プログラマブルメモリ(Electrically Erasable Programmable Read Only Memory,EEPROM)内に予め記憶される。あるいは、第1マッピング関係は、RGBカメラに対応するメモリチップ内に予め記憶され、例えば、RGBカメラに対応するEEPROM内に予め記憶される。
このステップでは、希少深度画像とYUV画像との間の画素位置マッピング関係を用いて、赤外線画像と、希少深度画像と、第1の画像と、時間情報とを再集約し、最後にフレーム系列を形成し、計算の複雑度を効果的に低減し、iTOFの深度計算効率を向上することができる。詳細な実施プロセスについては、実施例1を詳しく参照する。
ステップ104:フレーム系列に基づいて、目標深度画像を取得する。
選択的には、深度補完アルゴリズムによりフレーム系列を計算し、高品質の深度画像を得る。詳細な実施プロセスについては、実施例2を詳しく参照する。
実施例1
一つの選択的な実施形態として、ステップ103は、具体的に以下のステップを含むことができる。
一つの選択的な実施形態として、ステップ103は、具体的に以下のステップを含むことができる。
ステップ1031:第1マッピング関係に基づいて、希少深度画像を圧縮処理し、圧縮後の希少深度画像を取得する。
ステップ1031は、具体的に以下のステップを含むことができる。
ステップ10311:第1マッピング関係に基づき、希少深度画像における第1のデータを除去して、圧縮後の希少深度画像を取得し、第1のデータが散点に対応しない位置におけるデータであり、圧縮後の希少深度画像が第2のデータと、第2のデータのYUV画像における対応の画素位置とを含み、第2のデータが散点に対応する位置におけるデータである。
希少深度画像は、散点に対応する位置のみが有効深度値であり、残りがすべて無効データである。このため、第1マッピング関係を用いて、希少深度画像における第1のデータ(すなわち、散点に対応しない位置におけるデータ、つまり無効データ)を除去し、第2のデータ(散点に対応する位置におけるデータ、つまり、有効深度値)および第2のデータのYUV画像における対応の画素位置(具体的には、第2のデータのYUV画像における対応の領域の番号であってよい)のみを保留する。
ステップ1032:時間情報に基づき、第1の画像と圧縮後の希少深度画像との時間差が所定閾値よりも小さい第1条件を満たす第1の画像と、圧縮後の希少深度画像と、赤外線画像とを選択し、圧縮後の希少深度画像と圧縮前の希少深度画像と赤外線画像との時間が一致している。
ステップ1033:各フレームのデータのいずれに対しても、第1条件を満たす第1の画像と圧縮後の希少深度画像と赤外線画像とを、第1の画像、赤外線画像、圧縮後の希少深度画像の順でデータパッキングし、フレーム系列を取得する。
ここで、時間的に最も近い第1の画像と圧縮後の希少深度画像と赤外線画像とを選択して上述した配列順序でデータパッキングすることにより、フレーム系列を形成する。
実施例2
一つの選択的な実施形態として、ステップ104は、具体的に以下のステップを含むことができる。
一つの選択的な実施形態として、ステップ104は、具体的に以下のステップを含むことができる。
ステップ1041:フレーム系列をデータ分割して、第1の画像と圧縮後の希少深度画像と赤外線画像とを取得する。
ステップ1042:第1の画像と圧縮後の希少深度画像とに基づいて、初期稠密深度画像を取得する。
ステップ1042は、具体的に以下のステップを含むことができる。
S11:第1の画像に対して特徴抽出を行い、第1特徴情報を取得する。
S12:圧縮後の希少深度画像に対して特徴抽出を行い、第2特徴情報を取得する。
S13:第1特徴情報と第2特徴情報とを特徴融合し、融合後の特徴情報を取得する。
S14:融合後の特徴情報をデコードし、初期稠密深度画像を取得する。
なお、上述したステップS11~S14は、あらかじめトレーニングされた第1のニューラルネットワークにおいて完成され得る。
選択的には、第1のニューラルネットワークは、融合ネットワーク(Fusion Net)であり、当該Fusion Netにおける2つのエンコーダはそれぞれ第1の画像の特徴情報と圧縮後の希少深度画像の特徴情報を抽出し、その後、抽出された特徴情報に対して融合を行い、最後に、Fusion Netにおけるデコーダは、融合後の特徴情報をデコードし、初期稠密深度画像を取得する。
ステップ1043:初期稠密深度画像と赤外線画像とに基づいて、最適化深度画像を取得する。
ステップ1043は、具体的に以下のステップを含むことができる。
S21:赤外線画像の領域特徴を取得する。
S22:赤外線画像の領域特徴に基づいて、初期稠密深度画像に対して予測調整を行い、最適化深度画像を取得する。
ここで、赤外線画像と希少深度画像にはより明確な対応関係があるため、赤外線画像の領域特徴に基づき、初期稠密深度画像に対してさらに予測調整を行って、最適化深度画像を取得することができる。
なお、上述したステップS21~S22は、あらかじめトレーニングされた第2のニューラルネットワークにおいて完成され得る。
選択的には、第2のニューラルネットワークは予測ネットワーク(Projection Net)であり、当該Projection Netに赤外線画像と初期稠密深度画像とを入力して、最適化深度画像を出力する。
ステップ1044:最適化深度画像と第1の画像に基づいて、目標深度画像を取得する。
ステップ1044は、具体的に以下のステップを含むことができる。
S31:第1の画像に対して特徴抽出を行い、第1特徴情報を取得する。
S32:第1特徴情報に基づき、最適化深度画像に対して較正最適化処理を行い、目標深度画像を取得する。
第1の画像と赤外線画像とに基づいて希少深度点に対し融合・補完を行うときに、画像および物体の縁部には依然として不連続な誤推定深度値が現れやすいため、最適化深度画像を出力した後に、第1特徴情報に基づき、最適化深度画像に対して較正最適化処理を行う。その目的は、高品質の深度画像、すなわち目標深度画像を取得するためである。
なお、上述したステップS31~S32は、あらかじめトレーニングされた第3のニューラルネットワークにおいて完成され得る。
選択的には、第3のニューラルネットワークは最適化ネットワーク(Refine Net)であり、当該Refine Netに最適化深度画像と第1の画像とを入力して、高品質の深度画像を出力する。
上述した実施例2における3つのニューラルネットワークによる処理を経て、iTOFの深度計算効率をさらに向上することができる。
以下は、図2の示例を参照して、本発明の実施例に係る画像処理方法の実施プロセスを詳しく説明する。
まず、次のことを説明する。画像処理方法は電子機器により実行され、電子機器内には、散点iTOFセンサー、1つのRGBカメラ、システムオンチップ(System On Chip,SOC)、および、特定用途向け集積回路(Application Specific Integrated Circuit,ASIC)は実装される。具体的には、SOCは、DDRメモリ、グラフィックプロセッサ(Graphics Processing Unit,GPU)およびデジタル信号処理(Digital Signal Processing,DSP)モジュールを含む。
当該画像処理方法は、具体的に以下のステップを含むことができる。
ステップ201:3D映像アプリが高品質のiTOF深度画像を取得する必要があるときに、散点iTOFセンサーとRGBカメラを同時に起動し、散点iTOFセンサーにより、iTOF RAWデータ、iTOF RAWデータのフレームヘッダタイムスタンプ情報、および、iTOF EEPROMに予め記憶された希少深度画像とYUV画像との間の画素位置マッピング関係を取得し、RGBカメラにより、RGB RAWデータとRGB RAWデータのフレームヘッダタイムスタンプ情報を取得する。
ここで、3D映像アプリは、電子機器にインストールされる。
散点iTOFセンサーとRGBカメラがそれぞれ独立したカメラIDに属するため、RGBカメラがメインデバイスとされ、散点iTOFセンサーのフレーム長を動的に調整するという方式により、メインデバイスのフレームアウトに追い付き、iTOF RAWデータのフレームヘッダタイムとRGB RAWデータのフレームヘッダタイムとの揃えを確保する必要がある。具体的な動的調整プロセスについては、ステップ102の部分における説明を詳しく参照する。ここで再度述べない。
ステップ202:散点iTOFセンサーとRGBカメラはそれぞれ、取得した情報をSOCに伝送する。
ステップ203:SOCは、raw2depthアルゴリズムを用いてiTOF RAWデータを計算し、散点iTOFセンサーと同じ解像度の希少深度画像および対応の赤外線画像を取得し、ISPによりRGB RAWデータをYUV画像に変換する。
ステップ204:SOCは、赤外線画像と、希少深度画像と、YUV画像と、RAWデータのフレームヘッダタイムスタンプと、希少深度画像とYUV画像との間の画素位置マッピング関係とをデータ集約し、ロング・フレーム系列を取得し、ロング・フレーム系列をDDRメモリに記憶する。
なお、具体的なデータ集約処理プロセスについて、上述したステップ103の部分における説明を参考することができる。ここで、再度述べない。
このステップでは、希少深度画像とYUV画像との間の画素位置マッピング関係を用いて、希少深度画像を再集約し、無効データを除去し、後続で、取得されたロング・フレーム系列をASICに伝送するときに必要な帯域幅を効果的に低減し、効率を向上することができる。
ステップ205:SOCは、3D映像アプリから渡された深度計算タグを受信したと、記憶されたロング・フレーム系列をASICに伝送する。
具体的には、ロング・フレーム系列をASICにおけるメモリー・プール(Memory pool)に伝送する。ASICは、Fusion Net、Projection Net、および、Refine Netをさらに含む。
ステップ206:Fusion Netは、ロング・フレームにおけるYUV画像と希少深度画像(圧縮後)を読み出し、その後、当該Fusion Netにおける2つのエンコーダはそれぞれYUV画像の特徴情報と圧縮後の希少深度画像の特徴情報を抽出し、その後、抽出された特徴情報に対して融合を行い、最後に、Fusion Netにおけるデコーダは、融合後の特徴情報をデコードし、初期稠密深度画像を取得する。
ステップ207:Projection Netは、初期稠密深度画像とロング・フレームにおける赤外線画像とを取得し、赤外線画像の領域特徴に基づき、初期稠密深度画像に対してさらに予測調整を行い、最適化深度画像を取得する。
ステップ208:Refine Netは、Memory poolからYUV画像を読み出し、YUV画像の特徴情報を抽出し、YUV画像の特徴情報を用いて、最適化深度画像に対し誤較正最適化を行い、高品質の深度画像を取得する。
ステップ209:高品質の深度画像とタイムスタンプ情報をMemory poolに記憶すると共に、SOCに計算済みのタグを送信する。
ステップ210:SOCは、深度計算済みのタグを受信した後に、後続の3D映像アプリによる使用のためにASICのMemory poolから高品質の深度画像を読み出す。
本示例では、低消費電力の散点iTOFセンサーから出力された希少深度画像に対して、YUV画像を用いて補完最適化を行う。高性能の深度画像に必要な稠密化アルゴリズムは、複数層のニューラルネットワークの複数回の反復処理を要するものであり、計算力に対する要求が高い。本示例は、特化されたDepth ASICを用いて、深度補完アルゴリズムに対し加速処理を行い、高品質の深度画像の出力を確保したうえで、低消費電力のiTOF深度計算を実現した。
図3に示すように、本発明の実施例は、画像処理装置を提供する。当該装置は、
散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得するための第1処理モジュール310、
RGBカメラにより収集され、第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得するための第2処理モジュール320、
赤外線画像と、希少深度画像と、第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得するための第3処理モジュール330、
フレーム系列に基づいて、目標深度画像を取得するための第4処理モジュール340、を含む。
散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得するための第1処理モジュール310、
RGBカメラにより収集され、第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得するための第2処理モジュール320、
赤外線画像と、希少深度画像と、第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得するための第3処理モジュール330、
フレーム系列に基づいて、目標深度画像を取得するための第4処理モジュール340、を含む。
選択的には、第3処理モジュール330は、
第1マッピング関係に基づいて、希少深度画像を圧縮処理し、圧縮後の希少深度画像を取得するための第1処理手段、
時間情報に基づき、第1の画像と圧縮後の希少深度画像との時間差が所定閾値よりも小さい第1条件を満たす第1の画像と、圧縮後の希少深度画像と、赤外線画像とを選択するための第2処理手段であって、圧縮後の希少深度画像と圧縮前の希少深度画像と赤外線画像との時間が一致している第2処理手段、
各フレームのデータのいずれに対しても、第1条件を満たす第1の画像と圧縮後の希少深度画像と赤外線画像とを、第1の画像、赤外線画像、圧縮後の希少深度画像の順でデータパッキングし、フレーム系列を取得するための第3処理手段、を含む。
第1マッピング関係に基づいて、希少深度画像を圧縮処理し、圧縮後の希少深度画像を取得するための第1処理手段、
時間情報に基づき、第1の画像と圧縮後の希少深度画像との時間差が所定閾値よりも小さい第1条件を満たす第1の画像と、圧縮後の希少深度画像と、赤外線画像とを選択するための第2処理手段であって、圧縮後の希少深度画像と圧縮前の希少深度画像と赤外線画像との時間が一致している第2処理手段、
各フレームのデータのいずれに対しても、第1条件を満たす第1の画像と圧縮後の希少深度画像と赤外線画像とを、第1の画像、赤外線画像、圧縮後の希少深度画像の順でデータパッキングし、フレーム系列を取得するための第3処理手段、を含む。
選択的には、第1処理手段は、具体的に、第1マッピング関係に基づき、希少深度画像における第1のデータを除去して、圧縮後の希少深度画像を取得するためのものであり、第1のデータが散点に対応しない位置におけるデータであり、圧縮後の希少深度画像が第2のデータと、第2のデータのYUV画像における対応の画素位置とを含み、第2のデータが散点に対応する位置におけるデータである。
選択的には、第4処理モジュール340は、
フレーム系列をデータ分割して、第1の画像と圧縮後の希少深度画像と赤外線画像とを取得するための第4処理手段、
第1の画像と圧縮後の希少深度画像とに基づいて、初期稠密深度画像を取得するための第5処理手段、
初期稠密深度画像と赤外線画像とに基づいて、最適化深度画像を取得する第6処理手段、
最適化深度画像と第1の画像に基づいて、目標深度画像を取得する第7処理手段、を含む。
フレーム系列をデータ分割して、第1の画像と圧縮後の希少深度画像と赤外線画像とを取得するための第4処理手段、
第1の画像と圧縮後の希少深度画像とに基づいて、初期稠密深度画像を取得するための第5処理手段、
初期稠密深度画像と赤外線画像とに基づいて、最適化深度画像を取得する第6処理手段、
最適化深度画像と第1の画像に基づいて、目標深度画像を取得する第7処理手段、を含む。
選択的には、第5処理手段は、
第1の画像に対して特徴抽出を行い、第1特徴情報を取得し、
圧縮後の希少深度画像に対して特徴抽出を行い、第2特徴情報を取得し、
第1特徴情報と第2特徴情報とを特徴融合し、融合後の特徴情報を取得し、
融合後の特徴情報をデコードし、初期稠密深度画像を取得するためのものである。
第1の画像に対して特徴抽出を行い、第1特徴情報を取得し、
圧縮後の希少深度画像に対して特徴抽出を行い、第2特徴情報を取得し、
第1特徴情報と第2特徴情報とを特徴融合し、融合後の特徴情報を取得し、
融合後の特徴情報をデコードし、初期稠密深度画像を取得するためのものである。
選択的には、第6処理手段は、具体的に、
赤外線画像の領域特徴を取得し、
赤外線画像の領域特徴に基づいて、初期稠密深度画像に対して予測調整を行い、最適化深度画像を取得するためのものである。
赤外線画像の領域特徴を取得し、
赤外線画像の領域特徴に基づいて、初期稠密深度画像に対して予測調整を行い、最適化深度画像を取得するためのものである。
選択的には、第7処理手段は、具体的に、
第1の画像に対して特徴抽出を行い、第1特徴情報を取得し、
第1特徴情報に基づき、最適化深度画像に対して較正最適化処理を行い、目標深度画像を取得するためのものでる。
第1の画像に対して特徴抽出を行い、第1特徴情報を取得し、
第1特徴情報に基づき、最適化深度画像に対して較正最適化処理を行い、目標深度画像を取得するためのものでる。
選択的には、RGBカメラの数が一つである場合、第1の画像は第1のYUV画像であり、
RGBカメラの数が二つである場合、第1の画像は第1深度画像である。
RGBカメラの数が二つである場合、第1の画像は第1深度画像である。
本発明の実施例が提供する画像処理装置では、第1処理モジュールは、ハードウェア単体の消費電力が低い散点iTOFセンサーにより収集された第1のRAWデータを用いて、赤外線画像と希少深度画像とを取得する。第2処理モジュールは、RGBカメラにより収集された、第1のRAWデータとフレーム同期する第2のRAWデータを用いて、第1のYUV画像または第1深度画像である第1の画像を取得する。その後、第3処理モジュールは、赤外線画像と、希少深度画像と、第1の画像と、第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得する。このように、希少深度画像とYUV画像との間の画素位置マッピング関係を用いてデータ集約を実現し、iTOFの深度計算効率を向上することができる。最後に、第4処理モジュールは、フレーム系列に基づいて、目標深度画像を取得する。こうすることで、消費電力を節約できるだけでなく、iTOFの深度計算効率を向上することもできる。
図4に示すように、本発明の実施例は、電子機器400をさらに提供する。電子機器400は、プロセッサ401と、メモリ402と、メモリ402に記憶されてプロセッサ401で動作可能なプログラムまたはコマンドとを含み、前記プログラムまたはコマンドがプロセッサ401により実行されたときに、上述した画像処理方法の実施例における各プロセスが実現され、かつ、同様な技術的効果が達成され得る。重複を避けるために、ここで再度述べない。
なお、本発明の実施例における電子機器は、モバイル電子機器およびモバイル電子機器以外の電子機器を含む。
さらに、本発明の実施例は、読み取り可能記憶媒体をさらに提供する。前記読み取り可能記憶媒体には、プログラムまたはコマンドが記憶されており、前記プログラムまたはコマンドがプロセッサにより実行されたときに、上述した画像処理方法の実施例における各プロセスが実現され、かつ、同様な技術的効果が達成され得る。重複を避けるために、ここで再度述べない。
以上、図面に合せて、本発明に係る実施例について記述したが、本発明は上述した具体的な実施形態に限られず、上述した具体的な実施形態は例示的なものだけであり、限定的なものではない。当業者は、本発明による啓示のもとで、本発明の主旨および請求項で保護する範囲を逸脱しない場合、さまざまな形態をさらになさることができ、それらはいずれも本発明の保護に属する。
Claims (11)
- 散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得すること、
RGBカメラにより収集され、前記第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得すること、
前記赤外線画像と、前記希少深度画像と、前記第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得すること、
前記フレーム系列に基づいて、目標深度画像を取得すること、を含む
ことを特徴とする画像処理方法。 - 前記赤外線画像と、前記希少深度画像と、前記第1の画像と、時間情報と、第1マッピング関係とをデータ集約し、フレーム系列を取得することは、
前記第1マッピング関係に基づいて、前記希少深度画像を圧縮処理し、圧縮後の希少深度画像を取得すること、
前記時間情報に基づき、前記第1の画像と前記圧縮後の希少深度画像との時間差が所定閾値よりも小さい第1条件を満たす第1の画像と、圧縮後の希少深度画像と、赤外線画像とを選択し、前記圧縮後の希少深度画像と圧縮前の希少深度画像と前記赤外線画像との時間が一致していること
各フレームのデータのいずれに対しても、第1条件を満たす第1の画像と圧縮後の希少深度画像と赤外線画像とを、前記第1の画像、前記赤外線画像、前記圧縮後の希少深度画像の順でデータパッキングし、フレーム系列を取得すること、を含む
ことを特徴とする請求項1に記載の方法。 - 前記第1マッピング関係に基づいて、前記希少深度画像を圧縮処理し、圧縮後の希少深度画像を取得することは、
前記第1マッピング関係に基づき、前記希少深度画像における第1のデータを除去して、圧縮後の希少深度画像を取得することを含み、
前記第1のデータが散点に対応しない位置におけるデータであり、圧縮後の希少深度画像が第2のデータと、前記第2のデータのYUV画像における対応の画素位置とを含み、前記第2のデータが散点に対応する位置におけるデータである
ことを特徴とする請求項2に記載の方法。 - 前記フレーム系列に基づいて、目標深度画像を取得することは、
前記フレーム系列をデータ分割して、第1の画像と圧縮後の希少深度画像と赤外線画像とを取得すること、
前記第1の画像と前記圧縮後の希少深度画像とに基づいて、初期稠密深度画像を取得すること、
前記初期稠密深度画像と前記赤外線画像とに基づいて、最適化深度画像を取得すること、
前記最適化深度画像と前記第1の画像に基づいて、目標深度画像を取得すること、を含む
ことを特徴とする請求項2に記載の方法。 - 前記第1の画像と前記圧縮後の希少深度画像とに基づいて、初期稠密深度画像を取得することは、
前記第1の画像に対して特徴抽出を行い、第1特徴情報を取得すること、
前記圧縮後の希少深度画像に対して特徴抽出を行い、第2特徴情報を取得すること、
前記第1特徴情報と前記第2特徴情報とを特徴融合し、融合後の特徴情報を取得すること、
前記融合後の特徴情報をデコードし、初期稠密深度画像を取得すること、を含む
ことを特徴とする請求項4に記載の方法。 - 前記初期稠密深度画像と前記赤外線画像とに基づいて、最適化深度画像を取得することは、
前記赤外線画像の領域特徴を取得こと、
前記赤外線画像の領域特徴に基づいて、前記初期稠密深度画像に対して予測調整を行い、最適化深度画像を取得すること、を含む
ことを特徴とする請求項4に記載の方法。 - 前記最適化深度画像と前記第1の画像に基づいて、目標深度画像を取得することは、
前記第1の画像に対して特徴抽出を行い、第1特徴情報を取得すること、
前記第1特徴情報に基づき、前記最適化深度画像に対して較正最適化処理を行い、目標深度画像を取得すること、を含む
を特徴とする請求項4に記載の方法。 - 前記RGBカメラの数が一つである場合、前記第1の画像は第1のYUV画像であり、
前記RGBカメラの数が二つである場合、前記第1の画像は第1深度画像である
ことを特徴とする請求項1に記載の方法。 - 散点間接飛行時間(iTOF)センサーにより収集された第1のRAWデータに基づいて、赤外線画像と希少深度画像とを取得するための第1処理モジュール、
RGBカメラにより収集され、前記第1のRAWデータとフレーム同期する第2のRAWデータに基づいて、第1のYUV画像または第1深度画像である第1の画像を取得するための第2処理モジュール、
前記赤外線画像と、前記希少深度画像と、前記第1の画像と、前記第1の画像における各フレームのRAW画像に対応するフレームアウト時間を含む時間情報と、希少深度画像とYUV画像との間の画素位置マッピング関係である第1マッピング関係とをデータ集約し、フレーム系列を取得するための第3処理モジュール、
前記フレーム系列に基づいて、目標深度画像を取得するための第4処理モジュール、を含む
ことを特徴とする、画像処理装置。 - プロセッサと、メモリと、前記メモリに記憶されて前記プロセッサで動作可能なプログラムまたはコマンドとを含み、
前記プログラムまたはコマンドが前記プロセッサにより実行されたときに、請求項1~8のいずれか1項に記載の画像処理方法のステップが実現される、
ことを特徴とする電子機器。 - プログラムまたはコマンドが記憶されており、
前記プログラムまたはコマンドがプロセッサにより実行されたときに、請求項1~8のいずれか1項に記載の画像処理方法のステップが実現される、
ことを特徴とする読み取り可能記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022119381A JP7303930B1 (ja) | 2022-07-27 | 2022-07-27 | 画像処理方法、装置、電子機器および読み取り可能な記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022119381A JP7303930B1 (ja) | 2022-07-27 | 2022-07-27 | 画像処理方法、装置、電子機器および読み取り可能な記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7303930B1 true JP7303930B1 (ja) | 2023-07-05 |
JP2024017025A JP2024017025A (ja) | 2024-02-08 |
Family
ID=86996637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022119381A Active JP7303930B1 (ja) | 2022-07-27 | 2022-07-27 | 画像処理方法、装置、電子機器および読み取り可能な記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7303930B1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016500975A (ja) | 2012-11-01 | 2016-01-14 | グーグル インコーポレイテッド | 結合された深度キューに基づく平面視画像からの深度マップの生成 |
US20210019949A1 (en) | 2018-09-27 | 2021-01-21 | Apple Inc. | Depth map generation |
CN113344839A (zh) | 2021-08-06 | 2021-09-03 | 深圳市汇顶科技股份有限公司 | 深度图像采集装置、融合方法和终端设备 |
-
2022
- 2022-07-27 JP JP2022119381A patent/JP7303930B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016500975A (ja) | 2012-11-01 | 2016-01-14 | グーグル インコーポレイテッド | 結合された深度キューに基づく平面視画像からの深度マップの生成 |
US20210019949A1 (en) | 2018-09-27 | 2021-01-21 | Apple Inc. | Depth map generation |
CN113344839A (zh) | 2021-08-06 | 2021-09-03 | 深圳市汇顶科技股份有限公司 | 深度图像采集装置、融合方法和终端设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2024017025A (ja) | 2024-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11064110B2 (en) | Warp processing for image capture | |
CN109636754B (zh) | 基于生成对抗网络的极低照度图像增强方法 | |
KR100918480B1 (ko) | 스테레오 비전 시스템 및 그 처리 방법 | |
JP6129119B2 (ja) | 画像処理装置、画像処理システム、撮像装置、および画像処理方法 | |
US10853975B2 (en) | Hybrid projection-based point cloud texture coding | |
US8675984B2 (en) | Merging multiple exposed images in transform domain | |
US20160321772A1 (en) | Watermarking Digital Images to Increase Bit Depth | |
Lim | Characterization of noise in digital photographs for image processing | |
JP2018530225A (ja) | 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品 | |
US9877036B2 (en) | Inter frame watermark in a digital video | |
US9886961B2 (en) | Audio watermark in a digital video | |
US11783447B2 (en) | Methods and apparatus for optimized stitching of overcapture content | |
US10600170B2 (en) | Method and device for producing a digital image | |
WO2017205597A1 (en) | Image signal processing-based encoding hints for motion estimation | |
CN114391259B (zh) | 信息处理方法、终端设备及存储介质 | |
JP7303930B1 (ja) | 画像処理方法、装置、電子機器および読み取り可能な記憶媒体 | |
CN113873142B (zh) | 多媒体处理芯片、电子设备和动态图像处理方法 | |
CN116208851A (zh) | 图像处理方法及相关装置 | |
CN113727073A (zh) | 一种基于云计算实现车载视频监控的方法及系统 | |
CN107872632B (zh) | 用于p-相位数据压缩的设备和方法 | |
CN112241735A (zh) | 一种图像处理方法、装置及系统 | |
WO2023087598A1 (zh) | 增强图片的生成方法、装置、存储介质及电子装置 | |
GB2563627A (en) | Image processing | |
WO2021087810A1 (zh) | 信息处理方法和系统、编码装置、解码装置及存储介质 | |
Zhang et al. | Kinect-based 3d video conference system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7303930 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |