JP2020177617A - 深度エンジンを用いた対話型画像処理の方法、装置、媒体 - Google Patents

深度エンジンを用いた対話型画像処理の方法、装置、媒体 Download PDF

Info

Publication number
JP2020177617A
JP2020177617A JP2019096075A JP2019096075A JP2020177617A JP 2020177617 A JP2020177617 A JP 2020177617A JP 2019096075 A JP2019096075 A JP 2019096075A JP 2019096075 A JP2019096075 A JP 2019096075A JP 2020177617 A JP2020177617 A JP 2020177617A
Authority
JP
Japan
Prior art keywords
image
image processing
camera
interactive
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019096075A
Other languages
English (en)
Inventor
毅剛 謝
Yi Gang Xie
毅剛 謝
俊偉 林
jun wei Lin
俊偉 林
丞佑 許
Cheng-Yu Hsu
丞佑 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2020177617A publication Critical patent/JP2020177617A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ソフトウェア計算による負荷を低減することである。【解決手段】第1のカメラ、第2のカメラ、画像処理回路、ビジョン処理装置、画像信号プロセッサ、中央処理部、およびメモリ装置を含む対話型画像処理装置を開示する。本開示は、従来技術におけるデジタル信号プロセッサによる深度計算の負担を軽減するために、画像処理回路を利用して、対話型画像処理システムのフロントエンドにおいて第1のカメラ及び第2のカメラによって生成された原画像に従って深度データを計算する。【選択図】図1

Description

本開示は、対話型画像処理の方法、装置、および媒体に関し、より詳細には、最初に深度エンジンによって深度計算が実行される対話型画像処理の方法、装置、および媒体に関する。
典型的なステレオ画像処理システムにおいて、赤緑青の画像センサまたはカメラからの原画像は、通常、画像解析、再構成、画質向上(自動ホワイトバランス、露光値、およびコントラスト較正を含む)、および深度計算などの種々の前処理動作を受ける。
その後、再構成された画像及び対応する深度は、仮想現実装置、ラップトップコンピュータ、タブレットコンピュータ、デスクトップコンピュータ、携帯電話、インタラクティブプロジェクタ、テレビジョンセット、又は他の電子コンシューマ装置のようなインタラクティブインタフェースを提供するビデオゲームシステム、キオスク又は他のシステムにおいて実行されるアプリケーションを処理するための中央処理部に入力される。
従来、これらの前処理動作(すなわち、画像解析、再構成、画質向上、および深度計算)は、特定のプロセッサがメモリ装置と協働して別途実行して、ソフトウェア計算で実現されている。例えば、DSP(ディジタル信号プロセッサ)が、深度計算のために特別に設計され、ドライバプログラムコードが、DSPに命令をして深度計算を実行するように構成されている。
しかし、ソフトウェア計算には、メモリ装置との間でデータの読み込みと書き込みに時間と電力がかかる。そのため、ソフトウェア計算による負荷をどのように低減するかが業界の課題となっている。
従って、本開示の目的は、対話型画像処理の方法、装置、および媒体を提供することである。
本開示は、対話型画像処理システムであって、第1の画像を生成するように構成された第1のカメラと、第2の画像を生成するように構成された第2のカメラと、前記第1のカメラおよび前記第2のカメラに結合され、第1の画像および第2の画像において識別された少なくとも1つのオブジェクトに対応する深度データを計算するように構成された画像処理回路と、前記画像処理回路に結合され、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを実行するように構成されたビジョン処理部と、前記ビジョン処理部に結合され、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理するように構成された画像信号プロセッサと、前記画像信号プロセッサに結合され、第3のプログラムコードに従って、計算結果を生成するように構成された中央処理部とを有する、対話型画像処理装置を開示する。
本開示は、対話型画像処理システムのための対話型画像処理方法を開示している。本方法は、画像処理回路を使用して、前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とで識別された少なくとも1つのオブジェクトに対応する深度データを計算することと、前記対話型画像処理システムのビジョン処理部を使用して、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを行うことと、前記対話型画像処理システムの画像信号プロセッサを使用して、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理することと、対話型画像処理システムの中央処理部を使用して、第3のプログラムコードに従って、計算結果を生成することとを含む。
本開示は、対話型画像処理システムのための記憶装置であって、前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とを記憶する媒体と、前記対話型画像処理システムのビジョン処理部に命令を与えるように構成された第1のプログラムコードであって、前記第1のプログラムコードと、前記対話型画像処理システムの画像処理回路によって生成される深度データに従って第1の画像および第2の画像にステレオマッチングを実行するように構成された第1のプログラムコードと、前記対話型画像処理システムの画像信号プロセッサに命令を与えるように構成された第2のプログラムコードであって、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理する第2のプログラムコードと、対話型画像処理システムの中央処理部に命令を与えるように構成された第4のプログラムコードであって、計算結果を生成することとを含む第4のプログラムコードとを含む記憶装置を開示する。
本開示は、従来技術におけるデジタル信号プロセッサによる深度計算の負担を軽減するために、画像処理回路を利用して、対話型画像処理システムのフロントエンドにおいて第1のカメラ及び第2のカメラによって生成された原画像に従って深度データを計算する。
当業者には、様々な図面に示した好ましい実施形態の詳細な説明を読めば、本発明の上記その他の目的が明らかにあるであろう。
本開示の一実施形態による、対話型画像処理システムの機能ブロック図である。 本開示の一実施形態による、画像処理回路の機能ブロック図である。 本開示の一実施形態による、対話型画像処理システムの機能ブロック図である。 本開示の一実施形態による、対話型画像処理システムの機能ブロック図である。 本開示の一実施形態による、対話型画像処理システムの機能ブロック図である。 本開示の一実施形態による、画像処理プロセスのフローチャートである。 本開示の一実施形態による、画像処理プロセスのフローチャートである。
図1は、本開示の一実施形態による、対話型画像処理システム1の機能ブロック図である。対話型画像処理システム1は、第1のカメラ11、第2のカメラ12、画像処理回路13、ビジョン処理部14、画像信号プロセッサ15、中央処理部16、メモリ装置17を含む。
第1のカメラ11及び第2のカメラ12は、画像処理回路13に結合され、画像処理回路13にそれぞれ画像M1及びM2を生成するように構成される。
画像処理回路13は、第1のカメラ、第2のカメラ12及びビジョン処理部14に結合され、深度ハードウェアエンジンとみなされ、画像M1及びM2において識別されるオブジェクトに対応する深度データDを計算するように構成される。具体的には、画像処理回路13は、画像M1及びM2のオブジェクトを識別し、基準パラメータ(例えば、第1のカメラ11と第2のカメラ12との間の距離)を考慮して、識別されたオブジェクトに対応する距離を計算する。ここで深度データDは、識別されたオブジェクトに対応する距離を含む。
一実施形態では、画像処理回路13は、同一の位置合わせマークを有する画像M1及びM2を、第1チャネルのタグを有する同一のデータパッケージに結合し、深度データD及びダミーデータDYを、第2チャネルのタグを有する同一のデータパッケージに結合する。第1チャネルは物理ウェイ(physical way)であり、第2チャネルは仮想ウェイ(virtual way)である。このようにして、ビジョン処理部14は、データパッケージのタグにより、物理ウェイのデータパッケージを仮想ウェイのデータパッケージから区別できる。一実施形態では、画像処理回路13は、2つの画像M1、M2、深度データD及びダミーデータDYを第1チャネルのタグを有するデータパッケージに結合し、他の2つの画像M1、M2、深度データD及びダミーデータDYを第2チャネルのタグを有するデータパッケージに結合する。当業者は、実用的な要件に従ってデータパッケージの内容を変更することができる。
ビジョン処理部14は、画像処理回路13及び画像信号プロセッサ15に結合され、深度データに応じて画像M1及びM2にステレオマッチングを行うように構成されている。また、ビジョン処理部14は、画像M1及びM2に応じて、特定の図形又はパターン(例えば、ハンドジェスチャ)で、少なくとも1つの抽出オブジェクトを判定する。
画像信号プロセッサ15は、ビジョン処理部14及び中央処理部16に結合され、原画像M1、M2に自動ホワイトバランス、露出値校正を行い、被写体認識および深度計算のため画質向上をするように構成される。一実施形態では、画像処理回路13、ビジョン処理部14および画像信号プロセッサ15は、単一チップに集積されてもよい。
中央処理部16は、画像信号プロセッサ15及びメモリ装置17に結合され、画像M1及びM2並びに対応する深度データDに基づいて、ハンドモーション検出及び追跡、空間走査、オブジェクト走査、AR(拡張現実)シースルー、6Dof(6自由度)、及びSLAM(同時位置決め及びマッピング)のためのアプリケーションに関する計算結果を生成するように構成される。
メモリ装置17は、ビジョン処理部14、画像信号プロセッサ15および中央処理部16に結合され、対応する処理部に特定のアルゴリズム計算を実行するように指示するプログラムコードを記憶するように構成される。一実施形態では、メモリ装置17は、中央処理部16に集積され、ビジョン処理部14および画像信号プロセッサ15のうちの少なくとも1つは、中央処理部16からプログラムコードにアクセスして、関連機能を実行してもよい。
対話型画像処理システム1のアーキテクチャの下では、本開示は、先行技術におけるデジタル信号プロセッサのソフトウェア計算を置き換えるために、まず、画像処理回路13(すなわち、深度ハードウェアエンジン)を用いて、原画像M1及びM2に対応する深度データDを計算する。その後、ビジョン処理部14及び画像信号プロセッサ15の動作により、より良い画質を有する画像M1及びM2と、より高い精度を有する対応する深度データとを得ることができる。従って、アプリケーションを処理するための中央処理部16の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
図2は、本開示の一実施形態による、画像処理回路の機能ブロック図である。画像処理回路13は、画像において識別されたオブジェクトに対応する深度データDを計算するように構成されたASIC(特定用途向け集積回路)であってもよい。
画像処理回路13は、画像解析回路21、オブジェクト抽出回路22、オブジェクト深度計算回路23、重複オブジェクト深度計算回路24、及びマルチプレクサ25を含む。
画像解析回路21は、画質を高めるために画像M1及びM2の画素値を調整するか否かを決定するように構成される。例えば、画像M1及びM2が暗すぎる場合、画像解析回路21は、画像M1及びM2の露出値を増加させて、その後のオブジェクト抽出動作のためのより良い画質を得る。
オブジェクト抽出回路22は、画像解析回路21に結合され、第1の画像M1及び第2の画像M2から少なくとも1つのオブジェクトを識別するように構成される。
オブジェクト深度計算回路23は、オブジェクト抽出回路22に結合され、第1のカメラ11と第2のカメラ12との間の距離、少なくとも1つのオブジェクトが第1の画像M1にある場合と少なくとも1つのオブジェクトが第2の画像M2にある場合との画素距離、および三角測量法に従って、少なくとも1つのオブジェクトの第1の深度を計算するように構成される。
重複オブジェクト深度計算回路24は、オブジェクト深度計算回路23に結合され、少なくとも2つの重複オブジェクトの第2の深度を計算し、第1の深度と第2の深度を含む深度データDを出力するように構成される。
マルチプレクサ25は、重複オブジェクト深度計算回路24に結合され、制御信号に従って、第1の画像M1、第2の画像M2および深度データDのうちの1つを出力するように構成される。
本開示は、画像処理回路13を利用して、従来技術におけるデジタル信号プロセッサによる深度計算の負担を軽減するために、対話型画像処理システム1のフロントエンドにおける原画像M1及びM2により深度データDを計算する。
図3は、本開示の一実施形態による、対話型画像処理システム3の機能ブロック図である。対話型画像処理システム3は、第1のカメラ11、第2のカメラ12、画像処理回路13、ビジョン処理部14、画像信号プロセッサ15、中央処理部16、メモリ装置37およびデジタル信号プロセッサ38を含む。
対話型画像処理システム1および3は類似しており、同じ要素は同じ記号で示されている。デジタル信号プロセッサ38は、画像信号プロセッサ15と中央処理部16との間に結合され、第4のプログラムコードおよび深度データDに従って、画像M1およびM2をステレオグラフィMSに変換するように構成される。例えば、ステレオグラフィMSは、二次元面上に投影される三次元オブジェクトを含む。
メモリ装置37は、デジタル信号プロセッサ38に結合され、デジタル信号プロセッサ38にステレオグラフィ変換(stereography conversion)を実行するように命令する第4のプログラムコードを記憶するように構成される。
対話型画像処理システム3のアーキテクチャの下で、本開示は、画像処理回路13を使用して、まず2つの原画像M1及びM2に対応する深度データDを計算し、デジタル信号プロセッサ38を使用して、ステレオグラフィ変換を行い、中央処理部16の負担を軽減する(図1の実施例では、中央処理部16がステレオ変換を処理することに注意されたい)。従って、中央処理部16のソフトウェア計算の消費電力が節約され得る。
図4は、本開示の一実施形態による、対話型画像処理システム4の機能ブロック図である。対話型画像処理システム4は、第1のカメラ41、第2のカメラ42、第3のカメラ40、画像処理回路43、ビジョン処理部44、画像信号プロセッサ45、中央処理部16、メモリ装置47、デジタル信号プロセッサ48、および赤外線光源49を含む。
本実施形態では、第1のカメラ41および第2のカメラ42は、赤外線画像IR1およびIR2(ここで、赤外線画像IR1およびIR2の画像画素は、グレースケール値で画定される)を生成するための赤外線カメラであり、第3のカメラ40は、カラー画像RGB(赤−緑−青)を生成するためのRGB(赤−緑−青)カメラである(ここで、カラー画像RGBの画像画素は、赤、緑、および青の画素によって画定される)。赤外線光源49は、第1のカメラ41および第2のカメラ42によるIR(赤外線)画像変換のための利用可能な周辺光を増大するように構成される
画像処理回路43は、第1のカメラ41、第2のカメラ42および第3のカメラ40に結合され、赤外線画像IR1およびIR2、ならびにカラー画像RGBに従って深度データDを計算するように構成される。画像処理回路43は、更に、赤外線画像IR1及びIR2を同じデータパッケージ(例えば、IRサイドバイサイド)に結合するか、又はカラー画像RGBと深度データDを同じデータパッケージに結合するか、又は赤外線画像IR1及びIR2の一方と深度データDを同じデータパッケージに結合する。
ビジョン処理部44は、画像処理回路43に結合され、赤外線画像IR1およびIR2にステレオマッチング(stereo matching)を行い、グレースケールマッチング画像を生成し、グレースケールマッチング画像およびカラー画像RGBにカラーマッチングを行い、カラーマッチング画像RGBIR(カラーマッチング画像RGBIRの画像画素は、赤、緑、青、およびIR/グレースケール画素によって画定される)を生成するように構成される。
画像信号プロセッサ45は、ビジョン処理部44に結合され、カラーステレオグラフィRGBIRに自動ホワイトバランスおよび露出値校正を行い、オブジェクト認識および深度計算のために画質向上をするように構成される。
デジタル信号プロセッサ48は、画像信号プロセッサ45に結合され、深度データDに従ってカラーマッチング画像RGBIRをステレオグラフィMSに変換するように構成される。
中央処理部16は、デジタル信号プロセッサ48およびメモリ装置47に結合され、ステレオグラフィMSおよび対応する深度データDに基づき、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成するように構成される。
メモリ装置47は、ビジョン処理部44、画像信号プロセッサ45、デジタル信号プロセッサ48および中央処理部46に結合され、対応する処理部に特定のアルゴリズム計算を実行するように指示するプログラムコードを記憶するように構成される。
対話型画像処理システム4のアーキテクチャの下では、2つのIRカメラ、IR光源および1つのRGBカメラを使用する場合、深度品質は安定している。従って、アプリケーションを処理するための中央処理部16の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
図5は、本開示の一実施形態による、対話型画像処理システム5の機能ブロック図である。対話型画像処理システム5は、第1のカメラ51、第2のカメラ52、画像処理回路53、ビジョン処理部54、画像信号プロセッサ55、中央処理部16、メモリ装置57、デジタル信号プロセッサ58、およびランダムドット赤外線光源59を含む。
本実施形態では、第1のカメラ51および第2のカメラ52は、カラー赤外線画像RGBIR1およびRGBIR2(ここで、赤外線画像RGBIR1およびRGBIR2の画像画素は、赤色、緑色、青色、およびグレースケール画素によって画定される)を生成するカラー赤外線カメラである。ランダムドット赤外線光源59は、第1のカメラ51および第2のカメラ52によるIR画像変換のために利用可能な周辺光を増大するように構成される
画像処理回路53は、第1のカメラ51および第2のカメラ52に結合され、カラー赤外線画像RGBIR1およびRGBIR2に従って深度データDを計算するように構成される。
画像処理回路53は、さらに、カラー赤外線画像RGBIR1及びRGBIR2から赤色、緑色、及び青色の画素を抽出し、カラー赤外線画像RGBIR1及びRGBIR2の色成分を、同じデータパッケージに結合する。これは、ARシースルーアプリケーションに適用されるRGBサイドバイサイドとして知られている。
画像処理回路53は、さらに、カラー赤外線画像RGBIR1およびRGBIR2のIR成分を同じデータパッケージに抽出する。このデータパッケージは、SLAM、ハンドモーション検出および追跡、6つのDofアプリケーションに適用されるIRサイドバイサイド(IR side by side)として知られている。
画像処理回路53は、さらに、深度データDとカラー赤外線画像RGBIR1の色成分とを同じデータパッケージに結合し、このデータパッケージは、第1のカメラ51の視角(view angle)に基づいて空間走査およびオブジェクト走査アプリケーションに適用可能である。一実施形態では、画像処理回路53は、さらに、深度データDとカラー赤外線画像RGBIR2の色成分とを同じデータパッケージに結合し、このデータパッケージは、第2のカメラ52の視角(view angle)に基づいて空間走査およびオブジェクト走査アプリケーションに適用可能である。
ビジョン処理部54は、画像処理回路53に結合され、第1のカメラ51と第2のカメラ52の視角に基づいて、それぞれ、カラー赤外線画像RGBIR1とRGBIR2にステレオマッチングを行い、カラーマッチング画像RGBD1とRGBD2を生成するように構成される。
画像信号プロセッサ55は、ビジョン処理部54に結合され、カラーステレオグラフィRGBD1およびRGBD2に自動ホワイトバランスおよび露出値校正を行い、オブジェクト認識および深度計算のために画質向上をするように構成される。
デジタル信号プロセッサ58は、画像信号プロセッサ55に結合され、深度データDに従ってカラーマッチング画像RGBD1またはRGBD2をステレオグラフィMSに変換するように構成される。
中央処理部16は、デジタル信号プロセッサ58およびメモリ装置57に結合され、ステレオグラフィMSおよび対応する深度データDに基づき、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成するように構成される。
メモリ装置57は、ビジョン処理部54、画像信号プロセッサ55、デジタル信号プロセッサ58および中央処理部56に結合され、対応する処理部に特定のアルゴリズム計算を実行するように指示するプログラムコードを記憶するように構成される。
対話型画像処理システム5のアーキテクチャの下では、RGBIRカメラによって生成されたカラーIR画像のおかげで、高いフレームレートを実現することができる。深度の品質は安定しており、他の光源の影響を受けない。従って、アプリケーションを処理するための中央処理部16の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
対話型画像処理システム1の動作は、図6に示されるように、対話型画像処理プロセス6に要約でき、対話型画像処理プロセス6は、以下のステップを含む。
ステップ61:画像処理回路を使用して、第1のカメラによって生成された第1の画像と第2のカメラによって生成された第2の画像に基づいて深度データを計算する。
ステップ62:画像処理回路を使用して、第1の画像と第2の画像を、第1チャネルの第1のタグを有する第1のデータパッケージに結合し、深度データとダミーデータを、第2チャネルの第2のタグを有する第2のデータパッケージに結合する。
ステップ63:ビジョン処理部を使用して、深度データに応じて、第1の画像と第2の画像にステレオマッチングを行う。
ステップ64:画像信号プロセッサを使用して、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を実行する。
ステップ65:中央処理部を使用して、第1の画像、第2の画像、および深度データに基づいて、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成する。
対話型画像処理プロセス6の詳細動作は、図1の説明を参照することによって得ることができ、ここでは省略する。
対話型画像処理システム3の動作は、図7に示されるように、対話型画像処理プロセス7に要約でき、対話型画像処理プロセス7は、以下のステップを含む。
ステップ71:画像処理回路を使用して、第1のカメラによって生成された第1の画像と第2のカメラによって生成された第2の画像に基づいて深度データを計算する。
ステップ72:画像処理回路を使用して、第1の画像と第2の画像を、第1チャネルの第1のタグを有する第1のデータパッケージに結合し、深度データとダミーデータを、第2チャネルの第2のタグを有する第2のデータパッケージに結合する。
ステップ73:ビジョン処理部を使用して、深度データに応じて、第1の画像と第2の画像にステレオマッチングを行う。
ステップ74:画像信号プロセッサを使用して、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を実行する。
ステップ75:デジタル信号プロセッサを使用して、第1の画像と第2の画像をステレオグラフィに変換する。
ステップ76:中央処理部を使用して、ステレオグラフィおよび深度データに基づいて、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成する。
対話型画像処理プロセス7の詳細動作は、図3の説明を参照することによって得ることができ、ここでは省略する。
従来技術では、モーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAMを含む異なるアプリケーションは、特別に設計されたアーキテクチャおよびプラットフォームにおいてのみ動作可能であることに留意されたい。なぜなら、これらのアプリケーションは、異なるアーキテクチャおよびプラットフォームにおいて動作可能でなく、互換性がないからである。対照的に、本開示は、対話型画像処理システムの中央処理部またはメモリ装置に記憶された異なるアルゴリズムを実行することにより、上述のアプリケーションが動作可能なアーキテクチャを提供する。
さらに、中央処理部は、マルチタスクを実現するために、メモリ装置から2つ以上のプログラムコードにアクセスして、モーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAMを含む2つ以上のアプリケーションを実行することができる。
要約すると、本開示は、先行技術におけるデジタル信号プロセッサのソフトウェア計算を置き換えるために、まず、画像処理回路を用いて、原画像に対応する深度データを計算する。その後、ビジョン処理部及び画像信号プロセッサの動作により、より良い画質を有する画像と、より高い精度を有する対応する深度データとを得ることができる。従って、アプリケーションを処理するための中央処理部の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
当業者には言うまでもないが、本発明の教示を保持しつつ、上記の装置と方法について、多数の修正や変更をすることができる。したがって、上記の開示は添付した特許請求の範囲によってのみ限定されると解釈すべきである。

Claims (8)

  1. 対話型画像処理装置であって、
    第1の画像を生成するように構成された第1のカメラと、
    第2の画像を生成するように構成された第2のカメラと、
    前記第1のカメラおよび前記第2のカメラに結合され、第1の画像および第2の画像において識別された少なくとも1つのオブジェクトに対応する深度データを計算するように構成された画像処理回路と、
    前記画像処理回路に結合され、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを実行するように構成されたビジョン処理部と、
    前記ビジョン処理部に結合され、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理するように構成された画像信号プロセッサと、
    前記画像信号プロセッサに結合され、第3のプログラムコードに従って、計算結果を生成するように構成された中央処理部とを有する、対話型画像処理装置。
  2. 前記画像処理回路は、第1の画像および第2の画像から前記少なくとも1つのオブジェクトを識別し、参照パラメータを考慮に入れて、前記少なくとも1つのオブジェクトに対応する少なくとも1つの距離を計算するように較正され、前記参照パラメータは、前記第1のカメラと前記第2のカメラとの間の距離である、
    請求項1に記載の対話型画像処理装置。
  3. 前記画像処理回路は、第1の画像、第2の画像、深度データ、およびダミーデータのうち2つを、第1のチャネルの第1のタグを有する第1のデータパッケージに結合し、第1の画像、第2の画像、深度データ、およびダミーデータのうち別の2つを、第2のチャネルの第2のタグを有する第2のデータパッケージに結合する、
    請求項1に記載の対話型画像処理装置。
  4. 前記画像処理回路は、
    前記第1のカメラおよび第2のカメラに結合され、第1の画像および第2の画像の画素値を調整するかどうかを決定するように構成された画像解析回路と、
    前記画像解析回路に結合され、第1の画像及び第2の画像から少なくとも1つのオブジェクトを識別するように構成されたオブジェクト抽出回路と、
    前記オブジェクト抽出回路に結合され、前記第1のカメラと前記第2のカメラとの間の距離、少なくとも1つのオブジェクトが第1の画像にある場合と少なくとも1つのオブジェクトが第2の画像にある場合との画素距離、および三角測量法に従って、前記少なくとも1つのオブジェクトの第1の深度を計算するように構成されるオブジェクト深度計算回路と、
    前記オブジェクト深度計算回路に結合され、少なくとも1つのオブジェクトの2つの重複オブジェクトの第2の深度を計算し、第1の深度と第2の深度を含む深度データを出力するように構成される重複オブジェクト深度計算回路と、
    前記重複オブジェクト深度計算回路に結合され、制御信号に従って、第1の画像、第2の画像および深度データのうちの1つを出力するように構成されるマルチプレクサとを有する、
    請求項1に記載の対話型画像処理装置。
  5. 前記中央処理部は、ハンドモーション検出および追跡、空間スキャン、オブジェクトスキャン、AR(仮想現実)シースルー、およびSLAM(同時ローカライズおよびマッピング)のうちの少なくとも1つのプログラムコードを同時に実行するように構成される、
    請求項1に記載の対話型画像処理装置。
  6. 対話型画像処理システムのための対話型画像処理の方法であって、
    画像処理回路を使用して、前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とで識別された少なくとも1つのオブジェクトに対応する深度データを計算することと、
    前記対話型画像処理システムのビジョン処理部を使用して、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを行うことと、
    前記対話型画像処理システムの画像信号プロセッサを使用して、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理することと、
    対話型画像処理システムの中央処理部を使用して、第3のプログラムコードに従って、計算結果を生成することとを含む
    対話型画像処理方法。
  7. 前記画像処理回路を使用して、第1の画像、第2の画像、深度データ、およびダミーデータのうち2つを、第1のチャネルの第1のタグを有する第1のデータパッケージに結合し、第1の画像、第2の画像、深度データ、およびダミーデータのうち別の2つを、第2のチャネルの第2のタグを有する第2のデータパッケージに結合することをさらに含む、
    請求項6に記載の対話型画像処理方法。
  8. 対話型画像処理システムのための記憶装置であって、
    前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とを記憶する媒体と、
    前記対話型画像処理システムのビジョン処理部に命令を与えるように構成された第1のプログラムコードであって、前記第1のプログラムコードと、前記対話型画像処理システムの画像処理回路によって生成される深度データに従って第1の画像および第2の画像にステレオマッチングを実行するように構成された第1のプログラムコードと、
    前記対話型画像処理システムの画像信号プロセッサに命令を与えるように構成された第2のプログラムコードであって、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理する第2のプログラムコードと、
    対話型画像処理システムの中央処理部に命令を与えるように構成された第4のプログラムコードであって、計算結果を生成することとを含む第4のプログラムコードとを含む
    記憶装置。
JP2019096075A 2019-04-17 2019-05-22 深度エンジンを用いた対話型画像処理の方法、装置、媒体 Pending JP2020177617A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/387,528 2019-04-17
US16/387,528 US20200336655A1 (en) 2019-04-17 2019-04-17 Method, Apparatus, Medium for Interactive Image Processing Using Depth Engine

Publications (1)

Publication Number Publication Date
JP2020177617A true JP2020177617A (ja) 2020-10-29

Family

ID=72832106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019096075A Pending JP2020177617A (ja) 2019-04-17 2019-05-22 深度エンジンを用いた対話型画像処理の方法、装置、媒体

Country Status (3)

Country Link
US (1) US20200336655A1 (ja)
JP (1) JP2020177617A (ja)
CN (1) CN111836030A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011019028A (ja) * 2009-07-08 2011-01-27 Canon Inc 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム
JP2013069100A (ja) * 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN204206364U (zh) * 2014-11-21 2015-03-11 冠捷显示科技(厦门)有限公司 一种基于双目摄像头的影像预处理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011019028A (ja) * 2009-07-08 2011-01-27 Canon Inc 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム
JP2013069100A (ja) * 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体

Also Published As

Publication number Publication date
US20200336655A1 (en) 2020-10-22
CN111836030A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
US20200051269A1 (en) Hybrid depth sensing pipeline
US9965861B2 (en) Method and system of feature matching for multiple images
US20200058153A1 (en) Methods and Devices for Acquiring 3D Face, and Computer Readable Storage Media
US11663691B2 (en) Method and apparatus for restoring image
US11445163B2 (en) Target image acquisition system and method
US11514658B2 (en) Enhancing three-dimensional models using multi-view refinement
KR102650217B1 (ko) 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
Zheng Spatio-temporal registration in augmented reality
US11039118B2 (en) Interactive image processing system using infrared cameras
US20200410705A1 (en) System and method for processing image related to depth
JP2020177618A (ja) 深度エンジンとデジタル信号プロセッサを用いた対話型画像処理の方法、装置、媒体
TWI731430B (zh) 資訊顯示方法與資訊顯示系統
JP2020177617A (ja) 深度エンジンを用いた対話型画像処理の方法、装置、媒体
TWI696980B (zh) 使用深度引擎和數位訊號處理器的互動影像處理方法、裝置及媒體
TWI696149B (zh) 使用深度引擎的互動影像處理方法、裝置及媒體
TWI696981B (zh) 使用紅外線攝影機的互動影像處理系統
EP3731183A1 (en) Method, apparatus, medium for interactive image processing using depth engine
EP3731184A1 (en) Method, apparatus, medium for interactive image processing using depth engine and digital signal processor
EP3731175A1 (en) Interactive image processing system using infrared cameras
US11847784B2 (en) Image processing apparatus, head-mounted display, and method for acquiring space information
US11170574B2 (en) Method and apparatus for generating a navigation guide
WO2021237736A1 (zh) 图像处理方法、装置和系统,计算机可读存储介质
CN115049711A (zh) 图像配准方法、装置、电子设备及介质
JP2022050854A (ja) 奥行きに関連する画像を処理するシステム及び方法
Manders et al. Tracking a user's face and hands in three-dimensions in real-time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309