JP2020177618A - 深度エンジンとデジタル信号プロセッサを用いた対話型画像処理の方法、装置、媒体 - Google Patents
深度エンジンとデジタル信号プロセッサを用いた対話型画像処理の方法、装置、媒体 Download PDFInfo
- Publication number
- JP2020177618A JP2020177618A JP2019096208A JP2019096208A JP2020177618A JP 2020177618 A JP2020177618 A JP 2020177618A JP 2019096208 A JP2019096208 A JP 2019096208A JP 2019096208 A JP2019096208 A JP 2019096208A JP 2020177618 A JP2020177618 A JP 2020177618A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- interactive
- camera
- program code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
【課題】ソフトウェア計算による負荷を低減することである。【解決手段】第1のカメラ、第2のカメラ、画像処理回路、ビジョン処理装置、画像信号プロセッサ、中央処理部、およびメモリ装置を含む対話型画像処理装置を開示する。本開示は、従来技術におけるデジタル信号プロセッサによる深度計算の負担を軽減するために、画像処理回路を利用して、対話型画像処理システムのフロントエンドにおいて第1のカメラ及び第2のカメラによって生成された原画像に従って深度データを計算する。【選択図】図1
Description
本開示は、対話型画像処理の方法、装置、および媒体に関し、より詳細には、最初に深度エンジンによって深度計算が実行される対話型画像処理に関する。
典型的なステレオ画像処理システムにおいて、赤緑青の画像センサまたはカメラからの原画像は、通常、画像解析、再構成、画質向上(自動ホワイトバランス、露光値、およびコントラスト較正を含む)、および深度計算などの種々の前処理動作を受ける。
その後、再構成された画像及び対応する深度は、仮想現実装置、ラップトップコンピュータ、タブレットコンピュータ、デスクトップコンピュータ、携帯電話、インタラクティブプロジェクタ、テレビジョンセット、又は他の電子コンシューマ装置のようなインタラクティブインタフェースを提供するビデオゲームシステム、キオスク又は他のシステムにおいて実行されるアプリケーションを処理するための中央処理部に入力される。
従来、これらの前処理動作(すなわち、画像解析、再構成、画質向上、および深度計算)は、特定のプロセッサがメモリ装置と協働して別途実行して、ソフトウェア計算で実現されている。例えば、DSP(ディジタル信号プロセッサ)が、深度計算のために特別に設計され、ドライバプログラムコードが、DSPに命令をして深度計算を実行するように構成されている。
しかし、ソフトウェア計算には、メモリ装置との間でデータの読み込みと書き込みに時間と電力がかかる。そのため、ソフトウェア計算による負荷をどのように低減するかが業界の課題となっている。
従って、本開示の目的は、対話型画像処理の方法、装置、および媒体を提供することである。
本開示は、対話型画像処理システムであって、第1の画像を生成するように構成された第1のカメラと、第2の画像を生成するように構成された第2のカメラと、前記第1のカメラおよび前記第2のカメラに結合され、第1の画像および第2の画像において識別された少なくとも1つのオブジェクトに対応する深度データを計算するように構成された画像処理回路と、前記画像処理回路に結合され、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを実行するように構成されたビジョン処理部と、前記ビジョン処理部に結合され、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理するように構成された画像信号プロセッサと、前記画像信号プロセッサに結合され、第3のプログラムコードおよび深度データに従って、第1の画像および第2の画像をステレオグラフィに変換するように構成されたデジタル信号プロセッサと、前記画像信号プロセッサに結合され、前記ステレオグラフィおよび第4のプログラムコードに従って、計算結果を生成するように構成された中央処理部とを有する、対話型画像処理装置を開示する。
本開示は、対話型画像処理システムのための対話型画像処理方法を開示している。本方法は、画像処理回路を使用して、前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とで識別された少なくとも1つのオブジェクトに対応する深度データを計算することと、前記対話型画像処理システムのビジョン処理部を使用して、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを行うことと、前記対話型画像処理システムの画像信号プロセッサを使用して、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理することと、前記対話型画像処理システムのデジタル信号プロセッサを使用して、第3のプログラムコードおよび深度データに従って、第1の画像および第2の画像をステレオグラフィに変換することと、対話型画像処理システムの中央処理部を使用して、ステレオグラフィおよび第4のプログラムコードに従って、計算結果を生成することとを含む対話型画像処理方法である。
本開示は、対話型画像処理システムのための記憶装置であって、前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とを記憶する媒体と、前記対話型画像処理システムのビジョン処理部に命令を与えように構成された第1のプログラムコードであって、前記第1のプログラムコードと、前記対話型画像処理システムの画像処理回路によって生成される深度データに従って第1の画像および第2の画像にステレオマッチングを実行するように構成された第1のプログラムコードと、前記対話型画像処理システムの画像信号プロセッサに命令を与えるように較正された第2のプログラムコードであって、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理する第2のプログラムコードと、前記対話型画像処理システムのデジタル信号プロセッサに命令を与えるように構成された第3のプログラムコードであって、深度データに従って、第1の画像および第2の画像をステレオグラフィに変換する第3のプログラムコードと、対話型画像処理システムの中央処理部に命令を与えるように構成された第4のプログラムコードであって、ステレオグラフィに従って、計算結果を生成することとを含む第4のプログラムコードとを含む記憶装置である。
本開示は、従来技術におけるデジタル信号プロセッサによる深度計算の負担を軽減するために、画像処理回路を利用して、対話型画像処理システムのフロントエンドにおいて第1のカメラ及び第2のカメラによって生成された原画像に従って深度データを計算する。
当業者には、様々な図面に示した好ましい実施形態の詳細な説明を読めば、本開示の上記その他の目的が明らかにあるであろう。
図1は、本開示の一実施形態による、対話型画像処理システム1の機能ブロック図である。対話型画像処理システム1は、第1のカメラ11、第2のカメラ12、画像処理回路13、ビジョン処理部14、画像信号プロセッサ15、中央処理部16、メモリ装置17を含む。
第1のカメラ11及び第2のカメラ12は、画像処理回路13に結合され、画像処理回路13にそれぞれ画像M1及びM2を生成するように構成される。
画像処理回路13は、第1のカメラ、第2のカメラ12及びビジョン処理部14に結合され、深度ハードウェアエンジンとみなされ、画像M1及びM2において識別されるオブジェクトに対応する深度データDを計算するように構成される。具体的には、画像処理回路13は、画像M1及びM2のオブジェクトを識別し、基準パラメータ(例えば、第1のカメラ11と第2のカメラ12との間の距離)を考慮して、識別されたオブジェクトに対応する距離を計算する。ここで深度データDは、識別されたオブジェクトに対応する距離を含む。
一実施形態では、画像処理回路13は、同一の位置合わせマークを有する画像M1及びM2を、第1チャネルのタグを有する同一のデータパッケージに結合し、深度データD及びダミーデータDYを、第2チャネルのタグを有する同一のデータパッケージに結合する。第1チャネルは物理ウェイ(physical way)であり、第2チャネルは仮想ウェイ(virtual way)である。このようにして、ビジョン処理部14は、データパッケージのタグにより、物理ウェイのデータパッケージを仮想ウェイのデータパッケージから区別できる。一実施形態では、画像処理回路13は、2つの画像M1、M2、深度データD及びダミーデータDYを第1チャネルのタグを有するデータパッケージに結合し、他の2つの画像M1、M2、深度データD及びダミーデータDYを第2チャネルのタグを有するデータパッケージに結合する。当業者は、実用的な要件に従ってデータパッケージの内容を変更することができる。
ビジョン処理部14は、画像処理回路13及び画像信号プロセッサ15に結合され、深度データに応じて画像M1及びM2にステレオマッチングを行うように構成されている。また、ビジョン処理部14は、画像M1及びM2に応じて、特定の図形又はパターン(例えば、ハンドジェスチャ)で、少なくとも1つの抽出オブジェクトを判定する。
画像信号プロセッサ15は、ビジョン処理部14及び中央処理部16に結合され、原画像M1、M2に自動ホワイトバランス、露出値校正を行い、被写体認識および深度計算のため画質向上をするように構成される。一実施形態では、画像処理回路13、ビジョン処理部14および画像信号プロセッサ15は、単一チップに集積されてもよい。
中央処理部16は、画像信号プロセッサ15及びメモリ装置17に結合され、画像M1及びM2並びに対応する深度データDに基づいて、ハンドモーション検出及び追跡、空間走査、オブジェクト走査、AR(拡張現実)シースルー、6Dof(6自由度)、及びSLAM(同時位置決め及びマッピング)のためのアプリケーションに関する計算結果を生成するように構成される。
メモリ装置17は、ビジョン処理部14、画像信号プロセッサ15および中央処理部16に結合され、対応する処理部に特定のアルゴリズム計算を実行するように指示するプログラムコードを記憶するように構成される。一実施形態では、メモリ装置17は、中央処理部16に集積され、ビジョン処理部14および画像信号プロセッサ15のうちの少なくとも1つは、中央処理部16からプログラムコードにアクセスして、関連機能を実行してもよい。
対話型画像処理システム1のアーキテクチャの下では、本開示は、先行技術におけるデジタル信号プロセッサのソフトウェア計算を置き換えるために、まず、画像処理回路13(すなわち、深度ハードウェアエンジン)を用いて、原画像M1及びM2に対応する深度データDを計算する。その後、ビジョン処理部14及び画像信号プロセッサ15の動作により、より良い画質を有する画像M1及びM2と、より高い精度を有する対応する深度データとを得ることができる。従って、アプリケーションを処理するための中央処理部16の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
図2は、本開示の一実施形態による、画像処理回路の機能ブロック図である。画像処理回路13は、画像において識別されたオブジェクトに対応する深度データDを計算するように構成されたASIC(特定用途向け集積回路)であってもよい。
画像処理回路13は、画像解析回路21、オブジェクト抽出回路22、オブジェクト深度計算回路23、重複オブジェクト深度計算回路24、及びマルチプレクサ25を含む。
画像解析回路21は、画質を高めるために画像M1及びM2の画素値を調整するか否かを決定するように構成される。例えば、画像M1及びM2が暗すぎる場合、画像解析回路21は、画像M1及びM2の露出値を増加させて、その後のオブジェクト抽出動作のためのより良い画質を得る。
オブジェクト抽出回路22は、画像解析回路21に結合され、第1の画像M1及び第2の画像M2から少なくとも1つのオブジェクトを識別するように構成される。
オブジェクト深度計算回路23は、オブジェクト抽出回路22に結合され、第1のカメラ11と第2のカメラ12との間の距離、少なくとも1つのオブジェクトが第1の画像M1にある場合と少なくとも1つのオブジェクトが第2の画像M2にある場合との画素距離、および三角測量法に従って、少なくとも1つのオブジェクトの第1の深度を計算するように構成される。
重複オブジェクト深度計算回路24は、オブジェクト深度計算回路23に結合され、少なくとも2つの重複オブジェクトの第2の深度を計算し、第1の深度と第2の深度を含む深度データDを出力するように構成される。
マルチプレクサ25は、重複オブジェクト深度計算回路24に結合され、制御信号に従って、第1の画像M1、第2の画像M2および深度データDのうちの1つを出力するように構成される。
本開示は、画像処理回路13を利用して、従来技術におけるデジタル信号プロセッサによる深度計算の負担を軽減するために、対話型画像処理システム1のフロントエンドにおける原画像M1及びM2により深度データDを計算する。
図3は、本開示の一実施形態による、対話型画像処理システム3の機能ブロック図である。対話型画像処理システム3は、第1のカメラ11、第2のカメラ12、画像処理回路13、ビジョン処理部14、画像信号プロセッサ15、中央処理部16、メモリ装置37およびデジタル信号プロセッサ38を含む。
対話型画像処理システム1および3は類似しており、同じ要素は同じ記号で示されている。デジタル信号プロセッサ38は、画像信号プロセッサ15と中央処理部16との間に結合され、第4のプログラムコードおよび深度データDに従って、画像M1およびM2をステレオグラフィMSに変換するように構成される。例えば、ステレオグラフィMSは、二次元面上に投影される三次元オブジェクトを含む。
メモリ装置37は、デジタル信号プロセッサ38に結合され、デジタル信号プロセッサ38にステレオグラフィ変換(stereography conversion)を実行するように命令する第4のプログラムコードを記憶するように構成される。
対話型画像処理システム3のアーキテクチャの下で、本開示は、画像処理回路13を使用して、まず2つの原画像M1及びM2に対応する深度データDを計算し、デジタル信号プロセッサ38を使用して、ステレオグラフィ変換を行い、中央処理部16の負担を軽減する(図1の実施例では、中央処理部16がステレオ変換を処理することに注意されたい)。従って、中央処理部16のソフトウェア計算の消費電力が節約され得る。
図4は、本開示の一実施形態による、対話型画像処理システム4の機能ブロック図である。対話型画像処理システム4は、第1のカメラ41、第2のカメラ42、第3のカメラ40、画像処理回路43、ビジョン処理部44、画像信号プロセッサ45、中央処理部16、メモリ装置47、デジタル信号プロセッサ48、および赤外線光源49を含む。
本実施形態では、第1のカメラ41および第2のカメラ42は、赤外線画像IR1およびIR2(ここで、赤外線画像IR1およびIR2の画像画素は、グレースケール値で画定される)を生成するための赤外線カメラであり、第3のカメラ40は、カラー画像RGB(赤−緑−青)を生成するためのRGB(赤−緑−青)カメラである(ここで、カラー画像RGBの画像画素は、赤、緑、および青の画素によって画定される)。赤外線光源49は、第1のカメラ41および第2のカメラ42によるIR(赤外)画像変換のための利用可能な周辺光を増大するように構成される
画像処理回路43は、第1のカメラ41、第2のカメラ42および第3のカメラ40に結合され、赤外線画像IR1およびIR2、ならびにカラー画像RGBに従って深度データDを計算するように構成される。画像処理回路43は、更に、赤外線画像IR1及びIR2を同じデータパッケージ(例えば、IRサイドバイサイド)に結合するか、又はカラー画像RGBと深度データDを同じデータパッケージに結合するか、又は赤外線画像IR1及びIR2の一方と深度データDを同じデータパッケージに結合する。
画像処理回路43は、第1のカメラ41、第2のカメラ42および第3のカメラ40に結合され、赤外線画像IR1およびIR2、ならびにカラー画像RGBに従って深度データDを計算するように構成される。画像処理回路43は、更に、赤外線画像IR1及びIR2を同じデータパッケージ(例えば、IRサイドバイサイド)に結合するか、又はカラー画像RGBと深度データDを同じデータパッケージに結合するか、又は赤外線画像IR1及びIR2の一方と深度データDを同じデータパッケージに結合する。
ビジョン処理部44は、画像処理回路43に結合され、赤外線画像IR1およびIR2にステレオマッチング(stereo matching)を行い、グレースケールマッチング画像を生成し、グレースケールマッチング画像およびカラー画像RGBにカラーマッチングを行い、カラーマッチング画像RGBIR(カラーマッチング画像RGBIRの画像画素は、赤、緑、青、およびIR/グレースケール画素によって画定される)を生成するように構成される。
画像信号プロセッサ45は、ビジョン処理部44に結合され、カラーステレオグラフィRGBIRに自動ホワイトバランスおよび露出値校正を行い、オブジェクト認識および深度計算のために画質向上をするように構成される。
デジタル信号プロセッサ48は、画像信号プロセッサ45に結合され、深度データDに従ってカラーマッチング画像RGBIRをステレオグラフィMSに変換するように構成される。
中央処理部16は、デジタル信号プロセッサ48およびメモリ装置47に結合され、ステレオグラフィMSおよび対応する深度データDに基づき、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成するように構成される。
メモリ装置47は、ビジョン処理部44、画像信号プロセッサ45、デジタル信号プロセッサ48および中央処理部46に結合され、対応する処理部に特定のアルゴリズム計算を実行するように指示するプログラムコードを記憶するように構成される。
対話型画像処理システム4のアーキテクチャの下では、2つのIRカメラ、IR光源および1つのRGBカメラを使用する場合、深度品質は安定している。従って、アプリケーションを処理するための中央処理部16の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
図5は、本開示の一実施形態による、対話型画像処理システム5の機能ブロック図である。対話型画像処理システム5は、第1のカメラ51、第2のカメラ52、画像処理回路53、ビジョン処理部54、画像信号プロセッサ55、中央処理部16、メモリ装置57、デジタル信号プロセッサ58、およびランダムドット赤外線光源59を含む。
本実施形態では、第1のカメラ51および第2のカメラ52は、カラー赤外線画像RGBIR1およびRGBIR2(ここで、赤外線画像RGBIR1およびRGBIR2の画像画素は、赤色、緑色、青色、およびグレースケール画素によって画定される)を生成するカラー赤外カメラである。ランダムドット赤外線光源59は、第1のカメラ51および第2のカメラ52によるIR画像変換のために利用可能な周辺光を増大するように構成される
画像処理回路53は、第1のカメラ51および第2のカメラ52に結合され、カラー赤外線画像RGBIR1およびRGBIR2に従って深度データDを計算するように構成される。
画像処理回路53は、第1のカメラ51および第2のカメラ52に結合され、カラー赤外線画像RGBIR1およびRGBIR2に従って深度データDを計算するように構成される。
画像処理回路53は、さらに、カラー赤外線画像RGBIR1及びRGBIR2から赤色、緑色、及び青色の画素を抽出し、カラー赤外線画像RGBIR1及びRGBIR2の色成分を、同じデータパッケージに結合する。これは、ARシースルーアプリケーションに適用されるRGBサイドバイサイドとして知られている。
画像処理回路53は、さらに、カラー赤外線画像RGBIR1およびRGBIR2のIR成分を同じデータパッケージに抽出する。このデータパッケージは、SLAM、ハンドモーション検出および追跡、6つのDofアプリケーションに適用されるIRサイドバイサイド(IR side by side)として知られている。
画像処理回路53は、さらに、深度データDとカラー赤外線画像RGBIR1の色成分とを同じデータパッケージに結合し、このデータパッケージは、第1のカメラ51の視角(view angle)に基づいて空間走査およびオブジェクト走査アプリケーションに適用可能である。一実施形態では、画像処理回路53は、さらに、深度データDとカラー赤外線画像RGBIR2の色成分とを同じデータパッケージに結合し、このデータパッケージは、第2のカメラ52の視角(view angle)に基づいて空間走査およびオブジェクト走査アプリケーションに適用可能である。
ビジョン処理部54は、画像処理回路53に結合され、第1のカメラ51と第2のカメラ52の視角に基づいて、それぞれ、カラー赤外線画像RGBIR1とRGBIR2にステレオマッチングを行い、カラーマッチング画像RGBD1とRGBD2を生成するように構成される。
画像信号プロセッサ55は、ビジョン処理部54に結合され、カラーステレオグラフィRGBD1およびRGBD2に自動ホワイトバランスおよび露出値校正を行い、オブジェクト認識および深度計算のために画質向上をするように構成される。
デジタル信号プロセッサ58は、画像信号プロセッサ55に結合され、深度データDに従ってカラーマッチング画像RGBD1またはRGBD2をステレオグラフィMSに変換するように構成される。
中央処理部16は、デジタル信号プロセッサ58およびメモリ装置57に結合され、ステレオグラフィMSおよび対応する深度データDに基づき、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成するように構成される。
メモリ装置57は、ビジョン処理部54、画像信号プロセッサ55、デジタル信号プロセッサ58および中央処理部56に結合され、対応する処理部に特定のアルゴリズム計算を実行するように指示するプログラムコードを記憶するように構成される。
対話型画像処理システム5のアーキテクチャの下では、RGBIRカメラによって生成されたカラーIR画像のおかげで、高いフレームレートを実現することができる。深度の品質は安定しており、他の光源の影響を受けない。従って、アプリケーションを処理するための中央処理部16の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
対話型画像処理システム1の動作は、図6に示されるように、対話型画像処理プロセス6に要約でき、対話型画像処理プロセス6は、以下のステップを含む。
ステップ61:画像処理回路を使用して、第1のカメラによって生成された第1の画像と第2のカメラによって生成された第2の画像に基づいて深度データを計算する。
ステップ62:画像処理回路を使用して、第1の画像と第2の画像を、第1チャネルの第1のタグを有する第1のデータパッケージに結合し、深度データとダミーデータを、第2チャネルの第2のタグを有する第2のデータパッケージに結合する。
ステップ63:ビジョン処理部を使用して、深度データに応じて、第1の画像と第2の画像にステレオマッチングを行う。
ステップ64:画像信号プロセッサを使用して、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を実行する。
ステップ65:中央処理部を使用して、第1の画像、第2の画像、および深度データに基づいて、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成する。
対話型画像処理プロセス6の詳細動作は、図1の説明を参照することによって得ることができ、ここでは省略する。
対話型画像処理システム3の動作は、図7に示されるように、対話型画像処理プロセス7に要約でき、対話型画像処理プロセス7は、以下のステップを含む。
ステップ71:画像処理回路を使用して、第1のカメラによって生成された第1の画像と第2のカメラによって生成された第2の画像に基づいて深度データを計算する。
ステップ72:画像処理回路を使用して、第1の画像と第2の画像を、第1チャネルの第1のタグを有する第1のデータパッケージに結合し、深度データとダミーデータを、第2チャネルの第2のタグを有する第2のデータパッケージに結合する。
ステップ73:ビジョン処理部を使用して、深度データに応じて、第1の画像と第2の画像にステレオマッチングを行う。
ステップ74:画像信号プロセッサを使用して、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を実行する。
ステップ75:デジタル信号プロセッサを使用して、第1の画像と第2の画像をステレオグラフィに変換する。
ステップ76:中央処理部を使用して、ステレオグラフィおよび深度データに基づいて、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、6Dof、およびSLAMのアプリケーションに関する計算結果を生成する。
対話型画像処理プロセス7の詳細動作は、図3の説明を参照することによって得ることができ、ここでは省略する。
従来技術では、モーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAMを含む異なるアプリケーションは、特別に設計されたアーキテクチャおよびプラットフォームにおいてのみ動作可能であることに留意されたい。なぜなら、これらのアプリケーションは、異なるアーキテクチャおよびプラットフォームにおいて動作可能でなく、互換性がないからである。対照的に、本開示は、対話型画像処理システムの中央処理部またはメモリ装置に記憶された異なるアルゴリズムを実行することにより、上述のアプリケーションが動作可能なアーキテクチャを提供する。
さらに、中央処理部は、マルチタスクを実現するために、メモリ装置から2つ以上のプログラムコードにアクセスして、モーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAMを含む2つ以上のアプリケーションを実行することができる。
要約すると、本開示は、先行技術におけるデジタル信号プロセッサのソフトウェア計算を置き換えるために、まず、画像処理回路を用いて、原画像に対応する深度データを計算する。その後、ビジョン処理部及び画像信号プロセッサの動作により、より良い画質を有する画像と、より高い精度を有する対応する深度データとを得ることができる。従って、アプリケーションを処理するための中央処理部の精度および効率(例えば、ハンドモーション検出および追跡、空間走査、オブジェクト走査、ARシースルー、およびSLAM)は、改善され、より良いユーザ体験を実現し得る。
当業者には言うまでもないが、本発明の教示を保持しつつ、上記の装置と方法について、多数の修正や変更をすることができる。したがって、上記の開示は添付した特許請求の範囲によってのみ限定されると解釈すべきである。
Claims (9)
- 対話型画像処理装置であって、
第1の画像を生成するように構成された第1のカメラと、
第2の画像を生成するように構成された第2のカメラと、
前記第1のカメラおよび前記第2のカメラに結合され、第1の画像および第2の画像において識別された少なくとも1つのオブジェクトに対応する深度データを計算するように構成された画像処理回路と、
前記画像処理回路に結合され、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを実行するように構成されたビジョン処理部と、
前記ビジョン処理部に結合され、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理するように構成された画像信号プロセッサと、
前記画像信号プロセッサに結合され、第3のプログラムコードおよび深度データに従って、第1の画像および第2の画像をステレオグラフィに変換するように構成されたデジタル信号プロセッサと、
前記画像信号プロセッサに結合され、前記ステレオグラフィおよび第4のプログラムコードに従って、計算結果を生成するように構成された中央処理部とを有する、
対話型画像処理装置。 - 前記画像処理回路は、第1の画像および第2の画像から前記少なくとも1つのオブジェクトを識別し、参照パラメータを考慮に入れて、前記少なくとも1つのオブジェクトに対応する少なくとも1つの距離を計算するように較正され、前記参照パラメータは、前記第1のカメラと前記第2のカメラとの間の距離である、
請求項1に記載の対話型画像処理装置。 - 前記画像処理回路は、第1の画像、第2の画像、深度データ、およびダミーデータのうち2つを、第1のチャネルの第1のタグを有する第1のデータパッケージに結合し、第1の画像、第2の画像、深度データ、およびダミーデータのうち別の2つを、第2のチャネルの第2のタグを有する第2のデータパッケージに結合する、
請求項1に記載の対話型画像処理装置。 - 前記画像処理回路は、
前記第1のカメラおよび第2のカメラに結合され、第1の画像および第2の画像の画素値を調整するかどうかを決定するように構成された画像解析回路と、
前記画像解析回路に結合され、第1の画像及び第2の画像から少なくとも1つのオブジェクトを識別するように構成されたオブジェクト抽出回路と、
前記オブジェクト抽出回路に結合され、前記第1のカメラと前記第2のカメラとの間の距離、少なくとも1つのオブジェクトが第1の画像にある場合と少なくとも1つのオブジェクトが第2の画像にある場合との画素距離、および三角測量法に従って、前記少なくとも1つのオブジェクトの第1の深度を計算するように構成されるオブジェクト深度計算回路と、
前記オブジェクト深度計算回路に結合され、少なくとも1つのオブジェクトの2つの重複オブジェクトの第2の深度を計算し、第1の深度と第2の深度を含む深度データを出力するように構成される重複オブジェクト深度計算回路と、
前記重複オブジェクト深度計算回路に結合され、制御信号に従って、第1の画像、第2の画像および深度データのうちの1つを出力するように構成されるマルチプレクサとを有する、
請求項1に記載の対話型画像処理装置。 - 前記画像処理回路は前記ビジョン処理部および前記画像信号プロセッサと集積される、
請求項1に記載の対話型画像処理装置。 - 前記ビジョン処理部は、深度データに従って第1の画像及び第2の画像にステレオマッチングを行うように構成され、前記ビジョン処理部は、第1の画像及び第2の画像に従って、特定の図形を有する少なくとも1つの抽出オブジェクトを決定するように構成され、前記特定の図形は、ハンドジェスチャである、
請求項1に記載の対話型画像処理装置。 - 前記中央処理部は、ハンドモーション検出および追跡、空間スキャン、オブジェクトスキャン、AR(仮想現実)シースルー、およびSLAM(同時ローカライズおよびマッピング)のうちの少なくとも1つのプログラムコードを同時に実行するように構成される、
請求項1に記載の対話型画像処理装置。 - 対話型画像処理システムのための対話型画像処理の方法であって、
画像処理回路を使用して、前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とで識別された少なくとも1つのオブジェクトに対応する深度データを計算することと、
前記対話型画像処理システムのビジョン処理部を使用して、第1のプログラムコードおよび深度データに従って、第1の画像および第2の画像にステレオマッチングを行うことと、
前記対話型画像処理システムの画像信号プロセッサを使用して、第2のプログラムコードに従って、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理することと、
前記対話型画像処理システムのデジタル信号プロセッサを使用して、第3のプログラムコードおよび深度データに従って、第1の画像および第2の画像をステレオグラフィに変換することと、
対話型画像処理システムの中央処理部を使用して、ステレオグラフィおよび第4のプログラムコードに従って、計算結果を生成することとを含む対話型画像処理方法。 - 対話型画像処理システムのための記憶装置であって、
前記対話型画像処理システムの第1のカメラによって生成された第1の画像と、前記対話型画像処理システムの第2のカメラによって生成された第2の画像とを記憶する媒体と、
前記対話型画像処理システムのビジョン処理部に命令を与えるように構成された第1のプログラムコードであって、前記第1のプログラムコードと、前記対話型画像処理システムの画像処理回路によって生成される深度データに従って第1の画像および第2の画像にステレオマッチングを実行するように構成された第1のプログラムコードと、
前記対話型画像処理システムの画像信号プロセッサに命令を与えるように構成された第2のプログラムコードであって、第1の画像および第2の画像に対する自動ホワイトバランスおよび露出値の較正を処理する第2のプログラムコードと、
前記対話型画像処理システムのデジタル信号プロセッサに命令を与えるように構成された第3のプログラムコードであって、深度データに従って、第1の画像および第2の画像をステレオグラフィに変換する第3のプログラムコードと、
対話型画像処理システムの中央処理部に命令を与えるように構成された第4のプログラムコードであって、ステレオグラフィに従って、計算結果を生成することとを含む第4のプログラムコードとを含む記憶装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/386,267 | 2019-04-17 | ||
US16/386,267 US10885671B2 (en) | 2019-04-17 | 2019-04-17 | Method, apparatus, and non-transitory computer-readable medium for interactive image processing using depth engine and digital signal processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020177618A true JP2020177618A (ja) | 2020-10-29 |
Family
ID=72829446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096208A Pending JP2020177618A (ja) | 2019-04-17 | 2019-05-22 | 深度エンジンとデジタル信号プロセッサを用いた対話型画像処理の方法、装置、媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10885671B2 (ja) |
JP (1) | JP2020177618A (ja) |
CN (1) | CN111836035A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11039118B2 (en) | 2019-04-17 | 2021-06-15 | XRSpace CO., LTD. | Interactive image processing system using infrared cameras |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258005A (ja) * | 2008-04-18 | 2009-11-05 | Fujifilm Corp | 三次元測定装置及び三次元測定方法 |
JP2011019028A (ja) * | 2009-07-08 | 2011-01-27 | Canon Inc | 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム |
JP2013069100A (ja) * | 2011-09-22 | 2013-04-18 | Dainippon Screen Mfg Co Ltd | 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7777778B2 (en) | 2004-10-27 | 2010-08-17 | Delphi Technologies, Inc. | Illumination and imaging system and method |
US20090172606A1 (en) * | 2007-12-31 | 2009-07-02 | Motorola, Inc. | Method and apparatus for two-handed computer user interface with gesture recognition |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
DE112011102132T5 (de) | 2010-06-25 | 2013-05-23 | Trimble Navigation Ltd. | Verfahren und Vorrichtung für eine imagebasierte Positionierung |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US9300946B2 (en) * | 2011-07-08 | 2016-03-29 | Personify, Inc. | System and method for generating a depth map and fusing images from a camera array |
JP5320524B1 (ja) * | 2012-01-20 | 2013-10-23 | パナソニック株式会社 | ステレオ撮影装置 |
US10257494B2 (en) | 2014-09-22 | 2019-04-09 | Samsung Electronics Co., Ltd. | Reconstruction of three-dimensional video |
CN204206364U (zh) * | 2014-11-21 | 2015-03-11 | 冠捷显示科技(厦门)有限公司 | 一种基于双目摄像头的影像预处理装置 |
US9721385B2 (en) | 2015-02-10 | 2017-08-01 | Dreamworks Animation Llc | Generation of three-dimensional imagery from a two-dimensional image using a depth map |
RU2721177C2 (ru) | 2015-07-13 | 2020-05-18 | Конинклейке Филипс Н.В. | Способ и устройство для определения карты глубины для изображения |
KR20230054499A (ko) | 2016-04-26 | 2023-04-24 | 매직 립, 인코포레이티드 | 증강 현실 시스템들을 사용한 전자기 추적 |
CN107992188B (zh) | 2016-10-26 | 2021-12-07 | 宏达国际电子股份有限公司 | 虚拟现实交互方法、装置与系统 |
US10372974B2 (en) | 2017-01-11 | 2019-08-06 | Microsoft Technology Licensing, Llc | 3D imaging recognition by stereo matching of RGB and infrared images |
TWI668997B (zh) | 2017-02-23 | 2019-08-11 | 鈺立微電子股份有限公司 | 產生全景深度影像的影像裝置及相關影像裝置 |
US10628950B2 (en) | 2017-03-01 | 2020-04-21 | Microsoft Technology Licensing, Llc | Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping |
EP3454300A1 (en) | 2017-09-12 | 2019-03-13 | HTC Corporation | Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium thereof |
TWI649723B (zh) | 2017-12-05 | 2019-02-01 | 大陸商光寶電子〈廣州〉有限公司 | 深度成像裝置及其驅動方法 |
CN109658449B (zh) | 2018-12-03 | 2020-07-10 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
-
2019
- 2019-04-17 US US16/386,267 patent/US10885671B2/en active Active
- 2019-05-20 CN CN201910416857.4A patent/CN111836035A/zh not_active Withdrawn
- 2019-05-22 JP JP2019096208A patent/JP2020177618A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258005A (ja) * | 2008-04-18 | 2009-11-05 | Fujifilm Corp | 三次元測定装置及び三次元測定方法 |
JP2011019028A (ja) * | 2009-07-08 | 2011-01-27 | Canon Inc | 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム |
JP2013069100A (ja) * | 2011-09-22 | 2013-04-18 | Dainippon Screen Mfg Co Ltd | 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US10885671B2 (en) | 2021-01-05 |
CN111836035A (zh) | 2020-10-27 |
US20200334860A1 (en) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965861B2 (en) | Method and system of feature matching for multiple images | |
US20200051269A1 (en) | Hybrid depth sensing pipeline | |
US20200058153A1 (en) | Methods and Devices for Acquiring 3D Face, and Computer Readable Storage Media | |
US11663691B2 (en) | Method and apparatus for restoring image | |
WO2010144050A1 (en) | Method and system for gesture based manipulation of a 3-dimensional image of object | |
US11748913B2 (en) | Modeling objects from monocular camera outputs | |
KR102650217B1 (ko) | 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치 | |
Zheng | Spatio-temporal registration in augmented reality | |
US11039118B2 (en) | Interactive image processing system using infrared cameras | |
US11514658B2 (en) | Enhancing three-dimensional models using multi-view refinement | |
US20200410705A1 (en) | System and method for processing image related to depth | |
JP2020177618A (ja) | 深度エンジンとデジタル信号プロセッサを用いた対話型画像処理の方法、装置、媒体 | |
JP2020177617A (ja) | 深度エンジンを用いた対話型画像処理の方法、装置、媒体 | |
TWI696980B (zh) | 使用深度引擎和數位訊號處理器的互動影像處理方法、裝置及媒體 | |
TWI696149B (zh) | 使用深度引擎的互動影像處理方法、裝置及媒體 | |
TWI696981B (zh) | 使用紅外線攝影機的互動影像處理系統 | |
EP3731183A1 (en) | Method, apparatus, medium for interactive image processing using depth engine | |
EP3731184A1 (en) | Method, apparatus, medium for interactive image processing using depth engine and digital signal processor | |
EP3731175A1 (en) | Interactive image processing system using infrared cameras | |
US11847784B2 (en) | Image processing apparatus, head-mounted display, and method for acquiring space information | |
TWI731430B (zh) | 資訊顯示方法與資訊顯示系統 | |
WO2021237736A1 (zh) | 图像处理方法、装置和系统,计算机可读存储介质 | |
JP7244185B2 (ja) | ナビゲーションガイドを生成するための方法および装置 | |
TW202203156A (zh) | 用於擴增實境之深度計算裝置及深度計算方法 | |
Manders et al. | Tracking a user's face and hands in three-dimensions in real-time |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210406 |