JP2013531853A - 実時間でビデオフレームを前処理するハードウェア - Google Patents

実時間でビデオフレームを前処理するハードウェア Download PDF

Info

Publication number
JP2013531853A
JP2013531853A JP2013517585A JP2013517585A JP2013531853A JP 2013531853 A JP2013531853 A JP 2013531853A JP 2013517585 A JP2013517585 A JP 2013517585A JP 2013517585 A JP2013517585 A JP 2013517585A JP 2013531853 A JP2013531853 A JP 2013531853A
Authority
JP
Japan
Prior art keywords
image
processing
image frame
data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013517585A
Other languages
English (en)
Other versions
JP5819956B2 (ja
JP2013531853A5 (ja
Inventor
ビヂオイ,ペトロネル
フロレア,コーネリウ
コーコラン,ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fotonation Ltd
Original Assignee
DigitalOptics Corp Europe Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DigitalOptics Corp Europe Ltd filed Critical DigitalOptics Corp Europe Ltd
Publication of JP2013531853A publication Critical patent/JP2013531853A/ja
Publication of JP2013531853A5 publication Critical patent/JP2013531853A5/ja
Application granted granted Critical
Publication of JP5819956B2 publication Critical patent/JP5819956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/80Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
    • G06F15/8046Systolic arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Studio Devices (AREA)

Abstract

動的に再設定可能な異種混合のシストリックアレイは、第1の画像フレームを処理し、前記画像フレームからの画像処理基本要素を生成し、前記基本要素及び対応する画像フレームを記憶格納部に格納するように構成される。画像フレームの特徴が決定される。かかる特徴に基づいて、次の画像フレームを処理するために前記アレイが再設定される。
【選択図】 図6

Description

優先権
この出願は、2010年12月2日に提出された米国特許出願第12/959,281号、及び2010年7月7日に提出された米国仮特許出願第61/362,247号に対して優先権を主張する。
背景
デジタル画像システム内の画像センサーによって画像が得られた後に、当該画像は、通常、装置での表示または記憶の前に処理される。典型的な画像処理連鎖又は画像処理パイプラインすなわちIPP(Image Processing Pipeline)は、図1に示される。図1に示すIPPの例は、露光及びホワイトバランスモジュール2、デモザイク部4、色補正部6、ガンマ補正部8、色変換部10、及びダウンサンプリングモジュール12を含む。
実時間ビデオ画像システムを実装することが望まれる場合、画像データは、いくつかのオペレーションの後にIPPの各段階でメモリから典型的に読み出されて次にライトバックされるので、しばしば、そのようなIPPによる著しい制約がある。HDビデオに対して、記憶帯域幅は、重大な課題に悩む。したがって、ビデオ取得装置内のハードウェアの具体化においてIPPの要素を直接的に実装することが望まれている。これは、IPPの要素が処理の各段階の後に画像データをメモリに書き込み、後の個々のIPPオペレーションのためにデータを読み返す課題を回避するという長所を持つであろう。しかしながら、それは、IPP連鎖全体が単一の画像フレームからデータを入力するに先立って構成されるものであるため、IPPの各段階で適用された方法がそれ以上適応可能になりえなかったことを意味する。
現代のデジタルスチルカメラ(DSC)は、図1でいくつかの例示ブロックで示されるような基礎的なIPPによって提供されることよりも、もっと精巧な画像及びシーン分析を実行する。特に、画像取得装置は、画像シーン内の顔領域を検知し追跡することができ(全て同一出願人に指定され参照により本書に組込まれる、米国特許第7,620,218号、第7,460,695号、第7,403,643号、第7,466,866号、及び第7,315,631号、ならびに米国公開特許出願第2009/0263022号、第2010/0026833号、第2008/0013798号、第2009/0080713号、第2009/0196466号、及び2009/0303342号、及び米国特許出願第12/374,040号及び第12/572,930号を参照)、また、これらの装置は、そのような領域内の汚点や不完全部分を分析及び検知して、そのような欠陥を急いで修正することができる(参照により組込まれる上記文献及び米国特許第7,565,030号及び公開出願第2009/0179998号を参照)。粉塵汚点或いは「ピクシー(pixies)」のようなグローバルな不完全部分は、検知し修正することができる(例えば、全て同一出願人に指定され参照により本書に組込まれる、米国特許出願第12/710,271号及び第12/558,227号、及び米国特許第7,206,461号、第7,702,236号、第7,295,233号及び第7,551,800号を参照)。顔の増強が適用されることができる。画像のぼけ及び画像の動き、変換及び回転は、判定され補償されることができる(例えば、全て参照により組込まれる第7,660,478号及び米国公開特許出願第2009/0303343号、第2007/0296833号、第2008/0309769号、第2008/0231713号及び第2007/0269108号、ならびに国際公開WO/2008/131438を参照)。顔の領域は、認識されて、既知の人に関連付けられることができる(例えば、全て参照により組込まれる米国特許第7,567,068号、第7,515,740号及び第7,715,597号、及びUS2010/0066822号、US2008/0219517号、US2009/0238419号、及び米国特許出願第12/437,464号を参照)。これらの技術及び他のもの(例えば、同一出願人に指定され参照により本書に組込まれる、米国特許第6,407,777号、第7,587,085号、第7,599,577号、第7,469,071号、第7,336,821号、第7,606,417号及び第2009/0273685号、第2007/0201725号、第2008/0292193号、第2008/0175481号、第2008/0309770号、第2009/0167893号、第2009/0080796号、第2009/0189998号、第2009/0189997号、第2009/0185753号、第2009/0244296号、第2009/0190803号、第2009/0179999号及び米国特許出願第12/636,647号を参照)は全て、画像シーンの分析に依存する。典型的には、これは、このデータの様々な処理段階により、後続する記憶格納部からの画像データのブロックを読み出すことを含んでいる。中間のデータ構造は、各シーン分析アルゴリズムを促進するために、画像格納部内に一時的に格納されることができる。ある場合には、これらのデータが単一のアルゴリズムに特有であり、その一方で他の場合には、いくつかの異なるシーン分析アルゴリズムにわたってデータ構造が持続され得る。これらの場合では、画像データは、様々な画像処理オペレーションを遂行するために、画像格納メモリとCPUとの間で移動される。多数のアルゴリズムが適用される場合、画像データは、各画像で異なる画像及びシーン処理操作を遂行するために、典型的には数回読み込まれる。
殆どの上記技術については、分析は、殆どのデジタルカメラにより捕捉されカメラ表示部で実時間表示を提供するために用いられる、比較的低解像度のストリームである試写画像ストリームを含めることができる。したがって、主画像シーンを適切に分析するために、利用可能な少なくとも2つの実質的に同一シーンの画像を有することは、有用である。1つ以上の試写画像も格納される場合、これらも獲得された(最大解像度)主画像と結合して多数の場合に典型的に読み込まれる。加えて、処理は、様々なシーン分析アルゴリズムを促進するために、試写画像のアップサンプリングされたコピーまたは獲得された主画像のダウンサンプリングされたコピーを一時的に格納することを含み得る。
デジタルカメラ内では、画像は、典型的には個々に得られ、そして実質的な時間的間隔、典型的には1秒以上の状態で、シーン分析のための画像取得と個々の画像の後処理との間で利用可能である。例えば専門的なDSCのバーストモードで多数の画像が時間的にごく近接して得られる場合でさえ、有限個の画像が、制限されたメモリによって獲得され得る。さらに、これらの画像は、バースト取得の間に処理することはできないが、もっと精巧なシーン基盤での処理が実施できる前に完結するまでは、しばしば待機する。
現代のビデオ機器内では、データは大抵は30fps以上のフレームレートで処理され、また、メモリ制約のため、当該データは、多かれ少なかれデジタル処理で直ちに圧縮され、長期記憶格納部に書き込まれる。さらに、低解像度試写ストリームは、DSCの場合でのような一般的な利用が可能なものではない。最後に、完全なHDビデオストリームを扱う必要条件は、そのような機器内で記憶帯域幅が困難であることを意味する。
HDビデオ取得装置用のDSC内に現在利用可能であるような現代のシーン分析技術の利点を達成するために、我々は、いくつかの主要課題をこのように識別することができる。第1に、ビデオフレーム取得間で利用可能な時間内で完全なHDの複合的シーンを格納し分析を行うことは、困難である。これは単にCPU能力の問題ではなく、おそらくデータ帯域幅の問題がより重要である。完全なHD画像のサイズは、単にそのような画像らをIPPを介して画像圧縮ユニットと長期格納部に移動させることが非常に困難であることを意味する。IPPへのハードウェア追加によって幾らかの制限のあるシーン分析が可能となり得るが、これはビデオストリームのリアルタイム取得を開始するに先立って固定される多くの設定及び構成を含むであろうし、それらは動的に適応可能ではなく進行中のシーン分析に対応しないであろう。
第2に、非常に広く共有されるメモリバッファをIPPに導入することなく、シーン分析アルゴリズム間の画像処理データ基本要素(primative)を共有する余地はない。これは、図2に示された単一のIC内に、合理的でなく既存技術の状態を効果的に模倣するハードウェア設計の必要性に結びつくであろう。図2は、IPP及びソフトウェアにおける他の高水準の機能を実装するための従来のハードウェアを示す。メモリ14は、長期データ格納部18のみならず画像及びデータキャッシュ16を含むことが示される。キャッシュ16は、未加工データ20、RGBフォーマット済みデータ22及びRGB処理済みデータ24を格納することができ、他方、長期データ格納部18は、MPEG画像26及び/又はJPEG画像28を保持することができる。センサー32は、未加工データをメモリ14及びIPP34に伝送する。IPP34は、さらにメモリ14からデータを受け取る。IPP34は、RGBデータ22をメモリ14及び16に提供する。RGBデータ22,24はまた、処理されたRGbデータをメモリ14に及びRGBデータ22をトランスコードモジュール38に提供するCPU36によって、検索される。トランスコードモジュール38は、メモリ14,18に/から、データの提供/検索を行う。さらに、トランスコードモジュールは、例えば図示されたLCD/TFT表示部40に表示されるべきデータを提供する。
様々な実践上の理由から、これは最適な画像処理機構を提供しない。代案は、各シーン分析アルゴリズムの各々に対して個別のハードウェア実装を備えることであるが、十分なシーン分析を行なうために各アルゴリズムが最大の画像フレームのバッファーを使用するであろうことから、これは結局のところ、さらに非常に大きなハードウェアサイズとなるであろう。
これらの広い領域の各々内に多くの追加的な工学的な巧みさがあるが、現在の最先端技術を使用して現在のシーン分析技術及び得られる画像増強の利点がリアルタイム動画に賢明に適用されないという、広く見渡された課題を確認することができる。したがって、実施の形態の有利なセットが以下に提供される。
従来の画像処理パイプライン(IPP:Image Processing Pipeline)を示す図である。 IPP及びソフトウェアにおける他の高水準の機能を実装するための従来のハードウェアを示す図である。 同質のシストリックアレイアーキテクチャーを示す図である。 特定の実施の形態に従った、通り道(pass−through)特性を含む画像処理、すなわちAHIP用の高度なハードウェアでのIPPハードウェアを示す図である。 特定の実施の形態に従った、様々な画像処理基本要素についての連鎖を処理するために配列されたいくつかの総括的な処理モジュールを含むAHIPモジュールを示す図である。 特定の実施の形態に従った、主CPU、ハードウェアモジュール、画像センサー及びSDRAM読み取り/書き込みチャンネルの相互関係を示す図である。 特定の実施の形態に従った、画像を含む記憶格納部とAHIPモジュールを備えたデータキャッシュとの相互関係を示す図である。 特定の実施の形態に従った色閾値化モジュールを示す図である。 特定の実施の形態に従った、オリジナルの画像及び皮膚色マップを16(4ビット)の閾値を用いて示す図である。 色空間変換、色閾値化、フレーム毎の登録、積分画像及び/又は積分二乗画像基本要素及び/又は画像フレームヒストグラムデータを出力する、特定の実施の形態に従ったAHIPモジュールを示す図である。 特定の実施の形態に従った、AHIPモジュールと他の画像処理構成要素との処理関係を示す図である。
(実施の形態の詳細な説明)
実施の形態は、完全な画像フレームを得ることに関することよりも著しく低い遅延を伴って連続的、画素毎に入力される画像フレームからリアルタイムに引き出される一連の画像処理基本要素を生成するハードウェアサブシステムを含み、以下に記述される。これらの基本要素(primative)は、画像フレームが得られた後に非常に直ぐに或いはほとんど即時にでも利用可能であり、また、この画像フレームを更に処理するために、次の画像フレームが得られているときに用いることができる。
さらに、シーケンスの前の画像フレームの処理から決定されたデータは、現在の画像フレームから引き出された画像処理基本要素と組み合わせるために利用可能とされることができる。これは、画像の低解像度試写ストリームを別個に捕捉することなく(そのようなものは特定の実施の形態中で任意に利用され得るが)、フレームシーン処理によって詳細なフレームを可能とする。
クロック周期入力当たり1つの画素を使用して作動し、及び/又は、現在の画像/ビデオフレームに関する有用な知識を提供する多くの異なるタイプの画像処理基本要素を生成する実施の形態も記述される。各々の基本要素は、1つ以上の画素処理ブロック或いはモジュールを含む処理連鎖によって生成される。これらは、動的に切り替えられ得る複数の内部データバスによって共にリンクされる。特定のそれほど複雑でない実施の形態において、主要な入力モジュールは、画像センサー/IPPから共通の入力データパスを共有するかもしれないが、モジュールはデータ経路に直接リンクされ得る。
多数のモジュールは、同じ入力データを共有することができる。さらに、個々の処理ブロックの出力は、論理的に組み合わせられることができる。多数の処理連鎖からの個々の出力は、外部メモリ(SDRAM)に出力される前に、これがメモリと外部メモリのバスの最適な使用を促進するように、単一のデータワードへ典型的に組み合わせられる。処理連鎖ら間の処理時間の差のために、同期モジュールは、論理的な回路類に統合されて、出力データの正確な整列を保証する。
生成された画像基本要素は、より多くの適用し得る画像処理技術の間で、赤目検出、顔検出及び認識、顔美化、フレーム毎の画像登録、及びパノラマ画像の生成のためのマルチフレーム画像接続を含む一連の画像処理オペレーションの性能を加速するために有利に使用することができる。さらに、これらの基本要素の可用性は、一連のシーン分析及び処理のアルゴリズムの遂行を大いに単純化する。これは、特に、CPUまたはGPUでの後の処理のために、記憶格納部から完全な画像フレームを読み書きする傾向を、有利に縮小することが可能になる。ほとんどの場合、適切な画像基本要素(ら)及び主画像は、特定のアルゴリズムで画像を分析する及び/又は増強するために、一度だけ読み込まれるのみである。さらに、単一画像読み取りに関するこれらの多数のアルゴリズムを実行するために、主獲得画像の単一の読み取りと共に多数のアルゴリズムから基本要素をロードすることが可能である。これは、ビデオストリームを処理するために利用される記憶帯域幅を大いに縮小する。個々の読み取り/書き込みバスが利用可能なところでは、さらに、主要なCPU/GPUで1つの画像フレームを処理することが可能であり、一方で、第2の画像フレームが取得されIPP及びAHIPモジュールによって前処理される。
さらに、このシステム構成は、画像フレームの分析から引き出されるデータが、CPU/GPUによって処理されて、IPPまたはAHIPモジュールにフィードバックされ、次の画像フレームの前処理に適応されることを可能にする。IPPにより適用された広域な画像処理及びAHIPにより適用されたシーンに特有の画像処理の両方のこのきめ細かい適応は、ビデオ取得器具のより速く、より反応の良い性能を実現する。これは、次には、例えば顔領域の分析及び皮膚の関連する色マップに基づいて、照明状態が変化している状況での動画取得のより速い順応を可能とする。そのような技術は、特定の実施の形態に従って、動画取得に有利に直ぐに適用可能である。
この点では、フレームカウンタ及び関連するロジックも、特定の実施の形態の中で利用されることができる。各フレーム処理周期の終わりに、内部の画素処理連鎖を再構成することが可能である。これは、新たなLUTらをロードすること、個々の画素処理ブロックの処理パラメーターを変更すること、或いは幾つかの場合には、処理連鎖における順序またはブロックらの論理的組合せを再構成すること、を含み得る。特定の実施の形態では、モジュールは、選択され或いは回避される。より洗練された実施の形態では、データ処理モジュールは、1台以上の内部データバス上のI/Oポートを共有する。特定の実施の形態では、モジュールへの/からのほぼ同時の読み取り/書き込み動作を可能にするために、二重バッファ型のI/Oが採用され得る。
特定の実施の形態に従って、第1の画像フレームを処理するために、また、画像フレームから画像処理基本要素を生成し、さらに、かかる基本要素及び対応する画像フレームを記憶格納部に格納するために、動的に再設定可能な異種混合のシストリックアレイが構成される。画像フレームの決定された特徴に基づいて、動的に再設定可能な異種混合のシストリックアレイは、次の画像フレームを処理するために再設定可能である。
画像フレームの特徴の決定は、シストリックアレイの外部で遂行され得る。少なくとも1つの特徴の決定は、画像フレームの少なくとも一部分及び画像処理基本要素の少なくとも1つを処理することに基づくことができる。
特定の実施の形態に従った画像取得及び処理装置は、プロセッサーと、デジタル画像フレームを取得するためのレンズ及び画像センサーと、本明細書の任意の実施形態に従って記述されるように構成された、動的に再設定可能な異種混合のシストリックアレイのうちのいずれかを含む。
特定の実施の形態に従った動的に再設定可能な異種混合のシストリックアレイを使用する画像処理の方法は、第1の画像フレームを取得し処理することを含む。かかる画像フレームから画像処理基本要素が生成される。かかる基本要素及び対応する画像フレームは、記憶格納部に格納される。画像フレームの少なくとも1つの特徴が決定され、かかる少なくとも1つの特徴に基づいて、本方法は、次の画像フレームを処理するために配列を再構成することを含む。
少なくとも1つの特徴の決定は、シストリックアレイの外部で遂行され得る。少なくとも1つの特徴の決定は、画像フレームの少なくとも1部分及び画像処理基本要素の少なくとも1つを処理することに基づくことができる。
特定の実施の形態に従って、さらなるデジタル画像取得及び処理装置が提供される。かかる装置は、デジタル画像を取得するためのレンズ及び画像センサーを含む。本装置の画像処理パイプライン(IPP)モジュールは、画像フレームの未加工画像データを受け取り、対応するフォーマットされた画像データを、メモリと、画像処理を遂行するように構成されたハードウェアモジュールと、に分配するように構成される。ハードウェアモジュールは、IPPモジュールから画像フレームのフォーマットされた画像データを受け取り、シーン処理基本要素をメモリに提供する。処理装置は、メモリから受け取られ、ハードウェアモジュールによって提供されるシーン処理基本要素に基づいて次の画像フレームを処理するように設定される。
シーン処理基本要素は、処理された画像マップ、または、他の処理されたハードウェアモジュールデータ或いはこの両方を含めることができる。ハードウェアモジュールもまた、フォーマットされた画像データをメモリに提供するように設定されることができる。処理された画像マップは、閾値マップ又は積分画像マップ、或いはこの両方を含めることができる。シーン処理基本要素は、局所的な基本要素またはフレームデータ基本要素、或いはこの両方を含めることができる。かかる処理装置は、さらに、フォーマットされた画像データをメモリから受け取ることができる。
本装置は、処理された画像データを処理装置から受け取り、圧縮された画像または動画またはこれら両方をメモリに提供またはメモリから受け取るように設定されたトランスコードモジュールを含めることができる。かかるトランスコードモジュールは、表示部に、画像データまたは動画データ或いはこれら両方の選択されたサブセットを出力するように設定されることができる。
ハードウェアモジュールは、単一のクロック周期内で画像データを処理するように設定されることができる。処理装置は、さらに、ハードウェアモジュールまたはIPPモジュール或いはこれら両方をプログラミングするように設定されることができる。
特定の実施の形態に従ったデジタル画像の取得及び処理の他の方法は、デジタル画像を取得すること、及び画像フレームの未加工画像データを受け取ること、及び対応するフォーマットされた画像データをメモリ及びハードウェア基盤の画像処理モジュールに分配すること、を含む。かかる方法は、さらに、画像フレームのフォーマットされた画像データをハードウェア基盤の画像処理モジュールで受け取り、シーン処理基本要素をメモリに提供すること、及び、ハードウェア基盤の画像処理モジュールから提供されたシーン処理基本要素をメモリに格納すること、を含む。後続の画像フレームは、メモリから受け取られ、ハードウェア基盤の画像処理モジュールによって提供されたシーン処理基本要素に基づいて処理される。
シーン処理基本要素は、処理された画像マップまたは他の処理されたハードウェアモジュールデータ、或いはこの両方を含めることができる。フォーマットされた画像データは、ハードウェア基盤の画像処理モジュールからメモリに供給されることができる。閾値マップまたは積分画像マップ或いはこれら両方を含む画像マップは、処理されることができる。シーン処理基本要素は、局所的な基本要素またはフレームデータ基本要素、或いはこの両方を含めることができる。フォーマットされた画像データは、メモリから受け取られることができる。処理された画像データはトランスコードモジュールに送られることができ、また、圧縮された画像または動画のデータは、トランスコードモジュールに送信またはトランスコードモジュールから受信されることができ、或いはこれらが組み合わせられることができる。画像データまたは動画データ或いはこれら両方の選択されたサブセットは、表示部に出力されることができる。画像データは、ハードウェア基盤の画像処理モジュールで単一のクロック周期内に処理されることができる。ハードウェア基盤の画像処理モジュールは、プログラミング可能及び/又は再設定可能なものとすることができる。
未加工画像データを取得して対応するフォーマットされた画像データをハードウェア基盤の画像処理モジュールに分配する画像取得及び処理装置内で動作するためのハードウェア基盤の画像処理モジュールがさらに提供され、かかるハードウェア基盤の画像処理モジュールは、メモリから受け取られハードウェア基盤の画像処理モジュールにより提供されたシーン処理基本要素に基づいて、後続の画像フレームを処理するために、メモリ内に格納されるべきフォーマットされた画像データに基づいてシーン処理基本要素を生成してメモリに提供するように設定される。
シーン処理基本要素は、処理された画像マップ、または、他の処理されたハードウェアモジュールデータ、或いはこの両方を含めることができる。モジュールは、フォーマットされた画像データをメモリに提供すること、及び/又は、閾値マップまたは積分画像マップ或いはこの両方を含む画像マップを処理するように設定されることができる。シーン処理基本要素は、局所的な基本要素またはフレームデータ基本要素、或いはこの両方を含めることができる。モジュールは、フォーマットされた画像データをメモリから受け取って処理すること、及び/又は、処理された画像データをトランスコードモジュールに送信し、かつトランスコードモジュールとの間で、圧縮された画像または動画データを送受信し、或いはこれらを組み合わせるように設定されることができる。モジュールは、さらに、画像データまたは動画データ或いはこれら両方の選択されたサブセットを表示部に出力し、及び/又は、画像データをハードウェア基盤の画像処理モジュールで単一のクロック周期内に処理するように設定されることができる。かかるモジュールは、プログラミング可能及び/又は再設定可能なものとすることができる。
特定の実施の形態に従って、第1の画像フレームを処理するために、動的に再設定可能な異種混合のシストリックアレイが構成される;前記画像フレームの少なくとも1つの小区域の位置を識別し、前記小区域から少なくとも1つの画像処理基本要素を生成し;及び、前記基本要素を画像フレーム及び小区域の位置と共に記憶格納部に格納する。かかる動的に再設定可能な異種混合のシストリックアレイは、画像フレーム又は小区域あるいはこれら両方の1以上の決定された特徴に基づいて、後続の画像フレームを処理するために再設定可能とされる。
少なくとも1つの特徴の決定は、シストリックアレイの外部で遂行されることができる。少なくとも1つの特徴の決定は、画像フレームの少なくとも一部分及び画像処理基本要素の少なくとも1つの処理に基づくことができる。
特定の実施の形態に従った画像取得及び処理装置は、プロセッサーと、デジタル画像フレームを取得するためのレンズ及び画像センサと、本書で記述された任意の実施形態に従って構成される動的に再設定可能な異種混合のシストリックアレイと、を含む。
動的に再設定可能な異種混合のシストリックアレイを用いる画像処理の方法も提供され、第1の画像フレームを取得及び処理すること;前記画像フレームから複数の画像処理基本要素を生成すること;前記画像フレームの少なくとも1つの小区域の位置を識別して、前記小区域から少なくとも1つの画像処理基本要素を生成すること;前記基本要素を前記画像フレーム及び小区域の位置と共に記憶格納部に格納し、前記画像フレームまたは小区域の少なくとも1つ或いは両方の特徴を決定すること;前記特徴に基づいて、次の画像フレームを処理するために前記アレイを再設定すること、を含む。
少なくとも1つの特徴の決定は、動的に再設定可能な異種混合のシストリックアレイの外部の一部分において行なわれることができる。少なくとも1つの特徴の決定は、画像フレームの少なくとも1つの部分及び前記画像処理基本要素の少なくとも1つを処理することに基づくことができる。
シストリックアレイ

シストリックアレイのパラダイム、つまり、データカウンタによるデータストリーム駆動は、フォンノイマンのパラダイムに相当するものであって、すなわち、プログラムカウンタによる命令ストリーム駆動である。シストリックアレイは、通常、多数のデータストリームを送出及び受け取り、そして、これらのデータストリームを生成するために多数のデータカウンタが使用されるので、データ並列処理をサポートする。その名前は、心臓による血液の規則的なポンプ機能によるアナロジーに由来する。
シストリックアレイは、セルと呼ばれるデータ処理ユニットのマトリックス状の列からできている。動作が移送すなわちデータオブジェクトの到着によって引き起こされるので、データ処理ユニットら(すなわちDPUs)は、プログラムカウンタの不足以外は、中央処理装置ら(CPUs)に類似している。各セルは、処理直後にその隣のセルと情報を共有する。シストリックアレイは、多くの場合矩形であり、そうでなければ、そのセルは、隣接したDPUの間でデータフローが当該アレイを横切り、しばしば異なったデータフローが異なった方向で流れるように行及び/又は列で配列される。図3は、そのような均質のシストリックアレイアーキテクチャーの例を示す。当該アレイのポートから入力され出力されるデータストリームは、自動シークエンシング記憶装置らすなわちASMs(Auto−Sequencing Memory units)によって生成される。各ASMは、データカウンタを含む。埋め込み型のシステムでは、データストリームも外部源に対して入力及び/又は出力されることができる。
シストリックアレイは、少数の最も近い近隣DPUにメッシュ状のトポロジーで接続されるDPUのアレイを含めることができる。DPUは、それらの間を流れるデータに関する動作のシーケンスを遂行する。従来のシストリックアレイ同期方法は、代数のアルゴリズムによって実行されたので、線形の管(pipe)だけを備えた一定の配列だけを得ることができ、その結果、アーキテクチャーは全てのDPUにおいて同じである。その結果、古典的なシストリックアレイ上では、規則的なデータ依存性を備えたアプリケーションだけが通常実行されるということである。
SIMD(Single Instruction/Multiple Data:単一命令/複数データ)マシンのように、クロック化されたシストリックアレイは、代替の計算/通信段階を引き受ける各プロセッサーと共に、「ロックステップ」で計算する。
しかしながら、DPUら間の非同期応答確認を備えたシストリックアレイは、しばしばウェーブフロントアレイと呼ばれる。1つの有名なシストリックアレイは、インテルによって製造されたカーネギーメロン大学のiWarpプロセッサーである。iWarpシステムは、両方向に行くデータバスで接続される線形のアレープロセッサを有する。
AHIP(画像処理のための進化したハードウェア)

図4は、AHIP(Advanced Hardware for Image Processing:画像処理のための進化したハードウェア)を備えたIPPハードウェアを含む実施の形態を概略的に示す。図4で示されたAHIPは、通り道(pass-through)の性質を有している。図4は、画像及びデータキャッシュ46及び長期データ格納部48を含む記憶格納部44を示す。かかるキャッシュ46は未加工データ50、RGBデータ52及び処理されたRGBデータ54を含み、上記長期データ格納部は、MPEG画像56及び/又はJPEG画像58を含めることができる。図4で示された実施の形態は、さらに、例えば局所の基本要素62、フレームデータ基本要素64、閾値マップ66及び/又は積分画像マップ68を含むシーン処理基本要素60を有利に含める。
図4はさらに、メモリ44及びIPP74に未加工データを伝送するセンサー72を示す。IPP74は、メモリ44からも未加工データを受け取る。IPP74は、メモリ44,46にRGBデータ52を供給する。RGBデータは、IPP74によって、有利なAHIPモジュール75に供給される。AHIPモジュール75は、処理された画像マップ、AHIPモジュールデータ、及びRGBデータをメモリ44,46に供給する。メモリ44,46は、RGBデータ、画像マップ、及びAHIPモジュールデータをCPU/GPU76に供給する。CPU76は、処理されたRGBデータ54をメモリ44及びトランスコードモジュール78に供給する。CPU76は、さらに、図4で概略的に示したように、IPPモジュール74及び/又はAHIPモジュール75をプログラミングすることができる。トランスコードモジュール78は、メモリ44,48にデータを提供し、また、メモリ44,48からデータを検索する。トランスコードモジュール78は、さらに、例えばLCD/TFT表示部80に、表示に関するデータを提供する。
有利に、特定の実施の形態では、1つの標準画像画素がクロック周期毎に得られ、また、この画素は、様々な方法の内の1つ又は2つ以上で処理される。いくつかの異なるタイプの出力は、各々の個々の画素の処理から並行的に生成されることができる。ハードウェア要素を重複させることで、各出力タイプの1つを越えるインスタンスを提供することができる。このハードウェアサブシステムは、全てのクロック周期で画素を処理することができるので、上記センサーからの画像画素の転送を遅らせることがなく、このために、IPPのどのような段階にも挿入されることができる。
多くの一般的なタイプの画像処理基本要素は、識別されることができ、また、AHIPモジュールによって生成される。以下の議論を明確にするために、画像データは「画素」(画像素子)と称されることがあり、また、出力基本要素におけるデータ値は「マップ画素」と称されることがある。典型的には、マップ画素は、画素(24或いは32ビット)よりも著しく小さくなる。例として、皮膚マップに使用されるマップ画素の1つの形式は、皮膚画素であるオリジナルの画素の4つの可能性に対応する2つのビットだけを持っている。他のマップ画素は、それが予め定められた色空間中の特定の色にどれくらい類似しているかを記述する16の閾値に対応する4ビットを持っている。類似性のこれら16レベルに対応する色空間閾値は、マップ画素を構成する最終出力データ基本要素マップとともにLUTに格納される。
第1のそのような基本要素は、マップ画素マッピングに対する直接の画素を含む。特定の実施の形態では、これは、特定の画素が色空間中の予め定められた値にどれくらい接近しているか決定する、色又は輝度の閾値化を含めることができる。特定の実施の形態では、このデータは、一連の15の閾値として捕らえられ、4ビットの画像マップに書き込まれることができる。これらの閾値は、CPU/GPUによって画像フレーム毎に調節されることができる。
典型的な実施の形態では、各閾値のデータ値は、画像画素が皮膚色にどのくらい近いかを測定するために設定される。そのような画像マップは、顔の部位の異なる皮膚領域らを区別するために有利に使用することができ、顔追跡及び顔の美化のようなアプリケーションに役立つことができる。
画像基本要素のこの形式は、クロック周期の点から、単に小さな一定の遅延を招く。出力画像マップは、典型的には、画像の最後の画素がAHIPに入力された後のクロック周期の数十個以内に利用可能である。
画素からマップ画素への処理に関する1つの変形は、多数の画素が処理されたときに、単一の出力画素を生成することである。これは、未加工(RAW)入力画像のサブサンプリングに相当する。いくつかの実施の形態では、画素のブロックは、対応する出力基本要素データを生成するために、処理される前に、ハードウェアラインバッファーに一時的に格納される。代替の実施の形態では、画素は個別に処理され続けるが、各々の個別の画素の処理からの出力は、単一のマップ画素を生成するために、予め定められた幾つかの方法で組み合わせられる。
基本要素の第2の形式は、基本要素で派生したカーネルである。そのような基本要素についてのマップ画素は、現在の画像画素についての知識、及び当該画像の少なくとも1つ前の画素から引き出される。多くの技術はNxNカーネルを指定し、それは、現在の画素に対応する出力値が、画像内の水平及び垂直方向の両方におけるN個の隣接した画素から決定されることを意味する。特定の実施の形態では、画素データが典型的には単にAHIPモジュールに連続して利用可能であるので、それらの実施の形態では、IPPを通じて画像センサーから一列づつ(及び/又は一行づつ)直接計測されるであろう。画像データの十分な列は、カーネル派生基本要素をサポートするために、これらの実施形態で典型的にバッファーされるであろう。
特定の実施の形態では、画像データの7つ(7)の列がそれらの全体に格納され、また、8番目の画像列が移動される。これによってモジュールは、8x8までのカーネルから引き出された画像処理基本要素を生成することができる。この実施の形態では、現在の画像フレームに対して最大(full)カーネル基本要素画像マップが利用可能になる前に、画像の列サイズの8倍の(1080pに対する8×1920)状態の遅延が存在する。しかしながら、これは依然として完全な画像フレーム(1000の画素列)を取得するために費やされた総時間の1%未満であり、その結果、画像フレーム基本要素データは、最終フレーム取得が完了する直後に直ちに利用可能になる。
画像処理基本要素から引き出されるカーネルの1つ特定の例は、赤目区分化である。例えば、参照により組込まれる米国特許第6,873,743号では、画像上で2x2区分化を行なうための技術が記述される。これはLAB色空間上で作動する。基本要素から引き出されるカーネルの他の例は、画像の輝度構成要素に関して遂行される積分画像の計算である。まもなく説明されるように、AHIPは、特定の実施の形態に、幾つかの一般的に使用される色空間ら間で入力画素データの素早い変換を可能とする色空間変換モジュールを組み入れる。したがって、個々のRGB画素データは、AHIPの内の無視できる遅延でYCCまたはLab色空間に変換することができる。
基本要素の3番目の形式は、フレーム由来の基本要素を含む。これらは、単一の画素或いは画素のブロックが対応する単一のマップ画素出力を生成しないデータ基本要素の例である。画像処理基本要素のこの形式の1つの例は、沢山の2値(bin)で予め形成されるヒストグラムモジュールである。入力画素データは、1セットの閾値について分析され、その値に基づいたヒストグラム2値に分類される。画像フレームの終わりに、各々のヒストグラム2値は、その上限及び下限の閾値範囲を満たす画素数の総数を含む。
基本要素の1の種類について挙げられた例と結合される場合、1セットの16の皮膚色ヒストグラム2値内にある特定の画像フレーム中に、どれだけ多くの画素があるかを測定することが可能である。これは、次には、例えば追跡された顔領域内に検知された皮膚画素が余りに多い、または余りに少ない場合に、次の画像フレームのために皮膚色閾値を調節する必要があることを示唆し得る。AHIP内のハードウェアアーキテクチャーは、画像フレームを処理するに先立って、処理ブロックによって動的に再構成することができるように設計されている。特定の実施の形態に従って、追加の並行処理ブロックは、そのようなハードウェアアーキテクチャーに加えられることができる。
他の実施の形態では、AHIPによって、色相関曲線またはヒストグラム状のデータの他の形式が決定されることができる。そのような基本要素は、カーネルデータを生成するために使用されるバッファー列の同じセットから有利に決定されることができ、その違いは、ヒストグラムまたは相関曲線のデータが、カーネル由来の基本要素によって提供された入力から出力への1対1写像というよりむしろ、多数の画素から決定されたフレーム由来の基本要素を提供するということである。
フレーム由来の基本要素の他の形式は、画素列及び画素行の値の合算を遂行するものを含む。これは、現在の画像フレームと1つ以上の前の画像フレームとの相関性を可能にする。そのような基本要素は、現在のフレームから決定された1つ以上の基本要素が1つ以上の後続の画像フレームのために記憶され得るという、AHIPの別の側面を導入する。そのような基本要素は、最大画像フレームまたはリアルタイム処理の利点が完全には実現されないものよりも、著しく小さいものとすることができる。特定の実施の形態では、そのような基本要素らに対する特有のサイズ制限は、処理された画像の最大の列サイズと比較してそれらが少しも大きくないということである。
特定の実施の形態では、そのようなデータは、外部の記憶格納部に書き込まれることなくAHIPモジュール内に保持されることができる。したがって、画像フレーム由来のデータ及び/又は画素由来のデータは、画像フレーム基本要素のより速い処理を促進するために、AHIP内に蓄積されることができる。
基本要素の4番目の形式は、主画像フレームの特定の空間の領域に由来する。これらの基本要素は、本来的により複雑であり得るし、いくらかの基礎的な基本要素とともに、領域のより複雑なハードウェア処理を、1つ以上の先行する画像フレームに関しCPU/GPUに由来する外部データと組み合わせることができる。
ハードウェアは、デジタル画像中の顔領域の位置を予測することを含む処理に使用されることができる(例えば、参照により組み込まれる米国特許第7,315,631号及びその子孫の出願、及び第7,466,866号を参照)。特定の実施の形態では、知識は、現在の画像フレーム内検知されるべき顔を予期することができる場所に関して、1つ以上の前のフレームに集められる。このアプローチは、現在のフレーム中の顔検出を行なうことよりも速いという長所を有し、また、集められた情報は、現在の画像フレームの前であっても様々な目的に使用されることができる。
具体的には、これがGPU/CPU上のソフトウェア中で遂行される追加的な画像処理に依存するので、画像フレームの速い処理中にそのような領域の非常に正確な位置を決定することは、通常は困難である。結果として、通常、AHIPによる画像フレームの第1のハードウェア処理中に、空間の領域の場所が単に近似的に決定される。しかしながら、これらの近似の位置は、有利にマークされることができ、典型的には主画像よりも著しく小さい。1つの実施の形態では、幾つかのそのような予測された領域は、次のフレーム周期に関する更なる処理のために、AHIPのバッファー内に格納されることができる。代替の実施の形態では、これらは主画像と一緒にメモリに書き込まれるが、特にそのような領域を処理するために設定された第2のAHIPモジュールによって後にロードされる。この第2の実施の形態では、メモリの下位システムが2重ポートであるという事実を利用する。したがって、次の画像フレームが主要なAHIPによって処理されてメモリに書き込まれる場合、前の画像フレームからの1つ以上の予測された領域は、より特殊化された処理のために第2のAHIPモジュールにリードバックされることができる。この実施の形態では、特定の画像領域は、典型的には、次の画像フレームが一般的に処理されている間にのみ、処理されるであろう。それにもかかわらず、単一フレーム遅延は、容易に補償されることが可能であって、ビデオシーケンスのリアルタイム処理に近づけることを達成する目的を危うくすることはない。
非常に一般的な空間の1つの領域は、予測された顔領域である。これは、顔領域が位置するであろうとの高い可能性のある、現在の画像フレームの領域である。そのような領域は、顔追跡アルゴリズム中で頻繁に使用される(参照により上に組込まれる、米国特許第7,315,631号及びその子孫の特許を再び参照)。そのような領域の一般的な使用は、顔が生じる可能性の高い画像領域に対して、赤目検出のような画像処理アルゴリズムのアプリケーションを制限することである。
図5は、AHIPモジュールを、様々な画像処理基本要素のための処理連鎖に配置された幾つかの総括的な処理モジュールで概略的に示している。図5では、画像センサー82、SDRAMメモリ84、AHIPモジュール85それ自体、及びCPU86が示される。AHIPモジュールは、CPU86と通信するAHIP設定管理部90を含む。さらに、AHIPモジュール85は、参照テーブル(LUT)モジュール92、データ構成モジュール94、論理モジュール96及び同期モジュール98を含む。前に図4で示されたように、特定のRGBデータ102は、メモリ84に早急に格納される。しかしながら、特定の他のRGBデータ103は、AHIPモジュール85によって、1つ以上の画素処理モジュール106、1つ以上のフレーム処理モジュール107、1つ以上の領域処理モジュール108、及び1つ以上のカーネル処理モジュール110で処理される。特定のRGBデータ103はフレーム処理モジュールで処理されることができ、また、そのフレームデータ112は、メモリ84に格納される。特定のRGbデータ103は、1つ以上の画素処理モジュール106で処理されることができ、続いて、一方の画素データ114は、メモリ84に格納され、或いは当該データはさらにカーネル処理モジュール110及び/又はフレーム処理モジュール107及び/又は領域処理モジュール108で処理される。(N−lにより示された)前のフレームのような隣接したフレームのRGBデータ116は、RGBデータ103と共に領域処理モジュール108で処理されることができる。その後、領域処理モジュール108で処理されたデータは、領域データ118としてメモリ84に格納されることができる。
前の画像の部分にアルゴリズムを適用することは多くの場合望ましいものであり、例えば、顔領域の正確な位置の十分な確認をさらにすることが可能である。予測された顔領域は、前の画像フレームから決定されることができ、多くの先行するフレームに関する顔及びカメラ動作の履歴を利用することができる。この点では、フレーム毎のdX及びdYの置換は、AHIPモジュールによって決定されることができ、フレームの最後の画素が処理された後、短い遅延の内に利用可能とされることができる。同様に、顔領域の位置及びサイズは、顔追跡器アルゴリズムの1つ以上のフレームの最後の番号で正確に知られることができ、これらのデータの両方は、新しい画像フレームの処理がAHIRによって開始された後、非常にすぐに利用可能になり得る。これらのデータは、現在の画像フレームに対する予測された顔領域の正確で動的な評価を有利に可能にする(全て同じ譲受人に承継され、参照により本書に組込まれる米国特許公開出願第2009/0303342号及び2009/0263022号、及び米国特許第7,460,695号、第7,403,643号及び第7,315,631号、同様に、米国特許公開出願第2009/00123063号、第2009/0190803号、第2009/0189998号、第20090179999号及び米国特許出願第12/572,930号、第12/824,214号及び第12/815,396号を参照)。
目領域及び/又は口領域及び/又は横顔(half face)領域のような顔領域または顔特徴領域(本出願と同じ譲受人に指定され、参照により本書に組込まれる米国特許出願第12/790,594号及び第12/825,280号を参照)は、ローカルメモリバッファーに最初に保存されることができる。典型的に、メモリがハードウェア主要部において高価なように、限られた数の「顔バッファー」とされ得るものであり、また、それらはサイズを最小限にするために最適化されることができる。実際、いくつかの実施の形態では、そのようなバッファーはAHIPの外部とされ得るものであり、主外部記憶格納部にこれらの領域を書き込むための帯域幅を含むことができる。他の実施の形態では、主画像内のそれらの位置は、それらが後に主記憶格納部から主画像フレームデータ内にアクセスされ得るように、記録されることができる。1つの実施の形態では、そのような領域は、AHIPモジュール内で内部的に格納されるであろう。しかしながら、AHIPバッファーのサイズが最大のHDビデオに対して大きすぎる或いはそうでない場合には、代替の実施の形態において、これらの顔領域は、次の主画像フレームが処理されて主メモリに書き込まれる間に、主メモリに主画像で格納され、第2のAHIPモジュールへ再びロードされる。
これらの実施の形態において、多くの顔検出及び認識技術が固定サイズ顔画像に適用可能であり、これらのメモリバッファは、そのような固定サイズ顔領域を幾らかの付加的な容量を持って収容するために十分に大きくされることができる。当該付加的な容量は、多くの要因を補うために使用されることができる: (i) 画像領域は予測されるものであることから、顔の非常に正確な位置は、画像の初期のAHIP処理の時には知られていない; (ii) 顔領域は正確に直立していない場合があり、適切に直立した顔領域を得るために、回転された面内とされる必要があり得る; この情報は、後で、顔領域の正確な位置が決定され、この顔領域内の目領域の位置が決定された後、役に立つようになるかもしれない;そのような時に、面内補正角度及びサイズ変更情報はAHIPに供給されることができるが、そのような時まで、顔領域は、対角線上に配向させられた顔領域を収容するために、付加的な記憶空間を使用する面内角度にあることができる; (iii)顔領域は、フレームからフレームにグローバルなサイズで変化することができる;いくつかの傾向は、過去の画像フレームの履歴から知られ得るが、さらに、これらの傾向から変化があった可能性もある。したがって、顔の正確なサイズは、主画像フレーム処理が完結した後、CPU/GPUによって領域データが処理されるまで、知られている又は知られていないことがあり得る。代替の実施の形態では、次の未加工(RAW)画像フレームが処理され書き込まれている間に顔領域がロードされ処理される場合、主画像及びそれに関連する基本要素の幾つかの付加的な処理は、CPU/GPUから利用可能になり得る。そのような場合、顔領域の位置のより正確な推定が利用可能となり得る。
他の典型的な実施の形態では、最大サイズ32x32の最終の固定サイズ顔領域が含まれるとみなされる。メモリバッファは、64x64の顔領域について1.99倍までのサイズ変更及び45度以内の回転という位置的、分数的に調整するために使用されてもよい。現在のフレームがAHIPによって第1に処理され、顔が存在する可能性のあるその画像フレームの予測された領域を我々が単に知っている場合であろうとも、これは、正確に位置した顔領域に対するバッファーサイズを定義する。従って、より大きな領域を格納することは有用であり得るものであり、例えば、96x96または128x128ピクセルのバッファーが予測される顔領域用のバッファーとして、当該予測される顔領域のサイズよりも50%或いは100%大きなものを備えるように使用されることができる。
予測された顔領域の位置及びサイズに関するデータが、前の画像フレームのソフトウェア処理からAHIPに渡される場合、これらの予測された顔領域は、96x96または128x128のそれぞれのAHIPバッファーに整数で縮小化される。典型的に、顔領域の処理については、単に輝度値を保持すればよく、したがって、これらのバッファーは1価であり、また、フルカラーデータは通常は保持されない。しかしながら、幾つかの実施の形態では、顔領域の輝度画像とともに皮膚マップの形式が生成され、格納されることができる。典型的に、顔追跡目的のための皮膚マップは、単に皮膚画素の3又は4つの状態でのみ表わす2ビットのみとすることができる。
そのような基本要素の一例は、追跡された顔領域に対する顔分類器のアプリケーションである。典型的には、顔領域は正確な水平にはならないので、予測された顔領域に由来したデータは、顔分類器を適用するに先立って、第1に水平な配向に回転させられ得る。そのような操作は、画像データのためのより大きなバッファーを要求するので、領域用バッファーの数及び各々のサイズは、多少制限され得る。この例における基本要素の出力は、(i)この領域が確認された顔をさらに含むこと; 及び/又は、(ii) 特徴ベクトルのセットは、整合し得ることを示すために1セットの既知の顔と整合させられることができること、を確認するために使用されることができる特徴ベクトルセットに対応する1セットのデータ値である。
図6は、主CPU、AHIPハードウェアモジュール、画像センサー及びSDRAMメモリ126の読み取り/書き込みチャンネル125の相互関係を示す。AHIP/CPUインターフェース128は、特定のレジスター及び/又は割り込みを提供する。YUVデータのためのB2Yインターフェース130は、図6に示され、センサー124及びAHIP部122間にある。
幾つかの原理タイプの画像フレーム処理は、AHIP内で実施される。それらの或るものは、以下に説明される。
フレーム毎のAHIP処理

図7は、現在のフレームNと結合されたフレームN−1からのデータの使用を示す。記憶格納部(画像データ及びキャッシュ)140は、図7に示された例での2つのフレームに従って分けられる。特徴のうちの幾つかは、図4を参照して説明されており、ここでは再度説明しない。例としての顔トラッキングに関して、予測領域142は、フレームN−1及びフレームNの両方についてメモリ140に格納される。メモリ140のフレームN−1部分内では、洗練された(Refind)領域及び局所的な初期のデータ143が格納される。これらは、フレームNに対するRGB画像フレームデータ及びフレーム基本要素145を生成するために使用される。フレームN−1の局所的なデータ144は、フレームNのRGBデータ149と共にAHIP部148に入力される。AHIP部のサブサンプリング及び/又は色空間は、ブロック150でフレームN−1の幾つかを再配置し、次に、フレームN−1の局所的なデータ144の全てを、フレームN部分でメモリ140に出力されるように、画素処理部154を通じて移動させる。フレームNのRGBデータ149は、サブサンプリング156及び/又は色空間再配置158とされることができ、或いはブロック160で処理された画素に先立つものでもない。画素処理160は、累積的、直接的、カーネル、領域及び/又は混合の画素処理を含めることができる。その後、データは、メモリ140のフレームN部分で格納される。
特定の実施の形態に従ったAHIPモジュールの様々な下位の要素の幾つかの説明は、ここでは簡潔に説明される。AHIPモジュールは、これらの例示的な下位の要素の内の、任意のものや全てを含めることができ、或いは何も含めないこともできる。
カラーマップユニット

カラーマップユニットモジュールは、同系色を備える画素のマップを作る。基準点Rは、入力色空間(例えばRGB)中で前もってプログラムされることができる。続いて、各入力画素Pに対して、当該カラーマップモジュールは、PとRの間のユークリッド距離dを計算し、次に、それを15のプログラム可能な閾値(T1...15)と比較することができる。これらはカスケードで評価され得るものであり、したがって、それらは、増加順(T1<T2...<T15−非常に厳密なものから非常に任意のものまで)で、有利に配置されることができる。d<Tnであれば、モジュールは、16−nの値を出力する。いずれの閾値も一致しない場合には、0が送り出される。図8は、特定の実施の形態に従った色閾値化モジュールを示す。
カラーマップの出力は、典型的には4ビットで表わされることができる。いくつかの実施の形態では、閾値のより小さなセットが実装されることができ、これは例えば8(3ビット)、または4(2ビット)、或いは2(1ビット)のみを用いることである。カラーマップモジュールは、入力に関し最大解像度画像を処理することができる。出力マップは、入力と同じ解像度を有することができ、また、各々の画素は、3D色空間中で前もってプログラムされた参照画素に対してどれくらい密接に適合するかを示すマッチング出力を生成することができる。
代替の実施の形態では、追加の並列の色モジュールは、入力チャネルのうちの1つをゼロまたは中点値にセットすることにより、画素が3つの色チャンネルの内の2つにどれくらい密接に適合するかの測定を可能にすることができる。他の実施の形態は、3つのチャンネルのうちの2つだけが比較のために使用される場合に、2D色モジュールを実装する。
カラーマップモジュールの機能性がユークリッド距離に依存するときに、入力色空間は、この距離が有意である(近接(proximity)は視覚的な類似性と等価である)空間とされるべきである。通常は、かかるモジュールは、RGB入力と共に使用されるべきであるが、それに限定されるものではない。
図9では、画像に適用されているカラーマップモジュールの例が提供される。この例における基準点は、RGB座標で与えられた皮膚状の色である。図9における左側に入力画像が示され、右側はカラーマップである(白色は極大値を表わし、その範囲は0乃至15である)。図9の例では、16の閾値(4ビット)が使用された。
色空間変換(CSC)ユニット

CSCは、プログラム可能な行列乗数が以下のように定義されて実装するように使用されることができる:




ここで、x=[Y,U,V]=入力画素、A及びB=プログラム可能な係数を備えたマトリックスである。
この構造は、YUV−2−RGB或いはRGB−2−YUVのような変換を行なうことができる。さらに、これは、YUVとカスタムの色空間との間の変換を行なうことができる。これらの変換は、画素を特別の性質を用いて識別するために、他のモジュールと共に使用されることができる。
飽和関数は、(値を0...255の整数範囲に制限するために)CSCの出力で実装されることができる。
図10は、画像センサー172からRGBデータを受け取り、メモリ174に画素データ及び/又はフレームデータを含むデータを提供するAHIPモジュール170を示す。図10のAHIPモジュール170の例は、画素処理モジュール176を含む。かかるモジュール176の2つは閾値化モジュール178に出力し、モジュール176の2つは、一方がヒストグラム180で他方が登録182である計数モジュールに出力する。論理モジュール184は、閾値化モジュール178から入力を受け取り、メモリ174に画素データを出力する。二値カウンタ186は、計数(ヒストグラム)モジュール180から入力を受け取り、メモリ174にフレームデータを出力する。dX,dYオフセット部188は、計数(登録)モジュール182から入力を受け取り、メモリ174にフレームデータを出力する。第1のRGB−2−YUV部190は、画素データを順々にメモリ174に出力する積算器(積分画像)モジュール192に出力する。第2のRGB−2−YUV部190は、二乗モジュール194及び画素データを順々にメモリ174に出力する積算器(積分2乗画像)モジュール196に出力する。
図11は、CPU202に割り込み204を提供し、CPU202から設定命令206を受け取ることを含み、CPU202と通信するAHIP部200を示す。AHIP部200は、B2Y部210を介してセンサー/B2Y208からデータを受け取ってメモリー212に出力する。
閾値化(THR)

このモジュールは、他のモジュールの出力を閾値化し、及びそれらを2進法の値(1ビット)に変換するための4つの8x1参照テーブル(LUT)を含む。AHIP内には、多数の閾値化ユニットが組込まれることができる。
ロジック機能(LF)

このモジュールは、さらにTHR或いは色マップモジュールのような他のAHIPモジュールの結果を組み合わせるために使用することができる6x6参照テーブル(LUT)を含む。これは、THR及びSKINのモジュールからの入力を備えた6つの異なるロジック機能を実装することができる。AHIP内に、多数の論理演算装置が組込まれることができる。
ヒストグラム(HIST)

ヒストグラムの計算は、オリジナルの入力データ(YUV)及び/又はCSCモジュールの出力に適用されることができる。これらのモジュールは各画素からの計算値を蓄積し、また、それらの出力は、画像フレームの画素がそれぞれAHIPによって計測された後に、利用可能である。ヒストグラムビンの数は典型的に16であり、また、各ビンの閾値はプログラム可能である。
積分画像蓄積部(II)−AKA領域計算モジュール

これらのモジュールは、積分画像を計算する(長方形の領域の速いエリア計算を考慮に入れる;例えば上記の参照により組み込まれる米国特許第7,315,631号、及び参照により組み込まれる米国公開特許出願第2002/0102024号を参照)ためのブロックを含んでいる。それらは、リアルタイム物体検出アルゴリズムが通常使用される。それらは、利用可能な3つの標準ブロックのうちのどれかであり得る:
II(エリア計算に使用され、オリジナルのYチャンネルに対するエリアを合計する)
II2(分散計算に使用される、Y二乗に関する合計)
皮膚II(皮膚マップに関する積分画像であり、領域における皮膚密度を与える)。
これらのモジュールは、各入力画素におけるそれらの値を蓄積して現在の蓄積された値を出力し、対応する積分画像の画素値または積分分散(Integral Variance)または皮膚積分画像マップを提供するために使用されることができる(例えば、参照により組込まれる米国公開特許出願第2010/0053368号を参照)。
複合的なダウンサンプリング部(DS)

このダウンサンプリング部は、他のモジュールについての画像を拡大縮小する。かかるモジュールは、低いゲート計算(gate−count)を備えながら合理的な水準の品質を提供することを目的とした。これは、主画像の可変での小型化を達成するようにプログラムされることができる。
固定ダウンサンプリング部(XDS:fiXed DownSamplers)

さらに、最近隣補間を使用することで、より単純なダウンサンプリング部の実装が利用可能となる。これらは、固定分解能でマップの同時の計算を可能とする。典型的には、2倍(x2)、4倍(x4)及び8倍(x8)のダウンサンプリング部が利用可能になる。
ワークフロー

AHIPは、デ−バイエル(De−Bayer)モジュール(センサーインターフェース)の後、画像パイプラインの終わりで統合されるように設計され得る。YUVはAHIPの在来の色空間であると考えられているが、いくつかの内部モジュールは、同様に他の色空間を扱うことができる。センサーインターフェースに加えて、AHIPは、メモリからデータを読み込むために再生インターフェースを提供する。試写モードにおいて、AHIPは、センサークロック速度(1画素当たり1個のクロック)でデータを扱うように構成され得る。AHIPによって処理されたデータは、ターゲットシステム(SDRAM)のメインメモリに書き込まれることができる。モジュールの1つ以上は、レジスターに値を出力することができる。AHIPは、インターフェースから他のモジュールに出力されるストリーミングを供給するように構成されることができ、またはそのような構成とはされない。
以下は、AHIPでの典型的なワークフローの例である:
・ センサー或いはメモリからの生(Live)のデータがAHIPに送信される(1回に1つの画素)。
・ フレームの期間に、AHIPはその計算を行なう:
・ 1つ以上のモジュールが、内部統計データを更新する。
・ 他の1つ以上のモジュールは、システムメモリにデータ(マップ)を書きこむ。これは、典型的には、入力に対して最小の遅れ(つまり、画素が中に入るにつれて、データが外に出る)を実行し得る。
・ フレームの終了の後に、AHIPは、CPUに対する割り込みを引き起こす:
・ 標準状態では、当該割り込みは、新鮮なデータが利用可能であるとCPUに通知する。
・ さらにエラー状態を信号で伝える割り込みがあり得る。
・ CPU割り込みハンドラーが呼び出される:
・ それは、AHIPレジスターを読み込んで、割り込みの理由を見つける。
・ その後、それは、(例えば、そうすることが有利だろうという測定に基づいて)任意にAHIPを再構成し、当該割り込みを認める。
・ さらに、それは、ハードウェアからのデータが利用可能であること(及び、それをアルゴリズムが使用し始めること)を他のCPUスレッドに信号で伝える。
本発明の典型的な図面及び特定の実施の形態が記述され示されたが、本発明の範囲は、議論された特定の実施の形態に制限されものではないことが理解されるべきである。したがって、実施の形態は、限定的なものというよりむしろ例示的なものとみなされるべきであり、また、当業者によって、本発明の範囲を逸脱することなく、それらの実施の形態での変形例が作られ得ることが理解されるべきである。
加えて、好ましい実施の形態によってここに実行されることができる上述された方法では、オペレーションは、選択された活版印刷の順序で記述された。しかしながら、当該順序は選択されたもので、かつ活版印刷の便宜のために命じられたものであり、特定の順序が表明され得る場合、或いは当業者が特定の順序を必要であると考える場合を除いて、オペレーションを行なうためにいかなる特定の順序も意味するようには意図されない。

Claims (15)

  1. 第1の画像フレームを処理し、前記画像フレームから複数の画像処理基本要素(primative)を生成し、前記基本要素及び対応する画像フレームを記憶格納部に格納するように構成された、動的に再設定可能な異種混合のシストリックアレイであって、
    前記画像フレームの決定された特徴に基づいて、動的に再設定可能な異種混合のシストリックアレイが次の画像フレームを処理するために再設定可能であること
    を特徴とする動的に再設定可能な異種混合のシストリックアレイ。
  2. 少なくとも1つの特徴の決定は、当該シストリックアレイの外部で遂行される、請求項1記載の動的に再設定可能な異種混合のシストリックアレイ。
  3. 少なくとも1つの特徴の決定は、前記画像フレームの少なくとも一部分及び前記画像処理基本要素の少なくとも1つを処理することに基づく、請求項1又は2に記載の動的に再設定可能な異種混合のシストリックアレイ。
  4. 動的に再設定可能な異種混合のシストリックアレイは、さらに、
    前記画像フレームの少なくとも1つの小区域の位置を識別し、前記小区域から少なくとも1つの画像処理基本要素を生成し;及び、
    前記基本要素を前記画像フレーム及び小区域の位置と共に記憶格納部に格納する
    ように再設定可能であり、
    前記動的に再設定可能な異種混合のシストリックアレイは、前記画像フレーム又は小区域あるいはこれら両方の1以上の決定された特徴に基づいて、後続の画像フレームを処理するために再設定可能である、請求項1乃至3のいずれか記載の動的に再設定可能な異種混合のシストリックアレイ。
  5. 前記動的に再設定可能な異種混合のシストリックアレイは、
    画像フレームのフォーマットされた画像データを受信し、該画像データに基づいたシーン処理基本要素を提供するように再設定可能である、請求項1乃至4のいずれかに記載の動的に再設定可能な異種混合のシストリックアレイ。
  6. プロセッサーと、
    デジタル画像フレームを取得するためのレンズ及び画像センサと、
    第1の画像フレームを処理し、前記画像フレームから複数の画像処理基本要素を生成し、前記基本要素及び対応する画像フレームを記憶格納部に格納するように構成された、動的に再設定可能な異種混合のシストリックアレイと、
    を含む画像取得及び処理装置であって、
    前記装置は、前記画像フレームの少なくとも1つの特徴を決定し、前記少なくとも1つの特徴に基づいて、次の画像フレームを処理するために、前記動的に再設定可能な異種混合のシストリックアレイを再設定すること
    を特徴とする装置。
  7. 前記少なくとも1つの特徴の決定は、前記動的に再設定可能な異種混合のシストリックアレイの外部で遂行される、請求項6記載の装置。
  8. 前記少なくとも1つの特徴の決定は、前記画像フレームの少なくとも一部分及び前記画像処理基本要素の少なくとも1つを処理することに基づく、請求項6又は7に記載の装置。
  9. 前記動的に再設定可能な異種混合のシストリックアレイは、
    前記画像フレームの少なくとも1つの小区域の位置を識別し、前記小区域から少なくとも1つの画像処理基本要素を生成し;及び、
    前記基本要素を前記画像フレーム及び小区域の位置と共に記憶格納部に格納する
    ように再設定可能であり、
    前記動的に再設定可能な異種混合のシストリックアレイは、前記画像フレーム及び/又は小区域の1以上の決定された特徴に基づいて、後続の画像フレームを処理するために再設定可能である、請求項6乃至8のいずれか記載の装置。
  10. 画像フレームの未加工の画像データを受信し、対応するフォーマットされた画像データを前記記憶格納部及び前記アレイに分配し、画像処理を行なうように設定された画像処理パイプライン(IPP:Image Processing Pipeline)モジュールを含み、
    前記アレイは、前記IPPモジュールから画像フレームのフォーマットされた画像データを受信して、前記記憶格納部にシーン処理基本要素を提供するように設定され、
    前記記憶格納部は、前記アレイによって提供された前記シーン処理基本要素を格納するように設定され、
    前記IPPモジュールは、記憶格納部から受信され前記アレイによって提供されたシーン処理基本要素に基づいて次の画像フレームを処理するために設定される、請求項6乃至9のいずれか記載の装置。
  11. 動的に再設定可能な異種混合のシストリックアレイを使用する画像処理の方法であって、
    第1の画像フレームを取得及び処理し、
    前記画像フレームから複数の画像処理基本要素を生成し、
    前記基本要素及び対応する画像フレームを記憶格納部に格納し、
    前記画像フレームの少なくとも1つの特徴を決定し、及び、
    前記少なくとも1つの特徴に基づいて、次の画像フレームを処理するために前記アレイを再設定すること
    を特徴とする方法。
  12. 前記少なくとも1つの特徴の決定は、前記シストリックアレイの外部で遂行される、請求項11記載の方法。
  13. 前記少なくとも1つの特徴の決定は、前記画像フレームの少なくとも一部分及び前記画像処理基本要素の少なくとも1つを処理することに基づく、請求項11又は12記載の方法。
  14. さらに、
    前記画像フレームの少なくとも1つ
    の小区域の位置を識別し、前記小区域から少なくとも1つの画像処理基本要素を生成し、
    前記基本要素を前記画像フレーム及び小区域の位置と共に格納し、及び、
    前記画像フレーム又は小区域あるいはこれら両方の1以上の決定された特徴に基づいて、後続の画像フレームを処理する、
    請求項11乃至13のいずれか記載の方法。
  15. さらに、
    画像フレームの未加工の画像データを受信して対応するフォーマットされた画像データを分配し、
    前記画像フレームのフォーマットされた画像データを受信してシーン処理基本要素を提供し、
    前記シーン処理基本要素を格納し、及び、
    前記シーン処理基本要素に基づいて次の画像フレームを処理すること
    を含む請求項11乃至14のいずれか記載の方法。
JP2013517585A 2010-07-07 2011-07-07 実時間でビデオフレームを前処理するハードウェア Active JP5819956B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US36224710P 2010-07-07 2010-07-07
US61/362,247 2010-07-07
US12/959,281 2010-12-02
US12/959,281 US9053681B2 (en) 2010-07-07 2010-12-02 Real-time video frame pre-processing hardware
PCT/IB2011/001942 WO2012004672A2 (en) 2010-07-07 2011-07-07 Real-time video frame pre-processing hardware

Publications (3)

Publication Number Publication Date
JP2013531853A true JP2013531853A (ja) 2013-08-08
JP2013531853A5 JP2013531853A5 (ja) 2014-05-01
JP5819956B2 JP5819956B2 (ja) 2015-11-24

Family

ID=45438321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013517585A Active JP5819956B2 (ja) 2010-07-07 2011-07-07 実時間でビデオフレームを前処理するハードウェア

Country Status (5)

Country Link
US (4) US9053681B2 (ja)
JP (1) JP5819956B2 (ja)
KR (1) KR101646608B1 (ja)
CN (2) CN106408502B (ja)
WO (1) WO2012004672A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866831A (zh) * 2015-05-29 2015-08-26 福建省智慧物联网研究院有限责任公司 特征加权的人脸识别算法
KR20200109391A (ko) * 2015-09-02 2020-09-22 애플 인크. 이미지 데이터에서의 키포인트들의 검출

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8995715B2 (en) 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
JP5538849B2 (ja) * 2009-12-08 2014-07-02 キヤノン株式会社 画像表示装置、画像表示方法
US8339471B2 (en) * 2009-12-31 2012-12-25 DigitalOptics Corporation Europe Limited Auto white balance algorithm using RGB product measure
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法
US9053681B2 (en) * 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware
US8308379B2 (en) 2010-12-01 2012-11-13 Digitaloptics Corporation Three-pole tilt control system for camera module
WO2012110894A1 (en) 2011-02-18 2012-08-23 DigitalOptics Corporation Europe Limited Dynamic range extension by combining differently exposed hand-held device-acquired images
KR20130087119A (ko) * 2012-01-27 2013-08-06 삼성전자주식회사 디스플레이 드라이브 집적회로
US9294667B2 (en) 2012-03-10 2016-03-22 Digitaloptics Corporation MEMS auto focus miniature camera module with fixed and movable lens groups
WO2013136053A1 (en) 2012-03-10 2013-09-19 Digitaloptics Corporation Miniature camera module with mems-actuated autofocus
US8965046B2 (en) * 2012-03-16 2015-02-24 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for smiling face detection
WO2014072837A2 (en) 2012-06-07 2014-05-15 DigitalOptics Corporation Europe Limited Mems fast focus camera module
US9030571B2 (en) * 2012-07-11 2015-05-12 Google Inc. Abstract camera pipeline for uniform cross-device control of image capture and processing
US9007520B2 (en) 2012-08-10 2015-04-14 Nanchang O-Film Optoelectronics Technology Ltd Camera module with EMI shield
US9001268B2 (en) 2012-08-10 2015-04-07 Nan Chang O-Film Optoelectronics Technology Ltd Auto-focus camera module with flexible printed circuit extension
US9242602B2 (en) 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
US9055207B2 (en) 2012-12-31 2015-06-09 Digitaloptics Corporation Auto-focus camera module with MEMS distance measurement
CN105684420B (zh) * 2013-08-30 2018-04-13 株式会社尼康 图像处理装置以及图像处理程序
US9398297B2 (en) * 2013-11-04 2016-07-19 Intel Corporation Integral image coding
US20160267111A1 (en) * 2015-03-11 2016-09-15 Microsoft Technology Licensing, Llc Two-stage vector reduction using two-dimensional and one-dimensional systolic arrays
WO2017041295A1 (en) * 2015-09-11 2017-03-16 Intel Corporation Real-time face beautification features for video images
CN105608662B (zh) * 2015-12-31 2018-10-23 哈尔滨工程大学 基于fpga的动态目标识别系统及其识别方法
CN109196548B (zh) * 2016-07-02 2023-09-01 英特尔公司 用于在高分辨率显示器上提供多个屏幕区域的机制
US20180082396A1 (en) * 2016-09-16 2018-03-22 Qualcomm Incorporated Dynamic camera pipelines
CN107172354B (zh) * 2017-06-21 2020-04-03 深圳市万普拉斯科技有限公司 视频处理方法、装置、电子设备及存储介质
US11818419B2 (en) 2018-09-28 2023-11-14 Apple Inc. Mobile device content provisioning adjustments based on wireless communication channel bandwidth condition
CN110426560B (zh) * 2019-06-28 2020-08-25 北京大学 一种脉冲阵列信号时空上采样器生成方法
KR20210050243A (ko) 2019-10-28 2021-05-07 삼성전자주식회사 뉴로모픽 패키지 장치 및 뉴로모픽 컴퓨팅 시스템
CN111105342B (zh) * 2019-12-31 2023-11-21 北京集创北方科技股份有限公司 视频图像的处理方法及装置、电子设备、存储介质
US11182337B1 (en) * 2020-05-01 2021-11-23 Intel Corporation Computing efficient cross channel operations in parallel computing machines using systolic arrays
DE102020132088A1 (de) 2020-05-01 2021-11-04 Intel Corporation Berechnung effizienter kanalübergreifender operationen in parallelrechenmaschinen mit systolischen arrays
TW202223834A (zh) * 2020-08-28 2022-06-16 加拿大商光譜優化股份有限公司 神經嵌入之攝影機影像視訊處理管道及神經網路訓練系統
WO2022082361A1 (zh) * 2020-10-19 2022-04-28 深圳市锐明技术股份有限公司 图像信息处理方法及终端设备
US11404061B1 (en) * 2021-01-11 2022-08-02 Ford Global Technologies, Llc Speech filtering for masks

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5406642A (en) 1988-12-23 1995-04-11 Nec Corporation Image matching method using direction sensitivity and vector smoothing functions for correcting matches
US5138695A (en) * 1989-10-10 1992-08-11 Hnc, Inc. Systolic array image processing system
US5497498A (en) * 1992-11-05 1996-03-05 Giga Operations Corporation Video processing module using a second programmable logic device which reconfigures a first programmable logic device for data transformation
US5388206A (en) 1992-11-13 1995-02-07 The University Of North Carolina Architecture and apparatus for image generation
JP3434979B2 (ja) 1996-07-23 2003-08-11 富士通株式会社 局所領域画像追跡装置
AU2868199A (en) * 1998-02-17 1999-08-30 Sun Microsystems, Inc. Graphics system with variable resolution super-sampling
EP1205882A3 (en) 1998-02-17 2004-10-27 Sun Microsystems, Inc. Graphics system with variable resolution super-sampling
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
EP1107177B1 (en) 1999-12-09 2009-10-14 ATI International SRL Method and apparatus for processing portions of primitives that are being rendered
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7050607B2 (en) 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
US7024033B2 (en) 2001-12-08 2006-04-04 Microsoft Corp. Method for boosting the performance of machine-learning classifiers
EP1353516A1 (en) 2002-04-08 2003-10-15 Mitsubishi Electric Information Technology Centre Europe B.V. A method and apparatus for detecting and/or tracking one or more colour regions in an image or sequence of images
US7636486B2 (en) 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US8180173B2 (en) 2007-09-21 2012-05-15 DigitalOptics Corporation Europe Limited Flash artifact eye defect correction in blurred images using anisotropic blurring
US8073286B2 (en) 2006-08-09 2011-12-06 DigitalOptics Corporation Europe Limited Detection and correction of flash artifacts from airborne particulates
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7702236B2 (en) 2006-02-14 2010-04-20 Fotonation Vision Limited Digital image acquisition device with built in dust and sensor mapping capability
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8199222B2 (en) 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8264576B2 (en) 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8339462B2 (en) 2008-01-28 2012-12-25 DigitalOptics Corporation Europe Limited Methods and apparatuses for addressing chromatic abberations and purple fringing
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US9160897B2 (en) 2007-06-14 2015-10-13 Fotonation Limited Fast motion estimation method
US8989516B2 (en) 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US7206455B1 (en) * 2003-08-20 2007-04-17 Eastman Kodak Company Adaptive setting of wavelet sub-band thresholds for low-light image denoising
US8369650B2 (en) 2003-09-30 2013-02-05 DigitalOptics Corporation Europe Limited Image defect map creation using batches of digital images
US7590305B2 (en) 2003-09-30 2009-09-15 Fotonation Vision Limited Digital camera with built-in lens calibration table
US7295233B2 (en) 2003-09-30 2007-11-13 Fotonation Vision Limited Detection and removal of blemishes in digital images utilizing original images of defocused scenes
US7206461B2 (en) 2003-09-30 2007-04-17 Fotonation Vision Limited Digital image acquisition and processing system
US7308159B2 (en) * 2004-01-16 2007-12-11 Enuclia Semiconductor, Inc. Image processing system and method with dynamically controlled pixel processing
US20060140445A1 (en) 2004-03-22 2006-06-29 Cusack Francis J Jr Method and apparatus for capturing digital facial images optimally suited for manual and automated recognition
KR100682906B1 (ko) * 2004-12-09 2007-02-15 삼성전자주식회사 부스트 알고리즘을 이용한 영상의 얼굴 검출 장치 및 방법
US8995715B2 (en) 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
JP4830650B2 (ja) 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP2007052770A (ja) 2005-07-21 2007-03-01 Omron Corp 監視装置
GB0524804D0 (en) * 2005-12-05 2006-01-11 Falanx Microsystems As Method of and apparatus for processing graphics
US8553088B2 (en) 2005-11-23 2013-10-08 Mobileye Technologies Limited Systems and methods for detecting obstructions in a camera field of view
IES20060558A2 (en) 2006-02-14 2006-11-01 Fotonation Vision Ltd Image blurring
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
IES20060564A2 (en) 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US8121356B2 (en) 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US8212840B2 (en) * 2006-10-23 2012-07-03 Qualcomm Incorporated 3-D clipping in a graphics processing unit
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
US8649604B2 (en) 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US7773118B2 (en) 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
WO2008131438A2 (en) 2007-04-23 2008-10-30 Fotonation Ireland Limited Detection and estimation of camera movement
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US20080309770A1 (en) 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
US8184696B1 (en) * 2007-09-11 2012-05-22 Xilinx, Inc. Method and apparatus for an adaptive systolic array structure
EP2158754A1 (en) 2008-01-18 2010-03-03 Fotonation Vision Limited Image processing method and apparatus
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
CN101540000B (zh) * 2008-03-20 2011-07-27 中国科学院自动化研究所 基于纹理基元统计特性分析的虹膜分类方法
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
KR101578052B1 (ko) * 2008-04-02 2015-12-17 삼성전자주식회사 움직임 추정 장치 및 이를 구비하는 동영상 부호화 장치
JP2010020597A (ja) 2008-07-11 2010-01-28 Sony Corp 対象物検出装置および対象物検出方法
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
CN101425140A (zh) * 2008-11-13 2009-05-06 苏州大学 基于骨架特征的脑血管瘤图像识别检测方法
KR101646569B1 (ko) 2008-12-10 2016-08-08 (주)아모레퍼시픽 미백용 또는 주름개선용 피부 화장료 조성물
CN101587189B (zh) * 2009-06-10 2011-09-14 武汉大学 用于合成孔径雷达图像的纹理基元特征提取方法
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US9053681B2 (en) 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CSNG200600670009; 廉田浩外2名: 'オブジェクト認識処理用リコンフィギャラブルシステムの検討' 電子情報通信学会技術研究報告 Vol.105,No.451, 20051201, pp.73-78, 社団法人電子情報通信学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866831A (zh) * 2015-05-29 2015-08-26 福建省智慧物联网研究院有限责任公司 特征加权的人脸识别算法
CN104866831B (zh) * 2015-05-29 2018-06-05 福建省智慧物联网研究院有限责任公司 特征加权的人脸识别算法
KR20200109391A (ko) * 2015-09-02 2020-09-22 애플 인크. 이미지 데이터에서의 키포인트들의 검출
US10909408B2 (en) 2015-09-02 2021-02-02 Apple Inc. Detecting keypoints in image data
KR102309338B1 (ko) * 2015-09-02 2021-10-07 애플 인크. 이미지 데이터에서의 키포인트들의 검출
KR20210124510A (ko) * 2015-09-02 2021-10-14 애플 인크. 이미지 데이터에서의 키포인트들의 검출
KR102474041B1 (ko) * 2015-09-02 2022-12-06 애플 인크. 이미지 데이터에서의 키포인트들의 검출
US11756163B2 (en) 2015-09-02 2023-09-12 Apple Inc. Detecting keypoints in image data

Also Published As

Publication number Publication date
KR20130098298A (ko) 2013-09-04
US9607585B2 (en) 2017-03-28
CN103098077B (zh) 2016-11-16
JP5819956B2 (ja) 2015-11-24
US20170256239A1 (en) 2017-09-07
US20120008002A1 (en) 2012-01-12
WO2012004672A3 (en) 2012-06-14
WO2012004672A2 (en) 2012-01-12
US9053681B2 (en) 2015-06-09
KR101646608B1 (ko) 2016-08-08
CN106408502A (zh) 2017-02-15
US10930253B2 (en) 2021-02-23
WO2012004672A9 (en) 2013-04-04
US10418001B2 (en) 2019-09-17
CN103098077A (zh) 2013-05-08
CN106408502B (zh) 2019-12-31
US20150042670A1 (en) 2015-02-12
US20200005739A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP5819956B2 (ja) 実時間でビデオフレームを前処理するハードウェア
US9639775B2 (en) Face or other object detection including template matching
US20150243048A1 (en) System, method, and computer program product for performing one-dimesional searches in two-dimensional images
KR20120072350A (ko) 디지털 이미지 안정화 장치
US8861846B2 (en) Image processing apparatus, image processing method, and program for performing superimposition on raw image or full color image
US10943340B2 (en) Blending images
US11669942B2 (en) Image de-warping system
WO2019105304A1 (zh) 图像白平衡处理方法、计算机可读存储介质和电子设备
US20210150666A1 (en) Selective allocation of processing resources for processing image data
US11570384B2 (en) Image sensor employing varied intra-frame analog binning
JP2016111568A (ja) 像ぶれ補正制御装置、撮像装置およびそれらの制御方法、プログラム
Langseth et al. An evaluation of debayering algorithms on gpu for real-time panoramic video recording
US11146762B2 (en) Methods and systems for reconstructing a high frame rate high resolution video
EP2777014B1 (en) Method and apparatus for tightly coupled, low power image processing
US11270412B2 (en) Image signal processor, method, and system for environmental mapping
Zaharia et al. Hybrid video-frame pre-processing architecture for HD-video
US20120188406A1 (en) Reduced power consumption filter
US20230171481A1 (en) Imaging system, imaging method, and computer program
JP2022160891A (ja) 映像解析装置、脈波検出装置、および映像解析方法
JP4964971B2 (ja) ブロック別動きベクトル演算装置またはその方法
Bigioi et al. Hybrid video-frame pre-processing architecture for HD-video

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151001

R150 Certificate of patent or registration of utility model

Ref document number: 5819956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250