JP6872877B2 - イメージ生成方法及び装置 - Google Patents

イメージ生成方法及び装置 Download PDF

Info

Publication number
JP6872877B2
JP6872877B2 JP2016209292A JP2016209292A JP6872877B2 JP 6872877 B2 JP6872877 B2 JP 6872877B2 JP 2016209292 A JP2016209292 A JP 2016209292A JP 2016209292 A JP2016209292 A JP 2016209292A JP 6872877 B2 JP6872877 B2 JP 6872877B2
Authority
JP
Japan
Prior art keywords
image
event
event signal
extracted
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016209292A
Other languages
English (en)
Other versions
JP2017091518A (ja
Inventor
圭 彬 李
圭 彬 李
賢 錫 柳
賢 錫 柳
根 柱 朴
根 柱 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2017091518A publication Critical patent/JP2017091518A/ja
Application granted granted Critical
Publication of JP6872877B2 publication Critical patent/JP6872877B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、イメージ生成方法及びイメージ生成装置に関する。
フレーム基盤ビジョンセンサによって取得されたイメージに対するイメージ品質を改善するために、手の震えによって発生するブラー(Blur)を除去する技術、及び低照度で不鮮明なイメージをはっきりとする技術が存在する。フレーム基盤ビジョンセンサとは異なって、イベント基盤ビジョンセンサは、光の変化にだけ反応するため、動いている事物の輪郭線だけを検出する。イベント基盤ビジョンセンサによって取得されたイメージは、事物の輪郭線のみを検出することから、相対的に少ないデータ量による高速処理が可能であり、プライバシーの維持が可能である。但し、イベント基盤ビジョンセンサで出力されたイベント信号を集めて1つのイメージにする場合、フレーム基盤ビジョンセンサによって取得されたイメージよりも品質が落ちることがある。
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、イベント基盤ビジョンセンサのイメージ品質を高めるイメージ生成方法及びイメージ生成装置を提供することにある。
上記目的を発生するためになされた本発明の一態様によるイメージ生成方法は、第1時間区間の間にイベント基盤ビジョンセンサから出力されてバッファに格納された第1イベント信号を用いて第1イメージを生成するステップと、第2時間区間の間に前記イベント基盤ビジョンセンサから出力されて前記バッファに格納された第2イベント信号を用いて第2イメージを生成するステップと、前記第1イメージ及び前記第2イメージに比べて高い品質の第3イメージを生成するために前記第1イメージと前記第2イメージとを重畳するステップと、を有する。
前記第1イベント信号及び前記第2イベント信号のそれぞれは、前記イベント基盤センサに含まれるピクセルのうちのイベントを検出したピクセルを示す識別情報及び前記イベントを検出した時刻を示す時刻情報を含み得る。
前記第1イベント信号の数は、前記第2イベント信号の数よりも多くあり得る。
前記第1イメージを生成するステップは、前記バッファに格納された第1イベント信号をイベントが検出された時刻の逆順に抽出するステップと、前記抽出された第1イベント信号の分散に基づいて前記第1イメージのための閾値を決定するステップと、前記抽出された第1イベント信号の数が前記閾値よりも多いか否かを判定するステップと、前記抽出された第1イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出するステップと、を含み得る。
前記第2イメージを生成するステップは、前記バッファに格納された第2イベント信号をイベントが検出された時刻の逆順に抽出するステップと、前記抽出された第2イベント信号の分散に基づいて前記第2イメージのための閾値を決定するステップと、前記抽出された第2イベント信号の数が前記閾値よりも多いか否かを判定するステップと、前記抽出された第2イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出するステップと、を含み得る。
前記第1イメージを生成するステップは、前記バッファに格納された第1イベント信号をイベントが検出された時刻の逆順に抽出するステップと、前記抽出された第1イベント信号に関するソリッドレベルを決定するステップと、前記ソリッドレベルが閾値よりも大きいか否かを判定するステップと、前記ソリッドレベルが前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出するステップと、を含み得る。
前記第1イメージと前記第2イメージとを重畳するステップは、重畳候補イメージを生成するために前記第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって前記第1イメージと重畳するステップを含み得る。
前記第1イメージと前記第2イメージとを重畳するステップは、前記重畳候補イメージと前記第1イメージとの類似度を算出するステップと、前記第3イメージを生成するために前記類似度のうちの最大類似度を有する重畳候補イメージを前記第1イメージと重畳するステップと、を含み得る。
前記重畳候補イメージと前記第1イメージとの類似度を算出するステップは、前記第1イベント信号及び前記第2イベント信号、前記重畳候補イメージにおける位置と同一の前記第1イメージにおける位置のうち、前記重畳候補イメージの位置及び前記第1イメージの位置のピクセルに対応するイベント信号値の総和を用いて前記類似度を算出するステップを含み得る。
前記第1イメージと前記第2イメージとを重畳するステップは、前記第1イメージを複数の区域に分割するステップと、前記区域毎に重畳候補イメージを生成するために前記第2イメージの一部が前記区域のそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転するステップと、を含み得る。
前記第1イメージと前記第2イメージとを重畳するステップは、前記第1イメージにある複数のオブジェクトを認識するステップと、前記オブジェクト毎に重畳候補イメージを生成するために前記第2イメージの一部が前記オブジェクトのそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転するステップと、を含み得る。
前記第1イメージと前記第2イメージとを重畳するステップは、前記第1イメージに対する前記第2イメージの拡大率又は縮小率に基づいて最大類似度を有する前記第2イメージの移動距離を抽出するステップと、前記第1イメージと重畳するように前記第2イメージを前記移動距離だけ移動させるステップ、とを含み得る。
前記第1イメージと前記第2イメージとを重畳するステップは、前記第1イベント信号及び前記第2イベント信号のうちのオン(ON)イベント信号又はオフ(OFF)イベント信号及び距離情報に基づいて、前記第2イメージを6自由度(DoF)により3方向に回転及び移動させるステップを含み得る。
前記イメージ生成方法は、前記第1イベント信号及び前記第2イベント信号からの距離よりもイベント信号の距離が遠いノイズ信号を、前記第1イベント信号及び前記第2イベント信号から除去するステップを更に含み得る。
前記イメージ生成方法は、カメラキャリブレーションによって前記第1イベント信号及び前記第2イベント信号のレンズ歪みを補正するステップを更に含み得る。
上記目的を達成するためになされた本発明の一態様によるイメージ生成装置は、第1時間区間の間に第1イベント信号を出力し、第2時間区間の間に第2イベント信号を出力するイベント基盤ビジョンセンサと、前記第1イベント信号及び前記第2イベント信号を格納するバッファと、前記第1イベント信号に基づいて第1イメージを生成し、前記第2イベント信号に基づいて第2イメージを生成し、前記第1イメージ及び前記第2イメージに比べて高い品質の第3イメージを生成するために前記第1イメージと前記第2イメージとを重畳するプロセッサと、を備える。
前記第1イベント信号及び前記第2イベント信号のそれぞれは、前記イベント基盤センサに含まれるピクセルのうちのイベントを検出したピクセルを示す識別情報及び前記イベントを検出した時刻を示す時刻情報を含み得る。
前記プロセッサは、前記バッファに格納された第1イベント信号をイベントが検出された時刻の逆順に抽出し、前記抽出された第1イベント信号の分散に基づいて前記第1イメージのための閾値を決定し、前記抽出された第1イベント信号の数が閾値よりも多いか否かを判定し、前記抽出された第1イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出し得る。
前記プロセッサは、前記バッファに格納された第2イベント信号をイベントが検出された時刻の逆順に抽出し、前記抽出された第2イベント信号の分散に基づいて前記第2イメージのための閾値を決定し、前記抽出された第2イベント信号の数が前記閾値よりも多いか否かを判定し、前記抽出された第2イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出し得る。
前記プロセッサは、前記バッファに格納された第1イベント信号をイベントが検出された時刻の逆順に抽出し、前記抽出された第1イベント信号に関するソリッドレベルを決定し、前記ソリッドレベルが閾値よりも大きいか否かを判定し、前記ソリッドレベルが前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出し得る。
前記プロセッサは、重畳候補イメージを生成するために前記第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって前記第1イメージと重畳し得る。
前記プロセッサは、前記重畳候補イメージと前記第1イメージとの類似度を算出し、前記第3イメージを生成するために前記類似度のうちの最大類似度を有する重畳候補イメージを前記第1イメージと重畳し得る。
前記プロセッサは、前記第1イベント信号及び前記第2イベント信号、前記重畳候補イメージにおける位置と同一の前記第1イメージにおける位置のうち、前記重畳候補イメージの位置及び前記第1イメージの位置のピクセルに対応するイベント信号値の総和を用いて前記類似度を算出し得る。
前記プロセッサは、前記第1イメージを複数の区域に分割し、前記区域毎に重畳候補イメージを生成するために前記第2イメージの一部が前記区域のそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転し得る。
前記プロセッサは、前記第1イメージにある複数のオブジェクトを認識し、前記オブジェクト毎に重畳候補イメージを生成するために前記第2イメージの一部が前記オブジェクトのそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転し得る。
前記プロセッサは、前記第1イメージに対する前記第2イメージの拡大率又は縮小率に基づいて最大類似度を有する前記第2イメージの移動距離を抽出し、前記第1イメージと重畳するように前記第2イメージを前記移動距離だけ移動させ得る。
上記目的を達成するためになされた本発明の他の態様によるイメージ生成方法は、バッファから、第1時間区間の間にイベント基盤ビジョンセンサから出力された第1イベント信号を第1イベントのそれぞれが検出された時刻の逆順に抽出するステップと、前記抽出された第1イベント信号に基づいて第1イメージを生成するステップと、バッファから、第2時間区間の間にイベント基盤ビジョンセンサから出力された第2イベント信号を第2イベントのそれぞれが検出された時刻の逆順に抽出するステップと、前記抽出された第2イベント信号に基づいて第2イメージを生成するステップと、重畳候補イメージを生成するために前記第2イメージを前記第1イメージと重畳するステップと、前記第1イメージと前記重畳候補イメージとの類似度を算出するステップと、第3イメージを生成するために前記類似度のうちの最大類似度を有する重畳候補イメージを前記第1イメージと重畳するステップと、を有する。
前記イメージ生成方法は、前記第1イメージに対する前記重畳候補イメージの拡大率又は縮小率に基づいて最大類似度を有する重畳候補イメージの移動距離を抽出するステップを更に含み、前記重畳候補イメージを前記第1イメージと重畳するステップは、前記重畳候補イメージを前記第1イメージと重畳するように前記移動距離だけ移動させるステップを含み得る。
本発明によると、イベント基盤ビジョンセンサのイメージ品質を高めることができる。
一実施形態によるイベント基盤ビジョンセンサで検出されたイベント信号がバッファに格納される方法を説明するための図である。 一実施形態によるイメージ生成方法の動作方式を説明するための図である。 一実施形態によるイメージ生成方法を示したフローチャートである。 一実施形態によるイベント信号の分散に基づいて第1イメージを生成する方法を示したフローチャートである。 一実施形態によるイベント信号の分散に基づいてイメージのための閾値を決定する方法を説明するための図である。 一実施形態によるイベント信号に関するソリッドレベル(solid level)に基づいて第1イメージを生成する方法を示したフローチャートである。 一実施形態によるイベント信号に関するソリッドレベルを説明するための図である。 一実施形態による第3イメージを生成する方法を示したフローチャートである。 他の実施形態によるイメージ生成方法を示したフローチャートである。 他の実施形態によるイメージ生成方法を示したフローチャートである。 他の実施形態によるイメージ生成方法を示したフローチャートである。 他の実施形態によるイメージ生成方法を示したフローチャートである。 一実施形態によるイメージ生成装置のブロック図である。 一実施形態によるイメージ生成装置のブロック図である。
以下、本発明のイメージ生成方法及び装置を実施するための形態の具体例を、図面を参照しながら詳細に説明する。
以下の特定な構造的又は機能的な説明は、単に実施形態を説明するための目的で例示するものであり、特許出願の範囲が本明細書に説明した内容に限定されるものではない。
本明細書で説明する分野に属する通常の知識を有する者であれば、このような記載から様々な修正及び変形が可能である。本明細書で「一実施形態」又は「実施形態」に対する言及はその実施形態に関連して説明する特定の特徴、構造、又は特性が少なくとも1つの実施形態に含まれることを意味し、「一実施形態」又は「実施形態」に対する言及が全て同一の実施形態を指すものではない。
第1又は第2などの用語を複数のコンポーネントを区分するために用いるが、構成要素が第1又は第2の用語によって限定されるものではない。また、本実施形態で用いる用語は、単に特定の実施形態を説明するために用いるものであって、実施形態を限定しようとする意図はない。単数の表現は文脈上明白に異なるように意味しない限り、複数の表現を含む。
本明細書において、「含む」又は「有する」などの用語は明細書上に記載した特徴、数字、ステップ、処理、構成要素、部品、又はその組合せの存在を指定するためのものであって、1つ以上の他の特徴や数字、ステップ、処理、構成要素、部品、又はそれらを組合せたものの存在又は付加可能性を予め排除しない。
図面を参照して説明する際に、図面符号に関係なく同一の構成要素には同一の参照符号を付与し、これに対する重畳する説明を省略する。
下記で説明する実施形態は、携帯電話、スマートテレビ、又はその他のセキュリティーモニタリング機器で撮影されたイメージを処理するために用いられる。
本発明の実施形態は、パーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、テレビ、スマート家電機器、知能型自動車、ウェアラブル装置などの様々な形態の製品で具現される。例えば、本実施形態は、スマートフォン、モバイル機器、スマートホームシステムなどで撮影されたイメージの品質を向上させるために適用される。また、本実施形態は、撮影されたユーザイメージによってユーザを認証して自動始動する知能型自動車システムなどにも適用される。以下、本発明の実施形態について図面を参照しながら詳細に説明する。各図面に提示した同一の参照符号は同一の部材を示す。
図1は、一実施形態によるイベント基盤ビジョンセンサで検出されたイベント信号がバッファに格納される方法を説明するための図である。図1に、イベント基盤ビジョンセンサ110及びバッファ130を示す。
イベント基盤ビジョンセンサ110はピクセルアレイを含む。ピクセルアレイに含まれる各ピクセルは、当該ピクセルに入射する光の変化を検出する。以下、光の変化は光の強度の変化である。イベント基盤ビジョンセンサ110は、光の変化が検出される複数のピクセルに対応する複数のイベント信号を出力する。
ピクセルアレイに含まれる全てのピクセルをフレーム単位でスキャンするフレーム基盤ビジョンセンサとは異なり、イベント基盤ビジョンセンサ110は、光の変化を検出したピクセルだけを用いてイベント信号を出力する。例えば、特定ピクセルで光が明るくなるか又は暗くなるイベントが検出された場合、イベント基盤ビジョンセンサ110は、当該ピクセルに対応するオン(ON)イベント信号又はオフ(OFF)イベント信号を出力する。
イベント基盤ビジョンセンサ110は、オブジェクトの動きを検出してイベント信号を出力する。オブジェクトは被写体である。イベント基盤ビジョンセンサ110に入射する光の変化はオブジェクトの動きに基づく。例えば、光源が固定されてオブジェクトが自ら発光しない場合を想定すると、イベント基盤ビジョンセンサ110に入射する光は、光源により発生してオブジェクトによって反射された光である。オブジェクトが動かない場合、動きのない状態のオブジェクトによって反射された光は実質的に変化しないため、イベント基盤ビジョンセンサ110に入射する光の変化も発生しない。一方、オブジェクトが動く場合、動きのあるオブジェクトによって反射された光はオブジェクトの動きに応じて変化するため、イベント基盤ビジョンセンサ110に入射する光の変化が発生する。
イベント信号は識別情報及び時刻情報を含む。識別情報は、イベント基盤センサ110に含まれる複数のピクセルのうちのイベント(即ち、光の変化)を検出したピクセル111を示す情報である。識別情報は、例えばピクセルの(x、y)座標又はピクセルインデックス、オン(ON)イベント又はオフ(OFF)イベントのようなピクセルの属性などを含む。識別情報を「位置情報」とも称する。
時刻情報は、ピクセル111がイベントを検出した時刻を示す情報である。時刻情報は、例えばピクセル111でイベントが検出された時刻を示すタイムスタンプである。
各ピクセルで発生したイベント信号は、各時間区間に対応してバッファ130に格納される。例えば、前の時間区間t−2、t−1のイベント信号がバッファの第1空間131に格納されると、現在の時間区間tのイベント信号は第2空間132に格納される。
第1空間131及び第2空間132は、例えばリンクリスト(linked list)、スタック(stack)、又はキュー(queue)形態のデータ構造によって構成される。
図2は、一実施形態によるイメージ生成方法の動作方式を説明するための図である。図2に、本実施形態によるイメージ生成装置(以下、生成装置)によってバッファに格納されたイベント信号に対応するイメージから高い品質のイメージを生成する過程を示す。
バッファは、過去の時間区間t−2から最近の時間区間tまで累積された時間区間のイベント信号を格納する。イメージ210は、過去の時間区間t−2から最近の時間区間tまで累積された時間区間のイベント信号に対応するイメージである。
生成装置は、バッファに格納されたイベント信号をイベントが検出された時刻の逆順に抽出して各時間区間に対応するイメージを生成する。生成装置は、例えば、最近の時間区間tのイベント信号を用いてイメージ231を生成する。最近の時間区間tのイベント信号に対応して生成されたイメージ231を、「第1イメージ」又は「シードイメージ(seed image)」と称する。
同じ方式で、生成装置は、時間区間t−1及び時間区間t−2のイベント信号をそれぞれ抽出して、当該時間区間に対応するイメージ233、235を生成する。ここで、最近の時間区間tを除いた残りの時間区間t−1、t−のイベント信号に対応して生成されたイメージ233、235を「第2イメージ」又は「フラグメントイメージ(fragment image)」と称する。最近の時間区間tに該当するイベント信号の数は、最近の時間区間を除いた残りの時間区間t−1、t−2に該当するイベント信号の数よりも多い。即ち、第1イメージを生成するために用いられるイベント信号の数は、第2イメージを生成するために用いられるイベント信号の数よりも多い。
生成装置は、第1イメージ231に第2イメージ233、235を重畳して重畳イメージ250を生成する。ここで、イメージ(231、233、235)は、例えば4秒前のユーザの動き、2秒前のユーザの動き、及び現在のユーザの動きに応じて発生した光の変化に対応するものであり、ユーザの動きに応じて各イメージに示されたユーザの位置がそれぞれ異なる。生成装置は、第2イメージ233、235の位置を変換(移動、回転、縮小、拡大など)し、変換された第2イメージ233、235を第1イメージ231に重畳して重畳イメージ250を生成する。
本実施形態による生成装置は、第1イメージ231の全体を第2イメージ233、235と重畳するか、又は第1イメージ231を複数の区域に分割し、分割された区域のそれぞれと第2イメージ233、235を重畳する。或いは、生成装置は、第1イメージ231内に含まれる複数のオブジェクトのそれぞれと第2イメージ233、235を重畳する。
生成装置が第1イメージ231の分割された区域のそれぞれと第2イメージ233、235を重畳する実施形態については、図9を参照して説明し、生成装置が第1イメージ231内に含まれる複数のオブジェクトのそれぞれと第2イメージ233、235を重畳する実施形態については、図10を参照して説明する。
生成装置は、重畳イメージ250によって第1イメージ231及び第2イメージ233、235のそれぞれに比べて高い品質の最終イメージ(第3イメージ)270を取得する。
図3は、一実施形態によるイメージ生成方法を示したフローチャートである。図3を参照すると、本実施形態による生成装置は、バッファに格納された第1時間区間のイベント信号を用いて第1イメージを生成する(ステップS310)。ここで、第1時間区間は最近の時間区間に該当する。時間区間は予め設定されるか又は動的に更新される。時間区間のイベント信号は所定の時間区間の間に受信されるイベント信号であり、各イベント信号は識別情報(例えば、位置情報)及び/又は時刻情報を含む。
生成装置は、バッファに格納された第2時間区間のイベント信号を用いて第2イメージを生成する(ステップS320)。第2時間区間は、最近の時間区間を除いた残りの時間区間に該当する。第2イメージは単数又は複数である。
生成装置は、バッファに格納されたイベント信号のうち、イベントが検出された時刻の逆順から抽出されたイベント信号に基づいて第1イメージ(又は第2イメージ)を生成する。
上述したように、イベント基盤ビジョンセンサは光の変化又はオブジェクトの動きに反応してイベント信号を出力するため、光の変化又はオブジェクトの動きが速いほど同一の時間区間の間に多くのイベント信号が出力される。そのため、固定された時間区間を用いてイベント信号を抽出する場合、光の変化又はオブジェクトの動きの速度によって抽出されるイベント信号の数が適切でない場合もある。
生成装置は、抽出されたイベント信号に基づいてイメージを生成することから、抽出されたイベント信号の数が適切でない場合に生成されるイメージの品質が低下する。このため、生成装置は、抽出されたイベント信号の数が適切であるか否かを判定する。生成装置は、例えばイベント信号の位置関係を用いて、抽出されたイベント信号の数が適切であるか否かを判定する。イベント信号の位置関係は、イベント信号に対応する位置間の関係であり、例えばイベント信号の位置が分布した態様、イベント信号の位置が互いに広がった程度、イベント信号の位置が互いに密集した程度などを含む。生成装置は、イベント信号の位置関係に基づいて決定される閾値と抽出されたイベント信号の数とを比較することで、抽出されたイベント信号の数が適切であるか否かを判定する。
一例として、生成装置は、イベント信号の分散を用いて、抽出されたイベント信号の数が適切であるか否かを判定する。生成装置がイベント信号の分散に基づいてイメージ(第1イメージ又は第2イメージ)を生成する方法については、図4〜図5を参照して説明する。
或いは、生成装置は、イベント信号に関するソリッドレベル(solid level)を用いて、抽出されたイベント信号の数が適切であるか否かを判定する。生成装置がイベント信号に関するソリッドレベルに基づいてイメージ(第1イメージ又は第2イメージ)を生成する方法については、図6〜図7を参照して説明する。
生成装置は、第1イメージと第2イメージを重畳することによって、第1イメージ及び第2イメージに比べて高い品質の第3イメージを生成する(ステップS330)。
本実施形態による生成装置は、第1イメージに対比される第2イメージの拡大比率又は縮小比率に応じて第2イメージの移動距離を抽出し、設定された移動距離だけ第2イメージを移動させて第1イメージと重畳することにより重畳候補イメージを生成する。
或いは、生成装置は、イベント信号のうちのオン(ON)イベント信号又はオフ(OFF)イベント信号及び距離情報に基づいて、第2イメージを、6自由度(DoF:Degree of Freedom)(並進の3自由度(x、y、z)+回転の3自由度(θ、θ、θ))によって3方向に回転及び移動させることで、第1イメージと第2イメージを重畳して第3イメージを生成する。生成装置が第3イメージを生成する方法については、図8を参照して説明する。
図4は、一実施形態によるイベント信号の分散に基づいて第1イメージを生成する方法を示したフローチャートである。図4を参照すると、本実施形態による生成装置は、バッファに格納されたイベント信号をイベントが検出された時刻の逆順に抽出する(ステップS410)。例えば、バッファに、現在検出されたイベント信号、2秒前に検出されたイベント信号、4秒前に検出されたイベント信号などが格納されている場合、生成装置は、現在検出されたイベント信号、2秒前に検出されたイベント信号、4秒前に検出されたイベント信号と共にイベントが検出された時刻の逆順にイベント信号を抽出する。
生成装置は、抽出されたイベント信号の分散に基づいて第1イメージのための閾値を決定する(ステップS420)。生成装置がイベント信号の分散に基づいて第1イメージのための閾値を決定する方法については、図5を参照して説明する。
生成装置は、抽出されたイベント信号の数と閾値とを比較してバッファからイベント信号を更に抽出するか否かを決定する。生成装置は、ステップS410で抽出されたイベント信号の数が閾値よりも多いか否かを判定する(ステップS430)。
ステップS430の判定結果、抽出されたイベント信号の数が閾値よりも多い場合、生成装置はステップS440を実行する。ステップS430の判定結果、抽出されたイベント信号の数が閾値以下である場合、生成装置は、バッファに格納されたイベント信号をイベントが検出された時刻の逆順に更に抽出する(ステップS410)。
生成装置は、抽出されたイベント信号の数が閾値よりも多くなると、抽出されたイベント信号に基づいてイメージを生成する(ステップS440)。
図5は、一実施形態によるイベント信号の分散に基づいてイメージのための閾値を決定する方法を説明するための図である。本実施形態による生成装置は、所定の時間区間に該当するイベント信号の個数を測定してイベント信号に関する分散を算出する。図5を参照すると、生成装置は、イベント信号510に含まれる位置情報を用いて、x軸方向の分散σ511及びy軸方向の分散σ512を算出する。x軸方向の分散σ511はイベント信号510がx軸方向に分布した程度を示し、y軸方向の分散σ512はイベント信号510がy軸方向に分布した程度を示す。
生成装置は、イベント信号の個数と分散基盤の閾値とを比較する。ここで、分散基盤の閾値は、第1イメージのための第1閾値であるか、又は第2イメージのための第2閾値である。
分散基盤の閾値は、分散に基づいて決定される閾値として、x軸方向の分散σ及びy軸方向の分散σの関数であるf(σ、σ)で表現される。f(σ、σ)は多様に設定される。f(σ、σ)は、例えば下記の数式1のように設定される。
Figure 0006872877
数式1でαは予め設定された定数である。
イベント信号の個数がf(σ、σ)よりも大きい場合、生成装置は、抽出されたイベント信号の数がイメージを生成するために適切であると判断し、抽出されたイベント信号を用いてイメージを生成する。
生成装置は、数式1を効率よく演算するために、下記の表1のアルゴリズムを用いる。表1において、αが「2」である場合を仮定する。
Figure 0006872877
図6は、一実施形態によるイベント信号に関するソリッドレベル(solid level)に基づいてイメージを生成する方法を示したフローチャートである。図6を参照すると、本実施形態による生成装置は、バッファに格納されたイベント信号をイベントが検出された時刻の逆順に抽出し(ステップS610)、抽出されたイベント信号に関するソリッドレベルを決定する(ステップS620)。生成装置は、イベント信号に関するソリッドレベルを用いて、抽出されたイベント信号の数が適切であるか否かを判断する。生成装置がソリッドレベルを決定する方法については、図7(a)及び図7(b)を参照して説明する。
生成装置は、ソリッドレベルを予め設定された閾値と比較してバッファからイベント信号を更に抽出するか否かを決定する。生成装置は、ステップS620で決定されたソリッドレベルが閾値よりも大きいか否かを判定する(ステップS630)。ステップS630の判定結果、ソリッドレベルが閾値よりも大きい場合、生成装置はステップS640を実行する。ステップS630の判定結果、ソリッドレベルが閾値以下である場合、生成装置は、バッファに格納されたイベント信号をイベントが検出された時刻の逆順に更に抽出する(ステップS610)。
生成装置は、ソリッドレベルが閾値よりも大きくなると、抽出されたイベント信号に基づいてイメージを生成する(ステップS640)。
図7(a)及び図7(b)は、一実施形態によるイベント信号に関するソリッドレベルを説明するための図である。上述したように生成装置は、イベント信号に関するソリッドレベルを用いて、収集されたイベント信号の数が適切であるか否かを判定する。ソリッドレベルは、イベント信号の位置関係に基づいて算出されるパラメータである。ソリッドレベルは、イベント信号の堅さ(solidity)を示すパラメータである。例えば、ソリッドレベルは、収集されたイベント信号の位置が互いに密集した程度を示す尺度である。或いは、ソリッドレベルは、イベント信号が集まって生成された形状の明確な程度を示す尺度である。一例として、ソリッドレベルは、特定イベント信号に対応する周辺イベント信号の数が予め設定された数よりも多い場合に増加し、当該イベント信号に対応する周辺イベントの数が予め設定された数よりも少ない場合に減少するパラメータである。ここで、特定イベント信号の位置情報に基づいて当該イベント信号の位置が決定され、決定された位置周辺の予め設定された領域内に含まれるイベント信号が周辺イベント信号に決定される。
生成装置は、イベント信号を累積して格納する。例えば、生成装置は、イベント基盤ビジョンセンサのピクセルアレイに対応する要素を含むイベントマップを用いてイベント信号を累積して格納する。イベントマップに含まれる各要素の値は「0」に初期化される。生成装置は、受信されたイベント信号の位置情報に基づいて、受信されたイベント信号に対応する要素の値を「1」に設定する。
生成装置は、累積して格納された結果に基づいてソリッドレベルを算出する。例えば、生成装置は、下記の数式2を用いてソリッドレベルsを算出する。ソリッドレベルsは、予め設定された値に初期化された後、数式2によって更新される。ソリッドレベルsは「0」と「1」との間の値を有する。
Figure 0006872877
ここで、Δsはソリッドレベルの変化量であり、γは決定敏感度である。γは「0」と「1」との間の定数である。H(・)はヘヴィサイドのステップ関数(heaviside step function)である。内部値が「0」よりも大きい場合にH(・)は「1」であり、その他の場合にH(・)は「0」である。
mはイベントマップである。イベントマップmで特定イベント信号eに対応する要素のi番目の隣接要素が「1」に設定された場合にm(e,i)は「1」であり、その他の場合にm(e,i)は「0」である。θは閾値である。
生成装置は、ソリッドレベルと予め設定された閾値(臨界レベル)(例えば、0.4など)とを比較する。例えば、ソリッドレベルが閾値よりも大きい場合、生成装置は、抽出されたイベント信号の数がイメージを生成するために適切であると判定し、抽出されたイベント信号を用いてイメージを生成する。
図7(a)及び図7(b)を参照すると、生成装置は、ソリッドレベルを用いることによって、オブジェクトが単純なパターンを有する場合710及び複雑なパターンを有する場合720の両方で適切な数のイベント信号を抽出する。
例えば、生成装置は、オブジェクトが単純なパターンを有する場合710のソリッドレベルに対応する閾値よりも、複雑なパターンを有する場合720のソリッドレベルに対応する閾値を大きく設定することによって、それぞれの場合に適する適切な数のイベント信号を抽出する。
生成装置は、上述した実施形態により、適切な数のイベント信号が抽出された場合にイメージを生成する。ここで、抽出されたイベント信号は位置情報を含むため、当該位置情報を用いてイベント信号に対応するポイントが2次元平面上に配置される。例えば、図7(a)及び図7(b)に示すようなイメージが生成される。場合によって、生成装置は、生成されたイメージにノイズフィルタリング、エッジ検出などの様々なイメージ処理方式を適用することも可能である。
図8は、一実施形態による第3イメージを生成する方法を示したフローチャートである。図8を参照すると、本実施形態による生成装置は、第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって第1イメージと重畳することで重畳候補イメージを生成する(ステップS810)。生成装置は、例えば時間区間t−1に対応する第2−1イメージ、時間区間t−2に対応する第2−2イメージ、時間区間t−3に対応する第2−3イメージを、移動、回転、縮小、拡大などの動作によって時間区間tに対応する第1イメージと重畳することで重畳候補イメージを生成する。
生成装置は、重畳候補イメージと第1イメージとの類似度を算出する(ステップS820)。生成装置は、例えば重畳候補イメージ及び第1イメージの同じ位置のピクセルに対応するイベント信号値の総和、即ちピクセル値の積の総和を用いて類似度を算出する。ここで、生成装置は、第1イメージのピクセルに対応する第1イベント信号及び重畳候補イメージのピクセルに対応する第2イベント信号が存在し、且つ第1イメージのピクセルと重畳候補イメージのピクセルとが同じ位置にある場合、イベント信号の値を「1」に設定する。
生成装置は、第1イベント信号及び第2イベント信号のいずれか1つでも不在の場合、イベント信号の値を「0」に設定する。
他の実施形態による生成装置は、重畳候補イメージ及び第1イメージのそれぞれ同じ位置にあるピクセルに対応するイベント信号がそれぞれ「オン/オン」又は「オフ/オフ」である場合にイベント信号の値を「+1」に設定し、互いに異なる場合に「−1」に設定し、イメージのそれぞれで同じ位置のピクセルに対応するイベント信号が発生しない場合に「0」に設定する。生成装置は、イベント信号値の総和を用いて類似度を算出する。
例えば、重畳候補イメージ及び第1イメージの同じ位置のピクセルが互いに異なる極性を有する場合(即ち、あるピクセルは明るいが、他のピクセルは暗い場合)、ピクセル間の類似度は全体の類似度を減少させる負(−)の値に設定される。
生成装置は、算出された類似度のうちの最大類似度に対応する重畳候補イメージを第1イメージと重畳して第3イメージを生成する(ステップS830)。
本実施形態による生成装置は、ステップS810で生成された重畳候補イメージをCIS(CMOS Image Sensor)などに提供し、例えばボケ除去(deblurring)のようなイメージプロセッシングに利用する。
図9〜図12は、他の実施形態によるイメージ生成方法を示したフローチャートである。図9を参照すると、ステップS910〜ステップS920の過程は、図3に示すステップS310〜ステップS320の過程と同一であるため、当該部分の説明を参照する。
本実施形態による生成装置は、ステップS910〜ステップS920によって第1イメージ及び第2イメージが生成されると、第1イメージを複数の区域に分割する(ステップS930)。生成装置は、第1イメージを、例えば4個の区域又は9個の区域のように予め設定された領域に分割する。生成装置は、第1イメージをそれぞれ同じ大きさの区域に分割するか、又はそれぞれ異なる大きさの区域に分割する。或いは、生成装置は、第1イメージを深度情報により複数の区域に分割する。
生成装置は、複数の区域のそれぞれと第2イメージの少なくとも一部が重畳するように第2イメージの少なくとも一部を移動又は回転させて、区域毎の重畳候補イメージを生成する(ステップS940)。ここで、第2イメージの少なくとも一部は、第1イメージの複数の区域のそれぞれに対応する大きさであり、第1イメージの複数の区域よりも小さいか又は大きいサイズである。
生成装置は、区域毎の重畳候補イメージと第1イメージとの類似度を算出する(ステップS950)。生成装置は、例えば区域毎の重畳候補イメージ及び第1イメージの同じ位置のピクセルに対応するイベント信号値の総和、即ちピクセル値の積の総和を用いて類似度を算出する。
生成装置は、算出された類似度のうちの最大類似度に対応する重畳候補イメージを第1イメージと重畳して第3イメージを生成する(ステップS960)。
図10を参照すると、ステップS1010〜ステップS1020の過程は、図3のステップS310〜ステップS320の過程と同一であるため、当該部分の説明を参照する。
本実施形態による生成装置は、ステップS1010〜ステップS1020によって第1イメージ及び第2イメージが生成されると、第1イメージ内の複数のオブジェクトを認識する(ステップS1030)。ステップS1030において、生成装置は、イメージを用いてオブジェクトを認識する様々な方式によりオブジェクトを認識する。生成装置は、例えば学習基盤の分流器を用いてイメージからオブジェクトを認識する。生成装置は、認識されたオブジェクトが予め登録されたオブジェクト類型のうちの1つに分類される場合、オブジェクトの認識が成功したと判断する。一方、生成装置は、認識されたオブジェクトが予め登録されたオブジェクト類型のうちのいずれにも該当しない場合、オブジェクトの認識が失敗したと判断する。オブジェクトの認識が成功したと判断された場合、生成装置は、認識結果を出力する。認識結果は、オブジェクト類型を示すIDである。或いは、生成装置は、第1時間区間のイベント信号を用いて第1イメージに含まれるオブジェクトのクラスを区分し、オブジェクトのクラスの平均値に基づいて第1時間区間のイベント信号がいずれのオブジェクトのクラスに属するかを判断することで、第1イメージ内の複数のオブジェクトを認識する。
生成装置は、複数のオブジェクトのそれぞれと第2イメージの少なくとも一部が重畳するように第2イメージの少なくとも一部を移動又は回転して、オブジェクト毎の重畳候補イメージを生成する(ステップS1040)。
生成装置は、オブジェクト毎の重畳候補イメージと第1イメージとの類似度を算出する(ステップS1050)。生成装置は、例えばオブジェクト毎の重畳候補イメージ及び第1イメージの同じ位置のピクセルに対応するイベント信号値の総和、即ちピクセル値の積の総和を用いて類似度を算出する。
生成装置は、算出された類似度のうちの最大類似度に対応する重畳候補イメージを第1イメージと重畳して第3イメージを生成する(ステップS1060)。
図11を参照すると、本実施形態による生成装置は、イベント信号を格納する(ステップS1105)。生成装置は、例えばバッファ又はメモリにイベント信号を格納する。
生成装置は、最近のイベント順に格納されたイベント信号を引出す(又は抽出する)(ステップS1110)。生成装置は、引出された第1イベント信号の数が第1イメージを生成するために充分であるか否かを判断する(ステップS1115)。生成装置は、上述したように引出されたイベント信号の分散又は引出されたイベント信号に関するソリッドレベルを用いて、第1イベント信号の数が第1イメージを生成するために充分であるか否かを判断する。ここで、「第1イベント信号」は、第1時間区間のイベント信号を意味する。生成装置は、例えば第1イベント信号の横軸分散と縦軸分散を算出する。生成装置は、第1イベント信号の数が、例えば「横軸分散×縦軸分散×予め定義された定数」よりも多い場合、第1イメージを最初の重畳イメージとして格納する。
ステップS1115の判断結果、第1イベント信号の数が充分である場合、生成装置はステップS1120を実行する。ステップS1115の判断結果、第1イベント信号の数が不充分であると判断された場合、生成装置はステップS1155を実行する。
生成装置は、第2イベント信号を収集する(ステップS1120)。ここで、複数の第2イベント信号は、第2時間区間の複数のイベント信号である。生成装置は、第2イベント信号を用いて第2イメージを生成する。ステップS1120でも、生成装置は、第1イベント信号と同様に第2イベント信号の横軸分散と縦軸分散を算出し、第2イベント信号の数が第2イメージを生成するために充分であるか否かを判断する。
生成装置は、第2イメージを、例えば移動、回転、縮小、拡大などのように変換する(ステップS1125)。生成装置は、変換された第2イメージと第1イメージを重畳して重畳候補イメージを生成し、重畳候補イメージと第1イメージとの類似度を算出する(ステップS1130)。
生成装置は、算出された類似度のうちの最大類似度を有する重畳候補イメージの移動距離を抽出する(ステップS1135)。
生成装置は、抽出された移動距離により最大類似度を有する重畳候補イメージを移動して第1イメージと整合させて重畳する(ステップS1140)。
生成装置は、イメージが完成されたか否かを判断する(ステップS1145)。ステップS1145で、生成装置は、例えばイメージの品質に基づいてイメージが完成されたか否かを判定するか、又はバッファに残っているイベント信号の個数に基づいてイメージの完成の有無を判断する。ステップS1145の判断結果、イメージが完成されていない場合、生成装置は、最近のイベント順にイベント信号を検索又は抽出するステップS1110に戻る。ステップS1145の判断結果、イメージが完成された場合、生成装置はイメージを出力する(ステップS1150)。
ステップS1115の判断結果、第1イベント信号の数が充分でない場合、生成装置は、第1イベント信号を更に収集し(ステップS1155)、イメージが完成されたか否かを判断する(ステップS1145)。
図12を参照すると、本実施形態による生成装置は、イベント基盤ビジョンセンサで各時間区間に検出されたイベント信号のうちからノイズ信号を除去する(ステップS1205)。生成装置は、例えば予め設定された時間区間内に第1イベント信号及び第2イベント信号から所定の距離内で発生したイベント信号が存在するか否かに基づいて、イベント信号のうちからノイズ信号を除去する。生成装置は、例えば各イベント信号と所定の距離以上に離隔して単独で検出されたイベント信号を、間違って検出されたノイズ信号と判断して除去する。
生成装置は、カメラキャリブレーションによって、ステップS1205でノイズ信号が除去されたイベント信号(即ち、ノイズ信号が除去された第1イベント信号及び第2イベント信号)のレンズ歪みを補正する(ステップS1210)。
生成装置は、レンズ歪みが補正されたイベント信号をバッファに格納する(ステップS1215)。
生成装置は、バッファに格納されたイベント信号を用いて第1イメージを生成し(ステップS1220)、バッファに格納されたイベント信号のうちの第1イメージの生成に利用されたイベント信号を除いた残りのイベント信号をイベントが検出された時刻の逆順に抽出する(ステップS1225)。
生成装置は、抽出されたイベント信号の分散に基づいて第2イメージのための第2閾値を決定する(ステップS1230)。生成装置は、抽出されたイベント信号の数と第2閾値との比較結果に基づいて、バッファからイベント信号を更に抽出するか否かを決定する。
生成装置は、抽出されたイベント信号の数が第2閾値よりも多いか否かを判定する(ステップS1235)。ステップS1235の判定結果、抽出されたイベント信号の数が第2閾値以下である場合、生成装置はステップS1225に戻る。ステップS1235の判定結果、抽出されたイベント信号の数が第2閾値よりも大きい場合、生成装置はステップS1240を実行する。
ステップS1235の判定結果、抽出されたイベント信号の数が第2閾値よりも大きい場合、生成装置は、現在の抽出されたイベント信号を用いて第2イメージを生成する(ステップS1240)。
生成装置は、第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって第1イメージと重畳することによって重畳候補イメージを生成する(ステップS1245)。
生成装置は、候補重畳イメージと第1イメージとの類似度を算出し(ステップS1250)、算出された類似度のうちの最大類似度に対応する候補重畳イメージを第1イメージと重畳して第3イメージを生成する(ステップS1255)。
図13及び図14は、一実施形態によるイメージ生成装置のブロック図である。図13を参照すると、本実施形態によるイメージ生成装置(以下、「生成装置」)1300は、イベント基盤ビジョンセンサ1310、バッファ1320、及びプロセッサ1330を含む。イベント基盤ビジョンセンサ1310、バッファ1320、及びプロセッサ1330は、バス1340によって接続される。
イベント基盤ビジョンセンサ1310は光の変化を検出する。イベント基盤ビジョンセンサ1310はピクセルアレイを含む。ピクセルアレイに含まれる各ピクセルは、当該ピクセルに入射する光の変化を検出する。イベント基盤ビジョンセンサ1310は、光の変化が検出された複数のピクセルに対応する複数のイベント信号を出力する。イベント基盤ビジョンセンサ1310は、オブジェクトの動きを検出してイベント信号を出力する。
バッファ1320は、イベント基盤ビジョンセンサ1310で第1時間区間に検出された複数のイベント信号及び第2時間区間に検出された複数のイベント信号を格納する。イベント信号のそれぞれは、イベント基盤センサ1310に含まれる複数のピクセルのうちのイベントを検出したピクセルを示す識別情報、及びイベントを検出した時刻に関する時刻情報を含む。
プロセッサ1330は、マイクロプロセッサー、コントローラ、CPU(central processing unit)、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、FPGA(field programmable gate array)、PLU(programmable logic unit)、命令(instruction)を実行して応答する1つ以上の汎用若しくは特殊目的のコンピュータ、又はこれらの様々な組合せで具現される。
以下、説明の便宜のために生成装置1300の構造及び動作を説明するが、本実施形態は、生成装置を含む様々なコンピューティング装置、スマートテレビ、スマートフォン、ウェアラブルデバイスなどのモバイル装置、各種のセキュリティー装置などに適用される。
プロセッサ1330は、バッファ1320に格納された第1時間区間のイベント信号を用いて第1イメージを生成し、バッファ1320に格納された第2時間区間のイベント信号を用いて第2イメージを生成する。プロセッサ1330は、第1イメージと第2イメージとを重畳することによって、第1イメージ及び第2イメージに比べて高い品質の第3イメージを生成する。
プロセッサ1330は、バッファ1320に格納されたイベント信号をイベントが検出された時刻の逆順に抽出し、抽出されたイベント信号の分散に基づいて第1イメージのための第1閾値を決定する。プロセッサ1330は、抽出されたイベント信号の数と第1閾値の比較結果に基づいて、バッファ1320からイベント信号を更に抽出するか否かを決定する。
プロセッサ1330は、バッファ1320に格納されたイベント信号のうちから第1イメージの生成に利用されたイベント信号を除いた残りのイベント信号をイベントが検出された時刻の逆順に抽出する。プロセッサ1330は、抽出されたイベント信号の分散に基づいて第2イメージのための第2閾値を決定し、抽出されたイベント信号の数と第2閾値の比較結果に基づいてバッファ1320からイベント信号を更に抽出するか否かを決定する。
プロセッサ1330は、バッファ1320に格納されたイベント信号をイベントが検出された時刻の逆順に抽出し、抽出されたイベント信号に関するソリッドレベルを決定する。プロセッサ1330は、ソリッドレベルと予め設定された閾値の比較結果に基づいてバッファ1320からイベント信号を更に抽出するか否かを決定する。
プロセッサ1330は、第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって第1イメージと重畳することによって重畳候補イメージを生成する。
プロセッサ1330は、第1イメージを複数の区域に分割し、複数の区域のそれぞれと第2イメージの少なくとも一部が重畳するように第2イメージの少なくとも一部を移動又は回転させて区域毎の重畳候補イメージを生成する。
プロセッサ1330は、第1イメージ内の複数のオブジェクトを認識し、複数のオブジェクトのそれぞれと第2イメージの少なくとも一部が重畳するように第2イメージの少なくとも一部を移動又は回転させて区域毎の重畳候補イメージを生成する。
プロセッサ1330は、第1イメージに対する第2イメージの拡大率又は縮小率に基づいて最大類似度を有する第2イメージの移動距離を抽出する。プロセッサ1330は、抽出された移動距離だけ第2イメージを移動させて第1イメージと重畳することによって重畳候補イメージを生成する。
プロセッサ1330は、重畳候補イメージと第1イメージとの類似度を算出し、算出された類似度のうちの最大類似度を有する重畳候補イメージを第1イメージと重畳して第3イメージを生成する。
プロセッサ1330は、重畳候補イメージ及び第1イメージの同じ位置のピクセルに対応するイベント信号値の総和を用いて類似度を算出する。
その他にも、プロセッサ1330は、図1〜図12を参照して上述した少なくとも1つの方法を実行することができる。プロセッサ1330は、プログラムを実行して生成装置1300を制御する。プロセッサ1330によって実行されるプログラムコードはメモリに格納される。生成装置1300は、入出力インターフェースを介して外部装置(例えば、パーソナルコンピュータ又はネットワーク)に接続され、データを交換する。
図1〜図12を参照して上述した少なくとも1つの方法は、タブレット、スマートフォン、スマートテレビ、又はウェアラブルデバイス内のプロセッサとして動作するアプリケーション形態に具現されるか、或いはチップ形態に具現されてスマートフォン、スマートテレビ、ウェアラブルデバイス、又は知能型自動車、その他の様々なAV(Audio Video)機器内に内蔵される。
図14を参照すると、一実施形態による生成装置1400は、イベント基盤ビジョンセンサ1410、バッファ1430、及びプロセッサ1450を含む。
バッファ1430は、イベント基盤ビジョンセンサ1410で検出されたイベント信号を予め設定された大きさだけ格納し、プロセッサ1450がイメージを生成するときに、最近発生したイベント信号から逆順に出力する。バッファ1430は、イベント信号が発生したピクセルの位置、イベント信号が発生した時刻、イベントが発生したピクセルにおける明るさ値などを格納する。その他の、イベント基盤ビジョンセンサ1410及びバッファ1430に対する説明は、図13に示すイベント基盤ビジョンセンサ1310、バッファ1320と同一であるため当該部分の説明を参照する。
プロセッサ1450は、第1イベント信号収集部1451、第2イベント信号収集部1452、移動部1453、比較部1454、及び整合部1455を含む。
第1イベント信号収集部1451は、バッファ1430から第1イベント信号を収集する。第1イベント信号収集部1451は、収集された第1イベント信号を用いて第1イメージを生成する。第1イベント信号収集部1451は、イメージ整合の基礎となる最初の重畳イメージを生成する。
第1イメージを構成する第1イベント信号の数が過度に少ない場合、その後のイメージの移動及び整合過程で誤差が大きくなり、適切な整合イメージ(重畳イメージ)が生成されない。一般的に、第1イベント信号収集部1451は、第1イメージを生成するために用いられるイベント信号の数を、第2イメージを生成するために用いられるイベントの数よりも多く用いる。第1イメージを生成するために必要なイベント信号の数は状況に応じて変わる。一例として、第1イベント信号収集部1451は、第1イベント信号の横軸分散と縦軸分散とを乗算してイベント信号が占めるイメージ上の面積に比例する値を求める。第1イベント信号収集部1451は、求めた値に予め定義された定数を乗算し、その値よりも第1イベント信号の数が多い場合に第1イメージの生成を完了する。
第2イベント信号収集部1452は、バッファ1430から第2イベント信号を収集する。第2イベント信号収集部1452は、収集された第2イベント信号を用いて複数の第2イメージを生成する。第2イベント信号収集部1452も第1イベント信号収集部1451のような方式で第2イメージの生成を完了する。但し、第2イベント信号収集部1452は、第1イベント信号収集部1451に比べて少ない数のイベント信号によって第2イメージを生成する。第2イメージを生成するための第2イベント信号の個数も状況に応じて変わる。
移動部1453は、複数の第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって第1イメージと重畳可能な位置に移動変換させる。移動部1453は、第2イメージを移動変換したイメージを生成する。移動部1453は、第2イメージを横軸と縦軸に移動させる。又は、移動部1453は、第2イメージを横軸、縦軸、そして前後軸に移動させる。或いは、移動部1453は、第2イメージを横軸、縦軸、前後軸、そして3方向に回転移動させる。
比較部1454は、移動部1453で生成された移動変換された複数の第2イメージと重畳イメージ(第1イメージ)との間の類似度を算出する。比較部1454は、2つのイメージのそれぞれの同じ位置におけるピクセル値の積の総和を用いて類似度を算出する。
整合部1455は、比較部1454で算出された類似度のうちの最も大きい値に該当する移動変換された第2イメージを重畳イメージに追加的に重畳する。整合部1455は、移動変換された複数の第2イメージのうちの最も類似度の大きい第2イメージを重畳イメージに更に重畳して最終イメージを出力する。
上記実施形態は、上記実施形態を具現する少なくとも1つのプロセッシング素子を制御するコンピュータで読み出し可能なコード及び/又は媒体、例えばコンピュータ読み取り可能な記録媒体に記録された命令語によって具現される。
上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
110 イベント基盤ビジョンセンサ
111 ピクセル
130 バッファ
131 第1空間
132 第2空間
210 イメージ
231 (第1)イメージ(シードイメージ)
233、235 (第2)イメージ(フラグメントイメージ)
250 重畳イメージ
270 最終イメージ(第3イメージ)
510 イベント信号
511 x軸方向の分散σ
512 y軸方向の分散σ
710 単純なパターンを有する場合
720 複雑なパターンを有する場合
1300、1400 (イメージ)生成装置
1310、1410 イベント基盤ビジョンセンサ
1320、1430 バッファ
1330、1450 プロセッサ
1340 バス
1451 第1イベント信号収集部
1452 第2イベント信号収集部
1453 移動部
1454 比較部
1455 整合部

Claims (27)

  1. 第1時間区間の間にイベント基盤ビジョンセンサから出力されてバッファに格納された第1イベント信号を用いて第1イメージを生成するステップと、
    第2時間区間の間に前記イベント基盤ビジョンセンサから出力されて前記バッファに格納された第2イベント信号を用いて第2イメージを生成するステップと、
    前記第1イメージ及び前記第2イメージに比べて高い品質の第3イメージを生成するために前記第1イメージと前記第2イメージとを重畳するステップと、を有し、
    前記第1イメージを生成するステップは、
    前記バッファに格納された第1イベント信号をイベントが検出された時刻の逆順に抽出するステップと、
    前記抽出された第1イベント信号の分散に基づいて前記第1イメージのための閾値を決定するステップと、
    前記抽出された第1イベント信号の数が前記閾値よりも多いか否かを判定するステップと、
    前記抽出された第1イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出するステップと、を含むことを特徴とするイメージ生成方法。
  2. 前記第1イベント信号及び前記第2イベント信号のそれぞれは、前記イベント基盤ビジョンセンサに含まれるピクセルのうちのイベントを検出したピクセルを示す識別情報及び前記イベントを検出した時刻を示す時刻情報を含むことを特徴とする請求項1に記載のイメージ生成方法。
  3. 前記第1イベント信号の数は、前記第2イベント信号の数よりも多いことを特徴とする請求項1に記載のイメージ生成方法。
  4. 前記第2イメージを生成するステップは、
    前記バッファに格納された第2イベント信号をイベントが検出された時刻の逆順に抽出するステップと、
    前記抽出された第2イベント信号の分散に基づいて前記第2イメージのための閾値を決定するステップと、
    前記抽出された第2イベント信号の数が前記閾値よりも多いか否かを判定するステップと、
    前記抽出された第2イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出するステップと、を含むことを特徴とする請求項1に記載のイメージ生成方法。
  5. 前記第1イメージを生成するステップは、
    前記イベントが検出された時刻の逆順に抽出された第1イベント信号に関するソリッドレベルを決定するステップと、
    前記ソリッドレベルが閾値よりも大きいか否かを判定するステップと、
    前記ソリッドレベルが前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出するステップと、を更に含むことを特徴とする請求項1に記載のイメージ生成方法。
  6. 前記第1イメージと前記第2イメージとを重畳するステップは、重畳候補イメージを生成するために前記第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって前記第1イメージと重畳するステップを含むことを特徴とする請求項1に記載のイメージ生成方法。
  7. 前記第1イメージと前記第2イメージとを重畳するステップは、
    前記重畳候補イメージと前記第1イメージとの類似度を算出するステップと、
    前記第3イメージを生成するために前記類似度のうちの最大類似度を有する重畳候補イメージを前記第1イメージと重畳するステップと、を含むことを特徴とする請求項に記載のイメージ生成方法。
  8. 前記重畳候補イメージと前記第1イメージとの類似度を算出するステップは、前記第1イベント信号及び前記第2イベント信号、前記重畳候補イメージにおける位置と同一の前記第1イメージにおける位置のうち、前記重畳候補イメージの位置及び前記第1イメージの位置のピクセルに対応するイベント信号値の総和を用いて前記類似度を算出するステップを含むことを特徴とする請求項に記載のイメージ生成方法。
  9. 前記第1イメージと前記第2イメージとを重畳するステップは、
    前記第1イメージを複数の区域に分割するステップと、
    前記区域毎に重畳候補イメージを生成するために前記第2イメージの一部が前記区域のそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転するステップと、を含むことを特徴とする請求項1に記載のイメージ生成方法。
  10. 前記第1イメージと前記第2イメージとを重畳するステップは、
    前記第1イメージにある複数のオブジェクトを認識するステップと、
    前記オブジェクト毎に重畳候補イメージを生成するために前記第2イメージの一部が前記オブジェクトのそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転するステップと、を含むことを特徴とする請求項1に記載のイメージ生成方法。
  11. 前記第1イメージと前記第2イメージとを重畳するステップは、
    前記第1イメージに対する前記第2イメージの拡大率又は縮小率に基づいて最大類似度を有する前記第2イメージの移動距離を抽出するステップと、
    前記第1イメージと重畳するように前記第2イメージを前記移動距離だけ移動させるステップと、を含むことを特徴とする請求項1に記載のイメージ生成方法。
  12. 前記第1イメージと前記第2イメージとを重畳するステップは、前記第1イベント信号及び前記第2イベント信号のうちのオン(ON)イベント信号又はオフ(OFF)イベント信号及び距離情報に基づいて、前記第2イメージを6自由度(DoF)により3方向に回転及び移動させるステップを含むことを特徴とする請求項1に記載のイメージ生成方法。
  13. 前記第1イベント信号及び前記第2イベント信号からの距離よりもイベント信号の距離が遠いノイズ信号を、前記第1イベント信号及び前記第2イベント信号から除去するステップを更に含むことを特徴とする請求項1に記載のイメージ生成方法。
  14. カメラキャリブレーションによって前記第1イベント信号及び前記第2イベント信号のレンズ歪みを補正するステップを更に含むことを特徴とする請求項1に記載のイメージ生成方法。
  15. ハードウェアと結合してコンピュータに請求項1に記載のイメージ生成方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  16. 第1時間区間の間に第1イベント信号を出力し、第2時間区間の間に第2イベント信号を出力するイベント基盤ビジョンセンサと、
    前記第1イベント信号及び前記第2イベント信号を格納するバッファと、
    前記第1イベント信号に基づいて第1イメージを生成し、前記第2イベント信号に基づいて第2イメージを生成し、前記第1イメージ及び前記第2イメージに比べて高い品質の第3イメージを生成するために前記第1イメージと前記第2イメージとを重畳するプロセッサと、を備え
    前記プロセッサは、前記バッファに格納された第1イベント信号をイベントが検出された時刻の逆順に抽出し、前記抽出された第1イベント信号の分散に基づいて前記第1イメージのための閾値を決定し、前記抽出された第1イベント信号の数が閾値よりも多いか否かを判定し、前記抽出された第1イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出することを特徴とするイメージ生成装置。
  17. 前記第1イベント信号及び前記第2イベント信号のそれぞれは、前記イベント基盤ビジョンセンサに含まれるピクセルのうちのイベントを検出したピクセルを示す識別情報及び前記イベントを検出した時刻を示す時刻情報を含むことを特徴とする請求項16に記載のイメージ生成装置。
  18. 前記プロセッサは、前記バッファに格納された第2イベント信号をイベントが検出された時刻の逆順に抽出し、前記抽出された第2イベント信号の分散に基づいて前記第2イメージのための閾値を決定し、前記抽出された第2イベント信号の数が前記閾値よりも多いか否かを判定し、前記抽出された第2イベント信号の数が前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出することを特徴とする請求項16に記載のイメージ生成装置。
  19. 前記プロセッサは、前記イベントが検出された時刻の逆順に抽出された第1イベント信号に関するソリッドレベルを決定し、前記ソリッドレベルが閾値よりも大きいか否かを判定し、前記ソリッドレベルが前記閾値以下であると判定された場合、前記バッファから前記イベントが検出された時刻の逆順に前記バッファに格納された1つ以上の追加イベント信号を抽出することを特徴とする請求項16に記載のイメージ生成装置。
  20. 前記プロセッサは、重畳候補イメージを生成するために前記第2イメージを、移動、回転、縮小、拡大のうちの少なくとも1つの動作によって前記第1イメージと重畳することを特徴とする請求項16に記載のイメージ生成装置。
  21. 前記プロセッサは、前記重畳候補イメージと前記第1イメージとの類似度を算出し、前記第3イメージを生成するために前記類似度のうちの最大類似度を有する重畳候補イメージを前記第1イメージと重畳することを特徴とする請求項20に記載のイメージ生成装置。
  22. 前記プロセッサは、前記第1イベント信号及び前記第2イベント信号、前記重畳候補イメージにおける位置と同一の前記第1イメージにおける位置のうち、前記重畳候補イメージの位置及び前記第1イメージの位置のピクセルに対応するイベント信号値の総和を用いて前記類似度を算出することを特徴とする請求項21に記載のイメージ生成装置。
  23. 前記プロセッサは、前記第1イメージを複数の区域に分割し、前記区域毎に重畳候補イメージを生成するために前記第2イメージの一部が前記区域のそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転することを特徴とする請求項16に記載のイメージ生成装置。
  24. 前記プロセッサは、前記第1イメージにある複数のオブジェクトを認識し、前記オブジェクト毎に重畳候補イメージを生成するために前記第2イメージの一部が前記オブジェクトのそれぞれと重畳するように前記第2イメージの一部を移動及び/又は回転することを特徴とする請求項16に記載のイメージ生成装置。
  25. 前記プロセッサは、前記第1イメージに対する前記第2イメージの拡大率又は縮小率に基づいて最大類似度を有する前記第2イメージの移動距離を抽出し、前記第1イメージと重畳するように前記第2イメージを前記移動距離だけ移動させることを特徴とする請求項16に記載のイメージ生成装置。
  26. バッファから、第1時間区間の間にイベント基盤ビジョンセンサから出力された第1イベント信号を第1イベントのそれぞれが検出された時刻の逆順に抽出するステップと、
    前記抽出された第1イベント信号に基づいて第1イメージを生成するステップと、
    バッファから、第2時間区間の間にイベント基盤ビジョンセンサから出力された第2イベント信号を第2イベントのそれぞれが検出された時刻の逆順に抽出するステップと、
    前記抽出された第2イベント信号に基づいて第2イメージを生成するステップと、
    重畳候補イメージを生成するために前記第2イメージを前記第1イメージと重畳するステップと、
    前記第1イメージと前記重畳候補イメージとの類似度を算出するステップと、
    第3イメージを生成するために前記類似度のうちの最大類似度を有する重畳候補イメージを前記第1イメージと重畳するステップと、を有することを特徴とするイメージ生成方法。
  27. 前記第1イメージに対する前記重畳候補イメージの拡大率又は縮小率に基づいて最大類似度を有する重畳候補イメージの移動距離を抽出するステップを更に含み、
    前記重畳候補イメージを前記第1イメージと重畳するステップは、前記重畳候補イメージを前記第1イメージと重畳するように前記移動距離だけ移動させるステップを含むことを特徴とする請求項26に記載のイメージ生成方法。
JP2016209292A 2015-11-16 2016-10-26 イメージ生成方法及び装置 Active JP6872877B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150160206A KR102399017B1 (ko) 2015-11-16 2015-11-16 이미지 생성 방법 및 장치
KR10-2015-0160206 2015-11-16

Publications (2)

Publication Number Publication Date
JP2017091518A JP2017091518A (ja) 2017-05-25
JP6872877B2 true JP6872877B2 (ja) 2021-05-19

Family

ID=56939858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016209292A Active JP6872877B2 (ja) 2015-11-16 2016-10-26 イメージ生成方法及び装置

Country Status (5)

Country Link
US (1) US10096091B2 (ja)
EP (1) EP3168810B1 (ja)
JP (1) JP6872877B2 (ja)
KR (1) KR102399017B1 (ja)
CN (1) CN106709895B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102467771B1 (ko) 2016-12-30 2022-11-16 소니 어드밴스드 비주얼 센싱 아게 이벤트-기반 비전 센서를 위한 데이터 레이트 제어
EP3668077B1 (en) * 2017-08-09 2023-08-02 FUJIFILM Corporation Image processing system, server device, image processing method, and image processing program
KR102503543B1 (ko) * 2018-05-24 2023-02-24 삼성전자주식회사 다이나믹 비전 센서, 전자 장치 및 이의 데이터 전송 방법
CN109068024B (zh) * 2018-06-29 2020-07-21 北京大学 一种对时空信号进行滤波的方法
JP7298277B2 (ja) * 2019-04-25 2023-06-27 トヨタ自動車株式会社 イベントカメラ
JP7350515B2 (ja) 2019-05-22 2023-09-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN114073070A (zh) * 2019-06-25 2022-02-18 索尼互动娱乐股份有限公司 系统、信息处理设备、信息处理方法和程序
US11687642B2 (en) * 2019-10-23 2023-06-27 Blue Cromos Management AB System and method for identifying and authenticating counterfeiting articles
US11303811B2 (en) * 2019-11-05 2022-04-12 Fotonation Limited Event-sensor camera
JP2021083004A (ja) 2019-11-21 2021-05-27 アイシン精機株式会社 センサシステム
KR20220039022A (ko) * 2020-09-21 2022-03-29 삼성전자주식회사 비전 센서를 포함하는 이미지 처리 장치 및 그 동작 방법
CN117881955A (zh) * 2021-09-03 2024-04-12 索尼集团公司 粒子分析系统、粒子分析方法和流式细胞仪系统
US11558542B1 (en) * 2022-01-03 2023-01-17 Omnivision Technologies, Inc. Event-assisted autofocus methods and apparatus implementing the same
KR102519006B1 (ko) * 2022-11-21 2023-04-07 주식회사 에스티씨랩 디지털 기반 로그 데이터의 조회 속도 향상을 위한 로그 데이터 관리 방법 및 서버
CN116757968B (zh) * 2023-08-18 2023-11-24 深圳时识科技有限公司 降噪方法及装置、芯片、事件成像装置和电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05167975A (ja) 1991-12-10 1993-07-02 Kyocera Corp 電子スチルカメラ
JPH06350972A (ja) 1993-06-08 1994-12-22 Matsushita Electric Ind Co Ltd 画像信号の動き検出装置
JPH09261526A (ja) 1996-03-19 1997-10-03 Olympus Optical Co Ltd 撮像装置
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US8401304B2 (en) * 2007-07-27 2013-03-19 Sportvision, Inc. Detecting an object in an image using edge detection and morphological processing
JP4268220B2 (ja) 2007-08-03 2009-05-27 パナソニック株式会社 撮影装置、撮影方法、およびプログラム
CN100538723C (zh) * 2007-10-26 2009-09-09 浙江工业大学 多视觉传感器信息融合的内河船舶自动识别系统
US8339456B2 (en) * 2008-05-15 2012-12-25 Sri International Apparatus for intelligent and autonomous video content generation and streaming
CN101848369B (zh) 2009-12-04 2012-10-03 四川川大智胜软件股份有限公司 一种基于自适应双背景模型的视频禁停事件检测方法
JP2011199786A (ja) 2010-03-23 2011-10-06 Olympus Corp 画像処理装置及び画像処理方法並びにプログラム
EP2574511B1 (en) * 2011-09-30 2016-03-16 Honda Research Institute Europe GmbH Analyzing road surfaces
KR101880998B1 (ko) * 2011-10-14 2018-07-24 삼성전자주식회사 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법
US9008366B1 (en) * 2012-01-23 2015-04-14 Hrl Laboratories, Llc Bio-inspired method of ground object cueing in airborne motion imagery
KR102124188B1 (ko) * 2013-03-13 2020-06-26 삼성전자주식회사 이미지를 처리하는 전자장치 및 방법
GB2512621A (en) * 2013-04-04 2014-10-08 Sony Corp A method and apparatus
KR102081087B1 (ko) * 2013-06-17 2020-02-25 삼성전자주식회사 동기적 영상과 비동기적 영상을 위한 영상 정합 장치 및 이미지 센서
US9363427B2 (en) 2013-08-28 2016-06-07 Disney Enterprises, Inc. Device and method for calibrating a temporal contrast sensor with a frame-based camera sensor
KR102224932B1 (ko) * 2014-02-19 2021-03-08 삼성전자주식회사 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법
CN104284158B (zh) 2014-10-23 2018-09-14 南京信必达智能技术有限公司 应用于面向事件的智能监控相机的方法
KR20160121287A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치
CN105046676A (zh) * 2015-08-27 2015-11-11 上海斐讯数据通信技术有限公司 一种基于智能终端的图像融合方法及设备

Also Published As

Publication number Publication date
KR20170056860A (ko) 2017-05-24
US10096091B2 (en) 2018-10-09
US20170140509A1 (en) 2017-05-18
CN106709895B (zh) 2022-03-01
KR102399017B1 (ko) 2022-05-17
EP3168810B1 (en) 2019-11-13
EP3168810A1 (en) 2017-05-17
JP2017091518A (ja) 2017-05-25
CN106709895A (zh) 2017-05-24

Similar Documents

Publication Publication Date Title
JP6872877B2 (ja) イメージ生成方法及び装置
US10573018B2 (en) Three dimensional scene reconstruction based on contextual analysis
JP5959951B2 (ja) 映像処理装置、映像処理方法、及びプログラム
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
KR101385599B1 (ko) 몽타주 추론 방법 및 장치
JP6558387B2 (ja) 画像解析装置、画像解析方法、及び画像解析プログラム
US8452091B2 (en) Method and apparatus for converting skin color of image
KR102476022B1 (ko) 얼굴검출 방법 및 그 장치
TW201701187A (zh) 手勢檢測識別方法及系統
JP6947856B2 (ja) 物体認識ニューラルネットワークの訓練方法、装置及びコンピューティングデバイス
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
CN110738078A (zh) 一种人脸识别方法及终端设备
JP2021136012A (ja) 位相差を使用するライブネス検出方法及び装置
CN108875506B (zh) 人脸形状点跟踪方法、装置和系统及存储介质
JP2015184773A (ja) 画像処理装置および3次元物体トラッキング方法
KR101360063B1 (ko) 제스처 인식 방법 및 시스템
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP4011426B2 (ja) 顔検出装置、顔検出方法および顔検出プログラム
US11763601B2 (en) Techniques for detecting a three-dimensional face in facial recognition
JP5935118B2 (ja) 物体検出装置および物体検出方法
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
JP5832089B2 (ja) 映像処理装置、映像処理方法およびプログラム
WO2019107466A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
CN112329508A (zh) 手势识别方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210420

R150 Certificate of patent or registration of utility model

Ref document number: 6872877

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150