JP2021180475A - カメラノイズリダクション - Google Patents

カメラノイズリダクション Download PDF

Info

Publication number
JP2021180475A
JP2021180475A JP2021048021A JP2021048021A JP2021180475A JP 2021180475 A JP2021180475 A JP 2021180475A JP 2021048021 A JP2021048021 A JP 2021048021A JP 2021048021 A JP2021048021 A JP 2021048021A JP 2021180475 A JP2021180475 A JP 2021180475A
Authority
JP
Japan
Prior art keywords
images
image
reference image
tnf
temporally continuous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021048021A
Other languages
English (en)
Inventor
ソン ユアン,
Song Yuan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2021180475A publication Critical patent/JP2021180475A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ウェアラブルカメラに対するノイズリダクションを行う方法を提供する。【解決手段】方法は、時間的に連続する画像101〜104のシーケンスの中から第1の基準画像113を選択し、第1の複数の画像121、122を、時間的に連続する画像の中から選択して第1の基準画像の時間的ノイズフィルタリングに使用し、第1の複数の画像を選択した後、第1の複数の変換された画像131、132を、第1の基準画像と同じ視点を有するように第1の複数の画像の夫々を変換して形成する。方法はまた、第1の複数の変換された画像を使用して、第1の基準画像のTNFを行う。方法はまた、TNFを再度促進するために、第2の複数の画像152、153を、時間的に連続する画像の中から選択して第2の基準画像144の時間的ノイズフィルタリングに使用し、第2の基準画像のTNFを行うべきと判定すると、第2の複数の変換された画像162、163を形成する。【選択図】図1

Description

本開示は、カメラと、特に、カメラにより撮像された画像におけるノイズリダクションのための方法と、に関する。
ウェアラブルカメラは、ますます一般的になってきており、芸術又はレクリエーションの用途から、セキュリティ及びドキュメンテーションに関する用途まで広がる、多種多様のアプリケーションにて使用されている。ウェアラブルカメラでの一般的な問題は、他のカメラと同様に、イメージセンサでの、光学系などにおける、又は、回路における、カメラ内のどこかで生成される、画像ノイズのそれである。ノイズは通常、画像における輝度及び色のランダムな変分として見られる。ノイズは特に、低照度環境において撮像された画像内に、つまり、イメージセンサにて記録された光子が少ない場合に広がる。低照度環境は一般的に、信号対ノイズ比(signal−to−noise ratio又はSNR)が低い画像に相当する。画像ノイズの影響を軽減する1つの技術は、時間的ノイズフィルタリング(temporal noise filtering又はTNF)と呼ばれる。TNFは、異なる時点にて撮像された複数の画像にわたる平均化に依存する。しかし、そのような平均化は、さもなければ静止シーン内を動いている物体に対して、さらには、カメラが動いているなど、シーン全体がダイナミックなものである場合に、モーションに誘発されたぼやけを引き起こす場合があり、そのシーン全体が、ある程度のぼやけを特徴として示す場合がある。着用者により着用されているウェアラブルカメラは、着用者のモーションにより、着用者が歩いている場合など、そのモーションが、意識的なモーション、又は、着用者が息をしていることなどによる、潜在意識的なモーションに基づくものであるかに関わらず、いくらかのモーションに常にさらされることが予期される。モーションの原因に応じて、動き補正を順応させる種々の技術が知られている。しかし、動き補正技術は、過大な演算リソースを要求する場合がある。したがって、より多くの電力を消費する場合がある。これは、バッテリなどのパワーストレージが限られるといった形態による、ウェアラブルカメラにとっての大きな課題となる場合がある。モーションに誘発されたぼやけのタイプすべてに適切に対処するために、機械的なモーションの安定化もまた、一方で考えられる。そのようなシステムは、ウェアラブルカメラをより複雑に、より大型にする場合がある。したがって、この技術分野における改善の必要がある。
本発明の目的は、上記の課題の少なくともいくらかを軽減し、ウェアラブルカメラに対する、改善されたノイズリダクションを提供することである。
本発明の第1の態様によると、ウェアラブルカメラにより撮像された画像におけるノイズリダクションの方法が提供される。本方法は、
A.時間的に連続する画像のシーケンスを提供することと、
B.時間的に連続する画像の中から、第1の基準画像を選択することと、
C.時間的に連続する画像の中から、第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
D.第1の基準画像と同じ視点を有するよう、第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
E.第1の複数の変換された画像を使用して、第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
F.時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
G.時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、第2の複数の画像の画像の少なくとも1つはまた、第1の複数の画像にも含まれ、第2の複数の画像は、第1の基準画像を含む、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
H.第2の基準画像のTNFが行われるべきであるか否かを判定することと、
を含み、
TNFが行われるべきであることが判定されると、
I.第2の複数の変換された画像を形成することであって、
I1.第1の複数の画像に含まれない、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、その画像を変換することと、
I2.第1の複数の画像にも含まれる、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、第1の複数の変換された画像の中の、対応する、変換された画像を変換することと、
により、第2の複数の変換された画像を形成することと、
J.第2の複数の変換された画像を使用して、第2の基準画像に時間的ノイズフィルタリングを行うことと、
をさらに含む。
用語「ウェアラブルカメラ(wearable camera)」は、使用時に、着用者により着用されるよう構成されているカメラとして理解されてよい。身体装着型カメラ、アイウェア装着型カメラ、及びヘルメット装着型カメラは、ウェアラブルカメラという用語の非限定例と見なされるべきである。着用者は、例えば、人又は動物であってよい。
用語「時間的に連続する画像(temporally successive images)」は、異なる時点にて、連続して撮像された画像又は画像フレームとして理解されてよい。換言すると、例えば、第1の画像は、第2の画像に対する撮像の時間と比較して、時間的に前に撮像され、第2の画像は続いて、第3の画像に対する撮像の時間と比較して、時間的に前に撮像される。画像又は画像フレームはともに、ビデオストリームの、時間的に連続する画像又は画像フレームのシーケンスを形成してよい。
用語「同じ視点を有するよう、画像を変換する(transforming … images to have a same perspective)」は、あたかも、別の画像を撮像したときと同じように配置され、向けられたカメラを用いて撮像されたように、画像を変換する、又は、画像のプロジェクションを作成する、ということを指す場合がある。この言い回しは、実質的に同じ視点を指すものとして理解されるべきである。視点変換を達成する種々の方法は、ホモグラフィ及び画像プロジェクションを使用することを含んでよい。例えば、加速度計及びジャイロスコープなどのセンサからの読み出し値が、視点変換を行うために採用されてよい。視点変換は、2つの異なる画像における、対応する、候補となるポイントのペアのそれぞれに基づいてホモグラフィを計算することを含んでよい。
なお、ステップAからJは、それらが本開示に提示されている順序にて、時間的に行われる必要がなくともよい。ステップI1及びI2は、双方とも、ステップIの一部のそれぞれとして理解されるべきである。
上記の方法は、ウェアラブルカメラにより撮像された画像のTNFを最適化する方法を提供する。特に、本方法は、使用される演算量及びエネルギを減らし得る。これは、プロセスフローを作成することにより達成される。ここでは、第2の変換ステップは、第2の複数の変換された画像を形成する際に、少なくとも2つの画像に対して、同じ視点変換を再使用できる、という利点があり得る。これは、第1の複数の変換された画像の少なくとも1つと、第1の基準画像と、が、第2の複数の画像内にあるため、これらの画像を、第2の基準画像と同じ視点変換に変換する際に、同じ視点変換の使用が可能となるケースとして理解されるべきである。これは、第2の複数の変換された画像を生成する際に、計算される/判定される必要のある新たな視点変換を少なくし得る、ということを意味する。さらに、視点変換を行うための命令の再使用は、画像を変換することに必要な、ストレージ又はキャッシュストレージの量を減らし得る。
本発明は、例えば、時間的に連続する画像を非常に多く含むビデオストリームに対して、提供される方法を繰り返して反復することが、視点変換の複数回の再使用を好適に可能にする、というように理解されるべきである。
画像の連続するストリーム、つまり、ビデオに本方法を行う際のケースとなるような、プロセスのスケールが大きくなればなるほど、連続する反復を通して、削減の努力から得られるものは、より顕著となる。
第1の態様のいくつかの実施形態によると、本方法は、時間的に連続する画像の1つを、ウェアラブルカメラのメモリから、第1又は第2の基準画像と同じ視点を有するよう、時間的に連続する画像のその1つを変換した後に、削除することをさらに含んでよい。
そのような実施形態の好適な効果は、コンピュータメモリ要件を緩和することのそれであってよい。これは、本方法にしたがって可能となる。ここでは、元の視点の画像は、それらが一度変換され、別の画像視点が特徴付けられると、不要となり得る。なぜなら、変換された画像は、時間的に連続する画像の中の他の画像にTNFを行うために必要な場合に、実際に使用されているからである(例えば、ステップI2を参照されたい)。
第1の態様のいくつかの実施形態によると、第1の複数の画像のそれぞれの画像は、第1の基準画像に対して時間的に先行し得、第2の複数の画像のそれぞれの画像は、第2の基準画像に対して時間的に先行し得る。
そのような実施形態により、待ち時間が削減され得る。これは、時間的に先行する画像情報のみが、基準画像のTNFに対して使用され、画像を提供することと、同画像にTNFを行うことと、の間の遅延が減ることを意味するようなケースである。待ち時間を減らすことは、本方法が、ライブビデオストリームに適用される際に、特に好適であり得る。
第1の態様のいくつかの実施形態によると、第1の複数の画像は、4つから8つの画像を含んでよく、第2の複数の画像は、4つから8つの画像を含んでよい。
TNFに使用される画像の数が増えると、一般的に、ノイズリダクション方法の結果が改善され得る。画像の数が増えると、再使用される視点変換の回数をさらに増やすことができる。しかし、より多くの画像が使用されると、一般的に、TNFの演算がさらに複雑になる。本実施形態に係る画像の範囲は、TNFの品質と演算の複雑さとの間をよく考慮したものを表す。
第1の態様のいくつかの実施形態によると、第1の複数の変換された画像を形成することと、第2の複数の変換された画像を形成することと、は、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータを比較することに基づいて、関連付けられた基準画像と同じ視点を有するように画像を変換することを含んでよい。
用語「モーションデータ」は、カメラの、それがモニタするシーンに対する物理的なムーブメントに関するいずれのデータ又は情報を指す場合がある。
そのような実施形態は、種々のタイプのモーションデータが存在し得、モーションデータを判定するための幅広い手段が適用可能であり得るため、本方法を行うことに対するフレキシビリティを提供する。
第1の態様のいくつかの実施形態によると、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータは、モーションセンサ、加速度計、及びジャイロスコープの少なくとも1つにより判定されてよい、又は、モーションデータは、画像の画像分析に基づいて判定される。
カメラ上に載置されると、又は、カメラに関連して、加速度計は、カメラのムーブメントの方向、速度、及び加速度に関する、正確なモーションデータを提供し得る。カメラ上に載置されると、又は、カメラに関連して、ジャイロスコープは、カメラの向きに関する、正確なモーションデータを提供し得る。モーションセンサは、同様のモーションデータ、及び/又は、さらになるモーションデータを提供し得る。画像分析は、例えば、連続的に撮像された画像を比較することによる、カメラにより撮像された画像の分析に基づくモーションデータを提供し得る。モーションデータを判定する上記の方法は、互いに組み合されてよい、又は、互いに組み合わせて行われてよい。
第1の態様のいくつかの実施形態によると、ステップHは、第1の複数の画像の少なくとも2つの画像間の視点差を判定することをさらに含んでよく、第2の基準画像のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われ、第2の基準画像のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われない。
モーションが、特定のコンプライアンス制限内にある場合にのみ、TNFを行うことが、好ましくあり得る。TNFは、時間的に連続する画像を平均化することに依存する。多すぎるモーションを含む連続する画像にTNFを行うことは、画像の細部に歪を残すこととなる場合がある。そのような場合では、2回目のTNFを行う労力をまったく費やさないことが好適であり得る。さらに、これはまた、モーションが大きすぎる限りは、ノイズリダクションステップの残りを本質的に行わないことにより、要求される演算量を削減することにおいて好適な効果をも提供し得る。
第1の態様のいくつかの実施形態によると、視点差は、
それぞれの画像に時間的に関連付けられたモーションデータであって、モーションセンサ、加速度計、又はジャイロスコープにより判定されるモーションデータと、
第1の複数の画像の後続の画像間にて、どれだけのピクセルが変わったか、に関する画像データと、
の少なくとも1つに基づくものであってよい。
モーションセンサ、加速度計、又はジャイロスコープなどの、カメラとは別のセンサを使用することにより、判定が、より安定したものとされ、カメラの作動に依存しないものとされてよい。カメラの画像データを使用することにより、システムは、複雑でないものとされ、他のセンサに依存しないものとされ得る。後続の画像の間にて、どれだけのピクセルが変わったかを判定することは、TNFが行われるべきであるか否かの判定の、容易な適用可能性及び順応可能性を提供し得る。
第1の態様のいくつかの実施形態によると、本方法は、ステップAの前に、時間的に連続する画像のシーケンスに対する撮像条件を判定することをさらに含んでよく、撮像条件が所定の撮像条件要件を満たすことが判定されると、ステップAからJのみが行われる。
撮像条件が、特定のコンプライアンス制限内にある場合にのみ、TNFを行うことが、好ましくあり得る。予期される画像の細部の歪により、特定の画像撮像条件は、TNFに対して適さないと理解され得る。本方法のステップを行う前に、撮像条件が有益であるか、又は、少なくとも許容可能であるか否かをチェックすることがしたがって、好適となり得る。上記の実施形態と同様に、これはまた、撮像条件が、所定の撮像条件要件を満たさない限りは、本方法のステップの残りを本質的に行わないことにより、要求される演算量を削減することにおいて好適な効果をも提供し得る。
第1の態様のいくつかの実施形態によると、撮像条件は、
モーションセンサ、加速度計、ジャイロスコープ、又は測位デバイスにより判定される、モーションのレベルと、
光センサにより、又は、画像分析により判定される光レベルと、
の少なくとも1つにより判定される。
モーションのレベルが高すぎる場合には、本方法のステップAからJを行わないことが、好ましくあり得る。これは、モーションが大きすぎ、画像の細部を歪めることが予期される場合には、上記にて説明した実施形態と同様に、2回目のTNFが行われないものとして理解されてよい。高すぎるモーションのレベルは、良好な視点変換の実現可能性を下げる、つまり、変換された画像を歪ませる場合がある。高すぎるモーションのレベルは、また、時間的に連続する画像間の共通ピクセル数が減ることにより、良好なTNFの実現可能性を下げる場合がある。
モーションのレベルが高すぎないか判定するために、例えば、グローバルナビゲーションサテライトシステム(global navigation satellite system又はGNSS)、及び、トラッカ/レシーバなどの測位デバイスが使用されてよい。そのようなデバイスは、着用者が動く速度を判定するために、カメラに関連して、好適に使用され得る。この速度は、着用者が、例えば、走っている、又は、歩いているか判定するために使用され得る。ステップAからJは、例えば、着用者が歩いている場合に行われてよいが、着用者が走っている場合には行われないほうがよい。なぜなら、後者のアクティビティは、予期されるモーションレベルが高いためである。
本方法の、光レベルに基づいて、ステップAからJを行わないこともまた、好ましくあり得る。TNFは、低照度画像に適用されると、画像の細部の歪を大きくする場合がある。光レベルが満足できるものでない場合には、本方法のステップAからJを共に回避するために、その理由が有益であってよい。一方、光レベルが高すぎる場合には、TNFは要求されない、又は、不要であってよい。TNFはしたがって、好適に回避される。
光レベルが所定の閾値を超えると、モーションレベルが記録される必要がない、ということがさらに導かれてよい。したがって、モーション、モーションデータ、及び/又はモーションレベルを記録するセンサ及び手段は、例えば、ウェアラブルカメラのバッテリのエネルギを節約するために、電源の供給が断たれてよい。
光レベル及びモーションのレベルは、撮像条件を判定するために、例えば、性能指数として組み合されてよい、又は、組み合わせて評価されてよい。
第1の態様のいくつかの実施形態によると、撮像条件は、光センサにより、又は、画像分析により判定される光レベルにより判定され、所定の撮像条件要件は、所定のレベルより低い光レベルである。
TNFは、一般的に、低照度条件において、より必要とされ得る。これは、カメラ又はイメージセンサが、低照度条件において、より低い信号対ノイズ比をしばしば示すためであり得る。そのため、本方法のステップAからJを行うための上限閾値は、好ましいものであり得る。
第1の態様のいくつかの実施形態によると、本方法は、第1の基準画像を、ウェアラブルカメラのメモリ上に、第1の基準画像にTNFを行った後に保存することと、第2の基準画像を、ウェアラブルカメラのメモリ上に、第2の基準画像にTNFを行った後に保存することと、をさらに含んでよい。
基準画像は、それらにTNFが行われると、したがって、ウェアラブルカメラのメモリ上に保存されてよい、最終的なビデオストリームを形成し得る。
第1の態様のいくつかの実施形態によると、本方法は、第1の基準画像を、ウェアラブルカメラからリモートデバイスに、第1の基準画像にTNFを行った後に送信することと、第2の基準画像を、ウェアラブルカメラからリモートデバイスに、第2の基準画像にTNFを行った後に送信することと、をさらに含んでよい。
基準画像は、それらにTNFが行われると、したがって、表示又は保存のためにリモートデバイスに送信される、最終的なビデオストリームを形成し得る。好適には、基準画像は、したがって、ウェアラブルカメラのメモリ上に、期間を延長して保存される必要がなくともよい。
本発明の第2の態様によると、撮像ユニットと、演算ユニットと、を含むウェアラブルカメラが提供される。ウェアラブルカメラは、
A.撮像ユニットにより、時間的に連続する画像のシーケンスを撮像することと、
B.演算ユニットにより、時間的に連続する画像の中から、第1の基準画像を選択することと、
C.演算ユニットにより、時間的に連続する画像の中から、第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
D.演算ユニットにより、第1の基準画像と同じ視点を有するよう、第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
E.演算ユニットにより、第1の複数の変換された画像を使用して、第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
F.演算ユニットにより、時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
G.演算ユニットにより、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、第2の複数の画像の画像の少なくとも1つはまた、第1の複数の画像にも含まれ、第2の複数の画像は、第1の基準画像を含む、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
H.演算ユニットにより、第2の基準画像のTNFが行われるべきであるか否かを判定することと、に構成されており、
TNFが行われるべきであることが判定されると、
I.演算ユニットにより、第2の複数の変換された画像を形成することであって、
I1.第1の複数の画像に含まれない、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、その画像を変換することと、
I2.第1の複数の画像にも含まれる、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、第1の複数の変換された画像の中の、対応する、変換された画像を変換することと、
により、第2の複数の変換された画像を形成することと、
J.演算ユニットにより、第2の複数の変換された画像を使用して、第2の基準画像に時間的ノイズフィルタリングを行うことと、
にさらに構成されている。
第2の態様に説明されるウェアラブルカメラは、それらの対応する特徴により、第1の態様に説明される本方法のそれらと同様の利点を提供する。ウェアラブルカメラは、第1の態様の本方法を実施することに構成されているデバイスと見なされてよい。
本発明の第3の態様によると、処理能力を有するデバイスにより実行されると、第1の態様の本方法を実施する命令が保存されている、非一時的コンピュータ可読記憶媒体が提供される。
第3の態様に説明される非一時的コンピュータ可読記憶媒体は、第1の態様に説明される本方法のそれらと同様の利点を提供する。
本発明の適用性のさらなる範囲が、以下の詳細説明より明らかとなるであろう。しかし、本発明の好適な実施形態を示す一方で、詳細説明及び具体例は、説明のみの目的に提供されていることが理解されるべきである。なぜなら、本発明の範囲内での種々の変更及び改修が、本詳細説明から当業者に明らかとなるからである。
なお、本明細書及び添付の特許請求の範囲に使用されるように、冠詞「a」、「an」、「the」、及び「said」は、他の例が文脈により明確に決定づけられない限り、要素が1つ又はそれ以上あることを意味するよう意図していることに注意されたい。したがって、例えば、「1つのユニット(a unit)」又は「当該ユニット(the unit)」という引用は、いくつかのデバイスなどを含む場合がある。さらに、「含む(comprising)」、「含む(including)」、「含む(containing)」などという語は、他の要素又はステップを排除しない。
以下、添付の図面を参照して、本発明の上記態様及び他の態様をより詳細に説明する。これらの図面は、限定するものと見なされるべきではない。これらはその代わりに、説明及び理解を目的とするものと見なされるべきである。
これらの図面に示すように、各層及び各領域のサイズは、図示の目的のために誇張されている場合があり、したがって、一般的構造を示すために提供されている。類似の参照記号は、これらの図面を通して、同様の要素を示す。
図1は、ウェアラブルカメラにより、又は、パン/チルトカメラにより撮像された時間的に連続する画像にノイズリダクションを行う方法を例示的に示し、ここでは、時間的にノイズフィルタされる基準画像は、ノイズフィルタリングが基づいている複数の画像に時間的に後続する。 図2は、ウェアラブルカメラにより、又は、パン/チルトカメラにより撮像された時間的に連続する画像にノイズリダクションを行う方法を例示的に示し、ここでは、時間的にノイズフィルタされる基準画像は、ノイズフィルタリングが基づいている複数の画像に時間的に後続しない。 図3は、ウェアラブルカメラにより、又は、パン/チルトカメラにより撮像された画像にノイズリダクションを行う方法のフローチャートを示す。 図4は、リモートデバイスと任意に通信するウェアラブルカメラを模式的に示す。 図5は、リモートデバイスと任意に通信するパン/チルトカメラを模式的に示す。
本発明を、添付図面を参照して以下に更に詳細に説明する。ここでは、本発明の現在の好適な実施形態を示す。本発明はしかし、多くの異なる形態にて体現されてよく、以下に示す実施形態に限定されるものとして理解すべきでない。むしろこれらの実施形態は、完璧性及び完全性のために、そして、本発明の範囲を当業者に十分に伝えるために提供される。
図1及び図2は、身体装着型カメラ(body worn camera又はBWC)などのウェアラブルカメラにより撮像された画像におけるノイズリダクションの方法を示す。図3は、ウェアラブルカメラにより撮像された画像におけるノイズリダクションの同方法に対するフローチャートを示す。本方法は、ステップAからJを含む。本方法は、図4に例示するように、ウェアラブルカメラ200において実施されてよい。
図1、図2、及び図3の本方法を、図4のウェアラブルカメラ200と合わせて、以下に説明する。図1にて始まる、113などの参照番号は、図1及び図2に示す画像を指す。図2にて始まる、202などの参照番号は、図4に示す特徴を指す。
図1及び図2に示すブロックは、画像又は画像フレームを表す。図1及び図2は、元の画像、つまり、時間的に連続する画像101、102、103、104、が提供される、又は、撮像される際に関する水平時間成分を含む。図内の異なる水平位置にて配置されたブロックは、画像が、異なる時点にて撮像された、又は、提供されたことを示す。時間tは、図の左から右に進むよう示されている、つまり、ブロック101、これは、時間的に連続する画像の1つである、が、残りの時間的に連続する画像102、103、104の前に提供される、又は、撮像される。時間的に連続する画像101、102、103、104は、イメージセンサデバイスからの、生のフォーマット画像として提供されてよい、つまり、これらが提供される前には、先行する、画像の画像処理は無い。代替的に、本方法は、本方法に対する入力として提供される前に、時間的に連続する画像101、102、103、104の画像処理により先行されてよい。先行する画像処理の非限定例としては、不良ピクセルの除去、及び、カラムの固定パターンノイズフィルタリングなどの、画像データの調整又は修正が含まれる。換言すると、時間的に連続する画像101、102、103、104は、生の画像データとして、又は、処理された画像データとして提供されてよい。しかし、本発明に係る本方法は、画像のビデオエンコーディングプロセスの前に行われる、つまり、時間的に連続する画像101、102、103、104は、エンコードされていない/ビデオエンコードされない、ということに留意されたい。
図1及び図2は、垂直/カラム成分をさらに含む。同じカラムにおいて、他の下に配置された画像は、それらは、その同じカラムにおいて、上の画像の選択された、処理された、変換された、又は、フィルタされたバージョンであることを示す。それらの下の画像は、処理/変換などのいずれの時間的な順序に対応する必要はなく、任意の時点にて処理/変換などされてよい。それらの画像はむしろ、それらの上の、時間的に連続する画像101、102、103、104に主に基づくものとして理解されるべきである。
図1及び図2では、時間的に連続する画像101、102、103、104は、最上行に提供されている。これは、図3における本方法のステップAに対応するものとして理解されるべきである。
本発明の第2の態様、つまり、ウェアラブルカメラ200を提供する態様、におけるステップAは、ウェアラブルカメラ200が、撮像ユニット202により、時間的に連続する画像のシーケンス101、102、103、104を撮像することに構成されている、ということを規定する一方で、第1の態様、つまり、(図3に示す)本方法を提供する態様、におけるステップAは、時間的に連続する画像101、102、103、104のシーケンスを提供することを規定する、ということが留意されるべきである。これらの態様の双方は、互いに相互に関係するものと、依然として見なされてよい。第2の態様のウェアラブルカメラ200は、それ自身の撮像ユニット202を使用して、時間的に連続する画像のシーケンス101、102、103、104を撮像する一方で、第1の態様の本方法は、カメラ自体に、時間的に連続する画像101、102、103、104を撮像することを要求しない。本方法は、画像を撮像するウェアラブルカメラ200からリモートに行われてよく、したがって、提供される、時間的に連続する画像101、102、103、104のみを必要とする。
本方法は、ウェアラブルカメラ200により、又は、この内部にて行われてよい。ステップAは、ウェアラブルカメラ200の撮像ユニット202により行われてよい。ステップBからJは、ウェアラブルカメラ200の演算ユニット204により行われてよい。
第1の基準画像113は、時間的に連続する画像101、102、103、104の中から選択される。これは、ステップBに対応するものとして理解されるべきである。第1の基準画像113は、TNFを使用してフィルタされるべき画像として理解されるべきである。図1では、画像103が、時間的に連続する画像101、102、103、104から、第1の基準画像113として選択される。図2では、画像101が、時間的に連続する画像101、102、103、104から、第1の基準画像113として選択される。
TNFを促進するために、第1の複数の画像121、122が、時間的に連続する画像101、102、103、104の中から選択され、第1の基準画像113の時間的ノイズフィルタリングに使用される。これは、ステップCに対応するものとして理解されるべきである。図1では、第1の複数の画像121、122は、選択された、第1の基準画像113に時間的に先行して示され、時間的に連続する画像101、102、103、104の画像101及び102に対応する。図2では、第1の複数の画像121、122は、選択された、第1の基準画像113に時間的に続いて示され、時間的に連続する画像101、102、103、104の画像102及び103に対応する。存在する他の実施形態では、第1の複数の画像121、122は、第1の基準画像113に先行する画像と、これに続く画像と、の双方から選択される。第1の複数の画像121、122が、4つから8つの画像を含み得る、ということは、有益であり得る。この一般概念の理解を促進するために、図1及び図2は、2つの画像を含む、第1の複数の画像121、122を示す。TNFをよく知る当業者は、以下に開示される概念を、いずれの(合理的な)数の画像に適用する知識を有する。
第1の複数の画像121、122が選択された後に、第1の複数の変換された画像131、132が、第1の基準画像113と同じ視点を有するよう、第1の複数の画像121、122のそれぞれを変換することにより形成される。これは、ステップDに対応するものとして理解されるべきである。
変換ステップDは、ホモグラフィを使用して行われてよい。変換ステップDは、2つの異なる画像における、対応する、候補となるポイントのペアのそれぞれに基づいてホモグラフィを計算することを含んでよい。ホモグラフィについて、異なる時点にて撮像された画像は、ホモグラフィマトリックスを生成することを目的として、ステレオカメラアレンジメントにおける異なるカメラから撮像された画像と見なされてよい。
変換ステップDは、時間的に連続する画像101、102、103、104のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータを比較することに基づくものであってよい。時間的に連続する画像101、102、103、104のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータは、モーションセンサ210、加速度計211、及び/又はジャイロスコープ212により判定されてよい。モーションデータは、代替的に、又は、追加的に、時間的に連続する画像101、102、103、104の画像分析に基づいて判定されてよい。
モーションデータは、ウェアラブルカメラ200の、又は、ウェアラブルカメラ200の着用者のモーションに関連してよい。モーションデータは、モーションの加速度、速度、及び/又は方向を含んでよい。モーションデータは、ウェアラブルカメラ200の、又は、ウェアラブルカメラ200の着用者の向き及び/又は位置を含んでよい。モーションデータは、ウェアラブルカメラ200の回転モーションに関するデータを含んでよい。モーションデータは、ウェアラブルカメラ200のタンブル/オービット、パン/ヨー、チルト/ピッチ、及び/又はロールに関するデータを含んでよい。モーションデータは、ウェアラブルカメラ200の並進モーションに関するデータを含んでよい。モーションデータは、カメラの軌道、台車、台/ブーム/ジブ、及び/又はトラック/クラブに関するデータを含んでよい。
図1及び図2では、PTとラベル付けされたブロックは、視点変換(perspective transform)が行われていることを示す。これは、PTブロックを指し示す破線矢印により示された、異なる垂直カラムからの画像と同じ視点を有するよう変換されたベース画像を有することにより機能する。ベース画像は、PTブロックにより変換されたものとして、中実矢印により示されている。時には、第2の複数の画像152、153のそれぞれの画像が変換されて、第2の複数の変換された画像162、163を形成する場合には、複数の画像を変換するために、同じPTブロックが使用されてよい(以下をさらに参照されたい)。この場合、画像152は、変換された画像162に対するベース画像として理解されてよい。この同じロジックを、画像153と、その変換された同等の画像163と、に適用してよい。
第1の複数の変換された画像131、132が形成された後には、第1の複数の変換された画像131、132を使用して、第1の基準画像113のTNFが行われてよい。これは、図3におけるステップEに対応するものとして理解されるべきである。
図1及び図2では、TNFとラベル付けされたブロックは、時間的ノイズフィルタリングステップが行われていることを示す。これらの場合、ノイズフィルタリングが行われるベース画像は、点鎖線矢印により示される。TNFブロックを指し示す破線矢印は、時間的ノイズフィルタリングプロセスにおいて使用されている異なる垂直カラムからの画像を示す。TNFプロセスは、例えば、異なる時点にて撮像された画像からの画像コンテンツを平均化することを含んでよい。一般的に、これらの図は、時間的ノイズフィルタリングを行う前と同じ視点を有するよう画像を変換することを例示的に示す。
これらの図では、参照番号は、TNFステップを行う前後で同じであり得る。これは、ノイズフィルタリングステップの前の/上の、生の/フィルタされていない、第1及び第2の基準画像113、144により動機付けされてよく、ノイズフィルタリングステップの後の/下の画像と本質的に同じであってよいが、ノイズが少ないことが理想的である。本方法の後のステップ、つまり、ステップFからのステップについて、生の/フィルタされていない、又は、時間的にノイズフィルタされた基準画像113、144の双方が使用されてよい。
第1の基準画像113にTNFを行った後に、第2の、異なる、基準画像144が、時間的に連続する画像の中から選択されてよい。これは、図3におけるステップFに対応するものとして理解されるべきである。第2の基準画像144は、第1の基準画像113とは異なる。第2の基準画像144は、第1の基準画像113のように、TNFを使用してフィルタされるべき画像として理解されるべきである。
図1の実施形態では、画像104が、時間的に連続する画像101、102、103、104から、第2の基準画像144として選択される。図2の実施形態では、画像102が、時間的に連続する画像101、102、103、104から、第2の基準画像144として選択される。
TNFを再度促進するために、第2の複数の画像152、153が、時間的に連続する画像101、102、103、104の中から選択され、第2の基準画像144の時間的ノイズフィルタリングに使用される。今度はしかし、第2の複数の画像152、153の画像152の少なくとも1つはまた、第1の複数の画像121、122にも含まれる。第2の複数の画像152、153はまた、第1の基準画像113をも含む。これは、図3におけるステップGに対応するものとして理解されるべきである。図1の実施形態では、第2の複数の画像152、153は、選択された、第2の基準画像144に時間的に先行して示され、時間的に連続する画像101、102、103、104の画像102及び103に対応する。図2の実施形態では、第2の複数の画像152、153の画像のそれぞれは、第2の基準画像144に時間的に先行する画像と、時間的に続く画像と、の双方にて示され、時間的に連続する画像101、102、103、104の画像101及び103に対応する。存在する他の実施形態では、第2の複数の画像152、153の画像は双方とも、第2の基準画像144に続く。第2の複数の画像152、153は、4つから8つの画像を含んでよい。図1及び図2は、2つの画像を含む第2の複数の画像152、153の実施形態を示す。
開示されるように、第2の複数の画像152、153の画像152の少なくとも1つはまた、第1の複数の画像121、122にも含まれる。これは、時間的に連続する画像101、102、103、104の同じ、選択された画像に基づく、対応する画像のいずれを指すものとして理解されてよい。図1の場合では、これは、画像101及び102に基づくいずれの画像として理解されるべきである。例えば、第1の複数の変換された画像131、132における1つ又はそれ以上の画像はまた、変換された画像132が、第2の複数の画像において、画像152として選択される、図1に示すように、第2の複数の画像152、153に対して選択されてもよい。
本方法は、第2の基準画像のTNFが行われるべきであるか否かを判定することを含む。これは、図3におけるステップHに対応するものとして理解されるべきである。ステップHは、第2の複数の画像152、153を選択することの後に行われてよい。
ステップHは、第1の複数の画像121、122の少なくとも2つの画像間の視点差を判定することを含んでよい。視点差は、代替的に、時間的に連続する画像101、102、103、104のいずれに基づいて判定されてよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われてよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われるべきではない。ステップHは、そのような場合では、ステップF及びGの前に行われてよい。第2の基準画像144のTNFが行われないことが判定された場合、ステップF及びGは、本方法から完全に省略されてよい。
ステップHは、第2の複数の画像121、122の少なくとも2つの画像間の視点差を判定することを含んでよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われてよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われるべきではない。
視点差は、それぞれの画像に時間的に関連付けられたモーションデータに基づくものであってよい。モーションデータは、モーションセンサ210、加速度計211、及び/又はジャイロスコープ212により判定されてよい。視点差は、第1の複数の画像121、122の、第2の複数の画像152、153の、又は、時間的に連続する画像101、102、103、104の間にて直接、又は、さもなければ、後続の画像の間にて、どれだけのピクセルが変わったか、に関する画像データに基づくものであってよい。
所定の視点差閾値は、モーションデータ、又は、画像データが、走っている、歩いている、又は息をしているなどの、アクションを行っている、カメラ200の着用者の結果となるものと予期されるか否かの違いに関連してよい。1つの実施形態では、TNFは、歩いている、及び/又は、息をしているなどの、特定のタイプの低アクティビティアクションを判定すると行われ、走っているなどの、特定のタイプの高アクティビティアクションを判定すると行われない。
モーションデータは、TNFが行われるべきであるか否かを判定することに対して、定期的に、判定され、評価されてよい。モーションデータは、ウェアラブルカメラ200が、時間的に連続する画像101、102、103、104を取得する、毎秒フレーム数(frames−per−second又はFPS)についての値にマッチするレートにて判定されてよい。FPSについての値は、好適には、1から60の範囲、より好適には、20から40の範囲、にあってよい。
ステップH中に、第2の基準画像144のTNFが行われるべきでないことを判定すると、本方法は、ステップH後に終わってよい。これは、ステップIからJが行われないことを意味する。本方法は、そのような場合では、ステップAにて再開してよい。
ステップH中に、第2の基準画像144のTNFが行われるべきであることを判定すると、本方法は、図3に示すように、ステップIからJに進む。
第2の複数の変換された画像162、163を形成することにより、本方法は進む。これは、ステップIに対応するものとして理解されるべきである。ステップIは、第2の複数の画像152、153に対して選択された画像が、本方法において以前にどのように使用されたか、に依存する、2つの部分的ステップを含む。
第1の複数の画像121、122に含まれない第2の複数の画像152、153のそれぞれの画像153は、第2の基準画像144と同じ視点を有するよう変換されており、したがって、変換された画像163を形成する。これは、部分的ステップI1に対応するものとして理解されるべきである。
第1の複数の画像121、122にも含まれる第2の複数の画像152、153のそれぞれの画像152について、対応する、変換された(図3のステップDにおいて変換された)画像132は、第2の基準画像144と同じ視点を有するよう変換されており、したがって、変換された画像162を形成する。これは、部分的ステップI2に対応するものとして理解されるべきである。変換された画像132は、画像122及び152に時間的に対応するものとして理解されるべきである。
図1では、この対応は、それらがすべて、時間的に連続する画像101、102、103、104の画像102からどのように生じたか、に関する。図2では、画像122、132、及び152はすべて、時間的に連続する画像101、102、103、104の画像103から生じている。第2の複数の変換された画像162、163を形成することの詳細は、例えば、ホモグラフィ計算及びモーションデータを使用することに関して上記にて説明した、第1の複数の変換された画像131、132(ステップD)を形成することのそれらと同様であってよい。
本方法によると、同じ視点変換が、第2の複数の変換された画像162、163を形成する際に、第2の複数の画像152、153の少なくとも2つの画像に対して好適に使用され得る。
図1と図2との間の違いをまとめると、これらの実施形態は、図1及び図2の、第1及び第2の複数の画像121、122、152、153、及びそれらに対応する基準画像113、144の時系列又は順序に関して、若干異なる。
図1は、第1の基準画像113に時間的に先行する、第1の複数の画像121、122のそれぞれの画像と、第2の基準画像144に時間的に先行する、第2の複数の画像152、153のそれぞれの画像と、を示す。
図2は、第1の基準画像113が、第1の複数の画像121、122に対して時間的に先行する、代替的な実施形態を示す。第2の基準画像144は、同様に、第2の複数の画像152、153に対して時間的に先行してよい。しかし、これは、図2には示していない。
図2は、第2の基準画像144が、第2の複数の画像フレーム152、153のそれぞれの画像の間に時間的に挟まれてよいことを示す。同様に、第1の基準画像113が、第1の複数の画像フレーム121、122の画像のそれぞれの間に時間的に挟まれてよい。
第2の複数の変換された画像162、163が形成された後には、TNFが、第2の基準画像144に、第2の複数の変換された画像162、163を使用して、行われる。TNFを第2の基準画像144に行うことに関する詳細は、上記にて説明した、TNF(ステップE)を第1の基準画像113に行うことに関するそれらと同様であってよい。
本方法は、時間的にノイズフィルタされたビデオストリームを形成するために使用されてよい。そのような場合では、ビデオストリームを形成するものは、基準画像113、144である。基準画像113、144のすべては、ビデオストリームにおける異なる時点に関連付けられてよい。
本方法は、図4に例示するように、ウェアラブルカメラ200において実施されてよい。しかし、上述するように、本方法はまた、ウェアラブルカメラ200の外部のデバイスにおいても行われてよい。
本方法は、ステップAの前に、時間的に連続する画像101、102、103、104のシーケンスに対する撮像条件を判定することを含んでよい。ステップAからJは、撮像条件が所定の撮像条件要件を満たすことが判定された場合にのみ行われてよい。本方法のステップAからJは、したがって、それらの要件が満たされるまで、遅延されると見なされてよい。
撮像条件は、モーションのレベルにより判定されてよい。モーションのレベルは、モーションセンサ210、加速度計211、ジャイロスコープ212、及び/又は測位デバイス213により判定されてよい。撮像条件は、光レベルにより判定されてよい。光レベルは、光センサ220により、又は、画像分析により判定される。
所定の撮像条件要件は、所定のレベルより低い光レベルの要件であってよい。そのような所定のレベルは、50から200ルクスの範囲にあってよい。所定のレベルは、より好適には、100ルクスなどの、75から125ルクスの範囲にあってよい。より高い光レベルの値は、低ノイズに関連付けられ得、したがって、それらのより高い光レベルの値に対するTNFの必要性を緩和する。
所定の撮像条件要件は、所定のレベルより高い光レベルの要件であってよい。所定の撮像条件要件は、最も低い許容可能な光レベルと、最も高い許容可能な光レベルと、の双方をさらに含んでよい。所定の撮像条件要件は、中間光レベル除外範囲を含んでよく、この範囲外の光レベルが、許容可能となる。
本方法は、第1の基準画像113を、ウェアラブルカメラ200のメモリ206上に、第1の基準画像113にTNFを行った後に保存することをさらに含んでよい。本方法は、第2の基準画像144を、ウェアラブルカメラ200のメモリ206上に、第2の基準画像144にTNFを行った後に保存することを含んでよい。
本方法は、時間的に連続する画像101、102、103、104の1つを、ウェアラブルカメラ200ののメモリ206から、第1又は第2の基準画像113、144と同じ視点を有するよう、時間的に連続する画像101、102、103、104のその1つを変換した後に、削除することをさらに含んでよい。
本方法は、第1の基準画像113を、ウェアラブルカメラ200からリモートデバイス230に、第1の基準画像113にTNFを行った後に送信することをさらに含んでよい。本方法は、第2の基準画像144を、ウェアラブルカメラ200からリモートデバイス230に、第2の基準画像144にTNFを行った後に送信することを含んでよい。
本方法は、コンピュータ、デコーダ、又は、処理能力を有する別のデバイスにより実施されてよい。非一時的コンピュータ可読記憶媒体には、処理能力を有するデバイスにより実行されると、そこに保存されている本方法を実施する命令が提供されてよい。
図4は、撮像ユニット202と、演算ユニット204と、を含むウェアラブルカメラ200を示す。ウェアラブルカメラ200は、上記の方法及び方法ステップを行うことに構成されていてよい。
撮像ユニット202は、画像を撮像可能ないずれのデバイスとして理解されてよい。撮像ユニット202は、電荷結合素子(charged coupled device又はCCD)イメージセンサ、又は、相補型金属酸化膜半導体(complementary metal−oxide−semiconductor又はCMOS)ベースのアクティブピクセルイメージセンサを含んでよい。
演算ユニット204は、本方法に係る処理及び計算を行うことができるいずれのデバイスを含んでよい。演算ユニットは、それ自体が、本方法の異なるアクション又はステップを行うための複数のサブユニットを含んでよい。
ウェアラブルカメラ200は、ウェアラブルカメラの着用者により着用されてよい。ウェアラブルカメラ200の着用者は、人であってよい。ウェアラブルカメラ200の着用者は、法執行を職業とする者であってよい。ウェアラブルカメラ200の着用者のさらなる例としては、道路建設現場などの、危険な環境において活動する警備員及び作業員が含まれる。ウェアラブルカメラ200の着用者は、エステティック、ドキュメンタリ、アスレチック、又はレクリエーションの目的に記録する、プロ又はアマチュアの写真家/ビデオカメラのオペレータであってよい。例えば、警察官による、いくつかの使用については、カメラバッテリの寿命が長いことと、細部を撮像する品質が高いことと、が、より望ましくあってよい。例えば、レクリエーション/エステティックを目的とする、他の使用については、カラーでの撮像と、視覚的に容易な認識と、が、より望ましくあってよい。
着用者は、代替的に、例えば、犬、猫、又は馬などの動物であってよい。着用者は、例えば、法執行に従事する動物などの、介助動物であってよい。法執行に従事する動物としては、例えば、不法物質を検知するよう訓練された警察犬、又は、群衆を制御する任務に配備された警察馬、が含まれてよい。着用者は、猟犬であってよい。着用者は、モニタリング又は科学的な目的に、ウェアラブルカメラ200が提供された野生動物であってよい。着用者は、ペット動物であってよい。着用者には、着用者が逃走する、着用者を見失う、又は、着用者が負傷することを防ぐために、ウェアラブルカメラ200が提供されてよい。
ウェアラブルカメラ200は、着用者のストラップ又はハーネスに載置されてよい。ウェアラブルカメラ200は、代替的に、衣服の一部、又は、例えば、ヘルメット又はベストなどの保護具に固定的に載置されてよい。
ウェアラブルカメラ200は、図4に示すように、ウェアラブルカメラ200のいずれのタイプのモーションを判定するよう構成されているモーションセンサ210を含んでよい。ウェアラブルカメラ200は、図4に示すように、ウェアラブルカメラ200のムーブメントの加速度、速度、及び/又は方向を判定するよう構成されている加速度計211を含んでよい。ウェアラブルカメラ200は、図4に示すように、ウェアラブルカメラ200の向きを判定するよう構成されているジャイロスコープ212を含んでよい。ウェアラブルカメラ200は、図4に示すように、ウェアラブルカメラ200のムーブメントの位置、速度、及び/又は方向を判定するよう構成されている測位デバイス213を含んでよい。測位デバイス213は、グローバルナビゲーションサテライトシステム(global navigation satellite system又はGNSS)センサ又はレシーバを含んでよい。測位デバイス213は、慣性ナビゲーションシステムを含んでよい。ウェアラブルカメラ200は、カメラの向きを判定するよう構成されているコンパスを含んでよい。ウェアラブルカメラ200は、図4に示すように、ウェアラブルカメラ200の光条件又は光レベルを判定するよう構成されている光センサ220(フォトデテクタ)を含んでよい。ウェアラブルカメラ200は、図4に示すように、リモートデバイス230との通信に構成されてよい。通信は、無線又は有線であってよい。
本開示は、さらに、パン/チルトカメラと、特に、パン/チルトカメラにより撮像された画像におけるノイズリダクションのための方法と、に関する。
ウェアラブルカメラについて開示されるものと同様の課題が、パン/チルトカメラについても生じる場合がある。
本開示の目的は、上記の課題の少なくともいくらかを軽減し、パン/チルトカメラに対する、改善されたノイズリダクションを提供することである。
本開示の第4の態様によると、パン/チルトカメラにより撮像された画像におけるノイズリダクションの方法が提供される。本方法は、
A.時間的に連続する画像のシーケンスを提供することと、
B.時間的に連続する画像の中から、第1の基準画像を選択することと、
C.時間的に連続する画像の中から、第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
D.第1の基準画像と同じ視点を有するよう、第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
E.第1の複数の変換された画像を使用して、第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
F.時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
G.時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、第2の複数の画像の画像の少なくとも1つはまた、第1の複数の画像にも含まれ、第2の複数の画像は、第1の基準画像を含む、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
H.第2の基準画像のTNFが行われるべきであるか否かを判定することと、
を含み、
TNFが行われるべきであることが判定されると、
I.第2の複数の変換された画像を形成することであって、
I1.第1の複数の画像に含まれない、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、その画像を変換することと、
I2.第1の複数の画像にも含まれる、第2の複数のそれぞれの画像の画像について、第2の基準画像と同じ視点を有するよう、第1の複数の変換された画像の中の、対応する、変換された画像を変換することと、
により、第2の複数の変換された画像を形成することと、
J.第2の複数の変換された画像を使用して、第2の基準画像に時間的ノイズフィルタリングを行うことと、
をさらに含む。
用語「パン/チルトカメラ」は、使用時に、固定的に載置され、パン及びチルトが可能であり、したがって、異なる視野を撮像するよう構成されているカメラとして理解されてよい。固定的に載置され、手動又は自動で制御され、異なる視野を撮像するためにパンされ得る及び/又はチルトされ得る、モニタリング又は監視に使用されるパン/チルトカメラは、パン/チルトカメラという用語の非限定例と見なされるべきである。パン/チルトカメラはまた、ズーム機能をも含み、したがって、パン−チルト−ズーム(pan−tilt−zoom camera又はPTZ)カメラとも呼ばれ得る。
用語「時間的に連続する画像(temporally successive images)」は、異なる時点にて、連続して撮像された画像又は画像フレームとして理解されてよい。換言すると、例えば、第1の画像は、第2の画像に対する撮像の時間と比較して、時間的に前に撮像され、第2の画像は続いて、第3の画像に対する撮像の時間と比較して、時間的に前に撮像される。画像又は画像フレームはともに、ビデオストリームの、時間的に連続する画像又は画像フレームのシーケンスを形成してよい。
用語「同じ視点を有するよう、画像を変換する(transforming … images to have a same perspective)」は、あたかも、別の画像を撮像したときと同じように配置され、向けられたカメラを用いて撮像されたように、画像を変換する、又は、画像のプロジェクションを作成する、ということを指す場合がある。この言い回しは、実質的に同じ視点を指すものとして理解されるべきである。視点変換を達成する種々の方法は、ホモグラフィ及び画像プロジェクションを使用することを含んでよい。例えば、加速度計及びジャイロスコープなどのセンサからの読み出し値が、視点変換を行うために採用されてよい。視点変換は、2つの異なる画像における、対応する、候補となるポイントのペアのそれぞれに基づいてホモグラフィを計算することを含んでよい。
なお、ステップAからJは、それらが本開示に提示されている順序にて、時間的に行われる必要がなくともよい。ステップI1及びI2は、双方とも、ステップIの一部のそれぞれとして理解されるべきである。
上記の方法は、パン/チルトカメラにより撮像された画像のTNFを最適化する方法を提供する。特に、本方法は、使用される演算量及びエネルギを減らし得る。これは、プロセスフローを作成することにより達成される。ここでは、第2の変換ステップは、第2の複数の変換された画像を形成する際に、少なくとも2つの画像に対して、同じ視点変換を再使用できる、という利点があり得る。これは、第1の複数の変換された画像の少なくとも1つと、第1の基準画像と、が、第2の複数の画像内にあるため、これらの画像を、第2の基準画像と同じ視点変換に変換する際に、同じ視点変換の使用が可能となるケースとして理解されるべきである。これは、第2の複数の変換された画像を生成する際に、計算される/判定される必要のある新たな視点変換を少なくし得る、ということを意味する。さらに、視点変換を行うための命令の再使用は、画像を変換することに必要な、ストレージ又はキャッシュストレージの量を減らし得る。
本開示は、例えば、時間的に連続する画像を非常に多く含むビデオストリームに対して、提供される方法を繰り返して反復することが、視点変換の複数回の再使用を好適に可能にする、というように理解されるべきである。
画像の連続するストリーム、つまり、ビデオに本方法を行う際のケースとなるような、プロセスのスケールが大きくなればなるほど、連続する反復を通して、削減の努力から得られるものは、より顕著となる。
第4の態様のいくつかの実施形態によると、本方法は、時間的に連続する画像の1つを、パン/チルトカメラのメモリから、第1又は第2の基準画像と同じ視点を有するよう、時間的に連続する画像のその1つを変換した後に、削除することをさらに含んでよい。
そのような実施形態の好適な効果は、コンピュータメモリ要件を緩和することのそれであってよい。これは、本方法にしたがって可能となる。ここでは、元の視点の画像は、それらが一度変換され、別の画像視点が特徴付けられると、不要となり得る。なぜなら、変換された画像は、時間的に連続する画像の中の他の画像にTNFを行うために必要な場合に、実際に使用されているからである(例えば、ステップI2を参照されたい)。
第4の態様のいくつかの実施形態によると、第1の複数の画像のそれぞれの画像は、第1の基準画像に対して時間的に先行し得、第2の複数の画像のそれぞれの画像は、第2の基準画像に対して時間的に先行し得る。
そのような実施形態により、待ち時間が削減され得る。これは、時間的に先行する画像情報のみが、基準画像のTNFに対して使用され、画像を提供することと、同画像にTNFを行うことと、の間の遅延が減ることを意味するようなケースである。待ち時間を減らすことは、本方法が、ライブビデオストリームに適用される際に、特に好適であり得る。
第4の態様のいくつかの実施形態によると、第1の複数の画像は、4つから8つの画像を含んでよく、第2の複数の画像は、4つから8つの画像を含んでよい。
TNFに使用される画像の数が増えると、一般的に、ノイズリダクション方法の結果が改善され得る。画像の数が増えると、再使用される視点変換の回数をさらに増やすことができる。しかし、より多くの画像が使用されると、一般的に、TNFの演算がさらに複雑になる。本実施形態に係る画像の範囲は、TNFの品質と演算の複雑さとの間をよく考慮したものを表す。
第4の態様のいくつかの実施形態によると、第1の複数の変換された画像を形成することと、第2の複数の変換された画像を形成することと、は、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータを比較することに基づいて、関連付けられた基準画像と同じ視点を有するように画像を変換することを含んでよい。
用語「モーションデータ」は、カメラの、それがモニタするシーンに対する物理的なムーブメントに関するいずれのデータ又は情報を指す場合がある。
そのような実施形態は、種々のタイプのモーションデータが存在し得、モーションデータを判定するための幅広い手段が適用可能であり得るため、本方法を行うことに対するフレキシビリティを提供する。
第4の態様のいくつかの実施形態によると、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータは、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータであってよい。画像に関連付けられた、パンすることと、チルトすることと、の値は、絶対値、つまり、パン/チルトカメラに関して固定された座標系に関する値、又は、相対値、つまり、異なる画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、に関する値、であってよい。
第4の態様のいくつかの実施形態によると、ステップHは、第1の複数の画像の少なくとも2つの画像間の視点差を判定することをさらに含んでよく、第2の基準画像のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われ、第2の基準画像のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われない。
モーションが、特定のコンプライアンス制限内にある場合にのみ、TNFを行うことが、好ましくあり得る。TNFは、時間的に連続する画像を平均化することに依存する。多すぎるモーションを含む連続する画像にTNFを行うことは、画像の細部に歪を残すこととなる場合がある。そのような場合では、2回目のTNFを行う労力をまったく費やさないことが好適であり得る。さらに、これはまた、モーションが大きすぎる限りは、ノイズリダクションステップの残りを本質的に行わないことにより、要求される演算量を削減することにおいて好適な効果をも提供し得る。
第4の態様のいくつかの実施形態によると、視点差は、それぞれの画像に時間的に関連付けられたパン/チルトデータに基づき、パン/チルトデータは、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含む。
画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値は、パン/チルトカメラに関して固定された座標系に関してよい、又は、それは、異なる画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、に関してよい。
パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータを使用することにより、視点差の判定が、非常に正確なものとされ得る。
第4の態様のいくつかの実施形態によると、本方法は、ステップAの前に、時間的に連続する画像のシーケンスに対する撮像条件を判定することをさらに含んでよく、撮像条件が所定の撮像条件要件を満たすことが判定されると、ステップAからJのみが行われる。
撮像条件が、特定のコンプライアンス制限内にある場合にのみ、TNFを行うことが、好ましくあり得る。予期される画像の細部の歪により、特定の画像撮像条件は、TNFに対して適さないと理解され得る。本方法のステップを行う前に、撮像条件が有益であるか、又は、少なくとも許容可能であるか否かをチェックすることがしたがって、好適となり得る。上記の実施形態と同様に、これはまた、撮像条件が、所定の撮像条件要件を満たさない限りは、本方法のステップの残りを本質的に行わないことにより、要求される演算量を削減することにおいて好適な効果をも提供し得る。
第4の態様のいくつかの実施形態によると、撮像条件は、
異なる時点に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータにより判定される、モーションのレベルと、
光センサにより、又は、画像分析により判定される光レベルと、
の少なくとも1つにより判定される。
モーションのレベルが高すぎる場合には、本方法のステップAからJを行わないことが、好ましくあり得る。これは、モーションが大きすぎ、画像の細部を歪めることが予期される場合には、上記にて説明した実施形態と同様に、2回目のTNFが行われないものとして理解されてよい。高すぎるモーションのレベルは、良好な視点変換の実現可能性を下げる、つまり、変換された画像を歪ませる場合がある。高すぎるモーションのレベルは、また、時間的に連続する画像間の共通ピクセル数が減ることにより、良好なTNFの実現可能性を下げる場合がある。
本方法の、光レベルに基づいて、ステップAからJを行わないこともまた、好ましくあり得る。TNFは、低照度画像に適用されると、画像の細部の歪を大きくする場合がある。光レベルが満足できるものでない場合には、本方法のステップAからJを共に回避するために、その理由が有益であってよい。一方、光レベルが高すぎる場合には、TNFは要求されない、又は、不要であってよい。TNFはしたがって、好適に回避される。
光レベルが所定の閾値を超えると、モーションレベルが記録される必要がない、ということがさらに導かれてよい。したがって、モーション、モーションデータ、及び/又はモーションレベルを記録するセンサ及び手段は、エネルギの消費を削減するために、電源の供給が断たれてよい。
光レベル及びモーションのレベルは、撮像条件を判定するために、例えば、性能指数として組み合されてよい、又は、組み合わせて評価されてよい。
第4の態様のいくつかの実施形態によると、撮像条件は、光センサにより、又は、画像分析により判定される光レベルにより判定され、所定の撮像条件要件は、所定のレベルより低い光レベルである。
TNFは、一般的に、低照度条件において、より必要とされ得る。これは、カメラ又はイメージセンサが、低照度条件において、より低い信号対ノイズ比をしばしば示すためであり得る。そのため、本方法のステップAからJを行うための上限閾値は、好ましいものであり得る。
第4の態様のいくつかの実施形態によると、本方法は、第1の基準画像を、パン/チルトカメラのメモリ上に、第1の基準画像にTNFを行った後に保存することと、第2の基準画像を、パン/チルトカメラのメモリ上に、第2の基準画像にTNFを行った後に保存することと、をさらに含んでよい。
基準画像は、それらにTNFが行われると、したがって、パン/チルトカメラのメモリ上に保存されてよい、最終的なビデオストリームを形成し得る。
第4の態様のいくつかの実施形態によると、本方法は、第1の基準画像を、パン/チルトカメラからリモートデバイスに、第1の基準画像にTNFを行った後に送信することと、第2の基準画像を、パン/チルトカメラからリモートデバイスに、第2の基準画像にTNFを行った後に送信することと、をさらに含んでよい。
基準画像は、それらにTNFが行われると、したがって、表示又は保存のためにリモートデバイスに送信される、最終的なビデオストリームを形成し得る。好適には、基準画像は、したがって、パン/チルトカメラのメモリ上に、期間を延長して保存される必要がなくともよい。
本開示の第5の態様によると、撮像ユニットと、演算ユニットと、を含む、パン−チルト−ズーム、パン/チルト、カメラが提供される。パン/チルトカメラは、
a.撮像ユニットにより、時間的に連続する画像のシーケンスを撮像することと、
b.演算ユニットにより、時間的に連続する画像の中から、第1の基準画像を選択することと、
c.演算ユニットにより、時間的に連続する画像の中から、第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
d.演算ユニットにより、第1の基準画像と同じ視点を有するよう、第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
e.演算ユニットにより、第1の複数の変換された画像を使用して、第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
f.演算ユニットにより、時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
g.演算ユニットにより、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、第2の複数の画像の画像の少なくとも1つはまた、第1の複数の画像にも含まれ、第2の複数の画像は、第1の基準画像を含む、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
h.演算ユニットにより、第2の基準画像のTNFが行われるべきであるか否かを判定することと、に構成されており、
TNFが行われるべきであることが判定されると、
i.演算ユニットにより、第2の複数の変換された画像を形成することであって、
i1.第1の複数の画像に含まれない、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、その画像を変換することと、
i2.第1の複数の画像にも含まれる、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、第1の複数の変換された画像の中の、対応する、変換された画像を変換することと、
により、第2の複数の変換された画像を形成することと、
j.演算ユニットにより、第2の複数の変換された画像を使用して、第2の基準画像に時間的ノイズフィルタリングを行うことと、
にさらに構成されている。
第5の態様に説明されるパン/チルトカメラは、それらの対応する特徴により、第4の態様に説明される本方法のそれらと同様の利点を提供する。パン/チルトカメラは、第4の態様の本方法を実施することに構成されているデバイスと見なされてよい。
本開示の第6の態様によると、処理能力を有するデバイスにより実行されると、第4の態様の本方法を実施する命令が保存されている、非一時的コンピュータ可読記憶媒体が提供される。
第6の態様に説明される非一時的コンピュータ可読記憶媒体は、第4の態様に説明される本方法のそれらと同様の利点を提供する。
本開示の第4、第5、及び第6の態様を、図1、図2、図3、及び図5を参照して、以下に、より完全に説明する。これらは、本開示の第4、第5、及び第6の態様に関して、現在好適な実施形態である。これらの態様はしかし、多くの異なる形態にて体現されてよく、以下に示す実施形態に限定されるものとして理解すべきでない。むしろこれらの実施形態は、完璧性及び完全性のために、そして、これらの態様の範囲を当業者に十分に伝えるために提供される。
図1及び図2は、パン/チルトカメラにより撮像された画像におけるノイズリダクションの方法を示す。図3は、パン/チルトカメラにより撮像された画像におけるノイズリダクションの同方法に対するフローチャートを示す。本方法は、ステップAからJを含む。本方法は、図5に例示するように、パン/チルトカメラ300において実施されてよい。
図1、図2、及び図3の本方法を、図5のパン/チルトカメラ300と合わせて、以下に説明する。図1にて始まる、113などの参照番号は、図1及び図2に示す画像を指す。図3にて始まる、302などの参照番号は、図5に示す特徴を指す。
図1及び図2に示すブロックは、画像又は画像フレームを表す。図1及び図2は、元の画像、つまり、時間的に連続する画像101、102、103、104、が提供される、又は、撮像される際に関する水平時間成分を含む。図内の異なる水平位置にて配置されたブロックは、画像が、異なる時点にて撮像された、又は、提供されたことを示す。時間tは、図の左から右に進むよう示されている、つまり、ブロック101、これは、時間的に連続する画像の1つである、が、残りの時間的に連続する画像102、103、104の前に提供される、又は、撮像される。時間的に連続する画像101、102、103、104は、イメージセンサデバイスからの、生のフォーマット画像として提供されてよい、つまり、これらが提供される前には、先行する、画像の画像処理は無い。代替的に、本方法は、本方法に対する入力として提供される前に、時間的に連続する画像101、102、103、104の画像処理により先行されてよい。先行する画像処理の非限定例としては、不良ピクセルの除去、及び、カラムの固定パターンノイズフィルタリングなどの、画像データの調整又は修正が含まれる。換言すると、時間的に連続する画像101、102、103、104は、生の画像データとして、又は、処理された画像データとして提供されてよい。しかし、本開示に係る本方法は、画像のビデオエンコーディングプロセスの前に行われる、つまり、時間的に連続する画像101、102、103、104は、エンコードされていない/ビデオエンコードされない、ということに留意されたい。
図1及び図2は、垂直/カラム成分をさらに含む。同じカラムにおいて、他の下に配置された画像は、それらは、その同じカラムにおいて、上の画像の選択された、処理された、変換された、又は、フィルタされたバージョンであることを示す。それらの下の画像は、処理/変換などのいずれの時間的な順序に対応する必要はなく、任意の時点にて処理/変換などされてよい。それらの画像はむしろ、それらの上の、時間的に連続する画像101、102、103、104に主に基づくものとして理解されるべきである。
図1及び図2では、時間的に連続する画像101、102、103、104は、最上行に提供されている。これは、図3における本方法のステップAに対応するものとして理解されるべきである。
本開示の第5の態様、つまり、パン/チルトカメラ300を提供する態様に関するステップAは、パン/チルトカメラ300が、撮像ユニット302により、時間的に連続する画像101、102、103、104を撮像することに構成されている、ということを規定する一方で、第4の態様、つまり、(図3に示す)方法を提供する態様におけるステップAは、時間的に連続する画像101、102、103、104のシーケンスを提供することを規定する、ということが留意されるべきである。これらの態様の双方は、互いに相互に関係するものと、依然として見なされてよい。第5の態様のパン/チルトカメラ300は、それ自身の撮像ユニット302を使用して、時間的に連続する画像のシーケンス101、102、103、104を撮像する一方で、第4の態様の本方法は、カメラ自体に、時間的に連続する画像101、102、103、104を撮像することを要求しない。本方法は、画像を撮像するパン/チルトカメラ300からリモートに行われてよく、したがって、提供される、時間的に連続する画像101、102、103、104のみを必要とする。
本方法は、パン/チルトカメラ300により、又は、この内部にて行われてよい。ステップAは、パン/チルトカメラ300の撮像ユニット302により行われてよい。ステップBからJは、パン/チルトカメラ300の演算ユニット304により行われてよい。
第1の基準画像113は、時間的に連続する画像101、102、103、104の中から選択される。これは、ステップBに対応するものとして理解されるべきである。第1の基準画像113は、TNFを使用してフィルタされるべき画像として理解されるべきである。図1では、画像103が、時間的に連続する画像101、102、103、104から、第1の基準画像113として選択される。図2では、画像101が、時間的に連続する画像101、102、103、104から、第1の基準画像113として選択される。
TNFを促進するために、第1の複数の画像121、122が、時間的に連続する画像101、102、103、104の中から選択され、第1の基準画像113の時間的ノイズフィルタリングに使用される。これは、ステップCに対応するものとして理解されるべきである。図1では、第1の複数の画像121、122は、選択された、第1の基準画像113に時間的に先行して示され、時間的に連続する画像101、102、103、104の画像101及び102に対応する。図2では、第1の複数の画像121、122は、選択された、第1の基準画像113に時間的に続いて示され、時間的に連続する画像101、102、103、104の画像102及び103に対応する。存在する他の実施形態では、第1の複数の画像121、122は、第1の基準画像113に先行する画像と、これに続く画像と、の双方から選択される。第1の複数の画像121、122が、4つから8つの画像を含み得る、ということは、有益であり得る。この一般概念の理解を促進するために、図1及び図2は、2つの画像を含む、第1の複数の画像121、122を示す。TNFをよく知る当業者は、以下に開示される概念を、いずれの(合理的な)数の画像に適用する知識を有する。
第1の複数の画像121、122が選択された後に、第1の複数の変換された画像131、132が、第1の基準画像113と同じ視点を有するよう、第1の複数の画像121、122のそれぞれを変換することにより形成される。これは、ステップDに対応するものとして理解されるべきである。
変換ステップDは、ホモグラフィを使用して行われてよい。変換ステップDは、2つの異なる画像における、対応する、候補となるポイントのペアのそれぞれに基づいてホモグラフィを計算することを含んでよい。ホモグラフィについて、異なる時点にて撮像された画像は、ホモグラフィマトリックスを生成することを目的として、ステレオカメラアレンジメントにおける異なるカメラから撮像された画像と見なされてよい。
変換ステップDは、時間的に連続する画像101、102、103、104のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータを比較することに基づくものであってよい。時間的に連続する画像101、102、103、104のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータは、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられた、パン/チルトカメラ300の、パンすることと、チルトすることと、の値を含むパン/チルトデータであってよい。
第1の基準画像113を撮像する時に、パン/チルトカメラ300の、パンすることと、チルトすることと、の値を、第1の複数の画像121、122のそれぞれの画像を撮像する時に、パン/チルトカメラ300の、パンすることと、チルトすることと、の値と比較することを用いて、変換は、第1の複数の画像121、122のそれぞれを、第1の基準画像113と同じ視点を有し、したがって、第1の複数の変換された画像131、132を形成するよう、変換することのために判定されてよい。
パン/チルトデータは、パン/チルトカメラを制御し、所望するようにパンし、チルトする、演算ユニット304におけるパン/チルト制御機能などの、パン/チルトコントローラから取得されてよい。画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータは、その画像を撮像する時に、パン/チルトカメラ300を、所望するようにパンすることと、チルトすることと、にしたがって、パン/チルトカメラ300の、パンすることと、チルトすることと、の値に関連してよい。パン/チルトデータは、さらに、パン/チルトセンサからのフィードバックに示されるように、画像を撮像する時に、パン/チルトセンサにより特定されるように、所望するようにパンすることと、チルトすることと、からの偏差を用いて修正されてよい。
画像に関連付けられた、パンすることと、チルトすることと、の値は、絶対値、つまり、パン/チルトカメラに関して固定された座標系に関する値、又は、相対値、つまり、異なる画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、に関する値、であってよい。
図1及び図2では、PTとラベル付けされたブロックは、視点変換(perspective transform)が行われていることを示す。これは、PTブロックを指し示す破線矢印により示された、異なる垂直カラムからの画像と同じ視点を有するよう変換されたベース画像を有することにより機能する。ベース画像は、PTブロックにより変換されたものとして、中実矢印により示されている。時には、第2の複数の画像152、153のそれぞれの画像が変換されて、第2の複数の変換された画像162、163を形成する場合には、複数の画像を変換するために、同じPTブロックが使用されてよい(以下をさらに参照されたい)。この場合、画像152は、変換された画像162に対するベース画像として理解されてよい。この同じロジックを、画像153と、その変換された同等の画像163と、に適用してよい。
第1の複数の変換された画像131、132が形成された後には、第1の複数の変換された画像131、132を使用して、第1の基準画像113のTNFが行われてよい。これは、図3におけるステップEに対応するものとして理解されるべきである。
図1及び図2では、TNFとラベル付けされたブロックは、時間的ノイズフィルタリングステップが行われていることを示す。これらの場合、ノイズフィルタリングが行われるベース画像は、点鎖線矢印により示される。TNFブロックを指し示す破線矢印は、時間的ノイズフィルタリングプロセスにおいて使用されている異なる垂直カラムからの画像を示す。TNFプロセスは、例えば、異なる時点にて撮像された画像からの画像コンテンツを平均化することを含んでよい。一般的に、これらの図は、時間的ノイズフィルタリングを行う前と同じ視点を有するよう画像を変換することを例示的に示す。
これらの図では、参照番号は、TNFステップを行う前後で同じであり得る。これは、ノイズフィルタリングステップの前の/上の、生の/フィルタされていない、第1及び第2の基準画像113、144により動機付けされてよく、ノイズフィルタリングステップの後の/下の画像と本質的に同じであってよいが、ノイズが少ないことが理想的である。本方法の後のステップ、つまり、ステップFからのステップについて、生の/フィルタされていない、又は、時間的にノイズフィルタされた基準画像113、144の双方が使用されてよい。
第1の基準画像113にTNFを行った後に、第2の、異なる、基準画像144が、時間的に連続する画像の中から選択されてよい。これは、図3におけるステップFに対応するものとして理解されるべきである。第2の基準画像144は、第1の基準画像113とは異なる。第2の基準画像144は、第1の基準画像113のように、TNFを使用してフィルタされるべき画像として理解されるべきである。
図1の実施形態では、画像104が、時間的に連続する画像101、102、103、104から、第2の基準画像144として選択される。図2の実施形態では、画像102が、時間的に連続する画像101、102、103、104から、第2の基準画像144として選択される。
TNFを再度促進するために、第2の複数の画像152、153が、時間的に連続する画像101、102、103、104の中から選択され、第2の基準画像144の時間的ノイズフィルタリングに使用される。今度はしかし、第2の複数の画像152、153の画像152の少なくとも1つはまた、第1の複数の画像121、122にも含まれる。第2の複数の画像152、153はまた、第1の基準画像113をも含む。これは、図3におけるステップGに対応するものとして理解されるべきである。図1の実施形態では、第2の複数の画像152、153は、選択された、第2の基準画像144に時間的に先行して示され、時間的に連続する画像101、102、103、104の画像102及び103に対応する。図2の実施形態では、第2の複数の画像152、153の画像のそれぞれは、第2の基準画像144に時間的に先行する画像と、時間的に続く画像と、の双方にて示され、時間的に連続する画像101、102、103、104の画像101及び103に対応する。存在する他の実施形態では、第2の複数の画像152、153の画像は双方とも、第2の基準画像144に続く。第2の複数の画像152、153は、4つから8つの画像を含んでよい。図1及び図2は、2つの画像を含む第2の複数の画像152、153の実施形態を示す。
開示されるように、第2の複数の画像152、153の画像152の少なくとも1つはまた、第1の複数の画像121、122にも含まれる。これは、時間的に連続する画像101、102、103、104の同じ、選択された画像に基づく、対応する画像のいずれを指すものとして理解されてよい。図1の場合では、これは、画像101及び102に基づくいずれの画像として理解されるべきである。例えば、第1の複数の変換された画像131、132における1つ又はそれ以上の画像はまた、変換された画像132が、第2の複数の画像において、画像152として選択される、図1に示すように、第2の複数の画像152、153に対して選択されてもよい。
本方法は、第2の基準画像のTNFが行われるべきであるか否かを判定することを含む。これは、図3におけるステップHに対応するものとして理解されるべきである。ステップHは、第2の複数の画像152、153を選択することの後に行われてよい。
ステップHは、第1の複数の画像121、122の少なくとも2つの画像間の視点差を判定することを含んでよい。視点差は、代替的に、時間的に連続する画像101、102、103、104のいずれに基づいて判定されてよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われてよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われるべきではない。ステップHは、そのような場合では、ステップF及びGの前に行われてよい。第2の基準画像144のTNFが行われないことが判定された場合、ステップF及びGは、本方法から完全に省略されてよい。
ステップHは、第2の複数の画像121、122の少なくとも2つの画像間の視点差を判定することを含んでよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われてよい。第2の基準画像144のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われるべきではない。
視点差は、それぞれの画像に時間的に関連付けられたモーションデータに基づくものであってよい。モーションデータは、第2の複数の画像121、122の少なくとも2つの画像のそれぞれの画像に関連付けられた、パン/チルトカメラ300の、パンすることと、チルトすることと、の値を含むパン/チルトデータであってよい。
パン/チルトデータは、パン/チルトカメラを制御し、所望するようにパンし、チルトする、演算ユニット304におけるパン/チルト制御機能などの、パン/チルトコントローラから取得されてよい。画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータは、その画像を撮像する時に、パン/チルトカメラ300を、所望するようにパンすることと、チルトすることと、にしたがって、パン/チルトカメラ300の、パンすることと、チルトすることと、の値に関連してよい。パン/チルトデータは、さらに、パン/チルトセンサからのフィードバックに示されるように、画像を撮像する時に、パン/チルトセンサにより特定されるように、所望するようにパンすることと、チルトすることと、からの偏差を用いて修正されてよい。
画像に関連付けられた、パンすることと、チルトすることと、の値は、絶対値、つまり、パン/チルトカメラに関して固定された座標系に関する値、又は、相対値、つまり、異なる画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、に関する値、であってよい。
モーションデータは、TNFが行われるべきであるか否かを判定することに対して、定期的に、判定され、評価されてよい。モーションデータは、パン/チルトカメラ300が、時間的に連続する画像101、102、103、104を取得する、毎秒フレーム数(frames−per−second又はFPS)についての値にマッチするレートにて判定されてよい。FPSについての値は、好適には、1から60の範囲、より好適には、20から40の範囲、にあってよい。
ステップH中に、第2の基準画像144のTNFが行われるべきでないことを判定すると、本方法は、ステップH後に終わってよい。これは、ステップIからJが行われないことを意味する。本方法は、そのような場合では、ステップAにて再開してよい。
ステップH中に、第2の基準画像144のTNFが行われるべきであることを判定すると、本方法は、図3に示すように、ステップIからJに進む。
第2の複数の変換された画像162、163を形成することにより、本方法は進む。これは、ステップIに対応するものとして理解されるべきである。ステップIは、第2の複数の画像152、153に対して選択された画像が、本方法において以前にどのように使用されたか、に依存する、2つの部分的ステップを含む。
第1の複数の画像121、122に含まれない第2の複数の画像152、153のそれぞれの画像153は、第2の基準画像144と同じ視点を有するよう変換されており、したがって、変換された画像163を形成する。これは、部分的ステップI1に対応するものとして理解されるべきである。
第1の複数の画像121、122にも含まれる第2の複数の画像152、153のそれぞれの画像152について、対応する、変換された(図3のステップDにおいて変換された)画像132は、第2の基準画像144と同じ視点を有するよう変換されており、したがって、変換された画像162を形成する。これは、部分的ステップI2に対応するものとして理解されるべきである。変換された画像132は、画像122及び152に時間的に対応するものとして理解されるべきである。
図1では、この対応は、それらがすべて、時間的に連続する画像101、102、103、104の画像102からどのように生じたか、に関する。図2では、画像122、132、及び152はすべて、時間的に連続する画像101、102、103、104の画像103から生じている。第2の複数の変換された画像162、163を形成することの詳細は、例えば、ホモグラフィ計算及びモーションデータを使用することに関して上記にて説明した、第1の複数の変換された画像131、132(ステップD)を形成することのそれらと同様であってよい。
本方法によると、同じ視点変換が、第2の複数の変換された画像162、163を形成する際に、第2の複数の画像152、153の少なくとも2つの画像に対して好適に使用され得る。
図1と図2との間の違いをまとめると、これらの実施形態は、図1及び図2の、第1及び第2の複数の画像121、122、152、153、及びそれらに対応する基準画像113、144の時系列又は順序に関して、若干異なる。
図1は、第1の基準画像113に時間的に先行する、第1の複数の画像121、122のそれぞれの画像と、第2の基準画像144に時間的に先行する、第2の複数の画像152、153のそれぞれの画像と、を示す。
図2は、第1の基準画像113が、第1の複数の画像121、122に対して時間的に先行する、代替的な実施形態を示す。第2の基準画像144は、同様に、第2の複数の画像152、153に対して時間的に先行してよい。しかし、これは、図2には示していない。
図2は、第2の基準画像144が、第2の複数の画像フレーム152、153のそれぞれの画像の間に時間的に挟まれてよいことを示す。同様に、第1の基準画像113が、第1の複数の画像フレーム121、122の画像のそれぞれの間に時間的に挟まれてよい。
第2の複数の変換された画像162、163が形成された後には、TNFが、第2の基準画像144に、第2の複数の変換された画像162、163を使用して、行われる。TNFを第2の基準画像144に行うことに関する詳細は、上記にて説明した、TNF(ステップE)を第1の基準画像113に行うことに関するそれらと同様であってよい。
本方法は、時間的にノイズフィルタされたビデオストリームを形成するために使用されてよい。そのような場合では、ビデオストリームを形成するものは、基準画像113、144である。基準画像113、144のすべては、ビデオストリームにおける異なる時点に関連付けられてよい。
本方法は、図5に例示するように、パン/チルトカメラ300において実施されてよい。しかし、上述するように、本方法はまた、パン/チルトカメラ300の外部のデバイスにおいても行われてよい。
本方法は、ステップAの前に、時間的に連続する画像101、102、103、104のシーケンスに対する撮像条件を判定することを含んでよい。ステップAからJは、撮像条件が所定の撮像条件要件を満たすことが判定された場合にのみ行われてよい。本方法のステップAからJは、したがって、それらの要件が満たされるまで、遅延されると見なされてよい。
撮像条件は、モーションのレベルにより判定されてよい。モーションのレベルは、画像が撮像された時点、又は、任意の時点などの、異なる時点に関連付けられた、パン/チルトカメラ300の、パンすることと、チルトすることと、の値を含むパン/チルトデータから判定されてよい。撮像条件は、光レベルにより判定されてよい。光レベルは、光センサ220により、又は、画像分析により判定される。
パン/チルトデータは、パン/チルトカメラを制御し、所望するようにパンし、チルトする、演算ユニット304におけるパン/チルト制御機能などの、パン/チルトコントローラから取得されてよい。ある時点に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータは、その時点での、パン/チルトカメラ300を、所望するようにパンすることと、チルトすることと、にしたがって、パン/チルトカメラ300の、パンすることと、チルトすることと、の値に関連してよい。パン/チルトデータは、さらに、パン/チルトセンサからのフィードバックに示されるように、その時点にて、パン/チルトセンサにより特定されるように、所望するようにパンすることと、チルトすることと、からの偏差を用いて修正されてよい。
ある時点に関連付けられた、パンすることと、チルトすることと、の値は、絶対値、つまり、パン/チルトカメラに関して固定された座標系に関する値、又は、相対値、つまり、異なる時点に関連付けられた、パン/チルトカメラをパンすることと、チルトすることと、に関する値、であってよい。
所定の撮像条件要件は、所定のレベルより低い光レベルの要件であってよい。そのような所定のレベルは、50から200ルクスの範囲にあってよい。所定のレベルは、より好適には、100ルクスなどの、75から125ルクスの範囲にあってよい。より高い光レベルの値は、低ノイズに関連付けられ得、したがって、それらのより高い光レベルの値に対するTNFの必要性を緩和する。
所定の撮像条件要件は、所定のレベルより高い光レベルの要件であってよい。所定の撮像条件要件は、最も低い許容可能な光レベルと、最も高い許容可能な光レベルと、の双方をさらに含んでよい。所定の撮像条件要件は、中間光レベル除外範囲を含んでよく、この範囲外の光レベルが、許容可能となる。
本方法は、第1の基準画像113を、パン/チルトカメラ300のメモリ306上に、第1の基準画像113にTNFを行った後に保存することをさらに含んでよい。本方法は、第2の基準画像144を、パン/チルトカメラ300のメモリ306上に、第2の基準画像144にTNFを行った後に保存することを含んでよい。
本方法は、時間的に連続する画像101、102、103、104の1つを、パン/チルトカメラ300のメモリ306から、第1又は第2の基準画像113、144と同じ視点を有するよう、時間的に連続する画像101、102、103、104のその1つを変換した後に、削除することをさらに含んでよい。
本方法は、第1の基準画像113を、パン/チルトカメラ300からリモートデバイス230に、第1の基準画像113にTNFを行った後に送信することをさらに含んでよい。本方法は、第2の基準画像144を、パン/チルトカメラ300からリモートデバイス230に、第2の基準画像144にTNFを行った後に送信することを含んでよい。
本方法は、コンピュータ、デコーダ、又は、処理能力を有する別のデバイスにより実施されてよい。非一時的コンピュータ可読記憶媒体には、処理能力を有するデバイスにより実行されると、そこに保存されている本方法を実施する命令が提供されてよい。
図5は、撮像ユニット202と、演算ユニット204と、を含むパン/チルトカメラ300を示す。パン/チルトカメラ300は、図5のパン/チルトカメラ300と合わせて説明されるように、図1、図2、及び図3の上記方法を行うことに構成されてよい。
撮像ユニット302は、画像を撮像可能ないずれのデバイスとして理解されてよい。撮像ユニット302は、電荷結合素子(charged coupled device又はCCD)イメージセンサ、又は、相補型金属酸化膜半導体(complementary metal−oxide−semiconductor又はCMOS)ベースのアクティブピクセルイメージセンサを含んでよい。
演算ユニット304は、本方法に係る処理及び計算を行うことができるいずれのデバイスを含んでよい。演算ユニットは、それ自体が、本方法の異なるアクション又はステップを行うための複数のサブユニットを含んでよい。
パン/チルトカメラ300は、使用時に、固定的に載置され、パン及びチルトが可能であり、したがって、異なる視野を撮像するよう構成されているカメラである。固定的に載置され、手動又は自動で制御され、異なる視野を撮像するためにパンされ得る及び/又はチルトされ得る、モニタリング又は監視に使用されるパン/チルトカメラは、パン/チルトカメラという用語の非限定例と見なされるべきである。パン/チルト機能に加えて、パン/チルトカメラはまた、ズーム機能をも含み、したがって、パン−チルト−ズームカメラ(pan−tilt−zoomカメラ又はPTZカメラ)とも呼ばれ得る。
パン/チルトカメラ300は、図5に示すように、パン/チルトカメラ300をパン及びチルトし、所望するようにパンし、チルトするよう構成されているパン/チルトモータ310を含んでよい。パンすることと、チルトすることと、は、演算ユニット304におけるパン/チルト制御機能などの、パン/チルトコントローラにより制御されてよい。パン/チルトモータは、パン/チルトカメラの、所望するようにパンすることと、チルトすることと、を達成するためのフィードバック制御のために、演算ユニット304におけるパン/チルト機能にフィードバックを提供するためのパン/チルトセンサ(図示せず)を含んでよい。画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータは、その画像を撮像する時に、所望するようにパンすることと、チルトすることと、にしたがって、パン/チルトカメラ300の、パンすることと、チルトすることと、の値に関連してよい。パン/チルトデータは、さらに、パン/チルトセンサからのフィードバックに示されるように、画像を撮像する時に、パン/チルトセンサにより特定されるように、所望するようにパンすることと、チルトすることと、からの偏差を用いて修正されてよい。パン/チルトカメラ300は、図5に示すように、パン/チルトカメラ300の光条件又は光レベルを判定するよう構成されている光センサ320(フォトデテクタ)を含んでよい。パン/チルトカメラ300は、図5に示すように、リモートデバイス330との通信に構成されてよい。通信は、無線又は有線であってよい。
実施形態リスト:
1.パン/チルトカメラにより撮像された画像におけるノイズリダクションの方法であって、
a.時間的に連続する画像のシーケンスを提供することと、
b.時間的に連続する画像の中から、第1の基準画像を選択することと、
c.時間的に連続する画像の中から、第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
d.第1の基準画像と同じ視点を有するよう、第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
e.第1の複数の変換された画像を使用して、第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
f.時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
g.時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、第2の複数の画像の画像の少なくとも1つはまた、第1の複数の画像にも含まれ、第2の複数の画像は、第1の基準画像を含む、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
h.第2の基準画像のTNFが行われるべきであるか否かを判定すること、
を含み、
TNFが行われるべきであることが判定されると、
i.第2の複数の変換された画像を形成することであって、
i1.第1の複数の画像に含まれない、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、画像を変換することであって、視点変換は、第2の基準画像と同じ視点を有するよう、第1の基準画像を変換するよう、判定され、使用される、第2の基準画像と同じ視点を有するよう、その画像を変換することと、
i2.第1の複数の画像にも含まれる、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、第1の複数の変換された画像の中の、対応する、変換された画像を、第1の基準画像を変換するために使用された視点変換を使用して変換することと、
により、第2の複数の変換された画像を形成することと、
j.第2の複数の変換された画像を使用して、第2の基準画像に時間的ノイズフィルタリングを行うことと、
をさらに含む、方法。
2.時間的に連続する画像の1つを、パン/チルトカメラのメモリから、第1又は第2の基準画像と同じ視点を有するよう、時間的に連続する画像のその1つを変換した後に、削除することをさらに含む、実施形態1に記載の方法。
3.第1の複数の画像のそれぞれの画像が、第1の基準画像に対して時間的に先行し、
第2の複数の画像のそれぞれの画像が、第2の基準画像に対して時間的に先行する、
実施形態1及び実施形態2のいずれか1つに記載の方法。
4.第1の複数の画像は、4つから8つの画像を含み、
第2の複数の画像は、4つから8つの画像を含む、
実施形態1から実施形態3のいずれか1つに記載の方法。
5.第1の複数の変換された画像を形成することと、第2の複数の変換された画像を形成することと、は、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータを比較することに基づいて、関連付けられた基準画像と同じ視点を有するように画像を変換することを含む、実施形態1から実施形態4のいずれか1つに記載の方法。
6.時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータは、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータである、実施形態5に記載の方法。
7.ステップhは、第1の複数の画像の少なくとも2つの画像間の視点差を判定することをさらに含み、
第2の基準画像のTNFは、視点差が、所定の視点差閾値以下であることが判定されると行われ、
第2の基準画像のTNFは、視点差が、所定の視点差閾値より大きいことが判定されると行われない、
実施形態1から実施形態6のいずれか1つに記載の方法。
8.視点差は、それぞれの画像に時間的に関連付けられたパン/チルトデータに基づき、
パン/チルトデータは、時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含む、実施形態7に記載の方法。
9.ステップAの前に、時間的に連続する画像のシーケンスに対する撮像条件を判定することをさらに含み、
撮像条件が所定の撮像条件要件を満たすことが判定されると、ステップAからJのみが行われる、実施形態1から実施形態8のいずれか1つに記載の方法。
10.撮像条件は、
それぞれの画像に時間的に関連付けられたパン/チルトデータであって、異なる時点に関連付けられた、パン/チルトカメラの、パンすることと、チルトすることと、の値を含むパン/チルトデータから判定されるモーションのレベルと、
光センサにより、又は、画像分析により判定される光レベルと、
の少なくとも1つにより判定される、、実施形態9に記載の方法。
11.撮像条件は、光センサにより、又は、画像分析により判定される光レベルにより判定され、
所定の撮像条件要件は、所定のレベルより低い光レベルである、
実施形態10に記載の方法。
12.第1の基準画像を、パン/チルトカメラのメモリ上に、第1の基準画像にTNFを行った後に保存することと、
第2の基準画像を、パン/チルトカメラのメモリ上に、第2の基準画像にTNFを行った後に保存することと、
をさらに含む、実施形態1から実施形態11のいずれか1つに記載の方法。
13.第1の基準画像を、パン/チルトカメラからリモートデバイスに、第1の基準画像にTNFを行った後に送信することと、
第2の基準画像を、パン/チルトカメラからリモートデバイスに、第2の基準画像にTNFを行った後に送信することと、
をさらに含む、実施形態1から実施形態12のいずれか1つに記載の方法。
14.撮像ユニットと、演算ユニットと、を含むパン/チルトカメラであって、
a.撮像ユニットにより、時間的に連続する画像のシーケンスを撮像することと、
b.演算ユニットにより、時間的に連続する画像の中から、第1の基準画像を選択することと、
c.演算ユニットにより、時間的に連続する画像の中から、第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
d.演算ユニットにより、第1の基準画像と同じ視点を有するよう、第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
e.演算ユニットにより、第1の複数の変換された画像を使用して、第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
r.演算ユニットにより、時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
g.演算ユニットにより、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、第2の複数の画像の画像の少なくとも1つはまた、第1の複数の画像にも含まれ、第2の複数の画像は、第1の基準画像を含む、時間的に連続する画像の中から、第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
h.演算ユニットにより、第2の基準画像のTNFが行われるべきであるか否かを判定することと、に構成されており、
TNFが行われるべきであることが判定されると、
i.演算ユニットにより、第2の複数の変換された画像を形成することであって、
i1.第1の複数の画像に含まれない、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、画像を変換することであって、視点変換は、第2の基準画像と同じ視点を有するよう、第1の基準画像を変換するよう、判定され、使用される、第2の基準画像と同じ視点を有するよう、その画像を変換することと、
i2.第1の複数の画像にも含まれる、第2の複数の画像のそれぞれの画像について、第2の基準画像と同じ視点を有するよう、第1の複数の変換された画像の中の、対応する、変換された画像を、第1の基準画像を変換するために使用された視点変換を使用して変換することと、
により、第2の複数の変換された画像を形成することと、
j.演算ユニットにより、第2の複数の変換された画像を使用して、第2の基準画像に時間的ノイズフィルタリングを行うことと、
により、第2の複数の変換された画像を形成することと、
に構成されている、パン/チルトカメラ。
15.処理能力を有するデバイスにより実行されると、実施形態1から実施形態13のいずれか1つに係る方法を実施する命令が保存されている、非一時的コンピュータ可読記憶媒体。
さらに、開示する実施形態に対するバリエーションが、特許権を主張する本発明の実施において、本図面、本開示、及び添付の本特許請求の範囲の検討により、当業者により理解され、達成され得る。

Claims (15)

  1. ウェアラブルカメラにより撮像された画像におけるノイズリダクションの方法であって、
    A.時間的に連続する画像のシーケンスを提供することと、
    B.前記時間的に連続する画像の中から、第1の基準画像を選択することと、
    C.前記時間的に連続する画像の中から、前記第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
    D.前記第1の基準画像と同じ視点を有するよう、前記第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
    E.前記第1の複数の変換された画像を使用して、前記第1の基準画像に時間的ノイズフィルタリング(TNF)を行うことと、
    F.前記時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
    G.前記時間的に連続する画像の中から、前記第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、前記第2の複数の画像の前記画像の少なくとも1つはまた、前記第1の複数の画像にも含まれ、前記第2の複数の画像は、前記第1の基準画像を含む、前記時間的に連続する画像の中から、前記第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
    H.前記第2の基準画像のTNFが行われるべきであるか否かを判定することと、
    を含み、
    TNFが行われるべきであることが判定されると、
    I.第2の複数の変換された画像を形成することであって、
    I1.前記第1の複数の画像に含まれない、前記第2の複数の画像のそれぞれの前記画像について、前記第2の基準画像と同じ視点を有するよう、前記画像を変換することであって、視点変換は、前記第2の基準画像と同じ視点を有するよう、前記第1の基準画像を変換するよう、判定され、使用される、前記第2の基準画像と同じ視点を有するよう、前記画像を変換することと、
    I2.前記第1の複数の画像にも含まれる、前記第2の複数の画像のそれぞれの前記画像について、前記第2の基準画像と同じ視点を有するよう、前記第1の複数の変換された画像の中の、対応する前記変換された画像を、前記第1の基準画像を変換するために使用された前記視点変換を使用して変換することと、
    により、第2の複数の変換された画像を形成することと、
    J.前記第2の複数の変換された画像を使用して、前記第2の基準画像に時間的ノイズフィルタリングを行うことと、
    をさらに含む、方法。
  2. 前記時間的に連続する画像の1つを、前記ウェアラブルカメラのメモリから、前記第1又は第2の基準画像と同じ視点を有するよう、前記時間的に連続する画像の前記1つを変換した後に、削除することをさらに含む、請求項1に記載の方法。
  3. 前記第1の複数の画像のそれぞれの画像が、前記第1の基準画像に対して時間的に先行し、
    前記第2の複数の画像のそれぞれの画像が、前記第2の基準画像に対して時間的に先行する、
    請求項1から請求項2のいずれか一項に記載の方法。
  4. 前記第1の複数の画像は、4つから8つの画像を含み、
    前記第2の複数の画像は、4つから8つの画像を含む、
    請求項1から請求項3のいずれか一項に記載の方法。
  5. 前記第1の複数の変換された画像を形成することと、前記第2の複数の変換された画像を形成することと、は、前記時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられたモーションデータを比較することに基づいて、関連付けられた前記基準画像と同じ視点を有するように画像を変換することを含む、請求項1から請求項4のいずれか一項に記載の方法。
  6. 前記時間的に連続する画像のシーケンスにおけるそれぞれの画像に関連付けられた前記モーションデータは、モーションセンサ、加速度計、及びジャイロスコープの少なくとも1つにより判定される、又は、前記モーションデータは、前記画像の画像分析に基づいて判定される、請求項5に記載の方法。
  7. ステップHは、前記第1の複数の画像の少なくとも2つの画像間の視点差を判定することをさらに含み、
    前記第2の基準画像のTNFは、前記視点差が、所定の視点差閾値以下であることが判定されると行われ、
    前記第2の基準画像のTNFは、前記視点差が、所定の視点差閾値より大きいことが判定されると行われない、
    請求項1から請求項6のいずれか一項に記載の方法。
  8. 前記視点差は、
    それぞれの画像に時間的に関連付けられたモーションデータであって、モーションセンサ、加速度計、又はジャイロスコープにより判定されるモーションデータと、
    前記第1の複数の画像の後続の画像間にて、どれだけのピクセルが変わったか、に関する画像データと、
    の少なくとも1つに基づく、請求項7に記載の方法。
  9. ステップAの前に、前記時間的に連続する画像のシーケンスに対する撮像条件を判定することをさらに含み、
    撮像条件が所定の撮像条件要件を満たすことが判定されると、前記ステップAからJのみが行われる、
    請求項1から請求項8のいずれか一項に記載の方法。
  10. 前記撮像条件は、
    モーションセンサ、加速度計、ジャイロスコープ、又は測位デバイスにより判定される、モーションのレベルと、
    光センサにより、又は、画像分析により判定される光レベルと、
    の少なくとも1つにより判定される、請求項9に記載の方法。
  11. 前記撮像条件は、光センサにより、又は、画像分析により判定される光レベルにより判定され、
    前記所定の撮像条件要件は、所定のレベルより低い光レベルである、
    請求項9に記載の方法。
  12. 前記第1の基準画像を、前記ウェアラブルカメラのメモリ上に、前記第1の基準画像にTNFを行った後に保存することと、
    前記第2の基準画像を、前記ウェアラブルカメラの前記メモリ上に、前記第2の基準画像にTNFを行った後に保存することと、
    をさらに含む、請求項1から請求項11のいずれか一項に記載の方法。
  13. 前記第1の基準画像を、前記ウェアラブルカメラからリモートデバイスに、前記第1の基準画像にTNFを行った後に送信することと、
    前記第2の基準画像を、前記ウェアラブルカメラから前記リモートデバイスに、前記第2の基準画像にTNFを行った後に送信することと、
    をさらに含む、請求項1から請求項12のいずれか一項に記載の方法。
  14. 撮像ユニットと、演算ユニットと、を含むウェアラブルカメラであって、
    A.前記撮像ユニットにより、時間的に連続する画像のシーケンスを撮像することと、
    B.前記演算ユニットにより、前記時間的に連続する画像の中から、第1の基準画像を選択することと、
    C.前記演算ユニットにより、前記時間的に連続する画像の中から、前記第1の基準画像の時間的ノイズフィルタリングに使用される、第1の複数の画像を選択することと、
    D.前記演算ユニットにより、前記第1の基準画像と同じ視点を有するよう、前記第1の複数の画像のそれぞれを変換することにより、第1の複数の変換された画像を形成することと、
    E.前記演算ユニットにより、前記第1の複数の変換された画像を使用して、前記第1の基準画像に時間的ノイズフィルタリング(temporal noise filtering又はTNF)を行うことと、
    F.前記演算ユニットにより、前記時間的に連続する画像の中から、第2の、異なる、基準画像を選択することと、
    G.前記演算ユニットにより、前記時間的に連続する画像の中から、前記第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することであって、前記第2の複数の画像の前記画像の少なくとも1つはまた、前記第1の複数の画像にも含まれ、前記第2の複数の画像は、前記第1の基準画像を含む、前記時間的に連続する画像の中から、前記第2の基準画像の時間的ノイズフィルタリングに使用される、第2の複数の画像を選択することと、
    H.前記演算ユニットにより、前記第2の基準画像のTNFが行われるべきであるか否かを判定することと、に構成されており、
    TNFが行われるべきであることが判定されると、
    I.前記演算ユニットにより、第2の複数の変換された画像を形成することであって、
    I1.前記第1の複数の画像に含まれない、前記第2の複数の画像のそれぞれの前記画像について、前記第2の基準画像と同じ視点を有するよう、前記画像を変換することであって、視点変換は、前記第2の基準画像と同じ視点を有するよう、前記第1の基準画像を変換するよう、判定され、使用される、前記第2の基準画像と同じ視点を有するよう、前記画像を変換することと、
    I2.前記第1の複数の画像にも含まれる、前記第2の複数の画像のそれぞれの前記画像について、前記第2の基準画像と同じ視点を有するよう、前記第1の複数の変換された画像の中の、対応する前記変換された画像を、前記第1の基準画像を変換するために使用された前記視点変換を使用して変換することと、
    により、第2の複数の変換された画像を形成することと、
    J.前記演算ユニットにより、前記第2の複数の変換された画像を使用して、前記第2の基準画像に時間的ノイズフィルタリングを行うことと、
    にさらに構成されている、ウェアラブルカメラ。
  15. 処理能力を有するデバイスにより実行されると、請求項1から請求項13のいずれか一項に記載の方法を実施する命令が保存されている、非一時的コンピュータ可読記憶媒体。
JP2021048021A 2020-03-30 2021-03-23 カメラノイズリダクション Pending JP2021180475A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20166547.8A EP3889880B1 (en) 2020-03-30 2020-03-30 Wearable camera noise reduction
EP20166547 2020-03-30

Publications (1)

Publication Number Publication Date
JP2021180475A true JP2021180475A (ja) 2021-11-18

Family

ID=70058121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048021A Pending JP2021180475A (ja) 2020-03-30 2021-03-23 カメラノイズリダクション

Country Status (4)

Country Link
US (1) US11847765B2 (ja)
EP (1) EP3889880B1 (ja)
JP (1) JP2021180475A (ja)
CN (1) CN113542533A (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003272202A1 (en) 2002-06-21 2004-01-06 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
US8886298B2 (en) * 2004-03-01 2014-11-11 Microsoft Corporation Recall device
US7609765B2 (en) 2004-12-02 2009-10-27 Intel Corporation Fast multi-frame motion estimation with adaptive search strategies
US8786716B2 (en) 2011-08-15 2014-07-22 Apple Inc. Rolling shutter reduction based on motion sensors
US8928765B2 (en) 2012-06-08 2015-01-06 Apple Inc. Noise reduction based on motion sensors
EP2680567A1 (en) * 2012-06-25 2014-01-01 Axis AB Video noise reduction
US9449374B2 (en) * 2014-03-17 2016-09-20 Qualcomm Incoporated System and method for multi-frame temporal de-noising using image alignment
US9438809B2 (en) 2014-07-25 2016-09-06 Samsung Electronics Co., Ltd. Methodology for generating high fidelity digital zoom for mobile phone cameras
JPWO2017090458A1 (ja) 2015-11-26 2018-09-13 ソニーセミコンダクタソリューションズ株式会社 撮影装置、および撮影方法、並びにプログラム
US10277844B2 (en) 2016-04-20 2019-04-30 Intel Corporation Processing images based on generated motion data
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US9990536B2 (en) 2016-08-03 2018-06-05 Microsoft Technology Licensing, Llc Combining images aligned to reference frame
EP4283970A1 (en) * 2021-06-16 2023-11-29 Samsung Electronics Co., Ltd. Electronic device for removing low-light noise, and operating method thereof

Also Published As

Publication number Publication date
US11847765B2 (en) 2023-12-19
US20210304367A1 (en) 2021-09-30
CN113542533A (zh) 2021-10-22
EP3889880A1 (en) 2021-10-06
EP3889880B1 (en) 2022-03-23

Similar Documents

Publication Publication Date Title
US9092861B2 (en) Using motion information to assist in image processing
US8228391B2 (en) Image pickup apparatus and lens barrel
US8848097B2 (en) Image processing apparatus, and method, for providing special effect
JP4140591B2 (ja) 撮像システム及び撮像方法
US20160173749A1 (en) Still image capture with exposure control
US10194074B2 (en) Imaging system, warning generation device and method, imaging device and method, and program
KR102192063B1 (ko) 디지털 이미지들을 전처리하는 방법 및 디지털 이미지 전처리 시스템
DE602005004299D1 (de) Digitales bilderfassungssystem mit mitteln zur bestimmung der kamerabewegungsunschärfefunktion
CN108141540B (zh) 具有移动检测的全向相机
JP5888348B2 (ja) 撮像装置、撮像制御方法、及びプログラム
US20150281549A1 (en) Distributed automatic image and video processing
JP2007068168A (ja) イメージング装置の動きを判定するための方法及びシステム
JP5339049B2 (ja) 情報復元装置、情報復元方法、及び、プログラム
JP2008099159A (ja) 撮像装置、フレーミング制御方法およびプログラム
CN116055844A (zh) 一种跟踪对焦方法、电子设备和计算机可读存储介质
KR101538654B1 (ko) 손 떨림 보정 동작을 제어하는 디지털 촬영장치 및 이의제어방법
JP2021180475A (ja) カメラノイズリダクション
WO2016009199A2 (en) Minimisation of blur in still image capture
JP6702737B2 (ja) 像ブレ補正装置、および、像ブレ補正装置の制御方法
JP2007201570A (ja) 画像処理装置、撮影装置、画像処理方法、および、制御プログラム
JP5737637B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN108632528B (zh) 图像处理装置、图像处理方法以及记录介质
JP2007221710A (ja) 画像処理装置、撮影装置、画像処理方法、および、制御プログラム
CN104735342B (zh) 动态图像处理装置、动态图像处理方法及记录介质
JP2018074326A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231213