JP2021193552A - 広範囲の光強度を有するシーン内でのオブジェクト検出のためにニューラルネットワークを使用すること - Google Patents

広範囲の光強度を有するシーン内でのオブジェクト検出のためにニューラルネットワークを使用すること Download PDF

Info

Publication number
JP2021193552A
JP2021193552A JP2021072546A JP2021072546A JP2021193552A JP 2021193552 A JP2021193552 A JP 2021193552A JP 2021072546 A JP2021072546 A JP 2021072546A JP 2021072546 A JP2021072546 A JP 2021072546A JP 2021193552 A JP2021193552 A JP 2021193552A
Authority
JP
Japan
Prior art keywords
images
image
neural network
camera
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021072546A
Other languages
English (en)
Inventor
アンドレアス ムーアベック,
Muhrbeck Andreas
アントン ヤコブソン,
Jakobsson Anton
ニクラス スヴェンソン,
Svensson Niclas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2021193552A publication Critical patent/JP2021193552A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Vascular Medicine (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】高ダイナミックレンジ画像内のオブジェクトを検出する方法、システム及び非一時的コンピュータ可読記憶媒体を提供する。【解決手段】方法は、カメラによって記録されるシーンの、長露光画像および短露光画像をを含んだ画像のセットを受診するステップ102と、画像データ内のオブジェクト検出、オブジェクト分類及びオブジェクト認識のうちの1つ又は複数を実施する訓練済みニューラルネットワークによって画像のセットを処理するステップ104とを含む。長露光画像及び短露光画像は、非常に近接するか又はオーバーラップする時間にカメラによって記録される。ニューラルネットワークは、画像のセット内のオブジェクトを検出するために長露光画像と短露光画像の両方からの画像データを使用する。【選択図】図1

Description

本発明はカメラに関し、より具体的には、高ダイナミックレンジ(HDR:High Dynamic Range)画像内のオブジェクトを検出すること、分類すること、および/または認識することに関する。
画像センサは、画像を取り込むために、携帯電話、カメラ、およびコンピュータ等の電子デバイス内で一般に使用される。典型的な配置構成において、電子デバイスは、単一画像センサおよび対応する単一レンズを備える。広範囲の光強度を有するシーンの静止画像またはビデオ画像を収集するとき等の、特定の用途において、飽和(すなわち、明る過ぎること)によって、または、従来のカメラによって取り込まれる画像の低い信号対雑音比(すなわち、暗過ぎること)によって、データを喪失しないために、HDR画像を取り込むことが望ましい場合がある。HDR画像を使用することによって、従来画像において普通なら失われるであろう、ハイライトおよび陰影詳細を保持することができる。
HDR撮像は、典型的には、同じシーンの短露光と長露光をマージすることによって機能する。時として、2回以上の露光を含むことができる。複数回の露光が同じセンサによって取り込まれるため、露光はわずかに異なる時刻に取り込まれる必要があり、それは、モーションアーチファクトまたはゴースティング(ghosting)に関して時間的問題を引き起こす可能性がある。HDR画像に関する別の問題は、トーンマッピングの副作用であるとすることができるコントラストアーチファクトである。そのため、HDRは、高コントラスト環境で画像を取り込むことに関連する問題の一部を軽減することができるが、対処される必要がある問題の異なるセットを同様に導入する。
第1の態様によれば、本発明は、シーンをモニターするカメラによって記録される画像を処理するための、コンピュータシステム内の方法に関する。方法は、
・画像のセットを受信することであって、画像のセットは、カメラによって記録されるシーンの、異なって露光された画像を含む、受信すること、および、
・画像データ内のオブジェクト検出、オブジェクト分類、およびオブジェクト認識のうちの1つまたは複数を実施するように構成される訓練済みニューラルネットワークによって画像のセットを処理することを含み、ニューラルネットワークは、画像のセット内のオブジェクトを検出するために、画像のセット内の少なくとも2つの異なって露光された画像からの画像データを使用する。
これは、少数の例を挙げると、モーションアーチファクト、ゴースティング、およびコントラスアーチファクトの形態の一般的なHDR画像問題を同時に回避しながら、HDR撮像が慣例的に使用されることになるシーン内のオブジェクトを、検出する、分類する、および/または認識するための技法を改善する方法を提供する。マージされたHDR画像に対してではなく、カメラから受信された画像のセットに対して操作することによって、ニューラルネットワークは、より多くの情報にアクセスすることになり、また、オブジェクトをより正確に検出する、分類する、および/または認識することができる。ニューラルネットワークは、必要に応じて、サブネットワークを用いて拡張することができる。例えば、1つの実装態様において、オブジェクトの検出および分類用のニューラルネットワーク、ならびに、例えば、既知のオブジェクトインスタンスのデータベースを参照することによって、オブジェクトを認識するための別のサブネットワークが存在する場合がある。これは、本発明を、例えば、顔認識アプリケーションにおいて等、画像内のオブジェクトまたは人のアイデンティティが決定される必要があるアプリケーションにおいて適するようにさせる。方法は、有利には、モニタリングカメラ内に実装することができる。これは有利である。なぜならば、画像がカメラから送信されるときに、画像が、送信に適する形式にコーディングされなければならず、このコーディングプロセスにおいて、ニューラルネットワークがオブジェクトを検出し分類するために有用である情報の減少(loss)が存在する可能性があるからである。さらに、画像センサに非常に近接して方法を実装することは、良好な画像を得るために、画像センサ、光学部品、PTZモーター等のようなカメラ構成要素に対して調整が行われる必要がある場合に、いずれのレイテンシーも最小にする。そのような調整は、種々の実施形態によって、ユーザーが始動することができる、または、システムが自動的に始動することができる。
1つの実施形態によれば、画像のセットを処理することは、各画像について輝度チャネルのみを処理することを含むことができる。輝度チャネルは、オブジェクト検出および分類を可能にするのに十分な情報をしばしば含み、結果として、画像内の他のカラー空間情報を廃棄することができる。これは、ニューラルネットワークに送信される必要があるデータの量を低減するとともに、ニューラルネットワークのサイズも低減する。なぜならば、1画像当たり1チャネルのみが使用されるからである。
1つの実施形態によれば、画像のセットを処理することは、各画像について3つのチャネルを処理することを含むことができる。これは、RGB、HSV、YUV等のような3つのカラー平面でコーディングされる画像が、画像のいずれのタイプの前処理を行う必要なく、ニューラルネットワークによって直接処理されることを可能にする。
1つの実施形態によれば、画像のセットは、異なる露光時間を有する3つの画像を含むことができる。多くの場合、HDR画像を生成するカメラは、いろいろな露光時間を用いて画像を取り込む1つまたは複数のセンサを使用する。個々の画像は、(それらの画像をスティッチングしてHDR画像にするのではなく)ニューラルネットワークへの入力として使用することができる。
1つの実施形態によれば、処理することは、さらなる画像処理を実施する前にカメラ内で実施することができる。上記で述べたように、これは有利である。なぜならば、それが、カメラから送信される画像が処理されるときに起こる場合があるデータのいずれの損失(loss)も回避するからである。
1つの実施形態によれば、画像のセット内の画像は、画像センサからの未処理ベイヤー(Bayer)画像データを示す。ニューラルネットワークは、画像を「観察する(view)」必要があるのではなく、値に対して操作するため、人が観察し理解することができる画像が作成される必要がないことになる場合が存在する。代わりに、ニューラルネットワークは、センサから出力される未処理ベイヤー画像データに対して直接操作することができ、それは、本発明の精度をなおさらに改善することができる。なぜならば、本発明が、ニューラルネットワークに画像センサデータが達する前に、さらに別の処理ステップを取り除くことができるからである。
1つの実施形態によれば、オブジェクトを検出するようにニューラルネットワークを訓練することは、いろいろな露光および変位条件下で描写される既知のオブジェクトのニューラルネットワークによって生成される画像を給送することによって行うことができる。既知のオブジェクトのアノテーション付き画像を含む公表されている多くの画像データバンクが存在する。これらの画像は、画像センサからニューラルネットワークへの到来データがどのようなものかをシミュレートするように、従来技法を使用して扱うことができる。そうして、また、どんなオブジェクトが画像内で描写されるかに関する情報と共に、これらの画像をニューラルネットワークに給送することによって、ニューラルネットワークを、カメラによって取り込まれるシーン内で現れる可能性があるオブジェクトを検出するように訓練することができる。さらに、この訓練は、大幅に自動化することができ、それは、訓練の効率を上げることになる。
1つの実施形態によれば、オブジェクトは移動オブジェクトであるとすることができる。すなわち、本発明の種々の実施形態は、静的オブジェクトだけでなく、移動オブジェクトにも適用することができ、それは、本発明の多用途性を増す。
1つの実施形態によれば、画像のセットは、時間的オーバーラップまたは時間的近接性を有する画像のシーケンス、異なる信号対雑音比を有する1つまたは複数のセンサから得られる画像のセット、異なる飽和レベルを有する画像のセット、および異なる解像度を有する2つ以上のセンサから得られる画像のセットであるとすることができる。例えば、いろいろな解像度またはいろいろなサイズを有する幾つかのセンサが存在する場合がある(大きいセンサは、単位面積当たりより多くの光子を受信し、しばしば光感受性が高い)。別の例として、1つのセンサは、「黒白(black−and−white)」センサ、すなわち、カラーフィルターなしのセンサである場合があり、それは、より高い解像度およびより高い光感受性を提供することになる。さらに別の例として、2センサセットアップにおいて、センサの一方は、他のセンサより2倍速く、2つの「短露光画像(short exposure image)」を記録することができ、一方、「長露光画像(long exposure image)」は他のセンサによって記録される。すなわち、本発明は、任意の特定のタイプの画像に限定されるのではなく、代わりに、同じタイプの状況についてニューラルネットワークが訓練される限り、関心のシーンにおいてどんな撮像条件が利用可能であってもその撮像条件に適合することができる。
1つの実施形態によれば、オブジェクトは、人々、顔、乗り物、およびナンバープレートの1つまたは複数を含むことができる。これらは、正確な検出、分類、および認識を有することが重要であるシーンおよびアプリケーションにおいて一般に識別されるオブジェクトである。一般的に言えば、本明細書で述べる方法は、目の前にある特定の使用事例について対象となる場合がある任意のオブジェクトに適用することができる。この文脈における乗り物は、少数の例を挙げると、自動車、バス、モペッド、オートバイ、スクーター等のような任意のタイプの乗り物を指すことができる。
第2の態様によれば、本発明は、シーンをモニターするカメラによって記録される画像を処理するためのシステムに関する。メモリは、プロセッサによって実行されると、プロセッサに方法を実施するようにさせる命令を含み、方法は、
・画像のセットを受信することであって、画像のセットは、カメラによって記録されるシーンの、異なって露光された画像を含む、受信すること、および、
・画像データ内のオブジェクト検出、オブジェクト分類、およびオブジェクト認識のうちの1つまたは複数を実施するように構成される訓練済みニューラルネットワークによって画像のセットを処理することを含み、ニューラルネットワークは、画像のセット内のオブジェクトを検出するために、画像のセット内の少なくとも2つの異なって露光された画像からの画像データを使用する。
システムの利点は、方法の利点に対応し、また、同様に変動することができる。
第3の態様によれば、本発明は、シーンをモニターするカメラによって記録される画像を処理するためのコンピュータプログラムに関する。コンピュータプログラムは、
・画像のセットを受信するステップであって、画像のセットは、カメラによって記録されるシーンの、異なって露光された画像を含む、受信するステップ、および、
・画像データ内のオブジェクト検出、オブジェクト分類、およびオブジェクト認識の1つまたは複数を実施するように構成される訓練済みニューラルネットワークによって画像のセットを処理するステップであって、ニューラルネットワークは、画像のセット内のオブジェクトを検出するために、画像のセット内の少なくとも2つの異なって露光された画像からの画像データを使用する、処理するステップ
に対応する命令を含む。
コンピュータプログラムは、方法の利点に対応する利点を含み、同様に変動する場合がある。
本発明の1つまたは複数の実施形態の詳細は、添付図面および以下の説明において述べられる。本発明の他の特徴および利点は、説明および図面からまた特許請求の範囲から明らかになる。
1つの実施形態による、シーンをモニターするカメラによって記録される画像内のオブジェクトを検出し分類するための方法を示すフローチャートである。 1つの実施形態による、シーンを取り込むカメラおよび画像データを処理するためのニューラルネットワークを示す概略図である。
種々の図面内の同様の参照符号は同様の要素を示す。
概要
上述したように、本発明の種々の実施形態に関する目標は、HDR撮像状況において、オブジェクトを検出する、分類する、および/または認識するための改良型技法を提供することである。本発明は、画像内のオブジェクトを検出するように訓練することができる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が、同じシーンを描写するが、異なる露光を用いて取り込まれる画像のセット内のオブジェクトを、画像のセット内の画像を共に処理することによって、検出するように訓練することもできるという認識に端を発する。すなわち、CNNは、従来のアプリケーションの場合にそうであるように、最初にHDR画像を作成しなければならず、その後、HDR画像内でオブジェクトを検出するのではなく、入力画像のセットに対して直接操作することができる。結果として、本明細書で述べる種々の実施形態による、特別に設計され訓練されたCNNと連携するカメラシステムは、従来のCNNと共にHDRカメラを使用する現行のシステムと比べて、異なる照明条件を扱うことができる。さらに、作成されたHDR画像と対照的に幾つかの画像を使用することによって、種々のタイプの画像解析をそれに対して行うことができるより多くのデータが利用可能であり、それは、従来の技法と比較して、より正確なオブジェクト検出、分類、および認識につながる可能性がある。上記で述べたように、画像センサに非常に近接して方法を実装することは、良好な画像を得るために、画像センサ、光学部品、PTZモーター等のようなカメラ構成要素に対して調整が行われる必要がある場合に、いずれのレイテンシーも最小にすることを可能にする。
CNNのための訓練用データは、例えば、オブジェクトの人工的に適用される異なる露光および移動を有する画像のセットを達成するために、雑音モデルおよびデジタル利得または飽和ならびに異なるフレーム間で起こる場合があるオブジェクト移動をシミュレートするためのオブジェクトについての移動を、アノテーション付き画像を有するオープンデータセットに適用することによって、生成することができる。当業者が認識するように、訓練は、カメラによってモニターされるシーン内の目の前にある特定の監視状況のために適合することもできる。種々の実施形態は、ここで、例としてまた図を参照してさらに詳細に述べられる。
用語
用語の以下のリストは、種々の実施形態を述べるときに以下で使用される。
シーン−そのサイズおよび形状が、シーンを記録するカメラの視野によって規定される3次元物理的空間。
オブジェクト−見て触れることができる物質的なもの。シーンは、典型的には、1つまたは複数のオブジェクトを含む。オブジェクトは、静止している(例えば、建物および他の構造)かまたは移動している(例えば、乗り物)とすることができる。本明細書で使用されるオブジェクトはまた、人々、および、動物、木等のような他の生体を含む。オブジェクトは、オブジェクトが共有する一般的な特徴に基づいて、クラスに分割することができる。例えば、1つのクラスは「自動車(car)」であるとすることができ;別のクラスは「人々(people)」であるとすることができ;さらに別のクラスは「家具(furniture)」であるとすることができる等である。各クラス内に、益々細かいレベルのサブクラスが存在することができる。
畳み込みニューラルネットワーク(CNN)−視覚心像(visual imagery)を解析することに対して最も一般的に適用されるディープニューラルネットワークのクラス。CNNは、入力画像を収集し、画像内の種々のオブジェクトに重要性(学習可能な重みおよびバイアス)を割り当て、1つのオブジェクトを別のオブジュエクトから区別する。CNNは、当業者によく知られており、したがって、それらの内部の働きは、本明細書で詳細に規定されるのではなく、むしろ、本発明の文脈におけるそれらのアプリケーションが以下で述べられるであろう。
オブジェクト検出−画像(典型的には、シーンを記録するカメラからの画像)内の1つまたは複数のオブジェクトを検出するためにCNNを使用するプロセス。すなわち、CNNは、「取り込まれる画像は何を示すか?」、またはより具体的には、「所定のクラスのオブジェクト(例えば、自動車、猫、犬、建物等)が画像内のどこに存在するか?」という質問に答える。
オブジェクト分類−1つまたは複数の検出されるオブジェクトの特定のインスタンスのアイデンティティではなく、そのクラスを決定するためにCNNを使用するプロセス。すなわち、CNNは、「画像内の検出された犬はラブラドールであるかまたはチワワであるか?」または「画像内の検出された自動車はボルボであるかまたはメルセデスであるか?」等の質問に答えるが、「この個人は、アントンであるか、キクラスであるか、アンドレアスであるか?」等の質問に答えることができない。
オブジェクト認識−典型的には、一意のオブジェクトインスタンスの参照セットとの比較によって、オブジェクトのインスタンスのアイデンティティを決定するプロセス。すなわち、CNNは、画像内の人として分類されたオブジェクトを、既知の人のセットと比較し、「この画像内の人はアンドレアスである」可能性を決定することができる。
オブジェクトを検出し分類すること
以下の例の実施形態は、カメラによって記録されるシーン内のオブジェクトを検出し分類するために本発明をどのように使用することができるかを示す。図1は、1つの実施形態による、オブジェクトを検出し分類するための方法100を示すフローチャートである。図2は、本発明を実装することができる実施形態を概略的に示す。方法100は、カメラによってモニターされるシーン内のオブジェクトを効率的に検出し分類するために、特定のモニタリングシーンが要求すると、連続してまたは種々の間隔で自動的に実施することができる。
図2に見ることができるように、カメラ202は、人が存在するシーン200をモニターする。方法100は、カメラ202からシーン200の画像を受信することによって始まる、ステップ102。示す実施形態において、3つの画像204、206、および208は、それぞれカメラから受信される。これらの画像は全て、同じシーン200を描写するが、いろいろな露光条件下で描写する。例えば、画像204は短露光画像であるとすることができ、画像206は中間露光画像であるとすることができ、画像208は長露光画像であるとすることができる。典型的には、従来のCMOSセンサは、当業者によく知られているように、画像を取り込むためにカメラ202内で使用することができる。画像は、時間的に近い、すなわち、単一センサによって、互いに時間的に近くで取り込むことができる。画像は、例えば、カメラがデュアルセンサを使用する、例えば、長露光画像が取り込まれている間に、短露光画像が取り込まれる場合、時間的にオーバーラップすることもできる。多くの変形を、モニタリングシーンの目の前の特定の状況に基づいて実装することができる。
当業者によく知られているように、画像は、RGB、YUV、HSV、YCBCR等のような種々のカラー空間を使用して示すことができる。図2に示す実装態様において、画像204、206、および208内のカラー情報は、無視され、それぞれの画像についての輝度チャネル(Y)のみが、CNN210への入力として使用される。輝度チャネルは、オブジェクトを検出し分類するために使用することができる特徴に関して全ての「関連(relevant)」情報を含むため、カラー情報を廃棄することができる。さらに、これは、CNN210のテンソル(すなわち、入力)の数を低減する。例えば、図2に示す特定の状況において、CNN210は、3つのテンソル、すなわち、単一RGB画像を処理するために慣例的に使用されることになる同じ数のテンソルを有することができる。
しかしながら、本発明の一般原理を、本質的に任意のカラー空間に拡張することができることが認識されるべきである。例えば、1つの実装態様において、CNN210への入力として3つの画像のそれぞれについて単一輝度チャネルを提供する代わりに、CNN210に、3つのRGB画像を給送することができ、その場合、CNN210は、9のテンソルを有する必要があることになる。すなわち、入力としてRGB画像を使用することは、より大きいCNN210を必要とすることになるが、同じ一般原理が依然として適用されることになり、CNN210に対する主要な設計変更は、1画像当たり1チャネルのみが使用されるときと比較して必要とされないことになる。
この一般的な考えは、なおさらに拡張することができ、それにより、幾つかの実装態様において、全てのピクセルについてRGB表現になるように、カメラ内の画像センサからの未処理データ(例えば、ベイヤーデータ)を補間する必要性が存在しない場合さえある。代わりに、センサからの未処理データそれ自身は、CNN210のテンソルへの入力として役立つことができ、それにより、CNN210をセンサそれ自身のさらに近くに移動させ、センサデータをRGB表現に変換するときに起こる場合があるデータ損失をさらに低減する。
次に、CNN210は、受信画像データを処理して、オブジェクトを検出し分類する、ステップ104。これは、例えば、異なる露光を連結方式で(in concatenated manner)(すなわち、別個の連続チャネル、例えば、rロング、gロング、bロング、rショート、gショート、bショート内のデータを加算して)CNN210に給送することによって行うことができる。CNN210は、その後、異なる露光を用いて採取された情報にアクセスし、したがって、シーンについてのより豊かな理解を形成する。CNN210は、その後、続けて、訓練済み畳み込みカーネルを使用することによって、異なる露光からのデータを抽出し処理し、結果として、最良の露光(複数可)からの情報で重み付けする。こうして画像データを処理するために、CNN210は、CNN210が受信する特定のタイプの入力に基づいてオブジェクトを検出し分類するように訓練されなければならない。CNN210の事前訓練は、次のセクションで述べられる。
最後に、CNN210による処理からの結果は、シーン内の分類済みオブジェクトのセット212として出力され、ステップ106、それはプロセスを終了させる。分類済みオブジェクトのセット212は、例えば、オブジェクト認識および同様のタスクを実施するために、人のユーザーによる検討または他のシステム構成要素によるさらなる処理を可能にすることになる任意の形態で出力することができる。一般的なアプリケーションは、人々および乗り物を検出し認識することを含むが、もちろん、本明細書で述べる原理は、カメラ202によって取り込まれるシーン202内に現れる場合がある任意の種類、タイプのオブジェクトを認識するために使用することができる。
ニューラルネットワークを訓練すること
上記で述べたように、CNN210は、カメラ202によって取り込まれる画像内のオブジェクトを検出し分類するために使用することができる前に、訓練されなければならない。CNN210のための訓練用データは、HDRカメラが慣例的に使用されることになる状況において起こる場合がある状態をシミュレートするために、アノテーション付き画像を有するオープンデータセットを使用し、種々のタイプの雑音モデルおよびデジタル利得/飽和ならびにオブジェクト移動を画像に適用することによって、生成することができる。「真値(ground truth)」(すなわち、顔、ナンバープレート、人間等のようなオブジェクトのタイプ)を同様にわかっていながら、人工的に適用される露光および移動を有する画像のセットを有することによって、CNN210は、上記で論じたように、実際のHDR画像データを受信すると、オブジェクトを検出し分類することを学習することができる。幾つかの実施形態において、CNN210は、有利には、現実の世界のセットアップで起こることになる雑音モデルおよびデジタル利得/飽和パラメータを使用して訓練される。換言すれば、CNN210は、シーンにおいて使用されることになるカメラ、画像センサ、またはシステムを示す特定のパラメータを使用して変更される画像のオープンデータセットを使用して訓練される。
結びの言葉
上記の実施形態が、短、中間、および長露光時間を有する画像に関してそれぞれ述べられたが、同じ原理を、同じシーンの本質的に任意のタイプのいろいろな露光に適用することができることが留意されるべきである。例えば、センサ内の異なるアナログ利得は、(典型的には)センサからの読み出しにおける雑音レベルを低減することができる。同時に、シーンの或るより明るい部分は、露光時間が延長されるときに行われることと同様である方法で調整される。これは、画像内で異なるSNRおよび飽和レベルをもたらし、それらは、本発明の種々の実装態様において使用することができる。同様に、上記の方法が、好ましくはカメラ202それ自身内で実施されるが、これが要件ではなく、画像データを、カメラ202から、おそらくはさらなる処理機器と共にCNN210がそこに位置する別の処理に送信することができることが留意されるべきである。
上記技法は単一CNN210に関して述べられたが、これが例証のためにだけ行われること、および、現実の世界の実装態様において、CNNがニューラルネットワークの幾つかのサブセットを含むことができることが認識されるべきである。例えば、バックボーンニューラルネットワークは、特徴(例えば、「自動車」を示す特徴対「顔」を示す特徴)を見出すために使用することができる。別のニューラルネットワークは、シーン内に幾つかのオブジェクト(例えば、2台の自動車および3つの顔)が存在するか否かを判定することができる。さらに別のネットワークは、画像内のどのピクセルがどのオブジェクトに属するかを決定するために付加することができる等である。そのため、上記技法が顔認識のために使用される実装態様において、ニューラルネットワークの多数のサブセットが存在する場合がある。それによって、上記CNN210を参照するとき、これが多数のニューラルネットワークを含むことができることが明らかであるべきである。
当業者によって認識されるように、本発明の態様は、システム、方法、またはコンピュータプログラム製品として具現化することができる。したがって、本発明の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マクロコードなどを含む)、または、ソフトウェア態様およびハードウェア態様を組み合わせる実施形態の形態をとることができ、それら全てを、全体として本明細書で「回路(circuit)」、「モジュール(module)」、または「システム(system)」と呼ぶことができる。さらに、本発明の態様は、コンピュータ可読プログラムコードがそこで具現化されている1つまたは複数のコンピュータ可読媒体(複数可)で具現化されるコンピュータプログラム製品の形態をとることができる。
1つまたは複数のコンピュータ可読媒体(複数可)の任意の組み合わせを利用することができる。コンピュータ可読媒体はコンピュータ可読信号媒体またはコンピュータ可読記憶媒体であるとすることができる。コンピュータ可読記憶媒体は、例えば、限定はしないが、電子、磁気、光、電磁、赤外、または半導体のシステム、装置、またはデバイス、あるいは上記の任意の適切な組み合わせであるとすることができる。コンピュータ可読記憶媒体のより特定の例(非網羅的リスト)は、以下:1つまたは複数のワイヤを有する電気接続、可搬型コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラム可能読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、可搬型コンパクトディスク読み出し専用メモリ(CD−ROM)、光記憶デバイス、磁気記憶デバイス、または上記の任意の適切な組み合わせを含むことになる。本文書の文脈で、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによってまたはそれに関連して使用するためのプログラムを収容または記憶することができる任意の有形媒体であるとすることができる。
コンピュータ可読信号媒体は、例えばベースバンドのまたは搬送波の一部としての、その中で具現されたコンピュータ可読プログラムコードを有する伝搬データ信号を含むことができる。そのような伝搬信号は、限定はしないが、電磁、光、またはその任意の適切な組み合わせを含む種々の形態の任意の形態をとることができる。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置、またはデバイスによってまたはそれに関連して使用するためのプログラムを、通信、伝搬、または輸送することができる任意のコンピュータ媒体であるとすることができる。
コンピュータ可読媒体上で具現化されるプログラムコードは、限定はしないが、無線、有線、光ファイバケーブル、RFなど、または上記の任意の適切な組み合わせを含む任意の適切な媒体を使用して伝送することができる。本発明の態様についての動作を実施するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせで書くことができ、プログラミング言語は、Java、Smalltalk、C++、または同様なものなどのオブジェクト指向プログラミング言語、および、「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む。プログラムコードは、ユーザーのコンピュータ上で完全に、ユーザーのコンピュータ上で部分的に、独立型ソフトウェアパッケージとして、ユーザーのコンピュータ上で部分的にかつリモートコンピュータ上で部分的に、あるいはリモートコンピュータまたはサーバー上で完全に実行することができる。後者のシナリオにおいて、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを通してユーザーのコンピュータに接続することができる、または、接続は、(例えば、インターネットサービスプロバイダーを使用するインターネットを通して)外部コンピュータに対して行うことができる。
本発明の態様は、本発明の実施形態による、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロックダイヤグラムを参照して述べられる。フローチャート図および/またはブロックダイヤグラムの各ブロックならびにフローチャート図および/またはブロックダイヤグラム内のブロックの組み合わせは、コンピュータプログラム命令によって実装することができる。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータのプロセッサ、または他のプログラム可能データ処理装置に提供されて、コンピュータのプロセッサまたは他のプログラム可能データ処理装置によって実行される命令が、フローチャートおよび/またはブロックダイヤグラムの1つまたは複数のブロックで指定される機構/行為を実装するための手段を作成するような機械を生み出すことができる。
これらのコンピュータプログラム命令は同様に、コンピュータ可読媒体に記憶することができ、コンピュータプログラム命令は、コンピュータ可読媒体に記憶された命令が、フローチャートおよび/またはブロックダイヤグラムの1つまたは複数のブロックで指定される機構/行為を実装する命令を含む製造品を生み出すような特定の方法で機能するように、コンピュータ、他のプログラム可能データ処理装置、または他のデバイスに指令することができる。
コンピュータプログラム命令は同様に、コンピュータ、他のプログラム可能データ処理装置、または他のデバイスにロードされて、一連の動作ステップをコンピュータ、他のプログラム可能データ処理装置、または他のデバイス上で実施させ、それにより、コンピュータまたは他のプログラム可能データ処理装置上で実行される命令が、フローチャートおよび/またはブロックダイヤグラムの1つまたは複数のブロックで指定される機構/行為を実装するためのプロセスを提供するようなコンピュータ実装式プロセスを生み出すことができる。
図のフローチャートおよび/またはブロックダイヤグラムは、本発明の種々の実施形態による、システム、方法、およびコンピュータプログラム製品の考えられる実装態様のアーキテクチャ、機能、および動作を示す。これに関して、フローチャートまたはブロックダイヤグラム内の各ブロックは、指定された論理機能(複数可)を実装するための1つまたは複数の実行可能命令を含む、モジュール、セグメント、または命令の所定の部分を表すことができる。幾つかの代替の実装態様において、ブロックにおいて述べる機能は、図で述べる順序から外れて起こる場合がある。例えば、連続して示す2つのブロックは、実際には、実質的に同時に実行することができる、または、ブロックは、時として、関係する機能に応じて、逆順で実行することができる。ブロックダイヤグラムおよび/またはフローチャート図の各ブロックおよびブロックダイヤグラムおよび/またはフローチャート図内のブロックの組み合わせが、指定された機能または行為を実施するあるいは専用ハードウェアおよびコンピュータ命令の組み合わせを実施する専用ハードウェアベースシステムによって実装することができることも留意されるであろう。
本発明の種々の実施形態の説明は、例示のために提示されたが、網羅的であることまたは開示する実施形態に限定されることを意図されない。多くの修正および変形が、述べる実施形態の範囲および趣旨から逸脱することなく、当業者に明らかになるであろう。そのため、特許請求項の範囲に入る多くの他の変形を、当業者が想定することができる。
上記の実装態様が、例としてまたCNNを参照して述べられたが、他のタイプのニューラルネットワークまたは他のタイプのアルゴリズムを使用し、同じまたは類似の結果を達成する実装態様が存在することもできることが留意されるべきである。そのため、他の実装態様はまた、添付特許請求項の範囲に入る。
本明細書で使用する用語は、実施形態の原理、実用的な用途、または市場で見出される技術に勝る技術的改善を最もよく説明するために、また、当業者が、本明細書で開示される実施形態を理解することを可能にするために選択された。

Claims (12)

  1. シーン(200)をモニターするカメラ(202)によって記録される画像を処理するための方法であって、
    画像(204、206、208)のセットを受信することであって、画像(204、206、208)の前記セットは前記シーン(200)の長露光画像および短露光画像を含み、前記長露光画像および前記短露光画像は、非常に近接するかまたはオーバーラップする時間に前記カメラ(202)によって記録される、受信すること、および、
    画像データ内のオブジェクト検出、オブジェクト分類、およびオブジェクト認識のうちの1つまたは複数を実施するように構成される訓練済みニューラルネットワーク(210)によって画像(204、206、208)の前記セットを処理することを含み、前記ニューラルネットワーク(210)は、画像(204、206、208)の前記セット内のオブジェクトを検出するために前記長露光画像と前記短露光画像の両方からの画像データを使用する、方法。
  2. 画像(204、206、208)の前記セットを処理することは、各画像について輝度チャネルのみを処理することを含む、請求項1に記載の方法。
  3. 画像(204、206、208)の前記セットを処理することは、各画像について3つのチャネルを処理することを含む、請求項1に記載の方法。
  4. 画像(204、206、208)の前記セットは、異なる露光時間を有する3つの画像を含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記処理することは、さらなる画像処理を実施する前に前記カメラ(202)内で実施される、請求項1から4のいずれか一項に記載の方法。
  6. 画像(204、206、208)の前記セット内の前記画像は、画像センサからの未処理ベイヤー画像データを示す、請求項1に記載の方法。
  7. いろいろな露光および変位条件下で描写される既知のオブジェクトのニューラルネットワークによって生成される画像を給送することによって、オブジェクトを検出するように前記ニューラルネットワーク(210)を訓練することをさらに含む、請求項1から6のいずれか一項に記載の方法。
  8. 前記オブジェクトは移動オブジェクトである、請求項1から7のいずれか一項に記載の方法。
  9. 画像(204、206、208)の前記セットは、時間的オーバーラップまたは時間的近接性を有する画像のシーケンス、異なる信号対雑音比を有する1つまたは複数のセンサから得られる画像のセット、異なる飽和レベルを有する画像のセット、および異なる解像度を有する2つ以上のセンサから得られる画像のセットのうちの1つである、請求項1から8のいずれか一項に記載の方法。
  10. 前記オブジェクトは、人々、顔、乗り物、およびナンバープレートの1つまたは複数を含む、請求項1から9のいずれか一項に記載の方法。
  11. シーン(200)をモニターするカメラ(202)によって記録される画像を処理するためのシステムであって、
    メモリと、
    プロセッサとを備え、
    前記メモリは、前記プロセッサによって実行されると、前記プロセッサに方法を実施するようにさせる命令を含み、前記方法は、
    画像(204、206、208)のセットを受信することであって、画像(204、206、208)の前記セットは、前記カメラ(202)によって記録される前記シーン(200)の異なって露光された画像(204、206、208)を含む、受信すること、および、
    画像データ内のオブジェクト検出、オブジェクト分類、およびオブジェクト認識のうちの1つまたは複数を実施するように構成される訓練済みニューラルネットワーク(210)によって画像(204、206、208)の前記セットを処理することを含み、前記ニューラルネットワーク(210)は、画像(204、206、208)の前記セット内のオブジェクトを検出するために、画像(204、206、208)の前記セット内の少なくとも2つの異なって露光された画像からの画像データを使用する、システム。
  12. 非一時的コンピュータ可読記憶媒体であって、プログラム命令が非一時的コンピュータ可読記憶媒体によって具現化されており、前記プログラム命令は、方法であって、
    画像(204、206、208)のセットを受信することであって、画像(204、206、208)の前記セットは、カメラ(202)によって記録されるシーン(200)の異なって露光された画像を含む、受信すること、および、
    画像データ内のオブジェクト検出、オブジェクト分類、およびオブジェクト認識のうちの1つまたは複数を実施するように構成される訓練済みニューラルネットワーク(210)によって画像(204、206、208)の前記セットを処理することであって、前記ニューラルネットワーク(210)は、画像(204、206、208)の前記セット内のオブジェクトを検出するために、画像(204、206、208)の前記セット内の少なくとも2つの異なって露光された画像からの画像データを使用する、処理すること
    を含む、方法を実施するようにプロセッサによって実行可能である、非一時的コンピュータ可読記憶媒体。
JP2021072546A 2020-05-07 2021-04-22 広範囲の光強度を有するシーン内でのオブジェクト検出のためにニューラルネットワークを使用すること Pending JP2021193552A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20173368 2020-05-07
EP20173368 2020-05-07

Publications (1)

Publication Number Publication Date
JP2021193552A true JP2021193552A (ja) 2021-12-23

Family

ID=70613715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021072546A Pending JP2021193552A (ja) 2020-05-07 2021-04-22 広範囲の光強度を有するシーン内でのオブジェクト検出のためにニューラルネットワークを使用すること

Country Status (5)

Country Link
US (1) US20210350129A1 (ja)
JP (1) JP2021193552A (ja)
KR (1) KR20210136857A (ja)
CN (1) CN113627226A (ja)
TW (1) TW202143119A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3979618A1 (en) * 2020-10-01 2022-04-06 Axis AB A method of configuring a camera
US11417125B2 (en) * 2020-11-30 2022-08-16 Sony Group Corporation Recognition of license plate numbers from Bayer-domain image data
JP7351889B2 (ja) 2021-12-02 2023-09-27 財団法人車輌研究測試中心 車室内監視・状況理解感知方法及びそのシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101926490B1 (ko) * 2013-03-12 2018-12-07 한화테크윈 주식회사 이미지 처리 장치 및 방법
KR101511853B1 (ko) * 2013-10-14 2015-04-13 영남대학교 산학협력단 단일 다중 노출 카메라를 이용한 야간 전방 차량 검출 및 위치 측정 시스템 및 방법
US9342871B2 (en) * 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
US9674439B1 (en) * 2015-12-02 2017-06-06 Intel Corporation Video stabilization using content-aware camera motion estimation
US10769414B2 (en) * 2018-06-03 2020-09-08 Apple Inc. Robust face detection
US10803565B2 (en) * 2018-07-10 2020-10-13 Intel Corporation Low-light imaging using trained convolutional neural networks
KR20210059712A (ko) * 2018-08-07 2021-05-25 블링크에이아이 테크놀로지스, 아이엔씨. 이미지 향상을 위한 인공지능 기법
US10785419B2 (en) * 2019-01-25 2020-09-22 Pixart Imaging Inc. Light sensor chip, image processing device and operating method thereof
JP2020187409A (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 画像認識装置、固体撮像装置、および画像認識方法
JP2020188310A (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 画像認識装置および画像認識方法
JPWO2021095256A1 (ja) * 2019-11-15 2021-05-20

Also Published As

Publication number Publication date
CN113627226A (zh) 2021-11-09
KR20210136857A (ko) 2021-11-17
TW202143119A (zh) 2021-11-16
US20210350129A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
JP2021193552A (ja) 広範囲の光強度を有するシーン内でのオブジェクト検出のためにニューラルネットワークを使用すること
CN109636754B (zh) 基于生成对抗网络的极低照度图像增强方法
US20220044363A1 (en) Techniques for Controlled Generation of Training Data for Machine Learning Enabled Image Enhancement
US10009549B2 (en) Imaging providing ratio pixel intensity
WO2020192483A1 (zh) 图像显示方法和设备
Scheerlinck et al. CED: Color event camera dataset
EP3579145A1 (en) Method and device for image processing, computer readable storage medium, and electronic device
CN105323497B (zh) 恒定包围的高动态范围(cHDR)操作
WO2021164234A1 (zh) 图像处理方法以及图像处理装置
US9569688B2 (en) Apparatus and method of detecting motion mask
US20220166930A1 (en) Method and device for focusing on target subject, and electronic device
JP2020529159A (ja) 多重化高ダイナミックレンジ画像
CN108322651B (zh) 拍摄方法和装置、电子设备、计算机可读存储介质
US20120308123A1 (en) Apparatus and method for estimating the number of objects included in an image
CN103905727A (zh) 被摄体区域跟踪设备及其控制方法
US20220122360A1 (en) Identification of suspicious individuals during night in public areas using a video brightening network system
Liu et al. Soft prototyping camera designs for car detection based on a convolutional neural network
US11416715B2 (en) Apparatus and method for recognizing a face based on artificial intelligence
WO2021231183A1 (en) Methods and apparatus for performing analytics on image data
WO2023219466A1 (en) Methods and systems for enhancing low light frame in a multi camera system
CN110688926B (zh) 主体检测方法和装置、电子设备、计算机可读存储介质
CN112183235A (zh) 针对运动场所进行视频采集的自动控制方法
US11956552B2 (en) Method and electronic device for increased dynamic range of an image
KR20230064959A (ko) Ai 기반 객체인식을 통한 감시카메라 wdr 영상 처리
JPWO2019150649A1 (ja) 画像処理装置および画像処理方法