JP2021118478A - 監視カメラ、カメラパラメータ決定方法およびプログラム - Google Patents

監視カメラ、カメラパラメータ決定方法およびプログラム Download PDF

Info

Publication number
JP2021118478A
JP2021118478A JP2020011726A JP2020011726A JP2021118478A JP 2021118478 A JP2021118478 A JP 2021118478A JP 2020011726 A JP2020011726 A JP 2020011726A JP 2020011726 A JP2020011726 A JP 2020011726A JP 2021118478 A JP2021118478 A JP 2021118478A
Authority
JP
Japan
Prior art keywords
surveillance camera
vehicle
image
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020011726A
Other languages
English (en)
Inventor
雅士 古賀
Masashi Koga
雅士 古賀
淳 池田
Atsushi Ikeda
淳 池田
智之 川上
Tomoyuki Kawakami
智之 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2020011726A priority Critical patent/JP2021118478A/ja
Priority to US17/159,914 priority patent/US11665322B2/en
Publication of JP2021118478A publication Critical patent/JP2021118478A/ja
Priority to US18/135,393 priority patent/US20230254456A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

【課題】撮像エリアの画像に映る人物の顔の監視精度の改善に寄与するカメラパラメータを適応的に決定し、画像の画質を的確に改善して監視業務の効率化を図る。【解決手段】監視カメラは、人工知能を搭載し、撮像エリアを撮像する撮像部と、人工知能を用いて、撮像エリアの撮像画像に映る人物を検知する検知部と、撮像画像中の人物の顔の位置を推定し、顔の明度あるいは移動速度に基づいて監視カメラのカメラパラメータを決定する制御部と、を備える。【選択図】図3

Description

本開示は、監視カメラのカメラパラメータを決定する監視カメラ、カメラパラメータ決定方法およびプログラムに関する。
特許文献1には、人工知能を搭載した移動式遠隔監視カメラが開示されている。特許文献1の移動式遠隔監視カメラは、ドーム型風防を介して撮像可能なWebカメラと、モバイル通信用ルータと、Wi−fi(登録商標)通信用アクセスポイント機器と、人工知能を用いた画像解析機能とを備えるオールインワン構造の監視カメラである。
国際公開第2016/199192号
監視カメラにより撮像されるエリア(以下、「撮像エリア」と称する)は、例えば人の出入りが多い自動ドア付近などのように、監視カメラの運営者(例えば店舗のオーナ)が監視するために注目する場所であることが多い。ところが、例えば昼間の時間帯には太陽光の逆光により、撮像エリアの撮像により得られた画像全体としては明るくてもその画像に映る人物の顔が暗いことがあり、監視精度が劣化する可能性があった。
また、監視精度の向上のために、人工知能(AI:Artificial Intelligents)を利用して監視対象のオブジェクトを検知する監視カメラが提案されている(特許文献1参照)。上述したように、監視カメラにより撮像された画像に映る人物の顔が暗いと、人工知能による顔の検知性能が低下するので監視精度の劣化につながるという課題があった。特許文献1には、画像に映る人物の顔が暗い場合の画質を改善することの技術的対策については考慮されていない。なお、被写体の一例として人物を挙げて上述した課題を説明したが、被写体は万引き犯などの人物に限らず、監視対象としての車両である場合にも同様に当てはまると考えられる。監視対象としての車両は、例えば万引き犯が逃走用に乗る車両が該当する。
本開示は、上述した従来の事情に鑑みて案出され、撮像エリアの画像に映る人物の顔の監視精度の改善に寄与するカメラパラメータを適応的に決定し、画像の画質を的確に改善して監視業務の効率化を図る監視カメラ、カメラパラメータ決定方法およびプログラムを提供することを目的とする。
本開示は、上述した従来の事情に鑑みて案出され、撮像エリアの画像に映る車両の特徴パーツの監視精度の改善に寄与するカメラパラメータを適応的に決定し、画像の画質を的確に改善して監視業務の効率化を図る監視カメラ、カメラパラメータ決定方法およびプログラムを提供することを目的とする。
本開示は、人工知能を搭載する監視カメラであって、撮像エリアを撮像する撮像部と、前記人工知能を用いて、前記撮像エリアの撮像画像に映る人物を検知する検知部と、前記撮像画像の前記人物の顔の位置を推定し、前記顔の明度あるいは移動速度に基づいて前記監視カメラのカメラパラメータを決定する制御部と、を備える、監視カメラを提供する。
また、本開示は、人工知能を搭載する監視カメラにより実行されるパラメータ決定方法であって、撮像エリアを撮像するステップと、前記人工知能を用いて、前記撮像エリアの撮像画像に映る人物を検知するステップと、前記撮像画像の前記人物の顔の位置を推定し、前記顔の明度あるいは移動速度に基づいて前記監視カメラのカメラパラメータを決定するステップと、を有する、カメラパラメータ決定方法を提供する。
また、本開示は、コンピュータである、人工知能を搭載する監視カメラに、撮像エリアを撮像するステップと、前記人工知能を用いて、前記撮像エリアの撮像画像に映る人物を検知するステップと、前記撮像画像の前記人物の顔の位置を推定し、前記顔の明度あるいは移動速度に基づいて前記監視カメラのカメラパラメータを決定するステップと、を実行させるための、プログラムを提供する。
また、本開示は、人工知能を搭載する監視カメラであって、撮像エリアを撮像する撮像部と、前記人工知能を用いて、前記撮像エリアの撮像画像に映る車両を検知する検知部と、前記撮像画像の前記車両の明度あるいは移動速度に基づいて、前記監視カメラのカメラパラメータを決定する制御部と、を備える、監視カメラを提供する。
また、本開示は、人工知能を搭載する監視カメラにより実行されるパラメータ決定方法であって、撮像エリアを撮像するステップと、前記人工知能を用いて、前記撮像エリアの撮像画像に映る車両を検知するステップと、前記撮像画像の前記車両の明度あるいは移動速度に基づいて、前記監視カメラのカメラパラメータを決定するステップと、を有する、カメラパラメータ決定方法を提供する。
また、本開示は、コンピュータである、人工知能を搭載する監視カメラに、撮像エリアを撮像するステップと、前記人工知能を用いて、前記撮像エリアの撮像画像に映る車両を検知するステップと、前記撮像画像の前記車両の明度あるいは移動速度に基づいて、前記監視カメラのカメラパラメータを決定するステップと、を実行させるための、プログラムを提供する。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示によれば、撮像エリアの画像に映る人物の顔の監視精度の改善に寄与するカメラパラメータを適応的に決定でき、画像の画質を的確に改善して監視業務の効率化を図ることができる。
本開示によれば、撮像エリアの画像に映る車両の特徴パーツの監視精度の改善に寄与するカメラパラメータを適応的に決定でき、画像の画質を的確に改善して監視業務の効率化を図ることができる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
実施の形態1に係る監視カメラシステムのシステム構成例を示す図 実施の形態1に係る監視カメラのハードウェア構成例を示すブロック図 被写体として人物を例示した場合の、カメラパラメータの調整前後による撮像画像の第1の対比例を示す図 被写体として人物を例示した場合の、カメラパラメータの調整前後による撮像画像の第2の対比例を示す図 実施の形態1に係る監視カメラの第1の動作手順例を時系列に示すフローチャート 被写体として車両を例示した場合の、カメラパラメータの調整前後による撮像画像の対比例を示す図 実施の形態1に係る監視カメラの第2の動作手順例を時系列に示すフローチャート
以下、適宜図面を参照しながら、本開示に係る監視カメラ、カメラパラメータ決定方法およびプログラムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明あるいは実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1は、実施の形態1に係る監視カメラシステム100のシステム構成例を示す図である。図1に示すように、監視カメラシステム100は、監視カメラ1と、モニタMN1および操作部MH1のそれぞれが接続される照合サーバ50と、を含む構成である。監視カメラ1と照合サーバ50とは、ネットワークNW1を介して互いにデータを送受信可能に接続される。
ネットワークNW1は、例えばWi−Fi(登録商標)等の無線LAN(Local Area Network)、Bluetooth(登録商標)およびWiGig(Wireless Gigabit)のいずれかに準じた無線ネットワークであるが、これらに限定されなくてよい。なお、ネットワークNW1は、USB(Univesal Serial Bus)ケーブル、あるいは有線LANなどの有線ネットワークでもよい。以下の説明において、監視カメラ1により撮像された画像(以下、「撮像画像」と称する)には、撮像画像データだけでなく、その撮像画像を撮像した監視カメラ1のカメラID(Identification)と撮像日時の情報とが含まれる。
監視カメラ1は、例えば、道路の路側に設置されたポール(図示略)、駐車場、店舗などの建物内の自動ドア付近の天井などの各所に設置されている。監視カメラ1は、所定幅の画角内の撮像エリアに進入する被写体を撮像する。また、監視カメラ1は、人工知能(AI)を搭載しており、搭載された人工知能を用いて、被写体の撮像画像からオブジェクトを検知する。オブジェクトは、例えば、人物、人物の顔、車両、車両の特徴パーツである。車両の特徴パーツとは、例えば、車型、車色、ナンバープレートのナンバー、自動車メーカのエンブレムなどである。車型は、例えばミニバン、セダン、ワンボックスなどの車体のボディタイプを示す。なお、オブジェクトは、上述した人物、人物の顔、車両、車両の特徴パーツに限定されず、オートバイなどの二輪車、自転車、三輪車、キックスケーターなどの広義での移動体、さらにはその移動体の特徴パーツである。
監視カメラ1には、学習モデルが学習モデルメモリ15bに記憶されている(図2参照)。この学習モデルは、監視カメラ1に搭載されているAIの機能を特徴付けるパラメータ群である。すなわち、学習モデルは、監視カメラ1に搭載されているAIの検知対象であるオブジェクトを決定するパラメータ群である。学習モデルは、例えば、監視カメラ1のニューラルネットワークN1の構造を決定するパラメータ群であってもよい。監視カメラ1のニューラルネットワークN1の構造を決定するパラメータ群には、例えば、ニューラルネットワークN1のユニット間の接続関係を示す情報または重み係数などが含まれる。学習モデルは、端末装置(図示略)により生成されて監視カメラ1に予め記憶されている。
監視カメラ1は、検知対象となるオブジェクトごとに対応するニューラルネットワークN1を構築して、対応するオブジェクトを検知可能である。例えば、監視カメラ1は、人物を検知するためのニューラルネットワーク、人物の顔を検知するためのニューラルネットワーク、車両を検知するためのニューラルネットワーク、車両の特徴パーツを検知するためのニューラルネットワークを構築して対応するオブジェクトの検知を実行可能である。図1に示すニューラルネットワークN1は、上述した4つの例示した個々のニューラルネットワークを総称したものである。
監視カメラ1は、例えば人物の顔を検知した場合に、撮像画像から顔を切り出した顔切出し画像を生成し、ネットワークNW1を介して照合サーバ50に顔切出し画像を含む照合指示を送る。
監視カメラ1は、例えば車両のナンバープレートのナンバーを文字認識した場合に、ネットワークNW1を介して照合サーバ50にナンバーの文字認識結果を含む照合指示を送る。
照合サーバ50は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末、あるいは高性能なスペックを有するサーバコンピュータマシン等の情報処理装置である。照合サーバ50は、ネットワークNW1を介して、監視カメラ1との間でデータ通信する。
照合サーバ50は、通信IF回路51と、プロセッサ52と、メモリ53と、データベース54と、を含む構成である。なお、添付図面ではインターフェースを便宜的に「IF」と簡略して記載している。
通信IF回路51は、上述したネットワークNW1を介して、監視カメラ1との間でデータ通信する。通信IF回路51は、例えば監視カメラ1から送られた照合指示(上述参照)を受信してプロセッサ52に出力する。
プロセッサ52は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphical Processing Unit)もしくはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサ52は、照合サーバ50の全体的な動作を司るコントローラとして機能し、照合サーバ50の各部の動作を統括するための制御処理、照合サーバ50の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ52は、メモリ53に記憶されたプログラムおよびデータに従って動作する。プロセッサ52は、動作時にメモリ53を使用し、プロセッサ52が生成または取得したデータもしくは情報をメモリ53に一時的に保存する。
プロセッサ52は、通信IF回路51からの照合指示に基づいて、その照合指示に含まれる顔切出し画像あるいはナンバーの文字認識結果と同一または類似するものがデータベース54に登録されているか否かを判断する処理(つまり、照合処理)を実行する。プロセッサ52は、この照合処理を、照合処理用に作成された学習モデルを用いたAI機能により実行してもよい。これにより、プロセッサ52は、高精度な照合処理を実行できる。なお、プロセッサ52は、照合処理の結果を、ネットワークNW1を介して接続された監視カメラ1あるいは他の外部装置(例えば照合処理の依頼者が所持する端末)に応答してもよいし、モニタMN1に出力(表示)してもよい。なお、監視カメラ1から送られた顔切出し画像の照合は、照合サーバ50による照合処理により実行されてもよいし、監視カメラ1から送られた顔切出し画像を受信した受信端末(図示略)を使用する人物(例えばシステム管理者)が目視で確認することで実行されてもよい。
メモリ53は、例えばRAM(Random Access Memory)とROM(Read Only Memory)とを用いて構成され、照合サーバ50の動作の実行に必要なプログラム、更には、動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、照合サーバ50の動作時に使用されるワークメモリである。ROMは、例えば、照合サーバ50を制御するためのプログラムを予め記憶して保持する。
データベース54は、例えばHDD(Hard Disk Drive)あるいはSSD(Solid State Drive)を用いて構成される。データベース54は、照合対象となる人物の顔のブラックリストが登録された顔ブラックリストデータ(図示略)あるいは照合対象となる車両のナンバーのブラックリストが登録された車両ナンバーブラックリスト(図示略)を格納する。
モニタMN1は、例えばLCD(Liquid Crystal Display)あるいは有機EL(Electroluminescence)を用いて構成された表示デバイスである。モニタMN1は、例えば照合サーバ50で実行された照合処理の結果を表示する。なお、モニタMN1は、照合サーバ50に含まれてもよい。
操作部MH1は、例えばマウス、キーボード、タッチパッド、タッチパネルなどのユーザの入力操作を受け付ける入力デバイスである。操作部MH1は、ユーザの入力操作に対応する信号を照合サーバ50に送る。なお、操作部MH1は、照合サーバ50に含まれてもよい。
図2は、実施の形態1に係る監視カメラ1のハードウェア構成例を示すブロック図である。図2には、監視カメラ1の他に、監視カメラ1に挿抜される外部記憶媒体M1も示してある。外部記憶媒体M1は、例えばSDカード等の記憶媒体である。
図2に示すように、監視カメラ1は、レンズ11と、レンズ駆動部LM1と、撮像素子12と、メモリ13と、プロセッサ14と、AI処理部15と、通信IF回路16と、外部記憶媒体IF18と、IR照明部19と、パンチルト駆動部PTM1と、を含む構成である。
撮像部の一例としてのレンズ11は、例えばフォーカスレンズおよびズームレンズを含み、被写体により反射された光である入射光ICL1を入射して撮像素子12の受光面に被写体の光学像を結像する。レンズ11には、監視カメラ1の設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。
撮像部の一例としてのレンズ駆動部LM1は、プロセッサ14からの制御信号に基づいて、レンズ11に関するカメラパラメータ(例えばフォーカスレンズの位置、ズーム倍率に対応するズームレンズの位置)を調整するようレンズ11を駆動する。
撮像部の一例としての撮像素子12は、撮像素子12に関するカメラパラメータ(例えばシャッタ速度に対応する露光時間、ゲイン)を設定し、このカメラパラメータを用いて、受光面に受けた光を電気信号に変換するための光電変換を行う。撮像素子12は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサである。撮像素子12は、受光面に受けた光に応じた電気信号(アナログ信号)をプロセッサ14に出力する。このアナログ信号は、撮像部の一例としてのプロセッサ14により、デジタル形式の撮像画像のデータに変換される。これにより、プロセッサ14によって撮像画像のデータが生成される。
メモリ13は、例えばRAMとROMとを用いて構成され、監視カメラ1の動作の実行に必要なプログラム、更には、動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、監視カメラ1の動作時に使用されるワークメモリである。ROMは、例えば、監視カメラ1を制御するための本開示に係るプログラムを予め記憶して保持する。言い換えると、プロセッサ14は、ROMに記憶されているプログラムを実行することで、コンピュータである監視カメラ1に、本開示に係るカメラパラメータ決定方法にうる各種の処理を実行可能である。
プロセッサ14は、例えばCPU、DSP、GPUもしくはFPGAを用いて構成される。プロセッサ14は、監視カメラ1の全体的な動作を司るコントローラとして機能し、監視カメラ1の各部の動作を統括するための制御処理、監視カメラ1の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ14は、メモリ13に記憶されたプログラムおよびデータに従って動作する。プロセッサ14は、動作時にメモリ13を使用し、プロセッサ14が生成または取得したデータもしくは情報をメモリ13に一時的に保存する。
また、撮像部の一例としてのプロセッサ14は、撮像素子12から出力された電気信号に既定の信号処理を施すことで、デジタル形式の撮像画像のデータを生成してAI処理部15に出力する。この時、プロセッサ14は、信号処理に関するカメラパラメータ(例えばトーンカーブ)を調整(変更)した上で信号処理を実行することで、撮像画像のデータを生成してもよい。
また、プロセッサ14は、タイマ(図示略)を有し、タイマの出力に基づいて現在時刻を把握可能であり、夜間(言い換えると、日没付近〜明け方付近)にはIR光の照射を指示する制御信号をIR照明部19に出力する。
また、制御部の一例としてのプロセッサ14は、AI処理部15の処理結果(詳細は後述参照)に基づいて、監視カメラ1のカメラパラメータを調整(変更)するように決定する。プロセッサ14は、この決定されたカメラパラメータに調整(変更)するための制御信号を生成し、レンズ駆動部LM1、撮像素子12、プロセッサ14内の信号処理部、およびパンチルト駆動部PTM1のうち少なくとも1つに出力する。例えば、プロセッサ14は、例えば逆光などの影響により撮像画像に映っているはずのオブジェクト(例えば人物の顔)がAI処理部15において検知できない場合、AI処理部15がそのオブジェクト(例えば人物の顔)の検知精度を向上可能となるように現時点のカメラパラメータを調整(変更)する。
ここで、調整(変更)されるカメラパラメータは、例えば、レンズ11に関するカメラパラメータ(上述参照)、撮像素子12に関するカメラパラメータ(上述参照)、信号処理に関するカメラパラメータ、パン回転あるいはチルト回転に関するカメラパラメータ、IR照明部19に関するカメラパラメータである。但し、調整(変更)されるカメラパラメータは、上述したカメラパラメータに限定されないことは言うまでもない。AI処理部15の処理結果に基づくプロセッサ14によるカメラパラメータの調整(変更)の詳細については、後述する。
検知部の一例としてのAI処理部15は、人工知能を用いて、プロセッサ14から出力される撮像画像のデータの中から、検知対象となるオブジェクトを検知する。AI処理部15は、例えばCPU、DSP、GPUあるいはFPGAなどのプロセッサと、フラッシュメモリなどのメモリとを用いて構成される。AI処理部15は、AI演算処理部15aと、学習モデルメモリ15bとを有する。
AI演算処理部15aは、学習モデルメモリ15bに記憶された学習モデルに基づいたAI(人工知能)を形成する。例えば、AI演算処理部15aは、学習モデルに基づいたニューラルネットワークN1(図1参照)を形成する。AI演算処理部15aは、プロセッサ14により生成された被写体の撮像画像のデータを入力し、学習モデルに基づいたニューラルネットワークN1によって、入力された撮像画像のデータの中から、検知対象となるオブジェクトを検知する。
学習モデルメモリ15bは、例えばRAM、ROM、フラッシュメモリなどのメモリによって構成される。学習モデルメモリ15bは、予め学習処理によって作成されたオブジェクトごとの検知処理用の学習モデルを格納している。AI演算処理部15aは、学習モデルメモリ15bからオブジェクトごとの学習モデルを実行して対応するニューラルネットワークN1を形成することで、撮像画像に映るオブジェクトを検知できる。
通信部の一例としての通信IF回路16は、ネットワークNW1を介して接続された照合サーバ50との間でデータ通信(送受信)を行う。通信IF回路16は、例えばプロセッサ14により生成される照合指示(例えば、顔切出し画像と顔ブラックリストデータとの照合処理、あるいは、ナンバーの文字認識結果とナンバーブラックリストデータとの照合処理、のリクエスト)を照合サーバ50に送る。
外部記憶媒体IF18には、SDカードなどの外部記憶媒体M1が挿抜される。
IR照明部19は、プロセッサ14からの制御信号(例えばIR光の照射開始の指示)に基づいて、撮像エリアに向けて近赤外の波長帯域を有するIR光RD1の照射を開始する。IR照明部19は、プロセッサ14からの制御信号(例えばIR光RD1の照射終了の指示)に基づいて、撮像エリアへのIR光RD1の照射を終了する。また、IR照明部19は、プロセッサ14からの制御信号(例えばIR光RD1の強度の調整の指示)に基づいて、現在照射しているIR光RD1の強度を強めたりもしくは弱めたりして照射する。
パンチルト駆動部PTM1は、プロセッサ14からの制御信号に基づいて、パン回転あるいはチルト回転に関するカメラパラメータ(例えばパン回転量、チルト回転量)を調整して監視カメラ1のパン回転あるいはチルト回転もしくはその両方を実行する。
図3は、被写体として人物を例示した場合の、カメラパラメータの調整前後による撮像画像の第1の対比例を示す図である。撮像画像IMG1は、例えば建物内に入った人物PS1を被写体として監視カメラ1により撮像された画像である。監視カメラ1は、画角内の撮像エリア全体を最適に撮像するために現時点設定されているカメラパラメータに基づいて撮像された撮像画像IMG1を用いたAI処理により、人物PS1の全体枠あるいは人物PS1の肩上SD1(つまり肩甲骨より上部)の枠を検知することはできる。
ところが、撮像画像IMG1が撮像された時点のカメラパラメータの下で撮像されている状態では、例えば太陽光などの逆光の影響により人物PS1の顔FC1が暗く撮像されてしまっている。これでは、人物PS1の顔FC1が具体的に特定できず、顔照合の精度が低下する。結果として撮像エリアの監視精度が劣化する可能性が高い。なお、監視カメラ1は、顔FC1が暗く撮像されても、上述したように撮像画像IMG1の人物PS1を検知できるので顔FC1の領域の明るさ(明度)情報を取得することはできる。
そこで、実施の形態1に係る監視カメラ1では、プロセッサ14は、顔領域が明るく撮像可能となるように、顔FC1の領域の明るさ情報を用いてカメラパラメータ(例えば撮像素子12の露光時間、ゲイン、またはトーンカーブの特性)を現在値から増加あるいは鋭くなるように調整(変更)する。なお、トーンカーブとは、プロセッサ14により行われる信号処理(例えば撮像画像のデータの生成)の際に用いられ、入力の明るさの階調に対する出力の明るさの階調を規定した特性を示す。トーンカーブの特性は、例えばプロセッサ14あるいはメモリ13に保存される。
この調整(変更)後に監視カメラ1により撮像された撮像画像IMG2によれば、同一の人物PS1の顔FC2の領域が明るくなり(言い換えると、顔FC2の明度が高くなり)、照合サーバ50での顔照合(顔認識)の処理に適する程度の明るさが得られる。つまり、AI処理部15は、顔FC2を高確率に検知できる。従って、照合サーバ50で行われる顔照合の精度も向上することが期待される。また、上述した撮像画像IMG2によれば、監視カメラ1は、撮像画像IMG2中に映る人物PS1の全身あるいは肩上SD2の検知(識別)精度(例えば、顔だけでなく、性別、年齢、人相、服装などのディテールの検知精度)を向上できる。なお、AI処理部15は、顔FC2の明度が高くなっても、撮像画像IMG1と同様に人物PS1の全体枠あるいは人物PS1の肩上SD2(つまり肩甲骨より上部)の枠を検知することはできる。
図4は、被写体として人物を例示した場合の、カメラパラメータの調整前後による撮像画像の第2の対比例を示す図である。撮像画像IMG3は、例えば屋外で自転車に乗った人物PS2を被写体として監視カメラ1により撮像された画像である。監視カメラ1は、画角内の撮像エリア全体を最適に撮像するために現時点設定されているカメラパラメータ(例えば露光時間1/30[秒])に基づいて撮像する。その結果、撮像画像IMG3で示すように、画角内を移動する人物PS2の画像にはブレが生じている。しかし、ブレの度合いが軽度であればAI処理により、人物PS2の全体枠を検知することはできる。一方で、ブレが生じた画像では人物PS2の顔は検出困難である。
そこで、実施の形態1に係る監視カメラ1では、プロセッサ14は、人物PS2がブレないように撮像可能となるように、人物PS2の移動速度および移動方向を用いてカメラパラメータ(例えば撮像素子12の露光時間)を現在値(例えば1/30[秒])から他の設定値(例えば1/640[秒])に調整(変更)する。調整後の設定値は、例えばプロセッサ14あるいはメモリ13に保存される。
この調整(変更)後に監視カメラ1により撮像された撮像画像IMG4によれば、同一の人物PS2がブレることなく鮮明に撮像可能となるので、人物PS2の顔領域が鮮明になり、照合サーバ50での顔照合(顔認識)の処理に適するブレのない画像が得られる。つまり、AI処理部15は、人物PS2の顔を高確率に検知できる。なお、AI処理部15は、人物PS2の顔のブレが抑えられても、撮像画像IMG3と同様に人物PS2の全体枠を検知することはできる。
次に、実施の形態1に係る監視カメラ1の第1の動作手順例を、図4を参照して説明する。図5は、実施の形態1に係る監視カメラ1の第1の動作手順例を時系列に示すフローチャートである。第1の動作手順例では、監視カメラ1の被写体が人物であり、AI処理により人物の顔を検知可能となるようにカメラパラメータを調整(変更)する例を説明する。なお、図5の説明において調整(変更)されるカメラパラメータとして、撮像素子12の露光時間およびゲイン、トーンカーブを例示しているが、これらに限定されないことは言うまでもない。
図5において、監視カメラ1は、カメラパラメータの設定例として、撮像素子12の露光時間およびゲインのそれぞれを所定値(例えば、撮像画像全体を明るく撮像可能となるための既定の初期値)を設定する(St1)。また、監視カメラ1は、カメラパラメータの一例として、既定の特性(例えば、撮像画像全体を明るく撮像可能となるための既定の特性)を有するトーンカーブを設定する(St2)。監視カメラ1は、ステップSt1,St2のカメラパラメータの設定後、被写体(例えば人物PS1)を撮影(撮像)する。
監視カメラ1は、被写体(例えば人物PS1)の撮像画像のデータを対象としてAIによる検知処理を実行する(St3)。監視カメラ1は、AIによる検知処理により、撮像画像中に人物PS1(図3参照、例えば人物PS1の全体像)を検知したか否かを判別する(St4)。なお、この人物PS1の全体像は、監視カメラ1の取り付け位置からの画角に応じて特定される全体像でよく、人物PS1の正面視の全体像に限らず、横、斜め前方もしくは斜め後方から見た全体像であってもよい。
監視カメラ1は、撮像画像中に人物PS1(図3参照)を検知した場合(St4、YES)、検知により特定された人物PS1の検知枠(つまり、検知された人物PS1の全身あるいは肩上部の範囲を示す枠)から人物PS1の顔の位置を推定する(St5)。さらに、監視カメラ1は、推定された顔の位置から撮像画像中の顔の明るさや移動速度を特定し、顔の明るさおよび移動速度の値に基づいて、撮像素子12の設定値(例えば露光時間、ゲイン)を増加または減少するように算出して決定する(St5)。なお、ステップSt5の決定は、顔の明るさおよび移動速度の両方を用いることなく、例えば顔の明るさあるいは移動速度の一方だけを用いて決定されてもよい。なお、監視カメラ1は、この決定された設定値(カメラパラメータの一例)を撮像素子12に設定するように即刻反映してもよい(St6)。このステップSt6の処理はオプションであり省略されてもよい。省略された場合には、ステップSt5で決定された設定値は後述するステップSt7以降のステップSt1の時点で撮像素子12に設定されるように反映される。
一方、ステップSt5(あるいはステップSt6)の後または人物PS1が検知できなかった場合(St4、NO)、監視カメラ1は、AIによる検知処理により、撮像画像中に人物PS1の顔FC2(図3参照)を検知したか否かを判別する(St7)。
監視カメラ1は、撮像画像中に人物PS1の顔FC2(図3参照)を検知した場合(St7、YES)、撮像画像中の顔FC2の領域が最適となるように(例えば顔の照合処理に適する既定の明度を有するように)トーンカーブの特性を現在の特性から鋭くなるように決定する(St8)。つまり、撮像画像中で顔FC2がAIにより検知されたとしても、その顔FC2の領域の明度が照合処理に適する既定の明度を有さない場合には、後述するステップSt9の処理がフィルタリング機能を果たすことで、顔FC2の領域の明度が照合処理に適する既定の明度を有するようにトーンカーブが調整(変更)される。
さらにステップSt8の後、監視カメラ1は、AIによる検知処理による顔FC2の検知に関する顔スコア(例えば撮像画像中で検知した顔領域の顔らしさ(顔の尤度)を定量的に示す確率出力値)がしきい値以上であるか否かを判別する(St9)。しきい値は、例えば顔の照合処理に適する程の明度を有する撮像画像において顔が検知される時の確率出力値である。
監視カメラ1は、顔FC2が検知された時の顔スコアがしきい値以上であると判定した場合(St9、YES)、撮像画像中の顔FC2の領域を切り出した顔切出し画像を生成する。監視カメラ1は、この顔切出し画像のデータを含む照合指示を生成し、照合サーバ50に転送する(St10)。この後、照合サーバ50は、AIを用いた顔照合により、監視カメラ1から転送された照合指示に含まれる顔切出し画像のデータと顔ブラックリストデータとを照合する。なお、顔ブラックリストデータが監視カメラ1に格納されている場合には、顔切出し画像と顔ブラックリストデータとの照合処理は監視カメラ1によって実行されても構わない。
一方、顔FC2が検知できなかった場合(St7、NO)、ステップSt10の後または顔FC2が検知された時の顔スコアがしきい値未満であると判定された場合(St9、NO)、監視カメラ1の処理はステップSt1に戻り、以降、ステップSt1〜ステップSt10の処理がループ処理として繰り返される。なお、図5ではカメラパラメータの一例として、撮像素子12の露光時間、ゲイン、トーンカーブを例示したが、これらに限定されず、例えば監視カメラ1のパン回転、チルト回転もしくはその両方を実行したり、フォーカスレンズの位置(つまり絞り制御)、ズームレンズの位置(つまりズーム倍率制御)、IR照明部19からのIR光の強度の調整(オン、オフ、調光)を行ったりしてもよい。
このように、実施の形態1に係る監視カメラ1は、人工知能を搭載し、撮像エリアを撮像する撮像部と、人工知能を用いて、撮像エリアの撮像画像に映る人物PS1を検知する検知部と、撮像画像の人物の顔の位置を推定し、顔の明度あるいは移動速度に基づいて監視カメラ1のカメラパラメータを決定する。
これにより、監視カメラ1は、例えば太陽光の逆光などの影響により撮像エリアの画像に映る人物PS1の顔が暗くなる環境下であったり、人物が自転車もしくはバイクなどの移動物体に乗っているような動きのあるシーンであったりしても、その撮像エリアの監視精度の改善に寄与するカメラパラメータを適応的に決定できるので、人工知能(AI)による撮像画像中の検知対象となるオブジェクトの検知精度を向上できる。従って、監視カメラ1は、撮像された人物PS1の画像の画質を的確に改善して、人物PS1の顔を検知するなど撮像エリア内の監視業務の効率化を図ることができる。
また、監視カメラ1は、決定されたカメラパラメータを設定する。これにより、監視カメラ1は、検知対象となるオブジェクト(例えば人物PS1の顔)のAIによる検知精度を迅速に向上できるので、撮像画像中の検知対象となるオブジェクト(例えば人物PS1の顔)を高精度に検知できる。
また、監視カメラ1は、撮像画像に人物PS1を検知できない場合に、撮像部により撮像された撮像画像に映る人物PS1がAIにより検知可能となるようにカメラパラメータを決定して設定する。これにより、監視カメラ1は、現時点の設定されているカメラパラメータが人物PS1自体をAIでも検知できない環境下に取り付けられている場合には、少なくとも人物PS1の検知が可能となるようにカメラパラメータを調整(変更)できる。
また、カメラパラメータは、撮像部の露光時間である。監視カメラ1は、撮像部により撮像された撮像画像に映る人物PS1の顔がAIにより検知可能となるように(例えば、顔照合に適する明度やブレの度合いを有するように)露光時間を決定する。これにより、監視カメラ1は、撮像素子12から得られる撮像画像が鮮明になって被写体の特徴的な部分(例えば顔)の画質が的確に改善されるので、AIによる人物の顔の検知精度を向上できるだけでなく、照合サーバ50での顔ブラックリストデータを用いた照合処理に使える程度の明度またはブレの度合いを有する顔切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像部のゲインである。監視カメラ1は、撮像部により撮像された撮像画像に映る人物の顔がAIにより検知可能となるように(例えば、顔照合に適する明度やブレの度合いを有するように)ゲインを決定する。これにより、監視カメラ1は、撮像素子12から得られる撮像画像の明度が相対的に高くなって被写体の特徴的な部分(例えば顔)の画質が的確に改善されるので、AIによる人物の顔の検知精度を向上できるだけでなく、照合サーバ50での顔ブラックリストデータを用いた照合処理に使える程度の明度またはブレの度合いを有する顔切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像画像の生成に用いられるトーンカーブである。監視カメラ1は、撮像部により撮像された撮像画像に映る人物PS1の顔がAIにより検知可能となるように(例えば、顔照合に適する明度やブレの度合いを有するように)トーンカーブを決定する。これにより、監視カメラ1は、プロセッサ14により生成された撮像画像の明度が相対的に高くなって被写体の特徴的な部分(例えば顔)の画質が的確に改善されるので、AIによる人物の顔の検知精度を向上できるだけでなく、照合サーバ50での顔ブラックリストデータを用いた照合処理に使える程度の明度またはブレの度合いを有する顔切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像部のパン回転およびチルト回転のうち少なくとも1つの回転量である。監視カメラ1は、撮像部により撮像された撮像画像に映る人物PS1の顔がAIにより検知可能となるように回転量を決定する。これにより、監視カメラ1は、画角内に人物の顔が適切に含まれるようになり、AIによる人物の顔の検知精度を的確に向上できる。さらに、監視カメラ1は、照合サーバ50での顔ブラックリストデータを用いた照合処理に使える程度の解像度を有する顔切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像部のズーム倍率である。監視カメラ1は、撮像部により撮像された撮像画像に映る人物PS1の顔がAIにより検知可能となるように、ズーム倍率を決定する。これにより、監視カメラ1は、撮像画像中における人物PS1の顔の占める割合が少なくても、ズーム倍率を上げてズームアップすることで人物の顔をAIによって高精度に検知できる。さらに、監視カメラ1は、照合サーバ50での顔ブラックリストデータを用いた照合処理に使える程度の解像度を有する顔切出し画像を高精度に生成できる。
また、監視カメラ1は、カメラパラメータが設定された後に撮像部により撮像された撮像画像に人物の顔がAIにより検知されかつ顔の検知スコア(例えば顔スコア)がしきい値以上となる場合、撮像画像から顔を切り出した顔切出し画像を、監視カメラ1と通信可能に接続される顔照合サーバ(例えば照合サーバ50)に送る。これにより、監視カメラ1は、撮像エリアに進入した人物の顔を切り出した顔切出し画像を生成でき、この顔切出し画像の顔が顔ブラックリストデータに登録されている不審人物の顔であるか否かを照合サーバ50に判定要求することができる。従って、撮像エリアの監視精度が的確に向上する。
図6は、被写体として車両を例示した場合の、カメラパラメータの調整前後による撮像画像の対比例を示す図である。撮像画像IMG5は、例えば夜間の道路脇に設置された監視カメラ1が撮像エリア内に進入した車両VCL1を被写体として撮像された画像である。監視カメラ1は、画角内の撮像エリア全体を最適に撮像するために現時点設定されているカメラパラメータに基づいて撮像された撮像画像IMG5を用いたAI処理により、車両VCL1のシルエット(つまりぼんやりとした全体枠)を検知することはできる。
ところが、撮像画像IMG5が撮像された時点のカメラパラメータの下で撮像されている状態では、例えば夜間の後続車、対向車あるいは自車のヘッドライトなどの影響により車両VCL1の後方側のナンバープレートおよびその周囲が白飛びしてしまう、もしくは走行中の車両VCL1がブレて撮影されることにより、ナンバーだけでなく車両VCL1の詳細をAIにより検知することが困難な状況となることが考えられる。このようなケースのとき、人の目では車の車型、車色を認識できても、監視カメラ1内のAI処理では車両VCL1のナンバー、車型、車色などの車両VCL1に特有の特徴パーツを高精度に検知できず、撮像エリアの監視精度が劣化する可能性が高い。
そこで、実施の形態1に係る監視カメラ1では、プロセッサ14は、先ずナンバーなどのかなり詳細な部分的な特徴パーツよりも優先的に車両VCL1全体の外観的な特徴パーツを高精度に撮像可能となるように、カメラパラメータ(例えば撮像素子12の露光時間、ゲイン、トーンカーブの特性)を現在値から増加あるいは鋭くなるように調整(変更)する。この調整後のカメラパラメータは撮像素子12に設定されたり、プロセッサ14あるいはメモリ13に保存されたりする。
この調整(変更)後に監視カメラ1により撮像された撮像画像IMG6によれば、同一の車両VCL1全体の外観(外形)の領域が明るくなり、車両VCL1の外観的な特徴パーツとして、監視カメラ1は、撮像画像IMG6から、AI処理によって車両VCL1の車型(例えばミニバン)および車色(例えばピンク)を判別可能となる。つまり、AI処理部15は、車両VCL1の車型および車色を高確率に検知できる。
次に、プロセッサ14は、車両VCL1のナンバープレートあるいはエンブレム(ここでは、ナンバープレートを例示)などの部分的な特徴パーツを高精度に撮像可能となるように、カメラパラメータ(例えばズーム倍率に対応するズームレンズの位置)を現在値からズームアップするように調整(変更)する。この調整後のカメラパラメータはレンズ駆動部LM1、プロセッサ14あるいはメモリ13に保存される。これにより、監視カメラ1は、撮像画像IMG6を撮像した時点に比べて、車両VCL1のナンバープレートが撮像画像の中心となるようにズームアップの処理を行った上で撮像を行うことができる。
このズームアップの処理後に監視カメラ1により撮像された撮像画像IMG7によれば、同一の車両VCL1のナンバープレートの領域が明るくかつ拡大して映るようになり、車両VCL1の部分的な特徴パーツとして、監視カメラ1は、AIによる撮像画像IMG7から、車両VCL1のナンバープレート(例えば、品川306、ほ、14−71)を判別可能となる。つまり、AI処理部15は、車両VCL1の車型および車色に続けて、車両VCL1のナンバーを段階的に高確率に検知できる。
次に、実施の形態1に係る監視カメラ1の第1の動作手順例を、図7を参照して説明する。図7は、実施の形態1に係る監視カメラ1の第2の動作手順例を時系列に示すフローチャートである。第2の動作手順例では、監視カメラ1の被写体が車両であり、AI処理により車両の特徴パーツ(例えば、車型および車色、ナンバーの順)を段階的に検知可能となるようにカメラパラメータを調整(変更)する例を説明する。なお、図7の説明において調整(変更)されるカメラパラメータとして、撮像素子12の露光時間およびゲイン、トーンカーブ、パン回転量、チルト回転量、ズームレンズの位置(言い換えると、ズーム倍率)を例示しているが、これらに限定されないことは言うまでもない。また、図7の説明では、図4の説明と重複する処理の説明については同一のステップ番号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。
図7において、監視カメラ1は、ステップSt1,St2の後、カメラパラメータの設定例として、パン回転量、チルト回転量およびズーム倍率のうち少なくとも1つの設定を反映するためにPTZ(Pan Tilt Zoom)制御を実行する(St11)。ステップSt1,St2,St11のカメラパラメータの設定後、監視カメラ1は、被写体(例えば車両VCL1)を撮影(撮像)する。なお、監視カメラ1は、ステップSt11の処理をオプションとすることが可能であり、必ずしもPTZ制御を実行する必要は無く、PTZ制御に関するカメラパラメータの変更があった場合に実行してもよい。
監視カメラ1は、被写体(例えば車両VCL1)の撮像画像のデータを対象としてAIによる検知処理を実行する(St3)。監視カメラ1は、AIによる検知処理により、撮像画像中に車両VCL1(図6参照、例えば車両VCL1の全体像もしくは車両VLC1の一部)を検知したか否かを判別する(St12)。なお、この車両VCL1の全体像は、監視カメラ1の取り付け位置からの画角に応じて特定される全体像もしくは一部でよく、車両VCL1の正面視の全体像に限らず、横、斜め前方もしくは斜め後方から見た全体像もしくは一部であってもよい。
監視カメラ1は、撮像画像中に車両VCL1(図6参照)を検知した場合(St12、YES)、撮像画像中の車両VCL1のヘッドライトの点灯の有無およびヘッドライト部分の明るさ、あるいは車両VCL1の移動速度に基づいて、撮像素子12の設定値(例えば露光時間、ゲイン)を増加もしくは減少するように算出して決定する(St13)。なお、監視カメラ1は、この決定された設定値(カメラパラメータの一例)を撮像素子12に設定するように即刻反映してもよい(St6)。このステップSt6の処理はオプションであり省略されてもよい。省略された場合には、ステップSt12で決定された設定値は後述するステップSt14以降のステップSt1の時点で撮像素子12に設定されるように反映される。
一方、ステップSt13(あるいはステップSt6)の後または車両VCL1が検知できなかった場合(St12、NO)、監視カメラ1は、AIによる検知処理により、撮像画像中に車両VCL1の車型および車色(図6参照)を識別出来たか否かを判別する(St14)。なお、ステップSt14では車型および車色の識別の有無が判断されているが、車型あるいは車色のいずれかだけの識別の有無が判断されてもよい。
監視カメラ1は、撮像画像中に車両VCL1の車型および車色(図6参照)を識別した場合(St14、YES)、AIによる検知処理(識別処理)によりナンバープレートを検知できたか否かを判別する(St15)。
監視カメラ1は、車両VCL1のナンバーを検知した場合には(St15、YES)、撮像画像中のナンバーの部分を切り出したナンバー切出し画像を生成する。監視カメラ1はナンバー切出し画像を含む照合指示を生成し、照合サーバ50に転送する(St16)。この後、照合サーバ50は、AIを用いた文字認識処理、ナンバー切出し画像のデータとナンバーブラックリストデータと照合を行う。なお、文字認識処理および照合処理のうち少なくとも1つは監視カメラ1(例えば、文字認識部および照合部の一例としてのプロセッサ14)によって実行されてもかまわない。
一方、車両VCL1のナンバーを検知できなかった場合(St15、NO)、監視カメラ1は、検出した車両VCL1のサイズに基づき、画面内のナンバープレートの大きさがナンバー認識に適した大きさとなるように、レンズのズーム倍率や、パン回転量、チルト回転量を算出する(St17)。なお、監視カメラ1は、この決定された設定値をPTZ制御に即刻反映してもよい(St18)。このステップSt18の処理は、オプションであり省略されてもよい。省略された場合には、ステップSt17で決定された設定値は以降のステップSt11の時点でレンズ駆動部LM1、パンチルト駆動部PTM1に設定されるように反映される。このナンバープレート部分のズームアップ処理で次回以降に撮像されて入力される撮像画像のフレームを対象としたナンバープレートの検出確率が向上することが期待される。
ステップSt16の後、ステップSt17(あるいはステップSt18)の後または車型および車色の両方が検知されなかったと判定された場合(St14、NO)、監視カメラ1の処理はステップSt1に戻り、以降、ステップSt1〜ステップSt18の処理がループ処理として繰り返される。なお、図7ではカメラパラメータの一例として、撮像素子12の露光時間、ゲイン、トーンカーブ、パン回転量、チルト回転量、ズームレンズの位置を例示したが、これらに限定されず、例えばフォーカスレンズの位置(つまり絞り制御)、IR照明部19からのIR光の強度の調整(オン、オフ、調光)を行ったりしてもよい。
以上により、実施の形態1に係る監視カメラ1は、人工知能を搭載し、撮像エリアを撮像する撮像部と、人工知能を用いて、撮像エリアの撮像画像に映る車両VCL1を検知する検知部と、撮像画像の車両VCL1の明度(例えばヘッドライトの点灯の有無、ヘッドライトが点灯している時のヘッドライト部分の明るさ)あるいは移動速度に基づいて、監視カメラ1のカメラパラメータを決定する。
これにより、監視カメラ1は、例えば夜間の後続車、対向車あるいは自車のヘッドライトなどの影響により撮像エリアの画像に映る車両VCL1の特徴パーツが暗くなる環境下や、車両が撮像画像の画面上で移動することによりブレが生じるような環境下であっても、その撮像エリアの監視精度の改善に寄与するカメラパラメータを適応的に決定できるので、人工知能(AI)による撮像画像中の検知対象となるオブジェクトの検知精度を向上できる。従って、監視カメラ1は、撮像された車両VCL1の画像の画質を的確に改善して、車両VCL1の車型および車色を少なくとも検知するなど撮像エリア内の監視業務の効率化を図ることができる。
また、監視カメラ1は、決定されたカメラパラメータを設定する。これにより、監視カメラ1は、検知対象となるオブジェクト(例えば車両VCL1の車型および車色、ナンバー)のAIによる検知精度を迅速に向上できるので、撮像画像中の検知対象となるオブジェクト(例えば車両VCL1の車型および車色、ナンバー)を高精度に検知できる。
また、監視カメラ1は、撮像画像に車両VCL1を検知できない場合に、撮像部により撮像された撮像画像に映る車両VCL1がAIにより検知可能となるようにカメラパラメータを決定して設定する。これにより、監視カメラ1は、現時点の設定されているカメラパラメータが車両VCL1自体をAIでも検知できない環境下に取り付けられている場合には、少なくとも車両VCL1の検知が可能となるようにカメラパラメータを調整(変更)できる。
また、カメラパラメータは、撮像部の露光時間である。監視カメラ1は、撮像部により撮像された撮像画像に映る車両VCL1の車型、車色、車種あるいはナンバープレートがAIにより検知可能となるように露光時間を決定する。これにより、監視カメラ1は、撮像素子12から得られる撮像画像が鮮明になって被写体の特徴的な部分(例えば車型、車色、車種、ナンバー)の画質が的確に改善されるので、AIによる車両の特徴パーツの検知精度を向上できるだけでなく、照合サーバ50でのナンバーブラックリストデータを用いた照合処理に使える程度の明度を有するナンバー切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像部のゲインである。監視カメラ1は、撮像部により撮像された撮像画像に映る車両VCL1の車型、車色、車種あるいはナンバープレートがAIにより検知可能となるようにゲインを決定する。これにより、監視カメラ1は、撮像素子12から得られる撮像画像の明度が相対的に高くなって被写体の特徴的な部分(例えば車型、車色、車種、ナンバー)の画質が的確に改善されるので、AIによる車両の特徴パーツの検知精度を向上できるだけでなく、照合サーバ50でのナンバーブラックリストデータを用いた照合処理に使える程度の明度を有するナンバー切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像画像の生成に用いられるトーンカーブである。監視カメラ1は、撮像部により撮像された撮像画像に映る車両VCL1の車型、車色、車種あるいはナンバープレートがAIにより検知可能となるようにトーンカーブを決定する。これにより、監視カメラ1は、プロセッサ14から生成された撮像画像の明度が相対的に高くなって被写体の特徴的な部分(例えば車型、車色、車種、ナンバー)の画質が的確に改善されるので、AIによる車両の特徴パーツの検知精度を向上できるだけでなく、照合サーバ50でのナンバーブラックリストデータを用いた照合処理に使える程度の明度を有するナンバー切出し画像を高精度に生成できる。
また、カメラパラメータは、撮像部のパン回転およびチルト回転のうち少なくとも1つの回転量である。監視カメラ1は、撮像部により撮像された撮像画像に映る車両VCL1の車型、車色、車種あるいはナンバープレートがAIにより検知可能となるように回転量を決定する。これにより、監視カメラ1は、画角内に車両が適切に含まれ、車両の特徴パーツ(例えば車型、車色、車種、ナンバー)のAIによる検知精度を的確に向上できる。
また、カメラパラメータは、撮像部のズーム倍率である。監視カメラ1は、撮像部により撮像された撮像画像に映る車両VCL1の車型、車色、車種あるいはナンバープレートがAIにより検知可能となるようにズーム倍率を決定する。これにより、監視カメラ1は、撮像画像中における車両VCL1の占める割合が少なくても、ズーム倍率を上げてズームアップすることで車両VCL1の特徴パーツ(例えば車型、車色、車種、ナンバー)をAIによって高精度に検知できる。
また、監視カメラ1は、カメラパラメータが設定された後に撮像部により撮像された撮像画像に車両VCL1の車型あるいは車色と車両VCL1のナンバーとがAIにより検知された場合、ナンバーの文字認識およびナンバープレートのブラックリストとの照合をプロセッサ14において行う。これにより、監視カメラ1は、車両VCL1の特徴パーツを車型および車色、ナンバーの順に段階的に検知できたことで車両VCL1の所有者を照合するためのナンバー切出し画像を生成でき、照合結果に基づいて撮像エリアに進入した車両VCL1の詳細を細かく監視者に通知させることができる。また、監視カメラ1は、車両VCL1の特徴パーツを車型および車色、ナンバーの順に段階的に検知できたことで車両VCL1の所有者を照合サーバ50に照会するためのナンバー切出し画像を生成でき、撮像エリアに進入した車両VCL1の詳細を細かく監視者に通知させることができる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、撮像エリアの画像に映る人物の顔あるいは車両の特徴パーツの監視精度の改善に寄与するカメラパラメータを適応的に決定し、画像の画質を的確に改善して監視業務の効率化を図る監視カメラ、パラメータ決定方法およびプログラムとして有用である。
1 監視カメラ
11 レンズ
12 撮像素子
13、53 メモリ
14、52 プロセッサ
15 AI処理部
15a AI演算処理部
15b 学習モデルメモリ
16、51 通信IF回路
18 外部記憶媒体IF
19 IR照明部
50 照合サーバ
54 データベース
100 監視カメラシステム
LM1 レンズ駆動部
M1 外部記憶媒体
PTM1 パンチルト駆動部

Claims (22)

  1. 人工知能を搭載する監視カメラであって、
    撮像エリアを撮像する撮像部と、
    前記人工知能を用いて、前記撮像エリアの撮像画像に映る人物を検知する検知部と、
    前記撮像画像の前記人物の顔の位置を推定し、前記顔の明度あるいは移動速度に基づいて前記監視カメラのカメラパラメータを決定する制御部と、を備える、
    監視カメラ。
  2. 前記制御部は、前記カメラパラメータを設定する、
    請求項1に記載の監視カメラ。
  3. 前記制御部は、前記撮像画像に前記人物を検知できない場合に、前記撮像部により撮像された撮像画像に映る人物が前記検知部により検知可能となるように前記カメラパラメータを決定して設定する、
    請求項1に記載の監視カメラ。
  4. 前記カメラパラメータは、前記撮像部の露光時間であり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る人物の顔が前記検知部により検知可能となるように前記露光時間を決定する、
    請求項1に記載の監視カメラ。
  5. 前記カメラパラメータは、前記撮像部のゲインであり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る人物の顔が前記検知部により検知可能となるように前記ゲインを決定する、
    請求項1に記載の監視カメラ。
  6. 前記カメラパラメータは、前記撮像画像の生成に用いられるトーンカーブであり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る人物の顔が前記検知部により検知可能となるように前記トーンカーブを決定する、
    請求項1に記載の監視カメラ。
  7. 前記カメラパラメータは、前記撮像部のパン回転およびチルト回転のうち少なくとも1つの回転量であり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る人物の顔が前記検知部により検知可能となるように前記回転量を決定する、
    請求項1に記載の監視カメラ。
  8. 前記カメラパラメータは、前記撮像部のズーム倍率であり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る人物の顔が前記検知部により検知可能となるように前記ズーム倍率を決定する、
    請求項1に記載の監視カメラ。
  9. 前記カメラパラメータが設定された後に前記撮像部により撮像された撮像画像に前記人物の顔が前記検知部により検知されかつ前記顔の検知スコアが閾値以上となる場合、前記撮像画像から前記顔を切り出した顔切出し画像を、前記監視カメラと通信可能に接続される顔照合サーバに送る通信部、をさらに備える、
    請求項1に記載の監視カメラ。
  10. 人工知能を搭載する監視カメラにより実行されるカメラパラメータ決定方法であって、
    撮像エリアを撮像するステップと、
    前記人工知能を用いて、前記撮像エリアの撮像画像に映る人物を検知するステップと、
    前記撮像画像の前記人物の顔の位置を推定し、前記顔の明度あるいは移動速度に基づいて前記監視カメラのカメラパラメータを決定するステップと、を有する、
    カメラパラメータ決定方法。
  11. コンピュータである、人工知能を搭載する監視カメラに、
    撮像エリアを撮像するステップと、
    前記人工知能を用いて、前記撮像エリアの撮像画像に映る人物を検知するステップと、
    前記撮像画像の前記人物の顔の位置を推定し、前記顔の明度あるいは移動速度に基づいて前記監視カメラのカメラパラメータを決定するステップと、を実行させるための、
    プログラム。
  12. 人工知能を搭載する監視カメラであって、
    撮像エリアを撮像する撮像部と、
    前記人工知能を用いて、前記撮像エリアの撮像画像に映る車両を検知する検知部と、
    前記撮像画像の前記車両の明度あるいは移動速度に基づいて、前記監視カメラのカメラパラメータを決定する制御部と、を備える、
    監視カメラ。
  13. 前記制御部は、前記カメラパラメータを設定する、
    請求項12に記載の監視カメラ。
  14. 前記制御部は、前記撮像画像に前記車両を検知できない場合に、前記撮像部により撮像された撮像画像に映る車両が前記検知部により検知可能となるように前記カメラパラメータを決定して設定する、
    請求項12に記載の監視カメラ。
  15. 前記カメラパラメータは、前記撮像部の露光時間であり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る車両の車型、車色、車種あるいはナンバープレートが前記検知部により検知可能となるように前記露光時間を決定する、
    請求項12に記載の監視カメラ。
  16. 前記カメラパラメータは、前記撮像部のゲインであり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る車型、車色、車種あるいはナンバープレートが前記検知部により検知可能となるように前記ゲインを決定する、
    請求項12に記載の監視カメラ。
  17. 前記カメラパラメータは、前記撮像画像の生成に用いられるトーンカーブであり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る車型、車色、車種あるいはナンバープレートが前記検知部により検知可能となるように前記トーンカーブを決定する、
    請求項12に記載の監視カメラ。
  18. 前記カメラパラメータは、前記撮像部のパン回転およびチルト回転のうち少なくとも1つの回転量であり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る車両の車型、車色、車種あるいはナンバープレートが前記検知部により検知可能となるように前記回転量を決定する、
    請求項12に記載の監視カメラ。
  19. 前記カメラパラメータは、前記撮像部のズーム倍率であり、
    前記制御部は、前記撮像部により撮像された撮像画像に映る車両の車型、車色、車種あるいはナンバープレートが前記検知部により検知可能となるように前記ズーム倍率を決定する、
    請求項12に記載の監視カメラ。
  20. 前記カメラパラメータが設定された後に前記撮像部により撮像された撮像画像に前記車両の車型あるいは車色と前記車両のナンバーとが前記検知部により検知された場合、前記ナンバーの文字認識およびナンバープレートのブラックリストとの照合を行う文字認識部、をさらに備える、
    請求項15〜19のうちいずれか一項に記載の監視カメラ。
  21. 人工知能を搭載する監視カメラにより実行されるカメラパラメータ決定方法であって、
    撮像エリアを撮像するステップと、
    前記人工知能を用いて、前記撮像エリアの撮像画像に映る車両を検知するステップと、
    前記撮像画像の前記車両の明度あるいは移動速度に基づいて、前記監視カメラのパラメータを決定するステップと、を有する、
    カメラパラメータ決定方法。
  22. コンピュータである、人工知能を搭載する監視カメラに、
    撮像エリアを撮像するステップと、
    前記人工知能を用いて、前記撮像エリアの撮像画像に映る車両を検知するステップと、
    前記撮像画像の前記車両の明度あるいは移動速度に基づいて、前記監視カメラのカメラパラメータを決定するステップと、を実行させるための、
    プログラム。
JP2020011726A 2020-01-28 2020-01-28 監視カメラ、カメラパラメータ決定方法およびプログラム Pending JP2021118478A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020011726A JP2021118478A (ja) 2020-01-28 2020-01-28 監視カメラ、カメラパラメータ決定方法およびプログラム
US17/159,914 US11665322B2 (en) 2020-01-28 2021-01-27 Monitoring camera, camera parameter determining method and storage medium
US18/135,393 US20230254456A1 (en) 2020-01-28 2023-04-17 Monitoring camera, camera parameter determining method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020011726A JP2021118478A (ja) 2020-01-28 2020-01-28 監視カメラ、カメラパラメータ決定方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2021118478A true JP2021118478A (ja) 2021-08-10

Family

ID=76970593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020011726A Pending JP2021118478A (ja) 2020-01-28 2020-01-28 監視カメラ、カメラパラメータ決定方法およびプログラム

Country Status (2)

Country Link
US (2) US11665322B2 (ja)
JP (1) JP2021118478A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113411476A (zh) * 2021-06-10 2021-09-17 蔚来汽车科技(安徽)有限公司 图像传感器控制装置、方法、存储介质和可移动对象

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
JP5244580B2 (ja) * 2008-12-25 2013-07-24 京セラドキュメントソリューションズ株式会社 電子機器
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
JP5005731B2 (ja) 2009-05-25 2012-08-22 パナソニック株式会社 カメラ装置および露光制御方法
TW201137765A (en) * 2010-04-29 2011-11-01 Hon Hai Prec Ind Co Ltd Image capturing device and method for obtaining clear images using the image capturing device
JP5375814B2 (ja) * 2010-12-22 2013-12-25 株式会社デンソー 露出制御装置
JP5366028B2 (ja) * 2011-08-25 2013-12-11 株式会社デンソー 顔画像撮像装置
PT2565860E (pt) * 2011-08-30 2014-04-11 Kapsch Trafficcom Ag Dispositivo e método para detectar painéis de identificação de veículo
US8750564B2 (en) * 2011-12-08 2014-06-10 Palo Alto Research Center Incorporated Changing parameters of sequential video frames to detect different types of objects
JP6024952B2 (ja) 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
JP5962916B2 (ja) 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 映像監視システム
JP6319545B2 (ja) 2013-03-15 2018-05-09 パナソニックIpマネジメント株式会社 画像符号化装置、撮影システム、撮影記録システム、画質符号化方法、及び画像符号化制御プログラム
TW201445454A (zh) * 2013-05-22 2014-12-01 Asustek Comp Inc 提升人臉辨識率的影像處理系統及影像處理方法
JP2015022658A (ja) * 2013-07-22 2015-02-02 株式会社東芝 車両監視装置、および車両監視方法
JP2016220056A (ja) * 2015-05-21 2016-12-22 株式会社デンソー 画像生成装置
US9729782B2 (en) * 2015-06-05 2017-08-08 Digital Signal Corporation System and method for intelligent camera control
WO2016199192A1 (ja) 2015-06-08 2016-12-15 株式会社アシストユウ 人工知能を備えた移動式遠隔監視カメラ
KR102519662B1 (ko) * 2017-07-31 2023-04-07 삼성전자주식회사 영상 획득 방법 및 영상 획득 장치
JP7148878B2 (ja) 2017-12-18 2022-10-06 i-PRO株式会社 動画像符号化システム及び動画像符号化方法
US10691957B2 (en) * 2018-02-12 2020-06-23 ITS Plus, Inc. Method for increasing the accuracy of traffic cameras using optical masking technology
US10950104B2 (en) 2019-01-16 2021-03-16 PANASONIC l-PRO SENSING SOLUTIONS CO., LTD. Monitoring camera and detection method
US11155209B2 (en) * 2019-08-22 2021-10-26 Micron Technology, Inc. Virtual mirror with automatic zoom based on vehicle sensors
KR20210052634A (ko) * 2019-10-29 2021-05-11 엘지전자 주식회사 운전자의 부주의를 판단하는 인공 지능 장치 및 그 방법

Also Published As

Publication number Publication date
US11665322B2 (en) 2023-05-30
US20210235005A1 (en) 2021-07-29
US20230254456A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
US20210217212A1 (en) Method and system for automatically colorizing night-vision images
JP5212927B2 (ja) 顔撮影システム
JP5437855B2 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
KR101367637B1 (ko) 감시장치
JP5071198B2 (ja) 信号機認識装置,信号機認識方法および信号機認識プログラム
CN106791475A (zh) 曝光调整方法及所适用的车载摄像装置
WO2021073140A1 (zh) 单目摄像机、图像处理系统以及图像处理方法
JP2007304407A (ja) 車載カメラ用自動露出装置および車載カメラ用自動露出方法
KR101625538B1 (ko) 도시방범이 가능한 다차선 자동차 번호판 인식시스템
CN103297675A (zh) 图像提取方法与相关图像提取系统
US20210264777A1 (en) Infringement detection method, device and system
US11113798B2 (en) Collating system, collating method, and camera device
US20230254456A1 (en) Monitoring camera, camera parameter determining method and storage medium
CN110572583A (zh) 拍摄图像的方法及摄像机
JP4798945B2 (ja) 撮像装置
JP5256060B2 (ja) 撮像装置
JP4668863B2 (ja) 撮像装置
CN111824043A (zh) 汽车显示屏控制系统和方法以及包括该系统的车辆
WO2022137928A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2019215661A (ja) 画質調整システムおよび画質調整方法
JP2019205034A (ja) 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム
JP6584103B2 (ja) 撮像装置
CN107948620B (zh) 基于高级驾驶辅助系统的双目摄像头调试方法
JP2005333248A (ja) カメラ式車両感知器における画面の輝度調整方法及び装置
JP2001169270A (ja) 画像監視装置及び画像監視方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313