JP6904757B2 - Camera system - Google Patents
Camera system Download PDFInfo
- Publication number
- JP6904757B2 JP6904757B2 JP2017073640A JP2017073640A JP6904757B2 JP 6904757 B2 JP6904757 B2 JP 6904757B2 JP 2017073640 A JP2017073640 A JP 2017073640A JP 2017073640 A JP2017073640 A JP 2017073640A JP 6904757 B2 JP6904757 B2 JP 6904757B2
- Authority
- JP
- Japan
- Prior art keywords
- video signal
- camera
- receiving unit
- color
- reconstruction device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、カメラ本体と受信ユニットからなるカメラシステムに関するものである。 The present invention relates to a camera system including a camera body and a receiving unit.
従来のカメラシステムの概要を図1〜図3で示す。
監視カメラ101は撮像素子から出力される画像信号に信号処理を施して、映像信号を出力している。映像信号処理部16には、蓄積処理部37、ゲインアップ器31、γ補正35、ニー処理器33、色補正器(マスキング)32、エンハンサ34、WDR(ワイドダイナミックレンジ)、霧霞補正器(DEFOG)39、DNR(デジタルノイズリダクション)処理器36、電子ズームなどがある。受信ユニット102はカメラから、HD-VLC(商標)またはHD-SDI(High Definition-Serial Digital Interface)等の圧縮/非圧縮映像信号を受信し、様々なモニタや記録装置に接続できるようにフォーマット変換を行い、VBS(Video(映像信号)、Burst(カラーバースト信号)、Sync(同期信号))出力、DVI-D出力、アナログRGB(Red, Green, Blue)出力、HD-SDI出力できるようになっている。
The outline of the conventional camera system is shown in FIGS. 1 to 3.
The
監視カメラ101と受信ユニット102による構成の最大のメリットは、カメラからHD-VLC圧縮伝送方式で出力し、受信ユニットでHD-SDI信号に復元することで、最大300mの同軸ケーブル103で伝送できることにある。これにより既設の同軸ケーブルを使用してアナログカメラからHD-SDIカメラへのカメラ変更が可能となった。また、従来の監視カメラ101と受信ユニット102には映像信号処理を行うためにFPGA(Field Programmable Gate Array)12,22を搭載している。動的再構成デバイスの一種であるFPGAのメリットは、信号処理のカスタマイズが容易に行えることで、機能追加などの要望にすぐ対応することが可能である。その反面デメリットは市販品の信号処理LSIチップ(SoC)に比べると消費電力が大きく、機能追加などでさらに消費電力が上がり、それに伴いカメラ本体の温度が上昇してしまう点である。
The biggest merit of the configuration consisting of the
従来はカメラ単体のみで様々な機能を満足するように機能追加などを行ってきたため、カメラの消費電力増加に伴う本体の温度上昇を避けられなかった。
そこで、カメラと受信ユニットをセット構成にすることで、カメラのみに機能を追加する必要はなく、受信ユニット側に機能を追加することでカメラの消費電力を抑えることが可能になる(例えば特許文献1乃至3参照)。
In the past, functions were added to satisfy various functions with the camera alone, so it was unavoidable that the temperature of the main unit would rise as the power consumption of the camera increased.
Therefore, it is not necessary to add a function only to the camera by forming a set of the camera and the receiving unit, and it is possible to reduce the power consumption of the camera by adding the function to the receiving unit side (for example, Patent Document). 1 to 3).
しかしながら、組み合わせるカメラと受信ユニットが固定ではない場合、組合せによっては機能の重複または不足が生じうる。機能が重複していても、一方の機能を停止させれば問題は無いが、それはハードウェアのリソースを有効に利用できていないことを意味する。
またユーザが求める画像処理は多様であり、カメラと受信ユニットのセット構成にしたとしても、実行可能な処理が不足する可能性がある。需要に応じて様々な機能に対応しようとすると、カメラ側で行うべき処理の種類が増え、多くの機種を用意しなければならないという問題がある。
However, if the camera to be combined and the receiving unit are not fixed, duplication or lack of functions may occur depending on the combination. Even if the functions are duplicated, there is no problem if one of the functions is stopped, but that means that the hardware resources are not being used effectively.
Further, the image processing required by the user is various, and even if the camera and the receiving unit are configured as a set, there is a possibility that the processing that can be executed is insufficient. When trying to support various functions according to demand, there is a problem that the types of processing to be performed on the camera side increase and many models must be prepared.
本発明の目的は、上記問題点に鑑み、必要な機能をカメラもしくは受信ユニットに適切に追加することができるカメラシステムを提供することにある。 An object of the present invention is to provide a camera system capable of appropriately adding necessary functions to a camera or a receiving unit in view of the above problems.
本発明のカメラシステムは、カメラと受信ユニットを同軸ケーブルで接続するカメラシステムであって、監視カメラは撮像素子から出力された信号を映像信号処理する第1動的再構成デバイスと、第1動的再構成デバイスの構成を設定する第1コンフィギュレーションデータを保持する第1不揮発メモリと、第1コンフィギュレーションデータを第1動的再構成デバイスへロードするとともに、ロードすることによって設定された第1動的再構成デバイスが行う映像信号処理を特定可能な情報がケーブルから出力されるように制御する第1CPUとを有し、受信ユニットは監視カメラから出力されケーブルを介して受信した映像信号を映像信号処理する第2動的再構成デバイスと、第2動的再構成デバイスの構成を設定する複数の第2コンフィギュレーションデータを保持する第2不揮発メモリと、監視カメラから出力された特定可能な情報に基づいて、複数の第2コンフィギュレーションデータからロードすべきものを選択してロードする第2CPUとを有し、受信ユニットから出力する所定形式の映像信号は第1動的再構成デバイスと第2動的再構成デバイスとによって分担された映像信号処理を受けた信号であることを特徴とする。 The camera system of the present invention is a camera system that connects a camera and a receiving unit with a coaxial cable, and the surveillance camera is a first dynamic reconstruction device that processes a signal output from an image pickup element and a first operation. The first non-volatile memory that holds the first configuration data that sets the configuration of the target reconfiguration device, and the first that is set by loading and loading the first configuration data into the first dynamic reconfiguration device. It has a first CPU that controls the video signal processing performed by the dynamic reconstruction device so that identifiable information is output from the cable, and the receiving unit outputs the video signal output from the surveillance camera and receives the video signal via the cable. A second dynamic reconfiguration device that processes signals, a second non-volatile memory that holds multiple second configuration data that sets the configuration of the second dynamic reconfiguration device, and identifiable information output from the surveillance camera. It has a second CPU that selects and loads what should be loaded from a plurality of second configuration data based on the above, and the video signal of a predetermined format output from the receiving unit is the first dynamic reconstruction device and the second operation. It is characterized in that it is a signal that has undergone video signal processing shared by the target reconstruction device.
また、受信ユニットはメモリを有し、第2動的再構成デバイスはメモリを用いて、フレーム間演算を伴う映像信号処理を行う一方、第1動的再構成デバイスはフレーム間演算を伴う映像信号処理を行わないことが好ましい。 Further, the receiving unit has a memory, and the second dynamic reconstruction device uses the memory to perform video signal processing accompanied by inter-frame calculation, while the first dynamic reconstruction device performs video signal processing accompanied by inter-frame calculation. It is preferable not to perform the treatment.
さらに、第1動的再構成デバイスは入力された4色以上の映像信号を、3色の映像信号に変換する第1色補正器を有し、受信ユニットは色補正器で補正された映像に映った所定の被写体を学習し認識する人工知能を有し、色補正器はクラスタリング器、マッピングテーブル、変換行列テーブル、減算器、行列掛け算器、及び加算器を用いて色補正処理を行い、人工知能は多層ニューラルネット、学習処理器、学習データストア、学習履歴ストア、及び第2色補正器で構成していることが好ましい。 Further, the first dynamic reconstruction device has a first color corrector that converts the input video signal of four or more colors into a video signal of three colors, and the receiving unit converts the video corrected by the color corrector. It has artificial intelligence that learns and recognizes a predetermined subject in the image, and the color corrector performs color correction processing using a clustering device, mapping table, transformation matrix table, subtractor, matrix multiplier, and adder, and is artificial. The intelligence is preferably composed of a multi-layer neural network, a learning processor, a learning data store, a learning history store, and a second color corrector.
本発明によれば、FPGAを搭載したカメラと、同種のFPGAを搭載した受信ユニットを組み合せたことで、カメラの発熱を抑えつつ、機能の入れ替えが可能となる。 According to the present invention, by combining a camera equipped with an FPGA and a receiving unit equipped with an FPGA of the same type, it is possible to switch functions while suppressing heat generation of the camera.
以下、本発明の実施形態について図面を参照して詳細に説明する。
図4に実施形態にかかるカメラシステムの構成を示す。カメラシステムは、監視カメラ1と、受信ユニット2を備える。本実施形態の特徴として、受信ユニット2に映像信号処理部26が追加されている。
監視カメラ1は、撮像素子(CMOS)11と、FPGA12と、メモリ13と、ROM(Read Only Member)14、電源分離器15とを有する。
CMOS11は、主に可視光に対して感度を有するイメージセンサであり、映像信号を出力するLVDS等のデジタル映像インタフェースと、I2C等の制御用インタフェースを有し、両インタフェースによってFPGA12と接続されている。CMOS11は1080p、1080i又は720pの内の少なくとも1種類の映像信号を出力できることが望ましい。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 4 shows the configuration of the camera system according to the embodiment. The camera system includes a
The
CMOS 11 is an image sensor that is mainly sensitive to visible light, has a digital video interface such as LVDS that outputs a video signal, and a control interface such as I2C, and is connected to the
FPGA12は、映像信号処理部16と、HD-VLC圧縮部17と、CPU(Central Processing Unit)コア18と、を有する。このようにCPUとPFGAが融合したデバイスは、プログラマブルSoCとも呼ばれる。
メモリ13は、例えば一般的なDDR2(Double Data Rate 2)のDRAM(Dynamic Random Access Memory)であり、フレームメモリ等として用いられる。
The
The
ROM14は、FPGA12のコンフィグレーションデータ及びCPUコア18のための命令やデータを格納するフラッシュメモリ等である。
電源分離器15は、同軸ケーブル3に接続され、監視カメラ1から受信ユニット2へ伝送する映像信号と、受信ユニット2から監視カメラ1に供給される電源とを分離する。
The
The
映像信号処理部16は、FPGA22内のリコンフィギュラブルなハードウェアリソースであり、映像信号処理のソフトマクロが実体化される。映像信号処理部16はメモリ13にアクセス可能に構成される。
HD-VLC圧縮部17は、Dirac方式の映像圧縮処理やケーブルドライバなどのハードマクロが実体化されたものであり、HD-SDIの映像信号を入力され、ケーブル伝送に好ましい信号に変換して出力する。HD-VLC圧縮部17は、アンシラリーデータを含んだHD-SDIを受信ユニットで再生可能に送信することができる。
The video
The HD-
CPUコア18は、FPGA12に内蔵されたCPU或いはDSP(Digital Signal Processing)であり、一般的な1チップマイコンの様に、割り込みコントローラやタイマー、DMA、キャッシュメモリ、メモリコントローラ等を含んでいる。そしてCPUコア18は、映像信号処理部16やHD-VLC圧縮部17、CMOS11との間で、レジスタやメモリマップトI/O、シリアルバスを介して制御情報あるいは映像データの受け渡しを行い、それらの動作を制御したり、映像信号処理の一部を担ったりすることができる。また本例の特徴として、CPUコア18は、ROM14に格納された、パーシャルリコンフィギュレーション用の複数のビットストリームの内、映像信号処理部16にロードすべきいくつかのストリームを選択したり、実際にロードしたりする制御を行うことができる。また、ストリームの選択の結果、或いはカメラ1側で実体化された画像処理パイプラインを特定する情報を、アンシラリーデータとしてHD-VLC圧縮部17に渡すことができる。
The
受信ユニット2は、フォーマット変換IC21と、FPGA22と、メモリ23と、ROM24と、電源重畳器25を有する。FPGA22と、メモリ23と、ROM24は、ハードウェア上は、FPGA12と、メモリ13と、ROM14と同じである。FPGA22は、HD-VLC圧縮部17に代えてHD-VLC復元部27が実体化されている点などでFPGA12と異なる。ROM24は、カメラ側でしか必要とされないコンフィグレーションデータや命令が省かれ、受信ユニット側でしか必要とされないコンフィグレーションデータや命令が追加されている点などでROM14と異なる。
The receiving unit 2 includes a
フォーマット変換IC21は、所定のデジタル映像データを入力され、VBS(Video, Blanking, and Sync)、RGB、DVI-Dなどのビデオインタフェースに変換して出力する、専用ICである。HD-SDI信号を入力されVBSを出力する場合、フォーマット変換IC21は、リサンプル(ダウンサンプル)やプログレッシブ/インタレース変換等を行う。
The
電源重畳器25は、同軸ケーブルに接続され、カメラ1から伝送された映像信号を受信するとともに、同軸ケーブル3に監視カメラ1の電源として直流12Vを供給する。
The
映像信号処理部26は、FPGA22内のリコンフィギュラブルなハードウェアリソースであり、映像信号処理のソフトマクロが実体化される。映像信号処理部26はメモリ23にアクセス可能に構成される。
The video
HD-VLC復元部27は、Dirac方式の映像復号処理やケーブル等化器などのハードマクロが実体化されたものであり、対をなすHD-VLC圧縮部17から受信した映像信号を展開し、HD-SDI相当の映像信号を出力する。アンシラリーデータはHD-SDIに埋め込まれるとともに、CPUコア28にも提供される。
The HD-
CPUコア28は、ROM24に格納された、パーシャルリコンフィギュレーション用の複数のストリームの内、映像信号処理部26にロードすべきいくつかのストリームを選択したり、実際にロードしたりする制御を行うことができる。また、カメラ1側におけるストリームの選択の結果、或いは実体化された画像処理パイプラインを特定する情報を、アンシラリーデータとしてHD-VLC復元部27から受取ると、それに応じてFPGA22の部分的或いは全体のフィギュレーションを実行する。部分的かつ動的な更新を行う場合、信号のバイパス配線を設けておく手法により、映像を停止させずにリコンフィギュレーションを達成できる。
The
図5は、本実施形態の監視カメラ1の映像信号処理部16のブロック図である。ここではカメラ1はカラーの単板カメラを想定する。監視カメラ1の画像処理パイプラインは、ゲインアップ器31、色補正器32、ニー処理器33、エンハンサ34、ガンマ補正35とで構成される。本例の特徴として、メモリ処理が必要な機能を削除して、消費電力を抑えるようにしている。ゲインアップ器31以降の各段の入出力I/Fは全て統一されており、例えば画素データのビット深度は14bitとし、同期型I/Fとする。カラー映像であれば、色分離後のデータは、例えばRGB4:4:4あるいはYUV4:2:2等の所定の色フォーマットに統一されることが望ましい。
FIG. 5 is a block diagram of the video
ゲインアップ器31は、CMOS11から画素データを直接受け取り、所定の係数を乗算するデジタルゲインアップし、CSCへ出力する。CMOS11の画素数が多い場合、ビニング処理を行ってもよく、ライン単位で異なる露出が為される場合などはHDR処理を行ってもよい。CMOS11からの画素データのビット深度は、ゲインアップ31が出力するデータのビット深度と異なってもよい。
The gain-up
色補正器32は、RGBやCMYG(Cyan(水色)、Magenta(赤紫)、Yellow(黄)、Green(緑))のカラーフィルタを介して撮影された映像のデモザイキングを適宜行った後、ホワイトバランス調整、或いは、特許文献10(特許第2995683号)のような条件付線形演算や、特許文献11のような色空間上での射影変換等によって、色補正された映像信号を出力する。
The
ニー処理器33は、所定のニーポイントを超える輝度に対して、トーンマッピングの傾き(ニースロープ)を小さくすることで、小さなダイナミックレンジでも輝度の飽和を起こりにくくする処理を行う。またCMOS11のカラーチャネルの中で最も飽和しやすい色において飽和が始まる輝度を超えた時に、色差を0にするなどして偽色を防ぐ処理を行ってもよい。
The
エンハンサ34は、映像のディティールを強調したり、階調を空間的に滑らかにしたりする空間フィルタ処理を行う。或いは、特にゲインアップ器で高いゲインを与えている(低照度)ときに、メディアンフィルタ等の外れ値を抑圧するフィルタ処理を行う。
The
ガンマ補正35は、ITU-R Rec.709やBT.1886等に従い、1.9〜2.4程度のディスプレイガンマに対応するガンマ処理を行うとともに、もし必要であればHD-SDIと互換性のあるフォーマット(YCbCr(Y(輝度)、Cb(青の色差)、Cr(赤の色差))又はRGB)に色空間変換し、HD-VLC圧縮部17へ出力する。
図6は、本実施形態の受信ユニット2の信号処理部23のブロック図である。信号処理部23は、HD-VLC復元部27から、HD-SDIと互換性のあるベースバンド映像信号を受け取る。信号処理部2523の画像処理パイプラインは、デジタルノイズリダクション処理器36、蓄積処理器37、ワイドダイナミックレンジ処理器38、霧霞補正器39、及びメモリIF40とで構成される。
FIG. 6 is a block diagram of the
デジタルノイズリダクション処理器36は、被写体の動きの速度やSNなどに応じて最適制御された重みで時間領域フィルタリングを行う適応型ノイズフィルタである。一般的にはリカーシブフィルタとして実装されることが多い。
蓄積処理器37は、複数のフレームの映像を単純加算して出力する。例えばNフレームの蓄積を行う場合、出力フレームはNフレーム毎に更新される。
The digital
The
ワイドダイナミックレンジ処理器38は、ヒストグラム正規化、ヒストグラム調整、Retinexなどの手法により、トーンマネージメントを行う。この処理は、画素データに対する大量の時間領域操作は必要としないものの、ヒストグラム計算、照明光モデル、或いは視覚応答モデルの生成の為、相当量のメモリ帯域を要求する。
The wide
メモリIF40は、デジタルノイズリダクション処理器36、蓄積処理器37及びワイドダイナミックレンジ処理器38に対してメモリ23の読み込み及び書込みのアクセスを提供する。なおこれらは必ずしも同時に動作可能で有る必要は無く、メモリ帯域の許す範囲で一部のみ作動させることができる。
The memory IF 40 provides read and write access to the
霧霞補正器39は、注目画素の近傍のカラーチャネルで最小の値で構成されるダークチャネル画像を利用して、霧や霞による散乱光の成分を除去する。この処理は、ワイドダイナミックレンジ処理と似た視認性向上効果を奏し、エンハンサ34と大差ない処理量で実現できる。
The
本実施形態では、監視カメラ1が搭載するFPGA12と受信ユニット2が搭載するFPGA22を、同一もしくは互換性の高いデバイスとすることで、ゲインアップ器31からメモリIF40までの機能に対応するコンフィグレーションデータは、ストリームレベル、ハードウェア記述言語レベル、或いは少なくとも高級言語レベルで共通にすることができ、その結果、設計資産を有効に活用できる。なおゲインアップ器31からメモリIF40までの各機能部は、独立にパーシャルリコンフィギュラブルにする必要は無く、それら機能部の組合せの複数パターンのコンフィギュレーション・ストリームを用意して、選択可能にロードする方が、容易に実現できる場合がある。ここで、カメラ1と受信ユニット2の機能を重複を完全に否定する意図はなく、用意するストリームの種類を減らすため、電力やリソースの消費が小さい機能などは重複させてもよい。
In the present embodiment, the
監視カメラ1のROM14と受信ユニット2のROM24に、共通に実体化可能に保持された機能部を択一的に実体化させることで、監視カメラ1と受信ユニット2は、それらの間で、あたかも機能を入れ替えることができるように振る舞う。たとえば、カメラが特異的に高温になり易い環境に設置されたことに事後的に気づいた場合、そのようなカメラの機能を図4に示されるようなものに簡素化することで、発熱を抑えることができる。特にフレームメモリを使用するワイドダイナミックレンジ処理などを停止させることが、発熱の低減に効果的である。なお、過熱の恐れが無い夜間には、監視カメラ1内の蓄積処理を適宜有効化することができる。
By selectively embodying the functional parts commonly held in the
本例では、監視カメラ1と受信ユニット2の間の伝送は一方向であるため、監視カメラ1で為される画像処理は、受信ユニット2からの指示無しに自律的に行われる必要があり、また為された処理の内容を受信ユニット2が知ることができる必要がある。そのためCPUコア18は、CMOS11に設定したパラメータや、映像信号処理部16の各機能部が用いているパラメータや内部状態なども、レジスタなどを通じて取得し、アンシラリーデータに包含させることで、受信ユニット2へ送信されるようにすることが望ましい。
In this example, since the transmission between the
なお、監視カメラ1と受信ユニット2の間の伝送には任意の周知の方式、例えばHDcctv(商標)、SMPTE 2022-6等の双方向通信可能な方式も利用できる。
For transmission between the
以下、実施形態の変形例を図7、図8を参照して説明する。変形例では、受信ユニット2側に人工知能50が備えられ、人工知能50から監視カメラ1へ伝送可能な通信手段が設けられる。
図7は、変形例に係る映像信号処理部16の色補正器42の内部ブロック図である。変形された映像信号処理部16は、色補正部32の置き換えとして、或いは追加的に色補正器42を備える。
色補正器42は、多様体学習或いは多次元尺度構成などと呼ばれる処理のうち、リアルタイムで行う必要があるマッピング(次元圧縮)処理の部分を実行する。
具体的には色補正器42は、4チャネル以上の色の映像信号を入力され、色の微妙な違いをできるだけ保存するような非線形な色変換をリアルタイムで行って、3チャネルの色の映像信号を出力する。入力信号は、例えばCy,Mg,Ye,Gの補色センサ、或いはベイヤセンサのGチャンネルの1つを別の感度波長(例えば近赤外線)に変更したような色フォーマットの映像であり、以後、4色映像信号と呼ぶ。
Hereinafter, a modified example of the embodiment will be described with reference to FIGS. 7 and 8. In the modified example, the artificial intelligence 50 is provided on the receiving unit 2 side, and a communication means capable of transmitting from the artificial intelligence 50 to the
FIG. 7 is an internal block diagram of the color corrector 42 of the video
The color corrector 42 executes a part of mapping (dimensional compression) processing that needs to be performed in real time in a process called manifold learning or multidimensional scaling.
Specifically, the color corrector 42 receives a video signal of four or more channels of color, performs non-linear color conversion in real time so as to preserve subtle differences in color as much as possible, and performs a video signal of three channels of color. Is output. The input signal is, for example, a complementary color sensor of Cy, Mg, Ye, G, or an image in a color format in which one of the G channels of the bayer sensor is changed to another sensitivity wavelength (for example, near infrared rays). Called a video signal.
クラスタリング器43は、4色映像信号の各画素をN個のクラスタに分類し、その結果をクラスタIDとして出力する。クラスタリングは多様体学習等によって予めなされており、個々のクラスタは部分多様体に対応する。分類の実行は、kd木、R木、LSH等の周知の手法で行うことができる。多様体学習等には、LLE、t-SNE、ラプラシアン固有マップ等の非線形の手法が利用できる。或いは、クラスタリングは、DSMAP、もしくは色空間の単純な等間隔な分割によっても成しえる。
The
マッピングテーブル44は、クラスタIDを受取ると、それに対応するクラスタの代表ベクトル(ソースベクトル)と、マッピング先のマップトベクトルを出力する。本例では代表ベクトルは4次元、マップトベクトルは3次元である。なお代表ベクトルはクラスタリング器43から出力させてもよい。
変換行列テーブル45は、クラスタIDを受取ると、そのクラスタの代表ベクトルの近傍で最適化された3行4列の射影変換(沈め込み)行列Aを出力する。
When the mapping table 44 receives the cluster ID, it outputs the representative vector (source vector) of the corresponding cluster and the mapped vector of the mapping destination. In this example, the representative vector is four-dimensional and the mapped vector is three-dimensional. The representative vector may be output from the
When the transformation matrix table 45 receives the cluster ID, it outputs a 3-by-4 projected transformation (submersion) matrix A optimized in the vicinity of the representative vector of the cluster.
マッピングテーブル44や変換行列テーブル45の内容は、所定の被写体の映像に対して多様体学習等によって獲得されたものが初期的に設定され、その後、受信ユニット2の出力先にある人工知能の学習の過程で、バックプロパゲーションによって修正されうる。クラスタリング器43やマッピングテーブル44、変換行列テーブル45が、FPGA内において組込ブロックRAM(Random Access Memory)として実体化されていれば、内容の書き換えは容易である。書き換えに際して各テーブルのバージョンが管理されており、用いたバージョンをアンシラリーデータとしてカメラ1から下流に通知することで、人工知能50は監視カメラ1でどのような色変換が為されたか知ることができる。
The contents of the mapping table 44 and the transformation matrix table 45 are initially set to those acquired by manifold learning or the like for the image of a predetermined subject, and then the learning of artificial intelligence at the output destination of the receiving unit 2 is performed. In the process of, it can be modified by backpropagation. If the
なお多様体学習をオンラインで行う場合、画素をランダムに選ぶ構成や、クラスタ毎に分散を算出して保持する構成等も映像信号処理部16内に備えることが望ましい。一方、代表ベクトルの選定及び射影変換行列Aを得るための固有値計算や最急降下アルゴリズムなどは、CPUコア18或いはHD-VLC復元部27で処理させることができる。多様体学習等は、自由度があるため、何らかの制約条件を必要とする場合、マッピングが一般的なRGB色空間に近いものとなるような制約を課すことができる。更に視覚との整合性を重視する場合、単射性を犠牲にしてもよい。また被写体の色分布が偏っていれば全射である必要も無い。様々な種類の被写体を認識しようとする場合、付加的な制約を課さず、本来の局所等長写像の性質を優先することができる。なお局所等長写像は唯一ではなく、学習可能である。
When performing manifold learning online, it is desirable that the video
減算器46は、入力された4色映像信号から、代表ベクトルを減算し、差ベクトルを出力する。
The
行列掛け算器47は、列ベクトルである差ベクトルに、射影変換行列を後ろから乗算して出力する。
加算器48は、行列掛け算器47の出力に、マップトベクトルを加算し、色補正部42の結果として出力する。
The
The
色補正器42は、映像の全画素について個別に補正することができるが、4:2:2や4:2:0等のフォーマットに応じて、画素を1/2に間引いて実行してもよい。 The color corrector 42 can individually correct all the pixels of the image, but even if the pixels are thinned out to 1/2 according to the format such as 4: 2: 2 or 4: 2: 0, the color corrector 42 may be executed. good.
図8は、色補正器42で補正された映像を学習し認識する人工知能50の構成図である。人工知能50は、畳み込みニューラルネット(CNN)51、学習処理器52、学習データストア53、学習履歴ストア54、色補正器55を備え、半教師有学習をオンラインで行うことができる。人工知能50のハードウェアには、高性能計算(HPC)に適したコンピュータ、特にGPGPU (General-Purpose computing on Graphics Processing Units)を搭載したワークステーションやPC等が利用できる。
FIG. 8 is a configuration diagram of an artificial intelligence 50 that learns and recognizes an image corrected by the color corrector 42. The artificial intelligence 50 includes a convolutional neural network (CNN) 51, a learning
CNN51は、例えばFaster R-CNN、SSD(Single Shot MultiBox Detector)、YOLO等のような、画像中に含まれる既知の物体を認識する多層NNであり、認識した物体のスコアと、領域座標を出力する。CNN51は認識に使用される前に、既知の物体について十分学習しているものとし、本例では特定の農作物(例えば植物の葉)についての複数の症状を学習してあるものとする。CNN51の一部又は全部は、コンピュータが備えるGPGPUや主メモリ等によって実現することができる。 CNN51 is a multi-layer NN that recognizes known objects contained in an image, such as Faster R-CNN, SSD (Single Shot MultiBox Detector), YOLO, etc., and outputs the score and area coordinates of the recognized object. do. It is assumed that the CNN 51 has fully learned about known objects before it is used for recognition, and in this example it has learned about multiple symptoms for a particular crop (eg, plant leaves). Part or all of the CNN 51 can be realized by a GPGPU, main memory, or the like provided in the computer.
学習処理器52は、CNN51の学習を行う処理器であり、コンピュータが備えるCPUや主メモリとうによって実現されうる。
The learning
学習データストア53は、学習データであるラベル付画像を記憶する。学習データストア53は、コンピュータが備えるSSD等の不揮発性記憶装置によって実現されうる。
ラベル付画像は、植物の葉や茎を含む画像であって、窒素、リン酸、カリウム、マグネシウム、カルシウム等の不足又は過多の他、日照や灌水の不足又は過多、特定の病害虫に侵されたときの症状などを示すラベルが付されている。ラベル付画像は、どのような色空間で表現され、あるいは色補正を受けているかを示す色表現情報が付加されている。学習データストア53は、入力画像を一時的に保持し、学習処理器52の指示に応じて、その一時保持画像の部分画像にラベルや色表現情報を付加して、新たなラベル付画像として登録することができる。
The
Labeled images are images containing leaves and stems of plants, which are deficient or excessive in nitrogen, phosphoric acid, potassium, magnesium, calcium, etc., as well as insufficient or excessive sunshine or irrigation, and are affected by specific pests. A label is attached to indicate the symptoms of the time. The labeled image is added with color expression information indicating what kind of color space is expressed or color correction is received. The
色表現情報は、例えば、ラベル付画像を基準となる表色系、例えばsRGB(IEC 61966-2-1)に変換するため若しくはその逆変換のためのカラーマトリクス(3*3、4*3、又は4*4)の各係数、そのようなカラーマトリクスを特定する情報(色温度、ID)である。ラベル付画像がカメラ1で取得されたものである場合、色補正器42内の各テーブルのバージョンが、色表現情報として利用できる。
The color representation information is, for example, a color matrix (3 * 3, 4 * 3,) for converting a labeled image into a reference color system, for example, sRGB (IEC 61966-2-1) or vice versa. Or each coefficient of 4 * 4), information (color temperature, ID) that identifies such a color matrix. When the labeled image is acquired by the
学習履歴ストア54は、色補正器42でマッピングに用いられる各テーブルの初期の内容を記憶するとともに、学習処理器52が行うバックプロパゲーションによって、それらテーブルが修正された場合に、その履歴を保持する。1回の修正(バージョンアップ)における修正はわずかであり、修正毎にテーブルのスナップショットを保持するよりも、履歴に従って初期テーブルに修正を適用して都度生成したほうが、効率的である。なお学習データストア53に保持されている最も古いラベル付画像よりも過去の履歴は、再現する必要が無いので、カメラ1で取得された最も古いラベル付画像の時点における各テーブルの内容を初期の内容とすることができる。
The learning
色補正器55は、学習データストア53に保持されたラベル付画像を、最新の学習成果に基づく色補正がされた画像に、近似的に変換する。ラベル付画像が一般的なsRGB画像として取得されていた場合、色補正器55は、色補正器42と同一の構成及び/又は方法で色補正を達成できる。ラベル付画像がカメラ1で取得され色補正器42で補正されていた場合、取得時の各テーブルおよび最新の各テーブルの内容に基づいて生成した、変換用のテーブルを用いて変換する。変換用のテーブルは以下のステップ1から4の手順で生成する。
The
ステップ1:取得時のテーブルにおける全てのマップトベクトルと、元の空間(色補正器42へ入力される4色映像信号)において最も良く対応する、最新のテーブルにおけるマップトベクトルとを対応付ける。これは、取得時以降にクラスタリングや代表ベクトルが更新されている場合に必要となり、取得時のクラスタリング器43で用いられた各クラスタと空間的に最も良く対応する最新のクラスタとに対応付けることにより為され、旧クラスタID−新クラスタID変換テーブルとして表現される。或いは、取得時のマッピングテーブル44の各代表ベクトルに最も近い代表ベクトルを、最新のマッピングテーブルから検索する方法でも為されうる。
Step 1: Associate all the mapped vectors in the table at the time of acquisition with the mapped vectors in the latest table that best correspond in the original space (the four-color video signal input to the color corrector 42). This is necessary when clustering or the representative vector is updated after the time of acquisition, and is because each cluster used in the
ステップ2:旧クラスタIDに対応付けられた全てのマップトベクトルを3色空間上で分類し、その旧クラスタIDに対応する新クラスタIDを出力するように、色補正器55のクラスタリング器を設定する。
Step 2: Set the clusterer of the
ステップ3:色補正器55のマッピングテーブルは、最新の内容に設定する。
Step 3: The mapping table of the
ステップ4:最新の変換行列テーブルにおいて新クラスタIDに対応付けられた変換行列の全てについて、取得時の変換行列テーブル中の、新クラスタIDに対応する旧クラスタIDの変換行列の逆行列を右から掛け算し、3行3列の変換行列を得る。そして、それらを新クラスタIDに対応付けて、色補正器55の変換行列テーブルに設定する。なお色補正器55の行列掛け算器は、3行3列の変換行列を掛け算するように構成されるものとする。
Step 4: For all the transformation matrices associated with the new cluster ID in the latest transformation matrix table, the inverse matrix of the transformation matrix of the old cluster ID corresponding to the new cluster ID in the transformation matrix table at the time of acquisition is displayed from the right. Multiply to get a transformation matrix with 3 rows and 3 columns. Then, they are associated with the new cluster ID and set in the transformation matrix table of the
ここで、学習処理器52による学習を説明する。学習は凡そ、以下の第1過程から第3過程を有する。
[第1過程]
学習処理器52はまず、初期的に用意されたラベル付画像を用いて、CNN51の学習を行う。つまり、CNN51にラベル付画像の画像を入力し、ラベルに対応するCNN51の出力ノードの値の誤差(ラベルの正解値との差)を算出する。そしてその出力ノードが正解値を出力するために入力されるべき、中間層ノードの出力値(これはその中間層ノードにとっての誤差となる)や重みを調整する。この調整には、確率的最急降下法が利用できる。この調整を入力側に遡りながら行うことで、CNN51全体が学習されうる。なお用いるCNN51に固有のその他の学習も行われ得る。例えば、位置や大きさ、視点の違いに対する汎化能力を向上させるため、様々なアフィン変換等が適用されたラベル付画像を用いて、内部パラメータを学習させることがある。
Here, learning by the learning
[First process]
First, the learning
[第2過程]
CNN51の中間層のどこかで、RGB毎の特徴が、別の尺度の特徴に変換されている。この中間層からバックプロパゲーションさせる場合、第1過程では、RGBの各色の重みを調整していた。
それらの調整が収束した以降、第2過程では、代わりに、色補正器42の色変換の重みを調整する。つまり、色補正器42の各テーブルをバックプロパゲーションによって更新することで、3色に対する調整よりもはるかに高い自由度で、色の重みを調整する。実際には、色補正器42の補正を再現する色補正器52にバックプロパゲーションさせ、CNN51に入力されるラベル付画像に、擬似的に色の重みの調整を施すことによって、学習が為される。
[Second process]
Somewhere in the middle layer of CNN51, the RGB-by-RGB features are converted to features on another scale. When backpropagating from this intermediate layer, the weight of each RGB color was adjusted in the first process.
After those adjustments have converged, the second process instead adjusts the color conversion weights of the color corrector 42. That is, by updating each table of the color corrector 42 by backpropagation, the color weights are adjusted with a much higher degree of freedom than the adjustment for three colors. Actually, learning is performed by backpropagating the
[第3過程]
CNN51は、カメラ1で取得され色補正器42で処理された画像を識別し、その結果を利用して弱教師有学習を行う。最も簡単な弱教師有学習では、識別結果の内、十分信頼できるものについては、正解と仮定し、新たなラベル付画像として学習データストア53に格納する。そしてこれらの追加されたラベル付画像も利用して、学習が繰り返される。
[Third process]
The CNN 51 identifies an image acquired by the
以上説明した変形例は、植物の識別に限らず、映像に基づく各種の識別、例えば、コンクリート構造物の外観の診断や、海や河川等の汚染や赤潮その他の状態の検出、油等の特定の物質の漏えいの検出等に利用できる。 The modified examples described above are not limited to the identification of plants, but various identifications based on images, such as diagnosis of the appearance of concrete structures, detection of pollution of the sea and rivers, red tide and other conditions, identification of oil, etc. It can be used to detect leaks of substances.
また、本発明は、例えば、本発明に係る処理を実行する方法或いは装置や、そのような方法をコンピュータに実現させるためのプログラムや、当該プログラムを記録する一過性ではない有形の媒体などとして提供することもできる。 Further, the present invention is, for example, as a method or device for executing a process according to the present invention, a program for realizing such a method on a computer, a non-transient tangible medium for recording the program, or the like. It can also be provided.
上述の一実施例にかかるカメラシステムは、信号処理を行うためのFPGAを搭載した監視カメラと、同種のFPGAを搭載した受信ユニットを組み合わせた構成とすることで、カメラ内のFPGAで信号処理をしていた機能を受信ユニットに組み込むことができる。また、新しい機能を追加する場合にも受信ユニットに搭載することでカメラの消費電力を抑えることができる。当然、受信ユニット側の機能をカメラ側に入れ替えることも可能なので、必要な機能をカメラと受信ユニットで組み合せを検討することができる。
消費電力の低減効果は機能の入れ替えによるが、特にフレームメモリを使用するワイドダイナミック、デジタルノイズリダクション機能を受信ユニット側に搭載することで数ワットの低減効果が期待できる。
The camera system according to the above-described embodiment is configured by combining a surveillance camera equipped with an FPGA for signal processing and a receiving unit equipped with the same type of FPGA, so that signal processing can be performed by the FPGA in the camera. The function that was being used can be incorporated into the receiving unit. Also, when adding a new function, the power consumption of the camera can be reduced by installing it in the receiving unit. Of course, it is possible to replace the functions on the receiving unit side with those on the camera side, so it is possible to consider combining the necessary functions with the camera and the receiving unit.
The effect of reducing power consumption depends on the replacement of functions, but in particular, by installing a wide dynamic and digital noise reduction function that uses frame memory on the receiving unit side, a reduction effect of several watts can be expected.
本発明は、デジタルカメラ、ビデオカメラ等に広く利用できる。画像をリアルタイムで伝送するものに限らず、カメラが画像を記録媒体に蓄積し、それをPC等の受信ユニットで再生する場合にも適用できる。 The present invention can be widely used in digital cameras, video cameras and the like. It is not limited to those that transmit images in real time, but can also be applied when a camera stores an image on a recording medium and reproduces it on a receiving unit such as a PC.
101:監視カメラ、102:受信ユニット、103:同軸ケーブル、1:カメラ、2:受信ユニット、3:同軸ケーブル、11:撮像素子(CMOS)、12:FPGA、13:メモリ、14:ROM、15:電源分離器、16:映像処理部、17:HD-VLC圧縮部、18:CPUコア、19:光学系、21:フォーマット変換IC、22:FPGA、23:メモリ、24:ROM、25:電源重畳器、26:映像処理部、27:HD-VLC復元部、28:CPUコア、31:ゲインアップ器、32:色補正器(マスキング)、33:ニー処理器、34:エンハンス、35:γ(ガンマ)補正、36:デジタルノイズリダクション処理器、37:蓄積処理器、38:ワイドダイナミックレンジ処理器、39:霧霞補正器、40:メモリIF、42:色補正器、43:クラスタリング器、44:マッピングテーブル、45:変換行列テーブル、46:減算器、47:行列掛け算器、48:加算器、50:人工知能、51:畳み込みニューラルネット(CNN)、52:学習処理器、53:学習データストア、54:学習履歴ストア、55:色補正器、56:切替器。 101: Surveillance camera, 102: Receiving unit, 103: Coaxial cable, 1: Camera, 2: Receiving unit, 3: Coaxial cable, 11: Imaging element (CMOS), 12: FPGA, 13: Memory, 14: ROM, 15 : Power separator, 16: Video processing unit, 17: HD-VLC compression unit, 18: CPU core, 19: Optical system, 21: Format conversion IC, 22: FPGA, 23: Memory, 24: ROM, 25: Power supply Superimposition, 26: Video processing unit, 27: HD-VLC restoration unit, 28: CPU core, 31: Gain up unit, 32: Color corrector (masking), 33: Knee processing unit, 34: Enhance, 35: γ (Gamma) correction, 36: Digital noise reduction processor, 37: Accumulation processor, 38: Wide dynamic range processor, 39: Fog haze corrector, 40: Memory IF, 42: Color corrector, 43: Clustering device, 44: Mapping table, 45: Transformation matrix table, 46: Subtractor, 47: Matrix multiplier, 48: Adder, 50: Artificial intelligence, 51: Convolutional neural net (CNN), 52: Learning processor, 53: Learning Data store, 54: Learning history store, 55: Color corrector, 56: Switcher.
Claims (3)
前記監視カメラは、撮像素子から出力された信号を映像信号処理する第1動的再構成デバイスと、前記第1動的再構成デバイスの構成を設定する第1コンフィギュレーションデータを保持する第1不揮発メモリと、前記第1コンフィギュレーションデータを第1動的再構成デバイスへロードするとともに、前記ロードすることによって設定された前記第1動的再構成デバイスが行う映像信号処理を特定可能な情報が前記同軸ケーブルから出力されるように制御する第1CPUと、を有し、
前記受信ユニットは、前記監視カメラから出力され前記同軸ケーブルを介して受信した映像信号を映像信号処理する第2動的再構成デバイスと、前記第2動的再構成デバイスの構成を設定する複数の第2コンフィギュレーションデータを保持する第2不揮発メモリと、前記監視カメラから出力された前記特定可能な情報に基づいて、前記複数の第2コンフィギュレーションデータからロードすべきものを選択してロードする第2CPUと、を有し、
前記受信ユニットから出力する所定形式の映像信号は、前記第1動的再構成デバイスと前記第2動的再構成デバイスとによって分担された映像信号処理を受けた信号であることを特徴とするカメラシステム。 A camera system that connects a surveillance camera and a receiving unit with a coaxial cable.
The surveillance camera is a first non-volatile device that holds a first dynamic reconstruction device that processes a signal output from an imaging element and a first configuration data that sets the configuration of the first dynamic reconstruction device. a memory, along with loading the first configuration data to the first dynamically reconfigurable device, information capable of specifying the video signal processing performed by the first dynamically reconfigurable devices configured by the load is the It has a first CPU that controls to output from a coaxial cable, and has.
The receiving unit sets a second dynamic reconstruction device that processes a video signal output from the surveillance camera and received via the coaxial cable, and a plurality of configurations of the second dynamic reconstruction device. Based on the second non-volatile memory that holds the second configuration data and the identifiable information output from the surveillance camera, the second CPU that selects and loads what should be loaded from the plurality of second configuration data. And have
A camera characterized in that the video signal of a predetermined format output from the receiving unit is a signal that has undergone video signal processing shared by the first dynamic reconstruction device and the second dynamic reconstruction device. system.
前記受信ユニットはメモリを有し、第2動的再構成デバイスは前記メモリを用いて、フレーム間演算を伴う映像信号処理を行う一方、
前記第1動的再構成デバイスは、フレーム間演算を伴う映像信号処理を行わないことを特徴とするカメラシステム。 The camera system according to claim 1.
The receiving unit has a memory, and the second dynamic reconstruction device uses the memory to perform video signal processing accompanied by inter-frame calculation.
The first dynamic reconstruction device is a camera system characterized in that it does not perform video signal processing accompanied by inter-frame calculation.
前記第1動的再構成デバイスは、入力された4色以上の映像信号を、3色の映像信号に変換する第1色補正器を有し、
前記受信ユニットは、前記第1色補正器で補正された映像に映った所定の被写体を学習し認識する人工知能を有し、
前記第1色補正器は、クラスタリング器、マッピングテーブル、変換行列テーブル、減算器、行列掛け算器、及び加算器を用いて色補正処理を行い、
前記人工知能は、多層ニューラルネット、学習処理器、学習データストア、学習履歴ストア、及び第2色補正器で構成していることを特徴とするカメラシステム。
The camera system according to claim 1.
The first dynamic reconstruction device has a first color corrector that converts an input video signal of four or more colors into a video signal of three colors.
The receiving unit has artificial intelligence that learns and recognizes a predetermined subject reflected in the image corrected by the first color corrector.
The first color corrector performs color correction processing using a clustering device, a mapping table, a transformation matrix table, a subtractor, a matrix multiplier, and an adder.
The artificial intelligence is a camera system including a multi-layer neural network, a learning processor, a learning data store, a learning history store, and a second color corrector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073640A JP6904757B2 (en) | 2017-04-03 | 2017-04-03 | Camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073640A JP6904757B2 (en) | 2017-04-03 | 2017-04-03 | Camera system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018182367A JP2018182367A (en) | 2018-11-15 |
JP6904757B2 true JP6904757B2 (en) | 2021-07-21 |
Family
ID=64275934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017073640A Active JP6904757B2 (en) | 2017-04-03 | 2017-04-03 | Camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6904757B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102021441B1 (en) * | 2019-05-17 | 2019-11-04 | 정태웅 | Method and monitoring camera for detecting intrusion in real time based image using artificial intelligence |
US11800206B2 (en) * | 2019-07-08 | 2023-10-24 | Calumino Pty Ltd. | Hybrid cameras |
CN112927156A (en) * | 2021-03-08 | 2021-06-08 | 电子科技大学 | Image defogging system and method based on same |
-
2017
- 2017-04-03 JP JP2017073640A patent/JP6904757B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018182367A (en) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111698434B (en) | Image processing apparatus, control method thereof, and computer-readable storage medium | |
JP7077395B2 (en) | Multiplexed high dynamic range image | |
JP6904757B2 (en) | Camera system | |
US20070183657A1 (en) | Color-image reproduction apparatus | |
CN109785240B (en) | Low-illumination image enhancement method and device and image processing equipment | |
US20200250454A1 (en) | Video data processing | |
US20200342291A1 (en) | Neural network processing | |
US9355327B2 (en) | Image processing apparatus and imaging apparatus with noise correction function and signal level correction function | |
WO2020187424A1 (en) | Image processor | |
WO2019164704A1 (en) | Saturation management for luminance gains in image processing | |
CN103873781A (en) | Method and device for obtaining wide-dynamic video camera | |
JP6934240B2 (en) | Image processing device | |
JP4386959B1 (en) | Image processing device | |
CN111970432A (en) | Image processing method and image processing device | |
US11010644B2 (en) | Image processing | |
US20150326841A1 (en) | White balancing device and method of driving the same | |
US9774792B2 (en) | Dynamic configured video camera | |
US20200007809A1 (en) | Method controlling image sensor parameters | |
US7701462B2 (en) | Simple and robust color saturation adjustment for digital images | |
US11640654B2 (en) | Image processing method and apparatus | |
WO2020215263A1 (en) | Image processing method and device | |
CN101867828B (en) | Multi-charge coupled device group self-adaptive imaging method of cambered optical structure | |
US11521300B2 (en) | Edge preserving noise reduction algorithm using inverse exponential function optimization | |
US11696039B2 (en) | Smart IP camera with color night mode | |
WO2021179142A1 (en) | Image processing method and related apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6904757 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |