JP2013223104A - Camera and camera system - Google Patents

Camera and camera system Download PDF

Info

Publication number
JP2013223104A
JP2013223104A JP2012093607A JP2012093607A JP2013223104A JP 2013223104 A JP2013223104 A JP 2013223104A JP 2012093607 A JP2012093607 A JP 2012093607A JP 2012093607 A JP2012093607 A JP 2012093607A JP 2013223104 A JP2013223104 A JP 2013223104A
Authority
JP
Japan
Prior art keywords
camera
unit
imaging
cameras
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012093607A
Other languages
Japanese (ja)
Inventor
Sanetsugu Fujita
真継 藤田
Akihiro Miyazaki
秋弘 宮崎
Kinichi Motosaka
錦一 本坂
Shinsuke Ogata
伸輔 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012093607A priority Critical patent/JP2013223104A/en
Publication of JP2013223104A publication Critical patent/JP2013223104A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera system which, in a case where the imaging areas of plural cameras overlap, selects a camera suitable for image processing, thereby controlling the execution of image processing by each camera.SOLUTION: An image similarity determination unit 201 receives imaging area information 120 of plural cameras, determines the overlapping degree of the images, and outputs the similarity of each camera. A camera selection unit 202 receives the imaging states 119 of the cameras, selects a camera suitable for the image processing from similar cameras, executes the image processing with the selected camera, and stops the image processing executed by not-selected cameras.

Description

本発明は、複数カメラを備え、各カメラが撮影した映像に対する画像処理を行うカメラシステムであって、特に、画像処理に適したカメラを選択して処理を制御する選択制御装置を備えたカメラシステムに関するものである。   The present invention is a camera system that includes a plurality of cameras and performs image processing on video captured by each camera, and particularly includes a selection control device that selects a camera suitable for image processing and controls processing. It is about.

従来の監視カメラシステムにおいては、各々のカメラが、画像から動物体を検出する動き検知機能または顔検出機能などの画像処理機能を実行し、その結果に基づいて、アラーム、記憶媒体への記録、配信の開始などのトリガを生成していた。   In conventional surveillance camera systems, each camera performs an image processing function such as a motion detection function or a face detection function for detecting a moving object from an image, and based on the result, an alarm is recorded on a storage medium. Triggers such as start of delivery were generated.

特許文献1では、移動体を継続して撮影するシステムであって、複数のカメラが連携し、最適なアングルで撮影可能で、かつ死角のない監視システムが提案されている(例えば、特許文献1参照)。   Patent Document 1 proposes a monitoring system that continuously captures images of a moving body, and that is capable of capturing images at an optimum angle in cooperation with a plurality of cameras (for example, Patent Document 1). reference).

特開2007−104223号公報JP 2007-104223 A

前記従来の監視システムでは、カメラ同士が互いの情報を交換して撮影手段の撮影範囲を切り替え、死角のない最適なアングルによる監視を制御していた。しかしながら、各カメラの配置によっては、複数のカメラの撮像領域が重なる状況が発生する可能性があり、これら複数のカメラが共に、同領域に対して画像処理を行うため、システム全体としては無駄が生じるという課題を有していた。   In the conventional monitoring system, the cameras exchange information with each other to switch the shooting range of the shooting means, and control monitoring with an optimum angle without a blind spot. However, depending on the arrangement of each camera, there may be a situation in which the imaging areas of a plurality of cameras overlap, and since these multiple cameras both perform image processing on the same area, the entire system is wasted. Had the problem of occurring.

本発明は、前記従来の課題を解決するもので、複数のカメラの撮像領域が重なった場合において、画像処理に適したカメラを選択し、各カメラの画像処理の実行を制御するカメラシステムを提供することを目的とする。   The present invention solves the above-described conventional problems, and provides a camera system that selects a camera suitable for image processing and controls execution of image processing of each camera when the imaging areas of a plurality of cameras overlap. The purpose is to do.

前記従来の課題を解決するために、本発明のカメラシステムは、複数のカメラと、選択制御装置とを有するカメラシステムであって、前記カメラは、入力光を映像信号に変換する撮像素子と、前記撮像素子から得た映像信号を加工する映像信号処理部と、露光設定値に基づいて前記映像信号の明るさを変化させる露光調整部と、前記映像信号の明るさから前記露光調整部への前記露光設定値を制御する露光制御部と、前記撮像素子からの前記映像信号と前記露光設定値から自カメラの撮像状態を検知する撮像状態検知部と、前記映像信号を用いて画像処理を行う画像処理部と、ネットワーク通信を行う通信部と、位置情報および撮像方向情報を用いて自カメラの撮像領域情報を取得する撮像領域取得部と、を備え、前記選択制御装置は、前記複数のカメラの前記撮像領域情報から撮像している画像類似度を判定する画像類似判定部と、前記複数のカメラの前記撮像状態および前記画像類似度から前記画像処理に最適なカメラを選択し、複数カメラの前記画像処理部の制御信号である画像処理制御信号を生成するカメラ選択部と、ネットワーク通信を行う通信部とを備える。   In order to solve the conventional problem, a camera system of the present invention is a camera system having a plurality of cameras and a selection control device, and the camera includes an imaging device that converts input light into a video signal, A video signal processing unit that processes a video signal obtained from the image sensor, an exposure adjustment unit that changes the brightness of the video signal based on an exposure setting value, and a brightness signal from the brightness of the video signal to the exposure adjustment unit. Image processing is performed using the exposure control unit that controls the exposure setting value, the imaging state detection unit that detects the imaging state of the own camera from the video signal from the imaging element and the exposure setting value, and the video signal. An image processing unit; a communication unit that performs network communication; and an imaging region acquisition unit that acquires imaging region information of the own camera using position information and imaging direction information. An image similarity determination unit that determines the degree of image similarity captured from the imaging region information of a plurality of cameras, and selects an optimal camera for the image processing from the imaging state and the image similarity of the plurality of cameras, A camera selection unit that generates an image processing control signal that is a control signal of the image processing unit of a plurality of cameras, and a communication unit that performs network communication.

本構成によって、複数のカメラの撮像領域が重なった場合において、各カメラの撮像状態を取得して、重なった撮像領域に対する画像処理に適したカメラを選択することが可能となる。   With this configuration, when the imaging areas of a plurality of cameras overlap, it is possible to acquire the imaging state of each camera and select a camera suitable for image processing for the overlapping imaging areas.

本発明のカメラシステムによれば、複数のカメラの撮像領域が重なった場合に、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことで、システム全体で消費するリソースを削減することができる。   According to the camera system of the present invention, when the imaging areas of a plurality of cameras overlap each other, the system performs control of executing image processing with the selected camera and stopping image processing with the camera not selected. The resources consumed as a whole can be reduced.

本発明の実施の形態1におけるカメラシステムの構成の一例を示す構成図The block diagram which shows an example of a structure of the camera system in Embodiment 1 of this invention 撮像領域を説明するための図Diagram for explaining the imaging area 複数のカメラの撮像領域の重複を説明するための図The figure for demonstrating duplication of the imaging area of several cameras 複数のカメラの撮像領域の差異が及ぼす重複度の差異を説明するための図The figure for explaining the difference of the degree of overlap which the difference of the imaging region of the plural cameras exerts 本発明の実施の形態2におけるカメラの構成の一例を示す構成図The block diagram which shows an example of a structure of the camera in Embodiment 2 of this invention 本発明の実施の形態3におけるカメラの構成の一例を示す構成図The block diagram which shows an example of a structure of the camera in Embodiment 3 of this invention.

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
1.カメラシステムの構成
図1は、本発明の実施の形態1におけるカメラシステムの一例を示す構成図である。
(Embodiment 1)
1. Configuration of Camera System FIG. 1 is a configuration diagram illustrating an example of a camera system according to Embodiment 1 of the present invention.

図1のカメラシステムは、複数のカメラ(100−1、100−2、100−n)と選択制御装置200とを備えている。複数のカメラ(100−1、100−2、100−n)と選択制御装置200は、ネットワークを介して接続している。   The camera system of FIG. 1 includes a plurality of cameras (100-1, 100-2, 100-n) and a selection control device 200. The plurality of cameras (100-1, 100-2, 100-n) and the selection control device 200 are connected via a network.

本カメラシステムは、複数のカメラからの映像をユーザに提供する情報提供サービス、放送中継システム、交通制御システム、ナビゲーションシステム、監視システム、テレビ会議システムなどに使用できる。   This camera system can be used for an information providing service for providing users with images from a plurality of cameras, a broadcast relay system, a traffic control system, a navigation system, a monitoring system, a video conference system, and the like.

複数のカメラ(100−1、100−2、100−n)は、周辺の撮影を実施し、撮影した画像から動物体を検出する動き検知機能または顔検出機能などの画像処理を実行する。カメラシステムは、各カメラが画像処理を実行した結果を用いて、アラーム、記憶媒体への記録、配信の開始のトリガを生成するなど、後の処理に使用する。本実施の形態においては、各カメラが画像処理を実行した後の処理については、詳細を記載しない。   The plurality of cameras (100-1, 100-2, 100-n) perform peripheral imaging, and perform image processing such as a motion detection function or a face detection function for detecting a moving object from the captured images. The camera system is used for subsequent processing such as generating an alarm, recording to a storage medium, and a trigger for starting distribution using the result of image processing performed by each camera. In the present embodiment, details are not described for processing after each camera executes image processing.

選択制御装置200は、ネットワークを介して、複数のカメラから撮像領域情報と撮像状態を取得し、撮像領域の重なり有無を判定する。重なりがあると判定した場合に、選択制御装置200は、各カメラの撮像状態に基づいて、重なった撮像領域に対する画像処理に適したカメラを選択する。選択制御装置200は、選択結果を画像処理制御信号として各カメラに通知する。画像処理制御信号を受信した各カメラは、画像処理制御信号に従って、画像処理を実行する、又は、画像処理を実行しない。   The selection control apparatus 200 acquires imaging area information and imaging states from a plurality of cameras via a network, and determines whether or not imaging areas overlap. When it is determined that there is an overlap, the selection control device 200 selects a camera suitable for image processing on the overlapped imaging region based on the imaging state of each camera. The selection control apparatus 200 notifies each camera of the selection result as an image processing control signal. Each camera that has received the image processing control signal performs image processing or does not perform image processing in accordance with the image processing control signal.

以上により、複数のカメラの撮像領域が重なった場合において、重なった撮像領域に対する画像処理に適したカメラを選択し、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことが可能となる。   As described above, when the imaging areas of a plurality of cameras are overlapped, a camera suitable for image processing with respect to the overlapping imaging areas is selected, image processing is executed with the selected camera, and image processing with the camera not selected is performed. It is possible to perform control to stop.

1.1 カメラ100−1の構成
カメラ100−1は、レンズ101、レンズの絞り102、撮像素子103、デジタルシャッタ104、デジタルゲイン105、露光制御部106、映像信号処理部107、画像圧縮部108、画像処理部109、撮像領域取得部110、撮像状態検知部111、資源状態取得部112、通信部113、出力部122を備えている。
1.1 Configuration of Camera 100-1 The camera 100-1 includes a lens 101, a lens aperture 102, an image sensor 103, a digital shutter 104, a digital gain 105, an exposure control unit 106, a video signal processing unit 107, and an image compression unit 108. , An image processing unit 109, an imaging region acquisition unit 110, an imaging state detection unit 111, a resource state acquisition unit 112, a communication unit 113, and an output unit 122.

なお、カメラ(100−2、100−n)の内部構成は、カメラ100−1と同様の構成である。   The internal configuration of the cameras (100-2, 100-n) is the same as that of the camera 100-1.

レンズ101は、光を集光する一般的なレンズである。   The lens 101 is a general lens that collects light.

絞り102は、露光制御部106から出力される絞り値114に応じて開閉することで、露光調整を行う。   The aperture 102 performs exposure adjustment by opening and closing according to the aperture value 114 output from the exposure control unit 106.

撮像素子103は、光を映像信号117に変換するCCDセンサやCMOSセンサなどである。撮像素子103は、露光制御部106から出力されるシャッタ値115に従い、デジタルシャッタ104を切ることで露光調整を行う。   The image sensor 103 is a CCD sensor or a CMOS sensor that converts light into a video signal 117. The image sensor 103 performs exposure adjustment by turning off the digital shutter 104 in accordance with the shutter value 115 output from the exposure control unit 106.

デジタルゲイン105は、露光制御部106から出力されるゲイン値116に従い、撮像素子103が出力した映像信号117の露光調整を行う。   The digital gain 105 performs exposure adjustment of the video signal 117 output from the image sensor 103 according to the gain value 116 output from the exposure control unit 106.

露光制御部106は、撮像素子103が出力した映像信号117を入力し、内部に保持している現在の絞り値114とシャッタ値115とゲイン値116を用いて、処理を行う。露光制御部106は、受け取った映像信号117の明るさ、明るさの変化、現在の絞り値114およびシャッタ値115およびゲイン値116を基に、適応的に新しい絞り値114およびシャッタ値115およびゲイン値116を決定する。露光制御部106は、決定した新しい絞り値114、シャッタ値115、ゲイン値116を、それぞれ、絞り102、デジタルシャッタ104、デジタルゲイン105に出力する。   The exposure control unit 106 receives the video signal 117 output from the image sensor 103, and performs processing using the current aperture value 114, shutter value 115, and gain value 116 held therein. The exposure control unit 106 adaptively sets a new aperture value 114, shutter value 115, and gain based on the brightness of the received video signal 117, changes in brightness, the current aperture value 114, the shutter value 115, and the gain value 116. The value 116 is determined. The exposure control unit 106 outputs the determined new aperture value 114, shutter value 115, and gain value 116 to the aperture 102, digital shutter 104, and digital gain 105, respectively.

なお、本実施の形態では、露光制御部106が制御する対象として、絞り102およびデジタルシャッタ104およびデジタルゲイン105としたが、少なくともいずれか1つでもよい。   In this embodiment, the aperture 102, the digital shutter 104, and the digital gain 105 are controlled by the exposure control unit 106. However, at least any one of them may be used.

映像信号処理部107は、デジタルゲイン105で露光調整を行った後の映像信号を入力し、ガンマ補正またはホワイトバランス、ニー補正、キズ補正などの一般的な映像信号処理を行い、YC変換を行い、輝度および色差信号を生成する。   The video signal processing unit 107 receives the video signal after exposure adjustment with the digital gain 105, performs general video signal processing such as gamma correction, white balance, knee correction, and scratch correction, and performs YC conversion. Generate luminance and color difference signals.

なお、本実施の形態では、デジタルゲイン105を映像信号処理部107の前段に配置しているが、映像信号処理部107の各種処理の間に存在してもよい。   In this embodiment, the digital gain 105 is arranged in the preceding stage of the video signal processing unit 107, but may exist between various processes of the video signal processing unit 107.

画像圧縮部108は、映像信号処理部107が出力した輝度および色差信号を入力し、JPEGまたはMPEG、H.264などのフォーマットに圧縮し、画像圧縮データを生成する。画像圧縮部108は、生成した画像圧縮データを、出力部122に出力する。   The image compressing unit 108 receives the luminance and color difference signals output from the video signal processing unit 107 and receives JPEG or MPEG, H.264, and H.264. Compressed into a format such as H.264 to generate compressed image data. The image compression unit 108 outputs the generated image compression data to the output unit 122.

画像処理部109は、映像信号処理部107が出力した輝度もしくは色差信号の少なくともいずれか1つを入力し、映像内の動物体を検出する動き検出機能または顔認識機能、人物検出機能、ナンバープレート認識などの各種画像処理を行う。画像処理部109は、選択制御装置200から通信部113経由で受信する画像処理制御信号118に従い、画像処理の実行可否を決定する。なお、画像処理制御信号118は、「ON」または「OFF」が指定可能である。画像処理部109は、画像処理制御信号118が「ON」の場合、画像処理を実行し、「OFF」の場合、画像処理を実行しない。   The image processing unit 109 receives at least one of the luminance and color difference signals output from the video signal processing unit 107 and detects a moving object in the video, a face recognition function, a person detection function, a license plate Various image processing such as recognition is performed. The image processing unit 109 determines whether or not to execute image processing according to the image processing control signal 118 received from the selection control device 200 via the communication unit 113. The image processing control signal 118 can be designated “ON” or “OFF”. The image processing unit 109 executes image processing when the image processing control signal 118 is “ON”, and does not execute image processing when it is “OFF”.

撮像領域取得部110は、位置情報および撮像方向情報を用いて、現在撮影している撮像領域情報120を算出し、撮像領域情報120を出力する。   The imaging area acquisition unit 110 calculates the imaging area information 120 currently captured using the position information and the imaging direction information, and outputs the imaging area information 120.

位置情報は、例えばGPSセンサやWLANのデータを基にした測位や予め設定された位置から取得する。カーナビゲーションシステムのように、通常はGPSを用いて測位を行い、GPSの衛星の信号を受信できない場合に、ジャイロセンサの値を用いて現在の位置を推測するような構成であってもよい。GPSの衛星の信号を受信できない場合とは、例えば、トンネル内部などである。また、GPSから高さ情報を取得することで、更に撮像領域情報120の精度を増すことができる。   The position information is acquired from, for example, positioning based on GPS sensor or WLAN data or a preset position. As in a car navigation system, a configuration may be used in which positioning is normally performed using GPS and the current position is estimated using a value of a gyro sensor when a GPS satellite signal cannot be received. The case where a GPS satellite signal cannot be received is, for example, inside a tunnel. Moreover, the accuracy of the imaging area information 120 can be further increased by acquiring the height information from the GPS.

撮像方向情報は、地磁気センサなどを用いて、東西南北の撮像方向情報を取得する。なお、加速度センサや姿勢センサを用いて、地面に対する撮像方向の角度、つまりチルト角を撮像方向情報として追加することで、更に撮像領域情報120の精度を増すことができる。   The imaging direction information is obtained from east, west, south, and north using a geomagnetic sensor or the like. In addition, the accuracy of the imaging area information 120 can be further increased by adding an angle in the imaging direction with respect to the ground, that is, a tilt angle, as the imaging direction information using an acceleration sensor or a posture sensor.

図2は、撮像領域を説明するための図である。図2(A)は、カメラ100の撮像領域を、斜線領域で示している。図2(A)では、撮像領域内に存在する動物体を、円形で示している。人物などの被写体が画角に入っている場合であっても、カメラから遠い位置に存在する場合、画像処理部109は、被写体を視認ないしは画像検出ないしは画像認識することができない。図2(B)は、カメラの解像度を鑑みて撮像距離を決定して範囲を限定した場合の撮像領域を、斜線領域で示している。図2(B)の撮像領域は、図2(A)と比べて狭い領域となる。   FIG. 2 is a diagram for explaining the imaging region. FIG. 2A shows an imaging area of the camera 100 by a hatched area. In FIG. 2A, the moving object existing in the imaging region is indicated by a circle. Even if a subject such as a person is within the angle of view, the image processing unit 109 cannot visually recognize the subject, detect an image, or recognize an image if the subject is located far from the camera. FIG. 2B shows an imaging area in a hatched area when the imaging distance is determined in consideration of the resolution of the camera and the range is limited. The imaging region in FIG. 2B is a narrower region than that in FIG.

画像処理の種類によって、検出に必要な被写体の大きさが異なる。例えば、顔検出機能であれば、顔幅の大きさが数十画素必要となる。動き検出機能であれば、体の身長が数画素程度であっても検出することができる。撮像領域は、解像度と、予め画像処理毎に定められた必要画素数情報を用いて、範囲を限定する構成でもよい。   Depending on the type of image processing, the size of the subject required for detection differs. For example, the face detection function requires several tens of pixels for the face width. The motion detection function can be detected even if the body height is about several pixels. The imaging region may be configured to limit the range by using resolution and necessary pixel number information that is determined in advance for each image processing.

つまり、撮像領域情報120は、最低限、位置情報、すなわち緯度経度および撮像方向が必要であり、その他に高さ情報、チルト角、撮像距離を追加することで精度を増すことができる。   That is, the imaging area information 120 requires at least position information, that is, latitude and longitude and an imaging direction, and accuracy can be increased by adding height information, a tilt angle, and an imaging distance.

撮像状態検知部111は、撮像素子103が出力した映像信号117と、露光制御部106が出力した絞り値114とシャッタ値115とゲイン値116を入力し、当該カメラの撮像状態119を検知して出力する。撮像状態検知部111が検知する撮像状態119について、具体例を挙げて説明する。なお、撮像状態検知部111は、以下に具体例として示した全て情報を、撮像状態として出力してもよいし、一部の情報のみ、撮像状態として出力してもよい。   The imaging state detection unit 111 receives the video signal 117 output from the image sensor 103, the aperture value 114, the shutter value 115, and the gain value 116 output from the exposure control unit 106, and detects the imaging state 119 of the camera. Output. The imaging state 119 detected by the imaging state detection unit 111 will be described with a specific example. The imaging state detection unit 111 may output all the information shown as specific examples below as the imaging state, or may output only a part of the information as the imaging state.

撮像状態検知部111は、入力した映像信号117を構成する各画素の明るさが予め設定された光量閾値以上の画素数をカウントし、カウントした結果(カウント値)を撮像状態119として出力する。一般的なカメラの露光制御においては、映像の明るさを一定に保つ制御が行われる。逆光状態など、一定以上の明るさを持つ画素が多い場合には、それ以外の画素の明るさを、より暗くする方向に制御する。この結果、露光調整を行った後の映像信号は、画像処理に適さない映像となる。具体的に説明すると、例えば、天井の照明が映りこんだ時、天井の照明以外の人物や人物の顔を撮影した領域が、暗い画像となる。顔を撮影した領域が暗いため、画像処理部109が、顔認識機能または人物検出機能などの画像処理を行った場合、低い検出率となる。後述する選択制御装置200は、複数のカメラから撮像状態119を取得し、撮像状態119(カウント値)が大きいほど、画像処理に適さないと判断する。   The imaging state detection unit 111 counts the number of pixels in which the brightness of each pixel constituting the input video signal 117 is equal to or greater than a preset light amount threshold value, and outputs the counted result (count value) as the imaging state 119. In general camera exposure control, control is performed to keep the brightness of an image constant. When there are many pixels having a certain level of brightness, such as in a backlight state, the brightness of the other pixels is controlled to become darker. As a result, the video signal after exposure adjustment is a video unsuitable for image processing. More specifically, for example, when a ceiling illumination is reflected, a region where a person other than the ceiling illumination or a person's face is photographed is a dark image. Since the area where the face is photographed is dark, a low detection rate is obtained when the image processing unit 109 performs image processing such as a face recognition function or a person detection function. The selection control apparatus 200 described later acquires the imaging state 119 from a plurality of cameras, and determines that the larger the imaging state 119 (count value) is, the less suitable for image processing.

撮像状態検知部111は、絞り102およびデジタルシャッタ104を通過した後の映像信号117を入力する。つまり、撮像状態検知部111が入力する映像信号117は、露光制御部106が決定した絞り値114およびシャッタ値115により、大小が変化する。そこで、撮像状態検知部111は、絞り値114およびシャッタ値115などの撮影設定値で、光量閾値を適応的に補正する。撮像状態検知部111は、入力した映像信号117を構成する各画素の明るさが、補正後の光量閾値以上の画素数をカウントし、カウントした結果(カウント値)を撮像状態119として出力する。後述する選択制御装置200は、複数のカメラから撮像状態119を取得し、撮像状態119(カウント値)が大きいほど、画像処理に適さないと判断する。   The imaging state detection unit 111 inputs the video signal 117 after passing through the aperture 102 and the digital shutter 104. That is, the magnitude of the video signal 117 input by the imaging state detection unit 111 changes depending on the aperture value 114 and the shutter value 115 determined by the exposure control unit 106. Therefore, the imaging state detection unit 111 adaptively corrects the light amount threshold value with the shooting setting values such as the aperture value 114 and the shutter value 115. The imaging state detection unit 111 counts the number of pixels in which the brightness of each pixel constituting the input video signal 117 is equal to or greater than the corrected light amount threshold value, and outputs the counted result (count value) as the imaging state 119. The selection control apparatus 200 described later acquires the imaging state 119 from a plurality of cameras, and determines that the larger the imaging state 119 (count value) is, the less suitable for image processing.

さらに、撮像状態検知部111は、カメラ間の設定値や性能の差異を補正するために、カウント値を正規化し、正規化後のカウント値を撮像状態119として出力してもよい。後述する選択制御装置200は、複数のカメラから撮像状態119を取得し、撮像状態119(カウント値)を比較することで、最適なカメラを選択する。比較対象のカメラの解像度が異なる場合には、カウント値を単に比較するだけでは、正しい選択ができない。そこで、撮像状態検知部111は、カウント値を画面の画素数で割ることで算出したパーセンテージを、撮像状態119(カウント値)として出力する。これにより、後述する選択制御装置200は、複数のカメラの撮像状態119を比較し、最適なカメラを選択することが可能となる。   Further, the imaging state detection unit 111 may normalize the count value and output the normalized count value as the imaging state 119 in order to correct a setting value or performance difference between the cameras. The selection control device 200 described later acquires an imaging state 119 from a plurality of cameras and compares the imaging state 119 (count value) to select an optimal camera. If the comparison target cameras have different resolutions, a correct selection cannot be made by simply comparing the count values. Therefore, the imaging state detection unit 111 outputs a percentage calculated by dividing the count value by the number of pixels on the screen as the imaging state 119 (count value). Thereby, the selection control device 200 described later can compare the imaging states 119 of a plurality of cameras and select an optimal camera.

なお、本実施の形態では、撮像状態検知部111は、デジタルゲイン105前の映像信号117を入力としている。撮像状態検知部111は、デジタルゲイン105後の映像信号117を入力とする構成でもよい。この場合には、光量閾値を適応的に変化させるパラメータとして、絞り値114およびシャッタ値115に加え、ゲイン値116を追加する。   In the present embodiment, the imaging state detection unit 111 receives the video signal 117 before the digital gain 105 as an input. The imaging state detection unit 111 may be configured to receive the video signal 117 after the digital gain 105 as an input. In this case, in addition to the aperture value 114 and the shutter value 115, a gain value 116 is added as a parameter for adaptively changing the light amount threshold value.

また、別の例として、撮像状態検知部111は、シャッタ値115を入力とし、シャッタ値115を撮像状態119として出力する。つまり、シャッタ値115が大きい場合には、センサの露光時間が増えるため、カメラ自体がぶれた場合または映っている人物が動いた場合に、ブラーが発生し、ぼやけた映像になる。画像処理部109が、画像の高周波成分を用いて画像処理を行う場合には、適さない画像となる。画像の高周波成分を用いる具体例としては、顔認識機能がある。つまり、後述する選択制御装置200は、複数のカメラから撮像状態119を取得し、撮像状態119(シャッタ値115)が大きい場合には、画像処理に適さないと判断する。   As another example, the imaging state detection unit 111 receives a shutter value 115 as an input and outputs the shutter value 115 as an imaging state 119. In other words, when the shutter value 115 is large, the exposure time of the sensor increases, so blurring occurs when the camera itself is shaken or the person being shown moves, resulting in a blurred image. When the image processing unit 109 performs image processing using the high-frequency component of the image, the image is not suitable. A specific example using the high-frequency component of the image is a face recognition function. That is, the selection control apparatus 200 described later acquires the imaging state 119 from a plurality of cameras, and determines that the imaging state 119 (shutter value 115) is not suitable for image processing when the imaging state 119 (shutter value 115) is large.

なお、シャッタ値115が大きい場合であっても、カメラが全くぶれない場合、画像処理に問題がないと判断してもよい。例えば、撮像状態検知部111は、ジャイロセンサなどを用いてカメラの動きを検出し、カメラの動きが予め設定された閾値以下の場合には、シャッタ値115がゼロの撮像状態119(シャッタ値115)を出力する。   Even when the shutter value 115 is large, if the camera does not shake at all, it may be determined that there is no problem in image processing. For example, the imaging state detection unit 111 detects the movement of the camera using a gyro sensor or the like, and when the movement of the camera is equal to or less than a preset threshold, the imaging state 119 (shutter value 115) with the shutter value 115 being zero. ) Is output.

資源状態取得部112は、自カメラの現在の資源状態121を取得して出力する。資源状態は、例えば、CPUの周波数、CPUコアの数などのCPU能力、CPU使用率である。また、カメラがSDカードなどの記憶媒体を有する場合、資源状態は、例えば、記憶媒体の残容量を含む。バッテリ駆動型のカメラの場合、資源状態は、例えば、バッテリ残容量などの現在のバッテリ状態を含む。   The resource status acquisition unit 112 acquires and outputs the current resource status 121 of the own camera. The resource state is, for example, CPU frequency such as CPU frequency, number of CPU cores, and CPU usage rate. When the camera has a storage medium such as an SD card, the resource state includes, for example, the remaining capacity of the storage medium. In the case of a battery-driven camera, the resource state includes a current battery state such as a remaining battery capacity.

通信部113は、有線もしくは無線ネットワークと接続し、撮像状態119および撮像領域情報120および資源状態121を、選択制御装置200へ送信する。また、通信部113は、選択制御装置200から、画像処理制御信号118を受信し、画像処理部109に出力する。   The communication unit 113 is connected to a wired or wireless network, and transmits the imaging state 119, the imaging region information 120, and the resource state 121 to the selection control device 200. Further, the communication unit 113 receives the image processing control signal 118 from the selection control device 200 and outputs it to the image processing unit 109.

出力部122は、画像圧縮部108から画像圧縮データを入力し、外部への出力を行う。例えば、カメラ100−1はディスプレイを備えており、入力した画像圧縮データをデコードして、ディスプレイへ表示する。また、カメラ100−1は、有線もしくは無線ネットワークを介して、入力した画像圧縮データを外部装置へ出力する。外部装置が記録装置である場合、外部装置が、受信した画像圧縮データを記録する。   The output unit 122 receives the compressed image data from the image compression unit 108 and outputs it to the outside. For example, the camera 100-1 includes a display, decodes the input compressed image data, and displays the decoded image on the display. The camera 100-1 outputs the input compressed image data to an external device via a wired or wireless network. When the external device is a recording device, the external device records the received compressed image data.

1.2 選択制御装置200の構成
選択制御装置200は、画像類似判定部201、カメラ選択部202、通信部203を備えている。
1.2 Configuration of Selection Control Device 200 The selection control device 200 includes an image similarity determination unit 201, a camera selection unit 202, and a communication unit 203.

画像類似判定部201は、複数のカメラ(100−1、100−2、100−n)の撮像領域情報220を、通信部203経由で入力し、画像の重複度を判定する。撮像領域情報220は、カメラを識別可能な識別子と、対応するカメラの撮像領域情報120とを1つ以上含んでいる。画像類似判定部201は、各カメラの撮像領域情報120が示す領域の重なりを判断し、カメラ同士の重複度を決定する。画像類似判定部201は、撮像領域が重複しているカメラを、類似しているカメラとし、類似している複数のカメラを群として管理し、各カメラ群に群番号205を割り当てる。画像類似判定部201は、各カメラが属しているカメラ群の群番号205を、カメラ選択部202に出力する。   The image similarity determination unit 201 inputs the imaging area information 220 of a plurality of cameras (100-1, 100-2, 100-n) via the communication unit 203, and determines the degree of image overlap. The imaging area information 220 includes at least one identifier that can identify a camera and one or more imaging area information 120 of the corresponding camera. The image similarity determination unit 201 determines the overlapping of the areas indicated by the imaging area information 120 of each camera, and determines the overlapping degree between the cameras. The image similarity determination unit 201 manages cameras with overlapping imaging areas as similar cameras, manages a plurality of similar cameras as a group, and assigns a group number 205 to each camera group. The image similarity determination unit 201 outputs the group number 205 of the camera group to which each camera belongs to the camera selection unit 202.

図3は、撮像領域の重複を説明するための図である。図3は、上空から見た図であり、カメラ100−1とカメラ100−2と、カメラ100−1とカメラ100−2の撮像領域をそれぞれ斜線領域で示している。画像類似判定部201は、取得した各カメラの撮像領域情報120(位置情報、撮像方向情報、撮像距離)を用いて、上から見た時の撮像領域の撮像面積のうち、カメラ間で重複する重複面積を取得する。画像類似判定部201は、取得した重複面積の撮像面積に占める割合、すなわち重複度が予め設定された閾値以上の場合に、画像が重複していると判断し、類似度204として「重複」を出力する。一方、重複度が予め設定された閾値未満の場合、画像類似判定部201は、類似度204として「非重複」のブーリアン型データを出力する。なお、画像類似判定部201は、カメラ(100−1、100−2、100−n)ごとに、対応する類似度204を出力する。つまり、画像類似判定部201は、カメラを識別可能な識別子と、類似度204とを対応付けて出力する。また、画像類似判定部201は、類似しているカメラ同士を紐付けるため、重複していると判定されたカメラ群の群番号205を、カメラごとに付与し、カメラ選択部202に出力する。   FIG. 3 is a diagram for explaining overlapping of imaging regions. FIG. 3 is a view seen from above, and the imaging areas of the camera 100-1 and the camera 100-2, and the camera 100-1 and the camera 100-2 are indicated by hatched areas. The image similarity determination unit 201 uses the acquired imaging area information 120 (position information, imaging direction information, imaging distance) of each camera, and overlaps between the cameras in the imaging area of the imaging area when viewed from above. Get the overlap area. The image similarity determination unit 201 determines that images are overlapping when the ratio of the acquired overlapping area to the imaging area, that is, the overlapping degree is equal to or greater than a preset threshold, and sets “overlapping” as the similarity 204. Output. On the other hand, if the degree of overlap is less than a preset threshold, the image similarity determination unit 201 outputs “non-overlapping” Boolean data as the degree of similarity 204. Note that the image similarity determination unit 201 outputs a corresponding similarity 204 for each camera (100-1, 100-2, 100-n). That is, the image similarity determination unit 201 outputs an identifier that can identify the camera and the similarity 204 in association with each other. In addition, the image similarity determination unit 201 assigns the group number 205 of the camera group determined to be duplicated for each camera in order to associate similar cameras with each other, and outputs the group number 205 to the camera selection unit 202.

また、2つのカメラに着目した場合、重複面積は同一であっても、解像度または画角が異なれば撮像面積が異なり、重複度はそれぞれ異なる。そこで、2つのカメラにおいて、重複度が共に予め設定された閾値以上の場合に、画像が重複していると判断し、類似度204として「重複」と、そのカメラ群の群番号205を出力してもよい。   When attention is paid to the two cameras, even if the overlapping area is the same, if the resolution or the angle of view is different, the imaging area is different and the overlapping degree is different. Therefore, in both cameras, when the degree of overlap is equal to or greater than a preset threshold value, it is determined that the images are overlapped, and “duplicate” and the group number 205 of the camera group are output as the similarity 204. May be.

また、上記のように2つのカメラに着目した場合で更に撮像面積が異なり、少なくとも一方のカメラにおいて重複度が予め設定された閾値以上の場合、そのカメラ群の群番号205と、それぞれの重複度を類似度204として出力してもよい。図4は、2つのカメラの撮像面積が異なる場合の一例を示している。カメラ100−1の重複度は、20%である。カメラ100−2の重複度は、80%である。予め設定された閾値が70%の場合、カメラ100−2の重複度は、閾値を上回っている。一方、カメラ100−1の重複度は、閾値を下回っている。このような場合には、画像類似判定部201は、カメラ100−1および100−2をカメラ群とし、このカメラ群の群番号205と、それぞれの重複度20%および80%を類似度204として出力する。この際、重複していないカメラの群番号には例えば0xFFなどの予約番号を付与しておく。   In addition, when the two cameras are focused as described above, the imaging area is further different, and when at least one of the cameras has a degree of overlap equal to or greater than a preset threshold, the group number 205 of the camera group and the respective degree of overlap May be output as the similarity 204. FIG. 4 shows an example in which the imaging areas of the two cameras are different. The degree of overlap of the camera 100-1 is 20%. The degree of overlap of the camera 100-2 is 80%. When the preset threshold is 70%, the degree of duplication of the camera 100-2 exceeds the threshold. On the other hand, the overlapping degree of the camera 100-1 is below the threshold value. In such a case, the image similarity determination unit 201 sets the cameras 100-1 and 100-2 as a camera group, sets the group number 205 of the camera group, and 20% and 80% of the respective overlaps as the similarity 204. Output. At this time, a reservation number such as 0xFF is assigned to the group number of cameras that do not overlap.

なお、ここでは2つのカメラについて述べているが、3つ以上でも構わない。   Although two cameras are described here, three or more cameras may be used.

なお、ここではチルト角と高さ情報を用いていないが、チルト角と高さ情報を用いることで、3次元の重複体積を求めることが可能であり、重複体積から画像の類似度をより精度よく求めることができる。   Although the tilt angle and height information are not used here, it is possible to obtain a three-dimensional overlapping volume by using the tilt angle and height information, and the degree of similarity of images can be more accurately determined from the overlapping volume. You can often ask.

カメラ選択部202は、画像類似判定部201から、各カメラの群番号205を取得し、通信部203から各々のカメラ(100−1、100−2、100−n)の撮像状態219を取得し、選択処理を行う。撮像状態219は、カメラを識別可能な識別子と、対応するカメラの撮像状態119とを1つ以上含んでいる。カメラ選択部202は、同一の群番号を持つ各カメラの撮像状態119を用いて、画像処理に適したカメラを選択する。カメラ選択部202は、選択結果に基づいて、画像処理制御信号218を生成し、通信部203に出力する。なお、画像処理制御信号218は、カメラを識別可能な識別子と、対応するカメラの画像処理制御信号118とを1つ以上含んでいる。また、画像処理制御信号118は、「ON」または「OFF」が指定可能である。カメラ選択部202は、画像処理に適したカメラとして選択したカメラには「ON」を指定し、それ以外のカメラには「OFF」を指定する。   The camera selection unit 202 acquires the group number 205 of each camera from the image similarity determination unit 201 and acquires the imaging state 219 of each camera (100-1, 100-2, 100-n) from the communication unit 203. The selection process is performed. The imaging state 219 includes at least one identifier that can identify the camera and one or more imaging states 119 of the corresponding camera. The camera selection unit 202 selects a camera suitable for image processing using the imaging state 119 of each camera having the same group number. The camera selection unit 202 generates an image processing control signal 218 based on the selection result and outputs it to the communication unit 203. The image processing control signal 218 includes one or more identifiers that can identify the camera and one or more image processing control signals 118 of the corresponding cameras. The image processing control signal 118 can be designated “ON” or “OFF”. The camera selection unit 202 designates “ON” for a camera selected as a camera suitable for image processing, and designates “OFF” for other cameras.

例えば、カメラ選択部202は、撮像状態219として、カメラ100−1とカメラ100−4とカメラ100−5の撮像状態119(カウント値)を取得する。各カメラの撮像状態119(カウント値)は、それぞれ50、80、70である。更に、カメラ選択部202は、画像類似判定部201から、この3つのカメラ(100−1、100−4、100−5)が類似であるとして、同一の群番号を入力する。この時、カメラ選択部202は、カウント値が大きいほど画像処理に適さないと判断し、カウント値が一番小さいカメラ100−1を、最適なカメラと選択する。この結果、カメラ選択部202は、カメラ100−1に対する画像処理制御信号118を「ON」、カメラ100−4およびカメラ100−5に対する画像処理制御信号118を「OFF」を指定し、通信部203に出力する。   For example, the camera selection unit 202 acquires the imaging state 119 (count value) of the camera 100-1, the camera 100-4, and the camera 100-5 as the imaging state 219. The imaging state 119 (count value) of each camera is 50, 80, and 70, respectively. Furthermore, the camera selection unit 202 inputs the same group number from the image similarity determination unit 201, assuming that the three cameras (100-1, 100-4, 100-5) are similar. At this time, the camera selection unit 202 determines that the larger the count value is, the less suitable for image processing, and selects the camera 100-1 having the smallest count value as the optimum camera. As a result, the camera selection unit 202 designates “ON” for the image processing control signal 118 for the camera 100-1 and “OFF” for the image processing control signal 118 for the camera 100-4 and the camera 100-5. Output to.

また、別の例として、カメラ選択部202は、撮像状態219として、各カメラの撮像状態119としてシャッタ値115を取得する。カメラ選択部202は、シャッタ値115が小さいほど画像処理に適していると判断し、シャッタ値115が一番小さいカメラを、最適なカメラと選択する。この結果、カメラ選択部202は、シャッタ値115が一番小さいカメラに対する画像処理制御信号118を「ON」、それ以外のカメラに対する画像処理制御信号118を「OFF」を指定し、通信部203に出力する。   As another example, the camera selection unit 202 acquires the shutter value 115 as the imaging state 119 of each camera as the imaging state 219. The camera selection unit 202 determines that the smaller the shutter value 115 is, the better the image processing is, and selects the camera with the smallest shutter value 115 as the optimum camera. As a result, the camera selection unit 202 designates the image processing control signal 118 for the camera with the smallest shutter value 115 as “ON”, and designates the image processing control signal 118 for the other cameras as “OFF”. Output.

また、別の例として、カメラ選択部202は、画像類似判定部201から、類似度204として重複度(パーセンテージ)を取得する。カメラ選択部202は、それぞれのカメラの撮像状態119(カウント値)に、重複度(パーセンテージ)で重み付けし、比較する。図4の例では、カメラ100−1がカメラ100−2の撮像領域の80%をカバーするため、カメラ選択部202は、カメラ100−1のほうが画像処理に適していると判断してもよい。この場合、カメラ選択部202は、各カメラに対し、重複度(パーセンテージ)の逆数を、撮像状態119に乗算し、この結果に基づいて、最適なカメラを選択してもよい。   As another example, the camera selection unit 202 acquires the degree of overlap (percentage) as the similarity 204 from the image similarity determination unit 201. The camera selection unit 202 weights and compares the imaging state 119 (count value) of each camera with the degree of overlap (percentage). In the example of FIG. 4, since the camera 100-1 covers 80% of the imaging area of the camera 100-2, the camera selection unit 202 may determine that the camera 100-1 is more suitable for image processing. . In this case, the camera selection unit 202 may multiply the imaging state 119 by the reciprocal of the degree of overlap (percentage) for each camera, and select an optimal camera based on the result.

また、カメラ選択部202は、通信部203から各々のカメラの資源状態221を取得し、選択処理を行ってもよい。資源状態221は、カメラを識別可能な識別子と、対応するカメラの資源状態121とを1つ以上含んでいる。カメラ選択部202は、それぞれのカメラの撮像状態119もしくは撮像状態119に重複度(類似度204)を重み付けした値に対し、さらにそれぞれのカメラの資源状態121で重み付けし、比較する。   Further, the camera selection unit 202 may acquire the resource state 221 of each camera from the communication unit 203 and perform a selection process. The resource state 221 includes at least one identifier capable of identifying a camera and one or more resource states 121 of the corresponding camera. The camera selection unit 202 further weights and compares the imaging state 119 of each camera or the value obtained by weighting the degree of overlap (similarity 204) to the imaging state 119 with the resource state 121 of each camera.

また、類似した他のカメラが存在しないと判断されたカメラに対しては、画像処理制御信号118としてONを出力する。なぜなら同領域を撮像している他のカメラが存在しないため、自らが画像処理を行う必要があるからである。   Further, ON is output as an image processing control signal 118 to a camera for which it is determined that there is no other similar camera. This is because there is no other camera that images the same area, and it is necessary to perform image processing by itself.

通信部203は、有線もしくは無線ネットワークと接続し、各カメラ(100−1、100−2、100−n)から、撮像領域情報120および資源状態121を受信し、撮像領域情報220および資源状態221として、カメラ選択部202に出力する。また、通信部203は、カメラ選択部202から出力された画像処理制御信号218を受信し、各カメラ(100−1、100−2、100−n)へ送信する。   The communication unit 203 is connected to a wired or wireless network, receives the imaging area information 120 and the resource state 121 from each camera (100-1, 100-2, 100-n), and receives the imaging area information 220 and the resource state 221. To the camera selection unit 202. Further, the communication unit 203 receives the image processing control signal 218 output from the camera selection unit 202 and transmits it to each camera (100-1, 100-2, 100-n).

なお、本実施の形態では、画像類似判定部201の出力として、カメラごとに所属するカメラ群の群番号205を出力する構成としたが、群番号ごとに所属するカメラのリストを出力する構成でもよい。例えば、カメラ群1のリストは、カメラ100−1および100−3および100−5を識別可能な識別子の一覧であり、カメラ群2のリストは、カメラ100−2および100−6を識別可能な識別子の一覧である。   In the present embodiment, as the output of the image similarity determination unit 201, the group number 205 of the camera group belonging to each camera is output. However, in the configuration of outputting the list of cameras belonging to each group number. Good. For example, the list of the camera group 1 is a list of identifiers that can identify the cameras 100-1, 100-3, and 100-5, and the list of the camera group 2 can identify the cameras 100-2 and 100-6. It is a list of identifiers.

以上により、本実施の形態における選択制御装置は、複数のカメラの撮像領域が重なった場合において、各カメラの撮像状態を取得して、重なった撮像領域に対する画像処理に適したカメラを選択することが可能となる。また、本実施の形態における選択制御装置は、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことが可能となる。   As described above, the selection control device according to the present embodiment acquires the imaging state of each camera when the imaging areas of a plurality of cameras overlap, and selects a camera suitable for image processing for the overlapping imaging areas. Is possible. In addition, the selection control apparatus according to the present embodiment can perform control to execute image processing with a selected camera and stop image processing with a camera that has not been selected.

また、本実施の形態におけるカメラシステムでは、画像処理を行う複数のカメラが存在する際に同じような領域を撮像している場合、画像処理に最適な映像を撮像しているカメラのみ画像処理を行い、それ以外のカメラの画像処理を停止する。これにより、カメラシシステム全体で消費するリソースを削減することができる。削減可能なリソースとしては、例えば、消費電力の削減、使用メモリサイズの低減、ネットワーク帯域の使用量などである。   In addition, in the camera system according to the present embodiment, when a similar region is imaged when there are a plurality of cameras that perform image processing, only the camera that is capturing an image that is optimal for image processing performs image processing. And the image processing of other cameras is stopped. As a result, the resources consumed by the entire camera system can be reduced. Examples of resources that can be reduced include a reduction in power consumption, a reduction in memory size used, and an amount of network bandwidth used.

(実施の形態2)
2.カメラシステムの構成
本実施の形態におけるカメラシステムは、複数のカメラを備えており、これら複数のカメラは、ネットワークを介して接続している。また、少なくとも一つのカメラが、内部に選択制御部を有している。本実施の形態におけるカメラシステムは、実施の形態1の選択制御装置200が処理していた画像類似判定およびカメラ選択を、カメラ内部で行うことを特徴としている。
(Embodiment 2)
2. Configuration of Camera System The camera system according to the present embodiment includes a plurality of cameras, and the plurality of cameras are connected via a network. In addition, at least one camera has a selection control unit therein. The camera system according to the present embodiment is characterized in that the image similarity determination and camera selection processed by the selection control apparatus 200 according to the first embodiment are performed inside the camera.

複数のカメラは、周辺の撮影を実施し、撮影した画像から動物体を検出する動き検知機能または顔検出機能などの画像処理を実行する。カメラシステムは、各カメラが画像処理を実行した結果を用いて、アラーム、記憶媒体への記録、配信の開始のトリガを生成するなど、後の処理に使用する。本実施の形態においては、各カメラが画像処理を実行した後の処理については、詳細を記載しない。   The plurality of cameras perform peripheral imaging and perform image processing such as a motion detection function or a face detection function for detecting a moving object from the captured image. The camera system is used for subsequent processing such as generating an alarm, recording to a storage medium, and a trigger for starting distribution using the result of image processing performed by each camera. In the present embodiment, details are not described for processing after each camera executes image processing.

選択制御部310を有したカメラ300は、ネットワークを介して、他のカメラから撮像領域情報と撮像状態を取得し、撮像領域の重なり有無を判定する。重なりがあると判定した場合に、選択制御部310を有したカメラ300は、各カメラの撮像状態に基づいて、重なった撮像領域に対する画像処理に適したカメラを選択し、選択結果を画像処理制御信号として各カメラに通知する。画像処理制御信号を受信した各カメラは、画像処理制御信号に従って、画像処理を実行する、又は、画像処理を実行しない。   The camera 300 having the selection control unit 310 acquires imaging region information and imaging state from other cameras via the network, and determines whether or not the imaging regions overlap. When it is determined that there is an overlap, the camera 300 having the selection control unit 310 selects a camera suitable for image processing for the overlapped imaging region based on the imaging state of each camera, and performs image processing control on the selection result. Each camera is notified as a signal. Each camera that has received the image processing control signal performs image processing or does not perform image processing in accordance with the image processing control signal.

以上により、複数のカメラの撮像領域が重なった場合において、重なった撮像領域に対する画像処理に適したカメラを選択し、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことが可能となる。   As described above, when the imaging areas of a plurality of cameras are overlapped, a camera suitable for image processing with respect to the overlapping imaging areas is selected, image processing is executed with the selected camera, and image processing with the camera not selected is performed. It is possible to perform control to stop.

2.1 カメラ300の構成
図5は、本発明の実施の形態における選択制御部を有したカメラの一例を示す構成図である。なお、選択制御部を有しない他のカメラの内容構成は、前述した図1のカメラ100−1と同様の構成である。
2.1 Configuration of Camera 300 FIG. 5 is a configuration diagram illustrating an example of a camera having a selection control unit according to an embodiment of the present invention. The content configuration of the other cameras that do not have the selection control unit is the same as that of the camera 100-1 in FIG.

カメラ300は、レンズ101、レンズの絞り102、撮像素子103、デジタルシャッタ104、デジタルゲイン105、露光制御部106、映像信号処理部107、画像圧縮部108、画像処理部109、撮像領域取得部110、撮像状態検知部111、資源状態取得部112、通信部313、出力部122、選択制御部310を備えている。選択制御部310は、画像類似判定部301、カメラ選択部302を備えている。   The camera 300 includes a lens 101, a lens aperture 102, an image sensor 103, a digital shutter 104, a digital gain 105, an exposure control unit 106, a video signal processing unit 107, an image compression unit 108, an image processing unit 109, and an imaging region acquisition unit 110. An imaging state detection unit 111, a resource state acquisition unit 112, a communication unit 313, an output unit 122, and a selection control unit 310. The selection control unit 310 includes an image similarity determination unit 301 and a camera selection unit 302.

なお、このカメラ300は、図1のカメラ100−1と比較して、画像類似判定部301と、カメラ選択部302と、通信部313とが異なる。他の構成要素は、図1のカメラ100−1と同様の機能を有している。   The camera 300 is different from the camera 100-1 in FIG. 1 in an image similarity determination unit 301, a camera selection unit 302, and a communication unit 313. Other components have the same functions as the camera 100-1 in FIG.

以下、画像類似判定部301と、カメラ選択部302と、通信部313について、説明する。   Hereinafter, the image similarity determination unit 301, the camera selection unit 302, and the communication unit 313 will be described.

通信部313は、有線もしくは無線ネットワークと接続し、1つ以上の他カメラから、他カメラの撮像領域情報320および資源状態321および撮像状態319を受信する。また、通信部313は、他カメラから受信した各情報を、選択制御部310に出力する。なお、撮像状態319は、他カメラを識別可能な識別子と、対応する他カメラの撮像状態119とを1つ以上含んでいる。撮像領域情報320は、他カメラを識別可能な識別子と、対応する他カメラの撮像領域情報120とを1つ以上含んでいる。資源状態321は、他カメラを識別可能な識別子と、対応する他カメラの資源状態121とを1つ以上含んでいる。また、通信部313は、選択制御部310から、他カメラへの画像処理制御信号318を受信し、対応する他カメラへ出力する。   The communication unit 313 is connected to a wired or wireless network, and receives imaging area information 320, a resource state 321 and an imaging state 319 of another camera from one or more other cameras. In addition, the communication unit 313 outputs each information received from another camera to the selection control unit 310. The imaging state 319 includes one or more identifiers that can identify other cameras and one or more imaging states 119 of the corresponding other cameras. The imaging area information 320 includes one or more identifiers that can identify other cameras and one or more imaging area information 120 of the corresponding other cameras. The resource state 321 includes one or more identifiers that can identify other cameras and one or more resource states 121 of corresponding other cameras. Further, the communication unit 313 receives the image processing control signal 318 to the other camera from the selection control unit 310 and outputs it to the corresponding other camera.

画像類似判定部301は、他カメラの撮像領域情報320を、通信部313経由で入力し、自カメラの撮像領域情報120を撮像領域取得部110から入力し、画像の重複度を判定する。撮像領域情報320は、他カメラを識別可能な識別子と、対応する他カメラの撮像領域情報120とを1つ以上含んでいる。画像類似判定部301は、各カメラの撮像領域情報120が示す領域の重なりを判断し、カメラ同士の重複度を決定する。画像類似判定部301は、撮像領域が重複しているカメラを、類似しているカメラとし、類似している複数のカメラを群として管理し、各カメラ群に群番号205を割り当てる。画像類似判定部301は、各カメラが属しているカメラ群の群番号205を、カメラ選択部302に出力する。   The image similarity determination unit 301 inputs the imaging area information 320 of the other camera via the communication unit 313, inputs the imaging area information 120 of the own camera from the imaging area acquisition unit 110, and determines the degree of image overlap. The imaging area information 320 includes one or more identifiers that can identify other cameras and one or more imaging area information 120 of the corresponding other cameras. The image similarity determination unit 301 determines the overlap of the areas indicated by the imaging area information 120 of each camera, and determines the degree of overlap between the cameras. The image similarity determination unit 301 manages cameras with overlapping imaging areas as similar cameras, manages a plurality of similar cameras as a group, and assigns a group number 205 to each camera group. The image similarity determination unit 301 outputs the group number 205 of the camera group to which each camera belongs to the camera selection unit 302.

画像類似判定部301は、取得した各カメラ(自カメラおよび他カメラ)の撮像領域情報120(位置情報、撮像方向情報、撮像距離)を用いて、上から見た時の撮像領域の撮像面積のうち、カメラ間で重複する重複面積を取得する。画像類似判定部301は、取得した重複面積の撮像面積に占める割合、すなわち重複度が予め設定された閾値以上の場合に、画像が重複していると判断し、類似度204として「重複」を出力する。一方、重複度が予め設定された閾値未満の場合、画像類似判定部301は、類似度204として「非重複」のブーリアン型データを出力する。なお、画像類似判定部301は、カメラごとに、対応する類似度204を出力する。つまり、画像類似判定部301は、カメラを識別可能な識別子と、類似度204とを対応付けて出力する。また、画像類似判定部201は、類似しているカメラ同士を紐付けるため、重複していると判定されたカメラ群の群番号205を、カメラごとに付与し、カメラ選択部302に出力する。   The image similarity determination unit 301 uses the acquired imaging area information 120 (position information, imaging direction information, imaging distance) of each camera (own camera and other cameras) to determine the imaging area of the imaging area when viewed from above. Among them, an overlapping area overlapping between cameras is acquired. The image similarity determination unit 301 determines that images are overlapping when the ratio of the acquired overlapping area to the imaging area, that is, the overlapping degree is equal to or greater than a preset threshold, and sets “overlapping” as the similarity 204. Output. On the other hand, if the degree of overlap is less than a preset threshold, the image similarity determination unit 301 outputs Boolean data of “non-overlap” as the degree of similarity 204. The image similarity determination unit 301 outputs a corresponding similarity 204 for each camera. That is, the image similarity determination unit 301 outputs the identifier that can identify the camera and the similarity 204 in association with each other. In addition, the image similarity determination unit 201 assigns the group number 205 of the camera group determined to be duplicated for each camera in order to associate similar cameras with each other, and outputs the group number 205 to the camera selection unit 302.

また、2つのカメラに着目した場合、重複面積は同一であっても、解像度または画角が異なれば撮像面積が異なり、重複度はそれぞれ異なる。そこで、2つのカメラにおいて、重複度が共に予め設定された閾値以上の場合に、画像が重複していると判断し、類似度204として「重複」と、そのカメラ群の群番号205を出力してもよい。   When attention is paid to the two cameras, even if the overlapping area is the same, if the resolution or the angle of view is different, the imaging area is different and the overlapping degree is different. Therefore, in both cameras, when the degree of overlap is equal to or greater than a preset threshold value, it is determined that the images are overlapped, and “duplicate” and the group number 205 of the camera group are output as the similarity 204. May be.

また、上記のように2つのカメラに着目した場合で更に撮像面積が異なり、少なくとも一方のカメラにおいて重複度が予め設定された閾値以上の場合、そのカメラ群の群番号205と、それぞれの重複度を類似度204として出力してもよい。なお、各カメラの重複度については、図4を用いて、実施の形態1で説明した。画像類似判定部301は、図4の場合、カメラ100−1および100−2をカメラ群とし、このカメラ群の群番号205と、それぞれの重複度20%および80%を類似度204として出力する。この際、重複していないカメラの群番号には例えば0xFFなどの予約番号を付与しておく。   In addition, when the two cameras are focused as described above, the imaging area is further different, and when at least one of the cameras has a degree of overlap equal to or greater than a preset threshold, the group number 205 of the camera group and the respective degree of overlap May be output as the similarity 204. Note that the degree of duplication of each camera has been described in Embodiment 1 with reference to FIG. In the case of FIG. 4, the image similarity determination unit 301 sets the cameras 100-1 and 100-2 as camera groups, and outputs the group numbers 205 of these camera groups and the respective overlapping degrees 20% and 80% as the similarity degrees 204. . At this time, a reservation number such as 0xFF is assigned to the group number of cameras that do not overlap.

なお、画像類似判定部301が、各カメラの撮像領域情報を用いて、類似度を判定する方法については、実施の形態1の画像類似判定部201と同様の手順で処理することが可能である。   Note that the image similarity determination unit 301 can determine the degree of similarity using the imaging area information of each camera in the same procedure as the image similarity determination unit 201 of the first embodiment. .

カメラ選択部302は、画像類似判定部301から、各カメラの群番号205を取得し、他カメラの撮像状態319を通信部313経由で入力し、自カメラの撮像状態119を撮像状態検知部111から入力し、選択処理を行う。撮像状態319は、他カメラを識別可能な識別子と、対応する他カメラの撮像状態119とを1つ以上含んでいる。カメラ選択部302は、同一の群番号を持つ各カメラの撮像状態119を用いて、画像処理に適したカメラを選択する。カメラ選択部302は、選択結果に基づいて、画像処理制御信号318を生成し、通信部313に出力する。また、カメラ選択部302は、選択結果に基づいて、自カメラに対する画像処理制御信号118を生成し、画像処理部109に出力する。なお、画像処理制御信号318は、他カメラを識別可能な識別子と、対応する他カメラの画像処理制御信号118とを1つ以上含んでいる。また、画像処理制御信号118は、「ON」または「OFF」が指定可能である。カメラ選択部302は、画像処理に適したカメラとして選択したカメラには「ON」を指定し、それ以外のカメラには「OFF」を指定する。   The camera selection unit 302 acquires the group number 205 of each camera from the image similarity determination unit 301, inputs the imaging state 319 of the other camera via the communication unit 313, and sets the imaging state 119 of the own camera to the imaging state detection unit 111. Input from, and select processing. The imaging state 319 includes one or more identifiers that can identify other cameras and one or more imaging states 119 of the corresponding other cameras. The camera selection unit 302 selects a camera suitable for image processing using the imaging state 119 of each camera having the same group number. The camera selection unit 302 generates an image processing control signal 318 based on the selection result and outputs it to the communication unit 313. Also, the camera selection unit 302 generates an image processing control signal 118 for the own camera based on the selection result, and outputs the image processing control signal 118 to the image processing unit 109. The image processing control signal 318 includes one or more identifiers that can identify other cameras and one or more image processing control signals 118 of the corresponding other cameras. The image processing control signal 118 can be designated “ON” or “OFF”. The camera selection unit 302 designates “ON” for a camera selected as a camera suitable for image processing, and designates “OFF” for other cameras.

なお、カメラ選択部302が、各カメラの撮像状態を用いて、最適なカメラを選択する方法については、実施の形態1のカメラ選択部202と同様の手順で処理することが可能である。   Note that a method in which the camera selection unit 302 selects an optimal camera using the imaging state of each camera can be processed in the same procedure as the camera selection unit 202 of the first embodiment.

また、カメラ選択部302は、他カメラの資源状態321を通信部313経由で入力し、自カメラの資源状態121を資源状態取得部112から入力し、選択処理を行ってもよい。資源状態321は、他カメラを識別可能な識別子と、対応する他カメラの資源状態121とを1つ以上含んでいる。カメラ選択部302は、それぞれのカメラの撮像状態119もしくは撮像状態119に重複度(類似度204)を重み付けした値に対し、さらにそれぞれのカメラの資源状態121で重み付けし、比較する。   Further, the camera selection unit 302 may input the resource state 321 of the other camera via the communication unit 313 and input the resource state 121 of the own camera from the resource state acquisition unit 112 to perform the selection process. The resource state 321 includes one or more identifiers that can identify other cameras and one or more resource states 121 of corresponding other cameras. The camera selection unit 302 further weights and compares the imaging state 119 of each camera or the value obtained by weighting the degree of overlap (similarity 204) to the imaging state 119 with the resource state 121 of each camera.

また、類似した他のカメラが存在しないと判断されたカメラに対しては、画像処理制御信号118としてONを出力する。なぜなら同領域を撮像している他のカメラが存在しないため、自らが画像処理を行う必要があるからである。   Further, ON is output as an image processing control signal 118 to a camera for which it is determined that there is no other similar camera. This is because there is no other camera that images the same area, and it is necessary to perform image processing by itself.

以上により、本実施の形態におけるカメラは、選択制御部を備えており、カメラシステム内に、専用の選択制御装置を具備する必要がない。選択制御部を有したカメラは、複数のカメラの撮像領域が重なった場合において、各カメラの撮像状態を取得して、重なった撮像領域に対する画像処理に適したカメラを選択することが可能となる。また、本実施の形態における選択制御装置は、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことが可能となる。   As described above, the camera according to the present embodiment includes the selection control unit, and it is not necessary to include a dedicated selection control device in the camera system. A camera having a selection control unit can acquire an imaging state of each camera and select a camera suitable for image processing on the overlapped imaging area when the imaging areas of a plurality of cameras overlap. . In addition, the selection control apparatus according to the present embodiment can perform control to execute image processing with a selected camera and stop image processing with a camera that has not been selected.

また、本実施の形態におけるカメラシステムでは、画像処理を行う複数のカメラが存在する際に同じような領域を撮像している場合、画像処理に最適な映像を撮像しているカメラのみ画像処理を行い、それ以外のカメラの画像処理を停止する。これにより、カメラシシステム全体で消費するリソースを削減することができる。削減可能なリソースとしては、例えば、消費電力の削減、使用メモリサイズの低減、ネットワーク帯域の使用量などである。   In addition, in the camera system according to the present embodiment, when a similar region is imaged when there are a plurality of cameras that perform image processing, only the camera that is capturing an image that is optimal for image processing performs image processing. And the image processing of other cameras is stopped. As a result, the resources consumed by the entire camera system can be reduced. Examples of resources that can be reduced include a reduction in power consumption, a reduction in memory size used, and an amount of network bandwidth used.

(実施の形態3)
3.カメラシステムの構成
本実施の形態におけるカメラシステムは、複数のカメラを備えており、これら複数のカメラは、ネットワークを介して接続している。また、全てのカメラが、内部に選択制御部を有している。一方、実施の形態2では、選択制御部を有したカメラと他カメラのソフトウェア構成、もしくはハードウェア構成に差異がある。つまり、本実施の形態におけるカメラシステムは、同等のソフトウェア構成、もしくはハードウェア構成のカメラから構築することが可能となる。本実施の形態におけるカメラシステムは、実施の形態1の選択制御装置200が処理していた画像類似判定およびカメラ選択を、全てのカメラ内部で実行可能とすることを特徴としている。本実施の形態におけるカメラは、自カメラのカメラ属性情報に基づいて、自カメラ内で、画像類似判定およびカメラ選択を実行するか否かを決定し、処理を切り替える。
(Embodiment 3)
3. Configuration of Camera System The camera system according to the present embodiment includes a plurality of cameras, and the plurality of cameras are connected via a network. All the cameras have a selection control unit inside. On the other hand, in the second embodiment, there is a difference in software configuration or hardware configuration between the camera having the selection control unit and another camera. That is, the camera system in the present embodiment can be constructed from cameras having an equivalent software configuration or hardware configuration. The camera system according to the present embodiment is characterized in that the image similarity determination and the camera selection processed by the selection control apparatus 200 according to the first embodiment can be executed inside all the cameras. Based on the camera attribute information of the own camera, the camera according to the present embodiment determines whether to perform image similarity determination and camera selection within the own camera, and switches processing.

複数のカメラは、周辺の撮影を実施し、撮影した画像から動物体を検出する動き検知機能または顔検出機能などの画像処理を実行する。カメラシステムは、各カメラが画像処理を実行した結果を用いて、アラーム、記憶媒体への記録、配信の開始のトリガを生成するなど、後の処理に使用する。本実施の形態においては、各カメラが画像処理を実行した後の処理については、詳細を記載しない。   The plurality of cameras perform peripheral imaging and perform image processing such as a motion detection function or a face detection function for detecting a moving object from the captured image. The camera system is used for subsequent processing such as generating an alarm, recording to a storage medium, and a trigger for starting distribution using the result of image processing performed by each camera. In the present embodiment, details are not described for processing after each camera executes image processing.

選択制御部410を有したカメラ400は、自カメラのカメラ属性情報に基づいて、自カメラ内で、画像類似判定およびカメラ選択を実行するか否かを判定する。選択制御部410を有したカメラ400は、画像類似判定およびカメラ選択を実行すると決定した場合、ネットワークを介して、他のカメラから撮像領域情報と撮像状態を取得し、撮像領域の重なり有無を判定する。重なりがあると判定した場合に、選択制御部410を有したカメラ400は、各カメラの撮像状態に基づいて、重なった撮像領域に対する画像処理に適したカメラを選択し、選択結果を画像処理制御信号として各カメラに通知する。画像処理制御信号を受信した各カメラは、画像処理制御信号に従って、画像処理を実行する、又は、画像処理を実行しない。   The camera 400 having the selection control unit 410 determines whether to perform image similarity determination and camera selection within the own camera based on the camera attribute information of the own camera. When it is determined that the image similarity determination and the camera selection are to be performed, the camera 400 having the selection control unit 410 acquires the imaging area information and the imaging state from other cameras via the network, and determines whether the imaging areas overlap. To do. When it is determined that there is an overlap, the camera 400 having the selection control unit 410 selects a camera suitable for image processing with respect to the overlapped imaging region based on the imaging state of each camera, and performs image processing control on the selection result. Each camera is notified as a signal. Each camera that has received the image processing control signal performs image processing or does not perform image processing in accordance with the image processing control signal.

また、選択制御部410を有したカメラ400は、自カメラのカメラ属性情報に基づいて、自カメラ内で、画像類似判定およびカメラ選択を実行しないと決定した場合、ネットワークを介して、他のカメラへ撮像領域情報と撮像状態を送信する。画像処理制御信号を受信した各カメラは、画像処理制御信号に従って、画像処理を実行する、又は、画像処理を実行しない。   In addition, when the camera 400 having the selection control unit 410 determines not to execute the image similarity determination and the camera selection in its own camera based on the camera attribute information of its own camera, the other camera via the network The imaging area information and the imaging state are transmitted to. Each camera that has received the image processing control signal performs image processing or does not perform image processing in accordance with the image processing control signal.

以上により、複数のカメラの撮像領域が重なった場合において、重なった撮像領域に対する画像処理に適したカメラを選択し、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことが可能となる。   As described above, when the imaging areas of a plurality of cameras are overlapped, a camera suitable for image processing with respect to the overlapping imaging areas is selected, image processing is executed with the selected camera, and image processing with the camera not selected is performed. It is possible to perform control to stop.

3.1 カメラ400の構成
図6は、本発明の実施の形態における選択制御部を有したカメラの一例を示す構成図である。
3.1 Configuration of Camera 400 FIG. 6 is a configuration diagram illustrating an example of a camera having a selection control unit according to the embodiment of the present invention.

カメラ400は、レンズ101、レンズの絞り102、撮像素子103、デジタルシャッタ104、デジタルゲイン105、露光制御部106、映像信号処理部107、画像圧縮部108、画像処理部109、撮像領域取得部110、撮像状態検知部111、資源状態取得部112、通信部413、出力部122、選択制御部410を備えている。選択制御部410は、画像類似判定部401、カメラ選択部402、カメラ属性判定部403、通信信号制御部404を備えている。   The camera 400 includes a lens 101, a lens aperture 102, an image sensor 103, a digital shutter 104, a digital gain 105, an exposure control unit 106, a video signal processing unit 107, an image compression unit 108, an image processing unit 109, and an imaging region acquisition unit 110. An imaging state detection unit 111, a resource state acquisition unit 112, a communication unit 413, an output unit 122, and a selection control unit 410. The selection control unit 410 includes an image similarity determination unit 401, a camera selection unit 402, a camera attribute determination unit 403, and a communication signal control unit 404.

なお、このカメラ400は、図5のカメラ300と比較して、カメラ属性判定部403と、通信信号制御部404と、画像類似判定部401と、カメラ選択部402と、通信部413とが異なる。他の構成要素は、図5のカメラ300と同様の機能、すなわち、図1のカメラ100−1と同様の機能を有している。   The camera 400 is different from the camera 300 in FIG. 5 in a camera attribute determination unit 403, a communication signal control unit 404, an image similarity determination unit 401, a camera selection unit 402, and a communication unit 413. . Other components have the same function as the camera 300 in FIG. 5, that is, the same function as the camera 100-1 in FIG.

以下、画像類似判定部401と、カメラ選択部402と、カメラ属性判定部403と、通信信号制御部404、通信部413について、説明する。   The image similarity determination unit 401, camera selection unit 402, camera attribute determination unit 403, communication signal control unit 404, and communication unit 413 will be described below.

通信部413は、有線もしくは無線ネットワークと接続し、1つ以上の他カメラから、他カメラの撮像領域情報320および資源状態321および撮像状態319を受信する。また、通信部413は、他カメラから受信した撮像領域情報320および資源状態321および撮像状態319を、選択制御部410の通信信号制御部404に出力する。なお、撮像状態319は、他カメラを識別可能な識別子と、対応する他カメラの撮像状態119とを1つ以上含んでいる。撮像領域情報320は、他カメラを識別可能な識別子と、対応する他カメラの撮像領域情報120とを1つ以上含んでいる。資源状態321は、他カメラを識別可能な識別子と、対応する他カメラの資源状態121とを1つ以上含んでいる。また、通信部413は、選択制御部410の通信信号制御部404から、他カメラへの画像処理制御信号318を受信し、対応する他カメラへ出力する。   The communication unit 413 is connected to a wired or wireless network, and receives imaging area information 320, a resource state 321 and an imaging state 319 of another camera from one or more other cameras. In addition, the communication unit 413 outputs the imaging region information 320, the resource state 321, and the imaging state 319 received from the other camera to the communication signal control unit 404 of the selection control unit 410. The imaging state 319 includes one or more identifiers that can identify other cameras and one or more imaging states 119 of the corresponding other cameras. The imaging area information 320 includes one or more identifiers that can identify other cameras and one or more imaging area information 120 of the corresponding other cameras. The resource state 321 includes one or more identifiers that can identify other cameras and one or more resource states 121 of corresponding other cameras. Further, the communication unit 413 receives the image processing control signal 318 to the other camera from the communication signal control unit 404 of the selection control unit 410 and outputs it to the corresponding other camera.

また、通信部413は、選択制御部410の通信信号制御部404から入力した、自カメラの撮像状態119および撮像領域情報120および資源状態121を、他カメラへ送信する。また、通信部413は、他カメラから、自カメラの画像処理制御信号118を受信し、選択制御部410の通信信号制御部404に出力する。   In addition, the communication unit 413 transmits the imaging state 119, the imaging area information 120, and the resource state 121 of the own camera input from the communication signal control unit 404 of the selection control unit 410 to other cameras. Further, the communication unit 413 receives the image processing control signal 118 of the own camera from another camera and outputs it to the communication signal control unit 404 of the selection control unit 410.

カメラ属性判定部403は、自カメラのカメラ属性情報405に基づいて、自カメラ内で、画像類似判定およびカメラ選択を実行するか否かを判定する。カメラ属性判定部403は、判定結果を実行制御信号406として、画像類似判定部401と、カメラ選択部402と、通信信号制御部404に出力する。また、実行制御信号406は、「ON」または「OFF」が指定可能である。カメラ属性判定部403は、実行すると判定した場合には「ON」を指定し、それ以外場合には「OFF」を指定する。   Based on the camera attribute information 405 of the own camera, the camera attribute determination unit 403 determines whether to perform image similarity determination and camera selection within the own camera. The camera attribute determination unit 403 outputs the determination result as an execution control signal 406 to the image similarity determination unit 401, the camera selection unit 402, and the communication signal control unit 404. The execution control signal 406 can be designated as “ON” or “OFF”. The camera attribute determination unit 403 specifies “ON” if it is determined to be executed, and specifies “OFF” otherwise.

カメラ属性判定部403は、画像類似判定およびカメラ選択を実行するか否かの判定方法として、例えば、カメラ属性情報405として「実行する」又は「実行しない」を、予め各カメラに設定する。   The camera attribute determination unit 403 sets, for example, “execute” or “do not execute” as the camera attribute information 405 in advance for each camera as a determination method for determining whether to perform image similarity determination and camera selection.

また、別の例として、カメラ属性判定部403が、ハッシュ値を用いる方法がある。例えば、カメラ属性判定部403は、カメラのMACアドレスなどカメラに付与されている唯一の番号に対して、SHA−1などのハッシュ関数を用いてハッシュ値を求める。一方で、カメラ属性判定部403は、制御すべき画像処理の内容、すなわち画像処理部109で行われる画像処理機能の名称に対しても同様にハッシュ値を求める。カメラ属性判定部403は、名称に対して付けられたハッシュ値より大きくかつ一番近いハッシュ値を持つカメラで画像類似判定およびカメラ選択を実行し、他のカメラでは実行しないと判定する。同種の手法はピアツーピア通信の分散ハッシュテーブル(DHT)として広く知られている。DHTを用いれば、ネットワークからカメラの出入りがあった場合においても、実行するカメラを動的に変更し、安定的に処理を継続することが可能である。また、画像処理部109で行われる画像処理機能が複数ある場合、各画像処理機能が別の名称を持つため、画像処理機能ごとに、別のハッシュ値となる。この結果、カメラ属性判定部403は、画像処理機能ごとに、画像類似判定およびカメラ選択はそれぞれ別のカメラで実行されることとなり、1つのカメラに負荷が偏ることがないという利点がある。   As another example, there is a method in which the camera attribute determination unit 403 uses a hash value. For example, the camera attribute determination unit 403 obtains a hash value using a hash function such as SHA-1 for a unique number assigned to the camera such as the MAC address of the camera. On the other hand, the camera attribute determination unit 403 similarly obtains a hash value for the content of the image processing to be controlled, that is, the name of the image processing function performed by the image processing unit 109. The camera attribute determination unit 403 performs image similarity determination and camera selection with a camera having a hash value that is larger than and closest to the hash value assigned to the name, and determines that it is not performed with other cameras. A similar technique is widely known as a distributed hash table (DHT) for peer-to-peer communication. If DHT is used, even when a camera enters or exits from the network, it is possible to dynamically change the camera to be executed and continue the process stably. In addition, when there are a plurality of image processing functions performed by the image processing unit 109, each image processing function has a different name, and thus a different hash value is used for each image processing function. As a result, the camera attribute determination unit 403 has an advantage that the image similarity determination and the camera selection are executed by different cameras for each image processing function, and the load is not biased to one camera.

通信信号制御部404は、カメラ属性判定部403から出力された実行制御信号406に従い、処理を切り替える。   The communication signal control unit 404 switches processing according to the execution control signal 406 output from the camera attribute determination unit 403.

実行制御信号406がONの場合、通信信号制御部404は、次の処理を行う。通信信号制御部404は、他カメラの撮像領域情報320と自カメラの撮像領域情報120を入力し、これらを撮像領域情報420として束ね、自他カメラの撮像領域情報420を画像類似判定部401に出力する。撮像領域情報420は、自他カメラを識別可能な識別子と、対応する自他カメラの撮像領域情報120とを1つ以上含んでいる。また、通信信号制御部404は、他カメラの撮像状態319と自カメラの撮像状態119を入力し、これらを撮像状態419として束ね、自他カメラの撮像状態419をカメラ選択部402に出力する。撮像状態419は、自他カメラを識別可能な識別子と、対応する自他カメラの撮像状態119とを1つ以上含んでいる。また、通信信号制御部404は、他カメラの資源状態321と自カメラの資源状態121を入力し、これらを資源状態421として束ね、自他カメラの資源状態421をカメラ選択部402に出力する。資源状態421は、自他カメラを識別可能な識別子と、対応する自他カメラの資源状態121とを1つ以上含んでいる。さらに、通信信号制御部404は、自他カメラの画像処理制御信号418をカメラ選択部402から入力し、画像処理制御信号418に含まれる自カメラの画像処理制御信号118を、画像処理部109に出力する。通信信号制御部404は、画像処理制御信号418に含まれる他カメラの画像処理制御信号318を、通信部413に出力する。なお、画像処理制御信号418は、自他カメラを識別可能な識別子と、対応する自他カメラの画像処理制御信号118とを1つ以上含んでいる。   When the execution control signal 406 is ON, the communication signal control unit 404 performs the following processing. The communication signal control unit 404 inputs the imaging area information 320 of the other camera and the imaging area information 120 of the own camera, bundles them as the imaging area information 420, and bundles the imaging area information 420 of the own and other cameras to the image similarity determination unit 401. Output. The imaging area information 420 includes one or more identifiers capable of identifying the own and other cameras and one or more imaging area information 120 of the corresponding own and other cameras. Further, the communication signal control unit 404 inputs the imaging state 319 of the other camera and the imaging state 119 of the own camera, bundles them as the imaging state 419, and outputs the imaging state 419 of the own other camera to the camera selection unit 402. The imaging state 419 includes one or more identifiers that can identify the own and other cameras and one or more imaging states 119 of the corresponding own and other cameras. Further, the communication signal control unit 404 inputs the resource state 321 of the other camera and the resource state 121 of the own camera, bundles them as the resource state 421, and outputs the resource state 421 of the own camera to the camera selection unit 402. The resource state 421 includes one or more identifiers that can identify the own camera and the resource state 121 of the corresponding own camera. Further, the communication signal control unit 404 inputs the image processing control signal 418 of its own or other camera from the camera selection unit 402, and sends the image processing control signal 118 of its own camera included in the image processing control signal 418 to the image processing unit 109. Output. The communication signal control unit 404 outputs an image processing control signal 318 of another camera included in the image processing control signal 418 to the communication unit 413. Note that the image processing control signal 418 includes one or more identifiers capable of identifying the own and other cameras and one or more image processing control signals 118 of the corresponding own and other cameras.

実行制御信号406がOFFの場合、通信信号制御部404は、入力した自カメラの撮像状態119および資源状態121および撮像領域情報120を、通信部413へ出力する。また、通信信号制御部404は、通信部413から入力した自カメラの画像処理制御信号118を、画像処理部109へ出力する。   When the execution control signal 406 is OFF, the communication signal control unit 404 outputs the input imaging state 119, resource state 121, and imaging area information 120 of the own camera to the communication unit 413. Further, the communication signal control unit 404 outputs the image processing control signal 118 of the own camera input from the communication unit 413 to the image processing unit 109.

画像類似判定部401は、カメラ属性判定部403から出力された実行制御信号406に従い、処理を切り替える。実行制御信号406がOFFの場合、画像類似判定部401は、処理を行わない。実行制御信号406がONの場合、画像類似判定部401は、次の処理を行う。   The image similarity determination unit 401 switches processing according to the execution control signal 406 output from the camera attribute determination unit 403. When the execution control signal 406 is OFF, the image similarity determination unit 401 does not perform processing. When the execution control signal 406 is ON, the image similarity determination unit 401 performs the following processing.

画像類似判定部401は、自他カメラの撮像領域情報420を、通信信号制御部404から入力し、画像の重複度を判定する。撮像領域情報420は、自他カメラを識別可能な識別子と、対応する自他カメラの撮像領域情報120とを1つ以上含んでいる。画像類似判定部401は、各カメラの撮像領域情報120が示す領域の重なりを判断し、カメラ同士の重複度を決定する。画像類似判定部401は、撮像領域が重複しているカメラを、類似しているカメラとし、類似している複数のカメラを群として管理し、各カメラ群に群番号205を割り当てる。画像類似判定部401は、各カメラが属しているカメラ群の群番号205を、カメラ選択部402に出力する。   The image similarity determination unit 401 inputs the imaging area information 420 of the own and other cameras from the communication signal control unit 404, and determines the degree of image overlap. The imaging area information 420 includes one or more identifiers capable of identifying the own and other cameras and one or more imaging area information 120 of the corresponding own and other cameras. The image similarity determination unit 401 determines the overlap of the areas indicated by the imaging area information 120 of each camera, and determines the degree of overlap between the cameras. The image similarity determination unit 401 manages cameras with overlapping imaging areas as similar cameras, manages a plurality of similar cameras as a group, and assigns a group number 205 to each camera group. The image similarity determination unit 401 outputs the group number 205 of the camera group to which each camera belongs to the camera selection unit 402.

画像類似判定部401は、取得した各カメラ(自カメラおよび他カメラ)の撮像領域情報120(位置情報、撮像方向情報、撮像距離)を用いて、上から見た時の撮像領域の撮像面積のうち、カメラ間で重複する重複面積を取得する。画像類似判定部401は、取得した重複面積の撮像面積に占める割合、すなわち重複度が予め設定された閾値以上の場合に、画像が重複していると判断し、類似度204として「重複」を出力する。一方、重複度が予め設定された閾値未満の場合、画像類似判定部401は、類似度204として「非重複」のブーリアン型データを出力する。なお、画像類似判定部401は、カメラごとに、対応する類似度204を出力する。つまり、画像類似判定部401は、カメラを識別可能な識別子と、類似度204とを対応付けて出力する。また、画像類似判定部401は、類似しているカメラ同士を紐付けるため、重複していると判定されたカメラ群の群番号205を、カメラごとに付与し、カメラ選択部402に出力する。   The image similarity determination unit 401 uses the acquired imaging area information 120 (position information, imaging direction information, imaging distance) of each camera (own camera and other cameras) to determine the imaging area of the imaging area when viewed from above. Among them, an overlapping area overlapping between cameras is acquired. The image similarity determination unit 401 determines that images are overlapping when the ratio of the acquired overlapping area to the imaging area, that is, the overlapping degree is equal to or greater than a preset threshold, and sets “overlapping” as the similarity 204. Output. On the other hand, if the degree of overlap is less than a preset threshold, the image similarity determination unit 401 outputs “non-overlapping” Boolean data as the degree of similarity 204. The image similarity determination unit 401 outputs a corresponding similarity 204 for each camera. That is, the image similarity determination unit 401 outputs an identifier that can identify the camera and the similarity 204 in association with each other. Further, the image similarity determination unit 401 assigns the group number 205 of the camera group determined to be duplicated for each camera in order to associate similar cameras with each other, and outputs them to the camera selection unit 402.

また、2つのカメラに着目した場合、重複面積は同一であっても、解像度または画角が異なれば撮像面積が異なり、重複度はそれぞれ異なる。そこで、2つのカメラにおいて、重複度が共に予め設定された閾値以上の場合に、画像が重複していると判断し、類似度204として「重複」と、そのカメラ群の群番号205を出力してもよい。   When attention is paid to the two cameras, even if the overlapping area is the same, if the resolution or the angle of view is different, the imaging area is different and the overlapping degree is different. Therefore, in both cameras, when the degree of overlap is equal to or greater than a preset threshold value, it is determined that the images are overlapped, and “duplicate” and the group number 205 of the camera group are output as the similarity 204. May be.

また、上記のように2つのカメラに着目した場合で更に撮像面積が異なり、少なくとも一方のカメラにおいて重複度が予め設定された閾値以上の場合、そのカメラ群の群番号205と、それぞれの重複度を類似度204として出力してもよい。なお、各カメラの重複度については、図4を用いて、実施の形態1で説明した。画像類似判定部401は、図4の場合、カメラ100−1および100−2をカメラ群とし、このカメラ群の群番号205と、それぞれの重複度20%および80%を類似度204として出力する。この際、重複していないカメラの群番号には例えば0xFFなどの予約番号を付与しておく。   In addition, when the two cameras are focused as described above, the imaging area is further different, and when at least one of the cameras has a degree of overlap equal to or greater than a preset threshold, the group number 205 of the camera group and the respective degree of overlap May be output as the similarity 204. Note that the degree of duplication of each camera has been described in Embodiment 1 with reference to FIG. In the case of FIG. 4, the image similarity determination unit 401 sets the cameras 100-1 and 100-2 as a camera group, and outputs the group number 205 of the camera group and the respective overlapping degrees 20% and 80% as the similarity degree 204. . At this time, a reservation number such as 0xFF is assigned to the group number of cameras that do not overlap.

なお、画像類似判定部401が、各カメラの撮像領域情報を用いて、類似度を判定する方法については、実施の形態1の画像類似判定部201と同様の手順で処理することが可能である。   Note that the image similarity determination unit 401 can use the imaging region information of each camera to determine the degree of similarity in the same procedure as the image similarity determination unit 201 of the first embodiment. .

カメラ選択部402は、カメラ属性判定部403から出力された実行制御信号406に従い、処理を切り替える。実行制御信号406がOFFの場合、カメラ選択部402は、処理を行わない。実行制御信号406がONの場合、カメラ選択部402は、次の処理を行う。   The camera selection unit 402 switches processing according to the execution control signal 406 output from the camera attribute determination unit 403. When the execution control signal 406 is OFF, the camera selection unit 402 does not perform processing. When the execution control signal 406 is ON, the camera selection unit 402 performs the following process.

カメラ選択部402は、画像類似判定部401から、各カメラの群番号205を取得し、自他カメラの撮像状態419を通信信号制御部404から入力し、選択処理を行う。撮像状態419は、自他カメラを識別可能な識別子と、対応する自他カメラの撮像状態119とを1つ以上含んでいる。カメラ選択部402は、同一の群番号を持つ各カメラの撮像状態119を用いて、画像処理に適したカメラを選択する。カメラ選択部402は、選択結果に基づいて、画像処理制御信号418を生成し、通信信号制御部404に出力する。なお、画像処理制御信号418は、自他カメラを識別可能な識別子と、対応する自他カメラの画像処理制御信号118とを1つ以上含んでいる。また、画像処理制御信号118は、「ON」または「OFF」が指定可能である。カメラ選択部402は、画像処理に適したカメラとして選択したカメラには「ON」を指定し、それ以外のカメラには「OFF」を指定する。   The camera selection unit 402 acquires the group number 205 of each camera from the image similarity determination unit 401, inputs the imaging state 419 of its own and other cameras from the communication signal control unit 404, and performs selection processing. The imaging state 419 includes one or more identifiers that can identify the own and other cameras and one or more imaging states 119 of the corresponding own and other cameras. The camera selection unit 402 selects a camera suitable for image processing using the imaging state 119 of each camera having the same group number. The camera selection unit 402 generates an image processing control signal 418 based on the selection result and outputs it to the communication signal control unit 404. Note that the image processing control signal 418 includes one or more identifiers capable of identifying the own and other cameras and one or more image processing control signals 118 of the corresponding own and other cameras. The image processing control signal 118 can be designated “ON” or “OFF”. The camera selection unit 402 designates “ON” for a camera selected as a camera suitable for image processing, and designates “OFF” for other cameras.

なお、カメラ選択部402が、各カメラの撮像状態を用いて、最適なカメラを選択する方法については、実施の形態1のカメラ選択部202と同様の手順で処理することが可能である。   Note that a method in which the camera selection unit 402 selects an optimal camera using the imaging state of each camera can be processed in the same procedure as the camera selection unit 202 of the first embodiment.

また、カメラ選択部402は、自他カメラの資源状態421を通信信号制御部404から入力し、選択処理を行ってもよい。資源状態421は、自他カメラを識別可能な識別子と、対応する自他カメラの資源状態121とを1つ以上含んでいる。カメラ選択部402は、それぞれのカメラの撮像状態119もしくは撮像状態119に重複度(類似度204)を重み付けした値に対し、さらにそれぞれのカメラの資源状態121で重み付けし、比較する。   In addition, the camera selection unit 402 may input the resource state 421 of the other camera from the communication signal control unit 404 and perform a selection process. The resource state 421 includes one or more identifiers that can identify the own camera and the resource state 121 of the corresponding own camera. The camera selection unit 402 further weights and compares the imaging state 119 of each camera or the value obtained by weighting the degree of overlap (similarity 204) to the imaging state 119 with the resource state 121 of each camera.

また、類似した他のカメラが存在しないと判断されたカメラに対しては、画像処理制御信号118としてONを出力する。なぜなら同領域を撮像している他のカメラが存在しないため、自らが画像処理を行う必要があるからである。   Further, ON is output as an image processing control signal 118 to a camera for which it is determined that there is no other similar camera. This is because there is no other camera that images the same area, and it is necessary to perform image processing by itself.

すなわち、実行制御信号406がONとは、まず、自らの撮像状態119および撮像領域情報120および資源状態121と、他カメラの撮像状態319および撮像領域情報320および資源状態321を集約する。次に、画像類似判定部401が画像類似判定し、カメラ選択部402が適したカメラを選択し、自カメラの画像処理制御信号118と他カメラの画像処理制御信号318を生成することを指示する。   That is, when the execution control signal 406 is ON, first, the own imaging state 119, imaging area information 120, and resource state 121, and the imaging state 319, imaging area information 320, and resource state 321 of other cameras are collected. Next, the image similarity determination unit 401 determines the image similarity, and the camera selection unit 402 selects a suitable camera, and instructs to generate the image processing control signal 118 of the own camera and the image processing control signal 318 of the other camera. .

一方、実行制御信号406がOFFとは、自らの撮像状態119および撮像領域情報120および資源状態121を他カメラに送信し、他カメラが出力した画像処理制御信号118を受信し、画像処理部109を制御することを指示する。   On the other hand, when the execution control signal 406 is OFF, the image capturing state 119, the image capturing area information 120, and the resource state 121 are transmitted to the other camera, the image processing control signal 118 output by the other camera is received, and the image processing unit 109 is received. To control.

以上により、本実施の形態におけるカメラは、選択制御部を備えており、カメラシステム内に、専用の選択制御装置を具備する必要がない。画像類似判定およびカメラ選択を実行すると判定されたカメラは、複数のカメラの撮像領域が重なった場合において、各カメラの撮像状態を取得して、重なった撮像領域に対する画像処理に適したカメラを選択することが可能となる。また、本実施の形態における選択制御装置は、選択したカメラで画像処理を実行し、選択しなかったカメラでの画像処理を停止する制御を行うことが可能となる。   As described above, the camera according to the present embodiment includes the selection control unit, and it is not necessary to include a dedicated selection control device in the camera system. Cameras that are determined to perform image similarity determination and camera selection acquire the imaging state of each camera when the imaging areas of multiple cameras overlap, and select a camera that is suitable for image processing for the overlapping imaging areas It becomes possible to do. In addition, the selection control apparatus according to the present embodiment can perform control to execute image processing with a selected camera and stop image processing with a camera that has not been selected.

また、本実施の形態におけるカメラシステムでは、画像処理を行う複数のカメラが存在する際に同じような領域を撮像している場合、画像処理に最適な映像を撮像しているカメラのみ画像処理を行い、それ以外のカメラの画像処理を停止する。これにより、カメラシシステム全体で消費するリソースを削減することができる。削減可能なリソースとしては、例えば、消費電力の削減、使用メモリサイズの低減、ネットワーク帯域の使用量などである。   In addition, in the camera system according to the present embodiment, when a similar region is imaged when there are a plurality of cameras that perform image processing, only the camera that is capturing an image that is optimal for image processing performs image processing. And the image processing of other cameras is stopped. As a result, the resources consumed by the entire camera system can be reduced. Examples of resources that can be reduced include a reduction in power consumption, a reduction in memory size used, and an amount of network bandwidth used.

また、本実施の形態におけるカメラシステムでは、画像類似判定およびカメラ選択を実行するカメラを動的に変更することが可能であり、ネットワークからカメラの出入りがあった場合においても、安定的に処理を継続することができる。   Further, in the camera system according to the present embodiment, it is possible to dynamically change the camera that performs image similarity determination and camera selection, and processing can be performed stably even when the camera enters and exits from the network. Can continue.

また、本実施の形態におけるカメラシステムでは、複数の画像処理機能を使用する場合、画像処理機能ごとに、画像類似判定およびカメラ選択はそれぞれ別のカメラで実行することが可能であり、1つのカメラに対する負荷の偏りを低減できる。   In the camera system according to the present embodiment, when a plurality of image processing functions are used, image similarity determination and camera selection can be executed by different cameras for each image processing function. The load bias can be reduced.

本発明にかかる選択制御装置は、複数のカメラの撮像領域が重なった場合に、各カメラの撮像状態を取得して、画像処理に適したカメラを選択する機能を有し、複数のカメラを備えたカメラシステム等として有用である。また、複数のカメラを備えた放送中継システム、交通ナビゲーションシステム、監視システム、テレビ会議システムなどの用途にも応用できる。   The selection control device according to the present invention has a function of acquiring the imaging state of each camera and selecting a camera suitable for image processing when the imaging areas of the plurality of cameras overlap, and includes a plurality of cameras. This is useful as a camera system. It can also be applied to broadcast relay systems equipped with multiple cameras, traffic navigation systems, surveillance systems, video conference systems and the like.

100−1,100−2,100−n,300,400 カメラ
101 レンズ
102 絞り
103 撮像素子
104 デジタルシャッタ
105 デジタルゲイン
106 露光制御部
107 映像信号処理部
108 画像圧縮部
109 画像処理部
110 撮像領域取得部
111 撮像状態検知部
112 資源状態取得部
113,313,413 通信部
114 絞り値
115 シャッタ値
116 ゲイン値
117 映像信号
118,218,318,418 画像処理制御信号
119,219,319,419 撮像状態
120,220,320,420 撮像領域情報
121,221,321,421 資源状態
200 選択制御装置
201,301,401 画像類似判定部
202,302,402 カメラ選択部
203 通信部
204 類似度
205 群番号
403 カメラ属性判定部
404 通信信号制御部
405 カメラ属性情報
406 実行制御信号
100-1, 100-2, 100-n, 300, 400 Camera 101 Lens 102 Aperture 103 Image sensor 104 Digital shutter 105 Digital gain 106 Exposure control unit 107 Video signal processing unit 108 Image compression unit 109 Image processing unit 110 Imaging region acquisition Section 111 Imaging state detection section 112 Resource state acquisition section 113, 313, 413 Communication section 114 Aperture value 115 Shutter value 116 Gain value 117 Video signal 118, 218, 318, 418 Image processing control signal 119, 219, 319, 419 Imaging state 120, 220, 320, 420 Imaging region information 121, 221, 321, 421 Resource state 200 Selection control device 201, 301, 401 Image similarity determination unit 202, 302, 402 Camera selection unit 203 Communication unit 204 Similarity 205 group Number 403 Camera attribute determination unit 404 Communication signal control unit 405 Camera attribute information 406 Execution control signal

Claims (25)

複数のカメラと、選択制御装置とを有するカメラシステムであって、
前記カメラは、
入力光を映像信号に変換する撮像素子と、
前記撮像素子から得た映像信号を加工する映像信号処理部と、
露光設定値に基づいて前記映像信号の明るさを変化させる露光調整部と、
前記映像信号の明るさから前記露光調整部への前記露光設定値を制御する露光制御部と、
前記撮像素子からの前記映像信号と前記露光設定値から自カメラの撮像状態を検知する撮像状態検知部と、
前記映像信号を用いて画像処理を行う画像処理部と、
ネットワーク通信を行う通信部と、
位置情報および撮像方向情報を用いて自カメラの撮像領域情報を取得する撮像領域取得部と、を備え、
前記選択制御装置は、
前記複数のカメラの前記撮像領域情報から撮像している画像類似度を判定する画像類似判定部と、
前記複数のカメラの前記撮像状態および前記画像類似度から前記画像処理に最適なカメラを選択し、複数カメラの前記画像処理部の制御信号である画像処理制御信号を生成するカメラ選択部と、
ネットワーク通信を行う通信部とを備えることを特徴とするカメラシステム。
A camera system having a plurality of cameras and a selection control device,
The camera
An image sensor that converts input light into a video signal;
A video signal processing unit for processing a video signal obtained from the image sensor;
An exposure adjustment unit that changes the brightness of the video signal based on an exposure setting value;
An exposure control unit that controls the exposure setting value from the brightness of the video signal to the exposure adjustment unit;
An imaging state detection unit that detects an imaging state of the own camera from the video signal from the imaging element and the exposure setting value;
An image processing unit that performs image processing using the video signal;
A communication unit for performing network communication;
An imaging area acquisition unit that acquires imaging area information of the own camera using position information and imaging direction information,
The selection control device includes:
An image similarity determination unit that determines the degree of image similarity captured from the imaging region information of the plurality of cameras;
A camera selection unit that selects an optimal camera for the image processing from the imaging state and the image similarity of the plurality of cameras, and generates an image processing control signal that is a control signal of the image processing unit of the plurality of cameras;
A camera system comprising: a communication unit that performs network communication.
前記露光調整部は、前記露光設定値として絞り値を入力し、レンズを制御することで入力光の量を加減することを特徴とする請求項1に記載のカメラシステム。 The camera system according to claim 1, wherein the exposure adjustment unit inputs an aperture value as the exposure setting value and controls the lens to adjust the amount of input light. 前記露光調整部は、前記露光設定値として前記撮像素子のシャッタ値を入力し、デジタルシャッタを制御することで映像信号の大小を加減することを特徴とする請求項1に記載のカメラシステム。 2. The camera system according to claim 1, wherein the exposure adjustment unit inputs a shutter value of the image sensor as the exposure setting value and controls a digital shutter to adjust the size of the video signal. 前記露光調整部は、前記露光設定値として前記映像信号処理部のゲイン値を入力し、デジタルゲイン部を制御することで映像信号の大小を加減することを特徴とする請求項1に記載のカメラシステム。 The camera according to claim 1, wherein the exposure adjustment unit inputs a gain value of the video signal processing unit as the exposure setting value, and controls the digital gain unit to adjust the magnitude of the video signal. system. 前記露光制御部は、前記撮像素子から入力される前記映像信号を用い、前記レンズの前記絞り値もしくは前記シャッタ値もしくは前記ゲイン値の少なくともいずれか1つを前記露光設定値として出力することを特徴とする請求項1から請求項4に記載のカメラシステム。 The exposure control unit outputs at least one of the aperture value, the shutter value, or the gain value of the lens as the exposure setting value using the video signal input from the imaging device. The camera system according to any one of claims 1 to 4. 前記撮像状態検知部は、前記映像信号を入力画像として、逆光具合を検知することを特徴とする請求項1に記載のカメラシステム。 The camera system according to claim 1, wherein the imaging state detection unit detects a backlight condition using the video signal as an input image. 前記撮像状態検知部は、前記映像信号を入力画像として、各画素の光量と予め設定された光量閾値を比較し、この光量閾値を越える画素をカウントして、カウント値の大きさを算出することを特徴とする請求項6に記載のカメラシステム。 The imaging state detection unit uses the video signal as an input image, compares the light amount of each pixel with a preset light amount threshold value, counts pixels exceeding the light amount threshold value, and calculates the size of the count value The camera system according to claim 6. 前記撮像状態検知部は、前記露光設定値のうち少なくともいずれか1つを入力し、前記光量閾値を適応的に補正することを特徴とする請求項7に記載のカメラシステム。 The camera system according to claim 7, wherein the imaging state detection unit inputs at least one of the exposure setting values and adaptively corrects the light amount threshold value. 前記撮像状態検知部は、前記シャッタ値を入力し、前記シャッタ値の大きさを用いて画像のぶれ具合を判定することを特徴とする請求項1に記載のカメラシステム。 2. The camera system according to claim 1, wherein the imaging state detection unit inputs the shutter value and determines a degree of image blur using the magnitude of the shutter value. 前記画像処理部は、画像処理制御信号に基づき画像処理実行の可否を制御することを特徴とする請求項1に記載のカメラシステム。 The camera system according to claim 1, wherein the image processing unit controls whether or not to execute image processing based on an image processing control signal. 前記画像処理部は、前記映像信号に基づき、映像に映る被写体の検知もしくはパターンの抽出もしくは予め登録されたデータベースとの照合の少なくともいずれか1つを有することを特徴とする請求項10に記載のカメラシステム。 11. The image processing unit according to claim 10, wherein the image processing unit includes at least one of detection of a subject reflected in a video, extraction of a pattern, or collation with a database registered in advance based on the video signal. Camera system. 前記撮像領域取得部は、GPSもしくはWLANもしくは予め設定された座標情報のうち少なくともいずれか1つの位置情報および地磁気センサもしくは予め設定された方向情報から自カメラの撮像領域を2次元的に取得することを特徴とする請求項1に記載のカメラシステム。 The imaging area acquisition unit two-dimensionally acquires the imaging area of the own camera from at least one position information of GPS, WLAN, or preset coordinate information and a geomagnetic sensor or preset direction information. The camera system according to claim 1. 前記撮像領域取得部は、加速度センサもしくは姿勢センサのうち少なくともいずれか1つから地面に対するチルト角を取得し、GPSから高さ情報を取得し、チルト角もしくは高さ情報の少なくともいずれか1つを用いて撮像領域を3次元的に三種することを特徴とする請求項12に記載のカメラシステム。 The imaging area acquisition unit acquires a tilt angle with respect to the ground from at least one of an acceleration sensor or an attitude sensor, acquires height information from GPS, and receives at least one of the tilt angle or height information. The camera system according to claim 12, wherein the imaging region is three-dimensionally used. 前記撮像領域取得部は、自カメラの解像度に基づき、撮像領域を視認可能な自カメラまでの距離に制限することを特徴とする請求項12または請求項13に記載のカメラシステム。 The camera system according to claim 12 or 13, wherein the imaging area acquisition unit limits the imaging area to a distance to the self-camera that can be visually recognized based on a resolution of the self-camera. 自カメラの資源状態を取得する資源状態取得部を有することを特徴とする請求項1に記載のカメラシステム。 The camera system according to claim 1, further comprising a resource state acquisition unit that acquires a resource state of the own camera. 前記資源状態取得部は、前記資源状態としてCPU能力もしくはCPU使用率もしくはSDカード残量もしくはバッテリ残量のうち少なくともいずれか1つを取得することを特徴とする請求項15に記載のカメラシステム。 The camera system according to claim 15, wherein the resource status acquisition unit acquires at least one of a CPU capability, a CPU usage rate, an SD card remaining amount, or a battery remaining amount as the resource state. 前記画像類似判定部は、複数の前記カメラから前記撮像領域情報を取得し、前記カメラの撮像領域の重複度を算出し、重複度と予め定められた閾値と比較し閾値を超えた場合には複数の前記カメラの撮像領域が重なっていると判定し、重複している複数の前記カメラのカメラ番号の組および重複していない前記カメラの孤立カメラ番号を出力することを特徴とする請求項1に記載のカメラシステム。 The image similarity determination unit acquires the imaging area information from a plurality of the cameras, calculates the degree of duplication of the imaging area of the camera, and compares the degree of duplication with a predetermined threshold and exceeds the threshold 2. It is determined that the imaging areas of a plurality of cameras overlap, and a set of overlapping camera numbers of the cameras and an isolated camera number of the cameras not overlapping are output. The camera system described in. 前記画像類似判定部は、複数の前記カメラから前記撮像領域情報を取得し、前記カメラの撮像領域の重複度を取得し、重複度と予め定められた閾値と比較し閾値を超えた場合には複数の前記カメラの撮像領域が重なっていると判定し、重複している複数の前記カメラの前記カメラ番号の組および重複していない前記カメラの前記孤立カメラ番号を出力すると共に、重複している複数の前記カメラに対しては、それぞれの前記撮像領域に対する重複度を出力することを特徴とする請求項17に記載のカメラシステム。 The image similarity determination unit acquires the imaging region information from a plurality of the cameras, acquires the overlapping degree of the imaging region of the camera, and compares the overlapping degree with a predetermined threshold and exceeds the threshold It is determined that the imaging areas of the plurality of cameras overlap, and the set of the camera numbers of the plurality of overlapping cameras and the isolated camera number of the non-overlapping cameras are output and overlapped The camera system according to claim 17, wherein a degree of overlap for each of the imaging regions is output for a plurality of the cameras. 前記カメラ選択部は、前記画像類似判定部の前記カメラ番号の組および孤立カメラ番号および複数の前記カメラからの複数の前記撮像状態を取得し、撮像領域が重なり合っている前記カメラの組に属するカメラの前期撮像状態を比較し、一番撮像状態が好ましいカメラに対しての画像処理制御信号としてON、それ以外のカメラに対しての画像処理制御信号としてOFF、孤立カメラ番号が示すカメラに対する画像処理制御信号としてONを生成することを特徴とする請求項1または請求項17または請求項18に記載の演算装置。 The camera selection unit acquires the camera number set and the isolated camera number of the image similarity determination unit and a plurality of the imaging states from the plurality of cameras, and belongs to the camera set with overlapping imaging regions. Compared with the previous imaging state, the image processing control signal for the camera with the best imaging state is ON, the image processing control signal for other cameras is OFF, the image processing for the camera indicated by the isolated camera number 19. The arithmetic unit according to claim 1, 17 or 18, wherein ON is generated as a control signal. 前記カメラ選択部は、前記画像類似判定部の前記カメラ番号の組および孤立カメラ番号および複数の前記カメラからの複数の前記撮像状態を取得し、撮像領域が重なり合っている前記カメラの組に属するカメラの前記撮像状態に対して前記重複度を重み付けした結果を比較し、一番撮像状態が好ましいカメラに対しての画像処理制御信号としてON、それ以外のカメラに対しての画像処理制御信号としてOFF、孤立カメラ番号が示すカメラに対する画像処理制御信号としてONを生成することを特徴とする請求項19に記載のカメラシステム。 The camera selection unit acquires the camera number set and the isolated camera number of the image similarity determination unit and a plurality of the imaging states from the plurality of cameras, and belongs to the camera set with overlapping imaging regions. Compare the results of weighting the degree of duplication with respect to the imaging state, and turn on as an image processing control signal for the camera with the best imaging state, and turn off as an image processing control signal for other cameras. The camera system according to claim 19, wherein ON is generated as an image processing control signal for the camera indicated by the isolated camera number. 前記カメラ選択部は、複数の前記カメラからの複数の資源状態を取得し、前記撮像状態に重み付けを行うことを特徴とする請求項19または請求項20に記載のカメラシステム。 The camera system according to claim 19 or 20, wherein the camera selection unit acquires a plurality of resource states from the plurality of cameras and weights the imaging state. 入力光を映像信号に変換する撮像素子と、
前記撮像素子から得た映像信号を加工する映像信号処理部と、
露光設定値に基づいて前記映像信号の明るさを変化させる露光調整部と、
前記映像信号の明るさから前記露光調整部への前記露光設定値を制御する露光制御部と、
前記撮像素子からの前記映像信号と前記露光設定値から自カメラの撮像状態を検知する撮像状態検知部と、
前記映像信号を用いて画像処理を行う画像処理部と、
1つ以上の他カメラとネットワーク通信を行う通信部と、
位置情報および撮像方向情報を用いて自カメラの撮像領域情報を取得する撮像領域取得部と、
自カメラと前記1つ以上の他カメラの前記撮像領域情報から撮像している画像の類似度を取得する画像類似判定部と、
前記自カメラと前記1つ以上の他カメラの前記撮像状態および前記類似度から前記画像処理に最適なカメラを選択し前記自カメラと前記1つ以上の他カメラの前記画像処理部の制御信号である画像処理制御信号を生成するカメラ選択部と、を備えることを特徴とするカメラ。
An image sensor that converts input light into a video signal;
A video signal processing unit for processing a video signal obtained from the image sensor;
An exposure adjustment unit that changes the brightness of the video signal based on an exposure setting value;
An exposure control unit that controls the exposure setting value from the brightness of the video signal to the exposure adjustment unit;
An imaging state detection unit that detects an imaging state of the own camera from the video signal from the imaging element and the exposure setting value;
An image processing unit that performs image processing using the video signal;
A communication unit that performs network communication with one or more other cameras;
An imaging area acquisition unit that acquires imaging area information of the own camera using position information and imaging direction information;
An image similarity determination unit for acquiring a similarity between images captured from the imaging area information of the own camera and the one or more other cameras;
The optimal camera for the image processing is selected from the imaging state and the similarity of the own camera and the one or more other cameras, and the control signal of the image processing unit of the own camera and the one or more other cameras is used. And a camera selection unit that generates an image processing control signal.
前記自カメラの資源状態を取得する資源状態取得部を有し、
前記通信部から前記1つ以上の他カメラの前記資源状態を取得し、
前記自カメラおよび前記1つ以上の他カメラの前記資源状態および前記撮像状態および前記類似度から前記画像処理に最適なカメラを選択し前記自カメラと前記1つ以上の他カメラの前記画像処理部の制御信号である画像処理制御信号を生成するカメラ選択部を特徴とする請求項22に記載のカメラ。
A resource status acquisition unit for acquiring the resource status of the camera;
Obtaining the resource status of the one or more other cameras from the communication unit;
The optimal camera for the image processing is selected from the resource state, the imaging state, and the similarity of the own camera and the one or more other cameras, and the image processing unit of the own camera and the one or more other cameras is selected. The camera according to claim 22, further comprising a camera selection unit that generates an image processing control signal that is a control signal of
カメラ属性設定部と、
通信信号制御部とを有し、
前記カメラ属性設定部は、カメラ属性情報を基に前記画像類似判定部および前記カメラ選択部の実行を行うか否かの情報を持つ実行制御信号を出力することを特徴とし、
前記画像類似判定部は、前記実行制御信号がONの場合には実行し、OFFの場合には実行しないことを特徴とし、
前記カメラ選択部は、前記実行制御信号がONの場合には実行し、OFFの場合には実行しないことを特徴とし、
前記通信信号制御部は、前記実行制御信号がONの場合には、入力信号である前記自カメラおよび前記1つ以上の他カメラの前記撮像状態を前記カメラ選択部に、前記撮像領域情報を前記画像類似判定部に出力し、前記自カメラの前記画像処理制御信号を前記画像処理制御信号に出力し、前記1つ以上の他カメラの前記画像処理制御信号を前記通信部に出力し、前記実行制御信号がOFFの場合には、入力信号である前記自カメラの前記撮像状態および前記撮像領域情報を前記通信部に出力し、前記通信部から入力される前記画像処理制御信号を前記画像処理部に出力することを特徴とする請求項22に記載のカメラ。
A camera attribute setting section;
A communication signal control unit,
The camera attribute setting unit outputs an execution control signal having information as to whether or not to execute the image similarity determination unit and the camera selection unit based on camera attribute information,
The image similarity determination unit is executed when the execution control signal is ON, and is not executed when OFF.
The camera selection unit is executed when the execution control signal is ON, and is not executed when OFF.
When the execution control signal is ON, the communication signal control unit inputs the imaging state of the own camera and the one or more other cameras that are input signals to the camera selection unit, and the imaging region information Outputting to the image similarity determination unit, outputting the image processing control signal of the own camera to the image processing control signal, outputting the image processing control signal of the one or more other cameras to the communication unit, and executing When the control signal is OFF, the imaging state and the imaging area information of the own camera, which are input signals, are output to the communication unit, and the image processing control signal input from the communication unit is output to the image processing unit 23. The camera according to claim 22, wherein the camera outputs the signal.
前記自カメラの資源状態を取得する資源状態取得部を有し、
前記カメラ選択部は、前記実行制御信号がONの場合には、前記自カメラの前記資源状態および前記1つ以上の他カメラの前記資源状態を前記カメラ選択部に出力し、前記実行制御信号がOFFの場合には、前記自カメラの前記資源状態を前記通信部に出力することを特徴とする請求項24に記載のカメラ。
A resource status acquisition unit for acquiring the resource status of the camera;
When the execution control signal is ON, the camera selection unit outputs the resource state of the own camera and the resource state of the one or more other cameras to the camera selection unit, and the execution control signal 25. The camera according to claim 24, wherein, when OFF, the resource state of the own camera is output to the communication unit.
JP2012093607A 2012-04-17 2012-04-17 Camera and camera system Pending JP2013223104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012093607A JP2013223104A (en) 2012-04-17 2012-04-17 Camera and camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012093607A JP2013223104A (en) 2012-04-17 2012-04-17 Camera and camera system

Publications (1)

Publication Number Publication Date
JP2013223104A true JP2013223104A (en) 2013-10-28

Family

ID=49593786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012093607A Pending JP2013223104A (en) 2012-04-17 2012-04-17 Camera and camera system

Country Status (1)

Country Link
JP (1) JP2013223104A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2539031A (en) * 2015-06-04 2016-12-07 Canon Kk Methods, devices and computer programs for processing images in a system comprising a plurality of cameras
JP2017199321A (en) * 2016-04-28 2017-11-02 富士通株式会社 Device selection method, device selection program and device selection device
JP2018128961A (en) * 2017-02-10 2018-08-16 セコム株式会社 Optimal arrangement search device
JP2018180111A (en) * 2017-04-06 2018-11-15 キヤノン株式会社 Imaging device, method for controlling the same, and program
CN114339001A (en) * 2021-12-30 2022-04-12 维沃移动通信有限公司 Image sensor, exposure control method, camera module and electronic equipment
WO2022176189A1 (en) 2021-02-22 2022-08-25 三菱電機株式会社 Video monitor device, video monitor system, video monitor method, and video monitor program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2539031A (en) * 2015-06-04 2016-12-07 Canon Kk Methods, devices and computer programs for processing images in a system comprising a plurality of cameras
US9959651B2 (en) 2015-06-04 2018-05-01 Canon Kabushiki Kaisha Methods, devices and computer programs for processing images in a system comprising a plurality of cameras
JP2017199321A (en) * 2016-04-28 2017-11-02 富士通株式会社 Device selection method, device selection program and device selection device
JP2018128961A (en) * 2017-02-10 2018-08-16 セコム株式会社 Optimal arrangement search device
JP2018180111A (en) * 2017-04-06 2018-11-15 キヤノン株式会社 Imaging device, method for controlling the same, and program
WO2022176189A1 (en) 2021-02-22 2022-08-25 三菱電機株式会社 Video monitor device, video monitor system, video monitor method, and video monitor program
CN114339001A (en) * 2021-12-30 2022-04-12 维沃移动通信有限公司 Image sensor, exposure control method, camera module and electronic equipment
CN114339001B (en) * 2021-12-30 2023-09-12 维沃移动通信有限公司 Image sensor, exposure control method, camera module and electronic equipment

Similar Documents

Publication Publication Date Title
EP3624439B1 (en) Imaging processing method for camera module in night scene, electronic device and storage medium
KR101826897B1 (en) Method and camera for determining an image adjustment parameter
US8854489B2 (en) Image processing method and image processing apparatus
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
JP2013223104A (en) Camera and camera system
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
US20140146172A1 (en) Distributed image processing system
US9569688B2 (en) Apparatus and method of detecting motion mask
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
US11153493B2 (en) Control apparatus, imaging apparatus, and storage medium for adjusting a focal plane
US11074715B2 (en) Image processing apparatus and method
EP3235240B1 (en) Noise level based exposure time control for sequential subimages
CN105210362B (en) Image adjusting apparatus, image adjusting method, and image capturing apparatus
US11831995B2 (en) Image capturing apparatus, image capturing method, and carrier means
JP7150462B2 (en) Information processing device, information processing method and program
US20120188437A1 (en) Electronic camera
US10943328B2 (en) Image capturing apparatus, method for controlling same, and storage medium
KR102664754B1 (en) Method for Applying Image Effect and the Electronic Device supporting the same
CN115702383A (en) Imaging control apparatus, imaging control method, and program
US20160344932A1 (en) Omnidirectional camera system
JP2020072469A (en) Information processing apparatus, control method and program of the same, and imaging system
KR20210099820A (en) Device, method and computer program for providing heat map
JP2019191681A (en) Image processing apparatus, control method thereof, and program
WO2016075969A1 (en) Signal processing device and image capturing system
JP2011239037A (en) Image processing apparatus, image processing method, computer program for image processing, and imaging apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606