JP2019047214A - Smart camera, image processing device, smart camera system, data transmission method and program - Google Patents

Smart camera, image processing device, smart camera system, data transmission method and program Download PDF

Info

Publication number
JP2019047214A
JP2019047214A JP2017166057A JP2017166057A JP2019047214A JP 2019047214 A JP2019047214 A JP 2019047214A JP 2017166057 A JP2017166057 A JP 2017166057A JP 2017166057 A JP2017166057 A JP 2017166057A JP 2019047214 A JP2019047214 A JP 2019047214A
Authority
JP
Japan
Prior art keywords
image processing
unit
video data
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017166057A
Other languages
Japanese (ja)
Other versions
JP6668298B2 (en
Inventor
真悟 安波
Shingo Yasunami
真悟 安波
伸一 栗原
Shinichi Kurihara
伸一 栗原
大輔 高崎
Daisuke Takasaki
大輔 高崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017166057A priority Critical patent/JP6668298B2/en
Priority to PCT/JP2018/030973 priority patent/WO2019039507A1/en
Priority to CN201880037256.6A priority patent/CN110710199B/en
Publication of JP2019047214A publication Critical patent/JP2019047214A/en
Priority to US16/783,710 priority patent/US20200177935A1/en
Application granted granted Critical
Publication of JP6668298B2 publication Critical patent/JP6668298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To maintain continuity of image processing before and after video switching.SOLUTION: A smart camera is communicable with an image processing device 15, and includes multiple imaging parts 1a-1m, a selection part 15b, a switching part 15c, a feature data generation part 15d, a synchronization processing part 20, a multiplexing part 19, and a transmission part 21. Each of the imaging parts generates video data. The selection part selects an imaging part generating video data corresponding to image processing in the image processing device. Every time when another imaging part is selected by the selection part, the switching part switches and outputs the video data from the selected imaging part, while synchronizing mutual frame phases. The feature data generation part generates feature data of a video from the selected imaging part, over a prescribed period including a moment in time of switching and outputting. The synchronization processing part synchronizes the switched and output video data with the feature data. The multiplexing part multiplexes the synchronized video data and feature data into a transmission stream.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、スマートカメラについての技術に関する。   Embodiments of the present invention relate to technology for smart cameras.

撮像センサとプロセッサを備える、いわゆるスマートカメラが注目されている。近年ではセンサデバイスの小型化・低価格化により、複数のカメラを搭載したスマートフォンや車載カメラ等も販売されている。複眼カメラを用いたステレオ画像の生成や、距離情報を持つ画像(距離画像)の生成なども研究されている。複数のカメラデバイスをアレイ状に配列したアレイカメラも知られている。さらに、可視光カメラ、近赤外線カメラ、および遠赤外線カメラを共通の筐体に実装したマルチスペクトルカメラ(ハイブリッドカメラとも称される)も知られている。これらの次世代カメラは、有線ネットワークや無線ネットワーク経由でセンタ装置に接続されて、遠隔監視システムなどに応用されることが期待されている。   Attention is focused on so-called smart cameras provided with an imaging sensor and a processor. In recent years, due to the miniaturization and price reduction of sensor devices, smartphones and on-vehicle cameras equipped with a plurality of cameras have also been sold. The generation of stereo images using compound eye cameras and the generation of images having distance information (distance images) have also been studied. An array camera in which a plurality of camera devices are arranged in an array is also known. Furthermore, a multispectral camera (also called a hybrid camera) in which a visible light camera, a near infrared camera, and a far infrared camera are mounted in a common housing is also known. These next-generation cameras are expected to be connected to a center device via a wired network or a wireless network and applied to a remote monitoring system or the like.

特開2005−328479号公報JP, 2005-328479, A

“複眼型距離画像CMOSイメージセンサ”,[online],[平成29年6月15日検索],インターネット,<URL:http://www.toshiba.co.jp/rdc/detail/13_t24.htm>"Compound-view distance image CMOS image sensor", [online], [Search on June 15, 2017], Internet, <URL: http://www.toshiba.co.jp/rdc/detail/13_t24.htm> “多機能化に向かう次世代カメラ”,[online],[平成29年6月15日検索],インターネット,<URL:http://toshiba.semicon-storage.com/design_support/elearning/keytechnology/__icsFiles/afieldfile/2010/11/05/edn1011_39_47feature02.pdf>“Next-generation Camera for Multifunctionalization”, [online], [search on June 15, 2017], Internet, <URL: http://toshiba.semicon-storage.com/design_support/elearning/keytechnology/__icsFiles /afieldfile/2010/11/05/edn1011_39_47feature02.pdf>

アレイカメラの全てのカメラの映像データをセンタ装置に送ることは希であり、いずれかのカメラの画像を切替出力することが多い。例えば人物検知のために、日中は可視光カメラで定点観測を行うが、夜間は赤外線カメラに切り替える、という運用である。このようにして、映像を含むストリームの伝送に要する占有帯域を最小限に抑えるようにしている。   It is rare to send the video data of all the cameras of the array camera to the center device, and in many cases the image of one of the cameras is switched and output. For example, in order to detect a person, fixed point observation is performed with a visible light camera during the daytime, but it is switched to an infrared camera during the nighttime. In this way, the occupied bandwidth required for transmission of a stream containing video is minimized.

しかしながら映像が切り替わると、伝送ストリームを受信する側での処理が追いつかず、時系列の画像分析データが一部、欠落することがある。技術的にはこのことを、「画像処理に不連続が生じる」という。例えばカラー映像が急にモノクロ映像に切り替わったとすると、これを受けたセンタ装置は同じ視野の映像を取得しているにもかかわらず、画像処理を継続することが難しい。カメラ間の色調の違い、波長の違い、コントラストの違い、ピントのずれ、画面サイズの違い、画角の違いなど、不連続をもたらす要因は様々ある。不連続が甚だしくなると画像処理がリセットされるおそれもある。   However, when the video is switched, processing on the receiving side of the transmission stream can not catch up, and some time-series image analysis data may be lost. Technically, this is referred to as "a discontinuity in image processing." For example, if a color image is suddenly switched to a monochrome image, it is difficult to continue the image processing although the center apparatus having received the image acquires an image of the same field of view. There are various factors that cause discontinuities such as differences in color tone between cameras, differences in wavelength, differences in contrast, differences in focus, differences in screen size, and differences in angle of view. Image processing may be reset if discontinuities become extreme.

このように当該技術分野には、映像の切替(フレーム切替)前後での、画像処理の連続性を保つことが難しいという技術的な課題がある。複数の単眼カメラで共通の視野を観察する形態のシステムにおいても、事情は同じである。   As described above, there is a technical problem in the technical field that it is difficult to maintain the continuity of image processing before and after video switching (frame switching). The situation is the same in a system in which a plurality of monocular cameras observe a common field of view.

そこで、目的は、映像切替の前後で画像処理の連続性を保つことの可能なスマートカメラシステムと、このシステムで使用可能なスマートカメラ、画像処理装置、データ送信方法およびプログラムを提供することにある。   Therefore, it is an object of the present invention to provide a smart camera system capable of maintaining continuity of image processing before and after video switching, a smart camera usable in this system, an image processing apparatus, a data transmission method and a program. .

実施形態によれば、スマートカメラは、画像処理装置と通信可能であって、複数の撮像部と、選択部と、切替部と、特徴データ生成部と、同期処理部と、多重化部と、送信部とを具備する。撮像部は、それぞれ映像データを生成する。選択部は、画像処理装置における画像処理に相応する映像データを生成する撮像部を、選択する。切替部は、選択部により別の撮像部が選択されるたびに、当該選択された撮像部からの映像データを互いのフレーム位相を同期させて切り替え出力する。特徴データ生成部は、切り替え出力の時点を含む所定期間にわたる選択された撮像部からの映像の特徴データを生成する。同期処理部は、切り替え出力された映像データと特徴データとを同期させる。多重化部は、同期された映像データと特徴データとを伝送ストリームに多重する。送信部は、伝送ストリームを画像処理装置に送信する。   According to the embodiment, the smart camera can communicate with the image processing apparatus, and the plurality of imaging units, the selection unit, the switching unit, the feature data generation unit, the synchronization processing unit, the multiplexing unit, And a transmitter. The imaging units respectively generate video data. The selection unit selects an imaging unit that generates video data corresponding to image processing in the image processing apparatus. The switching unit switches and outputs the video data from the selected imaging unit in synchronization with each other's frame phase each time another imaging unit is selected by the selection unit. The feature data generation unit generates feature data of the image from the selected imaging unit over a predetermined period including the time point of the switching output. The synchronization processing unit synchronizes the switched and output video data with the feature data. The multiplexing unit multiplexes synchronized video data and feature data into a transport stream. The transmission unit transmits the transmission stream to the image processing apparatus.

図1は、実施形態に係わる監視カメラシステムの一例を示すシステム図である。FIG. 1 is a system diagram showing an example of a monitoring camera system according to the embodiment. 図2は、カメラの一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a camera. 図3は、画像処理装置の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the image processing apparatus. 図4は、カメラと画像処理装置との間で授受される情報の一例を示す図である。FIG. 4 is a diagram showing an example of information exchanged between the camera and the image processing apparatus. 図5は、実施形態におけるカメラの処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the processing procedure of the camera in the embodiment. 図6は、伝送ストリームのTS基本体系を示す図である。FIG. 6 is a diagram showing a TS basic system of a transport stream. 図7は、同期多重された特徴データを含む伝送ストリームの一例を示す図である。FIG. 7 is a diagram showing an example of a transport stream including synchronously multiplexed feature data. 図8は、特徴データパラメータの一例を示す図である。FIG. 8 is a diagram showing an example of the feature data parameter. 図9は、実施形態における作用を説明するための図である。FIG. 9 is a figure for demonstrating the effect | action in embodiment. 図10は、監視カメラシステムの他の例を示すシステム図である。FIG. 10 is a system diagram showing another example of the monitoring camera system. 図11は、監視カメラシステムの他の例を示すシステム図である。FIG. 11 is a system diagram showing another example of the monitoring camera system.

次に、図面を参照して、この発明の実施の形態について説明する。この明細書において、画像とは静止画像、あるいは映像を構成する1フレーム分の画像として理解される。一方、映像とは一連の画像の集合であり、動画像として理解され得る。
複数のスマートカメラをクラウドコンピューティングシステム(クラウド)と連携させ、映像データをビッグデータとして活用するためのプラットフォームが整備されつつある。例えば、防災のための定点観測、交通の監視、道路や橋りょうなどのインフラの監視、人物検索や人物トラッキング、および、不審人物の追跡などに映像データを活用することが検討されている。
Next, embodiments of the present invention will be described with reference to the drawings. In this specification, an image is understood as a still image or an image of one frame constituting an image. On the other hand, a video is a set of a series of images and can be understood as a moving image.
A platform for linking multiple smart cameras with a cloud computing system (cloud) and utilizing video data as big data is being developed. For example, use of video data in fixed point observation for disaster prevention, traffic monitoring, infrastructure monitoring such as roads and bridges, person search and person tracking, and tracking of suspicious persons is being considered.

図1は、実施形態に係わる監視カメラシステムの一例を示すシステム図である。図1に示されるシステムは、スマートカメラとしての複数のカメラC1〜Cnと、クラウド100に設けられる画像処理装置200とを備える。   FIG. 1 is a system diagram showing an example of a monitoring camera system according to the embodiment. The system illustrated in FIG. 1 includes a plurality of cameras C1 to Cn as smart cameras, and an image processing apparatus 200 provided in the cloud 100.

カメラC1〜Cnは、それぞれ異なる場所に設置される。例えば、カメラC3〜C5は、超高層のオフィスビルが立ち並ぶビル街を含むエリアAに配置され、カメラC6〜Cnは、郊外の住宅地を含むエリアBに配置され、カメラC1、C2はエリアA,B以外の場所に配置される。各カメラC1〜Cnは、例えばレンズおよび撮像センサを有し、それぞれの場所での実空間を撮像することで、映像データを生成する。   The cameras C1 to Cn are installed at different places. For example, the cameras C3 to C5 are disposed in an area A including a building street where high-rise office buildings are lined, the cameras C6 to Cn are disposed in an area B including a suburban residential area, and the cameras C1 and C2 are areas A , And B are arranged. Each of the cameras C1 to Cn has, for example, a lens and an imaging sensor, and generates video data by imaging a real space at each location.

画像処理装置200は、カメラC1〜Cn、モバイル通信システムの基地局BS、あるいはデータベース等に、通信ネットワーク経由で接続される。通信ネットワークのプロトコルとして、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)を利用することができる。カメラとクラウド100との間に中継ネットワーク101が介在しても良い。   The image processing apparatus 200 is connected to cameras C1 to Cn, a base station BS of a mobile communication system, a database, or the like via a communication network. As a protocol of the communication network, for example, TCP / IP (Transmission Control Protocol / Internet Protocol) can be used. The relay network 101 may be interposed between the camera and the cloud 100.

画像処理装置200は、カメラC1〜Cnのそれぞれから送信された映像データを伝送ストリーム(トランスポートストリーム)として収集する。画像処理装置200は、収集した映像データに例えばシェーディング、フィルタリング、または輪郭抽出などの画像処理を施す。   The image processing apparatus 200 collects video data transmitted from each of the cameras C1 to Cn as a transmission stream (transport stream). The image processing apparatus 200 performs image processing such as shading, filtering, or contour extraction on the collected video data.

車両V1またはセルラフォンP1も、基地局BS経由でクラウド100にアクセス可能である。車両V1の車載カメラ、およびセルラフォンP1のカメラも、スマートカメラとして動作することが可能である。   Vehicle V1 or cellular phone P1 is also accessible to cloud 100 via base station BS. The on-vehicle camera of the vehicle V1 and the camera of the cellular phone P1 can also operate as a smart camera.

また、エリアA,Bには、例えばそれぞれエッジサーバS1,S2が設置されている。エッジサーバS1は、エリアAの特徴(例えば昼間人口が多い等)に応じたデータをクラウド100に要求し、取得したデータに応じたサービスの提供、およびサービスを提供するための基盤(プラットフォーム)の構築を実現する。また、エッジサーバS1は、取得したデータをユーザに利用させるための、高速の演算処理機能及び大容量のストレージなどのリソースとして機能してもよい。エッジサーバS2は、エリアBの特徴(例えば児童や学校の数が多い等)に応じたデータをクラウド100に要求し、取得したデータに応じたサービスの提供、およびサービスを提供するためのプラットフォームの構築を実現する。また、エッジサーバS2は、取得したデータをユーザに利用させるためのリソースとして機能してもよい。   In the areas A and B, for example, edge servers S1 and S2 are installed, respectively. The edge server S1 requests the cloud 100 for data according to the features of the area A (for example, a large number of people in the daytime), and provides a service according to the acquired data, and a platform for providing the service. Realize the construction. In addition, the edge server S1 may function as a resource such as a high-speed arithmetic processing function and a large-capacity storage for causing the user to use the acquired data. The edge server S2 requests data from the cloud 100 according to the features of the area B (for example, a large number of children and schools, etc.), and provides a service according to the acquired data and provides a service. Realize the construction. In addition, the edge server S2 may function as a resource for causing the user to use the acquired data.

なお、クラウドコンピューティングシステムの利用形態は、アプリケーションをサービスとして提供するSaaS(Software as a Service)、アプリケーションを稼働させるための基盤(プラットフォーム)をサービスとして提供するPaaS(Platform as a Service)、並びに、高速の演算処理機能及び大容量のストレージなどのリソースをサービスとして提供するIaaS(Infrastructure as a Service)に大別される。クラウド100は、いずれの形態にも適用することができる。   The usage form of the cloud computing system is SaaS (Software as a Service) that provides an application as a service, PaaS (Platform as a Service) that provides a platform for operating an application as a service, and It is roughly classified into IaaS (Infrastructure as a Service) that provides resources such as high-speed arithmetic processing functions and large-capacity storage as a service. The cloud 100 can be applied in any form.

図2は、図1に示されるカメラC1の一例を示すブロック図である。カメラC2〜Cnも同様の構成を備える。カメラC1は、複数の撮像部1a〜1m、スイッチ部10、処理回路15、メモリ16、センサ部17、送信部21、受信部22、同期処理部20、および多重化部(Multiplexer:MUX)19を備える。   FIG. 2 is a block diagram showing an example of the camera C1 shown in FIG. The cameras C2 to Cn also have the same configuration. The camera C1 includes a plurality of imaging units 1a to 1m, a switch unit 10, a processing circuit 15, a memory 16, a sensor unit 17, a transmitting unit 21, a receiving unit 22, a synchronization processing unit 20, and a multiplexing unit (Multiplexer: MUX) 19 Equipped with

撮像部1a〜1mは、それぞれの視野内の映像を撮影し、個別に映像データを生成する。撮像部1a〜1mは、例えばレンズ11、絞り機構12、画像センサ13、および符号化部14をそれぞれ備える。レンズ11の視野内の像(イメージ)は、レンズ11および絞り機構12を通って画像センサ13に結像される。画像センサ13は、CMOS(相補型金属酸化膜半導体)センサ等のイメージセンサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。符号化部14は、画像センサ13から出力された映像信号を符号化して映像データを生成する。撮像部1a〜1mからの映像データは、内部バス23を介してスイッチ部10および処理回路15に転送される。   The imaging units 1a to 1m capture video in respective fields of view and individually generate video data. The imaging units 1 a to 1 m each include, for example, a lens 11, an aperture mechanism 12, an image sensor 13, and an encoding unit 14. An image within the field of view of the lens 11 is imaged on the image sensor 13 through the lens 11 and the aperture mechanism 12. The image sensor 13 is an image sensor such as a CMOS (complementary metal oxide semiconductor) sensor, and generates, for example, a video signal at a frame rate of 30 frames per second. The encoding unit 14 encodes the video signal output from the image sensor 13 to generate video data. The video data from the imaging units 1 a to 1 m are transferred to the switch unit 10 and the processing circuit 15 via the internal bus 23.

撮像部1a〜1mの撮影波長帯はそれぞれで異なっていても良い。例えば、可視光、近赤外光、遠赤外光、紫外線などの撮影波長帯を、各撮像部1a〜1mに個別に割り当ててもよい。すなわちカメラC1は、マルチスペクトルカメラであってよい。   The imaging wavelength bands of the imaging units 1a to 1m may be different from one another. For example, imaging wavelength bands such as visible light, near infrared light, far infrared light, and ultraviolet light may be individually assigned to each of the imaging units 1a to 1m. That is, the camera C1 may be a multispectral camera.

センサ部17は、例えば、撮像部1a〜1mのデバイスタイプ、画素数、フレームレート、感度、レンズ11の焦点距離、絞り機構12の光量、画角、絶対時刻情報、カメラ方向情報、ズーム倍率情報、およびフィルタの波長特性などのパラメータ情報をデータバス24経由で取得し、処理回路15およびメモリ16に転送する。また、センサ部17は、例えばGPS(Global Positioning System)による測位機能を有し、GPS衛星から受信した測位信号を用いた測位処理により、カメラC1の位置情報と、時刻情報とを取得する。センサ部17は、取得した位置情報および時刻情報を処理回路15およびメモリ16に転送する。位置情報は、カメラ自身が移動する場合、例えば、カメラがセルラフォンや車に搭載される場合等に重要である。また、センサ部17は、例えば、温度センサ、湿度センサ、および加速度センサ等のセンサを備え、これらセンサにより、カメラC1が設置されている環境に関する情報をセンサ情報として取得する。センサ部17は、取得したセンサ情報を処理回路15およびメモリ16に転送する。   The sensor unit 17 includes, for example, the device type of the imaging units 1a to 1m, the number of pixels, the frame rate, the sensitivity, the focal length of the lens 11, the light amount of the diaphragm mechanism 12, angle of view, absolute time information, camera direction information, zoom magnification information And parameter information such as wavelength characteristics of the filter are acquired via the data bus 24 and transferred to the processing circuit 15 and the memory 16. The sensor unit 17 also has a positioning function using, for example, a GPS (Global Positioning System), and acquires position information of the camera C1 and time information by positioning processing using a positioning signal received from a GPS satellite. The sensor unit 17 transfers the acquired position information and time information to the processing circuit 15 and the memory 16. The position information is important when the camera itself moves, for example, when the camera is mounted on a cellular phone or a car. Further, the sensor unit 17 includes, for example, sensors such as a temperature sensor, a humidity sensor, and an acceleration sensor, and acquires information on the environment in which the camera C1 is installed as sensor information by using these sensors. The sensor unit 17 transfers the acquired sensor information to the processing circuit 15 and the memory 16.

スイッチ部10は、撮像部1a〜1mのいずれかから出力された映像データを、選択的に同期処理部20に送出する。どの撮像部1a〜1mからの映像データが選択されるかは、処理回路15により決定される。   The switch unit 10 selectively sends the video data output from any of the imaging units 1 a to 1 m to the synchronization processing unit 20. The processing circuit 15 determines which one of the imaging units 1a to 1m the video data is to be selected.

同期処理部20は、スイッチ部10からの映像データと、この映像データから生成された特徴量を含む特徴データとを、互いに同期させる。特徴量は、映像データに基づいて処理回路15で生成される。特徴データは、特徴量、およびセンサ部17から転送されるパラメータ情報、センサ情報、位置情報、および時刻情報などに基づいて処理回路15で生成される。   The synchronization processing unit 20 synchronizes the video data from the switch unit 10 with the feature data including the feature amount generated from the video data. The feature amount is generated by the processing circuit 15 based on the video data. The feature data is generated by the processing circuit 15 based on the feature amount, parameter information transferred from the sensor unit 17, sensor information, position information, time information, and the like.

映像データは、例えば、この映像データに基づいて特徴データが生成されるのにかかる時間分だけ、特徴データよりも時間的に先行している。同期処理部20は、先行する時間分、映像データをバッファメモリに一時記憶する。同期処理部20は、特徴データが作成されるタイミングに合わせてバッファメモリから映像データを読み出すことで、映像データと特徴データを同期させる。同期された映像データおよび特徴データは、多重化部19に渡される。   The video data precedes the feature data in time, for example, by the time it takes for the feature data to be generated based on the video data. The synchronization processing unit 20 temporarily stores the video data in the buffer memory for the preceding time. The synchronization processing unit 20 synchronizes the video data with the feature data by reading the video data from the buffer memory at the timing when the feature data is created. The synchronized video data and feature data are passed to the multiplexing unit 19.

多重化部19は、映像データと、この映像データに同期した特徴データとを、例えば、MPEG−2(Moving Picture Experts Group - 2)システムの伝送ストリームに多重化する。   The multiplexing unit 19 multiplexes the video data and the feature data synchronized with the video data into, for example, a transport stream of the MPEG-2 (Moving Picture Experts Group-2) system.

送信部21は、映像データおよび特徴データが多重された伝送ストリームを、クラウド100の画像処理装置200に回線L経由で送信する。   The transmission unit 21 transmits the transmission stream in which the video data and the feature data are multiplexed to the image processing apparatus 200 of the cloud 100 via the line L.

受信部22は、クラウド100または画像処理装置200から送信されたデータを、回線Lを介して取得する。画像処理装置200から送信されたデータには、例えば、画像処理装置200での画像処理に関するメッセージが含まれる。メッセージは、例えば画像処理方式の種別、および優先する映像パラメータ(コントラスト値、および信号対雑音比など)を示す情報などを含む。取得されたデータは処理回路15およびメモリ16に転送される。   The receiving unit 22 acquires data transmitted from the cloud 100 or the image processing apparatus 200 via the line L. The data transmitted from the image processing apparatus 200 includes, for example, a message regarding image processing in the image processing apparatus 200. The message includes, for example, a type of image processing method, and information indicating a video parameter (such as contrast value and signal-to-noise ratio) to be prioritized. The acquired data is transferred to the processing circuit 15 and the memory 16.

メモリ16は、例えば、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、又は、EPROM(Erasable Programmable ROM)、およびEEPROM(Electrically Erasable Programmable ROM)などの不揮発性メモリである。メモリ16は、実施形態に係わる各種の機能を処理回路15に実行させるためのプログラム16a、および特徴データ16bを記憶する。   The memory 16 is, for example, a semiconductor memory such as SDRAM (Synchronous Dynamic RAM) or a non-volatile memory such as EPROM (Erasable Programmable ROM) and EEPROM (Electrically Erasable Programmable ROM). The memory 16 stores a program 16a for causing the processing circuit 15 to execute various functions according to the embodiment, and feature data 16b.

処理回路15は、メモリ16に記憶されたプログラムに基づいてカメラC1の動作を制御する。処理回路15は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行可能にチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等で処理回路15を構成することもできる。なお、CPUに代えて、MPU(Micro Processing Unit)を用いて処理回路15を構成しても構わない。   The processing circuit 15 controls the operation of the camera C1 based on the program stored in the memory 16. The processing circuit 15 is an LSI (Large Scale Integration) that includes, for example, a multi-core CPU (Central Processing Unit) and is tuned to execute image processing at high speed. The processing circuit 15 can also be configured by an FPGA (Field Programmable Gate Array) or the like. The processing circuit 15 may be configured using an MPU (Micro Processing Unit) instead of the CPU.

処理回路15は、実施形態に係る処理機能として、画像分析部15a、選択部15b、切替制御部15c、および特徴データ生成部15dを備える。画像分析部15a、選択部15b、切替制御部15c、および特徴データ生成部15dは、メモリ16に記憶されたプログラム16aが処理回路15のレジスタにロードされ、当該プログラムの進行に伴って処理回路15が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム16aは、画像分析プログラム、選択プログラム、切替プログラム、および特徴データ生成プログラム、を含む。   The processing circuit 15 includes an image analysis unit 15a, a selection unit 15b, a switching control unit 15c, and a feature data generation unit 15d as processing functions according to the embodiment. In the image analysis unit 15a, the selection unit 15b, the switching control unit 15c, and the feature data generation unit 15d, the program 16a stored in the memory 16 is loaded into the register of the processing circuit 15, and the processing circuit 15 is processed as the program progresses. Can be understood as a process generated by performing arithmetic processing. That is, the program 16a includes an image analysis program, a selection program, a switching program, and a feature data generation program.

画像分析部15aは、撮像部1a〜1mから転送される映像データに対し、画像分析および映像分析を実施する。これにより、画像分析部15aは、撮像部1a〜1mから転送される映像データごとの特徴量を生成する。本実施形態において、特徴量は、例えば、映像の特徴を示す指標、および画像の特徴を示す指標として用いられる。特徴量には、例えば、可視光映像、赤外線映像、遠赤外線映像、紫外線映像、カラー映像、またはモノクロ映像といった映像の性質を識別するための情報も含まれる。より具体的には、特徴量は、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)特徴量、コントラスト、解像度、S/N比、および色調などを含む。また、輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co−HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。   The image analysis unit 15a performs image analysis and video analysis on the video data transferred from the imaging units 1a to 1m. Thereby, the image analysis unit 15a generates feature amounts for each of the video data transferred from the imaging units 1a to 1m. In the present embodiment, the feature amount is used as, for example, an index indicating a feature of an image and an index indicating a feature of an image. The feature amount includes, for example, information for identifying the nature of an image such as a visible light image, an infrared image, a far infrared image, an ultraviolet image, a color image, or a monochrome image. More specifically, the feature amount includes a histogram of oriented gradients (HOG) feature amount, contrast, resolution, S / N ratio, color tone, and the like. In addition, a luminance gradient direction co-occurrence histogram (Co-occurrence HOG: Co-HOG) feature amount, a Haar-Like feature amount, and the like are also known as feature amounts.

選択部15bは、画像処理装置200において実行されている画像処理に対し、どの撮像部1a〜1mの映像データが画像処理装置200へ転送されるのにふさわしいかを判定する。すなわち選択部15bは、画像処理装置200の画像処理に相応する映像データを生成している撮像部を選択する。具体的には、選択部15bは、例えば、所定の評価値を用い、撮像部1a〜1mのうち1つの撮像部を選択する。評価値は、映像データが画像処理装置200の画像処理に相応する度合いを表し、画像分析部15aで計算された特徴量に基づいて計算される。   The selection unit 15 b determines which image data of the imaging units 1 a to 1 m is appropriate for transfer to the image processing apparatus 200 with respect to the image processing being executed in the image processing apparatus 200. That is, the selection unit 15 b selects an imaging unit that generates video data corresponding to the image processing of the image processing apparatus 200. Specifically, the selection unit 15 b selects one of the imaging units 1 a to 1 m using, for example, a predetermined evaluation value. The evaluation value represents the degree to which the video data corresponds to the image processing of the image processing apparatus 200, and is calculated based on the feature amount calculated by the image analysis unit 15a.

例えば、画像処理装置200で輪郭抽出処理が実施されている場合、選択部15bは、撮像部1a〜1mから転送されるそれぞれの映像データについて、映像の輪郭が明瞭であるか、不明瞭であるかを表す指標を計算する。この指標は映像データの特徴量に基づいて例えば0〜100の範囲で数値的に表すことができ、その値を評価値とする。輪郭抽出処理に着目した場合、ハイコントラストのモノクロ画像を出力する撮像部の評価値が最も高くなる。   For example, when the contour extraction process is performed by the image processing apparatus 200, the selection unit 15b has a clear or unclear outline of the image for each of the video data transferred from the imaging units 1a to 1m. Calculate the indicator that represents This index can be numerically represented, for example, in the range of 0 to 100 based on the feature amount of the video data, and the value is used as an evaluation value. When attention is focused on the contour extraction processing, the evaluation value of the imaging unit that outputs a high contrast monochrome image is the highest.

選択部15bは、評価値の最も高い映像データを生成する撮像部を選択する。   The selection unit 15 b selects an imaging unit that generates video data with the highest evaluation value.

画像処理装置200にとって、撮像部が頻繁に切り替わることは好ましくない。そこで、選択部15bは、例えば、画像処理方式の変更等を表すメッセージが画像処理装置200から送信されない限り、現在使用中の撮像部で生成された映像データについての評価値のみを計算する。選択部15bは、計算した評価値が既定のしきい値以上であれば、他の撮像部で生成された映像データについての評価値は計算しない。一方、計算した評価値が既定のしきい値未満である場合、他の撮像部で生成された映像データについての評価値を計算する。詳しくは図5のフローチャートを用いて説明する。   It is not desirable for the image processing apparatus 200 to switch the imaging unit frequently. Therefore, the selection unit 15b calculates only the evaluation value of the video data generated by the imaging unit currently in use, unless, for example, a message representing a change in the image processing method or the like is transmitted from the image processing apparatus 200. If the calculated evaluation value is equal to or greater than the predetermined threshold value, the selection unit 15b does not calculate an evaluation value for video data generated by another imaging unit. On the other hand, if the calculated evaluation value is less than the predetermined threshold value, the evaluation value of video data generated by another imaging unit is calculated. The details will be described using the flowchart of FIG.

なお、例えば画像処理装置200で採用される画像処理が、撮像部の頻繁な切り替えを容認する場合には、選択部15bは、例えば一定周期(毎分、10分ごと、または、1時間ごとなど)で各々の撮像部の評価値を計算するようにしても構わない。これにより、環境(天候など)の変化に柔軟に対応することができる。   Note that, for example, when the image processing employed by the image processing apparatus 200 allows frequent switching of the imaging units, the selection unit 15b may, for example, have a fixed cycle (every minute, every ten minutes, every hour, etc. The evaluation value of each imaging unit may be calculated according to. This makes it possible to flexibly cope with changes in the environment (such as weather).

切替制御部15cおよびスイッチ部10は、選択部15bにより別の撮像部が選択されるたびに、選択された撮像部からの映像データを互いのフレーム位相を同期させて切り替え出力する。つまり切替制御部15cおよびスイッチ部10は、切替部として機能する。時間の経過とともに撮影環境が大きく変化したり、画像処理装置200の要求が変化したりすると、現在使用されている撮像部とは別の撮像部が選択される。そうすると切替制御部15cは、内部バス23の同期信号に従って、それまで選択されていた撮像部からの映像データのフレーム位相と、新しく選択された撮像部からの映像データのフレーム位相とを同期させる。具体的には、切替前の映像データのフレームの開始シンボルの位相と、切替後の映像データのフレームの開始シンボルの位相とを外部からの同期信号に合わせこむことで、それぞれの映像データのフレーム位相を同期させる。フレーム同期が完了すると、切替制御部15cは、スイッチ部10を切り替えて、選択された撮像部からの映像データを同期処理部20に送る。   The switching control unit 15c and the switch unit 10 switch and output the video data from the selected imaging unit in synchronization with each other's frame phase each time another imaging unit is selected by the selection unit 15b. That is, the switching control unit 15c and the switch unit 10 function as a switching unit. When the imaging environment changes significantly with the passage of time or the request of the image processing apparatus 200 changes, an imaging unit other than the imaging units currently used is selected. Then, the switching control unit 15c synchronizes the frame phase of the video data from the imaging unit selected so far and the frame phase of the video data from the newly selected imaging unit according to the synchronization signal of the internal bus 23. Specifically, by matching the phase of the start symbol of the frame of the video data before switching and the phase of the start symbol of the frame of the video data after switching with the synchronization signal from the outside, the frames of the respective video data Synchronize the phase. When frame synchronization is completed, the switching control unit 15 c switches the switch unit 10 and sends the video data from the selected imaging unit to the synchronization processing unit 20.

特徴データ生成部15dは、選択部15bで選択された撮像部からの映像データの特徴データを生成する。具体的には、特徴データ生成部15dは、例えば、画像分析部15aで生成された特徴量、およびセンサ部17から転送されるセンサ情報、位置情報、および時刻情報などに基づき、選択部15bで選択された撮像部からの映像データの特徴データを生成する。生成された特徴データはメモリ16に一時的に記憶され(特徴データ16b)、同期処理部20に送られる。なお、特徴データ生成部15dは、切替制御部15cにより接続が切り替えられた後、画像処理装置200の画像処理が追従するのに十分な期間が経過すると、特徴データの生成を停止するようにしても構わない。   The feature data generation unit 15 d generates feature data of the video data from the imaging unit selected by the selection unit 15 b. Specifically, the feature data generation unit 15d selects the selection unit 15b based on, for example, the feature amount generated by the image analysis unit 15a, the sensor information transferred from the sensor unit 17, position information, time information, and the like. Feature data of video data from the selected imaging unit is generated. The generated feature data is temporarily stored in the memory 16 (feature data 16 b) and sent to the synchronization processing unit 20. Note that after the connection is switched by the switching control unit 15c, the feature data generation unit 15d stops generation of feature data when a period sufficient for the image processing of the image processing apparatus 200 to follow has elapsed. I don't care.

図3は、画像処理装置200の一例を示すブロック図である。画像処理装置200は、CPUあるいはMPU等のプロセッサ250を備えるコンピュータである。画像処理装置200は、ROM(Read Only Memory)220、RAM(Random Access Memory)230、ハードディスクドライブ(Hard Disk Drive:HDD)240、光学メディアドライブ260、通信部270を備える。さらに、画像処理向けの機能を強化したプロセッサであるGPU(Graphics Processing Unit)210を備えてもよい。GPUは、積和演算、畳み込み演算、3D(三次元)再構成などの演算処理を高速で実行することができる。   FIG. 3 is a block diagram showing an example of the image processing apparatus 200. As shown in FIG. The image processing apparatus 200 is a computer provided with a processor 250 such as a CPU or an MPU. The image processing apparatus 200 includes a read only memory (ROM) 220, a random access memory (RAM) 230, a hard disk drive (HDD) 240, an optical media drive 260, and a communication unit 270. Furthermore, a GPU (Graphics Processing Unit) 210, which is a processor with an enhanced function for image processing, may be provided. The GPU can execute operation processing such as product-sum operation, convolution operation, 3D (three-dimensional) reconstruction at high speed.

ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、HDD240からロードされたプログラムやデータを一時的に記憶する。HDD240は、プロセッサ250により実行されるプログラム240a、画像処理データ240b、および、特徴データ240cを記憶する。   The ROM 220 stores basic programs such as a BIOS (Basic Input Output System) and a UEFI (Unified Extensible Firmware Interface), various setting data, and the like. The RAM 230 temporarily stores programs and data loaded from the HDD 240. The HDD 240 stores a program 240 a executed by the processor 250, image processing data 240 b, and feature data 240 c.

光学メディアドライブ260は、CD−ROM280などの記録媒体に記録されたディジタルデータを読み取る。画像処理装置200で実行される各種プログラムは、例えばCD−ROM280に記録されて頒布される。このCD−ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、HDD240にインストールされる。通信部270を介してクラウド100から最新のプログラムをダウンロードして、既にインストールされているプログラムをアップデートすることもできる。   The optical media drive 260 reads digital data recorded on a recording medium such as a CD-ROM 280. Various programs executed by the image processing apparatus 200 are, for example, recorded on a CD-ROM 280 and distributed. The program stored in the CD-ROM 280 is read by the optical media drive 260 and installed in the HDD 240. The latest program can be downloaded from the cloud 100 via the communication unit 270, and the already installed program can be updated.

通信部270は、クラウド100に接続されて、カメラC1〜Cn、およびクラウド100の他のサーバやデータベースなどと通信する。画像処理装置200で実行される各種プログラムは、例えば通信部270を介してクラウド100からダウンロードされ、HDD240にインストールされても構わない。   The communication unit 270 is connected to the cloud 100, and communicates with the cameras C1 to Cn, and other servers and databases of the cloud 100. For example, various programs executed by the image processing apparatus 200 may be downloaded from the cloud 100 via the communication unit 270 and installed in the HDD 240.

通信部270は、受信部270aを備える。受信部270aは、映像データを含む伝送ストリームをカメラC1〜Cnからクラウド100の通信ネットワーク経由で受信する。   The communication unit 270 includes a receiving unit 270a. The receiving unit 270a receives a transmission stream including video data from the cameras C1 to Cn via the communication network of the cloud 100.

プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。   The processor 250 executes an operating system (OS) and various programs.

また、プロセッサ250は、実施形態に係る処理機能として画像処理部250a、分離部250b、復号部250c、補償部250d、および通知部250eを備える。画像処理部250a、分離部250b、復号部250c、補償部250d、および通知部250eは、HDD240に記憶されたプログラム240aがプロセッサ250のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ250が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム240aは、画像処理プログラム、分離プログラム、復号プログラム、補償プログラム、および、通知プログラム、を含む。   The processor 250 further includes an image processing unit 250a, a separation unit 250b, a decoding unit 250c, a compensation unit 250d, and a notification unit 250e as processing functions according to the embodiment. In the image processing unit 250a, the separation unit 250b, the decoding unit 250c, the compensation unit 250d, and the notification unit 250e, the program 240a stored in the HDD 240 is loaded into the register of the processor 250, and the processor 250 calculates it as the program progresses. It can be understood as a process generated by performing a process. That is, the program 240 a includes an image processing program, a separation program, a decoding program, a compensation program, and a notification program.

画像処理部250aは、受信した伝送ストリームに含まれる映像データ、または、この映像データから復号された映像を画像処理し、点群データ、および人物追跡データなどの画像処理データを得る。この画像処理データは、HDD240に画像処理データ240bとして記憶される。   The image processing unit 250 a performs image processing on video data included in the received transmission stream or a video decoded from the video data, and obtains image processing data such as point cloud data and person tracking data. The image processing data is stored in the HDD 240 as the image processing data 240 b.

分離部250bは、受信した伝送ストリームから、上記映像データと、特徴データとを分離する。分離された特徴データは、HDD240に特徴データ240cとして記憶される。   The separation unit 250 b separates the video data and the feature data from the received transmission stream. The separated feature data is stored in the HDD 240 as feature data 240 c.

復号部250cは、分離された映像データを復号して映像を再生する。   The decoding unit 250c decodes the separated video data to reproduce a video.

補償部250dは、分離された特徴データに基づいて、再生された映像の連続性を補償する。つまり補償部250dは、特徴データ(センサ情報/パラメータ情報)に基づいて、撮像部の切替の前後の映像が徐々に変化するように、各画素の色調変換処理などを行う。例えば、補償部250dは、切り替え前に10秒間、切り替え後に10秒間の計20秒の間に、受信した映像の各画素の色調が徐々に変化するように処理する。このような処理は、モーフィングと称して知られている。映像を変化させる期間は、撮像部の切替に対して、画像処理装置200の画像処理機能が追従するために必要な期間以上に長くするのが好ましい。   The compensation unit 250d compensates for the continuity of the reproduced image based on the separated feature data. That is, the compensation unit 250d performs tone conversion processing and the like of each pixel based on the feature data (sensor information / parameter information) so that the video before and after the switching of the imaging unit gradually changes. For example, the compensation unit 250d performs processing so that the color tone of each pixel of the received video gradually changes during a total of 20 seconds of 10 seconds before switching and 10 seconds after switching. Such processing is known as morphing. It is preferable to make the period for changing the image longer than the period necessary for the image processing function of the image processing apparatus 200 to follow switching of the imaging unit.

補償部250dによる処理を経た画像フレームは画像処理部250aに渡される。画像処理部250aは、受信した映像データが映像データの切替部分を含んでいても、補償された映像に対して画像処理を行うことができる。   The image frame subjected to the processing by the compensation unit 250d is delivered to the image processing unit 250a. The image processing unit 250a can perform image processing on the compensated video even if the received video data includes a switching portion of the video data.

通知部250eは、画像処理部250aの画像処理に関する情報を含むメッセージを、カメラC1〜Cnに通知する。例えば画像処理方式の種別や、映像のコントラストを優先するか、または、映像の信号対雑音比を優先するか、等を示す情報が、メッセージによりカメラC1〜Cnへ通知される。   The notification unit 250e notifies the cameras C1 to Cn of a message including information on image processing of the image processing unit 250a. For example, information indicating whether to prioritize the type of the image processing method, the contrast of the video, or the signal-to-noise ratio of the video is notified to the cameras C1 to Cn by a message.

図4は、カメラC1と画像処理装置200との間で授受される情報の一例を示す図である。カメラC1は、選択している撮像部で生成される映像データ、およびこの映像データについての特徴データを伝送ストリームに多重して送る。画像処理装置200は、必要に応じて画像処理に関するメッセージを、クラウド100経由でカメラC1にメッセージを送る。メッセージを受信したカメラC1は、メッセージに記載された情報に相応する撮像部を撮像部1a〜1dから選択する。そして、カメラC1は、選択した撮像部で生成される映像データ、およびこの映像データについての特徴データを伝送ストリームに多重して送る。次に、上記構成を基礎として本発明の作用について説明する。   FIG. 4 is a diagram showing an example of information exchanged between the camera C1 and the image processing apparatus 200. As shown in FIG. The camera C1 multiplexes the video data generated by the selected imaging unit and the feature data of the video data into a transmission stream and sends it. The image processing apparatus 200 sends a message regarding image processing to the camera C1 via the cloud 100 as necessary. The camera C1 having received the message selects an imaging unit corresponding to the information described in the message from the imaging units 1a to 1d. Then, the camera C1 multiplexes the video data generated by the selected imaging unit and the feature data of the video data in the transmission stream and sends it. Next, the operation of the present invention will be described based on the above configuration.

図5は、実施形態におけるカメラC1〜Cnの処理手順の一例を示すフローチャートである。ここではカメラC1を主体として説明するが、カメラC2〜Cnも同様に動作する。   FIG. 5 is a flowchart illustrating an example of the processing procedure of the cameras C1 to Cn in the embodiment. Although the camera C1 will be mainly described here, the cameras C2 to Cn operate similarly.

図5において、カメラC1は、画像処理装置200からのメッセージの通知を待ち受ける(ステップS1)。メッセージが受信されれば(ステップS1でYes)、カメラC1はその内容を解読する(ステップS2)。ここで受信されるメッセージには、例えば画像処理方式の種別、又は優先する映像パラメータ(コントラスト値、および信号対雑音比など)を示す情報などが含まれている。カメラC1は、解読により認識される、計算すべき特徴量が、現在計算対象となっている特徴量から変更を要するか否かを判断する(ステップS3)。   In FIG. 5, the camera C1 waits for notification of a message from the image processing apparatus 200 (step S1). If a message is received (Yes in step S1), the camera C1 decodes the content (step S2). The message received here includes, for example, the type of the image processing method, or information indicating a video parameter (a contrast value, a signal to noise ratio, etc.) to be prioritized. The camera C1 determines whether the feature value to be calculated, which is recognized by the decryption, needs to be changed from the feature value currently to be calculated (step S3).

計算すべき特徴量に変更が無ければ(ステップS3でNo)、処理手順はステップS1に戻り、カメラC1は画像処理装置200からのメッセージの通知を待つ。ステップS3で特徴量に変更有りと判定されれば(Yes)、処理手順はステップS6に至る。   If there is no change in the feature amount to be calculated (No in step S3), the processing procedure returns to step S1, and the camera C1 waits for notification of a message from the image processing apparatus 200. If it is determined in step S3 that there is a change to the feature amount (Yes), the processing procedure proceeds to step S6.

一方、ステップS1でメッセージが受信されなければ(No)、カメラC1は、その時点で選択されている撮像部(現在の撮像部)からの映像データについて、現在計算対象となっている特徴量を計算し(ステップS4)、この特徴量に基づく評価値を計算する(ステップS14)。   On the other hand, if no message is received in step S1 (No), the camera C1 calculates the feature amount currently being calculated for the video data from the imaging unit (current imaging unit) selected at that time. Calculation is performed (step S4), and an evaluation value based on the feature amount is calculated (step S14).

次に、カメラC1は、計算された評価値と予め定めされたしきい値とを比較する(ステップS5)。評価値がしきい値以上であれば(Yes)、現在の撮像部の評価値は十分に高いので撮像部の切替はスキップされ、処理手順はステップS1に戻る。ステップS5で評価値がしきい値未満であれば(No)、カメラC1は、現在計算対象となっている特徴量を、撮像部1a〜1mで生成される映像データそれぞれについて計算する(ステップS6)。   Next, the camera C1 compares the calculated evaluation value with a predetermined threshold (step S5). If the evaluation value is equal to or greater than the threshold (Yes), the current evaluation value of the imaging unit is sufficiently high, so switching of the imaging unit is skipped, and the processing procedure returns to step S1. If it is determined in step S5 that the evaluation value is less than the threshold (No), the camera C1 calculates feature amounts currently being calculated for each of the video data generated by the imaging units 1a to 1m (step S6). ).

ここで、処理手順がステップS5からステップS6に至った場合には、計算すべき特徴量の変更を画像処理装置200から要求されなかったことになる。一方、ステップS3からステップS6に至った場合には、画像処理装置200から、計算すべき特徴量の変更を要求されたことになる。   Here, when the processing procedure reaches from step S5 to step S6, the change of the feature amount to be calculated is not requested from the image processing apparatus 200. On the other hand, when the process proceeds from step S3 to step S6, the image processing apparatus 200 is requested to change the feature value to be calculated.

次に、カメラC1は、計算した特徴量に基づいて評価値を計算する(ステップS7)。この評価値に基づいて、カメラC1は、撮像部1a〜1mのうち評価値の最も高い撮像部を選択する(ステップS8)。現在の撮像部と今回選択した撮像部とが同じなら(ステップS9でNo)、撮像部の切替はスキップされて処理手順はステップS1に戻る。   Next, the camera C1 calculates an evaluation value based on the calculated feature amount (step S7). Based on the evaluation value, the camera C1 selects the imaging unit with the highest evaluation value among the imaging units 1a to 1m (step S8). If the current imaging unit and the imaging unit selected this time are the same (No in step S9), switching of the imaging unit is skipped and the processing procedure returns to step S1.

現在の撮像部と今回選択した撮像部とが異なれば、カメラC1は撮像部の切り替えが必要と判定し(ステップS9でYes)、切り替え先の撮像部の映像に関する特徴データの生成の生成を開始する(ステップS10)。次いでカメラC1は、新たに選択された撮像部と、現在選択中の撮像部との間で映像信号のフレームの同期をとり、撮像部の切り替えを実行する(ステップS11)。そして、フレーム切替の時点を含む所定期間が経過すると、特徴データの生成は終了する(ステップS7)。その間に生成された特徴データは映像データとともに伝送ストリームに同期多重され(ステップS13)、画像処理装置200に送信される。   If the current imaging unit and the imaging unit selected this time are different, the camera C1 determines that switching of the imaging unit is necessary (Yes in step S9), and starts generation of feature data related to the image of the imaging unit of the switching destination. (Step S10). Next, the camera C1 synchronizes the frames of the video signal between the newly selected imaging unit and the currently selected imaging unit, and executes switching of the imaging units (step S11). Then, when a predetermined period including the time of frame switching has elapsed, the generation of feature data ends (step S7). The feature data generated during that time is synchronously multiplexed on the transmission stream together with the video data (step S13), and transmitted to the image processing apparatus 200.

図6は、伝送ストリームのTS基本体系の例を示す図である。このTS基本体系は、MPEG−2 Systemsに準拠するもので、TS(Transport Stream)、PAT(Program Association Table)、PMT(Program Map Table)の階層構造を有する。PMTの配下には、映像(Video)、音声(Audio)、PCR(Program Clock Reference)等のPES(Packetized Elementary Stream)パケットが配置される。映像パケットのヘッダにはPTS(Presentation Time Stamp)/DTS(Decoding Time Stamp)が挿入され、音声パケットのヘッダにはPTSが挿入される。   FIG. 6 is a diagram showing an example of a TS basic system of a transport stream. The TS basic system conforms to MPEG-2 Systems, and has a hierarchical structure of TS (Transport Stream), PAT (Program Association Table), and PMT (Program Map Table). Under the PMT, PES (Packetized Elementary Stream) packets such as video (Video), audio (Audio), and PCR (Program Clock Reference) are arranged. A PTS (Presentation Time Stamp) / DTS (Decoding Time Stamp) is inserted into the header of the video packet, and a PTS is inserted into the header of the audio packet.

図7は、同期多重された特徴データを含む伝送ストリームの一例を示す図である。カメラC1の多重化部19は、図7に示されるように、TS基本体系におけるいずれかの位置(TS配下、PAT配下またはPMT配下)に特徴データパラメータを配置することで、特徴データを多重する。   FIG. 7 is a diagram showing an example of a transport stream including synchronously multiplexed feature data. As shown in FIG. 7, the multiplexing unit 19 of the camera C1 multiplexes feature data by arranging feature data parameters at any position (under the TS, under the PAT, or under the PMT) in the TS basic system. .

また、多重化部19は、ヘッダにPTS/DTSを付加した特徴データエレメンタリーを、PMTの配下に配置することで、特徴データを多重するようにしてもよい。特徴データパラメータは、特徴データエレメンタリーに含まれることになる。特徴データエレメンタリーに特徴データを格納する場合、ITU−T勧告H.222.に従うPESヘッダオプションを利用しても構わない。すなわち、例えばストリームタイプを表す識別子(補助ストリーム(0xF9)、メタデータストリーム(0xFC)、及び拡張ストリームID(0xFD))、エレメンタリーPIDを表す識別子、又は未定義(0xFC)の識別子等を、特徴データエレメンタリーを含むPMTのヘッダを挿入するとよい。   Also, the multiplexing unit 19 may multiplex feature data by arranging feature data elementarys in which PTS / DTS is added to the header under the PMT. The feature data parameters will be included in the feature data elementary. When feature data is stored in a feature data elementary, ITU-T recommendation H.3. 222. You may use the PES header option according to. That is, for example, an identifier representing a stream type (auxiliary stream (0xF9), metadata stream (0xFC), and extended stream ID (0xFD)), an identifier representing an elementary PID, or an identifier of undefined (0xFC), etc. It is good to insert the PMT header including data elementary.

図8は、カメラC1で生成される特徴データのパラメータの具体例を表す図である。図8において、特徴データパラメータは、絶対時刻情報、カメラ方向情報、およびズーム倍率情報などのパラメータ情報、位置情報、センサ情報、および特徴量などの項目を含む。センサ情報は、例えば、温度情報、湿度情報、ディジタルタコメータ情報(車載カメラなど)、構造物の点群データ等を含む。   FIG. 8 is a diagram showing a specific example of parameters of feature data generated by the camera C1. In FIG. 8, the feature data parameters include items such as absolute time information, camera direction information, and parameter information such as zoom magnification information, position information, sensor information, and feature amounts. The sensor information includes, for example, temperature information, humidity information, digital tachometer information (such as an on-vehicle camera), point cloud data of a structure, and the like.

以上述べたように実施形態では、複数の撮像部を有するカメラにおいて、どの撮像部からの映像が画像処理装置200の画像処理に最も適しているかを、カメラの側で判断する。すなわちカメラにおいて、各撮像部からの映像について画像処理装置200の画像処理と同様の処理を実施し、得点(評価値)の最も高い撮像部を選択する。   As described above, in the embodiment, in the camera having a plurality of imaging units, it is determined on the camera side which image from the imaging unit is most suitable for the image processing of the image processing apparatus 200. That is, in the camera, the same processing as the image processing of the image processing apparatus 200 is performed on the image from each imaging unit, and the imaging unit with the highest score (evaluation value) is selected.

また、実施形態では、複数の撮像部を有するカメラの映像を切り替える際に、画像処理装置200での画像処理の不連続を解消するのに十分な期間にわたる特徴量を、カメラの側で算出し、映像データに同期多重して画像処理装置200に伝送するようにしている。   Further, in the embodiment, when switching the image of a camera having a plurality of imaging units, the feature amount over a period sufficient to eliminate the discontinuity of the image processing in the image processing apparatus 200 is calculated on the camera side. The video data is synchronously multiplexed and transmitted to the image processing apparatus 200.

既存の遠隔監視システムでは、映像(撮像部)間の色調差異が大きいと、カメラの撮像部が切り替わるごとに、図9(a)に示されるように特徴データが不連続となり、画像処理装置200側で画像処理がリセットされる場合があった。特に異種のカメラを用いたハイブリッドカメラシステムでは、その傾向が大きい。   In the existing remote monitoring system, when the color tone difference between the images (imaging units) is large, the characteristic data becomes discontinuous as shown in FIG. 9A each time the imaging units of the camera are switched, and the image processing apparatus 200 There was a case that the image processing was reset on the side. This is particularly true in hybrid camera systems that use different types of cameras.

これに対し実施形態では、映像ストリームを生成するカメラにおいて、画像処理装置200の画像処理に最も適した映像を生成する撮像部を、選択部15bで選択する。選択された撮像部が変化するとその前後の撮像部間で映像データのフレームを同期させ、映像データを切り替える。そして、映像データとその特徴データ(センサ情報やパラメータ情報、判定結果など)とを、伝送フレームに同期多重して画像処理装置200に送る。   On the other hand, in the embodiment, in the camera that generates a video stream, the selection unit 15b selects an imaging unit that generates a video most suitable for the image processing of the image processing apparatus 200. When the selected imaging unit changes, the frames of the video data are synchronized between the imaging units before and after that, and the video data is switched. Then, the video data and its feature data (sensor information, parameter information, determination results, etc.) are synchronously multiplexed on the transmission frame and sent to the image processing apparatus 200.

このようにしたので、図9(b)に示されるように、複数カメラの同期切替の際に、カメラから特徴データをクラウド経由で画像処理装置200に渡すことができる。これにより、特徴データは切れ目なく画像処理装置200に伝送され、画像処理装置200において特徴データの連続性を補償することができる。   Since this is done, as shown in FIG. 9B, at the time of synchronous switching of a plurality of cameras, feature data can be passed from the camera to the image processing apparatus 200 via the cloud. Thereby, the feature data can be transmitted to the image processing apparatus 200 without break, and the image processing apparatus 200 can compensate for the continuity of the feature data.

さらに、補償部250dは、クラウド経由で取得した特徴データに基づいて、この特徴データと同期して送られた映像の連続性を補償する。つまり補償部250dは、画像処理の際に、撮像部の切替の前後の映像の連続性を、特徴データを用いて補償する。これにより画像処理装置200は、補償された映像データに基づいて、画像処理を実施することができる。   Further, the compensation unit 250d compensates for the continuity of the image sent in synchronization with the feature data based on the feature data acquired via the cloud. That is, at the time of image processing, the compensation unit 250d compensates for the continuity of the image before and after the switching of the imaging unit using the feature data. Thus, the image processing apparatus 200 can perform image processing based on the compensated video data.

このように、画像処理装置200に最も適したカメラを選択し、映像を切り替えることができる。しかも、映像データと、この映像データに伴う特徴データとを同じ伝送ストリーム同期多重するようにしているので、映像と、その分析結果である特徴データとの時系列がずれることもない。従って、画像処理装置200における画像処理の連続性を保つことが可能になる。このことから、複数のカメラ映像を単一の伝送路で共有するという経済性と、受信側での画像処理を連続的に行ないながら、処理精度を維持することとを両立することができる。   As described above, it is possible to select a camera most suitable for the image processing apparatus 200 and switch the image. In addition, since the video data and the feature data associated with the video data are multiplexed in the same transmission stream, the time series of the video and the feature data as the analysis result does not shift. Therefore, the continuity of the image processing in the image processing apparatus 200 can be maintained. From this, it is possible to achieve both the economy of sharing a plurality of camera images in a single transmission path and maintaining the processing accuracy while continuously performing image processing on the receiving side.

すなわち、実施形態によれば、映像切替の前後で画像処理の連続性を保つことの可能なスマートカメラシステムと、このシステムで使用可能なスマートカメラ、画像処理装置、データ送信方法およびプログラムを提供することが可能となる。   That is, according to the embodiment, a smart camera system capable of maintaining continuity of image processing before and after video switching, a smart camera usable in this system, an image processing apparatus, a data transmission method, and a program are provided. It becomes possible.

(多視点カメラシステムへの適用例)
図10は、多視点カメラシステムの一例を示す図である。実施形態に係る議論は多視点カメラシステムについても成立する。図10に示されるケースでは、例えば選択部15b、切替制御部15cの機能をクラウド100のサービスとして実装すればよい。
(Example of application to multi-view camera system)
FIG. 10 is a diagram showing an example of a multi-viewpoint camera system. The argument according to the embodiment is also established for a multi-viewpoint camera system. In the case shown in FIG. 10, for example, the functions of the selection unit 15b and the switching control unit 15c may be implemented as a service of the cloud 100.

(アレイカメラシステムへの適用例)
図11は、アレイ状に配列された複数のカメラを備える、いわゆるアレイカメラシステムの一例を示す図である。例えばカメラC1を可視光カメラとし、カメラC2を赤外線カメラとし、両カメラC1,C2で共通の被写体を観察するアレイカメラシステムがある。この種のシステムにおいて、図2に示される選択部15b、切替制御部15cおよびスイッチ部10を画像処理装置200に実装することで、上記実施形態と同様の議論を行うことができる。つまり、画像処理装置200の画像処理に応じてカメラC1,C2を切り替える際、画像処理に必要な特徴データを映像データに同期多重して伝送するようにすれば、画像処理装置200での画像処理の連続性を補償することができる。
(Example of application to array camera system)
FIG. 11 is a diagram showing an example of a so-called array camera system including a plurality of cameras arranged in an array. For example, there is an array camera system in which the camera C1 is a visible light camera, the camera C2 is an infrared camera, and an object common to both cameras C1 and C2 is observed. In this type of system, by implementing the selection unit 15b, the switching control unit 15c, and the switch unit 10 shown in FIG. 2 in the image processing apparatus 200, the same argument as that in the above embodiment can be made. That is, when the cameras C1 and C2 are switched according to the image processing of the image processing apparatus 200, if the feature data necessary for the image processing is synchronously multiplexed and transmitted to the video data, the image processing in the image processing apparatus 200 is performed. Continuity can be compensated.

なお、この発明は上記実施形態に限定されるものではない。例えば、特徴データを構成する情報は図8に示されるものが唯一ではない。つまり特徴データに絶対時刻情報、カメラ方向情報、ズーム倍率情報、位置情報、センサ情報、および、特徴量の全てを含める必要は無い。また、例えばセンサ情報に温度情報、湿度情報、振動情報、加速度情報、雨量情報、水位情報、速度情報、ディジタルタコメータ情報、および点群データ、あるいは、撮像部のデバイスタイプ、画素数、フレームレート、感度、レンズの焦点距離、光量、および画角などの情報の全てを含める必要も無い。伝送ストリームに多重される特徴データに含める情報は、システム要件に応じて決定されればよい。   The present invention is not limited to the above embodiment. For example, the information constituting feature data is not unique to that shown in FIG. In other words, it is not necessary to include in the feature data all of absolute time information, camera direction information, zoom magnification information, position information, sensor information, and feature amounts. Also, for example, sensor information includes temperature information, humidity information, vibration information, acceleration information, rainfall information, water level information, velocity information, digital tachometer information, and point cloud data, or device type of imaging unit, number of pixels, frame rate, It is not necessary to include all the information such as the sensitivity, the focal length of the lens, the amount of light, and the angle of view. Information to be included in feature data to be multiplexed into a transport stream may be determined according to system requirements.

また、複数のカメラを備えるマルチスペクトルカメラに限らず、1つの撮像部に異なる波長カットフィルタを組み合わせて、単眼型のカメラにより複数の映像を得る形式のカメラについても上記と同じ議論が成り立つ。   The same argument holds for a camera of a type that obtains a plurality of images with a single-eye camera by combining different wavelength cut filters with one imaging unit as well as a multispectral camera having a plurality of cameras.

また、実施形態では、撮像部の切替に際して特徴データを生成し、映像ストリームに多重するようにした。このほか、特徴データを常時計算し、必要な場合(撮像部の切替が生じたとき)に、映像ストリームに多重するようにしても良い。   Further, in the embodiment, feature data is generated at the time of switching of the imaging unit and multiplexed in the video stream. In addition to this, feature data may be constantly calculated, and may be multiplexed into a video stream, if necessary (when the imaging unit is switched).

また、実施形態において、画像分析部15aが撮像部1a〜1mごとの映像を分析して、映像の特徴量を撮像部1a〜1mごとに生成することを述べた。映像に対して定義される特徴量だけでなく、画像に対して計算される特徴量もある。よって画像分析部15aにより画像の特徴量を算出し、画像の特徴量に基づいて種々の処理を実行するように構成することも可能である。   In the embodiment, it has been described that the image analysis unit 15a analyzes the image of each of the imaging units 1a to 1m and generates the feature amount of the image for each of the imaging units 1a to 1m. Not only the feature quantities defined for the image, but also the feature quantities calculated for the image. Therefore, the image analysis unit 15a may be configured to calculate the feature amount of the image and execute various processes based on the feature amount of the image.

さらに、画像分析部15aの機能を、撮像部1a〜1mにそれぞれ個別に実装しても良い。このようにすれば、撮影した映像の映像データと当該映像の特徴量とを、撮像部1a〜1mからまとめて出力できる。選択部は、この映像データに付随する特徴量を用いて評価値を得て、撮像部1a〜1mのいずれかを選択すればよい。このように分析の処理を撮像部1a〜1mに移すことで、処理回路15のリソースを節約することができる。   Furthermore, the functions of the image analysis unit 15a may be individually implemented in the imaging units 1a to 1m. In this way, it is possible to output together the video data of the photographed video and the feature amount of the video from the imaging units 1a to 1m. The selection unit may obtain an evaluation value using the feature amount associated with the video data, and select one of the imaging units 1a to 1m. By shifting the analysis processing to the imaging units 1a to 1m in this manner, resources of the processing circuit 15 can be saved.

コンピュータに関連して用いられる「プロセッサ」という用語は、例えばCPU、MPU、GPU、或いは、ASIC(Application Specific Integrated Circuit)、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、またはFPGA等の回路と理解され得る。   The term "processor" used in connection with a computer is, for example, a CPU, an MPU, a GPU, or an application specific integrated circuit (ASIC), a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), etc. Can be understood as

プロセッサは、メモリに記憶されたプログラムを読み出し実行することで、プログラムに基づく特有の機能を実現する。メモリに代えて、プロセッサの回路内にプログラムを直接組み込むよう構成することも可能である。このケースでは、プロセッサは回路内に組み込まれたプログラムを読み出し実行することでその機能を実現する。   The processor implements a specific function based on the program by reading and executing the program stored in the memory. Instead of the memory, the program can be directly incorporated into the processor circuit. In this case, the processor realizes its function by reading and executing a program embedded in the circuit.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   While several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.

1…撮像部、1a〜1m…撮像部、10…スイッチ部、11…レンズ、12…絞り機構、13…画像センサ、14…符号化部、15…処理回路、15a…画像分析部、15b…選択部、15c…切替制御部、15d…特徴データ生成部、16…メモリ、16a…プログラム、16b…特徴データ、17…センサ部、19…多重化部(MUX)、20…同期処理部、21…送信部、22…受信部、23…内部バス、24…データバス、42…ROM、100…クラウド、101…中継ネットワーク、200…画像処理装置、210…GPU、220…ROM、230…RAM、240…HDD、240a…プログラム、240b…画像処理データ、240c…特徴データ、250…プロセッサ、250a…画像処理部、250b…分離部、250c…復号部、250d…補償部、250e…通知部、260…光学メディアドライブ、280…CD−ROM、270…通信部、270a…受信部、C1〜Cn…カメラ、P1…セルラフォン、S1…エッジサーバ、S2…エッジサーバ、V1…車両。   DESCRIPTION OF SYMBOLS 1 ... Imaging part, 1a-1m ... Imaging part, 10 ... Switch part, 11 ... Lens, 12 ... Aperture mechanism, 13 ... Image sensor, 14 ... Encoding part, 15 ... Processing circuit, 15a ... Image analysis part, 15b ... Selection unit 15c Switching control unit 15d Feature data generation unit 16 Memory 16a Program 16b Feature data 17 Sensor unit 19 Multiplexing unit (MUX) 20 Synchronization processing unit 21 ... Transmission unit, 22 ... Reception unit, 23 ... Internal bus, 24 ... Data bus, 42 ... ROM, 100 ... Cloud, 101 ... Relay network, 200 ... Image processing device, 210 ... GPU, 220 ... ROM, 230 ... RAM, 240 ... HDD, 240 a ... program, 240 b ... image processing data, 240 c ... feature data, 250 ... processor, 250 a ... image processing unit, 250 b ... separation unit, 25 c Decoding unit 250d Compensating unit 250e Notification unit 260 Optical media drive 280 CD-ROM 270 Communication unit 270a Receiving unit C1 to Cn Camera P1 Cellular phone S1 Edge Server, S2: Edge server, V1: Vehicle.

Claims (23)

画像処理装置と通信可能なスマートカメラにおいて、
それぞれ映像データを生成する複数の撮像部と、
前記複数の撮像部から、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する選択部と、
前記選択部により別の撮像部が選択されるたびに、当該選択された撮像部からの前記映像データを互いのフレーム位相を同期させて切り替え出力する切替部と、
前記切り替え出力の時点を含む所定期間にわたる前記選択された撮像部からの映像の特徴データを生成する特徴データ生成部と、
前記切り替え出力された映像データと前記特徴データとを同期させる同期処理部と、
前記同期された映像データと特徴データとを伝送ストリームに多重する多重化部と、
前記伝送ストリームを前記画像処理装置に送信する送信部とを具備する、
スマートカメラ。
In a smart camera that can communicate with an image processing device,
A plurality of imaging units each generating video data;
A selection unit that selects, from the plurality of imaging units, an imaging unit that generates video data corresponding to image processing in the image processing apparatus;
A switching unit that switches and outputs the video data from the selected imaging unit in synchronization with each other's frame phase each time another imaging unit is selected by the selection unit;
A feature data generation unit that generates feature data of an image from the selected imaging unit over a predetermined period including the time point of the switching output;
A synchronization processing unit that synchronizes the switched and output video data with the feature data;
A multiplexing unit for multiplexing the synchronized video data and feature data into a transport stream;
And a transmitter configured to transmit the transmission stream to the image processing apparatus.
Smart camera.
前記撮像部ごとの映像を分析して当該撮像部ごとの映像の特徴量を生成する画像分析部をさらに具備し、
前記選択部は、前記撮像部ごとの映像の特徴量に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する、請求項1に記載のスマートカメラ。
The image processing apparatus further comprises an image analysis unit that analyzes a video of each of the imaging units and generates a feature amount of the video of each of the imaging units.
The smart camera according to claim 1, wherein the selection unit selects an imaging unit that generates image data corresponding to image processing in the image processing apparatus based on a feature amount of the image for each of the imaging units.
前記選択部は、前記画像処理装置における画像処理に相応する度合いを示す評価値を、前記特徴量に基づいて前記撮像部ごとに算出し、
前記評価値に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する、請求項2に記載のスマートカメラ。
The selection unit calculates, for each of the imaging units, an evaluation value indicating a degree corresponding to image processing in the image processing apparatus based on the feature amount.
The smart camera according to claim 2, wherein an imaging unit that generates video data corresponding to image processing in the image processing apparatus is selected based on the evaluation value.
前記選択部は、選択されている撮像部の評価値が既定のしきい値未満であれば、当該選択されている撮像部とは異なる撮像部を選択する、請求項3に記載のスマートカメラ。   The smart camera according to claim 3, wherein the selection unit selects an imaging unit different from the selected imaging unit if the evaluation value of the selected imaging unit is less than a predetermined threshold. 前記画像処理に関する情報を含むメッセージを前記画像処理装置から受信する受信部をさらに具備し、
前記選択部は、前記メッセージに含まれる情報に従って前記撮像部を選択する、請求項1に記載のスマートカメラ。
And a receiver configured to receive a message including information on the image processing from the image processing apparatus.
The smart camera according to claim 1, wherein the selection unit selects the imaging unit in accordance with information included in the message.
前記複数の撮像部は、それぞれ撮影波長帯を個別に割り当てられる、請求項1乃至5のいずれかに記載のスマートカメラ。   The smart camera according to any one of claims 1 to 5, wherein the plurality of imaging units are individually assigned imaging wavelength bands. 前記複数の撮像部は、赤外線カメラと、可視光カメラとを含む、請求項6に記載のスマートカメラ。   The smart camera according to claim 6, wherein the plurality of imaging units include an infrared camera and a visible light camera. 前記特徴データは、前記撮像部のセンサ情報、および、前記映像のパラメータ情報の少なくともいずれかを含む、請求項1乃至7のいずれかに記載のスマートカメラ。   The smart camera according to any one of claims 1 to 7, wherein the feature data includes at least one of sensor information of the imaging unit and parameter information of the image. 前記センサ情報は、デバイスタイプ、画素数、フレームレート、感度、レンズの焦点距離、光量、および画角の少なくともいずれかを含む、請求項8に記載のスマートカメラ。   The smart camera according to claim 8, wherein the sensor information includes at least one of a device type, a pixel number, a frame rate, a sensitivity, a focal length of a lens, a light amount, and an angle of view. 前記パラメータ情報は、前記映像の色調、および輝度ヒストグラムの少なくともいずれかを含む、請求項8に記載のスマートカメラ。   The smart camera according to claim 8, wherein the parameter information includes at least one of a color tone of the image and a luminance histogram. 複数の撮像部を有するスマートカメラと通信可能な画像処理装置において、
映像データを含む伝送ストリームを前記スマートカメラから受信する受信部と、
前記受信された伝送ストリームから、前記映像データと、当該映像データに同期された特徴データとを分離する分離部と、
前記映像データを復号して映像を再生する復号部と、
前記分離された特徴データに基づいて、前記再生された映像の連続性を補償する補償部と、
前記補償された映像に基づいて画像処理を行う画像処理部とを具備する、画像処理装置。
In an image processing apparatus capable of communicating with a smart camera having a plurality of imaging units,
A receiving unit that receives a transmission stream including video data from the smart camera;
A separation unit that separates the video data and feature data synchronized with the video data from the received transmission stream;
A decoding unit that decodes the video data and reproduces the video;
A compensation unit that compensates for the continuity of the reproduced image based on the separated feature data;
And an image processing unit that performs image processing based on the compensated image.
前記画像処理に関する情報を含むメッセージを前記スマートカメラに通知する通知部をさらに具備する、請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising a notification unit configured to notify the smart camera of a message including information on the image processing. 前記メッセージは、前記映像のコントラストを優先することを示す情報、または、前記映像の信号対雑音比を優先することを示す情報のいずれかを含む、請求項12に記載の画像処理装置。   The image processing apparatus according to claim 12, wherein the message includes either information indicating that the video contrast is prioritized or information indicating that the video signal-to-noise ratio is prioritized. スマートカメラと、通信ネットワークを介して前記スマートカメラと通信可能に接続される画像処理装置とを具備し、
前記スマートカメラは、
それぞれ映像データを生成する複数の撮像部と、
前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する選択部と、
前記選択部により別の撮像部が選択されるたびに、当該選択された撮像部からの前記映像データを互いのフレーム位相を同期させて切り替え出力する切替部と、
前記切り替え出力の時点を含む所定期間にわたる前記選択された撮像部からの映像の特徴データを生成する特徴データ生成部と、
前記切り替え出力された映像データと前記特徴データとを同期させる同期処理部と、
前記同期された映像データと特徴データとを伝送ストリームに多重する多重化部と、
前記伝送ストリームを前記画像処理装置に送信する送信部とを備え、
前記画像処理装置は、
映像データを含む伝送ストリームを前記スマートカメラから受信する受信部と、
前記受信された伝送ストリームから、前記映像データと、当該映像データに同期された特徴データとを分離する分離部と、
前記映像データを復号して映像を再生する復号部と、
前記分離された特徴データに基づいて、前記再生された映像の連続性を補償する補償部と、
前記補償された映像に基づいて画像処理を行う画像処理部とを備える、スマートカメラシステム。
A smart camera, and an image processing apparatus communicably connected to the smart camera via a communication network;
The smart camera is
A plurality of imaging units each generating video data;
A selection unit that selects an imaging unit that generates video data corresponding to image processing in the image processing apparatus;
A switching unit that switches and outputs the video data from the selected imaging unit in synchronization with each other's frame phase each time another imaging unit is selected by the selection unit;
A feature data generation unit that generates feature data of an image from the selected imaging unit over a predetermined period including the time point of the switching output;
A synchronization processing unit that synchronizes the switched and output video data with the feature data;
A multiplexing unit for multiplexing the synchronized video data and feature data into a transport stream;
And a transmitter configured to transmit the transmission stream to the image processing apparatus.
The image processing apparatus is
A receiving unit that receives a transmission stream including video data from the smart camera;
A separation unit that separates the video data and feature data synchronized with the video data from the received transmission stream;
A decoding unit that decodes the video data and reproduces the video;
A compensation unit that compensates for the continuity of the reproduced image based on the separated feature data;
And an image processing unit that performs image processing based on the compensated image.
それぞれ映像データを生成する複数の撮像部およびプロセッサを具備するスマートカメラに適用可能なデータ送信方法であって、
前記プロセッサが、画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する過程と、
別の撮像部が選択されるたびに、前記プロセッサが、当該選択された撮像部からの前記映像データを互いのフレーム位相を同期させて切り替え出力する過程と、
前記プロセッサが、前記切り替え出力の時点を含む所定期間にわたる前記選択された撮像部からの映像の特徴データを生成する過程と、
前記プロセッサが、前記切り替え出力された映像データと前記特徴データとを同期させる過程と、
前記プロセッサが、前記同期された映像データと特徴データとを伝送ストリームに多重する過程と、
前記プロセッサが、前記伝送ストリームを前記画像処理装置に送信する過程とを具備する、データ送信方法。
A data transmission method applicable to a smart camera comprising a plurality of imaging units and processors that respectively generate video data, comprising:
The processor selecting an imaging unit for generating video data corresponding to image processing in the image processing apparatus;
Each time another imaging unit is selected, the processor switches and outputs the video data from the selected imaging unit with their frame phases synchronized with each other;
The processor generating feature data of an image from the selected imaging unit over a predetermined period including the time point of the switching output;
The processor synchronizing the switched image data with the feature data;
The processor multiplexing the synchronized video data and feature data into a transport stream;
Transmitting, by the processor, the transport stream to the image processing apparatus.
さらに、前記プロセッサが、前記撮像部ごとの映像を分析して当該撮像部ごとの映像の特徴量を生成する過程を具備し、
前記選択する過程において、前記プロセッサは、前記撮像部ごとの映像の特徴量に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する、請求項15に記載のデータ送信方法。
Furthermore, the processor comprises a process of analyzing an image of each imaging unit to generate a feature amount of an image of each imaging unit,
The image processing unit according to claim 15, wherein in the selecting step, the processor selects an imaging unit that generates image data corresponding to image processing in the image processing apparatus based on the feature amount of the image for each of the imaging units. Data transmission method.
前記選択する過程は、
前記プロセッサが、前記画像処理装置における画像処理に相応する度合いを示す評価値を、前記特徴量に基づいて前記撮像部ごとに算出する過程と、
前記プロセッサが、前記評価値に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する過程とを含む、請求項16に記載のデータ送信方法。
The process of selecting is
The processor calculating, for each of the imaging units, an evaluation value indicating a degree corresponding to image processing in the image processing apparatus based on the feature amount;
17. The data transmission method according to claim 16, further comprising the step of selecting, based on the evaluation value, an imaging unit that generates video data corresponding to image processing in the image processing apparatus.
前記選択する過程において、前記プロセッサは、選択されている撮像部の評価値が既定のしきい値未満であれば、当該選択されている撮像部とは異なる撮像部を選択する、請求項17に記載のデータ送信方法。   In the selection process, the processor selects an imaging unit different from the selected imaging unit if the evaluation value of the selected imaging unit is smaller than a predetermined threshold value. Data transmission method described. 前記プロセッサが、前記画像処理に関する情報を含むメッセージを前記画像処理装置から受信する過程と、
前記プロセッサが、前記メッセージに含まれる情報に従って前記撮像部を選択する過程とをさらに具備する、請求項15に記載のデータ送信方法。
The processor receiving from the image processing apparatus a message including information regarding the image processing;
The method according to claim 15, further comprising the step of the processor selecting the imaging unit according to the information contained in the message.
前記特徴データは、前記撮像部のセンサ情報、および、前記映像のパラメータ情報の少なくともいずれかを含む、請求項15乃至19のいずれかに記載のデータ送信方法。   The data transmission method according to any one of claims 15 to 19, wherein the feature data includes at least one of sensor information of the imaging unit and parameter information of the video. 前記センサ情報は、デバイスタイプ、画素数、フレームレート、感度、レンズの焦点距離、光量、および画角の少なくともいずれかを含む、請求項20に記載のデータ送信方法。   The data transmission method according to claim 20, wherein the sensor information includes at least one of a device type, the number of pixels, a frame rate, a sensitivity, a focal length of a lens, a light amount, and an angle of view. 前記パラメータ情報は、前記映像の色調、および輝度ヒストグラムの少なくともいずれかを含む、請求項20に記載のデータ送信方法。   The data transmission method according to claim 20, wherein the parameter information includes at least one of a color tone of the image and a luminance histogram. 請求項15乃至22のいずれか1項に記載の方法をコンピュータに実行させるための命令を含む、プログラム。   A program comprising instructions for causing a computer to perform the method according to any one of claims 15-22.
JP2017166057A 2017-08-22 2017-08-30 Smart camera, image processing device, smart camera system, data transmission method and program Active JP6668298B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017166057A JP6668298B2 (en) 2017-08-30 2017-08-30 Smart camera, image processing device, smart camera system, data transmission method and program
PCT/JP2018/030973 WO2019039507A1 (en) 2017-08-22 2018-08-22 Smart camera, image processing device, and data communication method
CN201880037256.6A CN110710199B (en) 2017-08-22 2018-08-22 Smart camera, image processing apparatus, and data communication method
US16/783,710 US20200177935A1 (en) 2017-08-22 2020-02-06 Smart camera, image processing apparatus, and data communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166057A JP6668298B2 (en) 2017-08-30 2017-08-30 Smart camera, image processing device, smart camera system, data transmission method and program

Publications (2)

Publication Number Publication Date
JP2019047214A true JP2019047214A (en) 2019-03-22
JP6668298B2 JP6668298B2 (en) 2020-03-18

Family

ID=65816612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166057A Active JP6668298B2 (en) 2017-08-22 2017-08-30 Smart camera, image processing device, smart camera system, data transmission method and program

Country Status (1)

Country Link
JP (1) JP6668298B2 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003102031A (en) * 2001-09-25 2003-04-04 Konica Corp Image processing method, image processing apparatus, method for evaluation imaging device, image information storage method, image processing system, and data structure in image data file
US20040131261A1 (en) * 2002-09-04 2004-07-08 Microsoft Corporation Image compression and synthesis for video effects
JP2007158860A (en) * 2005-12-06 2007-06-21 Canon Inc Photographing system, photographing device, image switching device, and data storage device
JP2009010903A (en) * 2007-05-30 2009-01-15 Sony Corp Imaging device, and imaging method
JP2009010447A (en) * 2007-06-26 2009-01-15 Sony Corp Imaging apparatus and switching method thereof
JP2009514075A (en) * 2005-10-28 2009-04-02 テレコム・イタリア・エッセ・ピー・アー How to provide users with selected content items
JP2010009134A (en) * 2008-06-24 2010-01-14 Sony Corp Image processing system, image processing method, and program
US20100290525A1 (en) * 2009-05-12 2010-11-18 Samsung Electronics Co., Ltd Method and apparatus for encoding and decoding at least one image frame that is artificially inserted into image sequence
JP2014014899A (en) * 2012-07-09 2014-01-30 Toshiba Corp Information processing apparatus, information processing system, service provider system, and information processing method
WO2015037186A1 (en) * 2013-09-13 2015-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Advertisement data provision method
JP2016165101A (en) * 2015-02-24 2016-09-08 ノキア テクノロジーズ オーユー Device with adaptive camera array
JP2017076901A (en) * 2015-10-15 2017-04-20 キヤノン株式会社 Information processing device, information processing method, and program
JP2018514969A (en) * 2015-03-05 2018-06-07 トムソン ライセンシングThomson Licensing Light field metadata

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003102031A (en) * 2001-09-25 2003-04-04 Konica Corp Image processing method, image processing apparatus, method for evaluation imaging device, image information storage method, image processing system, and data structure in image data file
US20040131261A1 (en) * 2002-09-04 2004-07-08 Microsoft Corporation Image compression and synthesis for video effects
JP2009514075A (en) * 2005-10-28 2009-04-02 テレコム・イタリア・エッセ・ピー・アー How to provide users with selected content items
JP2007158860A (en) * 2005-12-06 2007-06-21 Canon Inc Photographing system, photographing device, image switching device, and data storage device
JP2009010903A (en) * 2007-05-30 2009-01-15 Sony Corp Imaging device, and imaging method
JP2009010447A (en) * 2007-06-26 2009-01-15 Sony Corp Imaging apparatus and switching method thereof
JP2010009134A (en) * 2008-06-24 2010-01-14 Sony Corp Image processing system, image processing method, and program
US20100290525A1 (en) * 2009-05-12 2010-11-18 Samsung Electronics Co., Ltd Method and apparatus for encoding and decoding at least one image frame that is artificially inserted into image sequence
JP2014014899A (en) * 2012-07-09 2014-01-30 Toshiba Corp Information processing apparatus, information processing system, service provider system, and information processing method
WO2015037186A1 (en) * 2013-09-13 2015-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Advertisement data provision method
JP2016165101A (en) * 2015-02-24 2016-09-08 ノキア テクノロジーズ オーユー Device with adaptive camera array
JP2018514969A (en) * 2015-03-05 2018-06-07 トムソン ライセンシングThomson Licensing Light field metadata
JP2017076901A (en) * 2015-10-15 2017-04-20 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6668298B2 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
JP7307259B2 (en) Three-dimensional information processing method and three-dimensional information processing apparatus
CN107534789B (en) Image synchronization device and image synchronization method
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
US10958820B2 (en) Intelligent interface for interchangeable sensors
WO2017134706A1 (en) Video display method and video display device
US20200177935A1 (en) Smart camera, image processing apparatus, and data communication method
WO2017200848A1 (en) Scene-based sensor networks
JP6332037B2 (en) Image processing apparatus and method, and program
US9693010B2 (en) Method, electronic device, and server for generating digitally processed pictures
CN112165575B (en) Image blurring processing method and device, storage medium and electronic equipment
JP2020005168A (en) Camera device, camera system, and server device
JP6952456B2 (en) Information processing equipment, control methods, and programs
JP6668298B2 (en) Smart camera, image processing device, smart camera system, data transmission method and program
JP6290949B2 (en) Photo cluster detection and compression
JP2005057590A (en) Decoding display device, image pickup unit, and image transmission system equipped with these
EP3832603A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
WO2015194082A1 (en) Image processing method and image processing system
JP2019041159A (en) Smart camera, server, smart camera system, data transmission method, and program
US11877014B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP2008225353A (en) Image display system, image display method, and program
US20230245348A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP4519569B2 (en) 3D MPEG signal synchronization system
KR20210152163A (en) Method and Apparatus for Compression and Synchronization for Generating Driving Data
JP2016213658A (en) Communication system, server, and image provision method
KR101666925B1 (en) Data processing system and method for profiling real time context

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200226

R150 Certificate of patent or registration of utility model

Ref document number: 6668298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150