JP2019041159A - スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム - Google Patents
スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム Download PDFInfo
- Publication number
- JP2019041159A JP2019041159A JP2017159728A JP2017159728A JP2019041159A JP 2019041159 A JP2019041159 A JP 2019041159A JP 2017159728 A JP2017159728 A JP 2017159728A JP 2017159728 A JP2017159728 A JP 2017159728A JP 2019041159 A JP2019041159 A JP 2019041159A
- Authority
- JP
- Japan
- Prior art keywords
- data
- feature data
- unit
- information
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】映像信号と特徴データとを同期させて伝送することの可能なスマートカメラを提供する。【解決手段】スマートカメラは、撮像センサ1(カメラ部)と、特徴データ生成部2と、符号化部13と、同期処理部8と、多重化部3とを備えるプロセッサ15と、送信部4を備える通信インタフェース部18と、を有する。撮像センサは、映像信号を出力する。特徴データ生成部は、映像信号の特徴データを生成する。符号化部は、映像信号を符号化して映像データを生成する。同期処理部は、生成された特徴データを映像データに同期させる。多重化部は、映像データと映像データに同期した特徴データとをトランスポートストリームに多重する。送信部は、トランスポートストリームを通信ネットワークに送信する。【選択図】図4
Description
本発明の実施形態は、スマートカメラについての技術に関する。
スマートカメラが注目されている。スマートカメラは、撮像センサ、プロセッサ、および通信機能を備えている。複数のスマートカメラをクラウドコンピューティングシステム(以下、クラウドと略称する)と連携させ、映像データをビッグデータとして活用するためのプラットフォームも整備されつつある。例えば、映像データを用いて、防災のための定点観測、交通の監視、道路や橋りょうなどのインフラの監視、人物検索や人物トラッキング、不審人物の追跡などを実施することが検討されている。このようなソリューションを実現するためには、映像信号、あるいは映像データを各種のアルゴリズムで分析し、画像分析情報を得ることが重要である。
映像信号を分析するために、映像信号だけでなく、映像信号に付随するメタデータ(例えば撮影日時、解像度、カメラ位置、カメラ指向方向など)も利用される。画像分析情報とメタデータとを用いて、新たな画像分析情報を算出することもある。映像信号を分析して得られる画像分析情報と、映像信号に付随するメタデータとを総称して特徴データという。つまり特徴データは、画像分析情報とメタデータとの、少なくともいずれか一方を含む。また、映像データは、映像信号を符号化して得られるディジタルデータとして理解され得る。
服部 寛 著、「動的な背景の中から人物だけを検出する画像認識技術」、東芝レビュー Vol.65 No.6(2010)、p60〜61
"デジタル放送における映像符号化、音声符号化及び多重化方式",ARIB標準規格 ARIB STD−B32 3.1版 (平成26年12月16日改定)
従来の技術では、特徴データを伝送するために、映像データの収集システムとは別のシステムを構築する必要があり、非効率であった。特に、映像信号と特徴データとの同期が取れないことが課題であり、クラウド側で両方のデータを組み合わせた分析を行うことが難しかった。映像データを利用する側で、映像信号と同期した特徴データを取得できるようにすることが要望されている。
そこで、目的は、映像信号と特徴データとを同期させて伝送することの可能なスマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラムを提供することにある。
実施形態によれば、スマートカメラは、撮像センサと、特徴データ生成部と、符号化部と、同期処理部と、多重化部と、送信部とを具備する。撮像センサは、映像信号を出力する。特徴データ生成部は、映像信号の特徴データを生成する。符号化部は、映像信号を符号化して映像データを生成する。同期処理部は、生成された特徴データを映像データに同期させる。多重化部は、映像データと当該映像データに同期した特徴データとをトランスポートストリームに多重する。送信部は、トランスポートストリームを通信ネットワークに送信する。
図面を参照して、この発明の実施の形態について説明する。なお、この明細書において、画像とは、静止画像、あるいは動画像を構成する1フレーム分の画像として理解される。また、映像とは、一連の画像の集合であり、動画像として理解され得る。
図1は、実施形態に係わる監視カメラシステムの一例を示すシステム図である。図1に示されるシステムは、スマートカメラとしての複数のカメラC1〜Cnを備える。カメラC1〜Cnは、クラウド100に接続される。
カメラC1〜Cnは、それぞれ異なる場所に設置される。例えば、カメラC3〜C5はエリアAに配置され、カメラC6〜CnはエリアBに配置され、カメラC1、C2はエリアA,B以外の場所に配置される。各カメラはいずれも光学系(レンズおよび撮像素子を含む)を有し、それぞれの場所で光学系の視野内に捉えた映像をセンシングする。
クラウド100は、サーバ200と、サーバ200を他のコンピュータやデバイスに通信可能に接続する通信ネットワークとを備える。例えばインターネットに代表されるTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワークを利用することができる。サーバ200は、カメラC1〜Cnのそれぞれから送信された映像データをトランスポートストリーム(伝送ストリーム)として収集する。カメラとクラウド100との間に中継ネットワーク101が介在しても良い。
また、モバイル通信システムの基地局BSがクラウド100に接続される。基地局BSを経由して、例えば車両V1の車載カメラや、セルラフォンP1がクラウド100にアクセスできる。車載カメラおよびセルラフォンP1のカメラも、スマートカメラとして動作することが可能である。
さらに、エリアAに、例えばエッジサーバS1が設置されてもよい。エリアAは、例えば超高層のオフィスビルが立ち並ぶビル街を含み、昼間人口が多いなどの特徴を持つコミュニティである。エッジサーバS1は、このようなエリアAの特徴に応じたサービスを提供する。同様に、エッジサーバS2がエリアBに設置されてもよい。エリアBは例えば郊外の住宅地などであり、例えば児童や学校の数が多いという特徴を持つ。エッジサーバS2はこのようなエリアBの特徴に応じたサービスを提供する。
図2は、カメラC1の一例を示すブロック図である。カメラC2〜Cnも同様の構成を備える。カメラC1は、カメラ部1、駆動部14、プロセッサ15、メモリ16、通信インタフェース部18、およびGPS信号受信部7を備える。
カメラ部1は、光学系としての撮像部1dと、信号処理部13を備える。撮像部1dは、レンズ10と、レンズ10の視野を撮影して映像信号を出力する撮像センサ17とを備える。撮像センサ17は例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。信号処理部13は、撮像部1dの撮像センサ17から出力された映像信号に、符号化などのディジタル演算処理を施す。撮像部1dは、光量を調節するための絞り機構や、撮影方向を変化させるためのモータ機構などを備える。
駆動部14は、プロセッサの制御に基づいて各機構をドライブし、撮像センサ17への光量を調節したり、撮影方向を調整したりする。
プロセッサ15は、メモリ16に記憶されたプログラムに基づいてカメラC1の動作を統括的に制御する。プロセッサ15は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
メモリ16は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、あるいはEPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)などの不揮発性メモリであり、実施形態に係わる各種の機能をプロセッサ15に実行させるためのプログラム、および映像データなどを記憶する。つまりプロセッサ15は、メモリ16に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。
GPS信号受信部7は、GPS(Global Positioning System)衛星から送信された測位信号を受信し、複数の衛星からの測位信号に基づいて測位処理を行う。測位処理によりカメラC1の位置情報と、時刻情報とが得られる。特に、セルラフォンや車載カメラのような、移動するカメラを利用する場合に、位置情報が重要になる。位置情報および時刻情報はメモリ16に記憶される。通信インタフェース部18は、専用回線Lを介してクラウド100に接続され、片方向、あるいは双方向のデータ授受を仲介する。
図3は、サーバ200の一例を示すブロック図である。サーバ200は、CPU210を備えるコンピュータであり、ROM(Read Only Memory)220、RAM(Random Access Memory)230、ハードディスクドライブ(Hard Disk Drive:HDD)240、光学メディアドライブ260、通信インタフェース部(I/F)270、および、GPU(Graphics Processing Unit)250を備える。
CPU210は、OS(Operating System)および各種のプログラムを実行する。ROM42は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、HDD240からロードされたプログラムやデータを一時的に記憶する。HDD240は、CPU210により実行されるプログラムやデータを記憶する。
光学メディアドライブ260は、CD−ROM280などの記録媒体に記録されたディジタルデータを読み取る。サーバ200で実行される各種プログラムは、例えばCD−ROM260に記録されて頒布されることができる。このCD−ROM280に格納されたプログラムは、光学メディアドライブ260により読み取られ、HDD240にインストールされることができる。クラウド100から最新のプログラムをダウンロードして、既にインストールされているプログラムをアップデートすることもできる。
通信インタフェース部270は、クラウド100に接続されてカメラC1〜Cn、およびクラウド100の他のサーバやデータベースなどと通信する。
通信インタフェース部270は、クラウド100に接続されてカメラC1〜Cn、およびクラウド100の他のサーバやデータベースなどと通信する。
GPU250は、特に画像処理向けの機能を強化したプロセッサであり、積和演算、畳み込み演算、3D(三次元)再構成などの演算処理を高速で実行することができる。次に、上記構成を基礎として複数の実施形態を説明する。
[第1の実施形態]
<点群データによる社会インフラの劣化診断>
第1の実施形態では、カメラC1〜Cnとクラウド100とを連携させて実現されるアプリケーションの一例として、点群データによる社会インフラの劣化診断について説明する。点群(point cloud)とは位置座標で区別される点の集合であり、近年、さまざまな分野で応用されている。例えば、構造物の表面の各点の位置座標からなる点群データの時系列を計算すると、構造物の形状の時間的な変化を求めることができる。
<点群データによる社会インフラの劣化診断>
第1の実施形態では、カメラC1〜Cnとクラウド100とを連携させて実現されるアプリケーションの一例として、点群データによる社会インフラの劣化診断について説明する。点群(point cloud)とは位置座標で区別される点の集合であり、近年、さまざまな分野で応用されている。例えば、構造物の表面の各点の位置座標からなる点群データの時系列を計算すると、構造物の形状の時間的な変化を求めることができる。
実施形態において、点群データは、座標を要素とする集合として理解されることができる。座標とは、点の位置を指定するための数の組である。例えば、(x,y,z)で表される3次元座標を要素とする集合は、点群データである。これに時間の1次元を加えた4次元座標(x,y,z,t)の集合も、点群データとして理解され得る。
さらに、座標と、この座標に対応する点の属性情報とを組み合わせた情報も点群データの一つの形態と言える。例えば、R(red),G(Green),B(Blue)からなる色情報は、属性情報の一例である。そこで、(x,y,z,R,G,B)というベクトルで表されるデータを用いれば、座標ごとの色を管理することができる。このような構造のデータは、例えばビル壁面の色の経年変化などを監視するのに都合が良い。
点群データだけでなく、3次元CAD(Computer Aided Design)データ、標高データ、地図データ、地形データ、距離データ等も、座標の集合からなるデータとして表現することが可能である。さらには、3次元の空間情報や位置情報、およびこれらに類する情報を表すデータ、ならびに、これらのデータに変換することの可能なデータも、点群データの一例として理解されることができる。
図4は、図2に示されるカメラC1のハードウェアに実装される機能ブロックの一例を示す図である。カメラC2〜Cnも同様の機能ブロックを備える。カメラC1は、カメラ部1、GPS信号受信部7、およびメモリ16に加えて、特徴データ生成部2、同期処理部8、多重化処理部(Multiplexer:MUX)3、および映像データ送信部4を備える。
カメラ部1は、撮像部1d、マイク1c、カメラ情報生成部1a、方向センサ1b、映像符号化処理部1e、および音声符号化処理部1fを備える。このうち映像符号化処理部1eおよび音声符号化処理部1fは、信号処理部13の機能として実装されることができる。
符号化部としての映像符号化処理部1eは、撮像部1dからの映像情報を含む映像信号を、例えばARIB STD−B32に従って符号化して、映像データを生成する。この映像データは多重化処理部3に入力される。
マイク1cは、カメラC1の周辺の音声を収音し、音声情報を含む音声信号を出力する。音声符号化処理部1fは、この音声信号を例えばARIB STD−B32に従って符号化して、音声データを生成する。この音声データは多重化処理部3に入力される。
方向センサ1bは、例えばホール素子などを利用した地磁気センサであり、撮像部1dの3次元軸(X軸,Y軸,Z軸)に対する指向方向を出力する。方向センサ1bの出力は、カメラ方向情報として特徴データ生成部2に渡される。カメラ方向情報は、カメラ本体の旋回角度情報などを含んでもよい。
カメラ情報生成部1aは、例えば図5に示されるように、旋回角度検出部11およびズーム比率検出部12を備える。旋回角度検出部11は、ロータリーエンコーダなどでカメラC1の旋回角度を検出し、カメラ方向情報を特徴データ生成部2(図4)のカメラ方向情報生成部2bに渡す。ズーム比率検出部12は、撮像部1dのレンズ10に係わるズーム比率を検出し、特徴データ生成部2のズーム倍率情報生成部2cにズーム情報を渡す。さらに、カメラC1の絞り開度や、視野内に目標を捕えているか否かなどの情報を、カメラ情報生成部1aから出力することもできる。
図4の特徴データ生成部2は、映像信号の特徴を示す特徴データを生成する。特徴データは、例えば図6の特徴データパラメータに示されるような項目を含む。図6において、特徴データパラメータは、絶対時刻情報、カメラ方向情報、ズーム倍率情報、位置情報、およびセンサ情報などの項目を含む。これらは映像信号のメタデータとして理解され得る。
さらに、特徴データパラメータは、画像分析情報の項目を含む。画像分析情報は、映像信号を分析して得られる、構造物の点群データ、人物の顔識別情報、人検出情報、歩行識別情報などの情報である。例えば、OpenCV(Open Source Computer Vision Library)でも利用されるHaar-Like特徴量を、顔識別情報の一例として挙げることができる。このほか、輝度勾配方向ヒストグラム(histograms of oriented gradients:HOG)特徴量、輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co−HOG)特徴量などの画像分析情報が知られている。
さて、図4において、特徴データ生成部2は、時刻情報生成部2a、カメラ方向情報生成部2b、ズーム倍率情報生成部2c、位置情報生成部2d、および検出情報生成部2eを備える。
時刻情報生成部2aは、GPS信号受信部7から時刻情報を取得し、絶対時刻情報としてのUTC(Universal Time Co-ordinated)時刻情報(図6)を生成する。カメラ方向情報生成部2bは、カメラ情報生成部1aから取得したカメラ情報から、カメラ方向情報として、撮像部1dの指向方向の水平方向角度値、垂直方向角度値(図6)などを生成する。
ズーム倍率情報生成部2cは、カメラ情報生成部1aから取得したズーム情報から、ズーム倍率値などのズーム倍率情報を生成する。位置情報生成部2dは、GPS信号受信部7から取得した測位データに基づき、緯度情報、経度情報、高度(高さ)情報などの位置情報を生成する。
検出情報生成部2eは、例えば図7に示されるように、映像信号分析部91およびセンサ情報受信部92を備える。分析部としての映像信号分析部91は、カメラ部1からの映像信号を分析して、この映像信号に基づく画像分析情報を生成する。センサ情報受信部92は、カメラC1に設けられた各種センサからセンサ情報などを取得し、温度情報、湿度情報、…、ディジタルタコメータ情報(車載カメラなど)、…等のセンサ情報を生成する。
メモリ16は、その記憶領域に特徴データ格納部2fを記憶する。特徴データ格納部2fは、例えば図8に示されるような特徴データを格納する。図8において、特徴データは、絶対時刻情報F1、カメラ方向情報F2、ズーム倍率情報F3、位置情報F4などのセンサ情報に加えて、検出情報F5を含む。検出情報F5に、画像分析情報を含めることができる。
図4に戻ってさらに説明を続ける。同期処理部8は、特徴データ生成部2から渡された特徴データを、カメラ部1からの映像データに同期させる。すなわち同期処理部8は、バッファメモリなどを用いて、画像フレームのタイムスタンプ(例えば絶対時刻)に特徴データのタイムスタンプを合わせる。これにより映像データの時系列と特徴データの時系列とが、互いに揃った状態となる。
多重化部としての多重化処理部3は、映像データと、この映像データに同期した特徴データとを、例えば、MPEG−2(Moving Picture Experts Group - 2)システムのトランスポートストリームに多重化する。つまり多重化処理部3は、トランスポートストリームに、時刻と同期した特徴データを多重化する。
MPEG−2 Systemsを利用するのであれば、ITU−T勧告H.222.に従うPESヘッダオプションを利用できる。また、PESパケット内のストリーム識別子として、非特許文献2に示される補助ストリーム(0xF9)、メタデータストリーム(0xFC)、拡張ストリームID(0xFD)、未定義(0xFC)の少なくともいずれか1つを利用することができる。
なお、多重化処理部3は、予め設定された期間における特徴データをトランスポートストリームに多重する。予め設定された期間とは、例えば、人間の活動量の高い昼間時間帯、あるいは、勤務人口の増える平日などが設定される。このほか、視野内に動くものを捕えたときに限って特徴データを生成し、多重するようにしても良い。このようにすることで伝送帯域を節約することができる。
送信部としての映像データ送信部4は、多重化処理部3から出力されるトランスポートストリーム(TS)を、通信ネットワーク経由でクラウド100に送信する。
送信部としての映像データ送信部4は、多重化処理部3から出力されるトランスポートストリーム(TS)を、通信ネットワーク経由でクラウド100に送信する。
図9は、特徴データを含むトランスポートストリームを生成するプロセスの一例を示す図である。このプロセスを、特徴データ付きコンテンツ生成プロセスと称する。特徴データ付きコンテンツ生成プロセスは、映像符号化処理部1e、音声符号化処理部1f、多重化処理部3、同期処理部8および映像データ送信部4が協調して機能することで実現される。
映像符号化処理部1e、音声符号化処理部1f、多重化処理部3、同期処理部8および映像データ送信部4は、図2のプロセッサ15がメモリ16に記憶されたプログラムに基づいて演算処理を実行する過程で生成されるプロセスとして、その機能を実現することができる。つまり図9の特徴データ付きコンテンツ生成プロセスは、映像符号化処理プロセス、音声符号化処理プロセス、多重化処理プロセス、同期処理プロセスおよび映像データ送信プロセスが、互いにプロセス間通信してデータを授受し合うことで実現される処理機能の一つである。
図9において、映像信号は、映像符号化処理部1eで圧縮符号化されて、多重化処理部3に送られる。音声信号は、音声符号化処理部1fで圧縮符号化されて多重化処理部3に送られる。多重化処理部3は、圧縮符号化された映像信号、音声信号を、それぞれ例えばMPEG2−TS形式のパケット構造を持つデータ信号に変換し、映像パケット及び音声パケットを順次配列して両者を多重化する。
このようにして生成された特徴データ付きトランスポートストリーム(TS)は、映像データ送信部4に渡される。このとき、映像符号化処理部1eは、STC(System Time Clock)生成部43からSTCを受け取り、このSTCからPTS(Presentation Time Stamp)/DTS(Decoding Time Stamp)を生成して映像符号化データに埋め込む。音声符号化処理部1fも、STCを取得し、STCからPTSを生成し、PTSを音声符号化データに埋め込む。さらに、多重化処理部3もSTCを受け取り、このSTCに基づくPCR(Program Clock Reference)の挿入、PCRの値変更、PCRパケットの位置変更等を行なう。
ここまでの過程により、図10に示されるようなトランスポートストリームのTS基本体系が得られる。このTS基本体系は、TS(Transport Stream)、PAT(Program Association Table)、PMT(Program Map Table)の階層構造を有し、PMTの配下に映像(Video)、音声(Audio)、PCR等のPES(Packetized Elementary Stream)パケットが配置される。映像パケットのヘッダにはPTS/DTSが挿入され、音声パケットのヘッダにはPTSが挿入される。
さらに、図9において同期処理部8は、特徴データパラメータおよび特徴データエレメンタリーを生成し、多重化処理部3に渡す。多重化処理部3は、TS基本体系のMEPG2−TS構造を利用して特徴データを埋め込む。
図11に示されるように、多重化処理部3は、TS基本体系におけるいずれかの位置(TS配下、PAT配下またはPMT配下)に特徴データパラメータを配置する。また、多重化処理部3は、ヘッダにPTS/DTSを付加した特徴データエレメンタリーを、PMTの配下に配置する。その際、例えばストリームタイプ、エレメンタリーPID等の識別子を、特徴データエレメンタリーを含むPMTのヘッダに挿入すると良い。なお特徴データパラメータは、特徴データエレメンタリーに含まれても良い。
図12は、点群データに関する特徴データエレメンタリーの一例を示す図である。点群データは、原点(例えばカメラの位置)からの方向(X,Y,Z)、原点からの距離、色情報(R,G,Bの各値)および反射率を含むデータ構造で表される。特徴データエレメンタリーは、これらの項目を数値化することで生成される。なお車載カメラを利用する場合には、GPSで取得された位置情報に基づいて原点を計算することができる。
以上に、第1の実施形態におけるカメラC1〜Cnに実装される機能ブロックの一例について説明した。より具体的には、例えば図4の映像データ送信部4は、図2の通信インタフェース部18の機能として実装される。また、図4の多重化処理部3、同期処理部8、特徴データ生成部2、時刻情報生成部2a、カメラ方向情報生成部2b、ズーム倍率情報生成部2c、位置情報生成部2d、および検出情報生成部2eの各機能は、図2のメモリ16に記憶されたプログラムがプロセッサ15のレジスタにロードされ、当該プログラムの進行に伴って生成されるプロセスに従ってプロセッサ15が演算処理を実行することで実現される。すなわち、メモリ16は、多重化処理プログラム、同期処理プログラム、特徴データ生成プログラム、時刻情報生成プログラム、カメラ方向情報生成プログラム、ズーム倍率情報生成プログラム、位置情報生成プログラム、および検出情報生成プログラムを記憶する。次に、クラウド100のサーバ200の構成について説明する。
図13は、図3に示されるサーバ200のハードウェアに実装される機能ブロックの一例を示す図である。サーバ200は、映像データ受信部21、特徴データ分離部(DeMultiplexer:DEMUX)22、映像データ蓄積部23、映像データデータベース(DB)23a、特徴データ蓄積部24、特徴データデータベース(DB)24a、特徴データ処理部25、検出情報生成部25a、時系列変化検出部26、変状情報蓄積部27、変状データデータベース(DB)27a、点群データ管理部28、および、点群データデータベース(DB)28aを備える。
映像データ受信部21は、カメラC1〜Cnからのトランスポートストリームを、クラウド100の通信ネットワーク経由で受信する。受信されたトランスポートストリームは特徴データ分離部22に送られる。特徴データ分離部22は、トランスポートストリームから映像データと特徴データとを分離する。映像データは、映像データ蓄積部23の映像データデータベース(DB)23aに格納される。特徴データは、特徴データ蓄積部24の特徴データデータベース(DB)24aに格納される。
また、映像データと特徴データとの少なくともいずれか一方が、特徴データ処理部25に送られる。特徴データ処理部25は、検出情報生成部25aを備える。検出情報生成部25aは、カメラC1〜Cnからそれぞれ送信された特徴データを処理して、図12に示されるような点群データを生成する。生成された点群データは特徴データ蓄積部24に送られ、特徴データと対応付けられて特徴データDB24aに格納される。
格納された特徴データは、特徴データ配信部29からの要求に応じて読み出され、配信先データベースに記録された配信先の宛先情報に宛てて配信される。宛先情報は、例えばIP(Internet Protocol)アドレスである。IPv6(IP version 6)に準拠するIPアドレスを用いれば、IoT(Internet of Things)との親和性の高いシステムを構築することができるが、IPv4(IP version 4)に準拠するIPアドレスを利用することもできる。
時系列変化検出部26は、特徴データDBに格納される点群データと、過去の点群データ(点群データ管理部28の点群データデータベース(DB)28aに格納される)とを比較し、点群データの時系列の変化を検出する。この点群データの時系列の変化は、変状情報として変状情報蓄積部27に送られ、変状データデータベース(DB)27aに格納される。
なお、図13に示される映像データ受信部21、特徴データ分離部22、特徴データ処理部25、検出情報生成部25a、時系列変化検出部26、点群データ管理部28、および、特徴データ配信部29の各処理機能は、図3のHDD240に記憶されたプログラムがRAM230にロードされたのち、当該プログラムの進行に伴って生成されるプロセスに従ってCPU210が演算処理を実行することで実現される。すなわち、HDD240は、映像データ受信プログラム、特徴データ分離プログラム、特徴データ処理プログラム、検出情報生成プログラム、時系列変化検出プログラム、点群データ管理プログラム、および、特徴データ配信プログラムを記憶する。
また、図13に示される映像データ蓄積部23、特徴データ蓄積部24、変状情報蓄積部27は、図3の例えばHDD240に設けられる記憶領域であり、映像データDB23a、特徴データDB24a、変状データDB27a、点群データDB28a、及び配信先DB29aはそれらの記憶領域に記憶される。次に、上記構成における作用を説明する。
図14は、第1の実施形態におけるカメラC1〜Cnの処理手順の一例を示すフローチャートである。ここではカメラC1を主体として説明するが、カメラC2〜Cnも同様に動作する。
図14において、カメラC1は、映像信号を符号化して映像データを生成するとともに(ステップS0)、時刻情報の生成(ステップS1)、位置情報の生成(ステップS2)、カメラ方向情報の生成(ステップS3)、およびズーム倍率情報の生成(ステップS4)を継続的に実行する。また、カメラC1は、映像信号を画像分析して画像分析情報を生成する(ステップS5)。さらに、この画像分析情報と、時刻情報、位置情報、カメラ方向情報、およびズーム倍率情報を統合することにより(センサフュージョン)、点群データを生成しても良い(ステップS51)。
図14において、カメラC1は、映像信号を符号化して映像データを生成するとともに(ステップS0)、時刻情報の生成(ステップS1)、位置情報の生成(ステップS2)、カメラ方向情報の生成(ステップS3)、およびズーム倍率情報の生成(ステップS4)を継続的に実行する。また、カメラC1は、映像信号を画像分析して画像分析情報を生成する(ステップS5)。さらに、この画像分析情報と、時刻情報、位置情報、カメラ方向情報、およびズーム倍率情報を統合することにより(センサフュージョン)、点群データを生成しても良い(ステップS51)。
さらにカメラC1は、他のセンサからの情報を適宜取得して、温度情報、湿度情報などのセンサ情報を生成する(ステップS6)。次にカメラC1は、これらの情報から特徴データを生成し、映像データに特徴データを多重化して(ステップS7)、生成された映像データをサーバ200に向けストリーム送信する(ステップS8)。
図15は、第1の実施形態におけるサーバ200の処理手順の一例を示すフローチャートである。カメラC1からストリーム送信された映像データを受信すると(ステップS9)、サーバ200は、受信したトランスポートストリームから映像データと特徴データとを分離(DEMUX)する(ステップS10)。サーバ200は、分離した特徴データを特徴データ(DB)24aに格納したのち(ステップS11)、映像データおよび/または特徴データを検出情報生成部25aに送信する(ステップS12)。
次にサーバ200は、特徴データを用いて点群データを生成し、点群データと特徴データとを特徴データDB24aに格納する(ステップS13)。次にサーバ200は、特徴データDB24aに格納された点群データおよびこれに対応する特徴データと、点群データDB28aの点群データとを参照し、場所・施設内の位置・角度などを照合して、点群データを重ね合わせる(ステップS14)。
重ね合わせの結果に基づいて、サーバ200は、各点の移動量などの差異を算出し(ステップS15)、この差異を変状情報として変状データDB27aに格納する(ステップS16)。さらに、サーバ200は、差異部分に相当する新たな点群データを点群データ管理部28に渡し、点群データDB28aを更新する(ステップS17)。
以上説明したように第1の実施形態では、ネットワークに接続されるカメラC1〜Cnにおいて個別に映像信号を取得し、分析して、特徴データを生成する。そして、映像信号を符号化した映像データと特徴データとを、互いの同期を保ってトランスポートストリームに多重化し、各カメラC1〜Cnからクラウド100に送信する。つまり、映像信号と、この映像信号に関連する特徴データとを、例えばMPEG−2 Systemsの共通のトランスポートストリームに同期多重し、サーバ200にまで伝送する。このようにしたので、サーバ200は、トランスポートストリームから映像データと特徴データとを分離するだけで、映像信号に同期した特徴データを得ることができる。
例えば、Exif(Exchangeable image file format)と称する画像ファイルフォーマットが知られているが、これは撮影日時などを静止画に埋め込む方式であり、映像の特徴データを取り扱うには適さず、厳密な同期を取るのにも向いていない。医用画像フォーマットとして知られるDICOM(Digital Imaging and COmmunication in Medicine)も、検査情報などを静止画像のタグ情報に記載する形式であるので、やはり映像に基づく特徴データを取り扱うには適していない。
これに対し、第1の実施形態によれば、映像データを解析して得られた画像分析情報と映像データのメタデータとを含む特徴データを、映像データと同期させ、トランスポートストリームに多重することができる。すなわち、映像信号と特徴データとを同期させて伝送することの可能なカメラシステムを提供することが可能となる。
また、トランスポートストリームを受信したサーバは、映像データに同期する特徴データを取得することができるので、正確な位置データに基づく高精度な点群データを生成することができる。これにより、道路・施設などの社会インフラの劣化状況を、高い精度で診断することが可能になる。
[第2の実施形態]
<人物トラッキング>
第2の実施形態では、カメラC1〜Cnとクラウド100とを連携させて実現されるアプリケーションの他の例として、人物トラッキングについて説明する。人物トラッキングとは、映像データに基づいて特定の個人の移動軌跡をトレースするソリューションであり、近年では需要が高まってきている。
<人物トラッキング>
第2の実施形態では、カメラC1〜Cnとクラウド100とを連携させて実現されるアプリケーションの他の例として、人物トラッキングについて説明する。人物トラッキングとは、映像データに基づいて特定の個人の移動軌跡をトレースするソリューションであり、近年では需要が高まってきている。
図16は、カメラC1〜Cnの機能ブロックの他の例を示す図である。図16において図4と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。図16に示されるカメラC1は、さらに、特徴データ受信部5と特徴データ転送部6を備える。特徴データ転送部6は、転送先データベース(DB)6aを記憶する。
特徴データ受信部5は、他のスマートカメラから転送された特徴データを受信する。受信された特徴データは特徴データDB2fに記録される。特徴データ転送部6は、特徴データ生成部2で生成された特徴データを、予め登録された相手先に向けて転送する。特徴データを転送すべき宛先の宛先情報は、IPアドレスなどの形式で転送先データベース(DB)6aに記録される。なお、映像データ送信部4、特徴データ受信部5、および特徴データ転送部6および転送先DB6aは、図2の通信インタフェース部18の機能として実装されることができる。
第1の実施形態では、特徴データを、トランスポートストリームに多重して伝送することを説明した。第2の実施形態では、特徴データを、例えばIPパケットの形式で、デバイス間で授受する形態を開示する。
例えば、JPEG(Joint Picture Experts Group)2000に代表される可逆圧縮方式で多重された画像データに特徴データを付加することで、特徴データを伝送することができる。JPEG2000を利用する場合には、ITU−T勧告T.801、T.802、またはT.813等に準拠するものとし、XML box、UUID boxなどのデータフィールドに特徴データを挿入しても良い。
図17は、特徴データの他の例を示す図である。図17において、特徴データは、絶対時刻情報F1、カメラ方向情報F2、ズーム倍率情報F3、位置情報F4に加え、検出情報F5を含む。検出情報F5に、センサ情報F6と画像分析情報F7を適用することができる。
図18は、サーバ200の機能ブロックの他の例を示す図である。図18において図13と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。
図18に示されるサーバ200は、さらに、特徴データ配信部29、対象データ選択部30、および、人物特徴データ管理部31を備える。人物特徴データ管理部31は、人物特徴データデータベース(DB)31aを記憶する。人物特徴データDB31aは、例えば、追跡(トレース)の対象となっている人物の特徴を示す人物特徴データを記録したデータベースである。
図18に示されるサーバ200は、さらに、特徴データ配信部29、対象データ選択部30、および、人物特徴データ管理部31を備える。人物特徴データ管理部31は、人物特徴データデータベース(DB)31aを記憶する。人物特徴データDB31aは、例えば、追跡(トレース)の対象となっている人物の特徴を示す人物特徴データを記録したデータベースである。
このうち対象データ選択部30は、トランスポートストリームから分離された人物特徴データを、人物特徴データDB31aの人物特徴データと照合する。その結果に基づいて、追跡対象として設定されている人物の特徴データを受信したことが判定されると、対象データ選択部30は、特徴データ蓄積部24に追跡指示を出力する。
特徴データ配信部29は、追跡指示の対象となる人物の特徴データを特徴データDB24aから読み出し、予め登録された相手先に向けて転送する。特徴データを転送すべき宛先の宛先情報は、IPアドレスなどの形式で配信先データベース(DB)29aに記録される。
なお、図18に示される対象データ選択部30および人物特徴データ管理部31の各処理機能は、図3のHDD240に記憶されたプログラムがRAM230にロードされたのち、当該プログラムの進行に伴って生成されるプロセスに従ってCPU210が演算処理を実行することで実現される。すなわち、HDD240は、対象データ選択プログラムおよび人物特徴データ管理プログラムを記憶する。
また、図18に示される人物特徴データDB31aは、図3の例えばHDD240に設けられる記憶領域に記憶される。次に、上記構成における作用を説明する。
また、図18に示される人物特徴データDB31aは、図3の例えばHDD240に設けられる記憶領域に記憶される。次に、上記構成における作用を説明する。
(サーバ200経由で各カメラに特徴データを配信する形態)
図19は、第2の実施形態におけるカメラC1〜Cnの処理手順の一例を示すフローチャートである。図19において、図14と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。ズーム倍率情報を生成した後(ステップS4)、カメラC1は、人物特徴データとしての画像分析情報を生成する(ステップS18)。例えば、先に述べたHaar-Like特徴量、HOG特徴量、またはCo−HOG特徴量などを、人物特徴データとして利用することができる。人物特徴データはカメラC1〜Cnのそれぞれにおいて生成され、通信ネットワーク経由で個々にサーバ200に送られる。
図19は、第2の実施形態におけるカメラC1〜Cnの処理手順の一例を示すフローチャートである。図19において、図14と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。ズーム倍率情報を生成した後(ステップS4)、カメラC1は、人物特徴データとしての画像分析情報を生成する(ステップS18)。例えば、先に述べたHaar-Like特徴量、HOG特徴量、またはCo−HOG特徴量などを、人物特徴データとして利用することができる。人物特徴データはカメラC1〜Cnのそれぞれにおいて生成され、通信ネットワーク経由で個々にサーバ200に送られる。
図20は、図18に示されるサーバ200の処理手順の一例を示すフローチャートである。図20において、映像データを含むトランスポートストリームを受信すると(ステップS9)、サーバ200は、トランスポートストリームから映像データと特徴データとを分離し(ステップS10)、特徴データを特徴データDB24aに格納する(ステップS11)。映像データおよび/または特徴データは、検出情報生成部25aに送信される(ステップS12)。この検出情報生成部25aで人物特徴データを生成しても良い。
次に、サーバ200は、人物特徴データDB31aにおいて、追跡要求有りと設定されている人物の特徴データを参照し、カメラC1〜Cnから受信した人物特徴データと照合する(ステップS19)。その結果、カメラC1〜Cnから受信した人物特徴データに対して追跡要求があれば(ステップS20でYes)、対象データ選択部30は追跡指示を出力する(ステップS201)。
対象データ選択部30からの追跡指示を受信すると、特徴データ蓄積部24は、特徴データ配信部29に追跡指示を出す(ステップS21)。そうすると特徴データ配信部29は、配信先DB29aから配信対象のカメラを抽出し、特徴データを配信する(ステップS22)。
以上の手順により、複数のカメラC1〜Cn間で、サーバ200を経由して相互に特徴データを授受することができる。例えば、A国の国際空港の搭乗ゲートに設置されたカメラで要注意人物の特徴データが取得された場合、この搭乗ゲートから出発する全ての航空機の目的地、および経由地のカメラに予め特徴データを送信しておくといったアプリケーションを実現できる。これにより、要注意人物の移動軌跡を正確にトレースすることができる。しかも、特徴データの伝送および処理がサーバ200を経由して行われるので、サーバ200、およびクラウド100の処理能力を十分に享受することが可能である。
(各カメラが相互に特徴データを配信する形態)
図21は、図16に示されるカメラC1〜Cnの処理手順の他の例を示すフローチャートである。図21において、図19と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。センサ情報を生成した後(ステップS6)、カメラC1は、特徴データ転送部6に人物特徴データを送信する(ステップS23)。特徴データ転送部6は、転送先DB6aから転送対象のカメラを選択し、特徴データを転送する(ステップS24)。
図21は、図16に示されるカメラC1〜Cnの処理手順の他の例を示すフローチャートである。図21において、図19と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。センサ情報を生成した後(ステップS6)、カメラC1は、特徴データ転送部6に人物特徴データを送信する(ステップS23)。特徴データ転送部6は、転送先DB6aから転送対象のカメラを選択し、特徴データを転送する(ステップS24)。
図22は、第2の実施形態におけるカメラC1〜Cnの処理手順の他の例を示すフローチャートである。ここではカメラC6を主体として説明する。例えばカメラC1からの人物特徴データを受信すると(ステップS25)、カメラC6は、人物特徴データを検出情報生成部2eに送信する(ステップS26)。このカメラC6は、カメラC1から受信した人物特徴データを用いて人物追跡を実行し、また、その間も、映像信号に基づく特徴データの生成を継続する(ステップS27)。
追跡対象の人物を視野から見失うなど、人物追跡が不可能になれば、カメラC6は、追跡途中で生成された人物特徴データを特徴データ転送部6に送信する(ステップS28)。そして、カメラC6は、転送先DB6aから転送対象のカメラを選択し、人物特徴データを転送する(ステップS29)。そうして、転送先のカメラにおいて追跡対象の人物が捕捉され、同様にして、人物トラッキングが継続される。
図23は、実施形態に係る監視カメラシステムにおいて、人物トラッキングに係わるデータの流れの一例を示す図である。図23においては、模式的にカメラA、B、X、およびYが関係するとする。
カメラAおよびBは、映像データおよび特徴データをトランスポートストリームに多重してクラウド100に送信する。カメラBから送信された特徴データはクラウド100のサーバ200を経由して、例えばカメラA,X、およびYのそれぞれに転送される。このように、人物の特徴データをサーバ200を経由して複数のカメラに転送するルートがある。
一方、カメラAからカメラXに、通信ネットワーク経由で直接、特徴データを転送するルートもある。この特徴データはカメラXを経由して、さらにカメラYまで送られる。次のカメラに転送すべき特徴データは、各カメラにおいて取捨選択され、転送すべきデータだけが通信ネットワークに送出される。不要な特徴データは転送の過程で廃棄されても良いし、要注意人物等に関わる重要な特徴データは、多数のカメラを経由して、それぞれのカメラで再利用されても良い。
以上述べたように第2の実施形態では、人物トラッキングに関わる人物特徴データをカメラC1〜Cnにおいて個別に生成し、映像データと同期多重してサーバ200に伝送する。このようにしたので、映像信号と特徴データとを同期させて伝送することができ、サーバ200は、映像信号に同期した特徴データを得ることができる。
さらに第2の実施形態では、各カメラで生成された特徴データを、例えばIPパケット化して直接、他のカメラに転送する。従ってサーバ200のリソースを使用せずに、カメラC1〜Cn間で特徴データを相互に授受することができる。これにより、クラウド100の負荷をエッジ側(カメラ、デバイス側)に移転することができ、映像データの分析にかかる負荷、あるいは特徴データの転送にかかるネットワーク負荷を軽減できる効果がある。
なお、この発明は上記実施形態に限定されるものではない。例えば、トランスポートストリームに多重される特徴データに、絶対時刻情報、カメラ方向情報、ズーム倍率情報、位置情報、検出情報(センサ情報、画像分析情報など)の全てを含める必要は無い。システム要件に応じて、これらの情報のうち少なくともいずれか1つを特徴データに含めばよい。
また、図13の特徴データDBに格納されるデータは、要するに座標を要素とする集合であって良いし、点群データ管理部28の点群データDB28aに格納されるデータは、当該集合の過去の状態を表すデータであって良い。この場合、時系列変化検出部26は、それぞれの集合に含まれる座標群から再構成される表面の、時間に対する変化を検出する。この表面の時間変化は変状情報として変状情報蓄積部27に送られ、変状データDB27aに格納される。
また、一般に、クラウドコンピューティングシステムは、アプリケーションをサービスとして提供するSaaS(Software as a Service)、アプリケーションを稼働させるための基盤(プラットフォーム)をサービスとして提供するPaaS(Platform as a Service)、高速の演算処理機能及び大容量のストレージなどのリソースをサービスとして提供するIaaS(Infrastructure as a Service)に大別される。図1に示されるクラウド100は、いずれのカテゴリのシステムでも適用することができる。
コンピュータに関連して用いられる「プロセッサ」という用語は、例えばCPU、GPU、或いは、ASIC(Application Specific Integrated Circuit)、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、またはFPGA等の回路と理解され得る。
プロセッサは、メモリに記憶されたプログラムを読み出し実行することで、プログラムに基づく特有の機能を実現する。メモリに代えて、プロセッサの回路内にプログラムを直接組み込むよう構成することも可能である。このケースでは、プロセッサは回路内に組み込まれたプログラムを読み出し実行することでその機能を実現する。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上記の実施形態の一部または全部は、例えば(付記1)のようにも記載されることができる。しかし、付記1の内容に限定されるものではない。
(付記1)
映像信号を出力する撮像センサと、
プロセッサとを具備し、
前記プロセッサは、
前記映像信号を符号化して映像データを生成し、
前記映像信号の特徴データを生成し、
前記生成された特徴データを前記映像データに同期させ、
前記映像データと当該映像データに同期した特徴データとをトランスポートストリームに多重し、
前記トランスポートストリームを通信ネットワークに送信する、スマートカメラ。
(付記1)
映像信号を出力する撮像センサと、
プロセッサとを具備し、
前記プロセッサは、
前記映像信号を符号化して映像データを生成し、
前記映像信号の特徴データを生成し、
前記生成された特徴データを前記映像データに同期させ、
前記映像データと当該映像データに同期した特徴データとをトランスポートストリームに多重し、
前記トランスポートストリームを通信ネットワークに送信する、スマートカメラ。
1…カメラ部、1a…カメラ情報生成部、1b…方向センサ、1c…マイク、1d…撮像部、1e…映像符号化処理部、1f…音声符号化処理部、2…特徴データ生成部、2a…時刻情報生成部、2b…カメラ方向情報生成部、2c…ズーム倍率情報生成部、2d…位置情報生成部、2e…検出情報生成部、2f…特徴データ格納部、3…多重化処理部(MUX)、4…映像データ送信部、5…特徴データ受信部、6…特徴データ転送部、6a…転送先データベース(DB)、7…GPS信号受信部、8…同期処理部、10…レンズ、11…旋回角度検出部、12…ズーム比率検出部、13…信号処理部、14…駆動部、15…プロセッサ、16…メモリ、17…撮像センサ、18…通信インタフェース部、21…映像データ受信部、22…特徴データ分離部(DEMUX)、23…映像データ蓄積部、23a…映像データ(DB)、24…特徴データ蓄積部、24a…特徴データ(DB)、25…特徴データ処理部、25a…検出情報生成部、26…時系列変化検出部、27…変状情報蓄積部、27a…変状データ(DB)、28…点群データ管理部、28a…点群データ(DB)、29…特徴データ配信部、29a…配信先(DB)、30…対象データ選択部、31…人物特徴データ管理部、31a…人物特徴データ(DB)、42…ROM、43…生成部、91…映像信号分析部、92…センサ情報受信部、100…クラウド、101…中継ネットワーク、200…サーバ、210…CPU、230…RAM、240…HDD)、260…光学メディアドライブ、270…通信インタフェース部、C1〜Cn…カメラ、F1…絶対時刻情報、F2…カメラ方向情報、F3…ズーム倍率情報、F4…位置情報、F5…検出情報、F6…センサ情報、F7…画像分析情報、P1…セルラフォン、S1…エッジサーバ、S2…エッジサーバ、V1…車両。
Claims (28)
- 映像信号を出力する撮像センサと、
前記映像信号を符号化して映像データを生成する符号化部と、
前記映像信号の特徴データを生成する特徴データ生成部と、
前記生成された特徴データを前記映像データに同期させる同期処理部と、
前記映像データと当該映像データに同期した特徴データとをトランスポートストリームに多重する多重化部と、
前記トランスポートストリームを通信ネットワークに送信する送信部とを具備する、スマートカメラ。 - 前記映像信号を分析して前記映像信号に基づく画像分析情報を生成する分析部をさらに具備し、
前記同期処理部は、前記画像分析情報を含む特徴データを前記映像データに同期させる、請求項1に記載のスマートカメラ。 - 前記同期処理部は、前記映像信号の画像フレームのタイムスタンプに前記特徴データを同期させる、請求項1に記載のスマートカメラ。
- 前記多重化部は、予め設定された期間における特徴データを前記トランスポートストリームに多重する、請求項1に記載のスマートカメラ。
- 前記特徴データは、前記映像信号の撮影時刻情報、前記撮像センサの指向方向情報、前記撮像センサの旋回角度情報、前記撮像センサのズーム倍率情報、または、前記撮像センサの位置情報のうち少なくともいずれか1つを含む、請求項1に記載のスマートカメラ。
- 前記特徴データは、座標を要素とする集合を含む、請求項1に記載のスマートカメラ。
- 前記集合は、3次元座標を要素とする点群データである、請求項6に記載のスマートカメラ。
- 前記点群データは、前記3次元座標と、当該3次元座標に対応する点の属性情報とを組み合わせた情報を要素とする、請求項7に記載のスマートカメラ。
- 前記特徴データを前記通信ネットワークを介して他のスマートカメラ宛てに転送する転送部をさらに具備する、請求項1に記載のスマートカメラ。
- 前記特徴データを転送すべき宛先の宛先情報を予め記録した転送先データベースをさらに具備し、
前記転送部は、前記転送先データベースに記録された宛先情報に宛てて前記特徴データを転送する、請求項9に記載のスマートカメラ。 - 他のスマートカメラから転送された前記特徴データを受信する受信部をさらに具備する、請求項1に記載のスマートカメラ。
- 映像データと当該映像データに同期多重された当該映像データの特徴データとを含むトランスポートストリームを受信する受信部と、
前記受信されたトランスポートストリームから、前記映像データと前記特徴データとを分離する分離部と、
前記分離された特徴データを格納する記憶部とを具備する、サーバ。 - 前記分離された特徴データから、インフラに関するデータの時系列の変化を検出する検出部と、
前記データの時系列の変化に基づく前記インフラに関する変状情報を蓄積する蓄積部と、
をさらに具備する請求項12に記載のサーバ。 - 前記インフラに関するデータは、座標を要素とする集合を含む、請求項13に記載のサーバ。
- 前記集合は、3次元座標を要素とする点群データである、請求項14に記載のサーバ。
- 前記点群データは、前記3次元座標と、当該3次元座標に対応する点の属性情報とを組み合わせた情報を要素とする、請求項15に記載のサーバ。
- 前記分離された特徴データを蓄積する蓄積部と、
人物の特徴を示す人物特徴データを記録する人物特徴データベースと、
前記分離された特徴データを前記人物特徴データベースの人物特徴データと照合し、その結果に基づいて、追跡対象として設定されている人物の特徴データを前記蓄積部から選択する選択部と、
をさらに具備する請求項12に記載のサーバ。 - 前記特徴データを転送すべき宛先の宛先情報を予め記録した転送先データベースと、
前記転送先データベースに記録された宛先情報に宛てて前記特徴データを転送する転送部とをさらに具備する、請求項12に記載のサーバ。 - スマートカメラと、通信ネットワークを介して前記スマートカメラと通信可能に接続されるサーバとを具備し、
前記スマートカメラは、
映像信号を出力する撮像センサと、
前記映像信号を符号化して映像データを生成する符号化部と、
前記映像信号の特徴データを生成する特徴データ生成部と、
前記生成された特徴データを前記映像データに同期させる同期処理部と、
前記映像データと当該映像データに同期した特徴データとをトランスポートストリームに多重する多重化部と、
前記トランスポートストリームを前記通信ネットワークに送信する送信部とを備え、
前記サーバは、
映像データと当該映像データに同期多重された当該映像データの特徴データとを含むトランスポートストリームを受信する受信部と、
前記受信されたトランスポートストリームから、前記映像データと前記特徴データとを分離する分離部と、
前記分離された特徴データを格納する記憶部とを備える、スマートカメラシステム。 - 映像信号を出力する撮像センサおよびプロセッサを具備するスマートカメラに適用可能なデータ伝送方法であって、
前記プロセッサが、前記映像信号を符号化して映像データを生成する過程と、
前記プロセッサが、前記映像信号の特徴データを生成する過程と、
前記プロセッサが、前記生成された特徴データを前記映像データに同期させる過程と、
前記プロセッサが、前記映像データと当該映像データに同期した特徴データとをトランスポートストリームに多重する過程と、
前記プロセッサが、前記トランスポートストリームを通信ネットワークに送信する過程とを具備する、データ伝送方法。 - 前記プロセッサが、前記映像信号を分析して前記映像信号に基づく画像分析情報を生成する過程をさらに具備し、
前記プロセッサは、前記画像分析情報を含む特徴データを前記映像データに同期させる、請求項20に記載のデータ伝送方法。 - 前記プロセッサは、前記映像信号の画像フレームのタイムスタンプに前記特徴データを同期させる、請求項20に記載のデータ伝送方法。
- 前記プロセッサは、予め設定された期間における特徴データを前記トランスポートストリームに多重する、請求項20に記載のデータ伝送方法。
- 前記特徴データは、前記映像信号の撮影時刻情報、前記撮像センサの指向方向情報、前記撮像センサの旋回角度情報、前記撮像センサのズーム倍率情報、または、前記撮像センサの位置情報のうち少なくともいずれか1つを含む、請求項20に記載のデータ伝送方法。
- 前記プロセッサが、前記特徴データを前記通信ネットワークを介して他のスマートカメラ宛てに転送する過程をさらに具備する、請求項20に記載のデータ伝送方法。
- 前記プロセッサは、前記特徴データを転送すべき宛先の宛先情報を予め記録した転送先データベースに記録された前記宛先情報に宛てて前記特徴データを転送する、請求項25に記載のデータ伝送方法。
- 前記プロセッサが、他のスマートカメラから転送された前記特徴データを受信する過程をさらに具備する、請求項20に記載のデータ伝送方法。
- 請求項20乃至27のいずれか1項に記載の方法をコンピュータに実行させるための命令を含む、プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017159728A JP2019041159A (ja) | 2017-08-22 | 2017-08-22 | スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム |
PCT/JP2018/030973 WO2019039507A1 (ja) | 2017-08-22 | 2018-08-22 | スマートカメラ、画像処理装置、およびデータ通信方法 |
CN201880037256.6A CN110710199B (zh) | 2017-08-22 | 2018-08-22 | 智能摄像机、图像处理装置以及数据通信方法 |
US16/783,710 US20200177935A1 (en) | 2017-08-22 | 2020-02-06 | Smart camera, image processing apparatus, and data communication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017159728A JP2019041159A (ja) | 2017-08-22 | 2017-08-22 | スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019041159A true JP2019041159A (ja) | 2019-03-14 |
Family
ID=65725917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017159728A Pending JP2019041159A (ja) | 2017-08-22 | 2017-08-22 | スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019041159A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003187352A (ja) * | 2001-12-14 | 2003-07-04 | Nippon Signal Co Ltd:The | 特定人物検出システム |
JP2007243270A (ja) * | 2006-03-06 | 2007-09-20 | Toshiba Corp | 映像監視システムおよび方法 |
JP2010009134A (ja) * | 2008-06-24 | 2010-01-14 | Sony Corp | 画像処理システム及び画像処理方法、並びに、プログラム |
JP2014183788A (ja) * | 2013-03-25 | 2014-10-02 | Sony Corp | 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム |
WO2015037186A1 (ja) * | 2013-09-13 | 2015-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 広告データ提供方法 |
-
2017
- 2017-08-22 JP JP2017159728A patent/JP2019041159A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003187352A (ja) * | 2001-12-14 | 2003-07-04 | Nippon Signal Co Ltd:The | 特定人物検出システム |
JP2007243270A (ja) * | 2006-03-06 | 2007-09-20 | Toshiba Corp | 映像監視システムおよび方法 |
JP2010009134A (ja) * | 2008-06-24 | 2010-01-14 | Sony Corp | 画像処理システム及び画像処理方法、並びに、プログラム |
JP2014183788A (ja) * | 2013-03-25 | 2014-10-02 | Sony Corp | 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム |
WO2015037186A1 (ja) * | 2013-09-13 | 2015-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 広告データ提供方法 |
Non-Patent Citations (2)
Title |
---|
「GOOGLEカーよりスゴイ!? - "NTTカー"が作る危ない電柱マップ」, JPN6018037325, 25 October 2016 (2016-10-25), ISSN: 0004201923 * |
リッカルド ゲラルディ(外3名): "「画像処理に基づくトンネル内壁の変化検出システム」", 東芝レビュー, vol. 70, no. 9, JPN6018037326, 1 September 2015 (2015-09-01), JP, pages 12 - 15, ISSN: 0004201924 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3506238A1 (en) | Three-dimensional information processing method and three-dimensional information processing apparatus | |
CN104284233B (zh) | 视频和遥测数据的数据搜索、解析和同步 | |
US20200177935A1 (en) | Smart camera, image processing apparatus, and data communication method | |
EP3699861B1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20220058834A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
KR100925278B1 (ko) | 수치지도를 이용한 지오코딩 시스템 및 그 방법 | |
US20220222863A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20220094982A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20230125048A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
IL269051A (en) | Real-time image alignment in video encoding | |
US20230239491A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
JP2020005168A (ja) | カメラ装置、カメラシステム及びサーバ装置 | |
US20220046280A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20210112111A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20240040149A1 (en) | Three-dimensional data storage method, three-dimensional data acquisition method, three-dimensional data storage device, and three-dimensional data acquisition device | |
US20230230287A1 (en) | Decoding methods, encoding method, decoding device, and encoding device | |
US20230030392A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20230162405A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US20230121882A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
JP2019041159A (ja) | スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム | |
US20220198719A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
JP6668298B2 (ja) | スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム | |
US20220222862A1 (en) | Three-dimensional data decoding method and three-dimensional data decoding device | |
JP2008225353A (ja) | 画像表示システム、画像表示方法、およびプログラム | |
US11877014B2 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200728 |