JP6668298B2 - スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム - Google Patents
スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム Download PDFInfo
- Publication number
- JP6668298B2 JP6668298B2 JP2017166057A JP2017166057A JP6668298B2 JP 6668298 B2 JP6668298 B2 JP 6668298B2 JP 2017166057 A JP2017166057 A JP 2017166057A JP 2017166057 A JP2017166057 A JP 2017166057A JP 6668298 B2 JP6668298 B2 JP 6668298B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- unit
- video
- data
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 195
- 230000005540 biological transmission Effects 0.000 title claims description 46
- 238000000034 method Methods 0.000 title claims description 26
- 238000003384 imaging method Methods 0.000 claims description 128
- 238000011156 evaluation Methods 0.000 claims description 27
- 238000010191 image analysis Methods 0.000 claims description 13
- 230000001360 synchronised effect Effects 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000000926 separation method Methods 0.000 claims description 5
- 230000035945 sensitivity Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明の実施形態は、スマートカメラについての技術に関する。
撮像センサとプロセッサを備える、いわゆるスマートカメラが注目されている。近年ではセンサデバイスの小型化・低価格化により、複数のカメラを搭載したスマートフォンや車載カメラ等も販売されている。複眼カメラを用いたステレオ画像の生成や、距離情報を持つ画像(距離画像)の生成なども研究されている。複数のカメラデバイスをアレイ状に配列したアレイカメラも知られている。さらに、可視光カメラ、近赤外線カメラ、および遠赤外線カメラを共通の筐体に実装したマルチスペクトルカメラ(ハイブリッドカメラとも称される)も知られている。これらの次世代カメラは、有線ネットワークや無線ネットワーク経由でセンタ装置に接続されて、遠隔監視システムなどに応用されることが期待されている。
"複眼型距離画像CMOSイメージセンサ",[online],[平成29年6月15日検索],インターネット,<URL:http://www.toshiba.co.jp/rdc/detail/13_t24.htm>
"多機能化に向かう次世代カメラ",[online],[平成29年6月15日検索],インターネット,<URL:http://toshiba.semicon-storage.com/design_support/elearning/keytechnology/__icsFiles/afieldfile/2010/11/05/edn1011_39_47feature02.pdf>
アレイカメラの全てのカメラの映像データをセンタ装置に送ることは希であり、いずれかのカメラの画像を切替出力することが多い。例えば人物検知のために、日中は可視光カメラで定点観測を行うが、夜間は赤外線カメラに切り替える、という運用である。このようにして、映像を含むストリームの伝送に要する占有帯域を最小限に抑えるようにしている。
しかしながら映像が切り替わると、伝送ストリームを受信する側での処理が追いつかず、時系列の画像分析データが一部、欠落することがある。技術的にはこのことを、「画像処理に不連続が生じる」という。例えばカラー映像が急にモノクロ映像に切り替わったとすると、これを受けたセンタ装置は同じ視野の映像を取得しているにもかかわらず、画像処理を継続することが難しい。カメラ間の色調の違い、波長の違い、コントラストの違い、ピントのずれ、画面サイズの違い、画角の違いなど、不連続をもたらす要因は様々ある。不連続が甚だしくなると画像処理がリセットされるおそれもある。
このように当該技術分野には、映像の切替(フレーム切替)前後での、画像処理の連続性を保つことが難しいという技術的な課題がある。複数の単眼カメラで共通の視野を観察する形態のシステムにおいても、事情は同じである。
そこで、目的は、映像切替の前後で画像処理の連続性を保つことの可能なスマートカメラシステムと、このシステムで使用可能なスマートカメラ、画像処理装置、データ送信方法およびプログラムを提供することにある。
実施形態によれば、スマートカメラは、画像処理装置と通信可能であって、複数の撮像部と、選択部と、切替部と、特徴データ生成部と、同期処理部と、多重化部と、送信部とを具備する。撮像部は、それぞれ映像データを生成する。選択部は、画像処理装置における画像処理に相応する映像データを生成する撮像部を、選択する。切替部は、選択部により別の撮像部が選択されるたびに、当該選択された撮像部からの映像データを互いのフレーム位相を同期させて切り替え出力する。特徴データ生成部は、切り替え出力の時点を含む所定期間にわたる選択された撮像部からの映像の特徴データを生成する。同期処理部は、切り替え出力された映像データと特徴データとを同期させる。多重化部は、同期された映像データと特徴データとを伝送ストリームに多重する。送信部は、伝送ストリームを画像処理装置に送信する。
次に、図面を参照して、この発明の実施の形態について説明する。この明細書において、画像とは静止画像、あるいは映像を構成する1フレーム分の画像として理解される。一方、映像とは一連の画像の集合であり、動画像として理解され得る。
複数のスマートカメラをクラウドコンピューティングシステム(クラウド)と連携させ、映像データをビッグデータとして活用するためのプラットフォームが整備されつつある。例えば、防災のための定点観測、交通の監視、道路や橋りょうなどのインフラの監視、人物検索や人物トラッキング、および、不審人物の追跡などに映像データを活用することが検討されている。
複数のスマートカメラをクラウドコンピューティングシステム(クラウド)と連携させ、映像データをビッグデータとして活用するためのプラットフォームが整備されつつある。例えば、防災のための定点観測、交通の監視、道路や橋りょうなどのインフラの監視、人物検索や人物トラッキング、および、不審人物の追跡などに映像データを活用することが検討されている。
図1は、実施形態に係わる監視カメラシステムの一例を示すシステム図である。図1に示されるシステムは、スマートカメラとしての複数のカメラC1〜Cnと、クラウド100に設けられる画像処理装置200とを備える。
カメラC1〜Cnは、それぞれ異なる場所に設置される。例えば、カメラC3〜C5は、超高層のオフィスビルが立ち並ぶビル街を含むエリアAに配置され、カメラC6〜Cnは、郊外の住宅地を含むエリアBに配置され、カメラC1、C2はエリアA,B以外の場所に配置される。各カメラC1〜Cnは、例えばレンズおよび撮像センサを有し、それぞれの場所での実空間を撮像することで、映像データを生成する。
画像処理装置200は、カメラC1〜Cn、モバイル通信システムの基地局BS、あるいはデータベース等に、通信ネットワーク経由で接続される。通信ネットワークのプロトコルとして、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)を利用することができる。カメラとクラウド100との間に中継ネットワーク101が介在しても良い。
画像処理装置200は、カメラC1〜Cnのそれぞれから送信された映像データを伝送ストリーム(トランスポートストリーム)として収集する。画像処理装置200は、収集した映像データに例えばシェーディング、フィルタリング、または輪郭抽出などの画像処理を施す。
車両V1またはセルラフォンP1も、基地局BS経由でクラウド100にアクセス可能である。車両V1の車載カメラ、およびセルラフォンP1のカメラも、スマートカメラとして動作することが可能である。
また、エリアA,Bには、例えばそれぞれエッジサーバS1,S2が設置されている。エッジサーバS1は、エリアAの特徴(例えば昼間人口が多い等)に応じたデータをクラウド100に要求し、取得したデータに応じたサービスの提供、およびサービスを提供するための基盤(プラットフォーム)の構築を実現する。また、エッジサーバS1は、取得したデータをユーザに利用させるための、高速の演算処理機能及び大容量のストレージなどのリソースとして機能してもよい。エッジサーバS2は、エリアBの特徴(例えば児童や学校の数が多い等)に応じたデータをクラウド100に要求し、取得したデータに応じたサービスの提供、およびサービスを提供するためのプラットフォームの構築を実現する。また、エッジサーバS2は、取得したデータをユーザに利用させるためのリソースとして機能してもよい。
なお、クラウドコンピューティングシステムの利用形態は、アプリケーションをサービスとして提供するSaaS(Software as a Service)、アプリケーションを稼働させるための基盤(プラットフォーム)をサービスとして提供するPaaS(Platform as a Service)、並びに、高速の演算処理機能及び大容量のストレージなどのリソースをサービスとして提供するIaaS(Infrastructure as a Service)に大別される。クラウド100は、いずれの形態にも適用することができる。
図2は、図1に示されるカメラC1の一例を示すブロック図である。カメラC2〜Cnも同様の構成を備える。カメラC1は、複数の撮像部1a〜1m、スイッチ部10、処理回路15、メモリ16、センサ部17、送信部21、受信部22、同期処理部20、および多重化部(Multiplexer:MUX)19を備える。
撮像部1a〜1mは、それぞれの視野内の映像を撮影し、個別に映像データを生成する。撮像部1a〜1mは、例えばレンズ11、絞り機構12、画像センサ13、および符号化部14をそれぞれ備える。レンズ11の視野内の像(イメージ)は、レンズ11および絞り機構12を通って画像センサ13に結像される。画像センサ13は、CMOS(相補型金属酸化膜半導体)センサ等のイメージセンサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。符号化部14は、画像センサ13から出力された映像信号を符号化して映像データを生成する。撮像部1a〜1mからの映像データは、内部バス23を介してスイッチ部10および処理回路15に転送される。
撮像部1a〜1mの撮影波長帯はそれぞれで異なっていても良い。例えば、可視光、近赤外光、遠赤外光、紫外線などの撮影波長帯を、各撮像部1a〜1mに個別に割り当ててもよい。すなわちカメラC1は、マルチスペクトルカメラであってよい。
センサ部17は、例えば、撮像部1a〜1mのデバイスタイプ、画素数、フレームレート、感度、レンズ11の焦点距離、絞り機構12の光量、画角、絶対時刻情報、カメラ方向情報、ズーム倍率情報、およびフィルタの波長特性などのパラメータ情報をデータバス24経由で取得し、処理回路15およびメモリ16に転送する。また、センサ部17は、例えばGPS(Global Positioning System)による測位機能を有し、GPS衛星から受信した測位信号を用いた測位処理により、カメラC1の位置情報と、時刻情報とを取得する。センサ部17は、取得した位置情報および時刻情報を処理回路15およびメモリ16に転送する。位置情報は、カメラ自身が移動する場合、例えば、カメラがセルラフォンや車に搭載される場合等に重要である。また、センサ部17は、例えば、温度センサ、湿度センサ、および加速度センサ等のセンサを備え、これらセンサにより、カメラC1が設置されている環境に関する情報をセンサ情報として取得する。センサ部17は、取得したセンサ情報を処理回路15およびメモリ16に転送する。
スイッチ部10は、撮像部1a〜1mのいずれかから出力された映像データを、選択的に同期処理部20に送出する。どの撮像部1a〜1mからの映像データが選択されるかは、処理回路15により決定される。
同期処理部20は、スイッチ部10からの映像データと、この映像データから生成された特徴量を含む特徴データとを、互いに同期させる。特徴量は、映像データに基づいて処理回路15で生成される。特徴データは、特徴量、およびセンサ部17から転送されるパラメータ情報、センサ情報、位置情報、および時刻情報などに基づいて処理回路15で生成される。
映像データは、例えば、この映像データに基づいて特徴データが生成されるのにかかる時間分だけ、特徴データよりも時間的に先行している。同期処理部20は、先行する時間分、映像データをバッファメモリに一時記憶する。同期処理部20は、特徴データが作成されるタイミングに合わせてバッファメモリから映像データを読み出すことで、映像データと特徴データを同期させる。同期された映像データおよび特徴データは、多重化部19に渡される。
多重化部19は、映像データと、この映像データに同期した特徴データとを、例えば、MPEG−2(Moving Picture Experts Group - 2)システムの伝送ストリームに多重化する。
送信部21は、映像データおよび特徴データが多重された伝送ストリームを、クラウド100の画像処理装置200に回線L経由で送信する。
受信部22は、クラウド100または画像処理装置200から送信されたデータを、回線Lを介して取得する。画像処理装置200から送信されたデータには、例えば、画像処理装置200での画像処理に関するメッセージが含まれる。メッセージは、例えば画像処理方式の種別、および優先する映像パラメータ(コントラスト値、および信号対雑音比など)を示す情報などを含む。取得されたデータは処理回路15およびメモリ16に転送される。
メモリ16は、例えば、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、又は、EPROM(Erasable Programmable ROM)、およびEEPROM(Electrically Erasable Programmable ROM)などの不揮発性メモリである。メモリ16は、実施形態に係わる各種の機能を処理回路15に実行させるためのプログラム16a、および特徴データ16bを記憶する。
処理回路15は、メモリ16に記憶されたプログラムに基づいてカメラC1の動作を制御する。処理回路15は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行可能にチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等で処理回路15を構成することもできる。なお、CPUに代えて、MPU(Micro Processing Unit)を用いて処理回路15を構成しても構わない。
処理回路15は、実施形態に係る処理機能として、画像分析部15a、選択部15b、切替制御部15c、および特徴データ生成部15dを備える。画像分析部15a、選択部15b、切替制御部15c、および特徴データ生成部15dは、メモリ16に記憶されたプログラム16aが処理回路15のレジスタにロードされ、当該プログラムの進行に伴って処理回路15が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム16aは、画像分析プログラム、選択プログラム、切替プログラム、および特徴データ生成プログラム、を含む。
画像分析部15aは、撮像部1a〜1mから転送される映像データに対し、画像分析および映像分析を実施する。これにより、画像分析部15aは、撮像部1a〜1mから転送される映像データごとの特徴量を生成する。本実施形態において、特徴量は、例えば、映像の特徴を示す指標、および画像の特徴を示す指標として用いられる。特徴量には、例えば、可視光映像、赤外線映像、遠赤外線映像、紫外線映像、カラー映像、またはモノクロ映像といった映像の性質を識別するための情報も含まれる。より具体的には、特徴量は、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)特徴量、コントラスト、解像度、S/N比、および色調などを含む。また、輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co−HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。
選択部15bは、画像処理装置200において実行されている画像処理に対し、どの撮像部1a〜1mの映像データが画像処理装置200へ転送されるのにふさわしいかを判定する。すなわち選択部15bは、画像処理装置200の画像処理に相応する映像データを生成している撮像部を選択する。具体的には、選択部15bは、例えば、所定の評価値を用い、撮像部1a〜1mのうち1つの撮像部を選択する。評価値は、映像データが画像処理装置200の画像処理に相応する度合いを表し、画像分析部15aで計算された特徴量に基づいて計算される。
例えば、画像処理装置200で輪郭抽出処理が実施されている場合、選択部15bは、撮像部1a〜1mから転送されるそれぞれの映像データについて、映像の輪郭が明瞭であるか、不明瞭であるかを表す指標を計算する。この指標は映像データの特徴量に基づいて例えば0〜100の範囲で数値的に表すことができ、その値を評価値とする。輪郭抽出処理に着目した場合、ハイコントラストのモノクロ画像を出力する撮像部の評価値が最も高くなる。
選択部15bは、評価値の最も高い映像データを生成する撮像部を選択する。
画像処理装置200にとって、撮像部が頻繁に切り替わることは好ましくない。そこで、選択部15bは、例えば、画像処理方式の変更等を表すメッセージが画像処理装置200から送信されない限り、現在使用中の撮像部で生成された映像データについての評価値のみを計算する。選択部15bは、計算した評価値が既定のしきい値以上であれば、他の撮像部で生成された映像データについての評価値は計算しない。一方、計算した評価値が既定のしきい値未満である場合、他の撮像部で生成された映像データについての評価値を計算する。詳しくは図5のフローチャートを用いて説明する。
なお、例えば画像処理装置200で採用される画像処理が、撮像部の頻繁な切り替えを容認する場合には、選択部15bは、例えば一定周期(毎分、10分ごと、または、1時間ごとなど)で各々の撮像部の評価値を計算するようにしても構わない。これにより、環境(天候など)の変化に柔軟に対応することができる。
切替制御部15cおよびスイッチ部10は、選択部15bにより別の撮像部が選択されるたびに、選択された撮像部からの映像データを互いのフレーム位相を同期させて切り替え出力する。つまり切替制御部15cおよびスイッチ部10は、切替部として機能する。時間の経過とともに撮影環境が大きく変化したり、画像処理装置200の要求が変化したりすると、現在使用されている撮像部とは別の撮像部が選択される。そうすると切替制御部15cは、内部バス23の同期信号に従って、それまで選択されていた撮像部からの映像データのフレーム位相と、新しく選択された撮像部からの映像データのフレーム位相とを同期させる。具体的には、切替前の映像データのフレームの開始シンボルの位相と、切替後の映像データのフレームの開始シンボルの位相とを外部からの同期信号に合わせこむことで、それぞれの映像データのフレーム位相を同期させる。フレーム同期が完了すると、切替制御部15cは、スイッチ部10を切り替えて、選択された撮像部からの映像データを同期処理部20に送る。
特徴データ生成部15dは、選択部15bで選択された撮像部からの映像データの特徴データを生成する。具体的には、特徴データ生成部15dは、例えば、画像分析部15aで生成された特徴量、およびセンサ部17から転送されるセンサ情報、位置情報、および時刻情報などに基づき、選択部15bで選択された撮像部からの映像データの特徴データを生成する。生成された特徴データはメモリ16に一時的に記憶され(特徴データ16b)、同期処理部20に送られる。なお、特徴データ生成部15dは、切替制御部15cにより接続が切り替えられた後、画像処理装置200の画像処理が追従するのに十分な期間が経過すると、特徴データの生成を停止するようにしても構わない。
図3は、画像処理装置200の一例を示すブロック図である。画像処理装置200は、CPUあるいはMPU等のプロセッサ250を備えるコンピュータである。画像処理装置200は、ROM(Read Only Memory)220、RAM(Random Access Memory)230、ハードディスクドライブ(Hard Disk Drive:HDD)240、光学メディアドライブ260、通信部270を備える。さらに、画像処理向けの機能を強化したプロセッサであるGPU(Graphics Processing Unit)210を備えてもよい。GPUは、積和演算、畳み込み演算、3D(三次元)再構成などの演算処理を高速で実行することができる。
ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、HDD240からロードされたプログラムやデータを一時的に記憶する。HDD240は、プロセッサ250により実行されるプログラム240a、画像処理データ240b、および、特徴データ240cを記憶する。
光学メディアドライブ260は、CD−ROM280などの記録媒体に記録されたディジタルデータを読み取る。画像処理装置200で実行される各種プログラムは、例えばCD−ROM280に記録されて頒布される。このCD−ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、HDD240にインストールされる。通信部270を介してクラウド100から最新のプログラムをダウンロードして、既にインストールされているプログラムをアップデートすることもできる。
通信部270は、クラウド100に接続されて、カメラC1〜Cn、およびクラウド100の他のサーバやデータベースなどと通信する。画像処理装置200で実行される各種プログラムは、例えば通信部270を介してクラウド100からダウンロードされ、HDD240にインストールされても構わない。
通信部270は、受信部270aを備える。受信部270aは、映像データを含む伝送ストリームをカメラC1〜Cnからクラウド100の通信ネットワーク経由で受信する。
プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。
また、プロセッサ250は、実施形態に係る処理機能として画像処理部250a、分離部250b、復号部250c、補償部250d、および通知部250eを備える。画像処理部250a、分離部250b、復号部250c、補償部250d、および通知部250eは、HDD240に記憶されたプログラム240aがプロセッサ250のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ250が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム240aは、画像処理プログラム、分離プログラム、復号プログラム、補償プログラム、および、通知プログラム、を含む。
画像処理部250aは、受信した伝送ストリームに含まれる映像データ、または、この映像データから復号された映像を画像処理し、点群データ、および人物追跡データなどの画像処理データを得る。この画像処理データは、HDD240に画像処理データ240bとして記憶される。
分離部250bは、受信した伝送ストリームから、上記映像データと、特徴データとを分離する。分離された特徴データは、HDD240に特徴データ240cとして記憶される。
復号部250cは、分離された映像データを復号して映像を再生する。
補償部250dは、分離された特徴データに基づいて、再生された映像の連続性を補償する。つまり補償部250dは、特徴データ(センサ情報/パラメータ情報)に基づいて、撮像部の切替の前後の映像が徐々に変化するように、各画素の色調変換処理などを行う。例えば、補償部250dは、切り替え前に10秒間、切り替え後に10秒間の計20秒の間に、受信した映像の各画素の色調が徐々に変化するように処理する。このような処理は、モーフィングと称して知られている。映像を変化させる期間は、撮像部の切替に対して、画像処理装置200の画像処理機能が追従するために必要な期間以上に長くするのが好ましい。
補償部250dによる処理を経た画像フレームは画像処理部250aに渡される。画像処理部250aは、受信した映像データが映像データの切替部分を含んでいても、補償された映像に対して画像処理を行うことができる。
通知部250eは、画像処理部250aの画像処理に関する情報を含むメッセージを、カメラC1〜Cnに通知する。例えば画像処理方式の種別や、映像のコントラストを優先するか、または、映像の信号対雑音比を優先するか、等を示す情報が、メッセージによりカメラC1〜Cnへ通知される。
図4は、カメラC1と画像処理装置200との間で授受される情報の一例を示す図である。カメラC1は、選択している撮像部で生成される映像データ、およびこの映像データについての特徴データを伝送ストリームに多重して送る。画像処理装置200は、必要に応じて画像処理に関するメッセージを、クラウド100経由でカメラC1にメッセージを送る。メッセージを受信したカメラC1は、メッセージに記載された情報に相応する撮像部を撮像部1a〜1dから選択する。そして、カメラC1は、選択した撮像部で生成される映像データ、およびこの映像データについての特徴データを伝送ストリームに多重して送る。次に、上記構成を基礎として本発明の作用について説明する。
図5は、実施形態におけるカメラC1〜Cnの処理手順の一例を示すフローチャートである。ここではカメラC1を主体として説明するが、カメラC2〜Cnも同様に動作する。
図5において、カメラC1は、画像処理装置200からのメッセージの通知を待ち受ける(ステップS1)。メッセージが受信されれば(ステップS1でYes)、カメラC1はその内容を解読する(ステップS2)。ここで受信されるメッセージには、例えば画像処理方式の種別、又は優先する映像パラメータ(コントラスト値、および信号対雑音比など)を示す情報などが含まれている。カメラC1は、解読により認識される、計算すべき特徴量が、現在計算対象となっている特徴量から変更を要するか否かを判断する(ステップS3)。
計算すべき特徴量に変更が無ければ(ステップS3でNo)、処理手順はステップS1に戻り、カメラC1は画像処理装置200からのメッセージの通知を待つ。ステップS3で特徴量に変更有りと判定されれば(Yes)、処理手順はステップS6に至る。
一方、ステップS1でメッセージが受信されなければ(No)、カメラC1は、その時点で選択されている撮像部(現在の撮像部)からの映像データについて、現在計算対象となっている特徴量を計算し(ステップS4)、この特徴量に基づく評価値を計算する(ステップS14)。
次に、カメラC1は、計算された評価値と予め定めされたしきい値とを比較する(ステップS5)。評価値がしきい値以上であれば(Yes)、現在の撮像部の評価値は十分に高いので撮像部の切替はスキップされ、処理手順はステップS1に戻る。ステップS5で評価値がしきい値未満であれば(No)、カメラC1は、現在計算対象となっている特徴量を、撮像部1a〜1mで生成される映像データそれぞれについて計算する(ステップS6)。
ここで、処理手順がステップS5からステップS6に至った場合には、計算すべき特徴量の変更を画像処理装置200から要求されなかったことになる。一方、ステップS3からステップS6に至った場合には、画像処理装置200から、計算すべき特徴量の変更を要求されたことになる。
次に、カメラC1は、計算した特徴量に基づいて評価値を計算する(ステップS7)。この評価値に基づいて、カメラC1は、撮像部1a〜1mのうち評価値の最も高い撮像部を選択する(ステップS8)。現在の撮像部と今回選択した撮像部とが同じなら(ステップS9でNo)、撮像部の切替はスキップされて処理手順はステップS1に戻る。
現在の撮像部と今回選択した撮像部とが異なれば、カメラC1は撮像部の切り替えが必要と判定し(ステップS9でYes)、切り替え先の撮像部の映像に関する特徴データの生成の生成を開始する(ステップS10)。次いでカメラC1は、新たに選択された撮像部と、現在選択中の撮像部との間で映像信号のフレームの同期をとり、撮像部の切り替えを実行する(ステップS11)。そして、フレーム切替の時点を含む所定期間が経過すると、特徴データの生成は終了する(ステップS7)。その間に生成された特徴データは映像データとともに伝送ストリームに同期多重され(ステップS13)、画像処理装置200に送信される。
図6は、伝送ストリームのTS基本体系の例を示す図である。このTS基本体系は、MPEG−2 Systemsに準拠するもので、TS(Transport Stream)、PAT(Program Association Table)、PMT(Program Map Table)の階層構造を有する。PMTの配下には、映像(Video)、音声(Audio)、PCR(Program Clock Reference)等のPES(Packetized Elementary Stream)パケットが配置される。映像パケットのヘッダにはPTS(Presentation Time Stamp)/DTS(Decoding Time Stamp)が挿入され、音声パケットのヘッダにはPTSが挿入される。
図7は、同期多重された特徴データを含む伝送ストリームの一例を示す図である。カメラC1の多重化部19は、図7に示されるように、TS基本体系におけるいずれかの位置(TS配下、PAT配下またはPMT配下)に特徴データパラメータを配置することで、特徴データを多重する。
また、多重化部19は、ヘッダにPTS/DTSを付加した特徴データエレメンタリーを、PMTの配下に配置することで、特徴データを多重するようにしてもよい。特徴データパラメータは、特徴データエレメンタリーに含まれることになる。特徴データエレメンタリーに特徴データを格納する場合、ITU−T勧告H.222.に従うPESヘッダオプションを利用しても構わない。すなわち、例えばストリームタイプを表す識別子(補助ストリーム(0xF9)、メタデータストリーム(0xFC)、及び拡張ストリームID(0xFD))、エレメンタリーPIDを表す識別子、又は未定義(0xFC)の識別子等を、特徴データエレメンタリーを含むPMTのヘッダを挿入するとよい。
図8は、カメラC1で生成される特徴データのパラメータの具体例を表す図である。図8において、特徴データパラメータは、絶対時刻情報、カメラ方向情報、およびズーム倍率情報などのパラメータ情報、位置情報、センサ情報、および特徴量などの項目を含む。センサ情報は、例えば、温度情報、湿度情報、ディジタルタコメータ情報(車載カメラなど)、構造物の点群データ等を含む。
以上述べたように実施形態では、複数の撮像部を有するカメラにおいて、どの撮像部からの映像が画像処理装置200の画像処理に最も適しているかを、カメラの側で判断する。すなわちカメラにおいて、各撮像部からの映像について画像処理装置200の画像処理と同様の処理を実施し、得点(評価値)の最も高い撮像部を選択する。
また、実施形態では、複数の撮像部を有するカメラの映像を切り替える際に、画像処理装置200での画像処理の不連続を解消するのに十分な期間にわたる特徴量を、カメラの側で算出し、映像データに同期多重して画像処理装置200に伝送するようにしている。
既存の遠隔監視システムでは、映像(撮像部)間の色調差異が大きいと、カメラの撮像部が切り替わるごとに、図9(a)に示されるように特徴データが不連続となり、画像処理装置200側で画像処理がリセットされる場合があった。特に異種のカメラを用いたハイブリッドカメラシステムでは、その傾向が大きい。
これに対し実施形態では、映像ストリームを生成するカメラにおいて、画像処理装置200の画像処理に最も適した映像を生成する撮像部を、選択部15bで選択する。選択された撮像部が変化するとその前後の撮像部間で映像データのフレームを同期させ、映像データを切り替える。そして、映像データとその特徴データ(センサ情報やパラメータ情報、判定結果など)とを、伝送フレームに同期多重して画像処理装置200に送る。
このようにしたので、図9(b)に示されるように、複数カメラの同期切替の際に、カメラから特徴データをクラウド経由で画像処理装置200に渡すことができる。これにより、特徴データは切れ目なく画像処理装置200に伝送され、画像処理装置200において特徴データの連続性を補償することができる。
さらに、補償部250dは、クラウド経由で取得した特徴データに基づいて、この特徴データと同期して送られた映像の連続性を補償する。つまり補償部250dは、画像処理の際に、撮像部の切替の前後の映像の連続性を、特徴データを用いて補償する。これにより画像処理装置200は、補償された映像データに基づいて、画像処理を実施することができる。
このように、画像処理装置200に最も適したカメラを選択し、映像を切り替えることができる。しかも、映像データと、この映像データに伴う特徴データとを同じ伝送ストリーム同期多重するようにしているので、映像と、その分析結果である特徴データとの時系列がずれることもない。従って、画像処理装置200における画像処理の連続性を保つことが可能になる。このことから、複数のカメラ映像を単一の伝送路で共有するという経済性と、受信側での画像処理を連続的に行ないながら、処理精度を維持することとを両立することができる。
すなわち、実施形態によれば、映像切替の前後で画像処理の連続性を保つことの可能なスマートカメラシステムと、このシステムで使用可能なスマートカメラ、画像処理装置、データ送信方法およびプログラムを提供することが可能となる。
(多視点カメラシステムへの適用例)
図10は、多視点カメラシステムの一例を示す図である。実施形態に係る議論は多視点カメラシステムについても成立する。図10に示されるケースでは、例えば選択部15b、切替制御部15cの機能をクラウド100のサービスとして実装すればよい。
図10は、多視点カメラシステムの一例を示す図である。実施形態に係る議論は多視点カメラシステムについても成立する。図10に示されるケースでは、例えば選択部15b、切替制御部15cの機能をクラウド100のサービスとして実装すればよい。
(アレイカメラシステムへの適用例)
図11は、アレイ状に配列された複数のカメラを備える、いわゆるアレイカメラシステムの一例を示す図である。例えばカメラC1を可視光カメラとし、カメラC2を赤外線カメラとし、両カメラC1,C2で共通の被写体を観察するアレイカメラシステムがある。この種のシステムにおいて、図2に示される選択部15b、切替制御部15cおよびスイッチ部10を画像処理装置200に実装することで、上記実施形態と同様の議論を行うことができる。つまり、画像処理装置200の画像処理に応じてカメラC1,C2を切り替える際、画像処理に必要な特徴データを映像データに同期多重して伝送するようにすれば、画像処理装置200での画像処理の連続性を補償することができる。
図11は、アレイ状に配列された複数のカメラを備える、いわゆるアレイカメラシステムの一例を示す図である。例えばカメラC1を可視光カメラとし、カメラC2を赤外線カメラとし、両カメラC1,C2で共通の被写体を観察するアレイカメラシステムがある。この種のシステムにおいて、図2に示される選択部15b、切替制御部15cおよびスイッチ部10を画像処理装置200に実装することで、上記実施形態と同様の議論を行うことができる。つまり、画像処理装置200の画像処理に応じてカメラC1,C2を切り替える際、画像処理に必要な特徴データを映像データに同期多重して伝送するようにすれば、画像処理装置200での画像処理の連続性を補償することができる。
なお、この発明は上記実施形態に限定されるものではない。例えば、特徴データを構成する情報は図8に示されるものが唯一ではない。つまり特徴データに絶対時刻情報、カメラ方向情報、ズーム倍率情報、位置情報、センサ情報、および、特徴量の全てを含める必要は無い。また、例えばセンサ情報に温度情報、湿度情報、振動情報、加速度情報、雨量情報、水位情報、速度情報、ディジタルタコメータ情報、および点群データ、あるいは、撮像部のデバイスタイプ、画素数、フレームレート、感度、レンズの焦点距離、光量、および画角などの情報の全てを含める必要も無い。伝送ストリームに多重される特徴データに含める情報は、システム要件に応じて決定されればよい。
また、複数のカメラを備えるマルチスペクトルカメラに限らず、1つの撮像部に異なる波長カットフィルタを組み合わせて、単眼型のカメラにより複数の映像を得る形式のカメラについても上記と同じ議論が成り立つ。
また、実施形態では、撮像部の切替に際して特徴データを生成し、映像ストリームに多重するようにした。このほか、特徴データを常時計算し、必要な場合(撮像部の切替が生じたとき)に、映像ストリームに多重するようにしても良い。
また、実施形態において、画像分析部15aが撮像部1a〜1mごとの映像を分析して、映像の特徴量を撮像部1a〜1mごとに生成することを述べた。映像に対して定義される特徴量だけでなく、画像に対して計算される特徴量もある。よって画像分析部15aにより画像の特徴量を算出し、画像の特徴量に基づいて種々の処理を実行するように構成することも可能である。
さらに、画像分析部15aの機能を、撮像部1a〜1mにそれぞれ個別に実装しても良い。このようにすれば、撮影した映像の映像データと当該映像の特徴量とを、撮像部1a〜1mからまとめて出力できる。選択部は、この映像データに付随する特徴量を用いて評価値を得て、撮像部1a〜1mのいずれかを選択すればよい。このように分析の処理を撮像部1a〜1mに移すことで、処理回路15のリソースを節約することができる。
コンピュータに関連して用いられる「プロセッサ」という用語は、例えばCPU、MPU、GPU、或いは、ASIC(Application Specific Integrated Circuit)、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、またはFPGA等の回路と理解され得る。
プロセッサは、メモリに記憶されたプログラムを読み出し実行することで、プログラムに基づく特有の機能を実現する。メモリに代えて、プロセッサの回路内にプログラムを直接組み込むよう構成することも可能である。このケースでは、プロセッサは回路内に組み込まれたプログラムを読み出し実行することでその機能を実現する。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…撮像部、1a〜1m…撮像部、10…スイッチ部、11…レンズ、12…絞り機構、13…画像センサ、14…符号化部、15…処理回路、15a…画像分析部、15b…選択部、15c…切替制御部、15d…特徴データ生成部、16…メモリ、16a…プログラム、16b…特徴データ、17…センサ部、19…多重化部(MUX)、20…同期処理部、21…送信部、22…受信部、23…内部バス、24…データバス、42…ROM、100…クラウド、101…中継ネットワーク、200…画像処理装置、210…GPU、220…ROM、230…RAM、240…HDD、240a…プログラム、240b…画像処理データ、240c…特徴データ、250…プロセッサ、250a…画像処理部、250b…分離部、250c…復号部、250d…補償部、250e…通知部、260…光学メディアドライブ、280…CD−ROM、270…通信部、270a…受信部、C1〜Cn…カメラ、P1…セルラフォン、S1…エッジサーバ、S2…エッジサーバ、V1…車両。
Claims (23)
- 画像処理装置と通信可能なスマートカメラにおいて、
それぞれ映像データを生成する複数の撮像部と、
前記複数の撮像部から、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する選択部と、
前記選択部により別の撮像部が選択されるたびに、当該選択された撮像部からの前記映像データを互いのフレーム位相を同期させて切り替え出力する切替部と、
前記切り替え出力の時点を含む所定期間にわたる前記選択された撮像部からの映像の特徴データを生成する特徴データ生成部と、
前記切り替え出力された映像データと前記特徴データとを同期させる同期処理部と、
前記同期された映像データと特徴データとを伝送ストリームに多重する多重化部と、
前記伝送ストリームを前記画像処理装置に送信する送信部とを具備する、
スマートカメラ。 - 前記撮像部ごとの映像を分析して当該撮像部ごとの映像の特徴量を生成する画像分析部をさらに具備し、
前記選択部は、前記撮像部ごとの映像の特徴量に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する、請求項1に記載のスマートカメラ。 - 前記選択部は、前記画像処理装置における画像処理に相応する度合いを示す評価値を、前記特徴量に基づいて前記撮像部ごとに算出し、
前記評価値に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する、請求項2に記載のスマートカメラ。 - 前記選択部は、選択されている撮像部の評価値が既定のしきい値未満であれば、当該選択されている撮像部とは異なる撮像部を選択する、請求項3に記載のスマートカメラ。
- 前記画像処理に関する情報を含むメッセージを前記画像処理装置から受信する受信部をさらに具備し、
前記選択部は、前記メッセージに含まれる情報に従って前記撮像部を選択する、請求項1に記載のスマートカメラ。 - 前記複数の撮像部は、それぞれ撮影波長帯を個別に割り当てられる、請求項1乃至5のいずれかに記載のスマートカメラ。
- 前記複数の撮像部は、赤外線カメラと、可視光カメラとを含む、請求項6に記載のスマートカメラ。
- 前記特徴データは、前記撮像部のセンサ情報、および、前記映像のパラメータ情報の少なくともいずれかを含む、請求項1乃至7のいずれかに記載のスマートカメラ。
- 前記センサ情報は、デバイスタイプ、画素数、フレームレート、感度、レンズの焦点距離、光量、および画角の少なくともいずれかを含む、請求項8に記載のスマートカメラ。
- 前記パラメータ情報は、前記映像の色調、および輝度ヒストグラムの少なくともいずれかを含む、請求項8に記載のスマートカメラ。
- 複数の撮像部を有するスマートカメラと通信可能な画像処理装置において、
映像データを含む伝送ストリームを前記スマートカメラから受信する受信部と、
前記受信された伝送ストリームから、前記映像データと、当該映像データに同期された特徴データとを分離する分離部と、
前記映像データを復号して映像を再生する復号部と、
前記分離された特徴データに基づいて、前記再生された映像の連続性を補償する補償部と、
前記補償された映像に基づいて画像処理を行う画像処理部とを具備する、画像処理装置。 - 前記画像処理に関する情報を含むメッセージを前記スマートカメラに通知する通知部をさらに具備する、請求項11に記載の画像処理装置。
- 前記メッセージは、前記映像のコントラストを優先することを示す情報、または、前記映像の信号対雑音比を優先することを示す情報のいずれかを含む、請求項12に記載の画像処理装置。
- スマートカメラと、通信ネットワークを介して前記スマートカメラと通信可能に接続される画像処理装置とを具備し、
前記スマートカメラは、
それぞれ映像データを生成する複数の撮像部と、
前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する選択部と、
前記選択部により別の撮像部が選択されるたびに、当該選択された撮像部からの前記映像データを互いのフレーム位相を同期させて切り替え出力する切替部と、
前記切り替え出力の時点を含む所定期間にわたる前記選択された撮像部からの映像の特徴データを生成する特徴データ生成部と、
前記切り替え出力された映像データと前記特徴データとを同期させる同期処理部と、
前記同期された映像データと特徴データとを伝送ストリームに多重する多重化部と、
前記伝送ストリームを前記画像処理装置に送信する送信部とを備え、
前記画像処理装置は、
映像データを含む伝送ストリームを前記スマートカメラから受信する受信部と、
前記受信された伝送ストリームから、前記映像データと、当該映像データに同期された特徴データとを分離する分離部と、
前記映像データを復号して映像を再生する復号部と、
前記分離された特徴データに基づいて、前記再生された映像の連続性を補償する補償部と、
前記補償された映像に基づいて画像処理を行う画像処理部とを備える、スマートカメラシステム。 - それぞれ映像データを生成する複数の撮像部およびプロセッサを具備するスマートカメラに適用可能なデータ送信方法であって、
前記プロセッサが、画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する過程と、
別の撮像部が選択されるたびに、前記プロセッサが、当該選択された撮像部からの前記映像データを互いのフレーム位相を同期させて切り替え出力する過程と、
前記プロセッサが、前記切り替え出力の時点を含む所定期間にわたる前記選択された撮像部からの映像の特徴データを生成する過程と、
前記プロセッサが、前記切り替え出力された映像データと前記特徴データとを同期させる過程と、
前記プロセッサが、前記同期された映像データと特徴データとを伝送ストリームに多重する過程と、
前記プロセッサが、前記伝送ストリームを前記画像処理装置に送信する過程とを具備する、データ送信方法。 - さらに、前記プロセッサが、前記撮像部ごとの映像を分析して当該撮像部ごとの映像の特徴量を生成する過程を具備し、
前記選択する過程において、前記プロセッサは、前記撮像部ごとの映像の特徴量に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する、請求項15に記載のデータ送信方法。 - 前記選択する過程は、
前記プロセッサが、前記画像処理装置における画像処理に相応する度合いを示す評価値を、前記特徴量に基づいて前記撮像部ごとに算出する過程と、
前記プロセッサが、前記評価値に基づいて、前記画像処理装置における画像処理に相応する映像データを生成する撮像部を選択する過程とを含む、請求項16に記載のデータ送信方法。 - 前記選択する過程において、前記プロセッサは、選択されている撮像部の評価値が既定のしきい値未満であれば、当該選択されている撮像部とは異なる撮像部を選択する、請求項17に記載のデータ送信方法。
- 前記プロセッサが、前記画像処理に関する情報を含むメッセージを前記画像処理装置から受信する過程と、
前記プロセッサが、前記メッセージに含まれる情報に従って前記撮像部を選択する過程とをさらに具備する、請求項15に記載のデータ送信方法。 - 前記特徴データは、前記撮像部のセンサ情報、および、前記映像のパラメータ情報の少なくともいずれかを含む、請求項15乃至19のいずれかに記載のデータ送信方法。
- 前記センサ情報は、デバイスタイプ、画素数、フレームレート、感度、レンズの焦点距離、光量、および画角の少なくともいずれかを含む、請求項20に記載のデータ送信方法。
- 前記パラメータ情報は、前記映像の色調、および輝度ヒストグラムの少なくともいずれかを含む、請求項20に記載のデータ送信方法。
- 請求項15乃至22のいずれか1項に記載の方法をコンピュータに実行させるための命令を含む、プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166057A JP6668298B2 (ja) | 2017-08-30 | 2017-08-30 | スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム |
CN201880037256.6A CN110710199B (zh) | 2017-08-22 | 2018-08-22 | 智能摄像机、图像处理装置以及数据通信方法 |
PCT/JP2018/030973 WO2019039507A1 (ja) | 2017-08-22 | 2018-08-22 | スマートカメラ、画像処理装置、およびデータ通信方法 |
US16/783,710 US20200177935A1 (en) | 2017-08-22 | 2020-02-06 | Smart camera, image processing apparatus, and data communication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166057A JP6668298B2 (ja) | 2017-08-30 | 2017-08-30 | スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019047214A JP2019047214A (ja) | 2019-03-22 |
JP6668298B2 true JP6668298B2 (ja) | 2020-03-18 |
Family
ID=65816612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017166057A Active JP6668298B2 (ja) | 2017-08-22 | 2017-08-30 | スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6668298B2 (ja) |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677699B2 (ja) * | 2001-09-25 | 2011-04-27 | コニカミノルタホールディングス株式会社 | 画像処理方法、画像処理装置、撮影装置評価方法、画像情報保存方法および画像処理システム |
US7421129B2 (en) * | 2002-09-04 | 2008-09-02 | Microsoft Corporation | Image compression and synthesis for video effects |
CN101346718A (zh) * | 2005-10-28 | 2009-01-14 | 意大利电信股份公司 | 用于向用户提供选定内容项的方法 |
JP2007158860A (ja) * | 2005-12-06 | 2007-06-21 | Canon Inc | 撮影システム、撮影装置、画像切替装置、およびデータ保持装置 |
JP2009010903A (ja) * | 2007-05-30 | 2009-01-15 | Sony Corp | 撮像装置及び撮像方法 |
JP4973334B2 (ja) * | 2007-06-26 | 2012-07-11 | ソニー株式会社 | 撮像装置および撮像装置の切り替え方法 |
JP2010009134A (ja) * | 2008-06-24 | 2010-01-14 | Sony Corp | 画像処理システム及び画像処理方法、並びに、プログラム |
KR20100122386A (ko) * | 2009-05-12 | 2010-11-22 | 삼성전자주식회사 | 영상 시퀀스에 인위적으로 삽입된 적어도 하나의 영상 프레임을 부호화/복호화하는 방법 및 장치 |
JP5439549B2 (ja) * | 2012-07-09 | 2014-03-12 | 株式会社東芝 | 情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法 |
WO2015037186A1 (ja) * | 2013-09-13 | 2015-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 広告データ提供方法 |
GB2535706A (en) * | 2015-02-24 | 2016-08-31 | Nokia Technologies Oy | Device with an adaptive camera array |
EP3065394A1 (en) * | 2015-03-05 | 2016-09-07 | Thomson Licensing | Light field metadata |
JP6566831B2 (ja) * | 2015-10-15 | 2019-08-28 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2017
- 2017-08-30 JP JP2017166057A patent/JP6668298B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019047214A (ja) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107534789B (zh) | 影像同步装置及影像同步方法 | |
US10958820B2 (en) | Intelligent interface for interchangeable sensors | |
JP2023026501A (ja) | 三次元情報処理方法及び三次元情報処理装置 | |
CN104126299B (zh) | 视频图像稳定化 | |
US9167164B2 (en) | Metadata associated with frames in a moving image | |
JP6486744B2 (ja) | 地域監視サーバ、提供端末及びそのシステム | |
US9159169B2 (en) | Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program | |
US20200177935A1 (en) | Smart camera, image processing apparatus, and data communication method | |
WO2017200848A1 (en) | Scene-based sensor networks | |
JP6332037B2 (ja) | 画像処理装置および方法、並びにプログラム | |
US9693010B2 (en) | Method, electronic device, and server for generating digitally processed pictures | |
CN109429037A (zh) | 一种图像处理方法、装置、设备及系统 | |
JP2020005168A (ja) | カメラ装置、カメラシステム及びサーバ装置 | |
JP6668298B2 (ja) | スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム | |
WO2015194082A1 (ja) | 画像処理方法および画像処理システム | |
CN107431751B (zh) | 采集图像的方法、装置和系统 | |
JP6725183B2 (ja) | 画像共有支援装置、画像共有システム、及び、画像共有支援方法 | |
CN113572950B (zh) | 在图像序列中选择裁剪区域的方法、系统及存储介质 | |
JP2013084124A (ja) | 撮像システム、撮像装置および画像処理方法 | |
JP4857297B2 (ja) | 映像処理装置 | |
JP7134601B2 (ja) | 画像処理装置、画像処理方法、撮像装置及び撮像装置の制御方法 | |
JP2019041159A (ja) | スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム | |
JP7540862B2 (ja) | 画像処理装置及び画像処理システム | |
JP2012208835A (ja) | 災害検出画像処理システム | |
JP4519569B2 (ja) | 立体mpeg信号同期システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6668298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |