JP2020141212A - 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置 - Google Patents
画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置 Download PDFInfo
- Publication number
- JP2020141212A JP2020141212A JP2019034531A JP2019034531A JP2020141212A JP 2020141212 A JP2020141212 A JP 2020141212A JP 2019034531 A JP2019034531 A JP 2019034531A JP 2019034531 A JP2019034531 A JP 2019034531A JP 2020141212 A JP2020141212 A JP 2020141212A
- Authority
- JP
- Japan
- Prior art keywords
- image
- superimposed
- information
- drawing information
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像認識処理の結果を表示する際にプライバシ保護を行う。
【解決手段】 本発明は、カメラで撮像された撮像フレームを処理する画像処理装置と、撮像フレームに対応する対応フレームを表示する表示装置とを備える画像処理システムに関する。前記画像処理装置は、背景画像を取得する手段と、それぞれのオブジェクトについて背景画像に重畳画像を描画するための重畳画像描画情報を生成する手段と、背景画像と重畳画像描画情報を出力する手段とを有する。また、本発明の表示装置は、画像を表示する表示画面を備える表示手段と、表示画面に背景画像を描画させ、さらに表示画面に重畳画像描画情報に基づく重畳画像を背景画像に重畳して描画させる描画処理手段とを有することを特徴とする。
【選択図】 図1
【解決手段】 本発明は、カメラで撮像された撮像フレームを処理する画像処理装置と、撮像フレームに対応する対応フレームを表示する表示装置とを備える画像処理システムに関する。前記画像処理装置は、背景画像を取得する手段と、それぞれのオブジェクトについて背景画像に重畳画像を描画するための重畳画像描画情報を生成する手段と、背景画像と重畳画像描画情報を出力する手段とを有する。また、本発明の表示装置は、画像を表示する表示画面を備える表示手段と、表示画面に背景画像を描画させ、さらに表示画面に重畳画像描画情報に基づく重畳画像を背景画像に重畳して描画させる描画処理手段とを有することを特徴とする。
【選択図】 図1
Description
この発明は、画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置に関し、例えば、監視カメラにより撮像された画像に基づく認識処理を行うシステムに適用し得る。
従来、監視カメラ等で撮像した画像から、所定の物体やイベントを検知する処理(以下、「画像センシング処理」と呼ぶ)を行うシステムとして、例えば、非特許文献1の記載技術が存在する。
非特許文献1に記載されたシステムでは、商業施設内に設置された監視カメラで撮像した画像から、画像センシング処理により写っている人の心理状態を推定(深層学習技術を用いて推定)し、監視カメラで撮像した画像を表示処理する際に、特定の心理状態の人間が写っている領域を赤色の枠で囲う加工処理を行う。
「困っている人を深層学習で検知、ALSOKや三菱地所など実証実験」、日経BP社、[Online]、INTERNET、[2019年2月11日検索]、URL<https://tech.nikkeibp.co.jp/it/atcl/news/17/011102941/>
しかしながら、従来の画像センシング処理を行うシステムでは、非特許文献1の記載技術のように、撮像した画像にセンシング結果を表示する際に、プライバシ保護(監視対象の人物のプライバシ保護)の観点で問題が生じる場合があった。
そのため、画像センシング処理の結果を表示する際にプライバシ保護を行うことができる画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置が望まれている。
第1の本発明は、カメラで撮像された撮像フレームを処理する画像処理装置と、前記撮像フレームに対応する対応フレームを表示する表示装置とを備える画像処理システムにおいて、(1)前記画像処理装置は、(1−1)前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行う画像認識手段と、(1−2)前記カメラに対応する背景画像を取得する背景画像取得手段と、(1−3)前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成する描画情報生成手段と、(1−4)前記背景画像と前記重畳画像描画情報を出力する出力手段とを有し、(2)前記表示装置は、(2−1)画像を表示する表示画面を備える表示手段と、(2−2)前記表示手段の前記表示画面に前記背景画像を描画させ、さらに前記表示手段の前記表示画面に前記重畳画像描画情報に基づく重畳画像を前記背景画像に重畳して描画させる描画処理手段とを有することを特徴とする。
第2の本発明は、カメラで撮像された撮像フレームを処理する画像処理装置において、(1)前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行う画像認識手段と、(2)前記カメラに対応する背景画像を取得する背景画像取得手段と、(3)前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成する描画情報生成手段と、(4)前記背景画像と前記重畳画像描画情報を出力する出力手段とを有することを特徴とする。
第3の本発明の画像処理プログラムは、カメラで撮像された撮像フレームを処理する画像処理装置に搭載されたコンピュータを、(1)前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行う画像認識手段と、(2)前記カメラに対応する背景画像を取得する背景画像取得手段と、(3)前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成する描画情報生成手段と、(4)前記背景画像と前記重畳画像描画情報を出力する出力手段として機能させることを特徴とする。
第4の本発明は、カメラで撮像された撮像フレームを処理する画像処理装置が行う画像処理方法において、(1)画像認識手段、背景画像取得手段、描画情報生成手段、及び出力手段を有し、(2)前記画像認識手段は、前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行い、(3)前記背景画像取得手段は、前記カメラに対応する背景画像を取得し、(4)前記描画情報生成手段は、前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成し、(5)前記出力手段は、前記背景画像と前記重畳画像描画情報を出力することを特徴とする。
第5の本発明は、カメラで撮像された撮像フレームに対応する対応フレームを表示する表示装置において、(1)画像を表示する表示画面を備える表示手段と、(2)前記表示手段の前記表示画面に第1の本発明の画像処理装置が出力した背景画像を描画させ、さらに前記表示手段の前記表示画面に第1の本発明の画像処理装置が出力した前記重畳画像描画情報に基づく重畳画像を前記背景画像に重畳して描画させる描画処理手段とを有することを特徴とする。
本発明によれば、画像センシング処理の結果を表示する際にプライバシ保護を行うことができる。
(A)第1の実施形態
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第1の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第1の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
(A−1)第1の実施形態の構成
図1は、この実施形態の画像処理システム1の全体構成を示すブロック図である。
図1は、この実施形態の画像処理システム1の全体構成を示すブロック図である。
図1に示す画像処理システム1には、ゲートウェイ装置10、3台のカメラ20(20−1〜20−3)、アプリケーションサーバ30、及び表示装置40が配置されている。なお、画像処理システム1を構成する各装置の数は限定されないものである。
ゲートウェイ装置10は、上位側ネットワークNW1を介してアプリケーションサーバ30及び表示装置40と通信可能となっている。
ゲートウェイ装置10の配下には、ローカルネットワークNW2を介して、カメラ20−1〜20−3が接続されている。各カメラには識別子(以下、「カメラID」と呼ぶ)が付与されている。ここでは、カメラ20−1〜20−3にそれぞれ1〜3のカメラIDが付与されているものとする。
各カメラ20は、リアルタイムに撮像したフレーム(画像)のデータ(フレーム列(動画像)のデータ)を、接続するゲートウェイ装置10に送信する。各カメラ20を配置する場所は限定されないものである。この実施形態の例では、各カメラ20は、例えば、店舗や、映画館や、美術館等の施設内を撮像(監視)するように配置されているものとする。
ゲートウェイ装置10は、配下のカメラ20(20−1〜20−3)から、撮像されたフレームのデータを取得して、各フレーム写っている物体(以下、単に「オブジェクト」とも呼ぶ)を所定の認識アルゴリズムに基づいて認識する処理(以下、「画像センシング処理」と呼ぶ)を行い、画像センシング処理の結果(以下、「画像センシング情報」と呼ぶ)を出力(アプリケーションサーバ30に送信)する。
また、ゲートウェイ装置10は、各カメラ20から供給されたフレーム列の各フレームに対応するフレーム(以下、「対応フレーム」と呼ぶ)を描画(レンダリング)するためのデータ(以下、「対応フレーム描画データ」と呼ぶ)を生成して出力(表示装置40に送信)する処理を行う。
アプリケーションサーバ30は、ゲートウェイ装置10から供給される情報(例えば、画像センシング情報)の処理を行う装置である。アプリケーションサーバ30が行う画像センシング情報を処理の詳細については限定されないものである。アプリケーションサーバ30は、例えば、画像センシング情報に基づいて施設の来客数をカウントする等の統計処理を行う。
以下、画像処理システム1を構成する各装置の内部構成について説明する。
図2は、ゲートウェイ装置10の機能的構成の例について示した説明図である。
ゲートウェイ装置10は、フレーム取得部101、画像センシング処理部102、描画情報生成部103、配信処理部104、及びデータ送信部105を有している。
フレーム取得部101は、配下のカメラ20(20−1〜20−3)から、撮像されたフレーム(画像)のデータ(フレーム列(動画像)のデータ)を取得する機能を担っている。
画像センシング処理部102は、フレーム取得部101が取得したフレーム列(動画像)の各フレームを参照して、写っているオブジェクト(物体)を所定の認識アルゴリズムに基づいて認識する画像センシング処理を行い、画像センシング処理の結果(画像センシング情報)を出力する。画像センシング処理部102が行う画像センシング処理の方式は限定されないものであり、種々の方式(例えば、既存の画像センシング処理に関するミドルウェアやライブラリ等)を利用することができる。画像センシング処理部102が生成する画像センシング情報には、検出したオブジェクトごとのセンシング結果(以下、「オブジェクトセンシング情報」と呼ぶ)が含まれる。オブジェクトセンシング情報には、フレーム内で当該オブジェクトが写っている領域を示す情報(以下、「領域情報」と呼ぶ)や、当該オブジェクトの属性に関する情報(以下、「属性情報」と呼ぶ)や、当該オブジェクトの特徴量(画像的な特徴量)を示す情報(以下、「特徴量情報」と呼ぶ)等が含まれるものとする。
画像センシング処理部102が画像センシング処理により検出する対象となるオブジェクトの種類は限定されないものである。この実施形態では、ゲートウェイ装置10は、画像センシング処理により各カメラ20が撮像したフレームから人間(人物)を検出(種類が人間となるオブジェクトを検出)するものとして説明する。
属性情報には、例えば、当該オブジェクトの種類(例えば、「人間」)の情報が含まれる。
領域情報には、フレーム上で当該オブジェクトが写っている領域を示す情報(例えば、当該領域を示す座標等)が含まれる。この実施形態では、領域情報は、各オブジェクトが写っている領域を含む矩形の領域を示す各座標(矩形の各頂点(4点)の座標)で示されるものとするが、領域情報の形式についてはこれに限定されないものである。
また、特徴量情報には、例えば、当該オブジェクトの画像上の特徴量(例えば、人間の顔の部位や人間の身体の部位などをベクトル化した情報)を示すデータが設定される。
なお、画像センシング情報には、少なくともアプリケーションサーバ30側の処理で必要となる項目の情報が含まれればよい。すなわち、画像センシング情報の構成は図4の例に限定されず種々の項目の組み合わせるようにしてもよい。例えば、画像センシング処理部102が、オブジェクトとして人間しか検出せず、全ての人間のオブジェクトに対して区別する必要がない場合(例えば、カテゴリ分け等する必要がない場合)、画像センシング情報から属性情報を削除するようにしてもよい。
図3は、画像センシング情報の構成例について示した説明図である。
ここでは、画像センシング処理部102が、カメラ20−1(カメラID:1)が任意の時刻T1に撮像したフレームについて画像センシング処理を行った結果、M個のオブジェクトが検出されたものとする。このとき、M個の各オブジェクトには、それぞれ1〜Mの識別子(以下、「オブジェクトID」と呼ぶ)が付与されているものとする。
図3では、カメラ20−1で時刻T1に撮像されたフレームに対応する画像センシング情報SIに、画像センシング処理で検出された各オブジェクト(M個のオブジェクト)に対応するオブジェクトセンシング情報OSI(OSI−1〜OSI−M)が含まれている状態について示している。
図4は画像センシング情報を構成する各オブジェクトのオブジェクトセンシング情報の構成例について示した説明図である。
図4では、図3に示す画像センシング情報SIに含まれるオブジェクトIDが「1」となるオブジェクトのオブジェクトセンシング情報OSI−1の構成例について示している。
図4に示す、オブジェクトセンシング情報OSI−1では、ヘッダ情報としてカメラID、時刻(タイムスタンプ)、オブジェクトが設定されている。なお、オブジェクトセンシング情報OSIを構成するヘッダ情報は、各オブジェクトセンシング情報がどのカメラのどの時刻のフレームに対応するのか示すことができれば、その具体的な形式は限定されないものである。
また、図4に示す、オブジェクトセンシング情報OSI−1では、当該オブジェクトに対する画像センシング処理の結果を示す情報として少なくとも領域情報、属性情報、及び特徴量情報が設定されている。
図4では、領域情報の項目に、当該フレーム内で当該オブジェクトが写っている領域を含む矩形の各頂点(4点)の座標(フレーム上の縦軸と横軸の位置)として、それぞれP101、P102、P103、P104が設定された状態について示している。
また、図4では、属性情報として、「人間」が設定されている。さらに、図4では、特徴量情報として、X1が設定されている。X1には、実際には、当該オブジェクトの画像上の特徴量(例えば、人間の顔の部位や人間の身体の部位などをベクトル化した情報)を示すデータが設定される。
以上のように、画像センシング処理部102は、画像センシング情報を生成する。
描画情報生成部103は、各カメラ20から供給されたフレーム列の各フレームに対応する対応フレームを描画(レンダリング)するための対応フレーム描画データを生成する処理を行う。
図5は、対応フレーム描画データの構成例について示した説明図である。
図5に示すように、描画情報生成部103は、対応フレーム描画データとして、対応フレームの背景画像のデータ(以下、「背景画像データBG」と呼ぶ)と、背景画像(背景画像データBGに基づく画像)に重畳(レンダリング)する画像(以下、「重畳画像」と呼ぶ)を描画するための対応フレーム重畳描画情報SGが含まれている。
ここでは、描画情報生成部103は、カメラ20ごとに背景画像データBGを保持しているものとする。描画情報生成部103が背景画像データBGを保持する方法や更新タイミングは限定されないものである。例えば、描画情報生成部103は、カメラ20ごとに所定時刻(例えば、予め設定された時刻)に撮像した画像を背景画像データBGとして保持するようにしてもよいし、オペレータからの操作に応じた時刻でカメラ20ごとに撮像した画像を背景画像データBGとして保持するようにしてもよい。当然のことであるが、背景画像データBGに設定する画像には、画像センシング処理の対象となるオブジェクト(例えば、人間等)が写っていない状態であることが望ましい。描画情報生成部103が保持する背景画像データBGは予め固定的なデータとしてもよいし、定期又は不定期のタイミングで更新(例えば、ユーザ操作により外部から供給された画像や、最新にカメラ20で撮像した画像)に更新するようにしてもよい。
対応フレーム重畳描画情報SGには、画像センシング処理により検出されたオブジェクトごとに対応する画像(重畳画像)を描画(レンダリング)するためのオブジェクト重畳描画情報OSGが含まれている。ここで、図3の例と同様に画像センシング処理の結果M個のオブジェクトが検出されたものとする。そうすると、図5に示すように、対応フレーム重畳描画情報SGにもM個のオブジェクト重畳描画情報OSG(OSG−1〜OSG−M)が設定されることになる。
図6はオブジェクト重畳描画情報OSGの構成例について示した説明図である。
図6では、図5に示す対応フレーム重畳描画情報SGに含まれるオブジェクトIDが「1」となるオブジェクトのオブジェクト重畳描画情報OSG−1の構成例について示している。
図6に示す、オブジェクト重畳描画情報OSG−1では、ヘッダ情報としてオブジェクトセンシング情報OSIと同様の項目の情報(ここでは、カメラID、時刻、及びオブジェクトID)が設定されている。
また、図6に示す、オブジェクト重畳描画情報OSG−1では、当該オブジェクトに対応する重畳画像を描画する領域を示す情報である「重畳描画領域情報」を含む情報が設定される。
重畳描画領域情報には、当該オブジェクトに対応するオブジェクトセンシング情報OSI−1の領域情報と同じ情報を設定するようにしてもよい。なお、重畳描画領域情報には、当該オブジェクトに対応するオブジェクトセンシング情報OSI−1の領域情報を加工した情報(例えば、領域情報が示す領域を拡張又は縮小した領域を示す情報)としてもよい。なお、この実施形態の対応フレームでは、オブジェクトごとに重畳描画領域情報が示す領域の枠線(矩形の輪郭線;以下、「オブジェクト枠」とも呼ぶ)が描画されるものとする。
配信処理部104は、対応フレーム描画データを出力(送信)する出力手段の機能を担っている。配信処理部104は、表示装置40に対して、表示装置40の要求に応じたカメラ20の対応フレーム描画データを送信する。配信処理部104は、描画情報生成部103で対応フレーム重畳描画情報SG(表示装置40の要求に応じたカメラ20の対応フレーム重畳描画情報SG)が生成される度に、当該対応フレーム重畳描画情報SGを表示装置40に送信する。また、配信処理部104は、描画情報生成部103で保持される背景画像データBG(表示装置40の要求に応じたカメラ20の背景画像データBG)が更新される度に更新された背景画像データBGを表示装置40に送信するようにしてもよい。配信処理部104が対応フレーム描画データを出力する方式は限定されないものである。配信処理部104は、例えば、対応フレーム描画データを所定のデータ記録媒体(例えば、メモリカード等)に書き込むようにしてもよい。
配信処理部104は、表示装置40に対して対応フレーム描画データ(背景画像データBG、及び対応フレーム重畳描画情報SG)に基づいて対応フレームを描画するためのプログラム(以下、「描画プログラム」と呼ぶ)を配信する構成としてもよい。例えば、表示装置40がWebブラウザを備えるWebクライアントとして動作する場合、配信処理部104を、Webサーバとして機能させ、表示装置40のWebブラウザ(Web画面)にWebアプリケーション(Webブラウザ上で動作するアプリケーション)としての描画処理プログラムを配信するようにしてもよい。
データ送信部105は、画像センシング処理部102で画像センシング情報SIが生成される度に、その画像センシング情報SIを、アプリケーションサーバ30に送信する処理を行う。
次に、表示装置40の構成の機能的構成について図7を用いて説明する。
表示装置40は、表示部41、操作部42、及び制御部43を有している。
制御部43は、装置全体を制御する機能を担っている。制御部43としては、例えば、プロセッサ及びメモリを有するコンピュータにプログラム(実施形態に係る描画プログラムを含む)をインストールすることにより構成するようにしてもよい。
表示部41は、制御部43の制御(描画処理)に応じた画像を表示する機能を担っている。表示部41としては、例えば、種々のディスプレイ等を適用することができる。
操作部42は、オペレータからの操作を受け付けるユーザインタフェースの機能を担っている。操作部42としては、例えば、マウス、キーボード、タッチパネル(例えば、タッチパネルディスプレイのタッチパネル機能)等の入力デバイスを適用することができる。
制御部43は、描画処理部431を有している。制御部43は、例えば、プロセッサ及びメモリを有するコンピュータにプログラム(実施形態に係る描画処理プログラムを含む)をインストールすることにより実現することができる。
描画処理部431は、ゲートウェイ装置10から対応フレーム描画データを受信し、受信した対応フレーム描画データに基づいて対応フレームを、表示部41に描画(レンダリング)する機能を担っている。描画処理部431の具体的構成については限定されないものである。例えば、描画処理部431はWebブラウザ上で動作するWebアプリケーション(ゲートウェイ装置10にWebブラウザでアクセスした際にダウンロードされるWebアプリケーション)として動作するようにしてもよい。
(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態における画像処理システム1の動作を説明する。
次に、以上のような構成を有する第1の実施形態における画像処理システム1の動作を説明する。
図8は、第1の実施形態に係る画像処理システム1の動作を示したシーケンス図である。
ここでは、前提として、表示装置40(制御部43)上で描画処理部431が起動状態であるものとして説明する。上述の通り、描画処理部431は、例えば、Webブラウザ上で動作するWebアプリケーション(例えば、ゲートウェイ装置10の配信処理部104にアクセスした際に配信されるWebアプリケーション)であってもよい。
まず、表示装置40の制御部43(描画処理部431)が、オペレータよりカメラ20−1の対応フレームを表示する旨の操作を受け付けたものとする(S101)。描画処理部431がオペレータから操作を受け付ける構成について限定されないものであるが、例えば、Webブラウザ上にオペレータから操作を受け付けるためのGUI画面を表示して、いずれかのカメラ20の選択を受け付けるようにしてもよい。
次に、表示装置40の制御部43(描画処理部431)は、オペレータから受け付けた操作に従って、ゲートウェイ装置10(配信処理部104)に対して、カメラ20−1の対応フレーム(対応フレーム描画データ)の配信を要求する(S102)。
配信要求を受けると、ゲートウェイ装置10(配信処理部104)は、まず、配信要求を受けたカメラ20−1の背景画像データBGを、表示装置40(描画処理部431)に送信する(S103)。
そして、ゲートウェイ装置10(画像センシング処理部102)は、配信要求受付後の時刻T1に、カメラ20−1からフレームを受信すると(S104)、当該フレームについて画像センシング処理を行う(S105)。
ゲートウェイ装置10(画像センシング処理部102)は、最新に受信したフレームについて画像センシング処理を行った結果(画像センシング情報SI)を、アプリケーションサーバ30に送信する(S106)。
また、ゲートウェイ装置10(描画情報生成部103)は、画像センシング処理部102が行った画像センシング処理の結果(画像センシング情報SI)を利用して、時刻T1のフレームに対応する対応フレーム重畳描画情報SGを生成して(S107)、表示装置40(描画処理部431)に送信する(S108)。
そして、表示装置40(描画処理部431)は、時刻T1のフレームに対応する対応フレーム重畳描画情報SGを受信すると、既に受信した背景画像データBGも用いて対応フレームを表示部41の画面(例えば、ディスプレイの画面上に表示されたWebブラウザの表示領域)に描画する(S109)。具体的には例えば、表示装置40(描画処理部431)は、Webブラウザの表示領域(ウィンドウ)に、背景画像データBGを書き込み、さらにその上に対応フレーム重畳描画情報SGに基づく重畳画像を描画(レンダリング)する処理を行うようにしてもよい。
以後、ゲートウェイ装置10は、カメラ20−1からフレームが供給されるごと上述のステップS105〜S108の処理を繰り返す。また、表示装置40(描画処理部431)は、ゲートウェイ装置10から対応フレーム重畳描画情報SGが供給される度に、その対応フレーム重畳描画情報SGに基づく対応フレームを描画する処理を行うことになる。
次に、ゲートウェイ装置10(描画情報生成部103)が、対応フレーム描画情報(対応フレーム重畳描画情報SG及び背景画像データBG)を取得する処理、及び表示装置40(描画処理部431)が対応フレームを描画する処理の具体例について説明する。
ここでは、カメラ20−1が時刻T1に撮像したフレームが図9に示すような内容であったものとする。図9に示すフレームでは通路に3人の人間H1〜H3が写っている。
また、ここでは、ゲートウェイ装置10の描画情報生成部103において、カメラ20−1に対応する背景画像データBGとして、図10に示すような画像のデータが保持されているものとする。図10に示す背景画像データBGの画像では、図9のフレームと比較して人間が写っていない状態となっている。
さらに、ここでは、画像センシング処理部102が、時刻T1のフレームについて画像センシング処理を行った結果、画像センシング情報SIとして図11に示す内容が得られたものとする。図11では、時刻T1のフレームに対する画像センシング情報SIとして、3人の人間H1〜H3を検出して得られたオブジェクトセンシング情報OSI−1〜OSI−3が図示されている。
図11において、オブジェクトセンシング情報OSI−1〜OSI−3では、いずれもカメラIDが「1」、時刻が「T1」、属性情報が「種類:人間」となっている。また、図11において、オブジェクトセンシング情報OSI−1〜OSI−3のオブジェクトIDは、それぞれ「1」〜「3」となっている。さらに、図11において、オブジェクトセンシング情報OSI−1〜OSI−3の領域情報は、それぞれ「P101、P102、P103、P104」、「P201、P202、P203、P204」、「P301、P302、P303、P304」となっている。さらにまた、図11において、オブジェクトセンシング情報OSI−1〜OSI−3の特徴量情報は、それぞれX1、X2、X3となっている。
ここでは、描画情報生成部103が、時刻T1のフレームに対応する対応フレーム重畳描画情報SGとして図12に示す内容が得られたものとする。図12では、時刻T1のフレームに対する対応フレーム重畳描画情報SGに、オブジェクトセンシング情報OSI−1〜OSI−3のそれぞれに対応するオブジェクト重畳描画情報OSG−1〜OSG−3が図示されている。
描画情報生成部103は、図12に示すように、オブジェクトセンシング情報OSI−1〜OSI−3のヘッダ情報(カメラID、時刻、オブジェクトID)を、いずれもオブジェクトセンシング情報OSI−1〜OSI−3と同じ内容に設定する。また、描画情報生成部103は、図12に示すように、オブジェクトセンシング情報OSI−1〜OSI−3の重畳描画領域情報を、いずれもオブジェクトセンシング情報OSI−1〜OSI−3の領域情報と同じ内容に設定する。
その結果、表示装置40(描画処理部431)が描画する対応フレーム(時刻T1のフレームに対応する対応フレーム)は、図13のような画像となる。
図13に示す対応フレームでは、背景画像(図10に示す背景画像データBGに基づく背景画像)に、図12に示す対応フレーム重畳描画情報SG(オブジェクト重畳描画情報OSG−1〜OSG−3)に基づく重畳画像が重畳表示(レンダリング)された状態となっている。具体的には、図13では、オブジェクト重畳描画情報OSG−1〜OSG−3のそれぞれに対応する重畳画像G101〜G103(3つのオブジェクト枠)が描画された状態となっている。重畳画像G101〜G103の各頂点(オブジェクト枠の各頂点)の位置は、それぞれオブジェクト重畳描画情報OSG−1〜OSG−3の重畳描画領域情報に基づく位置(「P101、P102、P103、P104」、「P201、P202、P203、P204」、「P301、P302、P303、P304」)となっている。
(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
第1の実施形態によれば、以下のような効果を奏することができる。
第1の実施形態の画像処理システム1では、ゲートウェイ装置10は背景画像データBGとセンシング結果に基づく情報(オブジェクト重畳描画情報OSG)だけを表示装置40に送信し、表示装置40(描画処理部431)では受信した背景画像データBGにオブジェクト重畳描画情報OSGに従った画像(対応フレーム)を描画(表示部41の画面上に描画)している。そして、表示装置40(描画処理部431)では、背景画像データBGにオブジェクト重畳描画情報OSGに基づくオブジェクト枠(人間と認識したオブジェクトが映っていた領域を囲う枠)を描画することで、人間(人物)の画像を表示させずに人間(人物)の動向の確認が可能となる。すなわち、第1の実施形態の画像処理システム1では、表示装置40上で、個人情報である人間(人物)の画像を表示しないため、画像新寝具処理の結果(人間(人物)の動き)を表示しつつ、のプライバシを保護することができる。
また、第1の実施形態のゲートウェイ装置10は、リアルタイムにはオブジェクト重畳描画情報OSGだけを表示装置40に送信し、表示装置40側で対応フレームの描画(レンダリング)を実行させるため、動画像のデータそのものを送信する場合より効率の高いデータ転送を実現することができる。
(B)第2の実施形態
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第2の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第2の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
(B−1)第2の実施形態の構成及び動作
第2の実施形態の画像処理システム1の全体構成、ゲートウェイ装置10の機能的構成、及び表示装置40の機能的構成については、第1の実施形態と同様に図1、図2、図7を用いて示すことができる。
第2の実施形態の画像処理システム1の全体構成、ゲートウェイ装置10の機能的構成、及び表示装置40の機能的構成については、第1の実施形態と同様に図1、図2、図7を用いて示すことができる。
以下では、第2の実施形態について、第1の実施形態との差異を中心に説明する。
第1の実施形態では、対応フレームに描画する重畳画像(G101〜G103)を実線の枠線としていたが、第2の実施形態では、図14に示すように、重畳画像(G101〜G103)が人型のアイコン(シンボル;ピクトグラム)の画像(オブジェクトの種類に応じた画像)に置き換わっている点で第1の実施形態と異なっている。
第2の実施形態では、表示装置40(描画処理部431)が予めアイコンの画像データを保持しておくようにしてもよいし、ゲートウェイ装置10(描画情報生成部103)が、対応フレーム描画情報の一部のデータとして設定して、表示装置40(描画処理部431)側に送信するようにしてもよい。
(B−2)第2の実施形態の効果
第2の実施形態によれば、第1の実施形態と比較して以下のような効果を奏することができる。
第2の実施形態によれば、第1の実施形態と比較して以下のような効果を奏することができる。
第2の実施形態の画像処理システム1では、対応フレームにおいて、オブジェクトの種類に応じた画像(例えば、オブジェクトが人間であれば人型のアイコン)を表示する構成となっている。これにより、表示装置40で表示される対応フレームを、視覚的により理解しやすい内容とすることができる。
(C)第3の実施形態
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第3の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第3の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
(C−1)第3の実施形態の構成
第3の実施形態の画像処理システム1の全体構成、ゲートウェイ装置10の機能的構成、及び表示装置40の機能的構成については、第1の実施形態と同様に図1、図2、図7を用いて示すことができる。
第3の実施形態の画像処理システム1の全体構成、ゲートウェイ装置10の機能的構成、及び表示装置40の機能的構成については、第1の実施形態と同様に図1、図2、図7を用いて示すことができる。
以下では、第3の実施形態について、第1の実施形態との差異を中心に説明する。第3の実施形態では、ゲートウェイ装置10を構成する画像センシング処理部102及び描画情報生成部103の処理が異なっている。
具体的には、第3の実施形態では、画像センシング処理部102が行う画像センシング処理の内容が異なっている。第3の実施形態の画像センシング処理部102は、各オブジェクト(オブジェクトセンシング情報OSI)の属性情報として、当該オブジェクトの種類だけでなく、当該オブジェクトのカテゴリ(複数のカテゴリのいずれかに分類した結果)の情報も生成する。
ここで、当該オブジェクトのカテゴリの一例は、次の通りである。
1つ目の例は、当該オブジェクトに関わる人間の年齢(年代)において、所定年齢(所定年台)を上回る(超過)又は下回る(未満)に基づいて、当該オブジェクトのカテゴリを「1」又は「2」とする。
2つ目の例は、当該オブジェクトに関わる人間の性別において、女性又は男性に基づいて、当該オブジェクトのカテゴリを「1」又は「2」とする。
3つ目の例は、当該オブジェクトに関わる人間の心理状態において、困っていない人又は困っている人に基づいて、当該オブジェクトのカテゴリを「1」又は「2」とする。
4つ目の例は、当該オブジェクトに関わる人間の行動状態において、歩いている(静止している人)又は走っている人に基づいて、当該オブジェクトのカテゴリを「1」又は「2」とする。
5つ目の例は、当該オブジェクトに関わる人間の身体状態において、健常者(歩いている、静止している人)又は傷病者(横たわっている人、倒れている人)に基づいて、当該オブジェクトのカテゴリを「1」又は「2」とする。
画像センシング処理部102が各オブジェクトを複数のカテゴリのいずれかに分類する方式については限定されないものである。例えば、画像センシング処理部102は、当該オブジェクトの特徴量情報に応じて複数のカテゴリのいずれかに分類するようにしてもよい。
そして、第3の実施形態では、描画情報生成部103は、各オブジェクトについて生成するオブジェクト重畳描画情報OSGに、重畳描画領域情報が示す領域に描画する重畳画像の内容を指定するための情報(以下、「重畳描画画像情報」と呼ぶ)を追加する点で第1の実施形態と異なっている。
重畳描画画像情報には、例えば、画像の定義情報や画像データそのものが設定される。
重畳描画画像情報には、例えば、重畳描画領域情報が示す領域に、実線のオブジェクト枠を描画することを示す「枠線(実線)」や、重畳描画領域情報が示す領域に点線のオブジェクト枠を描画することを示す「枠線(点線)」を設定するようにしてもよい。重畳描画領域情報に設定する情報の形式は、重畳画像の内容が表示装置50側で認識できる形式であれば具体的な形式は限定されないものである。例えば、重畳描画領域情報として「枠線(実線)」や「枠線(点線)」を示す識別子(例えば、「1」や「2」の数値で示されるID情報)に置き換えてもよい。なお、重畳描画領域情報に適用するオブジェクト枠の描画形式には、青や赤等の色設定を可能とするようにしてもよい。
そして、表示装置40の描画処理部431は、対応フレームを描画する際に、各オブジェクトについて重畳描画領域情報に従った重畳画像を描画する。
(C−2)第3の実施形態の動作
次に、以上のような構成を有する第3の実施形態における画像処理システム1の動作を説明する。
次に、以上のような構成を有する第3の実施形態における画像処理システム1の動作を説明する。
以下では、第3の実施形態の画像処理システム1の動作について、第1の実施形態との差異のみを説明する。
第3の実施形態の画像処理システム1の全体的な動作については、第1の実施形態と同様に、図8のシーケンス図を用いて示すことができる。
次に、第3の実施形態のゲートウェイ装置10(描画情報生成部103)が、対応フレーム描画情報(対応フレーム重畳描画情報SG及び背景画像データBG)を取得する処理、及び表示装置40(描画処理部431)が対応フレームを描画する処理の具体例について説明する。
ここでは、第1の実施形態と同様に、カメラ20−1が時刻T1に撮像したフレームが図9に示すような内容であったものとする。また、ここでは、ゲートウェイ装置10の描画情報生成部103において、カメラ20−1に対応する背景画像データBGとして、図10に示すような画像のデータが保持されているものとする。
さらに、ここでは、画像センシング処理部102が、時刻T1のフレームについて画像センシング処理を行った結果、画像センシング情報SIとして図15に示す内容を得たものとする。
図15に示すオブジェクトセンシング情報OSI−1〜OSI−3では、属性情報に「カテゴリ」の項目が追加されている点で第1の実施形態と異なっている。図15では、オブジェクトセンシング情報OSI−1の属性情報を構成するカテゴリが「1」、オブジェクトセンシング情報OSI−2の属性情報を構成するカテゴリが「2」、オブジェクトセンシング情報OSI−3の属性情報を構成するカテゴリが「1」となっている。
そして、ここでは、描画情報生成部103が、時刻T1のフレームに対応する対応フレーム重畳描画情報SGとして図16に示す内容を得たものとする。図16では、時刻T1のフレームに対する対応フレーム重畳描画情報SGに、オブジェクトセンシング情報OSI−1〜OSI−3のそれぞれに対応するオブジェクト重畳描画情報OSG−1〜OSG−3が図示されている。図16に示すオブジェクト重畳描画情報OSG−1〜OSG−3では、重畳描画画像情報が追加されている点で第1の実施形態と異なっている。描画情報生成部103は、図16に示すように、オブジェクトセンシング情報OSI−1〜OSI−3の重畳描画画像情報に、オブジェクトセンシング情報OSI−1〜OSI−3の属性情報に設定されたカテゴリに応じた内容(ここでは、「枠線(実線)」又は「枠線(点線)」)を設定可能である。ここでは、描画情報生成部103は、各オブジェクトについて、カテゴリが「1」であった場合にオブジェクトセンシング情報OSIの重畳描画画像情報に「枠線(実線)」を設定し、カテゴリが「2」であった場合にオブジェクトセンシング情報OSIの重畳描画画像情報に「枠線(点線)」を設定するものとする。
その結果、第3の実施形態の表示装置40(描画処理部431)が描画する対応フレーム(時刻T1のフレームに対応する対応フレーム)は、図17のような内容となる。
図17に示す対応フレームでは、各オブジェクトの重畳描画画像情報に従い、オブジェクト重畳描画情報OSG−1、OSG−3に対応する重畳画像G101、G103は実線のオブジェクト枠となり、オブジェクト重畳描画情報OSG−2に対応する重畳画像G102は点線のオブジェクト枠となっている。
なお、オブジェクトセンシング情報OSIの重畳描画画像情報には、上記の例以外にも種々の描画内容を設定することが可能である。例えば、オブジェクトセンシング情報OSIの重畳描画画像情報には、第2の実施形態のようにアイコンの画像を描画する情報を設定可能としてもよい。
(C−3)第3の実施形態の効果
第3の実施形態によれば、第1及び第2の実施形態と比較して以下のような効果を奏することができる。
第3の実施形態によれば、第1及び第2の実施形態と比較して以下のような効果を奏することができる。
第3の実施形態の画像処理システム1では、対応フレーム上で、オブジェクトごとに画像センシング処理の結果(例えば、属性情報のカテゴリ)に応じて重畳画像の内容を変化させている。これにより、第3の実施形態の画像処理システム1では、対応フレーム上で、オブジェクト毎の画像センシング処理結果の差異を視覚的に表現することができる。例えば、第3の実施形態の画像処理システム1では、店舗内を監視する際に、対応フレーム上で、顧客と店舗スタッフを視覚的に区別可能とすること等が可能となる。
(D)第4の実施形態
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第4の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
以下、本発明による画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の第4の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム、及び画像処理方法をゲートウェイ装置に適用した例について説明する。
(D−1)第4の実施形態の構成
第4の実施形態の画像処理システム1の全体構成、ゲートウェイ装置10の機能的構成、及び表示装置40の機能的構成については、第3の実施形態と同様に図1、図2、図7を用いて示すことができる。
第4の実施形態の画像処理システム1の全体構成、ゲートウェイ装置10の機能的構成、及び表示装置40の機能的構成については、第3の実施形態と同様に図1、図2、図7を用いて示すことができる。
以下では、第4の実施形態について、第3の実施形態との差異を中心に説明する。
第4の実施形態では、ゲートウェイ装置10を構成する描画情報生成部103の処理が第3の実施形態と異なっている。
そして、第4の実施形態の描画情報生成部103では、オブジェクト重畳描画情報OSGの重畳描画画像情報として、カメラ20から供給されたフレームの一部を抽出した画像(以下、「抽出画像」とも呼ぶ)を重畳画像として設定可能な点で異なっている。具体的には、第4の実施形態の描画情報生成部103では、オブジェクト重畳描画情報OSGの重畳描画画像情報として、対応するオブジェクトが映っている領域の画像(オブジェクトセンシング情報OSIの領域情報が示す領域の画像)を抽出して重畳画像に設定可能となっているものとする。
(D−2)第4の実施形態の動作
次に、以上のような構成を有する第4の実施形態における画像処理システム1の動作を説明する。
次に、以上のような構成を有する第4の実施形態における画像処理システム1の動作を説明する。
以下では、第4の実施形態の画像処理システム1の動作について、第3の実施形態との差異のみを説明する。
第4の実施形態の画像処理システム1の全体的な動作については、第3の実施形態と同様に、図8のシーケンス図を用いて示すことができる。
次に、第4の実施形態のゲートウェイ装置10(描画情報生成部103)が、対応フレーム描画情報(対応フレーム重畳描画情報SG及び背景画像データBG)を取得する処理、及び表示装置40(描画処理部431)が対応フレームを描画する処理の具体例について説明する。
ここでは、第3の実施形態と同様に、カメラ20−1が時刻T1に撮像したフレームが図9に示すような内容であったものとする。また、ここでは、ゲートウェイ装置10の描画情報生成部103において、カメラ20−1に対応する背景画像データBGとして、図10に示すような画像のデータが保持されているものとする。
さらに、ここでは、画像センシング処理部102が、時刻T1のフレームについて画像センシング処理を行った結果、第3の実施形態と同様に、画像センシング情報SIとして図15に示す内容が得られたものとする。
そして、ここでは、描画情報生成部103が、時刻T1のフレームに対応する対応フレーム重畳描画情報SGとして図18に示す内容が得られたものとする。ここでは、描画情報生成部103は、各オブジェクトについて、カテゴリが「1」であった場合オブジェクトセンシング情報OSIの重畳描画画像情報に「枠線(実線)」を設定するものとする。また、ここでは、描画情報生成部103は、各オブジェクトについて、カテゴリが「2」であった場合、オブジェクトセンシング情報OSIの重畳描画画像情報に、カメラ20−1から供給されたフレーム上で当該オブジェクトが映っている領域の画像(オブジェクトセンシング情報OSIの領域情報が示す領域の画像)を抽出し、重畳画像として設定するものとする。
例えば、ここでは図15に示す通り、人間H2に対応するオブジェクトのオブジェクトセンシング情報OSI−2において、属性情報のカテゴリの項目は「2」に設定されている。したがって、描画情報生成部103は、図19に示す通り、カメラ20−1が時間T1に撮像したフレーム上で、当該オブジェクト(人間H2)に対応するオブジェクトセンシング情報OSI−2の領域情報「P201、P202、P203、P204」が示す領域から、画像G102を抽出し、重畳画像として取得する。そして、図18に示す通り、描画情報生成部103は、切り出した画像G102のデータを、オブジェクト重畳描画情報OSG−2を構成する重畳描画画像情報に設定する。
その結果、第4の実施形態の表示装置40(描画処理部431)が描画する対応フレーム(時刻T1のフレームに対応する対応フレーム)は、図20のような内容となる。
図20に示す対応フレームでは、各オブジェクトの重畳描画画像情報に従い、オブジェクト重畳描画情報OSG−1、OSG−3に対応する重畳画像G101は実線のオブジェクト枠となり、オブジェクト重畳描画情報OSG−2に対応する重畳画像G102は元のフレームから抽出した画像(当該オブジェクトに対応する人間H2を撮像した画像)となる。
(D−3)第4の実施形態の効果
第4の実施形態によれば、第3の実施形態と比較して、以下のような効果を奏することができる。
第4の実施形態によれば、第3の実施形態と比較して、以下のような効果を奏することができる。
第4の実施形態の画像処理システム1では、画像センシング処理で特定の結果が得られたオブジェクト(例えば、特定のカテゴリと認識されたオブジェクト)の重畳画像にのみ、元のフレームから抽出した抽出画像を適用している。これにより、第4の実施形態の画像処理システム1では、対応フレーム上で、特定の人間(人物)の画像を表示しつつ、他の人間(特定の人間以外)のプライバシを保護することができるという効果を奏することができる。
(E)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(E−1)上記の各実施形態では、本発明の画像処理装置をゲートウェイ装置に適用する例について示したが、本発明の画像処理装置を適用する装置は画像センシング処理を行う装置であれば、上記の実施形態のゲートウェイ装置に限定されないものである。
(E−2)上記の各実施形態のゲートウェイ装置では、画像センシング処理する対象のオブジェクト(物体)の種類を人間のみであるものとして説明したが、人間以外の種類のオブジェクトを検出して同様の処理を行うようにしてもよい。
1…画像処理システム、10…ゲートウェイ装置、101…フレーム取得部、102…画像センシング処理部、103…描画情報生成部、104…配信処理部、105…データ送信部、20、20−1〜20−3…カメラ、30…アプリケーションサーバ、40…表示装置、41…表示部、42…操作部、43…制御部、50…表示装置、431…描画処理部、NW1…上位側ネットワーク、NW2…ローカルネットワーク。
Claims (9)
- カメラで撮像された撮像フレームを処理する画像処理装置と、前記撮像フレームに対応する対応フレームを表示する表示装置とを備える画像処理システムにおいて、
前記画像処理装置は、
前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行う画像認識手段と、
前記カメラに対応する背景画像を取得する背景画像取得手段と、
前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成する描画情報生成手段と、
前記背景画像と前記重畳画像描画情報を出力する出力手段とを有し、
前記表示装置は、
画像を表示する表示画面を備える表示手段と、
前記表示手段の前記表示画面に前記背景画像を描画させ、さらに前記表示手段の前記表示画面に前記重畳画像描画情報に基づく重畳画像を前記背景画像に重畳して描画させる描画処理手段とを有する
ことを特徴とする画像処理システム。 - 前記重畳画像描画情報には、対応する前記オブジェクトの領域を囲うオブジェクト枠を前記背景画像に重畳して描画するための枠線描画情報が設定可能であることを特徴とする請求項1に記載の画像処理システム。
- 前記重畳画像描画情報には、対応する前記オブジェクトの領域に、前記オブジェクトを表すアイコンの画像を前記背景画像に重畳して描画するためのアイコン描画情報が設定可能であることを特徴とする請求項1に記載の画像処理システム。
- 前記重畳画像描画情報には、対応する前記オブジェクトの領域に、前記撮像フレームで前記オブジェクトが映っている領域を抽出した抽出画像を、前記背景画像に重畳して描画するための抽出画像描画情報が設定可能であることを特徴とする請求項1に記載の画像処理システム。
- 前記描画情報生成手段は、前記オブジェクトに、前記画像認識手段の認識結果に応じた内容の枠線描画情報を生成することを特徴とする請求項1〜4のいずれかに記載の画像処理システム。
- カメラで撮像された撮像フレームを処理する画像処理装置において、
前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行う画像認識手段と、
前記カメラに対応する背景画像を取得する背景画像取得手段と、
前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成する描画情報生成手段と、
前記背景画像と前記重畳画像描画情報を出力する出力手段と
を有することを特徴とする画像処理装置。 - カメラで撮像された撮像フレームを処理する画像処理装置に搭載されたコンピュータを、
前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行う画像認識手段と、
前記カメラに対応する背景画像を取得する背景画像取得手段と、
前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成する描画情報生成手段と、
前記背景画像と前記重畳画像描画情報を出力する出力手段と
して機能させることを特徴とする画像処理プログラム。 - カメラで撮像された撮像フレームを処理する画像処理装置が行う画像処理方法において、
画像認識手段、背景画像取得手段、描画情報生成手段、及び出力手段を有し、
前記画像認識手段は、前記カメラで撮像された前記撮像フレームに映っているオブジェクトの認識処理を行い、
前記背景画像取得手段は、前記カメラに対応する背景画像を取得し、
前記描画情報生成手段は、前記画像認識手段で認識されたそれぞれの前記オブジェクトに対応する画像であって、前記背景画像に重畳する重畳画像を描画するための重畳画像描画情報を生成し、
前記出力手段は、前記背景画像と前記重畳画像描画情報を出力する
ことを特徴とする画像処理方法。 - カメラで撮像された撮像フレームに対応する対応フレームを表示する表示装置において、
画像を表示する表示画面を備える表示手段と、
前記表示手段の前記表示画面に請求項6に記載の画像処理装置が出力した背景画像を描画させ、さらに前記表示手段の前記表示画面に請求項6に記載の画像処理装置が出力した前記重畳画像描画情報に基づく重畳画像を前記背景画像に重畳して描画させる描画処理手段と
を有することを特徴とする表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034531A JP2020141212A (ja) | 2019-02-27 | 2019-02-27 | 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034531A JP2020141212A (ja) | 2019-02-27 | 2019-02-27 | 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020141212A true JP2020141212A (ja) | 2020-09-03 |
Family
ID=72265256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019034531A Pending JP2020141212A (ja) | 2019-02-27 | 2019-02-27 | 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020141212A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114642886A (zh) * | 2020-12-17 | 2022-06-21 | 丰田自动车株式会社 | 移动体 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017093A (ja) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | 監視システム、監視装置及び監視方法 |
WO2015136796A1 (ja) * | 2014-03-10 | 2015-09-17 | ソニー株式会社 | 情報処理装置、記憶媒体、および制御方法 |
JP2015222881A (ja) * | 2014-05-23 | 2015-12-10 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP2016048834A (ja) * | 2014-08-27 | 2016-04-07 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP2017098879A (ja) * | 2015-11-27 | 2017-06-01 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP2017212647A (ja) * | 2016-05-26 | 2017-11-30 | パナソニックIpマネジメント株式会社 | 座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法 |
WO2018088035A1 (ja) * | 2016-11-14 | 2018-05-17 | オムロン株式会社 | 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 |
-
2019
- 2019-02-27 JP JP2019034531A patent/JP2020141212A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017093A (ja) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | 監視システム、監視装置及び監視方法 |
WO2015136796A1 (ja) * | 2014-03-10 | 2015-09-17 | ソニー株式会社 | 情報処理装置、記憶媒体、および制御方法 |
JP2015222881A (ja) * | 2014-05-23 | 2015-12-10 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP2016048834A (ja) * | 2014-08-27 | 2016-04-07 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP2017098879A (ja) * | 2015-11-27 | 2017-06-01 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP2017212647A (ja) * | 2016-05-26 | 2017-11-30 | パナソニックIpマネジメント株式会社 | 座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法 |
WO2018088035A1 (ja) * | 2016-11-14 | 2018-05-17 | オムロン株式会社 | 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114642886A (zh) * | 2020-12-17 | 2022-06-21 | 丰田自动车株式会社 | 移动体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5707562B1 (ja) | モニタリング装置、モニタリングシステムおよびモニタリング方法 | |
US10339383B2 (en) | Method and system for providing augmented reality contents by using user editing image | |
JP5866564B1 (ja) | モニタリング装置、モニタリングシステムおよびモニタリング方法 | |
US10546199B2 (en) | Person counting area setting method, person counting area setting program, moving line analysis system, camera device, and person counting program | |
US10235574B2 (en) | Image-capturing device, recording device, and video output control device | |
JP2019513275A (ja) | 監視方法及び装置 | |
TWI605712B (zh) | 互動式媒體系統 | |
CN102547105A (zh) | 生成并再现运动图像数据的方法及使用该方法的照相设备 | |
JPWO2016152633A1 (ja) | 画像処理システムおよび画像処理方法、並びにプログラム | |
US9891789B2 (en) | System and method of interactive image and video based contextual alarm viewing | |
CN105980975B (zh) | 信息处理设备、信息处理方法及程序 | |
JP6046874B1 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5707561B1 (ja) | モニタリング装置、モニタリングシステムおよびモニタリング方法 | |
JP6289762B1 (ja) | 映像処理装置、映像処理方法、映像処理プログラム、及び映像監視システム | |
JP5460793B2 (ja) | 表示装置、表示方法、テレビジョン受信機及び表示制御装置 | |
JP2020141212A (ja) | 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置 | |
JP7124281B2 (ja) | プログラム、情報処理装置、画像処理システム | |
JP6744237B2 (ja) | 画像処理装置、画像処理システムおよびプログラム | |
JP6485707B2 (ja) | 動線分析システム及び動線分析方法 | |
JP7328849B2 (ja) | 撮像装置、システム、撮像装置の制御方法、プログラム | |
JP5909709B1 (ja) | 動線分析システム、カメラ装置及び動線分析方法 | |
KR102414925B1 (ko) | 제품 간접 광고 표시 장치 및 방법 | |
US20210110165A1 (en) | Information processing apparatus, information processing system, information processing method, and storage medium | |
WO2022168515A1 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
ES2371895B1 (es) | Método de detección de la opción seleccionada en un menú de aplicación multimedia. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |