JP2020141213A - 画像処理装置、画像処理プログラム及び画像処理方法 - Google Patents
画像処理装置、画像処理プログラム及び画像処理方法 Download PDFInfo
- Publication number
- JP2020141213A JP2020141213A JP2019034560A JP2019034560A JP2020141213A JP 2020141213 A JP2020141213 A JP 2020141213A JP 2019034560 A JP2019034560 A JP 2019034560A JP 2019034560 A JP2019034560 A JP 2019034560A JP 2020141213 A JP2020141213 A JP 2020141213A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- frame rate
- image sensing
- image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 動画像に対する画像センシング処理を効率的に行うことができる【解決手段】 本発明は、画像処理装置に関する。そして、本発明の画像処理装置は、カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、第1のフレーム列を第2のフレームレートの第2のフレーム列で出力するフレーム取得手段と、第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行う画像認識手段と、画像認識手段の認識処理の状況に応じて、フレーム取得手段に設定する第2のフレームレートを決定し、フレーム取得手段に決定した第2のフレームレートで第2のフレーム列を出力するように制御するフレームレート制御手段とを有することを特徴とする。【選択図】 図1
Description
この発明は、画像処理装置、画像処理プログラム及び画像処理方法に関し、例えば、監視カメラにより撮像された画像に基づく認識処理を行うシステムに適用し得る。
複数のカメラで撮像された動画像について、所定の物体やイベントを検知する処理(以下、「画像センシング処理」と呼ぶ)を行うシステムとして、例えば、非特許文献1の記載技術が存在する。
非特許文献1に記載されたシステムでは、サッカーのコートに複数のカメラを設置し、複数アングルの動画像について画像センシング処理としてスポーツ動画センシングの処理を行い、映像からプレイヤーやボールの動きを検知し、シュートやゴールシーンなどの競技シーンを自動的に抽出することについて記載されている。
「サッカーのシュート映像などを自動抽出するNTTのAI技術 プレイバック映像配信のトライアルを開始」、アイティメディア株式会社、[Online]、INTERNET、[2019年2月11日検索]、URL<http://www.itmedia.co.jp/enterprise/articles/1802/02/news066.html>
しかしながら、動画像に対する画像センシング処理は、画像加工やAI処理等の非常に大きな処理が含まれるため、画像センシング処理を行う装置には高いスペックのコンピュータが求められる。
そのため、動画像に対する画像センシング処理を効率的に行うことができる画像処理装置、画像処理プログラム及び画像処理方法が望まれている。
第1の本発明の画像処理装置は、(1)カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、前記第1のフレーム列を第2のフレームレートの第2のフレーム列で出力するフレーム取得手段と、(2)前記第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行う画像認識手段と、(3)前記画像認識手段の認識処理の状況に応じて、前記フレーム取得手段に設定する前記第2のフレームレートを決定し、前記フレーム取得手段に決定した前記第2のフレームレートで前記第2のフレーム列を出力するように制御するフレームレート制御手段とを有することを特徴とする。
第2の本発明の画像処理プログラムは、コンピュータを、(1)カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、前記第1のフレーム列を第2のフレームレートの第2のフレーム列で出力するフレーム取得手段と、(2)前記第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行う画像認識手段と、(3)前記画像認識手段の認識処理の状況に応じて、前記フレーム取得手段に設定する前記第2のフレームレートを決定し、前記フレーム取得手段に決定した前記第2のフレームレートで前記第2のフレーム列を出力するように制御するフレームレート制御手段として機能させることを特徴とする。
第3の本発明は、画像処理装置が行う画像処理方法において、(1)前記画像処理装置は、フレーム取得手段、画像認識手段、及びフレームレート制御手段を有し、(2)前記フレーム取得手段は、カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、前記第1のフレーム列を第2のフレームレートの第2のフレーム列で出力し、(3)前記画像認識手段は、前記第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行い、(4)前記フレームレート制御手段は、前記画像認識手段の認識処理の状況に応じて、前記フレーム取得手段に設定する前記第2のフレームレートを決定し、前記フレーム取得手段に決定した前記第2のフレームレートで前記第2のフレーム列を出力するように制御することを特徴とする。
本発明によれば、動画像に対する画像センシング処理を効率的に行うことができる。
(A)主たる実施形態
以下、本発明による画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の一実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム及び画像処理方法を、中継装置の1つであるゲートウェイ装置に適用した例について説明する。
以下、本発明による画像処理装置、画像処理プログラム、画像処理方法、及び表示装置の一実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の画像処理装置、画像処理プログラム及び画像処理方法を、中継装置の1つであるゲートウェイ装置に適用した例について説明する。
(A−1)実施形態の構成
図1は、この実施形態の画像処理システム1の全体構成を示すブロック図である。
図1は、この実施形態の画像処理システム1の全体構成を示すブロック図である。
図1に示す画像処理システム1には、ゲートウェイ装置10、3台のカメラ20(20−1〜20−3)、及びアプリケーションサーバ30が配置されている。なお、画像処理システム1を構成する各装置の数は限定されないものである。
ゲートウェイ装置10は、上位側ネットワークNW1を介してアプリケーションサーバ30と通信可能となっている。
ゲートウェイ装置10の配下には、下位側ネットワークNW2(一例は、ローカルネットワーク)を介して、カメラ20−1〜20−3が接続されている。
各カメラ20は、リアルタイムに撮像したフレーム(画像)のデータ(フレーム列(動画像)のデータ)を、接続するゲートウェイ装置10に送信する。各カメラ20を配置する場所は限定されないものである。この実施形態の例では、各カメラ20は、例えば、店舗や、映画館や、美術館等の施設内を撮像(監視)するように配置されているものとする。
ゲートウェイ装置10は、配下のカメラ20(20−1〜20−3)から、撮像されたフレームのデータを取得して、各フレームに写っている物体(以下、単に「オブジェクト」とも呼ぶ)を所定の認識アルゴリズムに基づいて認識する処理(以下、「画像センシング処理」と呼ぶ)を行い、画像センシング処理の結果(以下、「画像センシング情報」と呼ぶ)を出力(アプリケーションサーバ30に送信)する。
アプリケーションサーバ30は、ゲートウェイ装置10から供給される情報(画像センシング情報を含む情報)の処理を行う装置である。アプリケーションサーバ30が行う画像センシング情報を処理の詳細については限定されないものである。アプリケーションサーバ30は、例えば、画像センシング情報に基づいてカメラ20が配置された施設の来客数をカウントする処理等の統計処理を行う。
以下、画像処理システム1を構成する各装置の内部構成について説明する。
図1に示すように、ゲートウェイ装置10は、フレーム取得部11、画像センシング部12、データ送信部13、及びフレームレート制御部14を有している。
フレーム取得部11は、配下のカメラ20(20−1〜20−3)から送信されたフレーム(画像)のデータ(フレーム列(動画像)のデータ)を取得する機能を担っている。
画像センシング部12は、フレーム取得部11が取得したフレーム列(動画像)の各フレームを参照して、写っているオブジェクト(物体)を所定の認識アルゴリズムに基づいて認識する画像センシング処理を行い、画像センシング処理の結果(画像センシング情報)を出力する。画像センシング部12が行う画像センシング処理の方式は限定されないものであり、種々の方式(例えば、既存の画像センシング処理に関するミドルウェアやライブラリ等)を利用するようにしてもよい。画像センシング部12が生成する画像センシング情報には、検出したオブジェクトごとのセンシング結果(以下、「オブジェクトセンシング情報」と呼ぶ)が含まれる。
画像センシング部12が画像センシング処理により検出する対象となるオブジェクトの種類は限定されないものである。この実施形態では、ゲートウェイ装置10は、画像センシング処理により各カメラ20が撮像したフレームから人間(人物)を検出(種類が人間となるオブジェクトを検出)するものとして説明する。
データ送信部13は、画像センシング部12で画像センシング情報が生成される度に、その画像センシング情報を、アプリケーションサーバ30に送信する処理を行う。
ここで、データ送信部13は、画像センシング部12で生成された複数(所定数)の画像センシング情報を、アプリケーションサーバ30に纏めて送信する処理を行ってもよい。
またここで、データ送信部13は、画像センシング部12で所定時間において生成された1又は複数の画像センシング情報を、アプリケーションサーバ30に纏めて送信する処理を行ってもよい。
フレームレート制御部14は、フレーム取得部11が、画像センシング部12にフレーム列を供給する際のフレームレートを制御する処理を行う。フレームレート制御部14の詳細処理については後述する。
ゲートウェイ装置10は、全てハードウェア的に構成(例えば、専用の半導体チップを用いて構成)するようにしてもよいし、一部又は全部をソフトウェア的に構成するようにしてもよい。すなわち、ゲートウェイ装置10は、プロセッサ及びメモリを有するコンピュータにプログラム(実施形態に係る画像処理プログラムを含む)をインストールすることにより実現するようにしてもよい。
次に、図2を用いて、ゲートウェイ装置10のハードウェア構成の例について説明する。
図2は、ゲートウェイ装置10のハードウェア構成の例について示したブロック図である。
図2では、ゲートウェイ装置10を、ソフトウェア(コンピュータ)を用いて構成する際のハードウェア構成の例について示している。図2に示すゲートウェイ装置10は、ハードウェア的な構成要素として、プログラム(実施形態の画像処理プログラムを含む)がインストールされたコンピュータ100を有している。
図2に示すコンピュータ100は、プロセッサ101、一次記憶部102、及び二次記憶部103を有している。一次記憶部102は、プロセッサ101の作業用メモリ(ワークメモリ)として機能する記憶手段であり、例えば、DRAM(Dynamic Random Access Memory)等の高速動作するメモリを適用することができる。二次記憶部103は、OS(Operating System)やプログラムデータ(実施形態に係る画像処理プログラムのデータを含む)等の種々のデータを記録する記憶手段であり、例えば、FLASHメモリやHDD等の不揮発性メモリを適用することができる。この実施形態のコンピュータ100では、プロセッサ101が起動する際、二次記憶部103に記録されたOSやプログラム(実施形態に係る画像処理プログラムを含む)を読み込み、一次記憶部102上に展開して実行する。なお、コンピュータ100の具体的な構成は図2の構成に限定されないものであり、種々の構成を適用することができる。例えば、一次記憶部102が不揮発メモリ(例えば、FLASHメモリ等)であれば、二次記憶部103については除外した構成としてもよい。
次に、ゲートウェイ装置10における画像センシング処理の具体的構成について図3を用いて説明する。
ゲートウェイ装置10において、同時に処理するフレーム列の数は限定されないものであるが、図3では、ゲートウェイ装置10において、3つのカメラ20−1〜20−3で撮像したフレーム列(動画像)に基づく画像センシング処理を行う際の流れを示している。
図3に示すフレーム取得部11内では、カメラ20−1〜20−3のそれぞれのフレーム列に対応するフレーム取得処理部111(111−1〜111−3)が配置された状態について示している。また、図3に示す画像センシング処理部121では、画像センシング処理部121(121−1〜121−3)が配置された状態について示している。各フレーム取得処理部111は、フレーム取得部11内で処理するフレーム列の数に応じて生成されるスレッドやプロセスとしてもよい。また、各画像センシング処理部121についても同様に、画像センシング部12内で処理するフレーム列の数に応じて生成されるスレッドやプロセスとしてもよい。
フレーム取得処理部111−1〜111−3は、それぞれカメラ20−1〜20−3からフレームのデータを取得し、画像センシング処理部121−1〜121−3に供給する。また、画像センシング処理部121−1〜121−3は、それぞれフレーム取得処理部111−1〜111−3から供給されたフレームについて所定のアルゴリズムに基づいて画像センシング処理を行い、画像センシング処理の結果(画像センシング情報)を出力する。
なお、以下では、カメラ20−1、20−2、20−3のフレーム列の処理の流れをそれぞれ「チャンネル」と呼ぶものとする。
また、以下では、各フレーム取得処理部111において、カメラ20側から取得するフレーム列を「取得フレーム列」、各フレーム取得処理部111から後段の画像センシング処理部121に供給されるフレーム列を「画像センシングフレーム列」、取得フレーム列のフレームレートを「取得フレームレート」、画像センシングフレーム列のフレームレートを「画像センシングフレームレート」とそれぞれ呼ぶものとする。
データ送信部13は、各画像センシング処理部121から供給された画像センシング情報(各チャンネルの画像センシング情報)を、アプリケーションサーバ30に送信する処理を行う。
フレームレート制御部14は、各チャンネルの画像センシング処理部121から画像センシング情報の供給を受け、供給された画像センシング情報の内容に応じて、各チャンネルの画像センシングフレームレートを決定する。そして、フレームレート制御部14は、各フレーム取得処理部111に対して、決定した画像センシングフレームレートで、後段の画像センシング処理部121に画像センシングフレーム列を供給するように制御する。また、フレームレート制御部14は、後段の各画像センシング処理部121に対して、決定した画像センシングフレームレートで、前段のフレーム取得処理部111から画像センシングフレーム列を供給されることを通知する。さらに、フレームレート制御部14は、後段の各画像センシング処理部121に対して、決定した画像センシングフレームレートに対応した画像センシング処理を行うことについて通知して制御する。
次に、取得フレーム列(取得フレームレート)と、画像センシングフレーム列(画像センシングフレームレート)との対応関係の例について説明する。
フレームレート制御部14は、各チャンネルについて、例えば、取得フレームレートを上限として画像センシングフレームレートを決定するようにしてもよい。言い換えると、フレームレート制御部14は、各チャンネルのフレーム取得処理部111に対して、「取得フレーム列」又は「取得フレーム列の一部を間引きしたフレーム列」を画像センシングフレーム列として後段の画像センシング処理部121に供給するように制御するようにしてもよい。
図4は、取得フレーム列(取得フレームレート)と、画像センシングフレーム列(画像センシングフレームレート)との対応関係の例について示した説明図である。
図4では、左から右に時系列が進むフレーム列を図示している。図4では、上段から順に取得フレームレートが15fpsの取得フレーム列、画像センシングフレームレートが15fpsの画像センシングフレーム列、画像センシングフレームレートが7.5fpsの画像センシングフレーム列、及び画像センシングフレームレートが5fpsの画像センシングフレーム列を図示している。図4では、各フレーム列のフレームを四角形の図形で図示し、各四角形の内側に当該フレームの時系列(取得フレーム上の時系列)の順序を示す番号を付している。
例えば、取得フレームレートが15fpsであるとすると、フレームレート制御部14は、図4に示すように、各フレーム取得処理部111に対して、取得フレーム列を間引きしない場合のフレームレート(15fps)や、取得フレーム列を1フレームおきに抽出した場合のフレームレート(7.5fps)や、取得フレーム列を2フレームおきに抽出した場合のフレームレート(5fps)等を決定することができる。
なお、画像センシングフレームレートを下げ過ぎると、画像センシング処理部121の処理精度が大きく劣化(例えば、各オブジェクトを検知する精度が劣化)するため、例えば、画像センシングフレームレートは5fps程度を下限とすることが望ましい。そうすると、あるチャンネルの取得フレームレートが15fpsである場合、フレームレート制御部14は、当該チャンネルのフレーム取得処理部111に対して、画像センシングフレームレートとして15fps、7.5fps、5fpsのいずれかを決定することができることになる。
次に、各フレーム取得処理部111による画像センシングフレームレートの決定処理の詳細について説明する。
画像センシング処理には、例えば、画像処理やAI処理等大きな処理量の処理(負荷)が必要となる。画像センシング部12の負荷(同時に処理する処理量)は、例えば、同時に処理する画像センシングフレーム列(同時に動作する画像センシング処理部121)の数や、画像センシングフレームレートによって変化する。
そこで、この実施形態のフレームレート制御部14は、各チャンネルについて画像センシング情報の内容に応じて、画像センシング処理部121による画像センシング処理の精度に大きな影響が出ない範囲で、画像センシングフレームレートを低下させるように制御することが望ましい。
具体的には、この実施形態のフレームレート制御部14は、各チャンネルについて、画像センシング情報を分析して、現状の画像センシング処理の対象となるオブジェクト(以下、「処理対象オブジェクト」と呼ぶ)の数を取得し、取得した処理対象オブジェクト数に応じて、画像センシングフレームレートを決定する。フレームレート制御部14は、例えば、画像センシング情報に含まれるオブジェクトセンシング情報(検出したオブジェクトに関する画像センシング結果)の数をカウントすることにより処理対象オブジェクト数を取得することができる。
図5は、取得フレーム列(画像センシングフレーム列)を構成するフレームの例について示した説明図である。
図5(a)に示すフレームでは3人の人間H1〜H3が写っている状態になっており、図5(b)に示すフレームでは人間が一人も写っていない状態となっている。すなわち、図5(a)のフレームについて画像センシング処理を行った場合、処理対象オブジェクトの数は「3」となり、図5(b)のフレームについて画像センシング処理を行った場合、処理対象オブジェクトの数は、図5(a)処理対象オブジェクトの数より少ない「0」となる。
例えば、フレームレート制御部14では、処理対象オブジェクト数が0となっているチャンネルの画像センシング処理部121では、処理対象オブジェクトの検出が試みられるのみで、実質的に画像センシング処理は行われない状態となる。すなわち、処理対象オブジェクト数が0となるチャンネルがあった場合、当該チャンネルの画像センシング処理部121に供給される画像センシングフレームレートを低下させたとしても、当該チャンネルの画像センシング処理部121の処理精度への影響は低いということになる。
例えば、この実施形態のフレームレート制御部14は、各チャンネルの処理対象オブジェクト数を監視し、処理対象オブジェクト数が0となるチャンネルがあった場合、当該チャンネルで処理対象オブジェクト数が0の状態が継続する期間、当該チャンネルの画像センシング処理部121に供給される画像センシングフレームレートを低下させる処理を行うようにしても良い。
また、例えば、フレームレート制御部14は、処理対象オブジェクト数が0の状態が所定時間(以下、「T1」と表す)の間に連続して継続しているチャンネルがあった場合、当該チャンネルについて画像センシングフレームレートを低下させるように制御してもよい。その後、画像センシング処理部121は、当該チャンネルの処理対象オブジェクト数が1以上となった場合に、当該チャンネルの画像センシングフレームレートを元のフレームレート(取得フレームレート)に戻すようにしてもよい。
さらに、例えば、フレームレート制御部14は、画像センシング処理部121が出力する全ての画像センシング情報について処理対象オブジェクト数を取得して画像センシングフレームレートの決定を行うようにしてもよいが、一定期間ごとに画像センシング処理部121が出力する画像センシング情報を取得して画像センシングフレームレートの決定を行うようにしてもよい。
(A−2)実施形態の動作
次に、以上のような構成を有するこの実施形態のゲートウェイ装置10の動作(実施形態に係る画像処理方法)について説明する。
次に、以上のような構成を有するこの実施形態のゲートウェイ装置10の動作(実施形態に係る画像処理方法)について説明する。
以下では、ゲートウェイ装置10によるフレームレート制御部14の動作を中心に説明する。
図6は、フレームレート制御部14が並行して処理する1又は複数のチャンネルの中で任意のチャンネル(以下、「対象チャンネル」と呼ぶ)について、画像センシングフレームレートを制御する処理について示したフローチャートである。
ゲートウェイ装置10では、対象チャンネルについて画像センシング処理が開始する際、フレーム取得部11において対象チャンネルの処理を行うフレーム取得処理部111が起動(生成)し、さらに画像センシング部12において対象チャンネルの処理を行う画像センシング処理部121が起動(生成)されることになる。
そして、フレームレート制御部14は、対象チャンネルのフレーム取得処理部111が起動(生成)すると、まず当該フレーム取得処理部111に対して画像センシングフレームレートの初期値を設定する(S101)。
さらに、フレームレート制御部14は、対象チャンネルの画像センシング処理部121が起動(生成)すると、まず当該画像センシング処理部121に対して画像センシングフレームレートについて初期の設定を行う(S101)。
ここで、フレームレート制御部14は、フレーム取得処理部111に対し、対象チャンネルの画像センシングフレームレートとして、取得フレームレートと同じフレームレートを設定するものとする。
フレーム取得処理部111は、カメラ20からフレームのデータを取得し、取得したフレームのデータを、設定された画像センシングフレームレートにて、画像センシング処理部121に供給する。
またここで、フレームレート制御部14は、画像センシング処理部121に対して、フレーム取得処理部111に設定された画像センシングフレームレート(初期値)で、前段のフレーム取得処理部111から画像センシングフレーム列を供給されることを通知する。さらに、フレームレート制御部14は、画像センシング処理部121に対して、決定した画像センシングフレームレートに対応した画像センシング処理を行うことについて通知して制御する。
画像センシング処理部121は、フレーム取得処理部111から供給されたフレームのデータ(設定された画像センシングフレームレート)について、設定された画像センシングフレームレートに基づいて画像センシング処理を行い、画像センシング処理の結果(画像センシング情報)を生成する。
そして、対象チャンネルで画像センシング処理が開始し、対象チャンネルの画像センシング処理部121から画像センシング情報が出力されると、フレームレート制御部14は、当該画像センシング情報を取得し(S102)、その画像センシング情報から処理対象オブジェクト数を抽出して取得する(S103)。
対象チャンネルについて最新の処理対象オブジェクト数を取得すると、フレームレート制御部14は、対象チャンネルについて現状の画像センシングフレームレートを変更するか否か(画像センシングフレームレートの低下又は上昇の要否)を判断する(S104)。
ステップS104で対象チャンネルについて画像センシングフレームレートを変更しないと判断された場合、フレームレート制御部14は、上述のステップS102に戻って動作する。
一方、ステップS104で対象チャンネルについて画像センシングフレームレートを変更すると判断された場合、フレームレート制御部14は、対象チャンネルのフレーム取得処理部111に対して画像センシングフレームレートを変更(画像センシングフレームレートの低下又は上昇)するように制御する(S105)。
さらに、フレームレート制御部14は、後段の各画像センシング処理部121に対して、変更となる画像センシングフレームレートで、前段のフレーム取得処理部111から画像センシングフレーム列を供給されることを通知する。さらに、フレームレート制御部14は、後段の各画像センシング処理部121に対して、変更となる画像センシングフレームレートに対応した画像センシング処理を行うことについて通知して制御する(S105)。
ゲートウェイ装置10の動作は、ステップS105から、上述のステップS102に戻って動作する。
次に、上述のステップS104において、フレームレート制御部14が、対象チャンネルについて現状の画像センシングフレームレートを変更するか否か(画像センシングフレームレートの低下又は上昇)を判断する処理の具体例について説明する。
ここでは、フレームレート制御部14は、画像センシングフレームレートとして通常時のフレームレート(以下、「通常フレームレート」と呼ぶ)と、低下時のフレームレート(以下、「低下フレームレート」と呼ぶ)の2段階のいずれかに設定するものとする。なお、フレームレート制御部14が制御する画像センシングフレームレートは3段階以上としてもよい。そして、ここでは、フレームレート制御部14は、初期の画像センシングフレームレートを取得フレームレートと同じフレームレートに設定するものとする。例えば、通常フレームレート(=取得フレームレート)を15fpsとし、低下フレームレートを5fpsとしてもよい。
このとき、フレームレート制御部14は、以下に例示するような種々のパターンで対象チャンネルの画像センシングレートを制御するようにしてもよい。
フレームレート制御部14は、例えば、対象チャンネルについて通常フレームレートで制御している間に、対象チャンネルにおいて、一定期間T1以上の間、処理対象オブジェクト数が0の状態が継続した場合、対象チャンネルの画像センシングフレームレートを通常フレームレートから低下フレームレートに低下させるように制御を行うようにしてもよい。T1に設定する時間は限定されないものであるが、例えば、10分程度の時間を設定するようにしてもよい。
また、フレームレート制御部14は、例えば、対象チャンネルについて低下フレームレートで制御している間に、対象チャンネルにおいて処理対象オブジェクト数が1以上となった場合に、対象チャンネルの画像センシングフレームレートを低下フレームレートから通常フレームレートに上昇させるように制御を行うようにしてもよい。
さらに、フレームレート制御部14は、例えば、対象チャンネルについて低下フレームレートで制御している間に、対象チャンネルにおいて、一定期間T2以上の間、処理対象オブジェクト数が1以上の状態が継続した場合、対象チャンネルの画像センシングフレームレートを低下フレームレートから通常フレームレートに上昇させるように制御を行うようにしてもよい。T2に設定する時間は限定されないものであるが、例えば、1秒程度を設定するようにしてもよい。
(A−3)実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
この実施形態によれば、以下のような効果を奏することができる。
この実施形態のゲートウェイ装置10では、フレームレート制御部14がチャンネルごとに画像センシング結果(画像センシング情報)の収集を行い、例えば、一定期間T1の間継続して対象オブジェクト数が0のチャンネルがあった場合、当該チャンネルの画像センシングフレームレートを低下させることで、画像センシング部12(各画像センシング処理部121)を効率的に動作させることができる。
(B)他の実施形態
本発明は、上記の実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
本発明は、上記の実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(B−1)変形例1
上記の実施形態のフレームレート制御部14では、チャンネルごとの画像センシング処理部121における対象オブジェクト数に基づいて、画像センシングフレームレートを決定しているが、他のパラメータ(画像センシング処理部121の処理状態に関する他のパラメータ)を用いるようにしてもよい。
上記の実施形態のフレームレート制御部14では、チャンネルごとの画像センシング処理部121における対象オブジェクト数に基づいて、画像センシングフレームレートを決定しているが、他のパラメータ(画像センシング処理部121の処理状態に関する他のパラメータ)を用いるようにしてもよい。
変形例1に関わる図は、図7と図8に示される。図7は、実施形態(変形例1)に係る画像処理システム1の全体構成について示したブロック図である。図8は、実施形態(変形例1)に係るゲートウェイ装置10でチャンネルごとのフレームを処理する構成について示したブロック図である。
変形例1に係る画像処理システム1(ゲートウェイ装置10)は、フレームレート制御部14とリソース取得部15以外の部分については、上述の実施形態の画像処理システム1と同一であるで、詳しい説明は省略する。
ここで、リソース取得部15は、上述の実施形態の画像処理システム1に対して、新たに追加された構成である。
またここで、フレームレート制御部14は、上述の実施形態の画像処理システム1と同様の構成と、後述される追加の構成とを有する。
図7及び図8を用いて、変形例1について説明する。
例えば、リソース取得部15では、各画像センシング処理部121によるリソース(例えば、コンピュータ100上のリソース)の利用状況を取得する。フレームレート制御部14では、リソース取得部15から、各画像センシング処理部121によるリソースの利用状況を取得し、取得された当該リソースの利用状況に基づいて、画像センシングフレームレートを決定するようにしてもよい。
具体的には、例えば、各チャンネルの画像センシング処理部121によるCPU利用率や処理遅延時間(例えば、1つのフレームについて画像センシング処理を行う際の処理時間)やメモリ使用量等に基づいて、各チャンネルの画像センシングフレームレートを決定するようにしてもよい。
例えば、あるチャンネルの画像センシング処理部121におけるリソース使用量(例えば、CPU利用率やメモリ使用量や処理遅延時間等)が閾値以上となった場合、当該チャンネルの画像センシングフレームレートを低下させて、当該画像センシング処理部121の負荷を軽減するようにしてもよい。これにより、ゲートウェイ装置10(コンピュータ100)全体や、画像センシング部12(画像センシング処理部121−1〜121−3)の処理の機能停止や暴走を防ぐことが可能となる。
(B−2)変形例2
上記の実施形態では、ゲートウェイ装置は、1つのコンピュータで構成される例について説明したが、複数のコンピュータを用いて構成するようにしてもよい。例えば、フレーム取得部11と画像センシング部12とを別個のコンピュータを用いて構成するようにしてもよい。このような構成の場合、フレーム取得処理部111から画像センシング処理部121への画像センシングフレームレートが効率的なフレームレートに調整されるので、ネットワークの利用効率化を図ることができる。
上記の実施形態では、ゲートウェイ装置は、1つのコンピュータで構成される例について説明したが、複数のコンピュータを用いて構成するようにしてもよい。例えば、フレーム取得部11と画像センシング部12とを別個のコンピュータを用いて構成するようにしてもよい。このような構成の場合、フレーム取得処理部111から画像センシング処理部121への画像センシングフレームレートが効率的なフレームレートに調整されるので、ネットワークの利用効率化を図ることができる。
(B−3)変形例3
上記の実施形態のゲートウェイ装置10では、フレーム取得部11とは別個にフレームレート制御部14を設ける構成について示したが、フレームレート制御部14の具体的な実装構成は上記の実施形態の例に限定されないものである。例えば、フレームレート制御部14の各チャンネルの画像センシングフレームレートの制御機能を各チャンネルのフレーム取得処理部111に分けて搭載するようにしてもよい。
上記の実施形態のゲートウェイ装置10では、フレーム取得部11とは別個にフレームレート制御部14を設ける構成について示したが、フレームレート制御部14の具体的な実装構成は上記の実施形態の例に限定されないものである。例えば、フレームレート制御部14の各チャンネルの画像センシングフレームレートの制御機能を各チャンネルのフレーム取得処理部111に分けて搭載するようにしてもよい。
1…画像処理システム、10…ゲートウェイ装置、11…フレーム取得部、111、111−1〜111−3…フレーム取得処理部、12…画像センシング処理部、121、121−1〜121−3…画像センシング処理部、13…データ送信部、20、20−1〜20−3…カメラ、30…アプリケーションサーバ、NW1…上位側ネットワーク、NW2…ローカルネットワーク。
Claims (7)
- カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、前記第1のフレーム列を第2のフレームレートの第2のフレーム列で出力するフレーム取得手段と、
前記第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行う画像認識手段と、
前記画像認識手段の認識処理の状況に応じて、前記フレーム取得手段に設定する前記第2のフレームレートを決定し、前記フレーム取得手段に決定した前記第2のフレームレートで前記第2のフレーム列を出力するように制御するフレームレート制御手段と
を有することを特徴とする画像処理装置。 - 前記フレームレート制御手段は、前記画像認識手段による画像認識処理で検出している検出オブジェクト数に応じて、前記第2のフレームレートを決定することを特徴とする請求項1に記載の画像処理装置。
- 前記フレームレート制御手段は、前記画像認識手段による画像認識処理で検出している検出オブジェクト数が0の間、前記フレーム取得手段に設定する前記第2のフレームレートを低下させることを特徴とする請求項2に記載の画像処理装置。
- 前記フレームレート制御手段は、前記画像認識手段のリソース利用状況に応じて、前記第2のフレームレートを決定することを特徴とする請求項1に記載の画像処理装置。
- 前記フレームレート制御手段は、前記画像認識手段のリソース利用が閾値以上の場合、前記フレーム取得手段に設定する前記第2のフレームレートを低下させることを特徴とする請求項4に記載の画像処理装置。
- コンピュータを、
カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、前記第1のフレーム列を第2のフレームレートの第2のフレーム列で出力するフレーム取得手段と、
前記第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行う画像認識手段と、
前記画像認識手段の認識処理の状況に応じて、前記フレーム取得手段に設定する前記第2のフレームレートを決定し、前記フレーム取得手段に決定した前記第2のフレームレートで前記第2のフレーム列を出力するように制御するフレームレート制御手段と
して機能させることを特徴とする画像処理プログラム。 - 画像処理装置が行う画像処理方法において、
前記画像処理装置は、フレーム取得手段、画像認識手段、及びフレームレート制御手段を有し、
前記フレーム取得手段は、カメラで撮像された第1のフレーム列を第1のフレームレートで取得し、前記第1のフレーム列を第2のフレームレートの第2のフレーム列で出力し、
前記画像認識手段は、前記第2のフレーム列のフレームごとに映っているオブジェクトの認識処理を行い、
前記フレームレート制御手段は、前記画像認識手段の認識処理の状況に応じて、前記フレーム取得手段に設定する前記第2のフレームレートを決定し、前記フレーム取得手段に決定した前記第2のフレームレートで前記第2のフレーム列を出力するように制御する
ことを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034560A JP2020141213A (ja) | 2019-02-27 | 2019-02-27 | 画像処理装置、画像処理プログラム及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034560A JP2020141213A (ja) | 2019-02-27 | 2019-02-27 | 画像処理装置、画像処理プログラム及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020141213A true JP2020141213A (ja) | 2020-09-03 |
Family
ID=72265257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019034560A Pending JP2020141213A (ja) | 2019-02-27 | 2019-02-27 | 画像処理装置、画像処理プログラム及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020141213A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05122681A (ja) * | 1991-10-28 | 1993-05-18 | Hitachi Ltd | 圧縮動画データ伸長再生システム |
JP2007172035A (ja) * | 2005-12-19 | 2007-07-05 | Fujitsu Ten Ltd | 車載画像認識装置、車載撮像装置、車載撮像制御装置、警告処理装置、画像認識方法、撮像方法および撮像制御方法 |
KR20090047178A (ko) * | 2007-11-07 | 2009-05-12 | 삼성디지털이미징 주식회사 | 디지털 영상 처리 장치에서 얼굴인식 처리속도 조정 장치및 방법 |
-
2019
- 2019-02-27 JP JP2019034560A patent/JP2020141213A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05122681A (ja) * | 1991-10-28 | 1993-05-18 | Hitachi Ltd | 圧縮動画データ伸長再生システム |
JP2007172035A (ja) * | 2005-12-19 | 2007-07-05 | Fujitsu Ten Ltd | 車載画像認識装置、車載撮像装置、車載撮像制御装置、警告処理装置、画像認識方法、撮像方法および撮像制御方法 |
KR20090047178A (ko) * | 2007-11-07 | 2009-05-12 | 삼성디지털이미징 주식회사 | 디지털 영상 처리 장치에서 얼굴인식 처리속도 조정 장치및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11381739B2 (en) | Panoramic virtual reality framework providing a dynamic user experience | |
US10021381B2 (en) | Camera pose estimation | |
US8781179B2 (en) | System and method to assign a digital image to a face cluster | |
US8922707B2 (en) | Systems and methods for luminance-based scene-change detection for continuous autofocus | |
JP2008271268A (ja) | 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム | |
TWI681666B (zh) | 用於基於編碼器提示以演現及預編碼負載估計的系統及方法 | |
CN110996153B (zh) | 基于场景识别的音画品质增强方法、系统和显示器 | |
US20120300081A1 (en) | Surveillance system | |
US8681239B2 (en) | Image capturing device, image capturing method, program, and integrated circuit | |
US20120308205A1 (en) | Method and mobile terminal for previewing and retrieving video | |
CN101267522A (zh) | 信息处理装置、成像装置、图像显示控制方法和计算机程序 | |
US11282169B2 (en) | Method and apparatus for processing and distributing live virtual reality content | |
JP6354229B2 (ja) | 抽出プログラム、方法、及び装置 | |
CN103999448A (zh) | 用于校正视频帧的旋转的方法和设备 | |
TWI584227B (zh) | 影像處理方法、影像處理裝置及影像處理系統 | |
US11514704B2 (en) | Method and apparatus of game status determination | |
JP2020141213A (ja) | 画像処理装置、画像処理プログラム及び画像処理方法 | |
US20220230331A1 (en) | Method and electronic device for determining motion saliency and video playback style in video | |
TW201319956A (zh) | 人臉影像辨識方法及裝置 | |
CN107667522A (zh) | 调整活动图像的长度 | |
CN105631419B (zh) | 人脸识别方法及装置 | |
JP2008141699A (ja) | 監視システム、監視方法、及びプログラム | |
CN111988563A (zh) | 多场景视频监测方法及装置 | |
US20160142791A1 (en) | Video bandwidth adapting device and adapting method | |
JP5033412B2 (ja) | 監視システム、監視方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |