JP2020170252A - 画像処理装置、情報処理方法及びプログラム - Google Patents

画像処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020170252A
JP2020170252A JP2019069997A JP2019069997A JP2020170252A JP 2020170252 A JP2020170252 A JP 2020170252A JP 2019069997 A JP2019069997 A JP 2019069997A JP 2019069997 A JP2019069997 A JP 2019069997A JP 2020170252 A JP2020170252 A JP 2020170252A
Authority
JP
Japan
Prior art keywords
image
partial
image analysis
priority
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019069997A
Other languages
English (en)
Other versions
JP2020170252A5 (ja
Inventor
康夫 馬塲
Yasuo Baba
康夫 馬塲
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019069997A priority Critical patent/JP2020170252A/ja
Priority to US16/825,429 priority patent/US11521392B2/en
Publication of JP2020170252A publication Critical patent/JP2020170252A/ja
Publication of JP2020170252A5 publication Critical patent/JP2020170252A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Abstract

【課題】より高速な画像解析処理の実現を支援することを目的とする。【解決手段】入力画像に設定された複数の部分領域のそれぞれについて、部分領域と部分領域に対応づけられた対応画像とに基づいて、第1の画像解析処理の優先度を決定し、決定された優先度に応じて定まる一部の部分領域それぞれについて、第1の画像解析処理を実行する。【選択図】図3

Description

本発明は、画像処理装置、情報処理方法及びプログラムに関する。
近年、防犯カメラ等の撮影装置で撮影された画像に対して、人数推定処理、人流推定処理、異常検知処理等の画像解析処理を行う技術が提案されている。このような技術の活用により、公共の空間での混雑の検知、混雑時の人の流れの把握等が可能となり、イベント時の混雑解消や災害時の適切な避難誘導の実現が期待されている。
画像中の人数を推定する方法として、機械学習によって得られた認識モデルを用いて、画像の所定の領域に映る人数を推定する方法が提案されている。特許文献1には、人体検出手段によって検出した人物の数を計数する方法が開示されている。また、特許文献2には、画像からコーナーやエッジ、高周波数帯域の強度等の特徴量を抽出し、抽出した特徴量から画像の混雑度を推定する技術が開示されている。
また、非特許文献1には、対象物体の密度マップを推定する密度マップ推定器を機械学習により学習し、入力画像の密度マップを求め、密度マップの各要素の和を取ることで物体数を推定する技術が開示されている。
また、非特許文献2には、固定サイズの小画像を入力とし、小画像中の人数を出力する回帰器を機械学習により学習し、画像中の各小領域を示す各小画像中の人数を回帰器で求め、その和をとることで人数を推定する技術が開示されている。
また、画像中の人流を推定する方法には、特許文献3がある。特許文献3には、群衆の流速推定結果と、群衆の人数推定結果と、から、群衆の通過数を推定する技術が開示されている。
また、画像中の異常を検知する方法には、特許文献4がある。特許文献4には、時系列画像を複数の時空間セグメントに分割し、時空間セグメントのそれぞれに対して動き特徴量を算出し、時空間セグメントごとに、正常セグメントか異常セグメントの何れかに分類する技術が開示されている。
特開2007−201556号公報 特開2009−181307号公報 特開2018−74299号公報 特開2017−68598号公報
Lempitsky and Zisserman. Learning To Count Objects in Images. Advances in Neural Information Processing Systems (NIPS)、 2010 池田浩雄、 大網亮磨、 宮野博義. CNN を用いた群衆パッチ学習に基づく人数推定の高精度化. FIT2014 第13回情報科学技術フォーラム、2014
深層学習等の機械学習を用いる画像解析処理では、解析処理時間が過大になる場合がある。例えば、画像全体の人数を推定する場合、推定処理の結果を更新するのに数秒から数十秒以上の処理時間がかかる場合がある。また、単体の画像処理装置で、複数の撮影装置からの画像に対して、画像解析処理を行う場合、更に処理時間が増加してしまう。このように画像解析処理にかかる時間が過大となる場合、刻々と変化する状況に追従して画像解析処理を行うことができない場合がある。
そこで、本発明は、より高速な画像解析処理の実現を支援することを目的とする。
本発明の画像処理装置は、入力画像に設定された複数の部分領域のそれぞれについて、前記部分領域と前記部分領域に対応づけられた対応画像とに基づいて、第1の画像解析処理の優先度を決定する決定手段と、前記複数の部分領域のうちの前記決定手段により決定された前記優先度に応じて定まる一部の部分領域それぞれについて、前記第1の画像解析処理を実行する解析手段と、を有する。
本発明によれば、より高速な画像解析処理の実現を支援することができる。
画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の機能構成の一例を示す図である。 画像処理装置の処理の一例を示すフローチャートである。 入力画像の一例を示す図である。 管理情報の一例を示す図である。 入力画像の一例を示す図である。 求められた優先度の一例を示す図である。 管理情報の一例を示す図である。 表示される画像の一例を示す図である。 画像処理装置の処理の一例を示すフローチャートである。 管理情報の一例を示す図である。 求められた優先度の一例を示す図である。 管理情報の一例を示す図である。
以下に、本発明の実施の形態を、図面に基づいて詳細に説明する。
<実施形態1>
図1は、本実施形態の画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、入力された画像に対して画像解析処理を実行する情報処理装置である。本実施形態では、画像処理装置100は、パーソナルコンピュータ(PC)であることとするが、サーバ装置、タブレット装置等の他の情報処理装置であってもよい。
本実施形態では、画像処理装置100は、画像解析処理として、画像中の人数推定処理を実行する。
画像処理装置100は、CPU10と、メモリ11と、ネットワークI/F12と、表示装置13と、入力装置14と、を含む。各要素は、システムバスを介して、相互に通信可能に接続されている。
CPU10は、画像処理装置100の全体の制御を司る中央演算装置である。メモリ11は、CPU10が処理に利用するデータ、プログラム等を記憶する記憶装置である。本実施形態では、メモリ11は、CPU10のワークエリアとして機能するRandom Access Memory(RAM)と、各種プログラム、各種データを記憶するRead Only Memory(ROM)と、を含む。ただし、メモリ11は、更に、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等の補助記憶装置を含むこととしてもよい。また、メモリ11は、着脱可能な半導体メモリ等の着脱可能な補助記憶装置を含むこととしてもよい。メモリ11は、記憶部の一例である。
ネットワークI/F12は、ネットワークを介した外部の装置との間での通信に用いられるインタフェースである。表示装置13は、CPU10による処理の結果等が表示される表示装置である。表示装置13は、ディスプレイ、モニタ、タッチパネル等である。本実施形態では、表示装置13は、液晶型の表示装置であるとするが、有機EL型等の他の表示装置であってもよい。表示装置13は、表示部の一例である。入力装置14は、マウス、ハードボタン等の入力装置である。CPU10は、ユーザによる入力装置14を介した情報の入力を受付ける。
CPU10がメモリ11に記憶されたプログラムにしたがって処理を実行することで、図2で後述する画像処理装置100の各機能、及び、図3で後述するフローチャートの処理が実現される。ただし、他の例として、CPU10が外部の装置からダウンロードしたプログラムにしたがって処理を実行することで、図2で後述する画像処理装置100の各機能、及び、図3で後述するフローチャートの処理が実現されることとしてもよい。
図2は、本実施形態の画像処理装置100の機能構成の一例を示す図である。画像処理装置100は、取得部201、生成部202、決定部203、解析部204、管理部205、表示制御部206を含む。
取得部201は、画像解析処理の対象として入力される画像(以下では、入力画像とする)と、入力画像のタイムスタンプと、を取得する。タイムスタンプとは、対応する入力画像が撮影された時刻を示す情報である。取得部201は、取得した入力画像を生成部202に送信する。
本実施形態では、取得部201が取得する入力画像のサイズは、一定であるとする。また、本実施形態では、取得部201が取得する入力画像内の領域には、複数の領域が予め設定されている。以下では、この複数の領域それぞれを、部分領域とする。本実施形態では、入力画像内の領域に設定されている部分領域の個数を、N個とおく。また、本実施形態では、各部分領域には、1番からN番までの番号が設定されている。
本実施形態では、画像処理装置100は、ネットワークI/F12を介して、外部の撮影装置(例えば、ネットワーク機能を有する防犯カメラ等)と接続されている。以下では、ネットワークI/F12を介して接続された撮影装置を、接続撮影装置とする。
本実施形態では、取得部201は、接続撮影装置から、接続撮影装置により撮影された画像を入力画像として取得する。ただし、他の例として、取得部201は、他の方法で入力画像を取得してもよい。例えば、取得部201は、メモリ11に記憶された画像を、入力画像として取得してもよい。また、例えば、取得部201は、ネットワークI/F12を介して、外部の装置から受信した画像を、入力画像として取得してもよい。
生成部202は、取得部201により取得された入力画像から、入力画像における各部分領域の画像を取得する。そして、生成部202は、取得した各部分領域の画像それぞれを、予め定められた固定のサイズにリサイズすることで、入力画像における各部分領域を示す画像を生成する。以下では、生成部202により生成された入力画像における各部分領域を示す画像を、部分画像とする。
決定部203は、生成部202が生成した各部分画像に対して、画像解析処理の優先度を決定する。画像解析処理の優先度とは、対応する部分画像に対して、どの程度優先して画像解析処理を行うかを示す指標である。
解析部204は、決定部203により付与された優先度に応じた態様で、生成部202により生成された一部の部分画像に対して画像解析処理を行う。
管理部205は、解析部204により得られた画像解析処理の結果の情報、決定部203による優先度の決定に用いられる情報等を含む管理情報を、メモリ11に記憶し、管理する。管理情報は、入力画像に対する画像解析処理の結果の情報が格納される結果情報の一例である。管理情報の詳細については、図5で後述する。
表示制御部206は、取得部201により取得された入力画像と、管理部205により管理される画像解析処理の結果と、を表示装置13に表示する。
図3は、本実施形態の画像処理装置100の処理の一例を示すフローチャートである。
S301において、取得部201は、接続撮影装置から、入力画像と入力画像が撮影された時刻を示すタイムスタンプとを取得する。以下では、S301で取得された入力画像を、I1とおく。また、以下では、S301で取得された入力画像I1のタイムスタンプをT1とおく。
S302において、生成部202は、取得部201が取得した入力画像I1におけるN個の部分領域それぞれの画像を取得する。
図4は、N個の部分領域の一例を示す図である。画像400は、入力画像I1を示す。図4に示される矩形の枠で示される領域それぞれは、部分領域である。本実施形態では、各部分領域の大きさと各部分領域内に映る人体の大きさとの比率が予め定められた範囲に収まるように、N個の部分領域が設定されている。
生成部202は、取得した各部分領域の画像を、固定サイズにリサイズして部分画像を生成する。
S303において、解析部204は、S302で生成された部分画像それぞれに対して画像解析処理(本実施形態では人数推定処理)を行う。解析部204は、特許文献1、特許文献2、非特許文献1、非特許文献2等に開示される既知の手法を用いて、人数推定処理を実行することで、各部分画像内の人数の推定値を取得する。
本実施形態では、画像処理装置100は、予め、写っている人数が既知の画像を学習データとして、人の密度マップを推定する推定器を、サポートベクターマシンや深層学習等の既知の機械学習手法に基づいて学習する。そして、解析部204は、S302で生成された部分画像を、学習した推定器に入力することで、対応する密度マップを取得する。解析部204は、取得した密度マップの各画素の和を取ることで、入力画像I1におけるi番目の部分領域に存在する人の人数の推定値を取得する。
本実施形態では、部分領域ごとに画像解析処理の結果を格納するテーブルである管理情報がメモリ11に、予め記憶されている。
図5は、管理情報の一例を示す図である。管理情報は、インデックス、対応画像、推定人数、タイムスタンプの項目を含む。
インデックスは、部分領域の番号を示す項目である。また、対応画像は、部分領域に対応付けられた画像を示す項目であり、取得部201により取得された入力画像における対応する部分領域の部分画像を示す。また、推定人数は、部分領域に対応付けられた人数推定処理(本実施形態の画像解析処理)の結果を示す項目であり、対応する対応画像に対する人数推定処理の結果を示す。また、タイムスタンプは、対応する対応画像が撮影された時刻を示す項目である。即ち、タイムスタンプは、対応する対応画像の基となった入力画像が撮影された時刻を示す。
管理部205は、部分領域それぞれについて、入力画像I1における部分領域の画像である部分画像と、解析部204による部分画像に対する画像解析処理の結果と、部分画像のタイムスタンプと、を管理情報に登録する。
本実施形態では、管理情報に登録されているi番目の部分領域に対応する対応画像を、siとおく。また、管理情報に登録されているi番目の部分領域に対応する推定人数を、eiとおく。また、管理情報に登録されているi番目の部分領域に対応するタイムスタンプを、tiとおく。
図5に示される管理情報は、本実施形態におけるS303の処理の終了時刻における管理情報の内容を示す。
S304において、取得部201は、改めて、接続撮影装置から、入力画像とこの入力画像のタイムスタンプとを取得する。以下では、S304で取得された入力画像をI2とおく。また、以下では、入力画像I2のタイムスタンプをT2とおく。
S305において、生成部202は、入力画像I2に対して、S302と同様の処理を行うことで、入力画像I2における各部分領域に対応する部分画像を生成する。以下では、S305で生成されたi番目の部分領域に対応する部分画像をs'iとおく。
入力画像I2における各部分領域の様子を図6に示す。画像600は、入力画像I2を示す。図6に示される矩形の枠で示される領域それぞれが、部分領域である。
S306において、決定部203は、S305で入力画像I2から生成された部分画像それぞれに対して、画像解析処理の優先度を決定する。以下では、部分画像s'iに対して決定された画像解析処理の優先度を、piとおく。
部分画像s'iについての画像解析処理の優先度piは、管理情報に登録されている対応画像siと、部分画像s'iと、の差異が大きいほど多くなるように定められた指標である。管理情報に登録されている対応画像siと部分画像s'iとの差異が大きい程、部分画像s'iに対する画像解析処理の結果と、管理情報に登録されている対応画像siに対する画像解析処理の結果と、の相違が大きくなると考えられる。また、対応画像siと部分画像s'iとの差異が小さい程、部分画像s'iに対する画像解析処理の結果と、管理情報に登録されている対応画像siに対する画像解析処理の結果と、は似通っていると考えられる。
そこで、本実施形態では、画像処理装置100は、入力画像I2から生成された部分画像に対して、優先度に応じて定まる一部の部分画像に対して画像解析処理を実行し、他の部分画像に対して画像解析処理を実行しないようにする。そして、画像処理装置100は、画像解析処理を実行しなかった部分画像についての解析結果として、管理情報に登録された推定人数を用いる。
このようにすることで、画像処理装置100は、入力画像I2から生成された全ての部分画像について画像解析処理を実行する場合に比べて、入力画像I2に対するより高速な画像解析処理を実現できることとなる。
S306の処理の詳細を説明する。
本実施形態では、優先度piは、以下の式1で定義される指標である。
i=f(si、s'i)+λg(ti、T2) (式1)
式1で、関数fは、2つの画像を引数として受け取り、引数である2つの画像間の変動量を出力する関数である。本実施形態では、関数fは、2つの画像のそれぞれ対応する各画素の画素値の差分の絶対値の合計を、この2つの画像間の変動量として出力する関数である。即ち、本実施形態では、2つの画像間の変動量は、2つの画像それぞれの対応する各画素の画素値の差分の絶対値の合計である。これにより、決定部203は、部分画像に対応する管理情報に登録された対応画像と、この部分画像と、の画素値の変動が大きいほど、その部分画像の優先度を高く決定できる。更に、決定部203は、照明変動等により部分画像の画素値が全体的に変化する場合にも対応できるよう、各部分画像について画素値を正規化する前処理を事前に行ってから、fを用いて変動量を求めてもよい。
本実施形態では、本実施形態では、2つの画像間の変動量は、2つの画像それぞれの対応する各画素の画素値の差分の絶対値の合計であるとした。
ただし、他の例として、2つの画像間の変動量は、2つの画像それぞれから作成された輝度のヒストグラム間の各ビンの値の差分の絶対値の合計であってもよい。その場合、関数fは、引数となる2つの画像それぞれから作成された輝度のヒストグラム間の各ビンの値の差分の絶対値の合計を出力する関数である。
また、2つの画像間の変動量は、2つの画像間の動きベクトルの長さの和であることとしてもよい。その場合、関数fは、引数となる2つの画像から、2つの画像間の動きベクトルを求めて、求めた動きベクトルの長さの合計を出力する関数である。
式1のλは、二つの項の重み付けを行う予め定められたパラメータである。
式1の関数gは、2つのタイムスタンプを引数にとり、一方のタイムスタンプと、他方のタイムスタンプと、の差分が大きいほど大きい値を出力する関数である。決定部203は、式1におけるg(ti、T2)により、管理情報に登録されているタイムスタンプが示す時刻からの経過時間が大きいタイムスタンプT2に対応する部分画像ほど、優先度を高く決定できる。
本実施形態では、決定部203は、式1を用いて、部分画像siそれぞれの優先度を決定することとした。ただし、他の例として、決定部203は、他の方法で部分画像の優先度を決定してもよい。例えば、決定部203は、g(ti、T2)の値が予め定められた閾値を超える場合、s'iの優先度を、優先度の最大値として設定された値に決定してもよい。これにより、画像処理装置100は、どの部分領域も画像解析処理が実行されずに一定時間が経過した場合、必ず画像解析処理が実行されるようにすることができる。
また、例えば、決定部203は、予め指定された部分領域の部分画像に対しては、一定値を更に加えるように、優先度を決定してもよい。これにより、画像処理装置100は、頻繁に群衆の人数や流れが変化することが分かっている部分領域や、重要な部分領域に対して、画像解析処理が行われる頻度を高くすることができる。
図7に、決定部203により各部分画像について決定された優先度の一例を示す。図7の例では、1番目の部分領域に対応する部分画像s'1、3番目の部分領域に対応する部分画像s'3それぞれについての優先度は、0.1である。また、2番目の部分領域に対応する部分画像s'2についての優先度は、0.5である。また、N番目の部分領域に対応する部分画像s'Nについての優先度は、0.8である。
図7の例では、1番目の部分領域、3番目の部分領域それぞれについては、対応画像と部分画像との変動が他の部分領域に比べて小さいため、部分画像の優先度も他の部分領域に対応する部分画像よりも小さい値となる。
S307において、解析部204は、S306で決定された優先度の中から、値が最大のものから順に予め定められた個数(1以上、N未満の個数)を特定する。解析部204は、特定した優先度それぞれに対応する部分画像に対して、画像解析処理を実行する。
ただし、他の例として、解析部204は、S307で、予め定められた期間の間、対応する優先度が高いものから順に部分画像の画像解析処理を実行し続けることとしてもよい。また、解析部204は、対応する優先度が予め定められた閾値以上である部分画像全てに対して、画像解析処理を実行することとしてもよい。
そして、管理部205は、画像解析処理が行われた各部分画像の解析結果を用いて、メモリ11に記憶された管理情報を更新する。より具体的には、管理部205は、解析部204により画像解析処理が行われた部分画像が示す部分領域に対応する推定人数を、この部分画像に対する画像解析処理の結果に変更する。また、管理部205は、画像解析処理が行われた部分画像が示す部分領域に対応する対応画像を、この部分画像に変更する。また、管理部205は、画像解析処理が行われた部分画像が示す部分領域に対応するタイムスタンプを、この部分画像に対応する入力画像I2のタイムスタンプに変更する。
管理部205による更新後の管理情報の一例を図8に示す。図8の例では、2番目の部分領域、N番目の部分領域等に対応する部分画像には、画像解析処理が実行された。また、1番目の部分領域、3番目の部分領域それぞれに対応する部分画像には、画像解析処理が実行されなかった。図8の管理情報には、2番目の部分領域、N番目の部分領域それぞれに対応する各項目の情報が、図5、7に示す状態から更新されていることが示されている。また、図8の管理情報には、1番目の部分領域、3番目の部分領域それぞれに対応する各項目の情報は、図5、7に示す状態から更新されていないことが示されている。
画像処理装置100は、以上の処理により更新された管理情報に示される各部分領域に対応する推定人数の値を、入力画像I2における各部分領域に対応する画像解析処理の結果として扱う。
S308において、表示制御部206は、取得部201によりS304で取得された入力画像I2と、管理情報が示す各部分領域に対応する推定人数の情報と、を、表示装置13に表示する。
図9(a)に、S308で表示制御部206により表示される画像の一例を示す。表示制御部206は、入力画像I2に重畳して各部分領域を示す枠を表示し、各部分領域の中央に、対応する推定人数を示す数値を表示する。
本実施形態では、更に、表示制御部206は、画像上で混雑する部分領域を視覚的に明らかにするため、各部分領域を、対応する推定人数に応じた色で着色する。また、表示制御部206は、画像の上部のテキスト領域901に、各部分領域に対応する推定人数の合計を表示する。
また、本実施形態では、更に、表示制御部206は、各部分領域に対応する推定人数の表示を、対応する部分画像に実際に画像解析が行われたタイミングに応じた態様で行う。より具体的には、表示制御部206は、最新の入力画像I2に対する画像解析処理によって推定人数が更新された部分領域に対して、その部分領域を、予め定められた態様(例えば、一瞬明滅させる態様、効果902を重畳して表示する態様等)で表示する。これによりユーザは、各部分領域の画像解析結果が更新されたタイミングを把握できる。
画像全体が大きく変動するような場合、優先度が閾値以上となる部分領域が増加する。これにより、S307における解析部204による画像解析処理の実行が、所定の期間何に終わらないことがありえる。そこで、本実施形態では、表示制御部206は、S306で決定された優先度が閾値以上にもかかわらず、S307において画像解析処理が行われなかった部分画像が存在する場合、画像解析処理の結果の信頼度が低下していることを示す情報を表示する。
より具体的には、表示制御部206は、優先度が閾値以上にもかかわらず画像解析処理が行われなかった部分画像に対応する部分領域に、図9(b)に示す記号903を表示装置13に表示する。また、表示制御部206は、優先度が閾値以上にもかかわらず画像解析処理が行われなかった部分画像の数が、所定の閾値(例えば、1、2、5等)以上存在する場合、更に、画像全体の画像解析処理の結果の信頼度が低下していることを示す情報を表示する。本実施形態では、表示制御部206は、テキスト904を表示装置13に表示する。
S309において、表示制御部206は、入力装置14を介して画像解析処理の終了の指示を受け付けたか否かを判定する。表示制御部206は、画像解析処理の終了の指示を受け付けたと判定した場合、図3の処理を終了し、画像解析処理の終了の指示を受け付けていないと判定した場合、処理をS304に進める。
以上、本実施形態では、画像処理装置100は、入力画像I2における各部分領域について、管理情報に登録された対応画像との間での変動に基づいて、画像解析処理の優先度を決定した。そして、画像処理装置100は、優先度に応じて定まる一部の部分画像それぞれに対して、画像解析処理を実行した。
その後、画像処理装置100は、実行した画像解析処理の結果を用いて更新された管理情報を入力画像I2に対する画像解析処理の結果として扱うこととした。これにより、画像処理装置100は、全ての部分画像に対して画像解析処理を実行する場合よりも高速に画像解析処理を実行できる。即ち、画像処理装置100は、優先度に応じて定まる一部の部分画像それぞれに対して、画像解析処理を実行することで、より高速な入力画像I2に対する画像解析処理の実現を支援できる。
<実施形態2>
本実施形態では、画像処理装置100は、2種類の方式の画像解析処理を用いて各部分画像の優先度を決定する。本実施形態では、画像処理装置100が実行する画像解析処理は、実施形態1と同様に画像内の人数推定処理である。
本実施形態の画像処理装置100のハードウェア構成及び機能構成は、実施形態1と同様である。
図10は、本実施形態の画像処理装置100の処理の一例を示すフローチャートである。図10のS301、S302、S304、S305、S309それぞれの処理は、図3と同様である。図10の処理のうち、図3と異なる点を説明する。
S1003において、解析部204は、生成部202によりS302で生成された部分画像の全てに対して、2つの方式で画像解析処理を行う。一方の方式は、実施形態1と同様の方式であり、実施形態1と同様の画像解析器を用いて画像解析処理を行う方式である。以下では、この方式を第1の方式とする。また、以下では、第1の方式で用いられる画像解析器を、第1の解析器とする。第1の方式での画像解析処理は、第1の画像解析処理の一例である。
他方の方式は、実施形態1で用いられた画像解析器よりも処理量が少ない画像解析器を用いて、画像解析処理を行う方式である。以下では、この方式を第2の方式とする。また、以下では、第2の方式で用いられる画像解析器を、第2の解析器とする。第2の方式での画像解析処理は、第2の画像解析処理の一例である。
第2の解析器は、第1の解析器よりも処理量が少なく、第1の解析器よりも高速であるが、解析の精度が低い。
第1の解析器は、例えば、深層学習等の演算量が比較的大きい手法を用いた解析器である。第2の解析器は、例えば、画像中の動体量やエッジ量等の比較的小さい演算量で求められる特徴量から回帰によって人数を推定する解析器である。
本実施形態では、メモリ11に記憶された管理情報は、部分領域ごとに、インデックス、対応画像、第1の解析器による推定人数、第2の解析器による推定人数、タイムスタンプの項目の情報を格納するテーブルである。
インデックス、対応画像、タイムスタンプそれぞれは、図5と同様である。また、第1の解析器による推定人数は、対応する対応画像に対する第1の解析器を用いた人数推定処理の結果を示す。また、第2の解析器による推定人数は、対応する対応画像に対する第2の解析器を用いた人数推定処理の結果を示す。
本実施形態では、実施形態1と同様に、管理情報に登録されているi番目の部分領域に対応する対応画像、タイムスタンプそれぞれを、si、tiとおく。
また、本実施形態では、管理情報に登録されているi番目の部分領域に対応する第1の解析器による推定人数を、eiとおく。また、管理情報に登録されているi番目の部分領域に対応する第2の解析器による推定人数を、εiとおく。
次いで、管理部205は、部分領域それぞれについて、対応する部分画像と、部分画像に対する解析部204による第1の方式での画像解析処理の結果と、第2の方式での画像解析処理の結果と、部分画像のタイムスタンプと、を管理情報に登録する。
図11に示される管理情報は、本実施形態におけるS1003の処理の終了時刻における管理情報の内容を示す。
S1006において、決定部203は、S305で生成されたN個の部分画像それぞれに対して、画像解析を行う優先度を決定する。優先度の値が大きいほど、対応する部分画像の画像解析処理を優先して行うことが望ましいことを意味する。
本実施形態では、決定部203は、i番目の部分領域に対応する部分画像s'iの優先度を、管理情報に登録されたεiと、部分画像s'iに対する第2の方式での画像解析処理の結果と、に基づいて決定する。
即ち、画像処理装置100は、部分画像s'iに対して第2の方式での画像解析処理を行い、個の解析結果と、管理情報に登録されたεiと、に基づいて、部分画像s'iと対応画像siとの間の変動を評価する。
ここで、本実施形態での決定部203による優先度piの決定処理について説明する。決定部203は、S305において生成された部分画像s'iに対して第2の方式で画像解析処理を実行する。以下では、部分画像s'iに対する第2の方式での画像解析処理の結果(推定人数)を、ε'iとおく。
そして、決定部203は、部分画像s'iの優先度piを、以下の式2を用いて求める。
i=h(εi, ε'i)+λg(ti, T2) (式2)
式2の関数hは、2つの第2の方式での画像解析処理の結果を引数にとり、これらの2つの結果から、部分画像s'iと対応画像siとの間の変動の大きさを示し評価値を出力する関数である。本実施形態では、関数hは、以下の式3で示される関数である。
h(εi, ε'i) = |εi−ε'i| (式3)
また、式2の関数gは、式1の関数gと同じ関数である。また、λは、二つの項の重み付けを行う予め定められたパラメータである。
本実施形態では、決定部203は、式2を用いて、部分画像siの優先度を決定することとした。ただし、他の例として、決定部203は、他の方法で部分画像の優先度を決定してもよい。例えば、決定部203は、3変数ei,εiおよびε'iに関する多項式を関数hとして用いて、学習データを用いたフィッティングを行うこととしてもよい。また、決定部203は、式2の右辺に実施形態1で説明した関数fを加えた式を用いて、優先度piを求めてもよい。
図12に、決定部203により各部分画像について決定された優先度の一例を示す。図12の例では、1番目の部分領域に対応する部分画像s'1についての優先度は、0.2である。また、2番目の部分領域に対応する部分画像s'2についての優先度は、1.2である。また、3番目の部分領域に対応する部分画像s'3についての優先度は、0.1である。また、N番目の部分領域に対応する部分画像s'Nについての優先度は、2.8である。図12の例では、部分画像s'1、部分画像s'3それぞれについての優先度が、他の部分画像についての優先度よりも相対的に低い値となっていることが分かる。
S1007において、解析部204は、S1006で決定された優先度の中から、値が最大のものから順に予め定められた個数を特定する。解析部204は、特定した優先度それぞれに対応する部分画像に対して、第1の方式での画像解析処理を実行する。
ただし、他の例として、解析部204は、S1007で、予め定められた期間の間、対応する優先度が高いものから順に部分画像の第1の方式での画像解析処理を実行し続けることとしてもよい。また、解析部204は、対応する優先度が予め定められた閾値以上である部分画像全てに対して、第1の方式での画像解析処理を実行することとしてもよい。
そして、管理部205は、第1の方式での画像解析処理が行われた各部分画像の解析結果を用いて、メモリ11に記憶された管理情報における各部分画像に対応する部分領域の情報を更新する。より具体的には、管理部205は、画像解析処理が行われた部分画像が示す部分領域に対応する第1の解析器による推定人数を、この部分画像に対する第1の方式での画像解析処理の結果に変更する。また、管理部205は、画像解析処理が行われた部分画像が示す部分領域に対応する第2の解析器による推定人数を、この部分画像に対する第2の方式での画像解析処理の結果に変更する。
また、管理部205は、画像解析処理が行われた部分画像が示す部分領域に対応する対応画像を、この部分画像に変更する。また、管理部205は、画像解析処理が行われた部分画像が示す部分領域に対応するタイムスタンプを、この部分画像に対応する入力画像I2のタイムスタンプに変更する。
更新後の管理情報の一例を図13に示す。図13の例では、2番目の部分領域、N番目の部分領域それぞれに対応する部分画像には、第1の方式での画像解析処理が実行された。また、1番目の部分領域、3番目の部分領域それぞれに対応する部分画像には、第1の方式での画像解析処理が実行されなかった。
図13の管理情報には、2番目の部分領域、N番目の部分領域それぞれに対応する各項目の情報が、図11、12に示される状態から更新されていることが示されている。また、13の管理情報には、1番目の部分領域、3番目の部分領域それぞれに対応する各項目の情報は、図11、12に示される状態から更新されていないことが示されている。
画像処理装置100は、以上の処理により更新された管理情報に示される各部分領域に対応する第1の解析器による推定人数の値を、入力画像I2における各部分領域に対応する画像解析処理の結果として扱う。
S1008において、表示制御部206は、取得部201により取得された画像と、管理情報に登録された第1の解析器による推定人数とを、表示装置13に表示する。
<実施形態3>
本実施形態では、画像処理装置100は、複数の撮影装置から取得した複数の画像に対して画像解析処理を行う。
本実施形態の画像処理装置100のハードウェア構成及び機能構成は、実施形態1と同様である。
本実施形態では、接続撮影装置は、M個の撮影装置(以下では、カメラ1〜カメラM)である。即ち、画像処理装置100は、カメラ1〜カメラMそれぞれと接続されている。本実施形態では、S301、S304で取得部201が取得する入力画像は、カメラ1〜カメラMそれぞれから取得したM個の画像である。
本実施形態では、カメラ1〜カメラMそれぞれにより撮影される画像それぞれの中に、予めそれぞれN1〜NM個の部分領域が設定されている。即ち、入力画像内に設定された部分領域の個数Nは、(N1+N2+...+NM)個となる。
生成部202は、S305で、カメラ1〜カメラMそれぞれから取得された画像それぞれから、N1〜NM個の部分領域に対応する部分画像を生成することでN個の生成画像を生成する。
画像処理装置100は、このN個の部分画像について、通しで1からNまでのインデックスを振る。そして、画像処理装置100は、実施形態1、又は実施形態2で説明した方法を用いて、各部分画像に対して優先度を決定し、その優先度に従って画像解析処理を行う。
ある時間帯において、カメラaから取得された画像では人数や人流が素早く変化する一方でカメラbから取得された画像では人数や人流がほとんど変化しないような場合がある。このような場合、本実施形態では、決定部203は、カメラaの画像から生成された部分画像に対して、カメラbの画像から生成された部分画像よりも高い優先度を決定することとしてもよい。これにより、解析部204は、カメラaの画像から生成された部分画像に対して、カメラbの画像から生成された部分画像よりも優先的に画像解析処理を施すことができる。
<その他の実施形態>
実施形態1〜3では、画像処理装置100が実行する画像解析処理は、画像中の人数推定処理であるとした。ただし、他の例として、画像処理装置100が実行する画像解析処理は、部分画像に対して独立に行えるような画像解析処理であれば、他の画像解析処理でよい。例えば、画像処理装置100が実行する画像解析処理は、人流推定処理(人流の向きを推定する処理)や、群衆の異常判定処理(異常なふるまいを判定する処理)等の処理であってもよい。
例えば、画像処理装置100が画像解析処理として、人流の向きを推定する処理を行う場合を考える。このとき、優先度として、メモリ11に保存された人流の解析結果と、これから人流の解析が行われた結果得られる人流解析結果と、の差分が大きくなりそうな部分領域に対応する部分画像ほど高い値を持つように定義することとしてもよい。これにより、画像処理装置100は、現実の人流の変化に素早く追従できる、高速な画像解析処理が可能となる。
また、実施形態で1〜3では、画像解析処理の対象物は、人物であるとした。ただし、他の例として、画像解析処理の対象物は、例えば、自動車等の乗り物や、所定の動物等の人物以外であってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した画像処理装置100の機能構成の一部又は全てをハードウェアとして画像処理装置100に実装してもよい。以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせる等してもよい。
100 画像処理装置
10 CPU

Claims (13)

  1. 入力画像に設定された複数の部分領域のそれぞれについて、前記部分領域と前記部分領域に対応づけられた対応画像とに基づいて、第1の画像解析処理の優先度を決定する決定手段と、
    前記複数の部分領域のうちの前記決定手段により決定された前記優先度に応じて定まる一部の部分領域それぞれについて、前記第1の画像解析処理を実行する解析手段と、
    を有する画像処理装置。
  2. 前記対応画像は、前記入力画像よりも前に前記第1の画像解析処理が実行された画像における前記対応画像に対応する部分領域を示す画像である請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記複数の部分領域のそれぞれについて、前記部分領域に対応する前記対応画像と前記部分領域との変動量に基づいて、前記優先度を決定する請求項1又は2に記載の画像処理装置。
  4. 前記決定手段は、前記複数の部分領域のそれぞれについて、前記部分領域と前記部分領域に対応する前記対応画像との各画素の画素値の差分の絶対値の合計と、前記部分領域から作成された輝度のヒストグラムと前記対応画像から作成された輝度のヒストグラムとの各ビンの差分の絶対値の合計と、前記部分領域と前記対応画像とに基づいて推定された動きベクトルの長さの合計と、のうちの少なくとも1つに基づいて、前記対応画像と前記部分領域との前記変動量を決定し、決定した前記変動量に基づいて、前記優先度を決定する請求項3に記載の画像処理装置。
  5. 前記決定手段は、前記複数の部分領域のそれぞれについて、前記部分領域に対する、前記第1の画像解析処理よりも処理量が少ない第2の画像解析処理の結果と、前記部分領域に対応する前記対応画像に対する前記第2の画像解析処理の結果と、に基づいて、前記優先度を決定する請求項1又は2に記載の画像処理装置。
  6. 前記入力画像は、複数の撮影装置から取得された複数の画像である請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記第1の画像解析処理は、画像中の人数推定処理、画像中の人流の推定処理、画像中の異常の判定処理のうちの少なくとも1つの処理である請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記一部の部分領域それぞれについての前記第1の画像解析処理の結果に基づいて、記憶部に記憶された前記複数の部分領域それぞれについての前記第1の画像解析処理の結果を示す結果情報を更新する更新手段をさらに有する請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記結果情報が示す前記複数の部分領域それぞれについての前記第1の画像解析処理の結果を表示部に表示する表示制御手段を更に有する請求項8に記載の画像処理装置。
  10. 前記表示制御手段は、前記結果情報が示す前記複数の部分領域それぞれについての前記第1の画像解析処理の結果を、前記複数の部分領域それぞれについて前記第1の画像解析処理が実行されたタイミングに応じた態様で、前記表示部に表示する請求項9に記載の画像処理装置。
  11. 前記表示制御手段は、前記複数の部分領域のうちの前記優先度が設定された閾値以上の部分領域であって、前記第1の画像解析処理が実行されなかった部分領域が存在する場合、前記第1の画像解析処理の精度が低下していることを示す情報を、前記表示部に表示する請求項9又は10に記載の画像処理装置。
  12. 画像処理装置が実行する情報処理方法であって、
    入力画像に設定された複数の部分領域のそれぞれについて、前記部分領域と前記部分領域に対応づけられた対応画像とに基づいて、第1の画像解析処理の優先度を決定する決定ステップと、
    前記複数の部分領域のうちの前記決定ステップで決定された前記優先度に応じて定まる一部の部分領域それぞれについて、前記第1の画像解析処理を実行する解析ステップと、
    を含む情報処理方法。
  13. コンピュータを、請求項1乃至11の何れか1項に記載の画像処理装置の各手段として、機能させるためのプログラム。
JP2019069997A 2019-04-01 2019-04-01 画像処理装置、情報処理方法及びプログラム Pending JP2020170252A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019069997A JP2020170252A (ja) 2019-04-01 2019-04-01 画像処理装置、情報処理方法及びプログラム
US16/825,429 US11521392B2 (en) 2019-04-01 2020-03-20 Image processing apparatus and image processing method for image analysis process

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019069997A JP2020170252A (ja) 2019-04-01 2019-04-01 画像処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020170252A true JP2020170252A (ja) 2020-10-15
JP2020170252A5 JP2020170252A5 (ja) 2022-03-15

Family

ID=72603810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019069997A Pending JP2020170252A (ja) 2019-04-01 2019-04-01 画像処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11521392B2 (ja)
JP (1) JP2020170252A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7118934B2 (ja) * 2019-09-04 2022-08-16 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
CN110941999B (zh) * 2019-11-12 2023-02-17 通号通信信息集团有限公司 一种人群计数系统中自适应计算高斯核大小的方法
CN113628142B (zh) * 2021-08-19 2022-03-15 湖南汽车工程职业学院 一种基于相似模拟的图片清晰化处理系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040391A (ja) * 1996-07-19 1998-02-13 Nippon Telegr & Teleph Corp <Ntt> 文字出現フレーム抽出装置および方法
JP2003116139A (ja) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd 映像配信サーバ及び映像受信クライアントシステム
JP2005284652A (ja) * 2004-03-29 2005-10-13 Tama Tlo Kk 動きベクトルを用いた映像監視方法及び装置
JP2012234285A (ja) * 2011-04-28 2012-11-29 Dainippon Printing Co Ltd 画像解析装置、画像解析方法、画像解析プログラム及び記録媒体
JP2018022340A (ja) * 2016-08-03 2018-02-08 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101352029A (zh) * 2005-12-15 2009-01-21 模拟装置公司 用于场景变化检测的随机子采样分区表决算法
JP2007201556A (ja) 2006-01-23 2007-08-09 Fujifilm Corp 混雑情報提供システム及び方法
JP4818285B2 (ja) 2008-01-30 2011-11-16 三菱電機株式会社 混雑滞留検知システム
US8411963B2 (en) * 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
JP5589527B2 (ja) * 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
JP5848662B2 (ja) * 2012-04-04 2016-01-27 キヤノン株式会社 画像処理装置およびその制御方法
US10474921B2 (en) * 2013-06-14 2019-11-12 Qualcomm Incorporated Tracker assisted image capture
JP6271937B2 (ja) * 2013-10-09 2018-01-31 キヤノン株式会社 画像処理方法及び装置、プログラム
JP6336952B2 (ja) 2015-09-30 2018-06-06 セコム株式会社 群衆解析装置
WO2017081540A1 (en) * 2015-11-11 2017-05-18 Scopio Lab Ltd. Scanning microscope with real time response
JP6977730B2 (ja) * 2016-09-13 2021-12-08 日本電気株式会社 人流推定装置、人流推定方法およびプログラム
JP6564756B2 (ja) 2016-10-26 2019-08-21 日本電信電話株式会社 流動状況計測装置、方法、及びプログラム
JP6968645B2 (ja) * 2017-10-02 2021-11-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10614576B2 (en) * 2018-02-05 2020-04-07 Colossio, Inc. Method and device for partition-based image tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040391A (ja) * 1996-07-19 1998-02-13 Nippon Telegr & Teleph Corp <Ntt> 文字出現フレーム抽出装置および方法
JP2003116139A (ja) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd 映像配信サーバ及び映像受信クライアントシステム
JP2005284652A (ja) * 2004-03-29 2005-10-13 Tama Tlo Kk 動きベクトルを用いた映像監視方法及び装置
JP2012234285A (ja) * 2011-04-28 2012-11-29 Dainippon Printing Co Ltd 画像解析装置、画像解析方法、画像解析プログラム及び記録媒体
JP2018022340A (ja) * 2016-08-03 2018-02-08 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中島 慶人 CHIKAHITO NAKAJIMA: "監視ライン上の歩行者を機械学習により実時間で検知する方式 Real-Time Pedestrian Detection on Monitori", 電子情報通信学会技術研究報告 VOL.105 NO.285 IEICE TECHNICAL REPORT, vol. 第105巻, JPN6023012896, 8 September 2005 (2005-09-08), JP, pages 55 - 60, ISSN: 0005026684 *

Also Published As

Publication number Publication date
US20200311440A1 (en) 2020-10-01
US11521392B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
KR102599212B1 (ko) 적응적 실시간 검출 및 검사 네트워크(arden)
US11747898B2 (en) Method and apparatus with gaze estimation
CN111368788B (zh) 图像识别模型的训练方法、装置及电子设备
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JPWO2016114134A1 (ja) 移動状況推定装置、移動状況推定方法およびプログラム
US10289884B2 (en) Image analyzer, image analysis method, computer program product, and image analysis system
JP2020170252A (ja) 画像処理装置、情報処理方法及びプログラム
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
US11017296B2 (en) Classifying time series image data
JP2018022340A (ja) 画像処理装置、情報処理方法及びプログラム
JP2017102865A (ja) 情報処理装置、情報処理方法及びプログラム
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
US20230115987A1 (en) Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus
WO2020149044A1 (ja) パラメータ選定装置、パラメータ選定方法、およびパラメータ選定プログラム
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
Faujdar et al. Human Pose Estimation using Artificial Intelligence with Virtual Gym Tracker
JP2020166315A (ja) 学習データの生成方法、トレーニング方法、予測モデル、コンピュータプログラム
JP2020071717A (ja) 情報処理装置、情報処理方法及びプログラム
JP7315022B2 (ja) 機械学習装置、機械学習方法、及び、機械学習プログラム
JP7239002B2 (ja) 物体数推定装置、制御方法、及びプログラム
JP2020201674A (ja) 映像解析装置及びその制御方法及びプログラム
WO2020054058A1 (ja) 識別システム、パラメータ値更新方法およびプログラム
WO2021156907A1 (ja) 流量情報出力装置、制御方法、及びプログラム
JP6784039B2 (ja) データ推定装置、データ推定方法、及び、データ推定プログラム
US20230401894A1 (en) Behavior estimation device, behavior estimation method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230912