JP7218804B2 - 処理装置、処理方法及びプログラム - Google Patents

処理装置、処理方法及びプログラム Download PDF

Info

Publication number
JP7218804B2
JP7218804B2 JP2021525513A JP2021525513A JP7218804B2 JP 7218804 B2 JP7218804 B2 JP 7218804B2 JP 2021525513 A JP2021525513 A JP 2021525513A JP 2021525513 A JP2021525513 A JP 2021525513A JP 7218804 B2 JP7218804 B2 JP 7218804B2
Authority
JP
Japan
Prior art keywords
image
person
images
indicated
dimensional feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021525513A
Other languages
English (en)
Other versions
JPWO2020250388A1 (ja
Inventor
健全 劉
俊男 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020250388A1 publication Critical patent/JPWO2020250388A1/ja
Application granted granted Critical
Publication of JP7218804B2 publication Critical patent/JP7218804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Description

本発明は、処理装置、処理方法及びプログラムに関する。
特許文献1は、トレーニング画像と事業店舗位置を識別する情報とで機械学習を行う技術を開示している。そして、特許文献1は、パノラマ画像、視野が180°より大きい画像等をトレーニング画像にできることを開示している。
非特許文献1は、3D-CNN(convolutional neural network)に基づき動画像が示す人物行動を推定する技術を開示している。
特表2018-524678号
Kensho Hara、他2名、" Can Spatiotemporal 3D CNNs Retrace the History of 2D CNNs and ImageNet?"、[online]、Proceedings of the IEEE conference on Computer Vision and Pattern Recognition (pp. 6546-6555)、[令和1年5月28日検索]、インターネット<URL: http://openaccess.thecvf.com/content_cvpr_2018/papers/Hara_Can_Spatiotemporal_3D_CVPR_2018_paper.pdf>
従来の人物行動を推定する技術では、画像内の複数の人物各々の行動を同時に高精度に推定することができなかった。本発明は、画像内の複数の人物各々の行動を同時に高精度に推定することを目的とする。
本発明によれば、
時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する第1の生成手段と、
複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成する第2の生成手段と、
前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する推定手段と、
を有する処理装置が提供される。
また、本発明によれば、
コンピュータが、
時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成し、
複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成し、
前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する処理方法が提供される。
また、本発明によれば、
コンピュータを、
時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する第1の生成手段、
複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成する第2の生成手段、
前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する推定手段、
として機能させるプログラムが提供される。
本発明によれば、画像内の複数の人物各々の行動を同時に高精度に推定することができる。
上述した目的、および、その他の目的、特徴および利点は、以下に述べる好適な実施の形態、および、それに付随する以下の図面によって、さらに明らかになる。
パノラマ展開の手法を説明する図である。 本実施形態のシステムの全体像を説明するための図である。 本実施形態の画像処理装置及び処理装置のハードウエア構成の一例を示す図である。 本実施形態の画像処理装置の機能ブロック図の一例である。 本実施形態の画像処理装置の処理を説明するための図である。 本実施形態の画像処理装置の処理を説明するための図である。 本実施形態の画像処理装置の処理を説明するための図である。 本実施形態の画像処理装置の処理を説明するための図である。 本実施形態の画像処理装置の処理を説明するための図である。 本実施形態の画像処理装置の処理を説明するための図である。 本実施形態の画像処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の画像処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の画像処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の画像処理装置の機能ブロック図の一例である。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の実施例を説明するための図である。
<システムの全体像及び概要>
まず、図2を用いて、本実施形態のシステムの全体像及び概要を説明する。本実施形態のシステムは、画像処理装置10と、処理装置20とを有する。
画像処理装置10は、入力された魚眼画像をパノラマ展開し、パノラマ画像を生成する。画像処理装置10は、図1を用いて説明した手法で魚眼画像をパノラマ展開するが、魚眼画像のイメージサークル内画像の中心を一律に基準点(x、y)に設定するのでなく、基準点(x、y)を適切に設定する手段を備える。その詳細は後述する。このような画像処理装置10が生成するパノラマ画像は、起立した人物の身体が伸びる方向がばらつく不都合が軽減されている。
処理装置20は、入力された複数のパノラマ画像(動画像)が示す人物行動を推定する。処理装置20は、3D-CNNに基づき、時系列な複数の2次元の画像(パノラマ画像)から、画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成するとともに、複数の画像各々において人物が存在する位置を示す人物位置情報を生成する。そして、処理装置20は、人物位置情報で示される人物が存在する位置における3次元特徴情報が示す特徴の時間変化に基づき、複数の画像が示す人物行動を推定する。このような処理装置20によれば、3次元特徴情報の中の人物に関係する情報のみを用いて人物行動の推定を行うことができるので、推定精度が向上する。
<ハードウエア構成>
以下、本実施形態のシステムの構成を詳細に説明する。まず、画像処理装置10及び処理装置20のハードウエア構成の一例を説明する。画像処理装置10及び処理装置20各々が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
図3は、画像処理装置10及び処理装置20各々のハードウエア構成を例示するブロック図である。図3に示すように、画像処理装置10及び処理装置20各々は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。画像処理装置10及び処理装置20各々は周辺回路4Aを有さなくてもよい。なお、画像処理装置10及び処理装置20各々は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び/又は論理的に一体となった1つの装置で構成されてもよい。画像処理装置10及び処理装置20各々が物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサー、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
<画像処理装置10の機能構成>
次に、画像処理装置10の機能構成を詳細に説明する。図4に、画像処理装置10の機能ブロック図の一例を示す。図示するように、画像処理装置10は、画像取得部11と、検出部12と、重力方向特定部13と、基準点決定部14と、記憶部15と、補完円形画像生成部16と、展開部17とを有する。
画像取得部11は、魚眼画像を取得する。本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読み出すこと等を含んでもよい。また、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、配信(または、送信、プッシュ通知等)されるデータを受信すること等を含んでもよい。また、「取得」とは、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを生成し、当該新たなデータを取得すること」を含んでもよい。
検出部12は、魚眼画像のイメージサークル内画像の中から、複数の人物各々の身体の所定の複数点を検出する。そして、重力方向特定部13は、検出部12が検出した所定の複数点に基づき、複数の人物各々の位置における重力方向(鉛直方向)を特定する。
例えば、検出部12は、起立した人物を正面から撮影して生成した画像内で互いを結ぶ線が重力方向と平行になる身体の複数点(2点)を検出してもよい。このような2点の組み合わせとしては、(両肩の真ん中、腰の真ん中)、(頭の先、腰の真ん中)、(頭の先、両肩の真ん中)等が例示されるが、これらに限定されない。この例の場合、重力方向特定部13は、各人物に対応して検出された2点のうちの所定の1点から他方の点に向かう方向を、重力方向として特定する。
他の例として、検出部12は、起立した人物を正面から撮影して生成した画像内で互いを結ぶ線が重力方向と垂直になる身体の複数点(2点)を検出してもよい。このような2点の組み合わせとしては、(右肩、左肩)、(右腰、左腰)等が例示されるが、これらに限定されない。この例の場合、重力方向特定部13は、各人物に対応して検出された2点の中点を通り、かつ、2点を結ぶ線と垂直な線が延伸する方向を、重力方向として特定する。
なお、検出部12は、あらゆる画像解析の技術を利用して、上述した身体の複数点を検出することができる。検出部12は、「標準レンズ(例えば画角40°前後~60°前後)カメラで生成された画像に存在する人物各々の身体の所定の複数点を検出するアルゴリズム」と同じアルゴリズムで魚眼画像を解析することで、複数の人物各々の身体の所定の複数点を検出することができる。
しかし、魚眼画像内では、起立した人物の身体が伸びる方向がばらつき得る。そこで、検出部12は、魚眼画像を回転させながら画像の解析を行ってもよい。すなわち、検出部12は、魚眼画像のイメージサークル内画像を回転させ、回転した後のイメージサークル内画像を解析して人物の身体の所定の複数点を検出する処理を、複数の回転角度に対して行ってもよい。
図5乃至図8を用いて、当該処理の概要を説明する。図5の例では、魚眼画像Fのイメージサークル内画像C1内に5人の人物M1乃至M5が存在する。5人の人物M1乃至M5はいずれも起立しているが、身体が伸びる方向はばらついている。
検出部12は、まず図5に示す回転状態で画像を解析し、各人物の両肩の真ん中P1と腰の真ん中P2を検出する処理を行う。この場合、検出部12は、身体が伸びる方向が図の上下方向に近い人物M1及びM2の点P1及びP2を検出できたが、その他の人物の点P1及びP2は検出できていない。
次に、検出部12は、魚眼画像Fを90°回転させる。すると、図6の状態となる。検出部12は、この回転状態で画像を解析し、各人物の両肩の真ん中P1と腰の真ん中P2を検出する処理を行う。この場合、検出部12は、身体が伸びる方向が図の上下方向に近い人物M5の点P1及びP2を検出できたが、その他の人物の点P1及びP2は検出できていない。
次に、検出部12は、魚眼画像Fを90°回転させる。すると、図7の状態となる。検出部12は、この回転状態で画像を解析し、各人物の両肩の真ん中P1と腰の真ん中P2を検出する処理を行う。この場合、検出部12は、身体が伸びる方向が図の上下方向に近い人物M4の点P1及びP2を検出できたが、その他の人物の点P1及びP2は検出できていない。
次に、検出部12は、魚眼画像Fを90°回転させる。すると、図8の状態となる。検出部12は、この回転状態で画像を解析し、各人物の両肩の真ん中P1と腰の真ん中P2を検出する処理を行う。この場合、検出部12は、身体が伸びる方向が図の上下方向に近い人物M3の点P1及びP2を検出できたが、その他の人物の点P1及びP2は検出できていない。
このように、検出部12は、魚眼画像を回転させながら画像を解析することで、身体が伸びる方向がばらついている複数の人物各々の身体の所定の複数点を検出することができる。なお、上記例では90°づつ回転したが、あくまで一例でありこれに限定されない。
図4に戻り、基準点決定部14は、魚眼画像内の複数の人物各々の位置における重力方向に基づき、基準点(x、y)を決定する。そして、基準点決定部14は、決定した基準点(x、y)を記憶部15に記憶させる。
基準点決定部14は、複数の人物各々の位置を通り、かつ、複数の人物各々の位置における重力方向に延伸した直線が1点で交わる場合、交わる点を基準点(x、y)とする。
一方、複数の人物各々の位置を通り、かつ、複数の人物各々の位置における重力方向に延伸した直線が1点で交わらない場合、基準点決定部14は、複数の直線各々からの距離が所定条件を満たす点を基準点(x、y)とする。
検出部12が、起立した人物を正面から撮影して生成した画像内で互いを結ぶ線が重力方向と平行になる身体の複数点(2点)を検出する場合、「複数の人物各々の位置を通り、かつ、複数の人物各々の位置における重力方向に延伸した直線」は、検出部12が検出した2点を結ぶ線であってもよい。
そして、検出部12は、起立した人物を正面から撮影して生成した画像内で互いを結ぶ線が重力方向と垂直になる身体の複数点(2点)を検出する場合、「複数の人物各々の位置を通り、かつ、複数の人物各々の位置における重力方向に延伸した直線」は、検出部12が検出した2点の中点を通り、かつ、2点を結ぶ線と垂直な線であってもよい。
図9は、基準点決定部14による処理の概念を示す。図示する例では、検出部12は、起立した人物を正面から撮影して生成した画像内で互いを結ぶ線が重力方向と平行になる身体の複数点P1及びP2を検出している。そして、「複数の人物各々の位置を通り、かつ、複数の人物各々の位置における重力方向に延伸した直線L1乃至L5」は、検出部12が検出した点P1及びP2を結ぶ線である。図示する例の場合、複数の直線L1乃至L5は1点で交わらない。このため、検出部12は、複数の直線L1乃至L5各々からの距離が所定条件を満たす点を基準点(x、y)とする。所定条件は、例えば「複数の直線各々との距離の和が最小」であるが、これに限定されない。
例えば、検出部12は、以下の式(1)乃至(3)に基づき、所定条件を満たす点を算出することができる。
Figure 0007218804000001
Figure 0007218804000002
Figure 0007218804000003
まず、式(1)により、直線L1乃至L5各々を示す。kは各直線の傾きで、cは各直線の切片である。式(2)及び式(3)により、直線L1乃至L5各々との距離の和が最小となる点を基準点(x、y)として算出することができる。
図4に戻り、補完円形画像生成部16は、基準点(x、y)が魚眼画像のイメージサークル内画像の中心と異なる場合、補完円形画像を生成する。補完円形画像は、イメージサークル内画像に補完画像を加えた円形の画像であって、基準点(x、y)が中心となる画像である。なお、補完円形画像は、基準点(x、y)からイメージサークル内画像の外周上の点までの距離の最大値が半径となり、イメージサークル内画像が内接してもよい。イメージサークル内画像に加える補完画像は、単色(例:黒)の画像であってもよいし、任意のパターン画像であってもよいし、その他であってもよい。
図10に、補完円形画像生成部16が生成した補完円形画像C2の一例を示す。魚眼画像Fのイメージサークル内画像C1に黒単色の補完画像を加えて、補完円形画像C2が生成されている。補完円形画像C2は、基準点(x、y)が中心である。そして、補完円形画像C2の半径rは、基準点(x、y)からイメージサークル内画像C1の外周上の点までの距離の最大値である。なお、イメージサークル内画像C1は補完円形画像C2に内接している。
なお、基準点(x、y)が魚眼画像のイメージサークル内画像の中心と一致する場合、補完円形画像生成部16は補完円形画像を生成しない。
図4に戻り、展開部17は、基準点(x、y)に基づき魚眼画像をパノラマ展開し、パノラマ画像を生成する。なお、展開部17は、基準点(x、y)が魚眼画像のイメージサークル内画像の中心と異なる場合、すなわち補完円形画像生成部16が保管円形画像を生成した場合、補完円形画像をパノラマ展開してパノラマ画像を生成する。一方、基準点(x、y)が魚眼画像のイメージサークル内画像の中心と一致する場合、すなわち補完円形画像生成部16が保管円形画像を生成しなかった場合、展開部17は、魚眼画像のイメージサークル内画像をパノラマ展開してパノラマ画像を生成する。展開部17は、図1を用いて説明した手法を用いて、パノラマ展開することができる。
なお、展開部17は、人物と重ならない基準線Lを決定し、基準線Lから補完円形画像又はイメージサークル内画像を切り開いて、パノラマ画像を生成することができる。このようにすれば、画像内の人物がパノラマ画像内で2つの部分に分離する不都合を抑制できる。例えば、展開部17は、検出部12が検出した各人物の身体の複数点から所定距離以内には基準線Lを設定せず、上記検出した複数点から所定距離以上離れた場所に基準線Lを設定してもよい。
次に、画像処理装置10の処理の流れの一例を説明する。なお、各処理の詳細は上述したので、ここでの説明は適宜省略する。まず、図11のフローチャートを用いて、基準点(x、y)を決定する処理の流れの一例を説明する。
魚眼画像が入力されると、検出部12は、イメージサークル内画像の中から、複数の人物各々の身体の所定の複数点を検出する(S10)。例えば、検出部12は、各人物の両肩の真ん中P1と腰の真ん中P2を検出する。
ここで、図12のフローチャートを用いて、S10の処理の流れの一例を説明する。まず、検出部12は、イメージサークル内画像を解析し、複数の人物各々の身体の所定の複数点を検出する(S20)。その後、検出部12は、イメージサークル内画像を所定角度回転する(S21)。所定角度は例えば90°であるが、これに限定されない。
そして、検出部12は、回転後のイメージサークル内画像を解析し、複数の人物各々の身体の所定の複数点を検出する(S22)。そして、回転角度の合計が360°に達していない場合(S43のNo)、検出部12は、S21に戻り同様の処理を繰り返す。一方、回転角度の合計が360°に達した場合(S43のYes)、検出部12は処理を終了する。
このように、検出部12は、イメージサークル内画像を回転させ、回転した後のイメージサークル内画像を解析して人物の身体の所定の複数点を検出する処理を、複数の回転角度に対して行うことができる。
図11に戻り、S10の後、重力方向特定部13は、S10で検出された所定の複数点に基づき複数の人物各々の位置における重力方向を特定する(S11)。例えば、重力方向特定部13は、各人物の両肩の真ん中P1から腰の真ん中P2に向かう方向を、各人物の位置における重力方向として特定する。
次いで、基準点決定部14は、複数の人物各々の位置を通り、各々の位置における重力方向に延伸した直線を算出する(S12)。そして、複数の直線が1点で交わる場合(S13のYes)、基準点決定部14は、交わる点を基準点(x、y)とする(S14)。一方、複数の直線が1点で交わらない場合(S13のNo)、基準点決定部14は、複数の直線各々からの距離が所定条件(例:最短)を満たす点を求め、その点を基準点(x、y)とする(S15)。
次に、図13のフローチャートを用いて、魚眼画像からパノラマ画像を生成する処理の流れの一例を説明する。
図11の処理で決定した基準点(x、y)が魚眼画像のイメージサークル内画像の中心と一致する場合(S30のYes)、展開部17は、図1を用いて説明した手法を用いて、その魚眼画像のイメージサークル内画像をパノラマ展開し、パノラマ画像を生成する(S33)。すなわち、この場合、補完円形画像の生成、及び、補完円形画像のパノラマ展開は実施されない。
一方、図11の処理で決定した基準点(x、y)が魚眼画像のイメージサークル内画像の中心と一致しない場合(S30のNo)、補完円形画像生成部16は、補完円形画像を生成する(S31)。補完円形画像は、イメージサークル内画像に補完画像を加えた円形の画像であって、基準点(x、y)が中心となる画像である。なお、補完円形画像は、基準点(x、y)からイメージサークル内画像の外周上の点までの距離の最大値が半径となり、イメージサークル内画像が内接してもよい。イメージサークル内画像に加える補完画像は、単色(例:黒)の画像であってもよいし、任意のパターン画像であってもよいし、その他であってもよい。
そして、展開部17は、図1を用いて説明した手法を用いて、その補完円形画像をパノラマ展開し、パノラマ画像を生成する(S32)。
なお、画像処理装置10は、パノラマ展開の対象の全ての魚眼画像に対して、上述した基準点(x、y)を決定する処理を行ってもよい。しかし、監視カメラ等の場合は、カメラの位置や向きは固定された状態で複数の魚眼画像が生成される。このような複数の魚眼画像の場合、基準点(x、y)を一度算出すれば、全ての魚眼画像にその基準点(x、y)を適用できる。このため、画像処理装置10は、最初に入力された魚眼画像に対してのみ上述した基準点(x、y)を決定する処理、及び、決定した基準点(x、y)に基づくパノラマ展開を行い、以降に入力された魚眼画像に対しては、上述した基準点(x、y)を決定する処理を行わず、記憶部15に記憶されている基準点(x、y)に基づくパノラマ展開を行ってもよい。
ここで、画像処理装置10の変形例を説明する。図14の機能ブロック図に示すように、画像処理装置10は、検出部12、重力方向特定部13及び基準点決定部14を有さなくてもよい。そして、画像処理装置10は、基準点受付部18を有してもよい。基準点受付部18は、任意の手段で、魚眼画像内の任意の1点を基準点(x、y)とするユーザ入力を受付ける。画像取得部11、補完円形画像生成部16及び展開部17の構成は、上述の通りである。この変形例の場合、基準点(x、y)は画像処理装置10により算出されるのでなく、ユーザ入力により決定される。
<処理装置20の機能構成>
次に、処理装置20の機能構成を詳細に説明する。処理装置20は、機械学習の技術を利用して、時系列な複数の画像が示す人物行動を推定する。
図15に、処理装置20の機能ブロック図の一例を示す。図示するように、処理装置20は、入力受付部21と、第1の生成部22と、第2の生成部23と、推定部24とを有する。
入力受付部21は、時系列な複数の画像の入力を受付ける。例えば、画像処理装置10により生成された時系列な複数のパノラマ画像が入力される。
第1の生成部22は、時系列な複数の画像から、画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する。例えば、第1の生成部22は、3D CNN(例えば、3D Resnet等の畳み込み深層学習ネットワークなどであるが、これに限定されない)に基づき3次元特徴情報を生成することができる。
第2の生成部23は、複数の画像各々において人物が存在する位置を示す人物位置情報を生成する。画像内に複数の人物が存在する場合、第2の生成部23は、複数の人物各々が存在する位置を示す人物位置情報を生成することができる。例えば、第2の生成部23は、人物のシルエット(全身)を画像内で抽出し、抽出したシルエットを内包する画像内のエリアを示す人物位置情報を生成する。例えば、第2の生成部23は、深層学習技術に基づき、より具体的には平面の画像や映像の中からあらゆる物体(例えば、人)を高速かつ高精度に認識する「物体認識の深層学習ネットワーク」に基づき人物位置情報を生成することができる。物体認識の深層学習ネットワークとしては、Mask-RCNN、RCNN、Fast RCNN、Faster RCNN等が例示されるが、これらに限定されない。
推定部24は、人物位置情報で示される人物が存在する位置における3次元特徴情報が示す特徴の時間変化に基づき、複数の画像が示す人物行動を推定する。例えば、推定部24は、人物位置情報で示される人物が存在する位置を除く位置における値を所定値(例:0)に変更する補正を3次元特徴情報に対して行った後、補正後の3次元特徴情報に基づき複数の画像が示す人物行動を推定することができる。推定部24は、予め機械学習で生成された推定モデルと、補正後の3次元特徴情報とに基づき、人物行動を推定することができる。
ここで、図16のフローチャートを用いて、処理装置20の処理の流れの一例を説明する。
まず、入力受付部21が、時系列な複数の画像を取得する(S40)。
すると、第1の生成部22は、時系列な複数の画像から、画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する(S41)。また、第2の生成部23は、複数の画像各々において人物が存在する位置を示す人物位置情報を生成する(S42)。
そして、推定部24は、人物位置情報で示される人物が存在する位置における3次元特徴情報が示す特徴の時間変化に基づき、複数の画像が示す人物行動を推定する(S43)。
次に、図17を用いて、処理装置20の実施例を説明する。なお、あくまで一例であり、これに限定されない。
まず、処理装置20に、16フレーム分の時系列な画像(16×2451×800)が入力される。すると、処理装置20は、3D CNN(例えば、3D Resnet等の畳み込み深層学習ネットワークなどであるが、これに限定されない)に基づき、この16フレーム分の画像から、512チャンネルに畳み込まれた3次元特徴情報(512×77×25)を生成する。また、処理装置20は、Mask-RCNN等の物体認識の深層学習ネットワークに基づき、16フレーム分の画像各々において人物が存在する位置を示す人物位置情報を生成する。図示する例では、人物位置情報は、各人物を内包する複数の矩形のエリア各々の位置を示す。
次いで、処理装置20は、人物位置情報で示される人物が存在する位置を除く位置における値を所定値(例:0)に変更する補正を3次元特徴情報に対して行う。その後、処理装置20は、Average Poolingでデータを512×1×3にまとめた後、flattenでデータを1次元に変換する(1536)。次いで、処理装置20は、当該1次元のデータをfully-connected層に入力し、複数のカテゴリ(人物行動)各々に該当する確率(出力値)を得る。図示する例では、19のカテゴリが定義・学習されている。19のカテゴリは、「歩く」、「走る」、「手を振る」、「物を拾う」、「物を捨てる」、「ジャケットを脱ぐ」、「ジャケットを着る」、「電話を掛ける」、「スマートフォンを使う」、「おやつを食べる」、「階段を上がる」、「階段を下る」、「水を飲む」、「握手」、「他人のポケットから物を取る」、「他人に物を渡す」、「他人を押す」、「カードをかざして駅構内に入る」、「カードをかざして駅改札を出る」であるが、これらに限定されない。例えば、処理装置20は、当該確率が閾値以上のカテゴリに対応する人物行動が、その画像で示されていると推定する。
なお、上記流れと逆方向にトレースすることで、当該確率が閾値以上のカテゴリ(人物行動)が示される画像内の位置を算出することができる。
<作用効果>
以上説明した本実施形態の画像処理装置10によれば、魚眼画像のイメージサークル内画像の中心を一律に基準点(x、y)としてパノラマ展開するのでなく、魚眼画像内の適切な位置を基準点(x、y)としてパノラマ展開することができる。このため、パノラマ画像において、起立した人物の身体が伸びる方向がばらつく不都合を抑制できる。結果、標準レンズカメラで生成された画像(学習データ)に基づく機械学習で生成された推定モデルに当該パノラマ画像を入力することで、画像が示す人物行動を高精度に推定することが可能となる。
また、本実施形態の画像処理装置10によれば、画像に含まれる複数の人物各々の身体の所定の複数点を検出し、当該複数点に基づき複数の人物各々の位置における重力方向を特定した後、複数の人物各々の位置における重力方向に基づき基準点(x、y)を決定することができる。このような画像処理装置10によれば、上記不都合を抑制する上で適切な基準点(x、y)を高精度に決定することができる。
また、本実施形態の画像処理装置10によれば、魚眼画像を回転させながら、複数の人物各々の身体の所定の複数点を検出することができる。このため、魚眼画像内で起立した人物の身体が伸びる方向がばらついていても、標準レンズカメラで生成された画像に対する画像解析処理と同様の処理により、魚眼画像内の複数の人物各々の身体の所定の複数点を高精度に検出することができる。
また、本実施形態の画像処理装置10によれば、決定した基準点(x、y)が魚眼画像のイメージサークル内画像の中心と異なる場合、イメージサークル内画像に補完画像を加えた円形の画像であって、決定した基準点(x、y)が中心となる補完円形画像を生成し、当該補完円形画像をパノラマ展開することができる。このため、決定した基準点(x、y)が魚眼画像のイメージサークル内画像の中心と異なる場合であっても、図1に開示の手法を用いて魚眼画像をパノラマ展開することができる。
また、本実施形態の画像処理装置10によれば、人物と重ならないように基準線Lを決定し、基準線Lから補完円形画像又はイメージサークル内画像を切り開いてパノラマ画像を生成することができる。このため、画像内の人物がパノラマ画像内で2つの部分に分離する不都合を抑制できる。結果、当該パノラマ画像に基づき、画像が示す人物行動を高精度に推定することが可能となる。
また、本実施形態の画像処理装置10によれば、例えば、監視カメラ等、カメラの位置や向きが固定された状態で複数の画像が生成される場合を考慮し、一度算出された基準点(x、y)を記憶部15に記憶しておき、以降、記憶部15に記憶されている基準点(x、y)に基づくパノラマ展開を行うことができる。すなわち、全ての魚眼画像に対して基準点(x、y)を決定する処理を行うのでなく、1つの魚眼画像に対してのみ基準点(x、y)を決定する処理を行い、他の魚眼画像に対しては基準点(x、y)を決定する処理を省略することができる。結果、画像処理装置10による処理負担を軽減できる。
また、本実施形態の処理装置20によれば、3D-CNNに基づき画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成した後、その中から人物が検出された位置の情報のみを抽出し(その他の情報を無効化)、3次元特徴情報の中の人物に関係する情報のみを用いて人物行動の推定を行うことができる。不要な情報をなくし、必要な情報のみに絞って推定を行うことができるので、推定精度が向上するほか、コンピュータの処理負担が軽減する。
<変形例>
ここで、本実施形態の変形例を説明する。魚眼画像が入力されると、パノラマ画像を出力する画像処理装置10は、処理装置20へのパノラマ画像の入力以外の目的で利用されてもよい。また、処理装置20には、画像処理装置10が生成したパノラマ画像が入力されてもよいし、他の装置が生成したパノラマ画像が入力されてもよいし、標準レンズカメラで生成された画像が入力されてもよい。
また、上記実施形態では画像処理装置10と処理装置20とを分けて記載したが、画像処理装置10と処理装置20とは物理的及び/又は論理的に分かれて構成されてもよいし、物理的及び/又は論理的に一体となって構成されてもよい。
以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. 時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する第1の生成手段と、
複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成する第2の生成手段と、
前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する推定手段と、
を有する処理装置又は処理システム。
2. 前記第1の生成手段は、3D CNN(convolutional neural network)に基づき前記3次元特徴情報を生成し、
前記第2の生成手段は、物体認識の深層学習ネットワークに基づき前記人物位置情報を生成する
1に記載の処理装置又は処理システム。
3. 前記第2の生成手段は、前記画像内に複数の人物が存在する場合、複数の人物各々が存在する位置を示す前記人物位置情報を生成する
1又は2に記載の処理装置又は処理システム。
4. 前記推定手段は、前記人物位置情報で示される人物が存在する位置を除く位置における値を所定値に変更する補正を前記3次元特徴情報に対して行った後、補正後の前記3次元特徴情報に基づき複数の前記画像が示す人物行動を推定する
1から3のいずれかに記載の処理装置又は処理システム。
5. コンピュータが、
時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成し、
複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成し、
前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する処理方法。
6. コンピュータを、
時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する第1の生成手段、
複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成する第2の生成手段、
前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する推定手段、
として機能させるプログラム。

Claims (6)

  1. 時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する第1の生成手段と、
    複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成する第2の生成手段と、
    前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する推定手段と、
    を有する処理装置。
  2. 前記第1の生成手段は、3D CNN(convolutional neural network)に基づき前記3次元特徴情報を生成し、
    前記第2の生成手段は、物体認識の深層学習ネットワークに基づき前記人物位置情報を生成する
    請求項1に記載の処理装置。
  3. 前記第2の生成手段は、前記画像内に複数の人物が存在する場合、複数の人物各々が存在する位置を示す前記人物位置情報を生成する
    請求項1又は2に記載の処理装置。
  4. 前記推定手段は、前記人物位置情報で示される人物が存在する位置を除く位置における値を所定値に変更する補正を前記3次元特徴情報に対して行った後、補正後の前記3次元特徴情報に基づき複数の前記画像が示す人物行動を推定する
    請求項1から3のいずれか1項に記載の処理装置。
  5. コンピュータが、
    時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成し、
    複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成し、
    前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する処理方法。
  6. コンピュータを、
    時系列な複数の画像から、前記画像内の各位置の特徴の時間変化を示す3次元特徴情報を生成する第1の生成手段、
    複数の前記画像各々において人物が存在する位置を示す人物位置情報を生成する第2の生成手段、
    前記人物位置情報で示される人物が存在する位置における前記3次元特徴情報が示す特徴の時間変化に基づき、複数の前記画像が示す人物行動を推定する推定手段、
    として機能させるプログラム。
JP2021525513A 2019-06-13 2019-06-13 処理装置、処理方法及びプログラム Active JP7218804B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/023510 WO2020250388A1 (ja) 2019-06-13 2019-06-13 処理装置、処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020250388A1 JPWO2020250388A1 (ja) 2020-12-17
JP7218804B2 true JP7218804B2 (ja) 2023-02-07

Family

ID=73781370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021525513A Active JP7218804B2 (ja) 2019-06-13 2019-06-13 処理装置、処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20220245850A1 (ja)
EP (1) EP3985606A4 (ja)
JP (1) JP7218804B2 (ja)
WO (1) WO2020250388A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049479A (ja) 2016-09-21 2018-03-29 富士ゼロックス株式会社 情報処理装置、評価システムおよびプログラム
JP2018147431A (ja) 2017-03-09 2018-09-20 コニカミノルタ株式会社 画像認識装置及び画像認識方法
JP2018206321A (ja) 2017-06-09 2018-12-27 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6783713B2 (ja) * 2017-06-29 2020-11-11 株式会社 日立産業制御ソリューションズ 人行動推定システム
JP7209333B2 (ja) * 2018-09-10 2023-01-20 国立大学法人 東京大学 関節位置の取得方法及び装置、動作の取得方法及び装置
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049479A (ja) 2016-09-21 2018-03-29 富士ゼロックス株式会社 情報処理装置、評価システムおよびプログラム
JP2018147431A (ja) 2017-03-09 2018-09-20 コニカミノルタ株式会社 画像認識装置及び画像認識方法
JP2018206321A (ja) 2017-06-09 2018-12-27 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
EP3985606A4 (en) 2022-06-15
EP3985606A1 (en) 2022-04-20
JPWO2020250388A1 (ja) 2020-12-17
WO2020250388A1 (ja) 2020-12-17
US20220245850A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
US8879803B2 (en) Method, apparatus, and computer program product for image clustering
US9626552B2 (en) Calculating facial image similarity
US10204423B2 (en) Visual odometry using object priors
CN109934065B (zh) 一种用于手势识别的方法和装置
CN110059661A (zh) 动作识别方法、人机交互方法、装置及存储介质
US10452953B2 (en) Image processing device, image processing method, program, and information recording medium
US10387804B2 (en) Implementations of, and methods of use for a pattern memory engine applying associative pattern memory for pattern recognition
US20150036938A1 (en) Method for recognizing object using covariance descriptor and apparatus thereof
TWI643137B (zh) 物件辨識方法及物件辨識系統
US9865061B2 (en) Constructing a 3D structure
Phankokkruad et al. An evaluation of technical study and performance for real-time face detection using web real-time communication
US20220130176A1 (en) Method and apparatus for detecting liveness based on phase difference
US11436804B2 (en) Augmented reality system
US20170076754A1 (en) Systems and methods for matching two or more digital multimedia files
CN108875506B (zh) 人脸形状点跟踪方法、装置和系统及存储介质
Zhou et al. Multi-modal face authentication using deep visual and acoustic features
JP7124957B2 (ja) 画像処理システム、推定装置、処理方法及びプログラム
Krishan Kumar et al. Two viewpoints based real‐time recognition for hand gestures
JP2006293720A (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP7218804B2 (ja) 処理装置、処理方法及びプログラム
WO2022064632A1 (ja) 画像処理装置、画像処理方法及びプログラム
CN106406507B (zh) 图像处理方法以及电子设备
JP7327478B2 (ja) 画像処理装置、画像処理方法及びプログラム
JPWO2020185948A5 (ja)
JP2015158745A (ja) 行動識別器生成装置、行動認識装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230109

R151 Written notification of patent or utility model registration

Ref document number: 7218804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151