JP6312991B2 - 画像出力装置 - Google Patents

画像出力装置 Download PDF

Info

Publication number
JP6312991B2
JP6312991B2 JP2013132887A JP2013132887A JP6312991B2 JP 6312991 B2 JP6312991 B2 JP 6312991B2 JP 2013132887 A JP2013132887 A JP 2013132887A JP 2013132887 A JP2013132887 A JP 2013132887A JP 6312991 B2 JP6312991 B2 JP 6312991B2
Authority
JP
Japan
Prior art keywords
image
parameter
output
unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013132887A
Other languages
English (en)
Other versions
JP2015007897A (ja
Inventor
智一 河原
智一 河原
小坂谷 達夫
達夫 小坂谷
山口 修
修 山口
湯浅 真由美
真由美 湯浅
友樹 渡辺
友樹 渡辺
麻由 奥村
麻由 奥村
ヴェト ファン
ヴェト ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013132887A priority Critical patent/JP6312991B2/ja
Priority to PCT/JP2014/059056 priority patent/WO2014208163A1/en
Publication of JP2015007897A publication Critical patent/JP2015007897A/ja
Priority to US14/977,280 priority patent/US10248853B2/en
Application granted granted Critical
Publication of JP6312991B2 publication Critical patent/JP6312991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明の実施形態は、画像出力装置に関する。
複数の動画像それぞれに含まれる人物が同一であるか否かを目視で特定するために、当該複数の動画像を並べて表示する技術が知られている。また、人物の特定を容易化するため、動画像内で特定対象の人物を追跡し、当該人物の顔の向きが異なる複数の画像を抽出し、並べて表示する技術が知られている。
特開2008−199549号公報
ところで、移動体の動作には、当該移動体の癖など当該移動体の特定に有益な情報が現れやすい。しかしながら、上述したような従来技術には、複数の画像それぞれに含まれる移動体が同一であるか否かを目視で特定する際に、当該移動体の動作を利用するという着想がなかった。本発明が解決しようとする課題は、複数の画像それぞれに含まれる移動体が同一であるか否かの目視による特定を容易化することが可能な画像出力装置を提供することである。
実施形態の画像出力装置は、取得部と、抽出部と、探索部と、対応付け部と、出力制御部と、を備える。取得部は、移動体を撮像した複数の第1画像、及び前記移動体を撮像した複数の第2画像を取得する。抽出部は、前記複数の第1画像のうちの少なくとも1つの第1画像から、前記移動体の動作に伴い変動する第1パラメータを抽出、前記複数の第2画像それぞれから、前記移動体の動作に伴い変動する第2パラメータを抽出する。探索部は、前記複数の第2パラメータの中から前記第1パラメータと類似する第2パラメータを探索する。対応付け部は、前記第1パラメータの抽出元の第1画像と当該第1パラメータに対して探索された前記第2パラメータの抽出元の第2画像とを対応付け、前記第1パラメータの抽出元の第1画像以外の第1画像については、前記第2画像から当該第1画像と前記第1パラメータの抽出元の第1画像との間のフレーム数分ずらした第2画像を対応付ける。出力制御部は、対応付けられた前記第1画像及び前記第2画像に基づく画像を、出力部に出力させる。
本実施形態の画像出力装置の例を示す構成図。 本実施形態の顔領域の抽出の例を示す図。 本実施形態の第1パラメータの例を示す図。 本実施形態の第2パラメータの例を示す図。 本実施形態の大きさが最も近い顔領域を有する第1画像と第2画像との対応を示すグラフの例を示す図。 本実施形態の第1画像と第2画像との対応付け結果の一例を示す図。 本実施形態の出力例を示す図。 本実施形態の処理例を示すフローチャート図。 変形例1の顔の向きの抽出の例を示す図。 変形例1の第1パラメータの例を示す図。 変形例1の出力例を示す図。 変形例2の第1パラメータの例を示す図。 変形例2の出力例を示す図。 変形例3の第1パラメータの例を示す図。 変形例3の出力例を示す図。 変形例4の第1画像と第2画像との対応付け結果の例を示す図。 変形例5の第1画像と第2画像との対応付け結果の例を示す図。 実施形態及び各変形例の画像出力装置のハードウェア構成例を示す図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
図1は、本実施形態の画像出力装置10の一例を示す構成図である。図1に示すように、画像出力装置10は、取得部13と、抽出部15と、探索部17と、対応付け部19と、出力制御部21と、出力部23とを、備える。
取得部13、抽出部15、探索部17、対応付け部19、及び出力制御部21は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。出力部23は、例えば、液晶ディスプレイなどの表示装置により実現できる。但し、出力部23をNIC(Network Interface Card)などの通信装置により実現してもよい。
取得部13は、移動体を第1時系列で撮像した複数の第1画像、及び当該移動体を撮像した複数の第2画像を取得する。本実施形態では、複数の第1画像及び複数の第2画像は、街中に設置された監視カメラや防犯カメラなどにより撮像された画像を想定しているがこれに限定されるものではない。また、複数の第1画像及び複数の第2画像は、動画像であってもよいし、静止画像であってもよい。
また本実施形態では、複数の第1画像及び複数の第2画像は、画像出力装置10が備える図示せぬ記憶部に記憶されており、取得部13が当該記憶部から取得することを想定しているが、これに限定されるものではない。例えば、取得部13は、監視カメラからネットワーク等を介して直接複数の第1画像及び複数の第2画像を取得するようにしてもよい。また、複数の第1画像及び複数の第2画像を記憶する記憶部を画像出力装置10の外部に設け(例えば、クラウド上に設け)、取得部13が当該記憶部から取得するようにしてもよい。なお記憶部は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)などにより実現できる。
また本実施形態では、複数の第2画像は、移動体を第2時系列で撮像したものを想定しているが、これに限定されるものではなく、時系列で撮像されていない画像であってもよい。なお第1時系列及び第2時系列は異なる時系列であることが好ましい。また、第1時系列及び第2時系列が異なっていれば、複数の第1画像を撮像した監視カメラと複数の第2画像を撮像した監視カメラとは、同一であっても、異なっていてもよい。また本実施形態では、移動体は、人物を想定しているが、これに限定されるものではない。
抽出部15は、取得部13により取得された複数の第1画像の少なくともいずれかから、人物の動作に伴い変動する第1パラメータを抽出するとともに、取得部13により取得された複数の第2画像それぞれから、人物の動作に伴い変動する第2パラメータを抽出する。但し本実施形態では、抽出部15は、取得部13により取得された複数の第1画像それぞれから、第1パラメータを抽出する。
ここで、第1パラメータ及び第2パラメータは、人物の体の部位に関するパラメータであり、例えば、画像内における体の部位の大きさ、画像内における体の部位の向き、及び画像内における体の部位の相対位置などが挙げられる。第1パラメータ及び第2パラメータは、これらの少なくともいずれかであればよいが、これらに限定されるものではない。なお、画像内における体の部位の大きさは、当該画像を撮像した監視カメラ等と人物との距離に依存するため、人物の動作に伴い変動するパラメータとなる。また体の部位は、例えば、顔、足、体、上半身、下半身、手、及び腕などが挙げられる。体の部位は、これらの少なくともいずれかであればよいが、これらに限定されるものではない。
なお本実施形態では、第1パラメータ及び第2パラメータとして画像内における人物の顔の大きさを例に取り説明する。この場合、抽出部15は、複数の第1画像それぞれから、顔領域(本実施形態では、顔を示す矩形領域を想定)を抽出し、当該顔領域の横幅及び縦幅を第1パラメータとする。同様に抽出部15は、複数の第2画像それぞれから、顔領域を抽出し、当該顔領域の横幅及び縦幅を第2パラメータとする。なお第1パラメータ及び第2パラメータは、少なくとも顔領域の横幅及び縦幅を含んでいればよく、これら以外の情報(例えば、抽出元の画像の識別子など)を含んでいてもよい。
図2は、本実施形態の顔領域の抽出の一例を示す図である。図2に示す例の場合、抽出部15は、画像31から領域32を顔領域として抽出する。なお顔領域の抽出には、例えば、Takeshi Mita, Toshimitsu Kaneko, Bjorn Stenger, Osamu Hori: “Discriminative Feature Co-Occurrence Selection for Object Detection”. IEEE Transaction Pattern Analysis and Machine Intelligence Volume 30, Number 7, July 2008, pp. 1257-1269(以下、参照文献1と称する)に開示された手法を用いることができる。なお、体領域の抽出には、例えば、Tomoki Watanabe, Satoshi Ito, Kentaro Yoko: “Co-occurrence Histogram of Oriented Gradients for Human Detection”, IPSJ Transaction on Computer Vision and Applications Volume 2 March 2010, pp.39-47(以下、参照文献2と称する)に開示された手法を用いることができる。
図3は、本実施形態の第1パラメータの一例を示す図であり、図4は、本実施形態の第2パラメータの一例を示す図である。図3及び図4に示す例では、パラメータは、顔領域の抽出元の画像の識別子である画像番号と、当該顔領域の抽出結果(顔領域の横幅及び縦幅)と、を対応付けた情報となっている。なお、wは、顔領域の横幅を示し、hは、顔領域の縦幅を示す。また、N及びMは、いずれも2以上の自然数である。
探索部17は、抽出部15により抽出された複数の第2パラメータの中から、抽出部15により抽出された第1パラメータと類似する第2パラメータを探索する。本実施形態では、探索部17は、第1パラメータ毎に、複数の第2パラメータの中から当該第1パラメータと類似する第2パラメータを探索する。
具体的には、探索部17は、複数の第2パラメータの中から第1パラメータとの類似度を示す距離が最小となる第2パラメータを探索する。例えば、探索部17は、第1パラメータ毎に、数式(1)を用いて、複数の第2パラメータそれぞれとの類似度を示す距離を算出し、算出した距離が最も小さい第2パラメータを探索する。
D=(wAx−wBz)+(hAx−hBz) …(1)
但し、wAxは、第1パラメータの顔領域の横幅、hAxは、第1パラメータの顔領域の縦幅、wBzは、第2パラメータの顔領域の横幅、hBzは、第2パラメータの顔領域の縦幅を示す。また、xは、1〜Nの任意の自然数であり、zは、1〜Mの任意の自然数である。
対応付け部19は、第1パラメータの抽出元の第1画像と当該第1パラメータに対して探索部17により探索された第2パラメータの抽出元の第2画像とを対応付ける。本実施形態では、対応付け部19は、第1パラメータ毎に、当該第1パラメータの抽出元の第1画像と当該第1パラメータに対して探索された第2パラメータの抽出元の第2画像とを対応付ける。
例えば、探索部17による探索の結果、第1パラメータに対して探索された第2パラメータ、即ち、第1パラメータの抽出元の第1画像と、当該第1画像の顔領域と大きさが最も近い顔領域を有する第2画像との対応が、図5に示すグラフで表されるとする。
この場合、対応付け部19は、図6に示すように、第1画像番号A1の第1画像と第2画像番号B11の第2画像、第1画像番号A2の第1画像と第2画像番号B12の第2画像、第1画像番号A3の第1画像と第2画像番号B13の第2画像をそれぞれ対応付ける。
出力制御部21は、対応付け部19により対応付けられた第1画像及び第2画像に基づく画像を、出力部23に出力させる。本実施形態では、出力制御部21は、対応付けられた第1画像及び第2画像の組それぞれに基づく画像を、第1時系列又は第2時系列に従って出力部23に順次出力させる。
第1画像及び第2画像の組に基づく画像は、例えば、当該第1画像及び当該第2画像を並べた画像などが挙げられる。並べ方としては、例えば、第1画像及び第2画像を左右に並べてもよいし、第1画像及び第2画像を上下に並べてもよい。
図7は、本実施形態の出力例を示す図である。図7に示す例では、出力制御部21は、対応付け部19により対応付けられた第1画像番号A1の第1画像と第2画像番号B11の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号A2の第1画像と第2画像番号B12の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号A3の第1画像と第2画像番号B13の第2画像を左右に並べた画像を、当該順序(第1時系列)で出力部23に順次画面出力させている。
これにより、複数の第1画像内の人物の移動動作と複数の第2画像内の人物の移動動作とを揃えた画像を出力でき、複数の第1画像内の人物と複数の第2画像内の人物とが同一であるか否かの目視による特定を容易化することが可能となる。
なお出力部23が複数並べられている場合や出力部23が複数画面の画面出力(例えば、複数のウィンドウでの画面出力)を行う場合には、出力制御部21は、対応付けられた第1画像及び第2画像を並べる必要はなく、対応付けられた第1画像及び第2画像の出力部23への出力タイミングを合わせるように出力を制御すればよい。この場合、第1画像及び第2画像の組に基づく画像は、第1画像及び第2画像そのものとなる。
図8は、本実施形態の画像出力装置10の処理の一例を示すフローチャート図である。
まず、取得部13は、移動体を第1時系列で撮像した複数の第1画像、及び当該移動体を撮像した複数の第2画像を取得する(ステップS101)。
続いて、抽出部15は、取得部13により取得された複数の第1画像それぞれから、人物の動作に伴い変動する第1パラメータを抽出するとともに、取得部13により取得された複数の第2画像それぞれから、人物の動作に伴い変動する第2パラメータを抽出する(ステップS103)。
続いて、探索部17は、抽出部15により抽出された第1パラメータ毎に、抽出部15により抽出された複数の第2パラメータの中から、当該第1パラメータと類似する第2パラメータを探索する。そして対応付け部19は、第1パラメータ毎に、当該第1パラメータの抽出元の第1画像と当該第1パラメータに対して探索された第2パラメータの抽出元の第2画像とを対応付ける(ステップS105)。
続いて、出力制御部21は、対応付け部19により対応付けられた第1画像及び第2画像の組それぞれに基づく画像を、第1時系列で出力部23に順次出力させる(ステップS107)。
以上のように本実施形態によれば、複数の第1画像内の人物の動作と複数の第2画像内の人物の動作とを揃えた画像を出力できるので、複数の第1画像内の人物と複数の第2画像内の人物とが同一であるか否かの目視による特定を容易化することが可能となる。
(変形例1)
上記実施形態では、第1パラメータ及び第2パラメータとして画像内における人物の顔の大きさを例に取り説明したが、変形例1では、第1パラメータ及び第2パラメータが画像内における人物の顔の向きである場合について説明する。
この場合、抽出部15は、複数の第1画像それぞれから、顔領域を抽出し、当該顔領域の顔の向きを第1パラメータとする。同様に抽出部15は、複数の第2画像それぞれから、顔領域を抽出し、当該顔領域の顔の向きを第2パラメータとする。
図9は、変形例1の顔の向きの抽出の一例を示す図である。図9に示す例の場合、抽出部15は、顔の向きをロール・ピッチ・ヨーの連続量で抽出する。ここで、ロールは、正面向きを基準とし、画面内回転した角度を示し、ピッチは、正面向きを基準とし、上下に回転した角度を示し、ヨーは、正面向きを基準とし、左右に回転した角度を示す。但し、顔の向きは、これに限定されず、正面、右、左、上、及び下などとしてもよい。
図9に示す例の場合、顔101がロールの値が負である場合の顔の向きを示し、顔102がロールの値が0である場合の顔の向きを示し、顔103がロールの値が正である場合の顔の向きを示す。また、顔104がピッチの値が負である場合の顔の向きを示し、顔105がピッチの値が0である場合の顔の向きを示し、顔106がピッチの値が正である場合の顔の向きを示す。また、顔107がヨーの値が負である場合の顔の向きを示し、顔108がヨーの値が0である場合の顔の向きを示し、顔109がヨーの値が正である場合の顔の向きを示す。なお向きの抽出には、例えば、前述した参照文献1や参照文献2に開示された手法を用いることができる。向きをそろえると、顔の形状が一致する、顔の特定の部位の見え方が一致する等の点で同一人文であるか否かの特定を容易にする。例えば、構造的に必ずしも一致しない「鼻」などを異なる方向から比較するよりは、同じ方向から比較したほうが特定は容易になる。また、隠れた領域がある場合などについても、方向を一致させることで、見え方が同様になり、見える領域を効果的に利用することが可能になる。なお、顔向きは、一方の画像にそろえることができればよい。隠れた領域(見えない領域)がないや、どちらに向きを揃えてもよいなどの場合には、顔向きが一致し、ロール・ピッチ、ヨーが0に近い、即ち正面に近くにそろえると特定を容易にできるため、好ましい。
図10は、変形例1の第1パラメータの一例を示す図である。図10に示す例では、パラメータは、顔領域の抽出元の画像の識別子である画像番号と、当該顔領域の顔の向きの抽出結果(ロール・ピッチ・ヨー)と、を対応付けた情報となっている。なお、rは、ロールを示し、pは、ピッチを示し、yは、ヨーを示す。
探索部17及び対応付け部19については、上記実施形態と同様の手法を用いればよい。
図11は、変形例1の出力例を示す図である。図11に示す例では、出力制御部21は、対応付け部19により対応付けられた第1画像番号C1の第1画像と第2画像番号D11の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号C2の第1画像と第2画像番号D12の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号C3の第1画像と第2画像番号D13の第2画像を左右に並べた画像を、当該順序(第1時系列)で出力部23に順次画面出力させている。
これにより、複数の第1画像内の人物の顔の動作と複数の第2画像内の人物の顔の動作とを揃えた画像を出力でき、複数の第1画像内の人物と複数の第2画像内の人物とが同一であるか否かの目視による特定を容易化することが可能となる。
(変形例2)
上記実施形態では、第1パラメータ及び第2パラメータとして画像内における人物の顔の大きさを例に取り説明したが、変形例2では、第1パラメータ及び第2パラメータが画像内における人物の表情である場合について説明する。
この場合、抽出部15は、複数の第1画像それぞれから、顔領域を抽出し、当該顔領域の笑顔度を第1パラメータとする。同様に抽出部15は、複数の第2画像それぞれから、顔領域を抽出し、当該顔領域の顔の笑顔度を第2パラメータとする。なお、笑顔度は、無表情や笑顔などの顔の表情を数値化したものである。笑顔度の抽出には、公知の手法を用いることができる。
図12は、変形例2の第1パラメータの一例を示す図である。図12に示す例では、パラメータは、顔領域の抽出元の画像の識別子である画像番号と、当該顔領域の顔の笑顔度の抽出結果と、を対応付けた情報となっている。なお、sは、笑顔度を示す。
探索部17及び対応付け部19については、上記実施形態と同様の手法を用いればよい。
図13は、変形例2の出力例を示す図である。図13に示す例では、出力制御部21は、対応付け部19により対応付けられた第1画像番号E1の第1画像と第2画像番号F11の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号E2の第1画像と第2画像番号F12の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号E3の第1画像と第2画像番号F13の第2画像を左右に並べた画像を、当該順序(第1時系列)で出力部23に順次画面出力させている。
これにより、複数の第1画像内の人物の顔の表情の変化と複数の第2画像内の人物の顔の表情の変化とを揃えた画像を出力でき、複数の第1画像内の人物と複数の第2画像内の人物とが同一であるか否かの目視による特定を容易化することが可能となる。
(変形例3)
上記実施形態では、第1パラメータ及び第2パラメータとして画像内における人物の顔の大きさを例に取り説明したが、変形例3では、第1パラメータ及び第2パラメータが画像内における足の相対位置である場合について説明する。
この場合、抽出部15は、複数の第1画像それぞれから、足領域を抽出し、当該足領域の地面に対する相対位置を第1パラメータとする。同様に抽出部15は、複数の第2画像それぞれから、足領域を抽出し、当該足領域の地面に対する相対位置を第2パラメータとする。足領域の地面に対する相対位置の抽出には、例えば、前述した参照文献1や参照文献2に開示された手法を用いることができる。
図14は、変形例3の第1パラメータの一例を示す図である。図14に示す例では、パラメータは、足領域の抽出元の画像の識別子である画像番号と、当該足領域の地面に対する相対位置の抽出結果と、を対応付けた情報となっている。なお、dは、足領域の地面に対する相対位置を示す。
探索部17及び対応付け部19については、上記実施形態と同様の手法を用いればよい。
図15は、変形例3の出力例を示す図である。図15に示す例では、出力制御部21は、対応付け部19により対応付けられた第1画像番号G1の第1画像と第2画像番号H11の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号G2の第1画像と第2画像番号H12の第2画像を左右に並べた画像、対応付け部19により対応付けられた第1画像番号G3の第1画像と第2画像番号H13の第2画像を左右に並べた画像を、当該順序(第1時系列)で出力部23に順次画面出力させている。
これにより、複数の第1画像内の人物の歩行と複数の第2画像内の人物の歩行とを揃えた画像を出力でき、複数の第1画像内の人物と複数の第2画像内の人物とが同一であるか否かの目視による特定を容易化することが可能となる。
なお、変形例3では、第1パラメータ及び第2パラメータが画像内における足の相対位置である場合について説明したが、第1パラメータ及び第2パラメータを画像内における手の相対位置としても、同様に歩行を揃えた画像の出力が可能である。
(変形例4)
上記実施形態及び変形例1〜3では、第1パラメータに類似する第2パラメータとして、第1パラメータとの類似度を示す距離が最小となる第2パラメータについて説明したが、第1パラメータとの類似度を示す距離が最小かつ閾値以下となる第2パラメータとしてもよい。
つまり探索部17は、複数の第2パラメータの中から第1パラメータとの類似度を示す距離が最小かつ閾値以下となる第2パラメータを探索するようにしてもよい。
但し、この場合、第1パラメータとの類似度を示す距離が閾値以下となる第2パラメータが存在しなければ、探索部17により第2パラメータが探索されないことになる。
このため対応付け部19は、第1パラメータとの類似度を示す距離が閾値以下となる第2パラメータが探索されなかった第1パラメータの抽出元の第1画像と第1時系列が前後する他の第1画像から抽出された第1パラメータに対して探索された第2パラメータの抽出元の第2画像を用いて補完画像を生成し、第1画像と当該補完画像とを対応付ける。
図16は、変形例4の第1画像と第2画像との対応付け結果の一例を示す図である。図16に示す例では、第1画像番号G1〜G3及びG5の第1画像の第1パラメータについては、それぞれ、探索部17により第2画像番号H11〜H13及びH15の第2画像の第2パラメータが探索され、第1画像番号G4の第1画像の第1パラメータについては、探索部17により第2パラメータが探索されなかったとする。
この場合、対応付け部19は、第1画像番号G1〜G3及びG5の第1画像を、それぞれ第2画像番号H11〜H13及びH15の第2画像と対応付ける。また対応付け部19は、第1画像番号G4の第1画像と第1時系列が前後する第1画像番号G3から抽出された第1パラメータに対して探索された第2パラメータの抽出元の第2画像番号H13の第2画像、及び第1画像番号G4の第1画像と第1時系列が前後する第1画像番号G5から抽出された第1パラメータに対して探索された第2パラメータの抽出元の第2画像番号H15の第2画像を用いて第2画像番号H14の補完画像を生成し、第1画像番号G4の第1画像と第2画像番号H14の補完画像とを対応付ける。
そして出力制御部21は、対応付けられた第1画像及び第2画像の組それぞれに基づく画像、並びに対応付けられた第1画像及び補完画像の組それぞれに基づく画像を、第1時系列又は第2時系列に従って出力部23に順次出力させる。
(変形例5)
上記実施形態及び変形例1〜4では、複数の第1画像それぞれにパラメータが類似する第2画像を対応付けたが、複数の第1画像のうち所定第1画像にパラメータが類似する第2画像を対応付け、所定第1画像以外の第1画像については、対応付けられた第2画像から当該第1画像及び所定第1画像間のフレーム数分ずらした第2画像を対応付けるようにしてもよい。
この場合、抽出部15は、複数の第1画像のうちの所定第1画像から、第1パラメータを抽出すればよい。
対応付け部19は、第1パラメータの抽出元の所定第1画像と当該第1パラメータに対して探索された第2パラメータの抽出元の第2画像とを対応付けるとともに、所定第1画像以外の第1画像については、対応付けられた第2画像から当該第1画像及び所定第1画像間のフレーム数分ずらした第2画像を対応付ければよい。
図17は、変形例5の第1画像と第2画像との対応付け結果の一例を示す図である。図17に示す例では、第1パラメータの抽出元の所定第1画像である第1画像番号G1の第1画像と当該第1パラメータに対して探索された第2パラメータの抽出元の第2画像番号I11の第2画像とが対応付けられている。また、第1画像番号G2の第1画像については、第2画像番号I11の第2画像から第1画像番号G1の第1画像及び第1画像番号G2の第1画像間のフレーム数分(1フレーム分)ずらした第2画像番号I12の第2画像が対応付けられている。同様に、第1画像番号G3の第1画像については、第2画像番号I13の第2画像が対応付けられ、第1画像番号G4の第1画像については、第2画像番号I14の第2画像が対応付けられ、第1画像番号G5の第1画像については、第2画像番号I15の第2画像が対応付けられている。
そして出力制御部21は、対応付けられた第1画像及び第2画像の組それぞれに基づく画像を、第1時系列又は第2時系列に従って出力部23に順次出力させる。
これにより、複数の第1画像内の人物の動作の一時点(例えば、動作の開始や終了)と複数の第2画像内の動作の一時点とを揃えた画像を出力でき、複数の第1画像内の人物と複数の第2画像内の人物とが同一であるか否かの目視による特定を容易化することが可能となる。
(ハードウェア構成)
図18は、上記実施形態及び各変形例の画像出力装置10のハードウェア構成の一例を示すブロック図である。図18に示すように、上記実施形態及び各変形例の画像出力装置10は、CPU902と、RAM906と、プログラムなどを記憶するROM904と、HDD908と、HDD908とのインタフェースであるI/F910と、画像入力用のインタフェースであるI/F912と、マウスやキーボードなどの入力装置914と、入力装置914とのインタフェースであるI/F916と、ディスプレイなどの表示装置918と、表示装置918とのインタフェースであるI/F920と、バス922とを、備えており、通常のコンピュータを利用したハードウェア構成となっている。なおCPU902、ROM904、RAM906、I/F910、I/F912、I/F916、及びI/F920は、バス922を介して互いに接続されている。
上記実施形態及び各変形例の画像出力装置10では、CPU902が、ROM904からプログラムをRAM906上に読み出して実行することにより、上記各部がコンピュータ上で実現される。そして上記実施形態及び各変形例の画像出力装置10では、CPU902が、HDD908に記憶されている情報などを用いて、I/F912から入力される第1画像及び第2画像を対応付ける。
なお、プログラムはHDD908に記憶されていてもよい。また、プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせてもよい。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
以上のように、上記実施形態及び各変形例によれば、複数の画像それぞれに含まれる移動体が同一であるか否かの目視による特定を容易化することが可能となる。
10 画像出力装置
13 取得部
15 抽出部
17 探索部
19 対応付け部
21 出力制御部
23 出力部

Claims (9)

  1. 移動体を撮像した複数の第1画像、及び前記移動体を撮像した複数の第2画像を取得する取得部と、
    前記複数の第1画像のうちの少なくとも1つの第1画像から、前記移動体の動作に伴い変動する第1パラメータを抽出し、前記複数の第2画像それぞれから、前記移動体の動作に伴い変動する第2パラメータを抽出する抽出部と、
    前記複数の第2パラメータの中から前記第1パラメータと類似する第2パラメータを探索する探索部と、
    前記第1パラメータの抽出元の第1画像と当該第1パラメータに対して探索された前記第2パラメータの抽出元の第2画像とを対応付け、前記第1パラメータの抽出元の第1画像以外の第1画像については、前記第2画像から当該第1画像と前記第1パラメータの抽出元の前記第1画像との間のフレーム数分ずらした第2画像を対応付ける対応付け部と、
    対応付けられた前記第1画像及び前記第2画像に基づく画像を、出力部に出力させる出力制御部と、
    を備える画像出力装置。
  2. 前記第1画像は、第1時系列で撮像され、前記第2画像は、第2時系列で撮像され、
    前記出力制御部は、
    対応付けられた前記第1画像及び前記第2画像の組それぞれに基づく画像を、前記第1時系列又は前記第2時系列に従って前記出力部に出力させる、
    請求項1に記載の画像出力装置。
  3. 前記探索部は、前記複数の第2パラメータの中から前記第1パラメータとの類似度が最大となる第2パラメータを探索する請求項1または請求項2に記載の画像出力装置。
  4. 前記探索部は、前記複数の第2パラメータの中から前記第1パラメータとの距離が最小かつ閾値以下となる第2パラメータを探索する請求項1または請求項2に記載の画像出力装置。
  5. 前記対応付け部は、前記距離が前記閾値以下となる第2パラメータが探索されなかった第1パラメータの抽出元の第1画像と第1時系列が前後する他の第1画像から抽出された第1パラメータに対して探索された第2パラメータの抽出元の第2画像を用いて補完画像を生成し、前記第1画像と当該補完画像とを対応付け、
    前記出力制御部は、対応付けられた前記第1画像及び前記第2画像の組それぞれに基づく画像、並びに対応付けられた前記第1画像及び前記補完画像の組それぞれに基づく画像を、前記第1時系列に従って前記出力部に順次出力させる請求項4に記載の画像出力装置。
  6. 前記移動体は、人物であり、
    前記第1パラメータ及び前記第2パラメータは、前記人物の体の部位に関するパラメータである請求項1〜5のいずれか1つに記載の画像出力装置。
  7. 前記第1パラメータ及び前記第2パラメータは、画像内における前記体の部位の大きさ、画像内における前記体の部位の向き、及び画像内における前記体の部位の相対位置の少なくともいずれかである請求項6に記載の画像出力装置。
  8. 前記体の部位は、顔、足、体、上半身、下半身、手、及び腕の少なくともいずれかである請求項6又は7に記載の画像出力装置。
  9. 前記第1画像及び前記第2画像の組それぞれに基づく画像は、当該第1画像及び当該第2画像を並べた画像である請求項1〜8のいずれか1つに記載の画像出力装置。
JP2013132887A 2013-06-25 2013-06-25 画像出力装置 Active JP6312991B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013132887A JP6312991B2 (ja) 2013-06-25 2013-06-25 画像出力装置
PCT/JP2014/059056 WO2014208163A1 (en) 2013-06-25 2014-03-20 Image output device, image output method, and computer program product
US14/977,280 US10248853B2 (en) 2013-06-25 2015-12-21 Image output device, image output method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013132887A JP6312991B2 (ja) 2013-06-25 2013-06-25 画像出力装置

Publications (2)

Publication Number Publication Date
JP2015007897A JP2015007897A (ja) 2015-01-15
JP6312991B2 true JP6312991B2 (ja) 2018-04-18

Family

ID=52141517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013132887A Active JP6312991B2 (ja) 2013-06-25 2013-06-25 画像出力装置

Country Status (3)

Country Link
US (1) US10248853B2 (ja)
JP (1) JP6312991B2 (ja)
WO (1) WO2014208163A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180239782A1 (en) * 2015-03-02 2018-08-23 Nec Corporation Image processing system, image processing method, and program storage medium
US10277836B2 (en) * 2016-03-07 2019-04-30 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
CN107346419B (zh) * 2017-06-14 2021-05-11 Oppo广东移动通信有限公司 虹膜识别方法、电子装置和计算机可读存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6016673B2 (ja) * 1978-12-25 1985-04-26 川崎重工業株式会社 サ−ボ系における被検体認識装置
US5982953A (en) * 1994-09-02 1999-11-09 Konica Corporation Image displaying apparatus of a processed image from temporally sequential images
JP3481430B2 (ja) * 1997-09-11 2003-12-22 富士通株式会社 移動体追跡装置
US8965898B2 (en) * 1998-11-20 2015-02-24 Intheplay, Inc. Optimizations for live event, real-time, 3D object tracking
JP3586176B2 (ja) * 2000-07-07 2004-11-10 日本電信電話株式会社 マルチイメージ作成方法およびそのプログラムを記録した記録媒体
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
US7620229B2 (en) * 2003-08-14 2009-11-17 Fujifilm Corporation Method and apparatus for aiding image interpretation and computer-readable recording medium storing program therefor
US20050201638A1 (en) * 2004-03-12 2005-09-15 Hanbyn Cha Method and system for measuring an object in digital image
ITRM20050192A1 (it) * 2005-04-20 2006-10-21 Consiglio Nazionale Ricerche Sistema per la rilevazione e la classificazione di eventi durante azioni in movimento.
JP4316541B2 (ja) * 2005-06-27 2009-08-19 パナソニック株式会社 監視記録装置及び監視記録方法
JP4508049B2 (ja) * 2005-09-05 2010-07-21 株式会社日立製作所 360°画像撮影装置
US7860276B2 (en) * 2005-12-08 2010-12-28 Topcon Corporation Image processing device and method
JP4939968B2 (ja) 2007-02-15 2012-05-30 株式会社日立製作所 監視画像処理方法、監視システム及び監視画像処理プログラム
US8331619B2 (en) * 2008-03-14 2012-12-11 Sony Computer Entertainment Inc. Image processing apparatus and image processing method
JP5214367B2 (ja) 2008-08-08 2013-06-19 株式会社東芝 特徴量抽出装置、特徴量抽出方法、画像処理装置、及び、プログラム
MX2012009579A (es) * 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
JP5501443B2 (ja) * 2010-03-26 2014-05-21 富士フイルム株式会社 放射線画像撮影装置、放射線画像撮影方法、体動量測定方法およびプログラム
US8578299B2 (en) * 2010-10-08 2013-11-05 Industrial Technology Research Institute Method and computing device in a system for motion detection
US9210477B2 (en) * 2012-11-29 2015-12-08 Fanvision Entertainment Llc Mobile device with location-based content
US11010910B2 (en) * 2015-12-18 2021-05-18 Iris Automation, Inc. Systems and methods for dynamic object tracking using a single camera mounted on a moving object

Also Published As

Publication number Publication date
JP2015007897A (ja) 2015-01-15
WO2014208163A1 (en) 2014-12-31
US20160117839A1 (en) 2016-04-28
US10248853B2 (en) 2019-04-02

Similar Documents

Publication Publication Date Title
CN103824053B (zh) 一种人脸图像的性别标注方法及人脸性别检测方法
CN108647631B (zh) 人群状态识别设备、方法和计算机可读记录介质
WO2017152794A1 (en) Method and device for target tracking
EP3090382B1 (en) Real-time 3d gesture recognition and tracking system for mobile devices
JP2022003831A (ja) 装置、方法及びプログラム
JP4531897B2 (ja) 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体
JP2016006626A (ja) 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法
JP2018061771A5 (ja)
CN103677251A (zh) 姿势识别装置及其控制方法、显示器
JP2011076255A (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
CN111723687A (zh) 基于神经网路的人体动作识别方法和装置
CN105303163B (zh) 一种目标检测的方法及检测装置
JP6312991B2 (ja) 画像出力装置
JP2016200971A (ja) 学習装置、識別装置、学習方法、識別方法及びプログラム
CN114333046A (zh) 舞蹈动作评分方法、装置、设备和存储介质
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
CN110910426A (zh) 动作过程和动作趋势识别方法、存储介质和电子装置
JP7336835B2 (ja) 属性決定装置、属性決定システムおよび属性決定方法
JP2014142760A (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2013041553A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Achmed et al. Upper body pose estimation towards the translation of South African Sign Language
JP2015184743A (ja) 画像処理装置および物体認識方法
JP2014199505A (ja) 画像認識装置、画像認識方法及びプログラム
Nguyen et al. Unconstrained gender classification by multi-resolution LPQ and SIFT

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180322

R151 Written notification of patent or utility model registration

Ref document number: 6312991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350