JP2016066901A - 撮像部特定システム、方法及びプログラム - Google Patents

撮像部特定システム、方法及びプログラム Download PDF

Info

Publication number
JP2016066901A
JP2016066901A JP2014194489A JP2014194489A JP2016066901A JP 2016066901 A JP2016066901 A JP 2016066901A JP 2014194489 A JP2014194489 A JP 2014194489A JP 2014194489 A JP2014194489 A JP 2014194489A JP 2016066901 A JP2016066901 A JP 2016066901A
Authority
JP
Japan
Prior art keywords
information
image
imaging
unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014194489A
Other languages
English (en)
Inventor
小坂谷 達夫
Tatsuo Kosakaya
達夫 小坂谷
湯浅 真由美
Mayumi Yuasa
真由美 湯浅
山口 修
Osamu Yamaguchi
修 山口
昌之 丸山
Masayuki Maruyama
昌之 丸山
智一 河原
Tomokazu Kawahara
智一 河原
ヴェトクォク ファン
Viet Quoc Pham
ヴェトクォク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014194489A priority Critical patent/JP2016066901A/ja
Priority to US14/858,116 priority patent/US20160088261A1/en
Publication of JP2016066901A publication Critical patent/JP2016066901A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】携帯端末から人物の映像情報から得られる情報を用いて、ユーザが容易に所望のカメラの位置を特定する
【解決手段】撮像部特定システムは第1撮像部と送信部とを有する携帯型端末と、複数の第2撮像部と、抽出部と、算出部と、特定部とを有する。携帯型端末は、撮像部が人物の第1画像を撮像し、撮像した当該画像を送信する。複数の第2撮像部の少なくとも一つは、前記人物の第2画像を撮像する。抽出部は、前記第1画像の特徴を示す第1情報と前記第2画像の特徴を示す第2情報を抽出する。算出部は、前記第1情報と前記第2情報とから類似度を算出する。特定部は、前記類似度が所定の閾値よりも大きい場合に、前記第2情報に対応付けられる前記第2画像を撮像した第2撮像部を特定する。
【選択図】 図1

Description

本発明は、撮像部特定システム、方法及びプログラムに関する。
多数の監視カメラが接続されているような監視カメラシステムにおいて、特定の監視カメラに対して映像を確認する、または画角などのパラメータを調節するなどのために、監視カメラの選択を行う装置がある。
例えば、携帯端末装置からの電波強度を複数の基地局装置で受信することで携帯端末の位置座標を測定し、この特定された位置に対応付けられた監視カメラを選択する装置が開示されている(特許文献1)。また、ユーザに面倒な操作を強いることなく、所望のシーンの映像を高い解像度で取得・配信することを可能とする映像配信システムが開示されている(特許文献2)。
しかしながら、全ての監視カメラの物理的な位置をあらかじめ計測、記録しておく必要があった。また、位置を予め計測できていない場合には、位置関係を特定するためにバーコード等を用いる必要があった。
特開2009−4977号公報 特開2004−7283号公報
これらは、位置関係が未計測のカメラについては選択できず、また位置関係を特定するために更にバーコード等を用意する必要があった。
本発明が解決しようとする課題は、携帯端末から人物の映像情報から得られる情報を用いて、ユーザが容易に所望のカメラの位置を特定することを可能とする撮像部特定システム、方法及びプログラムを提供することである。
上記課題を解決するために、撮像部特定システムは第1撮像部と送信部とを有する携帯型端末と、複数の第2撮像部と、抽出部と、算出部と、特定部とを有する。携帯型端末は、撮像部が人物の第1画像を撮像し、撮像した当該画像を送信する。複数の第2撮像部の少なくとも一つは、前記人物の第2画像を撮像する。抽出部は、前記第1画像の特徴を示す第1情報と前記第2画像の特徴を示す第2情報を抽出する。算出部は、前記第1情報と前記第2情報とから類似度を算出する。特定部は、前記類似度が所定の閾値よりも大きい場合に、前記第2情報に対応付けられる前記第2画像を撮像した第2撮像部を特定する。
第1の実施形態に係る撮像部特定システムを表す構成図。 第1の実施形態に係るカ撮像部特定システムの処理を示すフローチャート。 撮像部特定システムにおける情報の取得例。 撮像部特定システムにおえる候補選択例。 撮像部特定システムの変形例を表す図。 本実施形態の装置のハードウェア構成例を示す図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1の実施形態)
≪静止画像を用いる場合≫
図1は、第1実施形態の撮像部特定システム1の一例を示す構成図である。撮像部特定システム1は、第1撮像部10と送信部11とを有する携帯型端末100と、複数の第2撮像部20a〜20xと、抽出部3、算出部4、特定部5、受付部6、記憶部7、出力部8とを含むサーバー200を有する。
携帯型端末100は、静止画像(以降単に「画像」と称する)の撮像可能な第1カメラ(第1撮像部)10と撮像した画像をサーバー200に送信する送信部を有する。携帯型端末100は、ネットワークに接続されており、後述の第2撮像部と通信可能な機器である。ユーザは第1カメラ10で例えばユーザ自身を撮像する。撮像した画像(第1画像)は、サーバー200へ送る。以下ではユーザ自身を撮像する場合を例に説明するが、これに限らない。例えばユーザが複数人の場合など、撮像する人と撮像される人が異なっていてもよい。
サーバー200は、カメラ10が撮像した静止画像を受付部6で受け付ける。受け付けた画像は抽出部3に送る。また、受け付けた画像は記憶部7に一次保存してもよい。
第2カメラ(第2撮像部)20a〜20xは複数台からなる。例えば、複数台のカメラが特定の建物に設置され、建物内部、または建物周辺を撮像する監視カメラなどである。より具体的には、映像信号を出力可能なものである。ネットワークによって接続されるネットワークカメラでも良いし、コンポジット映像信号などを送信するアナログカメラでも、複数台接続されていればよい。例えば複数台が連携したセキュリティシステムなどでもよい。ここでは、第2カメラ20aがユーザ自身を撮影した場合を例に説明するが、これに限らない。第1カメラ10の場合と同様に、例えば例えばユーザが複数人の場合など、撮像する人と撮像される人が異なっていてもよい。第2カメラ20aはユーザを撮像する。撮像した画像(第2画像)を抽出部3へ送る。また、第2カメラ20aを識別するための情報と第2画像を対応づけた識別情報を特定部5へ送る。第2画像は記憶部7に1次保存してもよい。
抽出部3は、第1画像及び第2画像の特徴を示す第1情報及び第2情報を抽出する。例えば、画像中の顔の領域から、各々特徴量を抽出し、第情報及び第2情報とする。抽出した特徴量は算出部4に送る。
算出部4は、第1画像の特徴量と第2画像の特徴量との類似度を算出する。算出した類似度は特定部5へ送る。例えば顔の特徴量の場合、第1画像と第2画像の顔を照合する。
特定部5は、算出した類似度が所定の閾値よりも大きい場合に、第2情報に対応付けられる第2画像を撮像した第2カメラ20aを特定する。所定の閾値は事前の学習により決めてもよい。特定部は第2カメラ20aから取得したい識別情報と算出した類似度とを用い、複数台の第2カメラ20a〜20xから第2カメラ20aを特定する。
出力部8は第2カメラ20aを特定した結果を出力する。複数台の第2カメラ20a〜20xから第2カメラ20aの識別情報と結果とを対応付ける情報を新たに作成し、記憶部7に記憶させてもよい。
図2は第1実施形態に係る撮像部特定システム1の動作を説明するための図である。
まず、第1カメラ10及び第2カメラ20aでユーザを撮像する(S101)。第1カメラ10及び第2カメラ20aを用いて撮像する対象は、顔を含む人物などが好ましい。例えば、携帯型端末100の第1カメラ10でユーザ自身の顔を撮像した後、第2カメラ20aでユーザ自身の顔を含むようにカメラの撮像方向と対峙して撮像する。
第2カメラ20aは固定の監視カメラなどを想定している。例えば、作業者の顔を含む人物画像を利用する場合について図3を用いて説明する。ユーザは選択したい監視カメラの画角内で被写体として撮像されることが可能な位置、または移動すれば画角内に入ることが可能な位置にいる。まず、自身の顔を含むような画像を携帯型端末100で撮像する。この顔画像を第1のシグネチャ情報として送信する。一方で、特定対象の監視カメラについても自身を撮像することで同じユーザの顔画像を撮像することができる。これが後述する第2情報となる。同一ユーザは同時に2か所に存在することはないため、ユーザ自身または同じ対象人物を撮像することによって、監視カメラとの区別が可能となる。なお、監視カメラ間で撮影領域を共有している場合、作業者の顔が複数台の監視カメラで観測されるケースも考えられるが、その場合については後述する。
またカメラの種別は監視カメラに限らない。第2カメラ20aの撮像はリモートコントローラを利用して、ユーザに適したタイミングで撮像してもよいし、撮像特定システム1の作動中は、定期的に画像の撮像を行ってもよい。ここで、定期的とは、1秒に1回の撮像、1分に1回の撮像などと決めたものである。第2カメラ20aが定期的に画像を撮像する場合は、抽出部3が画像の取得があるまで、撮像した画像は一時的に記憶部7に保存する。
次に、第1カメラ10及び第2カメラ20aで撮像した画像から顔領域を抽出する(S102)。 抽出部3は第1カメラ10の撮像画像を取得した後に、記憶部7へ第2撮像部20aの時間的に最も近い撮像時間の画像を取得する。
顔の検出は例えば次のように行う。取得した画像の各画素領域の組の明度の差分値(Harr−Like特徴)を算出し、その差分値を算出する。この差分値と事前の学習によって定められた閾値とを比較することにより、注目領域に顔が写っているかどうかを識別する。なお、顔検出は、複数の特徴同士の相関(共起性)を評価するために、複数の明度差分値(Joint Harr−Like特徴)の閾値処理を組み合わせることで、より高精度に顔領域であるか否かを判断することもできる。判断する対象の領域を画像中で位置やサイズを変更しながら判断することで、顔領域の位置とサイズを検出してもよい。
ここでは顔を例に説明したが、例えば人物の全体像など場合は、人物の全体像を事前に学習した識別器を用い、対応する領域を抽出するようにする。顔や人物の全体像などを用いると、照合する領域が必然的に特定されるために良い。このため、第1カメラ10と第2カメラ20aの撮像方向が異なり、背景が違っていることを気にせずに容易に利用することができるので良い。
次に算出部4は顔領域の特徴量を用いて、特徴量間の類似度を算出する(S103)。顔画像のように対象が明示的に分かる領域を利用する場合は、顔認識技術などの利用が可能である。例えば人物全体を含む等の場合には、同等領域を抽出してテンプレートマッチング技術などにより類似度を計算すればよい。類似度計算の結果、所定の閾値以上の類似度を持つ第2画像を選別する。選別された第2画像が撮像された第2カメラ20aの識別情報を候補(以下、選択候補)とする。
次に特定部5は、類似度算出結果に基づいて第2カメラを特定する(S104)。図4では、複数台の監視カメラの映像信号から第2情報を抽出、第1情報と照合した結果、カメラ2から抽出された第2情報の類似度が高く、選択部に送信される例を表している。特定部では、照合した結果、一定以上の類似度を持つ監視カメラ選択候補から最終的なカメラ選択を行う。選択候補が1つのみの場合、それを選択する。一方、選択候補が複数あった場合は、類似度が最も高いものを選択する。あるいは、選択される監視カメラの数は1つとは限らないので、複数の選択候補のうち、類似度が高い順に所定数だけ選択しても良い。または、選択候補を携帯端末に送信し、作業者に選択候補から最終的な監視カメラを選択してもよい。
上述したように、撮像部特定システム1によれば、携帯型端末100から送信した画像と、監視カメラから得た画像とを照合することにより、位置計測によらない監視カメラ特定が可能となる。人物の映像情報から得られる情報を用いることで、ユーザが容易に所望のカメラの位置を特定することを可能になる。
≪動画像を用いる場合≫
第1カメラ10及び第2カメラ20a〜20xが動画像を取得できれば、抽出部3、算出部4で用いる情報は動画像より抽出される特徴量であってもよい。
たとえば、ユーザの身体の特定部位の動き、姿勢を用いた特徴量を利用してもよい。
この場合、取得した動画像から特定部位を検出し、特定部位の位置情報を時系列的に追跡した軌跡と、予め決められたパターンとの一致度を用いることも可能である。
(変形例1)
第1の実施形態に係る撮像部特定システム1はサーバーを介して第2撮像部を特定したが、図5に示すように、第2カメラ20に、受付部、抽出部、算出部、特定部、出力部、記憶部を有していてもよい。第2撮像部20a以外の画像は第2カメラを介して特定を行い、動作は第1実施形態の場合と同様である。
(ハードウェア構成)
図6は、本実施形態の撮像部特定装置1のハードウェア構成の一例を示すブロック図である。図6に示すように、本実施形態撮像部特定システム10は、CPUなどの制御装置601と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置602と、HDDやSSDなどの外部記憶装置603と、ディスプレイなどの表示装置604と、マウスやキーボードなどの入力装置605と、通信I/Fなどの通信装置606とを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。
本実施形態のストローク処理装置10で実行されるプログラムは、ROM等に予め組み込んで提供される。また、本実施形態のストローク処理装置10で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。また、本実施形態のストローク処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。
本実施形態の撮像部特定装置1で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、制御装置601が外部記憶装置603からプログラムを記憶装置602上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
以上説明したとおり、本実施形態によれば、携帯型端末から送信した画像と、監視カメラから得た画像とを照合することにより、位置計測によらない監視カメラ特定が可能となる。人物の映像情報から得られる情報を用いることで、ユーザが容易に所望のカメラの位置を特定することを可能になる。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
第1撮像部・・・10、第2撮像部・・・20、送信部・・・11、抽出部・・・3、算出部・・・4、特定部・・・5、受付部・・・6、記憶部・・・7、出力部・・・8

Claims (10)

  1. 人物の第1画像を撮像する第1撮像部と撮像した当該画像を送信する送信部とを有する携帯型端末と、
    前記人物の第2画像を撮像する複数の第2撮像部と、
    前記第1画像の特徴を示す第1情報と前記第2画像の特徴を示す第2情報を抽出する抽出部と、
    前記第1情報と前記第2情報とから類似度を算出する算出部と、
    前記類似度が所定の閾値よりも大きい場合に、前記第2情報に対応付けられる前記第2画像を撮像した第2撮像部を特定する特定部とを有する
    ことを特徴とする撮像部特定システム。
  2. 前記第1撮像部及び前記第2撮像部は前記人物を含む動画を撮像し、
    前記抽出部は、第1情報及び第2情報として前記人物の特定部位の時系列順の位置情報をそれぞれ抽出して第2抽出し、
    前記算出部は第1情報及び第2情報が予め決められたパターンとの類似度を算出する
    ことを特徴とする請求項1記載の撮像部特定システム。
  3. 前記携帯型端末は前記第1画像から画像の特徴を示す第1情報を抽出する特徴抽出部を更に有し、
    前記抽出部は前記第2画像の特徴を示す第2情報を抽出し、
    前記算出部は前記携帯型端末から前記第1情報と前記第2情報とを取得して、前記第1情報と前記第2情報とから類似度を算出する
    ことを特徴とする請求項1記載の撮像部特定システム。
  4. 前記携帯型端末は前記第1画像が撮像した画像の特徴を示す第1情報を抽出する特徴抽出部を更に有し、
    前記抽出部は前記第2撮像部が撮像した画像の特徴を示す第2情報を抽出し、
    前記算出部は前記携帯型端末から前記第1情報と前記第2情報とを取得して、前記第1情報と前記第2情報とから類似度を算出する
    ことを特徴とする請求項2記載の撮像部特定システム。
  5. 人物の第1画像を撮像する第1撮像ステップと
    撮像した当該画像を送信する送信ステップと、
    前記人物の第2画像を撮像する第2撮像ステップと、
    前記第1画像の特徴を示す第1情報と前記第2画像の特徴を示す第2情報を抽出する抽出ステップと、
    前記第1情報と前記第2情報とから類似度を算出する算出ステップと、
    前記類似度が所定の閾値よりも大きい場合に、前記第2情報に対応付けられる前記第2画像を撮像した第2撮像部を特定する特定ステップと
    を含む撮像部特定方法。
  6. 前記第1画像から画像の特徴を示す第1情報を抽出する特徴抽出ステップを更に有し、
    前記送信ステップは前記第1情報を送信し、
    前記抽出ステップは前記第2画像の特徴を示す第2情報を抽出し、
    前記算出ステップは前記携帯型端末から前記第1情報と前記第2情報とを取得して、前記第1情報と前記第2情報とから類似度を算出する
    ことを特徴とする請求項5記載の撮像部特定方法。
  7. 前記第1撮像ステップ及び前記第2撮像ステップは前記人物を含む動画を撮像し、
    前記抽出ステップは第1情報及び第2情報として前記人物の特定部位の時系列順の位置情報をそれぞれ抽出して第2抽出し、
    前記算出ステップは第1情報及び第2情報が予め決められたパターンとの類似度を算出する
    ことを特徴とする請求項5記載の撮像部特定方法。
  8. 人物の第1画像を撮像する第1撮像ステップと
    撮像した当該画像を送信する送信ステップと、
    前記人物の第2画像を撮像する第2撮像ステップと、
    前記第1画像の特徴を示す第1情報と前記第2画像の特徴を示す第2情報を抽出する抽出ステップと、
    前記第1情報と前記第2情報とから類似度を算出する算出ステップと、
    前記類似度が所定の閾値よりも大きい場合に、前記第2情報に対応付けられる前記第2画像を撮像した第2撮像部を特定する特定ステップと
    してコンピュータを機能させるためのプログラム。
  9. 前記第1画像から画像の特徴を示す第1情報を抽出する特徴抽出ステップを更に有し、
    前記送信ステップは前記第1情報を送信し、
    前記抽出ステップは前記第2画像の特徴を示す第2情報を抽出し、
    前記算出ステップは前記携帯型端末から前記第1情報と前記第2情報とを取得して、前記第1情報と前記第2情報とから類似度を算出する
    ことを特徴とする請求項8記載のプログラム。
  10. 前記第1撮像ステップ及び前記第2撮像ステップは前記人物を含む動画を撮像し、
    前記抽出ステップは第1情報及び第2情報として前記人物の特定部位の時系列順の位置情報をそれぞれ抽出して第2抽出し、
    前記算出ステップは第1情報及び第2情報が予め決められたパターンとの類似度を算出する
    ことを特徴とする請求項8記載のプログラム。
JP2014194489A 2014-09-24 2014-09-24 撮像部特定システム、方法及びプログラム Pending JP2016066901A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014194489A JP2016066901A (ja) 2014-09-24 2014-09-24 撮像部特定システム、方法及びプログラム
US14/858,116 US20160088261A1 (en) 2014-09-24 2015-09-18 System and a method for specifying an image capturing unit, and a non-transitory computer readable medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014194489A JP2016066901A (ja) 2014-09-24 2014-09-24 撮像部特定システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2016066901A true JP2016066901A (ja) 2016-04-28

Family

ID=55526990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014194489A Pending JP2016066901A (ja) 2014-09-24 2014-09-24 撮像部特定システム、方法及びプログラム

Country Status (2)

Country Link
US (1) US20160088261A1 (ja)
JP (1) JP2016066901A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012631A (ja) * 2019-07-09 2021-02-04 キヤノン株式会社 映像処理システム、情報処理装置、情報処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105697A (ja) * 2007-10-24 2009-05-14 Omron Corp 自動撮影システム、撮影カメラ装置、撮影カメラ装置制御プログラム、自動撮影管理サーバ、および自動撮影管理サーバ制御プログラム
JP2014179740A (ja) * 2013-03-14 2014-09-25 Mitsubishi Electric Corp 映像検索装置、映像検索システム、および映像検索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105697A (ja) * 2007-10-24 2009-05-14 Omron Corp 自動撮影システム、撮影カメラ装置、撮影カメラ装置制御プログラム、自動撮影管理サーバ、および自動撮影管理サーバ制御プログラム
JP2014179740A (ja) * 2013-03-14 2014-09-25 Mitsubishi Electric Corp 映像検索装置、映像検索システム、および映像検索方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012631A (ja) * 2019-07-09 2021-02-04 キヤノン株式会社 映像処理システム、情報処理装置、情報処理方法及びプログラム
JP7374632B2 (ja) 2019-07-09 2023-11-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20160088261A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
WO2019071664A1 (zh) 结合深度信息的人脸识别方法、装置及存储介质
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
CN108875507B (zh) 行人跟踪方法、设备、系统和计算机可读存储介质
JP6094903B2 (ja) 受信装置及び受信側画像処理方法
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
JP2018061114A (ja) 監視装置および監視方法
CN111670456B (zh) 信息处理装置、追踪方法和记录介质
CN108875506B (zh) 人脸形状点跟踪方法、装置和系统及存储介质
US10623629B2 (en) Imaging apparatus and imaging condition setting method and program
US20170200044A1 (en) Apparatus and method for providing surveillance image based on depth image
KR101360999B1 (ko) 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기
WO2020008711A1 (ja) 学習装置、学習システム、及び学習方法
JP2007249298A (ja) 顔認証装置および顔認証方法
CN111294552A (zh) 图像采集设备确定方法及装置
JP2018186397A (ja) 情報処理装置、映像監視システム、情報処理方法及びプログラム
JP2016066901A (ja) 撮像部特定システム、方法及びプログラム
CN110268438B (zh) 图像数据库构建装置、位置和倾斜估计装置以及图像数据库构建方法
JPWO2019097690A1 (ja) 画像処理装置、制御方法及び制御プログラム
JP6218102B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6267350B2 (ja) データ処理装置、データ処理システム、データ処理方法及びプログラム
KR101737619B1 (ko) 얼굴 인식 장치 및 방법
JP2015187770A (ja) 画像認識装置、画像認識方法及びプログラム
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
JP2018195872A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160916

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171121