JP6756338B2 - 画像処理装置、画像処理システム、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6756338B2
JP6756338B2 JP2017555950A JP2017555950A JP6756338B2 JP 6756338 B2 JP6756338 B2 JP 6756338B2 JP 2017555950 A JP2017555950 A JP 2017555950A JP 2017555950 A JP2017555950 A JP 2017555950A JP 6756338 B2 JP6756338 B2 JP 6756338B2
Authority
JP
Japan
Prior art keywords
unit
tracking
area
feature
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017555950A
Other languages
English (en)
Other versions
JPWO2017104372A1 (ja
Inventor
翔太郎 小元
翔太郎 小元
慶二 大村
慶二 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPWO2017104372A1 publication Critical patent/JPWO2017104372A1/ja
Application granted granted Critical
Publication of JP6756338B2 publication Critical patent/JP6756338B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。
近年、ビデオカメラ等の撮像装置により録画して得られた映像データを分析して、目的物の検出、または、映像上の物体の動きの追跡をする等の画像処理技術の発展が著しい。目的物の検出または追跡をするための画像処理の手法としては、背景差分、フレーム間差分、パーティクルフィルタ、オプティカルフロー、ミーンシフト(Mean Shift)法、テンプレートマッチング、および特徴量マッチング等の種々の方法が知られている。
このような対象物体を追跡する技術として、対象物体の特徴点の追跡手段と、ヒストグラムを用いた再発見手段とを組み合わせて、対象物体が有する特徴領域を精度よく追跡する技術が開示されている(特許文献1参照)。
特開2005−309746号公報
しかしながら、特許文献1に記載された技術は、周囲に対象物体の特徴領域に類似する領域が存在する場合、誤検出する可能性があるという問題点がある。
本発明は、上記に鑑みてなされたものであって、特定の追跡対象のみを精度よく追跡することができる画像処理装置、画像処理システム、画像処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、撮像装置で撮像された映像データを表示装置の所定の表示領域に再生表示させる再生部と、前記再生部により表示された前記映像データの第1フレームにおいて、追跡対象について予め登録された特徴情報に基づいて複数の特徴領域を検出する特徴領域検出部と、前記特徴領域検出部により検出された前記複数の特徴領域に基づいて、前記追跡対象を含む追跡領域を検出する追跡領域検出部と、前記追跡対象の軌跡を示す軌跡線を前記映像データに重畳して表示させる軌跡生成部と、を備え、前記再生部は、前記軌跡線上のいずれかの部分が入力部に対する操作により選択された場合、該部分に対応する前記映像データのフレームから再生表示させ、前記再生部は、前記表示領域に表示された前記軌跡線が交差する部分に対して前記入力部に対する操作により選択された場合、交差しているいずれの線を選択するかの選択を受け付ける表示を行うことを特徴とする。
本発明によれば、特定の追跡対象のみを精度よく追跡することができる。
図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。 図2は、実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。 図3は、実施の形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。 図4は、実施の形態に係る情報処理装置の色登録処理の流れの一例を示すフローチャートである。 図5は、実施の形態に係る情報処理装置の表示部に表示される追跡画面において映像が表示されている状態の例を示す図である。 図6は、実施の形態に係る情報処理装置において追跡対象の色を登録する操作について説明する図である。 図7は、実施の形態に係る情報処理装置の表示部に表示された追跡対象を検出するフレームの一例を示す図である。 図8は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて登録した色を有する領域を抽出した抽出画像の一例を示す図である。 図9は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて抽出画像から二値化した二値化画像の一例を示す図である。 図10は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて二値化画像の各ブロックに対してラベリング処理を行ったラベリング画像の一例を示す図である。 図11は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて特定のブロックのみを残した対象特定画像の一例を示す図である。 図12は、実施の形態に係る情報処理装置の表示部に表示されたフレームについての対象特定画像から検出した2つの特徴領域およびそれらの距離について説明する図である。 図13は、実施の形態に係る情報処理装置の表示部に表示されたフレームについての対象特定画像で探索領域を決定する動作を説明する図である。 図14は、実施の形態に係る情報処理装置の追跡対象の追跡処理の流れの一例を示すフローチャートである。 図15は、実施の形態に係る情報処理装置の追跡処理で検出した追跡領域の情報を示す追跡結果テーブルの一例を示す図である。 図16は、実施の形態に係る情報処理装置の表示部に表示される映像に軌跡線を重畳させた状態の一例を示す図である。 図17は、実施の形態に係る情報処理装置の表示部に表示された軌跡線を選択操作した場合の動作について説明する図である。 図18は、作業者が装着した2色のリストバンドを追跡対象とした例について説明する図である。 図19は、買物客が持つカゴに装着した2色のシートを追跡対象とした例について説明する図である。 図20は、書道の筆に添付した2色のシールを追跡対象とした例について説明する図である。 図21は、実施の形態の変形例1に係る情報処理装置において追跡対象が有する形状を登録する操作について説明する図である。 図22は、実施の形態の変形例2に係る情報処理装置の複数の追跡対象の追跡処理を説明する図である。
以下に、図面を参照しながら、本発明に係る画像処理装置、画像処理システム、画像処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
(画像処理システムの全体構成)
図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。図1を参照しながら、本実施の形態の画像処理システム1の全体構成について説明する。
図1に示すように、本実施の形態の画像処理システム1は、撮像装置2a〜2fと、情報処理装置3と、ネットワーク4と、を含む。
撮像装置2a〜2fは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS]、25[FPS]等)である映像データを生成するビデオカメラである。例えば、撮像装置2a〜2fは、製品を生産する生産設備または生産ライン等で作業する作業者を撮像して映像データを生成する。
なお、撮像装置2a〜2fを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像処理システム1は、6台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。
情報処理装置3は、撮像装置2によって撮像された映像データに基づいて画像処理を実行する画像処理装置として機能するPC(Personal Computer)またワークステーション等である。また、情報処理装置3は、生産設備等の外部機器10と、例えば、フィールドバス規格による通信が可能となるように接続している。
ネットワーク4は、撮像装置2a〜2fと、情報処理装置3とを接続するための、例えば、Ethernet(登録商標)規格のネットワークである。この場合、ネットワーク4では、TCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。また、この場合、撮像装置2a〜2fおよび情報処理装置3は、TCP/IPのプロトコルにより通信するためのMAC(Media Access Control)アドレスを有し、かつプライベートIPアドレス等のIPアドレスが割り当てられている。また、ネットワーク4の具体的な構成は、例えば、複数のポートを有するスイッチングハブに撮像装置2a〜2fおよび情報処理装置3それぞれがLAN(Local Area Network)ケーブルによって接続されたスター配線形式が一例として挙げられる。
なお、図1に示すネットワーク4は、TCP/IPにより通信される例を示したが、これに限定されるものではなく、例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを有し、複数の撮像装置2がVGAケーブルまたはUSBケーブルで情報処理装置3に接続された形態等であってもよい。
(情報処理装置のハードウェア構成)
図2は、実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施の形態の情報処理装置3のハードウェア構成について説明する。
図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、外部記憶装置104と、ディスプレイ105と、ネットワークI/F106と、キーボード107と、マウス108と、DVD(Digital Versatile Disc)ドライブ109と、外部機器I/F111と、を備えている。
CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のBIOS(Basic Input/Output System)およびファームウェア等のプログラムを記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。
外部記憶装置104は、撮像装置2により撮像された映像データ、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。
ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像判定動作を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display:液晶ディスプレイ)または有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。
ネットワークI/F106は、ネットワーク4に接続してデータ通信するためのインターフェースである。ネットワークI/F106は、例えば、TCP/IPのプロトコルで通信可能にするNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2から、ネットワーク4およびネットワークI/F106を介して、映像データを取得する。
キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の設定等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の設定等を行うための入力装置である。
DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。
外部機器I/F111は、外部機器10と接続してデータ通信をするためのインターフェースである。外部機器I/F111は、例えば、フィールドバス規格により通信可能にするインターフェースカードである。具体的には、情報処理装置3は、外部機器10と、外部機器I/F111を介してデータ通信を行う。
上述のCPU101、ROM102、RAM103、外部記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108、DVDドライブ109、および外部機器I/F111は、アドレスバスおよびデータバス等のバス113によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。
(情報処理装置のブロック構成)
図3は、実施の形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、情報処理装置3のブロック構成について説明する。
図3に示すように、情報処理装置3は、映像受信部301と、入力部302と、設定部303と、記憶部304と、再生部305と、取得部306と、指定部307と、登録部308と、探索領域決定部309(決定部)と、検出部310(特徴領域検出部)と、距離算出部311(算出部)と、判定部312と、更新部313(追跡領域検出部)と、移動量算出部314と、軌跡生成部315(生成部)と、管理部316と、表示制御部317と、表示部318(表示装置)と、を備えている。なお、図3においては、説明を簡略化するため、ネットワーク4の図示を省略して説明する。
映像受信部301は、ネットワーク4を介して、撮像装置2から映像データを受信する機能部である。映像受信部301は、受信した映像データを記憶部304に記憶させる。映像受信部301は、図2に示すネットワークI/F106によって実現される。
入力部302は、情報処理装置3に色登録処理、および追跡対象の追跡処理等を実行させるための操作入力を行う装置である。入力部302は、図2に示すキーボード107およびマウス108によって実現される。
設定部303は、ユーザにより操作される入力部302からの操作信号に従って、各種設定情報を設定して記憶部304に記憶させる機能部である。設定部303は、例えば、後述するように登録部308により登録された基準色を中心とする所定範囲を示す情報(以下、「追跡パラメータ」という場合がある)を設定し、設定した追跡パラメータを、記憶部304に記憶させる。ここで、基準色を中心とする所定範囲は、基準色がRGB色空間で表される場合、基準色のR値に所定量を加算した上限値、および所定量を減算した下限値が設定されることによって、基準色のR値を中心とする所定範囲が定まる。基準色のG値およびB値についても、同様である。なお、所定量は、R値、G値およびB値それぞれ別々の値が設定されるものとしてもよい。設定部303は、図2に示すCPU101により実行されるプログラムによって実現される。
記憶部304は、映像受信部301により受信された映像データ、および各種設定情報等を記憶する機能部である。記憶部304は、映像受信部301により受信された映像データが、どの撮像装置2により生成された映像データであるかを識別して記憶する。記憶部304は、例えば、図2に示すRAM103または外部記憶装置104によって実現される。なお、図3に示すように、記憶部304は、情報処理装置3に含まれるものとしているが、これに限定されるものではなく、例えば、外付けの外部記憶装置であってもよく、または、サーバ装置等外部機器に備えられているものとしてもよい。
再生部305は、ユーザにより操作される入力部302からの操作信号に従って、記憶部304から取得した映像データを表示制御部317に送り、表示制御部317に対して映像データを表示部318に再生表示させる機能部である。具体的には、再生部305は、後述する図5に示すように、表示部318に表示される追跡画面400の映像表示部401に映像データを再生表示させる。再生部305は、図2に示すCPU101により実行されるプログラムによって実現される。
取得部306は、記憶部304に記憶された映像データから、追跡対象の追跡処理の対象となるフレームを取得する機能部である。取得部306は、図2に示すCPU101により実行されるプログラムによって実現される。
指定部307は、ユーザにより操作される入力部302からの操作信号に従って、表示部318で映像データを表示する表示領域(後述する図5に示す映像表示部401)において、追跡対象の追跡処理で使用する特徴量(特徴情報)としての色を特定するための指定領域(例えば、後述する図6に示す第1指定領域550および第2指定領域551)を指定する機能部である。指定部307は、指定した指定領域の情報を、撮像装置2ごとに関連付けて記憶部304に記憶させる。指定部307は、図2に示すCPU101により実行されるプログラムによって実現される。
登録部308は、指定部307により指定された指定領域の画素値に基づいて、その指定領域の色を基準色として特定し、特定した基準色の情報を記憶部304に記憶(登録)する機能部である。登録部308は、指定部307により指定された2つの指定領域(例えば、後述する図6に示す第1指定領域550および第2指定領域551)に基づいて、2つの基準色を特定する。ここで、映像表示部401に表示される映像データのフレームの画素値は、例えば、RGB色空間、またはHSV色空間等に基づいた色を示す情報である。具体的には、登録部308は、例えば、指定領域に含まれる画素の画素値の平均値を算出し、その平均値を基準色として特定する。なお、登録部308は、指定領域の中央の画素の画素値を基準色として特定してもよい。登録部308は、図2に示すCPU101により実行されるプログラムによって実現される。
探索領域決定部309は、追跡対象の追跡処理の対象となるフレームの中で、検出部310が、登録部308により登録された色を有する特徴領域を検出するための探索領域を決定する機能部である。例えば、検出部310により特定のフレームで特徴領域が検出されなかった場合、探索領域決定部309は、特定のフレームにおける探索領域よりも所定量だけ探索領域を拡大して、特定フレームの次のフレームでの探索領域として決定する。探索領域決定部309は、図2に示すCPU101により実行されるプログラムによって実現される。
検出部310は、追跡対象の追跡処理の対象となるフレームのうち探索領域決定部309により決定された探索領域内で、2つの基準色を用いて特徴領域を検出する機能部である。具体的には、検出部310は、追跡対象の追跡処理の対象となるフレームについて、後述する抽出処理、二値化処理、およびラベリング処理等の処理を実行し、上述した基準色を中心とする所定範囲(以下、「基準色範囲」という場合がある)に入る色の画素を含むブロックに対応する領域を特徴領域として検出する。この検出部310による特徴領域の検出動作については、図7〜13において後述する。検出部310は、図2に示すCPU101により実行されるプログラムによって実現される。
距離算出部311は、検出部310により検出された2つの特徴領域の距離を算出する機能部である。具体的には、距離算出部311は、2つの特徴領域それぞれが含む画素のうち、最も近接する画素同士の距離を算出する。距離算出部311は、図2に示すCPU101により実行されるプログラムによって実現される。
判定部312は、検出部310により検出された2つの特徴領域が近接しているか否かを判定する機能部である。具体的には、判定部312は、距離算出部311により算出された2つの特徴領域の距離が所定の閾値以下であるか否かを判定する。判定部312は、図2に示すCPU101により実行されるプログラムによって実現される。
更新部313は、判定部312により2つの特徴領域の距離が所定の閾値以下であると判定された場合、その2つの特徴領域を含む領域を追跡領域として検出する機能部である。すなわち、更新部313は、検出した追跡領域を、現在の追跡対象を含む領域であるものとして更新する。また、更新部313は、検出した追跡領域の情報を、検出したフレームと関連付けて、記憶部304に記憶させる。ここで、追跡領域の情報とは、例えば、追跡領域の中心点の座標、および追跡領域の大きさ等の情報である。更新部313は、図2に示すCPU101により実行されるプログラムによって実現される。
移動量算出部314は、追跡対象の移動量を算出する機能部である。具体的には、移動量算出部314は、記憶部304に記憶された映像データの各フレームに対応した追跡領域の情報のうちの追跡領域の中心点の移動量を算出する。追跡領域の中心点の移動量は、下記の式(1)に示すように、各フレーム間での追跡領域の中心点の移動量の総和で求められる。
Figure 0006756338
式(1)において、dは、追跡領域の中心点の移動量であり、iはフレーム番号であり、xiは、フレーム番号iのフレームにおける追跡領域の中心点のx座標(フレームの横軸方向の座標)、yiは、フレーム番号iのフレームにおける追跡領域の中心点のy座標(フレームの縦方向の座標)である。したがって、移動量算出部314は、式(1)を用いて、フレーム番号0のフレームから、フレーム番号nのフレームまでの追跡領域の中心点の移動量を算出することができる。移動量算出部314は、図2に示すCPU101により実行されるプログラムによって実現される。なお、移動量算出部314は、複数の撮像装置2により撮像され、同期して記憶部304に記憶された映像データを用いることで、より正確な移動量を算出することができる。例えば、奥行き方向(z軸方向)を撮影した映像データを別に用いることにより、奥行き方向の移動量も算出することができる。
軌跡生成部315は、追跡対象の軌跡を示す軌跡線を生成し、表示制御部317に対して、映像表示部401に再生表示している映像データに軌跡線を重畳して表示させる機能部である。具体的には、軌跡生成部315は、記憶部304から読み出した映像データのフレームのうち、あるフレームで検出された追跡領域の中心点と、次のフレームで検出された追跡領域の中心点とを線で結んでいき、その線を軌跡線として映像データに重畳して表示させる。なお、軌跡生成部315は、追跡領域の中心点ではなく、少なくとも追跡領域に含まれるいずれかの点(画素)を結んで軌跡線を生成するものとしてもよい。軌跡生成部315は、図2に示すCPU101により実行されるプログラムによって実現される。
管理部316は、ユーザにより操作される入力部302からの操作信号に従って、映像表示部401に表示されている映像データについて、登録部308により登録された基準色によって特定される追跡対象の追跡処理を開始または停止させる機能部である。また、管理部316は、情報処理装置3の全体の動作の管理を行う。管理部316は、図2に示すCPU101により実行されるプログラムによって実現される。
表示制御部317は、表示部318の表示動作を制御する機能部である。具体的には、表示制御部317は、再生部305により取得された映像データ、設定部303により設定された設定情報、および、指定部307により指定された指定領域等を、表示部318に表示させる。表示制御部317は、図2に示すCPU101により実行されるプログラム(ドライバ)によって実現される。
表示部318は、表示制御部317の制御に従って各種データを表示する装置である。表示部318は、本実施の形態では特に、図2に示すCPU101により実行されるプログラム(アプリケーション)により、後述する追跡画面400等を表示する。表示部318は、図2に示すディスプレイ105によって実現される。
なお、図3に示した映像受信部301、入力部302、設定部303、記憶部304、再生部305、取得部306、指定部307、登録部308、探索領域決定部309、検出部310、距離算出部311、判定部312、更新部313、移動量算出部314、軌跡生成部315、管理部316、表示制御部317および表示部318の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。
また、図3に示した各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
また、以降の説明の簡略化のため、表示制御部317が、受け取ったデータを表示部318に表示させるという表現を、単に、そのデータを表示制御部317に送った機能部が、表示部318(または、表示部318が表示する画面)に表示させると表現するものとする。例えば、再生部305が、映像データを表示制御部317に送り、表示制御部317に対して映像データを表示部318に再生表示させる場合、単に、再生部305が、映像データを表示部318に再生表示させると表現するものとする。
(色登録処理)
図4は、実施の形態に係る情報処理装置の色登録処理の流れの一例を示すフローチャートである。図5は、実施の形態に係る情報処理装置の表示部に表示される追跡画面において映像が表示されている状態の例を示す図である。図6は、実施の形態に係る情報処理装置において追跡対象の色を登録する操作について説明する図である。図4〜6を参照しながら、本実施の形態に係る情報処理装置3の色登録処理の流れについて説明する。
まず、色登録処理の流れを説明するにあたって、図5を参照しながら、追跡画面400の構成について説明する。追跡画面400は、色登録処理により特徴量である色を登録し、映像表示部401に再生表示される特定の追跡対象の追跡処理を行うための画面である。追跡画面400は、図5に示すように、映像表示部401(表示領域)と、カメラ選択タブ401aと、映像操作ボタン部403と、シークバー404と、スライダ405と、拡大縮小ボタン部406と、スパン変更ボタン部407と、時刻表示部408と、追跡開始ボタン409と、追跡停止ボタン410と、を含む。
映像表示部401は、ユーザにより操作される入力部302からの操作信号に従って、再生部305によって記憶部304から取得された映像データを再生表示される表示部である。図5の例では、記憶部304は、ユーザによる入力部302の操作により、「2」のカメラ選択タブ401aが選択操作されると、撮像装置2bにより撮像された映像データを映像表示部401に再生表示させる。
カメラ選択タブ401aは、ユーザが再生表示を所望する撮像装置2a〜2fの映像データのうちいずれの映像データを映像表示部401に表示させるのかを選択する操作部である。例えば、撮像装置2a〜2fによって撮像された映像データは、それぞれ「1」〜「6」に対応付けられており、図5の例では、「2」すなわち撮像装置2bの映像データが選択された例を示している。
映像操作ボタン部403は、ユーザによる入力部302の操作により、映像表示部401での映像データの再生、早戻し、早送り、停止および一時停止を行うボタン群である。シークバー404は、その上に配置されるスライダ405の位置により、映像表示部401に再生表示されている映像データがどの時間のものなのかを示す棒状の形状体である。スライダ405は、映像表示部401に再生表示されている映像データの撮像時刻(表示されているフレームが撮像された時刻)に対応したシークバー404上の位置にスライドする形状体かつ操作部である。逆に、スライダ405は、ユーザによる入力部302の操作によってスライドされると、再生部305によって、スライダ405が存在するシークバー404上の位置に対応した撮像時刻の映像データのフレームが映像表示部401に表示される。
拡大縮小ボタン部406は、ユーザによる入力部302の操作により、再生部305によって、映像表示部401に再生表示されている映像データが拡大表示または縮小表示されるボタン群である。例えば、拡大縮小ボタン部406のうち拡大ボタンを押下するごとに、所定の拡大率で映像データが拡大表示される。例えば、通常の表示状態を100%として、120%、140%、・・・のように拡大表示される。
スパン変更ボタン部407は、ユーザによる設定部303の操作により、再生部305によって、シークバー404の表示スパンが拡大または縮小されるボタン群である。なお、シークバー404の表示スパンを拡大または表示するのは再生部305である必要はなく、異なる機能部が担うものとしてもよい。
時刻表示部408は、再生部305によって、映像表示部401に再生表示されている映像データの撮像日付および撮像時刻を表示する表示領域である。
追跡開始ボタン409は、ユーザによる入力部302の操作によって押下されると、管理部316に、映像表示部401に再生表示されている映像データにおいて、基準色によって特定される追跡対象の追跡処理を開始させるボタンである。追跡停止ボタン410は、ユーザによる入力部302の操作によって押下されると、管理部316によって、映像表示部401に再生表示されている映像データに対して行われている、基準色により特定される追跡対象の追跡処理を停止させるボタンである。
次に、色登録処理の具体的な流れを説明する。図5に示す追跡画面400は、再生部305により撮像装置2bに対応する映像データが再生表示されている状態を示している。
<ステップS11>
まず、映像表示部401において映像データの再生表示中に、色登録処理を所望する画像の部分が表示されているタイミングで、ユーザによる入力部302の操作によって映像操作ボタン部403の一時停止ボタンが押下されると、再生部305は、映像表示部401に再生表示されている映像データを一時停止させる。図5に示すように、一時停止した映像データのフレームには、作業者500が写っている。そして、取得部306は、一時停止した映像データから映像表示部401に表示されているフレームを取得する。そして、ステップS12へ移行する。
<ステップS12>
ここで、本実施の形態に係る情報処理装置3が映像表示部401に表示されているフレームにおいて追跡の対象とするのは、図6に示すように、作業者500の追跡対象501であるものとする。追跡対象501は、作業者500が着用している上着の一部であり、特定の色を有する第1色部501aと、第1色部501aとは異なる色を有する第2色部501bと、を含む。
ユーザによる入力部302の操作(例えば、マウス108のドラッグ操作)によって、指定部307は、取得部306により取得されたフレーム、すなわち、映像表示部401に表示されているフレームにおいて、図6に示すように、追跡対象の追跡処理で使用する特徴量としての色を特定するために、第1色部501aにおいて第1指定領域550を、第2色部501bにおいて第2指定領域551を指定する。すなわち、指定部307は、2つの異なる色を有する第1指定領域550および第2指定領域551を指定する。
なお、指定部307による指定領域の指定は、拡大縮小ボタン部406の拡大ボタンまたは縮小ボタンにより、映像表示部401に表示されているフレームを拡大または縮小した状態で行うことができるようにしてもよい。そして、ステップS13へ移行する。
<ステップS13>
登録部308は、指定部307により指定された第1指定領域550および第2指定領域551に基づいて、2つの基準色(第1指定領域550に対応する基準色を第1色とし、第2指定領域551に対応する基準色を第2色とする)を特定し、特定した2つの基準色の情報を記憶部304に記憶(登録)する。具体的には、登録部308は、例えば、各指定領域に含まれる画素の画素値の平均値を算出し、その平均値を基準色として特定する。
そして、設定部303は、登録部308により登録された基準色を中心とする所定範囲を示す情報を追跡パラメータとして設定し、設定した対追跡パラメータを、記憶部304に記憶させる。この追跡パラメータが設定されることによって、基準色範囲が定まる。
以上のステップS11〜S13によって、色登録処理(基準色の特定および登録)および追跡パラメータの設定が実行される。
(特徴領域の検出動作)
図7は、実施の形態に係る情報処理装置の表示部に表示された追跡対象を検出するフレームの一例を示す図である。図8は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて登録した色を有する領域を抽出した抽出画像の一例を示す図である。図9は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて抽出画像から二値化した二値化画像の一例を示す図である。図10は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて二値化画像の各ブロックに対してラベリング処理を行ったラベリング画像の一例を示す図である。図11は、実施の形態に係る情報処理装置の表示部に表示されたフレームについて特定のブロックのみを残した対象特定画像の一例を示す図である。図12は、実施の形態に係る情報処理装置の表示部に表示されたフレームについての対象特定画像から検出した2つの特徴領域およびそれらの距離について説明する図である。図13は、実施の形態に係る情報処理装置の表示部に表示されたフレームについての対象特定画像で探索領域を決定する動作を説明する図である。図7〜13を参照しながら、本実施の形態に係る情報処理装置3の検出部310による特徴領域の検出動作について説明する。
追跡画面400の映像表示部401には、図7に示す元画像450が表示されているものとする。元画像450には、第1色部501aおよび第2色部501bを含む追跡対象501を有する作業者500が写り込んでいる。以下、この元画像450を例にして、追跡対象501を検出する動作の一例について説明する。
まず、検出部310は、元画像450の画素から、画素値が2種類の基準色範囲に含まれる画素のみを抽出する抽出処理(第1処理)によって、図8に示す抽出画像451(第1画像)を得る。また、図8に示すように、2つの基準色を特定するために指定領域が指定された第1色部501aおよび第2色部501bに対応する画素は、抽出処理によって抽出されることになる。また、元画像450には、登録部308により特定された基準色に近い色を有する被写体が含まれている可能性があり、その基準色に近い色を有する画素、すなわち基準色範囲に含まれる画素値を有する画素は、抽出処理によって抽出される可能性がある。
次に、検出部310は、抽出処理により得た抽出画像451に対して二値化処理(第2処理)を行い、図9に示す二値化画像452(第2画像)を得る。ここで二値化処理としては、例えば、抜出処理によって抜き出した画素を白色の画素に置換し、抜き出した画素以外の領域の画素をすべて黒色の画素に置換する。なお、二値化処理としては、これに限定されるものではなく、所定の閾値以上の画素値を有する画素を白色の画素に置換し、閾値未満の画素値を有する画素を黒色の画素に置換する等の他の方法で二値化するものとしてもよい。図9に示す抽出画像451に対して二値化処理を行った二値化画像452では、白色の画素の集合体であるブロックとして、ブロック601a、601b、602、603a〜603dの7つのブロックが含まれている。
次に、検出部310は、二値化処理により得た二値化画像452に対してラベリング処理(第3処理)を行い、図10に示すラベリング画像453(第3画像)を得る。ここで、ラベリング処理とは、二値化処理により得られた各ブロック(白色の画素の集合体)を区別するために識別情報を与える処理である。ラベリング処理としては、例えば、二値化画像452に対して、各ブロックに含まれる画素の画素値を、そのブロックを一意に識別する数値に置き換える。例えば、図10に示すラベリング画像453の例では、検出部310は、ブロック602に含まれる画素の画素値を「1」に置換し、ブロック601aに含まれる画素の画素値を「2」に置換し、ブロック601bに含まれる画素の画素値を「3」に置換する。さらに、検出部310は、ブロック603a〜603dそれぞれに含まれる画素の画素値を、「4」〜「7」にそれぞれ置換する。これによって、各ブロックは、一意に区別されることになる。
次に、検出部310は、ラベリング処理により得たラベリング画像453に含まれる各ブロックについて、所定の面積未満のブロックを削除する処理を行い、図11に示す対象特定画像454を得る。検出部310は、この処理の結果、所定の面積未満であるブロック602、603a〜603dを削除し、所定の面積以上であるブロック601a、601bを残す。
次に、検出部310は、追跡対象501の追跡処理の対象となるフレームである元画像450の探索領域決定部309により決定された探索領域において、2種類の基準色範囲(所定の色範囲)に入る色の画素を含み、かつ、対象特定画像454のブロックに対応する画素の領域を特徴領域として検出する。ここで、元画像450が追跡処理の対象となる最初のフレームである場合、探索領域決定部309は、探索領域を元画像450全体に決定する。検出部310は、探索領域における特徴領域の検出動作の結果、図12に示すように、元画像450において、第1色についての基準色範囲に入る画素を含み、かつ、ブロック601aに対応する画素の領域である特徴領域701を検出する。また、検出部310は、第2色についての基準色範囲に入る画素を含み、かつ、ブロック601bに対応する画素の領域である特徴領域702を検出する。
次に、距離算出部311は、検出部310により検出された特徴領域701と特徴領域702との距離を算出する。具体的には、距離算出部311は、図12に示すように、特徴領域701および特徴領域702それぞれが含む画素のうち、最も近接する画素同士の距離Dを算出する。
次に、判定部312は、距離算出部311により算出された特徴領域701と特徴領域702との距離Dが所定の閾値以下であるか否かを判定する。判定部312により距離Dが所定の閾値より大きい場合、更新部313は、特徴領域701と特徴領域702とは近接していないと判断し、追跡対象501を含む追跡領域は検出できないと判断する。一方、判定部312により距離Dが所定の閾値以下である場合、更新部313は、特徴領域701と特徴領域702とは近接していると判断する。この場合、更新部313は、特徴領域701が内接する矩形状の特徴領域枠701a、および特徴領域702が内接する矩形状の特徴領域枠702aを指定し、特徴領域枠701aおよび特徴領域枠702a双方が内接する最小の矩形領域を、追跡対象501を含む追跡領域703として検出する。すなわち、更新部313は、検出した追跡領域703を、現在の追跡対象501(映像表示部401に表示されたフレームに含まれる追跡対象501)を含む領域であるものとして更新する。また、更新部313は、検出した追跡領域703の情報を、検出したフレーム(元画像450)と関連付けて、記憶部304に記憶させる。
そして、探索領域決定部309は、図13に示すように、更新部313により検出された追跡領域703の中心を中心とする所定の大きさの領域を、元画像450の次のフレームで追跡対象501を検出するための探索領域704として決定する。なお、図13に示す探索領域704は、矩形状の領域としているが、これに限定されるものではなく、円形状、または楕円形状等の異なる形状の領域としてもよい。
(追跡対象の追跡処理)
図14は、実施の形態に係る情報処理装置の追跡対象の追跡処理の流れの一例を示すフローチャートである。図15は、実施の形態に係る情報処理装置の追跡処理で検出した追跡領域の情報を示す追跡結果テーブルの一例を示す図である。図16は、実施の形態に係る情報処理装置の表示部に表示される映像に軌跡線を重畳させた状態の一例を示す図である。図17は、実施の形態に係る情報処理装置の表示部に表示された軌跡線を選択操作した場合の動作について説明する図である。図14〜17を参照しながら、本実施の形態に係る情報処理装置3の追跡対象の追跡処理の流れについて説明する。なお、予め、上述の色登録処理により、2つの基準色(第1色および第2色)が登録されているものとする。まず、映像表示部401において再生部305による映像データの再生表示中に、追跡対象(例えば、図16に示す追跡対象501)の追跡処理を所望するフレームが表示されているタイミングで、ユーザによる入力部302の操作によって追跡開始ボタン409が押下されると、再生部305に表示されたフレームから管理部316により追跡対象の追跡処理が開始される。なお、再生部305によって映像表示部401に再生表示される映像データは、撮像装置2から受信したリアルタイムの映像データであってもよく、または、記憶部304に記憶された過去の映像データであってもよい。
<ステップS31>
取得部306は、追跡開始ボタン409が押下された直後のタイミングで再生部305に表示されたフレーム、または、追跡処理が終了したフレームの次のフレームであって再生部305に表示されたフレームを取得する。なお、取得部306により取得されるフレームは、追跡処理が終了したフレームの次のフレームに限定されるものではなく、所定時間後に対応するフレームを取得するものとしてもよい。すなわち、追跡処理は、処理が開始された映像データのフレーム以降、フレーム毎に実行されることに限定せず、所定時間ごとのフレームに対して実行するものとしてもよい。以下、取得部306により取得されたフレームを「対象フレーム」(第1フレーム)という場合がある。そして、ステップS32へ移行する。
<ステップS32>
検出部310は、対象フレームの画素から、画素値が第1色および第2色についての基準色範囲に含まれる画素のみを抽出する抽出処理によって、抽出画像(例えば、図8に示す抽出画像451)を得る。そして、検出部310は、抽出処理により得た抽出画像に対して二値化処理を行い、二値化画像(例えば、図9に示す二値化画像452)を得る。二値化画像では、例えば、図9に示す二値化画像452のように、白色の画素の集合体であるブロックが含まれる。そして、ステップS33へ移行する。
<ステップS33>
検出部310は、二値化処理により得た二値化画像に対してラベリング処理を行い、ラベリング画像(例えば、図10に示すラベリング画像453)を得る。ラベリング処理としては、例えば、二値化画像に対して、各ブロックに含まれる画素の画素値を、そのブロックを一意に識別する数値に置き換える。これによって、各ブロックは、一意に区別されることになる。
次に、検出部310は、ラベリング処理により得たラベリング画像に含まれる各ブロックについて、所定の面積未満のブロックを削除する処理を行い、対象特定画像(例えば、図11に示す対象特定画像454)を得る。これは、細かいブロックを削除し、追跡対象に対応しないと思われるブロックを予め検出動作の対象外とすることを意図する処理である。そして、ステップS34へ移行する。
<ステップS34>
探索領域決定部309は、後述するステップS39において、更新部313により対象フレームの前のフレーム(第2フレームの一例)で検出された追跡領域の中心を中心とする所定の大きさの範囲を、対象フレームでの探索領域として決定する。ただし、対象フレームが追跡処理の対象となる最初のフレームである場合、探索領域決定部309は、探索領域を対象フレーム全体に決定する。なお、探索領域決定部309が決定する探索領域は、対象フレームの前のフレームで検出された追跡領域の中心を中心とする領域に限定されるものではなく、少なくとも、前のフレームで検出された追跡領域を含む領域を探索領域とするものとしてもよい。そして、ステップS35へ移行する。
<ステップS35>
検出部310は、探索領域決定部309により決定された対象フレームでの探索領域において、第1色についての基準色範囲に入る画素を含み、かつ、対象特定画像のブロックに対応する画素の領域を特定して、特定した領域を特徴領域(以下、「第1特徴領域」という場合がある)(例えば、図12に示す特徴領域701)として検出する。また、検出部310は、探索領域において、第2色についての基準色範囲に入る画素を含み、かつ、対象特定画像のブロックに対応する画素の領域を特定し、特定した領域を特徴領域(以下、「第2特徴領域」という場合がある)(例えば、図12に示す特徴領域702)として検出する。そして、ステップS36へ移行する。
<ステップS36>
ステップS35において、検出部310により2つの特徴領域(第1特徴領域および第2特徴領域)が検出された場合(ステップS36:Yes)、ステップS37へ移行し、第1特徴領域または第2特徴領域のうち少なくともいずれかが検出されなかった場合(ステップS36:No)、ステップS41へ移行する。
<ステップS37>
距離算出部311は、検出部310により検出された第1特徴領域と第2特徴領域との距離を算出する。具体的には、距離算出部311は、第1特徴領域および第2特徴領域それぞれが含む画素のうち、最も近接する画素同士の距離(例えば、図12に示す距離D)を算出する。そして、ステップS38へ移行する。
<ステップS38>
判定部312は、距離算出部311により算出された第1特徴領域と第2特徴領域との距離が所定の閾値以下であるか否かを判定する。判定部312により距離が所定の閾値より大きい場合(ステップS38:No)、更新部313は、第1特徴領域と第2特徴領域とは近接しておらず、追跡対象を含む追跡領域を検出できないと判断し、ステップS41へ移行する。一方、判定部312により距離が所定の閾値以下である場合(ステップS38:Yes)、更新部313は、第1特徴領域と第2特徴領域とは近接していると判断し、ステップS39へ移行する。
<ステップS39>
更新部313は、第1特徴領域が内接する矩形状の特徴領域枠(以下、「第1特徴領域枠」という)(例えば、図12に示す特徴領域枠701a)、および第2特徴領域が内接する矩形状の特徴領域枠(以下、「第2特徴領域枠」という)(例えば、図12に示す特徴領域枠702a)を指定する。そして、更新部313は、第1特徴領域枠および第2特徴領域枠双方が内接する最小の矩形領域を、追跡対象を含む追跡領域(例えば、図12に示す追跡領域703)として検出する。すなわち、更新部313は、検出した追跡領域を、現在の追跡対象(対象フレームに含まれる追跡対象)を含む領域であるものとして更新する。また、更新部313は、検出した追跡領域の情報を、対象フレームと関連付けて、記憶部304に記憶させる。例えば、更新部313は、図15に示す追跡結果テーブル1000のように、追跡領域の情報のうち追跡領域の中心座標と、フレーム番号と、追跡処理が開始されてからの経過時間と、が関連付けられた情報を、記憶部304に記憶させる。なお、追跡結果テーブル1000は、テーブル形式の情報としているが、これに限定されるものではなく、追跡領域の中心座標と、フレーム番号と、経過時間とを関連付ける情報であればどのような形式の情報であってもよい。そして、ステップS40へ移行する。
<ステップS40>
軌跡生成部315は、記憶部304に記憶された追跡結果テーブル1000から対象フレームに対応する追跡領域の中心座標と、対象フレームの前のフレームに対応する追跡領域の中心座標と、を読み出す。そして、軌跡生成部315は、対象フレームに対応する追跡領域の中心点と、対象フレームの前のフレームに対応する追跡領域の中心点とを結ぶ軌跡線を生成し、映像表示部401に表示されている対象フレームに重畳して表示させる。この場合、軌跡生成部315は、追跡処理開始後のフレームから、対象フレームの前のフレームまでのフレームについて生成した軌跡線も同様に、対象フレームに重畳して表示させる。これによって、映像表示部401には、映像データに重畳して、追跡処理開始後からの追跡対象の軌跡を示す軌跡線が表示されることになる。
また、移動量算出部314は、記憶部304に記憶された追跡結果テーブル1000から対象フレームに対応する追跡領域の中心座標と、対象フレームの前のフレームに対応する追跡領域の中心座標と、を読み出す。そして、移動量算出部314は、対象フレームに対応する追跡領域の中心座標と、対象フレームの前のフレームに対応する追跡領域の中心座標との距離(移動量)を算出し、追跡処理開始後のフレームから、対象フレームの前のフレームまでのフレームについて算出した移動量に加算する。すなわち、移動量算出部314により算出された移動量は、軌跡生成部315により生成された軌跡線の長さと同一である。
なお、軌跡生成部315は、図16に示すように、映像表示部401に表示されている対象フレーム(元画像450)に重畳させる軌跡線として、時系列に線種を切り替えた軌跡線800を表示させるものとしてもよい。図16に示す例では、軌跡線800を、時系列に最も古い軌跡を実線、最も新しい軌跡を点線、中間時の軌跡を破線で示している。これによって、追跡対象の軌跡線を見たときに、どの部分の軌跡が新しく、または古いのかが視覚的に把握できるので、軌跡線に基づく追跡対象の動作分析に役立てることができる。なお、図16に示す軌跡線800は、時系列に線種を切り替えて表示されているが、これに限定されるものではなく、時系列に軌跡線の色を切り替えたり、時系列に形状の異なるポイントでプロットすることにより軌跡線を表示するというように、軌跡線の各部分を時系列に応じて態様を変えて表示するものとしてもよい。
そして、ステップS42へ移行する。
<ステップS41>
探索領域決定部309は、検出部310により対象フレームの探索領域で追跡領域が検出されなかった、すなわち、追跡対象を見失ったと判断し、その探索領域を拡大して、対象フレームの次のフレーム(第3フレームの一例)での追跡処理において使用させる。探索領域の拡大方法としては、例えば、探索領域を横軸方向および縦軸方向に所定量だけ拡大させる方法、または、探索領域の形状を相似形(中心は同一)としたまま面積を所定割合だけ拡大させる方法等が挙げられる。これによって、対象フレームの次のフレームでの追跡処理において、追跡対象を再検出しやすくすることができる。そして、ステップS31へ戻る。
<ステップS42>
管理部316は、ユーザによる入力部302の操作により、追跡停止ボタン410が押下されたか否かを判定する。追跡停止ボタン410が押下された場合、管理部316は、追跡処理を終了するものとする(ステップS42:Yes)。一方、追跡停止ボタン410が押下されていない場合、管理部316は、追跡処理を続行させるものとし(ステップS42:No)、ステップS31へ戻る。
以上のステップS31〜S42によって、追跡対象の追跡処理が実行される。
なお、再生部305は、映像表示部401に表示された映像データに重畳して表示された軌跡線上のいずれかの部分が、ユーザによる入力部302の操作(例えば、マウス108のクリック操作)により選択された場合、軌跡線上の操作された部分に対応する日付・時刻のフレームから再生表示させるものとしてもよい。この場合、図17に示す軌跡線800のように、線が交差する部分に対して操作された場合、再生部305は、例えば、図17に示すように、フレーム選択ウィンドウ801を表示させ、交差している複数の線にそれぞれ対応する日付・時刻のフレームのうちいずれかを選択させるものとしてもよい。図17に示すフレーム選択ウィンドウ801の例では、追跡処理が開始されてからの時間を示す「Time 210(s)」と表記された選択ボタン801aと、「Time 300(s)」と表記された選択ボタン801bと、を含む。この場合、軌跡線800で交差している線のうち、選択ボタン801aに対応するものが破線で表示された部分であり、選択ボタン801bに対応するものが点線で表示された部分である。例えば、ユーザによる入力部302の操作により、選択ボタン801aが押下された場合、再生部305は、追跡処理が開始されてから210[秒]経過後に対応するフレームから再生表示させる。なお、再生部305は、軌跡線上の操作された部分に対応する日付・時刻のフレームから再生表示させるのではなく、そのフレームを一時停止の状態で表示され、ユーザによる入力部302の操作により映像操作ボタン部403の再生ボタンが押下された場合、再生表示を開始させるものとしてもよい。
また、図14に示す追跡処理のフローでは、対象フレーム全体について、抽出処理、二値化処理およびラベリング処理が行われているが、これに限定されるものではなく、検出部310は、抽出処理、二値化処理およびラベリング処理のうち少なくともいずれかを、探索領域決定部309により決定された探索領域で実行するものとしてもよい。これによって、追跡対象の追跡処理の負荷を軽減することができる。
(追跡対象の追跡処理の適用例)
次に、上述の追跡対象の追跡処理の適用例について説明する。
図18は、作業者が装着した2色のリストバンドを追跡対象とした例について説明する図である。図18に示す例では、映像表示部401に表示されているフレームにおいて追跡処理の対象とするのは、図18(a)に示すように、部品の組み付け作業等を行う作業者510の腕に装着されたリストバンドである追跡対象511である。追跡対象511は、特定の色を有する第1色部511aと、第1色部511aとは異なる色を有する第2色部511bと、を含む。
このように、追跡対象を作業者510が装着した2色のリストバンド(追跡対象511)とすることによって、図18(b)に示す軌跡重畳画像460の軌跡線810が示すように、リストバンドの動作を把握することができ、作業者510の作業効率の分析等を行うことができる。
図19は、買物客が持つカゴに装着した2色のシートを追跡対象とした例について説明する図である。図19に示す例では、映像表示部401に表示されているフレームにおいて追跡処理の対象とするのは、売場A〜Iが設置されたスーパーマーケットで買物客520が持つカゴに装着した2色のシートである追跡対象521である。
このように、追跡対象を買物客520が持つカゴに装着した2色のシート(追跡対象521)とすることによって、図19に示す軌跡線820が示すように、買物客520の動作を把握することができ、スーパーマーケットに配置された商品に対する買物客520の嗜好性等の分析、および商品レイアウトの改善等を行うことができる。
図20は、書道の筆に添付した2色のシールを追跡対象とした例について説明する図である。図20に示す例では、映像表示部401に表示されているフレームにおいて追跡処理の対象とするのは、書道の筆に添付した2色のシールである追跡対象531である。
このように、追跡対象を書道の筆に添付した2色のシール(追跡対象531)とすることによって、図20が示す軌跡重畳画像470の軌跡線830が示すように、書道の筆の動きを把握することができ、熟練者の筆の動きと比較して書道の技能向上に役立てることができる。
以上のように、追跡対象が有する色のうち2つの色(第1色および第2色)を特徴量として予め登録し、検出部310がフレーム上で、その2つの色のうちいずれかを含む領域を特徴領域として検出し、判定部312により第1色を含む特徴領域と第2色を含む特徴領域とが近接していると判定された場合、更新部313は、これらの特徴領域が追跡対象を含む追跡領域であるものとして検出するものとしている。このように、追跡対象が有する2つの色を含む領域を検出するので、周囲に2つの色のうちいずれかを有する単一の領域が存在していても、追跡領域として誤検出することがなく、追跡対象の検出精度を向上させることができる。
また、探索領域決定部309により探索領域を決定し、検出部310は、探索領域内で追跡対象を検出する処理を実行しているので、処理の負荷を軽減することができ、かつ、不自然に離れた部分で類似の領域が特徴領域として検出されないようにすることができる。
また、検出部310が対象フレームの探索領域で追跡領域を検出できなかった(追跡対象を見失った)場合、探索領域決定部309は、探索領域を拡大し、対象フレームの次のフレームでの追跡処理に使用させるものとしている。これによって、対象フレームの次のフレームでの追跡処理において、追跡対象を再検出しやすくすることができる。
また、軌跡生成部315は、追跡対象の軌跡を示す軌跡線を、再生表示されている映像データに重畳して表示する。これによって、追跡対象の軌跡を視覚的に把握できるので、追跡対象の動作分析に役立てることができる。
なお、上述の追跡対象の追跡処理において、検出部310は、登録部308により予め登録された基準色に基づいて、各フレームにおいて特徴領域を検出するものとしたが、これに限定されるものではない。例えば、検出部310は、特定のフレームにおいて特徴領域を検出した場合、その特徴領域が含む画素の色に基づいて、基準色を更新し、次のフレームでは、更新した基準色に基づいて特徴領域を検出するものとしてもよい。これによって、追跡対象に対する周囲の環境変化(例えば、光の当たり方の変化等)が生じても、特徴領域を検出しやすくすることができる。
また、上述の追跡対象の追跡処理では、再生部305が再生表示している映像データについて、軌跡生成部315は、更新部313によりリアルタイムで検出された追跡領域を利用して軌跡線を重畳表示するものとしているが、これに限定されるものではない。すなわち、追跡対象の追跡処理において記憶部304に記憶された追跡結果テーブル1000が存在し、再生部305により対応する映像データが再度再生表示された場合、軌跡生成部315は、記憶部304に記憶された追跡結果テーブル1000の追跡領域の中心座標を参照し、参照した中心座標を用いて追跡対象の軌跡線を映像データの重畳表示するものとしてもよい。
また、登録部308は、指定部307により指定された2つの指定領域に基づいて、特徴量として2つの基準色を登録するものとしたが、これに限定されるものではなく、3つ以上の基準色を登録するものとしてもよい。この場合、3つの基準色が登録された場合、検出部310は、3つの基準色に基づいて3種類の特徴領域を検出するものとすればよい。そして、例えば、距離算出部311は、3種類の特徴領域のそれぞれ互いの距離を算出し、判定部312は、これらの距離について閾値判定し、更新部313は、これらの距離のすべてが閾値以下である場合、3種類の特徴領域を含む領域を追跡領域として検出して更新するものとすればよい。
また、上述では、2つの異なる基準色を登録するものとしたが、これに限定されるものではない。すなわち、基準色として1つを登録し、検出された2つの特徴領域(すなわち、双方同じ色の特徴領域)の距離が近接していることが判定されれば、追跡領域であると判断することは可能である。
また、上述の追跡対象の追跡処理では、検出部310がラベリング画像に対して、所定の面積未満のブロックを削除する処理を行っているが、この処理は行わないものとしてもよい。これによって、フレーム上では面積が小さくなる追跡対象でも追跡処理を実行しやすくすることができる。
(変形例1)
以下、図21を参照しながら、変形例1に係る情報処理装置3について、上述の実施の形態に係る情報処理装置3と相違する点を中心に説明する。上述の実施の形態では、特徴量を色とし、登録部308によって、2つの指定領域に基づいて2つの基準色を特定し、この2つの基準色を用いて追跡対象を検出する動作について説明した。本変形例では、特徴量を形状とし、登録部308によって、2つの指定領域それぞれに含まれる2つの形状を基準形状として特定し、この2つの基準形状を用いて追跡対象を検出する動作について説明する。なお、本変形例に係る画像処理システム1の構成、ならびに、情報処理装置3のハードウェア構成および機能ブロックの構成は、上述の実施の形態で説明したそれぞれの構成と同様である。
図21は、実施の形態の変形例1に係る情報処理装置において追跡対象が有する形状を登録する操作について説明する図である。まず、図21を参照しながら、本変形例の形状の登録処理について説明する。
本変形例に係る情報処理装置3が映像表示部401に表示されているフレームにおいて追跡の対象とするのは、図21に示すように、箱540の追跡対象541であるものとする。追跡対象541は、箱540の側面に添付されたシール等であり、特定の形状が表された第1形状部541aと、第1形状部541aとは異なる形状を有する第2形状部541bと、を含む。
ユーザによる入力部302の操作(例えば、マウス108のドラッグ操作)によって、指定部307は、取得部306により取得されたフレーム、すなわち、映像表示部401に表示されているフレームにおいて、図21に示すように、追跡対象の追跡処理で使用する特徴量としての形状を特定するために、第1形状部541aにおいて第1指定領域560を、第2形状部541bにおいて第2指定領域561を指定する。すなわち、指定部307は、2つの異なる形状を有する第1指定領域560および第2指定領域561を指定する。
登録部308は、指定部307により指定された第1指定領域560および第2指定領域561に基づいて、2つの基準形状(第1指定領域560に対応する基準形状を第1形状とし、第2指定領域561に対応する基準形状を第2形状とする)を特定し、特定した2つの基準形状の情報を記憶部304に記憶(登録)する。具体的には、登録部308は、例えば、各指定領域においてエッジ検出等の画像処理を実行し、第1形状部541aについては第1抽出形状570(第1形状)を特定し、第2形状部541bについては第2抽出形状571(第2形状)を特定する。
そして、設定部303は、登録部308により登録された基準形状についてのテンプレートを追跡パラメータとして設定し、設定した追跡パラメータを、記憶部304に記憶させる。以上のような処理によって、形状の登録処理(基準形状の特定および登録)および追跡パラメータの設定が実行される。
次に、図21を参照しながら、本変形例の追跡対象の追跡処理について説明する。本変形例の追跡処理のうち、2つの特徴領域を検出した後の処理(図14の例では、ステップS36〜S42の処理)については、上述の実施の形態での追跡処理と同様なので、特徴領域の検出動作について説明する。
取得部306は、追跡開始ボタン409が押下された直後のタイミングで再生部305に表示されたフレーム、または、追跡処理が終了したフレームの次のフレームであって再生部305に表示されたフレームを取得する。以下、取得部306により取得されたフレームを「対象フレーム」という場合がある。
次に、探索領域決定部309は、図14に示すステップS39に相当する処理として、更新部313により対象フレームの前のフレームで検出された追跡領域の中心を中心とする所定の大きさの範囲を、対象フレームでの探索領域として決定する。ただし、対象フレームが追跡処理の対象となる最初のフレームである場合、探索領域決定部309は、探索領域を対象フレーム全体に決定する。
次に、検出部310は、対象フレームにおける探索領域決定部309により決定された探索領域内で、登録部308により登録された基準形状のテンプレートによるテンプレートマッチングを行う。具体的には、検出部310は、対象フレームの探索領域において、第1形状のテンプレートによるテンプレートマッチングを行い、マッチングした領域を第1特徴領域として検出する。また、検出部310は、対象フレームの探索領域において、第2形状のテンプレートによるテンプレートマッチングを行い、マッチングした領域を第2特徴領域として検出する。
追跡対象の追跡処理の残りの処理は、上述のように、図14に示すステップS36〜S42の処理と同様である。
以上のように、上述した実施の形態のように特徴として色ではなく、追跡対象が有する形状のうち2つの形状(第1形状および第2形状)を特徴量として予め登録し、検出部310がフレーム上で、その2つの形状のうちいずれかを含む領域を特徴領域として検出し、判定部312により第1形状を含む特徴領域と第2形状を含む特徴領域とが近接していると判定された場合、更新部313は、これらの特徴領域が追跡対象を含む追跡領域であるものとして検出するものとする。このように、追跡対象が有する2つの形状を含む領域を検出するので、周囲に2つの形状のうちいずれかの形状を有する単一の領域が存在していても、追跡領域として誤検出することがなく、追跡対象の検出精度を向上させることができる。
なお、上述の図21の説明では、2つの異なる形状を登録するものとしたが、これに限定されるものではない。すなわち、2つの形状が同じ形状であっても、検出された2つの特徴領域(すなわち、双方同じ形状の特徴領域)の距離が近接していることが判定されれば、追跡領域であると判断することは可能である。
また、上述の実施の形態では特徴量を色とし、変形例1では特徴量を形状としたが、これを組み合わせて用いることも可能である。この場合、基準色に基づいて検出された特徴領域と、基準形状に基づいて検出された特徴領域との距離が近接していれば、これらの特徴領域を含む領域が追跡領域であると判断できる。
(変形例2)
以下、図22を参照しながら、変形例2に係る情報処理装置3について、上述の実施の形態に係る情報処理装置3と相違する点を中心に説明する。上述の実施の形態では、対象フレーム内で1つの追跡対象を追跡する動作について説明した。本変形例では、対象フレーム内で複数の追跡対象を追跡する動作について説明する。なお、本変形例に係る画像処理システム1の構成、ならびに、情報処理装置3のハードウェア構成および機能ブロックの構成は、上述の実施の形態で説明したそれぞれの構成と同様である。
図22は、実施の形態の変形例2に係る情報処理装置の複数の追跡対象の追跡処理を説明する図である。図22を参照しながら、本変形例の対象フレーム内で複数の追跡対象を追跡する動作について説明する。この図22では、物流倉庫内で箱が自動で搬送される状態を示している。
登録部308が、指定部307により指定された2つの指定領域に基づいて、2つの基準色を特定し、特定した2つの基準色の情報を記憶部304に記憶(登録)する動作は、上述の実施の形態と同様である。
上述の図7〜図13では、1つの追跡対象について、特徴領域の検出動作について説明したが、複数の追跡対象についてもそのまま適用できる。この場合、検出部310によって、第1色および第2色についての2つの特徴領域の組み合わせが、複数検出された場合は、それぞれの組み合わせに対して、距離算出部311による距離の算出、判定部312による距離の閾値判定、および更新部313による追跡領域の検出および更新が行われるものとすればよい。また、更新部313により複数の追跡対象を含む追跡領域が検出された場合、探索領域決定部309は、それぞれの追跡領域の中心を中心とする所定の大きさの領域を、対象フレームの次のフレームでそれぞれ同じ追跡対象を検出するための探索領域として決定するものとすればよい。なお、複数の追跡対象がフレーム上のどこで出現するか判断できない場合、または、フレーム全域で出現する場合等では、探索領域決定部309により特定の探索領域を決定せず、特徴領域の検索動作は、フレーム全体で行うものとしてもよい。
図22に示す軌跡重畳画像480は、フレームに複数の追跡対象(製品545、546)が出現し、これらの追跡対象の追跡処理の結果を示す画像である。製品545、546は、それぞれ同じ2色の追跡対象(追跡対象545a、546a)を有する。これらの追跡対象545a、546aについて、検出部310による特徴領域の検出、距離算出部311による距離の算出、判定部312による距離の閾値判定、および更新部313による追跡領域の検出および更新が行われる。ここで、更新部313は、追跡対象545a、546aそれぞれに対応する追跡結果テーブル1000(図15参照)を記憶部304に記憶させる。そして、軌跡生成部315は、記憶部304に記憶された2種類の追跡結果テーブル1000それぞれから対象フレームに対応する追跡領域の中心座標と、対象フレームの前のフレームに対応する追跡領域の中心座標と、を読み出す。そして、軌跡生成部315は、対象フレームに対応する追跡領域の中心点と、対象フレームの前のフレームに対応する追跡領域の中心点とを結ぶ軌跡線を2つ生成し、映像表示部401に表示されている対象フレームに重畳して表示させる。この場合、軌跡生成部315は、追跡処理開始後のフレームから、対象フレームの前のフレームまでのフレームについて生成した2つの軌跡線も同様に、対象フレームに重畳して表示させる。これによって、映像表示部401には、映像データに重畳して、追跡処理開始後からの追跡対象の軌跡を示す軌跡線が2つ(軌跡線840、841)表示されることになる。これらの軌跡線840、841は、それぞれ追跡対象545a、546aの軌跡を示す線となる。
以上のように、追跡対象が複数の場合でも、それぞれに対して2つの色を含む領域を検出するので、上述の実施の形態と同様に、周囲に2つの色のうちいずれかを有する単一の領域が存在していても、追跡領域として誤検出することがなく、追跡対象の検出精度を向上させることができる。図22に示す例では、物流倉庫内で箱が自動で搬送される工程で、それぞれの箱を追跡できるので、搬送の停滞を検出することができる。
なお、複数の追跡対象の追跡処理において、登録部308により2つの色(第1色および第2色)を登録するものとしたが、これに限定されるものではない。例えば、1組の色(第1色および第2色)のみを登録することに限られず、2組以上の色を登録しておき、それぞれの組の色を有する特徴領域を検出することによって、それぞれの組の色を有する追跡対象を検出することが可能である。
また、本実施の形態および各変形例の設定部303、再生部305、取得部306、指定部307、登録部308、探索領域決定部309、検出部310、距離算出部311、判定部312、更新部313、移動量算出部314、軌跡生成部315、管理部316、および表示制御部317の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、本実施の形態および各変形例の情報処理装置3で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、本実施の形態および各変形例の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態および各変形例の情報処理装置3で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施の形態および各変形例の情報処理装置3で実行されるプログラムは、上述した各機能部の少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述のROMからプログラムを読み出して実行することにより、上述の各部が主記憶装置上にロードされて生成されるようになっている。
1 画像処理システム
2、2a〜2f 撮像装置
3 情報処理装置
4 ネットワーク
10 外部機器
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 外部機器I/F
113 バス
301 映像受信部
302 入力部
303 設定部
304 記憶部
305 再生部
306 取得部
307 指定部
308 登録部
309 探索領域決定部
310 検出部
311 距離算出部
312 判定部
313 更新部
314 移動量算出部
315 軌跡生成部
316 管理部
317 表示制御部
318 表示部
400 追跡画面
401 映像表示部
401a カメラ選択タブ
403 映像操作ボタン部
404 シークバー
405 スライダ
406 拡大縮小ボタン部
407 スパン変更ボタン部
408 時刻表示部
409 追跡開始ボタン
410 追跡停止ボタン
450 元画像
451 抽出画像
452 二値化画像
453 ラベリング画像
454 対象特定画像
460 軌跡重畳画像
470 軌跡重畳画像
480 軌跡重畳画像
500 作業者
501 追跡対象
501a 第1色部
501b 第2色部
510 作業者
511 追跡対象
511a 第1色部
511b 第2色部
520 買物客
521 追跡対象
531 追跡対象
540 箱
541 追跡対象
541a 第1形状部
541b 第2形状部
545 製品
545a 追跡対象
546 製品
546a 追跡対象
550 第1指定領域
551 第2指定領域
560 第1指定領域
561 第2指定領域
570 第1抽出形状
571 第2抽出形状
601a、601b、602、603a〜603d ブロック
701、702 特徴領域
701a、702a 特徴領域枠
703 追跡領域
704 探索領域
800 軌跡線
801 フレーム選択ウィンドウ
801a、801b 選択ボタン
810 軌跡線
820 軌跡線
830 軌跡線
840、841 軌跡線
1000 追跡結果テーブル

Claims (19)

  1. 撮像装置で撮像された映像データを表示装置の所定の表示領域に再生表示させる再生部と、
    前記再生部により表示された前記映像データの第1フレームにおいて、追跡対象について予め登録された特徴情報に基づいて複数の特徴領域を検出する特徴領域検出部と、
    前記特徴領域検出部により検出された前記複数の特徴領域に基づいて、前記追跡対象を含む追跡領域を検出する追跡領域検出部と、
    前記追跡対象の軌跡を示す軌跡線を前記映像データに重畳して表示させる軌跡生成部と、
    を備え、
    前記再生部は、前記軌跡線上のいずれかの部分が入力部に対する操作により選択された場合、該部分に対応する前記映像データのフレームから再生表示させ
    前記再生部は、前記表示領域に表示された前記軌跡線が交差する部分に対して前記入力部に対する操作により選択された場合、交差しているいずれの線を選択するかの選択を受け付ける表示を行う画像処理装置。
  2. 前記軌跡生成部は、前記軌跡線の各部分を時系列に応じて態様を変えて表示する請求項1に記載の画像処理装置。
  3. 前記追跡領域検出部は、前記複数の特徴領域の互いの距離に基づいて、該複数の特徴領域を含む領域を、前記追跡領域として検出する請求項1または2に記載の画像処理装置。
  4. 前記距離を算出する算出部と、
    前記算出部により算出された前記距離が閾値以下であるか否かを判定する判定部と、
    を、さらに備え、
    前記追跡領域検出部は、前記判定部によって前記複数の特徴領域の互いの前記距離が閾値以下であると判定された場合、該複数の特徴領域を含む領域を前記追跡領域として検出する請求項に記載の画像処理装置。
  5. 前記表示領域のうち、前記特徴領域検出部が前記複数の特徴領域を検出する対象となる特定の領域を探索領域として決定する決定部を、さらに備え、
    前記特徴領域検出部は、前記探索領域内で前記複数の特徴領域を検出する請求項1〜のいずれか一項に記載の画像処理装置。
  6. 前記決定部は、前記追跡領域検出部により前記第1フレームより前の第2フレームで検出された前記追跡領域を含む所定の大きさの領域を、前記第1フレームでの前記探索領域として決定する請求項に記載の画像処理装置。
  7. 前記決定部は、前記追跡領域検出部により前記第1フレームで前記追跡領域が検出されなかった場合、該第1フレームに対して決定した前記探索領域より所定量だけ拡大した新たな探索領域を決定し、
    前記特徴領域検出部は、前記第1フレームより後の第3フレームでの前記新たな探索領域内で前記複数の特徴領域を検出する請求項またはに記載の画像処理装置。
  8. 前記特徴情報として、前記追跡対象に含まれる色に対応する基準色が登録されている請求項1〜のいずれか一項に記載の画像処理装置。
  9. 前記特徴情報として、前記追跡対象に含まれる複数の色にそれぞれ対応する複数の前記基準色が登録されている請求項に記載の画像処理装置。
  10. 前記基準色を登録するための指定領域を、前記表示領域に表示された前記映像データのフレームから指定する指定部と、
    前記指定領域に存在する画素の色を用いて前記基準色を登録する登録部と、
    をさらに備えた請求項またはに記載の画像処理装置。
  11. 前記指定部は、前記入力部であるマウスに対するドラッグ操作により前記指定領域を指定し、
    前記登録部は、前記指定領域の色の平均値により前記基準色を登録する請求項10に記載の画像処理装置。
  12. 前記特徴領域検出部は、
    前記第1フレームの少なくとも一部の領域において、前記基準色を含む所定の色範囲に含まれる色の画素を有する領域を抜き出して第1画像を得る第1処理を行い、
    前記第1画像を二値化して第2画像を得る第2処理を行い、
    前記第2画像において前記第2処理により得られた1以上のブロックをそれぞれ区別する第3画像を得る第3処理を行い、
    前記第3画像の各ブロックに対応する前記第1フレームの領域の画素値が前記所定の色範囲に含まれる場合、該領域を前記特徴領域として検出する請求項11のいずれか一項に記載の画像処理装置。
  13. 前記特徴情報として、前記追跡対象に含まれる形状に対応する基準形状が登録されている請求項1〜のいずれか一項に記載の画像処理装置。
  14. 前記基準形状を登録するための指定領域を指定する指定部と、
    前記指定領域に存在する形状を用いて前記基準形状を登録する登録部と、
    をさらに備えた請求項13に記載の画像処理装置。
  15. 前記特徴情報として、前記追跡対象に含まれる色および形状にそれぞれ対応する基準色および基準形状が登録されている請求項1〜のいずれか一項に記載の画像処理装置。
  16. 前記特徴領域検出部は、
    前記第1フレームで検出した前記複数の特徴領域に基づいて、前記複数の特徴情報を新たな特徴情報に更新し、
    前記第1フレームより後のフレームにおいて、前記新たな特徴情報に基づいて複数の特徴領域を検出する請求項1〜15のいずれか一項に記載の画像処理装置。
  17. 前記映像データを撮像する前記撮像装置と、
    前記撮像装置により撮像された前記映像データを表示する前記表示装置と、
    請求項1〜16のいずれか一項に記載の画像処理装置と、
    を備えた画像処理システム。
  18. 撮像装置で撮像された映像データを表示装置の所定の表示領域に再生表示させる再生ステップと、
    表示した前記映像データの第1フレームにおいて、追跡対象について予め登録された特徴情報に基づいて複数の特徴領域を検出する特徴情報検出ステップと、
    検出した前記複数の特徴領域に基づいて、前記追跡対象を含む追跡領域を検出する追跡領域検出ステップと、
    前記追跡対象の軌跡を示す軌跡線を前記映像データに重畳して表示させる軌跡生成ステップと、
    前記軌跡線上のいずれかの部分が入力部に対する操作により選択された場合、該部分に対応する前記映像データのフレームから前記表示領域に再生表示させるステップと、
    前記表示領域に表示された前記軌跡線が交差する部分に対して前記入力部に対する操作により選択された場合、交差しているいずれの線を選択するかの選択を受け付ける表示を行うステップと、
    を有する画像処理方法。
  19. コンピュータに、
    撮像装置で撮像された映像データを表示装置の所定の表示領域に再生表示させる再生処理と、
    表示した前記映像データの第1フレームにおいて、追跡対象について予め登録された特徴情報に基づいて複数の特徴領域を検出する特徴領域検出処理と、
    検出した前記複数の特徴領域に基づいて、前記追跡対象を含む追跡領域を検出する追跡領域検出処理と、
    前記追跡対象の軌跡を示す軌跡線を前記映像データに重畳して表示させる軌跡生成処理と、
    前記軌跡線上のいずれかの部分が入力部に対する操作により選択された場合、該部分に対応する前記映像データのフレームから前記表示領域に再生表示させる処理と、
    前記表示領域に表示された前記軌跡線が交差する部分に対して前記入力部に対する操作により選択された場合、交差しているいずれの線を選択するかの選択を受け付ける表示を行う処理と、
    を実行させるためのプログラム。
JP2017555950A 2015-12-18 2016-11-24 画像処理装置、画像処理システム、画像処理方法およびプログラム Active JP6756338B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015247763 2015-12-18
JP2015247763 2015-12-18
PCT/JP2016/084843 WO2017104372A1 (ja) 2015-12-18 2016-11-24 画像処理装置、画像処理システム、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017104372A1 JPWO2017104372A1 (ja) 2018-08-30
JP6756338B2 true JP6756338B2 (ja) 2020-09-16

Family

ID=59056300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017555950A Active JP6756338B2 (ja) 2015-12-18 2016-11-24 画像処理装置、画像処理システム、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US10949983B2 (ja)
EP (1) EP3392829B1 (ja)
JP (1) JP6756338B2 (ja)
CN (1) CN108475431B (ja)
WO (1) WO2017104372A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10319412B2 (en) * 2016-11-16 2019-06-11 Adobe Inc. Robust tracking of objects in videos
JP6630322B2 (ja) * 2017-08-30 2020-01-15 シナノケンシ株式会社 映像解析方法
JP7278795B2 (ja) * 2019-02-21 2023-05-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
EP3917130A4 (en) * 2019-02-21 2022-04-20 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN110266999A (zh) * 2019-06-05 2019-09-20 长沙年余信息科技有限公司 一种园区场地安全监管的系统及其方法
US11223802B2 (en) 2019-07-31 2022-01-11 Ricoh Company, Ltd. Image-based determination apparatus and image-based determination system
CN110881141B (zh) * 2019-11-19 2022-10-18 浙江大华技术股份有限公司 视频展示方法和装置、存储介质及电子装置
CN113344967B (zh) * 2021-06-07 2023-04-07 哈尔滨理工大学 一种复杂背景下的动态目标识别追踪方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3435623B2 (ja) * 1996-05-15 2003-08-11 株式会社日立製作所 交通流監視装置
JP2000056917A (ja) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 三次元座標指示装置
JP2000180162A (ja) * 1998-12-11 2000-06-30 Hitachi Plant Eng & Constr Co Ltd 作業分析装置
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP2005236374A (ja) 2004-02-17 2005-09-02 Canon Inc 再生装置
JP4328259B2 (ja) 2004-04-21 2009-09-09 日本電信電話株式会社 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP4373840B2 (ja) 2004-04-21 2009-11-25 日本電信電話株式会社 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2005349176A (ja) * 2004-05-14 2005-12-22 Rise Corp 顎運動解析方法及び顎運動解析システム
JP3970877B2 (ja) 2004-12-02 2007-09-05 独立行政法人産業技術総合研究所 追跡装置および追跡方法
JP2008077424A (ja) 2006-09-21 2008-04-03 Toshiba Corp 作業分析システム及び方法
US20080111789A1 (en) * 2006-11-09 2008-05-15 Intelligence Frontier Media Laboratory Ltd Control device with hybrid sensing system comprised of video-based pattern recognition and electronic signal transmission
CN101420595B (zh) * 2007-10-23 2012-11-21 华为技术有限公司 一种描述和捕获视频对象的方法及设备
WO2009076182A1 (en) * 2007-12-13 2009-06-18 Clemson University Vision based real time traffic monitoring
RU2395787C2 (ru) * 2008-05-19 2010-07-27 Государственный Научный Центр России "Государственное Научное Учреждение "Центральный Научно-Исследовательский И Опытно-Конструкторский Институт Робототехники И Технической Кибернетики"(Цнии Ртк) Способ обнаружения объектов
JP5048609B2 (ja) 2008-08-01 2012-10-17 株式会社豊田中央研究所 対象物追跡装置及びプログラム
US9113124B2 (en) * 2009-04-13 2015-08-18 Linkedin Corporation Method and system for still image capture from video footage
JP5441670B2 (ja) 2009-12-22 2014-03-12 キヤノン株式会社 画像処理装置及びその制御方法
JP5488076B2 (ja) 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
JP5603663B2 (ja) * 2010-06-02 2014-10-08 Toa株式会社 移動体軌跡表示装置および移動体軌跡表示プログラム
JP2013074612A (ja) * 2011-09-29 2013-04-22 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2013085089A (ja) 2011-10-07 2013-05-09 Nikon Corp 被写体追尾装置およびカメラ
JP5794255B2 (ja) 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
JP5541396B2 (ja) 2013-06-26 2014-07-09 株式会社ニコン 画像追尾装置
JP6282498B2 (ja) 2014-03-19 2018-02-21 株式会社東芝 画像処理装置、その方法、及び、そのプログラム
JP6451133B2 (ja) 2014-08-01 2019-01-16 株式会社リコー 異常検知装置、異常検知方法、異常検知システム、及びプログラム
JP2016042308A (ja) 2014-08-18 2016-03-31 富士通株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
CN104166137A (zh) * 2014-08-19 2014-11-26 东北电力大学 一种基于雷达告警态势图显示的目标综合参数跟踪测量方法
US10403019B2 (en) * 2015-12-16 2019-09-03 Lucasfilm Entertainment Company Multi-channel tracking pattern

Also Published As

Publication number Publication date
US20180374221A1 (en) 2018-12-27
EP3392829B1 (en) 2021-10-20
CN108475431A (zh) 2018-08-31
CN108475431B (zh) 2022-02-18
WO2017104372A1 (ja) 2017-06-22
JPWO2017104372A1 (ja) 2018-08-30
US10949983B2 (en) 2021-03-16
EP3392829A4 (en) 2018-11-07
EP3392829A1 (en) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6756338B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6194777B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
EP3373248A1 (en) Method, control device, and system for tracking and photographing target
JP6834353B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
EP2669868B1 (en) Apparatus and method for augmenting a video image
WO2018037631A1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2019109765A (ja) 物体追跡プログラム、物体追跡装置、及び物体追跡方法
US10929682B2 (en) Information processing apparatus, information processing method, and storage medium
US10431260B2 (en) Information processing apparatus, information processing system, and information processing method
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
WO2014045843A1 (ja) 画像処理システム、画像処理方法及びプログラム
JP7088281B2 (ja) 商品分析システム、商品分析方法および商品分析プログラム
JP6791362B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6828377B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6834372B2 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2019101892A (ja) オブジェクト追跡装置及びそのプログラム
JP6289027B2 (ja) 人物検出装置及びプログラム
JP2016039496A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
EP4362457A2 (en) Image-based determination apparatus and image-based determination system
JP2007003340A (ja) 移動体計測装置及び移動体の計測方法
JP5844697B2 (ja) 映像再生装置、映像再生方法、および映像再生用プログラム
JP2020065248A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
KR101772066B1 (ko) 다중 사용자의 영상 콘텐츠 내 상품 좌표 추적 데이터에 대한 실시간 통합 데이터 매핑 장치 및 방법
JP2021064870A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R151 Written notification of patent or utility model registration

Ref document number: 6756338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151