JP2018081630A - 検索装置、検索方法およびプログラム - Google Patents

検索装置、検索方法およびプログラム Download PDF

Info

Publication number
JP2018081630A
JP2018081630A JP2016225214A JP2016225214A JP2018081630A JP 2018081630 A JP2018081630 A JP 2018081630A JP 2016225214 A JP2016225214 A JP 2016225214A JP 2016225214 A JP2016225214 A JP 2016225214A JP 2018081630 A JP2018081630 A JP 2018081630A
Authority
JP
Japan
Prior art keywords
situation
search
trajectory
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016225214A
Other languages
English (en)
Other versions
JP6649231B2 (ja
Inventor
俊信 中洲
Toshinobu Nakasu
俊信 中洲
小林 大祐
Daisuke Kobayashi
大祐 小林
一成 大内
Kazunari Ouchi
一成 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016225214A priority Critical patent/JP6649231B2/ja
Priority to US15/647,312 priority patent/US11189035B2/en
Priority to EP17188017.2A priority patent/EP3324307B1/en
Publication of JP2018081630A publication Critical patent/JP2018081630A/ja
Application granted granted Critical
Publication of JP6649231B2 publication Critical patent/JP6649231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

【課題】所望のシーンをより適切に検索できる検索装置を提供する。
【解決手段】検索装置は、軌跡取得部と、状況取得部と、クエリ取得部と、検索部と、を備える。軌跡取得部は、時系列画像内での対象の移動軌跡を表す軌跡情報を取得する。状況取得部は、時系列画像内での対象の周辺の状況を表す状況情報を取得する。クエリ取得部は、移動軌跡および周辺の状況を含む検索クエリを取得する。検索部は、軌跡情報および状況情報に基づいて、時系列画像に含まれる画像のうち検索クエリに適合する画像を検索する。
【選択図】図1

Description

本発明の実施形態は、検索装置、検索方法およびプログラムに関する。
映像から特定の時間帯のシーンを検索するニーズがある。例えば、駅やビル内などの監視カメラで撮影した監視画像から特定のシーンの時間帯を検索して安全管理や犯罪捜査などの検証に用いたり、スポーツの試合映像から特定シーンを検索してチーム強化のための分析に用いたりする。
例えば、試合映像に「トライ」および「スクラム」などのタグを付け、タグをもとにトライのシーンなどを検索する技術、および、オブジェクト(ボールや人物など)の移動軌跡で直感的に検索する技術が知られている。また、試合映像からオブジェクトを検出してプレーを解析する技術が知られている。
特開平05−108730号公報 国際公開第2015/190071号
しかしながら、従来技術では、所望のシーンを適切に検索できない場合があった。例えば、移動軌跡による検索のみでは、状況に応じたシーンを検索できない場合があった。
実施形態の検索装置は、軌跡取得部と、状況取得部と、クエリ取得部と、検索部と、を備える。軌跡取得部は、時系列画像内での対象の移動軌跡を表す軌跡情報を取得する。状況取得部は、時系列画像内での対象の周辺の状況を表す状況情報を取得する。クエリ取得部は、移動軌跡および周辺の状況を含む検索クエリを取得する。検索部は、軌跡情報および状況情報に基づいて、時系列画像に含まれる画像のうち検索クエリに適合する画像を検索する。
本実施形態にかかる検索装置のブロック図。 本実施形態における検索処理のフローチャート。 検索処理を実現する検索画面の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 検索クエリの入力方法の一例を示す図。 周辺の状況のマッチング方法の一例を説明する図。 検索装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる検索装置の好適な実施形態を詳細に説明する。
本実施形態にかかる検索装置は、時系列画像に含まれる対象(オブジェクト)の移動軌跡と、対象の周辺の状況(攻守の状態、密集領域の位置など)と、を検索クエリとして、時系列画像から所望の画像(シーン)を検索する。
時系列画像は、時系列に沿って並べられた複数の画像である。例えば時系列画像は、所定の時間間隔で撮像したフレーム画像を含む動画像(映像)である。上記のように、スポーツの試合を撮影した映像、および、監視カメラで撮影した監視画像などが時系列画像になりうる。時系列画像はこれらに限られるものではない。
図1は、本実施形態にかかる検索装置100の構成の一例を示すブロック図である。図1に示すように、検索装置100は、検出部101と、軌跡推定部102と、状況推定部103と、軌跡取得部104と、状況取得部105と、クエリ取得部106と、検索部107と、出力制御部108と、記憶部121と、を備えている。
検出部101は、時系列画像からオブジェクト、および、このオブジェクトの位置を検出する。例えば検出部101は、学習したオブジェクトの特徴量と、画像から得られる特徴量とを照合することにより、画像からオブジェクトを検出する。画像からオブジェクトを検出する方法はこれに限られるものではなく、従来から用いられているあらゆる検出方法を適用できる。例えば検出部101は、特許文献2に記載された方法により、画像からオブジェクトおよびオブジェクトの位置を検出してもよい。
検出するオブジェクトは、用途に応じて適宜決定すればよい。例えば、人、複数の人の集合、および、複数の人が集まる領域などをオブジェクトとして検出するように構成できる。また、球技を撮影した映像からは、各チームの選手および審判などの人、並びに、ラグビーのモールなどの複数の人が集まる領域をオブジェクトとして検出するように構成できる。
軌跡推定部102は、検出された位置に基づいて、時系列画像内でのオブジェクトの移動軌跡を推定する。移動軌跡の推定方法は、従来から用いられているあらゆる方法を適用できる。例えば、軌跡推定部102は、検出されたオブジェクトの時系列的な位置から移動軌跡を推定する方法、または、特許文献2に記載されているようなオプティカルフローを用いた方法により、オブジェクトの移動軌跡を推定することができる。
軌跡推定部102は、推定した移動軌跡を表す軌跡情報を出力する。軌跡情報は、例えば、移動軌跡が推定されたオブジェクトを識別する情報(オブジェクト識別情報)と、時系列画像のうちオブジェクトが検出された画像を識別する情報(画像識別情報)と、オブジェクトの位置を示す情報と、移動軌跡の位置を示す情報と、を含む。画像を識別する情報は、例えば、移動の開始時刻を特定する情報、および、移動の終了時刻を特定する情報である。軌跡情報のデータ構造はこれに限られるものではない。
状況推定部103は、時系列画像から、オブジェクトの周辺の状況を推定する。例えば状況推定部103は、移動軌跡を推定するオブジェクトとは異なる他のオブジェクトの有無、他のオブジェクトの位置などを、周辺の状況として推定する。他のオブジェクトの位置などは、検出部101と同様の方法で推定できる。周辺の状況はこれらに限られるものではない。例えば状況推定部103は、球技を撮影した映像から、ボールを保持するチーム、および、球技で実行されるプレー(技)の種類などを、周辺の状況として推定してもよい。
また、状況推定部103は、時系列画像に対応する音環境を認識することで、周囲の状況を認識してもよい。ここで、音環境は、例えば、映像に含まれる音、および、映像とは独立に取得された音を解析することにより得られる。解析方法は、単純にボリュームを検出する方法、および、機械学習を用いて音種別を分類する方法などを適用できる。例えば、うるさい、静か、歓声が沸いた、ホイッスルが鳴った、および、特定の人物が発話した、などの音に関する情報を周囲の状況として推定することができる。また、音声を認識した結果得られたテキスト情報から周囲の状況を推定してもよい。状況推定部103は、音の解析結果と画像の対応関係を記憶部121などに記憶する。
また、状況推定部103は、対象が存在する場所に関する情報を周辺の状況として推定してもよい。
なお、例えば選手が密集している領域にボールが隠れている場合などでは、ボールの位置が検出できず、ボールを保持するチームが推定できないことがある。このような場合は、状況推定部103は、オブジェクトの周辺の状況が不明であると推定してもよい。例えば状況推定部103は、ボールを保持するチームとして、「Aチーム」、「Bチーム」、および、「不明」のいずれかであることを推定してもよい。
画像に含まれるボールの状態は、完全に見えている場合、人が保持して隠れている場合、および、密集領域の中に隠れている場合があるものとする。ボールが完全に見えている場合は、公知のオブジェクト検出手法によりボールを検出できる。ボールが検出できない場合は、人または密集領域でボールが隠れていると判定し、前のフレームでのボール位置付近にいる人または密集領域がボールを隠しているものとして、その人や密集領域を追跡する。これにより、各フレームの画像でボールがどの状態にあるかが推定できる。
これを踏まえ、ボール保持チームの推定方法について説明する。パスやキックの途中など、ボール単独で完全に見えている画像だけからでは、どちらのチームがホールを保持しているかがわからない。また、密集領域の中に隠れている場合も同様である。この場合は、ボール保持チームは「不明」とする。
一方で、人が保持している場合は、その人の検出位置付近の色情報と各チームのユニフォームの色との類似度をもとにチームが識別できる。この場合、ボール保持チームは「Aチーム」または「Bチーム」であることが推定できる。
例えば、Aチームの選手がAチームの他の選手にパスをした場合や、Aチームの選手がキックをしてAチームの選手が保持した場合など、選手からボールが離れている間のフレームにおいては、ボール保持チームの状態が不明となるので、ボール保持チームの状態は「Aチーム」→「不明」→「Aチーム」と判定される。
状況推定部103は、ある画像の周辺の状況が不明である場合、前後の少なくとも一方の画像の周辺の状況が、当該画像の周辺の状況であると推定してもよい。例えば、状況推定部103は、時系列的な関係を考慮することで、ボール保持チームが「不明」である時間帯について、ボール保持チームを「Aチーム」または「Bチーム」に置き換えてもよい。状況推定部103は、例えば「不明」の前後の状態が同一チームの場合は、その間の「不明」の時間帯もそのチームが保持しているものと推定してよい。また、「不明」の前の状態、または、「不明」の後の状態で置き換えてもよい。
状況推定部103は、推定した周辺の状況を表す状況情報を出力する。状況情報は、例えば、推定された周辺の状況を識別する情報(状況識別情報)と、時系列画像のうち周辺の状況が検出された画像を識別する情報(画像識別情報)と、を含む。状況情報のデータ構造はこれに限られるものではない。
なお、移動軌跡および周辺の状況の推定を、検索装置100以外の装置で実行してもよい。例えば、移動軌跡および周辺の状況は、予め解析され記憶部121に記憶されていてもよいし、人手で付与した情報が、移動軌跡を示す情報および周辺の状況を示す情報として用いられてもよい。この場合、検出部101、軌跡推定部102、および、状況推定部103は、検索装置100内に備える必要はない。
軌跡取得部104は、軌跡推定部102から出力された軌跡情報を取得する。軌跡取得部104は、他の装置から軌跡情報を取得してもよい。
状況取得部105は、状況推定部103から出力された状況情報を取得する。状況取得部105は、他の装置から状況情報を取得してもよい。
クエリ取得部106は、移動軌跡および周辺の状況を含む検索クエリを取得する。クエリ取得部106は、例えば、キーボード、マウス、タッチパネル、および、マイクなどの入力装置を介して入力された検索クエリを取得する。このように、検索クエリは、文字列、記号、および、音などの任意の形式で入力できる。音による入力の場合、クエリ取得部106は、利用者が発話した音を文字列として認識し、認識した文字列を検索クエリとして取得してもよい。クエリ取得部106は、例えば「周囲の音を検索」のようなモードが指定された場合に、マイク経由で、検索する音をそのまま検索クエリとして入力してもよい。検索クエリの取得方法はこれに限られるものではなく、任意の方法を適用できる。例えばクエリ取得部106は、他の装置から送信された検索クエリを、ネットワーク等を介して取得してもよい。
検索部107は、検索クエリ、軌跡情報および状況情報に基づいて、時系列画像に含まれる画像のうち検索クエリに適合する画像を検索する。例えば検索部107は、検索クエリに含まれる移動軌跡が、軌跡情報が表す移動軌跡と適合し、検索クエリに含まれる周辺の状況が、状況情報が表す周辺の状況に適合する画像を、時系列画像に含まれる各時刻の画像から検索する。音を検索クエリとする場合、例えば検索部107は、検索クエリとして入力された音と、映像に含まれる音とを照合して適合する画像を検索する。
移動軌跡が適合するとは、移動軌跡が完全に一致する場合だけでなく、複数の移動軌跡間の一致度(類似度)が閾値以上である場合、および、移動軌跡内の一部が検索クエリに含まれる移動軌跡と一致する場合などを含んでもよい。移動軌跡の一致の判定には、以下のような手法を用いることができる。
(1)移動軌跡上に所定の間隔でサンプリング点(始点および終点を含めた2点以上)を設定し、隣り合うサンプリング点間のサブ移動軌跡の方向(例えば、上下左右のいずれかに近似する)をもとにヒストグラムを作成する。例えば、ヒストグラムの「上」「下」「左」「右」の値は、各方向と判定されたサブ移動軌跡の距離を合計して算出してよい。ヒストグラム同士のバタチャリヤ距離が所定の閾値以下となる移動軌跡同士が一致するものと判定してよい。
(2)事前に設定された描画エリア(コートの領域と一致してよい)内を複数のブロックに分割し(例えば、縦2ブロック×横4ブロック)、検索クエリに含まれる移動軌跡が通過するブロックの順番と一致する移動軌跡を抽出してよい。
(3)上記(2)により通過するブロックそれぞれについて上記(1)と同様のヒストグラムを求め、通過するブロックが同じ、かつ、当該ブロックでのヒストグラムの距離が所定の閾値以下となる移動軌跡同士が一致するものと判定してよい。
周辺の状況が適合するとは、状況が完全に一致する場合だけでなく、複数の状況が類似する状況を示す場合、および、一方の状況が他方の状況を包含する場合などを含んでもよい。
検索部107は、検索クエリに含まれる移動軌跡および周辺の状況のうち、一方により検索の対象とする画像を絞り込んだ後に、他方によりさらに適合する画像を検索してもよい。例えば検索部107は、時系列画像に含まれる画像のうち、対応する状況情報が表す周辺の状況が検索クエリに含まれる周辺の状況と適合する画像(第1画像)を対象として、対応する軌跡情報が表す移動軌跡が検索クエリに含まれる移動軌跡と適合する画像を検索してもよい。
出力制御部108は、検索装置100で実行される各種処理の結果の出力を制御する。例えば出力制御部108は、検索部107による検索結果を、ディスプレイなどの表示装置に出力する。表示装置は、検索装置100内に備えられてもよいし、検索装置100以外の装置に備えられてもよい。出力方法は、表示装置に表示する方法に限られるものではなく、ネットワークなどを介して送信する方法、および、記録媒体に出力する方法などを適用してもよい。
記憶部121は、検索装置100で実行される各種処理で用いられる各種情報を記憶する。例えば記憶部121は、検索の対象となる映像、推定された軌跡情報および状況情報、並びに、他の装置から送信された軌跡情報および状況情報などを記憶する。なお、記憶部121は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
検出部101、軌跡推定部102、状況推定部103、軌跡取得部104、状況取得部105、クエリ取得部106、検索部107、および、出力制御部108は、例えば、CPU(Central Processing Unit)などの処理装置(プロセッサ)にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェア(プロセッサ)により実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
検索装置100は、例えば通常のパーソナルコンピュータなどの単体の装置により構成することができる。検索装置100を、パーソナルコンピュータおよび携帯端末などの端末装置からの検索要求に応じて検索処理を実行するサーバ装置として実現してもよい。サーバ装置は、物理的に1つの装置により構成してもよいし、クラウドコンピューティング環境上の仮想的な装置で実現してもよい。
次に、このように構成された本実施形態にかかる検索装置100による検索処理について図2を用いて説明する。図2は、本実施形態における検索処理の一例を示すフローチャートである。
検出部101は、時系列画像から、ボールおよび人物などのオブジェクトの位置を検出する(ステップS101)。時系列画像は、事前に取得され記憶部121などに記憶されていてもよいし、放送およびストリーミングなどによりリアルタイムで入力されてもよい。
軌跡推定部102は、検出部101により検出された位置に基づいて、オブジェクトの移動軌跡を推定する(ステップS102)。状況推定部103は、時系列画像から、オブジェクトの周辺の状況を推定する(ステップS103)。推定された移動軌跡を表す軌跡情報、および、推定された周辺の状況を表す状況情報は、記憶部121などに記憶されてもよい。
検索装置100以外の他の装置が移動軌跡等の推定を行う場合は、ステップS101からステップS103までの処理は、他の装置内で実行されてもよい。
次に、軌跡取得部104は軌跡情報を取得し、状況取得部105は状況情報を取得する(ステップS104)。クエリ取得部106は、検索クエリを取得する(ステップS105)。検索クエリは、検索の実行前までに取得されていればよい。例えばクエリ取得部106は、ステップS101の開始前までに検索クエリを取得してもよい。
検索部107は、検索クエリによる検索を実行する(ステップS106)。出力制御部108は、検索部107による検索結果を出力する(ステップS107)。
次に、検索装置100による検索処理の具体例について説明する。図3は、検索処理を実現する検索画面の一例を示す図である。図3では、ラグビーの試合を撮影した映像を解析して表示する例が示されている。なおラグビー以外の球技や、球技以外のスポーツの映像の解析に適用してもよい。
図3に示すように、検索画面は、再生領域301と、オブジェクト表示領域302と、サムネイル表示領域303と、軌跡ボタン304と、を含む。
再生領域301は、映像を再生して表示する領域である。オブジェクト表示領域302は、検出されたオブジェクトを表示する領域である。図3の例では、オブジェクト表示領域302は、2次元の平面(ラグビーを行うフィールド)上でのオブジェクトの位置を示すために用いられる。この場合は、例えば検出部101は、所定の平面上のオブジェクトの位置を検出するように構成してもよい。オブジェクト表示領域302は、3次元空間内でのオブジェクトの位置を示すように構成してもよい。
出力制御部108は、例えば、各チームの選手、ボール、および、密集領域などのオブジェクト、並びに、一定時間過去からのボールの移動軌跡の位置を、再生領域301に表示される映像と同期させてオブジェクト表示領域302に表示する。
出力制御部108は、オブジェクトおよび周辺の状況の種類に応じて、各オブジェクトおよび周辺の状況の表示態様を変更して表示してもよい。例えば出力制御部108は、同じチームに属する選手は同じ色の矩形で囲んで再生領域301に表示してもよいし、同じチームに属する選手を同じ色のアイコンでオブジェクト表示領域302に表示してもよい。出力制御部108は、ボールが完全に見えている場合は、ボール保持チームに応じた色の矩形でボールを囲んで表示してもよい。
サムネイル表示領域303は、映像の一部のシーン(画像)のサムネイルを表示する領域である。例えば検索処理により検索された画像のサムネイルが、サムネイル表示領域303に表示される。また、出力制御部108は、例えば「パス」、「スクラム」、および、「ラック」などのプレーの種類に対応するボタンが押下された場合に、押下されたボタンに対応するプレーに適合するシーン(画像)の候補を、サムネイル表示領域303に表示してもよい。
軌跡ボタン304は、移動軌跡などを検索クエリとして指定する検索を実行するために用いられる。例えば軌跡ボタン304が押下されると、検索クエリを入力するための入力画面305が表示される。入力画面305は、例えば、オブジェクト表示領域302の代わりに、または、オブジェクト表示領域302に重畳して表示されてもよい。入力画面305では、オブジェクト表示領域302に表示されていたオブジェクトを示すアイコン等が非表示になり、フィールド(2次元の平面)上で、移動軌跡を示す矢印、オブジェクトや周辺の状況を示す文字列などの検索クエリが入力可能となる。
サムネイル表示領域303には、このようにして入力された検索クエリに適合する画像が表示されてもよい。映像がリアルタイムに入力される場合は、事前に入力された検索クエリに適合する画像が入力されたときに、この画像がサムネイル表示領域303に表示されるように構成してもよい。サムネイル表示領域303でサムネイルが選択された場合、選択されたサムネイルに対応する画像が、再生領域301に表示されてもよい。
次に、検索クエリの入力方法の具体例について説明する。図4〜図19は、検索クエリの入力方法の一例を示す図である。
図4は、例えば「Aチームが攻めているときにボールが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「ボール」であり、周辺の状況は「Aチームがボールを保持」という状況である。
図5は、例えば「モールが指定位置にあるときに選手が指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「人」であり、周辺の状況は「モールが指定位置にある」という状況である。
オブジェクトや周辺状況の指定方法は、手書き入力、ペン色、アイコン、および、ボタンなどの任意の方法を適用できる。図6は、「ボール」および「人」などのオブジェクトをアイコンで選択し、移動軌跡を手書き入力により指定する例である。図6の下部に示すように、選手(人)の移動を示す状況を、矢印により指定できるように構成してもよい。この矢印の色を分けることにより、いずれのチームに属する選手かを指定できるように構成してもよい。複数の移動軌跡が入力されてもよい。すなわち、複数の移動軌跡により検索する検索クエリを用いてもよい。
オブジェクトおよび周辺の状況の両方が同様の方法で入力される場合は、各入力が、オブジェクトを指定した入力か、周辺の状況を指定した入力かを判別するように構成してもよい。例えば、図4の例では、移動軌跡に近い位置に入力された「ボール」がオブジェクトであり、移動軌跡に対して「ボール」より相対的に遠い位置に入力された「A」が周辺の状況である、と判別してもよい。
「ボール」がオブジェクトであり「人」が周辺の状況である組み合わせを示す検索クエリ、および、「人」がオブジェクトであり「ボール」が周辺の状況である組み合わせを示す検索クエリ、の両方で検索を実行してもよい。
図7〜図9は、「ボールを保持するチーム」を周辺の状況として入力する場合の入力方法の一例を示す。図7〜図9は、「ボールを保持するチーム」をボタン(「A」または「B」)により選択する例である。ボタンの代わりに、ペン色や手書きにより入力してもよい。
図7は、例えば「Aチームが攻めているときにボールが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「ボール」であり、周辺の状況は「Aチームがボールを保持」という状況である。
図8は、例えば「Aチームが攻めているときにBチームの選手が指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「Bチームの選手」であり、周辺の状況は「Aチームがボールを保持」という状況である。
図9は、例えば「Bチームが攻めているときに選手ラインが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「選手ライン」であり、周辺の状況は「Bチームがボールを保持」という状況である。
図10〜図12は、「プレーの種類」を周辺の状況として入力する場合の入力方法の一例を示す。図10〜図12は、「プレーの種類」をボタン(「トライ」、「パス」、「タックル」など)により選択する例である。ボタンの代わりに、ペン色や手書きにより入力してもよい。
図10は、例えば「Aチームの選手が指定の軌跡で移動してトライになったシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「Aチームの選手」であり、周辺の状況は「トライのプレー」という状況である。
図11は、例えば「パスの連携によってボールが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「ボール」であり、周辺の状況は「パスのプレー」という状況である。
図12は、例えば「パスの際に選手ラインが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「選手ライン」であり、周辺の状況は「パスのプレー」という状況である。
図13〜図16は、「他のオブジェクトの位置」を周辺の状況として入力する場合の入力方法の一例を示す。図13〜図16は、「他のオブジェクトの位置」、ペン色や手書きにより入力する例である。なお図16に示すように「スペース」を他のオブジェクトとして入力可能としてもよい。
図13は、例えば「ボールが指定の位置にあるときにAチームの選手が指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「Aチームの選手」であり、周辺の状況は「ボールが指定の位置にある」という状況である。
図14は、例えば「モールが指定の位置にあるときに指定の軌跡で選手が移動したシーン」を検索するための検索クエリを入力する例である。なお、図14で円形のクエリは黄色い線で描かれたものとする。この場合、移動軌跡を検索するオブジェクトは「選手」であり、周辺の状況は「モールが指定の位置にある」という状況である。
図15は、例えば「Bチームの選手ラインが指定の位置のときにボールが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「ボール」であり、周辺の状況は「Bチームの選手ラインが指定の位置にある」という状況である。
図16は、例えば「スペースが指定の位置にあるときにボールが指定の軌跡で移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「ボール」であり、周辺の状況は「スペースが指定の位置にある」という状況である。
図17〜図19は、スポーツの映像以外の映像の解析に適用する場合の入力方法の一例を示す。図17〜図19は、映像内の人物の流れを解析する場合の例である。
図17は、例えば「指定の位置に群衆があるときに人物が指定の軌跡で回避したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「人物」であり、周辺の状況は「群衆が指定の位置にある」という状況である。
図18は、例えば「群衆の流れる方向と逆流して人物が移動したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「人物」であり、周辺の状況は「群衆が指定の位置にあり、指定の方向に移動している」という状況である。
図19は、例えば「赤信号のときに人物が斜め横断したシーン」を検索するための検索クエリを入力する例である。この場合、移動軌跡を検索するオブジェクトは「人物」であり、周辺の状況は「赤信号である」という状況である。周辺の状況は、例えば「信号の切り替わり音が鳴っている」などのように音の状況で指定されてもよい。この場合、状況推定部103は、例えば映像に含まれる音から、オブジェクトの周辺の音の状況を推定すればよい。
図20は、周辺の状況のマッチング方法の一例を説明する図である。上記のように、オブジェクトの周辺の状況が不明であると推定される場合がある。このような場合、検索部107は、周辺の状況が適合する画像と、この範囲の前後の少なくとも一方を含む画像を対象として、移動軌跡が適合する画像を検索してもよい。
例えば周辺の状況として「状況2」が検索クエリに含まれる場合、検索部107は、状況2の前後の「不明」の状況を含む範囲1701から、移動軌跡が適合する画像を検索する。また、例えば周辺の状況として「状況3」が検索クエリに含まれる場合、検索部107は、状況3の前後の「不明」の状況を含む範囲1702から、移動軌跡が適合する画像を検索する。
以上説明したとおり、本実施形態によれば、対象の移動軌跡および対象の周辺の状況を検索クエリとして、時系列画像から所望の画像を検索することができる。これにより、所望の画像をより適切に検索することが可能となる。
次に、本実施形態にかかる検索装置のハードウェア構成について図21を用いて説明する。図21は、本実施形態にかかる検索装置のハードウェア構成例を示す説明図である。
本実施形態にかかる検索装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
本実施形態にかかる検索装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
本実施形態にかかる検索装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、本実施形態にかかる検索装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態にかかる検索装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施形態にかかる検索装置で実行されるプログラムは、コンピュータを上述した検索装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 検索装置
101 検出部
102 軌跡推定部
103 状況推定部
104 軌跡取得部
105 状況取得部
106 クエリ取得部
107 検索部
108 出力制御部
121 記憶部

Claims (11)

  1. 時系列画像内での対象の移動軌跡を表す軌跡情報を取得する軌跡取得部と、
    前記時系列画像内での前記対象の周辺の状況を表す状況情報を取得する状況取得部と、
    移動軌跡および周辺の状況を含む検索クエリを取得するクエリ取得部と、
    前記軌跡情報および前記状況情報に基づいて、前記時系列画像に含まれる画像のうち、前記検索クエリに適合する画像を検索する検索部と、
    を備える検索装置。
  2. 前記検索部は、前記時系列画像に含まれる画像のうち、前記状況情報が前記検索クエリに含まれる周辺の状況と適合する第1画像を対象として、前記軌跡情報が前記検索クエリに含まれる移動軌跡と適合する画像を検索する、
    請求項1に記載の検索装置。
  3. 前記状況情報は、前記対象の周辺の状況が不明であることを表す情報を含み、
    前記検索部は、前記第1画像の前後の少なくとも一方の画像のうち、前記状況情報が、前記対象の周辺の状況が不明であることを示す画像、および、前記第1画像を対象として、前記軌跡情報が前記検索クエリに含まれる移動軌跡と適合する画像を検索する、
    請求項2に記載の検索装置。
  4. 前記時系列画像から、前記対象の位置を検出する検出部と、
    検出された前記位置に基づいて前記移動軌跡を推定する軌跡推定部と、をさらに備え、
    前記軌跡取得部は、推定された前記移動軌跡を表す軌跡情報を取得する、
    請求項1に記載の検索装置。
  5. 前記時系列画像から、前記周辺の状況を推定する状況推定部をさらに備え、
    前記状況取得部は、推定された前記周辺の状況を表す状況情報を取得する、
    請求項1に記載の検索装置。
  6. 前記状況推定部は、前記時系列画像に含まれる第2画像の周辺の状況が不明である場合、前記第2画像の前後の少なくとも一方の画像の周辺の状況が、前記第2画像の周辺の状況であると推定する、
    請求項5に記載の検索装置。
  7. 前記対象は、人、複数の人の集合、および、複数の人が集まる領域の少なくとも1つを含む、
    請求項1に記載の検索装置。
  8. 前記周辺の状況は、前記対象と異なる他の対象の位置である、
    請求項1に記載の検索装置。
  9. 前記対象は、球技で用いられるボールであり、
    前記周辺の状況は、前記ボールを保持するチーム、および、前記球技で実行される技の種類の少なくとも1つを含む、
    請求項1に記載の検索装置。
  10. 時系列画像内での対象の移動軌跡を表す軌跡情報を取得する軌跡取得ステップと、
    前記時系列画像内での前記対象の周辺の状況を表す状況情報を取得する状況取得ステップと、
    移動軌跡および周辺の状況を含む検索クエリを取得するクエリ取得ステップと、
    前記軌跡情報および前記状況情報に基づいて、前記時系列画像に含まれる画像のうち前記検索クエリに適合する画像を検索する検索ステップと、
    を含む検索方法。
  11. コンピュータを、
    時系列画像内での対象の移動軌跡を表す軌跡情報を取得する軌跡取得部と、
    前記時系列画像内での前記対象の周辺の状況を表す状況情報を取得する状況取得部と、
    移動軌跡および周辺の状況を含む検索クエリを取得するクエリ取得部と、
    前記軌跡情報および前記状況情報に基づいて、前記時系列画像に含まれる画像のうち前記検索クエリに適合する画像を検索する検索部、
    として機能させるためのプログラム。
JP2016225214A 2016-11-18 2016-11-18 検索装置、検索方法およびプログラム Active JP6649231B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016225214A JP6649231B2 (ja) 2016-11-18 2016-11-18 検索装置、検索方法およびプログラム
US15/647,312 US11189035B2 (en) 2016-11-18 2017-07-12 Retrieval device, retrieval method, and computer program product
EP17188017.2A EP3324307B1 (en) 2016-11-18 2017-08-25 Retrieval device, retrieval method, and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225214A JP6649231B2 (ja) 2016-11-18 2016-11-18 検索装置、検索方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018081630A true JP2018081630A (ja) 2018-05-24
JP6649231B2 JP6649231B2 (ja) 2020-02-19

Family

ID=59738202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225214A Active JP6649231B2 (ja) 2016-11-18 2016-11-18 検索装置、検索方法およびプログラム

Country Status (3)

Country Link
US (1) US11189035B2 (ja)
EP (1) EP3324307B1 (ja)
JP (1) JP6649231B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008972A (ja) * 2018-07-04 2020-01-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10657658B2 (en) 2017-06-23 2020-05-19 Kabushiki Kaisha Toshiba Transformation matrix deriving device, position estimation apparatus, transformation matrix deriving method, and position estimation method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3657356B1 (en) * 2017-07-21 2023-08-09 Sony Group Corporation Information processing device and information processing method
US10678845B2 (en) * 2018-04-02 2020-06-09 International Business Machines Corporation Juxtaposing contextually similar cross-generation images
US11050927B2 (en) * 2019-02-14 2021-06-29 Gopro, Inc. Temporal information synchronization of imaging devices
WO2021016902A1 (en) * 2019-07-31 2021-02-04 Intel Corporation Game status detection and trajectory fusion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1084525A (ja) * 1996-02-05 1998-03-31 Texas Instr Inc <Ti> ビデオに索引をつける方法
JP2003309799A (ja) * 2002-04-12 2003-10-31 Ricoh Co Ltd 映像中のイベント照合方法およびその方法をコンピュータが実行するためのプログラム
JP2006012012A (ja) * 2004-06-29 2006-01-12 Matsushita Electric Ind Co Ltd イベント抽出装置及びその方法及びそのプログラム
JP2010061221A (ja) * 2008-09-01 2010-03-18 Ntt Comware Corp 3次元動画像再生装置及び付加情報検索方法とプログラム
JP2015143921A (ja) * 2014-01-31 2015-08-06 株式会社日立製作所 画像検索システム、画像検索装置及び画像検索方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06101018B2 (ja) 1991-08-29 1994-12-12 インターナショナル・ビジネス・マシーンズ・コーポレイション 動画像データベースの検索
US6446060B1 (en) * 1999-01-26 2002-09-03 International Business Machines Corporation System and method for sequential processing for content-based retrieval of composite objects
JP4895340B2 (ja) * 2005-03-31 2012-03-14 キヤノン株式会社 情報処理装置およびその方法
US8326775B2 (en) * 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
WO2013166456A2 (en) 2012-05-04 2013-11-07 Mocap Analytics, Inc. Methods, systems and software programs for enhanced sports analytics and applications
JP6194963B2 (ja) * 2014-02-14 2017-09-13 日本電気株式会社 映像処理システム
WO2015190071A1 (ja) 2014-06-10 2015-12-17 パナソニック株式会社 映像処理方法、映像処理装置
JP6853528B2 (ja) 2016-10-25 2021-03-31 東芝デジタルソリューションズ株式会社 映像処理プログラム、映像処理方法、及び映像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1084525A (ja) * 1996-02-05 1998-03-31 Texas Instr Inc <Ti> ビデオに索引をつける方法
JP2003309799A (ja) * 2002-04-12 2003-10-31 Ricoh Co Ltd 映像中のイベント照合方法およびその方法をコンピュータが実行するためのプログラム
JP2006012012A (ja) * 2004-06-29 2006-01-12 Matsushita Electric Ind Co Ltd イベント抽出装置及びその方法及びそのプログラム
JP2010061221A (ja) * 2008-09-01 2010-03-18 Ntt Comware Corp 3次元動画像再生装置及び付加情報検索方法とプログラム
JP2015143921A (ja) * 2014-01-31 2015-08-06 株式会社日立製作所 画像検索システム、画像検索装置及び画像検索方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
安田 航也、外4名: "バスケットボール解析における多視点映像を用いたボール追跡手法", 電気学会研究会資料, JPN6019041494, 15 September 2016 (2016-09-15), JP, pages 37 - 40, ISSN: 0004142422 *
相澤 将吾、外5名: "選手の移動軌跡の類似性を利用したサッカー映像における隠蔽区間補間の検討", 電子情報通信学会技術研究報告, vol. 第115巻,第495号, JPN6019041495, 29 February 2016 (2016-02-29), JP, pages 241 - 242, ISSN: 0004142423 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657658B2 (en) 2017-06-23 2020-05-19 Kabushiki Kaisha Toshiba Transformation matrix deriving device, position estimation apparatus, transformation matrix deriving method, and position estimation method
JP2020008972A (ja) * 2018-07-04 2020-01-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7277085B2 (ja) 2018-07-04 2023-05-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US11189035B2 (en) 2021-11-30
JP6649231B2 (ja) 2020-02-19
EP3324307A1 (en) 2018-05-23
EP3324307B1 (en) 2021-03-17
US20180144479A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6649231B2 (ja) 検索装置、検索方法およびプログラム
EP2877254B1 (en) Method and apparatus for controlling augmented reality
JP6148480B2 (ja) 画像処理装置、画像処理方法
US9436875B2 (en) Method and apparatus for semantic extraction and video remix creation
JP4765732B2 (ja) 動画編集装置
JP4831623B2 (ja) 動画像の顔インデックス作成装置およびその顔画像追跡方法
JP5355446B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
JPWO2006025272A1 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP2010009425A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
EP3973446A1 (en) Forensic video exploitation and analysis tools
WO2012175447A1 (en) Dynamic gesture recognition process and authoring system
KR20140041561A (ko) 객체 위치를 통한 비디오 내비게이션
US20190278803A1 (en) Image search system, image search method and storage medium
JP6853528B2 (ja) 映像処理プログラム、映像処理方法、及び映像処理装置
US9767564B2 (en) Monitoring of object impressions and viewing patterns
JP5850188B2 (ja) 画像表示システム
KR102624650B1 (ko) 스포츠 이벤트를 검출하는 방법 및 이를 수행하는 시스템
KR102541570B1 (ko) 자동 알림 기능이 적용된 스포츠 스트리밍 방법, 장치 및 시스템
KR20220153777A (ko) 투구 시점 검출 장치 및 투구 시점 검출 방법
JP2023076340A (ja) 画像解析システム、画像解析方法およびプログラム
CN115633184A (zh) 一种字幕处理方法、装置及电子设备
JP2014072620A (ja) 画像処理プログラム、画像処理方法、画像処理装置、及び撮像装置
JP2010041247A (ja) 画像処理装置、方法及びプログラム
Lopes Audio-coupled video content understanding of unconstrained video sequences
KR20090113553A (ko) 지식을 결합한 능동적 물체 인식 알고리즘

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R151 Written notification of patent or utility model registration

Ref document number: 6649231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151