JP7451172B2 - 情報処理装置、映像の要約方法、およびプログラム - Google Patents

情報処理装置、映像の要約方法、およびプログラム Download PDF

Info

Publication number
JP7451172B2
JP7451172B2 JP2019233228A JP2019233228A JP7451172B2 JP 7451172 B2 JP7451172 B2 JP 7451172B2 JP 2019233228 A JP2019233228 A JP 2019233228A JP 2019233228 A JP2019233228 A JP 2019233228A JP 7451172 B2 JP7451172 B2 JP 7451172B2
Authority
JP
Japan
Prior art keywords
video
information processing
processing device
objects
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019233228A
Other languages
English (en)
Other versions
JP2021103811A (ja
JP2021103811A5 (ja
Inventor
寛基 浦島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019233228A priority Critical patent/JP7451172B2/ja
Priority to US17/124,258 priority patent/US11869197B2/en
Publication of JP2021103811A publication Critical patent/JP2021103811A/ja
Publication of JP2021103811A5 publication Critical patent/JP2021103811A5/ja
Application granted granted Critical
Publication of JP7451172B2 publication Critical patent/JP7451172B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/16Spatio-temporal transformations, e.g. video cubism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理装置、映像の要約方法、およびプログラムに関する。
近年防犯に対する意識が高まっており、様々な場所で監視カメラが活用されるようになってきている。
このような長時間録画された映像を効率的に見る方法として特許文献1に示す映像を要約する技術がある。この技術では、まず長時間の録画映像(以下、元映像)から、人物や車両などの動きのある対象物を抽出する。そして、互いが重ならないように空間的な位置を維持したまま時間方向に対象物をシフトさせ、出現順序を入れ替える。このようにして、短時間の映像(以下、要約映像)に変換する。
特許第5355422号
しかしながら、特許文献1に開示された技術では、人が車に乗降する元映像から要約映像を生成した場合、人と車は異なる種類の対象物として認識されてしまう。そのため、要約映像において、人と共に乗降した車が表示されないことがある。すなわち、車から降りてきた人が何もない空間に突然現れ、車に乗る人が突然消える。このような違和感のある要約映像が生成される可能性があった。
録画映像の中で検知された対象物の出現時刻を変更することにより、要約映像を生成する情報処理装置において、前記録画映像から所定の条件に基づいて第1の対象物と前記第1の対象物が乗降可能な第2の対象物とを取得する取得手段と、前記取得手段によって取得された対象物のうち、乗降を行った前記第1の対象物と、前記第1の対象物乗降した前記第2の対象物とを特定する特定手段と、前記第1の対象物それぞれ重ならず、前記要約映像の再生時間が前記録画映像の再生時間より短くなるように、前記要約映像における前記出現時刻を決定する決定手段と、前記決定手段により決定された前記出現時刻に基づき、前記特定手段によって特定された前記第1の対象物前記第2の対象物とを含む要約映像を生成する生成手段と、を有し、前記決定手段は、前記特定手段により特定された前記第1の対象物と前記第2の対象物との前記要約映像における相対的な出現時刻を維持するように、前記出現時刻を決定することを特徴とする。
本発明によれば、人とその人が乗降する車との軌跡を関連付けして要約映像上で元映像と同じ出現順序を維持してそれぞれが表示されるので、違和感のない要約映像を生成することができる。
本発明の実施形態に係る情報処理装置の一例である映像生成デバイスの機能ブロック図 本発明の実施形態に係る録画映像及び要約映像の時空間における対象物の動作軌跡の配置の一例を表す図 本発明の実施形態に係る制御部が受け付ける映像のフレームおよび生成部が出力する要約映像のフレームの一例を表す図 本発明の実施形態に係る受信部が受信する対象物情報の一例を表すテーブル 本発明の実施形態に係る判定部が生成する対象物の関連情報の一例を表すテーブル 本発明の実施形態に係る生成部が生成する対象物の開始時刻の一例を表すテーブル 本発明の実施形態に係る制御部が実行する処理の一例を表すフローチャート 本発明の実施形態に係る判定部及び抽出部が実行する処理の一例を表すフローチャート 本発明の実施形態の変形例1における受信部が受信する動作軌跡の一例を背景画像上にプロットした図 本発明の実施形態の変形例1における判定部が生成する動作軌跡の一例を背景画面上にプロットした図 本発明の実施形態の変形例1における抽出部が受け付ける手描きの線の一例および受け付けた手描き線の軌跡の一例を背景画面上にプロットした図 本発明の実施形態の変形例1における判定部が生成する対象物の関連情報の一例を表すテーブル 本発明の実施形態の変形例1における判定部及び抽出部が実行する処理の一例を表すフローチャート 本発明の実施形態の変形例12における受信部が受信する対象物情報及び判定部が生成する対象物の関連情報の一例を表すテーブル
以下、添付図面を参照して、本発明を実施するための実施形態について詳細を説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例である。
本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
本発明の実施形態では、監視カメラによって撮影された映像(元映像)から時間方向に圧縮された要約映像を生成するシステムの例を説明する。生成された要約映像を利用することで、ユーザは長時間の映像を短時間で閲覧することが可能になる。
しかしながら、人が車に乗降する録画映像から要約映像を生成した場合、人とその人が乗降した車とは別な対象物として認識されてしまう。このため、要約映像において、人と共に乗降した車が同じタイミングでは必ずしも表示されず、人が何もない空間から突然現れたり、あるいは消えたりする違和感のある映像が表示されてしまうことがあった。対象物(オブジェクト)には人や車など様々な種別があり、詳細は後述する。
そこで、本発明の実施形態では、このような課題を解決するために、人の乗降を検知した場合に、人と、その人と関連付けられた車との相対的な出現順序は元映像から維持して表示するような要約映像を生成する。
図1(a)は、本実施形態に係る情報処理装置100の一例である映像生成デバイスの機能ブロック図である。映像生成デバイスは、制御部101、受信部102、判定部103、抽出部104、生成部105を有する。
図1(b)は、情報処理装置100のハードウェア構成を示す図である。図1(b)に示すように、情報処理装置100は、ハードウェアとして、CPU201、RAM202、ROM203、入力装置204、出力装置205、記憶装置206およびネットワークインタフェース207を有している。CPUはCentral Processing Unitの略である。RAMはRandom Access Memoryの略である。ROMはRead Only Memoryの略である。
制御部101は、CPU201等から構成される機能部であり、ROM203に記憶されたプログラムやデータをRAM202に読み出して映像生成などの処理を実行する。
受信部102は、例えば、キーボードやマウスなどを備える入力装置204を用いて行われるユーザの操作により、映像に対して行われた解析処理の結果としての複数の対象物情報を受信する。
なお、解析処理対象のオリジナルの映像である元映像は、記憶装置206に保存されたものであってもよいし、ネットワークインタフェース207を介して読み込まれたネットワーク208上にある映像であってもよい。
判定部103は、映像から得られた複数の対象物間の関係、例えば人と車の乗降といった関係を判定する。
抽出部104は、キーボードやマウスなどを備える入力装置204を用いて行われるユーザの操作により得られた抽出条件および複数の対象物間の関係に基づいて複数の対象物を抽出する。
生成部105は抽出された複数の対象物間の関係に基づいて要約映像を生成する。生成された要約映像は記憶装置206に保存され、ディスプレイなどの出力装置205において再生される。
図2(a)は、元映像の時空間における対象物の動作軌跡の配置300を表す図である。横軸が空間を表し、縦軸が時間を表す。なお、空間は通常xとyの2軸で構成されるが、ここでは表現のわかりやすさを優先してy軸の値は省略し、空間はx軸のみの1次元であるとして説明する。時間tについては、図面の最下部が録画の開始時間、最上部が録画の終了時間となる。図中に太線で表される動作軌跡301~305は、映像に出現する対象物の中心の軌跡を表す。対象物を囲む点線は対象物の範囲を表す。
ここで、情報処理装置100は、複数の連続するフレームのそれぞれ出現する画素の集合により、対象物を定義する。また、対象物の中心を中心とする円の半径により、対象物の範囲を定義する。ただし、対象物の中心は、対象物の画素集合の中心位置とする。また、対象物の範囲を示す半径は、対象物の画素集合の面積に基づいて算出する。この算出方法の詳細については後述する。
ユーザは抽出条件として「人」を設定しているとする。そして図2の動作軌跡301、303、304は人の動作軌跡を、302、305は車の動作軌跡とする。さらに動作軌跡301の人物は動作軌跡302の車に乗るものとする。図2の破線で示した時刻はこの人物が車に乗る直前の時刻を表す。その際の元映像の画面に関しては後述する。
図2(b)は要約映像の時空間における対象物の動作軌跡の配置400を表す。図2(b)の対象物の動作軌跡301、302、303、304はそれぞれ、図2(a)と同一の動作軌跡の開始時刻をずらしたものである。
動作軌跡の開始時刻は、映像の開始時刻を0とした時に、対象物が画角内に現れ動作軌跡を形成し始める時刻を表す。
図2(b)の配置400は、図2(a)の対象物から人と、さらにその人が乗降した対象物を抽出した対象物群を再配置したものである。
配置する際、乗降の関係がある人と車の動作軌跡については相対的な出現順序は変えないで、元映像における時間方向および空間方向の相対的な配置を維持した上で、元映像より再生時間が短くなるように各動作軌跡の開始時刻を決定している。
ここで、図2(a)の動作軌跡305は車の動作軌跡であるが、動作軌跡302と異なり、人は乗降しない。このように動作軌跡305は関連付けられる人が無く、抽出条件には当てはまらないので、図2(b)において動作軌跡305は抽出されない。
図3(a)は制御部101が受け付ける映像のフレームの一例を表す。図3(a)は、図2(a)の破線の時刻のフレームを表す。人物501は対象物301、車502は対象物302に対応する。右上方へと歩く人物501が、右側から左方向に走ってきた車502に乗る直前の画面を表している。
図3(b)は生成部105が出力する要約映像のフレームの一例を表す。図3(b)は、図2(b)の破線の時刻のフレームを表す。人物601は対象物303に対応する。
要約映像を生成する際には、人物501が乗車した車502を要約映像に出現させる対象物として追加する。さらにこれらの間の出現順序を変えないで、録画映像における時間方向の相対的な配置を維持する。
このようにすることで、人物と車が図3(a)の録画映像における時間方向の相対的な位置関係を要約映像を示す図3(b)においても維持している。さらに図3(b)に示すように、映像の要約によって異なる時刻に録画された人物601が要約映像に入る。
次に、受信部102が受信する対象物情報の一例について図4(a)のテーブルを用いて説明する。
図4(a)のテーブル700は映像生成デバイスにより映像から生成され、受信部102によって受信される対象物情報テーブルを表している。対象物情報テーブルは識別子701、種別702、開始時刻703、動作軌跡704で表される。
図2(a)の元映像の動作軌跡301、302、303、304、305には、それぞれ識別子ID_001、ID_002、ID_003、ID_004、ID_005が割り当てられる。
対象物の種別は、フレーム内に出現する対象物の画像からオブジェクト認識等の画像認識技術により外観から推定され、付与されたものである。
ここでは種別の認識にオブジェクト認識を用いたが、対象物の画像や移動軌跡から種別を求める方法であればどのような方法であってもよい。対象物の開始時刻は、映像の開始時刻を0とした時に、対象物が画角内に出現する時刻を表す。動作軌跡は図4(b)にて説明する。
例えば、ユーザの操作により、映像に対して行われた解析処理の結果としての複数の対象物情報を受信する受信部102が受信する動作軌跡の一例について図4(b)のテーブルを用いて説明する。
対象物の動作軌跡テーブル800は、対象物情報テーブル700と共に受信部102から受信される。図4(b)の動作軌跡テーブルは図4(a)の対象物情報テーブル700の動作軌跡704のB1が指し示すものである。同様にB2からB5についても動作軌跡テーブルが存在するがここでは説明を省略する。
動作軌跡テーブル800は時刻801、中心座標802、半径803、画素マスク804の情報で表され、各フレームの情報が時系列で格納される。
時刻801は該対象物が映像に現れてからの相対的な時刻を表す。この動作軌跡テーブル800には識別子ID_001の対象物の時刻0から12までの動作軌跡が記録される。ここで時刻0から12は仮の数字であって、実際にはフレームレートに応じた数値となる。
中心座標802は対象物の時刻ごとの画素集合の中心位置を表す。中心位置としては、対象物を構成するすべての画素の座標の平均を取ったものを使用する。
半径803は対象物の範囲を表す。この半径は、対象物の画素の合計数をSとした時に、S/πの平方根を求めることにより算出する。なお、対象物の範囲をここでは円に近似して表現しているが、範囲を指定できるものであれば、どのような形式であってもよい。
画素マスク804は、フレーム内の対象物の詳細な画素位置を表すマスク情報へのリンクを表す。ここでは画素マスクを対象物とそれ以外を区別する情報を持つ画像として画素マスクを構成するが、これらが区別できるものであれば、画像以外の形式であってもよい。
次に判定部103が生成する対象物の関連情報テーブルの一例について図5のテーブルを用いて説明する。
対象物の関連情報テーブル900は、判定部103が対象物情報および動作軌跡を基に生成する情報である。
対象物の関連情報は、対象物の識別子901と関連902で表され、それぞれ図4(a)の識別子701に対応する。対象物の識別子901には、乗降を行ったと判定された対象物(人)の識別子と、関連902には、その対象物が乗降した対象物(車)とが記述される。ここでは対象物301の識別子ID_001に対し、関連として対象物301が乗降を行った対象物302の識別子ID_002が記述される。
次に生成部105が生成する要約映像中の対象物の開始時刻テーブルの一例について図6のテーブルを用いて説明する。対象物の開始時刻テーブル1000は、生成部105が抽出された対象物と対象物の関連情報テーブル900とを基に生成する情報である。
対象物の開始時刻テーブル1000は、対象物の識別子1001、要約映像中の開始時刻1002の情報で表される。対象物の識別子1001は、図4(a)の識別子701に対応する。要約映像中の開始時刻1002は、要約映像において対象物が出現する時刻を表す。次にフローチャートを用いて図2(a)から図2(b)の要約映像の配置を生成する方法について説明する。
本実施形態のフローチャートは、CPU201が、処理の実行に際してROM203から必要なプログラムをRAM202にロードし、当該プログラムを実行することによって実現される。
図7は、本実施形態において制御部101において実行される処理の一例を示すフローチャートである。本フローチャートは、映像生成デバイスにおいて、監視カメラの録画映像が読み込まれることに応じて実行される。
制御部101は、ステップS1101において、元映像から抽出された対象物に関する対象物情報テーブルを受信部102から取得し、ステップS1102に移行する。
元映像から対象物を切り出す方法はいくつかあるが、ここでは背景差分とフレーム間差分を組み合わせた方法を使用する。映像から対象物を抽出する方法であれば他の方法を用いてもよい。
対象物の情報は、図4(a)に示す対象物情報テーブルと、図4(b)に示す動作軌跡テーブルにより構成される。抽出された対象物には識別子が割り振られ、種別には画像から推定された対象物の種別情報が、開始時刻には録画映像中の対象物が現れた時刻が、動作軌跡には対象物の相対時刻、中心座標、半径、画素マスクが記録される。
制御部101は、ステップS1102において後述する対象物の乗降等の判定処理を判定部103で行い、ステップS1103に移行する。本ステップでは対象物間に乗降等のイベントがあった場合に関連付けを行う。ここでは対象物301が対象物302に対し関連する、つまり人が車に乗降したと判定される。
次にステップS1103では後述する対象物の抽出処理を抽出部104で行い、ステップS1104に移行する。
本ステップでは入力された抽出条件および対象物の関連情報に基づき、対象物を抽出する。
ここでは抽出条件として人が入力され、種別が人である301、303、304がまず抽出され、さらに関連情報に基づき対象物301に関連する車302が抽出され、特定される。
ステップS1104では、生成部105において対象物情報テーブル700及び対象物の関連情報テーブル900に基づき対象物の時間方向の配置を決定した上で、対象物の開始時刻テーブル1000を生成し、ステップS1105に移行する。
本ステップではまず抽出対象の中で関連情報のある対象物301と、対象物301に関連づけられている対象物302の間の時間方向の相対的な配置を決定する。
対象物情報テーブル700から対象物301の元映像における開始時刻は10、対象物302の開始時刻は20のため、差分から相対的な配置は10と求められる。この時間方向の相対的な配置は元映像から維持する。次に対象物301、302、303、304の要約映像における開始時刻を求める。
ここで、対象物の動作軌跡間の衝突について説明する。生成部105は、以下の式(1)を用いて、対象物i,j間の衝突コストColij(k)を算出する。
ただし、kは対象物i,jの開始時刻の時間差であり、x ,y はそれぞれ時刻tにおける対象物iの中心のx座標及びy座標であり、r は時刻tにおける対象物iの半径である。
また、Tij(k)は、開始時刻の時間差がkであるとしたときに、対象物i,jの両方の動作軌跡が映像中に出現する期間を表している。さらに、式(1)右辺の絶対値記号内側の数式は、対象物i,jの中心間の距離が半径の合計よりも小さいときに衝突ありを示す相対的に大きな値となり、それ以外のときに衝突なしを示す相対的に小さな値となる数式を表している。
したがって、衝突コストColij(k)は、値が大きいほど、対象物i,jが衝突するフレームの数が多いことを表す。
Figure 0007451172000001
生成部105は、対象物の全ての組み合わせにおいて衝突コストColij(k)が最小になる開始時刻を求めるために、シミュレーテッドアニーリング法を用いる。シミュレーテッドアニーリング法によれば、範囲制約のある非線形問題を効率的に計算することができる。
したがって、生成部105は、シミュレーテッドアニーリング法を用いてなるべく対象物が重ならないような各対象物の開始時刻を求めることができる。生成部105は、このようにして元映像に対して対象物の空間的な位置を維持しつつ、出現開始順序を変更することで要約映像を生成する。具体的には、背景画像の上に元映像から画素マスクを用いて切り出した対象物の画像を、算出した開始時刻を基に張り付けていくことによって、要約映像を生成する。
先ほど求めた関連情報のある特定の対象物301、302については、相対的配置を維持しつつ、対象物301と対象物302の組み合わせ以外の対象物303、304に対して、対象物間の動作軌跡の衝突が少なく、総再生時間が元映像より短くなるようにエネルギー関数を定義する。そして、特許文献1に記載のシミュレーテッドアニーリング法を用いて開始時刻を決定する。
これにより乗降を行った対象物間の空間的にだけではなく時間的にも相対的な配置を保ちつつ、その他の対象物との間の衝突が少なく、総再生時間の少ない対象物の開始時刻テーブル1000が求められる。
次にステップS1105では、生成部105において対象物の開始時刻テーブル1000を基に要約映像を生成する。要約映像は背景画像の上に、元の録画映像から画素マスクを用いて切り出した対象物の画像を、算出した開始時刻を基に張り付けていくことによって生成する。
図8(a)は、本実施形態において判定部103において実行される処理の一例を表すフローチャートである。
判定部103はステップS1201において対象物情報テーブル700の対象物を順に以降のステップで処理していく。
ステップS1202では、対象物が乗降可能な種別の複数の対象物を取得し、ステップS1203に移行する。対象物301は抽出条件としての種別が人であるため、バイク(二輪車と呼んでもよい)、車(四輪車と呼んでもよい)、トラック、船、ヘリコプター、飛行機といった種別の対象物に乗降が可能である。尚、対象物は車輪でなく足が付属したロボット等の移動体やその他のプロペラ付のドローン等の飛行体であってもよく、これらは乗降する側とされる側のどちらに当てはめてもよい。
ここでは対象物301が乗降可能な対象物として車の種別が付与された対象物302、305が取得される。
次に判定部103はステップS1203において、人の動作軌跡の始点または終点と乗り物の一時停止を示す点が時間的なそして空間的な関係において近傍の位置にある場合に、人から乗り物に対し乗降の関連付けを行い、次の対象物の処理に移行する。
具体的には、乗降の判定は対象物と乗り物の動作軌跡800を用いて行う。対象物の動作軌跡の最初と最後の時刻の中心座標と半径と、乗り物が停止した時刻の中心座標と半径との間の重なり割合をもとに乗降を判定する。
乗り物の停止については、乗り物の動作軌跡の中心座標の中で、前後の時刻の中心座標との距離が閾値以下の場合に停止していると判定される。
対象物が乗り物から降りたかどうかは、対象物の動作軌跡の開始位置の半径をros、乗り物の動作軌跡上の停止位置の半径をr、対象物と乗り物の中心座標の距離をdとした時に、(ros+r-ds)/(ros×2)が閾値以上の時に、降りたと判定部103は判定する。
同様に乗り物に乗ったかどうかは、対象物の動作軌跡の終了位置の半径をroe、乗り物の停止位置の半径をr、対象物と乗り物の中心座標の距離をdとしたときに、(roe+r-d)/(roe×2)が閾値以上のときに、対象物は乗り物に乗ったと判定する。ここでは人である対象物301が車である対象物302に乗ったと判定部103は判定する。
次に図8(b)は、本実施形態において抽出部104において実行される処理の一例を表すフローチャートである。
抽出部104はステップS1301において、入力装置204より対象物の抽出条件を受け付けてステップS1302に移行する。
抽出条件は出力装置205に表示されたグラフィカル・ユーザインタフェースを通して受け付けるが、抽出条件を取得できる方法であればどのような方法であってもよい。
抽出条件として対象物の種別及び手描き線による動作軌跡を入力することができる。対象物の種別には人、バイク、車、トラック、船、ヘリコプター、飛行機等があり、これらの組み合わせを入力することができる。動作軌跡としてはグラフィカル・ユーザインタフェースを通して手描きの線を入力することもできる。ここでは抽出条件として対象物の種別である人を受け付けるものとをする。
続いてステップS1302では、受け付けた抽出条件に適合する対象物を抽出し、ステップS1303に移行する。
抽出条件として人が入力されているため、対象物の中から種別が人である対象物301、303、304が抽出される。ステップS1303では、対象物の関連情報900から、前ステップで抽出された対象物301が乗降した対象物302も抽出し、処理を終了する。
以上説明したように、対象物(人)301が乗った対象物(車)302は追加されるが、対象物(人)が乗降しない対象物(車)305は追加されない。その結果、最終的には対象物301、302、303、304が抽出対象物として抽出される。
このように、対象物(人)及び対象物(人)が乗り降りした対象物(車)が抽出され、映像生成デバイスは、乗降する対象物(人)と乗降される対象物(車)の相対的な出現順序を維持しながら、要約映像を生成する。
これにより、対象物(人)が乗降を行う要約映像において、対象物(人)が突然現れ突然消えるというようなことを防ぐことができる。このようにして映像生成デバイスは違和感のない要約映像を生成することができる。
これまでに要約を行う対象物を対象物の種別により抽出する実施形態について説明したが、これは一例に過ぎない。変形例として、入力された手描きの線を用いて、乗り物に乗降した対象物を抽出する実施形態を説明する。
図9(a)、図9(b)は、本実施形態において受信部102が受信する動作軌跡の一例を背景画像上にプロットしたものである。図9(a)は対象物301の動作軌跡を、対象物の全ての時刻の中心座標と半径の値を基に録画映像の背景画像の上に図示したものである。図9(b)は、対象物302の動作軌跡を同様に図示したものである。
図10は、本実施形態において、判定部103が生成する動作軌跡の一例を背景画面上にプロットしたものである。図10は対象物301の動作軌跡1401と、対象物302の動作軌跡1501の一部を合成し、新たに生成した動作軌跡1601を図示したものである。
図11(a)は、本実施形態において抽出部104が受け付ける手描きの線の一例を表す図である。手描きの線は出力装置205に表示されたグラフィカル・ユーザインタフェースに入力装置204であるマウスやスタイラスで描かれる。ここでは録画映像の背景が描かれた画面上にマウスを使って線1701が描かれたものとする。
図11(b)は、本実施形態において抽出部104が受け付けた手描き線の軌跡を背景画面上にプロットしたものである。手描きの線1701上に所定の半径を持つ円を一定間隔でプロットしたものが手書き線の軌跡1801である。
次に判定部103が生成する対象物の関連情報の一例について図12のテーブルを用いて説明する。対象物の関連情報テーブル1900は、判定部103が対象物情報テーブル及び動作軌跡テーブルに基づいて生成する情報である。901、902、903は図5で示した対象物の関連情報テーブルと同じものを示す。
付与動作軌跡1901は関連情報を付与した際に追加される動作軌跡である。付与動作軌跡B6は、図10で示した動作軌跡1601を表す。
図13(a)は、本実施形態において判定部103において実行される処理の一例を示すフローチャートである。
ステップS1201、S1202、S1203の処理は図8(a)と同様のため説明を割愛する。ステップS2001において、判定部103は対象物(人)の動作軌跡に対象物(人)が対象物(車)に乗っている間の動作軌跡を加えた動作軌跡を、対象物を抽出する際に使用する動作軌跡として対象物に付与する。具体的には、直前のステップS1203において対象物が乗降したと判定した際に最も近傍にある車の位置から、乗車の場合は後の部分の動作軌跡を、降車の場合は前の部分の動作軌跡を対象物が車に乗車している区間として抽出し、対象物(人)の軌跡に加える。
そして、人である対象物301と対象物(車)302において、人の動作軌跡1401と、車の動作軌跡1501のうち人が乗車している区間の動作軌跡とを合わせた動作軌跡1601を関連情報テーブル1900に付与する。
図13(b)は、本実施形態において抽出部104において実行される処理の一例を示すフローチャートである。
ステップS1301、S1303の処理は図8(b)と同様のため説明を割愛する。ステップS2101において、キーボードやマウスなどを備える入力装置204を用いて行われるユーザの操作により得られた抽出条件に合致する種別、動作軌跡、付与動作軌跡を持つ対象物を抽出し、ステップS1303に移行する。
ここでは前ステップにおいて図11の手描きの線1701が入力されたものとする。手描き線は軌跡1801に変換され、軌跡に合致する動作軌跡、付与動作軌跡を持つ対象物が抽出される。手描き線の軌跡と動作軌跡の間は、動作軌跡に手描き線の軌跡が含まれるかどうかで合致しているかを判定する。
具体的には、動作軌跡上での対象物の面積を表す円を時刻順に走査し、手描き線の軌跡の円を、動作軌跡側の円が時刻順を保つ形で含む場合に、動作軌跡は手描き軌跡を含むと判定する。ここでは人である対象物301の付与動作軌跡が対象物(車)302に乗り込んだ後と合わせた軌跡と、手描き軌跡とがマッチするため、人である対象物301が抽出される。
以上のように、人の単独の動作軌跡にその人が乗った後の車の動作軌跡を加えて1つの動作軌跡として登録することで、人である対象物が通った区間をより正確に検索することが可能となる。
これまでは人が車に乗った場合を例にとって説明を行ったが、人と車の関係に限るものではない。人がバイクやトラック、船、ヘリコプター、飛行機に乗る場合においても同様の方法を適用することが可能である。また、バイクや車がトラックに乗る場合や、バイクや車、トラック、ヘリコプター、飛行機が船に乗る場合、バイクや車、トラックがヘリコプターに乗る場合、車やトラックが飛行機に乗る場合等に対しても適用可能である。また前述した対象物が降りる場合に対しても適用可能であることは言うまでもない。
受信部102が受信する動作軌跡の一例について図14(a)のテーブルを用いて説明する。テーブルの項目は図4(a)と同様である。ここではテーブルに種別として人、バイク、飛行機、船、トラックと識別された対象物が登録される。
次に判定部103が生成する対象物の関連情報の一例について図14(b)のテーブルを用いて説明する。テーブルの項目は図5と同様である。ここでは人がバイクに乗り、バイクが船に乗る関連が付けられている。
以上のように、人や車に限らず様々な移動対象物に対して適用が可能である。
(その他の実施形態)
なお、本発明は、上述の実施形態の一部または1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、本発明は、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
100 情報処理装置
101 制御部
102 受信部
103 判定部
104 抽出部
105 生成部

Claims (10)

  1. 録画映像の中で検知された対象物の出現時刻を変更することにより、要約映像を生成する情報処理装置において、
    前記録画映像から所定の条件に基づいて第1の対象物と前記第1の対象物が乗降可能な第2の対象物とを取得する取得手段と、
    前記取得手段によって取得された対象物のうち、乗降を行った前記第1の対象物と、前記第1の対象物乗降した前記第2の対象物とを特定する特定手段と、
    前記第1の対象物それぞれ重ならず、前記要約映像の再生時間が前記録画映像の再生時間より短くなるように、前記要約映像における前記出現時刻を決定する決定手段と、
    前記決定手段により決定された前記出現時刻に基づき、前記特定手段によって特定された前記第1の対象物前記第2の対象物とを含む要約映像を生成する生成手段と、
    を有し、
    前記決定手段は、前記特定手段により特定された前記第1の対象物と前記第2の対象物との前記要約映像における相対的な出現時刻を維持するように、前記出現時刻を決定することを特徴とする情報処理装置。
  2. 前記第1の対象物は、人、二輪車、四輪車、船、ヘリコプター、飛行機、移動のための足が付属した移動体、車輪が付属した移動体、プロペラが付属した移動体、または翼が付属した移動体のいずれか1つであることを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2の対象物は、二輪車、四輪車、船、ヘリコプター、飛行機、移動のための足が付属した移動体、車輪が付属した移動体、プロペラが付属した移動体、または翼が付属した移動体のいずれか1つであることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記決定手段は、前記第1の対象物の動作軌跡の始点または終点と、前記第2の対象物の停止を示す点との、時間的および空間的な関係に基づいて、前記第1の対象物が前記第2の対象物に対し乗降したと判定する請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記決定手段は、外観の画像認識により決定された前記第1の対象物と前記第2の対象物に基づいて、前記出現時刻を決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. ユーザによって入力された前記録画映像の背景画像における前記第1の対象物の軌跡を受け付ける受付手段と、
    前記受付手段によって入力された前記軌跡に対し前記所定の条件に合致する動作軌跡を有する前記第1の対象物を抽出する抽出手段と、
    を有することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記抽出手段は、前記複数の対象物の各々の一部の動作軌跡を組み合わせた軌跡を抽出対象の動作軌跡とすることを特徴とする請求項6に記載の情報処理装置。
  8. 前記生成手段は、前記録画映像から検知された前記第2の対象物のうち、前記特定手段により関係を特定されなかった前記第2の対象物を含まない前記要約映像を生成することを特徴とする請求項1に記載の情報処理装置。
  9. 録画映像の中で検知された対象物の出現時刻を変更することにより、要約映像を生成する映像の要約方法において、
    前記録画映像から所定の条件に基づいて第1の対象物と前記第1の対象物が乗降可能な第2の対象物とを取得する取得ステップと、
    前記取得ステップにおいて取得された対象物のうち、乗降を行った前記第1の対象物と、前記第1の対象物乗降した前記第2の対象物とを特定する特定ステップと、
    前記第1の対象物がそれぞれ重ならず前記要約映像の再生時間が前記録画映像の再生時間より短くなるように、前記要約映像における前記出現時刻を決定する決定ステップと、
    前記決定ステップ決定された前記出現時刻に基づき、前記特定ステップで特定された前記第1の対象物前記第2の対象物と、を含む前記要約映像を生成する生成ステップと、
    を有し、
    前記決定ステップにおいて、前記特定ステップ特定された前記第1の対象物と前記第2の対象物との前記要約映像における相対的な出現時刻を維持するように、前記出現時刻を決定することを特徴とする映像の要約方法。
  10. コンピュータを、請求項1からのいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2019233228A 2019-12-24 2019-12-24 情報処理装置、映像の要約方法、およびプログラム Active JP7451172B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019233228A JP7451172B2 (ja) 2019-12-24 2019-12-24 情報処理装置、映像の要約方法、およびプログラム
US17/124,258 US11869197B2 (en) 2019-12-24 2020-12-16 Information processing apparatus, video synopsis method, and storage medium for video synopsis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233228A JP7451172B2 (ja) 2019-12-24 2019-12-24 情報処理装置、映像の要約方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2021103811A JP2021103811A (ja) 2021-07-15
JP2021103811A5 JP2021103811A5 (ja) 2022-12-23
JP7451172B2 true JP7451172B2 (ja) 2024-03-18

Family

ID=76439284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233228A Active JP7451172B2 (ja) 2019-12-24 2019-12-24 情報処理装置、映像の要約方法、およびプログラム

Country Status (2)

Country Link
US (1) US11869197B2 (ja)
JP (1) JP7451172B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482090B2 (ja) 2021-08-27 2024-05-13 株式会社東芝 推定装置、推定方法及びプログラム
CN115988153A (zh) * 2022-11-30 2023-04-18 天翼云科技有限公司 一种用于视频摘要中帧合成的目标排列方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516257A (ja) 2005-11-15 2009-04-16 イッサム リサーチ ディベロップメント カンパニー オブ ザ ヘブライ ユニバーシティー オブ エルサレム 映像概要を生成する方法およびシステム
US20150127626A1 (en) 2013-11-07 2015-05-07 Samsung Tachwin Co., Ltd. Video search system and method
JP2015115955A (ja) 2013-12-13 2015-06-22 華為技術有限公司Huawei Technologies Co.,Ltd. 映像要約方法および装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101689394B (zh) 2007-02-01 2014-03-26 耶路撒冷希伯来大学伊森姆研究发展有限公司 用于视频索引和视频概要的方法和系统
EP2790152B1 (en) * 2013-04-12 2015-12-02 Alcatel Lucent Method and device for automatic detection and tracking of one or multiple objects of interest in a video
KR102282465B1 (ko) * 2014-10-27 2021-07-27 한화테크윈 주식회사 로이터링 시각화 장치 및 방법
KR102375864B1 (ko) * 2015-02-10 2022-03-18 한화테크윈 주식회사 요약 영상 브라우징 시스템 및 방법
US10887507B2 (en) * 2017-11-01 2021-01-05 Objectvideo Labs, Llc Intelligent self-powered camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516257A (ja) 2005-11-15 2009-04-16 イッサム リサーチ ディベロップメント カンパニー オブ ザ ヘブライ ユニバーシティー オブ エルサレム 映像概要を生成する方法およびシステム
US20150127626A1 (en) 2013-11-07 2015-05-07 Samsung Tachwin Co., Ltd. Video search system and method
JP2015115955A (ja) 2013-12-13 2015-06-22 華為技術有限公司Huawei Technologies Co.,Ltd. 映像要約方法および装置

Also Published As

Publication number Publication date
US20210192749A1 (en) 2021-06-24
JP2021103811A (ja) 2021-07-15
US11869197B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
US10769459B2 (en) Method and system for monitoring driving behaviors
JP7110359B2 (ja) ビデオチューブを使用した行動認識方法
CN109191369B (zh) 2d图片集转3d模型的方法、存储介质和装置
US10474918B2 (en) Image processing apparatus, image processing method, and storage medium
EP3563567B1 (en) Systems, methods, and computer-readable media for using a video capture device to alleviate motion sickness via an augmented display for a passenger
US6738066B1 (en) System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
KR102374776B1 (ko) Cctv의 위치 정보 및 객체의 움직임 정보에 기초한 타겟 객체 재식별 시스템 및 방법
JP7451172B2 (ja) 情報処理装置、映像の要約方法、およびプログラム
JP6650657B2 (ja) フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム
KR20200124280A (ko) 동작 인식, 운전 동작 분석 방법 및 장치, 전자 기기
US10210420B2 (en) Image processing method, image processing apparatus, and recording medium
CN115315679A (zh) 在多用户环境中使用手势来控制设备的方法和系统
KR101534742B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
JP5722381B2 (ja) ビデオ解析
US11854275B2 (en) Systems and methods for detecting symptoms of occupant illness
WO2020226696A1 (en) System and method of generating a video dataset with varying fatigue levels by transfer learning
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
US20220189038A1 (en) Object tracking apparatus, control method, and program
US20220092860A1 (en) Extended reality for moving platforms
CN107092347B (zh) 一种增强现实互动系统及图像处理方法
CN108521594A (zh) 一种基于体感相机手势识别的自由视点视频播放方法
US20220121856A1 (en) Video image processing apparatus, video image processing method, and storage medium
JP5924991B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
Polat et al. A tracking framework for collaborative human computer interaction
EP3511898B1 (en) A method and a system for displaying a reality view

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151