JP2013164667A - Video retrieval device, method for retrieving video, and video retrieval program - Google Patents

Video retrieval device, method for retrieving video, and video retrieval program Download PDF

Info

Publication number
JP2013164667A
JP2013164667A JP2012026297A JP2012026297A JP2013164667A JP 2013164667 A JP2013164667 A JP 2013164667A JP 2012026297 A JP2012026297 A JP 2012026297A JP 2012026297 A JP2012026297 A JP 2012026297A JP 2013164667 A JP2013164667 A JP 2013164667A
Authority
JP
Japan
Prior art keywords
video
motion
information
search
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012026297A
Other languages
Japanese (ja)
Inventor
Hiromu Miyashita
広夢 宮下
Satoshi Shimada
聡 嶌田
Takeshi Tono
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012026297A priority Critical patent/JP2013164667A/en
Publication of JP2013164667A publication Critical patent/JP2013164667A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video retrieval device capable of appropriately and easily retrieving, from a video, a scene in which movement similar to the movement of a subject identified by a user, occurs, and to provide a method for retrieving video, and a video retrieval program.SOLUTION: The video retrieval device includes: a retrieval object area identification unit 18 that identifies position information of an area determined by a user that movement subject to a retrieval occurs and surrounded on a screen by drawing using an input device, as retrieval object area; a movement-occurring section determination unit 19 that determines one section in the video where a series of movement of the retrieval object occurs; and a retrieval processing unit 21 that retrieves, in the retrieval object area identified by the retrieval object area identification unit 18, a video information part where the movement similar to the movement of the subject in the one section determined by the movement-occurring section determination part 19 occurs.

Description

本発明は、映像中から、ユーザが指定した被写体の動きに類似した動きが発生した映像区間(シーン)を検索する映像検索装置、映像検索方法、および映像検索用プログラムに関する。   The present invention relates to a video search apparatus, a video search method, and a video search program for searching a video section (scene) in which a motion similar to the motion of a subject specified by a user has occurred.

従来、映像中から、指定した被写体の動きに類似した動きが発生するシーンを検索する技術として、例えば下記の非特許文献1および2に示すような技術がある。   Conventionally, as a technique for searching a scene in which a movement similar to the movement of a designated subject occurs in a video, there are techniques shown in the following Non-Patent Documents 1 and 2, for example.

非特許文献1に記載された技術に関し、野球中継において撮影した映像を例として説明する。   Regarding the technique described in Non-Patent Document 1, an image taken in a baseball broadcast will be described as an example.

まず、検索するシーンとして、投球するシーンやバットを振るシーン、走るシーンなどのいくつかの動きに関する短いシーン(70フレーム程度)の映像を用意する。   First, as a scene to be searched, an image of a short scene (about 70 frames) relating to several movements such as a scene to throw, a scene to swing a bat, and a running scene is prepared.

次に、検索処理対象の映像フレームの画面全体について動きベクトルの方向(角度)を求め、各方向が出現する頻度を計数する。これが画像系列の各フレームについて繰り返され、方向と時間とを軸として2次元のヒストグラムを映像ごとに生成する。そして、検索対象の動きに関する各シーンについて1つのヒストグラムを基準として選び、それと重なりが最大になるように時間軸方向にずらすことで、該当するシーンを分析する。   Next, the direction (angle) of the motion vector is obtained for the entire screen of the search target video frame, and the frequency of occurrence of each direction is counted. This is repeated for each frame of the image sequence, and a two-dimensional histogram is generated for each video with the direction and time as axes. Then, for each scene related to the motion to be searched, one histogram is selected as a reference, and the corresponding scene is analyzed by shifting in the time axis direction so that the overlap with the histogram is maximized.

ここで、ヒストグラムを多次元尺度法で分析すると、同じ動作を含むシーンは特徴空間内の近い座標に配置されてクラスタが形成される。同じクラスタに属するシーンには似た動きが含まれているといえるため、動きに基づいたシーンの検索に利用することができる。   Here, when the histogram is analyzed by a multidimensional scaling method, a scene including the same motion is arranged at close coordinates in the feature space to form a cluster. Since it can be said that scenes belonging to the same cluster contain similar movements, the scenes can be used to search for scenes based on movements.

また非特許文献2に記載された技術に関し、サッカー中継において撮影した映像を例として説明する。   Moreover, regarding the technique described in Non-Patent Document 2, an image taken in a soccer broadcast will be described as an example.

この技術では、予め被写体であるサッカー選手やボールにセンサが装着されており、センサ位置が測定されることによりサッカー選手やボールの位置が取得され、映像に時系列のメタデータとして付加されている。   In this technology, a sensor is attached to a soccer player or a ball that is a subject in advance, and the position of the soccer player or the ball is acquired by measuring the sensor position, and is added to the video as time-series metadata. .

検索を行うユーザは、まず所望の移動体(選手やボールなど)をパレットから選択し、映像が表示されている画面上に検索したい移動体の軌跡を描画する。このとき、複数の移動体を選択する場合は、それぞれの移動体の軌跡を描画する。   The user who performs the search first selects a desired moving body (player, ball, etc.) from the palette, and draws the locus of the moving body to be searched on the screen on which the video is displayed. At this time, when a plurality of moving objects are selected, the trajectory of each moving object is drawn.

そして、描画された軌跡と移動体の時系列データとのマッチングを行うことにより、軌跡と類似した動きが発生したシーンを、検索処理対象の映像から検索することができる。   Then, by matching the drawn trajectory with the time-series data of the moving object, a scene in which a motion similar to the trajectory has occurred can be searched from the search target video.

ズデネク プロハースカ, 伊藤 崇: "野球映像における動作認識のための特徴の検討", 電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解, Vol.101, No.125, pp.23-30, 2001Zudenek Prohaska, Takashi Ito: "Examination of features for motion recognition in baseball video", IEICE Technical Report. PRMU, Pattern Recognition / Media Understanding, Vol.101, No.125, pp.23-30, 2001 矢島 史, 角谷 和俊,田中 克己, "映像上での動きの直接描画によるサッカー映像検索", 情報処理学会研究報告. データベース・システム研究会報告, Vol.2002, No.41, pp.33-40, 2002)Fumi Yajima, Kazutoshi Kakutani, Katsumi Tanaka, "Football Video Search by Direct Drawing of Motion on Video", IPSJ Research Reports, Database Systems Study Group, Vol.2002, No.41, pp.33-40 , 2002)

しかし、上述した従来の技術では、以下のような問題があった。   However, the conventional technology described above has the following problems.

非特許文献1の技術では、画面全体から動きの情報を取得してヒストグラムを作成しており、画面中から動きを抽出、あるいは指定するための具体的な手法については検討されていない。そのため、画面中にいくつかの動きが含まれている場合や背景の動きによるノイズなどが含まれている場合には、ユーザが意図した動きを的確に反映した抽出処理を行うことができない場合がある。   In the technique of Non-Patent Document 1, motion information is obtained from the entire screen and a histogram is created, and a specific method for extracting or specifying motion from the screen has not been studied. For this reason, if the screen contains some movements, or if noises from background movements are included, extraction processing that accurately reflects the movements intended by the user may not be performed. is there.

また非特許文献2の技術を利用するためには、被写体となる人や物にセンサを装着し、このセンサから時系列の位置情報を取得する必要がある。しかしセンサの装着には手間がかかり、特に人を対象とする場合にはセンサの存在が作業や運動の妨げとなる可能性があるため実用的でない。また、人間の四肢の動きを検索対象とする場合には特殊なセンサあるいは多数のセンサが必要になるため、現実的ではない。   In order to use the technique of Non-Patent Document 2, it is necessary to attach a sensor to a person or an object as a subject and acquire time-series position information from this sensor. However, it takes time and effort to mount the sensor. In particular, in the case of a human subject, the presence of the sensor may hinder work and exercise, which is not practical. In addition, when a human limb movement is a search target, a special sensor or a large number of sensors are required, which is not realistic.

本発明は上記事情に鑑みてなされたものであり、映像中から、ユーザが指定した被写体の動きに類似した動きが発生するシーンを、的確かつ簡易に検索することが可能な映像検索装置、映像検索方法、および映像検索用プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and a video search apparatus and video capable of accurately and easily searching a scene in which a motion similar to the motion of a subject specified by a user occurs from a video. It is an object to provide a search method and a video search program.

上記の課題を解決するための、本発明の映像検索装置は、映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定部と、前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定部と、前記検索対象領域指定部で指定された検索対象領域において、前記動き発生区間決定部で決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理部とを備えることを特徴とする。   In order to solve the above-described problems, the video search apparatus according to the present invention uses the input device on the screen when the user determines that the search target is moving on the screen on which the video is displayed. A search target area designating unit for designating position information of a region surrounded by drawing as a search target area, and a motion generation section determining unit for determining one section in the video in which a series of motions of the search target is generated And a search processing unit for searching for a video information portion in which a movement similar to the movement of the subject in one section determined by the movement generation section determining unit is detected in the search target area specified by the search target area specifying unit; It is characterized by providing.

また本発明の映像検索方法は、映像検索装置が、映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定ステップと、前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定ステップと、前記検索対象領域指定ステップで指定された検索対象領域において、前記動き発生区間決定ステップで決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理ステップとを有することを特徴とする。   In the video search method of the present invention, the video search apparatus is surrounded by a drawing by using the input device on the screen when the user determines that a search target motion is occurring on the screen on which the video is displayed. A search target region specifying step for specifying the position information of the region as a search target region, a motion generation interval determining step for determining one segment in the video where a series of motions of the search target is generated, A search processing step of searching for a video information portion in which a motion similar to the motion of the subject in one section determined in the motion generation section determination step is searched in the search target area specified in the search target area specifying step. It is characterized by.

また本発明の映像検索用プログラムは、上記映像検索装置で実行される機能を、コンピュータで実行させることを特徴とする。   According to another aspect of the present invention, there is provided a video search program for causing a computer to execute a function executed by the video search apparatus.

本発明の映像検索装置、映像検索方法、および映像検索用プログラムによれば、映像中から、ユーザが指定した被写体の動きに類似した動きが発生するシーンを、的確かつ簡易に検索することができる。   According to the video search device, the video search method, and the video search program of the present invention, it is possible to accurately and easily search a scene in which a motion similar to the motion of the subject specified by the user occurs from the video. .

本発明の一実施形態による映像検索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video search device by one Embodiment of this invention. 本発明の一実施形態による映像検索装置において動き配列表情報を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates motion sequence table information in the image | video search device by one Embodiment of this invention. 本発明の一実施形態による映像検索装置で、(a)処理される検索処理対象の映像情報内のフレーム画像情報の一例、(b)生成された動き配列表情報の一例である。In the video search device according to one embodiment of the present invention, (a) an example of frame image information in video information to be processed to be processed, and (b) an example of generated motion sequence table information. 本発明の一実施形態による映像検索装置において映像検索処理が実行されるときの動作を示すフローチャートである。5 is a flowchart illustrating an operation when a video search process is executed in a video search device according to an embodiment of the present invention. 本発明の一実施形態による映像検索装置において、(a)動き角度情報の数値をフレーム画像情報に重畳して表示させた画面構成図の一例、(b)動き角度情報の数値を色情報に変換してフレーム画像情報にカラーブロックとして重畳して表示させた画面構成図の一例である。In a video search device according to an embodiment of the present invention, (a) an example of a screen configuration diagram in which a numerical value of motion angle information is displayed superimposed on frame image information, and (b) a numerical value of motion angle information is converted into color information. FIG. 3 is an example of a screen configuration diagram displayed as a color block superimposed on frame image information. 本発明の一実施形態による映像検索装置において、(a)表示されたフレーム画像情報上で指定されて位置を中心とした注目範囲を示す画面構成図、(b)注目範囲に対応する動き角度情報を表示させた状態を示す画面構成図である。In the video search device according to an embodiment of the present invention, (a) a screen configuration diagram showing a range of interest centered on a position designated on displayed frame image information, and (b) motion angle information corresponding to the range of interest. It is a screen block diagram which shows the state which displayed. 本発明の一実施形態による映像検索装置において、フレーム画像情報ごとの、各探索サイズ領域の動き角度情報が記憶された数のカウント値を示すグラフである。5 is a graph showing the count value of the number of stored motion angle information of each search size area for each frame image information in the video search device according to the embodiment of the present invention. 本発明の一実施形態による映像検索装置において、フレーム画像情報上でユーザにより入力された検索対象領域が表示された状態を示す画面表示図である。FIG. 6 is a screen display diagram illustrating a state where a search target area input by a user on frame image information is displayed in the video search device according to the embodiment of the present invention. 本発明の一実施形態による映像検索装置において、(a)検索対象領域に対応する動き角度情報が表示された状態を示す画面表示図、(b)フレーム画像情報ごとの、各探索サイズ領域の動き角度情報が記憶された数のカウント値を示すグラフである。In a video search device according to an embodiment of the present invention, (a) a screen display diagram showing a state in which motion angle information corresponding to a search target area is displayed, and (b) movement of each search size area for each frame image information. It is a graph which shows the count value of the number in which angle information was memorized. 本発明の一実施形態による映像検索装置において生成された、検索対象領域の動き角度情報が角度範囲ごとに分類され計数されたグラフである。5 is a graph in which motion angle information of a search target area generated by the video search apparatus according to the embodiment of the present invention is classified and counted for each angle range. 本発明の一実施形態による映像検索装置において、(a)生成された1つのフレーム画像情報に関する色変換情報、(b)各フレーム画像情報の色変換情報が横に連結されて生成されたヒストグラム画像情報である。In the video search apparatus according to the embodiment of the present invention, (a) color conversion information related to one generated frame image information, (b) a histogram image generated by horizontally connecting the color conversion information of each frame image information. Information. 本発明の一実施形態による映像検索装置において、生成されたヒストグラム画像情報から、映像検索処理が行われ類似するヒストグラム画像情報部分が抽出されるときの処理を示す説明図である。FIG. 7 is an explanatory diagram showing processing when a video search process is performed and a similar histogram image information part is extracted from generated histogram image information in the video search device according to the embodiment of the present invention.

〈一実施形態による映像検索装置の構成〉
本発明の一実施形態による映像検索装置の構成を、図1を参照して説明する。本実施形態による映像検索装置1は、映像情報記憶部11と、動き検出部12と、動き配列表情報記憶部13と、映像表示制御部14と、表示部15と、動き可視化情報生成部16と、入力部17と、検索対象領域指定部18と、動き発生区間決定部19と、ヒストグラム生成部20と、検索処理部21と、検索結果出力部22とを有する。
<Configuration of Video Retrieval Device According to One Embodiment>
A configuration of a video search apparatus according to an embodiment of the present invention will be described with reference to FIG. The video search device 1 according to the present embodiment includes a video information storage unit 11, a motion detection unit 12, a motion sequence table information storage unit 13, a video display control unit 14, a display unit 15, and a motion visualization information generation unit 16. An input unit 17, a search target area specifying unit 18, a motion generation section determining unit 19, a histogram generating unit 20, a search processing unit 21, and a search result output unit 22.

映像情報記憶部11は、検索処理対象の映像情報であるテニスの試合を撮影した映像情報を記録する。この映像情報は、予め記録された映像ファイルでもよいし、外部から随時取得して記録している映像ストリームでもよい。   The video information storage unit 11 records video information of a tennis match that is video information to be searched. This video information may be a video file recorded in advance, or may be a video stream acquired and recorded from outside as needed.

動き検出部12は、映像情報記憶部11に記録された映像情報を構成する映像開始時点から映像終了時点までの全フレームについてフレーム画像情報内の各位置の動き角度情報を取得し、これらを格納したセルを有する動き配列表情報を生成する。   The motion detection unit 12 acquires the motion angle information of each position in the frame image information for all frames from the video start time to the video end time constituting the video information recorded in the video information storage unit 11 and stores them. The motion sequence table information having the selected cells is generated.

動き配列表情報記憶部13は、動き検出部12で生成された動き配列表情報を記憶する。   The motion sequence table information storage unit 13 stores the motion sequence table information generated by the motion detection unit 12.

映像表示制御部14は、映像情報記憶部11に記憶された映像情報を取得し表示制御を行う。   The video display control unit 14 acquires video information stored in the video information storage unit 11 and performs display control.

表示部15は、映像表示制御部14で取得された映像情報や、検索結果等を表示する画面である。   The display unit 15 is a screen that displays video information acquired by the video display control unit 14, search results, and the like.

動き可視化情報生成部16は、動き配列表情報記憶部13に記憶された動き配列表情報に基づいて映像中の動き角度情報が発生している場所を可視化するための動き可視化情報を生成し、表示部15に表示させる。   The motion visualization information generating unit 16 generates motion visualization information for visualizing a place where the motion angle information in the video is generated based on the motion sequence table information stored in the motion sequence table information storage unit 13. Displayed on the display unit 15.

入力部17は、ユーザにより操作されるマウスやタッチディスプレイなどの入力デバイスであり、表示部15上の任意の位置を指定するための入力処理を行う。   The input unit 17 is an input device such as a mouse or a touch display operated by the user, and performs an input process for designating an arbitrary position on the display unit 15.

検索対象領域指定部18は、映像が表示された表示部15の画面上で、検索対象の動きが発生しているとユーザにより判断されて、入力部17の入力デバイスが用いられて描画により囲まれた領域の画面上の位置情報を、検索対象領域として指定する。   The search target area designating unit 18 is determined by the user that the movement of the search target is occurring on the screen of the display unit 15 on which the video is displayed, and is surrounded by drawing using the input device of the input unit 17. The position information on the screen of the selected area is designated as the search target area.

動き発生区間決定部19は、映像中内の、検索対象の一連の動きが発生している一区間を決定する。   The motion generation section determination unit 19 determines one section in the video where a series of motions to be searched is generated.

ヒストグラム生成部20は、動き配列表情報記憶部13に記憶された動き配列表情報中の、検索対象領域指定部18で指定された検索対象領域に対応する各セルの動き角度情報の変化を時系列に示したヒストグラム画像情報を生成する。   The histogram generation unit 20 changes the motion angle information of each cell corresponding to the search target area specified by the search target area specifying unit 18 in the motion sequence table information stored in the motion sequence table information storage unit 13. The histogram image information shown in the series is generated.

検索処理部21は、ヒストグラム生成部20で生成された映像開始時点から終了時点までに対応するヒストグラム画像情報の中から、動き発生区間決定部19により決定された一区間に対応するヒストグラム画像情報部分と類似する画像情報部分を有する区間を検索し、検索対象の動きと類似する動きが発生している区間として抽出する。   The search processing unit 21 includes a histogram image information portion corresponding to one section determined by the motion generation section determination unit 19 from histogram image information corresponding to the video start time and end time generated by the histogram generation unit 20. A section having an image information part similar to the above is searched, and is extracted as a section in which a movement similar to the movement to be searched is generated.

検索結果出力部22は、検索処理部21の検索により抽出された区間を検索結果として表示部15に出力する。   The search result output unit 22 outputs the section extracted by the search of the search processing unit 21 to the display unit 15 as a search result.

〈一実施形態による映像検索装置の動作〉
本実施形態による映像検索装置1に動作として、テニスの試合を固定カメラで撮影した映像情報が検索処理対象として映像情報記憶部11に記憶され、この映像情報から、ユーザが指定したサーブのシーンが検索対象として検索され表示部15に表示される映像検索処理について説明する。
<Operation of Video Retrieval Device According to One Embodiment>
As an operation of the video search device 1 according to the present embodiment, video information obtained by shooting a tennis game with a fixed camera is stored in the video information storage unit 11 as a search processing target, and from this video information, a serve scene designated by the user is stored. A video search process that is searched as a search target and displayed on the display unit 15 will be described.

まず映像検索処理の前段階として実行される動き配列表情報を生成する処理について図2のフローチャートを参照して説明する。   First, a process for generating motion sequence table information executed as a previous stage of the video search process will be described with reference to the flowchart of FIG.

映像検索装置1の動き検出部12において、検索処理対象である「テニスの試合を撮影した映像情報」の連続する2枚のフレーム画像情報が映像情報記憶部11から取得され(S1)、これらのフレーム画像情報内の各位置に関する動きベクトルが検出される。   In the motion detection unit 12 of the video search device 1, two pieces of continuous frame image information of “video information obtained by shooting a tennis game” which is a search processing target is acquired from the video information storage unit 11 (S 1). A motion vector for each position in the frame image information is detected.

具体的には、フレーム番号nおよびフレーム番号n+1の連続する2枚のフレーム画像情報が取得され、これら2枚のフレーム画像情報中の基準座標lnの周辺の画像情報が比較されることにより、当該座標lnに関する被写体の動きベクトル(オプティカルフロー)が検出される(S2)。本実施形態において被写体の動きベクトルはブロックマッチング法を用いて検出する場合について説明するが、これには限定されず、勾配法やLucas-Kanade法などを用いて検出するようにしてもよい。   Specifically, two pieces of continuous frame image information of frame number n and frame number n + 1 are acquired, and image information around the reference coordinate ln in these two pieces of frame image information is compared. Then, the motion vector (optical flow) of the subject with respect to the coordinate ln is detected (S2). In this embodiment, the case where the motion vector of the subject is detected using the block matching method will be described. However, the present invention is not limited to this, and the subject motion vector may be detected using a gradient method, Lucas-Kanade method, or the like.

そして、検出された動きベクトルが予め設定された閾値よりも低い場合は動きが検出されなかったものとして無視され、動きベクトルが当該閾値以上であった場合に、この動きベクトルの動き角度情報が算出される(S3)。   If the detected motion vector is lower than a preset threshold, it is ignored as no motion is detected. If the motion vector is equal to or greater than the threshold, the motion angle information of this motion vector is calculated. (S3).

算出された動きベクトルの動き角度情報は、フレーム画像情報ごとに生成される動き配列表情報に格納される(S4)。動き配列表情報は、動きベクトルの検出を行う探索サイズを一辺とする正方形領域で分割された、フレーム画像情報内の各領域に対応するセルを有する2次元の配列表情報を、当該映像情報の全フレーム画像情報数分有した3次元の動き配列表情報である。つまりこの動き配列表情報には、当該映像情報内の全てのフレーム画像情報全体にわたる位置に関する動きベクトルの動き角度情報を格納するセルが備えられている。   The motion angle information of the calculated motion vector is stored in motion array table information generated for each frame image information (S4). The motion sequence table information is obtained by dividing two-dimensional sequence table information having cells corresponding to each region in the frame image information divided by a square region whose side is a search size for detecting a motion vector. This is three-dimensional motion arrangement table information having the total number of pieces of frame image information. That is, the motion array table information includes a cell for storing motion vector motion angle information related to positions over all frame image information in the video information.

映像に含まれるフレーム画像情報の総数をfcとし、表示部15の画面の横方向サイズをwidthとし、縦方向サイズをheightとし、動きベクトル検出処理の、基準座標lnに対する比較処理対象の周辺領域のサイズをblockSizeとし、探索サイズをshiftSizeとすると、動き配列表情報の情報量(セル総数)は以下の式(1)で示される。
The total number of frame image information included in the video is fc, the horizontal size of the screen of the display unit 15 is width, the vertical size is height, and the motion vector detection processing is performed on the comparison target region for the reference coordinate ln. When the size is blockSize and the search size is shiftSize, the information amount (total number of cells) of the motion sequence table information is expressed by the following equation (1).

例えば図3(a)に示すようなフレーム画像情報30nと、これに連続するフレーム画像情報30n+1とから検索サイズごとの各位置に関する動きベクトルを検出し、各動きベクトルから算出された動き角度情報を、当該フレーム画像情報30nに対応する配列表情報40nの対応するセルに格納した状態を、図3(b)に示す。図3(b)では、説明を簡易にするために探索サイズを大きく設定し、探索サイズにより画面の横方向のサイズが13個に分割され、縦方向のサイズが7個に分割された場合について示している。   For example, a motion angle associated with each position for each search size is detected from frame image information 30n as shown in FIG. 3A and frame image information 30n + 1 that follows the frame image information 30n, and a motion angle calculated from each motion vector is detected. FIG. 3B shows a state in which the information is stored in the cell corresponding to the array table information 40n corresponding to the frame image information 30n. In FIG. 3B, the search size is set large to simplify the explanation, and the horizontal size of the screen is divided into 13 pieces according to the search size, and the vertical size is divided into 7 pieces. Show.

図3(a)の例では、サーブを打つ動作が画面の右側で行われているため、対応する配列表情報40nにおいても右側のセルに多くの動き角度情報が格納されている。また、サーブを打つ動作以外にも他のプレイヤーの動きや背景の動きが検出され、対応するセルに算出された動き角度情報が格納されている。動きが検出されなかった位置に対応するセルには、nullなどの動き角度情報として扱わない値が挿入される。   In the example of FIG. 3A, since the act of making a serve is performed on the right side of the screen, a large amount of movement angle information is stored in the right cell also in the corresponding array table information 40n. In addition to the motion of hitting the serve, the motion of other players and the motion of the background are detected, and the calculated motion angle information is stored in the corresponding cell. A value not treated as motion angle information such as null is inserted into a cell corresponding to a position where no motion is detected.

上述したステップS2〜S4の処理は、基準座標lnから探索サイズずつずらして繰り返されることにより、フレーム画像情報内全体に対して実行される(ループB)。   The processes in steps S2 to S4 described above are repeated for the entire frame image information by repeating the search size shifted from the reference coordinate ln by a search size (loop B).

さらに、映像情報内の全てのフレーム画像情報に関してループBの処理が実行されて(ループA)、動き配列表情報が生成され動き配列表情報記憶部13に記憶される(S5)。   Further, loop B processing is executed for all frame image information in the video information (loop A), and motion sequence table information is generated and stored in the motion sequence table information storage unit 13 (S5).

次に、記憶された動き配列表情報を利用して映像検索処理が実行されるときの処理について図4のフローチャートを参照して説明する。   Next, processing when the video search processing is executed using the stored motion sequence table information will be described with reference to the flowchart of FIG.

まず映像情報記憶部11に記憶された、検索処理対象であるテニスの試合を撮影した映像情報が映像表示制御部14の制御により表示部15に表示される。表示された映像は、ユーザにより視聴される。   First, video information that is captured in the video information storage unit 11 and that captures a tennis game to be searched is displayed on the display unit 15 under the control of the video display control unit 14. The displayed video is viewed by the user.

そしてユーザが映像を視聴したことにより、映像情報の中からサーブを打つシーンを検索対象として処理を実行したいと考えたとき、ユーザにより再生操作や早送り操作、または画面上に表示されたシークバーを利用した操作などの既存の技術により映像再生制御処理が実行され、当該映像情報の中のいずれか1回のサーブシーン中のフレーム画像情報が表示部15に表示される。   Then, when the user views the video and wants to execute the process with the scene to be served as a search target from the video information, the user uses a playback operation, fast-forward operation, or a seek bar displayed on the screen. The video reproduction control process is executed by the existing technique such as the above-described operation, and the frame image information in any one of the serve scenes in the video information is displayed on the display unit 15.

ここでユーザが映像を視聴する際に、記憶された動き配列表情報を利用して、動きの動き角度情報を可視化するための動き可視化情報を動き可視化情報生成部16で生成し、表示部15に表示させるようにする(S11)ことで、ユーザが動き角度情報を把握でき、検索対象とする被写体の動きを発見しやすくすることができる。   Here, when the user views the video, the motion visualization information generating unit 16 generates motion visualization information for visualizing the motion angle information of the motion using the stored motion sequence table information, and the display unit 15 (S11), the user can grasp the movement angle information and can easily find the movement of the subject to be searched.

例えば図5(a)に示すように、生成された配列表情報40n情報中の動き角度情報の数値をフレーム画像情報30n中の対応する場所に重畳して表示させたり、図5(b)に示すように、生成された配列表情報40nの動き角度情報の数値をHSV色空間の情報に変換した動き可視化情報50nをフレーム画像情報30nの対応する場所にカラーブロックとして重畳して表示させることで、動き角度情報を可視化することができる。   For example, as shown in FIG. 5A, the numerical value of the motion angle information in the generated sequence table information 40n information is displayed superimposed on the corresponding location in the frame image information 30n. As shown, motion visualization information 50n obtained by converting the numerical value of the motion angle information of the generated sequence table information 40n into HSV color space information is superimposed and displayed as a color block at a corresponding location in the frame image information 30n. The motion angle information can be visualized.

検索対象とする被写体の動きをユーザが発見しやすくするための他の手法について、図6および図7を参照して説明する。例えば図6(a)に示すように、ユーザがポインタにより示した位置(矢印で示した位置)を中心とした一定範囲を注目範囲60nとし、図6(b)に示すように、注目範囲60nに対応する動き配列表情報中の動き角度情報のみを各フレーム画像情報に対応する動き配列表情報から抽出する。そしてフレーム画像情報ごとに、動き角度情報が記憶されたセル数をカウントし、カウントした結果を図7に示すように時系列に棒グラフで表示させることにより、画面上の任意の位置周辺で動きが多く発生した区間を時間軸上において視認しやすい状態で可視化することができる。この棒グラフは画面上に表示された、映像の開始位置から終了位置を直線的に示したシークバー上に表示させるようにしてもよい。また表示された棒グラフを利用して、ユーザのクリック操作やタップ操作により、図7の矢印で示すように動きが多く発生した時点のフレームまで再生位置をスキップできるようにしてもよい。   Another method for making it easier for the user to find the movement of the subject to be searched will be described with reference to FIGS. For example, as shown in FIG. 6 (a), a fixed range centered on the position indicated by the pointer (position indicated by the arrow) is set as the attention range 60n, and as shown in FIG. 6 (b), the attention range 60n. Only the motion angle information in the motion sequence table information corresponding to is extracted from the motion sequence table information corresponding to each frame image information. For each frame image information, the number of cells in which the movement angle information is stored is counted, and the counted result is displayed in a bar graph in time series as shown in FIG. It is possible to visualize a lot of generated sections in a state in which they are easily visible on the time axis. This bar graph may be displayed on a seek bar displayed on the screen and linearly indicating the start position to the end position of the video. Further, by using the displayed bar graph, the playback position may be skipped to the frame at the time when a large amount of movement has occurred as indicated by the arrow in FIG. 7 by the user's click operation or tap operation.

次に、ユーザが検索対象としたい一連のサーブのシーン中のいずれかのフレーム画像情報が表示部15に表示された状態で、サーブを打つ動作を行っている被写体が表示されている場所、つまり検索対象の動きが発生していると判断された画面上の領域が、検索対象領域としてユーザにより入力される。このユーザによる画面上での検索対象領域の入力は、入力部17の入力デバイスであるマウスのドラッグ操作や指でなぞるなどの操作が行われることにより、描画された自由線で囲まれて実行される。そして、入力された検索対象領域の位置情報が検索対象領域指定部18で取得されることにより、検索対象領域が指定される(S12)。   Next, in a state where any frame image information in a series of serve scenes that the user wants to search is displayed on the display unit 15, the place where the subject performing the act of hitting the serve is displayed, that is, The area on the screen where it is determined that the movement of the search target has occurred is input by the user as the search target area. The input of the search target area on the screen by the user is executed by being surrounded by a drawn free line by performing an operation such as dragging a mouse as an input device of the input unit 17 or tracing with a finger. The Then, the position information of the input search target area is acquired by the search target area specifying unit 18 to specify the search target area (S12).

例えば図8に示すように、ステップS11の処理により表示されたカラーブロックが参照されて、サーブを打つ動作を行っている被写体を囲むように、点線で示すような自由線で検索対象領域70nが描画されて入力される。   For example, as shown in FIG. 8, the color block displayed by the process of step S11 is referred to, and the search target area 70n is indicated by a free line as shown by a dotted line so as to surround the subject performing the act of serving. It is drawn and input.

次に動き発生区間決定部19により、映像情報中で、当該検索対象領域で検索対象の一連の動きが発生している一区間の時間情報が動き発生区間として決定される(S13)。例えば、本実施形態においては1回のサーブが行われる映像部分に対応する区間が、動き発生区間として決定される。この動き発生区間は、予め設定された定数を利用して決定してもよく、例えば現在表示されているフレームから前後1秒分、合計2秒分(60フレーム相当)に対応する区間として決定してもよい。また図9(a)に示すように、当該検索対象領域に対応する動き配列表情報中の動き角度情報を参照し、図9(b)に示すようにフレーム画像情報ごとの、動き角度情報が記憶されたセル数のカウント値を時系列に棒グラフ化し、表示中のフレーム画像情報の前後について動き角度情報が多く発生し始めたフレームに対応する時点を始点、少なくなったフレームに対応する時点を終点として、動き発生区間が決定されるようにしてもよい。また映像情報を再生させながら、検索対象とする動きが始めったとユーザが判断した時点でクリック操作を行い、当該動きが終わったと判断した時点でクリック操作を離すことで、ユーザにより指定された区間が動き発生区間として決定されるようにしてもよい。   Next, the motion generation section determination unit 19 determines time information of one section in the video information where a series of search target movements occur in the search target area as the motion generation section (S13). For example, in the present embodiment, a section corresponding to a video portion where one serving is performed is determined as a motion generation section. This motion generation section may be determined using a preset constant. For example, the movement generation section is determined as a section corresponding to a total of 2 seconds (corresponding to 60 frames) for 1 second before and after the currently displayed frame. May be. Further, as shown in FIG. 9A, the motion angle information in the motion sequence table information corresponding to the search target area is referred to, and the motion angle information for each frame image information is obtained as shown in FIG. 9B. The stored count value of the number of cells is converted into a bar graph in time series, and the start time corresponding to the frame where a large amount of motion angle information has started to appear before and after the frame image information being displayed is the start point, and the time point corresponding to the reduced frame is displayed. A motion generation section may be determined as the end point. Also, while the video information is being played back, a click operation is performed at the time when the user determines that the movement to be searched has started, and the click operation is released at the time when it is determined that the movement has ended, and the section specified by the user May be determined as the motion generation section.

次にヒストグラム生成部20において、動き配列表情報記憶部13に記憶された動き配列表情報から、各フレームの検索対象領域に対応するセルの要素が抽出され、映像開始時点から終了時点までの各時点における角度範囲ごとの動き角度情報の出現頻度の変化情報が時系列に並べられたヒストグラム画像情報が生成される(S14)。   Next, the histogram generation unit 20 extracts the cell elements corresponding to the search target area of each frame from the motion sequence table information stored in the motion sequence table information storage unit 13, and displays each element from the video start time to the end time. Histogram image information in which the change information of the appearance frequency of the motion angle information for each angle range at the time is arranged in time series is generated (S14).

動き配列表情報からヒストグラム画像情報の生成処理について、図10および図11を参照して説明する。   A process for generating histogram image information from motion sequence table information will be described with reference to FIGS. 10 and 11.

まず、最初のフレーム画像情報に関し、ステップS12において指定された検索対象領域に対応する動き配列表情報の動き角度情報が、予め設定された角度範囲ごとに分類されてそれぞれ計数される。   First, regarding the first frame image information, the motion angle information of the motion sequence table information corresponding to the search target area specified in step S12 is classified for each preset angle range and counted.

例えば、図8に示すフレーム画像情報で指定された検索対象領域について、図9(a)で示すように取得された対応する動き配列表情報の動き角度情報が、予め設定された角度範囲ごとの出現頻度が計数される。このとき、動き角度情報のばらつきを丸め、0度と360度とをまとめるために、複数の角度範囲が重畳するように設定される。例えば、「0度から30度」、「15度から45度」、・・・「345度から15度」というように重畳した24個の角度範囲が設定され、それぞれの出現頻度が計数される。   For example, for the search target area specified by the frame image information shown in FIG. 8, the motion angle information of the corresponding motion sequence table information acquired as shown in FIG. 9A is obtained for each preset angle range. Appearance frequency is counted. At this time, in order to round off the variation of the motion angle information and combine 0 degrees and 360 degrees, a plurality of angle ranges are set to be overlapped. For example, 24 overlapping angle ranges such as “0 degree to 30 degrees”, “15 degrees to 45 degrees”,... ”345 degrees to 15 degrees” are set, and the frequency of each occurrence is counted. .

この計数結果をグラフ化すると、図10のように表される。図10では、横軸に、動き角度情報を分類する角度範囲が示され、縦軸に各角度範囲の出現頻度が示されている。   When this counting result is graphed, it is expressed as shown in FIG. In FIG. 10, the horizontal axis indicates the angle range for classifying the motion angle information, and the vertical axis indicates the appearance frequency of each angle range.

次に図11(a)に示すように、図10で表された計数結果が、色の濃淡に変換された色変換情報が生成される。図11(a)の色変換情報では、縦幅が各角度範囲に1pixelごとに対応して最上部の画素が角度範囲「0度から30度」に対応し、最下部の画素が角度範囲「345度から15度」に対応しており、横幅が当該フレームに対応して1pixelで構成され、角度範囲の出現頻度が高い程、輝度の高い色で示されている。ここでは角度範囲「75度から90度」の出現頻度が最も高いため、この角度範囲に対応する画素が最も輝度が高い白色で示されている。   Next, as shown in FIG. 11A, color conversion information in which the counting result shown in FIG. 10 is converted into color shading is generated. In the color conversion information of FIG. 11A, the vertical width corresponds to each angle range for each pixel, the uppermost pixel corresponds to the angular range “0 degree to 30 degrees”, and the lowermost pixel corresponds to the angular range “ The horizontal width is 1 pixel corresponding to the frame, and the higher the frequency of appearance of the angle range, the higher the brightness. Here, since the appearance frequency of the angle range “75 degrees to 90 degrees” is the highest, the pixel corresponding to this angle range is shown in white with the highest luminance.

このようにして映像情報の開始時点から終了時点までのすべてのフレーム画像情報について検索対象領域の色変換情報が生成され、これらが時系列に横に連結させることにより、図11(b)に示すような横幅が映像のフレーム長分の画素数(fc pixel)のヒストグラム画像情報80が生成される。このヒストグラム画像情報には正規化処理が施され、最も出現頻度が高い動き角度情報に対応する画素ほど輝度が高くなるように表される。   In this way, the color conversion information of the search target area is generated for all the frame image information from the start time to the end time of the video information, and these are horizontally connected in time series, and as shown in FIG. Histogram image information 80 having such a width as the number of pixels (fc pixel) corresponding to the frame length of the video is generated. The histogram image information is subjected to normalization processing, and the pixels corresponding to the motion angle information having the highest appearance frequency are expressed so as to have higher luminance.

次に検索処理部21において、ヒストグラム生成部20で生成されたヒストグラム画像情報80の中から、動き発生区間決定部19で決定された一区間に対応するヒストグラム画像情報部分と類似する画像情報部分を有する区間が検索される(S15)。   Next, in the search processing unit 21, an image information part similar to the histogram image information part corresponding to one section determined by the motion generation section determination unit 19 is selected from the histogram image information 80 generated by the histogram generation unit 20. The section which has is searched (S15).

この検索処理においてはまず、図12に示すように、ヒストグラム画像情報80の中からステップS13において決定された動き発生区間に対応する区間のヒストグラム画像情報部分がコピーされ、テンプレート画像情報90として取得される。   In this search process, first, as shown in FIG. 12, the histogram image information portion of the section corresponding to the motion occurrence section determined in step S13 is copied from the histogram image information 80 and acquired as template image information 90. The

そして、ヒストグラム画像情報80の全体に対してテンプレート画像情報90をずらしながらマッチング処理が行われ、2つの画像情報の画素値が比較される。マッチング処理で計算される画像を比較したときの近さ(画像の重なり度合い)をここでは類似度と呼び、例えば下記式(2)で示されるような相関関係を求める式により算出される。
Then, matching processing is performed while shifting the template image information 90 with respect to the entire histogram image information 80, and the pixel values of the two image information are compared. The closeness (the degree of image overlap) when comparing images calculated by the matching processing is referred to as similarity here, and is calculated by, for example, an expression for obtaining a correlation as shown by the following expression (2).

上記式(2)において、T’(x’,y’)は座標(x’,y’)におけるテンプレート画像情報90の画素値であり、I’(x’,y’)は比較する画像情報(ここではヒストグラム画像情報80の一部)の画素値であり、Rは相関関数を示す。   In the above formula (2), T ′ (x ′, y ′) is the pixel value of the template image information 90 at the coordinates (x ′, y ′), and I ′ (x ′, y ′) is the image information to be compared. This is a pixel value (a part of the histogram image information 80 here), and R represents a correlation function.

算出され正規化された類似度について、画像情報が完全に一致して重なったときの類似度を「1」、全く一致せず重ならなかったときの類似度を「0」とすると、例えば類似度が「0.5」以上であると判定される区間が類似する画像情報部分を有する区間として抽出される。この類似する画像情報部分は、1つのヒストグラム画像情報80から複数抽出される場合もある。複数の区分が非常に近い位置で抽出された場合、それらは1つの区分としてまとめられる。   For the calculated and normalized similarity, assuming that the similarity is “1” when the image information is completely matched and overlapped, and the similarity when the image information is not matched and does not overlap is “0”, for example, similar The sections determined as having a degree of “0.5” or more are extracted as sections having similar image information portions. A plurality of similar image information portions may be extracted from one histogram image information 80. If multiple sections are extracted at very close positions, they are grouped as one section.

この抽出された画像情報部分に対応する映像情報部分は、ステップS12においてユーザにより指定された検索対象の動きに類似する動きが発生している映像情報部分であると予測される。   The video information portion corresponding to the extracted image information portion is predicted to be a video information portion in which a movement similar to the search target movement designated by the user in step S12 occurs.

次に検索結果出力部22において、抽出された区分に対応する映像情報部分に関する情報が、検索結果として表示部15に出力される(S16)。映像情報部分に関する情報の表示としては、対応する映像情報部分内のフレーム画像情報を利用したサムネイル画面の表示、映像情報中の開始から終了までの各時点を直線上に示したシークバー上における対応する位置の表示、あるいは対応する映像情報部分の再生表示等により行われる。   Next, in the search result output unit 22, information regarding the video information portion corresponding to the extracted category is output to the display unit 15 as a search result (S16). Display of information related to the video information portion includes display of a thumbnail screen using frame image information in the corresponding video information portion, and corresponding on a seek bar in which each time point from the start to the end in the video information is shown on a straight line. It is performed by displaying the position or reproducing and displaying the corresponding video information portion.

以上の本実施形態によれば、映像中から、ユーザが指定した被写体の動きに類似した動きが発生するシーンを、ユーザの意図を基に的確かつ簡易に検索し、出力することができる。   According to the present embodiment described above, a scene in which a movement similar to the movement of the subject specified by the user occurs in the video can be accurately and easily searched and output based on the user's intention.

このとき、ユーザが入力した検索対象領域に基づいて処理を行うため、ユーザが検索したいと意図した動きに基づいて的確に映像情報部分(シーン)の検索を実現することができる。これにより、同じ映像区間に異なる場所で複数の動きが発生している場合やノイズが含まれる場合であっても、高い精度でユーザの意図した検索処理を行うことができる。   At this time, since the processing is performed based on the search target region input by the user, it is possible to accurately search for the video information portion (scene) based on the movement intended by the user. Thereby, even when a plurality of movements occur in different locations in the same video section or when noise is included, the search process intended by the user can be performed with high accuracy.

また、映像情報に関して検索対象の動きに対応する区間をユーザが予め手動で切り出しておく操作も必要とせず、長い映像情報からでも任意の動きを含むシーンを間に簡易に検索することができる。   Further, it is not necessary for the user to manually cut out a section corresponding to the motion to be searched for video information in advance, and a scene including an arbitrary motion can be easily searched even from long video information.

また、被写体の複雑な動きを検索対象とする場合であっても、ユーザは画面上の該当する被写体を囲むように描画するという簡単な操作のみで検索処理を実行させることができる。例えば、画面内で多数の選手が全体的に動くようなマクロな動きを検出したい場合は、該当する多数の選手の位置を包含して囲むように画面上で描画して検索対象領域を指定するのみで、検索処理が可能である。このときヒストグラム生成部では、各フレームの角度範囲ごとの動き角度情報の出現頻度を基にヒストグラム画像情報が生成されるため、厳密な各動きの位置の情報は考慮されず、全体的な動きの傾向に着目して検索が実行される。   Even when a complicated movement of a subject is a search target, the user can execute the search process only with a simple operation of drawing so as to surround the corresponding subject on the screen. For example, if you want to detect macro movements in which a large number of players move as a whole on the screen, specify the search target area by drawing on the screen so as to encompass and surround the positions of the corresponding large number of players. Search processing is possible only with this. At this time, the histogram generation unit generates the histogram image information based on the appearance frequency of the motion angle information for each angle range of each frame. A search is executed focusing on the trend.

一方で、被写体の四肢や手元の動きなどミクロな動きを検索する場合には、その動きに対応する範囲だけを囲むように描画すればよい。このとき、検索処理部でマッチング処理に用いられるテンプレート画像情報には、動き発生区間の中で変化する動き角度情報が含まれるため、当該検索対象の一連の動きの流れに基づいて検索が実行される。   On the other hand, when searching for a microscopic movement such as the limb of the subject or the movement of the hand, it is only necessary to draw so as to surround only a range corresponding to the movement. At this time, since the template image information used for the matching processing in the search processing unit includes the motion angle information that changes in the motion generation section, the search is executed based on the flow of a series of motions of the search target. The

また、動き可視化情報生成部において映像中の動きが発生している場所が動き角度情報に基づいて可視化されるため、検索対象としたい動きと別個の動きが近い位置で発生している場合にも、個々の動きの境界が明確に可視化され、ユーザが所望の動きを発見しやすくなる。   In addition, since the location where the motion in the video is generated is visualized based on the motion angle information in the motion visualization information generation unit, even when a motion separate from the motion to be searched for is generated at a close position , The boundaries of individual movements are clearly visualized, making it easier for the user to find the desired movement.

また、本実施形態の映像検索装置の各機能部の機能を、コンピュータに実行させるための映像検索用プログラムを構築することにより、当該コンピュータを映像検索装置として機能させることも可能である。   In addition, by constructing a video search program for causing a computer to execute the functions of the functional units of the video search device of the present embodiment, the computer can also function as a video search device.

1…映像検索装置
11…映像情報記憶部
12…動き検出部
13…動き配列表情報記憶部
14…映像表示制御部
15…表示部
16…動き可視化情報生成部
17…入力部
18…検索対象領域指定部
19…発生区間決定部
20…ヒストグラム生成部
21…検索処理部
22…検索結果出力部
30n…フレーム画像情報
40n…動き配列表情報
60n…注目範囲
70n…検索対象領域
80…ヒストグラム画像情報
90…テンプレート画像情報
DESCRIPTION OF SYMBOLS 1 ... Image | video search device 11 ... Image | video information storage part 12 ... Motion detection part 13 ... Motion sequence table information storage part 14 ... Image | video display control part 15 ... Display part 16 ... Motion visualization information generation part 17 ... Input part 18 ... Search object area | region Designating part 19 ... Generating section determining part 20 ... Histogram generating part 21 ... Search processing part 22 ... Search result output part 30n ... Frame image information 40n ... Motion sequence table information 60n ... Target area 70n ... Search target area 80 ... Histogram image information 90 ... template image information

Claims (7)

映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定部と、
前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定部と、
前記検索対象領域指定部で指定された検索対象領域において、前記動き発生区間決定部で決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理部と
を備えることを特徴とする映像検索装置。
On the screen where the video is displayed, the user determines that the movement of the search target is occurring, and uses the input device on the screen to specify the position information of the area surrounded by the drawing as the search target area A search area designating section;
A motion generation section determination unit that determines one section in the video where a series of movements of the search target is generated;
A search processing unit for searching for a video information portion in which a motion similar to the motion of the subject in one section determined by the motion generation section determination unit is detected in the search target region specified by the search target region specifying unit; A video search apparatus characterized by that.
前記映像の開始時点から終了時点までのフレームごとの各位置における動き角度情報を取得し、前記動き角度情報の大きさに基づいて異なる色彩のブロック情報を前記画面上の対応する位置に重畳して表示するための表示情報、または、前記映像開始時点から終了時点までの間の各時点における動きが発生したと認識される位置情報の計数値を時間軸上に示したグラフを、前記ユーザに検索対象の動きが発生している場所を判断させるための動き可視化情報として生成して表示させる動き可視化情報生成部をさらに有する
ことを特徴とする請求項1に記載の映像検索装置。
The motion angle information at each position for each frame from the start time to the end time of the video is acquired, and block information of different colors is superimposed on the corresponding position on the screen based on the size of the motion angle information. Search the user for display information to be displayed or a graph showing on the time axis the count value of position information that is recognized as the occurrence of movement at each time point from the video start time point to the end time point The video search apparatus according to claim 1, further comprising a motion visualization information generation unit that generates and displays motion visualization information for determining a place where the target motion is occurring.
指定された前記検索対象領域内の各位置における動き角度情報を、前記映像を構成するフレームごとに取得し、当該各位置における動き角度情報の角度範囲ごとの出現頻度を示す情報を時系列に連結させたヒストグラム画像情報を生成するヒストグラム生成部と、
前記検索処理部は、前記動き変化情報生成部で生成されたヒストグラム画像情報の中から、前記動き発生区間決定部で決定された一区間に対応するヒストグラム画像情報部分の類似度が予め設定された閾値以上であると判定される画像情報部分を有する区間を検索し、前記検索対象の動きと類似する動きが発生している区間として抽出する
ことを特徴とする請求項1または2に記載の映像検索装置。
The motion angle information at each position in the specified search target area is acquired for each frame constituting the video, and information indicating the appearance frequency for each angle range of the motion angle information at each position is linked in time series. A histogram generation unit for generating the histogram image information,
The search processing unit is preset with a similarity of a histogram image information portion corresponding to one section determined by the motion generation section determination unit from the histogram image information generated by the motion change information generation unit. The video according to claim 1 or 2, wherein a section having an image information portion determined to be equal to or greater than a threshold is searched and extracted as a section in which a movement similar to the movement of the search target occurs. Search device.
映像検索装置が、
映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定ステップと、
前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定ステップと、
前記検索対象領域指定ステップで指定された検索対象領域において、前記動き発生区間決定ステップで決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理ステップと
を有することを特徴とする映像検索方法。
Video search device
On the screen where the video is displayed, the user determines that the movement of the search target is occurring, and uses the input device on the screen to specify the position information of the area surrounded by the drawing as the search target area A search area specification step;
A motion generation section determination step for determining one section in the video in which a series of movements of the search target is generated;
A search processing step of searching for a video information portion in which a motion similar to the motion of the subject in one section determined in the motion generation section determination step occurs in the search target area specified in the search target area specifying step. A video search method characterized by the above.
前記映像の開始時点から終了時点までのフレームごとの各位置における動き角度情報を取得し、前記動き角度情報の大きさに基づいて異なる色彩のブロック情報を前記画面上の対応する位置に重畳して表示するための表示情報、または、前記映像開始時点から終了時点までの間の各時点における動きが発生したと認識される位置情報の計数値を時間軸上に示したグラフを、前記ユーザに検索対象の動きが発生している場所を判断させるための動き可視化情報として生成して表示させる動き可視化情報生成ステップをさらに有する
ことを特徴とする請求項4に記載の映像検索方法。
The motion angle information at each position for each frame from the start time to the end time of the video is acquired, and block information of different colors is superimposed on the corresponding position on the screen based on the size of the motion angle information. Search the user for display information to be displayed or a graph showing on the time axis the count value of position information that is recognized as the occurrence of movement at each time point from the video start time point to the end time point The video search method according to claim 4, further comprising a motion visualization information generation step of generating and displaying motion visualization information for determining a place where the target motion is occurring.
指定された前記検索対象領域内の各位置における動き角度情報を、前記映像を構成するフレームごとに取得し、当該各位置における動き角度情報の角度範囲ごとの出現頻度を示す情報を時系列に連結させたヒストグラム画像情報を生成するヒストグラム生成ステップをさらに有し、
前記検索処理ステップでは、前記動き変化情報生成ステップで生成されたヒストグラム画像情報の中から、前記動き発生区間決定ステップで決定された一区間に対応するヒストグラム画像情報部分の類似度が予め設定された閾値以上であると判定される画像情報部分を有する区間を検索し、前記検索対象の動きと類似する動きが発生している区間として抽出する
ことを特徴とする請求項4または5に記載の映像検索方法。
The motion angle information at each position in the specified search target area is acquired for each frame constituting the video, and information indicating the appearance frequency for each angle range of the motion angle information at each position is linked in time series. A histogram generation step for generating the generated histogram image information,
In the search processing step, the similarity of the histogram image information portion corresponding to one section determined in the motion generation section determination step is preset from the histogram image information generated in the motion change information generation step. The video according to claim 4 or 5, wherein a section having an image information portion determined to be equal to or greater than a threshold is searched and extracted as a section in which a movement similar to the movement of the search target occurs. retrieval method.
請求項1〜3のいずれか1項に記載の映像検索装置で実行される機能を、コンピュータで実行させるための映像検索用プログラム。   A video search program for causing a computer to execute a function executed by the video search device according to claim 1.
JP2012026297A 2012-02-09 2012-02-09 Video retrieval device, method for retrieving video, and video retrieval program Pending JP2013164667A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012026297A JP2013164667A (en) 2012-02-09 2012-02-09 Video retrieval device, method for retrieving video, and video retrieval program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012026297A JP2013164667A (en) 2012-02-09 2012-02-09 Video retrieval device, method for retrieving video, and video retrieval program

Publications (1)

Publication Number Publication Date
JP2013164667A true JP2013164667A (en) 2013-08-22

Family

ID=49175993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012026297A Pending JP2013164667A (en) 2012-02-09 2012-02-09 Video retrieval device, method for retrieving video, and video retrieval program

Country Status (1)

Country Link
JP (1) JP2013164667A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101698391B1 (en) * 2015-10-13 2017-02-03 이재석 Apparatus for providing athletics lecture video and method for providing the same
DE112016006940T5 (en) 2016-07-11 2019-03-14 Mitsubishi Electric Corporation Moving picture processing means, moving picture processing method and moving picture processing program
JP2019097137A (en) * 2017-11-28 2019-06-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Generation device, generating system, imaging system, movable body, generation method, and program
JP2021120857A (en) * 2020-01-30 2021-08-19 ベルフェイス株式会社 Information processing device, information processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101698391B1 (en) * 2015-10-13 2017-02-03 이재석 Apparatus for providing athletics lecture video and method for providing the same
DE112016006940T5 (en) 2016-07-11 2019-03-14 Mitsubishi Electric Corporation Moving picture processing means, moving picture processing method and moving picture processing program
JP2019097137A (en) * 2017-11-28 2019-06-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Generation device, generating system, imaging system, movable body, generation method, and program
US11340772B2 (en) 2017-11-28 2022-05-24 SZ DJI Technology Co., Ltd. Generation device, generation system, image capturing system, moving body, and generation method
JP2021120857A (en) * 2020-01-30 2021-08-19 ベルフェイス株式会社 Information processing device, information processing method, and program
JP7403133B2 (en) 2020-01-30 2023-12-22 ベルフェイス株式会社 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
Barekatain et al. Okutama-action: An aerial view video dataset for concurrent human action detection
US20200320336A1 (en) Control method and recording medium
JP6225039B2 (en) Image search system, image search apparatus, and image search method
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
Kurzhals et al. Gaze stripes: Image-based visualization of eye tracking data
US9538116B2 (en) Relational display of images
CN105830093B (en) For generating system, the method and apparatus of metadata relevant to the space region of non-homogeneous size
CN106030610B (en) The real-time 3D gesture recognition and tracking system of mobile device
US20160260015A1 (en) Sports formation retrieval
TWI537872B (en) Method for generating three-dimensional information from identifying two-dimensional images.
JP2019057836A (en) Video processing device, video processing method, computer program, and storage medium
CN105872452A (en) System and method for browsing summary image
JP2014153813A5 (en) Image processing apparatus, image processing method, and program
CN104508680B (en) Improved video signal is tracked
EP3973446A1 (en) Forensic video exploitation and analysis tools
US10929682B2 (en) Information processing apparatus, information processing method, and storage medium
JP2013164667A (en) Video retrieval device, method for retrieving video, and video retrieval program
JP5226651B2 (en) Similar image retrieval device, similar image retrieval method, and similar image retrieval program
US20140208208A1 (en) Video navigation through object location
JP7102173B2 (en) Information processing equipment, information processing methods, and programs
JP6566799B2 (en) Providing device, providing method, and program
JPH07200632A (en) Information processor
WO1999005865A1 (en) Content-based video access
WO2016117039A1 (en) Image search device, image search method, and information storage medium
Sedmidubsky et al. Retrieving similar movements in motion capture data