JP2013164667A - Video retrieval device, method for retrieving video, and video retrieval program - Google Patents
Video retrieval device, method for retrieving video, and video retrieval program Download PDFInfo
- Publication number
- JP2013164667A JP2013164667A JP2012026297A JP2012026297A JP2013164667A JP 2013164667 A JP2013164667 A JP 2013164667A JP 2012026297 A JP2012026297 A JP 2012026297A JP 2012026297 A JP2012026297 A JP 2012026297A JP 2013164667 A JP2013164667 A JP 2013164667A
- Authority
- JP
- Japan
- Prior art keywords
- video
- motion
- information
- search
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、映像中から、ユーザが指定した被写体の動きに類似した動きが発生した映像区間(シーン)を検索する映像検索装置、映像検索方法、および映像検索用プログラムに関する。 The present invention relates to a video search apparatus, a video search method, and a video search program for searching a video section (scene) in which a motion similar to the motion of a subject specified by a user has occurred.
従来、映像中から、指定した被写体の動きに類似した動きが発生するシーンを検索する技術として、例えば下記の非特許文献1および2に示すような技術がある。 Conventionally, as a technique for searching a scene in which a movement similar to the movement of a designated subject occurs in a video, there are techniques shown in the following Non-Patent Documents 1 and 2, for example.
非特許文献1に記載された技術に関し、野球中継において撮影した映像を例として説明する。 Regarding the technique described in Non-Patent Document 1, an image taken in a baseball broadcast will be described as an example.
まず、検索するシーンとして、投球するシーンやバットを振るシーン、走るシーンなどのいくつかの動きに関する短いシーン(70フレーム程度)の映像を用意する。 First, as a scene to be searched, an image of a short scene (about 70 frames) relating to several movements such as a scene to throw, a scene to swing a bat, and a running scene is prepared.
次に、検索処理対象の映像フレームの画面全体について動きベクトルの方向(角度)を求め、各方向が出現する頻度を計数する。これが画像系列の各フレームについて繰り返され、方向と時間とを軸として2次元のヒストグラムを映像ごとに生成する。そして、検索対象の動きに関する各シーンについて1つのヒストグラムを基準として選び、それと重なりが最大になるように時間軸方向にずらすことで、該当するシーンを分析する。 Next, the direction (angle) of the motion vector is obtained for the entire screen of the search target video frame, and the frequency of occurrence of each direction is counted. This is repeated for each frame of the image sequence, and a two-dimensional histogram is generated for each video with the direction and time as axes. Then, for each scene related to the motion to be searched, one histogram is selected as a reference, and the corresponding scene is analyzed by shifting in the time axis direction so that the overlap with the histogram is maximized.
ここで、ヒストグラムを多次元尺度法で分析すると、同じ動作を含むシーンは特徴空間内の近い座標に配置されてクラスタが形成される。同じクラスタに属するシーンには似た動きが含まれているといえるため、動きに基づいたシーンの検索に利用することができる。 Here, when the histogram is analyzed by a multidimensional scaling method, a scene including the same motion is arranged at close coordinates in the feature space to form a cluster. Since it can be said that scenes belonging to the same cluster contain similar movements, the scenes can be used to search for scenes based on movements.
また非特許文献2に記載された技術に関し、サッカー中継において撮影した映像を例として説明する。 Moreover, regarding the technique described in Non-Patent Document 2, an image taken in a soccer broadcast will be described as an example.
この技術では、予め被写体であるサッカー選手やボールにセンサが装着されており、センサ位置が測定されることによりサッカー選手やボールの位置が取得され、映像に時系列のメタデータとして付加されている。 In this technology, a sensor is attached to a soccer player or a ball that is a subject in advance, and the position of the soccer player or the ball is acquired by measuring the sensor position, and is added to the video as time-series metadata. .
検索を行うユーザは、まず所望の移動体(選手やボールなど)をパレットから選択し、映像が表示されている画面上に検索したい移動体の軌跡を描画する。このとき、複数の移動体を選択する場合は、それぞれの移動体の軌跡を描画する。 The user who performs the search first selects a desired moving body (player, ball, etc.) from the palette, and draws the locus of the moving body to be searched on the screen on which the video is displayed. At this time, when a plurality of moving objects are selected, the trajectory of each moving object is drawn.
そして、描画された軌跡と移動体の時系列データとのマッチングを行うことにより、軌跡と類似した動きが発生したシーンを、検索処理対象の映像から検索することができる。 Then, by matching the drawn trajectory with the time-series data of the moving object, a scene in which a motion similar to the trajectory has occurred can be searched from the search target video.
しかし、上述した従来の技術では、以下のような問題があった。 However, the conventional technology described above has the following problems.
非特許文献1の技術では、画面全体から動きの情報を取得してヒストグラムを作成しており、画面中から動きを抽出、あるいは指定するための具体的な手法については検討されていない。そのため、画面中にいくつかの動きが含まれている場合や背景の動きによるノイズなどが含まれている場合には、ユーザが意図した動きを的確に反映した抽出処理を行うことができない場合がある。 In the technique of Non-Patent Document 1, motion information is obtained from the entire screen and a histogram is created, and a specific method for extracting or specifying motion from the screen has not been studied. For this reason, if the screen contains some movements, or if noises from background movements are included, extraction processing that accurately reflects the movements intended by the user may not be performed. is there.
また非特許文献2の技術を利用するためには、被写体となる人や物にセンサを装着し、このセンサから時系列の位置情報を取得する必要がある。しかしセンサの装着には手間がかかり、特に人を対象とする場合にはセンサの存在が作業や運動の妨げとなる可能性があるため実用的でない。また、人間の四肢の動きを検索対象とする場合には特殊なセンサあるいは多数のセンサが必要になるため、現実的ではない。 In order to use the technique of Non-Patent Document 2, it is necessary to attach a sensor to a person or an object as a subject and acquire time-series position information from this sensor. However, it takes time and effort to mount the sensor. In particular, in the case of a human subject, the presence of the sensor may hinder work and exercise, which is not practical. In addition, when a human limb movement is a search target, a special sensor or a large number of sensors are required, which is not realistic.
本発明は上記事情に鑑みてなされたものであり、映像中から、ユーザが指定した被写体の動きに類似した動きが発生するシーンを、的確かつ簡易に検索することが可能な映像検索装置、映像検索方法、および映像検索用プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and a video search apparatus and video capable of accurately and easily searching a scene in which a motion similar to the motion of a subject specified by a user occurs from a video. It is an object to provide a search method and a video search program.
上記の課題を解決するための、本発明の映像検索装置は、映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定部と、前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定部と、前記検索対象領域指定部で指定された検索対象領域において、前記動き発生区間決定部で決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理部とを備えることを特徴とする。 In order to solve the above-described problems, the video search apparatus according to the present invention uses the input device on the screen when the user determines that the search target is moving on the screen on which the video is displayed. A search target area designating unit for designating position information of a region surrounded by drawing as a search target area, and a motion generation section determining unit for determining one section in the video in which a series of motions of the search target is generated And a search processing unit for searching for a video information portion in which a movement similar to the movement of the subject in one section determined by the movement generation section determining unit is detected in the search target area specified by the search target area specifying unit; It is characterized by providing.
また本発明の映像検索方法は、映像検索装置が、映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定ステップと、前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定ステップと、前記検索対象領域指定ステップで指定された検索対象領域において、前記動き発生区間決定ステップで決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理ステップとを有することを特徴とする。 In the video search method of the present invention, the video search apparatus is surrounded by a drawing by using the input device on the screen when the user determines that a search target motion is occurring on the screen on which the video is displayed. A search target region specifying step for specifying the position information of the region as a search target region, a motion generation interval determining step for determining one segment in the video where a series of motions of the search target is generated, A search processing step of searching for a video information portion in which a motion similar to the motion of the subject in one section determined in the motion generation section determination step is searched in the search target area specified in the search target area specifying step. It is characterized by.
また本発明の映像検索用プログラムは、上記映像検索装置で実行される機能を、コンピュータで実行させることを特徴とする。 According to another aspect of the present invention, there is provided a video search program for causing a computer to execute a function executed by the video search apparatus.
本発明の映像検索装置、映像検索方法、および映像検索用プログラムによれば、映像中から、ユーザが指定した被写体の動きに類似した動きが発生するシーンを、的確かつ簡易に検索することができる。 According to the video search device, the video search method, and the video search program of the present invention, it is possible to accurately and easily search a scene in which a motion similar to the motion of the subject specified by the user occurs from the video. .
〈一実施形態による映像検索装置の構成〉
本発明の一実施形態による映像検索装置の構成を、図1を参照して説明する。本実施形態による映像検索装置1は、映像情報記憶部11と、動き検出部12と、動き配列表情報記憶部13と、映像表示制御部14と、表示部15と、動き可視化情報生成部16と、入力部17と、検索対象領域指定部18と、動き発生区間決定部19と、ヒストグラム生成部20と、検索処理部21と、検索結果出力部22とを有する。
<Configuration of Video Retrieval Device According to One Embodiment>
A configuration of a video search apparatus according to an embodiment of the present invention will be described with reference to FIG. The video search device 1 according to the present embodiment includes a video information storage unit 11, a motion detection unit 12, a motion sequence table information storage unit 13, a video display control unit 14, a display unit 15, and a motion visualization information generation unit 16. An input unit 17, a search target area specifying unit 18, a motion generation section determining unit 19, a histogram generating unit 20, a search processing unit 21, and a search result output unit 22.
映像情報記憶部11は、検索処理対象の映像情報であるテニスの試合を撮影した映像情報を記録する。この映像情報は、予め記録された映像ファイルでもよいし、外部から随時取得して記録している映像ストリームでもよい。 The video information storage unit 11 records video information of a tennis match that is video information to be searched. This video information may be a video file recorded in advance, or may be a video stream acquired and recorded from outside as needed.
動き検出部12は、映像情報記憶部11に記録された映像情報を構成する映像開始時点から映像終了時点までの全フレームについてフレーム画像情報内の各位置の動き角度情報を取得し、これらを格納したセルを有する動き配列表情報を生成する。 The motion detection unit 12 acquires the motion angle information of each position in the frame image information for all frames from the video start time to the video end time constituting the video information recorded in the video information storage unit 11 and stores them. The motion sequence table information having the selected cells is generated.
動き配列表情報記憶部13は、動き検出部12で生成された動き配列表情報を記憶する。 The motion sequence table information storage unit 13 stores the motion sequence table information generated by the motion detection unit 12.
映像表示制御部14は、映像情報記憶部11に記憶された映像情報を取得し表示制御を行う。 The video display control unit 14 acquires video information stored in the video information storage unit 11 and performs display control.
表示部15は、映像表示制御部14で取得された映像情報や、検索結果等を表示する画面である。 The display unit 15 is a screen that displays video information acquired by the video display control unit 14, search results, and the like.
動き可視化情報生成部16は、動き配列表情報記憶部13に記憶された動き配列表情報に基づいて映像中の動き角度情報が発生している場所を可視化するための動き可視化情報を生成し、表示部15に表示させる。 The motion visualization information generating unit 16 generates motion visualization information for visualizing a place where the motion angle information in the video is generated based on the motion sequence table information stored in the motion sequence table information storage unit 13. Displayed on the display unit 15.
入力部17は、ユーザにより操作されるマウスやタッチディスプレイなどの入力デバイスであり、表示部15上の任意の位置を指定するための入力処理を行う。 The input unit 17 is an input device such as a mouse or a touch display operated by the user, and performs an input process for designating an arbitrary position on the display unit 15.
検索対象領域指定部18は、映像が表示された表示部15の画面上で、検索対象の動きが発生しているとユーザにより判断されて、入力部17の入力デバイスが用いられて描画により囲まれた領域の画面上の位置情報を、検索対象領域として指定する。 The search target area designating unit 18 is determined by the user that the movement of the search target is occurring on the screen of the display unit 15 on which the video is displayed, and is surrounded by drawing using the input device of the input unit 17. The position information on the screen of the selected area is designated as the search target area.
動き発生区間決定部19は、映像中内の、検索対象の一連の動きが発生している一区間を決定する。 The motion generation section determination unit 19 determines one section in the video where a series of motions to be searched is generated.
ヒストグラム生成部20は、動き配列表情報記憶部13に記憶された動き配列表情報中の、検索対象領域指定部18で指定された検索対象領域に対応する各セルの動き角度情報の変化を時系列に示したヒストグラム画像情報を生成する。 The histogram generation unit 20 changes the motion angle information of each cell corresponding to the search target area specified by the search target area specifying unit 18 in the motion sequence table information stored in the motion sequence table information storage unit 13. The histogram image information shown in the series is generated.
検索処理部21は、ヒストグラム生成部20で生成された映像開始時点から終了時点までに対応するヒストグラム画像情報の中から、動き発生区間決定部19により決定された一区間に対応するヒストグラム画像情報部分と類似する画像情報部分を有する区間を検索し、検索対象の動きと類似する動きが発生している区間として抽出する。 The search processing unit 21 includes a histogram image information portion corresponding to one section determined by the motion generation section determination unit 19 from histogram image information corresponding to the video start time and end time generated by the histogram generation unit 20. A section having an image information part similar to the above is searched, and is extracted as a section in which a movement similar to the movement to be searched is generated.
検索結果出力部22は、検索処理部21の検索により抽出された区間を検索結果として表示部15に出力する。 The search result output unit 22 outputs the section extracted by the search of the search processing unit 21 to the display unit 15 as a search result.
〈一実施形態による映像検索装置の動作〉
本実施形態による映像検索装置1に動作として、テニスの試合を固定カメラで撮影した映像情報が検索処理対象として映像情報記憶部11に記憶され、この映像情報から、ユーザが指定したサーブのシーンが検索対象として検索され表示部15に表示される映像検索処理について説明する。
<Operation of Video Retrieval Device According to One Embodiment>
As an operation of the video search device 1 according to the present embodiment, video information obtained by shooting a tennis game with a fixed camera is stored in the video information storage unit 11 as a search processing target, and from this video information, a serve scene designated by the user is stored. A video search process that is searched as a search target and displayed on the display unit 15 will be described.
まず映像検索処理の前段階として実行される動き配列表情報を生成する処理について図2のフローチャートを参照して説明する。 First, a process for generating motion sequence table information executed as a previous stage of the video search process will be described with reference to the flowchart of FIG.
映像検索装置1の動き検出部12において、検索処理対象である「テニスの試合を撮影した映像情報」の連続する2枚のフレーム画像情報が映像情報記憶部11から取得され(S1)、これらのフレーム画像情報内の各位置に関する動きベクトルが検出される。 In the motion detection unit 12 of the video search device 1, two pieces of continuous frame image information of “video information obtained by shooting a tennis game” which is a search processing target is acquired from the video information storage unit 11 (S 1). A motion vector for each position in the frame image information is detected.
具体的には、フレーム番号nおよびフレーム番号n+1の連続する2枚のフレーム画像情報が取得され、これら2枚のフレーム画像情報中の基準座標lnの周辺の画像情報が比較されることにより、当該座標lnに関する被写体の動きベクトル(オプティカルフロー)が検出される(S2)。本実施形態において被写体の動きベクトルはブロックマッチング法を用いて検出する場合について説明するが、これには限定されず、勾配法やLucas-Kanade法などを用いて検出するようにしてもよい。 Specifically, two pieces of continuous frame image information of frame number n and frame number n + 1 are acquired, and image information around the reference coordinate ln in these two pieces of frame image information is compared. Then, the motion vector (optical flow) of the subject with respect to the coordinate ln is detected (S2). In this embodiment, the case where the motion vector of the subject is detected using the block matching method will be described. However, the present invention is not limited to this, and the subject motion vector may be detected using a gradient method, Lucas-Kanade method, or the like.
そして、検出された動きベクトルが予め設定された閾値よりも低い場合は動きが検出されなかったものとして無視され、動きベクトルが当該閾値以上であった場合に、この動きベクトルの動き角度情報が算出される(S3)。 If the detected motion vector is lower than a preset threshold, it is ignored as no motion is detected. If the motion vector is equal to or greater than the threshold, the motion angle information of this motion vector is calculated. (S3).
算出された動きベクトルの動き角度情報は、フレーム画像情報ごとに生成される動き配列表情報に格納される(S4)。動き配列表情報は、動きベクトルの検出を行う探索サイズを一辺とする正方形領域で分割された、フレーム画像情報内の各領域に対応するセルを有する2次元の配列表情報を、当該映像情報の全フレーム画像情報数分有した3次元の動き配列表情報である。つまりこの動き配列表情報には、当該映像情報内の全てのフレーム画像情報全体にわたる位置に関する動きベクトルの動き角度情報を格納するセルが備えられている。 The motion angle information of the calculated motion vector is stored in motion array table information generated for each frame image information (S4). The motion sequence table information is obtained by dividing two-dimensional sequence table information having cells corresponding to each region in the frame image information divided by a square region whose side is a search size for detecting a motion vector. This is three-dimensional motion arrangement table information having the total number of pieces of frame image information. That is, the motion array table information includes a cell for storing motion vector motion angle information related to positions over all frame image information in the video information.
映像に含まれるフレーム画像情報の総数をfcとし、表示部15の画面の横方向サイズをwidthとし、縦方向サイズをheightとし、動きベクトル検出処理の、基準座標lnに対する比較処理対象の周辺領域のサイズをblockSizeとし、探索サイズをshiftSizeとすると、動き配列表情報の情報量(セル総数)は以下の式(1)で示される。
例えば図3(a)に示すようなフレーム画像情報30nと、これに連続するフレーム画像情報30n+1とから検索サイズごとの各位置に関する動きベクトルを検出し、各動きベクトルから算出された動き角度情報を、当該フレーム画像情報30nに対応する配列表情報40nの対応するセルに格納した状態を、図3(b)に示す。図3(b)では、説明を簡易にするために探索サイズを大きく設定し、探索サイズにより画面の横方向のサイズが13個に分割され、縦方向のサイズが7個に分割された場合について示している。 For example, a motion angle associated with each position for each search size is detected from frame image information 30n as shown in FIG. 3A and frame image information 30n + 1 that follows the frame image information 30n, and a motion angle calculated from each motion vector is detected. FIG. 3B shows a state in which the information is stored in the cell corresponding to the array table information 40n corresponding to the frame image information 30n. In FIG. 3B, the search size is set large to simplify the explanation, and the horizontal size of the screen is divided into 13 pieces according to the search size, and the vertical size is divided into 7 pieces. Show.
図3(a)の例では、サーブを打つ動作が画面の右側で行われているため、対応する配列表情報40nにおいても右側のセルに多くの動き角度情報が格納されている。また、サーブを打つ動作以外にも他のプレイヤーの動きや背景の動きが検出され、対応するセルに算出された動き角度情報が格納されている。動きが検出されなかった位置に対応するセルには、nullなどの動き角度情報として扱わない値が挿入される。 In the example of FIG. 3A, since the act of making a serve is performed on the right side of the screen, a large amount of movement angle information is stored in the right cell also in the corresponding array table information 40n. In addition to the motion of hitting the serve, the motion of other players and the motion of the background are detected, and the calculated motion angle information is stored in the corresponding cell. A value not treated as motion angle information such as null is inserted into a cell corresponding to a position where no motion is detected.
上述したステップS2〜S4の処理は、基準座標lnから探索サイズずつずらして繰り返されることにより、フレーム画像情報内全体に対して実行される(ループB)。 The processes in steps S2 to S4 described above are repeated for the entire frame image information by repeating the search size shifted from the reference coordinate ln by a search size (loop B).
さらに、映像情報内の全てのフレーム画像情報に関してループBの処理が実行されて(ループA)、動き配列表情報が生成され動き配列表情報記憶部13に記憶される(S5)。 Further, loop B processing is executed for all frame image information in the video information (loop A), and motion sequence table information is generated and stored in the motion sequence table information storage unit 13 (S5).
次に、記憶された動き配列表情報を利用して映像検索処理が実行されるときの処理について図4のフローチャートを参照して説明する。 Next, processing when the video search processing is executed using the stored motion sequence table information will be described with reference to the flowchart of FIG.
まず映像情報記憶部11に記憶された、検索処理対象であるテニスの試合を撮影した映像情報が映像表示制御部14の制御により表示部15に表示される。表示された映像は、ユーザにより視聴される。 First, video information that is captured in the video information storage unit 11 and that captures a tennis game to be searched is displayed on the display unit 15 under the control of the video display control unit 14. The displayed video is viewed by the user.
そしてユーザが映像を視聴したことにより、映像情報の中からサーブを打つシーンを検索対象として処理を実行したいと考えたとき、ユーザにより再生操作や早送り操作、または画面上に表示されたシークバーを利用した操作などの既存の技術により映像再生制御処理が実行され、当該映像情報の中のいずれか1回のサーブシーン中のフレーム画像情報が表示部15に表示される。 Then, when the user views the video and wants to execute the process with the scene to be served as a search target from the video information, the user uses a playback operation, fast-forward operation, or a seek bar displayed on the screen. The video reproduction control process is executed by the existing technique such as the above-described operation, and the frame image information in any one of the serve scenes in the video information is displayed on the display unit 15.
ここでユーザが映像を視聴する際に、記憶された動き配列表情報を利用して、動きの動き角度情報を可視化するための動き可視化情報を動き可視化情報生成部16で生成し、表示部15に表示させるようにする(S11)ことで、ユーザが動き角度情報を把握でき、検索対象とする被写体の動きを発見しやすくすることができる。 Here, when the user views the video, the motion visualization information generating unit 16 generates motion visualization information for visualizing the motion angle information of the motion using the stored motion sequence table information, and the display unit 15 (S11), the user can grasp the movement angle information and can easily find the movement of the subject to be searched.
例えば図5(a)に示すように、生成された配列表情報40n情報中の動き角度情報の数値をフレーム画像情報30n中の対応する場所に重畳して表示させたり、図5(b)に示すように、生成された配列表情報40nの動き角度情報の数値をHSV色空間の情報に変換した動き可視化情報50nをフレーム画像情報30nの対応する場所にカラーブロックとして重畳して表示させることで、動き角度情報を可視化することができる。 For example, as shown in FIG. 5A, the numerical value of the motion angle information in the generated sequence table information 40n information is displayed superimposed on the corresponding location in the frame image information 30n. As shown, motion visualization information 50n obtained by converting the numerical value of the motion angle information of the generated sequence table information 40n into HSV color space information is superimposed and displayed as a color block at a corresponding location in the frame image information 30n. The motion angle information can be visualized.
検索対象とする被写体の動きをユーザが発見しやすくするための他の手法について、図6および図7を参照して説明する。例えば図6(a)に示すように、ユーザがポインタにより示した位置(矢印で示した位置)を中心とした一定範囲を注目範囲60nとし、図6(b)に示すように、注目範囲60nに対応する動き配列表情報中の動き角度情報のみを各フレーム画像情報に対応する動き配列表情報から抽出する。そしてフレーム画像情報ごとに、動き角度情報が記憶されたセル数をカウントし、カウントした結果を図7に示すように時系列に棒グラフで表示させることにより、画面上の任意の位置周辺で動きが多く発生した区間を時間軸上において視認しやすい状態で可視化することができる。この棒グラフは画面上に表示された、映像の開始位置から終了位置を直線的に示したシークバー上に表示させるようにしてもよい。また表示された棒グラフを利用して、ユーザのクリック操作やタップ操作により、図7の矢印で示すように動きが多く発生した時点のフレームまで再生位置をスキップできるようにしてもよい。 Another method for making it easier for the user to find the movement of the subject to be searched will be described with reference to FIGS. For example, as shown in FIG. 6 (a), a fixed range centered on the position indicated by the pointer (position indicated by the arrow) is set as the attention range 60n, and as shown in FIG. 6 (b), the attention range 60n. Only the motion angle information in the motion sequence table information corresponding to is extracted from the motion sequence table information corresponding to each frame image information. For each frame image information, the number of cells in which the movement angle information is stored is counted, and the counted result is displayed in a bar graph in time series as shown in FIG. It is possible to visualize a lot of generated sections in a state in which they are easily visible on the time axis. This bar graph may be displayed on a seek bar displayed on the screen and linearly indicating the start position to the end position of the video. Further, by using the displayed bar graph, the playback position may be skipped to the frame at the time when a large amount of movement has occurred as indicated by the arrow in FIG. 7 by the user's click operation or tap operation.
次に、ユーザが検索対象としたい一連のサーブのシーン中のいずれかのフレーム画像情報が表示部15に表示された状態で、サーブを打つ動作を行っている被写体が表示されている場所、つまり検索対象の動きが発生していると判断された画面上の領域が、検索対象領域としてユーザにより入力される。このユーザによる画面上での検索対象領域の入力は、入力部17の入力デバイスであるマウスのドラッグ操作や指でなぞるなどの操作が行われることにより、描画された自由線で囲まれて実行される。そして、入力された検索対象領域の位置情報が検索対象領域指定部18で取得されることにより、検索対象領域が指定される(S12)。 Next, in a state where any frame image information in a series of serve scenes that the user wants to search is displayed on the display unit 15, the place where the subject performing the act of hitting the serve is displayed, that is, The area on the screen where it is determined that the movement of the search target has occurred is input by the user as the search target area. The input of the search target area on the screen by the user is executed by being surrounded by a drawn free line by performing an operation such as dragging a mouse as an input device of the input unit 17 or tracing with a finger. The Then, the position information of the input search target area is acquired by the search target area specifying unit 18 to specify the search target area (S12).
例えば図8に示すように、ステップS11の処理により表示されたカラーブロックが参照されて、サーブを打つ動作を行っている被写体を囲むように、点線で示すような自由線で検索対象領域70nが描画されて入力される。 For example, as shown in FIG. 8, the color block displayed by the process of step S11 is referred to, and the search target area 70n is indicated by a free line as shown by a dotted line so as to surround the subject performing the act of serving. It is drawn and input.
次に動き発生区間決定部19により、映像情報中で、当該検索対象領域で検索対象の一連の動きが発生している一区間の時間情報が動き発生区間として決定される(S13)。例えば、本実施形態においては1回のサーブが行われる映像部分に対応する区間が、動き発生区間として決定される。この動き発生区間は、予め設定された定数を利用して決定してもよく、例えば現在表示されているフレームから前後1秒分、合計2秒分(60フレーム相当)に対応する区間として決定してもよい。また図9(a)に示すように、当該検索対象領域に対応する動き配列表情報中の動き角度情報を参照し、図9(b)に示すようにフレーム画像情報ごとの、動き角度情報が記憶されたセル数のカウント値を時系列に棒グラフ化し、表示中のフレーム画像情報の前後について動き角度情報が多く発生し始めたフレームに対応する時点を始点、少なくなったフレームに対応する時点を終点として、動き発生区間が決定されるようにしてもよい。また映像情報を再生させながら、検索対象とする動きが始めったとユーザが判断した時点でクリック操作を行い、当該動きが終わったと判断した時点でクリック操作を離すことで、ユーザにより指定された区間が動き発生区間として決定されるようにしてもよい。 Next, the motion generation section determination unit 19 determines time information of one section in the video information where a series of search target movements occur in the search target area as the motion generation section (S13). For example, in the present embodiment, a section corresponding to a video portion where one serving is performed is determined as a motion generation section. This motion generation section may be determined using a preset constant. For example, the movement generation section is determined as a section corresponding to a total of 2 seconds (corresponding to 60 frames) for 1 second before and after the currently displayed frame. May be. Further, as shown in FIG. 9A, the motion angle information in the motion sequence table information corresponding to the search target area is referred to, and the motion angle information for each frame image information is obtained as shown in FIG. 9B. The stored count value of the number of cells is converted into a bar graph in time series, and the start time corresponding to the frame where a large amount of motion angle information has started to appear before and after the frame image information being displayed is the start point, and the time point corresponding to the reduced frame is displayed. A motion generation section may be determined as the end point. Also, while the video information is being played back, a click operation is performed at the time when the user determines that the movement to be searched has started, and the click operation is released at the time when it is determined that the movement has ended, and the section specified by the user May be determined as the motion generation section.
次にヒストグラム生成部20において、動き配列表情報記憶部13に記憶された動き配列表情報から、各フレームの検索対象領域に対応するセルの要素が抽出され、映像開始時点から終了時点までの各時点における角度範囲ごとの動き角度情報の出現頻度の変化情報が時系列に並べられたヒストグラム画像情報が生成される(S14)。 Next, the histogram generation unit 20 extracts the cell elements corresponding to the search target area of each frame from the motion sequence table information stored in the motion sequence table information storage unit 13, and displays each element from the video start time to the end time. Histogram image information in which the change information of the appearance frequency of the motion angle information for each angle range at the time is arranged in time series is generated (S14).
動き配列表情報からヒストグラム画像情報の生成処理について、図10および図11を参照して説明する。 A process for generating histogram image information from motion sequence table information will be described with reference to FIGS. 10 and 11.
まず、最初のフレーム画像情報に関し、ステップS12において指定された検索対象領域に対応する動き配列表情報の動き角度情報が、予め設定された角度範囲ごとに分類されてそれぞれ計数される。 First, regarding the first frame image information, the motion angle information of the motion sequence table information corresponding to the search target area specified in step S12 is classified for each preset angle range and counted.
例えば、図8に示すフレーム画像情報で指定された検索対象領域について、図9(a)で示すように取得された対応する動き配列表情報の動き角度情報が、予め設定された角度範囲ごとの出現頻度が計数される。このとき、動き角度情報のばらつきを丸め、0度と360度とをまとめるために、複数の角度範囲が重畳するように設定される。例えば、「0度から30度」、「15度から45度」、・・・「345度から15度」というように重畳した24個の角度範囲が設定され、それぞれの出現頻度が計数される。 For example, for the search target area specified by the frame image information shown in FIG. 8, the motion angle information of the corresponding motion sequence table information acquired as shown in FIG. 9A is obtained for each preset angle range. Appearance frequency is counted. At this time, in order to round off the variation of the motion angle information and combine 0 degrees and 360 degrees, a plurality of angle ranges are set to be overlapped. For example, 24 overlapping angle ranges such as “0 degree to 30 degrees”, “15 degrees to 45 degrees”,... ”345 degrees to 15 degrees” are set, and the frequency of each occurrence is counted. .
この計数結果をグラフ化すると、図10のように表される。図10では、横軸に、動き角度情報を分類する角度範囲が示され、縦軸に各角度範囲の出現頻度が示されている。 When this counting result is graphed, it is expressed as shown in FIG. In FIG. 10, the horizontal axis indicates the angle range for classifying the motion angle information, and the vertical axis indicates the appearance frequency of each angle range.
次に図11(a)に示すように、図10で表された計数結果が、色の濃淡に変換された色変換情報が生成される。図11(a)の色変換情報では、縦幅が各角度範囲に1pixelごとに対応して最上部の画素が角度範囲「0度から30度」に対応し、最下部の画素が角度範囲「345度から15度」に対応しており、横幅が当該フレームに対応して1pixelで構成され、角度範囲の出現頻度が高い程、輝度の高い色で示されている。ここでは角度範囲「75度から90度」の出現頻度が最も高いため、この角度範囲に対応する画素が最も輝度が高い白色で示されている。 Next, as shown in FIG. 11A, color conversion information in which the counting result shown in FIG. 10 is converted into color shading is generated. In the color conversion information of FIG. 11A, the vertical width corresponds to each angle range for each pixel, the uppermost pixel corresponds to the angular range “0 degree to 30 degrees”, and the lowermost pixel corresponds to the angular range “ The horizontal width is 1 pixel corresponding to the frame, and the higher the frequency of appearance of the angle range, the higher the brightness. Here, since the appearance frequency of the angle range “75 degrees to 90 degrees” is the highest, the pixel corresponding to this angle range is shown in white with the highest luminance.
このようにして映像情報の開始時点から終了時点までのすべてのフレーム画像情報について検索対象領域の色変換情報が生成され、これらが時系列に横に連結させることにより、図11(b)に示すような横幅が映像のフレーム長分の画素数(fc pixel)のヒストグラム画像情報80が生成される。このヒストグラム画像情報には正規化処理が施され、最も出現頻度が高い動き角度情報に対応する画素ほど輝度が高くなるように表される。 In this way, the color conversion information of the search target area is generated for all the frame image information from the start time to the end time of the video information, and these are horizontally connected in time series, and as shown in FIG. Histogram image information 80 having such a width as the number of pixels (fc pixel) corresponding to the frame length of the video is generated. The histogram image information is subjected to normalization processing, and the pixels corresponding to the motion angle information having the highest appearance frequency are expressed so as to have higher luminance.
次に検索処理部21において、ヒストグラム生成部20で生成されたヒストグラム画像情報80の中から、動き発生区間決定部19で決定された一区間に対応するヒストグラム画像情報部分と類似する画像情報部分を有する区間が検索される(S15)。 Next, in the search processing unit 21, an image information part similar to the histogram image information part corresponding to one section determined by the motion generation section determination unit 19 is selected from the histogram image information 80 generated by the histogram generation unit 20. The section which has is searched (S15).
この検索処理においてはまず、図12に示すように、ヒストグラム画像情報80の中からステップS13において決定された動き発生区間に対応する区間のヒストグラム画像情報部分がコピーされ、テンプレート画像情報90として取得される。 In this search process, first, as shown in FIG. 12, the histogram image information portion of the section corresponding to the motion occurrence section determined in step S13 is copied from the histogram image information 80 and acquired as template image information 90. The
そして、ヒストグラム画像情報80の全体に対してテンプレート画像情報90をずらしながらマッチング処理が行われ、2つの画像情報の画素値が比較される。マッチング処理で計算される画像を比較したときの近さ(画像の重なり度合い)をここでは類似度と呼び、例えば下記式(2)で示されるような相関関係を求める式により算出される。
上記式(2)において、T’(x’,y’)は座標(x’,y’)におけるテンプレート画像情報90の画素値であり、I’(x’,y’)は比較する画像情報(ここではヒストグラム画像情報80の一部)の画素値であり、Rは相関関数を示す。 In the above formula (2), T ′ (x ′, y ′) is the pixel value of the template image information 90 at the coordinates (x ′, y ′), and I ′ (x ′, y ′) is the image information to be compared. This is a pixel value (a part of the histogram image information 80 here), and R represents a correlation function.
算出され正規化された類似度について、画像情報が完全に一致して重なったときの類似度を「1」、全く一致せず重ならなかったときの類似度を「0」とすると、例えば類似度が「0.5」以上であると判定される区間が類似する画像情報部分を有する区間として抽出される。この類似する画像情報部分は、1つのヒストグラム画像情報80から複数抽出される場合もある。複数の区分が非常に近い位置で抽出された場合、それらは1つの区分としてまとめられる。 For the calculated and normalized similarity, assuming that the similarity is “1” when the image information is completely matched and overlapped, and the similarity when the image information is not matched and does not overlap is “0”, for example, similar The sections determined as having a degree of “0.5” or more are extracted as sections having similar image information portions. A plurality of similar image information portions may be extracted from one histogram image information 80. If multiple sections are extracted at very close positions, they are grouped as one section.
この抽出された画像情報部分に対応する映像情報部分は、ステップS12においてユーザにより指定された検索対象の動きに類似する動きが発生している映像情報部分であると予測される。 The video information portion corresponding to the extracted image information portion is predicted to be a video information portion in which a movement similar to the search target movement designated by the user in step S12 occurs.
次に検索結果出力部22において、抽出された区分に対応する映像情報部分に関する情報が、検索結果として表示部15に出力される(S16)。映像情報部分に関する情報の表示としては、対応する映像情報部分内のフレーム画像情報を利用したサムネイル画面の表示、映像情報中の開始から終了までの各時点を直線上に示したシークバー上における対応する位置の表示、あるいは対応する映像情報部分の再生表示等により行われる。 Next, in the search result output unit 22, information regarding the video information portion corresponding to the extracted category is output to the display unit 15 as a search result (S16). Display of information related to the video information portion includes display of a thumbnail screen using frame image information in the corresponding video information portion, and corresponding on a seek bar in which each time point from the start to the end in the video information is shown on a straight line. It is performed by displaying the position or reproducing and displaying the corresponding video information portion.
以上の本実施形態によれば、映像中から、ユーザが指定した被写体の動きに類似した動きが発生するシーンを、ユーザの意図を基に的確かつ簡易に検索し、出力することができる。 According to the present embodiment described above, a scene in which a movement similar to the movement of the subject specified by the user occurs in the video can be accurately and easily searched and output based on the user's intention.
このとき、ユーザが入力した検索対象領域に基づいて処理を行うため、ユーザが検索したいと意図した動きに基づいて的確に映像情報部分(シーン)の検索を実現することができる。これにより、同じ映像区間に異なる場所で複数の動きが発生している場合やノイズが含まれる場合であっても、高い精度でユーザの意図した検索処理を行うことができる。 At this time, since the processing is performed based on the search target region input by the user, it is possible to accurately search for the video information portion (scene) based on the movement intended by the user. Thereby, even when a plurality of movements occur in different locations in the same video section or when noise is included, the search process intended by the user can be performed with high accuracy.
また、映像情報に関して検索対象の動きに対応する区間をユーザが予め手動で切り出しておく操作も必要とせず、長い映像情報からでも任意の動きを含むシーンを間に簡易に検索することができる。 Further, it is not necessary for the user to manually cut out a section corresponding to the motion to be searched for video information in advance, and a scene including an arbitrary motion can be easily searched even from long video information.
また、被写体の複雑な動きを検索対象とする場合であっても、ユーザは画面上の該当する被写体を囲むように描画するという簡単な操作のみで検索処理を実行させることができる。例えば、画面内で多数の選手が全体的に動くようなマクロな動きを検出したい場合は、該当する多数の選手の位置を包含して囲むように画面上で描画して検索対象領域を指定するのみで、検索処理が可能である。このときヒストグラム生成部では、各フレームの角度範囲ごとの動き角度情報の出現頻度を基にヒストグラム画像情報が生成されるため、厳密な各動きの位置の情報は考慮されず、全体的な動きの傾向に着目して検索が実行される。 Even when a complicated movement of a subject is a search target, the user can execute the search process only with a simple operation of drawing so as to surround the corresponding subject on the screen. For example, if you want to detect macro movements in which a large number of players move as a whole on the screen, specify the search target area by drawing on the screen so as to encompass and surround the positions of the corresponding large number of players. Search processing is possible only with this. At this time, the histogram generation unit generates the histogram image information based on the appearance frequency of the motion angle information for each angle range of each frame. A search is executed focusing on the trend.
一方で、被写体の四肢や手元の動きなどミクロな動きを検索する場合には、その動きに対応する範囲だけを囲むように描画すればよい。このとき、検索処理部でマッチング処理に用いられるテンプレート画像情報には、動き発生区間の中で変化する動き角度情報が含まれるため、当該検索対象の一連の動きの流れに基づいて検索が実行される。 On the other hand, when searching for a microscopic movement such as the limb of the subject or the movement of the hand, it is only necessary to draw so as to surround only a range corresponding to the movement. At this time, since the template image information used for the matching processing in the search processing unit includes the motion angle information that changes in the motion generation section, the search is executed based on the flow of a series of motions of the search target. The
また、動き可視化情報生成部において映像中の動きが発生している場所が動き角度情報に基づいて可視化されるため、検索対象としたい動きと別個の動きが近い位置で発生している場合にも、個々の動きの境界が明確に可視化され、ユーザが所望の動きを発見しやすくなる。 In addition, since the location where the motion in the video is generated is visualized based on the motion angle information in the motion visualization information generation unit, even when a motion separate from the motion to be searched for is generated at a close position , The boundaries of individual movements are clearly visualized, making it easier for the user to find the desired movement.
また、本実施形態の映像検索装置の各機能部の機能を、コンピュータに実行させるための映像検索用プログラムを構築することにより、当該コンピュータを映像検索装置として機能させることも可能である。 In addition, by constructing a video search program for causing a computer to execute the functions of the functional units of the video search device of the present embodiment, the computer can also function as a video search device.
1…映像検索装置
11…映像情報記憶部
12…動き検出部
13…動き配列表情報記憶部
14…映像表示制御部
15…表示部
16…動き可視化情報生成部
17…入力部
18…検索対象領域指定部
19…発生区間決定部
20…ヒストグラム生成部
21…検索処理部
22…検索結果出力部
30n…フレーム画像情報
40n…動き配列表情報
60n…注目範囲
70n…検索対象領域
80…ヒストグラム画像情報
90…テンプレート画像情報
DESCRIPTION OF SYMBOLS 1 ... Image | video search device 11 ... Image | video information storage part 12 ... Motion detection part 13 ... Motion sequence table information storage part 14 ... Image | video display control part 15 ... Display part 16 ... Motion visualization information generation part 17 ... Input part 18 ... Search object area | region Designating part 19 ... Generating section determining part 20 ... Histogram generating part 21 ... Search processing part 22 ... Search result output part 30n ... Frame image information 40n ... Motion sequence table information 60n ... Target area 70n ... Search target area 80 ... Histogram image information 90 ... template image information
Claims (7)
前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定部と、
前記検索対象領域指定部で指定された検索対象領域において、前記動き発生区間決定部で決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理部と
を備えることを特徴とする映像検索装置。 On the screen where the video is displayed, the user determines that the movement of the search target is occurring, and uses the input device on the screen to specify the position information of the area surrounded by the drawing as the search target area A search area designating section;
A motion generation section determination unit that determines one section in the video where a series of movements of the search target is generated;
A search processing unit for searching for a video information portion in which a motion similar to the motion of the subject in one section determined by the motion generation section determination unit is detected in the search target region specified by the search target region specifying unit; A video search apparatus characterized by that.
ことを特徴とする請求項1に記載の映像検索装置。 The motion angle information at each position for each frame from the start time to the end time of the video is acquired, and block information of different colors is superimposed on the corresponding position on the screen based on the size of the motion angle information. Search the user for display information to be displayed or a graph showing on the time axis the count value of position information that is recognized as the occurrence of movement at each time point from the video start time point to the end time point The video search apparatus according to claim 1, further comprising a motion visualization information generation unit that generates and displays motion visualization information for determining a place where the target motion is occurring.
前記検索処理部は、前記動き変化情報生成部で生成されたヒストグラム画像情報の中から、前記動き発生区間決定部で決定された一区間に対応するヒストグラム画像情報部分の類似度が予め設定された閾値以上であると判定される画像情報部分を有する区間を検索し、前記検索対象の動きと類似する動きが発生している区間として抽出する
ことを特徴とする請求項1または2に記載の映像検索装置。 The motion angle information at each position in the specified search target area is acquired for each frame constituting the video, and information indicating the appearance frequency for each angle range of the motion angle information at each position is linked in time series. A histogram generation unit for generating the histogram image information,
The search processing unit is preset with a similarity of a histogram image information portion corresponding to one section determined by the motion generation section determination unit from the histogram image information generated by the motion change information generation unit. The video according to claim 1 or 2, wherein a section having an image information portion determined to be equal to or greater than a threshold is searched and extracted as a section in which a movement similar to the movement of the search target occurs. Search device.
映像が表示される画面上で、検索対象の動きが発生しているとユーザにより判断されて画面上へ入力デバイスが用いられて描画により囲まれた領域の位置情報を、検索対象領域として指定する検索対象領域指定ステップと、
前記検索対象の一連の動きが発生している前記映像中の一区間を決定する動き発生区間決定ステップと、
前記検索対象領域指定ステップで指定された検索対象領域において、前記動き発生区間決定ステップで決定された一区間の被写体の動きと類似する動きが発生した映像情報部分を検索する検索処理ステップと
を有することを特徴とする映像検索方法。 Video search device
On the screen where the video is displayed, the user determines that the movement of the search target is occurring, and uses the input device on the screen to specify the position information of the area surrounded by the drawing as the search target area A search area specification step;
A motion generation section determination step for determining one section in the video in which a series of movements of the search target is generated;
A search processing step of searching for a video information portion in which a motion similar to the motion of the subject in one section determined in the motion generation section determination step occurs in the search target area specified in the search target area specifying step. A video search method characterized by the above.
ことを特徴とする請求項4に記載の映像検索方法。 The motion angle information at each position for each frame from the start time to the end time of the video is acquired, and block information of different colors is superimposed on the corresponding position on the screen based on the size of the motion angle information. Search the user for display information to be displayed or a graph showing on the time axis the count value of position information that is recognized as the occurrence of movement at each time point from the video start time point to the end time point The video search method according to claim 4, further comprising a motion visualization information generation step of generating and displaying motion visualization information for determining a place where the target motion is occurring.
前記検索処理ステップでは、前記動き変化情報生成ステップで生成されたヒストグラム画像情報の中から、前記動き発生区間決定ステップで決定された一区間に対応するヒストグラム画像情報部分の類似度が予め設定された閾値以上であると判定される画像情報部分を有する区間を検索し、前記検索対象の動きと類似する動きが発生している区間として抽出する
ことを特徴とする請求項4または5に記載の映像検索方法。 The motion angle information at each position in the specified search target area is acquired for each frame constituting the video, and information indicating the appearance frequency for each angle range of the motion angle information at each position is linked in time series. A histogram generation step for generating the generated histogram image information,
In the search processing step, the similarity of the histogram image information portion corresponding to one section determined in the motion generation section determination step is preset from the histogram image information generated in the motion change information generation step. The video according to claim 4 or 5, wherein a section having an image information portion determined to be equal to or greater than a threshold is searched and extracted as a section in which a movement similar to the movement of the search target occurs. retrieval method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012026297A JP2013164667A (en) | 2012-02-09 | 2012-02-09 | Video retrieval device, method for retrieving video, and video retrieval program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012026297A JP2013164667A (en) | 2012-02-09 | 2012-02-09 | Video retrieval device, method for retrieving video, and video retrieval program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013164667A true JP2013164667A (en) | 2013-08-22 |
Family
ID=49175993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012026297A Pending JP2013164667A (en) | 2012-02-09 | 2012-02-09 | Video retrieval device, method for retrieving video, and video retrieval program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013164667A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101698391B1 (en) * | 2015-10-13 | 2017-02-03 | 이재석 | Apparatus for providing athletics lecture video and method for providing the same |
DE112016006940T5 (en) | 2016-07-11 | 2019-03-14 | Mitsubishi Electric Corporation | Moving picture processing means, moving picture processing method and moving picture processing program |
JP2019097137A (en) * | 2017-11-28 | 2019-06-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Generation device, generating system, imaging system, movable body, generation method, and program |
JP2021120857A (en) * | 2020-01-30 | 2021-08-19 | ベルフェイス株式会社 | Information processing device, information processing method, and program |
-
2012
- 2012-02-09 JP JP2012026297A patent/JP2013164667A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101698391B1 (en) * | 2015-10-13 | 2017-02-03 | 이재석 | Apparatus for providing athletics lecture video and method for providing the same |
DE112016006940T5 (en) | 2016-07-11 | 2019-03-14 | Mitsubishi Electric Corporation | Moving picture processing means, moving picture processing method and moving picture processing program |
JP2019097137A (en) * | 2017-11-28 | 2019-06-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Generation device, generating system, imaging system, movable body, generation method, and program |
US11340772B2 (en) | 2017-11-28 | 2022-05-24 | SZ DJI Technology Co., Ltd. | Generation device, generation system, image capturing system, moving body, and generation method |
JP2021120857A (en) * | 2020-01-30 | 2021-08-19 | ベルフェイス株式会社 | Information processing device, information processing method, and program |
JP7403133B2 (en) | 2020-01-30 | 2023-12-22 | ベルフェイス株式会社 | Information processing device, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Barekatain et al. | Okutama-action: An aerial view video dataset for concurrent human action detection | |
US20200320336A1 (en) | Control method and recording medium | |
JP6225039B2 (en) | Image search system, image search apparatus, and image search method | |
JP5227911B2 (en) | Surveillance video retrieval device and surveillance system | |
Kurzhals et al. | Gaze stripes: Image-based visualization of eye tracking data | |
US9538116B2 (en) | Relational display of images | |
CN105830093B (en) | For generating system, the method and apparatus of metadata relevant to the space region of non-homogeneous size | |
CN106030610B (en) | The real-time 3D gesture recognition and tracking system of mobile device | |
US20160260015A1 (en) | Sports formation retrieval | |
TWI537872B (en) | Method for generating three-dimensional information from identifying two-dimensional images. | |
JP2019057836A (en) | Video processing device, video processing method, computer program, and storage medium | |
CN105872452A (en) | System and method for browsing summary image | |
JP2014153813A5 (en) | Image processing apparatus, image processing method, and program | |
CN104508680B (en) | Improved video signal is tracked | |
EP3973446A1 (en) | Forensic video exploitation and analysis tools | |
US10929682B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2013164667A (en) | Video retrieval device, method for retrieving video, and video retrieval program | |
JP5226651B2 (en) | Similar image retrieval device, similar image retrieval method, and similar image retrieval program | |
US20140208208A1 (en) | Video navigation through object location | |
JP7102173B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6566799B2 (en) | Providing device, providing method, and program | |
JPH07200632A (en) | Information processor | |
WO1999005865A1 (en) | Content-based video access | |
WO2016117039A1 (en) | Image search device, image search method, and information storage medium | |
Sedmidubsky et al. | Retrieving similar movements in motion capture data |